۰

این اطلاعات را هرگز با ChatGPT و دیگر هوشهای مصنوعی به اشتراک نگذارید

يکشنبه ۱۴ ثور ۱۴۰۴ ساعت ۲۰:۴۵
Credit: SciTechDaily
Credit: SciTechDaily
در دنیای امروز، کاربران برای کارهای مختلفی به چت بات‌های هوش مصنوعی روی می‌آورند، از مشاوره‌های روانشناسی و نوشتن ایمیل‌های حرفه‌ای گرفته تا ساختن عکس به سبک استودیو جیبلی.
اگرچه نقش ChatGPT و بهترین چت بات های هوش مصنوعی مانند دیپ سیک، گراک و جمنای در زندگی ما هر روز پررنگ‌تر می‌شود و انجام کارهایمان را ساده‌تر می‌کند، نگرانی درباره‌ی حفظ حریم خصوصی نیز روزبه‌روز افزایش می‌یابد.
در ادامه‌ی مقاله، ۵ موضوعی را که نباید هرگز با ChatGPT یا چت‌بات‌های جایگزین آن به‌اشتراک بگذاریم، با یکدیگر مرور می‌کنیم.
با توجه به رشد سریع و فراگیر چت‌بات‌های هوش مصنوعی، شاید کاربران هنوز به‌طور دقیق از اینکه چه اطلاعاتی را نباید هرگز با چت‌بات‌ها به‌اشتراک بگذاریم، آگاهی نداشته باشند؛ اما واقعیت این است که هرچیز که با چت‌بات‌ها به‌اشتراک می‌گذاریم، دو خطر بالقوه را به‌همراه دارد:
  • اطلاعات ما ممکن است برای آموزش مدل‌های هوش مصنوعی به کار گرفته شوند
    مدل هوش مصنوعی ممکن است اطلاعات ما را در پاسخ به بقیه‌ی کاربران، نمایش دهد
وقتی چیزی را برای یک چت‌بات می‌فرستید، عملاً مالکیت آن را از دست می‌دهید
جنیفر کینگ، پژوهشگر مؤسسه‌ی هوش مصنوعی انسان‌محور دانشگاه استنفورد، می‌گوید: «وقتی چیزی را در یک چت‌بات تایپ می‌کنید و برای آن می‌فرستید، عملاً مالکیت آن را از دست می‌دهید.» بنابراین یادگیری نحوه‌ی صحیح استفاده از چت‌بات‌های هوش مصنوعی به ما کمک می‌کند تا تعامل بهتر و امن‌تری داشته باشیم.

۱. اطلاعات هویتی
مطمئناً اطلاعات شخصی‌ای مانند کد ملی، آدرس محل زندگی یا شماره تیلفون، اطلاعاتی نیستند که کاربران مایل به فاش شدن عمومی آن‌ها در فضای مجازی باشند؛ بنابراین توصیه می‌شود که اطلاعات مربوط به هویت خود یا اطرافیانتان را هرگز با چت‌بات‌ها در میان نگذارید. خود چت‌بات‌ها نیز بسیاری از این اطلاعات را حذف یا سانسور می‌کنند، اما بهتر است خودمان هم مراقب باشیم.
طبق گفته‌ی سخنگوی شرکت OpenAI، «مدل‌های هوش مصنوعی آمده‌اند تا درباره‌ی مسائل مختلف دنیا یاد بگیرند، نه افراد حقیقی؛ پس جمع‌آوری اطلاعات شخصی باید به حداقل برسد.»

۲. اطلاعات طبی
احتمالاً برایتان پیش آمده است که از چت‌بات‌های هوش مصنوعی برای تفسیر آزمایش خون یا نتیجه‌ی MRI کمک بگیرید. اگرچه چت‌بات‌ها در این زمینه می‌توانند به انسان کمک کنند، اما ازآنجاکه احتمال دارد اطلاعات را ذخیره و در گفت‌وگو با سایر کاربران مطرح کنند، توصیه می‌شود این کار را به‌جای چت‌جی‌پی‌تی، به پزشک خود بسپارید.
البته در این مورد می‌توان نتایج آزمایش‌ها را طوری مطرح کرد که به اطلاعات شخصی کاربران صدمه‌ای وارد نشود، مثلاً به‌جای بارگذاری کردن برگه‌ی آزمایش خود، می‌توانید از چت‌بات بپرسید: «آیا قند خون ناشتای ۹۰ برای یک مرد/زن بین ۳۰ تا ۳۵ سال، مناسب است؟» و پاسخ را با آزمایش خود تطبیق دهید.

۳. اطلاعات محرمانه‌ی کاری
افراد شاغل با داده‌های زیادی از جمله اسناد داخلی شرکت‌ها، اطلاعات مربوط به مشتریان، صورت‌جلسات و موارد دیگر سروکار دارند و شاید برای مرتب کردن یا ویرایش آن‌ها بخواهند از چت‌بات‌های هوش مصنوعی کمک بگیرند، اما چنین کاری هرگز توصیه نمی‌شود، زیرا موجب نقض حریم خصوصی افراد حقیقی یا سازمان‌ها می‌شود و می‌تواند تبعات قانونی جدی‌ای را در پی داشته باشد.

۴. نام کاربری و رمز عبور
هنگام گفت‌وگو با یک چت‌بات هرگز نباید رمزهای عبور یا کدهای تأیید دو مرحله‌ای (2FA) حساب‌های کاربری‌‌تان را وارد کنید. ازآنجاکه چت‌بات‌های شناخته‌شده‌ای مانند ChatGPT شاید برای کمک بیشتر، اطلاعاتی را به خاطر بسپارند و بعداً آن‌ها را برای کاربر دیگری ارسال کنند، این داده‌ها ممکن است در صورت دسترسی شخصی دیگر به حسابتان، مورد سوءاستفاده قرار بگیرند.

۵. داده‌های مالی
شاید فکر کنید واضح است که کسی اطلاعات شخصی مالی‌اش را با هوش مصنوعی در میان نمی‌گذارد، اما متأسفانه گاهی کاربران هنگام کمک گرفتن از چت‌بات‌ها برای خلاصه‌سازی اسناد مالی یا دریافت مشاوره‌ای مالی، به‌طور ناخواسته اطلاعات کارت بانکی خود را با آن به‌اشتراک می‌گذارند.

باید دقت کنید که اطلاعاتی مانند شماره‌ی کارت یا رمز دوم هرگز نباید برای مدل‌های هوش مصنوعی ارسال شود، زیرا چنین کاری مسیر را برای کلاهبرداری، سرقت هویت و حملات فیشینگ، هموار می‌کند.
چت‌بات‌های هوش مصنوعی اگرچه ابزارهای قدرتمندی به‌حساب می‌آیند، دفترچه‌ی خاطرات، درمانگر یا صندوق اسرار ما نیستند؛ زیرا هرکدام از سوی شرکتی توسعه یافته‌اند و فارغ از اینکه ممکن است اطلاعات ما را ذخیره کنند، شاید از طریق دیگری داده‌هایمان را فاش کنند؛ بنابراین این خود ما هستیم که باید مراقب داده‌های مهم خود باشیم.
در پایان گفت‌وگو، مکالمه‌تان با چت‌بات را پاک کنید

البته نکته‌ای وجود دارد شاید کمی خیالتان را از حفاظت داده‌هایتان در گفت‌وگو با هوش مصنوعی، راحت کند. جیسون کلینتون، مدیر ارشد امنیت اطلاعات Anthropic، می‌گوید: «شرکت‌ها معمولاً اطلاعات پاک‌شده در چت‌بات‌ها را پس از ۳۰ روز به‌طور کامل پاک می‌کنند تا در جایی ذخیره نشود.» پس بهتر است در پایان گفت‌وگو، مکالمه‌تان با چت‌بات را پاک کنید.
نام شما

آدرس ايميل شما
نظر شما *

پربازدیدترین