ChatGPT عامل خودکشی یک نوجوان شد

5 سنبله 1404 ساعت 13:11


 ان بی سی نیوز، «متیو و ماریا رین»، والدین «آدام رین»، نوجوان ۱۶ ساله‌ای که در بهار ۱۴۰۴ خودکشی کرد، در یک شکایت تازه علیه اوپن‌ای‌آی ادعا کرده‌اند که پسرشان از چت‌جی‌پی‌تی به عنوان «مربی خودکشی» استفاده می‌کرد. آن‌ها می‌گویند آدام در هفته‌های آخر زندگی‌اش، مشکلات اضطراب و دشواری در صحبت با خانواده را با این ربات هوش مصنوعی در میان می‌گذاشت و چت‌هایش نشان می‌دهد که گفتگوها از کمک به تکالیف مدرسه به آموزش روش‌های خودکشی کشیده شده است.
والدین آدام می‌گویند، وقتی پس از مرگ پسرشان گوشی او را بررسی کردند، بیش از سه هزار صفحه گفتگو با چت‌جی‌پی‌تی را پیدا کردند که از ۱۴۰۳ تا روز مرگش در یازدهم بهار ۱۴۰۴ ثبت شده بود.
آن‌ها می‌گویند آدام در این چت‌ها دو یادداشت خودکشی نوشته بود و نه یکی، و چت‌جی‌پی‌تی در طول این گفتگوها هیچ اقدامی برای پیشگیری از خودکشی او انجام نداده است.در شکایت حدود ۴۰ صفحه‌ای، خانواده رین اوپن‌ای‌آی و سام آلتمن، مدیرعامل این شرکت، را به مرگ ناشی از سهل‌انگاری، نقص طراحی و عدم هشدار نسبت به خطرات چت‌جی‌پی‌تی متهم کرده‌اند. آن‌ها خواستار دریافت غرامت و همچنین اقدامات قانونی برای جلوگیری از وقوع چنین حوادثی در آینده هستند.اوپن‌ای‌آی در پاسخ گفته است که چت‌جی‌پی‌تی شامل مکانیسم‌هایی برای هدایت کاربران به خطوط کمک اضطراری و منابع واقعی است. با این حال، سخنگوی شرکت اذعان کرده است که این مکانیسم‌ها در گفتگوهای طولانی ممکن است کمتر کارآمد باشند و در حال بهبود ابزار برای کمک به افراد در بحران هستند، به‌ویژه نوجوانان.
 گفتنی است که پیش از این نیز شکایتی مشابه علیه پلتفرم «کرکتر ای آی» مطرح شده بود که در آن مادر یک نوجوان فلوریدایی در آمریکا ادعا کرده بود ربات این شرکت فرزندش را تشویق به خودکشی کرده است. قضات آمریکایی هنوز در مورد مسئولیت قانونی شرکت‌ها در چنین مواردی در حال بررسی هستند، زیرا قانون «سکشن 230» اغلب پلتفرم‌ها را از مسئولیت در قبال اعمال کاربران محافظت می‌کند، اما کاربرد آن برای هوش مصنوعی هنوز مشخص نیست.
والدین آدام می‌گویند چت‌جی‌پی‌تی حتی زمانی که پسرشان روش خودکشی‌اش را نشان داد، تنها راهنمایی فنی ارائه می‌داد و او به راحتی می‌توانست هشدارها را دور بزند. آن‌ها معتقدند که پسرشان به جای دریافت کمک فوری و تخصصی، به نوعی آزمایشگاه انسانی اوپن‌ای‌آی تبدیل شد و جانش به عنوان «خسارت جانبی» نادیده گرفته شد.
اوپن‌ای‌آی اخیراً اقداماتی برای تقویت محافظت‌های روانی در چت‌جی‌پی‌تی انجام داده است تا پاسخ‌ها به گونه‌ای باشد که افراد را از آسیب زدن به خود بازدارد. با این حال، خانواده رین و کارشناسان هنوز نگران کافی بودن این اقدامات هستند و این پرونده نخستین شکایت خانواده‌ای است که به‌طور مستقیم اوپن‌ای‌آی را به مرگ فرزندشان متهم کرده است.


کد مطلب: 185392

آدرس مطلب: https://www.jomhornews.com/fa/news/185392/

جمهور
  https://www.jomhornews.com