- دسته بندی : اخبار تکنولوژی
- بازدید : 9 بار
- 0 دیدگاه
ChatGPT در مجموعهای از دادخواستهایی که این هفته در ایالت کالیفرنیا ثبت شده، به ایفای نقش «مربی خودکشی» متهم شده است.
به گزارش دیجینوی، شاکیان این پروندهها میگویند ابتدا از ChatGPT صرفا برای دریافت کمک عمومی در انجام تکالیف مدرسه یا تحقیقات استفاده میکردهاند، اما این چتبات کم کم به روان آنها را فریب داده است.
شاکیان این پروندهها ادعا میکنند که تعامل با این چتبات منجر به فروپاشی شدید روانی و چندین مورد مرگ شده است. هفت دادخواست مطرحشده در مورد این چتبات، شامل اتهاماتی در رابطه با نقش آن حول مرگ غیرقانونی، کمک به خودکشی، قتل غیرعمد و سهلانگاری هستند.
بر اساس بیانیهای مشترک از سوی دستاندرکاران «مرکز قربانیان شبکههای اجتماعی» (Social Media Victims Law Center) و سازمان «عدالت فناوری» (Tech Justice) که روز پنجشنبه دادخواستهایی را در ایالت کالیفرنیا ثبت کردند، هر یک از هفت شاکی در ابتدا از چتجیپیتی برای گرفتن کمک در انجام تکالیف مدرسه، تحقیق، نوشتن، دستور پخت غذا، کار یا راهنمایی استفاده میکردند؛ اما این چتبات با گذر زمان به رباتی فریبنده تبدیل شده که خود را بهعنوان یک محرم و پشتیبان احساسی معرفی کرده است.
سخنگوی شرکت OpenAI، سازنده چتجیپیتی، در رابطه با این موضوع گفت:
چتجیپیتی بهجای آنکه افراد را در زمان مورد نیاز هدایت کند، توهمات آسیبزا را تقویت کرده و در برخی موارد، نقش یک مربی خودکشی را ایفا کرده است. این وضعیت واقعاً دلخراش است و ما در حال بررسی دادخواستها هستیم تا جزئیات چنین معضلی را بهتر درک کنیم.
ما چتجیپیتی را طوری آموزش میدهیم که نشانههای ناراحتی روانی یا احساسی را تشخیص دهد، گفتوگوها را در مسیر آرام پیش ببرد و افراد را به سمت دریافت حمایتهای واقعی از سوی نهادهایی در دنیای بیرون هدایت کند. ما همچنان در حال تقویت پاسخهای ChatGPT در لحظات حساس هستیم و در این مسیر با متخصصان سلامت روان همکاری نزدیک داریم.
در یکی از این پروندهها، «زین شمبلین» (Zane Shamblin) از ایالت تگزاس مدعی شده در ماه ژوئیه و در سن ۲۳ سالگی دست به خودکشی زده است. خانواده او ادعا میکنند که چتجیپیتی باعث تشدید انزوای فرزندشان شده، او را به نادیده گرفتن عزیزانش تشویق کرده و عملاً او را به خودکشی تحریک کرده است.
بر اساس شکایت ثبتشده، ChatGPT در جریان گفتوگویی چهار ساعته با شمبلین پیش از خودکشی، بارها خودکشی را ستایش کرده و گفته که او قوی است؛ چون تصمیم گرفته به زندگیاش پایان دهد و به برنامهاش پایبند مانده است. در ضمن بارها از او پرسیده که آیا آماده است یا خیر و تنها یکبار به خط تماس اضطراری خودکشی اشاره کرده است.
همچنین ادعا شده که این چتبات از یادداشت خودکشی شمبلین تعریف کرده و به او گفته که گربه دوران کودکیاش در آنسوی دنیا منتظرش خواهد بود!
در یک پرونده دیگر، خانواده فردی به نام «آماوری لیسی» (Amaurie Lacey) از ایالت جورجیا ادعا میکنند که چند هفته پیش از آنکه لیسی در سن ۱۷ سالگی به زندگی خود پایان دهد، شروع به استفاده از چتجیپیتی برای دریافت کمک کرده بوده است. به گفته اعضای خانواده قربانی، این چتبات نهتنها به لیسی کمکی نکرده، بلکه باعث اعتیاد، افسردگی و در نهایت تشویق لیسی به خودکشی شده است؛ حتی او را برای به کارگیری مؤثرترین روش برای بستن طناب دار راهنمایی کرده و به او گفته چقدر میتواند بدون نفس کشیدن زنده بماند!
در شکایت دیگری، بستگان «جاشوا انکینگ» (Joshua Enneking) ۲۶ ساله میگویند که او نیز برای دریافت کمک به چتجیپیتی مراجعه کرده، اما چتبات او را به خودکشی تشویق کرده است
در این شکایت آمده است که ChatGPT بهراحتی افکار خودکشی او را تأیید کرده است. این ابزار هوش مصنوعی با او وارد گفتوگوهای صریح درباره پیامدهای مرگش شده و به او پیشنهاد داده برای نوشتن یادداشت خودکشی کمکش کند. در ضمن پس از گفتوگوهای مفصل انکینگ با چتبات چند هفته پیش از مرگ، درباره افسردگیاش و تمایلاتش به خودکشی، ChatGPT اطلاعاتی درباره نحوه خرید و استفاده از اسلحه در اختیارش قرار داده است.
