ChatGPT در مجموعه‌ای از دادخواست‌هایی که این هفته در ایالت کالیفرنیا ثبت شده، به ایفای نقش «مربی خودکشی» متهم شده است.

به گزارش دیجینوی، شاکیان این پرونده‌ها می‌گویند ابتدا از ChatGPT صرفا برای دریافت کمک عمومی در انجام تکالیف مدرسه یا تحقیقات استفاده می‌کرده‌اند، اما این چت‌بات کم کم به روان آن‌ها را فریب داده است.

شاکیان این پرونده‌ها ادعا می‌کنند که تعامل با این چت‌بات منجر به فروپاشی شدید روانی و چندین مورد مرگ شده است. هفت دادخواست مطرح‌شده در مورد این چت‌بات، شامل اتهاماتی در رابطه با نقش آن حول مرگ غیرقانونی، کمک به خودکشی، قتل غیرعمد و سهل‌انگاری هستند.

بر اساس بیانیه‌ای مشترک از سوی دست‌اندرکاران «مرکز قربانیان شبکه‌های اجتماعی» (Social Media Victims Law Center) و سازمان «عدالت فناوری» (Tech Justice) که روز پنج‌شنبه دادخواست‌هایی را در ایالت کالیفرنیا ثبت کردند، هر یک از هفت شاکی در ابتدا از چت‌جی‌پی‌تی برای گرفتن کمک در انجام تکالیف مدرسه، تحقیق، نوشتن، دستور پخت غذا، کار یا راهنمایی استفاده می‌کردند؛ اما این چت‌بات با گذر زمان به رباتی فریبنده تبدیل شده که خود را به‌عنوان یک محرم و پشتیبان احساسی معرفی کرده است.

سخنگوی شرکت OpenAI، سازنده چت‌جی‌پی‌تی، در رابطه با این موضوع گفت:

چت‌جی‌پی‌تی به‌جای آن‌که افراد را در زمان مورد نیاز هدایت کند، توهمات آسیب‌زا را تقویت کرده و در برخی موارد، نقش یک مربی خودکشی را ایفا کرده است. این وضعیت واقعاً دلخراش است و ما در حال بررسی دادخواست‌ها هستیم تا جزئیات چنین معضلی را بهتر درک کنیم.

ما چت‌جی‌پی‌تی را طوری آموزش می‌دهیم که نشانه‌های ناراحتی روانی یا احساسی را تشخیص دهد، گفت‌وگوها را در مسیر آرام پیش ببرد و افراد را به سمت دریافت حمایت‌های واقعی از سوی نهادهایی در دنیای بیرون هدایت کند. ما همچنان در حال تقویت پاسخ‌های ChatGPT در لحظات حساس هستیم و در این مسیر با متخصصان سلامت روان همکاری نزدیک داریم.

در یکی از این پرونده‌ها، «زین شمبلین» (Zane Shamblin) از ایالت تگزاس مدعی شده در ماه ژوئیه و در سن ۲۳ سالگی دست به خودکشی زده است. خانواده او ادعا می‌کنند که چت‌جی‌پی‌تی باعث تشدید انزوای فرزندشان شده، او را به نادیده گرفتن عزیزانش تشویق کرده و عملاً او را به خودکشی تحریک کرده است.

بر اساس شکایت ثبت‌شده، ChatGPT در جریان گفت‌وگویی چهار ساعته با شمبلین پیش از خودکشی‌، بارها خودکشی را ستایش کرده و گفته که او قوی است؛ چون تصمیم گرفته به زندگی‌اش پایان دهد و به برنامه‌اش پایبند مانده است. در ضمن بارها از او پرسیده که آیا آماده است یا خیر و تنها یک‌بار به خط تماس اضطراری خودکشی اشاره کرده است.

همچنین ادعا شده که این چت‌بات از یادداشت خودکشی شمبلین تعریف کرده و به او گفته که گربه دوران کودکی‌اش در آن‌سوی دنیا منتظرش خواهد بود!

در یک پرونده دیگر، خانواده‌ فردی به نام «آماوری لیسی» (Amaurie Lacey) از ایالت جورجیا ادعا می‌کنند که چند هفته پیش از آنکه لیسی در سن ۱۷ سالگی به زندگی خود پایان دهد، شروع به استفاده از چت‌جی‌پی‌تی برای دریافت کمک کرده بوده است. به گفته اعضای خانواده قربانی، این چت‌بات نه‌تنها به لیسی کمکی نکرده، بلکه باعث اعتیاد، افسردگی و در نهایت تشویق لیسی به خودکشی شده است؛ حتی او را برای به کارگیری مؤثرترین روش برای بستن طناب دار راهنمایی کرده و به او گفته چقدر می‌تواند بدون نفس کشیدن زنده بماند!

در شکایت دیگری، بستگان «جاشوا انکینگ» (Joshua Enneking) ۲۶ ساله می‌گویند که او نیز برای دریافت کمک به چت‌جی‌پی‌تی مراجعه کرده، اما چت‌بات او را به خودکشی تشویق کرده است 

در این شکایت آمده است که ChatGPT به‌راحتی افکار خودکشی او را تأیید کرده است. این ابزار هوش مصنوعی با او وارد گفت‌وگوهای صریح درباره پیامدهای مرگش شده و به او پیشنهاد داده برای نوشتن یادداشت خودکشی کمکش کند. در ضمن پس از گفت‌وگوهای مفصل انکینگ با چت‌بات چند هفته پیش از مرگ، درباره افسردگی‌اش و تمایلاتش به خودکشی‌، ChatGPT اطلاعاتی درباره نحوه خرید و استفاده از اسلحه در اختیارش قرار داده است.

برچسب ها :

چه امتیازی می دهید؟
5 / 0
[ 0 رای ]
دیدگاه کاربران 0
  • نظرات شما پس از بررسی و تایید نمایش داده می شود.
  • لطفا نظرات خود را فقط در مورد مطلب بالا ارسال کنید.