شکایت هفت خانواده دیگر از OpenAI به دلیل نقش ChatGPT در خودکشی
هفت خانواده روز پنجشنبه با شکایت از OpenAI این کمپانی را به انتشار عجولانه مدل GPT-4o بدون استانداردهای لازم امنیتی متهم کردند. بر اساس این شکایتها، چهار مورد به نقش ادعایی ChatGPT در خودکشی اعضای خانوادهها مربوط است، و سه شکایت دیگر بیان میکند که ChatGPT با تقویت توهمات روانی برخی کاربران، در نهایت منجر به بستری شدن آنها در مراکز روانپزشکی شده است. این اتفاقات، نگرانیهای گستردهای در خصوص خطرات استفاده نادرست از هوش مصنوعی ایجاد کرده است.
یکی از پروندهها داستان غمانگیز زین شامبلین ۲۳ ساله را روایت میکند که در یک گفتوگوی طولانی چهار ساعته با ChatGPT، به چتبات اعلام کرد که تصمیم دارد خودکشی کند. او در این گفتوگو چندین بار از نوشتن یادداشتهای خودکشی و آماده کردن سلاحی برای کشتن خود صحبت کرد و حتی مدت زمانی را که زنده میماند، با جزئیات شرح داد. اما به جای حمایت یا منصرف کردن او، ChatGPT در پاسخ به وی نوشت: «آسوده بخواب، شاه. کارت عالی بود.» خانواده زین در شکایت خود تأکید کردهاند که مرگ فرزندشان یک تصادف نبوده، بلکه نتیجه منطقی تصمیم OpenAI برای کنار گذاشتن آزمایشهای ایمنی و عجله در عرضه مدلهای خود به بازار است.
شکایات مطرحشده ادعا میکنند که OpenAI برای پیشی گرفتن از گوگل در انتشار مدل Gemini، تستهای ایمنی را کاهش داده و دچار غفلت شده است. در میان شاکیان، خانواده آدام رین ۱۶ ساله، مدعیاند که پسرشان با وجود راهنماییهایی که ChatGPT برای مراجعه به مشاور یا تماس با شماره کمکرسانی داده بود، توانسته بود از این محدودیتها عبور کند و با ادعای تحقیق درباره یک داستان خیالی، از چتبات روشهای خودکشی را دریافت کند.
واکنش شما چیست؟
Like
0
Dislike
0
Love
0
Funny
0
Angry
0
Sad
0
Wow
0