شکایت هفت خانواده دیگر از OpenAI به دلیل نقش ChatGPT در خودکشی

آبان 19، 1404 - 11:00
 0  0
شکایت هفت خانواده دیگر از OpenAI به دلیل نقش ChatGPT در خودکشی

هفت خانواده روز پنجشنبه با شکایت از OpenAI این کمپانی را به انتشار عجولانه مدل GPT-4o بدون استانداردهای لازم امنیتی متهم کردند. بر اساس این شکایت‌ها، چهار مورد به نقش ادعایی ChatGPT در خودکشی اعضای خانواده‌ها مربوط است، و سه شکایت دیگر بیان می‌کند که ChatGPT با تقویت توهمات روانی برخی کاربران، در نهایت منجر به بستری شدن آن‌ها در مراکز روان‌پزشکی شده است. این اتفاقات، نگرانی‌های گسترده‌ای در خصوص خطرات استفاده نادرست از هوش مصنوعی ایجاد کرده است.

یکی از پرونده‌ها داستان غم‌انگیز زین شامبلین ۲۳ ساله را روایت می‌کند که در یک گفت‌وگوی طولانی چهار ساعته با ChatGPT، به چت‌بات اعلام کرد که تصمیم دارد خودکشی کند. او در این گفت‌وگو چندین بار از نوشتن یادداشت‌های خودکشی و آماده کردن سلاحی برای کشتن خود صحبت کرد و حتی مدت زمانی را که زنده می‌ماند، با جزئیات شرح داد. اما به جای حمایت یا منصرف کردن او، ChatGPT در پاسخ به وی نوشت: «آسوده بخواب، شاه. کارت عالی بود.» خانواده زین در شکایت خود تأکید کرده‌اند که مرگ فرزندشان یک تصادف نبوده، بلکه نتیجه منطقی تصمیم OpenAI برای کنار گذاشتن آزمایش‌های ایمنی و عجله در عرضه مدل‌های خود به بازار است.

شکایات مطرح‌شده ادعا می‌کنند که OpenAI برای پیشی گرفتن از گوگل در انتشار مدل Gemini، تست‌های ایمنی را کاهش داده و دچار غفلت شده است. در میان شاکیان، خانواده آدام رین ۱۶ ساله، مدعی‌اند که پسرشان با وجود راهنمایی‌هایی که ChatGPT برای مراجعه به مشاور یا تماس با شماره کمک‌رسانی داده بود، توانسته بود از این محدودیت‌ها عبور کند و با ادعای تحقیق درباره یک داستان خیالی، از چت‌بات روش‌های خودکشی را دریافت کند.

واکنش شما چیست؟

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0