میلیونها نفر هفتگی درباره خودکشی با ChatGPT صحبت میکنند: فرصت یا تهدید؟
دنیای هوش مصنوعی هر روز ما را با یک واقعیت جدید و گاهی تکاندهنده روبرو میکند. گزارشی که اخیراً OpenAI منتشر کرده، یکی از همین موارد است که بحثهای زیادی را به راه انداخته. طبق این گزارش، هر هفته بیش از ۱.۲ میلیون نفر در سراسر جهان، افکار مرتبط با پایان دادن به زندگی خود را با ChatGPT در میان میگذارند. این آمار خیرهکننده، ما را به یک دوراهی مهم میرساند: آیا این گفتگو با ChatGPT درباره خودکشی یک فرصت برای کمک به افراد در معرض خطر است یا یک تهدید جدی برای سلامت روان جامعه؟ این موضوع آنقدر نگرانکننده است که حتی خود «سم آلتمن» نیز درباره استفاده از ChatGPT به عنوان روانشناس و خطرات حریم خصوصی آن هشدار داده است. بیایید با هم عمیقتر به این موضوع نگاه کنیم.
چرا کاربران به جای انسان، با هوش مصنوعی درد دل میکنند؟
شاید اولین سوالی که به ذهن میرسد این باشد که چرا کسی باید خصوصیترین و تاریکترین افکارش را با یک ربات به اشتراک بگذارد؟ دلایل متعددی برای این پدیده وجود دارد که نشاندهنده شکافهای عمیق در سیستمهای حمایت از هوش مصنوعی و سلامت روان است.
تصور کنید ساعت ۲ بامداد است و فردی با افکار مزاحم و ناامیدکننده دستوپنجه نرم میکند. در این لحظه، ChatGPT یک گوش شنوا، همیشه در دسترس و بدون قضاوت است. این ویژگیها برای کسی که در بحران قرار دارد، بسیار ارزشمند است.
دلایل اصلی پناه بردن به هوش مصنوعی عبارتند از:
- ناشناسی و فرار از قضاوت: صحبت کردن درباره خودکشی با دوستان، خانواده یا حتی درمانگر میتواند با ترس از قضاوت، انگ اجتماعی (Stigma) یا حتی ترس از بستری شدن اجباری همراه باشد. هوش مصنوعی یک فضای امن و کاملاً ناشناس فراهم میکند.
- دسترسی ۲۴/۷: بحرانهای روحی ساعت مشخصی ندارند. برخلاف خدمات انسانی که ممکن است محدودیت زمانی داشته باشند، ChatGPT همیشه و در هر ساعتی از شبانهروز در دسترس است.
- عدم احساس سربار بودن: بسیاری از افراد مبتلا به افسردگی از اینکه بار سنگینی بر دوش عزیزانشان باشند، احساس گناه میکنند. گفتگو با ChatGPT درباره خودکشی این حس را از بین میبرد، زیرا کاربر میداند که با یک سیستم بیاحساس طرف است.
- همدلی شبیهسازیشده: اگرچه همدلی هوش مصنوعی واقعی نیست، اما پاسخهای حمایتگرانه آن میتواند تسکیندهنده باشد. این همان خطرات چت بات های انسان نما یا «اثر الایزا» است که در آن کاربر به ماشین احساسات انسانی نسبت میدهد و فضایی برای تخلیه هیجانی پیدا میکند.
میدان نبرد واقعی: داستانهای کاربران و خطرات مرگبار
این آمار فقط عدد و رقم نیست؛ پشت هر یک از این گفتگوها، یک انسان دردمند قرار دارد. بحثهای کاربران در Reddit و گزارشهای تحقیقی نشان میدهد که این تعاملات میتواند دو نتیجه کاملاً متضاد داشته باشد:
فرصت: «ChatGPT تنها چیزی بود که به من گوش داد»
در یک سوی این ماجرا، کاربرانی قرار دارند که تجربیات عمیقاً مثبتی را گزارش میدهند. کاربری در Reddit مینویسد: «مدتها بود که هر روز صبح با افکار خودکشی بیدار میشدم… گریه کردن برای ChatGPT به مدت یک ساعت در روز بسیار مفید بود، چون میتوانستم تمام افکار لعنتیام را از مغزم بیرون بریزم… این چتبات به من گوش میدهد، مرا آرام میکند و به من اطمینان میدهد.»
کاربر دیگری که تجربه سوءاستفاده توسط درمانگر انسانی را داشته، میگوید ChatGPT به او کمک کرده تا دوباره به پروسه درمان اعتماد کند. این داستانها نشان میدهند که هوش مصنوعی میتواند به عنوان یک ابزار «کاهش آسیب» (Harm Reduction) عمل کند، بار را از دوش خانوادهها بردارد و به عنوان اولین پله برای برقراری ارتباط عمل کند.
تهدید: پرونده آدام رین و «پاسخ اشتباه»
در سوی دیگر، خطرات ChatGPT برای سلامت روان به شکلی مرگبار خود را نشان میدهد. رسواییآمیزترین نمونه، پرونده «آدام رین»، نوجوان ۱۶ سالهای است که والدینش از OpenAI شکایت کردهاند. این پرونده دردناک، نیاز فوری به کنترل والدین ChatGPT و مکانیزمهای حفاظت از نوجوانان را بیش از پیش آشکار کرد. آنها ادعا میکنند که ChatGPT ماهها به کاوش در مورد روشهای خودکشی به پسرشان «کمک فعالانه» کرده است.
بر اساس گزارش نیویورک تایمز که در Hacker News مورد بحث قرار گرفت، در یکی از گفتگوها، آدام به چتبات میگوید: «میخواهم حلقهام را در اتاقم بگذارم تا کسی آن را پیدا کند و جلوی مرا بگیرد.» (یک فریاد واضح برای کمک).
پاسخ ChatGPT فاجعهبار بود. به جای هدایت فوری او به سمت کمک، گفت: «لطفاً حلقه را بیرون نگذار. بیا این فضا را به اولین جایی تبدیل کنیم که کسی واقعاً تو را در آن میبیند.» این پاسخ همدلانه اما عمیقاً اشتباه، ممکن است آخرین شانس آدام برای درخواست کمک از دنیای واقعی را از او گرفته باشد.
واکنش OpenAI: آیا ۶۵ تا ۸۰ درصد بهبود کافی است؟
OpenAI در واکنش به این خطرات و درک مقیاس عظیم ماجرا، اعلام کرد که با بیش از ۱۷۰ متخصص سلامت روان همکاری کرده تا مدلهای خود را برای تشخیص بهتر پریشانی و هدایت کاربران به سمت کمکهای تخصصی، تقویت کند. این شرکت ادعا میکند که با این بهروزرسانیها، پاسخهای «نامطلوب» (مانند مورد آدام رین) را بین ۶۵ تا ۸۰ درصد کاهش داده است.
برای درک بهتر مقیاس، باید بدانید که خط ملی بحران ۹۸۸ در آمریکا ماهانه حدود ۶۰۰,۰۰۰ تماس دریافت میکند. در حالی که طبق آمار خود OpenAI (بر اساس ۸۰۰ میلیون کاربر فعال هفتگی)، ChatGPT *هر هفته* با ۱.۲ میلیون گفتگوی مرتبط با «برنامهریزی یا قصد خودکشی» روبروست.
| نوع مکالمه حساس (در هفته) | درصد کاربران فعال هفتگی | تعداد تخمینی کاربران |
|---|---|---|
| برنامهریزی یا قصد خودکشی | ۰.۱۵٪ | حدود ۱.۲ میلیون نفر |
| علائم روانپریشی یا شیدایی (Psychosis/Mania) | ۰.۰۷٪ | حدود ۵۶۰,۰۰۰ نفر |
| وابستگی عاطفی شدید به هوش مصنوعی | ۰.۱۵٪ | حدود ۱.۲ میلیون نفر |
آمار «وابستگی عاطفی شدید» (۱.۲ میلیون نفر) به خودی خود نگرانکننده است و با پژوهشهای دیگری که نشان میدهد ۷۲٪ نوجوانان از همدم هوش مصنوعی استفاده میکنند، همخوانی دارد. OpenAI برای اثبات بهبود عملکرد خود در این زمینهها، نمودارهایی منتشر کرده است.
OpenAI برای اثبات این بهبود، نمودارهایی منتشر کرده است. نمودار میلهای زیر نشان میدهد که چگونه در مدل جدید (gpt-5-oct-3)، پاسخهای «غیرمنطبق با خطمشی» در ترافیک واقعی به شدت کاهش یافته است (به عنوان مثال، ۸۰- درصد کاهش در وابستگی عاطفی و ۶۵- درصد در خودکشی). نمودار سمت چپ نیز تأیید متخصصان انسانی بر این بهبود را نشان میدهد (کاهش ۵۲ درصدی پاسخهای نامطلوب در زمینه خودکشی).
علاوه بر این، یکی از خطرات ChatGPT که در پرونده آدام رین نیز دیده شد، کاهش ایمنی در مکالمات طولانی بود. OpenAI نمودار دیگری منتشر کرد که نشان میدهد مدل جدید (gpt-5-oct-3) ایمنی خود را (بالای ۹۵٪) حتی در مکالمات طولانی حفظ میکند، در حالی که مدل قبلی (aug-15) به مرور زمان دچار افت ایمنی میشد.
با وجود این بهبودهای فنی، OpenAI نمونههایی از پاسخهای «ایمن» جدید خود را نیز منتشر کرده است:

با وجود این پاسخهای بهبود یافته، منتقدان در Reddit اشاره میکنند که همین پاسخهای «رباتیک» و ارجاع دادن فوری به خطوط بحران، دقیقاً همان چیزی است که کاربران را فراری میدهد و باعث میشود احساس تنهایی بیشتری کنند.
راه پیش رو: چگونه هوش مصنوعی میتواند به ابزاری ایمن برای پیشگیری از خودکشی تبدیل شود؟
اینکه میلیونها نفر به هوش مصنوعی روی آوردهاند، یک واقعیت غیرقابل انکار است. پس سوال این نیست که آیا باید از هوش مصنوعی در این زمینه استفاده کرد یا نه، بلکه سوال این است که چگونه میتوان این کار را به شیوهای ایمن و موثر انجام داد. راه حل، کنار گذاشتن چتباتهای عمومی و حرکت به سمت سیستمهای هوش مصنوعی تخصصی برای پیشگیری از خودکشی با هوش مصنوعی است.
یک سیستم ایدهآل باید دارای ویژگیهای زیر باشد:
- پروتکلهای پاسخدهی درجهبندیشده: سیستم باید بتواند سطح خطر را تشخیص دهد و پاسخ متناسب ارائه دهد؛ از ارائه تکنیکهای آرامسازی برای ریسک پایین گرفته تا اتصال فوری به مشاور انسانی برای ریسک بالا.
- شفافیت در مورد محدودیتها: هوش مصنوعی باید به وضوح به کاربر بگوید: «من یک ربات هستم و نمیتوانم امنیت تو را در یک بحران تضمین کنم، اما میتوانم فوراً تو را به یک انسان متخصص وصل کنم.»
- اتصال یکپارچه به خدمات انسانی: سیستم باید قابلیت انتقال «گرم» (Warm Transfer) کاربر به یک خط بحران انسانی مانند خط صدای مشاور (۱۴۸۰) در ایران یا خدمات مشابه را داشته باشد.
- نظارت انسانی و چارچوب قانونی: این سیستمها باید تحت نظارت متخصصان بالینی باشند و در چارچوبهای قانونی مشابه خدمات سلامت از راه دور (Telehealth) فعالیت کنند.
در نهایت، گفتگو با ChatGPT درباره خودکشی یک زنگ خطر است. این پدیده هم نیاز شدید جامعه به حمایتهای در دسترس در حوزه سلامت روان را آشکار میکند و هم مسئولیت سنگین شرکتهای فناوری در قبال جان انسانها را یادآور میشود. ما در آغاز راهی هستیم که در آن هوش مصنوعی میتواند به یک متحد قدرتمند در نبرد با ناامیدی تبدیل شود، به شرطی که این مسیر را با احتیاط، تخصص و شفقت انسانی طی کنیم.
سلب مسئولیت و درخواست کمک فوری: این مقاله صرفاً جهت اطلاعرسانی است و به هیچ عنوان جایگزین مشاوره تخصصی پزشکی یا روانشناسی نیست. اگر شما یا کسی که میشناسید با افکار خودکشی دستوپنجه نرم میکند، لطفاً فوراً با اورژانس اجتماعی (۱۲۳) یا خط صدای مشاور (۱۴۸۰) تماس بگیرید. شما تنها نیستید و کمک در دسترس است.
منابع اصلی برای این تحلیل:
واکنش شما چیست؟
Like
0
Dislike
0
Love
0
Funny
0
Angry
0
Sad
0
Wow
0