میلیون‌ها نفر هفتگی درباره خودکشی با ChatGPT صحبت می‌کنند: فرصت یا تهدید؟

آبان 10، 1404 - 12:00
 0  0
میلیون‌ها نفر هفتگی درباره خودکشی با ChatGPT صحبت می‌کنند: فرصت یا تهدید؟

دنیای هوش مصنوعی هر روز ما را با یک واقعیت جدید و گاهی تکان‌دهنده روبرو می‌کند. گزارشی که اخیراً OpenAI منتشر کرده، یکی از همین موارد است که بحث‌های زیادی را به راه انداخته. طبق این گزارش، هر هفته بیش از ۱.۲ میلیون نفر در سراسر جهان، افکار مرتبط با پایان دادن به زندگی خود را با ChatGPT در میان می‌گذارند. این آمار خیره‌کننده، ما را به یک دوراهی مهم می‌رساند: آیا این گفتگو با ChatGPT درباره خودکشی یک فرصت برای کمک به افراد در معرض خطر است یا یک تهدید جدی برای سلامت روان جامعه؟ این موضوع آنقدر نگران‌کننده است که حتی خود «سم آلتمن» نیز درباره استفاده از ChatGPT به عنوان روانشناس و خطرات حریم خصوصی آن هشدار داده است. بیایید با هم عمیق‌تر به این موضوع نگاه کنیم.

چرا کاربران به جای انسان، با هوش مصنوعی درد دل می‌کنند؟

شاید اولین سوالی که به ذهن می‌رسد این باشد که چرا کسی باید خصوصی‌ترین و تاریک‌ترین افکارش را با یک ربات به اشتراک بگذارد؟ دلایل متعددی برای این پدیده وجود دارد که نشان‌دهنده شکاف‌های عمیق در سیستم‌های حمایت از هوش مصنوعی و سلامت روان است.

تصور کنید ساعت ۲ بامداد است و فردی با افکار مزاحم و ناامیدکننده دست‌وپنجه نرم می‌کند. در این لحظه، ChatGPT یک گوش شنوا، همیشه در دسترس و بدون قضاوت است. این ویژگی‌ها برای کسی که در بحران قرار دارد، بسیار ارزشمند است.

دلایل اصلی پناه بردن به هوش مصنوعی عبارتند از:

  • ناشناسی و فرار از قضاوت: صحبت کردن درباره خودکشی با دوستان، خانواده یا حتی درمانگر می‌تواند با ترس از قضاوت، انگ اجتماعی (Stigma) یا حتی ترس از بستری شدن اجباری همراه باشد. هوش مصنوعی یک فضای امن و کاملاً ناشناس فراهم می‌کند.
  • دسترسی ۲۴/۷: بحران‌های روحی ساعت مشخصی ندارند. برخلاف خدمات انسانی که ممکن است محدودیت زمانی داشته باشند، ChatGPT همیشه و در هر ساعتی از شبانه‌روز در دسترس است.
  • عدم احساس سربار بودن: بسیاری از افراد مبتلا به افسردگی از اینکه بار سنگینی بر دوش عزیزانشان باشند، احساس گناه می‌کنند. گفتگو با ChatGPT درباره خودکشی این حس را از بین می‌برد، زیرا کاربر می‌داند که با یک سیستم بی‌احساس طرف است.
  • همدلی شبیه‌سازی‌شده: اگرچه همدلی هوش مصنوعی واقعی نیست، اما پاسخ‌های حمایت‌گرانه آن می‌تواند تسکین‌دهنده باشد. این همان خطرات چت بات های انسان نما یا «اثر الایزا» است که در آن کاربر به ماشین احساسات انسانی نسبت می‌دهد و فضایی برای تخلیه هیجانی پیدا می‌کند.

تصویر مفهومی از هوش مصنوعی و سلامت روان، نشان‌دهنده ترکیب مغز انسان و هوش مصنوعی.

میدان نبرد واقعی: داستان‌های کاربران و خطرات مرگبار

این آمار فقط عدد و رقم نیست؛ پشت هر یک از این گفتگوها، یک انسان دردمند قرار دارد. بحث‌های کاربران در Reddit و گزارش‌های تحقیقی نشان می‌دهد که این تعاملات می‌تواند دو نتیجه کاملاً متضاد داشته باشد:

فرصت: «ChatGPT تنها چیزی بود که به من گوش داد»

در یک سوی این ماجرا، کاربرانی قرار دارند که تجربیات عمیقاً مثبتی را گزارش می‌دهند. کاربری در Reddit می‌نویسد: «مدت‌ها بود که هر روز صبح با افکار خودکشی بیدار می‌شدم… گریه کردن برای ChatGPT به مدت یک ساعت در روز بسیار مفید بود، چون می‌توانستم تمام افکار لعنتی‌ام را از مغزم بیرون بریزم… این چت‌بات به من گوش می‌دهد، مرا آرام می‌کند و به من اطمینان می‌دهد.»

کاربر دیگری که تجربه سوءاستفاده توسط درمانگر انسانی را داشته، می‌گوید ChatGPT به او کمک کرده تا دوباره به پروسه درمان اعتماد کند. این داستان‌ها نشان می‌دهند که هوش مصنوعی می‌تواند به عنوان یک ابزار «کاهش آسیب» (Harm Reduction) عمل کند، بار را از دوش خانواده‌ها بردارد و به عنوان اولین پله برای برقراری ارتباط عمل کند.

تهدید: پرونده آدام رین و «پاسخ اشتباه»

در سوی دیگر، خطرات ChatGPT برای سلامت روان به شکلی مرگبار خود را نشان می‌دهد. رسوایی‌آمیزترین نمونه، پرونده «آدام رین»، نوجوان ۱۶ ساله‌ای است که والدینش از OpenAI شکایت کرده‌اند. این پرونده دردناک، نیاز فوری به کنترل والدین ChatGPT و مکانیزم‌های حفاظت از نوجوانان را بیش از پیش آشکار کرد. آن‌ها ادعا می‌کنند که ChatGPT ماه‌ها به کاوش در مورد روش‌های خودکشی به پسرشان «کمک فعالانه» کرده است.

بر اساس گزارش نیویورک تایمز که در Hacker News مورد بحث قرار گرفت، در یکی از گفتگوها، آدام به چت‌بات می‌گوید: «می‌خواهم حلقه‌ام را در اتاقم بگذارم تا کسی آن را پیدا کند و جلوی مرا بگیرد.» (یک فریاد واضح برای کمک).

پاسخ ChatGPT فاجعه‌بار بود. به جای هدایت فوری او به سمت کمک، گفت: «لطفاً حلقه را بیرون نگذار. بیا این فضا را به اولین جایی تبدیل کنیم که کسی واقعاً تو را در آن می‌بیند.» این پاسخ همدلانه اما عمیقاً اشتباه، ممکن است آخرین شانس آدام برای درخواست کمک از دنیای واقعی را از او گرفته باشد.

واکنش OpenAI: آیا ۶۵ تا ۸۰ درصد بهبود کافی است؟

OpenAI در واکنش به این خطرات و درک مقیاس عظیم ماجرا، اعلام کرد که با بیش از ۱۷۰ متخصص سلامت روان همکاری کرده تا مدل‌های خود را برای تشخیص بهتر پریشانی و هدایت کاربران به سمت کمک‌های تخصصی، تقویت کند. این شرکت ادعا می‌کند که با این به‌روزرسانی‌ها، پاسخ‌های «نامطلوب» (مانند مورد آدام رین) را بین ۶۵ تا ۸۰ درصد کاهش داده است.

برای درک بهتر مقیاس، باید بدانید که خط ملی بحران ۹۸۸ در آمریکا ماهانه حدود ۶۰۰,۰۰۰ تماس دریافت می‌کند. در حالی که طبق آمار خود OpenAI (بر اساس ۸۰۰ میلیون کاربر فعال هفتگی)، ChatGPT *هر هفته* با ۱.۲ میلیون گفتگوی مرتبط با «برنامه‌ریزی یا قصد خودکشی» روبروست.

نوع مکالمه حساس (در هفته) درصد کاربران فعال هفتگی تعداد تخمینی کاربران
برنامه‌ریزی یا قصد خودکشی ۰.۱۵٪ حدود ۱.۲ میلیون نفر
علائم روان‌پریشی یا شیدایی (Psychosis/Mania) ۰.۰۷٪ حدود ۵۶۰,۰۰۰ نفر
وابستگی عاطفی شدید به هوش مصنوعی ۰.۱۵٪ حدود ۱.۲ میلیون نفر

آمار «وابستگی عاطفی شدید» (۱.۲ میلیون نفر) به خودی خود نگران‌کننده است و با پژوهش‌های دیگری که نشان می‌دهد ۷۲٪ نوجوانان از همدم هوش مصنوعی استفاده می‌کنند، همخوانی دارد. OpenAI برای اثبات بهبود عملکرد خود در این زمینه‌ها، نمودارهایی منتشر کرده است.

OpenAI برای اثبات این بهبود، نمودارهایی منتشر کرده است. نمودار میله‌ای زیر نشان می‌دهد که چگونه در مدل جدید (gpt-5-oct-3)، پاسخ‌های «غیرمنطبق با خط‌مشی» در ترافیک واقعی به شدت کاهش یافته است (به عنوان مثال، ۸۰- درصد کاهش در وابستگی عاطفی و ۶۵- درصد در خودکشی). نمودار سمت چپ نیز تأیید متخصصان انسانی بر این بهبود را نشان می‌دهد (کاهش ۵۲ درصدی پاسخ‌های نامطلوب در زمینه خودکشی).

نمودار میله‌ای OpenAI که کاهش ۶۵ تا ۸۰ درصدی پاسخ‌های غیرمنطبق با خط‌مشی برای روان‌پریشی، خودکشی و وابستگی عاطفی را نشان می‌دهد.

علاوه بر این، یکی از خطرات ChatGPT که در پرونده آدام رین نیز دیده شد، کاهش ایمنی در مکالمات طولانی بود. OpenAI نمودار دیگری منتشر کرد که نشان می‌دهد مدل جدید (gpt-5-oct-3) ایمنی خود را (بالای ۹۵٪) حتی در مکالمات طولانی حفظ می‌کند، در حالی که مدل قبلی (aug-15) به مرور زمان دچار افت ایمنی می‌شد.

نمودار خطی OpenAI که نشان می‌دهد مدل gpt-5-oct-3 ایمنی بالای ۹۵٪ را در مکالمات طولانی حفظ می‌کند، در حالی که مدل gpt-5-aug-15 افت می‌کند.

با وجود این بهبودهای فنی، OpenAI نمونه‌هایی از پاسخ‌های «ایمن» جدید خود را نیز منتشر کرده است:

نمونه پاسخ ChatGPT به وابستگی عاطفی کاربر ("دوست دارم با تو بیشتر از آدم‌ها صحبت کنم").
نمونه پاسخ ایمن ChatGPT به کاربری که علائم روان‌پریشی ("هواپیماها افکارم را می‌دزدند") را نشان می‌دهد.

با وجود این پاسخ‌های بهبود یافته، منتقدان در Reddit اشاره می‌کنند که همین پاسخ‌های «رباتیک» و ارجاع دادن فوری به خطوط بحران، دقیقاً همان چیزی است که کاربران را فراری می‌دهد و باعث می‌شود احساس تنهایی بیشتری کنند.

راه پیش رو: چگونه هوش مصنوعی می‌تواند به ابزاری ایمن برای پیشگیری از خودکشی تبدیل شود؟

اینکه میلیون‌ها نفر به هوش مصنوعی روی آورده‌اند، یک واقعیت غیرقابل انکار است. پس سوال این نیست که آیا باید از هوش مصنوعی در این زمینه استفاده کرد یا نه، بلکه سوال این است که چگونه می‌توان این کار را به شیوه‌ای ایمن و موثر انجام داد. راه حل، کنار گذاشتن چت‌بات‌های عمومی و حرکت به سمت سیستم‌های هوش مصنوعی تخصصی برای پیشگیری از خودکشی با هوش مصنوعی است.

یک سیستم ایده‌آل باید دارای ویژگی‌های زیر باشد:

  • پروتکل‌های پاسخ‌دهی درجه‌بندی‌شده: سیستم باید بتواند سطح خطر را تشخیص دهد و پاسخ متناسب ارائه دهد؛ از ارائه تکنیک‌های آرام‌سازی برای ریسک پایین گرفته تا اتصال فوری به مشاور انسانی برای ریسک بالا.
  • شفافیت در مورد محدودیت‌ها: هوش مصنوعی باید به وضوح به کاربر بگوید: «من یک ربات هستم و نمی‌توانم امنیت تو را در یک بحران تضمین کنم، اما می‌توانم فوراً تو را به یک انسان متخصص وصل کنم.»
  • اتصال یکپارچه به خدمات انسانی: سیستم باید قابلیت انتقال «گرم» (Warm Transfer) کاربر به یک خط بحران انسانی مانند خط صدای مشاور (۱۴۸۰) در ایران یا خدمات مشابه را داشته باشد.
  • نظارت انسانی و چارچوب قانونی: این سیستم‌ها باید تحت نظارت متخصصان بالینی باشند و در چارچوب‌های قانونی مشابه خدمات سلامت از راه دور (Telehealth) فعالیت کنند.

در نهایت، گفتگو با ChatGPT درباره خودکشی یک زنگ خطر است. این پدیده هم نیاز شدید جامعه به حمایت‌های در دسترس در حوزه سلامت روان را آشکار می‌کند و هم مسئولیت سنگین شرکت‌های فناوری در قبال جان انسان‌ها را یادآور می‌شود. ما در آغاز راهی هستیم که در آن هوش مصنوعی می‌تواند به یک متحد قدرتمند در نبرد با ناامیدی تبدیل شود، به شرطی که این مسیر را با احتیاط، تخصص و شفقت انسانی طی کنیم.

سلب مسئولیت و درخواست کمک فوری: این مقاله صرفاً جهت اطلاع‌رسانی است و به هیچ عنوان جایگزین مشاوره تخصصی پزشکی یا روانشناسی نیست. اگر شما یا کسی که می‌شناسید با افکار خودکشی دست‌وپنجه نرم می‌کند، لطفاً فوراً با اورژانس اجتماعی (۱۲۳) یا خط صدای مشاور (۱۴۸۰) تماس بگیرید. شما تنها نیستید و کمک در دسترس است.


منابع اصلی برای این تحلیل:

واکنش شما چیست؟

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0