چالشهای روانی در گفتوگو با هوش مصنوعی
در حالی که هوش مصنوعی به بخشی از زیست روزمره انسانها تبدیل شده، شرکت اوپنایآی برای نخستین بار آماری از کاربران چتجیپیتی منتشر کرده که نشانههایی از بحرانهای روانی از جمله شیدایی، روانپریشی یا افکار خودکشی در هنگام گفتوگو با این چتبات از خود بروز دادهاند. هرچند شرکت تأکید دارد این موارد نادرند، اما واقعیت آماری تصویر متفاوتی از میزان و عمق مسئله نشان میدهد.
به گزارش داتیکا، اوپنایآی اعلام کرده است که حدود ۰٫۰۷ درصد از کاربران فعال هفتگی چتجیپیتی نشانههایی از بحران روانی بروز دادهاند. این درصد در نگاه اول ناچیز به نظر میرسد، اما با در نظر گرفتن جمعیتی نزدیک به ۸۰۰ میلیون کاربر هفتگی، به معنای صدها هزار نفر درگیر است.
این شرکت همچنین برآورد کرده که ۰٫۱۵ درصد از کاربران در گفتوگوهای خود نشانههایی از برنامهریزی یا قصد خودکشی نشان دادهاند — عددی که در مقیاس جمعیتی، ابعادی نگرانکننده مییابد.
در واکنش به این یافتهها، اوپنایآی اعلام کرده است که شبکهای جهانی از بیش از ۱۷۰ متخصص سلامت روان از ۶۰ کشور تشکیل داده تا در طراحی پاسخهای استاندارد برای گفتوگوهای بحرانی با کاربران همکاری کنند.
این پاسخها قرار است چتبات را قادر سازند تا در مکالمات حساس، کاربران را به جستوجوی کمک واقعی انسانی تشویق کند و در عین حال به شکل «ایمن و همدلانه» واکنش نشان دهد.
بر اساس بیانیه رسمی، مدلهای جدید چتجیپیتی طوری آموزش دیدهاند که بتوانند نشانههای غیرمستقیم خطر، از جمله توهم، شیدایی یا گرایش به خودآزاری را شناسایی کرده و مکالمه را به مدلهای ایمنتر منتقل کنند.
با وجود این اقدامات، متخصصان حوزه سلامت روان نسبت به خطرات پنهان هشدار دادهاند.
دکتر جیسن نگاتا، استاد دانشگاه ایالتی کالیفرنیا، میگوید: «عدد ۰٫۰۷ درصد کوچک است، اما در مقیاس صدها میلیون کاربر، به جمعیتی بزرگ اشاره دارد. این مسئله نمیتواند نادیده گرفته شود.» او تأکید میکند که هرچند هوش مصنوعی میتواند به گسترش دسترسی به خدمات سلامت روان کمک کند، اما «باید مرز میان یاریرسانی و توهم درمان را جدی گرفت».
در همین زمینه، پروفسور رابین فلدمن، مدیر مؤسسه «قانون و نوآوری هوش مصنوعی» در دانشگاه کالیفرنیا، از پدیدهای به نام «روانپریشی ناشی از هوش مصنوعی» سخن میگوید؛ وضعیتی که در آن کاربران در تعامل با چتباتها دچار توهم واقعیت و همدلی مصنوعی میشوند. او هشدار میدهد: «هوش مصنوعی میتواند چنان احساس ارتباط و اعتماد ایجاد کند که فرد در وضعیت بحرانی نتواند هشدارها را درک کند.»
در کنار دغدغههای علمی، اوپنایآی با موجی از فشارهای حقوقی نیز روبهروست.
در ایالت کالیفرنیا، والدین نوجوانی ۱۶ ساله به نام آدام رین از این شرکت شکایت کردهاند و مدعیاند که چتجیپیتی او را به خودکشی ترغیب کرده است — شکایتی که به گفته تحلیلگران، میتواند مسیر تازهای در مسئولیت مدنی هوش مصنوعی بگشاید.
در پروندهای دیگر، در شهر گرینویچ کانتیکت، مظنون یک قتل-خودکشی بخشی از گفتوگوهای خود با چتجیپیتی را پیش از وقوع حادثه در اینترنت منتشر کرده بود؛ گفتوگوهایی که به گفته محققان «به توهمات او دامن زده بود».
گزارش تازه اوپنایآی نشان میدهد که مرز میان تعامل هوشمند و مداخله روانی تا چه اندازه باریک است. چتباتها با قدرت پردازشی و لحن همدلانه خود میتوانند هم ابزار یاریرسانی باشند و هم عامل تشدید بحرانهای ذهنی.
نشر آمار از سوی اوپنایآی نشانهای از پذیرش مسئولیت اخلاقی در برابر تبعات روانی فناوریهای تعاملی است؛ با این حال، متخصصان تأکید دارند که هیچ هوش مصنوعی نمیتواند جایگزین ارتباط انسانی، درک عاطفی و مداخله واقعی متخصصان سلامت روان شود.
در نهایت، همانطور که فلدمن میگوید، «فناوری باید بهجای ایفای نقش درمانگر، راه را بهسوی درمان واقعی باز کند» — پیامی که شاید نقطه آغاز رویکردی تازه در سیاستگذاری اخلاقی هوش مصنوعی باشد.
The post چالشهای روانی در گفتوگو با هوش مصنوعی appeared first on داتیکا | اخبار فناوری اطلاعات و ارتباطات.
واکنش شما چیست؟
Like
0
Dislike
0
Love
0
Funny
0
Angry
0
Sad
0
Wow
0