چالش‌های روانی در گفت‌وگو با هوش مصنوعی

آبان 06، 1404 - 08:00
 0  0
چالش‌های روانی در گفت‌وگو با هوش مصنوعی

در حالی که هوش مصنوعی به بخشی از زیست روزمره انسان‌ها تبدیل شده، شرکت اوپن‌ای‌آی برای نخستین بار آماری از کاربران چت‌جی‌پی‌تی منتشر کرده که نشانه‌هایی از بحران‌های روانی از جمله شیدایی، روان‌پریشی یا افکار خودکشی در هنگام گفت‌وگو با این چت‌بات از خود بروز داده‌اند. هرچند شرکت تأکید دارد این موارد نادرند، اما واقعیت آماری تصویر متفاوتی از میزان و عمق مسئله نشان می‌دهد.

به گزارش داتیکا، اوپن‌ای‌آی اعلام کرده است که حدود ۰٫۰۷ درصد از کاربران فعال هفتگی چت‌جی‌پی‌تی نشانه‌هایی از بحران روانی بروز داده‌اند. این درصد در نگاه اول ناچیز به نظر می‌رسد، اما با در نظر گرفتن جمعیتی نزدیک به ۸۰۰ میلیون کاربر هفتگی، به معنای صدها هزار نفر درگیر است.
این شرکت همچنین برآورد کرده که ۰٫۱۵ درصد از کاربران در گفت‌وگوهای خود نشانه‌هایی از برنامه‌ریزی یا قصد خودکشی نشان داده‌اند — عددی که در مقیاس جمعیتی، ابعادی نگران‌کننده می‌یابد.

در واکنش به این یافته‌ها، اوپن‌ای‌آی اعلام کرده است که شبکه‌ای جهانی از بیش از ۱۷۰ متخصص سلامت روان از ۶۰ کشور تشکیل داده تا در طراحی پاسخ‌های استاندارد برای گفت‌وگوهای بحرانی با کاربران همکاری کنند.
این پاسخ‌ها قرار است چت‌بات را قادر سازند تا در مکالمات حساس، کاربران را به جست‌وجوی کمک واقعی انسانی تشویق کند و در عین حال به شکل «ایمن و همدلانه» واکنش نشان دهد.
بر اساس بیانیه رسمی، مدل‌های جدید چت‌جی‌پی‌تی طوری آموزش دیده‌اند که بتوانند نشانه‌های غیرمستقیم خطر، از جمله توهم، شیدایی یا گرایش به خودآزاری را شناسایی کرده و مکالمه را به مدل‌های ایمن‌تر منتقل کنند.

با وجود این اقدامات، متخصصان حوزه سلامت روان نسبت به خطرات پنهان هشدار داده‌اند.
دکتر جیسن نگاتا، استاد دانشگاه ایالتی کالیفرنیا، می‌گوید: «عدد ۰٫۰۷ درصد کوچک است، اما در مقیاس صدها میلیون کاربر، به جمعیتی بزرگ اشاره دارد. این مسئله نمی‌تواند نادیده گرفته شود.» او تأکید می‌کند که هرچند هوش مصنوعی می‌تواند به گسترش دسترسی به خدمات سلامت روان کمک کند، اما «باید مرز میان یاری‌رسانی و توهم درمان را جدی گرفت».

در همین زمینه، پروفسور رابین فلدمن، مدیر مؤسسه «قانون و نوآوری هوش مصنوعی» در دانشگاه کالیفرنیا، از پدیده‌ای به نام «روان‌پریشی ناشی از هوش مصنوعی» سخن می‌گوید؛ وضعیتی که در آن کاربران در تعامل با چت‌بات‌ها دچار توهم واقعیت و همدلی مصنوعی می‌شوند. او هشدار می‌دهد: «هوش مصنوعی می‌تواند چنان احساس ارتباط و اعتماد ایجاد کند که فرد در وضعیت بحرانی نتواند هشدارها را درک کند.»

در کنار دغدغه‌های علمی، اوپن‌ای‌آی با موجی از فشارهای حقوقی نیز روبه‌روست.
در ایالت کالیفرنیا، والدین نوجوانی ۱۶ ساله به نام آدام رین از این شرکت شکایت کرده‌اند و مدعی‌اند که چت‌جی‌پی‌تی او را به خودکشی ترغیب کرده است — شکایتی که به گفته تحلیل‌گران، می‌تواند مسیر تازه‌ای در مسئولیت مدنی هوش مصنوعی بگشاید.
در پرونده‌ای دیگر، در شهر گرینویچ کانتیکت، مظنون یک قتل-خودکشی بخشی از گفت‌وگوهای خود با چت‌جی‌پی‌تی را پیش از وقوع حادثه در اینترنت منتشر کرده بود؛ گفت‌وگوهایی که به گفته محققان «به توهمات او دامن زده بود».

گزارش تازه اوپن‌ای‌آی نشان می‌دهد که مرز میان تعامل هوشمند و مداخله روانی تا چه اندازه باریک است. چت‌بات‌ها با قدرت پردازشی و لحن همدلانه خود می‌توانند هم ابزار یاری‌رسانی باشند و هم عامل تشدید بحران‌های ذهنی.
نشر آمار از سوی اوپن‌ای‌آی نشانه‌ای از پذیرش مسئولیت اخلاقی در برابر تبعات روانی فناوری‌های تعاملی است؛ با این حال، متخصصان تأکید دارند که هیچ هوش مصنوعی نمی‌تواند جایگزین ارتباط انسانی، درک عاطفی و مداخله واقعی متخصصان سلامت روان شود.

در نهایت، همان‌طور که فلدمن می‌گوید، «فناوری باید به‌جای ایفای نقش درمانگر، راه را به‌سوی درمان واقعی باز کند» — پیامی که شاید نقطه آغاز رویکردی تازه در سیاست‌گذاری اخلاقی هوش مصنوعی باشد.

The post چالش‌های روانی در گفت‌وگو با هوش مصنوعی appeared first on داتیکا | اخبار فناوری اطلاعات و ارتباطات.

واکنش شما چیست؟

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0