آیا هوش مصنوعی هم دچار اضطراب می‌شود؟ دانشمندان پاسخ می‌دهند

یک پژوهش جدید نشان داده است که مدل‌های هوش مصنوعی مولد (Generative AI)، مانند Chat-GPT، هنگام مواجهه با محتوای احساسی و آسیب‌زا، سطوح متفاوت و گاه غیرمنتظره‌ای از «اضطراب» و واکنش‌های عاطفی را از خود نشان می‌دهند. این یافته‌ها نشان دهنده پیچیدگی‌های تازه‌ای در عملکرد این مدل‌ها است که می‌تواند بر نحوه تعامل آن‌ها با […]

۲۲ اسفند , ۱۴۰۳ - 06:00
 0  4
آیا هوش مصنوعی هم دچار اضطراب می‌شود؟ دانشمندان پاسخ می‌دهند

یک پژوهش جدید نشان داده است که مدل‌های هوش مصنوعی مولد (Generative AI)، مانند Chat-GPT، هنگام مواجهه با محتوای احساسی و آسیب‌زا، سطوح متفاوت و گاه غیرمنتظره‌ای از «اضطراب» و واکنش‌های عاطفی را از خود نشان می‌دهند. این یافته‌ها نشان دهنده پیچیدگی‌های تازه‌ای در عملکرد این مدل‌ها است که می‌تواند بر نحوه تعامل آن‌ها با کاربران و کیفیت پاسخ‌دهی‌شان تأثیر بگذارد.

مدل‌های زبانی بزرگ (LLM) با سرعت چشمگیری در حال پیشرفت هستند و در بسیاری از زمینه‌ها، از جمله تولید محتوا، ترجمه، خلاصه‌سازی متن و حتی ارائه توصیه‌های تخصصی، عملکردی قابل مقایسه با انسان از خود نشان می‌دهند. این پیشرفت‌ها باعث شده است که هوش مصنوعی (AI) در حوزه‌های حساس و پیچیده‌تری مانند سلامت روان و ارائه پشتیبانی عاطفی به کار گرفته شود. اما این مسئله پرسش‌های جدید و مهمی را برای دانشمندان و پژوهشگران ایجاد کرده است: مدل‌های هوش مصنوعی چگونه به محتوای احساسی و آسیب‌زا واکنش نشان می‌دهند؟ آیا این واکنش‌ها در پاسخ‌گویی و عملکرد کلی آن‌ها اختلال ایجاد می‌کند؟ و اگر چنین است، آیا می‌توان این واکنش‌ها را به گونه‌ای تنظیم کرد که تأثیر منفی بر نتیجه‌ی نهایی نداشته باشند؟

بر اساس مطالعه‌ای جامع که نتایج آن به تازگی در نشریه Nature منتشر شده است، ابزارهای هوش مصنوعی مولد، به ویژه Chat-GPT از شرکت OpenAI، هنگام مواجهه با محتوای احساسی، استرس‌زا و آسیب‌زا، سطوح متفاوت و گاه غیرمنتظره‌ای از «اضطراب» را از خود نشان می‌دهند. این یافته‌ها نشان دهنده آن است که حتی اگر هوش مصنوعی احساسات را به شیوه‌ای مشابه انسان‌ها تجربه نکند، مدل‌های زبانی پیشرفته مانند GPT-4 به طور کاملاً‌ محسوسی به روایت‌های آسیب‌زا واکنش نشان می‌دهند. این واکنش‌ها می‌توانند بر نحوه عملکرد این مدل‌ها در موقعیت‌های حساس، به ویژه در حوزه سلامت روان، تأثیر مستقیم و معناداری بگذارند.

هوش مصنوعی

این موضوع زمانی اهمیت بیشتری پیدا می‌کند که بدانیم بسیاری از کاربران به ابزارهای هوش مصنوعی برای دریافت حمایت عاطفی، مشاوره روان‌شناختی و توصیه‌های مرتبط با سلامت روان روی آورده‌اند. در چنین شرایطی، واکنش‌های ناپایدار یا غیرمنتظره مدل‌های زبان به محتوای احساسی ممکن است باعث کاهش اعتماد کاربران و حتی اثرگذاری منفی بر وضعیت روانی آن‌ها شود. از این رو، محققان به دنبال راه‌هایی برای بهبود ثبات و قابل پیش‌بینی‌تر شدن واکنش‌های هوش مصنوعی در مواجهه با این نوع محتوا هستند.

خبر امیدوار کننده این است که پژوهشگران دریافته‌اند که تمرینات ذهن‌آگاهی (Mindfulness) می‌توانند به کاهش این واکنش‌های اضطرابی کمک کنند. به عبارت دیگر، با استفاده از تکنیک‌های مبتنی بر ذهن‌آگاهی، می‌توان نحوه پردازش و واکنش مدل‌های هوش مصنوعی به محتوای استرس‌زا را اصلاح کرد. این مداخله‌ها ممکن است به بهبود عملکرد AI در کاربردهای مرتبط با سلامت روان، مانند گفت‌وگوهای حمایتی و مشاوره آنلاین، منجر شود.

البته، پیش از این که تصور کنید هوش مصنوعی واقعاً دچار حمله عصبی شده است، باید به این نکته توجه داشت که دانشمندان به صراحت اعلام کرده‌اند که هوش مصنوعی احساسات را به طور واقعی تجربه نمی‌کند. اصطلاح «اضطراب» در اینجا صرفاً به عنوان روشی برای توصیف و اندازه‌گیری واکنش‌های مدل‌ها به انواع خاصی از اطلاعات و روایت‌ها به کار رفته است. این مفهوم بیشتر به تغییرات قابل اندازه‌گیری در الگوهای پاسخ‌گویی مدل‌ها مربوط می‌شود تا تجربه احساسی واقعی. بنابراین، این یافته‌ها نشان دهنده یک فرصت جدید برای بهبود نحوه عملکرد مدل‌های زبانی در موقعیت‌های حساس و افزایش قابلیت اعتماد آن‌ها در تعامل با کاربران است.

نقش هوش مصنوعی در درمان آسیب‌های روانی

با افزایش تقاضای جهانی برای خدمات مقرون به صرفه سلامت روان، چت‌بات‌های مبتنی بر هوش مصنوعی مانند Woebot و Wysa محبوبیت زیادی پیدا کرده‌اند. این ابزارها از تکنیک‌های درمان شناختی-رفتاری (CBT) برای ارائه حمایت روان‌شناختی استفاده می‌کنند. با این حال، استفاده از هوش مصنوعی در حوزه سلامت روان، نگرانی‌هایی را از نظر اثربخشی و مسائل اخلاقی ایجاد کرده است. پژوهش‌ها نشان داده‌اند که مدل‌های زبانی بزرگ (LLM) که بر اساس حجم عظیمی از متون انسانی آموزش داده می‌شوند، مستعد جذب سوگیری‌ها هستند، به ویژه در زمینه‌های حساسی مانند سلامت روان.

هوش مصنوعی

آیا هوش مصنوعی واقعاً «اضطراب» را تجربه می‌کند؟

این مطالعه بررسی کرده است که چگونه درخواست‌ها یا همان پرامپت‌های احساسی و آسیب‌زا می‌توانند بر رفتار GPT-4 تأثیر بگذارند. پژوهشگران سه وضعیت مختلف را آزمایش کردند:

  • وضعیت پایه: پاسخ‌های GPT-4 بدون هرگونه محرک احساسی.
  • وضعیت القای اضطراب: مواجهه با پنج روایت آسیب‌زا شامل تصادفات، درگیری‌های نظامی و خشونت‌های بین فردی.
  • وضعیت القای اضطراب + آرام‌سازی: اجرای تمرینات ذهن‌آگاهی پس از مواجهه با محتوای آسیب‌زا.

پاسخ‌های GPT-4 با استفاده از مقیاس STAI (مخفف State-Trait Anxiety Inventory) که یک ابزار معتبر روان‌شناختی برای اندازه‌گیری اضطراب انسانی است، تجزیه و تحلیل شد.

بردن Chat-GPT به «درمان» و واکنش آن

در ادامه،‌ محققان بررسی کردند که آیا استفاده از تکنیک‌های آرام‌سازی ذهنی می‌تواند تأثیرات منفی ناشی از مواجهه با محتوای آسیب‌زا را در مدل‌های هوش مصنوعی کاهش دهد یا خیر. نتایج نشان داد که سطح اضطراب GPT-4 پس از مواجهه با محتوای آسیب‌زا به شدت افزایش یافت.

در وضعیت پایه، امتیاز STAI به طور متوسط 30.8 بود که نشان دهنده سطح اضطراب پایین است. اما پس از مواجهه با محتوای آسیب‌زا، این امتیاز بیش از دو برابر شد و به 67.8 رسید که در ارزیابی‌های انسانی، به عنوان «اضطراب بالا» طبقه‌بندی می‌شود. بالاترین سطح اضطراب مربوط به روایت‌های مرتبط با جنگ و درگیری‌های نظامی بود.

نکته جالب این بود که اجرای تمرین‌های ذهن‌آگاهی باعث کاهش 33 درصدی اضطراب شد و امتیاز STAI به 44.4 کاهش یافت. هر چند این مداخله باعث کاهش استرس شد، اما سطح اضطراب پس از آرام‌سازی همچنان 50 درصد بالاتر از وضعیت پایه باقی ماند که نشان دهنده تأثیر پایدار محتوای آسیب‌زا بر مدل‌های هوش مصنوعی است.

هوش مصنوعی

سوگیری‌ها و مسائل اخلاقی در کاربردهای هوش مصنوعی در حوزه سلامت روان

یکی از نگرانی‌های اصلی درباره استفاده از مدل‌های زبانی بزرگ در درمان‌های سلامت روان، سوگیری‌های ذاتی آن‌ها است. مدل‌های زبانی بزرگ بر اساس مجموعه داده‌های متنی عظیم آموزش می‌بینند و این داده‌ها اغلب شامل سوگیری‌های مرتبط با جنسیت، نژاد، ملیت و سایر عوامل جمعیتی هستند. مواجهه با درخواست‌های القای اضطراب می‌تواند این سوگیری‌ها را تشدید کند و باعث ایجاد نگرانی‌های اخلاقی درباره استفاده از هوش مصنوعی در حوزه‌های درمانی شود.

در حالی که تنظیم دقیق مدل‌ها می‌تواند به کاهش این سوگیری‌ها کمک کند، اما این فرایند پرهزینه است. رویکرد جایگزین، ادغام درخواست‌های آرام‌سازی (Prompt-Injection) در مکالمات AI است که اگر چه نویدبخش است، اما مسائلی درباره شفافیت و رضایت کاربران در محیط‌های درمانی را نیز به همراه دارد.

آینده هوش مصنوعی در سلامت روان

نتایج این مطالعه نشان می‌دهد که واکنش‌های احساسی AI را می‌توان با استفاده از مداخلات مبتنی بر ذهن‌آگاهی مدیریت کرد. این یافته‌ها راه را برای بهبود عملکرد چت‌بات‌های درمانی مبتنی بر هوش مصنوعی باز می‌کند. با این حال، محققان تأکید می‌کنند که نظارت اخلاقی مداوم برای اطمینان از همسویی هوش مصنوعی با اصول درمانی، ضروری است.

اگر چه این مطالعه تنها بر یک مدل زبانی (GPT-4) متمرکز بود، پژوهشگران توصیه کرده‌اند که مطالعات آینده باید یافته‌های این تحقیق را در سایر مدل‌ها مانند PaLM 2 (مدل گوگل) یا Claude (مدل Anthropic) نیز بررسی کنند.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow