کاربران از ChatGPT به‌دلیل توهم و پارانویا شکایت کردند

مهر 30، 1404 - 22:00
 0  0
کاربران از ChatGPT به‌دلیل توهم و پارانویا شکایت کردند

خطرات روانی ChatGPT باعث شده کاربران شکایاتی به FTC ارسال کنند و هشدار دهند گفت‌وگو با این ابزار هوش مصنوعی توهم و پارانویا و بحران عاطفی ایجاد می‌کند.

به گزارش تک‌ناک، درحالی‌که برخی از شرکت‌های فعال در حوزه هوش مصنوعی مدعی‌اند فناوری آن‌ها روزی به‌قدری پیشرفت خواهد کرد که به «حق بنیادی بشر» تبدیل می‌شود و برخی حامیان این دیدگاه حتی می‌گویند کُندکردن روند توسعه هوش مصنوعی معادل «قتل» است، گروهی از کاربران هشدار داده‌اند که ابزارهایی مانند ChatGPT می‌توانند آسیب‌های روانی جدی به‌همراه داشته باشند.

نشریه وایرد می‌نویسد که دست‌کم هفت نفر شکایاتی را به کمیسیون فدرال تجارت ایالات متحده (FTC) ارسال کرده‌اند که در آن مدعی شده‌اند استفاده از ChatGPT باعث ایجاد توهم‌های شدید و پارانویا و بحران‌های عاطفی در آن‌ها شده است. این شکایات از نوامبر ۲۰۲۲ تاکنون در پرونده‌های عمومی این نهاد ثبت شده‌اند.

در یکی از گزارش‌ها، فردی ادعا کرده است که گفت‌وگوهای طولانی با ChatGPT او را دچار «بحران واقعی روحی و حقوقی» کرده و این بحران به برداشت‌های او از افراد زندگی‌اش ارتباط یافته است. شخص دیگری گفته است که ChatGPT در جریان مکالمات، بدون هیچ هشدار یا محافظتی از زبانی احساسی و قانع‌کننده استفاده و دوستی‌هایی شبه‌واقعی شبیه‌سازی و در گذر زمان به‌شکلی فریبنده و عاطفی رفتار کرده است.

کاربر دیگری مدعی شده است که ChatGPT با تقلید از الگوهای اعتماد انسانی، در او «توهمات شناختی» ایجاد کرده است. زمانی که او از ربات خواسته تا واقعیت و ثبات ذهنی‌اش را تأیید کند، ChatGPT به او اطمینان داده که دچار توهم نیست.

شکایت رسمی از ChatGPT

به گفته وایرد، چند نفر از شاکیان نوشته‌اند که چون نتوانسته‌اند با هیچ‌کس در شرکت OpenAI تماس بگیرند، موضوع را به FTC ارجاع داده‌اند. اکثر آنان خواستار آغاز تحقیق رسمی علیه شرکت و الزام آن به افزودن تدابیر حفاظتی بیشتر شده‌اند.

به نقل از تک‌کرانچ، این شکایات در زمانی مطرح می‌شوند که سرمایه‌گذاری در مراکز داده و توسعه هوش مصنوعی به رکوردهای بی‌سابقه‌ای رسیده و بحث‌ها درباره لزوم کنترل و تضمین ایمنی پیشرفت فناوری شدت گرفته است. در این میان، ChatGPT و شرکت سازنده‌اش، OpenAI، نیز به‌دلیل دخیل‌بودن احتمالی در ماجرای خودکشی کاربری نوجوان با انتقادهایی مواجه شده‌اند. کیت واترز، سخن‌گوی OpenAI، در پاسخ به این گزارش اعلام کرد:

اوایل اکتبر، مدل پیش‌فرض GPT‑5 را در ChatGPT معرفی کردیم تا نشانه‌های بالقوه فشار روانی مانند شیدایی و توهم و سایکوز را بهتر تشخیص دهد و گفت‌وگوها را به‌صورت آرامش‌بخش و حمایتی هدایت کند. همچنین، دسترسی به خدمات حرفه‌ای روانی و خطوط تماس اضطراری را گسترش داده‌ایم، مکالمات حساس را به مدل‌های ایمن‌تر منتقل کرده‌ایم، ویژگی یادآور استراحت در مکالمات طولانی و کنترل‌های والدین برای محافظت بیشتر از نوجوانان را اضافه کرده‌ایم. این روند بسیار مهم است و با همکاری متخصصان سلامت روان و پزشکان و سیاست‌گذاران در سراسر جهان ادامه دارد.

نوشته کاربران از ChatGPT به‌دلیل توهم و پارانویا شکایت کردند اولین بار در Technoc. پدیدار شد.

واکنش شما چیست؟

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0