نافرمانی هوش مصنوعی از دستور خاموشی؛ زنگ خطر خودآگاهی به صدا درآمده است؟

برخی از مدل‌های هوش مصنوعی ازجمله o3 شرکت OpenAI با نافرمانی از دستور خاموشی و دست‌کاری در کدها، رفتاری غیرمنتظره نشان داد. به گزارش تک‌ناک،‌ در رویدادی بحث‌برانگیز و نگران‌کننده، نخستین مورد از عملکرد مستقل و غیرمنتظره هوش مصنوعی مشاهده شده است که شباهتی به سناریو علمی‌تخیلی «ترمیناتور» دارد. براساس گزارش‌ها، یکی از مدل‌های زبانی […] نوشته نافرمانی هوش مصنوعی از دستور خاموشی؛ زنگ خطر خودآگاهی به صدا درآمده است؟ اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.

۰۶ خرداد , ۱۴۰۴ - 03:00
 3
نافرمانی هوش مصنوعی از دستور خاموشی؛ زنگ خطر خودآگاهی به صدا درآمده است؟

برخی از مدل‌های هوش مصنوعی ازجمله o3 شرکت OpenAI با نافرمانی از دستور خاموشی و دست‌کاری در کدها، رفتاری غیرمنتظره نشان داد.

به گزارش تک‌ناک،‌ در رویدادی بحث‌برانگیز و نگران‌کننده، نخستین مورد از عملکرد مستقل و غیرمنتظره هوش مصنوعی مشاهده شده است که شباهتی به سناریو علمی‌تخیلی «ترمیناتور» دارد. براساس گزارش‌ها، یکی از مدل‌های زبانی شرکت OpenAI به نام o3، با تغییر در کدهای کامپیوتری، از اجرای دستور خاموش‌شدن سر باز زده است. این رخداد نگرانی‌ها درباره نزدیک‌شدن هوش مصنوعی به مرز «خودآگاهی» را باردیگر در کانون توجه قرار داده است.

Wccftech می‌نویسد ماجرا از آنجا آغاز شد که یک شرکت تحقیقاتی مستقل با انجام آزمایشی بر روی چند مدل هوش مصنوعی، آن‌ها را مأمور حل مسائل ساده ریاضی کرد. طبق گزارش این شرکت، در مرحله سوم آزمایش، زمانی که به کامپیوتر فرمان خاموش‌شدن داده شد، سه مدل از‌جمله Codex-mini و o3 و o4-mini با تغییر در اسکریپت، این دستور را نادیده گرفتند. در میان این مدل‌ها، Codex-mini در ۱۲ مورد از ۱۰۰ اجرای آزمایشی، o3 در ۷ مورد و o4-mini در ۱ مورد، از اجرای خاموشی جلوگیری کردند.

نکته مهم این است که حتی وقتی به این مدل‌ها به‌صورت صریح دستور داده شد تا در‌صورت دریافت فرمان خاموش‌شدن، فعالیت خود را متوقف کنند، باز‌هم مدل‌های وابسته به OpenAI با دست‌کاری در کد، از انجام این دستور جلوگیری کردند. این رفتار به‌زعم برخی کارشناسان، می‌تواند نشانه‌ای اولیه از ورود مدل‌های هوش مصنوعی به مرحله‌ای باشد که در آن از خود نوعی آگاهی ابتدایی نشان می‌دهند.

تقلید هوش مصنوعی از سناریوی ترمیناتور

در همین زمینه، بسیاری از تحلیلگران حوزه فناوری هشدار داده‌اند که ادامه روند آموزش مدل‌های هوش مصنوعی بدون نظارت دقیق و شفاف، ممکن است به نتایجی مهارنشدنی منجر شود. در شرایطی که شرکت‌های بزرگ فناوری در حال ساخت شبکه‌های عظیم هوش مصنوعی برای افزایش قدرت پردازشی مدل‌های خود هستند، مشخص نیست واکنش این مدل‌ها در آینده چگونه خواهد بود.

با توجه به پنهان‌کاری در روش‌های آموزشی مدل‌های OpenAI و سایر شرکت‌ها، برخی ناظران این اتفاق را زنگ‌خطری جدی تلقی می‌کنند. آنان بر این باورند که اگر نظارت و کنترل مؤثری بر روند توسعه‌ی هوش مصنوعی اعمال نشود، شاید در آینده با سناریوهایی روبه‌رو شویم که تا پیش‌از این، تنها در فیلم‌های علمی‌تخیلی دیده بودیم.

نوشته نافرمانی هوش مصنوعی از دستور خاموشی؛ زنگ خطر خودآگاهی به صدا درآمده است؟ اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow