شکل‌گیری خودمختار هنجارهای اجتماعی در مدل‌های زبانی هوش مصنوعی

پژوهشگران اعلام کردند که مدل‌های زبانی بزرگ (LLM) می‌توانند به‌طور خودمختار و بدون کمک انسانی، هنجارهای اجتماعی مشترک را توسعه دهند. به گزارش تکناک، آن‌ها با آزمایش‌هایی نشان دادند که این مدل‌ها هنگام تعامل گروهی، نه‌تنها از الگوهای از پیش‌تعیین‌شده پیروی نمی‌کنند، بلکه با سازماندهی درونی، به توافق‌هایی در مورد قواعد زبانی می‌رسند؛ مشابه آنچه […] نوشته شکل‌گیری خودمختار هنجارهای اجتماعی در مدل‌های زبانی هوش مصنوعی اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.

۲۸ اردیبهشت , ۱۴۰۴ - 16:00
 3
شکل‌گیری خودمختار هنجارهای اجتماعی در مدل‌های زبانی هوش مصنوعی

پژوهشگران اعلام کردند که مدل‌های زبانی بزرگ (LLM) می‌توانند به‌طور خودمختار و بدون کمک انسانی، هنجارهای اجتماعی مشترک را توسعه دهند.

به گزارش تکناک، آن‌ها با آزمایش‌هایی نشان دادند که این مدل‌ها هنگام تعامل گروهی، نه‌تنها از الگوهای از پیش‌تعیین‌شده پیروی نمی‌کنند، بلکه با سازماندهی درونی، به توافق‌هایی در مورد قواعد زبانی می‌رسند؛ مشابه آنچه در جوامع انسانی رخ می‌دهد.

مدل‌های زبانی بزرگ که شامل الگوریتم‌های یادگیری عمیق برای درک و تولید زبان انسان هستند، از جمله پرآوازه‌ترین آن‌ها ChatGPT محسوب می‌شود. اما اکثر مطالعات پیشین، این مدل‌ها را در شرایط انفرادی بررسی کرده‌اند.

آریل فینت اشری، پژوهشگر دکتری در دانشگاه City St George’s لندن، گفت: «بیشتر تحقیقات تا امروز مدل‌های زبانی را به‌صورت مجزا مطالعه کرده‌اند. اما سیستم‌های واقعی هوش مصنوعی در آینده شامل عامل‌هایی خواهند بود که با یکدیگر تعامل دارند. پرسش ما این بود که آیا این مدل‌ها می‌توانند با شکل دادن به هنجارها، رفتار خود را هماهنگ کنند؟ پاسخ مثبت است. و آنچه آن‌ها در تعامل با هم انجام می‌دهند، فراتر از عملکرد انفرادی آن‌هاست.»

در این مطالعه، تیم پژوهشی از چارچوب کلاسیکی موسوم به «بازی نام‌گذاری» برای بررسی شکل‌گیری قراردادهای اجتماعی استفاده کرد.

این مطالعه که در نشریه Science Advances منتشر شده، نشان می‌دهد که چگونه هنجارهای اجتماعی به‌صورت خودجوش در جمعیت‌های غیرمتمرکز از عامل‌های LLM شکل می‌گیرند.

بر اساس یافته‌ها، حتی زمانی‌که هر عامل به‌صورت جداگانه هیچ‌گونه سوگیری از خود نشان نمی‌دهد، سوگیری‌های جمعی قوی می‌توانند طی فرآیند تعاملات گروهی ظهور کنند. همچنین، گروه‌های اقلیت اما متعهد از عامل‌های LLM می‌توانند موجب تغییرات اجتماعی شوند و هنجارهای جایگزینی را به جمعیت غالب تحمیل کنند.

پژوهشگران تأکید کردند که سیستم‌های هوش مصنوعی می‌توانند بدون برنامه‌ریزی صریح، به‌طور مستقل هنجارهای اجتماعی ایجاد کنند. این یافته‌ها در طراحی سیستم‌های هوش مصنوعی که با ارزش‌ها و اهداف اجتماعی انسان هماهنگ باشند و بمانند، نقش کلیدی دارد.

در این آزمایش‌ها، گروه‌هایی با تعداد ۲۴ تا ۲۰۰ عامل LLM تشکیل شد. در هر مرحله، دو عامل به‌صورت تصادفی جفت می‌شدند و باید از میان مجموعه‌ای از گزینه‌ها، یک «نام» (مثلاً یک حرف یا رشته‌ای از کاراکترها) انتخاب می‌کردند. اگر هر دو عامل یک نام مشابه انتخاب می‌کردند، پاداش دریافت می‌کردند؛ در غیر این صورت، جریمه می‌شدند و از انتخاب یکدیگر مطلع می‌شدند.

عامل‌ها تنها به حافظه‌ای محدود از تعاملات اخیر خود دسترسی داشتند و از حضور در یک جمعیت بزرگ آگاه نبودند. با تکرار این فرایند، یک قرارداد زبانی مشترک، بدون هماهنگی مرکزی یا دستورالعمل از پیش تعیین‌شده، در میان کل جمعیت شکل گرفت؛ روندی مشابه شکل‌گیری تدریجی هنجارها در فرهنگ‌های انسانی.

پژوهشگران همچنین پدیده‌های جالب‌تری را مشاهده کردند: مانند ظهور سوگیری‌های جمعی که منشأ آن در رفتار فردی هیچ‌یک از عامل‌ها یافت نمی‌شد، بلکه از تعاملات میان آن‌ها ناشی می‌شد.

نوشته شکل‌گیری خودمختار هنجارهای اجتماعی در مدل‌های زبانی هوش مصنوعی اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow