شکلگیری خودمختار هنجارهای اجتماعی در مدلهای زبانی هوش مصنوعی
پژوهشگران اعلام کردند که مدلهای زبانی بزرگ (LLM) میتوانند بهطور خودمختار و بدون کمک انسانی، هنجارهای اجتماعی مشترک را توسعه دهند. به گزارش تکناک، آنها با آزمایشهایی نشان دادند که این مدلها هنگام تعامل گروهی، نهتنها از الگوهای از پیشتعیینشده پیروی نمیکنند، بلکه با سازماندهی درونی، به توافقهایی در مورد قواعد زبانی میرسند؛ مشابه آنچه […] نوشته شکلگیری خودمختار هنجارهای اجتماعی در مدلهای زبانی هوش مصنوعی اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.

پژوهشگران اعلام کردند که مدلهای زبانی بزرگ (LLM) میتوانند بهطور خودمختار و بدون کمک انسانی، هنجارهای اجتماعی مشترک را توسعه دهند.
به گزارش تکناک، آنها با آزمایشهایی نشان دادند که این مدلها هنگام تعامل گروهی، نهتنها از الگوهای از پیشتعیینشده پیروی نمیکنند، بلکه با سازماندهی درونی، به توافقهایی در مورد قواعد زبانی میرسند؛ مشابه آنچه در جوامع انسانی رخ میدهد.
مدلهای زبانی بزرگ که شامل الگوریتمهای یادگیری عمیق برای درک و تولید زبان انسان هستند، از جمله پرآوازهترین آنها ChatGPT محسوب میشود. اما اکثر مطالعات پیشین، این مدلها را در شرایط انفرادی بررسی کردهاند.
آریل فینت اشری، پژوهشگر دکتری در دانشگاه City St George’s لندن، گفت: «بیشتر تحقیقات تا امروز مدلهای زبانی را بهصورت مجزا مطالعه کردهاند. اما سیستمهای واقعی هوش مصنوعی در آینده شامل عاملهایی خواهند بود که با یکدیگر تعامل دارند. پرسش ما این بود که آیا این مدلها میتوانند با شکل دادن به هنجارها، رفتار خود را هماهنگ کنند؟ پاسخ مثبت است. و آنچه آنها در تعامل با هم انجام میدهند، فراتر از عملکرد انفرادی آنهاست.»
در این مطالعه، تیم پژوهشی از چارچوب کلاسیکی موسوم به «بازی نامگذاری» برای بررسی شکلگیری قراردادهای اجتماعی استفاده کرد.
این مطالعه که در نشریه Science Advances منتشر شده، نشان میدهد که چگونه هنجارهای اجتماعی بهصورت خودجوش در جمعیتهای غیرمتمرکز از عاملهای LLM شکل میگیرند.
بر اساس یافتهها، حتی زمانیکه هر عامل بهصورت جداگانه هیچگونه سوگیری از خود نشان نمیدهد، سوگیریهای جمعی قوی میتوانند طی فرآیند تعاملات گروهی ظهور کنند. همچنین، گروههای اقلیت اما متعهد از عاملهای LLM میتوانند موجب تغییرات اجتماعی شوند و هنجارهای جایگزینی را به جمعیت غالب تحمیل کنند.
پژوهشگران تأکید کردند که سیستمهای هوش مصنوعی میتوانند بدون برنامهریزی صریح، بهطور مستقل هنجارهای اجتماعی ایجاد کنند. این یافتهها در طراحی سیستمهای هوش مصنوعی که با ارزشها و اهداف اجتماعی انسان هماهنگ باشند و بمانند، نقش کلیدی دارد.
در این آزمایشها، گروههایی با تعداد ۲۴ تا ۲۰۰ عامل LLM تشکیل شد. در هر مرحله، دو عامل بهصورت تصادفی جفت میشدند و باید از میان مجموعهای از گزینهها، یک «نام» (مثلاً یک حرف یا رشتهای از کاراکترها) انتخاب میکردند. اگر هر دو عامل یک نام مشابه انتخاب میکردند، پاداش دریافت میکردند؛ در غیر این صورت، جریمه میشدند و از انتخاب یکدیگر مطلع میشدند.
عاملها تنها به حافظهای محدود از تعاملات اخیر خود دسترسی داشتند و از حضور در یک جمعیت بزرگ آگاه نبودند. با تکرار این فرایند، یک قرارداد زبانی مشترک، بدون هماهنگی مرکزی یا دستورالعمل از پیش تعیینشده، در میان کل جمعیت شکل گرفت؛ روندی مشابه شکلگیری تدریجی هنجارها در فرهنگهای انسانی.
پژوهشگران همچنین پدیدههای جالبتری را مشاهده کردند: مانند ظهور سوگیریهای جمعی که منشأ آن در رفتار فردی هیچیک از عاملها یافت نمیشد، بلکه از تعاملات میان آنها ناشی میشد.
نوشته شکلگیری خودمختار هنجارهای اجتماعی در مدلهای زبانی هوش مصنوعی اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.
واکنش شما چیست؟






