مدل‌های زبانی بزرگ (LLM) هنوز هم به طور کامل قابل اعتماد نیستند

تحقیقات اخیر نشان داده است که با وجود پیشرفت‌های چشمگیر در مدل‌های زبانی بزرگ (LLM) و هوش مصنوعی مولد (GenAI)، این سیستم‌ها هنوز هم محدودیت‌های جدی دارند و نمی‌توان به طور کامل به آن‌ها اعتماد کرد. به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، این یافته‌ها می‌تواند پیامدهای مهمی برای مدل‌های هوش مصنوعی مولد در […] منبع خبر مدل‌های زبانی بزرگ (LLM) هنوز هم به طور کامل قابل اعتماد نیستند پایگاه خبری تکنا به آدرس تکنا میباشد.

۱۷ آبان , ۱۴۰۳ - 12:00
 0  3
مدل‌های زبانی بزرگ (LLM) هنوز هم به طور کامل قابل اعتماد نیستند

تحقیقات اخیر نشان داده است که با وجود پیشرفت‌های چشمگیر در مدل‌های زبانی بزرگ (LLM) و هوش مصنوعی مولد (GenAI)، این سیستم‌ها هنوز هم محدودیت‌های جدی دارند و نمی‌توان به طور کامل به آن‌ها اعتماد کرد.

به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، این یافته‌ها می‌تواند پیامدهای مهمی برای مدل‌های هوش مصنوعی مولد در دنیای واقعی داشته باشد. به ویژه اینکه یک LLM که در یک زمینه خاص عملکرد خوبی دارد، ممکن است در صورت تغییر جزئی در وظیفه یا محیط، عملکرد ضعیفی از خود نشان دهد. این مطالعه توسط محققان دانشگاه هاروارد، موسسه فناوری ماساچوست (MIT)، دانشگاه شیکاگو بوت و دانشگاه کرنل انجام شده است. LLM‌ها توانایی خود را در زمینه‌های مختلفی مانند نوشتن، تولید برنامه‌های کامپیوتری و فعالیت‌های دیگر نشان داده‌اند.

این موضوع می‌تواند این تصور را ایجاد کند که این مدل‌ها در حال یادگیری حقایق کلی در مورد جهان هستند، اما مطالعه جدید نشان می‌دهد که اینطور نیست. در این مطالعه جدید، محققان دریافتند که یک نوع محبوب از مدل‌های GenAI می‌تواند با دقت تقریباً کامل، مسیرهای رانندگی مرحله به مرحله را در شهر نیویورک ارائه دهد، بدون اینکه نقشه دقیقی از شهر را در ذهن خود تشکیل داده باشد. با این حال، هنگامی که محققان برخی از خیابان‌ها را بستند و مسیرهای جایگزین را اضافه کردند، عملکرد ناوبری LLM به طور قابل توجهی کاهش یافت.

پس از بررسی، محققان دریافتند که نقشه نیویورک که توسط LLM تولید شده بود، “شامل بسیاری از خیابان‌های غیر واقعی بود که بین شبکه خیابان‌ها منحنی شده و تقاطع‌های دور را به هم متصل می‌کردند. آشیش رامباچان، استاد اقتصاد و محقق اصلی در آزمایشگاه اطلاعات و سیستم‌های تصمیم‌گیری MIT (LIDS)، گفت: «این سوال که آیا LLM‌ها مدل‌های جهانی منسجمی را یاد می‌گیرند، بسیار مهم است اگر می‌خواهیم از این تکنیک‌ها برای کشف‌های جدید استفاده کنیم.»

این تحقیق در کنفرانس پردازش اطلاعات عصبی ارائه خواهد شد. برای این مطالعه، محققان بر روی نوعی مدل GenAI متمرکز شدند که به عنوان ترانسفورمر شناخته می‌شود و ستون فقرات LLM‌هایی مانند GPT-4 را تشکیل می‌دهد.

طبق یک بیانیه مطبوعاتی MIT، ترانسفورمرها با مقدار زیادی داده مبتنی بر زبان آموزش داده می‌شوند تا توکن بعدی در یک دنباله، مانند کلمه بعدی در یک جمله، را پیش‌بینی کنند. با این حال، به گفته محققان، هنگام تعیین اینکه آیا LLM یک مدل دقیق از جهان را تشکیل داده است یا خیر، اندازه‌گیری دقت پیش‌بینی‌های آن کافی نیست.

در مثال دیگری، آن‌ها دریافتند که یک ترانسفورمر می‌تواند تقریباً در هر زمان، حرکات معتبر را در بازی Connect 4 پیش‌بینی کند، بدون اینکه هیچ یک از قوانین را درک کند. بنابراین، تیم دو معیار جدید را توسعه داد که می‌تواند مدل جهانی یک ترانسفورمر را آزمایش کند. محققان ارزیابی‌های خود را بر روی کلاسی از مسائل متمرکز کردند که به عنوان اتوماتای متناهی قطعی (DFA) شناخته می‌شوند. یک DFA مسئله‌ای با دنباله‌ای از حالات، مانند تقاطع‌هایی است که باید برای رسیدن به یک مقصد طی شود، و یک روش مشخص برای توصیف قوانینی که باید در طول مسیر دنبال شوند.

در یک چرخش کاملاً غیرمنتظره، محققان دریافتند که ترانسفورمرهایی که به صورت تصادفی انتخاب می‌کردند، مدل‌های جهانی دقیق‌تری را تشکیل می‌دادند. اگرچه ترانسفورمرها در تقریباً هر مورد، جهت‌های دقیق و حرکات معتبر را تولید می‌کردند، اما دو معیار نشان داد که فقط یکی از آن‌ها یک مدل جهانی منسجم برای حرکات ایجاد کرده بود و هیچ‌کدام در تشکیل مدل‌های جهانی منسجم در مثال ناوبری عملکرد خوبی نداشتند.
برای مشاهده تازه ترین خبرها به صفحه اخبار فناوری رسانه تکنا مراجعه کنید.

منبع خبر مدل‌های زبانی بزرگ (LLM) هنوز هم به طور کامل قابل اعتماد نیستند پایگاه خبری تکنا به آدرس تکنا میباشد.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow