احتمال توقف توسعه سیستم‌های پرخطر هوش مصنوعی توسط متا

شرکت متا اعلام کرده که ممکن است توسعه برخی از سیستم‌های هوش مصنوعی را متوقف کند، در صورتی که بیش از حد خطرناک ارزیابی شوند. به گزارش تک‌ناک، این تصمیم در سند جدید سیاست‌گذاری این شرکت تحت عنوان «چارچوب هوش مصنوعی پیشرفته» مطرح شده است. بر اساس این سند، متا دو دسته از سیستم‌های هوش […] نوشته احتمال توقف توسعه سیستم‌های پرخطر هوش مصنوعی توسط متا اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.

۱۶ بهمن , ۱۴۰۳ - 15:00
 0  1
احتمال توقف توسعه سیستم‌های پرخطر هوش مصنوعی توسط متا

شرکت متا اعلام کرده که ممکن است توسعه برخی از سیستم‌های هوش مصنوعی را متوقف کند، در صورتی که بیش از حد خطرناک ارزیابی شوند.

به گزارش تک‌ناک، این تصمیم در سند جدید سیاست‌گذاری این شرکت تحت عنوان «چارچوب هوش مصنوعی پیشرفته» مطرح شده است. بر اساس این سند، متا دو دسته از سیستم‌های هوش مصنوعی را به‌عنوان «پرخطر» و «خطر بحرانی» شناسایی کرده است، که امکان دارد انتشار آنها به دلایل امنیتی متوقف شود.

معیارهای متا برای ارزیابی خطرات هوش مصنوعی

بر اساس چارچوب جدید متا، سیستم‌های هوش مصنوعی که در دسته «پرخطر» قرار می‌گیرند، می‌توانند اجرای حملات سایبری، شیمیایی و بیولوژیکی را تسهیل کنند، اما تأثیر آنها به‌اندازه سیستم‌های «خطر بحرانی» قطعی و غیرقابل کنترل نیست. در مقابل، سیستم‌های خطر بحرانی، «می‌توانند پیامدهای فاجعه‌باری ایجاد کنند، که خطرات آنها قابل کاهش نیست.»

شرکت متا در این سند به چند مثال از چنین خطراتی اشاره کرده است، که از جمله آن می‌توان به «نفوذ خودکار و کامل به یک محیط سازمانی با سطح بالای امنیت» و «گسترش سلاح‌های بیولوژیکی با تأثیر بالا» اشاره کرد.

هرچند این شرکت تأکید کرده است که این فهرست جامع نیست، اما شامل مواردی می‌شود که بیشترین تهدید را ایجاد خواهند کرد.

نکته قابل توجه در این چارچوب، رویکرد متا در ارزیابی خطر سیستم‌ها است. برخلاف برخی شرکت‌ها که از آزمایش‌های تجربی مشخص برای تعیین میزان خطر استفاده می‌کنند، متا اعلام کرده است که «هیچ معیار کمی قطعی برای سنجش میزان خطر» وجود ندارد. در نتیجه، این شرکت برای ارزیابی میزان تهدید سیستم‌های خود، به نظرات پژوهشگران داخلی و خارجی تکیه می‌کند، که تحت بررسی «تصمیم‌گیرندگان ارشد» قرار می‌گیرند.

معیارهای متا برای ارزیابی خطرات هوش مصنوعی

اقدامات متا در برابر سیستم‌های پرخطر و بحرانی

شرکت متا اعلام کرده است که در صورت تشخیص «پرخطر» بودن یک سیستم، دسترسی داخلی به آن را محدود خواهد کرد و تا زمانی که اقدامات کاهش خطر را به سطحی قابل‌ قبول نرساند، آن را منتشر نخواهد کرد. اما اگر سیستمی در دسته «خطر بحرانی» قرار گیرد، این شرکت «توسعه آن را متوقف می‌کند» و «تدابیر امنیتی نامشخصی» را برای جلوگیری از استخراج و سوءاستفاده از آن به کار خواهد گرفت.

این تصمیم متا در شرایطی اتخاذ شده که این شرکت با انتقادات زیادی درباره رویکرد باز خود در توسعه هوش مصنوعی مواجه شده است. برخلاف شرکت‌هایی مانند OpenAI که مدل‌های هوش مصنوعی خود را فقط از طریق API محدود در دسترس قرار می‌دهند، متا سیاست انتشار آزاد را دنبال کرده است.

چالش‌های متا در استراتژی انتشار آزاد هوش مصنوعی

مدل‌های هوش مصنوعی متا، Llama، تاکنون صدها میلیون بار دانلود شده‌اند. اما این رویکرد، مشکلاتی را نیز برای این شرکت به همراه داشته است.

به عنوان مثال، گزارش‌هایی منتشر شده که نشان می‌دهد یکی از دشمنان ایالات متحده از مدل Llama برای توسعه یک چت‌بات دفاعی استفاده کرده است.

شرکت متا با انتشار چارچوب هوش مصنوعی پیشرفته، به احتمال زیاد در تلاش است تا تفاوت رویکرد خود را با شرکت چینی DeepSeek برجسته کند.

این شرکت چینی نیز سیستم‌های خود را به‌ صورت آزاد در دسترس قرار داده است، اما مدل‌های آن فاقد تدابیر امنیتی قوی هستند و به‌ راحتی می‌توان از آنها برای تولید خروجی‌های مضر و خطرناک استفاده کرد.

جمع‌بندی: متا بین شفافیت و امنیت

در نهایت، شرکت متا در این سند تأکید کرده است: «ما معتقد هستیم که با در نظر گرفتن هم‌زمان مزایا و خطرات در تصمیم‌گیری‌های مربوط به توسعه و استقرار هوش مصنوعی پیشرفته، امکان ارائه این فناوری به جامعه به‌گونه‌ای وجود دارد که هم منافع آن حفظ شود و هم سطحی مناسب از ریسک مدیریت گردد.»

این موضع‌گیری نشان می‌دهد که متا در حال تلاش برای یافتن تعادل میان شفافیت در توسعه هوش مصنوعی و مدیریت خطرات بالقوه آن است. با وجود این، هنوز مشخص نیست که این چارچوب چگونه در عمل پیاده‌سازی خواهد شد و آیا منتقدان متا آن را کافی می‌دانند یا خیر.

نوشته احتمال توقف توسعه سیستم‌های پرخطر هوش مصنوعی توسط متا اولین بار در تک ناک - اخبار تکنولوژی روز جهان و ایران. پدیدار شد.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow