OpenAI ابزار تازه‌ای برای طبقه‌بندی محتوای حساس ارائه داد

آبان 07، 1404 - 23:00
 0  0
OpenAI ابزار تازه‌ای برای طبقه‌بندی محتوای حساس ارائه داد

مدل‌های متن‌باز ایمنی OpenAI اکنون به توسعه‌دهندگان اجازه می‌دهند تا سیاست‌های محتوایی خود را در لحظه اجرا شخصی‌سازی کنند.

به گزارش تک‌ناک، اوایل امسال، OpenAI دو مدل زبانی متن‌باز با وزن‌های آزاد به نام‌های gpt‑oss‑120b و gpt‑oss‑20b را منتشر کرد که در آزمون‌های استدلالی عملکرد بهتری از بیشتر مدل‌های متن‌باز مشابه از خود نشان دادند. امروز این شرکت با معرفی دو مدل تازه، یعنی gpt‑oss‑safeguard‑120b و gpt‑oss‑safeguard‑20b، گام بعدی خود را برداشته است. این دو مدل متن‌باز جدید با تمرکز بر ایمنی و طبقه‌بندی محتوای حساس طراحی شده‌اند.

به نقل از نئووین، مدل‌های جدید مبتنی‌بر نسخه‌های پیشین gpt‑oss هستند؛ اما با هدف انجام وظایف مرتبط با ایمنی بازآموزی شده‌اند. مدل‌های متن‌باز ایمنی OpenAI دقیقاً مانند نسخه‌های پیشین تحت مجوز آزاد Apache 2.0 عرضه می‌شوند. این یعنی هر کسی می‌تواند آزادانه از آن‌ها استفاده کند و تغییرشان دهد یا در پروژه‌های خود مستقر کند.

OpenAI توضیح داده است که به‌جای آنکه توسعه‌دهندگان مجبور باشند از سیستم ایمنی واحد و ازپیش‌تعریف‌شده برای همه کاربردهای هوش مصنوعی استفاده کنند، مدل gpt‑oss‑safeguard ابزار لازم را در اختیار آن‌ها می‌گذارد تا خطوط ایمنی مدنظرشان را شخصاً تعریف کنند. این مدل در لحظه اجرا، سیاست‌های ایمنی ارائه‌شده توسعه‌دهنده را تفسیر می‌کند و پیام‌های کاربر و پاسخ‌های چت یا حتی کل گفت‌وگوها را بر‌اساس همان سیاست می‌تواند طبقه‌بندی کند.

این خبر درحالی منتشرشده که اخیرا OpenAI در حال ایجاد محدودیت‌های متفاوتی روی انواع محتواست؛ مانند استفاده از دیپ‌فیک چهره سلبریتی‌ها. جدا از این اتفاق، معرفی مدل‌های متن‌باز جدید امنیتی به توسعه‌دهندگان نیز امکانات بیشتری برای کنترل محتوایشان می‌دهد تا از کشمکش‌ها و پرونده‌های مثل شکایت xAI از OpenAI به اتهام سرقت سیستماتیک اسرار تجاری بتوان جلوگیری کرد.

برخلاف سامانه‌هایی که در مرحله آموزش به سیاست‌های ایمنی متکی هستند، این مدل سیاست را هنگام استنتاج (Inference) استفاده می‌کند؛ بنابراین، توسعه‌دهندگان می‌توانند هر زمان لازم بود این سیاست‌ها را تغییر دهند تا عملکرد بهتری به دست آورند. مدل هم‌زمان دو ورودی دریافت می‌کند: یکی سیاست ایمنی و دیگری محتوای سنجیده‌شده در چهارچوب همان سیاست. در خروجی نیز نتیجه‌گیری نهایی به‌همراه توضیح منطقی آن را ارائه می‌دهد. به گفته OpenAI، این رویکرد در شرایط زیر مؤثرتر عمل می‌کند:

  • وقتی نوع آسیب‌پذیری جدید یا درحال تغییر است و سیاست‌ها باید سریع به‌روزرسانی شوند.
  • زمانی که حوزه بررسی‌شده بسیار پیچیده و ظریف است و طبقه‌بندهای کوچک‌تر توان درک تفاوت‌های ظریف را ندارند.
  • وقتی توسعه‌دهندگان داده کافی برای آموزش طبقه‌بندهای اختصاصی ندارند و نمی‌توانند برای هر ریسک هزاران نمونه برچسب‌دار تهیه کنند.
  • در مواقعی که تأخیر پردازش اهمیت کمتری نسبت به کیفیت و توضیح‌پذیری خروجی دارد.

با‌این‌حال، OpenAI یادآور شده است که مانند هر مدل دیگری، gpt‑oss‑safeguard نیز بی‌نقص نیست و دو نکته اصلی باید در نظر گرفته شود: ۱. اگر داده‌های کافی و زمان لازم برای آموزش طبقه‌بندی سنتی با ده‌ها هزار نمونه برچسب‌دار وجود داشته باشد، آن مدل می‌تواند در مواجهه با خطرات پیچیده یا حساس عملکرد دقیق‌تری از gpt‑oss‑safeguard داشته باشد؛ بنابراین برای بیشترین دقت، سیستم‌های اختصاصی هنوز انتخاب بهتری هستند؛ ۲. gpt‑oss‑safeguard به‌دلیل پیچیدگی محاسباتی، کُندتر و پرمصرف‌تر است و اجرای آن روی تمام محتوای پلتفرم‌های بزرگ ممکن است دشوار باشد.

نوشته OpenAI ابزار تازه‌ای برای طبقه‌بندی محتوای حساس ارائه داد اولین بار در Technoc. پدیدار شد.

واکنش شما چیست؟

Like Like 0
Dislike Dislike 0
Love Love 0
Funny Funny 0
Angry Angry 0
Sad Sad 0
Wow Wow 0