OpenAI ابزار تازهای برای طبقهبندی محتوای حساس ارائه داد
مدلهای متنباز ایمنی OpenAI اکنون به توسعهدهندگان اجازه میدهند تا سیاستهای محتوایی خود را در لحظه اجرا شخصیسازی کنند.
به گزارش تکناک، اوایل امسال، OpenAI دو مدل زبانی متنباز با وزنهای آزاد به نامهای gpt‑oss‑120b و gpt‑oss‑20b را منتشر کرد که در آزمونهای استدلالی عملکرد بهتری از بیشتر مدلهای متنباز مشابه از خود نشان دادند. امروز این شرکت با معرفی دو مدل تازه، یعنی gpt‑oss‑safeguard‑120b و gpt‑oss‑safeguard‑20b، گام بعدی خود را برداشته است. این دو مدل متنباز جدید با تمرکز بر ایمنی و طبقهبندی محتوای حساس طراحی شدهاند.
به نقل از نئووین، مدلهای جدید مبتنیبر نسخههای پیشین gpt‑oss هستند؛ اما با هدف انجام وظایف مرتبط با ایمنی بازآموزی شدهاند. مدلهای متنباز ایمنی OpenAI دقیقاً مانند نسخههای پیشین تحت مجوز آزاد Apache 2.0 عرضه میشوند. این یعنی هر کسی میتواند آزادانه از آنها استفاده کند و تغییرشان دهد یا در پروژههای خود مستقر کند.
OpenAI توضیح داده است که بهجای آنکه توسعهدهندگان مجبور باشند از سیستم ایمنی واحد و ازپیشتعریفشده برای همه کاربردهای هوش مصنوعی استفاده کنند، مدل gpt‑oss‑safeguard ابزار لازم را در اختیار آنها میگذارد تا خطوط ایمنی مدنظرشان را شخصاً تعریف کنند. این مدل در لحظه اجرا، سیاستهای ایمنی ارائهشده توسعهدهنده را تفسیر میکند و پیامهای کاربر و پاسخهای چت یا حتی کل گفتوگوها را براساس همان سیاست میتواند طبقهبندی کند.
این خبر درحالی منتشرشده که اخیرا OpenAI در حال ایجاد محدودیتهای متفاوتی روی انواع محتواست؛ مانند استفاده از دیپفیک چهره سلبریتیها. جدا از این اتفاق، معرفی مدلهای متنباز جدید امنیتی به توسعهدهندگان نیز امکانات بیشتری برای کنترل محتوایشان میدهد تا از کشمکشها و پروندههای مثل شکایت xAI از OpenAI به اتهام سرقت سیستماتیک اسرار تجاری بتوان جلوگیری کرد.

برخلاف سامانههایی که در مرحله آموزش به سیاستهای ایمنی متکی هستند، این مدل سیاست را هنگام استنتاج (Inference) استفاده میکند؛ بنابراین، توسعهدهندگان میتوانند هر زمان لازم بود این سیاستها را تغییر دهند تا عملکرد بهتری به دست آورند. مدل همزمان دو ورودی دریافت میکند: یکی سیاست ایمنی و دیگری محتوای سنجیدهشده در چهارچوب همان سیاست. در خروجی نیز نتیجهگیری نهایی بههمراه توضیح منطقی آن را ارائه میدهد. به گفته OpenAI، این رویکرد در شرایط زیر مؤثرتر عمل میکند:
- وقتی نوع آسیبپذیری جدید یا درحال تغییر است و سیاستها باید سریع بهروزرسانی شوند.
- زمانی که حوزه بررسیشده بسیار پیچیده و ظریف است و طبقهبندهای کوچکتر توان درک تفاوتهای ظریف را ندارند.
- وقتی توسعهدهندگان داده کافی برای آموزش طبقهبندهای اختصاصی ندارند و نمیتوانند برای هر ریسک هزاران نمونه برچسبدار تهیه کنند.
- در مواقعی که تأخیر پردازش اهمیت کمتری نسبت به کیفیت و توضیحپذیری خروجی دارد.
بااینحال، OpenAI یادآور شده است که مانند هر مدل دیگری، gpt‑oss‑safeguard نیز بینقص نیست و دو نکته اصلی باید در نظر گرفته شود: ۱. اگر دادههای کافی و زمان لازم برای آموزش طبقهبندی سنتی با دهها هزار نمونه برچسبدار وجود داشته باشد، آن مدل میتواند در مواجهه با خطرات پیچیده یا حساس عملکرد دقیقتری از gpt‑oss‑safeguard داشته باشد؛ بنابراین برای بیشترین دقت، سیستمهای اختصاصی هنوز انتخاب بهتری هستند؛ ۲. gpt‑oss‑safeguard بهدلیل پیچیدگی محاسباتی، کُندتر و پرمصرفتر است و اجرای آن روی تمام محتوای پلتفرمهای بزرگ ممکن است دشوار باشد.
نوشته OpenAI ابزار تازهای برای طبقهبندی محتوای حساس ارائه داد اولین بار در Technoc. پدیدار شد.
واکنش شما چیست؟
Like
0
Dislike
0
Love
0
Funny
0
Angry
0
Sad
0
Wow
0