هیئتی مستقل بر ایمنی مدل های هوش مصنوعی OpenAI نظارت می کند

کمیته ایمنی و امنیت شرکت OpenAI به یک هیئت نظارتی مستقل ارتقا داده شده، که ناظر فرایند توسعه، انتشار و ایمنی مدل‌های هوش مصنوعی این شرکت است. به گزارش سرویس فناوری تک‌ناک، این تصمیم پس از یک بررسی جامع ۹۰ روزه روی فرایندهای ایمنی و امنیتی OpenAI اتخاذ شده است. این هیئت نظارت جدید متشکل […] نوشته هیئتی مستقل بر ایمنی مدل های هوش مصنوعی OpenAI نظارت می کند اولین بار در تک ناک. پدیدار شد.

۲۷ شهریور , ۱۴۰۳ - 19:00
 0  4
هیئتی مستقل بر ایمنی مدل های هوش مصنوعی OpenAI نظارت می کند

کمیته ایمنی و امنیت شرکت OpenAI به یک هیئت نظارتی مستقل ارتقا داده شده، که ناظر فرایند توسعه، انتشار و ایمنی مدل‌های هوش مصنوعی این شرکت است.

به گزارش سرویس فناوری تک‌ناک، این تصمیم پس از یک بررسی جامع ۹۰ روزه روی فرایندهای ایمنی و امنیتی OpenAI اتخاذ شده است. این هیئت نظارت جدید متشکل از متخصصان برجسته‌ای در حوزه هوش مصنوعی و امنیت سایبری می‌باشد که ریاست آن را زیکو کولتر بر عهده دارد. دیگر اعضای این هیئت آدم دی‌انگلو، پل ناکاسونه و نیکول سلگمن هستند.

هیئت نظارتی جدید اختیار دارد تا پیش از انتشار هر مدل جدید، ارزیابی‌های ایمنی را به طور کامل بررسی کند و در صورت لزوم، انتشار آن را به تعویق بیندازد یا متوقف نماید.

همچنین هیئت مدیره کامل OpenAI به صورت دوره‌ای در مورد مسائل ایمنی و امنیتی توجیه خواهند شد.

OpenAI هیئتی مستقل را ناظر ایمنی مدل‌های هوش مصنوعی خود کرد

با این اقدام، شرکت OpenAI به جمع شرکت‌هایی پیوسته است که برای تضمین ایمنی و امنیت مدل‌های هوش مصنوعی خود، هیئت‌های نظارتی مستقل تشکیل داده‌اند. از جمله این شرکت‌ها می‌توان به متا اشاره کرد که هیئتی مشابه برای بررسی تصمیمات سیاست محتوای خود دارد.

شرکت OpenAI اعلام کرده است که به دنبال همکاری با سایر شرکت‌های فعال در حوزه هوش مصنوعی است تا بتوانند استانداردهای ایمنی را در این صنعت ارتقا دهند.

همچنین این شرکت قصد دارد اطلاعات بیشتری را در مورد اقدامات ایمنی خود منتشر و فرصت‌های بیشتری را برای آزمایش مستقل سیستم‌های خود فراهم کند.

نوشته هیئتی مستقل بر ایمنی مدل های هوش مصنوعی OpenAI نظارت می کند اولین بار در تک ناک. پدیدار شد.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow