حمایت مالی OpenAI از پژوهش درزمینه اخلاق هوش مصنوعی

شرکت OpenAI در حال تأمین منابع مالی پروژه‌ای است که درباره اخلاق در سیستم‌های هوش مصنوعی تحقیق می‌کند. به گزارش تک‌ناک، OpenAI با اختصاص کمک‌هزینه مالی به پروژه‌ای تحقیقاتی، گامی تازه در مسیر بررسی اخلاق در سیستم‌های هوش مصنوعی (AI) برداشته است. بر‌اساس اسناد سازمان مالیاتی ایالات متحده (IRS)، این کمک‌هزینه به پژوهشگرانی از دانشگاه […] نوشته حمایت مالی OpenAI از پژوهش درزمینه اخلاق هوش مصنوعی اولین بار در تک ناک. پدیدار شد.

۰۳ آذر , ۱۴۰۳ - 23:00
 0  1
حمایت مالی OpenAI از پژوهش درزمینه اخلاق هوش مصنوعی

شرکت OpenAI در حال تأمین منابع مالی پروژه‌ای است که درباره اخلاق در سیستم‌های هوش مصنوعی تحقیق می‌کند.

به گزارش تک‌ناک، OpenAI با اختصاص کمک‌هزینه مالی به پروژه‌ای تحقیقاتی، گامی تازه در مسیر بررسی اخلاق در سیستم‌های هوش مصنوعی (AI) برداشته است. بر‌اساس اسناد سازمان مالیاتی ایالات متحده (IRS)، این کمک‌هزینه به پژوهشگرانی از دانشگاه Duke برای پروژه‌ای با عنوان «تحقیق درباره اخلاق AI» اعطا شده است. این پروژه بخشی از برنامه‌ای سه‌ساله با بودجه یک میلیون دلار است که هدف آن یافتن راهکارهایی برای ارتقای آگاهی اخلاقی در هوش مصنوعی است.

پروژه‌ای تحت هدایت متخصصان برجسته

نئووین می‌نویسد که رهبری این پروژه برعهده Walter Sinnott-Armstrong، استاد مشهور در حوزه اخلاق عملی و Jana Schaich Borg، یکی از پژوهشگران پیش‌گام در‌زمینه تصمیم‌گیری‌های اخلاقی با هوش مصنوعی است. Sinnott-Armstrong یکی از چهره‌های برجسته فلسفه است که در حوزه‌هایی نظیر اخلاق کاربردی و روان‌شناسی اخلاقی و علوم اعصاب فعالیت می‌کند. تیم او در دانشگاه Duke تاکنون در پروژه‌های مهمی نظیر طراحی الگوریتم‌های تخصیص منصفانه پیوند اعضا مشارکت کرده‌اند. این الگوریتم‌ها با استفاده از دیدگاه‌های عمومی و کارشناسی تلاش می‌کنند تا عدالت در این نوع تصمیم‌گیری‌ها را بهبود بخشند.

هدف اصلی این پروژه طراحی الگوریتم‌هایی است که بتوانند قضاوت‌های اخلاقی انسان را در حوزه‌هایی نظیر پزشکی، حقوق و تجارت پیش‌بینی کنند

هدف پروژه: پیش‌بینی قضاوت‌های اخلاقی انسان

هدف اصلی این پروژه طراحی الگوریتم‌هایی است که بتوانند قضاوت‌های اخلاقی انسان را در حوزه‌هایی نظیر پزشکی و حقوق و تجارت پیش‌بینی کنند. با‌این‌حال، مشکلات فراوانی در این مسیر وجود دارد. تجربیات گذشته نشان داده است که توسعه چنین الگوریتم‌هایی به‌دلیل پیچیدگی‌های اخلاقی و فرهنگی بسیار دشوار است. برای نمونه، پروژه Ask Delphi که Allen Institute for AI اجرا کرد، نشان داد که حتی در مواجهه با معضلات ساده اخلاقی، سیستم‌ها ممکن است با تغییرات جزئی در سؤالات، جواب‌های اخلاقی مشکوک ارائه دهند.

مشکلات اخلاقی پیش رو

یکی از مسائل اساسی در این مسیر، نحوه عملکرد مدل‌های یادگیری ماشین است که بر‌اساس داده‌های آموزشی خود تصمیم‌گیری می‌کنند. این داده‌ها اغلب بازتاب‌دهنده تعصبات و محدودیت‌های فرهنگ‌های غالب هستند. این موضوع سؤالات جدی را درباره توانایی هوش مصنوعی در دستیابی به تصمیمات اخلاقی واقعی مطرح می‌کند؛ به‌ویژه با توجه به اینکه اخلاق در جوامع مختلف متنوع است و چهارچوب‌های جهانی پذیرفتنی برای آن وجود ندارد.

آینده اخلاق در هوش مصنوعی

اینکه آیا هوش مصنوعی می‌تواند به‌طور معناداری با ارزش‌های انسانی هماهنگ شود یا حتی باید چنین هدفی را دنبال کند، همچنان به‌عنوان پرسشی بی‌پاسخ باقی مانده است. بااین‌همه درصورت موفقیت این پروژه، نتایج آن می‌تواند تأثیرات عمیقی بر نحوه اعتماد به ماشین‌ها در تصمیم‌گیری‌های اخلاقی بگذارد.

نتایج این پروژه قرار است تا سال ۲۰۲۵، یعنی پایان دوره این کمک‌هزینه، مشخص شود. جامعه علمی با اشتیاق منتظر است تا ببیند آیا این تحقیقات می‌تواند درزمینه دستیابی به «هوش مصنوعی اخلاقی» پیشرفت‌های چشمگیری به ارمغان بیاورد یا خیر.

نوشته حمایت مالی OpenAI از پژوهش درزمینه اخلاق هوش مصنوعی اولین بار در تک ناک. پدیدار شد.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow