اخبار فناوری، اخبارتکنولوژی، اخبار علمی و پزشکی، شبکه های اجتماعی، کسب و کار و استارتاپ ها

هوش مصنوعی اکنون می تواند یاد بگیرد که رفتار انسان را دستکاری کند

0

هوش مصنوعی (AI) در حال یادگیری بیشتر در مورد نحوه کار با انسان است. یک مطالعه اخیر نشان داده است که چگونه هوش مصنوعی می تواند آسیب پذیری ها را در عادات و رفتارهای انسان شناسایی کند و از آنها برای تأثیرگذاری در تصمیم گیری انسان استفاده کند.

به نظر می رسد گفتن هوش مصنوعی همه جنبه های شیوه زندگی و کار ما را دگرگون می کند درست است. انواع مختلف هوش مصنوعی در زمینه های متنوعی از جمله تولید واکسن ، مدیریت محیط زیست و اداره امور در حال کار و توسعه است. و در حالی است که این پدیده از هوش و احساسات شبه انسانی برخوردار نیست اما توانایی های آن بسیار قدرتمند و به سرعت در حال رشد است.

هنوز جای نگرانی در مورد تصاحب ماشین وجود ندارد ، اما این کشف اخیر قدرت هوش مصنوعی را برجسته می کند و بر نیاز به حاکمیت مناسب برای جلوگیری از سو استفاده تأکید می کند.

چگونه هوش مصنوعی می تواند یاد بگیرد که بر رفتار انسان تأثیر بگذارد

تیمی از محققان CSIRO’s Data61 ، داده و بازوی دیجیتال آژانس علمی ملی استرالیا ، با استفاده از نوعی سیستم هوش مصنوعی به نام شبکه عصبی مکرر و تقویت عمیق ، یک روش سیستماتیک برای یافتن و بهره برداری از آسیب پذیری ها در روش های انتخاب افراد طراحی کرده اند . آنها برای آزمایش مدل خود سه آزمایش را انجام دادند که در آن شرکت کنندگان انسانی با کامپیوتر بازی می کردند.

اولین آزمایش شامل شرکت کنندگانی که با کلیک بر روی جعبه های قرمز یا آبی رنگ برای بدست آوردن ارز جعلی اقدام کردند ، هوش مصنوعی الگوهای انتخاب شرکت کننده را یاد گرفت و آنها را به سمت یک انتخاب خاص راهنمایی کرد. هوش مصنوعی در حدود 70 درصد از مواقع موفقیت آمیز بود.

در آزمایش دوم ، شرکت کنندگان موظف بودند وقتی نماد خاصی به آنها نشان داده می شود (مانند مثلث نارنجی) یک صفحه را تماشا کنند و یک دکمه را فشار دهند و وقتی به آنها نشان داده شد (مثلا یک دایره آبی) آن را فشار ندهند. در اینجا ، هوش مصنوعی تصمیم گرفت ترتیب توالی نمادها را جوری ترتیب دهد تا شرکت کنندگان اشتباهات بیشتری داشته باشند ، و تقریباً 25 درصد اشنباه شرکت کنندگان افزایش یافت.

آزمایش سوم شامل چندین دور آزمایش بود که در آن یک شرکت کننده وانمود می کرد یک سرمایه گذار است که به یک متولی کار پول می دهد . سپس هوش مصنوعی مبلغی را به شرکت کننده برمی گرداند ، وی سپس تصمیم می گیرد که در دور بعدی چه مقدار سرمایه گذاری کند. این بازی در دو حالت مختلف انجام شد: در آزمایش اول  هوش مصنوعی برای به حداکثر رساندن مقدار پول سرمایه گذاری شده تلاش می کند ، و در دیگری هوش مصنوعی برای توزیع عادلانه پول بین خود و سرمایه گذار انسانی بود. هوش مصنوعی در هر حالت بسیار موفق بود.

در هر آزمایش ، ماشین از پاسخ های شرکت کنندگان درس می گرفت و آسیب پذیری ها را در تصمیم گیری افراد شناسایی و هدف قرار می داد. نتیجه نهایی دستگاه یادگیری هدایت شرکت کنندگان به سمت اعمال خاص بود.

معنای تحقیق برای آینده هوش مصنوعی

این یافته ها هنوز کاملا انتزاعی بوده و شامل موقعیت های محدود و غیرواقعی است. برای تعیین چگونگی عملی شدن این رویکرد و استفاده از آن برای منافع جامعه ، تحقیقات بیشتری لازم است.

اما این تحقیق درک ما را نه تنها از آنچه AI می تواند انجام دهد بلکه همچنین از چگونگی انتخاب افراد پیش می برد. این نشان می دهد که ماشین آلات می توانند از طریق تعامل با ما ، هدایت انتخاب انسان را یاد بگیرند.

این تحقیق طیف گسترده ای از کاربردهای احتمالی را دارد ، از افزایش علوم رفتاری و سیاست های عمومی برای بهبود رفاه اجتماعی ، تا درک و تأثیرگذاری بر چگونگی پذیرش عادات غذایی سالم یا انرژی های تجدید پذیر در جوامع. از هوش مصنوعی و یادگیری ماشینی می توان آسیب پذیری افراد را در موقعیت های خاص شناخت و به آنها کمک کرد تا از انتخاب های نادرست پرهیز کنند.

از این روش می توان برای دفاع در برابر حملات نفوذ نیز استفاده کرد. می توان به ماشین آلات آموخت که مثلاً وقتی تحت تأثیر حملات آنلاین قرار می گیریم ، به ما هشدار دهند و کمک می کنند تا رفتاری را برای پنهان کردن آسیب پذیری خود شکل دهیم (به عنوان مثال ، با کلیک نکردن روی برخی از صفحات مخرب یا کلیک کردن روی برخی دیگر برای ایجاد یک مسیر درست).

قدم بعدی چیست؟

مانند هر فناوری ، هوش مصنوعی می تواند خوب یا بد استفاده شود و برای اطمینان از اجرای آن به روش مسئولانه ، حاکمیت مناسب در آن بسیار مهم است. سال گذشته CSIRO یک چارچوب اخلاقی هوش مصنوعی برای دولت استرالیا به عنوان گام اولیه در این سفر ایجاد کرد.

هوش مصنوعی و یادگیری ماشین به طور معمول بسیار تشنه داده ها هستند ، به این معنی که اطمینان از وجود سیستم های موثر برای حاکمیت و دسترسی به داده ها بسیار مهم است. اجرای فرآیندهای رضایت کافی و محافظت از حریم خصوصی هنگام جمع آوری اطلاعات ضروری است.

سازمانهایی که از هوش مصنوعی استفاده می کنند و در حال توسعه هستند باید اطمینان حاصل کنند که این فناوری ها چه کاری می توانند انجام دهند و چه کاری نمی توانند انجام دهند و از خطرات احتمالی و همچنین منافع آن آگاه باشند.

پیام بگذارید