در داستان های علمی ، فناوری تشخیص چهره مشخصه یک جامعه dystopian است. حقیقت چگونگی ایجاد آن و نحوه استفاده امروزی آن نیز به همین سادگی دمدمی مزاجی است.
در یک مطالعه جدید ، محققان یک بررسی تاریخی را بر روی بیش از ۱۰۰ مجموعه داده مورد استفاده برای آموزش سیستم های تشخیص چهره که در ۴۳ سال گذشته انجام شده جمع آوری کرده اند. وسیع ترین افشاگری این است که ، با افزایش نیاز به داده های بیشتر (به عنوان مثال عکس ها) ، محققان دیگر زحمت درخواست رضایت از افراد را به خود نمی دهند.
محققان دبورا راجی از Mozilla و Genevieve Fried از AI Now این مطالعه را روی سرویس توزیع رایگان دانشگاه کرنل ، arXiv.org منتشر کردند. MIT Technology Review با انتشار تجزیه و تحلیل مقاله خود در روز جمعه ، آن را به عنوان “بزرگترین مطالعه شناسایی چهره تا اکنون” توصیف کرده است که “نشان می دهد افزایش یادگیری عمیق چه میزان به از دست دادن حریم خصوصی دامن زده است.”
در نمودار مطالعه تحول مجموعه داده های تشخیص چهره ، لحظاتی در تاریخ و حقایقی درباره پیشرفت این فناوری وجود دارد که بسیار گویا هستند. آنها نشان می دهند که چطور ماهیت تشخیص چهره که در سناریوهای دنیای واقعی که با هدف صریح گسترش وضعیت نظارت اعمال می شود ، با تخریب حریم خصوصی ما همراه شده است. این یک فناوری ناقص است.
در مقاله ۹ اقدام ترسناک و شگفت آور از ۴۳ سال تحقیق در زمینه شناسایی چهره گردآورده شده است.
۱. فاصله ای که بین عملکرد چهره در عملکردهای دانشگاهی و برنامه های واقعی وجود دارد بسیار زیاد است.
یکی از دلایلی که محققان برای انجام مطالعه خود آورده اند ، درک این مسئله است که چرا سیستم های تشخیص چهره که با دقت تقریبی ۱۰۰ درصد در آزمایش عمل می کنند ، در سیستم های واقعی کاربرد زیادی ندارند. به عنوان مثال ، آنها می گویند ، MTA شهر نیویورک یک خلبان شناسایی چهره را پس از آنکه یک خطای ۱۰۰در صدی داشت کنار گذاشت، این سیستم که ثابت شده در صورتهای سیاه و قهوه ای دقت کمتری دارد ، اخیراً منجر به دستگیری سه مرد سیاه پوست شد که توسط این فن آوری به اشتباه شناسایی شده بودند.
۲. وزارت دفاع(ایالات متحده) مسئول رونق اصلی این فناوری است.
اگرچه تلاش ها برای توسعه شناسایی چهره در محیط های دانشگاهی آغاز شد ، اما در سال ۱۹۹۶ وقتی وزارت دفاع و موسسه ملی استاندارد و فناوری (NIST) 6.5 میلیون دلار برای ایجاد بزرگترین مجموعه داده اختصاص داد. دولت به این موضوع که به دلیل پتانسیل نظارت بالا که برخلاف انگشت نگاری به افراد برای این فعالیت احتیاج ندارد علاقه مند شد.
۳. عکس های اولیه ای که برای ایجاد داده های شناسایی چهره استفاده شده اند ، از جلسات پرتره گرفته شده اند که نقص بزرگی را ایجاد کرده اند.
این تقریبا عجیب به نظر می رسد ، اما قبل از اواسط دهه ۲۰۰۰ ، روش جمع آوری پایگاه داده توسط محققان با نشستن افراد برای گرفتن عکس پرتره بود. از آنجا که برخی از فن آوری های اساسی شناسایی چهره امروزه از این مجموعه داده ها ناشی می شود ، نقص روش پرتره آشکارا کانون توجه بوده است. یعنی یک مجموعه غیر متنوع از شرکت کنندگان و تنظیمات صحنه ای که شرایط دنیای واقعی را به درستی منعکس نمی کند.
۴- محققان شروع به حذف درخواست رضایت گوگل کردند
بله ، وقتی محققان می خواستند مجموعه داده ها را فراتر از پرتره ها گسترش دهند ، این به معنای واقعی کلمه است که اتفاق افتاده است. یک مجموعه داده ۲۰۰۷ به نام Labeled Faces in the Wild دستکاری شده گوگل ، فلیکر ، یوتیوب و سایر مخازن آنلاین عکس ها. که شامل عکس کودکان بود. در حالی که این امر منجر به ایجاد تنوع بیشتر در عکس ها می شود ، اما همچنین از حقوق حریم خصوصی افراد نیز صرف نظر می کند.
“در ازای مجموعه داده های واقع گرایانه تر و متنوع تر ، کنترل نیز از دست می رود ، زیرا به دست آوردن رضایت موضوع ، ثبت توزیع های جمعیتی ، حفظ کیفیت مجموعه داده ها و استاندارد کردن ویژگی هایی مانند وضوح تصویر در مجموعه داده های منبع اینترنت غیرقابل کنترل است.” می خواند.
۵. رونق بعدی در شناسایی چهره از فیس بوک ناشی شد.
هنگامی که فیس بوک داده DeepFace خود را در سال ۲۰۱۴ ایجاد کرد، محققان به یک نقطه عطف در شناسایی چهره اشاره کردند. فیس بوک نشان داد که چگونه مجموعه میلیون ها عکس می تواند شبکه های عصبی ایجاد کند که در انجام وظایف تشخیص چهره بسیار بهتر از سیستم های قبلی باشند .
۶. اقدام عظیم شناسایی چهره فیس بوک ، حریم خصوصی کاربران را نقض کرد.
فیس بوک و به دلیل عدم استفاده از رضایت مندی کاربران توسط FTC جریمه شد روشی که DeepFace از طریق آن نشان داده شد از طریق “پیشنهادهای برچسب” بود ، این ویژگی می تواند شخصی را در عکس شما که ممکن است بخواهید برچسب گذاری کنید ، نشان دهد. پذیرش یا رد برچسب ها به نوبه خود باعث هوشمندتر شدن سیستم های فیس بوک می شود.
۷. شناسایی چهره ۱۷.۷ میلیون نفر آموزش دیده است – و این فقط در مجموعه داده های عمومی است.
در حقیقت ، ما از تعداد و هویت افرادی که عکس آنها را به شرکت کنندگان ناخواسته در توسعه فناوری تشخیص چهره تبدیل کرده است ، نمی دانیم.
۸- اتوماسیون در تشخیص چهره منجر به ایجاد سیستم های برچسب زننده و نمایش نابرابر شده است.
سیستم های تشخیص چهره فراتر از شناسایی چهره یا شخص تکامل یافته اند. آنها همچنین می توانند به افراد و ویژگی های آنها از راه های توهین آمیز برچسب بزنند.
“این برچسب ها شامل برچسب های مشکل ساز و بالقوه توهین آمیز در مورد اندازه -” چاق “،” دو چانه “- یا ویژگی های نژادی نامناسب مانند” رنگ پریدگی پوست “،” نوک بینی “،” چشمان باریک “برای افراد آسیایی و” بینی بزرگ ” و “لبهای بزرگ” برای بسیاری از سوژه های سیاه “. “علاوه بر این ، شامل عجیب مفاهیمی مانند” کیسه های زیر چشم “،” ساعت ۵ سایه “و برچسب های عینی غیرممکن است که به طور مداوم تعریف شوند ، مانند” جذاب “.”
چهره های “غربی” در مجموعه های آموزشی به عنوان پیش فرض در نظر گرفته شدند. و سایر مجموعه های داده ای که به طور صریح برای افزایش تنوع ایجاد شده بودند ، خود مشکل ساز بودند: یکی از این اهداف این سیستم “آموزش الگوریتم های تشخیص چهره بی طرف و تبعیض آمیز” بود ، اما محققان اشاره کردند که این فقط “تقسیم [ریشه های] قومی انسان را فقط به سه دسته تقسیم می کند. “
این گسله ها فراتر از توهین آمیز بودن هستند تحقیقات نشان داده است که تبعیض در هوش مصنوعی می تواند تبعیض را در دنیای واقعی تقویت کند.
۹. کاربردهای فناوری تشخیص چهره امروزه از نظارت دولت تا هدف گذاری تبلیغات را شامل می شود.
تشخیص چهره هم به ریشه های خود وفادار مانده و هم فراتر از آنچه سازندگان آن در دهه ۱۹۷۰ تصور می کردند گسترش یافته است.
نویسندگان این مقاله معتقدند: “ما از شکل گیری تاریخی این موضوع می توانیم دریابیم که دولت (آمریکا) از همان ابتدا این فناوری را به منظور امکان تحقیقات و نظارت بر افراد ،ترویج و پشتیبانی کرده است.” به عنوان مثال ، آمازون قبلاً فناوری مشکل ساز Rekognition خود را به تعداد بی شماری از ادارات پلیس فروخته است.
در طرف دیگر ، برخی از مجموعه های آموزشی نوید می دهند که می تواند به توسعه سیستم هایی برای تحلیل احساسات خریداران و پیگیری و درک بهتر مشتریان بالقوه کمک کند.