کد خبر: ۱۴۶۳۰
تاریخ انتشار: ۱۶:۵۳ - ۰۱ تير ۱۳۹۸
ماشین‌هایی که چهره‌خوانی می‌کنند
مدت‌هاست ماشین‌هایی وجود دارند که می‌توانند تمام احساسات شما از خشم و ترس گرفته تا نفرت، ترس و هرگونه ناراحتی درونی‌تان را تشخیص و افشا کنند. تشخیص احساسات انسانی از سوی روبات‌ها یک پروژه تحقیقاتی 20 میلیارد دلاری است.
آیا این ماشین‌ها می‌توانند با شناسایی و خواندن حرکات و زبان خاموش در چهره‌ها، مجرمان یا تروریست‌های بالقوه را پیش از ارتکاب عمل مجرمانه شناسایی کنند؟ این فرضیه‌ای است که در سال 2003 از سوی مقامات امنیت در مراکز حمل‌ونقل ایالات متحده مورد آزمایش قرار گرفت. در این آزمایش با اتکا به نرم‌افزارهای نوین فنی، چهره همه مسافران مورد نظارت و بررسی قرار می‌گرفت. از دیگر سو، دست‌اندرکاران این برنامه آزمایشی با یک متخصص روان‌شناس به نام «پل‌اکمن» از دانشگاه کالیفرنیا مشورت کردند که ده‌ها قبل روشی برای شناسایی حالات اعضای صورت و معنای این حالات در بیان احساسات، ابداع و نقشه‌ای از آن حالات تهیه کرده بود. این روش عمدتا با هدف آموزش ماموران ویژه پلیس برای شناخت رفتار و حالات چهره جهت تشخیص نشانه‌هایی از دروغ و فریب در مجرمان بود.
اما این برنامه در سال 2007 به دلایلی در شناسایی تروریست‌ها در شبکه حمل‌ونقل آمریکا، با شکست مواجه شد، چراکه بیشتر دستگیرشدگان براساس نقشه حالات چهره، بیشتر گرایشات نژادپرستانه داشتند تا تروریستی!
بسیاری معتقدند که علت شکست این روش اساسا نگرشی است که ادعا می‌کند احساسات را می‌توان از طریق تجزیه و تحلیل حالات چهره کشف کرد.
اما فرضیه اکمن در سال‌های اخیر همچنان از سوی شرکت‌های فناوری‌های نوین جهت طراحی و تنظیم الگوریتم‌هایی برای شناسایی احساسات براساس حالات ظاهری چهره مورد استفاده قرار گرفت. بعضی از این محققان مدعی شدند که سیستم‌های ماشینی تشخیص احساسات نه‌تنها بهتر از انسان قادر به کشف احساسات واقعی براساس تجزیه و تحلیل چهره‌اند بلکه این الگوریتم‌ها قادرند با عمیق‌ترین احساسات درونی ما ارتباط برقرار کرده و به گونه چشمگیری ارتباط متقابل ما و دستگاه‌های هوشمند را ارتقا دهند.
اما بعضی دیگر از کارشناسان و محققان علوم رفتاری و روان‌شناسی نگرانند که این الگوریتم‌ها نیز همانند نمونه اکمن تصمیمات پرمخاطره‌ای را درباره زندگی ما براساس علوم و اطلاعات غلط اتخاذ کنند.
چهره شما: صنعت 20 میلیارد دلاری
فناوری‌های تشخیص احساسات مستلزم بهره‌گیری از دو تکنیک است: نخست سیستم بصری جهت تشخیص دقیق حالات چهره و دیگر الگوریتم‌های یادگیری ماشین جهت آنالیز و تفسیر محتوای احساسی آن حالات.
به‌طور معمول درمورد دوم از تکنیکی به نام «یادگیری نظارت‌شده» supervised learning استفاده می‌شود. فرایندی که آن را یک الگوریتم جهت تشخیص چیزهایی که قبلا دیده، آموزش داده است. ایده اصلی در این کار این است که اگر شما هزاران تصویر از چهره‌های خوشحال را با برچسب «خوشحال» به الگوریتم نشان دهید، بار هزارویکم، اگر تصویر کاملا جدیدی از یک چهره شاد و خوشحال را ببیند، ماشین باز هم آن تصویر را به‌عنوان «خوشحال» شناسایی خواهد کرد.
«رنا الکلیوبی» فارغ‌التحصیل علوم رایانه از دانشگاه کمبریج که مطالعات دکترایش را در زمینه بررسی مشکلات مربوط به سیستم‌های تشخیص چهره اختصاص داده و در سال 2009 نخستین استارت‌آپ را در بازار کسب‌وکار با نام «هوش هیجانی مصنوعی» به نام Affectiva راه‌اندازی کرده است. او ابتدا فناوری تشخیص احساساتش را به‌عنوان یک محصول تحقیقاتی به بازار عرضه کرد که در برابرکالاها و تبلیغات نوعی واکنش احساسی در زمان واقعی نشان می‌داد.
پایگاه داده‌ای با 5/7میلیون چهره از 87 کشور
طبق وب‌سایت Affectiva، آن‌ها، با بیش از 5/7میلیون چهره از 87 کشور که بیشتر آن‌ها تصویر چهره افراد هنگام تماشای تلویزیون یا رانندگی است، بزرگ‌ترین انبار اطلاعات مربوط به احساسات و هیجان انسانی را در جهان دارند.
کار برچسب‌گذاری این تصویرها از سوی 35 نفر در دفتر نمایندگی شرکت Affectiva در قاهره انجام شده است که پس از تماشای تصویرها، عبارت مربوط به هریک از احساسات را روی چهره می‌گذارند. به کمک همین تصویرهای برچسب گذاری شده است که از سوی الگوریتم‌ها در زمینه تشخیص احساسات از حالات ظاهری چهره افراد آموزش داده می‌شود.
در حال حاضرآمازون، مایکروسافت و «ای‌بی‌ام» کار تبلیغ برای سیستم «آنالیز احساسات» خود را به‌عنوان یکی از تولیدات تشخیص چهره از سوی این شرکت‌ها آغاز کرده‌اند. شرکت‌های کوچک‌تری نیز همانند «کایروس» و «ایریس» دستگاه‌های مشابهی با محصولات شرکت Affectiva را عرضه کرده‌اند. در جدیدترین اقدامات، آمازون اعلام کرده است که با بررسی الگوهای صوتی، می‌تواند وضعیت احساسی و حالات مختلف ذهنی کاربران از جمله شادی، خشم، غم‌واندوه، ترس، انزجار، خستگی، استرس یا دیگر عواطف را تشخیص دهد. آمازون مدعی است که فناوری جدید به‌صورت مشخص، بیماری‌هایی مانند PTSD، انزوا و افسردگی را باتوجه به تکرار پیام‌ها و تماس‌ها و بعضی نشانه‌های دیگر در صدای کاربر تشخیص می‌دهد.
کلیوبی که از ابتدا با سیستم‌های تشخیص چهره در چهارچوب یک پروژه تحقیقاتی سروکار داشته، با اشاره به این‌که اکنون این پروژه کوچک مبدل به صنعتی 20میلیارد دلاری شده، می‌گوید این رشد همچنان ادامه خواهد داشت و پیش‌بینی می‌کند که در آینده‌ای نه‌چندان دور این فناوری‌ها در همه دستگاه‌های ما به صورت یکپارچه عرضه و مورد استفاده باشد.
روبات‌ها IQ و گرایشات مجرمانه افراد را افشا می‌کنند
پروفسور «مایکل کازینسکی» استاد دانشگاه استنفورد و متخصص در زمینه رفتار سازمانی که در سال 2017 زمینه هوش‌مصنوعی- AI تحقیقات بحث برانگیزی داشته، می‌گوید: «الگوریتم‌های هوش مصنوعی- AI به‌زودی قادر به شناسایی بسیاری از مسائل درونی، سطح هوش، سطح آگاهی و دانش افراد و نیز گرایشات فکری، سیاسی یا خلق‌وخوی روانی، بسیاری از ویژگی‌های شخصیتی و حتی تمایلات یا رفتارهای مجرمانه خواهند شد که براساس فناوری‌های تشخیص چهره و تعیین هویت استوار است.»
به گفته او ورود بسیاری از این قبیل اپلیکیشن‌ها که براساس فناوری‌های تشخیص چهره استوار است، می‌تواند در آینده نزدیک آزاردهنده باشد و مباحث اخلاقی پیچیده‌ای را در زمینه حریم خصوصی افراد و خطر سوءاستفاده از هوش‌مصنوعی- AI برای هدف قرار دادن افراد آسیب‌پذیر فراهم کند.
تشخیص چهره جمهوریخواه از دموکرات
کازینسکی که درحال تحقیق درباره ارتباط میان ویژگی‌های ظاهری در چهره افراد با دیدگاه‌ها وگرایشات سیاسی آن‌ها به دو حزب اصلی آمریکاست، می‌گوید نتایج اولیه تحقیقات او نشان می‌دهد که هوش‌مصنوعی- AI درمواجهه با نگرش‌های فکری آن‌ها براساس ویژگی‌های ظاهری چهره، نسبتا کارآمد بوده است. او می‌گوید: «چهره هر فرد نمادی قابل مشاهده از طیف وسیعی از فاکتورهای فردی و شخصیتی است. فاکتورهایی مانند پیشینه زندگی‌تان، عوامل رشد فردی و اجتماعی‌تان و این‌که آیا شما فرد سالمی هستید یا خیر.»
درواقع چهره‌ها حاوی مقدار قابل‌توجهی از اطلاعات هستند که با استفاده از حجم بالایی از داده‌های مبتنی برعکس‌ها، برنامه‌های پیشرفته رایانه‌ای با اتکا به الگوریتم‌های هوش‌مصنوعی- AI قادرند کلیدهای متمایزی از ویژگی‌های هر فرد با درصد بالایی از دقت و اعتبارسنجی به‌دست آورند.
نکته جالب دیگر این‌که طبق یافته‌های کازیسنکی هوش‌مصنوعی- AI در تشخیص افراد دارای گرایشات سیاسی رادیکال و تندرو، بسیار موفق‌تر است تا بخش عظیمی از جمعیت رأی‌دهندگان که در حد وسط این دو گروه جای دارند.
به گفته او در انتخابات اخیر آمریکا شرکت داده‌پردازی کمبریج با استفاده از همین ابزارها توانست از اطلاعات گروهی از رأی‌دهندگان در حمایت از پویش دونالد ترامپ استفاده کند.
 اسپیلبرگ و روبات‌های تشخیص چهره
بعضی از آنچه که کازینسکی می‌گوید، با آنچه که در فیلم علمی تخیلی «گزارش اقلیت» Minority Report کاری از «استیون اسپیلبرگ» در سال 2002 تطابق دارد. فیلمی که در آن پلیس افرادی را پیش از آن‌که واقعا مرتکب جرمی‌ شوند، دستگیر می‌کند فقط براساس پیش‌بینی قتل‌هایی که درآینده احتمالا رخ خواهد داد.
داستان فیلم گزارش اقلیت در سال 2054 می‌گذرد و درحقیقت اسپیلبرگ در این فیلم تلاش دارد تا تصویری از آینده نزدیک بشریت ارائه دهد که در آن سیستمی فعال شده است که می‌تواند جرائم را پیش از وقوع پیش‌بینی کند. درنتیجه به ماموران اجرایی امکان می‌دهد که پیش از وقوع جنایت جلوی آن را بگیرند. به این ترتیب دیگر جنایتی رخ نمی‌دهد، تا زمانی که ماشین پیش‌بینی می‌کند در زمان مشخصی یکی از ماموران اصلی پروژه دست به قتل خواهد زد، او با این پرسش مواجه می‌شود که آیا خود اراده تغییر آینده‌اش را دارد یا مجبور است به تقدیر تن در دهد! درواقع ماشین در تله خود گرفتار می‌شود.
این فیلم علاوه بر فناوری هوش‌مصنوعی- AI درزمینه تشخیص افکار و احساسات درونی افراد، فناوری‌های دیگری را نیز پیش‌بینی کرده که آن‌ها نیز در جهان امروز تحقق یافته‌اند. از جمله پیش‌بینی فناوری‌های لمسی در استفاده از رایانه‌ها که در این فیلم کاربران با پوشیدن دستکش‌های مخصوصی می‌توانستند یک سطح مجازی ایجاد شده در فضای سه بعدی را لمس کرده و دستورهای خود را به آن بدهند. این فناوری در سال‌های اخیر رشد کرد و امروزه فناوری لمسی بر تمام قلمرو IT حکمرانی می‌کند.
فناوری تحقق یافته دیگر شناسه‌های زیستی است. آن‌گونه که فیلم نشان می‌دهد این شناسه‌ها روی چشم حک می‌شود و تمام مشخصات فرد و مکان او را مشخص می‌کند. ضرورت به همراه داشتن مشخصات اساسی، از مشخصات شناسنامه‌ای گرفته تا پرونده سلامت افراد از هم‌اکنون بسیاری از شرکت‌های فناوری را به سمت ساخت نخستین نسل شناسنامه‌های زیستی سوق داده است.
روبات‌ها IQ شما را می‌سنجند
به گفته کازینسکی هوش‌مصنوعی- AI درباره تشخیص سطح IQ نیز می‌تواند قابل استفاده باشد و این قابلیت می‌تواند در آینده به مدارس کمک کند که براساس نتایج به‌دست آمده از اسکن چهره دانش‌آموزان در کشف و استعدادیابی بهره بگیرد.
اما این‌گونه برنامه‌ها اساسا سوالات اخلاقی زیادی را مطرح کرده‌اند. به‌ویژه اگر قرار باشد از هوش‌مصنوعی- AI در زمینه افشا کردن بعضی ویژگی‌های ژنتیک افراد به‌خصوص دانش‌آموزان مثلا سنجش و مقایسه هوش کودکان از نظر ژنتیکی استفاده شود. کازینسکی می‌گوید: «ما باید درباره این از قبل مطمئن باشیم که هرآنچه انجام می‌دهیم، درنهایت می‌تواند به شرایطی بینجامد که درآن انتخاب ژن‌های اصلح به معنی زندگی در دنیای بهتری باشد.»
یکی دیگر از کاربردهای «روبات‌های چهره‌خوان» استفاده از این الگوریتم‌ها در مدارس برای مشاوران تربیتی است. این الگوریتم‌ها می‌توانند کودکانی را که رفتار تهاجمی دارند، شناسایی کرده و توجه مسئولان مدرسه را به دانش‌آموزانی جلب کنند که نیاز به کمک و پشتیبانی دارند.
کازینسکی می‌گوید: «فناوری‌هایی از این دست، در ظاهر بسیار ترسناک به نظر می‌رسند اما اگر به‌گونه‌ای صحیح و اخلاقی مورد استفاده قرار گیرند، ممکن است تجربه زندگی را بهبود بخشند. مثلا اگر الگوریتم‌ها بتوانند کودکانی را که نیازمند کمک هستند با دقت و درستی شناسایی کنند تا درهمان مراحل اولیه مورد حمایت قرار گیرند، می‌تواند بسیار مفید باشد.»
تشخیص مجرمان
کازینسکی پیش‌بینی می‌کند که با توجه به سرعت به‌کارگیری هوش‌مصنوعی- AI و سرعت بهبود عملکرد آن‌ها، به‌زودی یک الگوریتم می‌تواند با استفاده از حجم بالایی از تصویر چهره‌های گوناگون به‌سادگی تشخیص دهد که یک شخص مبتلا به بیماری روانی است یا این‌که شخصی دیگر تمایلات مجرمانه دارد یا خیر. به گفته او کاربرد مفید این روبات‌ها در مراکز گردهمایی و اجتماعات همانند استادیوم‌های ورزشی یا مکان‌های پرجمعیت است. چراکه این روبات‌ها قبل از انجام هراقدام مجرمانه‌ای با تشخیص تهدیدات احتمالی از طریق اسکن چهره شرکت‌کنندگان، می‌توانند مانع از بروز خشونت و رفتارهای مجرمانه شوند. البته این کار چیزی چندان متفاوت از کار ماموران نگهبان و مراقبت نیست که معمولا با مشاهده چهره و رفتار افراد، گاه تصمیم می‌گیرند مانع از ورود افراد با چهره و یا ظاهر خطرناک شوند.
 با این حال نگرانی‌های فزاینده‌ای همچنان درباره آسیب‌های احتمالی از سوی فناوری‌های هوش‌مصنوعی- AI و به‌ویژه ماشین‌های تشخیص احساسات و افکار براساس حالات صورت و به‌اصطلاح چهره‌خوانی، وجود دارد. این نگرانی به‌ویژه در زمینه‌های کیفری و عدالت بسیار هشداردهنده است. چراکه ماشین‌ها می‌توانند با دسترسی به اطلاعات محرمانه افراد در ادارات پلیس و مراکز رسمی که گاه می‌تواند با تعصبات گوناگون مثلا تعصبات نژادپرستانه همراه باشد، درباره زندگی افراد، همانند تعیین مدت زمان محکومیت به زندان یا تعیین شرایط آزادی از زندان، تصمیم بگیرند یا نقشی تعیین‌کننده داشته باشند.
او می‌گوید: «این نگرانی به‌ویژه درمورد افرادی است که باوجود تمایل به اقدامات مجرمانه هیچ جرمی مرتکب نشده‌اند، چراکه به هرحال هستند افرادی با گرایش شدید به ارتکاب جرائم اما تا زمانی که شرایط مساعد برای ارتکاب جرم فراهم نباشد، مرتکب جرم و جنایتی نمی‌شوند.»
توماس کینان، استاد طراحی محیط‌زیست و علوم رایانه‌ای در دانشگاه «کلگری» می‌گوید: «طبق قانون عموما چهره افراد نوعی «اطلاعات عمومی» تلقی می‌شود و از این چشم‌انداز، قوانین هیچ منافاتی با فناوری‌های نو ندارند و تاکنون هم هیچ قانونی وضع نشده که استفاده از چهره کسی برای ایجاد اطلاعات جدید سبب بروز سطح از مداخله یا حمله به حریم خصوصی افراد تلقی شود.»
با این حال کینان نیز خاطر نشان می‌کند که آنچه که استفاده از هوش‌مصنوعی- AI را در چهره‌خوانی به یک فاجعه تبدیل می‌کند، آن است که فردی را فقط به صرف تشخیص روبات‌های چهره‌خوان، متهم به مجازات کنیم یا با استفاده از الگوریتم‌ها اجازه دهیم جان مردم در مخاطره قرار بگیرد.
به گفته او حتی اگر شما دقیق‌ترین روبات‌ها و سیستم‌های هوش‌مصنوعی- AI را با سطح دقت واعتبار بسیار بالا در چهره‌خوانی به کار بگیرید، باز هم همیشه یک درصد احتمال خطا وجود دارد. بنابراین استفاده از روبات‌های چهره‌خوان در تشخیص جرائم، حرکت در مسیری بسیار شیب‌دار و لغزنده است، چراکه اگر در هر 20 مورد یا هر 100 مورد، یک نفر به اشتباه شناسایی شده باشد، شما در معرض یک اشتباه مرگبارید.

نظرات بینندگان
نام:
ایمیل:
* نظر: