آیا این ماشینها میتوانند با شناسایی و خواندن حرکات و زبان خاموش در چهرهها، مجرمان یا تروریستهای بالقوه را پیش از ارتکاب عمل مجرمانه شناسایی کنند؟ این فرضیهای است که در سال 2003 از سوی مقامات امنیت در مراکز حملونقل ایالات متحده مورد آزمایش قرار گرفت. در این آزمایش با اتکا به نرمافزارهای نوین فنی، چهره همه مسافران مورد نظارت و بررسی قرار میگرفت. از دیگر سو، دستاندرکاران این برنامه آزمایشی با یک متخصص روانشناس به نام «پلاکمن» از دانشگاه کالیفرنیا مشورت کردند که دهها قبل روشی برای شناسایی حالات اعضای صورت و معنای این حالات در بیان احساسات، ابداع و نقشهای از آن حالات تهیه کرده بود. این روش عمدتا با هدف آموزش ماموران ویژه پلیس برای شناخت رفتار و حالات چهره جهت تشخیص نشانههایی از دروغ و فریب در مجرمان بود.
اما این برنامه در سال 2007 به دلایلی در شناسایی تروریستها در شبکه حملونقل آمریکا، با شکست مواجه شد، چراکه بیشتر دستگیرشدگان براساس نقشه حالات چهره، بیشتر گرایشات نژادپرستانه داشتند تا تروریستی!
بسیاری معتقدند که علت شکست این روش اساسا نگرشی است که ادعا میکند احساسات را میتوان از طریق تجزیه و تحلیل حالات چهره کشف کرد.
اما فرضیه اکمن در سالهای اخیر همچنان از سوی شرکتهای فناوریهای نوین جهت طراحی و تنظیم الگوریتمهایی برای شناسایی احساسات براساس حالات ظاهری چهره مورد استفاده قرار گرفت. بعضی از این محققان مدعی شدند که سیستمهای ماشینی تشخیص احساسات نهتنها بهتر از انسان قادر به کشف احساسات واقعی براساس تجزیه و تحلیل چهرهاند بلکه این الگوریتمها قادرند با عمیقترین احساسات درونی ما ارتباط برقرار کرده و به گونه چشمگیری ارتباط متقابل ما و دستگاههای هوشمند را ارتقا دهند.
اما بعضی دیگر از کارشناسان و محققان علوم رفتاری و روانشناسی نگرانند که این الگوریتمها نیز همانند نمونه اکمن تصمیمات پرمخاطرهای را درباره زندگی ما براساس علوم و اطلاعات غلط اتخاذ کنند.
چهره شما: صنعت 20 میلیارد دلاری
فناوریهای تشخیص احساسات مستلزم بهرهگیری از دو تکنیک است: نخست سیستم بصری جهت تشخیص دقیق حالات چهره و دیگر الگوریتمهای یادگیری ماشین جهت آنالیز و تفسیر محتوای احساسی آن حالات.
بهطور معمول درمورد دوم از تکنیکی به نام «یادگیری نظارتشده» supervised learning استفاده میشود. فرایندی که آن را یک الگوریتم جهت تشخیص چیزهایی که قبلا دیده، آموزش داده است. ایده اصلی در این کار این است که اگر شما هزاران تصویر از چهرههای خوشحال را با برچسب «خوشحال» به الگوریتم نشان دهید، بار هزارویکم، اگر تصویر کاملا جدیدی از یک چهره شاد و خوشحال را ببیند، ماشین باز هم آن تصویر را بهعنوان «خوشحال» شناسایی خواهد کرد.
«رنا الکلیوبی» فارغالتحصیل علوم رایانه از دانشگاه کمبریج که مطالعات دکترایش را در زمینه بررسی مشکلات مربوط به سیستمهای تشخیص چهره اختصاص داده و در سال 2009 نخستین استارتآپ را در بازار کسبوکار با نام «هوش هیجانی مصنوعی» به نام Affectiva راهاندازی کرده است. او ابتدا فناوری تشخیص احساساتش را بهعنوان یک محصول تحقیقاتی به بازار عرضه کرد که در برابرکالاها و تبلیغات نوعی واکنش احساسی در زمان واقعی نشان میداد.
پایگاه دادهای با 5/7میلیون چهره از 87 کشور
طبق وبسایت Affectiva، آنها، با بیش از 5/7میلیون چهره از 87 کشور که بیشتر آنها تصویر چهره افراد هنگام تماشای تلویزیون یا رانندگی است، بزرگترین انبار اطلاعات مربوط به احساسات و هیجان انسانی را در جهان دارند.
کار برچسبگذاری این تصویرها از سوی 35 نفر در دفتر نمایندگی شرکت Affectiva در قاهره انجام شده است که پس از تماشای تصویرها، عبارت مربوط به هریک از احساسات را روی چهره میگذارند. به کمک همین تصویرهای برچسب گذاری شده است که از سوی الگوریتمها در زمینه تشخیص احساسات از حالات ظاهری چهره افراد آموزش داده میشود.
در حال حاضرآمازون، مایکروسافت و «ایبیام» کار تبلیغ برای سیستم «آنالیز احساسات» خود را بهعنوان یکی از تولیدات تشخیص چهره از سوی این شرکتها آغاز کردهاند. شرکتهای کوچکتری نیز همانند «کایروس» و «ایریس» دستگاههای مشابهی با محصولات شرکت Affectiva را عرضه کردهاند. در جدیدترین اقدامات، آمازون اعلام کرده است که با بررسی الگوهای صوتی، میتواند وضعیت احساسی و حالات مختلف ذهنی کاربران از جمله شادی، خشم، غمواندوه، ترس، انزجار، خستگی، استرس یا دیگر عواطف را تشخیص دهد. آمازون مدعی است که فناوری جدید بهصورت مشخص، بیماریهایی مانند PTSD، انزوا و افسردگی را باتوجه به تکرار پیامها و تماسها و بعضی نشانههای دیگر در صدای کاربر تشخیص میدهد.
کلیوبی که از ابتدا با سیستمهای تشخیص چهره در چهارچوب یک پروژه تحقیقاتی سروکار داشته، با اشاره به اینکه اکنون این پروژه کوچک مبدل به صنعتی 20میلیارد دلاری شده، میگوید این رشد همچنان ادامه خواهد داشت و پیشبینی میکند که در آیندهای نهچندان دور این فناوریها در همه دستگاههای ما به صورت یکپارچه عرضه و مورد استفاده باشد.
روباتها IQ و گرایشات مجرمانه افراد را افشا میکنند
پروفسور «مایکل کازینسکی» استاد دانشگاه استنفورد و متخصص در زمینه رفتار سازمانی که در سال 2017 زمینه هوشمصنوعی- AI تحقیقات بحث برانگیزی داشته، میگوید: «الگوریتمهای هوش مصنوعی- AI بهزودی قادر به شناسایی بسیاری از مسائل درونی، سطح هوش، سطح آگاهی و دانش افراد و نیز گرایشات فکری، سیاسی یا خلقوخوی روانی، بسیاری از ویژگیهای شخصیتی و حتی تمایلات یا رفتارهای مجرمانه خواهند شد که براساس فناوریهای تشخیص چهره و تعیین هویت استوار است.»
به گفته او ورود بسیاری از این قبیل اپلیکیشنها که براساس فناوریهای تشخیص چهره استوار است، میتواند در آینده نزدیک آزاردهنده باشد و مباحث اخلاقی پیچیدهای را در زمینه حریم خصوصی افراد و خطر سوءاستفاده از هوشمصنوعی- AI برای هدف قرار دادن افراد آسیبپذیر فراهم کند.
تشخیص چهره جمهوریخواه از دموکرات
کازینسکی که درحال تحقیق درباره ارتباط میان ویژگیهای ظاهری در چهره افراد با دیدگاهها وگرایشات سیاسی آنها به دو حزب اصلی آمریکاست، میگوید نتایج اولیه تحقیقات او نشان میدهد که هوشمصنوعی- AI درمواجهه با نگرشهای فکری آنها براساس ویژگیهای ظاهری چهره، نسبتا کارآمد بوده است. او میگوید: «چهره هر فرد نمادی قابل مشاهده از طیف وسیعی از فاکتورهای فردی و شخصیتی است. فاکتورهایی مانند پیشینه زندگیتان، عوامل رشد فردی و اجتماعیتان و اینکه آیا شما فرد سالمی هستید یا خیر.»
درواقع چهرهها حاوی مقدار قابلتوجهی از اطلاعات هستند که با استفاده از حجم بالایی از دادههای مبتنی برعکسها، برنامههای پیشرفته رایانهای با اتکا به الگوریتمهای هوشمصنوعی- AI قادرند کلیدهای متمایزی از ویژگیهای هر فرد با درصد بالایی از دقت و اعتبارسنجی بهدست آورند.
نکته جالب دیگر اینکه طبق یافتههای کازیسنکی هوشمصنوعی- AI در تشخیص افراد دارای گرایشات سیاسی رادیکال و تندرو، بسیار موفقتر است تا بخش عظیمی از جمعیت رأیدهندگان که در حد وسط این دو گروه جای دارند.
به گفته او در انتخابات اخیر آمریکا شرکت دادهپردازی کمبریج با استفاده از همین ابزارها توانست از اطلاعات گروهی از رأیدهندگان در حمایت از پویش دونالد ترامپ استفاده کند.
اسپیلبرگ و روباتهای تشخیص چهره
بعضی از آنچه که کازینسکی میگوید، با آنچه که در فیلم علمی تخیلی «گزارش اقلیت» Minority Report کاری از «استیون اسپیلبرگ» در سال 2002 تطابق دارد. فیلمی که در آن پلیس افرادی را پیش از آنکه واقعا مرتکب جرمی شوند، دستگیر میکند فقط براساس پیشبینی قتلهایی که درآینده احتمالا رخ خواهد داد.
داستان فیلم گزارش اقلیت در سال 2054 میگذرد و درحقیقت اسپیلبرگ در این فیلم تلاش دارد تا تصویری از آینده نزدیک بشریت ارائه دهد که در آن سیستمی فعال شده است که میتواند جرائم را پیش از وقوع پیشبینی کند. درنتیجه به ماموران اجرایی امکان میدهد که پیش از وقوع جنایت جلوی آن را بگیرند. به این ترتیب دیگر جنایتی رخ نمیدهد، تا زمانی که ماشین پیشبینی میکند در زمان مشخصی یکی از ماموران اصلی پروژه دست به قتل خواهد زد، او با این پرسش مواجه میشود که آیا خود اراده تغییر آیندهاش را دارد یا مجبور است به تقدیر تن در دهد! درواقع ماشین در تله خود گرفتار میشود.
این فیلم علاوه بر فناوری هوشمصنوعی- AI درزمینه تشخیص افکار و احساسات درونی افراد، فناوریهای دیگری را نیز پیشبینی کرده که آنها نیز در جهان امروز تحقق یافتهاند. از جمله پیشبینی فناوریهای لمسی در استفاده از رایانهها که در این فیلم کاربران با پوشیدن دستکشهای مخصوصی میتوانستند یک سطح مجازی ایجاد شده در فضای سه بعدی را لمس کرده و دستورهای خود را به آن بدهند. این فناوری در سالهای اخیر رشد کرد و امروزه فناوری لمسی بر تمام قلمرو IT حکمرانی میکند.
فناوری تحقق یافته دیگر شناسههای زیستی است. آنگونه که فیلم نشان میدهد این شناسهها روی چشم حک میشود و تمام مشخصات فرد و مکان او را مشخص میکند. ضرورت به همراه داشتن مشخصات اساسی، از مشخصات شناسنامهای گرفته تا پرونده سلامت افراد از هماکنون بسیاری از شرکتهای فناوری را به سمت ساخت نخستین نسل شناسنامههای زیستی سوق داده است.
روباتها IQ شما را میسنجند
به گفته کازینسکی هوشمصنوعی- AI درباره تشخیص سطح IQ نیز میتواند قابل استفاده باشد و این قابلیت میتواند در آینده به مدارس کمک کند که براساس نتایج بهدست آمده از اسکن چهره دانشآموزان در کشف و استعدادیابی بهره بگیرد.
اما اینگونه برنامهها اساسا سوالات اخلاقی زیادی را مطرح کردهاند. بهویژه اگر قرار باشد از هوشمصنوعی- AI در زمینه افشا کردن بعضی ویژگیهای ژنتیک افراد بهخصوص دانشآموزان مثلا سنجش و مقایسه هوش کودکان از نظر ژنتیکی استفاده شود. کازینسکی میگوید: «ما باید درباره این از قبل مطمئن باشیم که هرآنچه انجام میدهیم، درنهایت میتواند به شرایطی بینجامد که درآن انتخاب ژنهای اصلح به معنی زندگی در دنیای بهتری باشد.»
یکی دیگر از کاربردهای «روباتهای چهرهخوان» استفاده از این الگوریتمها در مدارس برای مشاوران تربیتی است. این الگوریتمها میتوانند کودکانی را که رفتار تهاجمی دارند، شناسایی کرده و توجه مسئولان مدرسه را به دانشآموزانی جلب کنند که نیاز به کمک و پشتیبانی دارند.
کازینسکی میگوید: «فناوریهایی از این دست، در ظاهر بسیار ترسناک به نظر میرسند اما اگر بهگونهای صحیح و اخلاقی مورد استفاده قرار گیرند، ممکن است تجربه زندگی را بهبود بخشند. مثلا اگر الگوریتمها بتوانند کودکانی را که نیازمند کمک هستند با دقت و درستی شناسایی کنند تا درهمان مراحل اولیه مورد حمایت قرار گیرند، میتواند بسیار مفید باشد.»
تشخیص مجرمان
کازینسکی پیشبینی میکند که با توجه به سرعت بهکارگیری هوشمصنوعی- AI و سرعت بهبود عملکرد آنها، بهزودی یک الگوریتم میتواند با استفاده از حجم بالایی از تصویر چهرههای گوناگون بهسادگی تشخیص دهد که یک شخص مبتلا به بیماری روانی است یا اینکه شخصی دیگر تمایلات مجرمانه دارد یا خیر. به گفته او کاربرد مفید این روباتها در مراکز گردهمایی و اجتماعات همانند استادیومهای ورزشی یا مکانهای پرجمعیت است. چراکه این روباتها قبل از انجام هراقدام مجرمانهای با تشخیص تهدیدات احتمالی از طریق اسکن چهره شرکتکنندگان، میتوانند مانع از بروز خشونت و رفتارهای مجرمانه شوند. البته این کار چیزی چندان متفاوت از کار ماموران نگهبان و مراقبت نیست که معمولا با مشاهده چهره و رفتار افراد، گاه تصمیم میگیرند مانع از ورود افراد با چهره و یا ظاهر خطرناک شوند.
با این حال نگرانیهای فزایندهای همچنان درباره آسیبهای احتمالی از سوی فناوریهای هوشمصنوعی- AI و بهویژه ماشینهای تشخیص احساسات و افکار براساس حالات صورت و بهاصطلاح چهرهخوانی، وجود دارد. این نگرانی بهویژه در زمینههای کیفری و عدالت بسیار هشداردهنده است. چراکه ماشینها میتوانند با دسترسی به اطلاعات محرمانه افراد در ادارات پلیس و مراکز رسمی که گاه میتواند با تعصبات گوناگون مثلا تعصبات نژادپرستانه همراه باشد، درباره زندگی افراد، همانند تعیین مدت زمان محکومیت به زندان یا تعیین شرایط آزادی از زندان، تصمیم بگیرند یا نقشی تعیینکننده داشته باشند.
او میگوید: «این نگرانی بهویژه درمورد افرادی است که باوجود تمایل به اقدامات مجرمانه هیچ جرمی مرتکب نشدهاند، چراکه به هرحال هستند افرادی با گرایش شدید به ارتکاب جرائم اما تا زمانی که شرایط مساعد برای ارتکاب جرم فراهم نباشد، مرتکب جرم و جنایتی نمیشوند.»
توماس کینان، استاد طراحی محیطزیست و علوم رایانهای در دانشگاه «کلگری» میگوید: «طبق قانون عموما چهره افراد نوعی «اطلاعات عمومی» تلقی میشود و از این چشمانداز، قوانین هیچ منافاتی با فناوریهای نو ندارند و تاکنون هم هیچ قانونی وضع نشده که استفاده از چهره کسی برای ایجاد اطلاعات جدید سبب بروز سطح از مداخله یا حمله به حریم خصوصی افراد تلقی شود.»
با این حال کینان نیز خاطر نشان میکند که آنچه که استفاده از هوشمصنوعی- AI را در چهرهخوانی به یک فاجعه تبدیل میکند، آن است که فردی را فقط به صرف تشخیص روباتهای چهرهخوان، متهم به مجازات کنیم یا با استفاده از الگوریتمها اجازه دهیم جان مردم در مخاطره قرار بگیرد.
به گفته او حتی اگر شما دقیقترین روباتها و سیستمهای هوشمصنوعی- AI را با سطح دقت واعتبار بسیار بالا در چهرهخوانی به کار بگیرید، باز هم همیشه یک درصد احتمال خطا وجود دارد. بنابراین استفاده از روباتهای چهرهخوان در تشخیص جرائم، حرکت در مسیری بسیار شیبدار و لغزنده است، چراکه اگر در هر 20 مورد یا هر 100 مورد، یک نفر به اشتباه شناسایی شده باشد، شما در معرض یک اشتباه مرگبارید.