روبات‌هایی که احساسات ما را به بازی مي‌گیرند
تله ذهن یا فریب روبات‌های انسان‌نما
خدمات روبات‌ها در مشاغل و زمینه‌های بسیار خطرناکی از شناسایی و تخریب معادن گرفته تا مراقبت‌های بهداشتی، مسائل آموزشی و حفاظتی. این شرایط سوال جالبی را در برابر ما قرار مي‌دهد: «ما چه نگرش و رفتاری نسبت به روبات‌ها داریم؟»
در جریان تحقیقاتی که در سال 2017 در موسسه فناوری ماساچوست كه آن را «سینتیا بریزیال» استاد دانشگاه و پژوهشگر علوم روباتیک انجام شد، نتایج نشان داد که بعضی روبات‌های اجتماعی همانند «جیبو» که آن را شركت «بوستون داینامیکس» طراحی و ساخته است، حتی اگر کمی همانند انسان‌ها حرکت و صحبت کنند، انسان‌ها را به‌طور طبیعی وا می‌‌دارد که با آن‌ها همانند یک انسان رفتار کنند.
در جریان همین بررسی‌ها هنگامی که از عده‌ای سوال شد آیا مرگ یک روبات شما را غمگین مي‌کند؟ پاسخ بسیاری از افراد مثبت بود- و این حکایت از مسئله‌ای بسیار مهم و بالقوه نگران‌کننده دارد. درباره واکنش احساسی ما به ماشین‌های اجتماعی که به هم اکنون به عمق زندگی ما راه یافته‌اند.
بررسی‌های انجام شده نشان داد هرچند بدیهی است که روبات‌های هوشمند مثل «جیبو» موجود زنده نیستند اما این واقعیت مانع از آن نیست که ما با آن‌ها به‌عنوان موجودات زنده رفتار نکنیم. درواقع افراد بیشترافراد تمایل دارند که بسیاری دیگر از صفات انسانی را روی این روبات‌های انسان‌نما فرافکنی کنند. به‌ویژه وقتی که روبات‌های انسان‌نما هرچند درحد اندکی قادر به حرکت و انجام عملیاتی همانند انسان باشند.
طراحان روبات‌های انسان‌نما اذغان دارند که این قبیل ویژگی‌های انسانی مي‌تواند مبدل به ابزار قدرتمندی هم دربرقراری ارتباط و هم در دستکاری احساسات و افکار انسانی شود و این موضوع به‌تنهایی مي‌تواند مسائل حادی را در پی داشته باشد. زیرا روبات‌ها به‌گونه فزاینده‌ای به خانه‌های ما راه یافته‌اند. به‌ویژه اگر درنظر آوریم که بعضی از این دستگاه‌ها اساسا بنا به ضرورت مي‌توانند به مجرایی برای درز اطلاعات گردآوری شده درباره صاحبان‌شان تبدیل شوند.
«جاناتان گرچ»، استاد دانشگاه کالیفرنیای جنوبی که درباره روابط متقابل انسان مجازی تحقیق مي‌کند، مي‌گوید: «هنگامی که ما با یک موجود دیگر، انسان، سگ یا ماشین وارد ارتباط و تعامل مي‌شویم، این‌که چگونه با آن موجود دیگر رفتار کنیم، وابسته به طرز فکر ماست. وقتی شما احساس مي‌کنید موجود دیگر دارای احساسات است، پس شایسته است که به آن آسیب نزنیم.»
«جولی کارپنتر» محقق دیگری که او نیز در حال تحقیق روی تعاملات انسان با فناوری‌های نوین است، مي‌گوید: «نحوه طراحی روبات‌ها مي‌تواند بر گرایش افراد در زمینه فرافکنی احساسات و برداشت‌هایشان بر اشیای مکانیکی تعیین‌کننده باشد. به‌ویژه وقتی که یک روبات، عناصر و اجزایی شبیه به چهره انسانی داشته و بدن آن‌ها شبیه به بدن انسان یا حیوانات باشد یا حتی به‌سادگی همانند روبات جاروبرقی «رومبا»Roomba robot vacuum روباتی با قابلیت خودگردانی باشد.»
او مي‌افزاید: «حتی اگر شما بدانید که یک روبات دارای قابلیت خودگردانی بسیار اندک است، وقتی چیزی در فضا و محیط اطراف شما حرکت مي‌کند که به نظر می‌رسد، هدف مشخصی از حرکات خود دارد، ما آن را با چیزی شبیه به‌نوعی حس هوشیاری درونی یا آگاهی ذاتی در انسان ربط می دهیم.»
درواقع عملکرد مغز ما در برداشت از محیط، همانند بسیاری موارد دیگر ممکن است درباره روبات‌ها نیز ما را دچار خطای شناختی کند و به ما درباره روبات‌ها نشاني یا نتیجه‌گیری غلطی بدهد. به گفته او، چنین تصمیماتی در طراحی روبات‌ها درواقع با هدف عمل‌گرایانه انجام مي‌شود، زیرا خانه‌های ما برای انسان یا موجودات جاندار دیگری همانند حیوانات خانگی ساخته شده‌اند. بنابراین روبات‌ها هم باید بتوانند همانند انسان‌ها یا حیوانات خانگی در محیط خانه‌های ما به آسانی حرکت و فعالیت کنند.
با این حال بسیاری از محققان نگرانند که طراحان روبات‌ها خطرات ناشی از وابستگی انسان به روبات‌های انسان نما یا زنده‌نما را دست‌کم گرفته‌اند.
ذهن ما روبات‌ها را باهوش‌تر از آنچه که هستند، نشان مي‌دهد
«شری تورکل» استاد و پژوهشگرAI یا هوش‌مصنوعی  در دانشگاه MIT از جمله این محققان است که نگران طراحی روبات‌ها به شکل انسان و موجودات زنده همانند سگ و گربه، ما را دچار این فریب ذهنی کند که گویی بعضی روبات‌ها واقعا احساسات محبت‌آمیز ما را پاسخ می‌دهند! 
او می‌گوید: «هم اکنون بعضی سیستم‌های هوش‌مصنوعی به‌گونه‌ای طراحی شده‌اند که گویی از نظر اجتماعی و احساسی آگاه و هوشیاری بالایی دارند. درحالی که این واکنش‌های احساسی و اجتماعی دراین روبات‌ها فقط متن‌های از قبل نوشته شده‌ای است که به آن‌ها دیکته شده ولی به‌گونه‌ای دقیق انجام شده که ماشین یا روبات پیش رویتان واقعا باهوش‌تر از آنچه که واقعا هست، به نظر مي‌رسد.»
تورکل مي‌گوید: «عملکرد یا نمایش زیبایی از ابراز همدلی از سوي یک ماشین، واقعا یک همدلی نیست. تفکر شبیه‌سازی شده، مي‌تواند واقعا تفکر باشد اما احساسات شبیه‌سازی شده، هرگز نمی‌تواند، احساس واقعی و طبیعی باشد. بنابراین عشق شبیه‌سازی شده، هرگز عشق واقعی و طبیعی نیست. »
«گادی امیت» رئیس شرکت NewDealDesign در سان‌فرانسیسکو مي‌گوید: «طراحان روبات در شرکت‌های روباتیک اصرار دارند که عناصر انسانی و صفات شبیه به بدن و چهره انسان را که درکاربری روبات‌ها و توسعه عملکرد آن‌ها نقش دارند، در ساخت روبات‌ها به کار بگیرند. به نظرم ضروری است که این گرایش در افراد کاهش داده شود.»
وقتی که انسان بازیچه روبات‌ها مي‌شود
در تحقیقات دیگری که آن را محققان دانشگاه دویس برگ دراسن آلمان انجام دادند، روشن شد که انسان‌ها ممکن است به‌گونه واضحی در برابر روبات‌ها آسیب‌پذیر باشند. نتیجه تحقیقات این تیم است که مشخصا روی روابط متقابل انسان و روبات صورت گرفته‌است. 
این تحقیقات ادامه بررسی‌هایی است که از سال 2007 باعنوان«آغاز رايانه‌هايي که نمی‌خواهند خاموش شوند» آغاز شد و در جریان آن از تعداد داوطلب خواسته شد تا روباتی را که به شکل گربه ساخته شده، خاموش کنند. در این آزمایش رايانه گربه‌سان، بدون این‌که داوطلبان از قبل بدانند، به آن‌ها التماس مي‌کند که او را خاموش نکنند. 
محققان این آزمایش را در مورد89 داوطلب دیگر و با روبات متفاوتی به نام «نائو» تکرار کردند. در جریان این بررسی‌ها محققان از داوطلبان خواستند که روبات را خاموش کند. درحالی که این روبات هم به آن‌ها التماس مي‌کرد که این کار را نکنند. این روبات علاوه بر درخواست صوتی با نمایش بعضی حرکات نیز بر این تقاضایشان پافشاری مي‌کرد. در این آزمایش بعضی دیگر از داوطلبان نیز به گونه متفاوتی شرکت داشتند، به این معنا که وقتی از آن‌ها خواسته مي‌شد، روبات را خاموش کنند، با هیچ درخواست یا مقاومتی از سوی روبات مواجه نمی‌شدند.
محققان گزارش داده‌اند که درنهایت 43 نفر از شرکت‌کنندگان با این تصمیم مواجه شدند که آیا درخواست محققان را انجام داده و روبات را خاموش کنند یا به تقاضاها و التماس‌های روبات توجه کنند. طبق همین گزارش 13 نفر از داوطلبان جانب روبات را گرفتند و از خاموش کردن دستگاه خودداری کردند اما حتی دسته دیگری هم که تقاضای محققان را اجرا وروبات را خاموش کردند، این کار را با تاخیر و تردید بسیار بیشتری نسبت به کسانی انجام دادند که درگروه کنترل روبات‌ها هیچ درخواستی از آن‌ها نمی‌کرد. محققان مي‌گویند که یافته‌های آن‌ها نشانگرآن است که انسان‌ها گرایشی قدرتمند نسبت به روبات‌های انسان‌نما یا روبات‌هایی با صفات ورفتار انسانی دارند که این گرایش مي‌تواند انسان را به تله‌ای بیندازد که درنهایت کنترل احساسات او را به دست بگیرد یا دستکاری کند. محققان خاطر نشان کردند که نوع یا طول مدت معاشرت داوطلبان با روبات‌ها در تصمیم‌گیری داوطلبان تاثیری نداشته است.
پس ازپایان آزمایش، محققان با هریک از داوطلبان مصاحبه کرده و دلیل تصمیم داوطلبانی را  که از خاموش کردن روبات‌ها خودداری کردند، سوال کردند. به گزارش محققان بعضی از داوطلبان به‌سادگی درخواست روبات را دلیل تصمیم‌گیری خود اعلام کردند. بعضی نیز دلیل اصلی خودداری از این کار را احساس ناراحتی درمورد روبات ویا نگرانی از انجام کاری اشتباه دانستند.
در تحقیق دیگری که در زمینه ارتباط متقابل انسان وروبات در دانشگاه مانیتوبا در کانادا انجام شد، شواهد نشان داد که انسان‌ها ممکن است از سوي یک روبات، به انجام کاری وادار شوند که نمی‌خواهند انجام دهند. در این بررسی‌ها روشن شد که انسان‌ها با یک روبات مدیر همانند یک مدیر انسانی تعامل و حتی با آن جروبحث مي‌کنند! درحالی که آن روبات در جایگاه مدیر شرکت از سوي انسان‌ها هدایت و اداره مي‌شد.
همدلی و سوگواری برای روبات‌ها
بعضی افراد در شرایط خاص آماده‌اند که یک روبات را به قیمت جان یک انسان حفظ کنند. یکی از این شرایط زمانی است که فرد تصور مي‌کند که روبات‌ها هم مي‌توانند درد را تجربه و احساس کنند. این موضوع پس از آن روشن شد که محققان در بررسی‌هایی که آن را تیم تحقیقاتی به رهبری «ساری نیجسن» در همکاری با «باربارا مولر» هر دو از دانشگاه «رابوود» و «مارکوس پائولوس» از دانشگاه LMU در مونیخ در زمینه «شناخت اجتماعی» انجام دادند.
«ساری نیجسن» محقق در علوم رفتاری مي‌گوید: «در بعضی موارد دیده شده که مثلا افراد نظامی برای روبات‌هایی که کارشان پاک کردن زمین‌های مین‌گذاری شده بوده، مراسم سوگواری برگزار کرده‌اند! مشاهده مواردی از این دست ما را واداشت که بررسی کنیم که این همدلی برای روبات‌ها تا کجا مي‌تواند گسترش یابد و چه اصول اخلاقی بر رفتارما نسبت به روبات‌ها تاثیر مي‌گذارد. تحقیقات اخیر دراین باره بود.»
نجات روبات به قیمت جان انسان
او مي‌افزاید: «سوال اصلی در این تحقیقات این بود که انسان‌ها تا چه اندازه آماده‌اند تا برای نجات و ادامه بقای روبات‌ها خود را قربانی کنند. مطالعات ما نشان داد که تحت شرایطی خاص بعضی از افراد حاضرند زندگی انسان‌ها را برای نجات و حفظ یک روبات بخطر بیندازند.»
در این آزمایش شرکت کنندگان را با یک معما و گره اخلاقی مواجه کردند و این سوال که آیا افراد حاضرند انسانی را در ازای نجات گروهی از افراد زخمی قربانی کنند یا خیر. در این آزمایش سناریوهای مختلفی اجرا شد که طی آن شخصی که باید قربانی می‌شد یک فرد، یک روبات با رفتارانسانی یا یک روبات بدون شباهت به انسان که فقط به‌عنوان یک ماشین مورد استفاده بود.
این تحقیقات همچنین نشان داد که هرچه ظاهر روبات یا ماشین هوشمند به شکل انسانی نزدیک‌تر باشد، تصمیم‌گیری و انتخاب برای شرکت‌کنندگان دشوارتر بوده است. درواقع هنگامی که یک روبات به‌عنوان یک موجود هشیار و آگاه دارای افکار، احساسات و تجربیاتی چون درد، تلقی مي‌شود، برای شرکت‌کنندگان در آزمون دشوارتر بود که روبات را قربانی نجات جان انسان‌های ناشناس کنند.
به گفته نیجسن این به این معناست که انسان‌ها تحت شرایط خاصی، ارزش‌های اخلاقی خاصی را برای روبات‌ها قائل مي‌شوند:«یک روبات انسان‌نما مي‌تواند احساسات و رفتارهایی را در تضاد با آن هدفی که برای آن ساخته شده‌اند، یعنی برای کمک به انسان‌ها، موجب شوند و این سوال همچنان باقی است که آیا چنین چیزی برای انسان‌ها مطلوب است؟ »