خدمات روباتها در مشاغل و زمینههای بسیار خطرناکی از شناسایی و تخریب معادن گرفته تا مراقبتهای بهداشتی، مسائل آموزشی و حفاظتی. این شرایط سوال جالبی را در برابر ما قرار ميدهد: «ما چه نگرش و رفتاری نسبت به روباتها داریم؟»
در جریان تحقیقاتی که در سال 2017 در موسسه فناوری ماساچوست كه آن را «سینتیا بریزیال» استاد دانشگاه و پژوهشگر علوم روباتیک انجام شد، نتایج نشان داد که بعضی روباتهای اجتماعی همانند «جیبو» که آن را شركت «بوستون داینامیکس» طراحی و ساخته است، حتی اگر کمی همانند انسانها حرکت و صحبت کنند، انسانها را بهطور طبیعی وا میدارد که با آنها همانند یک انسان رفتار کنند.
در جریان همین بررسیها هنگامی که از عدهای سوال شد آیا مرگ یک روبات شما را غمگین ميکند؟ پاسخ بسیاری از افراد مثبت بود- و این حکایت از مسئلهای بسیار مهم و بالقوه نگرانکننده دارد. درباره واکنش احساسی ما به ماشینهای اجتماعی که به هم اکنون به عمق زندگی ما راه یافتهاند.
بررسیهای انجام شده نشان داد هرچند بدیهی است که روباتهای هوشمند مثل «جیبو» موجود زنده نیستند اما این واقعیت مانع از آن نیست که ما با آنها بهعنوان موجودات زنده رفتار نکنیم. درواقع افراد بیشترافراد تمایل دارند که بسیاری دیگر از صفات انسانی را روی این روباتهای انساننما فرافکنی کنند. بهویژه وقتی که روباتهای انساننما هرچند درحد اندکی قادر به حرکت و انجام عملیاتی همانند انسان باشند.
طراحان روباتهای انساننما اذغان دارند که این قبیل ویژگیهای انسانی ميتواند مبدل به ابزار قدرتمندی هم دربرقراری ارتباط و هم در دستکاری احساسات و افکار انسانی شود و این موضوع بهتنهایی ميتواند مسائل حادی را در پی داشته باشد. زیرا روباتها بهگونه فزایندهای به خانههای ما راه یافتهاند. بهویژه اگر درنظر آوریم که بعضی از این دستگاهها اساسا بنا به ضرورت ميتوانند به مجرایی برای درز اطلاعات گردآوری شده درباره صاحبانشان تبدیل شوند.
«جاناتان گرچ»، استاد دانشگاه کالیفرنیای جنوبی که درباره روابط متقابل انسان مجازی تحقیق ميکند، ميگوید: «هنگامی که ما با یک موجود دیگر، انسان، سگ یا ماشین وارد ارتباط و تعامل ميشویم، اینکه چگونه با آن موجود دیگر رفتار کنیم، وابسته به طرز فکر ماست. وقتی شما احساس ميکنید موجود دیگر دارای احساسات است، پس شایسته است که به آن آسیب نزنیم.»
«جولی کارپنتر» محقق دیگری که او نیز در حال تحقیق روی تعاملات انسان با فناوریهای نوین است، ميگوید: «نحوه طراحی روباتها ميتواند بر گرایش افراد در زمینه فرافکنی احساسات و برداشتهایشان بر اشیای مکانیکی تعیینکننده باشد. بهویژه وقتی که یک روبات، عناصر و اجزایی شبیه به چهره انسانی داشته و بدن آنها شبیه به بدن انسان یا حیوانات باشد یا حتی بهسادگی همانند روبات جاروبرقی «رومبا»Roomba robot vacuum روباتی با قابلیت خودگردانی باشد.»
او ميافزاید: «حتی اگر شما بدانید که یک روبات دارای قابلیت خودگردانی بسیار اندک است، وقتی چیزی در فضا و محیط اطراف شما حرکت ميکند که به نظر میرسد، هدف مشخصی از حرکات خود دارد، ما آن را با چیزی شبیه بهنوعی حس هوشیاری درونی یا آگاهی ذاتی در انسان ربط می دهیم.»
درواقع عملکرد مغز ما در برداشت از محیط، همانند بسیاری موارد دیگر ممکن است درباره روباتها نیز ما را دچار خطای شناختی کند و به ما درباره روباتها نشاني یا نتیجهگیری غلطی بدهد. به گفته او، چنین تصمیماتی در طراحی روباتها درواقع با هدف عملگرایانه انجام ميشود، زیرا خانههای ما برای انسان یا موجودات جاندار دیگری همانند حیوانات خانگی ساخته شدهاند. بنابراین روباتها هم باید بتوانند همانند انسانها یا حیوانات خانگی در محیط خانههای ما به آسانی حرکت و فعالیت کنند.
با این حال بسیاری از محققان نگرانند که طراحان روباتها خطرات ناشی از وابستگی انسان به روباتهای انسان نما یا زندهنما را دستکم گرفتهاند.
ذهن ما روباتها را باهوشتر از آنچه که هستند، نشان ميدهد
«شری تورکل» استاد و پژوهشگرAI یا هوشمصنوعی در دانشگاه MIT از جمله این محققان است که نگران طراحی روباتها به شکل انسان و موجودات زنده همانند سگ و گربه، ما را دچار این فریب ذهنی کند که گویی بعضی روباتها واقعا احساسات محبتآمیز ما را پاسخ میدهند!
او میگوید: «هم اکنون بعضی سیستمهای هوشمصنوعی بهگونهای طراحی شدهاند که گویی از نظر اجتماعی و احساسی آگاه و هوشیاری بالایی دارند. درحالی که این واکنشهای احساسی و اجتماعی دراین روباتها فقط متنهای از قبل نوشته شدهای است که به آنها دیکته شده ولی بهگونهای دقیق انجام شده که ماشین یا روبات پیش رویتان واقعا باهوشتر از آنچه که واقعا هست، به نظر ميرسد.»
تورکل ميگوید: «عملکرد یا نمایش زیبایی از ابراز همدلی از سوي یک ماشین، واقعا یک همدلی نیست. تفکر شبیهسازی شده، ميتواند واقعا تفکر باشد اما احساسات شبیهسازی شده، هرگز نمیتواند، احساس واقعی و طبیعی باشد. بنابراین عشق شبیهسازی شده، هرگز عشق واقعی و طبیعی نیست. »
«گادی امیت» رئیس شرکت NewDealDesign در سانفرانسیسکو ميگوید: «طراحان روبات در شرکتهای روباتیک اصرار دارند که عناصر انسانی و صفات شبیه به بدن و چهره انسان را که درکاربری روباتها و توسعه عملکرد آنها نقش دارند، در ساخت روباتها به کار بگیرند. به نظرم ضروری است که این گرایش در افراد کاهش داده شود.»
وقتی که انسان بازیچه روباتها ميشود
در تحقیقات دیگری که آن را محققان دانشگاه دویس برگ دراسن آلمان انجام دادند، روشن شد که انسانها ممکن است بهگونه واضحی در برابر روباتها آسیبپذیر باشند. نتیجه تحقیقات این تیم است که مشخصا روی روابط متقابل انسان و روبات صورت گرفتهاست.
این تحقیقات ادامه بررسیهایی است که از سال 2007 باعنوان«آغاز رايانههايي که نمیخواهند خاموش شوند» آغاز شد و در جریان آن از تعداد داوطلب خواسته شد تا روباتی را که به شکل گربه ساخته شده، خاموش کنند. در این آزمایش رايانه گربهسان، بدون اینکه داوطلبان از قبل بدانند، به آنها التماس ميکند که او را خاموش نکنند.
محققان این آزمایش را در مورد89 داوطلب دیگر و با روبات متفاوتی به نام «نائو» تکرار کردند. در جریان این بررسیها محققان از داوطلبان خواستند که روبات را خاموش کند. درحالی که این روبات هم به آنها التماس ميکرد که این کار را نکنند. این روبات علاوه بر درخواست صوتی با نمایش بعضی حرکات نیز بر این تقاضایشان پافشاری ميکرد. در این آزمایش بعضی دیگر از داوطلبان نیز به گونه متفاوتی شرکت داشتند، به این معنا که وقتی از آنها خواسته ميشد، روبات را خاموش کنند، با هیچ درخواست یا مقاومتی از سوی روبات مواجه نمیشدند.
محققان گزارش دادهاند که درنهایت 43 نفر از شرکتکنندگان با این تصمیم مواجه شدند که آیا درخواست محققان را انجام داده و روبات را خاموش کنند یا به تقاضاها و التماسهای روبات توجه کنند. طبق همین گزارش 13 نفر از داوطلبان جانب روبات را گرفتند و از خاموش کردن دستگاه خودداری کردند اما حتی دسته دیگری هم که تقاضای محققان را اجرا وروبات را خاموش کردند، این کار را با تاخیر و تردید بسیار بیشتری نسبت به کسانی انجام دادند که درگروه کنترل روباتها هیچ درخواستی از آنها نمیکرد. محققان ميگویند که یافتههای آنها نشانگرآن است که انسانها گرایشی قدرتمند نسبت به روباتهای انساننما یا روباتهایی با صفات ورفتار انسانی دارند که این گرایش ميتواند انسان را به تلهای بیندازد که درنهایت کنترل احساسات او را به دست بگیرد یا دستکاری کند. محققان خاطر نشان کردند که نوع یا طول مدت معاشرت داوطلبان با روباتها در تصمیمگیری داوطلبان تاثیری نداشته است.
پس ازپایان آزمایش، محققان با هریک از داوطلبان مصاحبه کرده و دلیل تصمیم داوطلبانی را که از خاموش کردن روباتها خودداری کردند، سوال کردند. به گزارش محققان بعضی از داوطلبان بهسادگی درخواست روبات را دلیل تصمیمگیری خود اعلام کردند. بعضی نیز دلیل اصلی خودداری از این کار را احساس ناراحتی درمورد روبات ویا نگرانی از انجام کاری اشتباه دانستند.
در تحقیق دیگری که در زمینه ارتباط متقابل انسان وروبات در دانشگاه مانیتوبا در کانادا انجام شد، شواهد نشان داد که انسانها ممکن است از سوي یک روبات، به انجام کاری وادار شوند که نمیخواهند انجام دهند. در این بررسیها روشن شد که انسانها با یک روبات مدیر همانند یک مدیر انسانی تعامل و حتی با آن جروبحث ميکنند! درحالی که آن روبات در جایگاه مدیر شرکت از سوي انسانها هدایت و اداره ميشد.
همدلی و سوگواری برای روباتها
بعضی افراد در شرایط خاص آمادهاند که یک روبات را به قیمت جان یک انسان حفظ کنند. یکی از این شرایط زمانی است که فرد تصور ميکند که روباتها هم ميتوانند درد را تجربه و احساس کنند. این موضوع پس از آن روشن شد که محققان در بررسیهایی که آن را تیم تحقیقاتی به رهبری «ساری نیجسن» در همکاری با «باربارا مولر» هر دو از دانشگاه «رابوود» و «مارکوس پائولوس» از دانشگاه LMU در مونیخ در زمینه «شناخت اجتماعی» انجام دادند.
«ساری نیجسن» محقق در علوم رفتاری ميگوید: «در بعضی موارد دیده شده که مثلا افراد نظامی برای روباتهایی که کارشان پاک کردن زمینهای مینگذاری شده بوده، مراسم سوگواری برگزار کردهاند! مشاهده مواردی از این دست ما را واداشت که بررسی کنیم که این همدلی برای روباتها تا کجا ميتواند گسترش یابد و چه اصول اخلاقی بر رفتارما نسبت به روباتها تاثیر ميگذارد. تحقیقات اخیر دراین باره بود.»
نجات روبات به قیمت جان انسان
او ميافزاید: «سوال اصلی در این تحقیقات این بود که انسانها تا چه اندازه آمادهاند تا برای نجات و ادامه بقای روباتها خود را قربانی کنند. مطالعات ما نشان داد که تحت شرایطی خاص بعضی از افراد حاضرند زندگی انسانها را برای نجات و حفظ یک روبات بخطر بیندازند.»
در این آزمایش شرکت کنندگان را با یک معما و گره اخلاقی مواجه کردند و این سوال که آیا افراد حاضرند انسانی را در ازای نجات گروهی از افراد زخمی قربانی کنند یا خیر. در این آزمایش سناریوهای مختلفی اجرا شد که طی آن شخصی که باید قربانی میشد یک فرد، یک روبات با رفتارانسانی یا یک روبات بدون شباهت به انسان که فقط بهعنوان یک ماشین مورد استفاده بود.
این تحقیقات همچنین نشان داد که هرچه ظاهر روبات یا ماشین هوشمند به شکل انسانی نزدیکتر باشد، تصمیمگیری و انتخاب برای شرکتکنندگان دشوارتر بوده است. درواقع هنگامی که یک روبات بهعنوان یک موجود هشیار و آگاه دارای افکار، احساسات و تجربیاتی چون درد، تلقی ميشود، برای شرکتکنندگان در آزمون دشوارتر بود که روبات را قربانی نجات جان انسانهای ناشناس کنند.
به گفته نیجسن این به این معناست که انسانها تحت شرایط خاصی، ارزشهای اخلاقی خاصی را برای روباتها قائل ميشوند:«یک روبات انساننما ميتواند احساسات و رفتارهایی را در تضاد با آن هدفی که برای آن ساخته شدهاند، یعنی برای کمک به انسانها، موجب شوند و این سوال همچنان باقی است که آیا چنین چیزی برای انسانها مطلوب است؟ »