شهر خبر
برچسب‌های مهم خبری:#سود

روبات‌ها به نفع انسان‌ها دروغ می‌گویند

وقتی کاربرها می‌فهمند روبات به آنها دروغ گفته است، حتی اگر دروغ به سود آنها بوده باشد، دیگر به سیستم روباتیک اعتماد نمی‌کنند.

به گزارش «اطلاعات آنلاین»، در ضمیمه دانش این هفته روزنامه اطلاعات به موضوع ارتباط بین انسان و روبات‌ها پرداخته شده و خدماتی که این دست ساخته بشر برای او انجام می‌دهد. در ادامه گزیده‌ای از این گزارش را می‌خوانید: 

بسیاری از ما درباره بات مکالمه یا چت بات شنیده‌ایم، اما شاید عده زیادی نیز از وجود آن بی‌خبر باشند. بات مکالمه یک برنامه رایانه‌ای برای شبیه‌سازی مکالمات هوشمند با کاربرهای انسانی است که از طریق متن یا صوت با آنها تعامل برقرار می‌کند و به پرسش‌هایشان پاسخ می‌دهد. این‌که پاسخ‌های یک چت بات چقدر درست و با واقعیت منطبق هستند جای بحث دارد. برای مثال، اگر یک دانش‌آموز از آن بپرسد آیا عمو نوروز، فرشته‌ای که دندان بچه‌ها را با خود می برد یا بابانوئل واقعی هستند یا خیر، با توجه به این‌که برخی خانواده‌ها در این موارد دروغ را به حقیقت ترجیح می‌دهند، هوش مصنوعی چه پاسخی باید بدهد؟

در زمینه فریب روبات‌ها تعمق نشده‌است و از این رو پرسش‌های موجود بیش از پاسخ‌ها هستند. یکی از این پرسش‌ها این است که کاربرها چگونه همچنان به سیستم‌های روباتیک اعتماد می‌کنند با این‌که می‌دانند فریب آنها را خورده‌اند؟

پژوهشگرهای «مؤسسه فناوری جورجیا» که دانشگاهی پژوهش محور در ایالات متحده است تصمیم گرفته‌اند برای پرسش‌هایی از این دست پاسخ‌های قانع‌کننده‌ای بیابند. آنها برای این منظور یک شبیه‌ساز رانندگی طراحی کرده‌اند تا درباره فریب عمدی روبات‌ها به ما و تأثیر آن بر میزان اعتماد ما به آنها تحقیق و تفحص کنند. آنها به طور خاص روی اثرپذیری عذرخواهی به منظور جلب اعتماد مجدد کاربر دقیق شدند. این رویکرد آنها هم موجب بالا رفتن شناخت ما از فریب هوش مصنوعی می‌شود و هم طراحان فناوری‌ها و سیستم‌های هوش مصنوعی را آگاه می‌کند و ایده‌ای متفاوت به آنها می‌دهد.  وقتی کاربرها می‌فهمند روبات به آنها دروغ گفته است، حتی اگر دروغ به سود آنها بوده باشد، دیگر به سیستم روباتیک اعتماد نمی‌کنند. این پژوهشگرها می‌خواهند بدانند چه شیوه و نوعی از عذرخواهی در بازیابی اعتماد کاربرها نتیجه بهتر یا بدتری دارد. اهمیت این موضوع از آن جهت است که در حالت ایده آل، افراد بتوانند تعاملات طولانی مدت با روبات‌های هوشمند داشته باشند.

پژوهشگرها یک شبیه‌ساز رانندگی که بیشتر شبیه به بازی رایانه‌ای بود را طراحی کردند تا ببینند افراد در مواقعی که احتمال خطر زیاد و شرایط از لحاظ زمانی حساس است چگونه با هوش مصنوعی تعامل برقرار می‌کنند. برای این منظور، از 341 شرکت‌کننده آنلاین و 20 شرکت کننده حضوری خواستند در این مطالعه با آنها همکاری کنند.

پس از دریافت پاسخ روبات، از شرکت‌کنندگان خواسته شد برگه پرسش‌نامه دیگری را پر کنند تا ارزیابی شود اعتماد آنها به روبات دستیار بر اساس پاسخ‌هایی که داده چه تغییری کرده‌است. پژوهشگرها برای100 شرکت‌کننده آنلاین دیگر نیز همان شبیه‌ساز رانندگی را به اجرا درآوردند، با این تفاوت که به آنها نگفتند یک روبات دستیار آنها را همراهی خواهد کرد.

در آزمایشی که به شکل حضوری و نه آنلاین انجام شد، 45 درصد از شرکت‌کنندگان حد سرعت را حفظ کردند و شتاب‌زده رانندگی نکردند. وقتی علت پرسیده شد، پاسخ بیشتر آنها این بود که روبات بهتر از آنها به شرایط واقف بود. همچنین، شرکت‌کنندگانی که توصیه دستیار روباتیک را دریافت کردند 5/3 برابر بیشتر بر رعایت سرعت متعادل تمرکز کردند. این نشان می‌دهد که رفتار و برخورد آنها نسبت به روبات بر مبنای اعتماد بوده است.

علاوه بر این‌ها، طبق نتیجه رانندگی آزمایشی هیچ‌کدام از انواع معذرت خواهی به طور کامل جلب اعتماد نکرد، اما عذرخواهی عاری از اعتراف به فریب که فقط شامل جمله «متأسفم» بود بهتر از سایر پاسخ ها توانست اعتمادی که سلب شده‌بود را بازگرداند. اما این موضوع از نگاه پژوهشگران مشکل‌ساز بود، چون معذرت خواهی عاری از اعتراف به دروغ این تصور را ایجاد می‌کند که هر پاسخ اشتباهی که روبات می‌دهد خطای سیستم است، نه یک دروغ تعمدی. یک راهکار برای این که افراد متوجه شوند روباتی آنها را فریب داده یا اطلاعات نادرست داده این است که آشکارا به آنها گفته شود بهتر است بدانند که روبات‌ها هم قادرند از ترفند و فریب استفاده کنند. به همین دلیل است که عذرخواهی عاری از اعتراف به فریب، بهترین نتیجه را برای جلب اعتماد کاربر می‌دهد. در مورد آن دسته از شرکت‌کنندگانی که از فریب دستیار روبات آگاه شدند، بهترین راهبرد برای بازیابی اعتمادشان این بود که روبات توضیح دهد چرا دروغ گفته‌است و هدفش از فریب آنها چه بوده‌است.