به گزارش «اطلاعات آنلاین»، در ضمیمه دانش این هفته روزنامه اطلاعات به موضوع ارتباط بین انسان و روباتها پرداخته شده و خدماتی که این دست ساخته بشر برای او انجام میدهد. در ادامه گزیدهای از این گزارش را میخوانید:
بسیاری از ما درباره بات مکالمه یا چت بات شنیدهایم، اما شاید عده زیادی نیز از وجود آن بیخبر باشند. بات مکالمه یک برنامه رایانهای برای شبیهسازی مکالمات هوشمند با کاربرهای انسانی است که از طریق متن یا صوت با آنها تعامل برقرار میکند و به پرسشهایشان پاسخ میدهد. اینکه پاسخهای یک چت بات چقدر درست و با واقعیت منطبق هستند جای بحث دارد. برای مثال، اگر یک دانشآموز از آن بپرسد آیا عمو نوروز، فرشتهای که دندان بچهها را با خود می برد یا بابانوئل واقعی هستند یا خیر، با توجه به اینکه برخی خانوادهها در این موارد دروغ را به حقیقت ترجیح میدهند، هوش مصنوعی چه پاسخی باید بدهد؟
در زمینه فریب روباتها تعمق نشدهاست و از این رو پرسشهای موجود بیش از پاسخها هستند. یکی از این پرسشها این است که کاربرها چگونه همچنان به سیستمهای روباتیک اعتماد میکنند با اینکه میدانند فریب آنها را خوردهاند؟
پژوهشگرهای «مؤسسه فناوری جورجیا» که دانشگاهی پژوهش محور در ایالات متحده است تصمیم گرفتهاند برای پرسشهایی از این دست پاسخهای قانعکنندهای بیابند. آنها برای این منظور یک شبیهساز رانندگی طراحی کردهاند تا درباره فریب عمدی روباتها به ما و تأثیر آن بر میزان اعتماد ما به آنها تحقیق و تفحص کنند. آنها به طور خاص روی اثرپذیری عذرخواهی به منظور جلب اعتماد مجدد کاربر دقیق شدند. این رویکرد آنها هم موجب بالا رفتن شناخت ما از فریب هوش مصنوعی میشود و هم طراحان فناوریها و سیستمهای هوش مصنوعی را آگاه میکند و ایدهای متفاوت به آنها میدهد. وقتی کاربرها میفهمند روبات به آنها دروغ گفته است، حتی اگر دروغ به سود آنها بوده باشد، دیگر به سیستم روباتیک اعتماد نمیکنند. این پژوهشگرها میخواهند بدانند چه شیوه و نوعی از عذرخواهی در بازیابی اعتماد کاربرها نتیجه بهتر یا بدتری دارد. اهمیت این موضوع از آن جهت است که در حالت ایده آل، افراد بتوانند تعاملات طولانی مدت با روباتهای هوشمند داشته باشند.
پژوهشگرها یک شبیهساز رانندگی که بیشتر شبیه به بازی رایانهای بود را طراحی کردند تا ببینند افراد در مواقعی که احتمال خطر زیاد و شرایط از لحاظ زمانی حساس است چگونه با هوش مصنوعی تعامل برقرار میکنند. برای این منظور، از 341 شرکتکننده آنلاین و 20 شرکت کننده حضوری خواستند در این مطالعه با آنها همکاری کنند.
پس از دریافت پاسخ روبات، از شرکتکنندگان خواسته شد برگه پرسشنامه دیگری را پر کنند تا ارزیابی شود اعتماد آنها به روبات دستیار بر اساس پاسخهایی که داده چه تغییری کردهاست. پژوهشگرها برای100 شرکتکننده آنلاین دیگر نیز همان شبیهساز رانندگی را به اجرا درآوردند، با این تفاوت که به آنها نگفتند یک روبات دستیار آنها را همراهی خواهد کرد.
در آزمایشی که به شکل حضوری و نه آنلاین انجام شد، 45 درصد از شرکتکنندگان حد سرعت را حفظ کردند و شتابزده رانندگی نکردند. وقتی علت پرسیده شد، پاسخ بیشتر آنها این بود که روبات بهتر از آنها به شرایط واقف بود. همچنین، شرکتکنندگانی که توصیه دستیار روباتیک را دریافت کردند 5/3 برابر بیشتر بر رعایت سرعت متعادل تمرکز کردند. این نشان میدهد که رفتار و برخورد آنها نسبت به روبات بر مبنای اعتماد بوده است.
علاوه بر اینها، طبق نتیجه رانندگی آزمایشی هیچکدام از انواع معذرت خواهی به طور کامل جلب اعتماد نکرد، اما عذرخواهی عاری از اعتراف به فریب که فقط شامل جمله «متأسفم» بود بهتر از سایر پاسخ ها توانست اعتمادی که سلب شدهبود را بازگرداند. اما این موضوع از نگاه پژوهشگران مشکلساز بود، چون معذرت خواهی عاری از اعتراف به دروغ این تصور را ایجاد میکند که هر پاسخ اشتباهی که روبات میدهد خطای سیستم است، نه یک دروغ تعمدی. یک راهکار برای این که افراد متوجه شوند روباتی آنها را فریب داده یا اطلاعات نادرست داده این است که آشکارا به آنها گفته شود بهتر است بدانند که روباتها هم قادرند از ترفند و فریب استفاده کنند. به همین دلیل است که عذرخواهی عاری از اعتراف به فریب، بهترین نتیجه را برای جلب اعتماد کاربر میدهد. در مورد آن دسته از شرکتکنندگانی که از فریب دستیار روبات آگاه شدند، بهترین راهبرد برای بازیابی اعتمادشان این بود که روبات توضیح دهد چرا دروغ گفتهاست و هدفش از فریب آنها چه بودهاست.