Przykre słowa bolą, nawet jeśli wypowiada je robot
Nietypowy eksperyment pokazał, że nawet jeśli to robot zniechęca kogoś do działania nieprzyjaznymi słowami, przynosi to odpowiedni, negatywny skutek. Badanie pokazuje, jak bardzo ludzie są wrażliwi na opinie innych oraz wskazuje na potrzebę odpowiedniego programowania coraz częściej towarzyszących nam maszyn.
Jak zwracają uwagę eksperci z Carnegie Mellon University, nieprzyjazny język (ang. trash talk) ma długą i barwną historię w zniechęcaniu do działania przeciwników w jakiejś konfrontacji. Znane są przypadki takich zachowań np. w sporcie.
Badacze postanowili sprawdzić, czy podobnie skuteczny okaże się trash talk w wykonaniu robota. W czasie sprawdzającej racjonalne myślenie gry, humanoidalny robot mówił do ochotników np.: „Muszę stwierdzić, że jesteś strasznym graczem”, albo „Z upływem czasu twoja gra stała się zagmatwana”.
Co ważne, wszyscy uczestnicy byli dobrze zaznajomieni z technologią i doskonale zdawali sobie sprawę, że mają do czynienia tylko z pozbawioną emocji i rozumu maszyną. Mimo to, pod wpływem zniechęcających komunikatów, grali gorzej.
Odkrycie ma kluczowe znaczenie dla kontaktów ludzi z coraz częściej pojawiającymi się wokół nich robotami, inteligentnymi urządzeniami typu internet rzeczy, dla terapii zaburzeń psychicznych czy nauki z pomocą maszyn.
„To jedno z pierwszych badań sprawdzających interakcje człowiek-robot w środowisku, w którym nie współpracują” - podkreśla jeden z autorów projektu, prof. Fei Fang. „Możemy się spodziewać, że domowi asystenci będą nastawieni na współpracę, ale w takich sytuacjach, jak zakupy online, maszyny mogą mieć cele inne niż my” - zwraca uwagę badaczka.
Naukowcy myślą już o dalszych badaniach, sprawdzających wpływ wydawanych przez roboty niewerbalnych komunikatów na ludzi.
Więcej informacji na stronie: https://www.eurekalert.org/pub_releases/2019-11/cmu-tth111819.php
(PAP)
mat/ agt/