W pierwszej części eksperymentu naukowcy wykorzystali 120-centymetrowego, przypominającego dziecko humanoidalnego robota Pepper. Został on zaprogramowany, aby komunikować się z dziećmi na dwa sposoby. W jednej grupie robot był uprzejmy i posługiwał się zwrotami grzecznościowymi, w drugiej zaś jego styl był władczy i rozkazujący.
Okazało się, że nawet w sytuacji, gdy robot zwracał się do dzieci w sposób apodyktyczny, zdecydowana większość z nich (w wieku 7-9 lat) odpowiadała mu w sposób kulturalny i grzeczny. Dzieci nie naśladowały nieuprzejmego tonu maszyny. Sugeruje to, że wpojone normy społeczne i zasady dobrego wychowania są u dzieci silniejsze niż naturalny odruch naśladowania zachowania swojego rozmówcy – nawet jeśli jest nim robot.
Dzieci częściej widzą w robocie „kogoś”
Kolejnym badanym zjawiskiem była antropomorfizacja, czyli tendencja do przypisywania nieludzkim bytom cech, emocji i intencji typowych dla człowieka. Aby to sprawdzić, badacze zadawali dzieciom pytania takie jak: „czy Twoim zdaniem ten robot może być szczęśliwy?”, „czy on śni?” albo „czy potrafi sobie coś wyobrazić?”.
Wyniki w tej kwestii były jednoznaczne. Młodsze dzieci z badanej grupy wiekowej (7-9 lat) oraz dziewczynki znacznie częściej były skłonne przypisywać robotowi ludzkie cechy niż starsze dzieci i chłopcy. Ten wniosek pokazuje, że różne grupy dzieci mogą w odmienny sposób nawiązywać więzi z robotami społecznymi i czerpać wiedzę z interakcji z nimi, co ma kluczowe znaczenie dla projektowania technologii edukacyjnych.
„Idealny” robot edukacyjny jest uprzejmą „robotką”
Trzecim kluczowym elementem, który wzięli pod uwagę badacze, była postrzegana płeć robota. Nadano mu imię Ada (wersja żeńska) lub Adam (wersja męska), aby sprawdzić, czy ten czynnik wpłynie na reakcje dzieci.
Analiza danych przyniosła najbardziej konkretny i praktyczny wniosek z całego badania. Okazało się, że skłonność dzieci do przypisywania robotowi cech ludzkich była najwyższa w konfiguracji, w której maszyna była jednocześnie uprzejma i postrzegana jako kobieta (o imieniu „Ada”). To niezwykle ważna wskazówka dla inżynierów i projektantów, którzy pracują nad przyszłością technologii edukacyjnych. Jak podkreśla dr Konrad Maj, psycholog społeczny i kierownik Centrum Innowacji Społecznych i Technologicznych HumanTech, te subtelne sygnały mają ogromne znaczenie.
– Z naszych wyników wypływa wniosek, że sygnały społeczne w interakcjach między dziećmi a robotami w edukacji są wyjątkowo istotne. Dostosowanie stylu komunikacji robota do poziomu rozwoju dzieci i ich oczekiwań społecznych może zwiększyć zaangażowanie uczniów i potencjalnie wspierać pozytywne wyniki w nauce – mówi dr Konrad Maj, psycholog społeczny, kierownik Centrum Innowacji Społecznych i Technologicznych HumanTech, główny autor badań, cytowany na stronie SWPS.
Co dalej z dziećmi i robotami?
Badanie naukowców z Uniwersytetu SWPS jasno pokazuje, że interakcje dzieci z robotami to nie prosta relacja użytkownika z narzędziem. To skomplikowany proces społeczny, w którym rolę odgrywają wiek, płeć, wpojone normy i subtelne sygnały wysyłane przez maszynę. Zrozumienie tych mechanizmów jest kluczowe, jeśli chcemy projektować technologie, które faktycznie wspierają rozwój i edukację najmłodszych.
To znak, że wchodzimy w nową erę, w której człowiek i maszyna będą coraz bliższymi partnerami. Pozostaje nam więc zadać sobie kluczowe pytanie: jak w miarę upowszechniania się robotów w edukacji zadbać o to, by wspierały one rozwój społeczny naszych dzieci, a nie go hamowały?