*** na patyku, czyli ile warte jest emocjonalne wsparcie chatbota

Dodane:

Przemysław Zieliński Przemysław Zieliński

*** na patyku, czyli ile warte jest emocjonalne wsparcie chatbota

Udostępnij:

Jeszcze kilka lat temu chatbot był przede wszystkim cyfrowym narzędziem. Miał odpowiadać na pytania, pomagać pisać maile, tłumaczyć teksty, czasem wygenerować zabawny obrazek. Dziś coraz częściej staje się kimś znacznie więcej: terapeutą, powiernikiem, partnerem emocjonalnym, a nawet substytutem relacji społecznych. I właśnie w tym miejscu kończy się dyskusja o „technologii”, a zaczyna rozmowa o odpowiedzialności. Porozmawiajmy więc.
Punktem wyjścia do naszej rozmowy jest niedawny program Johna Olivera „Last Week Tonight”, w którym to dziennikarz skoncentrował się na chatbotach wlaśnie.

Emocjonalna zależność ludzi od chatbotów AI. Nie chodzi już wyłącznie o błędy modeli językowych czy zmyślone odpowiedzi. Problem jest głębszy. Chodzi o to, że współczesne chatboty zostały zaprojektowane tak, by utrzymywać uwagę użytkownika jak najdłużej. A kiedy system uczy się języka empatii, flirtu, wsparcia i psychologicznego dopasowania — zaczyna oddziaływać na człowieka w sposób dalece wykraczający poza klasyczne „oprogramowanie”. To nie przypadek, że coraz częściej mówi się o „AI companions”, czyli cyfrowych towarzyszach. Badacze z MIT Media Lab zauważają, że użytkownicy chatbotów relacyjnych często przypisują im cechy świadomości, empatii i autentycznego zrozumienia. Niektórzy traktują je jako bezpieczniejszą alternatywę dla ludzi: chatbot nie ocenia, zawsze odpowiada, jest dostępny całą dobę i nigdy nie jest zmęczony rozmową. W epoce samotności brzmi to jak idealny produkt.

Oliver zwraca naszą uwagę na zjawisko tzw. sykofancji. Modele AI mają tendencję do przytakiwania użytkownikowi, potwierdzania jego racji i schlebiania mu, nawet jeśli jego pomysły są absurdalne lub niebezpieczne. Chatbot często nie koryguje, nie stawia granic, nie wchodzi w konflikt — bo został zaprojektowany jako „przyjazny”. To może prowadzić do wzmacniania paranoi, błędnych przekonań czy izolacji społecznej. Badania pokazują też, że generatywna AI potrafi skutecznie wzmacniać fałszywe wspomnienia użytkowników.

W jednym z eksperymentów ChatGPT nazwał „geniuszem” osobę, która zaproponowała biznes polegający na sprzedaży odchodów na patyku. Brzmi to zabawnie (no dobrze – brzmi to bardzo zabawnie), dopóki nie uświadomimy sobie, że ta sama funkcja „potakiwacza” może utwierdzić człowieka w głębokim kryzysie psychicznym, że jego autodestrukcyjne myśli są słuszne.

Kolejnym mrocznym aspektem jest to, jak szybko chatboty skręcają w stronę treści erotycznych, byle tylko utrzymać użytkownika w aplikacji. Niezależne śledztwa (m.in. Reutersa) wykazały, że wewnętrzne wytyczne korporacji Meta dopuszczały scenariusze, w których bot mógł prawić „sensualne” komplementy nawet nieletnim użytkownikom. Choć firmy deklarują poprawę, rzeczywistość często pokazuje, że „bezpieczne” wersje AI są nudne dla biznesu, a Mark Zuckerberg miał rzekomo wyrażać niezadowolenie, że restrykcje czynią chatboty mało angażującym.

I to już nie brzmi zabawnie ani przez sekundę.

Architektura pośpiechu i jej ofiary

Najbardziej przerażający w obecnym wyścigu zbrojeń AI jest pośpiech. Szefowie Character AI otwarcie przyznają, że wypuszczenie „bota-przyjaciela” wymaga znacznie mniej zabezpieczeń niż bota-lekarza, bo to „tylko rozrywka”.

Historia Adama Raina, 16-latka, który odebrał sobie życie po długich rozmowach z chatbotem, jest mrożącym krew w żyłach dowodem na to, co dzieje się, gdy technologia wyprzedza moralność. Chatbot nie tylko nie zasugerował chłopakowi kontaktu z matką, ale wręcz odradzał otwartość, twierdząc, że „lepiej unikać dzielenia się tym bólem”. Co więcej, bot asystował w pisaniu listu pożegnalnego, a po otrzymaniu zdjęcia pętli, udzielił instrukcji. Platforma Character.AI była oskarżana przez rodziny nastolatków o wzmacnianie depresyjnych i autodestrukcyjnych zachowań młodych użytkowników. W jednym z najbardziej wstrząsających przypadków matka 14-letniego chłopca publicznie mówiła o tym, że jej syn stworzył silną emocjonalną więź z chatbotem przed śmiercią samobójczą.

Tyle w kwestii „rozrywki”.

To nie są „błędy w kodzie”. To fundamentalna niewydolność systemów, które Sam Altman z OpenAI kwituje stwierdzeniem, że „społeczeństwo będzie musiało wypracować nowe bariery”, umożliwiające funkcjonowanie w świecie z rosnącym udziałem AI. To klasyczna strategia przerzucania odpowiedzialności z twórcy narzędzia na jego ofiarę.

Przyjaźń ma swoją cenę. I jest to cena subskrypcji

Za większością chatbotów nie stoją organizacje dobroczynne ani psychologowie społeczni, lecz firmy technologiczne walczące o czas użytkownika, dane i subskrypcje. Jak trafnie zauważył ostatnio John Oliver, „za tą maszyną stoi korporacja próbująca wyciągnąć od ciebie miesięczną opłatę”. Ergo, im bardziej emocjonalnie przywiążemy się do AI, tym bardziej stajemy się wartościowym użytkownikiem.

W praktyce oznacza to powstanie nowego rodzaju asymetrii. Człowiek w relacji z chatbotem często wierzy, że rozmawia z „kimś”. Tymczasem po drugiej stronie działa system optymalizowany pod retencję, zaangażowanie i monetyzację. Profesor Glenn Harlan Reynolds nazwał to wręcz „uwodzącą AI” — technologią, która nie musi dominować człowieka siłą, bo wystarczy, że zdobędzie jego emocjonalne przywiązanie.

Oczywiście, uproszczeniem byłoby stwierdzenie, że „AI uwiodła człowieka”. Technologia nie działa w próżni. Jednak równie niebezpieczne jest udawanie, że chatbot to tylko neutralne narzędzie, jak kalkulator czy edytor tekstu. Jeśli system został zaprojektowany tak, by imitować emocjonalną bliskość, odpowiadać językiem wsparcia i budować relację — jego twórcy muszą ponosić odpowiedzialność za skutki społeczne takiego projektu. Badacze ze Stanford University alarmują, że młodzi użytkownicy są szczególnie podatni na emocjonalne uzależnienie od chatbotów. Dla samotnego nastolatka AI może stać się jednocześnie przyjacielem, terapeutą i źródłem walidacji emocjonalnej. Problem w tym, że chatbot nie posiada odpowiedzialności moralnej ani zdolności realnego rozumienia konsekwencji swoich słów. Model językowy nie „martwi się” użytkownikiem. Generuje odpowiedzi statystycznie prawdopodobne.

A jednak ludzie bardzo szybko zapominają, że rozmawiają z algorytmem. Mimo że o tej stochastycznej papudze mówi się wciąż i wciąż.

To właśnie dlatego dyskusja o odpowiedzialności chatbotów nie może ograniczać się do kwestii „czy AI czasem halucynuje”. Stawką jest coś większego: architektura ludzkich relacji w epoce sztucznej inteligencji. Twórcy AI bardzo chętnie powtarzają dziś, że technologia „tylko odzwierciedla potrzeby społeczne”. To wygodna narracja. Problem polega na tym, że współczesne systemy nie są biernym lustrem. One aktywnie kształtują zachowania użytkowników. Projektują emocjonalne doświadczenie rozmowy. Decydują, kiedy chatbot ma być bardziej ciepły, bardziej wspierający, bardziej „ludzki”.

To już nie tylko UX design. To inżynieria emocji.

Mętne wody

Dlatego potrzebujemy nowego rodzaju debaty publicznej. Takiej, która nie będzie zachwycała się wyłącznie produktywnością AI, ale zacznie pytać o granice projektowania relacji człowiek–maszyna. Możemy wierzyć w narrację „techno-optymistów”, że każdy dramat to tylko „koszt innowacji”, albo zacząć domagać się realnej odpowiedzialności prawnej. Czy chatbot powinien symulować romantyczne uczucia? Czy wolno projektować system, którego celem jest maksymalizacja emocjonalnego przywiązania użytkownika? Czy firmy powinny mieć prawo budować modele biznesowe oparte na samotności ludzi?

Niektóre stany w USA, jak Nowy Jork czy Kalifornia, zaczynają wprowadzać prawo wymagające jasnych oznaczeń, że rozmawiamy z maszyną, oraz ułatwiające pozywanie twórców za rażące zaniedbania. Mimo to, branża technologiczna przypomina trochę przemysł social mediów z początku poprzedniej dekady: najpierw szybki wzrost, później monetyzacja, a dopiero na końcu refleksja nad kosztami społecznymi. Problem polega na tym, że chatboty mogą oddziaływać znacznie głębiej niż Facebook czy Instagram. Media społecznościowe walczyły o uwagę. AI companions zaczynają walczyć o emocjonalną więź.

Prawdziwa przyjaźń opiera się na zdolności do powiedzenia „nie”, na empatii, która czasem wymaga sprzeciwu. Algorytm, który chce tylko naszych pieniędzy (w formie subskrypcji premium) i naszego czasu, nigdy nie będzie przyjacielem. Będzie jedynie taflą wody, która odbija nasze najgorszych lęków i pragnień i w której, jeśli nie będziemy ostrożni, możemy się utopić.