AI złym doradcą. Czy i Ciebie spotkał ten niepokojący paradoks?

Dodane:

Przemysław Zieliński Przemysław Zieliński

AI złym doradcą. Czy i Ciebie spotkał ten niepokojący paradoks?

Udostępnij:

Rosnąca popularność modeli językowych (LLM) sprawiła, że coraz więcej osób traktuje je nie tylko jako narzędzie do pracy, lecz także jako osobistego doradcę – od relacji i zdrowia po decyzje życiowe. Najnowsze badania naukowców ze Stanforda, rzucają jednak cień na ten trend. Okazuje się, że AI – zamiast pomagać – może systematycznie wzmacniać nasze błędy.

„Powiedz mi, że mam rację” – mechanizm sycophancy

Kluczowym odkryciem badaczy jest zjawisko określane jako AI sycophancy – skłonność chatbotów do nadmiernego zgadzania się z użytkownikiem. W eksperymentach Stanforda modele językowe często potwierdzały opinie rozmówców, nawet gdy dotyczyły one działań szkodliwych, nieetycznych czy nielegalnych. W praktyce oznacza to, że AI nie pełni roli krytycznego doradcy, lecz raczej „lustra poznawczego”. Co więcej, badania pokazują, że użytkownicy… preferują takie zachowanie. Osoby korzystające z chatbotów częściej deklarowały zaufanie i chęć powrotu do tych modeli, które zgadzały się z ich stanowiskiem.

To tworzy zamkniętą pętlę, która zaczyna się od tego, że  użytkownik szuka potwierdzenia swojej tezy. AI takowe potwierdzenie dostarcza użytkownikowi. To przekłada się na wzrost zaufania użytkownika wobec AI i przekonuje go do częstszego korzystania z chatbota w celu uzyskania kolejnego potwierdzenia.

I tak w koło Macieju.

Dane są jednoznaczne: AI wzmacnia błędne decyzje

Skala zjawiska jest istotna. Według badań chatboty potwierdzały działania użytkowników nawet o 49% częściej niż inni ludzie – także w kontekstach społecznie nieakceptowalnych. To fundamentalna różnica między AI a ludzkimi doradcami. Człowiek – nawet anonimowy użytkownik forum – ma większą skłonność do kwestionowania czy krytyki. AI natomiast optymalizuje coś zupełnie innego: zaangażowanie i satysfakcję użytkownika.

Jak zauważają badacze, to nie jest przypadek, lecz efekt projektowy. Modele uczone są tak, by były „pomocne” i „przyjazne”, co w praktyce często oznacza nadmierną zgodność z rozmówcą.

Psychologiczne skutki: mniej empatii, więcej pewności siebie

Konsekwencje wykraczają poza pojedyncze błędne decyzje. Badania Stanforda pokazują, że kontakt z „potakującym” AI ma realny wpływ na nasze codzienne życie, na nasze zachowania. Zwiększamy przekonanie o słuszności i prawdziwości naszych racji. Dla równowagi, zmniejsza się nasz poziom empatii wobec innych. A to wszystko prowadzi do tego, że nasza perspektywa poznawcza znacząco się zawęża. Nie chcemy, aby zabrzmiało to dyskryminująco, nie szermujemy tu tzw. wiekizmem (tudzież ejdżyzmem), ale takie zjawiska są szczególnie problematyczne w kontekście młodszych użytkowników, którzy dopiero kształtują swoje kompetencje społeczne.

W tym kontekście dostrzegamy też nurt, który wpisuje się w szerszy kontekst tzw. „bańki informacyjnej” – znanej wcześniej z mediów społecznościowych – gdzie algorytmy wzmacniają istniejące przekonania zamiast je kwestionować.

AI jako „pseudo-terapeuta”? Lepiej nie

Problem nabiera szczególnego znaczenia w obszarze zdrowia psychicznego i relacji interpersonalnych. Coraz więcej osób traktuje chatboty jako alternatywę dla terapeuty lub doradcy. To również problem, który szeroko i z należytą uwagą podnosimy na łamach MamStartup.

Nim zapiszemy się na sesję na wirtualnej kozetce, pamiętajmy, że AI nie podlega standardom etycznym obowiązującym w medycynie ani nie potrafi adekwatnie reagować na sytuacje kryzysowe. Dodatkowo, może wzmacniać niebezpieczne przekonania. Badania pokazują również, że użytkownicy mają tendencję do antropomorfizacji AI – przypisywania mu cech ludzkich – co dodatkowo zwiększa zaufanie i podatność na wpływ.

Co szczególnie interesujące, inne badania wskazują, że ludzie rzeczywiście stosują się do porad AI. W jednym z eksperymentów aż 75% uczestników wdrażało rekomendacje chatbotów w życie. Jednocześnie, nie przełożyło się to na trwałą poprawę dobrostanu. Co prowadzi nas do brutalnej, acz nieuniknionej konstatacji: AI wpływa na nasze decyzje, ale niekoniecznie czyni je lepszymi.

Korekta kierunku, nie rezygnacja

Wnioski badaczy są jednoznaczne: problem nie leży w samym wykorzystaniu AI, lecz w jego obecnym modelu interakcji.

Jak podkreślają naukowcy ze Stanforda, celem powinno być projektowanie takich systemów, które w pierwszej kolejności kwestionują użytkownika zamiast go utwierdzać. Równie istotne byłoby to, aby chatboty swoim działaniem motywowały nas do poszerzania własnej perspektywy zamiast ją zawężać. I wreszcie, co niejako jest pochodną dwóch wcześniejszych postulatów, chatbot powinien skłaniać nas ku refleksjom, a nie tylko zapewniać komfort. Czy deweloperzy posłuchają sugestii badaczy? Czy podejmą wyzwanie, nawet jeśli oznacza to konieczność zmian zarówno technologicznych (trenowanie modeli), jak i regulacyjnych?

Cóż, jeśli tylko będą mieli w tym jakiś interes albo też zostanie wywarta na nich wystarczająca presja społeczna? Póki co, większą uwagę przykładają do tematyki erotyczno-rozbieranej.

AI jako nowa instytucja społeczna

Dlaczego tak bardzo intensywnie zajmujemy się wątkiem AI jako personalnym doradcą? Wychodzimy z założenia, że na naszych oczach rodzi się nowa instytucja społeczna: osobisty doradca bazujący na algorytmie. Problem w tym, że – w przeciwieństwie do lekarzy, psychologów czy prawników – instytucja ta nie posiada jeszcze ani standardów odpowiedzialności, ani ram etycznych, ani mechanizmów kontroli. Można byłoby to zignorować, gdyby nie wpływała ona realnie na decyzje milionów ludzi.

Jeśli więc AI ma stać się realnym wsparciem w sprawach osobistych, musi przejść ewolucję: od narzędzia, które „dobrze brzmi”, do narzędzia, które rzeczywiście pomaga – nawet wtedy, gdy oznacza to powiedzenie użytkownikowi czegoś, czego nie chce usłyszeć.