Szybki rozwój sztucznej inteligencji stał się impulsem do intensywnej debaty społecznej i naukowej, w której fascynacja możliwościami nowej technologii coraz częściej przeplata się z pytaniami i obawami dotyczącymi długofalowych konsekwencji jej wykorzystania.
– Dynamiczne zmiany, takie jak te, które obserwujemy przy okazji rozwoju narzędzi sztucznej inteligencji, oddziałują na nasze funkcjonowanie psychologiczne. Gdy nie wiemy, co przyniesie przyszłość, łatwiej o lęk i jednocześnie takie sposoby myślenia, które pomagają ten lęk oswoić – dr Paweł Muniak, psycholog z Uniwersytetu SWPS, autor raportu.
Badania pokazują, że w takich warunkach ludzie częściej uruchamiają strategie chroniące poczucie bezpieczeństwa. Jedną z najlepiej opisanych tendencji tego typu jest nierealistyczny optymizm, czyli przekonanie, że negatywne zdarzenia z większym prawdopodobieństwem spotkają innych ludzi niż nas samych.
AI groźniejsza dla innych niż dla nas
W raporcie „To nie mnie zastąpi AI. O nierealistycznym optymizmie Polek i Polaków wobec sztucznej inteligencji” przeanalizowano, czy różnice między perspektywą „ty i bliscy” a pozostałymi trzema perspektywami („osoba z miasta”, „obywatel” i „osoba na świecie”) zmieniają się w zależności od płci, wieku, wykształcenia oraz statusu zawodowego osób badanych.
Wyniki sondażu przeprowadzonego między wrześniem a październikiem 2025 roku przez Centrum Badań nad Relacjami Społecznymi Uniwersytetu SWPS, na reprezentatywnej próbie Polaków (N=1029), wskazują, że wraz z oddalaniem się od perspektywy „ty i bliscy” ryzyko związane z AI jest systematycznie oceniane jako większe dla bardziej abstrakcyjnych i odległych grup.
Z raportu wynika, że osoby młodsze i starsze nie różniły się tym, jak wysoko (przeciętnie) szacowały prawdopodobieństwo negatywnego wpływu AI na życie zawodowe lub prywatne osób badanych oraz innych ludzi. Wyniki sondażu pokazują, że również ani wykształcenie, ani status zawodowy nie zmieniają kształtu wzorca – nie ma dowodów na to, by różnice między perspektywą „ty i bliscy” a bardziej odległymi perspektywami były systematycznie inne w zależności od poziomu wykształcenia czy statusu zawodowego.
Jedyny wyjątek dotyczył płci. Jak wynika z badania, kobiety deklarowały przeciętnie wyższy ogólny poziom postrzeganego ryzyka związanego ze sztuczną inteligencją niż mężczyźni. Oznacza to, że u obu płci działa podobny mechanizm – kobiety i mężczyźni różnią się poziomem bazowym ocen ryzyka, a nie wzorcem porównań – ryzyko jest częściej lokowane po stronie „innych”.
Sztuczna inteligencja poczeka?
Jak zauważa ekspert, analiza postrzeganego ryzyka związanego z generatywną sztuczną inteligencją ujawnia wyraźny i konsekwentny wzorzec: im bardziej oddalona jest grupa odniesienia od perspektywy „ty i bliscy”, tym wyżej badani oceniają prawdopodobieństwo negatywnego wpływu AI na życie zawodowe lub prywatne. Oznacza to, że ryzyko jest psychologicznie przesuwane na zewnątrz – od siebie i najbliższych, przez „osobę z miasta” i „obywatela”, aż po „osobę na świecie”. Ten stopniowy układ różnic jest spójny z teorią nierealistycznego optymizmu.
– To, że nierealistyczny optymizm jest w dużej mierze niezależny od kluczowych cech społeczno-demograficznych, niesie ze sobą ważne implikacje społeczne. Wynik ten sugeruje, że nierealistyczny optymizm nie jest efektem specyficznych interesów lub sytuacji życiowej (np. funkcjonowania na rynku pracy, posiadania wyższych kompetencji czy określonego poziomu edukacji), lecz raczej stanowi ogólny sposób psychologicznego porządkowania ryzyka w warunkach niepewności. W praktyce oznacza to, że nawet jeśli ludzie uznają zagrożenia związane z AI za realne, mogą jednocześnie zakładać, że dotkną one przede wszystkim innych, a więc nie wymagają natychmiastowej reakcji we własnym życiu – mówi dr Paweł Muniak.
Twórca publikacji zauważa, że taki sposób postrzegania ryzyka może mieć konkretne konsekwencje praktyczne. Jeśli ryzyko jest lokowane po stronie „innych”, łatwiej utrzymuje się przekonanie, że przygotowanie na zmiany nie jest pilne, co może osłabiać motywację do działań adaptacyjnych (np. rozwijania kompetencji, uczenia się efektywnego korzystania z narzędzi AI, higieny cyfrowej, krytycznej weryfikacji treści czy zabezpieczania prywatności). Na poziomie społecznym ten sam mechanizm może obniżać gotowość do popierania rozwiązań prewencyjnych „tu i teraz” (edukacja, programy przekwalifikowania, standardy i regulacje), ponieważ koszty działań są natychmiastowe, a korzyści bywają wyobrażane jako dotyczące kogoś innego.
– Wyniki sugerują, że komunikacja o skutkach AI powinna możliwie często przekładać abstrakcyjne ryzyka na bliskie, konkretne scenariusze z codziennego życia i pracy – tak aby ograniczać odruchową myśl „to dotyczy innych” i wzmacniać poczucie sprawczości oraz sensu wczesnego przygotowania się – wskazuje ekspert.
Autorem raportu jest dr Paweł Muniak, psycholog z Uniwersytetu SWPS. Publikacja dostępna jest na tej stronie.