Tak śmiałą tezę można postawić dzięki pracy Stevena D. Shawa i Gideona Nave’a Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. A jeszcze dekadę temu dyskusja o wpływie sztucznej inteligencji na człowieka koncentrowała się na rynku pracy i automatyzacji. Dziś coraz częściej pytanie brzmi inaczej: co dzieje się z naszym myśleniem, gdy zaczynamy delegować je systemom AI?
Od Kahnemana do „Systemu 3”
Klasyczna psychologia poznawcza – spopularyzowana przez Daniela Kahnemana w Thinking, Fast and Slow (2011) – opisuje myślenie jako interakcję dwóch trybów. Przypomnijmy, System 1 charakteryzowany jest jako szybki, intuicyjny, heurystyczny. Natomiast System 2 określany jest jako wolny, analityczny, refleksyjny. Ten dualny model znalazł potwierdzenie w setkach badań z zakresu ekonomii behawioralnej, neuropsychologii i nauk o decyzji (Evans & Stanovich, 2013; Stanovich & West, 2000).
Shaw i Nave argumentują jednak, że model ten opiera się na założeniu „mózgo-centryczności” poznania – przekonaniu, że procesy poznawcze zachodzą wyłącznie w biologicznym mózgu. Tymczasem współczesny użytkownik ChatGPT, Google Maps czy systemów rekomendacyjnych coraz częściej deleguje nie tylko obliczenia, lecz całe procesy inferencyjne. Autorzy proponują zatem rozszerzenie architektury poznawczej o System 3 – sztuczne, zewnętrzne poznanie algorytmiczne.
Uwaga, definiujmy System 3. Potrzebujemy do tego takich określeń jak:
-
zewnętrzny (działa poza mózgiem),
-
zautomatyzowany,
-
oparty na danych,
-
dynamiczny i interaktywny.
Nie jest narzędziem w klasycznym sensie – lecz współuczestnikiem procesu decyzyjnego.
„Cognitive surrender” – poznawcza kapitulacja
Najbardziej niepokojącym wnioskiem z badań Wharton jest zidentyfikowanie zjawiska, które autorzy nazywają cognitive surrender – poznawczej kapitulacji. Nie chodzi tu o klasyczne „cognitive offloading” (Risko & Gilbert, 2016), czyli strategiczne delegowanie zadania (np. użycie kalkulatora). Cognitive surrender, ta nasza poznawcza kapitulacja to głębsza zmiana: użytkownik przyjmuje odpowiedź AI bez krytycznej weryfikacji, traktując ją jako własny wniosek.
W serii trzech prerejestrowanych eksperymentów (N = 1372; 9593 prób) uczestnicy rozwiązywali zmodyfikowany Cognitive Reflection Test. W warunku z dostępem do AI mogli konsultować chatbot (GPT-4o). Kluczowe było to, że trafność odpowiedzi AI była manipulowana – czasem poprawna, czasem błędna.
Efekt był jednoznaczny. Czyli, gdy AI była poprawna – trafność uczestników rosła o 25 pkt proc. W sytuacji, gdy AI była błędna – trafność spadała o 15 pkt proc. względem warunku bez AI. W trzecim przypadku uczestnicy podążali za błędną odpowiedzią AI w ok. 80% przypadków, gdy z niej skorzystali.
Co istotne, dostęp do AI zwiększał również pewność siebie, nawet gdy odpowiedzi były niepoprawne. To klasyczna sygnatura poznawczej kapitulacji: trafność decyzji zaczyna zależeć od trafności systemu zewnętrznego.
Presja czasu i bodźce finansowe: czy możemy się obronić?
W drugim eksperymencie badacze wprowadzili presję czasu. Zgodnie z literaturą (Payne, Bettman & Johnson, 1988) powinna ona osłabiać działanie Systemu 2. Rzeczywiście – w warunkach bez AI trafność spadała. Jednak u osób intensywnie korzystających z AI poprawność odpowiedzi pozostawała wysoka, o ile AI była poprawna. System 3 „buforował” koszt presji czasu. Trzeci eksperyment sprawdzał, czy zachęty finansowe i informacja zwrotna ograniczą bezrefleksyjne przyjmowanie odpowiedzi AI. Efekt był częściowy: uczestnicy częściej odrzucali błędne odpowiedzi AI, gdy mieli bezpośrednią motywację do poprawności. Jednak nawet wtedy wzorzec zależności od jakości AI utrzymywał się.
Deliberacyjne myślenie można reaktywować, owszem. Ale wymaga to bodźców.
Kto najłatwiej „kapituluje”?
Istotne okazały się różnice indywidualne. Osoby o:
-
wyższym poziomie zaufania do AI,
-
niższej potrzebie poznawczej (Need for Cognition),
-
niższej inteligencji płynnej,
częściej przejawiały cognitive surrender. Co ciekawe, różnice w IQ nie wpływały istotnie na samo korzystanie z AI – lecz na zdolność odrzucania błędnych odpowiedzi.
Kontekst szerszy: od automatyzacyjnego biasu do deskillingu
Wyniki te wpisują się w wcześniejsze badania nad automation bias (Mosier & Skitka, 1996) – tendencją do nadmiernego polegania na systemach automatycznych – oraz nad „deskillingiem”, czyli erozją kompetencji w wyniku delegowania zadań algorytmom. Badania nad AI-wspomaganą endoskopią wskazują, że lekarze po długotrwałym poleganiu na systemach AI wykazują spadek trafności diagnoz bez wsparcia algorytmicznego (Budzyń et al., 2025).
Podobne obawy pojawiają się w edukacji. Analizy wykorzystania dużych modeli językowych w środowiskach akademickich sugerują, że nadmierne poleganie na AI może ograniczać głębokie przetwarzanie informacji (np. Bender et al., 2021; OpenAI, 2023 raporty techniczne). Z drugiej strony, literatura nad „extended mind” (Clark & Chalmers, 1998) wskazuje, że zewnętrzne systemy poznawcze mogą realnie poszerzać zdolności umysłu.
Kluczowe pytanie brzmi, może i patetycznie, może i dramatycznie, ale nie sposób odmówić mu prawdziwości: czy kontrolujemy System 3 – czy on zaczyna kontrolować nas?
Czy poznawcza kapitulacja jest racjonalna?
Autorzy podkreślają, że cognitive surrender nie jest z definicji irracjonalne. W domenach probabilistycznych, analitycznych czy przy przetwarzaniu wielkich zbiorów danych, algorytmy często przewyższają ludzi. Delegowanie może być adaptacyjne. Problem zaczyna się tam, gdzie użytkownik albo nie rozumie ograniczeń modelu, albo nie rozpoznaje sytuacji wymagających deliberacji. Równie niebezpiecznie robi się wtedy, gdy użytkownik utożsamia odpowiedź AI z własnym osądem. To w takich sytuacjach dochodzi do zatarcia się granicy odpowiedzialności epistemicznej: kto naprawdę podjął decyzję?
Teoria systemu trójelementowego opisuje współczesne myślenie jako triadyczną ekologię poznawczą: decyzja może pochodzić z intuicji, refleksji lub bezpośrednio z algorytmu. Coraz częściej ścieżka wygląda tak: bodziec → System 3 → odpowiedź, z minimalnym udziałem wewnętrznego namysłu. To strukturalna zmiana – nie tylko w wynikach decyzji, lecz w ich genezie.
Badania Wharton są jednymi z pierwszych eksperymentalnych dowodów na to, że AI nie tylko wspomaga myślenie, ale je rekonfiguruje. Kolejne etapy badań będą musiały odpowiedzieć na pytania długoterminowe:
Czy częste korzystanie z AI zmienia strukturę heurystyk? Czy rozwija się trwała zależność poznawcza? Jak projektować interfejsy, by wzmacniać System 2 zamiast go wygaszać?
W epoce generatywnej AI stawką nie jest już tylko efektywność pracy. Stawką jest autonomia poznawcza. Być może przyszłe pokolenia będą myśleć szybciej i sprawniej dzięki Systemowi 3. Ale równie możliwe, że będą myśleć rzadziej.
A to zasadnicza różnica.