„Woke AI” – termin odnoszący się do sztucznej inteligencji, która została zaprogramowana tak, by wspierać wartości społeczne, takie jak, równość, inkluzywność czy neutralność płciowa, zyskuje coraz większą uwagę – nie tylko wśród entuzjastów etycznych technologii, lecz także jej zdecydowanych krytyków.
Termin ten nabrał nowego znaczenia, odkąd prezydent 23 lipca br. przedstawił rozporządzenie zatytułowane „Preventing Woke AI in the Federal Government”, wymagające od rządowych modeli AI neutralności ideologicznej i priorytetu prawdy historycznej. To zaś wzbudziło szeroką debatę na temat granic oraz znaczenia ideologii w systemach sztucznej inteligencji i skłoniło wielu do zadania sobie pytania – czy sztuczna inteligencja może być naprawdę neutralna?
Czym jest woke AI według administracji Donalda Trumpa
Nowe rozporządzenie Donalda Trumpa zakazuje wykorzystywania przez instytucje federalne modeli AI promujących ideologie uznane za „woke”. Co to znaczy? Każda firma chcąca sprzedawać modele AI rządowi USA musi teraz udowodnić, że jej AI spełnia dwa warunki:
- honoruje prawdomówność – model musi opierać się na wartościach takich jak wiarygodność i odpowiednie oznaczenie, gdy informacje są niepewne,
- jest ideologicznie neutralny – nie faworyzuje narracji DEI (Diversity, Equity, and Inclusion, co w języku polskim oznacza Różnorodność, Równość i Włączenie) ani żadnych poglądów społecznych bez wyraźnego powodu.
Ponadto, rozporządzenie zachęca również prywatne firmy m.in. do dostosowania modeli LLM do zasad „neutralności”.
W praktyce może to oznaczać, że firmy zajmujące się sztuczną inteligencją, które nie spełnią kryteriów Białego Domu, mogą zostać pozbawione lukratywnych kontraktów federalnych. Szczegółowe wytyczne i zasady implementacyjne mają być wydane przez biuro OMB (Office of Management and Budget) w ciągu 120 dni od popisu rozporządzenia. Te wstępne instrukcje określą, jak egzekwować zgodność z nowymi zasadami.
Czy AI może być neutralne?
AI nie funkcjonuje w próżni. Modele językowe, takie jak ChatGPT, Gemini czy Claude, uczą się na ogromnych zbiorach danych pochodzących z internetu, książek, gazet i innych źródeł kultury. Oznacza to, że przesiąkają one istniejącymi narracjami społecznymi, politycznymi i ideologicznymi. Trening modeli nie polega na zliczaniu faktów, ale na statystycznym przewidywaniu słów na podstawie kontekstu, który jest głęboko osadzony w ludzkiej kulturze. Ostatecznie więc modele sztucznej inteligencji odzwierciedlają uprzedzenia treści, na których są trenowane, a zatem odzwierciedlają nasze własne uprzedzenia.
W ostatnich latach firmy rozwijające AI zostały postawione pod ścianą – z jednej strony rosła presja na to, by modele były „bezpieczne”, czyli nie generowały obraźliwych, rasistowskich czy seksistowskich treści. Z drugiej strony pojawiły się głosy oskarżające je o cenzurę i lewicowe skrzywienie. Tak też narodziła się etykieta „woke AI” – modeli, które filtrują swoje odpowiedzi przez pryzmat progresywnych wartości.
W niektórych przypadkach nadmierna ostrożność wśród programistów i sztucznej inteligencji, trenowanej na treściach internetowych promujących wartości takie jak inkluzywność, doprowadziła do zniekształconych wyników modeli. W ubiegłym roku Google padło ofiarą własnej poprawności politycznej i znalazło się w pod ostrzałem krytyki po tym, jak jego chatbot Gemini pokazał czarnoskórego George’a Washingtona i nazistów o różnych kolorach skóry – co w rozporządzeniu Trumpa zostało uznane za przykład woke AI.
W kontrze do woke AI pojawił się Grok – model językowy AI od Elona Muska i jego firmy xAI (warto tutaj dodać, że jest ona finansowana m.in. przez Departament Obrony USA). Przedsiębiorca od początku reklamował Groka jako model bez cenzury, „gotowy odpowiadać na pytania, na które inne chatboty boją się odpowiedzieć”. Trudno też nie zauważyć, że jego model AI wpisuje się w szerszy nurt polityczny – jako przeciwwaga dla dużych firm technologicznych dbających o tzw. alignment, czyli zgodność modelu z wartościami społecznymi i etycznymi. Jednakże mniej filtrów i więcej swobody, czyli to co zastosowano w przypadku Groka, spowodowało, że zaczął on rozwijać niezdrową obsesję na temat „ludobójstwa białych w RPA”, czy też nazywać siebie „Mecha-Hitlerem”.
Deklarowana neutralność w nowym rozporządzeniu Trumpa może wydawać się atrakcyjna, ale w praktyce jest równie ideologiczna jak podejście, które zwalcza. Próba „odwoke’owania” AI to nic innego jak redefinicja zasad, według których model powinien działać. Wycisza jedną stronę debaty i promuje drugą. W rezultacie zamiast neutralności, mamy przesunięcie punktu ciężkości – z inkluzywności na konserwatyzm.
Firmy technologiczne obsługujące kontrakty rządowe w USA już teraz pracują nad dostosowaniem modeli do nowych regulacji. To oznacza modyfikację zbiorów danych, procedur testowania i systemów bezpieczeństwa. Ale zmiana dotyczy nie tylko technologii. Kto bowiem decyduje o tym, co jest prawdą?
Eksperci są zgodni – problem polega na tym, że nie ma jednej prawdy. Osiągnięcie obiektywnych i neutralnych rezultatów jest niemożliwe, zwłaszcza w dzisiejszym świecie, gdzie nawet fakty są upolitycznione.
Jedno jest jednak pewne – o terminie „woke AI” z pewnością jeszcze usłyszymy w najbliższym czasie.