Stanowisko Muska: „Nie byłem świadomy”
W swoim wpisie na platformie X, Musk kategorycznie zaprzeczył, jakoby miał wiedzę o istnieniu takich materiałów wygenerowanych przez jego narzędzie. „Nie jestem świadomy jakichkolwiek nagich zdjęć nieletnich wygenerowanych przez Groka. Dosłownie zero” – napisał miliarder.
I not aware of any naked underage images generated by Grok. Literally zero.
Obviously, Grok does not spontaneously generate images, it does so only according to user requests.
When asked to generate images, it will refuse to produce anything illegal, as the operating principle… https://t.co/YBoqo7ZmEj
— Elon Musk (@elonmusk) January 14, 2026
Dodał również, że Grok jest zaprogramowany tak, aby odrzucać nielegalne prośby użytkowników i musi przestrzegać prawa krajowego oraz stanowego. Musk podkreślił, że AI nie generuje obrazów „spontanicznie”, a jedynie w odpowiedzi na konkretne polecenia (prompty), sugerując, że odpowiedzialność za finalny produkt spoczywa na użytkowniku.
Czytaj także: „Media kłamią”, a Grok rozbiera kobiety. Czy AI od Muska stała się narzędziem globalnej przemocy?
Globalna fala krytyki i blokady
Deklaracja Muska pojawia się w momencie krytycznym dla xAI. Jak informuje agencja Reuters oraz liczne serwisy technologiczne, w ostatnich tygodniach Grok znalazł się pod ostrzałem organów regulacyjnych na całym świecie:
- Indonezja i Malezja: jako pierwsze kraje na świecie oficjalnie zablokowały dostęp do Groka, argumentując, że narzędzie to stało się „maszyną do cyfrowej przemocy”, umożliwiającą tzw. undressing (cyfrowe rozbieranie) kobiet i dzieci.
- Wielka Brytania i USA: brytyjski regulator Ofcom oraz prokurator generalny Kalifornii, Rob Bonta, wszczęli oficjalne dochodzenia. Bonta określił doniesienia o materiałach seksualnych z udziałem dzieci jako „szokujące” i wezwał xAI do natychmiastowego uszczelnienia filtrów.
- Presja na Apple i Google: koalicja blisko 30 organizacji zajmujących się ochroną dzieci wezwała gigantów technologicznych do usunięcia aplikacji X z ich sklepów (App Store i Play Store), jeśli problem nie zostanie rozwiązany.
Reakcja xAI: Technologiczny „mur” i paywall
Mimo zapewnień Muska o braku incydentów, firma xAI podjęła kroki mające na celu ukrócenie procederu:
- ograniczenia dla subskrybentów: funkcje edycji i generowania obrazów zostały niemal w całości przesunięte za „paywall” (dostępne tylko dla płatnych użytkowników Premium), co ma ułatwić identyfikację osób nadużywających narzędzia.
- blokada fraz: wprowadzono nowe zabezpieczenia technologiczne, które mają uniemożliwiać Grokowi modyfikowanie zdjęć realnych osób w kierunku „skąpego ubioru” (np. bikini czy bielizny).
- geoblocking: w jurysdykcjach, gdzie generowanie takich treści jest surowo karane, dostęp do pewnych funkcji edycyjnych został całkowicie odcięty.
Czytaj także: xAI zbiera fundusze na Grok 5 i walkę z konkurencją. Startup Muska pozyskał 20 miliardów USD
Socjologiczny wymiar sporu
Sprawa Groka to nie tylko problem techniczny, ale debata o odpowiedzialności projektanta. Krytycy, w tym ekspertka Maja Staśko czy badacze z Oxfordu, wskazują, że „obwinianie użytkownika” (analogia do pióra, które samo nie pisze, przywołana przez współpracowników Muska) jest w przypadku AI nieuzasadnione. Algorytm, w przeciwieństwie do pióra, posiada wbudowaną bazę wiedzy, która – jeśli nie jest odpowiednio moderowana – staje się współuczestnikiem aktu przemocy.
Prawo powinno się tym zająć – i karać zarówno człowieka, który wydaje polecenie rozebrania kogoś innego sztucznej inteligencji, jak i właściciela programu, który na to pozwala.
— Maja Staśko 💙💛 (@majakstasko) January 1, 2026
Elon Musk, deklarując „zero świadomości” o nadużyciach, próbuje chronić xAI przed gigantycznymi karami finansowymi i potencjalnym wykluczeniem z globalnych ekosystemów mobilnych. Jednak dowody przedstawiane przez organizacje watchdogowe wskazują, że „bezpieczniki” Groka okazały się zbyt słabe w starciu z kreatywnością złośliwych użytkowników.