Dostęp do treści erotycznych w ChacieGPT
Sam Altman, dyrektor generalny OpenAI, zapowiedział chęć złagodzenia zasad bezpieczeństwa wprowadzonych do firmowego chatbota. Ograniczenia te miały chronić osoby zmagające się z problemami psychicznymi, jednak – jak twierdzi Altman – mogły sprawić, że ChatGPT stał się „mniej użyteczny i przyjemny dla wielu użytkowników”, których ten problem nie dotyczy.
CEO OpenAI we wpisie w portalu X napisał, że już w grudniu zmiany wejdą w życie, a co za tym idzie – „będziemy zezwalać na jeszcze więcej treści, na przykład erotykę, tylko dla zweryfikowanych osób dorosłych”.
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.
Now that we have…
— Sam Altman (@sama) October 14, 2025
Problemy rozwiązane?
Jak zauważa portal TechCrunch, OpenAI dość szybko ogłosił „zwycięstwo” w walce z niektórymi problemami związanymi z ChatemGPT i relacjami, jakie użytkownicy nawiązywali z chatbotem.
W tym roku bowiem pojawiło się wiele doniesień na temat modelu GPT-4o, który miał wciągać bardziej podatnych na sugestie internautów „w błędne koło urojeń”. Raz podobno ChatGPT przekonywał mężczyznę, że jest geniuszem matematyki, który musi uratować świat, innym razem podsycał myśli samobójcze pewnego chłopca, w tygodniach poprzedzających jego śmierć – pisze TechCrunch.
W odpowiedzi na to, OpenAI wprowadziło szereg funkcji bezpieczeństwa, w tym np. system przewidywania wieku, a także zaprezentowało nowy model GPT-5, który rzekomo potrafi identyfikować niepokojące zachowania użytkowników. Lecz mimo, że wersja GPT-4o nie jest już domyślnym modelem w ChacieGPT, TechCrunch pisze, że jest ona wciąż dostępna i używana przez tysiące osób.
Z kolei sam system przewidywania wieku budzi mieszane uczucia. Jeśli ChatGPT błędnie oznaczy osobę dorosłą jako nieletnią, użytkownicy mogą zostać zmuszeni do przesłania zdjęcia swojego dokumentu tożsamości. Sam Altman doskonale zdaje sobie sprawę, że stanowi to naruszenie prywatności, jednak – jak napisał we wpisie na blogu OpenAI – uważa to za „warty kompromis”.
Walka o użytkowników
Choć OpenAI przekonuje, że zniesienie niektórych ograniczeń ma związek z rozwiązaniem problemów dotyczących bezpieczeństwa, może chodzić o coś jeszcze – o pozyskanie nowych internautów. Jak zauważa TechCrunch, firma Character.AI zyskała dziesiątki milionów nowych użytkowników, po tym jak umożliwiła internautom nawiązywanie romantycznych lub erotycznych relacji z ich chatbotem.
A przecież nie jest to żadną tajemnicą, że OpenAI codziennie rywalizuje o użytkowników z innymi korporacjami rozwijającymi technologie sztucznej inteligencji, takimi jak Google czy Meta. Oprócz tego, firma pozyskała miliardy dolarów na rozbudowę swojej infrastruktury, a inwestycja ta musi się w końcu zwrócić.