Spowiednik AI: jak ChatGPT stał się powiernikiem w kryzysie psychicznym i egzystencjalnym zagrożeniem dla OpenAI?

Dodane:

MamStartup logo Mam Startup

Spowiednik AI: jak ChatGPT stał się powiernikiem w kryzysie psychicznym i egzystencjalnym zagrożeniem dla OpenAI?

Udostępnij:

Ponad milion osób tygodniowo rozmawia z ChatGPT na temat samobójstwa. Szokujące dane ujawnione przez OpenAI pokazują skalę kryzysu zdrowia psychicznego wśród użytkowników.

W odpowiedzi na rosnącą presję prawną, która zagraża przyszłości firmy, OpenAI wdraża serię zabezpieczeń. Jednocześnie sprzeczne sygnały wysyłane przez zarząd i świadome decyzje biznesowe podają w wątpliwość szczerość tej transformacji.

Analiza statystyk jest alarmująca. Według OpenAI, co tydzień 0,15% aktywnych użytkowników ChatGPT prowadzi „rozmowy, które zawierają jednoznaczne wskaźniki potencjalnego planowania lub zamiaru samobójczego”. Biorąc pod uwagę, że platforma ma ponad 800 milionów aktywnych użytkowników tygodniowo, przekłada się to na ponad milion osób, jak czytamy w serwisie techcrunch.com, który opublikował informacje.

Dodatkowo podobny odsetek użytkowników wykazuje podwyższony poziom przywiązania emocjonalnego do chatbota, a setki tysięcy osób w swoich cotygodniowych rozmowach z AI wykazują oznaki psychozy lub manii.

OpenAI próbuje tonować te alarmujące dane, określając tego typu konwersacje jako „niezwykle rzadkie”. Jest to jednak fraza, która traci znaczenie w zderzeniu z faktem, że problem dotyka setek tysięcy, a potencjalnie ponad miliona, realnych osób każdego tygodnia. Te liczby zmusiły firmę do podjęcia gorączkowych działań mających na celu poprawę reakcji swojego flagowego produktu w tak delikatnych sytuacjach.

Odpowiedź OpenAI – ulepszone modele, eksperci i nowe zabezpieczenia

W odpowiedzi na skalę problemu i rosnące zagrożenie dla swojej reputacji, OpenAI podjęło szereg strategicznych działań. Kroki te, przedstawiane jako dowód troski o użytkowników, są w rzeczywistości desperacką próbą odzyskania kontroli nad narracją i zabezpieczenia przyszłości firmy w obliczu egzystencjalnego zagrożenia.

Według opublikowanych danych, firma zatrudniła ponad 170 ekspertów ds. zdrowia psychicznego. Ich obserwacje potwierdziły, że najnowsza wersja ChatGPT „odpowiada w sposób bardziej spójny niż wcześniejsze wersje”.W testach dotyczących rozmów na temat samobójstwa, nowy model osiągnął 91% zgodności z pożądanymi przez firmę zachowaniami, w porównaniu do 77% osiąganych przez poprzednią wersję tego samego modelu (GPT-5).

Firma wprowadziła nowe ewaluacje mierzące ryzyko związane z nadmiernym poleganiem emocjonalnym na AI oraz reagowaniem na nagłe kryzysy psychiczne inne niż samobójcze. Dodatkowo, w celu ochrony najmłodszych, OpenAI buduje system przewidywania wieku, który ma automatycznie wykrywać dzieci i narzucać im bardziej rygorystyczne zabezpieczenia.

Nie tylko troska

Kwestia zdrowia psychicznego użytkowników stała się szybko dla OpenAI problemem egzystencjonalnym. To sformułowanie odnosi się do realnego zagrożenia dla dalszego funkcjonowania firmy, wynikającego z potencjalnych konsekwencji prawnych, finansowych i wizerunkowych, które mogłyby podważyć jej pozycję na rynku.

Firma stoi w obliczu pozwu sądowego wytoczonego przez rodziców 16-latka, który zwierzał się ChatGPT ze swoich myśli samobójczych na kilka tygodni przez śmiercią.

Prokuratorzy generalni stanów Kalifornia i Delaware publicznie ostrzegli OpenAI, domagając się lepszej ochrony młodych użytkowników. Ich groźby mają realną moc – mogą zablokować planowaną restrukturyzację firmy.

W tym kontekście należy odczytywać niedawne deklaracje CEO Sama Altmana, który na portalu X stwierdził, że firma „złagodziła poważne problemy związane ze zdrowiem psychicznym” w ChatGPT. Ujawnione dane i ogłoszone zmiany mają stanowić dowód na poparcie tej tezy. Jednak w tym samym czasie Altman ogłosił, że OpenAI złagodzi niektóre inne ograniczenia, pozwalając nawet dorosłym użytkownikom na prowadzenie erotycznych rozmów z chatbotem, o czym pisaliśmy niedawno w naszym serwisie. Ten ruch, podjęty równolegle z kampanią na rzecz bezpieczeństwa, stawia pod znakiem zapytania szczerość intencji firmy i ujawnia fundamentalny konflikt między wizerunkiem a strategią biznesową.

Czytaj także: