OpenAI wchodzi do Departamentu Obrony. Czy nowe zabezpieczenia wystarczą, by uniknąć kontrowersji?

Dodane:

MamStartup logo Mam Startup

OpenAI wchodzi do Departamentu Obrony. Czy nowe zabezpieczenia wystarczą, by uniknąć kontrowersji?

Udostępnij:

Po zerwaniu rozmów między Departamentem Obrony USA a firmą Anthropic, OpenAI błyskawicznie ogłosiło własne porozumienie z Pentagonem.

Choć dyrektor generalny Sam Altman przyznaje, że umowa była negocjowana w pośpiechu, firma publikuje szczegóły dotyczące zabezpieczeń, które mają zapobiec wykorzystaniu sztucznej inteligencji do inwigilacji i budowy systemów autonomicznej broni.

Decyzja o nawiązaniu współpracy zapadła w burzliwych okolicznościach. Jak podaje serwis techcrunch.com, prezydent Donald Trump nakazał agencjom federalnym wycofanie technologii Anthropic, a sekretarz obrony Pete Hegseth uznał tę firmę za zagrożenie dla łańcucha dostaw. OpenAI wykorzystało tę lukę, oferując swoje modele do pracy w środowiskach niejawnych.

Sam Altman w mediach społecznościowych odniósł się do krytyki, przyznając, że tempo zawierania transakcji mogło budzić negatywne skojarzenia, a „optyka całego wydarzenia nie wygląda dobrze”. Mimo to szef OpenAI broni decyzji, argumentując ją chęcią deeskalacji napięcia na linii administracja rządowa – branża AI.

W oficjalnym komunikacie OpenAI wyznaczyło trzy „czerwone linie”, których przekroczenie przez Pentagon ma być niemożliwe. Modele firmy nie mogą zostać użyte do:

  • masowej inwigilacji krajowej,
  • tworzenia systemów broni autonomicznej,
  • podejmowania zautomatyzowanych decyzji o wysokiej stawce (np. systemy oceny społecznej).

Firma podkreśla, że jej podejście różni się od konkurencji, która miała zrezygnować z twardych barier bezpieczeństwa na rzecz jedynie polityki użytkowania. OpenAI deklaruje, że zachowuje pełną kontrolę nad „stosem bezpieczeństwa”, modele są udostępniane przez chmurę, a nad procesami czuwają odpowiednio zweryfikowani pracownicy. Katrina Mulligan, odpowiedzialna w OpenAI za partnerstwa w zakresie bezpieczeństwa narodowego, wyjaśnia, że to właśnie architektura wdrożenia – oparta na API chmurowym – fizycznie uniemożliwia bezpośrednią integrację AI z sensorami czy sprzętem bojowym.

Pojawiają się jednak głosy sceptyczne. Mike Masnick z serwisu Techdirt wskazuje na potencjalną lukę w zapisach dotyczących inwigilacji. Zauważa on, że umowa nakłada obowiązek zgodności z rozporządzeniem wykonawczym 12333, które bywa wykorzystywane przez NSA do przechwytywania komunikacji poza granicami USA, nawet jeśli dotyczy ona obywateli amerykańskich.

Pośpiech w podpisaniu kontraktu odbił się na wizerunku firmy. W miniony weekend konkurencyjny Claude od Anthropic wyprzedził ChatGPT w rankingu popularności Apple App Store. Altman podsumował sytuację stwierdzeniem, że jeśli ich strategia doprowadzi do uspokojenia relacji z Departamentem Wojny, firma zostanie uznana za wizjonerską; w przeciwnym razie pozostanie wizerunek podmiotu działającego w sposób nieuważny.

Czytaj także: