Spór między Pentagonem a Anthropic, a potem wejście OpenAI w podobny obszar współpracy, pokazują coś więcej niż kolejną odsłonę rywalizacji wielkich laboratoriów AI. To w istocie test nowego modelu relacji między państwem a dostawcą modeli językowych: kto wyznacza granice użycia, kto ponosi odpowiedzialność i czy prywatna firma może negocjować warunki wykorzystania swojej technologii przez wojsko. Anthropic publicznie wskazał dwa „czerwone światła” — masową inwigilację obywateli i w pełni autonomiczne systemy uzbrojenia — a po fiasku rozmów został przez Pentagon formalnie uznany za „supply chain risk”. OpenAI odpowiedział, że podziela te same dwa ograniczenia, a dodatkowo dopisuje trzecie: zautomatyzowane podejmowanie decyzji o wysokiej stawce.
Nie „czy”, a „kiedy” i „jak”
Z polskiej perspektywy to nie jest egzotyczny amerykański teatr. Ministerstwo Obrony Narodowej już przyjęło „Resortową strategię sztucznej inteligencji do roku 2039”, uznając implementację AI za jeden z głównych priorytetów rozwoju Sił Zbrojnych RP, a w 2025 r. powołało Centrum Implementacji Sztucznej Inteligencji w ramach Wojsk Obrony Cyberprzestrzeni. Równolegle resort obrony podpisał porozumienie o współpracy z Microsoftem oraz list intencyjny z Palantirem, dotyczący innowacji w obronności. Innymi słowy: Polska nie stoi przed pytaniem, czy obronność ma wejść w AI, tylko jak ma to zrobić.
Czytaj także: Polskie korzenie, europejska obronność, globalny zasięg: poznaj szczegóły funduszu Future Tech Poland
Dlatego warto postawić pytanie wprost: czy polskie MON mogłoby nawiązać podobną współpracę z firmą tworzącą modele LLM? Tak — i w sensie strategicznym byłoby to racjonalne. Ale pod jednym warunkiem: taka współpraca nie może być zakupem „czarnej skrzynki”, tylko budową kontrolowanej zdolności państwa. Polska ma już instytucjonalne podstawy, by taki projekt uruchomić, a ekosystem modeli językowych nie musi oznaczać wyłącznie partnerstwa z amerykańskim frontier labem. Na rynku istnieją także modele rozwijane bliżej polskiego kontekstu językowego i wdrożeniowego, jak choćby Bielik, udostępniany do lokalnej instalacji on-premise i pozycjonowany jako polski „sovereign language model”.
Po co polskiemu wojsku LLM?
Nie po to, by model „dowodził”, lecz by skracał czas pracy sztabowej i analitycznej. Najbardziej sensowne zastosowania są dziś mało widowiskowe, ale bardzo praktyczne: przeszukiwanie i streszczanie dokumentacji, tłumaczenia i standaryzacja komunikacji wielojęzycznej, analiza raportów i lesson learned, wsparcie OSINT, praca na procedurach logistycznych, technicznych i serwisowych, a także odciążenie cyberobrony i analityki zagrożeń. Zarówno NATO, jak i amerykański Departament Obrony od lat opisują AI przede wszystkim jako technologię wspierającą przewagę informacyjną, szybkość analizy i jakość decyzji, nie tylko jako element systemów kinetycznych.
Czytaj także: „Aby być liderem NATO, nie wystarczy kupować czołgów” – polskie MON formalizuje współpracę z Palantir Technologies
To zresztą ważna lekcja z amerykańskiego sporu. Największa kontrowersja nie dotyczyła samego faktu, że model trafia do obronności, ale tego, czy prywatna firma ma zgodzić się na każde „lawful use” deklarowane przez państwo, nawet jeśli uważa pewne scenariusze za zbyt ryzykowne technologicznie lub politycznie. Anthropic utrzymywał, że nie kwestionuje decyzji wojskowych jako takich, ale nie chce dopuścić użycia obecnych modeli do masowej inwigilacji obywateli i w pełni autonomicznych systemów uzbrojenia. Pentagon uznał to za niedopuszczalne ograniczenie kontraktowe. TechCrunch trafnie zauważył, że to bardzo publiczny, nietypowy konflikt, bo AI przeniosło debatę z obszaru „dostaw dla obronności” do obszaru „uczestnictwa w użyciu siły”.
Najpierw do koszar, nie na front
W Polsce taka współpraca miałaby sens tylko wtedy, gdyby od początku była oparta na ściśle zdefiniowanym katalogu zastosowań. Pierwszy etap nie powinien obejmować żadnych funkcji związanych z autonomicznym użyciem siły, targetowaniem czy automatycznym podejmowaniem decyzji operacyjnych. Dużo rozsądniej zacząć od zastosowań „back office for defense”: dokumenty, logistyka, cyber, utrzymanie sprzętu, analiza otwartych źródeł, wsparcie szkolenia i symulacji. Takie podejście jest zgodne zarówno z duchem strategii MON, która mówi o odpowiedzialnym i skalowalnym wdrożeniu AI, jak i z zasadami NATO dotyczącymi odpowiedzialnego użycia AI w obronności: legalności, odpowiedzialności i rozliczalności, wyjaśnialności i śledzalności, niezawodności, sterowalności oraz ograniczania uprzedzeń.
Drugi warunek to suwerenność techniczna i danych. Jeśli model ma pracować na materiałach wrażliwych, musi być możliwy do uruchomienia w środowisku kontrolowanym przez państwo lub wykonawcę działającego według wojskowych standardów bezpieczeństwa. Nie chodzi wyłącznie o klasyfikację informacji, ale o pełny łańcuch zależności: gdzie działa model, kto ma dostęp do logów, jak wygląda aktualizacja wag, kto wykonuje red teaming, jak długo dostawca utrzymuje wersję systemu i czy państwo ma plan migracji do innego dostawcy. W praktyce oznacza to preferencję dla architektury on-premise albo co najmniej sovereign cloud, z prawem do audytu, testów penetracyjnych i wymagalnym planem wyjścia z kontraktu. Sam fakt, że MON buduje Centrum Implementacji AI, a wcześniej podpisał porozumienia z Microsoftem i Palantirem, pokazuje, że taka infrastrukturalna logika partnerstw jest już w Polsce obecna.
Czytaj także: Cyberarmia 2039. Polska stawia na sztuczną inteligencję
Trzeci warunek jest prawny i etyczny: polskie czerwone linie musiałyby być zapisane ex ante, a nie zostawione do późniejszej interpretacji. Paradoks AI Act polega na tym, że systemy używane wyłącznie do celów wojskowych, obronnych i bezpieczeństwa narodowego są co do zasady wyłączone z zakresu unijnej regulacji; jeśli jednak ten sam system trafia także do zastosowań cywilnych lub policyjnych, wraca do reżimu unijnego. To oznacza, że w obronności nie wystarczy powiedzieć „regulacja tego nie obejmuje”. Przeciwnie: właśnie dlatego potrzebne są własne, twarde zasady kontraktowe i nadzorcze.
Podwyższony rygor
Co mogłoby wejść do takiej listy? Po pierwsze, zakaz wykorzystania modelu do masowej inwigilacji obywateli. Po drugie, zakaz samodzielnego generowania rekomendacji o użyciu śmiercionośnej siły bez znaczącej kontroli człowieka. Po trzecie, obowiązek pełnego logowania interakcji, wersjonowania modelu i możliwości forensycznej rekonstrukcji działania systemu. Po czwarte, wymóg okresowych ewaluacji jakości na polskich danych i w polskim kontekście językowym. Po piąte, zakaz trenowania modelu na danych wojskowych bez wyraźnej zgody państwa. Po szóste, jasna odpowiedzialność dostawcy za bezpieczeństwo aktualizacji i zarządzanie podatnościami. Takie warunki są spójne nie tylko z praktycznym interesem państwa, ale też z publicznie deklarowanymi zasadami NATO i amerykańskiego DoD dotyczącymi odpowiedzialnego użycia AI.
Korzyści z dobrze ustawionej współpracy mogłyby być realne. Najbardziej oczywista to wzrost tempa pracy analitycznej i sztabowej: mniej czasu na manualne przeglądanie dokumentów, szybsze łączenie źródeł, lepsze wsparcie dla dowódców i specjalistów. Druga korzyść to budowa kompetencji państwa, a nie tylko zakup usługi. Jeśli kontrakt zawiera komponent transferu know-how, red teamingu, wspólnych benchmarków i szkolenia kadr, MON nie kupuje jednorazowego narzędzia, lecz buduje długofalową zdolność. Trzecia korzyść jest przemysłowa: dobrze skonstruowane partnerstwo mogłoby wciągnąć do łańcucha wartości polskie uczelnie, zespoły badawcze i firmy pracujące nad modelami językowymi, cyberbezpieczeństwem czy guardrails. Polski kontekst językowy nie jest detalem — w wojsku precyzja terminologii, zgodność z procedurą i interpretacja skrótów czy rozkazów bywają krytyczne, a modele trenowane głównie po polsku, jak Bielik, mają tu naturalny atut.
Czytaj także: Czy startupom i inwestorom potrzebny jest fundusz SAFE? Eksperckie komentarze: Krzysztof Borowicz, Paweł Michalski, Max Moldenhauer, Szymon Struszyński, Mateusz Bodio
Nie wejść na minę
Największe ryzyko nie polega dziś jednak na tym, że polskie MON „wejdzie za mocno” w LLM-y. Większym ryzykiem byłoby wejście źle zaprojektowane: z jednym dostawcą, bez audytu, bez architektury wyjścia, bez własnych benchmarków i bez jasnych granic użycia. Amerykański przykład pokazuje, że konflikt nie zaczyna się w chwili wdrożenia modelu, tylko dużo wcześniej — na etapie odpowiedzi na pytanie, kto ostatecznie ustala zasady gry. Anthropic próbował postawić dwie czerwone linie i zapłacił za to wysoką cenę polityczną; OpenAI uznał podobne granice, ale twierdzi, że da się je zabezpieczyć kontraktowo i technicznie. Polska, obserwując ten spór, ma luksus uczenia się na cudzym konflikcie.
Wniosek jest prosty: tak, polskie Ministerstwo Obrony mogłoby i zapewne powinno współpracować z firmą tworzącą LLM-y. Ale pierwszym celem nie powinno być „wojskowe ChatGPT”, tylko bezpieczna, suwerenna i rozliczalna warstwa językowa dla obronności — zbudowana wokół danych, procedur, audytu i człowieka pozostającego w pętli decyzyjnej. W obronności największą wartością AI nie jest dziś automatyzacja strzału. Jest nią przewaga poznawcza. A tę można budować tylko wtedy, gdy państwo nie oddaje kontroli nad modelem razem z fakturą.