Z jednej strony — to może być bardzo dobra wiadomość. Polska, jak wiele innych krajów, stoi przed wyzwaniem: ogromne AI-koncerny zagarniają talent, infrastrukturę i wpływ. Inicjatywa Suwerennego LLM-a ma szansę podnieść naszą cyfrową i technologiczną samodzielność. Z drugiej — sama obecność potężnego biznesu może stać w prostym konflikcie z deklarowaną niezależnością modelu. I to rodzi pytania, zamiast przynosić pewność.
Plusy wsparcia: kapitał, know-how, infrastruktura
Realny zastrzyk zasobów
Budowa, trenowanie i utrzymanie LLM-a to gigantyczne koszty — zarówno finansowe, jak i infrastrukturalne. W świecie największych graczy prywatne inwestycje od funduszy, korporacji czy billionerów są normą. Dla przykładu: firmy takie jak OpenAI lub Anthropic pozyskują miliardy dolarów od partnerów, by zapewnić sobie moc obliczeniową i przewagę w wyścigu AI.
W tym świetle prywatna inicjatywa w Polsce z dużym kapitałem to często jedyny realny sposób, by myśleć o LLM-ie na poważnie.
Suwerenność technologiczna i lokalny kontekst
Bielik AI — jeśli zostanie zbudowany dobrze — może odpowiadać na polskie potrzeby: język, kulturę, kontekst prawny, specyfikę lokalnych wyzwań. To przewaga nad „globalnymi” LLM-ami, które często ignorują niuanse lokalnych rynków. Wsparcie biznesu może przyspieszyć ten proces, zapewnić środki i stabilność.
Możliwość szybkiej adaptacji i realnej komercjalizacji
Z biznesowym zapleczem projekt ma większą szansę przejść od akademicko-badawczego laboratorium do realnych zastosowań — w firmach, administracji, sektorze usług. To mogłoby przyczynić się nie tylko do rozwoju AI w Polsce, lecz też do realnej wartości ekonomicznej i społecznej.
Ryzyka: niezależność, obiektywność i „industrial capture”
Czy „niezależność” nie jest fikcją?
Kiedy LLM wspiera ktoś, kto ma swoje interesy — w logistyce, e-commerce, mediach czy innej branży — pojawia się pytanie o to, czy model pozostanie rzeczywiście neutralny. Czy z czasem nie stanie się narzędziem, które, świadomie lub nie, będzie faworyzować określone narracje, interesy lub grupy? Własność i finansowanie to potężna dźwignia — i niełatwo jest zagwarantować, że zostanie ona wykorzystana jedynie do „dobra wspólnego”.
Transparentność i kontrola — trudne do zapewnienia
W świecie LLM-ów istnie wyraźny podział pomiędzy modelami otwartymi (open-source) a zamkniętymi, chronionymi przez korporacje. Otwarte modele (jak np. LLaMA 2, Falcon czy BLOOM) umożliwiają społeczności dostęp do kodu, wag i badanie zachowań systemu — co sprzyja transparentności i krytyce. Z kolei LLM-y finansowane prywatnie często pozostają zamknięte — co ogranicza możliwość niezależnej weryfikacji ich działania, danych treningowych czy ewentualnych biasów. Czy Bielik pójdzie w stronę pełnej otwartości? Czy raczej zostanie zamkniętym „produktem korporacyjnym”?
Czy Polska powinna polegać na kolejnych miliarderach?
To pytanie, które zyskuje na znaczeniu w świetle ostatnich dekad: koncentracja kapitału — także w technologii — często prowadzi do nierówności, monopoli i dominacji kilku graczy, co ogranicza pluralizm i różnorodność. Czy projekt tak ważny jak „suwerenne AI” nasz kraj powinien powierzać w ręce względnie wąskiej grupy finansujących? Czy to nie budzi obaw o centralizację władzy nad wiedzą i technologią?
Czy to nowy polski rozdział — czy powtórka znanych zagranicznych schematów? Porównania międzynarodowe
Warto spojrzeć na inne instytucje i kraje. Wiele narodowych lub regionalnych LLM-ów powstaje w modelach hybrydowych: rząd + sektor prywatny + instytuty badawcze. Taka mieszanka pozwala łączyć niezależność z zasobami. Z drugiej strony duże, prywatne firmy prowadzą rozwój LLM-ów — i robią to z ogromnym rozmachem. Przykładem jest choćby intensywna ekspansja startupów AI w Chinach (firmy jak Sarvam AI czy chińskie firmy finansowane przez fundusze hedgingowe).
A co z postacią, która może być odpowiednikiem Brzoski z globalnej sceny? Elon Musk (tak, wiemy, toutes proportions gardées…) również znany jest z wielkiego biznesu i inwestycji w AI. W ramach swojej firmy xAI stawia na budowę własnych modeli, jak chatbot Grok czy inne projekty AI. Musk deklaruje często, że chce promować „wolne” i alternatywne podejście do big techu — ale jednocześnie to on sam — z kapitałem, wizją i wpływami — dyktuje warunki.
Czytaj także: Grokipedia kontra Wikipedia, Musk kontra reszta świata: bitwa o ego i wstydliwe części ciała
To pokazuje: nawet gdy intencje są „czyste”, to struktura finansowania i własności może determinować kierunek rozwoju, kulturę zarządzania modelem i warunki jego użycia.
Czy „suwerenne AI” ma sens?
Powyższe metapytanie musi zostać poprzedzone odpowiedziami na pytania mniejsze, ale równie istotne. Bo dopiero wtedy z tej chaotycznej układanki budowanej na narodowo-patriotycznym uniesieniu, może wyłonić się nam jakiś sensowny obraz większej całości.
Czy Bielik AI rzeczywiście pozostanie neutralny, niezależny i transparentny, mimo że jego główni sponsorzy to duże korporacje i osoby z kapitałem?
Jak będzie wyglądać struktura własności, zarządzania i dostępu do modelu? Czy publiczność, niezależni badacze, instytucje akademickie będą miały realny wgląd?
Czy projekt zakłada model otwarty (open-source), czy raczej będzie zamknięty, komercyjny? Co bardziej służy suwerenności technologicznej — zamknięty produkt kontrolowany lokalnie, czy otwarty model, dostępny globalnie i transparentny?
Czy kapitał prywatny jest w długim terminie gwarantem stabilności i odpowiedzialności — czy może raczej kolejnym źródłem koncentracji władzy nad wiedzą i technologią?
Wreszcie: czy model finansowany i promowany przez jednego przedsiębiorcę może reprezentować interes ogółu — obywateli, użytkowników, konsumentów informacji — czy raczej interesy tych, którzy ten kapitał włożyli?
Zaangażowanie Rafała Brzoski w budowę Bielik AI to z jednej strony realna szansa: kapitał, zasoby, know-how, szybkość działania. W świecie, w którym AI stała się kluczowym czynnikiem wpływu na gospodarkę, kulturę i politykę — to może być istotny krok w stronę suwerenności technologicznej. Ale — czy ten krok nie prowadzi nas automatycznie w stronę kolejnej dominacji prywatnego kapitału nad kluczową infrastrukturą wiedzy? Czy neutralność i niezależność mogą przetrwać, jeśli kontrola nad modelem zostanie w rękach nielicznych?
Proponuję: przyglądajmy się temu uważnie. Z entuzjazmem, ale również — z rezerwą. Bo to, co dziś nazywamy „suwerennym AI”, może jutro być czymś zupełnie innym. A nasze pytania — dziś — mogą okazać się kluczowe.