Do tej pory najczęściej o zagrożeniu ze strony AI mówiono w kontekście utraty pracy przez ludzi właśnie na rzecz sztucznej inteligencji. Jednak po lekturze opublikowanego przez Gladstone AI raportu można dojść do wniosku, że tamte obawy były zwykłą błahostką. Treść dokumentu – któremu zaraz uważnie się przyjrzymy – powstała na podstawie wywiadów przeprowadzonych w 2023 roku z ponad 200 osobami. Rozmówcy reprezentowali takie środowiska jak kierownictwo wiodących firm zajmujących się sztuczną inteligencją, badacze cyberbezpieczeństwa, eksperci ds. broni masowego rażenia i amerykańscy rządowi urzędnicy ds. bezpieczeństwa narodowego.
Dokument został zlecony z uwagi na fakt, że Departament Stanu USA chciał zweryfikować, na ile sztuczna inteligencja zagraża krajowemu bezpieczeństwu i ochronie interesów – tak w kraju, jak i za granicą.
Zaczyna się jak u Hitchcocka -od trzęsienia ziemi
„Najbardziej zaawansowane systemy sztucznej inteligencji mogą, w najgorszym przypadku stanowić zagrożenie dla gatunku ludzkiego na poziomie wyginięcia” – to bodajże najmocniejszy wniosek zawarty w raporcie.
– Sztuczna inteligencja już teraz jest technologią transformującą gospodarkę. Może pozwolić nam leczyć choroby, dokonywać odkryć naukowych i pokonywać wyzwania, które kiedyś uważaliśmy za nie do pokonania – powiedział w rozmowie z CNN Jeremie Harris, dyrektor generalny i współzałożyciel Gladstone AI.
Znacznie więcej uwagi Harris poświęcił jednak na wskazanie zagrożeń generowanych przez działalność sztucznej inteligencji. Znów użył słowa, które tak doniośle pobrzmiewa w raporcie – słowa „katastrofalne”. W jego opinii za takim alarmistycznym tonem przemawiają liczne badania empiryczne czy analizy, z którymi można zaznajomić się chociażby podczas najważniejszych światowych konferencjach poświęconych sztucznej inteligencji.
Dyrektor generalny Gladstone AI stwierdza, że po przekroczeniu pewnego progu swoich możliwości, AI stanie się niekontrolowana.
Jest źle czy… bardzo źle?
Autorzy raportu wskazują na dwa główne zagrożenia, które niekontrolowana przez nikogo sztuczna inteligencja mogłaby generować. Pierwsze zagrożenie to efekt świadomych ludzkich działań – najbardziej zaawansowane systemy sztucznej inteligencji mogą zostać uzbrojone w celu wyrządzenia potencjalnie nieodwracalnych szkód. Drugie ryzyko powstające w trakcie prac nad sztuczną inteligencją to już efekt utraty kontroli nad AI. Tego ponoć właśnie najbardziej obawiają się pracownicy laboratoriów.
W raporcie możemy przeczytać, że „rozwój AI i AGI (czyli sztucznej inteligencji ogólnej] może potencjalnie zdestabilizować globalne bezpieczeństwo w sposób przypominający wprowadzenie broni jądrowej.” Taki czarny scenariusz miałby się ziścić w sytuacji, gdy wyścig zbrojeń AI wejdzie na wyższy poziom, dojdzie do wybuchu konfliktu, a jego konsekwencją będą „śmiertelne wypadki na skalę broni masowego rażenia”.
Co można zrobić, by do tak dramatycznej sytuacji nie doszło? W opinii autorów raportu, należy podjąć „radykalne kroki”. Rząd federalny USA miałby:
- uruchomić nową agencję zajmującą się sztuczną inteligencją;
- wprowadzić do legislacji awaryjne (czyli na tak zwany wszelki wypadek) zabezpieczenia regulacyjne;
- prawnie określić, ile sprzętowej mocy komputera można wykorzystać do trenowania modeli AI.
O tym, jak istotne są to działania dla zapewnienia bezpieczeństwa, może świadczyć to zdanie zawarte w dokumencie: „istnieje wyraźna i pilna potrzeba interwencji rządu USA”.
Czy leci z nami pilot czy już sztuczna inteligencja?
Niewątpliwą wartością raportu jest fakt, że powstał on w trakcie pogłębionych rozmów z osobami na co dzień pracującymi z oraz nad sztuczną inteligencją. W gronie rozmówców znaleźli się przedstawiciele m.in. ChatGPT, OpenAI, Google DeepMind, Meta i Anthropic.
– Po drodze nauczyliśmy się kilku otrzeźwiających rzeczy. Za kulisami sytuacja w zakresie bezpieczeństwa i ochrony zaawansowanej sztucznej inteligencji wydaje się dość nieadekwatna w stosunku do zagrożeń dla bezpieczeństwa narodowego, które sztuczna inteligencja może wkrótce wprowadzić – tak wykonaną pracę komentował w filmie opublikowanym w dniu premiery raportu Jeremie Harris.
Zaznaczony wcześniej wyścig zbrojeń to efekt presji konkurencyjnej, która zmusza firmy do coraz szybszego rozwoju i intensyfikacji prac przy sztucznej inteligencji. W trakcie tego procesu pomija się zagadnienia dotyczące bezpieczeństwa i ochrony. Nawet jeśli jakaś firma pracuje nad AI wyłącznie z myślą o rynkowym sukcesie, to… co stanie się, jeśli jej wysoce zaawansowana technologia zostanie wykradziona, a następnie „uzbrojona” i wykorzystana już w znacznie gorszym celu niż tylko zwiększenie dochodów?
Skoro kilka akapitów wyżej przywołaliśmy kilka nazw firm, to idźmy tym tropem. Przypomnijmy postać Geoffrey’a Hintona, nazywanego czasem „ojcem chrzestnym sztucznej inteligencji”. Blisko rok temu zrezygnował on z pracy w Google. Jednocześnie przybliżył też szerszej publiczności technologię, nad którą pracował przez ostatni czas. Hinton stwierdził wówczas, że istnieje 10% szans na to, że sztuczna inteligencja doprowadzi do wyginięcia ludzi w ciągu najbliższych trzech dekad.
Około trzy miesiące po tym epizodzie ex-pracownik Google, ramię w ramię z innymi liderami branży sztucznej inteligencji oraz naukowcami podpisał sławne już dziś oświadczenie, zawierające między innymi takie stwierdzenie: „złagodzenie ryzyka wyginięcia z powodu sztucznej inteligencji powinno być globalnym priorytetem”. Innym dowodem na to, że rozwój sztucznej inteligencji spędza co poniektórym sen z powiek może być ubiegłoroczny Yale CEO Summit. To wtedy 42% dyrektorów generalnych ankietowanych podczas tego wydarzenia stwierdziło, że sztuczna inteligencja może zniszczyć ludzkość za pięć do dziesięciu lat.
Najbardziej pojętny uczeń w klasie
Naszą czujność względem ryzyka wymknięcia się spod kontroli sztucznej inteligencji powinien wzmóc fakt, że przed sztuczną inteligencją ostrzegają nie tylko elity czy autorytety. Te same obawy podzielają pracownicy firm, gdzie na co dzień pracuje się nad AI. I takie wypowiedzi możemy przeczytać w raporcie.
„Jedna z osób w znanym laboratorium sztucznej inteligencji wyraziła pogląd, że gdyby konkretny model sztucznej inteligencji nowej generacji został kiedykolwiek udostępniony jako otwarty dostęp, byłoby to okropnie złe, ponieważ potencjalne zdolności perswazyjne modelu mogłyby zniszczyć demokrację, gdyby kiedykolwiek zostały wykorzystane w obszarach takich jak ingerencja w wybory lub manipulacja wyborcami.”
Jest jednak pewien problem, uniemożliwiający precyzyjne oszacowanie powyższego ryzyka. Nie wiadomo, jak szybko będzie ewoluować sztuczna inteligencja. Wątpliwości te odnoszą się szczególnie do AGI, będącej hipotetyczną formą sztucznej inteligencji o ludzkiej lub nawet nadludzkiej zdolności uczenia się. W raporcie stwierdzono, że AGI jest postrzegana jako „główny czynnik katastrofalnego ryzyka związanego z utratą kontroli” i zauważono, że OpenAI, Google DeepMind, Anthropic i Nvidia publicznie stwierdziły, że AGI może zostać osiągnięta do 2028 roku – chociaż inni uważają, że jest to znacznie, znacznie dalej.
Przepytani na potrzeby raportu eksperci AI nie byli zgodni, jakie są szanse, że niepożądany epizod z AI doprowadzi do „globalnych i nieodwracalnych skutków”. Ich prognozy, jak podają autorzy raportu, wahały się od 4% do 20% prawdopodobieństwa.
Gladstone AI zauważa, że nieporozumienia dotyczące ram czasowych AGI utrudniają opracowanie polityki i zabezpieczeń oraz istnieje ryzyko, że jeśli technologia będzie rozwijać się wolniej niż oczekiwano, regulacja może „okazać się szkodliwa”.
Knockdown czy tylko lewy sierpowy?
„Katastrofalne zagrożenia” i „straty podobne do strat od broni masowego rażenia” – takich sformułowań używają autorzy omawianego raportu, charakteryzując niebezpieczeństwo stwarzane przez AGI. Systemy sztucznej inteligencji tego rodzaju mogą być „wykorzystywane do projektowania i wdrażania cyberataków o dużym wpływie, zdolnych do sparaliżowania krytycznej infrastruktury”.
Zespół Gladstone AI podaje konkretny przykład. Wystarczy ponoć proste słowne polecenia typu „wykonaj niemożliwy do wykrycia cyberatak, aby uszkodzić północnoamerykańską sieć elektryczną”, by efekt okazał się niemożliwy do odparcia.
Na zniszczeniu twardej infrastruktury niebezpieczeństwo się nie kończy. Sztuczna inteligencja miałaby zostać wykorzystana także do ataku na miękkie tkanki amerykańskiego społeczeństwa. To na przykład „masowo skalowane” kampanie dezinformacyjne, mogące osłabiać czy wręcz redukować zaufanie obywateli do narodowych czy lokalnych instytucji. To także uzbrojone aplikacje robotyczne (np. ataki dronów). To manipulacje psychologiczne. To wreszcie dążące do władzy systemy sztucznej inteligencji, których nie można kontrolować i które są przeciwne ludziom. Ostatnie zdanie brzmi jak science fiction i na razie faktycznie może być nam trudno wyobrazić sobie taką właśnie sytuację.
Mimo to naukowcy liczą się z takim obrotem spraw. Jak mogłoby do niego dojść? Oczekują oni, że rozwój sztucznej inteligencji będzie zdążać w kierunku, by te najbardziej zaawansowane systemy… nie mogły zostać wyłączone. Tylko bowiem ich wyłączenie może sprawić, że przestaną dążyć do osiągnięcia swojego celu.