Władza przygląda się sztucznej inteligencji: ważne inicjatywy w Polsce i w USA dotyczące AI

Dodane:

Przemysław Zieliński Przemysław Zieliński

Władza przygląda się sztucznej inteligencji: ważne inicjatywy w Polsce i w USA dotyczące AI

Udostępnij:

Polski rząd powołał właśnie złożony z ekspertów zespół doradczy PL/AI Sztuczna inteligencja dla Polski. Ma on opracować propozycje rozwiązań i narzędzi, służących skutecznemu wykorzystaniu AI. Administracja Joe Bidena w ramach Defense Production Act będzie wymagać od firm każdorazowej informacji o rozwijaniu nowego, fundamentalnego modelu AI i prezentowanie wyników badań dotyczących jego możliwości.

Przyspieszyć technologiczną rewolucję

Wicepremier i Minister Cyfryzacji Krzysztof Gawkowski powołał zespół doradczy PL/AI Sztuczna inteligencja dla Polski, który będzie opracowywał rekomendacje wykorzystania AI dla usprawnienia konkretnych obszarów działania państwa. W skład zespołu wejdą naukowcy, przedsiębiorcy i programiści, którzy odnieśli sukcesy w obszarze AI. Zespół będzie na stałe doradzać Ministerstwu Cyfryzacji. Pomysłodawcą PL/AI jest Miron Mironiuk (założyciel i CEO Cosmose AI), do zespołu dołączyli także: Agnieszka Mikołajczyk-Bareła, Kamila Staryga, Marek Cygan, Tomasz Czajka, Łukasz Kidziński i Karol Kurach.

Jak poinformowano na konferencji prasowej w poniedziałek 29 stycznia, zdecydowali się oni zaangażować pro bono i połączyć siły z ekspertami z administracji, by „przyspieszyć rewolucję technologiczną w kraju”.

Inicjatorzy grupy określili na start 10 obszarów, w których sztuczna inteligencja ma szansę realnie i mierzalnie usprawnić działanie państwa. To zagadnienia z dziedziny bezpieczeństwa, edukacji, zdrowia publicznego, skutecznego państwa oraz rozwoju, w których AI może pozwolić na zwiększenie efektywności, eliminację barier lub lepsze planowanie. Zespół będzie przygotowywać rekomendacje i dzielić się wiedzą praktyków sztucznej inteligencji z administracją rządową.

Plan i porządek

Efektem pracy zespołu ma być opracowanie konkretnych propozycji rozwiązań i narzędzi, służących skutecznemu rozwiązaniu problemów w wyselekcjonowanych obszarach. Kluczem w organizacji pracy zespołu jest wybranie takich pól działania, które są:

  • sensowne z perspektywy priorytetów całego systemu zarządzania państwem, interesu obywatelu i zwiększenia PKB,
  • wykonalne – to znaczy możliwe technologicznie i finansowo
  • mierzalne – czyli dające się osadzić w konkretnym czasie i konkretnych metrykach efektywności.

– 120 lat temu, dzięki wynalezieniu elektryczności, Stany Zjednoczone wyprzedziły Wielką Brytanię jako najbogatszy kraj świata. Dzisiaj, dzięki najlepszym inżynierom, to Polska ma szansę wykorzystać rewolucję sztucznej inteligencji i stać się 1 z 10 najbogatszych krajów na świecie do połowy tego stulecia – mówi Miron Mironiuk, przewodniczący zespołu. – Dlatego wraz z innymi polskimi ekspertami i ekspertkami, postanowiliśmy zaoferować swoją wiedzę i doświadczenie we wdrażaniu innowacyjnych rozwiązań opartych na sztucznej inteligencji, które mają szansę pomóc Polsce w skoku rozwojowym. Jako ludzie z kręgów biznesu, nauki i programowania, patrzymy na to jak na ogromną szansę dla Polski, bardzo ambitny projekt, który trzeba natychmiast dobrze zaplanować i wykonać. Na co dzień jesteśmy rozsiani po świecie, ale dziś nasze miejsce jest tu – czas oddać naszą wiedzę państwu, a w obszarze sztucznej inteligencji wsparcie jest niezbędne – dodaje.

Eksperci spodziewają się efektów działalności zespołu na trzech polach:

  • przyspieszenie prac analitycznych, gdzie AI, analizując szereg danych szybciej niż indywidualny człowiek, może ogromnie przyspieszyć obsługę obywateli, np. wydawanie prostych formalnych decyzji;
  • uporządkowanie tysięcy niespójnych przepisów, które marnują czas obywateli i urzędników przez niejasne prawo. AI jest w stanie wyłapać nieścisłości w dokumentach, wskazać co trzeba wyjaśnić i uspójnić;
  • planowanie strategiczne w zarządzaniu państwem. AI pozwala szybko wyciągać wnioski i z danych demograficznych, systemu zdrowia, trendów na świecie itd., stawiać tezy na co państwo musi się przygotować w perspektywie 5, 10 czy 20 lat. Osobnym tematem jest oczywiście cyberbezpieczeństwo.

W USA obowiązkowe raporty o postępie AI

Za sprawą Defense Production Act, OpenAI, Google i inne firmy zajmujące się sztuczną inteligencją będą wkrótce musiały informować rząd o opracowywaniu fundamentalnych modeli AI. Jako pierwsza poinformowała o tym sekretarz handlu USA Gina Raimondo. O zbliżającym się wymogu nakładanym na biznes mówiła podczas wydarzenia zorganizowanego przez Instytut Hoovera Uniwersytetu Stanforda w piątek 26 stycznia. Defense Production Act daje administracji prawo nie tylko do informacji od firm za każdym razem, gdy trenują nowy duży model językowy. Przedsiębiorstwa będą musiały również podzielić się z rządem wynikami takich badań.

Nie oznacza to, że każda firma pracująca nad sztuczną inteligencją będzie zmuszona do takiego raportowania. Obowiązek dotyczy tylko tych spółek, które pracują nad tzw. modelem fundamentalnym, mogącym stanowić „poważne zagrożenie dla bezpieczeństwa narodowego, krajowego bezpieczeństwa gospodarczego lub krajowego zdrowia publicznego i bezpieczeństwa”. Modele fundamentalne to modele takie jak GPT-4 OpenAI i Gemini Google, które zasilają generatywne chatboty AI. GPT-4 jest prawdopodobnie poniżej progu mocy obliczeniowej, która wymaga nadzoru rządowego.

Wprowadzane regulacje są częścią pakietu ustaw dotyczących sztucznej inteligencji i zapowiedzianych przez prezydenta USA, Joe Bidena w październiku 2023 roku.

Większe budżety na bezpieczeństwo IT

W kontekście powyższych informacji warto dodać jeszcze wzmiankę o podobnych działaniach podejmowanych przez Unię Europejską. Pisaliśmy o tym niedawno w tekście „Firmy będą musiały wydawać więcej na bezpieczeństwo w obszarze IT: budżety większe nawet o 25%”.  Dotycząca cyberbezpieczeństwa dyrektywa NIS2 nakłada na firmy prowadzące swoją działalność na terenie Unii Europejskiej nowe wymagania. Przedstawiciele Komisji Europejskiej przewidują, że NIS2 wymusi na przedsiębiorstwach podniesienie wydatków na cyfrowe bezpieczeństwo nawet o 25 proc. w ciągu 3-4 lat.

Pozytywnym efektem tych wydatków ma być m.in. zmniejszenie liczby incydentów naruszeń bezpieczeństwa i strat związanych z cyberprzestępczością, zmniejszenie kosztów niedostępności usług i odpowiedzialności za naruszenia, a w efekcie wzrost zaufania klientów, poprawa reputacji firmy czy ochrona przed nieuczciwą konkurencją związaną np. ze szpiegostwem przemysłowym.

Źródło: opracowanie własne na podstawie informacji prasowej Ministerstwa Cyfryzacji, „OpenAI and Other Tech Giants Will Have to Warn the US Government When They Start New AI Projects” The Wired oraz „OpenAI and Google will be required to notify the government about AI models” Mashable.

Zdjęcia: materiały z konferencji prasowej Ministerstwa Cyfryzacji.

Czytaj także: