Po wielomiesięcznych negocjacjach, 7 maja 2026 roku, kraje członkowskie oraz unijni ustawodawcy wypracowali konsensus, który ma na celu zbalansowanie bezpieczeństwa obywateli z potrzebą zachowania innowacyjności europejskiego sektora technologicznego.
Walka o „cyfrowe bezpieczeństwo”
Kluczowym elementem najnowszego porozumienia jest wprowadzenie rygorystycznych zakazów dotyczących najbardziej inwazyjnych zastosowań AI. Jednym z najgłośniejszych punktów jest walka z tzw. „nudifier apps” – aplikacjami służącymi do generowania treści o charakterze seksualnym bez zgody osób na nich przedstawionych.
– Do końca tego roku każdy, a zwłaszcza kobiety i dziewczęta, będzie bezpieczny przed przerażającymi aplikacjami typu 'nudifier’, które są powszechnie dostępne na rynku UE. Dzisiaj kładziemy wyraźny kres tego rodzaju przemocy wobec ludzi i dzieci – podkreśliła holenderska europarlamentarzystka Kim van Sparrentak.
Nowa mapa drogowa wdrażania przepisów
Choć AI Act wszedł w życie wcześniej, to właśnie majowe ustalenia precyzują kalendarz wdrażania najbardziej restrykcyjnych wymogów. Według aktualnych wytycznych, kluczowa faza nadzoru nad systemami wysokiego ryzyka rozpocznie się 2 sierpnia 2026 roku. Od tego momentu dostawcy technologii wykorzystywanych w sektorach takich jak rekrutacja, edukacja czy usługi publiczne, będą musieli spełniać surowe normy przejrzystości i nadzoru ludzkiego.
Warto zauważyć, że Polska jest jednym z liderów w implementacji tych przepisów na poziomie krajowym. Polska Rada Ministrów przyjęła już projekt ustawy o systemach sztucznej inteligencji, który zakłada powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Organ ten będzie posiadał uprawnienia do wycofywania z rynku systemów, które nie spełniają unijnych norm bezpieczeństwa.
Czytaj także: Sztuczna inteligencja idzie do piaskownicy. Rządowy przepis na bezpieczne technologie
Etyka kontra innowacje
Krytycy porozumienia z 7 maja 2026 roku wskazują na „rozwodnienie” pierwotnych założeń, szczególnie w kontekście biometrii i wykorzystania AI przez organy ścigania. Niemniej jednak, unijna hierarchia ryzyka pozostaje fundamentem nowych przepisów:
-
Ryzyko nieakceptowalne (zakazane): obejmuje m.in. scoring społeczny, manipulację podprogową oraz profilowanie kryminalne oparte wyłącznie na algorytmach.
-
Wysokie ryzyko: systemy te będą wymagały certyfikacji, szczegółowej dokumentacji technicznej oraz zapewnienia mechanizmów, które pozwolą człowiekowi w dowolnym momencie przejąć kontrolę nad maszyną.
-
Modele ogólnego przeznaczenia (GPAI): giganci technologiczni rozwijający modele takie jak GPT będą musieli wykazać się większą transparentnością w zakresie danych treningowych i zużycia energii.
Karty na stół w 2026 roku
Dla przedsiębiorców rok 2026 będzie czasem wielkiego sprawdzianu. Za nieprzestrzeganie nowych przepisów grożą gigantyczne kary finansowe – nawet do 35 milionów euro lub 7% globalnego rocznego obrotu w przypadku stosowania praktyk zakazanych. Eksperci podkreślają jednak, że regulacje mają też drugą stronę medalu. Dzięki tzw. „piaskownicom regulacyjnym” (regulatory sandboxes), mniejsze firmy i startupy będą mogły testować swoje innowacje pod okiem regulatorów, co ma ułatwić im późniejszą certyfikację i budowanie zaufania u klientów.