Unijny kompromis w cieniu algorytmów: co przyniosły majowe ustalenia w sprawie AI Act?

Dodane:

MamStartup logo Mam Startup

Unijny kompromis w cieniu algorytmów: co przyniosły majowe ustalenia w sprawie AI Act?

Udostępnij:

Z Brukseli płyną wieści o przełomowym, choć przez wielu określanym jako „rozwodnionym”, porozumieniu w sprawie ostatecznego kształtu przepisów dotyczących sztucznej inteligencji.

Po wielomiesięcznych negocjacjach, 7 maja 2026 roku, kraje członkowskie oraz unijni ustawodawcy wypracowali konsensus, który ma na celu zbalansowanie bezpieczeństwa obywateli z potrzebą zachowania innowacyjności europejskiego sektora technologicznego.

Walka o „cyfrowe bezpieczeństwo”

Kluczowym elementem najnowszego porozumienia jest wprowadzenie rygorystycznych zakazów dotyczących najbardziej inwazyjnych zastosowań AI. Jednym z najgłośniejszych punktów jest walka z tzw. „nudifier apps” – aplikacjami służącymi do generowania treści o charakterze seksualnym bez zgody osób na nich przedstawionych.

– Do końca tego roku każdy, a zwłaszcza kobiety i dziewczęta, będzie bezpieczny przed przerażającymi aplikacjami typu 'nudifier’, które są powszechnie dostępne na rynku UE. Dzisiaj kładziemy wyraźny kres tego rodzaju przemocy wobec ludzi i dzieci – podkreśliła holenderska europarlamentarzystka Kim van Sparrentak.

Nowa mapa drogowa wdrażania przepisów

Choć AI Act wszedł w życie wcześniej, to właśnie majowe ustalenia precyzują kalendarz wdrażania najbardziej restrykcyjnych wymogów. Według aktualnych wytycznych, kluczowa faza nadzoru nad systemami wysokiego ryzyka rozpocznie się 2 sierpnia 2026 roku. Od tego momentu dostawcy technologii wykorzystywanych w sektorach takich jak rekrutacja, edukacja czy usługi publiczne, będą musieli spełniać surowe normy przejrzystości i nadzoru ludzkiego.

Warto zauważyć, że Polska jest jednym z liderów w implementacji tych przepisów na poziomie krajowym. Polska Rada Ministrów przyjęła już projekt ustawy o systemach sztucznej inteligencji, który zakłada powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Organ ten będzie posiadał uprawnienia do wycofywania z rynku systemów, które nie spełniają unijnych norm bezpieczeństwa.

Czytaj także: Sztuczna inteligencja idzie do piaskownicy. Rządowy przepis na bezpieczne technologie

Etyka kontra innowacje

Krytycy porozumienia z 7 maja 2026 roku wskazują na „rozwodnienie” pierwotnych założeń, szczególnie w kontekście biometrii i wykorzystania AI przez organy ścigania. Niemniej jednak, unijna hierarchia ryzyka pozostaje fundamentem nowych przepisów:

  1. Ryzyko nieakceptowalne (zakazane): obejmuje m.in. scoring społeczny, manipulację podprogową oraz profilowanie kryminalne oparte wyłącznie na algorytmach.

  2. Wysokie ryzyko: systemy te będą wymagały certyfikacji, szczegółowej dokumentacji technicznej oraz zapewnienia mechanizmów, które pozwolą człowiekowi w dowolnym momencie przejąć kontrolę nad maszyną.

  3. Modele ogólnego przeznaczenia (GPAI): giganci technologiczni rozwijający modele takie jak GPT będą musieli wykazać się większą transparentnością w zakresie danych treningowych i zużycia energii.

Karty na stół w 2026 roku

Dla przedsiębiorców rok 2026 będzie czasem wielkiego sprawdzianu. Za nieprzestrzeganie nowych przepisów grożą gigantyczne kary finansowe – nawet do 35 milionów euro lub 7% globalnego rocznego obrotu w przypadku stosowania praktyk zakazanych. Eksperci podkreślają jednak, że regulacje mają też drugą stronę medalu. Dzięki tzw. „piaskownicom regulacyjnym” (regulatory sandboxes), mniejsze firmy i startupy będą mogły testować swoje innowacje pod okiem regulatorów, co ma ułatwić im późniejszą certyfikację i budowanie zaufania u klientów.

Czytaj także: