Ustawa o sztucznej inteligencji obejmuje pierwszy zestaw przepisów kompleksowo regulujących sposób, w jaki szybko rozwijająca się technologia będzie regulowana – ale została skrytykowana przez niektórych za wywieranie zbyt dużej presji na rodzącą się branżę. W ubiegły czwartek Komisja Europejska opublikowała ostateczny projekt „kodeksu postępowania” – zbioru przepisów, który ma pomóc organizacjom korzystającym ze sztucznej inteligencji w interpretacji i zapewnieniu zgodności z prawem.
Kodeks postępowania – co w nim znajdziemy?
Kodeks postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia (GPAI) – jak brzmi jego oficjalna nazwa – to dobrowolna lista kontrolna sporządzona, aby pomóc firmom w interpretacji części ustawy o sztucznej inteligencji, które pozostawały niejasne w momencie uchwalenia ustawy. Dodajmy, że GPAI to termin UE odnoszący się do modeli AI, które mogą wykonywać różnorodne zadania, takie jak ChatGPT.
Zawarte w kodeksie zapisy mówią, że niektóre firmy będą zobligowane do opublikowania „wystarczająco szczegółowego podsumowanie” danych wykorzystanych do szkolenia swoich modeli sztucznej inteligencji. Rzecz w tym, że twórcy dokumentu nie precyzują, co miałoby oznaczać „wystarczająco szczegółowe”. A to, biorąc pod uwagę toczące się debaty na temat etyki firm zajmujących się sztuczną inteligencją, które wykorzystują filmy, książki i inne treści bez pozwolenia do szkolenia modeli, może prowadzić do wątpliwości: o co tak naprawdę chodzi?
Czytaj także: „Wybierz Europę” – UE chce być najlepszym miejscem do rozwoju firm technologicznych
Od początku roku UE zwołuje regularne spotkania liderów branży, naukowców i innych ekspertów w celu omówienia tego, co powinno znaleźć się w kodeksie postępowania. W ostatecznej wersji projektu nie znalazły się najbardziej niepopularne rozwiązania.
Eksperci zwracają uwagę, że rozdział odnoszący się do kwestii bezpieczeństwa i ochrony został w pewnej mierze dopracowany. Tym niemniej wciąż w dokumencie wciąż pozostało kilka kwestii budzących sprzeciw jako zbytnio nakazowe. Mowa tu o obowiązkowych ocenach zewnętrznych. Jeśli zostaną one wdrożone, to mogą doprowadzić do stworzenia obciążeń operacyjnych i finansowych, szczególnie dla mniejszych graczy.
Tym niemniej – pamiętajmy, że kodeks jest technicznie dobrowolny. Kto go podpisze – o tym się dopiero przekonamy.
Co startupy powinny wiedzieć?
Od 2 sierpnia nowy zestaw zasad regulujących GPAI będzie obowiązywał w całej UE. Oznacza to, że za trzy tygodnie dostawcy modeli GPAI będą musieli opublikować podsumowania swoich danych szkoleniowych, wykazać zgodność z przepisami dotyczącymi praw autorskich i upewnić się, że wszystko, od ocen modeli po oceny ryzyka, zostało udokumentowane.
Jeśli chodzi o prawa autorskie, sygnatariusze kodeksu muszą „zobowiązać się do wdrożenia zabezpieczeń, aby zapobiec generowaniu przez ich modele danych wyjściowych, które powielają dane szkoleniowe”, mówi w rozmowie z Sifted Alex Shandro, partner w firmie prawniczej A&O Shearman. W praktyce oznacza to, że generator obrazów AI nie powinien być w stanie odtworzyć obrazu ze swojej bazy danych. Jeśli chodzi o ujawnianie danych, oczekuje się, że Biuro Komisji ds. Sztucznej Inteligencji opublikuje szablon dla firm, ale nie ma jeszcze żadnych oznak, co pozostawia miejsce na większą niepewność.
Przepisy wchodzą w życie, kary jeszcze poczekają
Chociaż przepisy technicznie wchodzą w życie za kilka tygodni, AI Office nie zacznie nakładać kar przez kolejny rok. Redakcja Sifted przywołuje słowa Emmy Wright, partnera w firmie prawniczej Crowell and Moring. Twierdzi ona, że warto powiadomić Komisję, jeśli model zostanie wprowadzony na rynek przed 2 sierpnia, ponieważ wcześniej istniejące modele mają pewną swobodę (dodatkowe 12 miesięcy) na dostosowanie się do przepisów.
– Istnieje jednak kontrargument, że te wysoce nakazowe środki stawiają poprzeczkę zbyt wysoko, a te super-wyrafinowane firmy technologiczne przyjmą alternatywne podejścia do wykazania zgodności – mówi Wright w rozmowie z Sifted. – Odzwierciedla to rzeczywistość zarówno komercyjną, jak i strategie przemysłowe, w których mają siedzibę.
Większość pozostałych przepisów ustawy o sztucznej inteligencji wejdzie w życie w sierpniu 2026 r., W tym nowe przepisy dotyczące systemów sztucznej inteligencji „wysokiego ryzyka” wykorzystywanych w obszarach wrażliwych – takich jak te wykorzystywane do sprawdzania wniosków kredytowych lub podań o pracę, przez policję lub w szpitalach – wymagające jeszcze większej dokumentacji i przejrzystości.
Zegara już nikt nie zatrzyma
Podmioty wdrażające systemy sztucznej inteligencji uznane za „wysokiego ryzyka” muszą prowadzić szczegółową dokumentację, obejmującą strategie ograniczania ryzyka, dane szkoleniowe oraz oceny wydajności. Te informacje należy przechowywać przez okres do 10 lat od momentu ostatniej dostępności modelu na rynku.
W ostatnim czasie Unia Europejska znalazła się pod presją, aby wstrzymać wdrażanie ustawy o sztucznej inteligencji. Dziesiątki dyrektorów startupów i inwestorów podpisało list otwarty, wzywając do zawieszenia prac nad ustawą. Unia Europejska jednoznacznie odrzuciła te żądania. Rzecznik Komisji stwierdził: „Nie ma żadnego »zatrzymania zegara«. Nie ma okresu karencji. Nie ma żadnej przerwy”.