Najważniejsze założenia legislacji UE w kwestii sztucznej inteligencji

Dodane: 20.09.2022

Marcin Staniszewski Marcin Staniszewski

prawo sztuczna inteligencja

Udostępnij:

Prawo sztucznej inteligencji (AI) to intensywnie rozwijająca się dziedzina prawa, która wciąż nie została dostatecznie uregulowana prawnie. W ujęciu globalnym można zauważyć wyraźne rozbieżności w dynamice prawodawstwa w tej kwestii – zwłaszcza między krajami UE a wiodącymi państwami Azji czy Stanami Zjednoczonymi. W celu zmiany takiego stanu rzeczy, organy UE wdrażają konkretne działania na gruncie zarówno projektowym, jak i legislacyjnym. Jakie są więc aktualne trendy prawodawcze w kwestii AI na poziomie UE?

Sztuczna inteligencja – wyjaśnienie pojęcia

Niestety w polskim porządku prawnym do tej pory nie ustalono definicji ustawowej dla pojęcia sztucznej inteligencji. Podobna sytuacja ma miejsce również na szczeblu unijnym – w tych aktach prawnych również nie znajdziemy jednoznacznej, wiążącej definicji AI.

Ma to jednak ulec zmianie dzięki wdrożeniu projektowanego rozporządzenia, określanego jako „akt w sprawie sztucznej inteligencji” (przepisy wynikają zwłaszcza z Załącznika I do ww. rozporządzenia). Zgodnie z nim, dane oprogramowanie można zakwalifikować jako system sztucznej inteligencji pod warunkiem, że zostało opracowane przy wykorzystaniu jednej z poniższych technik czy podejść:

  • mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym uczenia głębokiego;
  • metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, indukcyjne (logiczne) programowanie, bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne) i systemy ekspertowe;
  • podejścia statystyczne, estymację bayesowską, metody wyszukiwania i optymalizacji.

Przykładowo, sztuczną inteligencją są chociażby skrypty odpowiedzialne za marketing w sieci, czyli aplikacje odpowiadające za targetowanie reklam. Owe skrypty analizują dane i tym samym „uczą się” preferencji użytkownika, w wyniku czego kierują do niego określone, dopasowane reklamy.

Definicja ta ma więc charakter otwarty i w przyszłości może przyczynić się do powstawania rozbieżności interpretacyjnych, które trzeba będzie rozstrzygnąć na drodze sądowej. Jednocześnie w tak innowacyjnej dziedzinie prawa nie jest możliwe stworzenie zamkniętej definicji AI. Naszym zdaniem wszelkie próby w tym zakresie będą skazane na porażkę. Z tego względu jedynym słusznym rozwiązaniem pozostaje definicja otwarta, która wskazuje pewne przesłanki.

Aktualne regulacje i trendy legislacyjne dotyczące AI w UE

Jak wspomnieliśmy, na gruncie unijnym w zakresie sztucznej inteligencji planuje się wydanie kilku aktów prawnych. W rezultacie, w przyszłości prawo AI może być regulowane głównie przez następujące akty prawne:

  • Rozporządzenie Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji), które obecnie jest na etapie projektu
  • Biała Księga w sprawie sztucznej inteligencji,
  • Te dokumenty zapewne uzupełniane będą pomocniczo licznymi komunikatami Komisji, tym w szczególności komunikatem: “Sztuczna Inteligencja dla Europy”, oraz komunikatem: “Skoordynowany plan w sprawie sztucznej inteligencji”.

Co istotne, akt w sprawie sztucznej inteligencji ma zostać wydany w formie rozporządzenia. Dlatego jego transpozycja do krajowego porządku prawnego nie będzie wymagana, a postanowienia aktu mogą mieć moc bezpośrednio obowiązującą we wszystkich państwach członkowskich.

Komunikaty i pozostałe dokumenty o charakterze programowym nie mają więc charakteru powszechnie obowiązującego, ale mogą okazać się cenną wskazówką interpretacyjną w razie nieścisłości.

Jakie są aktualne tendencje w kwestii ustawodawstwa unijnego związanego z AI?

  • Niezwykle istotnym zagadnieniem jest analiza ryzyka w branżach, w których korzystanie z algorytmów stworzonych przez AI może wiązać się ze szczególnym zagrożeniem (np. ochrona zdrowia, wymiar sprawiedliwości). Przykład: niektóre algorytmy stosowane w wymiarze sprawiedliwości mogłyby dyskryminować ludzi ze względu na płeć czy pochodzenie, w związku z czym stosowanie ich musi być objęte większym nadzorem.
  • Według obecnych trendów, rozwój AI ma odbywać się z zachowaniem ochrony konsumentów.
  • Unia Europejska podejmuje działania, aby regulacje dotyczące AI nie były fragmentaryczne na gruncie aktów unijnych, tylko jednolite w ramach państw członkowskich.
  • Przewiduje się utworzenie organu nadzorującego rynek AI.
  • Wprowadzenie obowiązków producentów, importerów i użytkowników, m.in. monitorowanie działania AI czy obowiązki certyfikacyjne (możliwe w przyszłości).
  • Podmioty korzystające z AI (zwłaszcza wprowadzające je do obrotu) mogą zostać zobligowani do przechowywania dokumentacji technicznej i automatycznego rejestrowania zdarzeń.
  • Według trendów z zakresu ochrony danych osobowych, AI również będzie musiało być pod tym kątem przejrzyste i udostępniać przechowywane informacje użytkownikom.
  • Nadzór człowieka nad działalnością AI – przewiduje się, że zwłaszcza systemy wysokiego ryzyka, czyli np. takie, które mogą klasyfikować i kategoryzować osoby fizyczne przechowując dane biometryczne, muszą gwarantować odpowiedni poziom cyberbezpieczeństwa. Niezależnie od liczby wykorzystywanych zabezpieczeń technicznych, finalny nadzór nad działalnością AI musi sprawować człowiek.

Nadzór przez człowieka może przybierać następującą formę:

  • wynik działania systemu sztucznej inteligencji nie wywiera skutku, jeżeli nie został wcześniej poddany kontroli i zatwierdzony przez człowieka. Przykład: odrzucenie wniosku o świadczenia z zabezpieczenia społecznego może być dokonane wyłącznie przez człowieka,
  • wynik działania systemu sztucznej inteligencji wywiera natychmiastowy skutek, ale później zapewniona jest interwencja człowieka. Przykład: wstępna weryfikacja wniosku kredytowego (np. odmowa udzielenia kredytu) odbywa się przez algorytm, lecz finalną decyzję podejmuje człowiek,
  • monitorowanie systemu sztucznej inteligencji podczas jego eksploatacji oraz zdolność do interweniowania w czasie rzeczywistym i dezaktywacji. Przykład: przycisk lub procedura zatrzymania dostępne w samochodzie autonomicznym, jeżeli człowiek stwierdzi, że działanie samochodu nie jest bezpieczne,
  • na etapie projektowania, poprzez nałożenie ograniczeń operacyjnych na system sztucznej inteligencji. Przykład: samochód autonomiczny przestaje działać w warunkach słabej widoczności kiedy czujniki mogą być mniej wiarygodne.

Kogo będą dotyczyć nowe przepisy?

Projekt przewiduje szeroką grupę podmiotów, na których działalność wpłyną nowe przepisy. Rozporządzenie będzie dotyczyć głównie działalności przedsiębiorstw, które wprowadzają AI na rynek. Mimo to potencjalnie jeszcze większym kręgiem podmiotów, na których działalność wpłyną nowe przepisy, będą użytkownicy AI. Poza tym obowiązki wynikające z Rozporządzenia obejmą także importerów i dystrybutorów.

Trzeba zaznaczyć, że rozporządzenie unijne ma obejmować nie tylko podmioty z Unii Europejskiej. Jeśli importer lub dostawca będą mieć siedzibę poza UE, ale będą wprowadzać AI do obrotu na terytorium Unii, muszą działać według europejskich przepisów.

Kontrola nad przestrzeganiem przepisów

Jak wspomnieliśmy wyżej, aby zapewnić wdrożenie i jednolite stosowanie projektowanego rozporządzenia w całej UE, planowane jest powołanie kilku rodzajów jednostek.

Pierwsza to organy krajowe. Ich celem będzie zapewnienie odpowiedniego wdrożenia przepisów na szczeblu krajowym. Poza tym mają stanowić punkt kontaktowy do spraw AI i reprezentować kraj członkowski w Europejskiej Radzie ds. Sztucznej Inteligencji oraz sprawować nadzór nad rynkiem AI w konkretnym państwie. Z reguły wszystkie ww. funkcje mogą być sprawowane przez jeden organ, co według ustawodawcy unijnego byłoby pożądane. Jednak działania te będzie można podzielić również na kilka mniejszych jednostek.

Omawiany organ będzie odpowiedzialny za zagwarantowanie jednolitej wykładni prawa na szczeblu krajowym i wydawanie interpretacji, które choć nie będą mieć mocy powszechnie obowiązującej, to staną się przydatną wskazówką w ramach stosowania prawa przez przedsiębiorców.

Drugi organ to organ centralny na szczeblu unijnym. Jest nim wspomniana wcześniej Europejska Rada ds. Sztucznej Inteligencji. Planuje się, że w skład rady wejdą osoby kierujące krajowymi organami nadzorczymi oraz Europejski Inspektor Ochrony Danych. Rada ma być organem doradczym oraz wspierającym Komisję np. w kwestii gromadzenia fachowej wiedzy oraz wydawania opinii i zaleceń w zakresie AI.

Wnioski

Zgodnie z informacjami pochodzącymi z ww. dokumentów, zarówno o charakterze prawnym, jak i programowym, można uznać, że prawo AI stanie się dynamicznie rozwijającą się gałęzią prawa w Unii Europejskiej. Jest to kierunek zgodny z trendami globalnymi.

Jednocześnie aktualnie nie ma żadnych wiążących regulacji w tym zakresie. Niestety biorąc pod uwagę specyficzny charakter unijnych regulacji, śledzenie aktów prawa oraz sprawdzanie, które z nich mają moc bezpośrednio obowiązującą w Polsce, będzie problematyczne dla przedsiębiorców. Poza tym niejednokrotnie może skutkować to koniecznością doprecyzowania nowych regulacji samodzielnie (ze względu na brak orzeczeń sądów i głosów doktryny).

Właśnie dlatego, jeszcze zanim podejmiemy działania zmierzające do rozpoczęcia, prowadzenia lub przekształcenia działalności uwzględniającej zastosowanie AI, powinniśmy skorzystać z pomocy profesjonalnego doradcy.

Autor: Marcin Staniszewski, Kancelaria Prawna RPMS Staniszewski & Wspólnicy