Nieprzestrzeganie zasad może prowadzić do nałożenia kar w wysokości od 35 mln euro lub 7% globalnego obrotu do 7,5 mln euro lub 1,5% obrotu, w zależności od naruszenia i wielkości firmy. Uzgodniony tekst będzie teraz musiał zostać formalnie przyjęty zarówno przez Parlament, jak i Radę, aby stać się prawem UE. Parlamentarne komisje ds. rynku wewnętrznego i wolności obywatelskich będą głosować nad porozumieniem na najbliższym posiedzeniu.
Zakazane aplikacje
Uznając potencjalne zagrożenie dla praw obywateli i demokracji ze strony niektórych możliwych zastosowań sztucznej inteligencji, prawodawcy zdecydowali się zakazać:
- systemów kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe (np. przekonania polityczne, religijne, filozoficzne, orientację seksualną, rasę); dowolnego pobierania obrazów twarzy z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy;
- rozpoznawana emocji w miejscu pracy i instytucjach edukacyjnych;
- programów z obszaru social scoring (systemu zaufania społecznego) opartych na zachowaniach społecznych lub cechach osobistych;
- systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem w
celu obejścia ich wolnej woli; - sztucznej inteligencji wykorzystywanej do odczytywania słabości ludzi (ze
względu na ich wiek, niepełnosprawność, sytuację społeczną lub ekonomiczną).
Wyłączenia dotyczące egzekwowania prawa
Negocjatorzy uzgodnili szereg zabezpieczeń i wąskich wyjątków od stosowania biometrycznych systemów identyfikacji (RBI) w publicznie dostępnych przestrzeniach do celów egzekwowania prawa, z zastrzeżeniem uprzedniej zgody sądu i ściśle określonych list przestępstw. „Zdalny” RBI byłby wykorzystywany wyłącznie w ukierunkowanym poszukiwaniu osoby skazanej lub podejrzanej o popełnienie poważnego przestępstwa. RBI „w czasie rzeczywistym” spełniałby rygorystyczne warunki, a jego użycie byłoby ograniczone w czasie i miejscu, do celów stricte oznaczonych, takich jak:
- ukierunkowane poszukiwania ofiar (uprowadzenia, handel ludźmi, wykorzystywanie seksualne);
- zapobieganie konkretnemu i obecnemu zagrożeniu terrorystycznemu, lub lokalizacji bądź, identyfikacji osoby podejrzanej o popełnienie jednego z konkretnych przestępstw wymienionych w rozporządzeniu (np. terroryzm, handel ludźmi, wykorzystywanie seksualne, zabójstwo, porwanie, gwałt, rozbój z bronią w ręku, udział w organizacji przestępczej, przestępstwo przeciwko środowisku).
Precyzyjne ramy prawne
– Wraz z rosnącą obecnością sztucznej inteligencji we wszystkich aspektach codziennego życia, kwestia ram prawnych stała się pilna i konieczna w celu uregulowania jej zastosowań oraz ochrony danych. Istotne jest jednak, aby odbywało się to w oparciu o precyzyjne i przejrzyste zasady prawne, które ewoluują wraz z technologiami, tak abyśmy znaleźli właściwą równowagę umożliwiającą innowacje przy jednoczesnym poszanowaniu zasad etycznych. UE szybko wprowadziła w życie te przepisy, które są obecnie pierwszymi ogólnymi przepisami dotyczącymi sztucznej inteligencji na świecie. Rozporządzenie ws. sztucznej inteligencji ma szeroki zakres, starając się zapewnić wytyczne i ochronę w wielu obszarach, na które sztuczna inteligencja będzie miała wpływ w nadchodzących latach. Dla przeciętnego, niespecjalistycznego przedsiębiorstwa są to odniesienia do systemów AI ogólnego przeznaczenia (GPAI), na które powinni zwrócić uwagę na początku – powiedział Neil Thacker, CISO EMEA w Netskope.
Wymogi dotyczące treści wykorzystywanych do szkolenia systemu
– Nowe przepisy obejmują wymogi dotyczące przejrzystości, w tym dokumentacji technicznej i zgodności z unijnymi przepisami dotyczącymi praw autorskich, a w przypadku, gdy informacje te nie są dostępne, przedsiębiorstwa będą zobowiązane do kontrolowania wykorzystania takich systemów w swojej organizacji. Szczególnie ucieszyło mnie uwzględnienie w przepisach wyraźnych wymogów dotyczących szczegółowych podsumowań treści wykorzystywanych do szkolenia systemu. Świadome podejmowanie decyzji ma kluczowe znaczenie dla wdrożenia sztucznej inteligencji, która jest etyczna i spełnia wymogi nowego prawa. Znajomość i dokumentowanie wykorzystania zarówno uczenia maszynowego, jak i systemów sztucznej inteligencji w organizacji to prosty sposób na zrozumienie i przewidywanie luk w zabezpieczeniach krytycznych danych biznesowych, przy jednoczesnym zapewnieniu odpowiedzialnego korzystania z AI.– dodał Neil Thacker.
Bezpieczeństwo i poszanowanie zasad etycznych
– Nowa unijna regulacja dot. sztucznej inteligencji jest pierwszym na świecie międzysektorowym i transgranicznym aktem prawnym dotyczącym sztucznej inteligencji, ale chodzi w niej o znacznie więcej niż tylko współpracę państw członkowskich w ważnej kwestii dnia dzisiejszego. Rozporządzenie kładzie nacisk na bezpieczeństwo i zasady etyczne w samym sercu innowacji w zakresie sztucznej inteligencji i jest wyraźnym sygnałem, że rządy poważnie traktują implikacje etyczne – i wynikającą z nich konieczność zarządzania – w samym sercu tych szybkich postępów. Grzywny nakładane za nieprzestrzeganie przepisów są zgodne z dobrze ugruntowanym modelem egzekwowania RODO; grzywny ograniczają się do 7% globalnego obrotu w porównaniu z 4% w ramach RODO, co oznacza, że nie można krytykować tego, czy prawo to, jest zbyt surowe – powiedziała Ilona Simpson, CIO EMEA w Netskope.
Balans między innowacjami i regulacjami
– Dla mnie najważniejszym spośród dzisiejszych ogłoszeń był wysiłek, jaki ustawodawcy włożyli w stworzenie równowagi między regulacjami a innowacjami. Rozporządzenie jest pierwszym aktem prawnym, jaki widziałam, który aktywnie zachęca do innowacji startupy i MŚP – w rzeczywistości zawiera wyraźny przepis promujący korzystanie z „piaskownic regulacyjnych” ustanowionych przez organy krajowe, a także testowanie w czasie rzeczywistym. Dzięki temu UE będzie w stanie wspierać postęp techniczny bez ograniczania go nadmiernymi regulacjami – dodała Ilona Simpson.
Cały tekst rozporządzenia znajduje się na stronie: europarl.europa.eu