AI Act i zakazane praktyki w sztucznej inteligencji

AI Act i zakazane praktyki w sztucznej inteligencji

Udostępnij:

Przepisy AI Act mają na celu zapewnienie, że systemy sztucznej inteligencji są rozwijane i wykorzystywane w zgodzie z europejskimi wartościami i prawami oraz zasadami przejrzystości i bezpieczeństwa. 

W kontekście zakazanych praktyk interesuje nas artykuł 5 AI Act, wymieniający praktyki, które są całkowicie zakazane ze względu na ich potencjalne zagrożenie dla społeczeństwa i jednostek. Przepisy te są szczególnie istotne dla firm pracujących nad rozwiązaniami opartymi na AI, ponieważ już od samego początku wpływają one na kierunek rozwoju ich produktów.

Jakie są najważniejsze zakazane praktyki AI zgodnie z AI Act?

Manipulacja zachowaniem poprzez podprogowe techniki

Zakazane jest stosowania systemów AI, które wykorzystują techniki podprogowe lub celowe manipulacje wprowadzające w błąd, mające na celu lub prowadzące do zmiany zachowania użytkownika w sposób, który ogranicza jego zdolność do świadomego podejmowania decyzji i potencjalnie wyrządza poważną szkodę. Na przykład, AI wykorzystujące sugestie wizualne lub dźwiękowe, aby przekonać użytkowników do zakupu produktu, mogłyby być niezgodne z przepisami, jeśli działają na podświadomość. Oznacza to konieczność unikania np. ukrytych technik marketingowych, które mogą być uznane za manipulacyjne.

Wykorzystywanie słabości

Systemy AI, które wpływają na osoby fizyczne lub grupy osób, wykorzystując ich słabości wynikające z wieku, niepełnosprawności lub sytuacji społeczno-ekonomicznej, prowadząc do zmiany ich zachowania w sposób, który może wyrządzić poważną szkodę. Tworząc zatem rozwiązania AI skierowane do „wrażliwych” grup, należy zwrócić szczególną uwagę, aby system nie prowadził do takiego wykorzystania. 

„Social scoring”

Zabrania się oceny lub klasyfikacji osób na podstawie ich zachowań społecznych lub cech osobistych, gdy prowadzi to do nieuzasadnionej dyskryminacji lub niesprawiedliwego traktowania, które wykracza poza pierwotny kontekst zgromadzonych danych.

Ocenianie ryzyka popełnienia przestępstwa

Zakazane jest wykorzystywanie AI do przewidywania ryzyka popełnienia przestępstwa na podstawie profilowania i oceny cech osobowości bez wsparcia w obiektywnych faktach związanych bezpośrednio z działalnością przestępczą.

„Untargeted scraping”

Zakazane jest tworzenie baz danych wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej w celu rozpoznawania twarzy, gdy pozyskiwanie obrazów odbywa się bez zgody osób, których dane są zbierane.

Ocena emocji

Zabronione jest stosowanie AI do wyciągania wniosków na temat emocji osoby w miejscu pracy lub placówkach edukacyjnych, z wyjątkiem przypadków uzasadnionych względami medycznymi lub bezpieczeństwa. 

Kategoryzacja biometryczna

Zakazane jest wprowadzanie na rynek oraz używanie systemów AI, które wykorzystują dane biometryczne, takie jak obrazy twarzy, odciski palców czy analizę głosu, aby klasyfikować osoby według cech osobistych lub prywatnych preferencji, np. ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych, światopoglądu, orientacji seksualnej czy seksualności.

Zdalna identyfikacja biometryczna w czasie rzeczywistym

Zakazane jest stosowanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym (takich jak rozpoznawanie twarzy) w przestrzeni publicznej do celów ścigania przestępstw, chyba że spełnione są bardzo szczególne warunki. Zakaz ten ma na celu ochronę prywatności i ograniczenie nadużyć związanych z masową inwigilacją, ale zostawia możliwość stosowania takiej technologii w wyjątkowych sytuacjach. Istnieją jednak w tym zakresie wyjątki, systemy zdalnej identyfikacji biometrycznej mogą być stosowane w czasie rzeczywistym w przestrzeni publicznej wyłącznie wtedy, gdy ich użycie jest absolutnie konieczne np. w przypadku poszukiwania ofiar i osób zaginionych. Systemy mogą być użyte wówczas w celu zlokalizowania osób, które są np. ofiarami uprowadzeń, handlu ludźmi, wykorzystywania seksualnego lub które uznaje się za zaginione. Chodzi tu o sytuacje, w których celem jest odnalezienie konkretnej osoby, której życie lub zdrowie może być zagrożone.

Zakres powyższych zakazanych praktyk ukazuje, jak szerokie możliwości oferuje sztuczna inteligencja, ale jednocześnie jak znacząca może być skala związanych z nią zagrożeń. Kluczowe jest jednak, aby te technologie były stosowane w sposób przejrzysty, etyczny i zgodny z przepisami prawa, co pozwala maksymalizować ich korzyści przy jednoczesnym poszanowaniu praw jednostki.

Właśnie dlatego, żeby ułatwić sobie odpowiednio wcześnie planowanie odpowiednich działań w zakresie identyfikacji ryzyk i zarządzania nimi, zachęcamy dodatkowo do pobrania checklisty: Zgodnego z prawem korzystania z AI: https://lawmore.pl/checklistaai/.