#LegalneWtorki: Badania i otwarte licencje – wyjątki w AI Act

legalny wtorek

Udostępnij:

Rozwój sztucznej inteligencji stanowi jedno z kluczowych wyzwań współczesnej gospodarki cyfrowej. Jednym z kluczowych elementów AI Act są wyjątki związane z działalnością badawczą oraz wykorzystywaniem otwartych licencji, które stanowią istotne narzędzie wspierające innowacje technologiczne w sektorze AI. Przepisy AI Act mają na celu wspieranie innowacji, przy jednoczesnym zapewnieniu odpowiedniej ochrony prawnej i społecznej.

Rozwój sztucznej inteligencji stanowi jedno z kluczowych wyzwań współczesnej gospodarki cyfrowej. Jednym z kluczowych elementów AI Act są wyjątki związane z działalnością badawczą oraz wykorzystywaniem otwartych licencji, które stanowią istotne narzędzie wspierające innowacje technologiczne w sektorze AI. Przepisy AI Act mają na celu wspieranie innowacji, przy jednoczesnym zapewnieniu odpowiedniej ochrony prawnej i społecznej.

Czy AI Act traktuje w sposób szczególny licencje otwartego oprogramowania?

W ramach AI Act licencje otwartego oprogramowania są traktowane w sposób szczególny, ponieważ mają na celu promowanie transparentności, innowacyjności oraz dostępności systemów sztucznej inteligencji. 

AI Act wskazuje, że systemy AI udostępniane na bezpłatnych licencjach otwartego oprogramowania są wyłączone spod stosowania rozporządzenia, o ile nie są systemami wysokiego ryzyka (np. system wykorzystywany w rekrutacji) lub objętymi przepisami art. 5 (czyli zakazanymi systemami AI, np. narzędzia do manipulowania użytkownikami) czy też nie zostaną objęte art. 50 (np. wchodzi w interakcję z ludźmi). Wobec tego, jeżeli żaden z powyższych wariantów nie dotyczy Twojego systemu, wówczas AI Act nie będzie miał do niego zastosowania.

Pamiętajmy przy tym o warunku bezpłatności. Dodatkowo jeden z motywów AI Act udziela nam pewnej wskazówki interpretacyjnej, mianowicie, zwraca się uwagę, że: 

  • elementy AI na otwartych licencjach obejmują oprogramowanie, dane, modele i narzędzia,
  • jeżeli jednak są one sprzedawane, monetyzowane (np. przez wsparcie techniczne), lub wykorzystywane do innych celów niż poprawa bezpieczeństwa czy kompatybilności, to nie będą one objęte zwolnieniami przewidzianymi dla darmowych i otwartych systemów AI, z wyjątkiem transakcji między mikroprzedsiębiorstwami.

W nawiązaniu do powyższego, warto dodatkowo zwrócić uwagę na rozróżnienie pojęć takich jak system AI i model AI (model to nie zawsze system). Generalnie, w przypadku modeli AI ogólnego przeznaczenia mamy szereg obowiązków, takich jak: dokumentacja techniczna modelu, jej aktualizacji etc.

Kluczowym wymogiem, który musi spełnić model AI, aby nie podlegać obowiązkom AI Act, jest udostępnienie go na licencji otwartego oprogramowania. Taka licencja musi umożliwiać użytkownikom swobodny dostęp do modelu, jego wykorzystanie, modyfikację oraz redystrybucję.

Dodatkowo, parametry modelu, takie jak wagi, architektura i informacje o jego wykorzystaniu, muszą być publicznie dostępne. Warunek bezpłatności jest kluczowy – model nie może być monetyzowany, w tym przez sprzedaż, czy wspomniane świadczenie usług wsparcia technicznego lub wykorzystywanie danych osobowych w celach innych niż poprawa bezpieczeństwa czy kompatybilności oprogramowania.

Jeśli te warunki zostaną spełnione, model AI może być zwolniony z wielu obowiązków nakładanych przez AI Act, chyba że model stwarza ryzyko systemowe, które może wymagać dodatkowych zabezpieczeń​​.

Jakie wyłączenia dla działalności badawczo-rozwojowej zapewnia AI Act?

W AI Act wyraźnie wskazano, że rozporządzenia nie stosuje się do żadnej działalności badawczej, testowej ani rozwojowej dotyczącej systemów AI lub modeli AI przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Działalność tego rodzaju prowadzona jest zgodnie z mającym zastosowanie prawem Unii. Jednocześnie, takie wyłączenie nie obejmuje testów w warunkach rzeczywistych, które mogą już wymagać zgodności z rozporządzeniem, co wskazuje na dbałość o odpowiedzialność i bezpieczeństwo w sytuacjach, gdzie system AI ma bezpośredni wpływ na użytkowników.

A więc działalność badawczo-rozwojowa obejmuje również testowanie systemów przed ich wprowadzeniem do obrotu, jednakże musi to być zgodne z odpowiednimi przepisami, w szczególności dotyczącymi systemów wysokiego ryzyka​.

Jeden z motywów AI Act rozwija ten zapis, wskazując, że celem rozporządzenia jest wspieranie innowacji i szanowanie wolności nauki, dlatego działalność badawcza nad systemami AI, które nie są jeszcze komercjalizowane, nie powinna być ograniczana przepisami. Oznacza to, że systemy AI rozwijane wyłącznie w celach naukowych są wyłączone spod przepisów, co zapewnia swobodę naukowcom i innowatorom. Jednakże, jeśli badania mają na celu opracowanie systemu AI, który ostatecznie trafi na rynek, konieczne będzie dostosowanie się do wymagań rozporządzenia przed wprowadzeniem produktu do obrotu.

Co istotne, badania prowadzone w ramach działalności komercyjnej, nawet jeśli odbywają się na wczesnych etapach rozwoju produktów, również mogą podlegać przepisom AI Act, jeśli systemy AI są wprowadzane na rynek. Jak podkreślono w AI Act, działalność badawczo-rozwojowa musi być prowadzona zgodnie z uznanymi normami etycznymi i prawnymi, aby zapewnić bezpieczeństwo i odpowiedzialność, szczególnie w kontekście testów prowadzonych w warunkach rzeczywistych.

Dla przykładu – startup pracujący nad nowym systemem AI, który ma pomóc w diagnozowaniu chorób na podstawie zdjęć rentgenowskich. W fazie badań naukowych (np. w piaskownicy regulacyjnej), zespół może testować i rozwijać system bez spełniania wszystkich wymogów, które byłyby obowiązkowe, gdyby system trafił do np. szpitali. Jednak, gdy system będzie gotowy do komercyjnego wdrożenia, zaczynają go obowiązywać pełne przepisy AI Act – m.in. wymogi związane z przejrzystością, zarządzaniem ryzykiem i bezpieczeństwem danych etc.

Wsparcie badań AI

AI Act nie ogranicza się jedynie do regulowania odpowiedzialności i transparentności. W jednym z motywów zachęca państwa członkowskie do aktywnego wspierania badań nad sztuczną inteligencją, która może przynosić korzyści społeczne i środowiskowe. Zgodnie z tą zasadą, projekty AI mające na celu poprawę dostępności dla osób z niepełnosprawnościami, zmniejszanie nierówności społeczno-ekonomicznych czy wspieranie celów ekologicznych powinny być priorytetowo traktowane w ramach finansowania unijnego oraz krajowego.

Należy też zauważyć, że mimo, że istnieją wyjątki rozporządzenie pamiętajmy, iż badania i projekty open-source działające w oparciu o AI, muszą przestrzegać podstawowych zasad etycznych i bezpieczeństwa. Nawet w ramach wyjątku, systemy AI powinny być projektowane i używane w sposób minimalizujący ryzyko szkody i zapewniający odpowiednie mechanizmy odpowiedzialności.

Właśnie po to, żeby ułatwić zarządzanie ryzykiem w tym zakresie, warto pobrać praktyczny przewodnik: https://lawmore.pl/checklistaai/.

Sprawdź także pozostałe artykuły z tego cyklu: