Własność intelektualna
Choć ochrona samych treści generowanych przez AI stanowi przedmiot szerszej i odrębnej dyskusji prawnej, istotne jest zwrócenie uwagi na ryzyka naruszeń prawa autorskiego już na etapie trenowania systemów.
Proces trenowania AI wymaga dostępu do dużych zbiorów danych, które często obejmują utwory chronione prawem autorskim. W przypadku korzystania z takich materiałów bez zgody właściciela praw autorskich może dojść do naruszenia.
Aby zminimalizować ryzyko prawne, warto stosować kilka kluczowych zasad:
- korzystanie z zamkniętych zbiorów danych – trenowanie AI na danych, do których posiadamy pełne prawa lub które są dostępne na otwartych licencjach, znacząco zmniejsza ryzyko naruszeń. W ten sposób przedsiębiorcy mogą zachować kontrolę nad wykorzystanym materiałem i uniknąć potencjalnych roszczeń. Nie zapominajmy przy tym o tym, żeby weryfikować treść takich licencji, w tym jakie są zasady korzystania (czy pozwalają na użytek komercyjny/niekomercyjny etc.),
- dokumentowanie źródeł danych – unijne regulacje, takie jak AI Act kładą nacisk na obowiązek transparentności w procesie trenowania modeli, w tym dokumentowanie źródeł danych. Dzięki temu łatwiej jest wykazać zgodność z przepisami oraz odpowiedzialne podejście do ochrony własności intelektualnej,
- regularne przeglądy i aktualizacje danych treningowych – dane używane do trenowania modeli AI mogą ulegać “przedawnieniu” pod względem ich licencji lub mogą przestać być zgodne z aktualnymi regulacjami,
- tworzenie wewnętrznych polityk – opracowanie i wdrożenie polityk dotyczących pozyskiwania i przetwarzania danych treningowych, ale też i na dalszym etapie – korzystania z narzędzi AI,
- wdrożenie mechanizmów monitorowania powielanych treści – warto wprowadzić techniczne rozwiązania, które pozwalają na identyfikowanie podobieństw między wygenerowanymi treściami a materiałami istniejącymi. Pozwala to na szybkie wykrycie potencjalnych naruszeń i ich eliminację.
Ochrona danych osobowych w kontekście trenowania AI
W pierwszej kolejności ustalić, czy proces trenowania jest w ogóle prowadzony przy wykorzystaniu danych osobowych. Jeżeli dane osobowe będą wykorzystywane do analizy, wnioskowania czy poprawy wydajności algorytmów, zachodzi wówczas konieczność zapewnienia zgodności z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 (RODO). Kluczowe wyzwania związane z RODO:
- ustalenie zakresu, rodzaju i celu przetwarzania danych osobowych,
- identyfikacja i zapewnienie podstawy prawnej przetwarzania – a więc wybór odpowiedniej podstawy prawnej przetwarzania danych, zgodnej z art. 6 (np. zgoda, wykonywanie umowy etc.) lub art. 9 RODO (w przypadku danych szczególnych kategorii, np. jak dane dotyczące zdrowia),
- anonimizacja i pseudonimizacja – w miarę możliwości dane osobowe powinny być przetwarzane w sposób uniemożliwiający identyfikację osoby fizycznej;
- transparentność – podmioty odpowiedzialne za przetwarzanie danych muszą informować osoby o celu i zakresie przetwarzania.
Należy oczywiście również pamiętać o realizacji innych obowiązków wynikających z RODO, w tym zapewnieniu integralności i poufności danych, ograniczeniu ich przechowywania czy przestrzeganiu zasady minimalizacji. Wszystkie te działania razem powinny tworzyć solidne fundamenty zgodności z przepisami podczas trenowania AI.
Piaskownice regulacyjne – testowanie AI w bezpiecznych warunkach
W kontekście trenowania danych nie sposób pominąć kwestii piaskownic regulacyjnych, które mogą być częściową odpowiedzią na wyzwania związane z trenowaniem AI. AI Act wskazuje, że to właśnie małe i średnie przedsiębiorstwa, w tym startupy powinny mieć zapewniony do nich priorytetowy dostęp.
Czym są? Stanowią one bezpieczne środowisko do testowania systemów AI w warunkach rzeczywistych, ale pod ścisłym nadzorem organów regulacyjnych. Dzięki temu przedsiębiorstwa mogą rozwijać i wdrażać nowe technologie, minimalizując ryzyko prawne, ale bez jednoczesnego obciążenia regulacyjnego.
Piaskownice regulacyjne nie zwalniają uczestników z odpowiedzialności za potencjalne naruszenia praw osób trzecich. Uczestnicy są zobowiązani do:
- dokumentowania procesów testowych i źródeł danych treningowych,
- przestrzegania zasad ochrony danych osobowych (zgodnie z RODO),
- raportowania incydentów do organów nadzorczych.
Dodatkowe wyzwania i rekomendacje – na co jeszcze warto zwrócić uwagę?
- monitorowanie algorytmów pod kątem dyskryminacji
Ważne jest zapewnienie, by trenowane modele AI nie prowadziły do dyskryminacji, szczególnie w procesach decyzyjnych. Algorytmy powinny być regularnie audytowane w celu identyfikacji i eliminacji potencjalnych uprzedzeń.
- odpowiedzialność za dane w łańcuchu dostaw AI
Jednym z mniej oczywistych, ale istotnych wyzwań prawnych w trenowaniu AI jest odpowiedzialność za dane używane w procesie uczenia. Startupy często korzystają z danych dostarczanych przez zewnętrznych dostawców lub partnerów, co rodzi pytania o wiarygodność, legalność oraz zgodność tych danych z wspomnianymi już obowiązującymi przepisami, takimi jak RODO czy przepisy dotyczące praw autorskich.
Przedsiębiorstwa muszą więc nie tylko dokumentować źródła danych, ale również weryfikować, czy dostawcy spełniają standardy prawne i etyczne. Zarządzanie tym ryzykiem wymaga:
- audytów dostawców danych, które potwierdzą legalność i jakość zbiorów danych,
- klauzul w umowach, nakładających na dostawców obowiązek zapewnienia zgodności z prawem, ale też i możliwości dalszego egzekwowania tej odpowiedzialności,
- tworzenia procedur zarządzania ryzykiem, które pozwolą na szybkie reagowanie w przypadku stwierdzenia naruszeń.
Właśnie dlatego, żeby ułatwić sobie planowanie odpowiednich działań, zachęcamy dodatkowo do pobrania checklisty: Zgodnego z prawem korzystania z AI: https://lawmore.pl/checklistaai/.