Z tym, że sztuczną inteligencję trzeba ująć w ramy prawne, zgadza się pewnie większość z nas. Nie chcemy być narażani na ataki deep-fake, chcemy wiedzieć, który z filmów, zdjęć, tekstów jest prawdziwy, a który spreparowany przez sztuczną inteligencję.
Regulacje oczywiście nie rozwiążą całkowicie problemu, ale mogą zmniejszyć jego natężenie. Regulacji, we własnym interesie, potrzebują również sami twórcy rozwiązań sztucznej inteligencji. Jak właściwie regulacje dot. AI mogą pomóc przedsiębiorcom? W których branżach możemy liczyć na najszybsze wejście ich w życie?
Zapraszamy do lektury odpowiedzi udzielonych MamStartup przez adwokata Janusza Szelińskiego, partnera w kancelarii act BSWW legal & tax.
….
Czym jest sztuczna inteligencja (AI) dla prawnika?
Sztuczna inteligencja (AI) to dziedzina informatyki, która zajmuje się tworzeniem systemów i programów komputerowych zdolnych do wykonywania zadań, które do tej pory wymagały ludzkiego intelektu. Obecnie ludzkość rozpoczęła tworzenie programów, które mogą analizować, rozumieć, uczyć się, przewidywać i podejmować decyzje na podstawie zebranych danych.
Sztuczna inteligencja wykorzystuje różne techniki, takie jak uczenie maszynowe, przetwarzanie języka naturalnego, rozpoznawanie wzorców, rozpoznawanie obrazów i głosu, planowanie, optymalizację jak i wiele innych. Sztuczna inteligencja może mieć różne stopnie zaawansowania, od prostych systemów zastosowanych w aplikacjach codziennego użytku, po zaawansowane technologie używane w badaniach naukowych i przemyśle. Jej rozwój ma ogromne znaczenie dla wielu dziedzin, w tym medycyny, przemysłu, transportu, finansów, edukacji i innych, ponieważ umożliwia automatyzację procesów, zwiększa efektywność i otwiera nowe możliwości. W największym uproszczeniu, z punktu widzenia systemu prawnego sztuczna inteligencja jest programem komputerowym działającym w określonym środowisku sprzętowym.
Czy jest już prawna definicja sztucznej inteligencji?
Co do zasady odpowiedź brzmi nie, choć trzeba przyznać, że od kilku lat podejmowane są próby stworzenia takiej definicji w różnych jurysdykcjach.
W najbliższym jednak czasie, może dojść do rewolucyjnych zmian prawnych, gdyż przewiduje się ustanowienie AI Act przez Parlament Europejski, a głosowanie nad tym aktem prawnym ma się odbyć w czerwcu tego roku – w założeniu możemy przeczytać, że „Systemy AI mają być nadzorowane przez ludzi, mają być bezpieczne oraz przejrzyste (…) mają mieć również jednolitą definicję sztucznej inteligencji, zaprojektowaną tak, aby była neutralna technologicznie, tak aby mogła mieć zastosowanie do obecnych i przyszłych systemów sztucznej inteligencji.” – czy do tego dojdzie, zobaczymy już niebawem.
Po co nam definicja prawna sztucznej inteligencji, jak jej brak wpływa na prowadzenie działalności w tym obszarze?
Jak to ujmuje Chat GPT: „Definicja prawna sztucznej inteligencji jest istotna z kilku powodów. Po pierwsze, pozwala ona na jednoznaczne określenie zakresu i zastosowania prawnych ram regulujących jej działanie. Definicja ta umożliwia wyodrębnienie sztucznej inteligencji jako odrębnej kategorii w systemie prawnym.”
Z działaniem sztucznej inteligencji związanych jest wiele ryzyk prawnych. Po pierwsze rodzą się pytania dotykające kwestii prawno-autorskich, choćby takich, w jakim zakresie sztuczna inteligencja może korzystać z wcześniejszych prac różnych autorów oraz czy należy się takim autorom jakieś wynagrodzenie z tego tytułu, a także kto, jeśli w ogóle, posiada prawa autorskie do wytworów AI. Po drugie pojawiają się zagadnienia związane z korzystaniem z ogromnych zasobów danych, co rodzi pytania z zakresu prywatności i danych osobowych. Po trzecie są wątpliwości dotyczące bezpieczeństwa korporacyjnego oraz czynów nieuczciwej konkurencji. Po czwarte mamy kwestie bardziej ogólne, ale być może ważniejsze od wspomnianych wcześniej, jak bezpieczeństwo osobiste i prawa obywatelskie. Bez określonej definicji, możemy się spodziewać trudności w regulowaniu wszystkich tych zagadnień.
Jak zabezpieczyć swój oparty na AI biznes przed naruszającym prawo zachowaniem użytkowników, jak zabezpieczyć się przed odpowiedzialnością za ich działania?
Istnieje kilka dobrych praktyk, które pozwolą nie tyle wyeliminować ryzyka, ale ograniczyć je w praktyce.
Po pierwsze należy zidentyfikować potencjalne scenariusze szkód, które mogą wystąpić na skutek korzystania z AI i ocenić ich skutki i prawdopodobieństwo. Po drugie należy wprowadzić mechanizmy monitorowania działania swojego produktu AI oraz w razie konieczności aktualizować algorytmy AI, aby minimalizować zdiagnozowane ryzyka. Wszystko to wymaga testowania produktu AI pod różnymi warunkami i scenariuszami, aby zminimalizować potencjalne ryzyko szkód.
Natomiast z punktu widzenia prawnika należy zadbać o jasne i precyzyjne umowy oraz polityki użytkowania dla swojego produktu AI. W tym celu należałoby postulować konsultacje z prawnikami, którzy mają doświadczenie w dziedzinie AI i odpowiedzialności prawnej związanej z jej wykorzystaniem. Niezależnie od powyższego należałoby rozważyć zawarcie umowy ubezpieczenia odpowiedzialności cywilnej, która obejmie potencjalne szkody wyrządzone przez AI, co wymaga konsultacji z dobrym brokerem ubezpieczeniowym lub doradcą z zakładu ubezpieczeń.
Jak zabezpieczyć wykorzystanie swojego narzędzia bazującego na AI przez osoby trzecie, które np. nie zapłaciły za użycie produktu?
W przypadku polskiego porządku prawnego albo będziemy mieli do czynienia z majątkowymi prawami autorskimi albo know-kow, zatem należy opowiadać się za zachowywaniem poufności elementów systemu narzędzia AI. Może to mieć charakter faktyczny lub zawarcia stosownej umowy o zachowaniu poufności. Oczywiście stosowne postanowienia można także zawrzeć w umowie licencyjnej na korzystanie z danego systemu AI. W niektórych jurysdykcjach, szczególnie w USA, przyjęto patentowy system ochrony dla oprogramowania, natomiast koniecznym jest sprawdzenie z prawnikiem czy system AI spełnia kryteria patentowe.
Czy w Polsce grozi nam zakaz rozwijania i wykorzystywania narzędzi AI?
Nie ma żadnego ogólnego zakazu rozwoju i wykorzystywania narzędzi sztucznej inteligencji (AI) w Polsce. Wydaje się, że jeśli chodzi o kwestie regulacji dotyczących sztucznej inteligencji, to polski ustawodawca będzie czekał z podjęciem działań na ustawodawcę europejskiego. Pamiętać jednak należy, że są szczególne przepisy, np. dotyczące ochrony prywatności, które regulują zbieranie, przetwarzanie i wykorzystywanie danych osobowych.
Wiemy, jaki wpływ fake-newsy miały na ostatnie wybory prezydenckie w Stanach Zjednoczonych. Czy jest szansa na zabezpieczenie nadchodzących, krajowych wyborów parlamentarnych?
Deepfake to technologia umożliwiająca tworzenie manipulowanych wideo lub audio, noszących pozory autentyczności, a które nie mają wiele wspólnego z osobami w nich przedstawionymi. Może być wykorzystywana do rozprzestrzeniania dezinformacji, manipulacji opinią publiczną i destabilizacji wyborów.
Prawo może odegrać pewną rolę w regulowaniu rozprzestrzeniania deepfake i karaniu osób odpowiedzialnych za ich tworzenie i rozpowszechnianie. Niektóre kraje już wprowadziły prawodawstwo, które kwalifikuje niektóre rodzaje manipulacji audio-wideo jako przestępstwo. Również Unia Europejska pracuje nad rozwiązaniem, a jest nim wspomniany przeze mnie wcześniej AI Act.