Sztuczna inteligencja nabroiła. Kto za to poniesie odpowiedzialność?

Dodane:

Daria Rutecka Daria Rutecka

Udostępnij:

Sztuczna inteligencja nieraz już pokazała co potrafi. Namalowała obraz, napisała książkę, ale przede wszystkim wykorzystywana jest do celów biznesowych. Jest bowiem sercem autonomicznych pojazdów i chatbotów. Ale co wówczas, gdy wyrządzi jakąś szkodę?

fot. depositphotos.com

Zastosowania SI i powiązane z nimi ryzyka

Na świecie powstają coraz bardziej zaawansowane technologie, które pozwalają na udoskonalenie już istniejących produktów lub stworzenie całkiem nowych. Z każdym miesiącem przybywa firm, które są zainteresowane uczestniczeniem w produkcji samochodów bez kierowcy czy robotów o zastosowaniu medycznym. 

Sztuczna inteligencja to jednak nie tylko robotyka. Coraz częściej pojawiają się także specjalistyczne programy, które przy wykorzystaniu SI ułatwiają inne rodzaje prac. Dość sporym zainteresowaniem cieszą się platformy rekrutacyjne, które dzięki użyciu SI umożliwiają bardziej obiektywny wybór kandydatów do pracy. To tylko kilka z nieograniczonych możliwości jej wykorzystania. 

Wraz z nowymi zastosowaniami pojawia się jednak coraz więcej kwestii problematycznych, a jedno z najczęściej zadawanych pytań dotyczy odpowiedzialności w sytuacji, gdy przez działanie SI coś nie pójdzie zgodnie z planem.

Obecne ramy prawne

Problem odpowiedzialności za produkt informatyczny, a w konsekwencji także za szkodę wyrządzoną przez SI wygląda podobnie do kwestii „wadliwości” książki czy publikacji naukowej (np. z zakresu medycyny, czy inżynierii) ze względu na zawarte w nich błędy merytoryczne. O ile w przypadku książki odpowiedzialność ponosi jej autor, przy SI powstaje wątpliwość, czy w sytuacji gdy błędem obarczona jest tylko treść intelektualna, a nie jej nośnik, cały produkt można wówczas uznać za wadliwy i co tak naprawdę taka wadliwość oznacza dla producenta czy twórcy. 

Obecnie najbliższym rodzajem odpowiedzialności, który stosuje się w sytuacji szkody wyrządzonej przez SI jest tzw. odpowiedzialność za produkt niebezpieczny, która opiera się na zasadzie ryzyka (odpowiedzialność pojawia się niezależnie od istnienia lub braku winy). Z punktu widzenia SI bardzo interesująca i zarazem problematyczna wydaje się kwestia „bezpieczeństwa” produktu. 

O bezpieczeństwie produktu decydują okoliczności z chwili wprowadzenia go do obrotu i co istotne, produkt nie może zostać uznany za wadliwy i niezapewniający bezpieczeństwa tylko z uwagi na fakt, że w późniejszym czasie wprowadzi się do obrotu podobny produkt ulepszony. Za niebezpieczny uznaje się produkt, który nie zapewnia odpowiedniego poziomu bezpieczeństwa, tj. takiego, którego można oczekiwać uwzględniając normalne użycie produktu. Brak bezpieczeństwa może natomiast wynikać np. z wad konstrukcyjnych danego produktu.

Odpowiedzialność na zasadzie ryzyka opiera się na trzech głównych elementach: wadzie produktu rozumianej jako brak bezpieczeństwa, szkodzie i związku przyczynowym pomiędzy wadą produktu a wyrządzoną szkodą. Przenosząc te uregulowania na grunt SI należy przypomnieć, że w dużej mierze polega ona na tzw. uczeniu maszynowym (ang. machine learning), co oznacza, że maszyna wyposażona w taką inteligencję, na podstawie odpowiedniego algorytmu i nauki, sama będzie podejmować decyzje co do swojego działania. 

Pozostając przy przykładzie samochodów bezzałogowych, można wyobrazić sobie sytuację, w której ów samochód musi dokonać trudnego wyboru: zapewnić bezpieczeństwo swoim pasażerom albo grupie przechodniów, którzy nagle wtargnęli na drogę. Każda z podjętych decyzji skutkować będzie jakąś szkodą, ale czy da się taką sytuację potraktować jako „wadę” produktu lub niezapewnienie bezpieczeństwa, którego można by oczekiwać? 

Produktem w rozumieniu polskich przepisów są rzeczy ruchome, zwierzęta oraz elektryczność. Jak zatem należy zdefiniować urządzenia lub oprogramowania wyposażone w SI? Brak konkretnych uregulowań prawnych odnoszących się do tej kwestii nie ułatwia odpowiedzi na powyższe pytanie. Póki co, pozostaje odpowiednie stosowanie istniejących przepisów. 

Nie trudno jednak zauważyć, że według Kodeksu cywilnego dobra niematerialne nie są uważane za produkty, a SI należy zakwalifikować właśnie jako dobro niematerialne. Pojawiają się wnioski, aby oprogramowanie i SI „zamontowaną” w produkcie (np. w samochodzie bezzałogowym) uznawać za jego część składową. 

Nie rozwiązuje to jednak powstałego problemu, gdyż taka interpretacja mogłaby prowadzić do niezrozumiałego podziału odpowiedzialności i sytuacji, w której twórca oprogramowania ponosi za nie odpowiedzialność tylko wówczas, gdy jest ono częścią przedmiotu materialnego.  

Kwestia odpowiedzialności za szkodę wyrządzoną przez SI, a konkretniej wskazanie podmiotu lub podmiotów, które będzie można pociągnąć do takiej odpowiedzialności, wzbudza spore kontrowersje i nie wydaje się, aby polski ustawodawca zdecydował się na jej szybkie uregulowanie. 

Pierwsze próby uregulowania SI

Rozwiązań tego problemu zaczęto poszukiwać na szczeblu Unii Europejskiej. W dniu 16 lutego 2017 Parlament Europejski przyjął rezolucję (rozumianą jako niewiążący sposób wyrażenia stanowiska) zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki, która w dużej mierze skupia się na kwestii odpowiedzialności („Rezolucja”). Co ciekawe, Rezolucja zwraca uwagę na tzw. prawa robotów stworzone przez Isaaka Asimova, które, mimo iż zaczerpnięte z powieści science-fiction napisanej w 1943 r., pozostają nadal aktualne i muszą być adresowane do twórców robotów.

Jedną z propozycji Parlamentu Europejskiego jest skupienie się na osobie „prowadzącej szkolenie” robota. Zgodnie z Rezolucją im dany robot ma większą zdolność uczenia się (autonomię) i im dłużej trwało jego szkolenie, tym większa odpowiedzialność powinna spoczywać na osobie szkolącej. Nie jest to do końca trafne założenie. Najczęściej bowiem za osobę prowadzącą szkolenie uznany będzie programista pracujący nad danym robotem, ustalający algorytm, na podstawie którego robot będzie działać. 

Jednak programista przeważnie będzie pracować na podstawie danych zebranych i opracowanych przez kogoś innego. Trudno wymagać od programisty np. specjalistycznej wiedzy medycznej, dzięki której będzie on w stanie zweryfikować poprawność danych. Mimo iż w Rezolucji postuluje się, aby odpowiedzialność spoczywała na człowieku, a nie na robocie, Parlament zauważa też potrzebę bardziej zaawansowanych zmian w przyszłości. Proponuje się wprowadzenie pojęcia osoby elektronicznej i tym samym nadanie bardziej zaawansowanym robotom osobowości prawnej. Oczywiście, wiązałoby się to z dodatkowymi zabezpieczeniami, takimi jak wysokie ubezpieczenia, czy możliwość sprzedaży robota w celu zadośćuczynienia obowiązkowi naprawienia szkody.

Jeśli chodzi o kwestię odpowiedzialności, rozwiązania zaproponowane przez Parlament Europejski są, póki co, bardzo ogólne. Sugeruje się wprowadzenie:  obowiązkowego systemu ubezpieczeń, który miałby objąć producentów lub właścicieli robotów, funduszy odszkodowawczych, numerów rejestracyjnych dla robotów, co z kolei będzie się wiązało z dość dużym przedsięwzięciem jakim będzie utworzenie unijnego rejestru w tym zakresie,  narzędzi dla konsumentów chcących zbiorowo dochodzić swoich praw w tym zakresie. Nie wiadomo na razie jakiego rodzaju narzędzie miałoby to być. 

Pozostaje mieć nadzieję, że Rezolucja przyczyni się do jeszcze większego wzrostu zainteresowania tematem SI w prawie, a rozwiązania przyjmowane w ewentualnych kolejnych aktach prawnych będą coraz bardziej szczegółowe i specjalistyczne.

Daria Rutecka

Prawnik w dziale corporate / m&a. w Schoenherr

Moje zainteresowania prawnicze obejmują prawo handlowe, prawo własności intelektualnej, międzynarodowe aspekty transakcji handlowych, kwestie związane ze sztuczną inteligencją, handlem elektronicznym i odpowiedzialnością cywilną. Obecnie przygotowuję rozprawę doktorską z zakresu ochrony prawnej programów komputerowych.