Ochrona Danych Osobowych w kontekście automatyzacji
Automatyzacja obsługi klienta poprzez chatboty zwykle wiąże się z przetwarzaniem danych osobowych użytkowników. W kontekście przepisów RODO startupy, które chcą korzystać z funkcji chatbotu do automatyzacji obsługi klienta powinny zwrócić szczególną uwagę na, chociażby, następujące kwestie:
- czy chatboty przetwarzają dane osobowe klientów zgodnie z RODO;
- czy zostały wdrożone odpowiednie środki techniczne i organizacyjne, aby chronić dane użytkowników przed naruszeniami (np. szyfrowanie, pseudonimizacja);
- czy użytkownik jest odpowiednio informowany o przetwarzaniu danych przez AI.
Ponadto ważne jest, aby zwrócić uwagę na to, żeby każda czynność przetwarzania danych osobowych miała odpowiednią, ważną podstawę prawną. Podstawy takie zostały określone w art. 6 ust. 1 oraz art. 9 ust. 2 RODO, lecz mogą również wynikać z innych przepisów – jako przykład można tutaj wskazać art. 22(1) Kodeksu pracy.
Startupy muszą jasno określić, na jakiej podstawie prawnej przetwarzają dane użytkowników poprzez chatboty. Zgodnie z art. 12, 13 i 14 RODO, firmy, w których komunikacja odbywa się automatycznie za pośrednictwem chatbota – tak samo jak inni administratorzy danych – mają obowiązek informować użytkowników o tym, jakie dane są zbierane, w jakim celu i przez kogo są przetwarzane, a informacje te muszą być podane w sposób jasny i zrozumiały. Jednocześnie artykuły 15-22 RODO zapewniają użytkownikom prawo do dostępu do swoich danych, ich korekty, usunięcia oraz sprzeciwu wobec przetwarzania. Startupy muszą więc zadbać o to, aby chatboty wspierały te prawa i umożliwiały użytkownikom ich realizację.
Automatyzacja obsługi w świetle AI Act – o czym pamiętać?
- Wybór dostawcy systemu, który spełnia wymagania określone w AI Act.
- Przejrzystość – pamiętaj, że narzędzie AI należy opracowywać/wykorzystywać w sposób pozwalający na odpowiednią identyfikowalność oraz wytłumaczalność. Użytkownicy powinni być jasno poinformowani, kiedy mają do czynienia z systemem AI, a nie z człowiekiem. Ważne jest również, aby osoby korzystające z narzędzia wiedziały, jakie są jego możliwości oraz ograniczenia, a osoby, na które system AI ma wpływ, były świadome swoich praw w związku z takim oddziaływaniem. Treści dostarczane za pośrednictwem narzędzia, są wygenerowane przez system, a nie przez pracownika i o tym także musi wiedzieć użytkownik. Dlatego też należy stworzyć odrębne zasad korzystania z takiego narzędzia, które będą się wyświetlały przed przystąpieniem do korzystania z czatbota, a z którymi użytkownik musi się wcześniej zapoznać i zaakceptować je.
- Możliwość interwencji człowieka w kluczowych momentach – należy zapewnić użytkownikowi możliwości kontaktowania się z człowiekiem, który może przejąć sprawę i zweryfikować decyzję AI
- Stała kontrola – oczywiście należy podjąć także odpowiednie środki techniczne i organizacyjne, żeby narzędzie było wykorzystywane zgodnie z ustalonymi/przekazanymi zasadami. W każdym razie firmy powinny regularnie monitorować działanie swoich systemów AI pod kątem potencjalnych błędów lub niepożądanych efektów działania algorytmów.
W przypadku, gdy taki system będzie zakwalifikowany jako system wysokiego ryzyka, zakres tych obowiązków będzie szerszy. Będzie on również inny w zależności od kategorii podmiotu, tj. czy startup będzie np. stosującym, czy dostawcą. Mogą to być obowiązki dot. przeprowadzania procedury oceny zgodności, zapewnienia odpowiedniej dokumentacji technicznej, systemu zarządzania jakością etc.
Systemy AI mogą być klasyfikowane jako wysokiego ryzyka, jeśli mają znaczący wpływ na prawa podstawowe użytkowników, takie jak prywatność, ochrona danych, a także prawo do rzetelnego traktowania. Automatyzacja obsługi klienta poprzez chatboty może potencjalnie wchodzić w ten zakres, zwłaszcza gdy systemy te są używane do podejmowania decyzji lub wyciągania wniosków na podstawie danych osobowych.
Prawa konsumentów
Jakie podstawowe obowiązki, należy wziąć pod uwagę, przy obsłudze podmiotów będących konsumentami?
- Obowiązek rzetelnego informowania
Startupy muszą dostarczać konsumentom pełne, jasne i zrozumiałe informacje dotyczące oferowanych produktów i usług. W przypadku automatycznej obsługi klienta za pomocą chatbotów przedsiębiorca jest odpowiedzialny za treści przekazywane konsumentom, a w przypadku nieścisłości lub błędów może ponosić odpowiedzialność za wprowadzenie konsumenta w błąd.
- Informacja o prawie do odstąpienia od umowy
W przypadku obsługiwania procesów zawierania umów na odległość należy poinformować konsumenta o jego prawie do odstąpienia oraz ew. wyjątkach, kiedy to prawo odstąpienia nie ma zastosowania.
- Reklamacja, gwarancje
W zależności od zakresu usług może okazać się konieczne dostarczenie konsumentowi informacji na temat przysługujących mu praw w zakresie reklamacji (ew. także gwarancji), a także odpowiednie poprowadzenie procesu reklamacyjnego. Pamiętaj też o ew. odpowiedzialności, jeżeli chatbot odpowie, że np. reklamacja została uznana, chociaż w rzeczywistości nie powinna.
- Nadzór przez pracownika
Końcowo to przedsiębiorca ponosi odpowiedzialność za przekazywanie błędnych informacji przez czatbota, a więc należy zapewnić nie tylko nadzór pracownika, ale również w razie problemów zapewnić konsumentowi możliwość skontaktowania się z takim pracownikiem.
Własność intelektualna a chatboty
W kontekście automatyzacji obsługi klienta za pomocą sztucznej inteligencji ochrona własności intelektualnej może obejmować różnorodne aspekty. Od zabezpieczenia algorytmów i kodu źródłowego, przez ochronę danych i baz klientów, po wykorzystywane licencje.
Jednocześnie, z uwagi na to, że zgodnie z naszym prawem, generalnie twórcą może być tylko człowiek, to sama kwestia praw do treści generowanych przez AI jest to właściwie zagadnienie na odrębny artykuł. Pomijając zresztą problematykę twórcy, to jednak zwykle w tym przypadku będą to narzędzia służące do obsługi klienta, a więc również mało prawdopodobny jest scenariusz, gdzie w ogóle powstałoby coś twórczego.
W skrócie – co warto jednak wziąć pod uwagę?
- Ochrona narzędzia
W przypadku, gdy startup jest jednocześnie twórcą chatbota, a część prac jest zlecana podwykonawcom, oczywiście należy zadbać także o przeniesienie praw autorskich do wszystkich elementów narzędzia na rzecz startupu (i tutaj pamiętaj o pisemnej formie umowy). Na dalszym etapie lub w przypadku, gdy startup jest tylko korzystającym, nie zapomnij o dodaniu do regulaminu (czy warunków korzystania z narzędzia) o zakazanych działaniach w stosunku do narzędzia, w tym kodu źródłowego.
- Korzystanie z gotowych rozwiązań
Jeżeli startup korzysta z licencjonowanych narzędzi AI, powinien dokładnie sprawdzić warunki licencji, w szczególności dotyczące dalszego udostępniania lub modyfikowania oprogramowania. Licencje open-source mogą mieć różne zasady, co do praw autorskich i komercyjnego wykorzystania. Nie zapominaj również o konieczności zapewnienia kompatybilności wykorzystywanych licencji. Dobrze przemyślane i zaplanowane podejście do aspektów prawnych pomoże każdorazowo zminimalizować ryzyko związane z automatyzacją obsługi klienta oraz pozwoli na pełne wykorzystanie potencjału, jaki oferuje sztuczna inteligencja.
Właśnie po to, żeby ułatwić bezpieczne wdrożenie AI w obsłudze klienta, polecamy dodatkowo pobranie checklisty Zgodne z prawem korzystania z AI https://lawmore.pl/