#LegalneWtorki: Prawne ramy odpowiedzialności za błędy AI w kampaniach marketingowych

#LegalneWtorki: Prawne ramy odpowiedzialności za błędy AI w kampaniach marketingowych

Udostępnij:

Wraz z rozwojem AI zmienia się sposób prowadzenia kampanii marketingowych, a wraz z nim pojawiają się nowe wyzwania prawne. Odpowiedzialność na poziomie treści marketingowych staje się istotnym zagadnieniem, zwłaszcza gdy jej decyzje prowadzą do naruszeń praw konsumentów czy przepisów o ochronie danych osobowych. Sztuczna inteligencja, choć przydatna, stawia przed firmami nowe wyzwania w zakresie odpowiedzialności i zgodności z przepisami prawa.

Odpowiedzialność za AI – kto może ją ponieść?

Podobnie jak w innych dziedzinach, w marketingu również istnieje potrzeba określenia, kto może odpowiadać za błędy AI. Dyskusje koncentrują się na trzech głównych grupach odpowiedzialnych: twórcach (producentach), operatorach systemów i użytkownikach końcowych.

W kontekście kampanii marketingowych, najbardziej interesująca grupa to oczywiście odpowiedzialność użytkownika (czyli podmiotu korzystającego z narzędzia do tworzenia konkretnej kampanii). Przykładowo taka odpowiedzialność może powstać, gdy użytkownik korzysta z narzędzie w sposób nierozważny, np. naruszając poufność/tajemnicą przedsiębiorstwa.

Pamiętajmy, że stopień odpowiedzialności może się różnić zależnie od konkretnego przypadku. W polskim prawie mamy różne postacie winy, które mają właśnie wpływ na ocenę odpowiedzialności za popełniony czyn. Dwie, główne postaci winy to umyślna i nieumyślna. Poniżej (w dużym skrócie), przykłady:

Wina umyślna  np. użytkownik wiedząc, że dane narzędzie AI ma błędy, np. w zakresie ochrony danych osobowych, mimo to decyduje się na korzystanie z niego, co prowadzi do naruszenia. W tej sytuacji użytkownik działa umyślnie, ponieważ przewiduje możliwość wystąpienia szkody i się na nią godzi, nie podejmując działań zapobiegawczych etc.

Wina nieumyślna – użytkownik korzysta z narzędzia do tworzenia kampanii marketingowej, ale nie przeprowadza audytu algorytmu lub nie zleca przeglądu systemu pod kątem zgodności z przepisami o ochronie danych. Uważa, że system działa poprawnie, system np. dodatkowo deklaruje na stronie takie zgodności z przepisami etc. Jednak ostatecznie dochodzi do niezamierzonego naruszenia np. praw konsumentów, W tym przypadku użytkownik może działać nieumyślnie, ponieważ nie dołożył należytej staranności w weryfikacji działania narzędzia AI i dodatkowo zaufał oświadczeniom dostawcy narzędzia.

Jaki inne naruszenia przepisów mogą się pojawić?

Oczywiście istnieje ryzyko odpowiedzialności prawnej za naruszenie przepisów chociażby takich jak RODO. W przypadku naruszeń RODO, firma może odpowiadać za niezgodne z prawem przetwarzanie danych osobowych klientów, a już szczególnie jeśli AI stosowane do profilowania czy targetowania reklam nie spełnia wymogów ochrony danych, co może skutkować karami finansowymi. 

Firma korzystająca z AI w kampaniach marketingowych musi także unikać działań wprowadzających konsumentów w błąd, które mogą wpłynąć na ich decyzje zakupowe. Przekazywanie fałszywych lub wprowadzających w błąd informacji, np. o cechach produktu, cenie czy warunkach zakupu, może spowodować, że konsument podejmie decyzję, której inaczej by nie podjął. Nawet jeśli informacje są częściowo zgodne z prawdą, sposób ich prezentacji może wprowadzać w błąd. Takie praktyki są zakazane i mogą narazić na odpowiedzialność prawną, szczególnie w kontekście ochrony konsumentów.

Pamiętajmy również o prawach autorskich. To, że tylko człowiek może być twórcą już wiemy (więc AI nie ma praw do treści generowanych przez narzędzie, a co za tym idzie nie może też ich przenieść). Jednak firmy korzystające muszą upewnić się, że narzędzia, z których korzystają, nie generują treści naruszających prawa autorskie, a więc konieczna jest dodatkowa kontrola w tym zakresie.

Dodatkowo, w sytuacji, gdy technologia podważa tradycyjne rozumienie pojęcia autora, kluczowym wyzwaniem staje się znalezienie sposobu, aby utwór stworzony z pomocą AI mógł być chroniony prawem autorskim. Jakie działania warto podjąć w tym celu w ramach Twojego działu kreatywnego?

  • nadzór twórczy – zapewnijcie, żeby to człowiek miał kluczowy wpływ na proces twórczy, a AI była jedynie narzędziem wspomagającym, co podkreśli wkład człowieka jako autora;
  • dokumentowanie procesu twórczego – prowadźcie szczegółową dokumentację, uwzględniając czas poświęcony na tworzenie i decyzje kreatywne podejmowane przez człowieka. Ustalony czas pracy i stopień zaangażowania mogą być istotnymi dowodami;
  • modyfikacja wygenerowanych treści – wprowadzajcie znaczące zmiany i adaptacje w treściach wygenerowanych przez AI, aby nadać dziełu unikalny charakter wynikający z ludzkiej twórczości;
  • zawarcie odpowiednich umów – zawierajcie umowy, w których precyzyjnie określa się, kto jest twórcą dzieła, jakie prawa przysługują każdej ze stron oraz jak będą one egzekwowane. Umowa powinna wyraźnie wskazywać, kto ma być uznany za autora, co pomoże uniknąć przyszłych sporów;
  • porównywanie z istniejącymi dziełami – wprowadźcie system pozwalający na uzyskanie (przynajmniej względnie) potwierdzenia, że generowane dzieło nie jest np. kopią istniejące już dzieła.

Pamiętajmy również, że w wykorzystywaniu narzędzi AI kluczowym elementem jest nie tylko transparentność w komunikacji z użytkownikami, ale też w komunikacji z klientami.

Należy informować swoich klientów, że niektóre treści są generowane lub wspierane przez systemy AI – należy to zaznaczyć w umowie z klientem, dodatkowo oczywiście chodzi o transparentność względem użytkowników końcowych. Może warto dodać w umowie, że klient się na godzi na korzystanie z narzędzia X, że jest tego w pełni świadomy i ryzyk z tym związanych etc. Taki krok pomoże budować zaufanie, a jednocześnie zwiększy świadomość klientów na temat ograniczeń takiej technologii.

Kluczowe jest przy tym, aby firmy nie tylko korzystały z AI, ale także rozumiały odpowiedzialność, która wiąże się z jej zastosowaniem. Warto wprowadzić również w firmie politykę wewnętrzną dotyczącą właśnie użycia AI, co mogłaby zawierać checklista w tym zakresie:

  • Czy korzystanie z narzędzia AI wpływa na przetwarzanie i ochronę danych osobowych?
  • Czy i jak można chronić prawa do własności intelektualnej twórczości wspomaganej przez AI?
  • Czy człowiek ma decydujący wkład w proces twórczy, a AI pełni jedynie funkcję wspomagającą?
  • Czy wygenerowane przez AI treści są odpowiednio modyfikowane, aby nadać im indywidualny charakter?
  • Czy korzystanie z AI jest zgodne z licencjami i warunkami użytkowania narzędzia?
  • Czy posiadamy jasne zasady umowne dotyczące autorstwa i praw do twórczości wspomaganej przez AI?
  • Czy sposób korzystania z AI jest zgodny z wewnętrznymi standardami etycznymi firmy?
  • Czy każdorazowo oceniamy ryzyko prawne związane z użyciem AI w projektach twórczych?
  • Czy zapewniamy odpowiednią dokumentację procesów twórczych, w tym wkładu ludzkiego w projekty?
  • Czy AI może wpływać na treść przekazu reklamowego w sposób, który może wprowadzać konsumentów w błąd?

Powyższe powoli działowi kreatywnemu skutecznie zarządzać ryzykami prawnymi związanymi z wykorzystywaniem narzędzi AI. 

Odpowiedzialność za błędy AI w kampaniach marketingowych to złożone zagadnienie, które łączy różne aspekty różnych dziedzin prawa od cywilnego, ochrony danych, praw konsumentów po własność intelektualną. Znaczenie ma przy tym kto faktycznie dopuszcza się naruszenia czy jak została uregulowana odpowiedzialność w umowie z klientem, czy w regulaminie narzędzia.

Czytaj także: