30 błędnych cytatów i fikcyjne sprawy sądowe: oto dlaczego nie warto brać AI na salę sądową

Dodane:

Przemysław Zieliński Przemysław Zieliński

30 błędnych cytatów i fikcyjne sprawy sądowe: oto dlaczego nie warto brać AI na salę sądową

Udostępnij:

Dwóch amerykańskich prawników boleśnie przekonało się, że lepiej zawierzyć swój los ślepej sprawiedliwości niż wszechwiedzącemu LLM. Wygenerowany przez AI dokument sądowy był pełen błędów i zmyślonych cytatów. Prawdziwa była za to kara finansowa, nałożona na obu specjalistów.

Przewrotny los, bezwzględna sprawiedliwość

W Colorado, prawnicy Christopher Kachouroff i Jennifer DeMaster reprezentujący Mike’a Lindella (MyPillow) podpisali w marcu to, co uznał sąd za dokument w całości wygenerowany przez AI w procesie o zniesławienie przeciwko Ericowi Coomerowi z Dominion Voting Systems. Pozew zawierał niemal 30 błędnych cytowań, w tym… fikcyjnych spraw sądowych. To niezbity dowód, że generatywna AI – jeśli nie weryfikowana – może wprowadzić w błąd i narazić na sankcje. Sędzia Nina Wang nałożyła na każdego z prawników karę 3 000 USD, wskazując, że podpisanie dokumentu bez własnego sprawdzenia jest ewidentnym naruszeniem reguł sądowych.

Trudno nie powstrzymać się od złośliwego komentarza: Lindell, kontrowersyjny CEO znany z propagowania teorii spiskowych o fałszerstwach wyborczych w prezydenckiej elekcji, w której triumfował Joe Biden, sam został niejako oszukany przez technologię, którą tak zaciekle zwalcza.

To nie tylko MyPillow

To niejedyny taki przypadek z amerykańskiej sali sądowej. W Illinois, sądy zezwalają na korzystanie z AI, ale pod warunkiem pełnej weryfikacji wygenerowanych treści przez prawnika. Tymczasem inne afery, np. w Kalifornii czy Utah, skończyły się grzywnami dochodzącymi do 30 000 USD za fałszywe cytaty – to znaki ostrzegawcze, że AI‑halucynacje w prawie nie są marginalną skazą, lecz rosnącym zagrożeniem dla wymiaru sprawiedliwości .

W Alabama – prawnik użył ChatGPT do obrony więziennictwa przed zarzutami korupcji, co również skończyło się zbadaniem sprawy przez sąd i groźbą sankcji. W efekcie coraz więcej sędziów i prawników zaczyna postrzegać AI jako obszar wymagający nowych regulacji.

Powyższe, coraz liczniejsze przypadki wprowadzania AI do świata prawników, paragrafów i sądowych kazusów, doprowadziły do stworzenia nieformalnej listy zasad, o których warto pamiętać w prawnych potyczkach:

  • AI nie zna prawdy – generuje „wiarygodne” fałszywki – generatywna AI, jak ChatGPT, potrafi tworzyć sensownie brzmiące cytaty, ale bez bazowania na źródłach. To pułapka dla nieuważnych prawników;
  • równoległość AI vs reguły etyki sądowej – sędziowie coraz ostrzej reagują na „sign off” dokumentów, które nie zostały zweryfikowane ręcznie przez prawnika. Zasada odpowiedzialności jest jasna: klauzula prawna jest tylko tyle dobra, ile dokładnie sprawdzony tekst;
  • granica między wspieraniem a zastępowaniem człowieka – AI potrafi usprawnić research, ale tylko prawnik powinien odpowiadać za cytowania, źródła i wiarygodność. AI jest narzędziem, nie zastępcą odpowiedzialności.
Czytaj także: „Nie konkurujemy tym, co robimy – ale tym, jak to robimy” – Dawid Warsiński (Zapytaj Kodeks)