Przewrotny los, bezwzględna sprawiedliwość
W Colorado, prawnicy Christopher Kachouroff i Jennifer DeMaster reprezentujący Mike’a Lindella (MyPillow) podpisali w marcu to, co uznał sąd za dokument w całości wygenerowany przez AI w procesie o zniesławienie przeciwko Ericowi Coomerowi z Dominion Voting Systems. Pozew zawierał niemal 30 błędnych cytowań, w tym… fikcyjnych spraw sądowych. To niezbity dowód, że generatywna AI – jeśli nie weryfikowana – może wprowadzić w błąd i narazić na sankcje. Sędzia Nina Wang nałożyła na każdego z prawników karę 3 000 USD, wskazując, że podpisanie dokumentu bez własnego sprawdzenia jest ewidentnym naruszeniem reguł sądowych.
Trudno nie powstrzymać się od złośliwego komentarza: Lindell, kontrowersyjny CEO znany z propagowania teorii spiskowych o fałszerstwach wyborczych w prezydenckiej elekcji, w której triumfował Joe Biden, sam został niejako oszukany przez technologię, którą tak zaciekle zwalcza.
To nie tylko MyPillow
To niejedyny taki przypadek z amerykańskiej sali sądowej. W Illinois, sądy zezwalają na korzystanie z AI, ale pod warunkiem pełnej weryfikacji wygenerowanych treści przez prawnika. Tymczasem inne afery, np. w Kalifornii czy Utah, skończyły się grzywnami dochodzącymi do 30 000 USD za fałszywe cytaty – to znaki ostrzegawcze, że AI‑halucynacje w prawie nie są marginalną skazą, lecz rosnącym zagrożeniem dla wymiaru sprawiedliwości .
W Alabama – prawnik użył ChatGPT do obrony więziennictwa przed zarzutami korupcji, co również skończyło się zbadaniem sprawy przez sąd i groźbą sankcji. W efekcie coraz więcej sędziów i prawników zaczyna postrzegać AI jako obszar wymagający nowych regulacji.
Powyższe, coraz liczniejsze przypadki wprowadzania AI do świata prawników, paragrafów i sądowych kazusów, doprowadziły do stworzenia nieformalnej listy zasad, o których warto pamiętać w prawnych potyczkach:
- AI nie zna prawdy – generuje „wiarygodne” fałszywki – generatywna AI, jak ChatGPT, potrafi tworzyć sensownie brzmiące cytaty, ale bez bazowania na źródłach. To pułapka dla nieuważnych prawników;
- równoległość AI vs reguły etyki sądowej – sędziowie coraz ostrzej reagują na „sign off” dokumentów, które nie zostały zweryfikowane ręcznie przez prawnika. Zasada odpowiedzialności jest jasna: klauzula prawna jest tylko tyle dobra, ile dokładnie sprawdzony tekst;
- granica między wspieraniem a zastępowaniem człowieka – AI potrafi usprawnić research, ale tylko prawnik powinien odpowiadać za cytowania, źródła i wiarygodność. AI jest narzędziem, nie zastępcą odpowiedzialności.