W USA sztuczna inteligencja (AI) ocenia ryzyko potencjalnego zwolnienia zatrzymanego z aresztu.
Jak podaje The Verge, wyszło na jaw, że ICE dzięki tej technologii realizowało „tajną politykę zakazu uwalniania podejrzanych do czasu rozprawy”.
Organizacje New York Civil Liberties Union (NYCLU) i Bronx Defenders, które zajęły się tą sprawą, podały, że algorytm, który dwukrotnie był zmieniany w latach 2015-2017, stracił możliwość rekomendowania zwolnienia z aresztu. Dotyczyło to nawet tych zatrzymanych, którzy nie stanowili żadnego zagrożenia. Instytucje te oskarżają ICE o celową zmianę systemu RCA.
Czym jest RCA?
RCA to system oceny klasyfikacji ryzyka, opracowany do analizy historii kryminalnej zatrzymanych, a także ich więzów rodzinnych i powiązań z innymi podejrzanymi.
Główną funkcją RCA jest zapewnienie obiektywności i uczciwości procesu.
Teoretycznie rozwiązanie na podstawie danych AI miało ocenić, czy dana osoba ma być zatrzymana lub zwolniona. W 2018 r. Reuters informował jednak, że z drugiej opcji zrezygnowano. Zatem sztuczna inteligencja jedynie zalecała zatrzymanie albo kierowała sprawę do przełożonego w ICE.
Kiedy system został wdrożony w 2013 r., w pozwie odnotowano, że około 40% osób aresztowanych przez urzędników imigracyjnych zostało zwolnionych za kaucją lub bez kaucji.
W latach 2017-2019 liczba ta spadła poniżej 3%. Zbiegło się to w czasie z masowym wzrostem liczby aresztowanych imigrantów bez wyroków skazujących, którzy powinni byli mieć większe szanse na uzyskanie zwolnienia.
Czym grozi modyfikacja algorytmu?
Przetrzymywanie imigrantów niestosujących przemocy może mieć poważne skutki. Więźniowie mogą spędzić tygodnie lub miesiące w więzieniu, nie będąc skazanymi za przestępstwo, oczekując na rozprawę przed sędzią. Wielu z nich traci więzi z rodzinami i społecznościami lub zostaje zwolnionych z pracy.
Tymczasem Reuters napisał, że sądy są przeciążone rozprawami dla zatrzymanych imigrantów – 40 % z nich zostało zwolnionych po ich przesłuchaniach.