Zaczęło się! AI bierze się za nasze babcie!

Dodane:

Przemysław Zieliński Przemysław Zieliński

Zaczęło się! AI bierze się za nasze babcie!

Udostępnij:

Kto żyw, niech odkłada smartfona, zamyka laptopa i bieży ku swojej babci, ewentualnie babciom. Najlepiej natychmiast. Oto bowiem sztuczna inteligencja właśnie wzięła je na cel.

Tak, dobrze czytacie. Babcie. Ostatni bastion zdrowego rozsądku, niedzielnego rosołu i pytania „a kiedy ślub?”. Teraz trafiają na celownik algorytmów. Dlaczego właśnie one, dlaczego?

Babcia kontra algorytm

Historia, którą opisał serwis Mashable, dotyczy firmy Clearview AI – znanej z tego, że zbiera miliardy zdjęć twarzy z internetu i sprzedaje narzędzia do ich rozpoznawania służbom porządkowym. Brzmi jak coś, co mogłoby być scenariuszem kolejnego sezonu „Black Mirror”? Oczywiście. Ale w tym wypadku to życie jest nowelą, a nie nowela życiem. Oto bowiem w omawianym przypadku doszło do sytuacji, w której starsza kobieta została błędnie zidentyfikowana przez system rozpoznawania twarzy jako podejrzana i… trafiła do aresztu.

Otóż to. Babcia. Algorytm. Areszt. Trzy słowa, które dotąd raczej nie występowały razem w jednym zdaniu. A już na pewno rzadziej niż trzy inne słowa, np. „a kiedy ślub?”

„Ale AI się uczy!” – powiedział ktoś w garniturze

Oczywiście natychmiast pojawia się klasyczny refren branży technologicznej: „to tylko błąd systemu, AI się uczy”. To zdanie, które powinno być już chyba drukowane na pudełkach jak ostrzeżenie na papierosach.

Problem polega na tym, że – jak wskazują liczne badania – systemy rozpoznawania twarzy częściej mylą się w przypadku kobiet, osób starszych i osób o ciemniejszym kolorze skóry. MIT Media Lab już w 2018 roku wykazało, że skuteczność takich systemów znacząco spada poza „domyślnym użytkownikiem” (czyli młodym, białym mężczyzną).

Czyli mówiąc wprost: jeśli jesteś babcią, to dla AI jesteś mniej „czytelna” niż pogięta butelka po mineralnej, którą wrzucamy do butelkomatu.

Problem nie w AI, tylko w zachwycie nad nią

No i tu wchodzimy my – cali na biało – z nagłówkiem: „Zaczęło się! AI bierze się za nasze babcie!” Taka wszak rola mediów, ostrzegać zawczasu.

Bo przecież tak to działa. Jeden przypadek, jeden incydent – i już mamy wizję świata, w którym roboty wyciągają seniorki z kolejek do apteki i transportują je do cyfrowych lochów. Ale ironia ironią, przestrogi przestrogami, ale coś jednak rzeczywiście się zaczęło. I nie chodzi o polowanie na babcie, tylko o coraz szersze wdrażanie niedoskonałych technologii w systemach wymiaru sprawiedliwości.

Nie ma nic złego w samej technologii rozpoznawania twarzy. Problem zaczyna się wtedy, gdy traktujemy ją jako nieomylną i w rezultacie: wdrażamy ją bez odpowiednich regulacji. Równie złe jest ignorowanie jej ograniczeń i uprzedzeń czy też dostrzeganie błędów i win mitycznym „systemie”. A nie w konkretnych aplikacjach rozwijanych przez konkretne firmy.

Europa już próbuje reagować – regulacje w ramach AI Act mają ograniczyć stosowanie takich technologii w przestrzeni publicznej. Tyle że jak wszem i wobec wiadomo, unijne młyny mielą powoli, więc pozostaje nam liczyć, że nim prawo dogoni technologię, to ta technologia nie dokona jakichś kolejnych bezprawnych aresztowań naszych seniorek.

Zaczęło się – ale nie tak, jak myślicie

Nie, AI nie „bierze się za nasze babcie”. AI robi dokładnie to, co jej każemy – tylko że my sami nie do końca rozumiemy konsekwencje. A więc tak, zaczęło się. Tyle że nie apokalipsa rodem z clickbaitu, lecz bardzo realna rozmowa o tym, jak nie zrobić z technologii narzędzia do krzywdzenia ludzi.

Czytaj także: