Tak, dobrze czytacie. Babcie. Ostatni bastion zdrowego rozsądku, niedzielnego rosołu i pytania „a kiedy ślub?”. Teraz trafiają na celownik algorytmów. Dlaczego właśnie one, dlaczego?
Babcia kontra algorytm
Historia, którą opisał serwis Mashable, dotyczy firmy Clearview AI – znanej z tego, że zbiera miliardy zdjęć twarzy z internetu i sprzedaje narzędzia do ich rozpoznawania służbom porządkowym. Brzmi jak coś, co mogłoby być scenariuszem kolejnego sezonu „Black Mirror”? Oczywiście. Ale w tym wypadku to życie jest nowelą, a nie nowela życiem. Oto bowiem w omawianym przypadku doszło do sytuacji, w której starsza kobieta została błędnie zidentyfikowana przez system rozpoznawania twarzy jako podejrzana i… trafiła do aresztu.
Otóż to. Babcia. Algorytm. Areszt. Trzy słowa, które dotąd raczej nie występowały razem w jednym zdaniu. A już na pewno rzadziej niż trzy inne słowa, np. „a kiedy ślub?”
„Ale AI się uczy!” – powiedział ktoś w garniturze
Oczywiście natychmiast pojawia się klasyczny refren branży technologicznej: „to tylko błąd systemu, AI się uczy”. To zdanie, które powinno być już chyba drukowane na pudełkach jak ostrzeżenie na papierosach.
Problem polega na tym, że – jak wskazują liczne badania – systemy rozpoznawania twarzy częściej mylą się w przypadku kobiet, osób starszych i osób o ciemniejszym kolorze skóry. MIT Media Lab już w 2018 roku wykazało, że skuteczność takich systemów znacząco spada poza „domyślnym użytkownikiem” (czyli młodym, białym mężczyzną).
Czyli mówiąc wprost: jeśli jesteś babcią, to dla AI jesteś mniej „czytelna” niż pogięta butelka po mineralnej, którą wrzucamy do butelkomatu.
Problem nie w AI, tylko w zachwycie nad nią
No i tu wchodzimy my – cali na biało – z nagłówkiem: „Zaczęło się! AI bierze się za nasze babcie!” Taka wszak rola mediów, ostrzegać zawczasu.
Bo przecież tak to działa. Jeden przypadek, jeden incydent – i już mamy wizję świata, w którym roboty wyciągają seniorki z kolejek do apteki i transportują je do cyfrowych lochów. Ale ironia ironią, przestrogi przestrogami, ale coś jednak rzeczywiście się zaczęło. I nie chodzi o polowanie na babcie, tylko o coraz szersze wdrażanie niedoskonałych technologii w systemach wymiaru sprawiedliwości.
Nie ma nic złego w samej technologii rozpoznawania twarzy. Problem zaczyna się wtedy, gdy traktujemy ją jako nieomylną i w rezultacie: wdrażamy ją bez odpowiednich regulacji. Równie złe jest ignorowanie jej ograniczeń i uprzedzeń czy też dostrzeganie błędów i win mitycznym „systemie”. A nie w konkretnych aplikacjach rozwijanych przez konkretne firmy.
Europa już próbuje reagować – regulacje w ramach AI Act mają ograniczyć stosowanie takich technologii w przestrzeni publicznej. Tyle że jak wszem i wobec wiadomo, unijne młyny mielą powoli, więc pozostaje nam liczyć, że nim prawo dogoni technologię, to ta technologia nie dokona jakichś kolejnych bezprawnych aresztowań naszych seniorek.
Zaczęło się – ale nie tak, jak myślicie
Nie, AI nie „bierze się za nasze babcie”. AI robi dokładnie to, co jej każemy – tylko że my sami nie do końca rozumiemy konsekwencje. A więc tak, zaczęło się. Tyle że nie apokalipsa rodem z clickbaitu, lecz bardzo realna rozmowa o tym, jak nie zrobić z technologii narzędzia do krzywdzenia ludzi.
Czytaj także:
- Zaczęło się! Roboty chcą przejąć władzę w Polsce
- Zaczęło się! AI spycha sportowców z podium!
- Zaczęło się! AI zaprosi cię na randkę i każe płacić za matchę!
- Zaczęło się! Roboty wetkną nos w nie swoje sprawy
- Zaczęło się! Roboty wyrzucają robotników na bruk!
- Zaczęło się! AI zabiera nam żony!
- Zaczęło się! AI nie pozwala nam rodzić dzieci!
- Zaczęło się. AI czyta w naszych myślach!
- Zaczęło się! AI chce decydować o tym, co dzieje się z nami po naszej śmierci!
- Zaczęło się! AI zadecyduje, czy wpuścić nas do domu!