– Sztuczna inteligencja i uczenie maszynowe są jednymi z tych metod, które dają nam pewną przewagę w walce z pojawiającymi się, coraz nowszymi oszustwami. Ponieważ oszustów jest zdecydowanie więcej niż osób, które się bronią, istnieje potrzeba, żeby zautomatyzować te procesy – mówi Mateusz Chrobok, wiceprezes ds. biometrii behawioralnej w Buguroo.
Według raportu opublikowanego przez Bank Rezerw Federalnych w Nowym Jorku tylko jeden cyberatak wymierzony w jeden z większych amerykańskich banków mógłby mieć ogromny wpływ na globalny system finansowy. Mimo rosnącej świadomości zagrożeń cybernetycznych banki muszą się mierzyć z coraz większą liczbą ataków. Zagrożeni są także ich klienci, którzy mogą łatwo paść ofiarą hakerów. Za pomocą skradzionych poświadczeń mogą oni uzyskać nieautoryzowany dostęp do kont użytkowników, wykorzystując automatyczne żądania logowania. Dzięki nowoczesnym narzędziom haker może rejestrować nawet miliony złamanych haseł i nazw klientów.
– To jest ciągły wyścig zbrojeń, jeżeli chodzi o uczenie maszynowe. Generatywne sieci neuronowe służą do tego, żeby przełamywać ochronę po stronie właśnie uczenia maszynowego. W tej chwili już to się dzieje, hakerzy bazują na informacjach, które są dostępne w internecie, ponieważ wycieka bardzo dużo np. pierwszych faktorów uwierzytelniania – wskazuje Mateusz Chrobok.
Niedawno w Wielkiej Brytanii wyciekły odciski palców ponad miliona osób, a także informacje o rozpoznawaniu twarzy, niezaszyfrowane nazwy użytkowników i hasła oraz dane osobowe pracowników banków. Wzrosła też liczba ataków phishingowych na pracowników banków. Hakerzy nakłaniają w nich do otwarcia fałszywego łącza, co prowadzi do instalacji złośliwego oprogramowania, które następnie zamraża system w ramach ataku ransomware. W ten sposób cyberprzestępcy również są w stanie wykraść dane klientów banków, w tym loginy, hasła i inne systemy uwierzytelniania.
– Z jednej strony mamy duże serwisy, które zbierają te dane i je gubią, narażając nas na ataki, a z drugiej strony mamy obrońców, którzy poszukują nowych metod, żeby uwierzytelniać, nie tylko na podstawie np. PESEL-u. Jest to bardzo pozytywne z perspektywy użytkownika– ocenia ekspert.
Teoretycznie klienci mogą liczyć na zwrot pieniędzy, jeśli okaże się, że hakerzy wykorzystują np. luki w bankowości elektronicznej. Nie zawsze jednak odzyskanie środków jest proste, sprawy najczęściej kończą się w sądzie. Stąd pojawiają się rozwiązania, które maksymalnie chronią banki i przede wszystkim klientów.
– W Europie jest coraz więcej regulacji, które zwracają pieniądze nawet w przypadku, gdyby się coś stało. Jednak to jest kolejna furtka, bo pojawiają się przypadki, tzw. fraudy osób pierwszych, które działają na zasadzie: „A gdybym powiedział bankowi, że to nie byłem ja, i wyciągnął te pieniądze?”. Rozwiązania uczenia maszynowego, np. biometria behawioralna, może to potwierdzić – mówi Mateusz Chrobok.
Buguroo specjalizuje się w opracowywaniu rozwiązań zapobiegających oszustwom dla sektora bankowego. Wykorzystują one sztuczną inteligencję i modele głębokiego uczenia się. Stosując biometrię behawioralną, można zbudować unikalne profile każdego klienta bankowego na podstawie jego tempa i rytmu pisania czy sposobu poruszania kursorem. Pozwala to bankowi rozróżnić oszustów od klientów.
– Im więcej mamy transparentności w tym, w jaki sposób przeprowadzamy transakcje, uwierzytelnianie, tym lepiej jesteśmy w stanie ocenić, jak pewne serwisy czy dostarczyciele usług funkcjonują– podkreśla wiceprezes ds. biometrii behawioralnej w Buguroo.