44 2 0

Robert Lewandowski docenił, że technologia z Polski może pomóc ludziom z całego świata – Michał Wroczyński (Samurai Labs)

Dodane

08-10-2018

Adam Sawicki
Samurai Labs z Polski opracowało system do wykrywania i zapobiegania przemocy w sieci. Niedawno startupem zainteresował się Robert Lewandowski, który zainwestował nieujawnioną kwotę w to przedsięwzięcie. Rozmawiamy z jego pomysłodawcą, Michałem Wroczyńskim, między innymi o transakcji.

Na zdjęciu: Michał Woczyński, Dawid Urban i Robert Lewandowski | fot. materiały prasowe

Problem cybernękania jest poważny. Według raportu NIK, 39% uczniów w Polsce spotkało się z tym zjawiskiem, zaś w Stanach Zjednoczonych jest jeszcze gorzej. Codzienne 12 amerykańskich dzieci popełnia samobójstwo na skutek przemocy doznanej w sieci. Za rozwiązanie tego problemu wzięła się polska firma Samurai Labs, które opracowała system do wykrywania i rozpoznawania przemocy w sieci.

Rozmawiamy z jej szefem – Michałem Wroczyńskim – o cyberbullyingu, autorskim rozwiązaniu Samurai Labs oraz o rundzie finansowania, w której wziął udział Robert Lewandowski. 

Jak często dzieci spotykają się z przemocą w sieci?

Zjawisko przemocy w sieci jest niestety bardzo powszechne. Występuje nie tylko w mediach społecznościowych, ale i w grach online, czy na forach internetowych. Okazuje się, że 46% badanych zastanawia się nad rezygnacją lub rezygnuje z gry online z powodu przemocy słownej. Jak wskazuje ostatni raport Najwyższej Izby Kontroli, niemal co drugie dziecko (39,5%) spotyka się z przemocą w sieci. Statystyki ze Stanów są jeszcze bardziej zatrważające. W USA codziennie 12 dzieci popełnia samobójstwo, a głównym jego powodem jest właśnie cyberbullying.

Technologia może zlikwidować to zjawisko, czy jedynie je ograniczyć?

Przemoc w sieci to złożony problem społeczny, którego nie należy lekceważyć. Duże znaczenie ma tu poczucie anonimowości i dehumanizacji powszechnie występujące w sieci – na to nakłada się jeszcze kwestia norm społecznych i świadomości tego, jak bolesne mogą być słowa dla drugiej osoby. 

To co czyni nasze rozwiązanie unikalnym to fakt, że działa zanim wiadomość w rodzaju „nie zasługujesz na to, aby żyć” dotrze do odbiorcy. Nasz system działa w czasie rzeczywistym nie pozwalając dotrzeć słowom raniącym drugą osobę do docelowego adresata. Na tę chwilę jesteśmy już w stanie trafnie wykryć ok 80% przypadków cyberprzemocy.  

Dla porównania system AI Facebooka wyłapuje zaledwie 38% wypowiedzi, które uznano za szerzące nienawiść. Rozwiązanie Samurai Labs z pewnością przyczyni się do znacznego ograniczenia tego groźnego zjawiska. Jego wyeliminowanie jest trudne tak, jak trudne jest wyeliminowanie np. zabójstw. Nie znaczy to jednak, że należy ignorować takie zagrożenie. Tak jak powinniśmy zareagować na popełniane przestępstwo, tak prewencyjnie do gry wchodzi system Samurai, ostrzegając i w razie potrzeby raportując próbę użycia niestosownej treści.

Dlaczego zajmujecie się rozwiązywaniem akurat tego problemu?

Technologią przetwarzania języka naturalnego zajmujemy się od 2003 roku, kiedy to tworzyliśmy pierwsze w Polsce i na świecie boty, które dziś są niezwykle popularne. Nieco później będąc już w Dolinie Krzemowej w ramach Fido Labs pracowaliśmy nad sztuczną inteligencją, która potrafiła czytać i rozumieć opinie zamieszczone w Internecie.  Dziś tamte rozwiązania DARPA (Defense Advanced Research Projects Agency) określa się jako sztuczną inteligencję drugiej fali – chociaż wtedy nie wiedzieliśmy, że nasze rozwiązanie będzie tak określane.  

Wiedzieliśmy natomiast, że nasz system sprawdzał się świetnie. Z początku wykorzystywaliśmy go do analizy opinii w Internecie. Dzięki niemu użytkownik mógł się dowiedzieć, gdzie można bezpiecznie zaparkować samochód, czy jakie miejsce jest najlepsze do biegania w Warszawie. Co ciekawe system ten także niesamowicie dobrze wykrywał przemoc, jednak wtedy nikt nie był takim rozwiązaniem zainteresowany. 

W tamtych czasach więcej negatywnych wpisów pod tekstem w Internecie oznaczało większy ruch na stronie i więcej pieniędzy z tytułu reklam. Jednak nie zrażaliśmy się tym i rozwijaliśmy różne aspekty tej technologii w dwóch spółkach Fido.ai i Fido Labs Europe. Nowe podejście jakie zaczęliśmy badać, czyli tzw. trzecia fala sztucznej inteligencji było impulsem do powstania Samurai Labs i wykorzystania dotychczasowej wiedzy i doświadczeń oraz nowych koncepcji opartych o wnioskowanie do walki z cyberprzemocą. 

Tak właśnie na początku tego roku powstało Samurai Labs, wtedy jeszcze w trybie incognito. Wykonaliśmy sporo pracy, między innymi pozyskaliśmy przez akwizycję technologię i patenty z obu spółek Fido.ai i Fido Labs Europe, aby móc realizować rozwój Samurai Labs w oparciu o część dotychczasowych doświadczeń.

Jak Samurai Labs walczy z mową nienawiści i przemocą w Internecie?

Samurai Labs działa w obszarze wykrywania i prewencji cyberprzemocy oraz pedofilów. Mowa nienawiści to nietrafnie używany zamiennik i tym obszarem się nie zajmujemy. Warto tylko zaznaczyć, że mowa nienawiści to szersze pojęcie niż cyberprzemoc i jest obecna także w świecie offline. 

Nasze rozwiązanie działa online, czyli w Internecie, a w dodatku w czasie rzeczywistym. W przeciągu ułamka sekundy dokonuje poprawnej analizy tekstu i ocenia, czy dana treść jest niebezpieczna, czy stanowi normalny element konwersacji. Kiedy system Samurai oceni dany wpis jako przemoc, blokuje jego wyświetlanie, a o fakcie tym jest informowany moderator komunikatora np. w grze online. 

To moderator podejmuje ostateczną decyzję, czy na chwilę wyłączyć danego gracza z rozgrywki, czy zablokować go na stałe. Co ważne szkodliwa treść nigdy nie dotrze do adresata, a jej nadawca może otrzymać ostrzeżenie, że jego komunikat może być krzywdzący dla odbiorcy. To samo dzieje się w momencie, kiedy system wykryje pedofila, który często pod postacią avatara udającego rówieśnika może skrzywdzić dziecko. 

W tym wypadku system zablokuje taką rozmowę, a informacja na temat zdarzenia powędruje do administratora i odpowiednich organów ścigania. Warto dodać, że różne społeczności online mają swoje własne kodeksy etyczne i procedury w związku z ich naruszeniem. Niektóre, tak jak te dla dzieci, są bardziej restrykcyjne i chcą blokować komunikat zanim dotrze do odbiorcy. 

Inne społeczności nie zamierzają blokować komunikatu, czy gracza po jednym występku, tylko chcą wysyłać komunikat ostrzegawczy przypominający o regułach, dając tym samym przywilej wątpliwości. Technologia Samurai jest konfigurowalna i można dostosować ją do reguł panujących w różnych cyber społecznościach.

Opracowane przez Was rozwiązanie ma analizować rozmowy użytkowników np. serwisów społecznościowy. Czy to nie za duża ingerencja w ich prywatność?

Warto to pytanie odnieść do świata rzeczywistego. Czy dorośli zgadzają się na to, aby podczas zabaw, czy na przerwie pomiędzy lekcjami dzieci obrzucały się wyzwiskami lub mówiły inne rzeczy, które mogą ranić drugiego człowieka, a tym bardziej dziecko? Myślę, że nie ma rodzica, który zgodziłby się na takie traktowanie przez innych swojego dziecka i sam nie chciałby, aby jego dziecko atakowało w ten sposób rówieśników. 

A teraz wróćmy do świata wirtualnego, gdzie takie zachowanie to codzienność, a nie powinno nią być i poziom jego akceptacji powinien być na tak samo niskim poziomie jak w realnym świecie. Nasze rozwiązanie daje rodzicom pewność, że gra w którą grają jego dzieci pod tym względem jest bezpieczna. 

Warto podkreślić, że rozwiązanie Samurai wyłącza z procesu analizy ludzi. Żaden dorosły nie czyta wypowiedzi dzieci, nie śledzi ich rozmów. Nie ma więc mowy o naruszaniu prywatności drugiego człowieka bez względu na to czy jest to dziecko czy dorosły. System Samurai wykrywa i alarmuje jedynie treści, na które w rzeczywistym świecie zareagowałby każdy, czyli koncentrujemy się na wykrywaniu przemocy. 

Wszystko to w trosce o tych, dla których wykluczenie poprzez cyberbullying może być przyczyną np. do targnięcia się na swoje życie. 

Jak przekonacie np. Facebooka do wdrożenia Samurai Labs?

Facebook czy Google może być i z pewnością jest zainteresowany taką technologią. Pozyskać ją może nie jako usługę (wdrożenie), a ewentualnie poprzez strategiczną akwizycję. Takie transakcje warte są setki milionów dolarów. Światowy gigant pozyskuje w ten sposób technologię i zespół, który nadal posiada dużą autonomię działania. 

Świetnym polskim przykładem tego typu transakcji na rewolucyjnej technologii było przejęcie przez Amazon gdyńskiej firmy IVONA Software – jednej z najlepszych polskich akwizycji. My jesteśmy na najlepszej drodze, aby ten sposób współpracy ze światowymi graczami powtórzyć. Ciekawym rynkiem są na przykład gry online, według Pew Research Center, 15-30% graczy atakowanych online rezygnuje z gry. Samurai jest wstanie powstrzymać ten odpływ. 

Niedawno zamknęliście rundę finansowania, w której wziął udział Robert Lewandowski. Ile kapitału zebraliście od inwestorów?

Pozyskany kapitał pozwolił na akwizycję Fido Labs Europe oraz niezbędnych technologii od Fido AI. Dzięki inwestorom mogliśmy przejąć patenty i rozwiązania wypracowane przez nas wcześniej. Zbudowaliśmy pierwszą wersje sztucznej inteligencji, która już dzisiaj najskuteczniej wykrywa przemoc względem dzieci w porównaniu do wszystkich innych komercyjnych dostawców. Obecnie prowadzimy pilotażowe wdrożenia i wystawiliśmy pierwszą fakturę za usługi.

Jak przekonaliście reprezentanta Polski, by zainwestował w Wasz projekt?

Zarówno Robert Lewandowski, jak i Dawid Urban to osoby, które świetnie znają zagadnienia związane z inwestowaniem w nowoczesne technologie. Robert Lewandowski jest w dodatku postacią publiczną i doskonale rozumie czym jest cyberprzemoc. Docenił także to, że technologia z Polski może pomóc ludziom z całego świata w walce z tym groźnym zjawiskiem.

Na co zamierzacie przeznaczyć pozyskany kapitał?

Obecnie posiadamy zbadany naukowo i przetestowany w testach pilotażowych prototyp. Cały czas prowadzimy prace badawczo rozwojowe, testujemy rozwiązanie w różnych okolicznościach zwiększając jego skuteczność każdego dnia. Wstępne wyniki pokazują, że nasza nowa metoda jest kilkukrotnie skuteczniejsza w wykrywaniu przemocy. Wg raportu technicznego w porównaniu do wszystkich komercyjnych rozwiązań popełniamy 4 razy mniej fałszywych alarmów. Pracujemy na nauczeniem sztucznej inteligencji kolejnych obszarów niezbędnych z punktu widzenia bezpieczeństwa dzieci oraz nad budową skalowalnego produktu. 

Jak dalej będziecie rozwijać projekt?

W tym momencie najważniejsze są prace nad produktem w modelu “Detection As a Service” Strategicznie skupiamy się teraz na grach online, gdzie dzieci mogą ze sobą rozmawiać na chacie. Pracując nad tym zagadnieniem mamy świadomość nie tylko skali przemocy jaka na co dzień dzieje się w sieci, ale także tego, że każdy dzień, w którym Samurai będzie działał obniży ilość przemocy i może zapobiegać nieszczęściom.

Komentarze (0)