Nasze uśmiechy to cyferki. Te firmy przeliczą je na dolary

Dodane:

Informacja prasowa Informacja prasowa

Nasze uśmiechy to cyferki. Te firmy przeliczą je na dolary

Udostępnij:

Tak uśmiech, jak i grymas, to niewerbalne sposoby komunikacji międzyludzkiej. Umiejętność odszyfrowania tego, co oznaczają, to prawie jak czytanie w myślach. Już niedługo taki dar posiądzie biznes. Według firm analitycznych, sektor światowej gospodarki zajmujący się automatycznym rozpoznawaniem emocji już w 2021 osiągnie wartość 40 mld USD, a zaledwie 3 lata później – okrągłe 100 mld USD.

Mimika twarzy to wyjątkowy dar, którym człowiek posługuje się prawdopodobnie jako jedyny organizm na Ziemi. Robi to, by wyrazić swoje emocje lub… je pozorować, dlatego ich poprawne odczytanie nie jest takie łatwe i oczywiste. Uśmiech nie zawsze oznacza radość, a grymas złość.

– Umiejętność odczytywania ludzkich emocji poprzez analizę i interpretację sygnałów niewerbalnych fascynuje i intryguje od dawna, ma to nawet swoją nazwę – synergologia. Dotychczasowe próby zbudowania maszyny, która pozwoli odgadywać ludzkie emocje, okazały się nieskuteczne. I pewnie jeszcze długo by się nic w tej dziedzinie nie zmieniło, gdyby nie inicjatywy podejmowane przez wielkie korporacje, które chcą jak najlepiej poznać swojego klienta, a następnie przekuć tę wiedzę na zyski – mówi Sascha Stockem, założyciel i CEO Nethansy, wiodącej polskiej firmy specjalizującej się we wsparciu sprzedaży na  Amazonie.

Aby lepiej poznać potrzeby klienta, już dziś biznes wykorzystuje wielkie zbiory danych zwane Big Data oraz algorytmy sztucznej inteligencji, które niczym detektyw rozwiązują zagadki, jakim ludzki umysł nie jest w stanie podołać. Rozwój tych dziedzin odmienił sposób, w jaki firmy funkcjonują oraz generują zyski. Według najnowszego raportu BARC, przedsiębiorstwa wykorzystujące potencjał analityki Big Data odnotowały 8-procentowy wzrost zysku i 10-procentowy spadek całkowitych kosztów.

Twarz warta majątek

Ponieważ sztuczna inteligencja stoi za coraz większą liczbą podejmowanych decyzji, mających wpływ nie tylko na wyniki biznesowe, lecz również na życie konsumentów, inżynierowie nieustannie szukają sposobów, aby uczynić ją wrażliwą na ludzkie uczucia. Temu zadaniu podołać mają specjalne algorytmy inteligencji emocjonalnej – niezbędnej do zrozumienia ludzkiej natury oraz sposób, w jaki podejmujemy decyzje.

– Microsoft, IBM i Amazon opracowały tak zwane algorytmy rozpoznawania emocji, które na podstawie analizy twarzy wywnioskują, jak ludzie się czują. Na przykład jeśli ktoś ma zmarszczone czoło i zaciśnięte usta, oznacza to, że jest zły. Jeśli oczy są szeroko otwarte, brwi uniesione, a usta rozciągnięte, komputer odczytuje to jako strach i tak dalej – wylicza Sascha Stockem.

Według Markets&Markets wartość sektora rozpoznawania emocji przy użyciu sztucznej inteligencji

wyniesie w 2021 r. blisko 40 mld USD. To prawie 6 razy więcej niż w 2016. Prognozy te potwierdzają inne firmy badawczo-analityczne. Jedna z nich to Markets Research Future, która przewiduje, że wartość rynku komputerowego rozpoznawania emocji w 2023 wyniesie 65 mld USD i chociaż to nie licytacja, to najdalszą i najwyższą ofertę przedstawia Mordor Intelligence, która twierdzi, że w 2024 r. rynek ten wart będzie zawrotne 100 mld USD.

– Analiza sygnałów twarzy, tj. ekspresji w celu określenia emocji wewnętrznych, to jeden z głównych punktów na liście TO DO korporacji na najbliższe lata. Taką wiedzę można wykorzystać do uruchomienia lub zmiany procesu decyzyjnego klienta, a w szerszym ujęciu: do osiągnięcia nieznanego dotychczas poziomu personalizacji doświadczeń e-konsumentów – tłumaczy CEO Nethansy.

E-mocje, czyli jak komputery uczą się reakcji ludzi

Według badań Business Insider do 2020 r. na całym świecie zostanie zainstalowanych ponad 24 mld urządzeń ze świata internetu rzeczy (IoT) – to więcej niż cztery dla każdej osoby na świecie. Więcej urządzeń oznacza, że ludzkość będzie generować jeszcze więcej danych o jeszcze większej dokładności.

Podobnie jak w przypadku większości aplikacji do uczenia maszynowego, postęp w wykrywaniu emocji zależy od dostępu do danych wysokiej jakości – im więcej, tym lepiej. Nie dziwi więc fakt, że tak gwałtowny wzrost zainteresowania tematem wykrywania i rozpoznawania emocji nastąpił w momencie, gdy rewolucja informacyjna znajduje się w fazie rozkwitu.

Najwięksi giganci technologiczni od jakiegoś czasu intensywnie pracują nad własnymi rozwiązaniami. Amazon, Microsoft, Alphabet i Apple testują kolejne technologie, a niektóre z nich doczekały się już uruchomienia projektów pilotażowych. Wersja demonstracyjna programu Microsoft Project Oxford zyskała nawet viralową popularność. – Idea tego programu polega na tym, że przesyłasz zdjęcie, a algorytmy wykrywają emocje na podstawie mikroekspresji danej osoby, wybierając spośród siedmiu podstawowych: pogarda, wstręt, strach, szczęście, smutek, niespodzianka lub stan obojętności – wyjaśnia Sascha Stockem.

Inny globalny gracz, Apple, nabył Emotient, start-up, którego dorobkiem jest autorska technologia skanowania twarzy i czytania ludzkich emocji. Gigant z Cupertino od dawna romansuje z tą technologią, czego efektem jest funkcja odblokowania urządzeń mobilnych poprzez skanowanie twarzy czy autoryzacja płatności w ramach usługi Apple Pay.

Autorskie rozwiązanie Face ID wykorzystywane jest nieprzerwanie od premiery jubileuszowego iPhona X i opiera się nie tylko na specjalistycznych podzespołach, lecz również na zaawansowanym algorytmie uczenia maszynowego, który codziennie uczy się naszej twarzy. W wywiadzie na temat bezpieczeństwa biometrycznego wiceprezes firmy Apple, Greg Joswiak, zapowiedział, że ta technologia przenoszona będzie do kolejnych urządzeń.

– Oczywiście będziemy kontynuować rozwój Face ID w coraz większej liczbie urządzeń, ale jednocześnie nie rezygnujemy z innych rozwiązań, jak Touch IDoznajmił Joswiak.

Trudna lekcja Amazona

Jednak najpopularniejszym przykładem oprogramowania, które pozwala na analizę obrazu i odczytywanie emocji jest Amazon Rekognition. To zaawansowany system sieci neuronowych przeszkolony w zakresie dużych zbiorów danych (czyli wykorzystujący gigantyczną liczbę zdjęć i filmów), który rozpoznaje i oznacza obiekty, ludzi, emocje i czynności.

– Amazon nie wyjaśnia, jak dokładnie funkcjonują sieci neuronowe Rekognition – to w końcu tajemnica handlowa. Możemy się jednak domyślać, że identyfikują one wszystkie elementy obrazu, w tym również emocje, posługując się schematami. W ten sposób określone wzory mimiki twarzy mogą być przypisane do odpowiednich stanów emocjonalnych. Chociaż, jak zauważa CNBC, wielu ekspertów jest zdania, że mimika twarzy niekoniecznie odzwierciedla zmianę emocjitłumaczy CEO Nethansy.

W sierpniu 2019 r. firma Jeffa Bezosa poinformowała o tym, że do zbioru identyfikowalnych przez system emocji dołączyła nowa – strach. Dzięki uczeniu maszynowemu algorytm działa coraz sprawniej i odczytuje uczucia z coraz większą skutecznością. Coraz lepiej radzi sobie również z wykrywaniem płci oraz przedziału wiekowego. W połączeniu z wyżej wymienioną listą innych obiektów, które Rekognition potrafi już zidentyfikować, jasne jest, że Amazon chce, aby to oprogramowanie mogło skutecznie analizować każdy rodzaj obrazu.

– W amerykańskich mediach nie szczędzi się krytyki pod adresem Amazona, po tym jak spółka sfinalizowała kontrakt, zakładający udostępnienie Rekognition agencjom rządowym. To nie wszystko! System ma również trafić również do Urzędu Imigracyjnego i Celnego za ewentualną kwotę 950 mln USDmówi Sascha Stockem.

Mniejszy nie znaczy gorszy

W szranki z sieciami neuronowymi Amazona stają nie tylko technologiczni giganci, lecz również mniejsi gracze. Jednym z tych ostatnich jest firma Affectiva, która wyrosła z laboratorium obliczeń emocjonalnych Massachusetts Institute of Technology. Według oficjalnych informacji posiada ona największe na świecie repozytorium danych o emocjach, z bankiem twarzy liczącym ponad 7,5 mln wizerunków, które zebrane są z 87 krajów.

Zgromadzone materiały analizowane są w biurze w Kairze, gdzie 35 pracowników Affectiva dokładnie ogląda zebrane filmy i przyporządkowuje mimikę do odpowiednich emocji. Następnie dane wykorzystywane do trenowania algorytmu, który uczy się dopasowywać mimikę twarzy do konkretnych emocji.

W 2013 r. amerykański Forbes nazwał system opracowany przez Affectiva jedną z pięciu najbardziej przełomowych technologii. Podobny projekt o nazwie Emotient zrealizowany został przez absolwentów California Institute w San Diego. Wzbudził on równie duże zainteresowanie, co zaowocowało zebraniem 8 mln USD od inwestorów, w tym Intel Capital. Międzynarodowe środowisko to doskonała szansa dla biznesu na rozwój, nie tylko dla start-upów.

Problem dwuznaczności

To, że dana osoba wygląda na szczęśliwą, nie oznacza, że tak się czuje. Śmiech może być ironiczny, a łzy płyną również ze szczęścia.

– Coś tak złożonego jak emocje wymyka się łatwej klasyfikacji. Ludzie zwykle instynktownie wykorzystują inne środki komunikacji niewerbalnej, takie jak język ciała lub ton głosu, aby dokończyć ocenę emocjonalną. Algorytmy do wykrywania emocji na chwilę obecną nie są przystosowane do analizy tak wielu zmiennych. Nie mają zresztą wglądu w tak wiele informacjitłumaczy prezes zarządu firmy Nethansa.

Powstanie technologii, która skutecznie odczytuje emocje wyłącznie na podstawie wyrazu twarzy, byłoby przełomem. Jej potencjalnych zastosowań nie widać końca. Marketerzy przy jej pomocy mogliby badać reakcje widzów na wyświetlane im reklamy, komputery samochodowe mogłyby oceniać stan, w jakim znajduje się kierowca, a działy HR już na etapie wstępnej selekcji kandydatów mogłyby automatycznie eliminować tych znudzonych lub niezainteresowanych.

Oprogramowanie do interpretacji emocji testuje się już w diagnostyce klinicznej i badaniach rynkowych. Tymczasem nowe badanie naukowe opracowane przez grupę czołowych ekspertów w dziedzinie nauk psychologicznych, które pojawiło się na łamach Przeglądu Stowarzyszenia na Rzecz Nauk Psychologicznych, dowodzi, że ruchy twarzy są niedostatecznym miernikiem uczuć, zachowań lub intencji człowieka.

– Firmy mogą mówić, co tylko chcą, ale sprawa jest jasna! – studzi emocje Lisa Feldman Barrett, profesor psychologii w Northeastern University i jeden pięciu autorów wspomnianego badania. – To, że dany system jest w stanie dostrzec grymas na twarzy, nie oznacza, że wykrywa on złość czy gniew – przekonuje w rozmowie z portalem The Verge.

Profesorska krytyka nie powstrzyma pracy na algorytmami rozpoznawania emocji – tego możemy być pewni. A to, czy okażą się wystarczająco skuteczne, zweryfikuje rynek.