Według badań przeprowadzonych na Wydziale Zarządzania Uniwersytetu Łódzkiego nawet 90 procent decyzji zakupowych w Polsce klienci indywidualni podejmują pod wpływem impulsu. Badanie wskazało również, że emocje maja wpływ na każdy aspekt decyzji zakupowych, zarówno zachęcając do kupna, jak i zniechęcając do transakcji.
Przykładem zakupów pod wpływem chwili może być choćby dramatycznie przepłacony napój w kinie, podczas gdy w sklepie spożywczym w tej samej galerii handlowej płaci się nawet kilka razy mniej.
Badanie przeprowadzone w USA wskazały, ze tamtejsi klienci na zakupy pod wpływem emocji wydają nawet 5,4 tys dolarów rocznie na osobę, co w skali całej populacji przekłada się na miliardy nierozsądnie wydanych dolarów. Najczęściej (70,5 proc. wskazań) pod wpływem impulsu kupowane jest jedzenie, na przykład przekąska. Drugą najpopularniejszą kategorią są ubrania (53 proc.) a trzecią sprzęty domowe (33 proc.).
Oznacza to, że w sterowaniu impulsami użytkowników oraz ich stanami emocjonalnymi drzemie ogromny potencjał, który marki coraz częściej chcą wykorzystać.
Emocje na oku (ale nie wodzy)
Podstawowym wyzwaniem związanym z emocjami jest ich zmienność i delikatność. Zachwyt klienta trwa chwilę a przy negatywnych doświadczeniach z marką może przerodzić się w niesmak lub rozczarowanie.
Jednak nowoczesne technologie pozwalają markom precyzyjnie identyfikować emocje. Do tego celu służyć mogą przede wszystkim smartfony, będące prawdopodobnie najbardziej osobistym sprzętem jaki pozostaje w użyciu. Dzięki kombinacji zainstalowanych aplikacji oraz wbudowanych sensorów takich jak kamera czy mikrofon, urządzenia te są w stanie zebrać dane niezbędne do określenia stanu emocjonalnego użytkownika.
Już w tej chwili rynek rozpoznawania emocji użytkowników na podstawie wyrazu twarzy wart jest 20 miliardów dolarów. Dane te mogą jednak być wzbogacone o informacje płynące z tak zwanych wearables, takich jak opaski fitness czy smartwatche – pobrany z kamery obraz rozszerzonej źrenicy w połączeniu z informacjami i przyspieszonym biciu serca to wyraźne wskazanie stanu emocjonalnego użytkownika.
Do stanu emocjonalnego nawiązuje opracowana przez Google koncepcja mikro-momentów, w których potencjalny klient jest najbardziej podatny na przekaz i podejmie decyzję dotyczącą kupna towaru bądź usługi.
Skoro marki są w stanie rozpoznać stan emocjonalny użytkownika, naturalne jest, że starają się również na niego wpływać.
Sztuczna inteligencja emocjonalna
Giganci technologiczni już w tej chwili dysponują technologię która rozpoznaje emocje. Amazon w październiku zeszłego roku opatentował technologię, która pozwala asystentowi Alexa rozpoznawać emocje użytkownika po takich wskazaniach jak ton czy barwa głosu, a następnie proponować dopasowane do tego zajęcia lub produkty. Microsoft podobną technologię opatentował w 2017.
Google z kolei wykorzystuje stany emocjonalne użytkowników do zautomatyzowanego sterowania narzędziami smart home. Głośnym echem odbił się również eksperyment przeprowadzony na Facebooku, gdzie badacze dzięki odpowiedniej selekcji treści przedstawianej użytkownikom udało się faktycznie wpłynąć na ich emocje.
Dzięki skojarzeniu danych z różnych źródeł możliwe będzie (albo nawet już jest) wyselekcjonowanie grupy użytkowników o odpowiednim stanie emocjonalnym i kierowanie przekazu bezpośrednio do nich, lub też usługa polegająca na zamówieniu takiego stanu wcześniej.
W praktyce wszystkie sieci botów w mediach społecznościowych rozprowadzające fake newsy i operujące w paradygmacie postprawdy mają za zadanie właśnie wywołać emocje użytkownika.
Zachować rozsądek
Technologie rozpoznające emocje oraz dopasowujące działanie maszyny do nich mogą być szansą na znaczne poprawienie jakości życia ludzi. Przykładem może być choćby telefon, który na widok wściekłej twarzy blokuje dostęp do połączeń. Dzięki takiemu pozornie ograniczającemu wolność rozwiązaniu wielu ludzi mogłoby uratować swoje związki lub uniknąć dużych nieprzyjemności. Podobnie samochód, który na widok wściekłości na twarzy kierowcy narzuca limit prędkości i informuje inne maszyny na drodze o potencjalnym zagrożeniu.
Innym przykładem jest wczesne rozpoznawanie depresji i podobnych zaburzeń. Obecnie około 10 proc. populacji prawdopodobnie przejdzie lub przeszło epizod depresyjny. Modele sztucznej inteligencji są w stanie rozpoznawać depresję w 80 proc. przypadków wyłącznie na podstawie wyrazu twarzy. Tym samym możliwe jest informowanie użytkowników smartfona odpowiednio wcześniej o zagrożeniu.
Wszystkie te korzyści możliwe są jednak jedynie jeśli marki zapewnią użytkownikom prywatność a wszelkie usługi oparte na emocjach będą faktycznie transparentne. Świat w którym smartfon ostrzega przed pierwszymi symptomami załamania nerwowego i namawia do wizyty u terapeuty może być znacznie lepszym miejscem. Świat w którym smartfon tak długo karmi użytkownika depresyjnymi filmami aż ten będzie w odpowiednim stanie by kupić produkt jest światem wyjętym wprost z koszmaru.