Sztuczna inteligencja analizuje, rozpoznaje mimikę, gesty i uczy się naturalnego języka

Dodane:

Informacja prasowa Informacja prasowa

Sztuczna inteligencja analizuje, rozpoznaje mimikę, gesty i uczy się naturalnego języka

Udostępnij:

Sztuczna inteligencja działa podobnie jak ludzki mózg, jednak pozwala na znacznie więcej. Potrafi już pisać kody za programistów. Przewidzi, które książki i filmy mają szansę stać się hitem, a które przejdą niezauważone. Sama napisze książkę czy analityczny artykuł. Umie już także kłamać i abstrakcyjnie myśleć. Dzięki rozwojowi nauk kognitywnych i ich zastosowaniu w SI komputery są w stanie analizować emocje i obrazy. To jednak dopiero początek. Do 2040 roku sztuczna inteligencja osiągnie możliwości ludzkiego mózgu, a nawet je przewyższy.

Nie musimy znać możliwości naszego mózgu, żeby rozwijać sztuczną inteligencję. Obecnie SI pozwala nam coraz lepiej tworzyć modele tego, co nasze mózgi robią, a więc coraz lepiej to rozumieć. A z drugiej strony, rozumiejąc trochę to, co nasze mózgi robią, usiłujemy tworzyć modele sztucznej inteligencji, które działają w podobny sposób – tłumaczy prof. dr hab. Włodzisław Duch z Wydziału Fizyki, Astronomii i Informatyki Stosowanej na Uniwersytecie Mikołaja Kopernika w Toruniu.

Od momentu powstania sztucznej inteligencji w 1956 roku w formie „maszyny, która mogłaby myśleć”, ma ona coraz większy wpływ na społeczeństwo, biznes i ludzkość. Jej narzędzia poznawcze systematycznie przekształcają sposób interakcji ludzi i firm. Firma Neoris w analizie „Sztuczna inteligencja: Nowe podejście do ewolucji ludzkości” wskazuje, że do 2040 roku SI spowoduje ewolucję ludzkości, a przyszłość sztucznej inteligencji będzie mniej sztuczna, a bardziej inteligentna.

SI osiągnie poziom inteligencji na poziomie ludzkim, a może nawet na wyższym. Komputery już teraz potrafią oszukać użytkowników, którzy są przekonani, że rozmawiają z innym człowiekiem. Eksperci IBM oceniają, że w ciągu trzechpięciu lat postępy w sztucznej inteligencji sprawią, że możliwości konwersacyjne komputerów staną się znacznie bardziej wyrafinowane.

Human Brain Project ma na celu stworzenie algorytmów, które potrafiłyby odwzorować pracę ludzkiego mózgu. Powstają neuromorficzne komputery, które mają odtworzyć to, jak poznajemy świat. Nauka wciąż jeszcze jest na początku drogi, ale istnieją już pierwsze rozwiązania, które coraz lepiej odwzorowują ludzki mózg.

– Jeszcze na początku lat 90. uczenie maszynowe było bardzo egzotyczną częścią sztucznej inteligencji. W tej chwili wyszło na pierwszy plan ze względu na to, że jesteśmy w stanie analizować obrazy i dźwięki mowy i przekładać je na tekst, ale też tworzyć chatboty czy voiceboty, czyli takie systemy, z którymi można porozmawiać i które będą odpowiadać w coraz lepszy sposób – mówi prof. dr hab. Włodzisław Duch.

W 1996 roku komputer Deep Blue (IBM) pokonał mistrza szachów, a kilka lat temu komputer Watson (IBM) wygrał telewizyjny quiz „Jeopardy”. Oprogramowanie AlphaGo pokonało w Go, wymagającej grze planszowej, wielokrotnego mistrza świata, co wcześniej wielokrotnie się nie udawało. To udowadnia, że sztuczna inteligencja ma coraz większe możliwości. Już teraz można porozmawiać z SI i zadać jej pytania, nie zawsze jednak potrafi ona analizować sygnały pozawerbalne – emocje, mimikę czy gesty.

To jednak powoli się zmienia. Istnieją systemy komputerowe, które uczą się twarzy człowieka i na tej podstawie reagują nawet na niewielkie zmiany w tembrze głosu czy intonacji. Taką możliwość wykorzystują już niektóre systemy obsługi klienta, które na podstawie krótkiej rozmowy z botem analizują, którzy klienci tracą cierpliwość, a którym taka obsługa odpowiada.

W tej chwili jesteśmy w stanie robić bardzo dużo, nie tylko autonomiczne samochody, roboty czy chatboty, ale też coraz bardziej złożone systemy, z którymi będzie można porozmawiać i które, mamy nadzieję, będą nam dobrze doradzać, np. w kwestiach finansowych – ocenia badacz z UMK w Toruniu.

David Watson z Oxford Internet Institute i Alan Turing Institute przekonuje, że obecnie błędem byłoby twierdzenie, że algorytmy SI odtwarzają ludzką inteligencję, zamiast tego wprowadzają nowy tryb wnioskowania, który pod pewnymi względami przewyższa ludzi, ale pod innymi względami może okazać się błędny. Zmienia się to dzięki naukom kognitywnym. Sztuczna inteligencja analizuje, potrafi zmieniać percepcję, kiedy to konieczne, tym samym potrafi już coraz więcej.

– Informatyka neurokognitywna, bardziej inspirowana przez mózgi, jest jednym z niezwykle istotnych obszarów, w których rozwijamy w tej chwili sztuczną inteligencję. To jest przyszłość. Obecnie rozwijane są systemy analizy obrazu i systemy związane z percepcją. Dopiero uczymy się łączyć to, że coraz lepiej radzimy sobie z percepcją, z rozumieniem obrazów, dźwięków i sytuacji – i próbujemy powoli łączyć to z myśleniem – podkreśla prof. dr hab. Włodzisław Duch.