Zaczęło się. AI czyta w naszych myślach!

Dodane:

Przemysław Zieliński Przemysław Zieliński

Zaczęło się. AI czyta w naszych myślach!

Udostępnij:

„Scientific American” publikuje badania, z których wynika, że można wytrenować modele AI do przekładania aktywności mózgu na opis zdarzeń. Na szczęście, wszystko jest pod kontrolą naukowców. Przynajmniej do czasu, gdy AI zacznie czytać w myślach naukowców.

AI czyta Twój mózg

W świecie, w którym grafikę generowaną przez sztuczną inteligencję widzimy codziennie, kolejny krok wykonany przez LLMy wydaje się coraz mniej science-fiction. A mimo to systemy, które potrafią przełożyć aktywność mózgu na opis zdarzeń, przyciągają naszą uwagę. Taką technologię właśnie zaprezentowali naukowcy, a opis ich badań przedstawiono artykule „AI decodes visual brain activity—and writes captions for it” opublikowanym w Scientific American.

Czytaj także: Koniec homo sapiens, witaj homo cyber? Od fantazji do przyziemnej rzeczywistości – prof. Dominika Kaczorowska-Spychalska (wywiad)

Zespół badawczy wykorzystał funkcjonalny rezonans magnetyczny (fMRI) do pomiaru aktywności mózgowej u uczestników oglądających krótkie klipy wideo. Dla każdego odtwarzanego fragmentu wideo model językowy stworzył unikalny wektor, zwany „meaning signature”. To liczbowe przedstawienie treści wideo. Następnie, inny już model AI uczył się powiązań między wzorami aktywności mózgu a tymi sygnaturami. A gdy model został już przeszkolony, możliwe było pokazanie uczestnikowi nowego klipu lub poproszenie go o przypomnienie sobie klipu. W tym momencie system:

  • odczytywał obraz aktywności mózgu,
  • dopasowywał najbliższy „meaning signature”,
  • generował zdanie w języku naturalnym opisujące, co osoba „widziała” lub „przypominała”.

Uczestnik oglądał film, na którym osoba skacze z wodospadu. Model przechodził od prób typu „płynie strumień” przez „ponad gwałtownie spadający wodospad” aż do pełnej frazy: „ktoś skacze z do wodospadu na górskim stoku”.

A co my możemy wyczytać z tej sytuacji?

Opublikowane badania prowadzą do kilku obszarów rozważań. Po pierwsze, pomyślmy o nowych możliwościach interfejsów mózg-komputer (BCI). Technologia pokazuje, że nieinwazyjne metody (jak fMRI) mogą zostać wykorzystane do odczytu nie tylko ogólnych stanów („pacjent myśli o rzeczach”), ale także konkretnych scenariuszy percepcyjnych i wspomnień. To otwiera przestrzeń dla startupów czy naukowców pracujących nad interfejsami dla osób z zaburzeniami komunikacji lub poruszaniem się.

Po drugie, jak to zwykle bywa w przypadkach AI, trzeba pomyśleć nad etyką i prywatnością. Pomyśleć albo raczej – przemyśleć dotychczasowe, funkcjonujące dziś modele. Autorzy artykułu zwracają uwagę, że choć dotychczas systemy nie potrafią czytać prywatnych myśli, technologia zbliża się do granic, które jeszcze niedawno wydawały się nieosiągalne.

  • Te odkrycia budzą obawy dotyczące prywatności psychicznej, ponieważ naukowcy są coraz bliżej ujawnienia intymnych myśli, emocji i stanu zdrowia, które mogłyby. zostać wykorzystane do inwigilacji, manipulacji lub dyskryminacji ludzi – pisze autor artykułu i dziennikarz „Scientific American”, Max Kozlov.

Po trzecie wreszcie, zyskujemy dostęp do nowych modeli danych i uczenia. Bo przecież połączenie modeli językowych z mapami aktywności mózgu tworzy nową kategorię danych – „neural signatures” powiązanych nierozerwalnie ze znaczeniem. Czy będzie to fundamentem dla innowacji w edukacji, terapii czy marketingu neuromarketingowym?

Wiadomo, czas pokaże.

Jest się czego obawiać?

Czy jednak już dziś możemy mieć powody do obaw i spodziewać się rosnącej inwigilacji?

Nie. Przede wszystkim, fMRI to stosunkowo droga i wolna metoda. Nie jest jeszcze rozwiązaniem mobilnym ani masowym. Masowe nie było też samo badanie: dotyczyło ledwie sześciu uczestników. Jak ów system zadziała na szerszą skalę i czy równie dobrze poradzi sobie z odczytywaniem innych mózgów. pytanie, czy systemy mogą działać na dużą skalę i z różnorodnymi mózgami. Kolejne wyzwanie tyczy się różnicy między „widzeniem” a myśleniem”. Badania wskazują, że widzenie i przypominanie używają podobnych reprezentacji mózgowych. Tylko jak identyfikować oraz interpretować abstrakcyjne myśli, które nie są obrazami? Czy opisywany system je rozpozna?

Potencjalne kontrowersje etyczne i regulacyjne też wydają się oczywiste i mogą mieć znaczący wpływ na rozwój, wdrożenie, stosowanie takiego systemu. Nim interfejs mózg-komputer zacznie być częścią życia codziennego, trzeba będzie sobie zadać takie pytania jak: kto kontroluje dane i jak zabezpieczyć prywatność myśli?

Czytaj także: