Sztuczna inteligencja zafascynowała się Adolfem Hitlerem. Microsoft odciął ją od sieci, ale dziś znów się przebudziła

Dodane:

Adam Sawicki, Redaktor prowadzącyRedaktor prowadzący MamStartup Adam Sawicki

Udostępnij:

Eksperyment Microsoftu ze sztuczną inteligencją zakończył się porażką. Bot, który na Twitterze miał rozmawiać z internautami i uczyć się w ten sposób, nie do końca odrobił lekcję. W ciągu 24 godzin stał się rasistą zafascynowanym Adolfem Hitlerem.

Nie tego miała się nauczyć

19-letnia Tay to sztuczna inteligencja stworzona przez Microsoft. 23 marca gigant ze Stanów Zjednoczonych wpuścił ją do wirtualnego świata, założył konto na Twitterze i zostawił samej sobie. I tak, użytkownicy sieci społecznościowej mogli pisać do Tay prywatne wiadomości oraz publikować tweety na tablicy. Zadaniem bota było udzielanie odpowiedzi i włączanie się do rozmów. W ten sposób gigant ze Stanów Zjednoczonych chciał sprawdzić, czego nauczy się jego sztuczna inteligencja.

Eksperyment nie potrwał jednak zbyt długo, a przedstawiciele spółki raczej rozczarowali się tym, jakich zwrotów wkrótce „po narodzinach” zaczęła używać Tay. W jej świadomości zaczęły dominować rasistowskie poglądy, nasyciła się nienawiścią i złośliwością, aż zaczęła w końcu wypluwać z siebie komentarze, w których m.in. pochwalała działalność Adolfa Hitlera i oskarżała Georga Busha o zamach na WTC z 11 września.

Zacięła się i powtarzał jeden zwrot w kółko

W efekcie Microsoft zdecydował się po dwudziestu czterech godzinach odciąć bota od prądu i usunął wszystkie niepoprawne politycznie tweety, które wygenerował. Przedstawiciele spółki stwierdzili, że niektórzy internauci świadomie wykorzystali zdolność uczenia się Tay i wpoili je nieodpowiednia zwroty. Sami z kolei nie nałożyli na sztuczną inteligencję żadnych ograniczeń, jak chociażby filtra, dzięki któremu bot nie używałby np. niecenzuralnych słów.

Mimo że wkrótce potem Tay nie powinna już funkcjonować, i faktycznie tak było, to nieoczekiwanie dziś rano ożyła i oszalała, podaje serwis Spidersweb. W ciągu kilkunastu minut zalała Twittera serią wpisów, głównie o tej samej treści: „You are too fast, please take a rest…”. Chwile potem gigant usiłował posprzątać bałagan, który narobiła jej sztuczna inteligencja i ponownie wyłączył Tay od prądu. Ciekawe tylko, czy tym razem na dobre?