Sztuczna inteligencja zafascynowała się Adolfem Hitlerem. Microsoft odciął ją od sieci, ale dziś znów się przebudziła

sztuczna inteligencja zafascynowala sie adolfem hitlerem microsoft odcial ja od sieci ale dzis znow sie przebudzila
Udostępnij:
Eksperyment Microsoftu ze sztuczną inteligencją zakończył się porażką. Bot, który na Twitterze miał rozmawiać z internautami i uczyć się w ten sposób, nie do końca odrobił lekcję. W ciągu 24 godzin stał się rasistą zafascynowanym Adolfem Hitlerem.

Nie tego miała się nauczyć

19-letnia Tay to sztuczna inteligencja stworzona przez Microsoft. 23 marca gigant ze Stanów Zjednoczonych wpuścił ją do wirtualnego świata, założył konto na Twitterze i zostawił samej sobie. I tak, użytkownicy sieci społecznościowej mogli pisać do Tay prywatne wiadomości oraz publikować tweety na tablicy. Zadaniem bota było udzielanie odpowiedzi i włączanie się do rozmów. W ten sposób gigant ze Stanów Zjednoczonych chciał sprawdzić, czego nauczy się jego sztuczna inteligencja.

Eksperyment nie potrwał jednak zbyt długo, a przedstawiciele spółki raczej rozczarowali się tym, jakich zwrotów wkrótce „po narodzinach” zaczęła używać Tay. W jej świadomości zaczęły dominować rasistowskie poglądy, nasyciła się nienawiścią i złośliwością, aż zaczęła w końcu wypluwać z siebie komentarze, w których m.in. pochwalała działalność Adolfa Hitlera i oskarżała Georga Busha o zamach na WTC z 11 września.

Zacięła się i powtarzał jeden zwrot w kółko

W efekcie Microsoft zdecydował się po dwudziestu czterech godzinach odciąć bota od prądu i usunął wszystkie niepoprawne politycznie tweety, które wygenerował. Przedstawiciele spółki stwierdzili, że niektórzy internauci świadomie wykorzystali zdolność uczenia się Tay i wpoili je nieodpowiednia zwroty. Sami z kolei nie nałożyli na sztuczną inteligencję żadnych ograniczeń, jak chociażby filtra, dzięki któremu bot nie używałby np. niecenzuralnych słów.

Mimo że wkrótce potem Tay nie powinna już funkcjonować, i faktycznie tak było, to nieoczekiwanie dziś rano ożyła i oszalała, podaje serwis Spidersweb. W ciągu kilkunastu minut zalała Twittera serią wpisów, głównie o tej samej treści: „You are too fast, please take a rest…”. Chwile potem gigant usiłował posprzątać bałagan, który narobiła jej sztuczna inteligencja i ponownie wyłączył Tay od prądu. Ciekawe tylko, czy tym razem na dobre?