Nie tego miała się nauczyć
19-letnia Tay to sztuczna inteligencja stworzona przez Microsoft. 23 marca gigant ze Stanów Zjednoczonych wpuścił ją do wirtualnego świata, założył konto na Twitterze i zostawił samej sobie. I tak, użytkownicy sieci społecznościowej mogli pisać do Tay prywatne wiadomości oraz publikować tweety na tablicy. Zadaniem bota było udzielanie odpowiedzi i włączanie się do rozmów. W ten sposób gigant ze Stanów Zjednoczonych chciał sprawdzić, czego nauczy się jego sztuczna inteligencja.
Eksperyment nie potrwał jednak zbyt długo, a przedstawiciele spółki raczej rozczarowali się tym, jakich zwrotów wkrótce „po narodzinach” zaczęła używać Tay. W jej świadomości zaczęły dominować rasistowskie poglądy, nasyciła się nienawiścią i złośliwością, aż zaczęła w końcu wypluwać z siebie komentarze, w których m.in. pochwalała działalność Adolfa Hitlera i oskarżała Georga Busha o zamach na WTC z 11 września.
Zacięła się i powtarzał jeden zwrot w kółko
W efekcie Microsoft zdecydował się po dwudziestu czterech godzinach odciąć bota od prądu i usunął wszystkie niepoprawne politycznie tweety, które wygenerował. Przedstawiciele spółki stwierdzili, że niektórzy internauci świadomie wykorzystali zdolność uczenia się Tay i wpoili je nieodpowiednia zwroty. Sami z kolei nie nałożyli na sztuczną inteligencję żadnych ograniczeń, jak chociażby filtra, dzięki któremu bot nie używałby np. niecenzuralnych słów.
Mimo że wkrótce potem Tay nie powinna już funkcjonować, i faktycznie tak było, to nieoczekiwanie dziś rano ożyła i oszalała, podaje serwis Spidersweb. W ciągu kilkunastu minut zalała Twittera serią wpisów, głównie o tej samej treści: „You are too fast, please take a rest…”. Chwile potem gigant usiłował posprzątać bałagan, który narobiła jej sztuczna inteligencja i ponownie wyłączył Tay od prądu. Ciekawe tylko, czy tym razem na dobre?