OpenAI zdecydował się wypuścić pełną wersję algorytmu GPT-2 do generowania tekstów

openai zdecydowal sie wypuscic pelna wersje algorytmu gpt 2 do generowania tekstow
Udostępnij:
Startup OpenAI wypuścił pełną wersję generatora tekstów. Do tej pory była ona zablokowana, ponieważ obawiano się, że będzie wykorzystywana do generowania fake newsów.

Algorytm GPT-2 opiera się na sztucznej inteligencji i służy do generowania gotowych tekstów. Jednak twórcy rozwiązania zablokowali pełną wersję oprogramowania z obawy, że zostanie ono wykorzystane w niewłaściwy sposób.

Z OpenAI współpracował kiedyś Elon Musk, jednak w lutym 2019 roku zdecydował się zrezygnować z tej współpracy. Mówiło się wtedy, że biznesmen ma inną wizję wykorzystania sztucznej inteligencji, niż przedstawiciele startupu. Natomiast oficjalnie Musk powiedział, że odchodzi z projektu, ponieważ chce skupić swoją uwagę na Tesli i SpaceX.

Mimo rozstania się z Muskiem startup działał dalej i w sierpniu tego roku opublikował pierwszą, niepełną wersję algorytmu. Dając dostęp do ograniczonego rozwiązania, jego twórcy chcieli sprawdzić, czy będą po nie sięgać osoby, które będą próbowały dzięki niemu tworzyć fake newsy. Ponieważ nie odnotowano takich prób, twórcy rozwiązania zdecydowali się na wypuszczenie pełnej wersji GPT-2. Naukowcy z Uniwersytetu Cornella sprawdzili wiarygodność powstających w ten sposób tekstów i okazało się, że wynik badania to 6,91 – przy skali od 0 do 10.

Co ciekawe, żeby skorzystać z rozwiązania nie trzeba być programistą, ani informatykiem. Narzędzie dostępne jest dla każdego na stronie talktotransformer.com. Żeby z niego skorzystać wystarczy wpisać początek tekstu, który chce się wygenerować.

Sztuczna inteligencja i fake newsy

Sztuczna inteligencja coraz częściej jest wykorzystywana, jako wsparcie w tworzeniu różnych tekstów oraz poprawiania w nich błędów. Przykładowo polscy naukowcy z firmy Ermlab stworzyli dwa rozwiązania, które mogą poprawiać błędy stylistyczne oraz pisać recenzje książek. CoDoCzytania.pl, to narzędzie do rekomendacji książek, a GoodWrite.it to dodatek do poprawy błędów.

Sztuczna inteligencja nie zastąpi krytyków, recenzentów i redaktorów. W ramach GoodWrite, pracujemy nad narzędziami, które mają wspierać dziennikarzy, blogerów i osoby piszące. To narzędzie ma za zadanie wyłapać błędy, poprawić styl, przeredagować skomplikowane zdania, określić stopień przyswajalności tekstu dla potencjalnego czytelnika. Tak więc na pewno sztuczna inteligencja nie zastąpi dziennikarzy, a raczej wspomoże i ułatwi im pracę – powiedział w rozmowie z nami Krzysztof Sopyła, współwłaściel firmy Ermlab.

Jednak przy tego typu narzędziach zawsze pojawia się pytanie o bezpieczeństwo. Jeśli sztuczna inteligencja może sama poprawiać nasze teksty, a nawet sama je tworzyć, to istnieje ryzyko, że kierowana przez osoby o złych intencjach, może zostać wykorzystana do produkcji fake newsów.

Zagrożenia o których myślę, to kwestia łatwiejszej możliwości oszukiwania ludzi, chociażby fake newsy, różnego rodzaju spam, który już jest bardzo dobrze naśladujący ludzi. Myślę, że w pewnym momencie nie będziemy w stanie odróżnić tego co wygenerowała maszyna od tego co stworzył człowiek i to może budzić takie realne, etyczne zagrożenia. Siła, którą można wykorzystać do manipulowania ludźmi mówił Sopyła.

Zobaczymy jaki będzie efekt wypuszczania pełnej wersji algorytmu GPT-2. Jedno jest pewne, specjaliści z tej branży powinni trzymać rękę na pulsie i już teraz zacząć się zastanawiać nad zabezpieczeniami, jakie można byłoby wprowadzić do ich rozwiązań, ponieważ ryzyko wykorzystania inteligentnych technologii w niewłaściwy sposób jest duże.