O wartościach zawsze warto
Skoro wyniki badania dało się przewidzieć, to… czy w ogóle warto było je przeprowadzać? Badacze twierdzą, że tak. Swoją decyzję uzasadniają tym, że dziś to algorytmy decydują o kredytach, leczeniu pacjentów czy wyborach użytkowników e-commerce. Dlatego wyniki badania powinny – w ich opinii – szczególnie zainteresować founderów i inwestorów z branży startupowej. A już na pewno tych, którzy budują lub korzystają z rozwiązań opartych na AI.
Warto też upowszechnić wyniki badania wśród ogółu społeczności, aby pomóc w zrozumieniu mechanizmów stojących za wszechobecną sztuczną inteligencją. A tym samym, rozwiać nadzieje wszystkich tych, którzy w AI postrzegają coś więcej niż tylko LLM.
AI wolna od moralnych rozterek
Zespół badaczy z MIT przeprowadził serię eksperymentów na dużych modelach językowych, takich jak GPT-4, analizując, czy AI może „wykształcić” spójne wartości. Wyniki pokazują, że choć AI potrafi mówić o wartościach, nie rozumie ich w ludzkim sensie – nie kieruje się nimi, nie posiada świadomości konsekwencji ani nie wyznaje żadnej etyki. W praktyce oznacza to, że sztuczna inteligencja nie jest moralnym podmiotem – jest jedynie narzędziem, które odzwierciedla dane wejściowe, instrukcje i kontekst, jaki jej nadamy. Wartości, które wydaje się reprezentować, są jedynie efektem „kopiowania” treści z danych treningowych.
Dla twórców startupów AI ta informacja powinna być ostrzeżeniem – nie można zakładać, że AI „wie”, co jest dobre, a co złe. To użytkownik lub twórca systemu musi zadbać o kontekst, intencje i konsekwencje działania modelu.
Na przykład:
- startupy budujące chatboty medyczne muszą jasno zaprogramować ramy etyczne,
- fintechy oparte na scoringu kredytowym nie mogą liczyć, że AI „sama z siebie” będzie sprawiedliwa,
- platformy edukacyjne oparte na AI muszą kontrolować, jakie treści są rekomendowane młodym użytkownikom.
Brak moralnego kompasu w AI oznacza, że to właśnie jego twórcy muszą być szczególnie wyczuleni na to, do jakich celów wykorzystują sztuczną inteligencję, w jaki sposób ją trenują i w jaki sposób ją wdrażają.
Czy AI może nauczyć się etyki?
Teoretycznie – może. Dzieje się to w trakcie trenowania modeli, wykorzystując do tego pożądane, właściwe wartości (np. różnorodność, inkluzywność, uczciwość). Ale – na co zwracają uwagę naukowcy MIT – to zawsze będą wartości „nakładane” z zewnątrz. To użytkownik lub organizacja, która wdraża AI, odpowiada za to, czy algorytm działa zgodnie z zasadami. Właśnie dlatego coraz więcej firm tworzy wewnętrzne zespoły ds. etyki AI oraz korzysta z audytów algorytmicznych. Taki audyt może pomóc w identyfikacji potencjalnych uprzedzeń lub nieetycznych zachowań modelu.
Badania MIT mają nie tylko aspekt edukacyjny, ale i przypominają nam: AI nie jest magicznym bytem o nadludzkim rozumieniu dobra i zła. To narzędzie bez własnej świadomości czy systemu wartości, które może działać odpowiedzialnie tylko wtedy, gdy zostanie odpowiednio zaprojektowane i nadzorowane. Dla startupów to jasny komunikat: innowacja nie zwalnia z odpowiedzialności. Budując produkty oparte na AI, musimy pamiętać, że wartości nie pochodzą z algorytmu – ale od ludzi, którzy go tworzą.