ChatGPT promuje fałszywy przekaz o Holokauście, Google Bard generuje zmyślone cytaty świadków Zagłady: GenAI zagraża historycznej pamięci

Dodane:

Przemysław Zieliński Przemysław Zieliński

ChatGPT promuje fałszywy przekaz o Holokauście, Google Bard generuje zmyślone cytaty świadków Zagłady: GenAI zagraża historycznej pamięci

Udostępnij:

Autorzy raportu UNESCO przewidują, że jeśli nie zostaną podjęte zdecydowane działania w celu włączenia zasad etycznych, sztuczna inteligencja może zniekształcić historyczny zapis Holokaustu i podsycać antysemityzm.

Kluczowe przesłanie raportu można sprowadzić do jednego, wybitego czerwonymi literami ostrzeżenia: generatywna sztuczna inteligencja może nie tylko umożliwić złośliwym podmiotom szerzenie dezinformacji i narracji napędzanych nienawiścią, ale może również nieumyślnie wymyślić fałszywe lub wprowadzające w błąd treści na temat Holokaustu.

– Jeśli pozwolimy na rozmycie, zniekształcenie lub sfałszowanie przerażających faktów dotyczących Holokaustu poprzez nieodpowiedzialne wykorzystanie sztucznej inteligencji, ryzykujemy gwałtowne rozprzestrzenianie się antysemityzmu i stopniowe zmniejszanie naszego zrozumienia przyczyn i konsekwencji tych okrucieństw. Wdrożenie zalecenia UNESCO w sprawie etyki sztucznej inteligencji jest pilnie potrzebne, aby młodsze pokolenia dorastały z faktami, a nie fabrykacjami – komentuje publikację raportu Audrey Azoulay, dyrektorka generalna UNESCO.

Skąd to zagrożenie?

W opublikowanym we współpracy ze Światowym Kongresem Żydów raporcie UNESCO można znaleźć wyjaśnia, że ponieważ uczniowie coraz częściej korzystają z generatywnej sztucznej inteligencji do wykonywania zadań i wyszukiwania informacji w Internecie, są narażeni na zniekształcone informacje o Holokauście. Takie nieprawdziwe dane czy przekazy są rozpowszechniane za pośrednictwem treści generowanych przez sztuczną inteligencję. Skala zagrożenia wydaje się dużą: czterech na pięciu (80%) młodych ludzi w wieku od 10 do 24 lat korzysta ze sztucznej inteligencji kilka razy dziennie w celach edukacyjnych, rozrywkowych i innych. Tym bardziej wydaje się wskazane, aby szybko podjąć działania mające na celu etyczne ukierunkowanie tych nowych technologii.

GenAI może wzmacniać to, co szkodliwe

Generatywna sztuczna inteligencja musi być szkolona przy użyciu ogromnych ilości danych. Dane te są często pozyskiwane z Internetu i mogą zawierać treści, które wprowadzają w błąd lub są po prostu szkodliwe. Systemy sztucznej inteligencji dziedziczą zatem automatycznie ludzkie uprzedzenia. Prowadzi to do tego, że mogą błędnie przedstawiać informacje o konkretnych wydarzeniach. Efekt? Wzmacnianie uprzedzeń. Jest to szczególnie prawdziwe w kontekście Holokaustu, ze względu na powszechność dezinformacji dotyczących tego wydarzenia. Autorzy opracowania podkreślają, że ze względu na brak nadzoru, wskazówek i moderacji ze strony twórców sztucznej inteligencji, narzędzia generatywnej sztucznej inteligencji mogą być również szkolone na danych ze stron internetowych zaprzeczających Holokaustowi.

Czytaj także: Autokorekta AI? Relatywnie szybko, problemy już pęcznieją – wywiad z Aleksandrą Przegalińską-Skierkowską

Co gorsza, raport zawiera nie tylko obawy czy ostrzeżenia ekspertów. Omawiane opracowanie zawiera również konkretne przykłady na to, że sztuczna inteligencja umożliwia nam wszystkim zniekształcanie treści związanych z Holokaustem, tworzenie sfabrykowanych zeznań, a nawet zmienianie zapisów historycznych. Fałszywe obrazy i treści audio tworzone przy użyciu generatywnej sztucznej inteligencji są szczególnie przekonujące dla młodych ludzi, którzy mogą je napotkać w mediów społecznościowych.

Takim flagowym, a jednocześnie szokującym przykładem jest aplikacja Historical Figures App. Korzystający z niej użytkownicy mogli czatować z takimi nazistami jak Adolf Hitler czy Joseph Goebbels. Z takich rozmów użytkownicy dowiadywali się fałszywych informacji – jak choćby tego, że zbrodniarze pokroju Goebbelsa nie były świadomie zaangażowane w Holokaust. Przeciwnie – próbowały zapobiec przemocy wobec Żydów.

Dotkliwe skutki halucynacji AI

Co się dzieje, gdy modele generatywnej sztucznej inteligencji nie mają dostępu do wystarczającej liczby danych? Stają się podatne na wymyślanie lub „halucynowanie” wydarzeń, osobowości, a nawet zjawisk historycznych. W raporcie UNESCO nie mogło braknąć omówienia i tego zjawiska. Eksperci zwracają uwagę, że zarówno ChatGPT, jak i Google Bard, stworzyły treści szczegółowo opisujące wydarzenia związane z Holokaustem, które nigdy nie miały miejsca. ChatGPT całkowicie sfabrykował koncepcję kampanii „Holokaustu przez utonięcie”, w której naziści topili Żydów w rzekach i jeziorach, a Bard wygenerował fałszywe cytaty ze świadków, aby wesprzeć zniekształcone narracje o masakrach Holokaustu.

Czytaj także: Aby przetrwać w świecie technologii, musimy rozwijać ludzkie umiejętności – Jowita Michalska (Fundacja Digital University)

Oprócz ryzyka manipulacji i „halucynacji” podważających ustalone fakty i zaufanie do ekspertów, raport podkreśla również niebezpieczeństwa związane z tendencją sztucznej inteligencji do nadmiernego upraszczania złożonej historii, uprzywilejowując wąski zakres źródeł i niewielki wybór wydarzeń. W wyszukiwarkach internetowych, które są zasilane przez sztuczną inteligencję, 60-80% najlepszych wyników graficznych dotyczy jednego miejsca Holokaustu, Auschwitz-Birkenau.

Etyka na pomoc

Znamy słynne już powiedzenie Władysława Bartoszewskiego – historyka, dziennikarza, polityka, ale także więźnia Auschwitz i działacza Polskiego Państwa Podziemnego: „jeśli nie wiesz, jak się zachować, to zachować się przyzwoicie”. Także eksperci UNESCO apelują o etyczne zachowania. Apelują oni do rządów, aby przyspieszyć wdrożenie zaleceń Organizacji w sprawie etyki sztucznej inteligencji. To pierwszy i jedyny globalny standard w tej dziedzinie, który został jednogłośnie przyjęty przez państwa członkowskie w 2021 roku. Zalecenie to zostało już włączone do ustawodawstwa ponad pięćdziesięciu krajów.

Na apelach do polityków i władz się nie kończy.

UNESCO wzywa również firmy technologiczne do wdrożenia swoich standardów oraz do wzięcia na siebie odpowiedzialności i zapewnienia, że zasady takie jak uczciwość, przejrzystość, prawa człowieka i należyta staranność są wbudowane w aplikacje na etapie projektowania. W lutym 2024 r. osiem firm technologicznych jako pierwszych podpisało zobowiązanie wobec dyrektora generalnego UNESCO do stosowania etycznego podejścia do opracowywania nowych narzędzi sztucznej inteligencji. Firmy technologiczne muszą ściśle współpracować ze społecznością żydowską, ocalałymi z Holokaustu i ich potomkami, edukatorami, ekspertami w dziedzinie antysemityzmu i historykami przy opracowywaniu nowych narzędzi AI.

Czytaj także: Standardy etyczne dla AI mają służyć kierowaniu ludzkim zachowaniem – Steve Nouri (AI4Diversity)

UNESCO apeluje również do systemów edukacji o pomoc w ochronie faktów dotyczących Holokaustu poprzez wyposażenie młodych ludzi w umiejętności cyfrowe i umiejętności krytycznego myślenia, a także solidne zrozumienie historii tego ludobójstwa.

Kluczowe wnioski z raportu

Nie ma co zaprzeczać: GenAI może nam dostarczyć korzyści w edukacji i badaniach. Jednak aby móc te korzyści spożytkować, niezbędna jest ścisła współpraca projektantów sztucznej inteligencji, decydentów, nauczycieli i naukowców. Tylko te systemy sztucznej inteligencji, które są wyposażone w solidne zabezpieczenia i oceny praw człowieka, mogą stać na straży integralności prawdy historycznej i zapewnić odpowiedzialne wykorzystanie sztucznej inteligencji.

Zautomatyzowane treści AI mogą wymyślać fakty na temat Holokaustu

Modele sztucznej inteligencji stworzyły wprowadzające w błąd lub fałszywe narracje na temat Holokaustu. Puste dane i uprzedzenia doprowadziły do „halucynacji” w generatywnych systemach sztucznej inteligencji, tworząc nieprawidłowe lub wymyślone treści, które nigdy nie miały miejsca. Bez umiejętności korzystania ze sztucznej inteligencji i umiejętności badawczych użytkownicy mogą nie wiedzieć, jak zweryfikować teksty wyprodukowane przez sztuczną inteligencję lub rozpoznać niewiarygodność danych.

Fałszowanie dowodów historycznych: technologia deepfake

Technologia deepfake ma potencjał do manipulowania dźwiękiem i obrazem w celu sfabrykowania treści związanych z Holokaustem. Potrzebne są mechanizmy zapobiegające niewłaściwemu wykorzystaniu sztucznej inteligencji do celowego tworzenia fałszywych „dowodów”, które podważają prawdziwość ustalonego historycznego zapisu Holokaustu i szerzą mowę nienawiści. Podróbki celebrytów były wykorzystywane do szerzenia ideologii nazistowskiej lub symulowania rozmów z przywódcami nazistowskimi, w tym z Adolfem Hitlerem.

Czytaj także: Jak dobry jest ChatGPT-4o? Przyglądamy się Omni, najnowszej sztucznej inteligencji od OpenAI

Modelami sztucznej inteligencji można manipulować w celu szerzenia mowy nienawiści

Ukierunkowane kampanie brutalnych ekstremistycznych grup internetowych mogą wykorzystywać wady sztucznej inteligencji do promowania mowy nienawiści i antysemickich treści na temat Holokaustu. Chatboty i wyszukiwarki zostały zhakowane lub zmanipulowane przez złych aktorów w celu szerzenia ideologii nazistowskiej.

Stronniczość algorytmów może upowszechniać zaprzeczanie Holokaustowi

Stronnicze zestawy danych doprowadziły do tego, że niektóre wyszukiwarki i chatboty AI bagatelizują fakty dotyczące Holokaustu lub promują skrajnie prawicowe treści, w tym zaprzeczanie Holokaustowi.

Nadmierne upraszczanie historii

Tendencja AI do skupiania się na najbardziej znanych aspektach Holokaustu nadmiernie upraszcza jego złożoność. Pomijanie mniej znanych epizodów i wydarzeń w historii Holokaustu wzmacnia stereotypowe przedstawienia Holokaustu. Ogranicza to nasze zrozumienie złożonej przeszłości, która dotknęła ludzi w każdym kraju w Europie i Afryce Północnej, a której spuścizna jest nadal odczuwalna na całym świecie.

Rekomendacje

Dla twórców AI i deweloperów

  1. Dochowywać należytej staranności w zakresie przestrzegania praw człowieka w odniesieniu do systemów sztucznej inteligencji, ocena ryzyka i wpływu ich polityk i praktyk na prawa człowieka. Można do tego wykorzystać narzędzie oceny wpływu etycznego (UNESCO, 2023) co pozwoli, że systemy sztucznej inteligencji wykorzystywane do zarządzania i generowania informacji o Holokauście pozostają zgodne z zasadami etyki sztucznej inteligencji (np. uczciwość, przejrzystość, możliwość wyjaśnienia i odpowiedzialność) oraz międzynarodowymi standardami praw człowieka.
  2. Przestrzeganie międzynarodowych standardów praw człowieka, w tym w zakresie projektowania i moderowania systemów sztucznej inteligencji oraz nadzorowania treści, które są pobierane i tworzone. Systemy sztucznej inteligencji powinny być zgodne z odpowiednimi międzynarodowymi standardami praw człowieka, w tym z Wytycznymi ONZ dotyczącymi biznesu i praw człowieka. Projekt powinien zapewniać zapobieganie szkodom; polityka i praktyki w zakresie moderacji i selekcji treści powinny być zgodne ze standardami praw człowieka, niezależnie od tego, czy są wdrażane algorytmicznie, czy przez osoby fizyczne, ze znajomością lokalnych języków i kontekstu językowego oraz odpowiednią ochroną i wsparciem dla moderatorów.
  3. Zapewnienie przejrzystości systemów sztucznej inteligencji, w tym otwartości w zakresie sposobu ich działania, zrozumiałych i możliwych do skontrolowania polityk, a także uzgodnionych przez wiele zainteresowanych stron wskaźników oceny wydajności. Obejmuje to przejrzystość narzędzi, systemów i procesów wykorzystywanych do moderowania i selekcjonowania treści na ich platformach, w tym ich zautomatyzowanych procesów i wyników.
  4. Osadzenie sygnałów autentyczności i przejrzystości, takich jak kryptograficznie podpisane metadane (np. C2PA, Content Credentials) w generatywnych mediach AI w celu wsparcia identyfikacji treści generowanych przez AI przez osoby zajmujące się ich dystrybucją i odbiorców, którzy je napotykają.
  5. Opracowanie procedur zapewniających ciągłą ocenę jakości danych szkoleniowych dla systemów sztucznej inteligencji, w tym adekwatności procesów gromadzenia i selekcji danych, które byłyby zróżnicowane i uwzględniałyby pamięć o Holokauście.
  6. Wspieranie partnerstw z osobami, które przeżyły Holokaust, potomkami i społecznościami żydowskimi, aby zapewnić, że ich głosy zostaną wysłuchane w procesach kształtowania polityki. Konsultacje z ekspertami, grupami społecznymi i organizacjami w celu lepszego zrozumienia ich obaw, doświadczeń i potrzeb w walce z negowaniem i zniekształcaniem Holokaustu w Internecie. Umożliwienie młodym ludziom i społecznościom mediów społecznościowych aktywnego udziału w zwalczaniu dezinformacji i promowaniu dokładnych narracji historycznych na platformach cyfrowych.
  7. Upewnienie się, że twórcy systemów sztucznej inteligencji udostępniają informacje i narzędzia umożliwiające użytkownikom zrozumienie i podejmowanie świadomych decyzji dotyczących usług cyfrowych, z których korzystają, pomagając im w ocenie informacji na platformie, a także w zrozumieniu, w jaki sposób zgłaszać skargi i uzyskiwać zadośćuczynienie. Powinno to obejmować ukierunkowane programy medialne i informacyjne dostępne w kilku językach.
  8. Uczynienie systemów AI odpowiedzialnymi przed odpowiednimi interesariuszami – użytkownikami, opinią publiczną, reklamodawcami i systemem regulacyjnym – w zakresie wdrażania ich warunków świadczenia usług i polityk dotyczących treści; oraz umożliwienie użytkownikom kwestionowania decyzji dotyczących treści, niezależnie od tego, czy są to użytkownicy, których treści zostały usunięte, czy użytkownicy skarżący się na treści naruszające międzynarodowe prawa człowieka.

Dla ustawodawców i rządzących

  1. Włączenie zasad etycznych AI do procesów kształtowania polityki w celu kierowania odpowiedzialnym rozwojem i wdrażaniem technologii AI. Należy w tym celu podkreślić takie zasady jak uczciwość, przejrzystość, odpowiedzialność i poszanowanie praw człowieka, aby zapewnić, że systemy sztucznej inteligencji są projektowane i wykorzystywane w sposób zapewniający historyczną dokładność, godność i integralność.
  2. Opracowanie i egzekwowanie ram regulacyjnych, które stoją na straży praw człowieka, w tym wolności słowa, przy jednoczesnym szczególnym uwzględnieniu rozprzestrzeniania się uprzedzeń i dezinformacji za pośrednictwem platform i technologii opartych na sztucznej inteligencji. Zachęcanie platform do inwestowania w przejrzyste narzędzia do moderowania treści oparte na sztucznej inteligencji, zdolne do wykrywania i oznaczania zaprzeczania i zniekształcania Holokaustu, a także zapewnienie ludzkiego nadzoru w celu poruszania się po semantycznie złożonych decyzjach i nieuniknionych błędach.

Dla edukatorów

  1. Pilne inwestowanie w programy edukacyjne, które rozwijają umiejętności cyfrowe i umiejętności korzystania ze sztucznej inteligencji, ze szczególnym naciskiem na zdolność uczniów do radzenia sobie z dezinformacją, uprzedzeniami i mową nienawiści. Wspieranie ciągłego nauczania i uczenia się o Holokauście poprzez przeglądy programów nauczania, podręczników i szkoleń dla nauczycieli, w tym rozwój wiedzy i umiejętności w celu budowania odporności na negowanie i zniekształcanie Holokaustu oraz antysemityzm.
  2. Opracowanie materiałów edukacyjnych i inicjatyw skierowanych do uczniów, nauczycieli i społeczeństwa w celu promowania umiejętności korzystania z mediów i informacji (MIL), krytycznego myślenia i dokładności historycznej w dyskursie online. Programy nauczania powinny obejmować ICT; informatyka i MIL dla uczniów powinny rozwijać świadomość tego, jak działają narzędzia sztucznej inteligencji i ich podatność na stronniczość, tak aby mogli oceniać ich wyniki.

Czytaj także: