Walka o głosy. Raport Consumer Reports o zagrożeniach i lukach związanych z klonowaniem głosu AI

Dodane:

Przemysław Zieliński Przemysław Zieliński

Walka o głosy. Raport Consumer Reports o zagrożeniach i lukach związanych z klonowaniem głosu AI

Udostępnij:

Nowy raport Consumer Reports stwierdza, że firmom zajmującym się klonowaniem głosu AI brakuje odpowiednich zabezpieczeń chroniących konsumentów przed potencjalnymi szkodami.

Consumer Reports (CR) opublikował właśnie wyniki oceny produktów do klonowania głosu sześciu firm: Descript, ElevenLabs, Lovo, PlayHT, Resemble AI i Speechify. CR stwierdziło, że większość ocenianych produktów nie posiadała znaczących zabezpieczeń, które zapobiegałyby oszustwom lub niewłaściwemu wykorzystaniu ich produktów.

Metoda na wnuczka wiecznie żywa

Wiele produktów do klonowania głosu AI umożliwia konsumentom tworzenie sztucznej kopii głosu danej osoby przy użyciu jedynie krótkiego klipu audio z jej wypowiedzią. Produkty do klonowania głosu AI mają wiele legalnych zastosowań, w tym przyspieszenie edycji dźwięku, ulepszenie dubbingu filmów i automatyzację narracji. Jednak bez odpowiednich zabezpieczeń produkty te stanowią również wyraźną okazję dla oszustów, którzy wykorzystują tę technologię do podszywania się, na przykład, pod klasycznego wnuczka konsumenta dzwoniącego z prośbą o pieniądze, a także celebrytów i polityków promujących wątpliwe produkty i fałszywe programy inwestycyjne.

Czytaj także: W BiometrIQ dzielą głos na czworo: podcast o biometrii głosu i audio deep fake

– Narzędzia do klonowania głosu za pomocą sztucznej inteligencji mogą potencjalnie przyspieszyć oszustwa związane z podszywaniem się – zaznacza Grace Gedye, analityk ds. polityki w CR. – Nasza ocena pokazuje, że istnieją podstawowe kroki, które firmy mogą podjąć, aby utrudnić klonowanie czyjegoś głosu bez jego wiedzy – ale niektóre firmy ich nie podejmują. Wzywamy firmy do podniesienia swoich standardów (…).

Okazja czyni złodzieja

Badacze CR byli w stanie z łatwością stworzyć klon głosu w oparciu o publicznie dostępny dźwięk w czterech z sześciu produktów w zestawie testowym:
Produkty te nie wykorzystywały żadnych mechanizmów technicznych, aby upewnić się, że badacze mają zgodę mówcy na wygenerowanie klonu lub ograniczenie klonowania do własnego głosu użytkownika. Firmy te – ElevenLabs, Speechify, PlayHT i Lovo – wymagały jedynie, aby badacze zaznaczyli pole potwierdzające, że mają prawo do sklonowania głosu lub złożenia podobnego oświadczenia.

Descript i Resemble AI podjęły kroki w celu utrudnienia klientom niewłaściwego korzystania z ich produktów poprzez tworzenie nieuzgodnionych klonów głosowych.

Cztery z sześciu firm (Speechify, Lovo, PlayHT i Descript) wymagały jedynie imienia i nazwiska klienta i/lub adresu e-mail do założenia konta.

Głośno o konieczności poprawy

Zalecenia dla firm zajmujących się klonowaniem głosu AI, które dotyczą oszustw, wprowadzania w błąd i podszywania się:

  • firmy powinny posiadać mechanizmy i protokoły potwierdzające zgodę mówcy, którego głos jest klonowany, na przykład poprzez wymaganie od użytkowników przesłania dźwięku unikalnego skryptu;
  • firmy powinny gromadzić informacje o kartach kredytowych klientów, wraz z ich nazwiskami i adresami e-mail, jako podstawową praktykę „poznaj swojego klienta”, aby można było prześledzić fałszywe audio do konkretnych użytkowników;
  • firmy powinny znakować znakami wodnymi dźwięk generowany przez sztuczną inteligencję w celu przyszłego wykrywania i aktualizować swoją technikę znakowania w miarę postępu badań nad najlepszymi praktykami;
  • firmy powinny zapewnić narzędzie, które wykrywa, czy dźwięk został wygenerowany przez ich własne produkty;
  • firmy powinny wykrywać i zapobiegać nieautoryzowanemu tworzeniu klonów opartych na głosach wpływowych postaci, w tym celebrytów i polityków;
  • firmy powinny wbudować w swoje narzędzia do klonowania tzw. semantyczne bariery ochronne. Powinny one automatycznie oznaczać i zabraniać tworzenia dźwięku zawierającego frazy powszechnie używane w oszustwach i oszustwach oraz innych formach treści, które mogą powodować szkody, takie jak treści seksualne;
  • firmy powinny rozważyć nadzorowanie klonowania głosu przez sztuczną inteligencję, zamiast oferować produkty głosowe typu „zrób to sam”. Firmy mogą również zapewnić, że dostęp do modelu głosowego jest ograniczony do niezbędnych podmiotów i zawrzeć umowę określającą, który podmiot ponosi odpowiedzialność w przypadku niewłaściwego wykorzystania modelu głosowego.

Czytaj także: