Na reakcję nie trzeba było długo czekać – ilustratorzy, fotografowie, aktorzy dubbingowi i inni twórcy wyrazili obawy przez platformy takie jak X. Oburzenie wynikało z przekonania, że WeTransfer może używać ich twórczości do celów treningu modeli AI, bez żadnego wynagrodzenia.
WeTransfer się wycofuje, ale zaufanie może już nie wrócić
W odpowiedzi na krytykę firma jasno określiła, że dane użytkowników nie są wykorzystywane do trenowania modeli AI, a jedynie do moderacji treści – i że nie sprzedaje ich osobom trzecim. Wprowadzono nową redakcję klauzuli: „Udzielasz nam licencji royalty free tylko po to, by operować, rozwijać i usprawniać usługę, zgodnie z naszą Polityką Prywatności” . Jednak część użytkowników pozostała sceptyczna, twierdząc, że to naruszyło ich zaufanie i skłoniło ich do rozważenia alternatyw .
Zmiana WeTransfer to nie pierwszy taki przypadek. W grudniu 2023 podobna sytuacja spotkała Dropbox – zmiana regulaminu sugerowała użycie plików użytkowników do AI, co również spotkało się z reakcją. Firma również musiała publicznie się wycofać. W Stanach Zjednoczonych Federalna Komisja Handlu (FTC) ostrożnie ostrzegła, że tego typu „ciche” zmiany regulaminów mogą być postrzegane jako praktyki nieuczciwe lub wprowadzające w błąd konsumentów. Podkreślono, że firma nie może retroaktywnie zmieniać zasad, na podstawie których użytkownik korzystał z usługi.
Stara prawda o nowościach w regulaminie
Kryzys związany z WeTransfer uświadamia, że nawet krótkotrwałe niejasności w regulaminach mogą zrujnować reputację platform, zwłaszcza gdy użytkownicy obawiają się o prawa autorskie i poufność. Twórcy poczuli się, jakby stracili kontrolę nad swoimi dziełami – mimo że docelowy cel firmy był (ponoć) inny. Warto na pewno uważnie czytać aktualizacje regulaminów – zwłaszcza wtedy, gdy użytkowana przez nas platforma wprowadza zapisy o „rozwoju AI” z publicznym dostępem do danych. Naszą uwagę powinny zwracać szczególnie klauzule licencyjne: sformułowania typu „royalty-free” i „transferable” powinny budzić ostrożność.