Chiński „połów” danych: Anthropic ujawnia masowe kopiowanie możliwości modelu Claude

Dodane:

MamStartup logo Mam Startup

Chiński „połów” danych: Anthropic ujawnia masowe kopiowanie możliwości modelu Claude

Udostępnij:

Firma Anthropic ujawniła skalę procederu określanego mianem „destylacji”, w który zaangażowane mają być czołowe chińskie podmioty technologiczne. Według oficjalnego komunikatu, firmy DeepSeek, Moonshot oraz MiniMax wykorzystały tysiące fałszywych kont, aby za pomocą modelu Claude ulepszać własne systemy, omijając przy tym blokady regionalne i zasady bezpieczeństwa.

Jak informuje firma Anthropic, wykryto skoordynowane kampanie mające na celu nielegalne wyprowadzenie kluczowych kompetencji modelu Claude. Proces ten opierał się na tzw. „destylacji” – technice polegającej na trenowaniu słabszego modelu na wynikach generowanych przez system o większych możliwościach. Choć metoda ta jest powszechnie stosowana wewnątrz firm do tworzenia mniejszych wersji własnych algorytmów, Anthropic podkreśla, że jej wykorzystanie przez konkurencję służy do kradzieży zaawansowanych funkcji w ułamku czasu i przy minimalnych nakładach finansowych.

Łącznie trzy chińskie podmioty wygenerowały ponad 16 milionów interakcji, korzystając z sieci około 24 tysięcy fikcyjnych kont. Operacja ta pozwoliła na obejście restrykcji regionalnych – Anthropic nie oferuje bowiem dostępu do Claude’a na terenie Chin ze względów na bezpieczeństwo narodowe.

Anatomia ataku: Trzech graczy, trzy strategie

Każde z laboratoriów skupiło się na innym aspekcie technologii, próbując „wycisnąć” z Claude’a to, co najcenniejsze:

  • MiniMax (ponad 13 mln wymian): największa z kampanii, skupiona na kodowaniu agentowym i orkiestracji narzędzi. Anthropic wykryło atak jeszcze w fazie aktywnej. Gdy Amerykanie wypuścili nowy model, MiniMax w ciągu 24 godzin przekierował połowę swojego ruchu, by błyskawicznie przejąć możliwości najnowszego systemu.
  • Moonshot AI (ponad 3,4 mln wymian): celował w rozumowanie agentowe, analizę danych oraz wizję komputerową. Wykorzystywał setki kont i różnorodne ścieżki dostępu, by utrudnić detekcję.
  • DeepSeek (ponad 150 tys. wymian): skoncentrował się na logice rozumowania i tworzeniu „bezpiecznych” (zgodnych z cenzurą) odpowiedzi na zapytania polityczne, dotyczące np. dysydentów czy liderów partyjnych.

Hydra i fałszywe tożsamości

Laboratoria omijały blokady za pomocą komercyjnych usług proxy, tworzących tzw. „klastry hydry”. Są to rozległe sieci tysięcy kont rozproszonych w chmurach obliczeniowych. Gdy jedno konto zostaje zablokowane, jego miejsce natychmiast zajmuje kolejne. W jednym z przypadków pojedyncza sieć zarządzała jednocześnie ponad 20 tysiącami profili, mieszając zapytania „destylacyjne” z ruchem zwykłych klientów.

Ryzyko dla bezpieczeństwa narodowego

Anthropic alarmuje, że „wydestylowane” w ten sposób modele są pozbawione wbudowanych w Claude’a zabezpieczeń. Amerykańskie systemy posiadają bariery uniemożliwiające np. pomoc w tworzeniu broni biologicznej czy przeprowadzanie cyberataków. Modele chińskie, przejmując czystą moc obliczeniową bez tych filtrów, stają się potężnym narzędziem w rękach rządów autorytarnych – mogą służyć do inwigilacji masowej, dezinformacji i operacji ofensywnych w sieci.

Firma argumentuje również, że te incydenty potwierdzają zasadność kontroli eksportu chipów. Szybkie postępy chińskich firm nie wynikają wyłącznie z ich innowacyjności, lecz z „ekstrakcji” możliwości z modeli amerykańskich, co wymaga dostępu do zaawansowanych procesorów.

Odpowiedź i przyszłość

W reakcji na ataki Anthropic wdraża zaawansowane klasyfikatory behawioralne, wzmacnia weryfikację kont i dzieli się danymi technicznymi z innymi laboratoriami oraz władzami. Firma podkreśla jednak, że walka z tym procederem wymaga szerokiej koordynacji branżowej i politycznej, gdyż okno czasowe na skuteczne przeciwdziałanie takim praktykom szybko się zamyka.

Czytaj także: