Anthropic oskarża DeepSeek i inne chińskie firmy zajmujące się sztuczną inteligencją o jazdę na gapę

- Ekonomia - 25 lutego, 2026
Anthropic oskarża DeepSeek i inne chińskie firmy zajmujące się sztuczną inteligencją o jazdę na gapę
Anthropic oskarża DeepSeek i inne chińskie firmy zajmujące się sztuczną inteligencją o jazdę na gapę

Autor: Bill Pan za pośrednictwem The Epoch Times (podkreślenie nasze),

Antropiczny, twórca chatbota Claude, oskarżył trzy z wiodących chińskich firm zajmujących się sztuczną inteligencją (AI) o utworzenie ponad 24 000 fałszywych kont w celu wykorzystania jej systemu i szkolenia własnych modeli.

Aplikacja DeepSeek na ekranie iPhone’a, San Anselmo w Kalifornii, 27 stycznia 2025 r. Justin Sullivan/Getty Images

Trzy firmy —DeepSeek, Moonshot AI i MiniMax—rzekomo wykorzystał te konta do wysłania ponad 16 milionów podpowiedzi do Claude’a, pobierając część produkcji w celu udoskonalenia własnych produktów, Anthropic stwierdziła w poście na blogu z 23 lutego.

Kampanie te stają się coraz bardziej intensywne i wyrafinowane,”firma z siedzibą w San Francisco powiedział.

Taktyka ta, znana jako „destylacja”, polega na szkoleniu mniejszego, słabszego modelu „ucznia” w zakresie wyników, zachowań i wiedzy znacznie większego, bardziej zaawansowanego modelu „nauczyciela”. Dzięki temu system uczniów może naśladować możliwości nauczyciela bez konieczności poświęcania czasu i pieniędzy na ich samodzielne rozwijanie.

Anthropic stwierdziła, że ​​skala rzekomej działalności destylacyjnej trzech firm jest zróżnicowana. Według Anthropic sam DeepSeek wygenerował około 150 000 interakcji z Claudem, podczas gdy Moonshot i MiniMax zarejestrowały odpowiednio ponad 3,4 miliona i 13 milionów.

Ponieważ wiele chińskich modeli, takich jak DeepSeek R1, nie pobiera miesięcznej opłaty abonamentowej, powszechna destylacja może utrudnić amerykańskim dostawcom, takim jak OpenAI i Anthropic, zarabianie na produktach, na budowę i utrzymanie których wydali miliardy dolarów. Zdaniem firmy ta nierównowaga stwarza ryzyko osłabienia przewagi konkurencyjnej Stanów Zjednoczonych w zakresie sztucznej inteligencji, którą mają chronić kontrole eksportu.

Firma Anthropic, która kładzie nacisk na bezpieczeństwo sztucznej inteligencji, przestrzegła ponadto, że ona i inne amerykańskie firmy tworzą zabezpieczenia zapobiegające wykorzystywaniu sztucznej inteligencji przez złe podmioty na przykład do opracowywania broni biologicznej lub przeprowadzania cyberataków. Z kolei modele nielegalnie destylowane mogą nie mieć takich poręczy.

„Zagraniczne laboratoria, które destylują amerykańskie modele, mogą następnie wprowadzić te niechronione możliwości do systemów wojskowych, wywiadowczych i systemów nadzoru, umożliwiając autorytarnym rządom wdrażanie granicznej sztucznej inteligencji do ofensywnych operacji cybernetycznych, kampanii dezinformacyjnych i masowej inwigilacji” – ostrzegła firma.

Dodał, że jeśli wydestylowane modele zostaną później udostępnione na zasadach open source, ryzyko wzrasta, ponieważ możliwości te „swobodnie rozprzestrzeniają się poza kontrolą żadnego pojedynczego rządu”.

DeepSeek, Moonshot i MiniMax nie odpowiedziały na prośby o komentarz do czasu publikacji.

W zeszłym roku DeepSeek wskoczył na czołowe miejsca w rankingach twórców sztucznej inteligencji wraz z wypuszczeniem chatbota R1, który według niego został zbudowany za ułamek kosztów wiodących amerykańskich alternatyw. Wprowadzenie na rynek spowodowało wyprzedaż akcji spółek technologicznych o ponad 1 bilion dolarów, ponieważ inwestorzy obawiali się, że tani model wyprodukowany w Chinach może podważyć pozycję lidera Doliny Krzemowej w zakresie sztucznej inteligencji.

Od tego czasu firmy z siedzibą w Chinach zalały rynek stosunkowo niedrogimi modelami tekstu, obrazów i wideo. W zeszłym miesiącu Moonshot wypuścił nowy model open source, Kimi K2.5, i stara się o wycenę na około 10 miliardów dolarów w nowej rundzie finansowania, podczas gdy MiniMax również zadebiutował na rynku publicznym za około 6,5 miliarda dolarów.

Anthropic zarzuciła, że ​​te trzy firmy korzystały z „fałszywych kont i usług proxy, aby uzyskać dostęp do Claude na dużą skalę, unikając jednocześnie wykrycia”. Sieci proxy mogą ukrywać prawdziwą lokalizację użytkownika i umożliwiać mu ominięcie ograniczeń regionalnych w celu otwarcia dużej liczby kont.

Producent Claude stwierdził, że zidentyfikował aktorów z „wysoką pewnością” na podstawie adresów protokołu internetowego, metadanych i „potwierdzeń partnerów branżowych, którzy zaobserwowali tych samych aktorów i zachowania na swoich platformach”. Anthropic stwierdziła na przykład, że MiniMax był widziany w akcji, gdy firma rzekomo przekierowała prawie połowę swojego ruchu na funkcje syfonu z najnowszego modelu Claude w momencie jego wprowadzenia na rynek.

Zarzuty pojawiają się w związku z przyciąganiem eksportu chipów z USA do Chin debata w związku z obawami dotyczącymi bezpieczeństwa narodowego.

W styczniu administracja Trumpa opublikowała nowe rozporządzenie poluzowało to ograniczenia w eksporcie chipów Nvidia H200, co według urzędników federalnych jest uzasadnione, aby zwiększyć zależność Chin od chipów amerykańskich niższej klasy, a nie od najbardziej zaawansowanych. Krytycy twierdzą jednak, że jakiekolwiek potencjalne zwiększenie mocy obliczeniowej sztucznej inteligencji w Chinach jest ryzykiem zbyt dużym, aby je zaakceptować.

Antropiczny, który konsekwentnie zwany o bardziej rygorystyczną kontrolę zaawansowanych chipów do Chin, nie obwiniał wyraźnie polityki USA za umożliwienie rzekomego wydobycia, ale przytoczył takie ataki jako dalsze uzasadnienie bardziej rygorystycznych kontroli eksportu.

Przeprowadzenie tej ekstrakcji na dużą skalę wymaga dostępu do zaawansowanych chipów” – napisała firma w swoim poście na blogu, stwierdzając, że ograniczony dostęp do chipów ograniczy „zarówno bezpośrednie szkolenie modeli, jak i skalę nielegalnej destylacji”.

„The Epoch Times” zwrócił się do Departamentu Handlu Stanów Zjednoczonych z prośbą o uwagi dotyczące obaw firmy Anthropic.

Ładowanie rekomendacji…

źródło

0 0 głosów
Article Rating
Subskrybuj
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
Wszystkie
Follow by Email
LinkedIn
Share
Copy link
Adres URL został pomyślnie skopiowany!
0
Would love your thoughts, please comment.x