Compania americană Anthropic susține că mai multe firme chineze de inteligență artificială au folosit o tehnică numită „distilare” pentru a copia tehnologia chatbot-ului său Claude și a-și antrena propriile modele. În timp ce Statele Unite și China se întrec în dezvoltarea inteligenței artificiale (IA), firma americană Anthropic este cea mai recentă companie care a tras un semnal de alarmă, afirmând că firmele chineze de inteligență artificială fură tehnologia care ar putea decide cine câștigă, scrie Euronews.
Compania susține că DeepSeek, Moonshot AI și MiniMax au generat în secret peste 16 milioane de conversații cu chatbot-ul Claude, dezvoltat de inteligența artificială al companiei Anthropic, folosind peste 24.000 de conturi false, pentru a-i colecta informațiile și a-și antrena propriile modele concurente.
OpenAI și Google au avertizat, de asemenea, cu privire la acuzații similare la adresa firmelor chineze în această lună, ceea ce stârnește temeri că China scurtcircuitează ani de cercetare costisitoare în domeniul inteligenței artificiale.
Ce este „distilarea” în inteligența artificială
Așa-numitele atacuri prin extragerea modelelor (Model Extraction Attacks – MEA), cunoscute și drept „distilare”, reprezintă o metodă prin care un model AI puternic este folosit pentru a antrena unul mai mic, mai rapid și mai ieftin.
Metoda presupune adresarea a mii de întrebări modelului mare, colectarea răspunsurilor și folosirea acestora pentru a învăța noul model să „gândească” similar.
Anthropic explică faptul că distilarea este o practică legitimă atunci când laboratoarele își distilează propriile modele pentru a crea versiuni mai accesibile pentru clienți. Problema apare atunci când un actor extern folosește tehnica pentru a copia tehnologia fără permisiune.
24.000 de conturi false și o „rețea hydra”
Potrivit Anthropic, firmele chineze ar fi direcționat traficul prin adrese proxy și ar fi utilizat o vastă „rețea hydra”, un sistem de conturi false care își dispersau activitatea pe mai multe platforme.
Deoarece serviciile Anthropic sunt interzise în China, accesul ar fi fost obținut prin aceste metode ocolitoare.
Odată ce companiile au intrat în joc, au generat volume mari de solicitări fie pentru a colecta răspunsuri de înaltă calitate pentru antrenarea modelului, fie pentru a genera zeci de mii de sarcini pentru învățarea prin consolidare, adică modul în care un agent învață să ia decizii pe baza feedback-ului.
Conturile DeepSeek care l-au atacat pe Claude i-au cerut modelului să articuleze cum a raționalizat un răspuns la o solicitare și să îl scrie pas cu pas, ceea ce, potrivit companiei, „a generat date de antrenament la scară largă pentru lanțuri de gândire”.
Claude a fost folosit și de conturile DeepSeek pentru a „genera alternative sigure pentru cenzură la întrebări sensibile din punct de vedere politic”, cum ar fi întrebări despre oponenții actualului Partid Comunist, susține Anthropic.
Riscuri pentru securitatea națională
Anthropic avertizează că modelele dezvoltate prin distilare pot prezenta riscuri semnificative pentru securitatea națională, deoarece nu includ garanțiile și filtrele de siguranță integrate în modelele originale.
Compania americană a emis teoria că aceste întrebări au antrenat modelele DeepSeek „să îndepărteze conversațiile de subiectele cenzurate”, ceea ce ar putea susține un studiu recent care a constatat că modelele chineze de inteligență artificială cenzurează probabil aceleași subiecte ca și mass-media lor.
MiniMax AI și Moonshoot AI au avut campanii de distilare mai mari decât DeepSeek, dar Anthropic nu a oferit exemple pentru tipurile de informații pe care aceste două companii le-au colectat în prompturile lor.
OpenAI și Google, avertismente similare
OpenAI a declarat în februarie în fața parlamentarilor americani că a surprins DeepSeek încercând să copieze în secret modelele sale cele mai avansate. Google a semnalat, de asemenea, utilizarea abuzivă a chatbot-ului Gemini pentru sarcini de codare, colectare de acreditări și informații sensibile.
Totuși, Google a precizat că astfel de atacuri nu reprezintă un risc direct pentru utilizatorii obișnuiți, deoarece nu afectează confidențialitatea sau integritatea serviciilor.
Anthropic spune că a construit măsuri de detectare pentru a identifica aceste campanii pe măsură ce se desfășoară, dar a menționat că nicio companie de inteligență artificială nu poate rezolva problema singură.
