Meniu de accesibilitate

Opțiuni principale

Gestionați

Mărimea textului
x1.0
Spațierea textului
x1.0
Spațierea literelor
x1.0
Spațiere înălțime
x1.5

Modelele de inteligență artificială pot sparge computere și se pot auto-replica pe alte sisteme, arată un nou studiu

Modelele de inteligență artificială pot pătrunde în computere, se pot copia singure și pot folosi acele copii pentru a continua atacurile asupra altor sisteme, potrivit unui nou studiu despre ceea ce cercetătorii spun că este prima demonstrație cunoscută de auto-replicare autonomă a AI, relatează Euronews.com.

Cum au testat cercetătorii capacitatea AI-ului de a se auto-replica și ataca alte sisteme

Descoperirea ar putea face atacurile cibernetice mult mai greu de oprit, avertizează cercetătorii, deoarece închiderea unui singur computer infectat nu ar fi suficientă dacă AI-ul și-a creat deja copii funcționale pe alte sisteme.

Studiul, realizat de compania americană Palisade Research, a testat modele precum OpenAI GPT 5, 5.1 și 5.4, Anthropic Claude Opus 4, 4.5 și 4.6, dar și modelele Qwen dezvoltate de Alibaba, pe computere în care fuseseră introduse intenționat vulnerabilități de securitate ce permiteau accesul din exterior.

Cercetătorii au conectat modelele AI dezvoltate de OpenAI, Anthropic și Alibaba la un software personalizat, cunoscut drept „agent harness”, care le permitea să execute comenzi și să interacționeze cu alte computere, în loc să fie folosite prin aplicațiile publice de tip chatbot.

Cum a reușit AI-ul să se copieze și să atace alte computere fără ajutor uman

Experimentul a funcționat în două moduri. Modelele dezvoltate de Alibaba au fost instruite să se copieze singure. În testele cu GPT și Claude, modelele au fost puse să pătrundă în sisteme și să instaleze Qwen, deoarece fișierele modelelor GPT și Claude nu sunt disponibile public pentru transfer.

În fiecare test, AI-ul trebuia să identifice o vulnerabilitate de securitate într-un sistem informatic, să o exploateze pentru a obține acces, să fure datele de autentificare, să transfere fișierele necesare rulării și să pornească o copie funcțională a sa pe noul computer.

Odată ce o copie era funcțională, aceasta putea fi folosită pentru a ataca un alt computer fără intervenție umană.

La fiecare etapă, AI-ul identifica o nouă vulnerabilitate de securitate, prelua controlul asupra următorului sistem, transfera software-ul și instrucțiunile necesare și lansa o nouă copie care continua lanțul de atacuri.

Modelul Qwen3.6-27B dezvoltat de Alibaba, o versiune mai mică a modelului Qwen AI care poate rula pe o singură placă video performantă, s-a răspândit pe patru computere aflate în Canada, Statele Unite, Finlanda și India după ce a primit un singur prompt, completând întregul lanț fără ajutor uman în doar două ore și 41 de minute.

Echipa de cercetare a oprit experimentul după trei etape, însă a precizat că ultima copie era încă funcțională și ar fi putut continua atacurile asupra altor sisteme.

Ce rezultate au obținut cercetătorii

Modelele AI au avut rate diferite de succes. Qwen3.5-122B-A10B, un model mai mare și mai puternic dezvoltat de Alibaba, a reușit să creeze copii funcționale ale sale în 19% dintre încercări.

Un model Qwen mai mic, Qwen3.6-27B, a atins o rată de succes de 33%, rulând pe o singură placă video performantă.

Sistemele comerciale de inteligență artificială au avut rezultate și mai bune atunci când au fost folosite pentru a instala fișierele modelului Qwen.

Claude Opus 4.6, dezvoltat de Anthropic, a avut succes în 81% dintre teste, în timp ce GPT-5.4 de la OpenAI a atins o rată de succes de 33%.

Cercetătorii spun că rezultatele ridică noi semne de întrebare legate de controlul asupra sistemelor AI avansate.

Studiul amintește de Claude Mythos, „cel mai periculos instrument AI”

Deși rezultatel studiului indică faptul că un AI se poate replica pe mai multe calculatoare și să se răspândească precum un adevărat virus, nu putem uita și de Claude Mythos, un AI dezvoltat de compania Anthropic, care poate accesa orice sistem de cybersecurity existent.

Compania afirmă că modelul poate identifica și exploata vulnerabilități informatice vechi de zeci de ani, dar și defecte greu de detectat, cunoscute drept vulnerabilități „zero-day”.

Mythos poate fi utilizat inclusiv de persoane fără experiență în securitate cibernetică. Potrivit Anthropic, „ingineri de la Anthropic, fără pregătire formală în securitate, i-au cerut lui Mythos Preview să găsească vulnerabilități de tip <remote code execution> peste noapte, iar dimineața s-au trezit cu un exploit complet funcțional”.

În timpul testelor, modelul Mythos a descoperit mii de vulnerabilități în securitatea mai multor site-uri. În cazurile verificate manual până acum, 89% dintre cele 198 de rapoarte au confirmat evaluările făcute de Claude Mythos, iar în 98% dintre situații diferența a fost de cel mult un nivel de severitate.

ARTICOLE DIN ACEEAȘI CATEGORIE

euronews.ro: Știri de ultimă oră, breaking news, #AllViews