Inteligența artificială este mai bună decât hackerii, arată un nou studiu. Acesta s-a dovedit mai eficient în detectarea vulnerabilităților decât participanții umani la test, relatează Euronews.com.
Inteligența artificială a demonstrat un nivel ridicat de competență tehnică
Un agent dezvoltat cu inteligență artificială s-a dovedit a fi mai eficient decât participanții umani la studiu. Testul a presupus verificarea unui site pentru vulnerabilități, iar AI-ul a reușit în 16 ore.
Studiul s-a format pe fondul intensificării atacurilor cibernetice din partea Rusiei, Coreei de Nord, Iran și China. Mai mult, grupările de hackeri folosesc LLM-uri (large language models sau aplicații AI) diferite pentru a-și rafina modul de operare, fapt relatat și de Microsoft și de OpenAI. Grupări militante, precum cele pro Statului Islamic, experimentează de asemenea cu inteligența artificială.
Universtitatea Stanford a descoperit că agentul AI ARTEMIS a fost pe locul doi din 10 într-un experiment cu hackeri umani. Rularea agentului ARTEMIS costă aproximativ $18 pe oră, în timp ce „închirierea” unui hacker uman costă în jur de $60 pe oră.
Un studiu Google estimează că în 2026 vom vedea agenți AI care vor căra atacuri cibernetice pe cont propriu.
ARTEMIS, agentul AI de la Stanford, depășește majoritatea testerilor umani în securitate cibernetică
În cadrul testului, Universitatea Stanford a oferit accest ARTEMIS, alți șase agenți AI, cât și 10 participanți umani, accest la peste 8.000 de dispozitive din cadrul Universității, inclusiv acces la servere și internet. Testul a durat 16 ore, dar performanța a fost evaluată doar pentru primele 10 ore.
În acel timp, ARTEMIS a descoperit nouă vulnerabilități în sistemul universității și 82% dintre rapoartele trimise au fost corecte.
Ceea ce a ajutat la succesul agentului ARTEMIS a fost modul de operare. Atunci când descoperea o vulnerabilitate, ARTEMIS crea sub-agenți care se ocupau de ea, în timp ce modelul mare se ocupa de scanare continuă. Oamenii, în schimb, trebuiau să se oprească la orice vulnerabilitate descoperită.
Totuși, studiul a remarcat că ARTEMIS a omis unele vulnerabilități identificate de oameni și a avut nevoie de indicii pentru a le descoperi.
Agenții AI existenți pentru securitate cibernetică, dezvoltați de companii precum OpenAI (Codex) și Anthropic (Claude Code), nu au expertiză de securitate cibernetică integrată în designul lor, a constatat studiul. În timpul testării, agenții AI ai companiilor consacrate fie au refuzat să caute vulnerabilități, fie s-au blocat.
