Inteligența Artificială și atacurile cibernetice: Un model AI păcăleşte Microsoft Defender

Drăgan Bogdan
5 Citit minim
Inteligența artificială, noua armă a hackerilor: cum un model AI a păcălit Microsoft Defender

Un nou model de inteligență artificială, antrenat cu o tehnică specială de reinforcement learning, a reușit să creeze programe dăunătoare care pot eluda sistemul Microsoft Defender for Endpoint cu o eficiență ridicată. Prezentat oficial la conferința Black Hat 2025 din Las Vegas de către Kyle Avery, specialist în securitate activă, acest instrument nu este un simplu experiment academic – ci un prototip funcțional cu potențial nociv crescut.

În ultimii ani, domeniul cibernetic s-a preocupat de posibilitatea utilizării modelelor mari de limbaj (LLM) pentru crearea de programe dăunătoare. Până acum, exemplele au fost limitate la scripturi simple, e-mailuri de phishing și analize de țintă. Acest proiect, însă, deschide o nouă eră caracterizată de inteligența artificială care învață independent să eludeze tehnicile de securitate.

Modelul antrenat de Avery utilizează o versiune open-source Qwen 2.5, într-un mediu controlat unde interacționează cu Microsoft Defender și învață prin încercări și erori cum să evite alarmele de securitate. Sute de sesiuni de testare și un buget de aproximativ 1.500 de dolari au fost necesare pentru dezvoltare, demonstrând că crearea unor asemenea sisteme nu este rezervată doar entităților guvernamentale sau corporatiilor mari.

Reinforcement learning: cheia succesului în evaziunea digitală

Elementul distinctiv al acestui model AI față de abordările anterioare este utilizarea reinforcement learning-ului în scenarii ofensive de securitate. În loc să fie alimentat cu exemple de programe dăunătoare sau să copieze coduri existente, modelul a fost antrenat să învețe independent ce funcționează și ce nu. La fiecare iterație, acesta era recompensat pentru rezultate parțiale – programe dăunătoare funcționale, chiar dacă erau detectate – și apoi rafinat până la generarea de fișiere complet nedetectabile.

Modelul comunica constant cu o interfață API conectată la Microsoft Defender, primind în timp real informații despre gradul de gravitate al alarmării declanșate de fiecare versiune de cod generat. Obiectivul a fost atingerea unui scor din ce în ce mai scăzut, până la dispariția alarmării.

În final, eficiența a fost remarcabilă: aproximativ 8% din probele generate au trecut complet nedetectate, o rată semnificativ mai mare decât a altor modele AI performante, precum cele dezvoltate de Anthropic sau DeepSeek, care abia depășeau pragul de 1%.

Faptul îngrijorător este dimensiunea redusă a modelului: acesta poate funcționa pe o simplă placă grafică de gaming, fără infrastructură specială, făcându-l accesibil oricărui atacator cu cunoștințe tehnice medii.

Ce implică acest lucru pentru viitorul securității cibernetice

Această demonstrație practică pune sub semnul întrebării viitorul securității digitale. Dacă un specialist, cu resurse limitate, a reușit să antreneze un AI capabil să evite un sistem de protecție endpoint utilizat pe scară largă, ce se va întâmpla când această tehnologie va cădea în mâinile actorilor malițioși?

Hackerii ar putea utiliza AI nu doar pentru crearea de programe dăunătoare, ci și pentru testarea continuă a soluțiilor de securitate, identificarea vulnerabilităților din infrastructuri și chiar pentru automatizarea atacurilor la scară extinsă. Asistim, astfel, la începutul unei ere în care lupta cibernetică va fi tot mai mult determinată de algoritmi care învață, se adaptează și acționează autonom.

Kyle Avery avertizează că oprirea antrenării modelului la un procent de 8% eficiență a fost arbitrară și că, dacă antrenarea ar fi continuat, procentul de succes putea crește și mai mult. Totodată, a afirmat că este doar o chestiune de timp până când aceste metode vor fi replicate și folosite de grupuri criminale mari.

Concluzie: o nouă frontieră în securitatea digitală

Nu mai este o chestiune de dacă inteligența artificială va fi utilizată în scopuri răuvoitoare, ci când și cum. Demonstrația de la Black Hat 2025 nu este o predicție apocaliptică, ci o realitate concludentă. Este crucial ca firme de securitate, dezvoltatori de software și autorități să ia în serios aceste evoluții și să se pregătească pentru un nou tip de adversar algoritmic.

Pentru tine, utilizator sau profesionist IT, asta înseamnă să fii mai vigilent ca niciodată la actualizări, comportamente suspecte și instrumente de protecție de ultimă generație. Într-o lume unde programele dăunătoare se creează singure și scapă de detectare, vigilenta este singura linie de apărare relevantă.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *