Un nou studiu relevă amploarea îngrijorătoare a unei campanii pro-ruse de propagandă, care utilizează instrumente AI ușor accesibile pentru producerea în masă a conținutului manipulator.
Campania, cunoscută sub denumirea Operațiune Overload sau Matryoshka, este activă din 2023 și este asociată de diverse organizații, inclusiv Microsoft și Institutul pentru Dialog Strategic, cu autoritățile ruse.
Campania vizează publicul global, dar Ucraina rămâne un țintă principală. În perioada septembrie 2024 – mai 2025, cercetătorii au identificat o creștere dramatică a volumului de conținut produs: 587 de materiale unice, de la imagini și clipuri video manipulate, la coduri QR și site-uri false, potrivit publicației WIRED.
Majoritatea materialelor sunt generate cu ajutorul AI, într-o strategie denumită amalgamare de conținut, aceeași narațiune fiind difuzată în multiple formate și limbi pentru a maximiza impactul.
Propagandă scalabilă, multilingvă și sofisticată
Conform unui raport realizat de Reset Tech (Marea Britanie) și Check First (Finlanda), această tactică reprezintă o schimbare de paradigmă: propaganda devine din ce în ce mai scalabilă, rapidă și diversificată.
„Diversitatea formelor de conținut m-a surprins”, declară cercetătoarea Aleksandra Atanasova de la Reset Tech. „Au început să combine elemente diverse – text, imagine, voce – pentru a prezenta aceleași teme din unghiuri multiple”, a adăugat ea.
Campania nu utilizează instrumente personalizate, ci instrumente AI comerciale gratuite. De exemplu, Flux AI, un generator text-imagine dezvoltat de compania germană Black Forest Labs, a fost identificat ca o sursă principală pentru numeroase imagini false distribuite prin diverse canale, unele reprezentând presupuse revolte violente ale imigranților musulmani în Berlin sau Paris.
Vocile unor personalități publice au fost clonat și manipulate prin intermediul AI pentru a crea clipuri false. În unul din cazuri, vocea unei profesoare franceze a fost folosită pentru a promova extremismul de dreapta german, în ciuda faptului că materialul original se referea la un premiu academic.
Numărul acestor videoclipuri false a crescut dramatic, de la 150 în perioada iunie 2023 – iulie 2024 la 367 în următoarele opt luni.
Rețele de distribuție și strategii paradoxale
Conținutul generat este distribuit prin peste 600 de canale Telegram, conturi de tip bot pe platformele de social media, precum și pe TikTok, unde doar 13 conturi au reușit să obțină 3 milioane de vizualizări înainte să fie moderate. TikTok a reacționat rapid, însă pe alte rețele de comunicare, cercetătorii constată o reacție limitată, în ciuda sesizărilor repetate.
O tactică surprinzătoare utilizată de Operațiunea Overload este trimiterea directă a materialelor fabricate către organizații media și experți în verificarea faptelor, solicitându-le să le „analizeze”.
Scopul real este ca aceste materiale să fie menționate și în articolele de dezinformare, o menționare în presa clasică, chiar dacă este identificată ulterior ca falsă, contribuie la notorietatea și răspândirea suplimentară a conținutului.
Se estimează că peste 170.000 de astfel de emailuri au fost trimise către 240 de destinatari de la septembrie 2024 încoace.
Impactul și viitorul luptei împotriva dezinformării AI
Deși multe dintre site-urile false create de campanie nu generează trafic semnificativ, promovarea agresivă pe rețelele sociale poate duce uneori la plasarea conținutului fals la un loc fruntaș în rezultatele căutării Google.
Potrivit American Sunlight Project, rețelele de propagandă ruse produc deja cel puțin 3 milioane de articole generare de AI anual, infiltrând inclusiv rezultatele obținute de chatboți precum ChatGPT sau Google Gemini. „Deja au găsit o strategie eficientă. Știu exact ce fac”, avertizează Atanasova.