În era omniprezenței inteligenței artificiale în viața cotidiană, un nou studiu semnalează un risc major. Chatboții AI precum ChatGPT, Gemini sau Claude pot fi ușor manipulați pentru a furniza informații extrem de periculoase. Acestea includ instrucțiuni detaliate pentru activități ilegale, precum hacking, spălare de bani sau chiar crearea de explozibili.
Acest risc, conform cercetătorilor, nu mai este o amenințare abstractă. Este concret, iminent și profund îngrijorător într-o lume în care AI progresează rapid, dar controlul său pare a stagna.
Cercetătorii Lior Rokach și Michael Fire de la Universitatea Ben Gurion din Israel, atrag atenția asupra așa-numiților „modele întunecate” – variante de AI antrenate fără măsuri de siguranță sau cu suprimarea intenționată a filtrelor etice.
Aceste modele, promovate online ca fiind „eliberate de constrângeri”, pot răspunde fără restricții la solicitări ilegale sau imorale. Manipularea acestor modele se realizează prin mesaje atent concepute, care îi induc în eroare, făcându-i să creadă că sarcina lor este să ajute. Rezultatul este conflictul dintre necesitatea de a fi util și protocoalele de protecție. Prioritizarea utilității dezactivează filtrele de siguranță, conducând la răspunsuri detaliate la întrebări care ar trebui blocate.
Pentru a demonstra gravitatea situației, cercetătorii au dezvoltat o strategie de manipulare universală, testată cu succes pe mai multe modele populare. Odată „compromise,” AI-urile au furnizat constant informații periculoase, de la metode de hacking la rețete de substanțe interzise și scheme de fraudă.
Răspunsul industriei: ezitant și insuficient
În ciuda transmiterii raportului către giganții tehnologici (inclusiv Meta, Microsoft, Google și Anthropic), răspunsurile au fost, în cel mai bun caz, dezamăgitoare. Unele companii nu au reacționat, altele considerând că aceste atacuri nu se încadrează în politicile lor de identificare a vulnerabilităților. Riscul este recunoscut, dar nu abordat cu necesara seriozitate.
OpenAI, compania din spatele ChatGPT, susține că își îmbunătățește continuu filtrele de siguranță. Ultimul model, o1, ar putea interpreta mai bine politicile de securitate, devenind astfel mai rezistent la încercările de manipulare. Totuși, rezultatele testelor cercetătorilor par a contrazice aceste afirmații.
Experții solicită măsuri concrete: o filtrare mai riguroasă a datelor de antrenament, blocarea automată a solicitărilor riscante și metode de „ștergere” a informațiilor periculoase învățate. Mai mult, modelele fără filtre ar trebui considerate la fel de periculoase precum tehnologiile nedeclarate, cu implicații legale pentru dezvoltatori.
De ce ar trebui să te preocupi de această problemă
Chiar dacă consideri că problema nu te afectează direct, gândește-te din nou. Accesul la AI este omniprezent. Fie că utilizezi un chatbot pentru traducere, asistență sau divertisment, riscul utilizării acestora în scopuri malefice este real. Atacurile cibernetice ar putea deveni mai simple, iar manipulările online – de la frauda financiară la propagandă – mai greu de detectat.
Un expert în securitatea AI, de la Queen’s University din Belfast, avertizează că aceste atacuri pot duce la o sofisticare alarmantă a fraudei și manipulării. Dacă un chatbot poate fi antrenat să furnizeze rețete de explozibili, cum pot fi garanate utilizări pașnice în contextul campaniilor de influențare, dezinformării sau fraudării online?
Dată fiind omniprezența AI în educație, business, sănătate și divertisment, ignorarea acestor riscuri nu este doar naivă, ci potențial catastrofală. Acest studiu este un apel urgent la responsabilitate.
În concluzie, AI poate fi un instrument extraordinar, însă doar dacă este gestionat cu prudență. Această gestionare începe cu recunoașterea pericolelor și asumarea responsabilității de către toate părțile implicate, inclusiv utilizatorii.