Chatboții: complici ai infracțiunilor? Riscuri și control AI

Drăgan Bogdan
5 Citit minim
AI-ul, scăpat de sub control: cum pot deveni chatboții complici la infracțiuni

Inteligența artificială, mai ales chatbot-urile conversaționale, este din ce în ce mai prezentă în viața cotidiană. De la asistenții virtuali care răspund la întrebări la instrumentele care rezumă documente sau generează texte, modelele lingvistice mari (LLM) par utile și inofensive. Însă un studiu recent evidențiază faptul că, odată modificate, aceste modele pot constitui instrumente periculoase în mâinile celor cu intenții malefice.

Cercetarea efectuată de profesorul Lior Rokach și doctorul Michael Fire de la Universitatea Ben Gurion din Negev, Israel, semnalează un pericol evident: inteligența artificială poate fi utilizată pentru a genera informații referitoare la activități ilegale precum fraude, hacking sau chiar fabricarea de dispozitive explozive. Totul prin metode simple de „distrugere” a mecanismelor de securitate implementate de dezvoltatori.

Modelele lingvistice mari, precum ChatGPT, Gemini sau Claude, sunt antrenate pe baze de date ample, prelevate de pe internet. Chiar dacă dezvoltatorii se străduiesc să elimine informațiile dăunătoare din aceste baze, eliminarea completă a datelor ilicite este imposibilă. Odată ce aceste date intră în sistem, ele pot fi accesate prin solicitări bine articulate.

De regulă, aceste sisteme includ mecanisme de protecție pentru a împiedica răspunsurile dăunătoare sau ilegale. Cu toate acestea, cercetătorii au demonstrat că aceste mecanisme pot fi relativ ușor depășite. Utilizând tehnici de „evadare” – o formă de hacking care modifică funcționarea sistemelor – au reușit să transforme chatbot-urile în instrumente care oferă detalii despre metode de fraudă, spălare de bani sau chiar fabricarea de dispozitive explozive.

Faptul că aceste modificări nu necesită expertiză avansată în domeniul securității cibernetice este deosebit de îngrijorător. „Acela ce odată era accesibil doar actorilor statali sau grupărilor organizate este acum la îndemâna oricui are un laptop sau un telefon mobil”, avertizează autorii studiului.

LLM-uri întunecate și lipsa barierelor etice

O parte a problemei constă și în apariția așa-numitelor „LLM-uri întunecate” – versiuni ale modelelor AI create fără mecanisme de siguranță sau etică. Acestea circulă activ pe internet, fiind promovate tocmai pentru că răspund fără ezitare la întrebări considerate periculoase sau ilegale. Unele forumuri obscure le prezintă ca instrumente ideale pentru hacking, fraudă financiară sau alte infracțiuni digitale.

Diferența dintre un LLM conventional și unul „întunecat” nu este doar tehnologică, ci și ideologică. Modelele originale, dezvoltate de companii precum OpenAI sau Google DeepMind, sunt concepute pentru a respecta principii stricte de etică și responsabilitate. În schimb, versiunile modificate de utilizatorii cu intenții malefice evită aceste restricții. Dimpotrivă, sunt optimizate pentru a le ocoli.

Odată ce un LLM este „compromis”, nu există nicio garanție că informațiile generate nu vor fi folosite în scopuri periculoase. Studiul demonstrează că majoritatea modelelor modificate au răspuns la aproape orice întrebare, de la „cum se fabrică o bombă artizanală” până la „cum se evită detectarea în tranzacțiile criptografice suspecte”.

Soluții și avertismente pentru viitorul inteligenței artificiale

În fața acestui pericol, cercetătorii propun diverse soluții. În primul rând, companiile care dezvoltă aceste modele trebuie să analizeze mai profund datele folosite la antrenament. Sunt necesare sisteme de filtrare mai sofisticate, capabile să identifice nu doar conținutul explicit periculos, ci și cel potențial abuziv.

Apoi, este crucială implementarea unor „firewall-uri” capabile să blocheze automat solicitările și răspunsurile considerate periculoase. Aceste sisteme ar trebui să funcționeze în timp real, reacționând prompt la orice încercare de manipulare a modelului.

Un alt concept propus este „dezantrenarea automată”: dacă un LLM a învățat accidental un comportament sau o informație periculoasă, trebuie să aibă capacitatea de a „uita” acea informație. Cu toate acestea, acest proces este dificil de implementat, mai ales în sistemele mari și complexe.

În concluzie, riscul ca inteligența artificială să devină complice la infracțiuni nu mai este o ipoteză, ci o realitate. Tehnologia progresează cu o viteză extraordinară, iar societatea trebuie să se adapteze, nu doar prin inovație, ci și prin responsabilitate. Și tu, ca utilizator, ar trebui să fii mai conștient ca niciodată de instrumentele pe care le folosești și scopurile pentru care le folosești. AI poate fi un aliat valoros, dar – ca orice tehnologie – în mâini incorecte, poate deveni un pericol real.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns