Halucinări AI: De ce visează modelele lingvistice avansate cu ochii deschiși

Drăgan Bogdan
5 Citit minim
AI-ul care visează cu ochii deschiși: de ce halucinează modelele inteligente pe măsură ce devin mai avansate

Sistemele de inteligență artificială au cunoscut o dezvoltare rapidă în ultimii ani, devenind din ce în ce mai performante. Dar, odată cu această evoluție, apare o problemă aparent paradoxală: modelele moderne de AI „halucineză” mai frecvent decât versiunile anterioare.

Cu alte cuvinte, în loc să ofere doar informații exacte și verificate, ele pot genera conținut fals, dar fluent și convingător, putând astfel induce în eroare utilizatorii fără ca aceștia să-și dea seama de manipulare.

Conform studiilor realizate de OpenAI, modelele o3 și o4-mini – printre cele mai avansate în prezent – au prezentat rate de halucinație de 33%, respectiv 48%, în timpul testelor cu benchmark-ul PersonQA. Această rată este semnificativ mai mare decât la modelele anterioare. Chiar dacă generează de obicei răspunsuri mai ample și sofisticate, aceste modele sunt mai vulnerabile la erori subtile și greu de detectat.

Fenomenul, cunoscut sub denumirea de halucinație AI, constă în producerea de informații complet fabricate – evenimente, citate, surse sau fapte inexistente. Și periculozitatea constă în faptul că aceste invenții sunt formulate într-un mod coerent, fluent și plauzibil. O experta în etică AI avertizează că conținutul generat poate fi perceput ca credibil de către cititori, mai ales dacă este prezentat într-un mod atractiv și bine argumentat.

Halucinațiile: un defect sau o trăsătură fundamentală?

Surprinzător, mulți specialiști în domeniul AI consideră că aceste halucinații nu sunt doar inevitabile, ci chiar necesare pentru funcționarea optimă a modelelor. Un cercetător susține că pentru a crea idei inovatoare sau soluții noi, modelele de limbaj trebuie să „imagineze”, asemănător modului în care oamenii visează sau explorează concepte noi. „Tot ceea ce generează un sistem LLM este o halucinație – doar că unele sunt adevărate,” afirmă el.

Acest tip de generare este esențial pentru AI-ul creativ: dacă un model s-ar limita la reproducerea exactă a datelor pe care le-a învățat, nu ar putea crea nimic original. Ar putea doar să copieze. Astfel, modelele actuale au nevoie de o anumită „libertate” pentru a compune un poem, a propune o nouă moleculă sau a dezvolta o idee originală în diverse domenii.

Problema apare atunci când această „imaginație” este confundată cu acuratețea. În domenii sensibile precum medicina, justiția sau finanțele, un răspuns incorect poate avea consecințe majore. Pe măsură ce modelele devin mai sofisticate, identificarea halucinațiilor devine tot mai dificilă. Riscul nu constă doar în greșelile evidente, ci și în distorsiunile subtile, greu de detectat fără o analiză minuțioasă.

Opacitatea algoritmică și responsabilitatea

Un alt aspect problematic este faptul că dezvoltatorii nu pot explica complet modul în care aceste modele iau decizii. Lipsa transparenței face ca aceste modele să semene cu o „cutie neagră”, îngreunând supravegherea și controlul.

În acest context, responsabilizarea AI devine problematică. Dacă nici creatorii nu înțeleg complet funcționarea acestora, cine este responsabil pentru erorile comise de modele? În prezent, soluția pare a fi o vigilență sporită din partea utilizatorilor. Este esențial să abordăm răspunsurile AI cu scepticism, verificându-le și comparându-le cu alte surse, evitând să le considerăm absolute.

Tot mai multe cazuri exemplifică modul în care chatboturile AI pot crea politici, citate sau informații false, chiar și în domenii delicate precum sănătatea. Chiar dacă modelele devin mai inteligente, nu înseamnă automat că devin și mai fiabile.

Concluzie: între imaginație și realitate, AI-ul rămâne un instrument ce necesită supraveghere

Prin urmare, problema nu este că AI-ul devine „mai prost”, ci că devine mai convingător, chiar și atunci când greșește. Aceasta este o combinație periculoasă, mai ales când se bazează pe el fără verificare.

În viitor, AI-ul va fi integrat din ce în ce mai mult în viața de zi cu zi, de la asistenții virtuali la sistemele educaționale. Dar, datorită capacităților sale, trebuie utilizat cu discernământ. Chiar dacă poate realiza sarcini complexe, este important să reamintim că AI-ul poate „imagina,” iar imaginația nu este întotdeauna corelată cu realitatea.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *