OpenAI a lansat recent noi modele AI, o3 și o4-mini, promițând performanțe superioare în diverse domenii, inclusiv rezolvarea problemelor complexe, programare și analiză vizuală. Cu toate acestea, o problemă persistentă, generarea de informații incorecte, continuă să afecteze modelele recente. Acest fenomen, cunoscut sub denumirea de „halucinații,” este mai frecvent la o3 și o4-mini decât la versiunile anterioare, ceea ce limitează aplicabilitatea lor practică.
Halucinațiile – o provocare majoră
Generarea de date false este o problemă recurentă în dezvoltarea inteligenței artificiale. În ciuda progreselor tehnologice, modelele recente de la OpenAI prezintă o tendință alarmantă de a produce informații inaccurate, mai ales modelele o3 și o4-mini. Rapoartele disponibile indică un procent ridicat de halucinații chiar și comparativ cu versiunile anterioare, precum o1 și o3-mini.
De exemplu, modelul o3 a prezentat un procent de halucinații de aproximativ 33%, o rată aproape dublă față de modelele anterioare. Modelul o4-mini a înregistrat o rată de halucinare chiar mai mare, de 48%. Această situație evidențiază incapacitatea actuală a modelelor de a diminua acest tip de eroare, deși alte aspecte, precum analiza vizuală și științifică, au fost îmbunătățite.
O problemă complexă pentru OpenAI
În ciuda eforturilor OpenAI de a rezolva această problemă, cauza fundamentală a halucinațiilor nu este pe deplin înțeleasă. Rapoartele proprii ale companiei subliniază necesitatea unor cercetări suplimentare pentru a explica această comportare problematică.
Testele interne ale OpenAI demonstrează că problemele persistă și chiar se agravează în modelele mai recente. Modelul o3, lansat în ianuarie 2025, a prezentat rezultate slabe, inclusiv răspunsuri incorecte și afirmații eronate despre sursele de informație utilizate. În cazul o4-mini, OpenAI explică o posibilă cauză a halucinațiilor prin „cunoștințele limitate despre lume”, ceea ce ar putea explica tendința de producere a afirmațiilor false.
Un alt aspect îngrijorător este tendința modelelor de a justifica erorile. De exemplu, modelul o3 a oferit un răspuns fals referitor la modul său de funcționare, fără legătură cu realitatea.
Perspective și soluții viitoare
OpenAI recunoaște gravitația problemei halucinațiilor și menționează continuarea cercetărilor. Un purtător de cuvânt a afirmat că îmbunătățirea acurateții și fiabilității este o prioritate. Cu toate acestea, viteza progresului pare a fi insuficientă pentru utilizatori. Până când nu se găsesc soluții definitive, în special pentru modelele mai recente, riscul erorilor rămâne ridicat, mai ales în contextul utilizării generale în medii precum cele academice și profesionale.
În concluzie, noile modele o3 și o4-mini de la OpenAI sunt un pas important înainte, dar problema halucinațiilor reprezintă o piedică semnificativă. OpenAI și alți dezvoltatori de AI trebuie să abordeze eficient acest aspect pentru a asigura fiabilitatea tehnologiilor de inteligență artificială.