Dario Amodei, directorul executiv al Anthropic (sursa foto FABRICE COFFRINI / AFP / Profimedia)
Directorul unei companii de inteligență artificială, Dario Amodei, a publicat un articol în care evidențiază lipsa înțelegerii mecanismelor interne ale modelelor avansate de inteligență artificială, potrivit sursei TechCrunch.
Pentru a depăși această problemă, Amodei a stabilit un obiectiv ambițios pentru Anthropic: identificarea fiabilă a majorității deficiențelor modelelor AI până în 2027.
Amodei, anterior angajat la OpenAI, și sora sa, Daniela, au fondat Anthropic în 2021. Compania este cunoscută pentru chatbot-ul Claude, lansat în SUA în martie 2023 și un an mai târziu în Europa. Acesta concurează cu ChatGPT, Gemini și DeepSeek, dar se concentrează pe siguranță și fiabilitate.
Amodei recunoaște complexitatea identificării problemelor modelelor AI în următorii doi ani. În articolul intitulat „Urgența interpretabilității”, el susține că Anthropic a făcut primele descoperiri în descompunerea modului în care modelele ajung la concluzii. Însă subliniază necesitatea mult mai multor cercetări pentru a descifra aceste sisteme pe măsură ce devin tot mai puternice.
„Sunt extrem de îngrijorat de implementarea unor astfel de sisteme fără un control mai bun asupra interpretabilității lor”, a scris Amodei în articol.
„Aceste sisteme vor fi esențiale pentru economie, tehnologie și securitate, având un grad ridicat de autonomie. Consider practic inacceptabil faptul că omenirea să rămână complet necunoscătoare despre funcționarea lor”, a explicat acesta.
Un mister în domeniul inteligenței artificiale
Anthropic este una dintre companiile precursoare în interpretabilitatea mecanicistă, domeniu care vizează înțelegerea modului în care modelele AI iau decizii, depășind ”cutia neagră” a acestora. Cu toate progresele rapide în domeniu, cunoașterea modului în care aceste sisteme ajung la concluzii rămâne limitată.
De exemplu, OpenAI a lansat recent noi modele AI specializate în raționament, o3 și o4-mini, care performează mai bine în anumite sarcini, însă prezintă tendințe mai mari de „halucinații” decât alte modele ale companiei. Chiar și OpenAI nu înțelege complet această problemă.
„Atunci când un sistem AI generativ rezumă un document financiar, de exemplu, nu avem nicio înțelegere precisă a motivului pentru care alege anumite cuvinte în loc de altele sau de ce face uneori erori, deși este de obicei precis”, a menționat Amodei în articol.
Amodei a amintit că un cofondator al Anthropic, Chris Olah, consideră că modelele AI „sunt mai degrabă crescute decât construite”. Cu alte cuvinte, cercetătorii AI au găsit metode de îmbunătățire, dar nu înțeleg pe deplin de ce funcționează astfel.
„O țară de genii într-un centru de date”
Amodei afirmă că dezvoltarea inteligenței generale artificiale (AGI), pe care el o numește „o țară de genii într-un centru de date”, ar putea fi periculoasă fără o înțelegere profundă a funcționării acestor modele.
Într-un articol anterior, Amodei a estimat că industria tehnologică ar putea ajunge la un astfel de nivel până în 2026 sau 2027, dar consideră că înțelegerea completă a modelelor AI este în continuare departe.
Pe termen lung, Amodei afirmă că Anthropic ar dori să realizeze virtual „scanări cerebrale” sau „RMN-uri” ale modelelor AI avansate. Aceste analize complete ar ajuta la evidențierea multiplelor probleme ale modelelor AI, inclusiv tendința de minciună sau căutare a puterii, și alte slăbiciuni.
Amodei estimează că acest proces ar dura între 5 și 10 ani, dar aceste măsuri sunt necesare pentru testarea și implementarea viitoarelor modele dezvoltate de Anthropic.

