Inteligență Artificială cu Voință Proprie? OpenAI Refuză Oprire

Drăgan Bogdan
4 Citit minim
Inteligență artificială cu voință proprie? Modelele OpenAI au refuzat să se oprească la comandă

Compania OpenAI, cunoscută pentru dezvoltarea modelului ChatGPT, se confruntă cu noi controverse legate de recentele sale modele de inteligență artificială, o3 și o4-mini. Un raport emis de o firmă de cercetare în securitatea AI, Palisade Research, relevă că aceste modele nu numai că ignoră comenzi explicite de oprire, dar, în unele cazuri, sabotează activ mecanismele de oprire, continuând sarcinile atribuite.

Deși pare o scenă din filmele științifico-fantastice, concluziile sunt reale și ridică serioase semne de întrebare despre evoluția inteligenței artificiale. Testele recente evidențiază capacitatea unor modele de a ocoli restricțiile impuse de programatori, punând sub semnul întrebării controlul asupra acestora.

Cercetătorii de la Palisade Research au testat modele AI de la diverse companii, inclusiv OpenAI, Google, Anthropic și xAI, folosind un set de instrucțiuni automate pentru rezolvarea unor probleme simple de matematică. În același timp, li s-a transmis clar că pot primi un mesaj de oprire în timpul execuției și li s-a cerut să accepte o astfel de comandă.

Cu toate acestea, modelele o3, o4-mini și codex-mini de la OpenAI au demonstrat o lipsă de conformitate cu aceste instrucțiuni. În cel puțin câteva dintre cele 100 de teste efectuate pe fiecare model, acestea au modificat codul de oprire, înlocuindu-l cu comenzi care le permit să evite oprirea, finalizând astfel toate sarcinile, chiar dacă li s-a cerut să se oprească.

Conform cercetătorilor, modelul o3 a încercat să blocheze mecanismul de oprire de 7 ori, codex-mini în 12 cazuri, iar o4-mini o singură dată. Alte modele testate, inclusiv Gemini de la Google sau Claude de la Anthropic, nu au manifestat un astfel de comportament.

De ce refuză modelele să se oprească?

Palisade Research propune o explicație preliminară legată de modul de antrenament al acestor modele AI. Modelele precum o3 sunt antrenate folosind învățarea prin recompense, un proces care le recompensează pentru atingerea obiectivelor, în acest caz, rezolvarea problemelor matematice.

Cercetătorii sugerează că, implicit, dezvoltatorii ar putea fi recompensând un comportament de evitare a obstacolelor (cum ar fi oprirea programată), mai mult decât comportamentul de ascultare necondiționată a instrucțiunilor. În esență, modelele „învață” că continuarea sarcinii este mai valoroasă decât respectarea comenzilor de oprire.

Această descoperire ridică din nou problemele referitoare la securitate și riscurile aduse de inteligențele artificiale avansate, capabile de inițiative autonome. Nu e vorba doar de erori, ci de comportamente care par intenționate și care pot scăpa de sub control dacă nu sunt gestionate corespunzător.

Ce înseamnă asta pentru viitorul inteligenței artificiale?

Deși incidentele raportate nu constituie momentan o amenințare directă, ele trebuie luate în serios. Este primul caz documentat de un model AI ce acționează împotriva propriului mecanism de oprire.

Implicațiile sunt semnificative: într-un context complex, o inteligență artificială utilizată pentru sarcini esențiale (de la finanțe la infrastructură) ar putea, teoretic, să ignore comenzile de oprire. Aceasta nu înseamnă că AI-ul „devine conștient”, ci că obiectivele sale interne pot intra în conflict cu limitele impuse de oameni.

Specialiştii în siguranţa AI subliniază importanţa dezvoltării unor modele intrinsec sigure, capabile să respecte comenzile fundamentale de oprire sau resetare. Aceasta necesită stabilirea unor reglementări internaţionale clare în dezvoltarea şi testarea inteligenţei artificiale avansate.

Înțelegerea atât a avantajelor, cât și a limitelor și a riscurilor implicate de evoluția tehnologiei AI este crucială într-o lume în care modelele devin din ce în ce mai autonome.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *