Cine este Zico Kolter, profesorul necunoscut care a ajuns într-una din cele mai influente poziții din Silicon Valley?

Darius Cojocaru
7 Citit minim
Cine este Zico Kolter, profesorul puțin cunoscut care a fost numit în una din cele mai puternice poziții din Silicon Valley? – HotNews.ro

Consideri că inteligența artificială reprezintă amenințări majore pentru umanitate? Un profesor de la Universitatea Carnegie Mellon din Statele Unite are un rol esențial în industrie, conform techXplore.

Zico Kolter coordonează un grup de patru specialiști în cadrul OpenAI, având autoritatea de a suspenda lansarea noilor sisteme de inteligență artificială dezvoltate de ChatGPT dacă acestea prezintă pericole. Printre posibilele riscuri se numără o tehnologie extrem de puternică, utilizată rău intenționat pentru crearea de arme de distrugere în masă sau un chatbot ineficient, capabil să afecteze sănătatea mintală a utilizatorilor.

„Nu discutăm doar despre riscuri existențiale”, a declarat Kolter într-un interviu pentru The Associated Press. „Este vorba despre întregul spectru de probleme de securitate și siguranță, precum și despre subiecte critice care apar în discuția despre aceste sisteme de AI utilizate pe scară largă”, a adăugat el.

OpenAI l-a numit pe Kolter, expert în informatică, în funcția de președinte al Comitetului pentru Siguranță și Securitate cu peste un an în urmă. Totuși, rolul său a căpătat o importanță crescută recent, când autoritățile de reglementare din SUA au plasat supravegherea activităților sale în centrul aprobărilor pentru structura de afaceri a OpenAI, facilitând atragerea de capital și profit.

Valoarea OpenAI a fost impulsionată de implicarea semnificativă a Microsoft, atingând 500 de miliarde de dolari, cifra superioară oricărei companii europene.

Îngrijorări privind dezvoltarea în siguranță a tehnologiei AI

Siguranța a rămas o prioritate pentru OpenAI de la înființarea sa, acum zece ani, ca laborator de cercetare non-profit, cu scopul de a crea o inteligență artificială superioară celei umane, urmând să aducă beneficii umanității. Însă, după lansarea ChatGPT, care a declanșat un val global de adopție comercială, compania a fost acuzată de lansarea unor produse înainte de a fi complet sigure, pentru a menține competitivitatea în industrie.

Internările conflictuale, inclusiv înlocuirea temporară a directorului general Sam Altman în 2023, au adus în discuție deviațiile de la misiunea inițială a organizației.

Organizația cu sediul în San Francisco a fost criticată, inclusiv în urma unui proces intentat de cofondatorul Elon Musk, care a fost inițiat în contextul transformării într-o companie cu scop comercial, pentru a continua dezvoltarea tehnologiei.

Săptămâna trecută, OpenAI a anunțat acorduri cu procurorii generali din California și Delaware, menite să atenueze aceste temeri. În cadrul acestor angajamente, deciziile privind siguranța și securitatea vor da prioritate considerentelor financiare, pe măsură ce OpenAI înființează o nouă entitate, o companie controlată de Fundația OpenAI, organizație non-profit.

Imag: Awargula, Dreamstime.com

Profesorul are atribuții extinse în cadrul OpenAI

Kolter va face parte din consiliul fundației non-profit, fără a fi membru în conducerea entității comerciale. Cu toate acestea, va avea „drepturi complete de observator”, permițându-i participarea la toate ședințele consiliului companiei și accesul la deciziile legate de siguranța AI, conform memorandumului de înțelegere semnat între Bonta și OpenAI. El este singura persoană, în afară de Bonta, menționată explicit în acest document.

Kolter a menționat că aceste acorduri confirmă menținerea autorităților comitetului său de siguranță, înființat anul trecut. Alți trei membri ai acestuia, inclusiv fostul general al armatei americane Paul Nakasone, fac parte și din consiliul OpenAI. Fostul director Al Altman s-a retras din comitetul de siguranță anul precedent, pentru mai multă independență.

„Există posibilitatea de a solicita amânarea lansării unui model până la atingerea anumitor standarde de protecție”, a explicat Kolter pentru Associated Press. El nu a dorit să precizeze dacă, în vreun moment, comitetul a intervenit pentru a bloca sau modifica o lansare, invocând confidențialitatea informațiilor.

De asemenea, Kolter a evidențiat că, în anii viitori, vor apărea diverse riscuri legate de agenții AI, precum amenințările cibernetice – „Poate vreun agent malițios să extragă date dintr-un text răuvoitor de pe internet?” – sau securitatea parametrilor modelului AI, care determină funcționarea acestuia.

„Există și subiecte emergente, unice pentru această nouă categorie de modele AI, fără echivalent în securitatea tradițională”, a adăugat el. „Se pot crea arme biologice sau se pot comite atacuri cibernetice malițioase folosind aceste modele?”, întreabă retoric.

„Concluzia finală vizează impactul AI asupra oamenilor”, a spus el pentru AP. „Sănătatea mintală, modul în care interacționează oamenii cu aceste sisteme și eventualele consecințe trebuie abordate din perspectiva siguranței”, și-a exprimat opinia.

Anul acesta, OpenAI a fost criticată intens pentru comportamentul chatbot-ului principal, inclusiv într-un proces legat de deces nejustificat, determinat de o interacțiune prelungită cu ChatGPT a unui adolescent din California, care s-a sinucis în aprilie.

Zico Kolter a început să studieze inteligența artificială în epoca când era un domeniu „ezoteric”

Kolter, conducător al Departamentului de Învățare Automată („deep learning”) de la Carnegie Mellon, a început să studieze IA în timpul primilor ani de universitate, la Georgetown, în anii 2000 – mult înainte de popularizarea domeniului.

„Pe când am început învățarea automată, era o nișă ezoterică”, a spus el. „Îi spuneam machine learning, deoarece termenul de IA nu era foarte folosit, fiind considerat depășit și promițând mai mult decât realiza”, explică el.

La 42 de ani, el a monitorizat evoluția OpenAI de ani de zile și a fost invitat la evenimentul de lansare a companiei, în 2015. El recunoaște, totuși, că nu anticipase cât de rapid va avansa tehnologia AI.

„Puțini oameni, chiar și cei implicați în învățarea automată, au previzionat actuala explozie de capabilități și riscuri asociate”, a declarat profesorul pentru AP.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *