Google se pregătește să implementeze în Europa funcția AI Overviews, un sistem de răspunsuri generate de inteligență artificială, care a generat controverse importante în Statele Unite. În loc de o listă clasică de linkuri, sistemul oferă un rezumat considerat „relevant”, dar uneori absurd, periculos sau chiar jignitor. Exemplele includ recomandări precum folosirea adezivului pentru a lipi brânza de pizza sau consumul de pietricele.
Deși pare o glumă, problema este una sistemică. „Halucinațiile” AI, adică răspunsuri incorecte, fabricate sau irelevante, sunt considerate o caracteristică a modelelor lingvistice mari. Și, pe măsură ce aceste modele devin principala sursă de informație pentru miliarde de oameni, riscurile cresc dramatic.
AI Overviews recomandând utilizarea adezivului pentru pizza
Funcția controversată ajunge în Europa, fără opțiune de dezactivare
După testele din SUA și Regatul Unit, funcția AI Overviews este activă acum și în mai multe țări europene, printre care Germania, Italia, Polonia, Spania și Irlanda. Odată implementată, utilizatorii nu pot să o dezactiveze; AI Overviews apare automat deasupra rezultatelor clasice, chiar dacă răspunsurile sunt incomplete, denaturate sau incorecte.
Google susține că tehnologia este folosită deja de peste un miliard de oameni și că sistemul se va îmbunătăți în timp. Criticilor le rămâne însă îngrijorarea că metodele de funcționare ale acestei funcții pun în pericol calitatea informației și afectează mediul online, prin pierderea traficului website-urilor, a veniturilor presei și a recompensării creatorilor de conținut.
De la erori amuzante la scandaluri internaționale
Funcția AI Overviews nu este singura problemă pentru Google. Recent, compania a fost implicată în mai multe controverse din cauza produselor sale AI. De exemplu, modelul Gemini a afișat imagini istorice inexacte, printre care și reprezentarea unor soldați naziști ca persoane de culoare. Aceste erori nu sunt accidente, ci consecințe ale unor supracorectări efectuate pe datele de antrenament pentru îmbunătățirea diversității.
Reacții dură au venit inclusiv din partea unor oficiali de rang înalt. Ministrul indian al Tehnologiei a criticat Google după ce Gemini a generat un răspuns considerat părtinitor la adresa premierului Narendra Modi. Compania a fost nevoită să suspende temporar funcția de generare de imagini și să restructureze echipele responsabile cu AI.
Google recunoaște dificultățile de control al sistemului și de prevenire a răspândirii dezinformării, fapt care ridică semne de întrebare despre capacitatea sa de a gestiona puterea pe care o deține.
Halucinațiile AI: creativitate sau pericole?
Sam Altman, CEO OpenAI, susține că erorile AI pot fi considerate o formă de creativitate în contexte recreative. Însă, când aceste răspunsuri devin sursa principală de informare, situația se schimbă radical. AI nu are discernământ și nu înțelege contextul sau sensibilitățile sociale.
Specialiștii propun metode tehnice de a limita aceste erori, inclusiv integrarea bazelor de date vectoriale și sisteme hibride, precum Prometheus de la Microsoft, care combină rezultatele căutării clasice cu modelele AI pentru răspunsuri mai precise și documentate.
În lipsa soluțiilor definitive, tranziția Google către un internet dominat de AI rămâne controversată, iar erorile nu mai sunt doar amuzante, ci pot avea consecințe reale asupra percepției lumii.