Un studiu recent realizat de Columbia Journalism Review evidențiază impreciziunile motoarelor de căutare bazate pe inteligență artificială. Deși aceste instrumente sunt promovate ca soluții mai rapide la căutarea tradițională, datele revelă un procent îngrijorător de răspunsuri incorecte.
Cercetarea, desfășurată de Tow Center for Digital Journalism, a analizat opt modele AI, inclusiv ChatGPT Search de la OpenAI și Gemini de la Google. Rezultatele au fost concludente: peste 60% dintre răspunsurile generate de aceste modele au fost incorecte. Chiar și modelul considerat cel mai precis, Perplexity AI, a greșit în 37% din cazuri. În contrast, Grok 3, chatbot-ul lui Elon Musk, a oferit răspunsuri incorecte în 94% din cazuri.
Acuratețea modelelor AI
O problemă crucială a acestor instrumente AI constă în generarea de răspunsuri incorecte cu un înalt grad de încredere. Spre deosebire de motoarele de căutare tradiționale, care oferă surse externe, modelele AI prezintă direct răspunsuri, ignorând necesitatea de a consulta publicații de notorietate.
Studiul a testat aceste instrumente cu întrebări simple, cum ar fi identificarea titlului unui articol, a publicației, a datei și a URL-ului. În peste jumătate din cazuri, modelele AI au eșuat. Mai grav, ChatGPT Search a furnizat link-uri incorecte în aproape 40% din cazuri și nu a oferit nicio sursă în 21% din situații.
Această problemă afectează nu doar exactitatea informațiilor, ci și mediile online. Dacă utilizatorii primesc informații direct din chatbot-uri, fără a accesa paginile originale, jurnalismul pierde vizibilitate și venituri.
Viitorul căutărilor: o alternativă reală?
În ciuda promovării AI ca viitor al căutărilor, studiul ridică semne de întrebare legate de fiabilitatea lor. Chiar Google a implementat un mod „AI Mode” care oferă doar răspunsuri generate de Gemini, în locul link-urilor către surse. Însă, dacă aceste modele continuă să producă erori frecvente, utilizatorii ar putea fi expuși la dezinformare pe scară largă.
Un alt aspect îngrijorător este tendința AI de a „inventa” răspunsuri, în loc să recunoască necunostința. De exemplu, Microsoft Copilot a evitat să răspundă la diverse întrebări, în comparație cu numărul răspunsurilor corecte. Aceasta indică faptul că modelele AI nu sunt încă pregătite să înlocuiască căutările tradiționale, mai ales în domenii unde acuratețea informațiilor este fundamentală.
Într-o lume digitală în continuă evoluție, este crucial să fim conștienți de limitele tehnologiei. Pentru informații exacte și surse verificate, AI nu este încă o alternativă fiabilă la căutările clasice.
Până când aceste tehnologii vor deveni mai precise și transparente în modul de prezentare a informațiilor, este important să nu abandonăm metodele tradiționale de căutare. Verificarea surselor, compararea informațiilor din diverse publicații și folosirea motoarelor de căutare clasice rămân cele mai sigure metode pentru a obține date corecte și de încredere. În concluzie, chiar dacă AI promite căutări mai rapide și personalizate, scepticisa este mai potrivită deocamdată față de răspunsurile generate de acestea.