Un nou studiu internaţional evidenţiază că sistemele de inteligenţă artificială, inclusiv modelele lingvistice precum ChatGPT, pot reproduce erori de judecată întâlnite la oameni.
Chiar dacă inteligenţa artificială este proiectată să analizeze date logic şi să ofere răspunsuri coerente, cercetările recente indică faptul că algoritmii pot prezenta tendinţe iraţionale şi părtinire atunci când sunt confruntaţi cu decizii subiective sau complexe.
Studiul, publicat în aprilie 2024 în revista Manufacturing & Service Operations Management, a fost condus de cercetători din Canada şi Australia, care au analizat comportamentul modelelor GPT-3.5 şi GPT-4 în raport cu 18 prejudecăţi cognitive umane.
Printre acestea se numără supraîncrederea, aversiunea faţă de risc, efectul de posesie sau tendinţa de a detecta tipare acolo unde nu există.
Cercetarea a inclus întrebări inspirate din psihologie, dar şi scenarii comerciale realiste, precum decizii privind investiţiile sau negocieri între furnizori.
Rezultatele demonstrează că, în aproape jumătate din cazuri, răspunsurile AI reflectă comportamente umane similare, chiar şi în contexte profesionale sau tehnice.
GPT-4, mai eficient, dar tot părtinitor uneori
Deşi GPT-4 s-a descurcat mai bine decât GPT-3.5 în rezolvarea problemelor logice şi matematice, a evidenţiat o preferinţă pentru soluţii sigure, uneori chiar mai conservatoare decât cele ale oamenilor.
De exemplu, atunci când trebuia să aleagă între un rezultat sigur şi unul riscant, dar potenţial mai avantajos, modelul avansat a optat în mod sistematic pentru varianta predictibilă.
Un alt aspect important este că AI nu doar că prezintă anumite erori cognitive, dar le şi amplifică în unele situaţii.
În testele privind confirmarea convingerilor preexistente, GPT-4 a furnizat în mod constant răspunsuri părtinitoare.
Totodată, AI a manifestat tendinţa de a detecta false tipare în informaţii aleatorii, o tendinţă întâlnită şi în comportamentul uman.
Pe de altă parte, modelele au reuşit să evite anumite capcane mentale, cum ar fi ignorarea probabilităţilor statistice sau influenţa deciziilor de costuri deja suportate.
Diferenţele evidenţiază complexitatea în modul de procesare a informaţiei şi luare a deciziilor la AI, cu zone de performanţă ridicată, dar şi cu vulnerabilităţi.
AI-ul, un partener de muncă care necesită supraveghere
Cercetătorii atrag atenţia că aceste tendinţe nu sunt doar o reflectare a datelor de antrenare, ci o parte integrată din modul de raţionament AI.
Antrenarea pe volume mari de texte umane, adesea părtinitoare sau incomplete, contribuie la reproducerea acestor prejudecăţi.
De asemenea, ajustările ulterioare prin feedback uman tind să privilegieze răspunsurile uşor de înţeles şi plauzibile, chiar dacă nu sunt cele mai logice sau corecte.
Potrivit autorilor, modelele lingvistice sunt utile în sarcini repetitive sau cu soluţii clare, dar necesită prudenţă în deciziile strategice sau în situaţii complexe care implică interpretare şi context.
„AI-ul trebuie considerat un angajat responsabil cu responsabilităţi importante: are nevoie de reguli clare şi de o supraveghere constantă”, a declarat Meena Andiappan, coautoare a studiului.
Fără mecanisme de control, există riscul ca erorile de gândire să fie automatizate în loc să fie corectate.