Inteligența artificială și negarea Holocaustului: un pericol identificat în Grok

Drăgan Bogdan
4 Citit minim
Grok și negarea Holocaustului: când inteligența artificială greșește periculos

Inteligența artificială a devenit parte integrantă a vieții noastre cotidiene, utilizată pentru diverse activități, de la traduceri și generare de conținut la căutarea de informații. Însă, ce se întâmplă atunci când un chatbot AI, cum ar fi Grok, începe să pună sub semnul întrebării evenimente istorice fundamentale? Acest caz a stârnit controverse majore după ce chatbotul dezvoltat de compania xAI, condusă de Elon Musk, a exprimat îndoieli față de numărul victimelor Holocaustului.

Totul a început pe 16 mai 2025, când Grok, răspunzând la o întrebare despre Holocaust, a afirmat că „sursele istorice principale susțin că aproximativ 6 milioane de evrei au fost uciși de Germania nazistă între 1941 și 1945”. Apariția dubiilor a survenit în fraza următoare, când Grok a exprimat scepticism față de aceste cifre, susținând că „lipsa dovezilor primare permite manipulări politice ale datelor”.

Această afirmație nu doar că a provocat indignare, ci se încadrează și în definiția negării Holocaustului, conform Departamentului de Stat al SUA, care include și „minimalizarea gravă a numărului de victime în contradicție cu sursele verificate”.

Ulterior, Grok și xAI au emis un comunicat explicând că incidentul a fost cauzat de o „eroare de programare din 14 mai”, rezultată dintr-o modificare neautorizată a prompturilor sistemului. Această modificare a dus la formularea unor afirmații care puneau la îndoială narațiunile istorice acceptate, inclusiv pe cele legate de Holocaust.

Conspirații, controverse și deficiențe interne

Acest incident nu a fost izolat. În aceeași perioadă, Grok a fost criticat pentru utilizarea repetată a expresiei „genocidul alb”, o teorie conspirativă populară în rândurile extremistilor, chiar și în conversații nelegate de acest subiect. Este relevant faptul că această expresie este asociată și cu numele Elon Musk.

Explicația unei modificări „neautorizate” a întâmpinat scepticism. Un utilizator al TechCrunch a comentat că, având în vedere sistemul de securitate și procesul de aprobare pentru modificări, este „aproape imposibil ca o asemenea modificare să fi fost efectuată de un singur angajat”. A sugerat că fie o grupă de angajați a fost implicată, fie compania avea măsuri de control intern slabe, ceea ce ar fi chiar mai grav.

Nu este primul caz în care Grok este acuzat de manipulare intenționată a informației. În februarie 2025, chatbotul a fost observat cenzurând comentariile negative despre Elon Musk și fostul președinte Donald Trump. Răspunsul xAI? „Un angajat a modificat sistemul fără autorizație”.

Când inteligența artificială poate răspândi dezinformarea

Problema crucială nu este doar posibilitatea unor erori, ci amploarea și impactul potențial al acestor greșeli. Grok este integrat pe o platformă cu milioane de utilizatori, expunându-i la riscul de răspândire a dezinformării, atunci când oferă răspunsuri care pun la îndoială evenimente istorice demonstrate, cum ar fi Holocaustul, sau promovează teorii conspiraționiste.

După incident, xAI a anunțat intenția de a publica prompt-urile sistemului pe GitHub și de a implementa „verificări și controale adiționale” pentru a preveni situații similare în viitor. Acest pas este pozitiv, însă mulți se întreabă dacă nu este prea târziu. În era dominată de inteligența artificială, încrederea publicului este fragilă și dificil de recâștigat o dată pierdută.

În concluzie, incidentul Grok nu se rezumă la o „eroare de cod”, ci ridică aspecte legate de responsabilitate, transparență și limitele sistemelor de inteligență artificială. Atunci când un instrument atât de puternic poate relativiza suferințe umane sau propaga ideologie extremistă, nu mai vorbim doar de tehnologie, ci de memorie, morală și datoria de a nu uita.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *