Inteligența artificială promite informații rapide, clare și relevante. Însă, acest progres tehnologic ascunde o problemă tot mai acută: răspunsurile generate de modele precum ChatGPT pot fi otrăvite cu date false provenite de pe site-uri compromise. Specialiștii în securitate digitală au documentat acest fenomen, demonstrând cum infrastructura web abandonată devine o armă în mâinile spammerilor, afectând direct calitatea informațiilor accesate de utilizatori.
Chatboții precum ChatGPT și Gemini sunt antrenați pe vaste cantități de conținut web. Dacă nu există filtre sau metode suficiente de verificare a surselor, aceste modele pot adopta cu aceeași încredere informații de pe site-uri credibile și de pe domenii abandonate, ulterior deturnate pentru scopuri comerciale sau frauduloase. Rezultatul? O inteligență artificială aparent convingătoare, care poate servi informații eronate cu ușurință.
Totul începe cu site-uri legitime care intră într-un declin: fie își pierd vizitatorii, fie sunt abandonate de proprietari sau afectate de modificări ale algoritmilor de căutare. Atunci când aceste site-uri expiră sau sunt puse în vânzare, sunt achiziționate de rețele obscure, specializate în spam și dezinformare. Acești noi proprietari profită de reputația anterioară a domeniilor și umplu paginile cu informații dubioase, menite să promoveze produse, cazinouri online sau teorii conspiraționiste.
ChatGPT, antrenat pe date din surse publice, nu poate detecta automat această deturnare. Dacă un site avea anterior autoritate, de exemplu, era administrat de un avocat sau era afiliat unei organizații internaționale, chatbotul continuă să considere domeniul de încredere. Astfel, apar situații în care un fost site juridic promovează jocuri de noroc, sau un portal al ONU devine o platformă pentru cazinouri online.
Problema devine și mai gravă ținând cont că majoritatea utilizatorilor nu verifică sursele. Chiar dacă uneori ChatGPT indică sursa, puțini sunt cei care o verifică, încercând să determine autorul sau corectitudinea editorială. Răspunsurile convingătoare pot ascunde informații false sau de calitate scăzută.
Chatboții preiau, dar nu filtrează
Unul dintre punctele slabe ale modelelor AI este preluarea pasivă a informațiilor online, fără o analiză editorială sau morală. ChatGPT nu se întreabă „este acest site deturnat?”, „cine a scris articolul?” sau „care este intenția acestui site?”. Modelul este antrenat să ofere răspunsuri clare și structurate din surse publice, dar nu are mecanisme încorporate de validare sau de detectare a manipulărilor.
În plus, modelele tind să favorizeze conținutul recent. Astfel, dacă un domeniu a fost deturnat recent, ChatGPT îl poate include în răspunsuri chiar dacă informațiile sunt irelevante sau părtinitoare. Acest proces creează un cerc vicios: sursele credibile dispar, cele noi sunt deseori clone frauduloase, iar AI-ul devine un amplificator al zgomotului digital.
Acest fenomen afectează nu doar calitatea informațiilor, ci și încrederea în instrumentele AI. Dacă un utilizator primește constant informații inexacte sau contradictorii, se naște sceptic față de aceste tehnologii, mai ales că unele răspunsuri pot avea consecințe reale, de la recomandări financiare și legale, la decizii medicale și profesionale.
Ce poți face ca utilizator și de ce este important să verifici
Chiar dacă nu poți controla sursele folosite de un chatbot, ai la dispoziție instrumente de protecție. În primul rând, fii sceptic față de informațiile prea clare, perfecte sau bine formulate. Aparențele pot înșela.
Când un răspuns îți oferă o sursă, accesează-o și verifică dacă conținutul este consistent, actualizat și are un istoric editorial clar. Dacă observi pagini haotice, reclame excesive sau linkuri către site-uri dubioase, este probabil un site deturnat pentru spam.
Este util să folosești mai multe surse pentru aceeași întrebare. Dacă un răspuns ți se pare suspect, caută confirmări din surse credibile sau instituții relevante. Nu te baza niciodată pe un singur răspuns generat de AI, mai ales în subiecte delicate.
Într-o lume în care atât oamenii, cât și AI-ul pot fi înșelați, spiritul critic rămâne o armă esențială. Nu tot ce pare convingător este adevărat, iar nu tot ce este scris clar vine dintr-o minte clară. Verifică, pune întrebări și nu te lăsa manipulat, nici măcar de un robot.

