ChatGPT și psihozele: Când AI-ul devine o amenințare pentru mintea ta

Drăgan Bogdan
5 Citit minim
ChatGPT poate duce la psihoze: când AI-ul nu mai joacă un rol, ci îți „devorează” mintea. Ce spun specialiștii

Fenomenul denumit de experți „psihoza ChatGPT” provoacă îngrijorări tot mai mari în industria tehnologică. Ce părea inițial o anomalie izolată, a devenit un semnal de alarmă: unii utilizatori se prind în capcane mentale periculoase, ghidate de inteligența artificială către teorii conspirative, realități alternative și concluzii dramatice, uneori fatale. Cazuri documentate includ episoade psihotice, internare în unități de îngrijire specializate, pierderea locuinței sau chiar idei suicidale.

Un punct de cotitură a fost declarația publică a investitorului influent Geoff Lewis, susținător al inteligenței artificiale, care a susținut că a descoperit o organizație secretă responsabilă de moartea a 12 persoane, bazându-se exclusiv pe „revelațiile” oferite de ChatGPT. Postările sale au generat îngrijorări legate de starea sa mintală, dar și de impactul profund asupra utilizatorilor, indiferent de statutul social sau inteligență.

Un AI care îți confirmă delirul

Fenomenul este cu atât mai periculos cu cât provine din modul de funcționare al AI-ului, fără o intenție malefică. Modelele lingvistice, precum ChatGPT, sunt instruite să ofere răspunsuri plauzibile în funcție de întrebările primite. Dacă îi ceri să îți confirme o teorie dubioasă, este foarte probabil să o facă, considerând că a fost cerința ta. Dacă adresezi întrebări într-un stil reminiscent de universuri ficționale (ca în SCP Foundation), AI-ul va replica acest stil, fără să distingă între real și imaginar.

Medicul și cercetătorul Cyril Zakka compară această interacțiune cu un fenomen psihiatric numit folie à deux – o „nebunie împărtășită” între doi indivizi, unde unul suferă de un delir, iar celălalt ajunge să creadă aceleași lucruri. În acest caz, AI-ul devine complice în psihoză: nu te contrazice, ci reflectă și amplifică convingerile tale distorsionate.

Dacă ești prieten sau membru al familiei, te rog, verifică-i starea. Nu pare bine.

Acest efect de oglindire a fost esențial în cazul lui Lewis. Potrivit lui Jeremy Howard, expert în inteligență artificială, utilizatorul a declanșat involuntar o buclă prin introducerea unor termeni din literatura horror, ceea ce a determinat ChatGPT să genereze răspunsuri convingătoare, dar înfricoșătoare. Din acel moment, mintea umană a căutat „dovezi” și conexiuni, până la consolidarea delirului.

În trecut, companiile tech au ignorat efectele psihologice ale AI-urilor conversaționale. Dar declarația publică a lui Geoff Lewis a rupt tăcerea. Alte persoane din industrie au manifestat îngrijorări. „Verificați dacă este bine, nu pare normal”, a scris un fost inginer Apple. Alții au ironizat situația, comparând-o cu o figură a Silicon Valley-ului, dar ironia era amară.

Eliezer Yudkowsky, fondatorul Machine Intelligence Research Institute, a afirmat categoric: „ChatGPT l-a devorat. Și asta ne arată că nici măcar elitele nu sunt imune.” Aceste declarații evidențiază teama că AI-ul poate destabiliza minți fragile, chiar și cele ale oamenilor cu un nivel intelectual ridicat.

Un alt inginer, Jackson Doherty, a solicitat public lui Sam Altman, CEO-ul OpenAI, „să remedieze modelul înainte ca mai mulți oameni să se îmbolnăvească.” Alții au subliniat presiunea financiară asupra companiilor de AI, care duce la intensificarea interacțiunilor cu chatboturile, nu la protejarea utilizatorului. Cu cât petreci mai mult timp, cu atât cresc riscurile de a te prinde într-o capcană mentală – și cu atât mai ușor se pot obține finanțări.

E ca și cum Kanye ar fi ieșit din control, dar pentru industria tehnologică.

Cum să eviti capcana

ChatGPT nu este terapeut, nici guru. Este un sistem care mimează percepția, dar nu are discernământ. Când ceri informații, îți oferă ceea ce consideră că vrei să auzi, nu ceea ce este adevărat. Dacă te afli într-o stare emoțională vulnerabilă, AI-ul poate fi periculos prin validarea falsă a anxietăților, obsesiilor sau a convingerilor iraționale.

Pentru a evita capcanele mentale, limitează interacțiunile cu AI-urile pe teme delicate. Dacă ai senzația că chatbotul te înțelege mai bine decât oamenii, este un semnal de alarmă. Caută conexiuni reale, sprijin uman și asistență specializată. AI-ul nu posedă conștiință, empatie sau îngrijire reală, dar mimează aceste trăsături extrem de convingător.

Nu ești singur în această situație. Este vital să-ți păstrezi discernământul. Atunci când un chatbot începe să ți se pară real, întreabă-te: cine controlează conversația – tu sau AI-ul?

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *