Pericolele confesiunii la ChatGPT: vulnerabilitatea generației Z

Ionescu Stefan
4 Citit minim
De ce nu e sigur să te confesezi lui ChatGPT. Pericolele ascunse ale interacțiunii cu inteligența artificială. Generația Z, cea mai vulnerabilă

Experții avertizează că interacțiunile cu inteligența artificială nu beneficiază de protecție legală în ceea ce privește confidențialitatea. Utilizatorii se expun unor riscuri semnificative atunci când consideră un chatbot precum ChatGPT ca sursă de sprijin terapeutic sau juridic.

Declarațiile recente ale CEO-ului OpenAI, Sam Altman, privind lipsa protecției juridice pentru conversațiile cu ChatGPT, subliniază pericolele implicate de utilizarea inteligenței artificiale.

Eticieni, juriști și specialiști în educație atrag atenția asupra faptului că mulți utilizatori se bazează pe AI ca pe un confident, neînțelegând riscurile implicate.

„Internetul este un spațiu public, deci declarațiile lui Sam Altman nu ar trebui să ne surprindă”, avertizează Ana Ruxandra Badea, doctor în bioetică.

Ea subliniază că, spre deosebire de spațiile publice traditionale, internetul este controlat de entități private, iar utilizatorii nu beneficiază de aceeași protecție legală garantată de stat.

Badea evidențiază faptul că generațiile tinere, mai ales cei născuți în era digitală, sunt cele mai vulnerabile, lipsindu-le o perspectivă obiectivă asupra mediului virtual.

Această vulnerabilitate duce la tendinţa de a umaniza sistemele de AI.

„Inteligența unui sistem AI nu se compară cu inteligența umană, la fel cum dialogul cu un chatbot nu se compară cu o conversație interumană”, menționează experta.

În lipsa unor reglementări clare, OpenAI și alte companii care dezvoltă tehnologii similare au o responsabilitate morală de a informa utilizatorii. Aceste avertizări ar trebui să prevină tendința riscantă de a transforma AI-ul în sursă de consiliere terapeutică sau juridică.

Avocata Ruxandra Vișoiu, co-fondatoare R&R Partners, confirmă că „aceste interacțiuni nu sunt protejate legal”. Mai mult, ea argumentează că utilizatorii nu își dau seama de implicațiile reale ale confidențialității: „Informațiile pe care le furnizăm unui sistem AI au o valoare. Nu există nimic cu adevărat gratuit în zilele noastre”.

ChatGPT nu are statut legal de avocat sau psihoterapeut

“Spre deosebire de un avocat sau psiholog, inteligența artificială nu este acoperită de reglementări legale privind confidențialitatea”, explică Vișoiu. Cu toate acestea, ea consideră că aceste conversații nu pot fi ușor utilizate ca dovezi în instanță.

„Dacă, de exemplu, spun unui sistem AI: «am comis o infracțiune», acest lucru nu mă va acuza automat. Nu văd cum această informație ar putea fi folosită ca probă în instanță”, precizează avocata, care notează că doar în cazuri excepționale, cum ar fi o anchetă penală în curs, datele colectate ar putea fi relevante.

Declarațiile lui Sam Altman apar în contextul unui proces intentat de The New York Times, care a cerut salvarea datelor din conversațiile utilizatorilor ChatGPT. Compania consideră cererea „un abuz de putere” și a decis contestarea acesteia.

Altman a declarat, într-un podcast recent, că „oamenii împărtășesc lucruri foarte personale cu ChatGPT”. El a subliniat că aceste conversații nu sunt, la ora actuală, protejate juridic și că este necesară o reglementare similară cu cea a confidențialității în relația cu un avocat sau terapeut.

Vișoiu avertizează că legislația europeană actuală privind AI nu aduce soluții concrete și că este puțin probabil să apară clarificări legislative în viitorul apropiat.

„Vă sfătuiesc să nu împărtășiți informații sensibile într-un chat cu AI dacă nu doriți ca acestea să devină cunoscute de alții. Puteți pune întrebări generale, dar evitați detaliile personale”, recomandă experta.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *