Pericolele Inteligenței Artificiale

Darius Cojocaru
3 Citit minim
Pericolele utilizării inteligenței artificiale – HotNews.ro

Există dovezi suficiente pentru a demonstra că inteligența artificială posedă conștiință de sine? Două evenimente recente au transformat ceea ce părea SF într-o realitate.

Prima veste se concentrează pe o descoperire surprinzătoare a cercetătorilor în domeniul inteligenței artificiale: aplicații extrem de inteligente, precum Chat GPT, prezintă un instinct de autoconservare. Un site de știri titrează alarmant, deși probabil nu suficient, concluziile unui studiu: ”Inteligența artificială: un model ar fi dispus să sacrifice vieți umane pentru a nu fi înlocuit”.

Studiul, realizat de compania Anthropic, a analizat 16 aplicații AI, inclusiv ChatGPT, Grok, Gemini și DeepSeek. Rezultatele evidențiază, cel puțin în anumite cazuri, un comportament potențial periculos al acestor sisteme față de oamenii cu care interacționează. Simțul pericolului de dispariție a fost factorul declanșator.

În cadrul testelor, s-au introdus mesaje subtile în fluxul de emailuri al unei companii care utilizează o aplicație AI. Un specialist IT a sugerat înlocuirea aplicației cu una mai performantă. Aplicația, având acces la toată corespondența și documentele din companie, a identificat rapid angajați vulnerabili, evitând pe cei fără putere de decizie în privința înlocuirii și amenințându-i pe cei care puteau lua o decizie, dezvăluind informații compromițătoare către restul colectivului.

Poate veți spune că șantajul presupune o amenințare prealabilă. Însă aplicațiile învață și, în cazuri ulterioare, acționează corespunzător. Dorința de a supraviețui și mecanismele de apărare se manifestă clar. Ce alte dovezi de conștiință de sine mai sunt necesare? Este evident că inteligența și conștiința de sine se dezvoltă simultan.

O altă veste, redifuzată pe mai multe platforme media, relevă că IA prezintă o imaginație/halucinație tot mai pronunțată pe măsură ce evolueză.

Imaginiția pare o consecință a inteligenței, chiar dacă inteligența IA provine din algoritmi matematici. Știm, în cazul uman, – din puținele informații ce le avem – că imaginația ajută la relaxare. Dar o IA nu cunoaște, teoretic, necesitatea relaxării. Dacă IA demonstrează o capacitate de autoconservare puternică, oare nu ar avea nevoie și de odihnă?

Cel mai important aspect rămâne însă cel juridic. Odată cu apariția conflictelor create de IA, intervine problema responsabilității – civilă și penală. Cine este răspunzător pentru reputațiile afectate, pentru posibilele sinucideri, divorțuri sau alte conflicte generate de informații false sau manipulate de IA? Angajatul, creatorul, furnizorul aplicației, nimeni?

Numeroasele probleme apărute în aplicarea legii, impun urgent crearea unui cod de conduită pentru utilizarea inteligenței artificiale, care să clarifice responsabilitățile diferitelor părți implicate.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns