Ghid britanic de etică pentru utilizarea inteligenței artificiale în sistemul judiciar – HotNews.ro

Darius Cojocaru
7 Citit minim
Ghidul britanic de etică cu privire la utilizarea inteligenței artificiale în sistemul judiciar – HotNews.ro

La data de 31 octombrie 2025, a intrat în vigoare în Regatul Unit al Marii Britanii „Regulamentul intern privind funcționarea instanțelor judecătorești și utilizarea inteligenței artificiale” (engl. “Artificial Intelligence (AI) Guidance for Judicial Office Holders”) – („Ghidul”). Deși este adaptat sistemului de drept comun (engl. common law”), principiile sale generale sunt valabile pentru orice sistem judiciar ce adoptă tehnologii moderne (“IA”) sau interacționează cu acestea.

Primul capitol al Ghidului se dedică clarificării termenilor tehnici, al doilea acoperă principiile de interacțiune între sistemul judiciar și inteligența artificială, iar la final sunt prezentate riscurile și beneficiile utilizării acesteia. Principiile enunțate sunt: (I) Înțelegerea IA și a aplicațiilor sale, (II) Respectarea confidențialității și a vieții private, (III) Asigurarea responsabilității și a preciziei, (IV) Atenție la prejudecăți și (V) Asumarea responsabilității.

Urmează o prezentare detaliată a fiecărei principii.

I. Înțelegerea IA și a aplicațiilor sale

Înainte de a utiliza instrumente de inteligență artificială, este esențial să aveți o cunoaștere de bază despre capacitățile și limitările acestora. În principal, chatboturile publice cu IA nu furnizează răspunsuri din baze de date autorizate. Acestea generează conținut proaspăt bazat pe algoritmi, interpretând solicitările și pe datele cu care au fost antrenați. Rezultatul obținut este probabil cea mai apropiată combinație de cuvinte, nu întotdeauna cea mai precisă.

Ca și în cazul oricăror informații disponibile pe internet, instrumentele de IA pot fi utile pentru identificarea materialelor recognize ca fiind corecte, însă reprezintă o metodă imprecisă pentru cercetare și verificare a informațiilor noi. Pot fi considerate o modalitate de a obține o confirmare provizorie, mai degrabă decât fapte definitive.

II. Respectați confidențialitatea și intimitatea

Nu introduceți într-un chatbot public informații nepublice sau confidențiale. Orice date transmise într-un sistem public de IA trebuie considerate publice, fiind accesibile tuturor. Chatboții actuali își amintesc toate întrebările și informațiile transmise, utilizându-le ulterior pentru răspunsuri către alți utilizatori. Prin urmare, orice informație astfel introdusă poate deveni publică.

Este recomandat să dezactivați opțiunea de istoric în chatboții publici, dacă este disponibilă, dat fiind că această funcție împiedică utilizarea datelor dvs. pentru procesarea ulterioară și păstrează conversațiile pe termen nedeterminat. De exemplu, opțiunea este disponibilă în ChatGPT și Google Gemini, dar nu în alți chatboți. Chiar și cu această setare, tot se poate presupune că datele introduse pot fi divulgate.

De asemenea, unele platforme de IA, mai ales cele utilizate pe dispozitive mobile, pot solicita permisiuni pentru accesul la informațiile dispozitivului, pe care ar fi indicat să le refuzați.

III. Asigurarea responsabilității și a preciziei

Orice informație furnizată de un instrument de IA trebuie verificată înainte de a fi utilizată sau de a sta la baza deciziilor. Informațiile generate pot fi inexacte, incomplete sau înșelătoare. Deși pot pretinde a fi conforme cu legislația din Anglia și Țara Galilor, aceste afirmații pot fi false. IA poate cita surse, însă acestea pot fi fictive sau inventate.

Instrumentele de inteligență artificială pot produce rezultate eronate, inclusiv: pot inventa cazuri, cita referințe fictive sau pot face referire la acte legislative inexistente, furnizând informații incorecte despre legislație sau modul de aplicare a acesteia.

IV. Atenție la prejudecăți

Răspunsurile generate de IA bazate pe modele lingvistice mari reflectă, inevitabil, erorile și prejudecățile din datele de antrenament, chiar și după ajustări pentru aliniere etică.

V. Respectarea responsabilității

Persoanele cu responsabilități judiciare sunt direct răspunzătoare pentru materialele generate în numele lor. Judecătorii trebuie să analizeze întotdeauna documentele de bază. Instrumentele de IA pot fi de ajutor, dar nu înlocuiesc analiza directă a probelor de către instanță. Nu este necesar ca aceștia să detalieze întreaga cercetare sau pregătire pentru pronunțarea unei hotărâri, atâta timp cât respectă procedurile și instrucțiunile. În condițiile corecte de utilizare, IA poate fi un instrument secundar valoros.

Este recomandat să folosiți dispozitive dedicate pentru accesul la astfel de instrumente, menținând un nivel ridicat de securitate. În cazul oricărei breșe de securitate, se vor urma procedurile menționate anterior.

Ghidul recunoaște beneficiile IA în sistemul judiciar, dar subliniază și riscurile conectate. Instrumentele de IA pot realiza rezumate eficiente ale unor corpuri mari de text, pot oferi sugestii pentru redactare, pot automatiza sarcini administrative precum gestionarea și prioritizarea emailurilor, transcrierea ședințelor și redactarea memorandumurilor.

Sarcini nerecomandate realizării cu ajutorul IA sunt:

  • Cercetare juridică: Instrumentele de IA nu exhaustiv identifică informații noi verificabile, fiind utile mai degrabă pentru reamintirea materialelor cunoscute, dar trebuie întotdeauna verificate cu surse autorizate.
  • Analiză juridică: Chatboții publici actuali nu pot oferi analize detaliate sau raționamente persuasive pentru decizii juridice.

De asemenea, magistratul trebuie să fie atent la anumite indicii că materialele din dosar ar fi fost generate de IA, precum:

  • Referințe la cazuri neobișnuite sau citări internaționale;
  • Redactări incoerente sau confuze, care conțin erori evidente;
  • Conținut foarte convingător, dar cu erori de fond, sau păstrarea de formulări tipice pentru răspunsurile automate;
  • Utilizarea ortografiei americane sau referiri la cazuri străine;
  • Solicitări automate sau formulări tipice de justificare precum „ca model de limbaj AI, nu pot…”

Toate aceste semne simple sunt utile sistemului judiciar român pentru prevenirea apărării erorilor generate de IA și pentru a încuraja adoptarea unui ghid specific în domeniu, având în vedere evoluția rapidă și continuă a tehnologiilor de inteligență artificială.

Un articol semnat de Dr. Victor Dobozi ([email protected]), Senior Partner, STOICA & ASOCIAȚII.

Articol redactat de STOICA & ASOCIAȚII

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns