Deepfake AI: Un decedat marturiseste in proces

Drăgan Bogdan
4 Citit minim
Un decedat vorbește în instanță – Cum a fost folosit un deepfake AI în procesul unui criminal VIDEO

În cadrul unui proces din Arizona, o victimă a violenței a fost reprezentată virtual, patru ani după deces. Familia unui veteran militar de 37 de ani, Chris Pelkey, ucis în urma unui incident de tip „road rage” în 2021, a utilizat inteligența artificială pentru a crea un videoclip. În acesta, Pelkey este reprodus digital și transmite un mesaj către presupusul său agresor.

Videoclipul, generat cu ajutorul unui model AI antrenat pe materiale video din arhiva personală a lui Pelkey, este primul caz documentat în care un deepfake este utilizat într-o instanță pentru o declarație impact a victimei.

În înregistrare, replica digitală a lui Pelkey, îmbrăcat într-o șapcă gri și un hanorac verde, transmite un mesaj aparent conciliant către inculpat: „Este păcat că ne-am întâlnit în acele circumstanțe. Poate că, într-o altă viață, am fi fost prieteni”.

Evidențiat este faptul că s-a aplicat un filtru digital de îmbătrânire pentru a reconstitui aspectul ipotetic al lui Pelkey, dacă ar mai fi trăit.

Judecătorul a subliniat că acest moment a influențat decizia asupra pedepsei, inculpatul, Gabriel Horcasitas, primind o pedeapsă de 10 ani și jumătate pentru omor din culpă.

„Acesta este aspectul pe care l-aș avea dacă aș mai fi putut trăi”, spune personajul creat de AI în videoclip. „Îmbătrânirea este un dar, nu toți o primesc, astfel încât bucurați-vă de fiecare rid”.

Replica digitală a lui Chris Pelkey

Tendințe controversate în justiția americană

Cazul Pelkey nu este izolat. În luna anterioară, Jerome Dewald, un bărbat de 74 de ani din New York, a prezentat în instanță un videoclip deepfake, unde o persoană generată de AI a ținut un discurs în numele său într-un proces civil. Judecătorul, neștiind de natura artificială a persoanei din videoclip, l-a mustrat pe Dewald pentru lipsa de transparență.

Dewald a afirmat că nu intenționa să inducă în eroare instanța, ci doar să își exprime clar poziția.

În mod inițial, el intenționa să creeze o replica care să-i semene, însă a renunțat din cauza dificultăților tehnice.

Utilizarea inteligenței artificiale în sistemul juridic nu este lipsită de probleme. Mai mulți avocați au fost sancționați în ultimii ani pentru folosirea documentelor generate de modele de limbaj ce conțineau cazuri juridice fictive.

În 2023, doi avocați din New York au fost pedepsiți pentru includerea a șase situații juridice false generate de un software de inteligență artificială.

Într-un alt caz, se presupune că fostul avocat al lui Donald Trump, Michael Cohen, a transmis avocatului său decizii fictive generate de IA, care au ajuns într-o cerere oficială.

Necesitatea unor norme clare pentru tehnologia viitorului

Deși instanțele au reacționat ferm împotriva utilizării înșelătoare a IA în justiție, cadrul legal rămâne neclar. Recent, un comitet judiciar federal a propus o reglementare prin care dovezile generate de IA să respecte standardele similar aplicabile experților umani.

În raportul său anual din 2023, președintele Curții Supreme a SUA, John Roberts, a subliniat riscurile, dar și avantajele potențiale ale utilizării IA în justiție.

El a sugerat că tehnologia ar putea micșora obstacolele financiare în accesul la justiție, dar a menționat riscurile legate de intimitate și de desumanizarea procesului judiciar.

Distribuie acest articol
Lasa un comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *