În încercarea de a obține câștiguri rapide și ușor, tot mai mulți indivizi își vând imaginea și vocea unor companii specializate în inteligență artificială, fără a înțelege pe deplin obligațiile contractuale. Consecința? Portretele lor apar în videoclipuri false, promovând produse dubioase, informații eronate sau chiar mesaje politice, în unele cazuri fără niciun control sau posibilitate de retragere.
Avataruri umane, costuri reduse, riscuri majore
Fenomenul deepfake și generarea de conținut cu chipuri reale, însă cu mesaje complet fictive, devine din ce în ce mai extins. Companiile de marketing digital și platformele AI utilizează acum persoane reale – considerat mai atrăgător și mai accesibil decât actorii – pentru a crea reclame, demonstrații de produse sau conținut viral. Metoda este simplă: câteva ore de filmare pe fundal verde, cu diverse interpretări emoționale urmate de prelucrare digitală și integrare vocală generată de AI, în orice limbă.
Potrivit expertei în comunicare digitală, Solena Vasseur, această practică permite companiilor să pară moderne și adaptate tehnologiilor actuale. În ceea ce privește indivizii care își cedează imaginea, suma primită poate varia de la câteva sute la câteva mii de euro. Cu toate acestea, foarte puțini înțeleg deplin conținut contractului.
De la reclama la manipulare
Un actor și model sud-coreean, Simon Lee, a fost surprins descoperind că avatarul său digital este folosit pentru promovarea unor remedii dubioase pe TikTok și Instagram – de la ceaiuri pentru slăbit până la băi reci anti-acnee. „Dacă ar fi fost o reclamă serioasă, nu aș fi avut nicio problemă, dar așa… este o înșelătorie clară”, a declarat el pentru sursa respectivă. Cu toate acestea, contractul său permite folosirea imaginii de către terți.
Un alt exemplu este actorul newyorkez Adam Coy, care a cedat drepturile asupra chipului și vocii pentru un an, în schimbul a 1000 de dolari. După câteva luni, mama iubitei sale l-a recunoscut într-un clip în care acesta susținea, ca un „mesager din viitor”, apariția unor catastrofe globale. Nu există nicio clauză contractuală care interzice asemenea utilizări, cu condiția să nu se refere la conținut sexual, alcool sau tutun.
O industrie netransparentă și în plină dezvoltare
În 2022, britanicul Connor Yeates a semnat un contract pe trei ani cu Synthesia pentru 4600 de euro. La acel moment, trăia la un prieten. Ulterior, a aflat că imaginea sa a fost folosită în videoclipuri de propagandă pentru liderul burkinabez Ibrahim Traoré, ajuns la putere printr-o lovitură de stat. Compania a recunoscut ulterior că sistemul său nu era pregătit să filtreze conținut politic polarizator.
Între timp, noi platforme AI au apărut, cu regulamente și mai laxiste. O jurnalistă a demonstrat cât de ușor se pot genera videoclipuri în care un avatar spune afirmații false fără nicio verificare.
Contracte dezechilibrate și lipsa reglementărilor
„Multe persoane nu înțeleg obligațiile implicate de aceste acorduri”, avertizează avocata Alyssa Malchiodi. Contractele includ adesea clauze de drepturi globale, permanente, irevocabile, fără posibilitatea de retragere. „Nu vorbim despre chipuri inventate, ci despre persoane reale, pe care AI-ul nu le șterge, ci le expune”, a explicat aceasta.
În lipsa unor reglementări clare, utilizarea imaginilor și vocilor reale în conținut generat de AI riscă să transforme oameni obișnuiți în actori involuntari ai unor mesaje comerciale, înșelătoare sau chiar periculoase. Odată semnat contractul, retragerea este aproape imposibilă.

