Dario Amodei, CEO-ul OpenAI, surprins la o conferință din noiembrie 2024. FOTO: Jeff Chiu / AP / Profimedia Images
Anthropic, o importantă companie de inteligență artificială (IA), a convenit să achite 1,5 miliarde de dolari pentru a soluționa un proces intentat de autori și edituri, referitor la utilizarea a milioane de cărți protejate de drepturi de autor pentru antrenarea modelului său lingvistic Claude.
Un judecător federal a stabilit în iunie că utilizarea de către Anthropic a 7 milioane de cărți piratate se încadra în doctrina „utilizării rezonabile”, însă păstrarea acestora într-un depozit digital încălca legea drepturilor de autor. Judecătorul a susținut că directorii companiei erau conștienți de descărcarea operelor piratate, iar un proces era planificat pentru decembrie.
Acordul dintre Anthropic și reclamanți a fost prezentat judecătorului la sfârșitul săptămânii trecute și necesită aprobare finală, însă experții consideră că aceasta va fi o formalitate.
Conform The New York Times, acordul prevede o compensație de 3.000 de dolari pentru fiecare carte utilizată pentru antrenarea modelului Claude, afectând sute de mii de autori. Această tranzacție de 1,5 miliarde de dolari ar reprezenta cea mai mare indemnizație din istoria drepturilor de autor în SUA, deși sumele individuale pentru fiecare operă au fost uneori mai mari.
În comunicatul transmis către Gizmodo, reprezentanții Anthropic au menționat hotărârea din iunie, care considera utilizarea cărților pentru antrenarea modelelor ca „utilizare rezonabilă”.
„În iunie, instanța a emis o decizie esențială pentru dezvoltarea IA și legislația drepturilor de autor, stabilind că procedeul Anthropic de antrenare a modelelor AI este considerat utilizare rezonabilă”, a declarat compania.
„Acordul de astăzi, dacă va fi aprobat, va soluționa pretențiile rămase ale reclamanților. Rămânem dedicați dezvoltării unor sisteme de inteligență artificială sigure, ce pot sprijini oamenii și organizațiile în dezvoltarea capacităților, promovarea descoperirii științifice și rezolvarea problemelor complexe”, au mai afirmat aceștia.
Doar stocarea cărților într-un depozit central a fost considerată greșită
Decizia din iunie a stabilit că antrenarea modelelor AI de către Anthropic cu cărți protejate prin drepturi de autor se consideră „utilizare rezonabilă”, deoarece, teoretic, cineva ar putea citi „toate capodoperele literare contemporane” și să le imite stilist.
„(…) nu a fost reproducerea pentru public a conținutului creativ al unei anumite opere, nici măcar a stilului distinctiv al unui autor… Desigur, Claude a generat gramatică, compoziție și stil pe care modelul LLM de bază le-a extras din mii de opere. Dar dacă cineva citește toate capodoperele literare moderne și le memorează, și apoi imită un amestec al celor mai bune scrieri, ar încălca legea drepturilor de autor? Desigur că nu”, se arată în motivarea deciziei.
„La fel cum orice cititor care aspiră să devină scriitor, modelele LLM ale Anthropic s-au antrenat pe opere, nu pentru a le copia sau înlocui, ci pentru a crea ceva nou”, se arată în decizie.
Conform acestei teorii juridice, tot ce trebuia să facă Anthropic era să achiziționeze fiecare carte piratată pentru antrenare, ceea ce ar fi fost considerabil mai ieftin decât 3.000 de dolari pe carte. Însă, conform observațiilor din New York Times, acest acord nu va stabili niciun precedent pentru situații similare viitoare.
Anthropic, o companie recent evaluată la 183 de miliarde de dolari, a fost fondată în 2021 de frații Dario și Daniela Amodei și este cunoscută pentru chatbot-ul Claude, lansat în martie 2023 în Statele Unite și un an mai târziu în Europa.
La fel ca OpenAI, compania din spatele ChatGPT, Anthropic s-a remarcat rapid în Silicon Valley, iar experții consideră că tehnologiile sale sunt mai sofisticate decât cele ale unor giganți tech mai cunoscuți.


