Meta respinge acuzațiile de încălcare a drepturilor de autor în instruirea AI

Într-un proces împotriva lui Sarah Silverman și altor autori, Meta susține că sistemul său AI nu creează materiale care încalcă drepturile de autor, respingând afirmațiile conform cărora modelul său de inteligență artificială (AI) Llama a fost antrenat folosind materiale protejate prin drepturi de autor din cărți populare.

În instanță pe 18 septembrie, Meta a cerut unui judecător federal din San Francisco să respingă acuzațiile făcute de autoarea Sarah Silverman și de o mulțime de alți autori care au spus că a încălcat drepturile de autor ale cărților lor în pregătirea sistemului său AI.

Compania-mamă Facebook și Instagram au numit utilizarea materialelor pentru a-și instrui sistemele „transformatoare” și „corectă”. „Utilizarea textelor pentru a instrui LLaMA să modeleze statistic limbajul și să genereze expresii originale este transformatoare prin natură și prin folosirea corectă prin excelență…” Meta a spus că „problema centrală” a utilizării corecte a drepturilor de autor ar trebui să fie reluată „în altă zi, într-o înregistrare mai completă”. Compania a spus că reclamantul nu poate oferi explicații cu privire la „informațiile” la care se referă și nici nu ar putea oferi rezultate specifice legate de materialul lor.

Avocații autorilor au specificat într-o declarație separată din 19 septembrie că sunt „încrezători” că revendicările lor vor fi reținute și vor continua să treacă prin „descoperire și procese”. OpenAI a încercat, de asemenea, să respingă părți din revendicări în august, pe motive similare cu cele propuse de Meta în prezent.

Procesul inițial împotriva Meta și OpenAI a fost deschis în iulie și a fost unul dintre multele procese apărute împotriva giganților Big Tech pentru încălcarea drepturilor de autor și a datelor odată cu creșterea AI. Pe 5 septembrie, o pereche de ingineri au deschis un proces colectiv împotriva OpenAI și Microsoft cu privire la presupusele lor metode de scraping pentru a obține date private în timp ce își antrenează modelele AI respective. În iulie, Google a fost dat în judecată pe motive similare, după ce și-a actualizat politica de confidențialitate. Procesul a acuzat compania că a folosit greșit cantități mari de date, inclusiv materiale protejate prin drepturi de autor, în cadrul propriului său curs de instruire AI.

Polonia verifică OpenAI, ChatGPT în urma unei plângeri GDPR

Oficiul Polonez pentru Protecția Datelor cu Caracter Personal (UODO) a deschis o investigație cu privire la o plângere împotriva ChatGPT de la OpenAI, un solicitant acuzând firma că prelucrează datele într-un „mod ilegal și nesigur”.

Într-o declarație din 20 septembrie, Jan Nowak, președintele biroului de protecție a datelor, a declarat că aceasta nu este prima dată când au existat îndoieli cu privire la conformitatea ChatGPT cu principiile europene de protecție a datelor și confidențialitate. Plângerea acuză OpenAI că prelucrează datele într-o manieră ilegală și nesigură, iar regulile pe baza cărora colectează și prelucrează datele nu sunt transparente. Reclamantul a spus că în cazul său, ChatGPT a generat informații false despre el, iar cererile sale pentru exercitarea drepturilor conform Regulamentului european general privind protecția datelor (GDPR) nu au fost îndeplinite de OpenAI.

Cu toate acestea, Nowak a recunoscut că procedura propusă împotriva OpenAI ar putea fi dificilă, deoarece se referă la o companie din afara Uniunii Europene. „Cazul se referă la încălcarea multor prevederi privind protecția datelor cu caracter personal, motiv pentru care vom cere OpenAI să răspundă la o serie de întrebări pentru a putea desfășura proceduri administrative în detaliu”, a spus Nowak.

Între timp, Jakub Groszkowski, vicepreședintele UODO, a declarat că acuzațiile din plângere ridică îndoieli cu privire la abordarea OpenAI față de principiile europene privind protecția datelor cu caracter personal. Prin urmare, UODO va clarifica aceste îndoieli, în special pe fondul principiului fundamental al confidențialității prin proiectare, conținut în GDPR, a adăugat el.

Nu este prima dată când OpenAI se pare că încalcă conformitatea europeană cu GDPR. În martie, autoritățile italiene responsabile de protecția datelor au blocat temporar chatbot-ul de inteligență artificială ChatGPT și au deschis o investigație cu privire la presupuse încălcări ale regulilor de confidențialitate a datelor. Autoritatea italiană de supraveghere a datelor a mai spus că există o lipsă de informații pentru utilizatori cu privire la datele colectate de OpenAI. În aprilie, autoritățile de reglementare din Germania au cerut răspunsuri cu privire la intențiile companiei și capacitatea de a respecta legile stricte privind confidențialitatea datelor consacrate în GDPR al UE. În aceeași lună, Comitetul European pentru Protecția Datelor a înființat un grup de lucru special privind OpenAI.

Sursă foto: information-age.com