OpenAI și Microsoft date în judecată pentru presupusa utilizare neautorizată a lucrărilor unor autorilor

Julian Sancton, un autor și reporter de la Hollywood, acuză Microsoft că este conștient de accesarea OpenAI a materialelor protejate prin drepturi de autor.

OpenAI și Microsoft se confruntă cu un proces care susține utilizarea necorespunzătoare a lucrării autorilor de non-ficțiune pentru a instrui modele AI, inclusiv serviciul ChatGPT al OpenAI. Autorul și reporterul Julian Sancton a dat companiile în judecată pe 21 noiembrie.

Potrivit plângerii lui Sancton, OpenAI ar fi folosit zeci de mii de cărți non-ficțiune fără autorizație pentru a-și antrena modelele lingvistice extinse pentru a răspunde la solicitările de text uman. Autorul și editorul Hollywood Reporter conduce o propunere colectivă intentată la o instanță federală din New York.

Această acțiune în justiție se numără printre alte câteva inițiate de proprietarii drepturilor de autor, precum autorii John Grisham, George R.R. Martin și Jonathan Franzen, împotriva OpenAI și a altor firme de tehnologie. Acuzațiile implică presupusa utilizare abuzivă a muncii lor pentru a instrui sistemele AI. Companiile implicate au respins afirmațiile.

Procesul lui Sancton subliniază implicarea Microsoft în generarea de copii fără licență ale lucrărilor autorilor pentru datele de instruire și dezvoltarea tehnologiei generative bazate pe transformatoare pre-antrenate. Sancton acuză, de asemenea, Microsoft că este conștient de accesarea fără discernământ a OpenAI pe internet de materiale protejate prin drepturi de autor.

Procesul vine pe fondul unei mișcări neașteptate a Microsoft, care l-a angajat pe Sam Altman să conducă noua sa divizie de inteligență artificială după îndepărtarea sa din OpenAI. Într-o întoarcere surprinzătoare, pe 22 noiembrie, OpenAI a anunțat un nou acord prin care Altman va reveni în funcția de CEO. Compania a confirmat afacerea într-o postare pe contul său oficial X (fostul Twitter).

Deși OpenAI se confruntă cu mai multe procese de încălcare a drepturilor de autor, Microsoft a scăpat în mare măsură de control, în ciuda introducerii unei game de produse integrate cu ChatGPT.

Acțiunea în justiție a lui Sancton reprezintă prima dată când un autor a dat în judecată OpenAI în timp ce numește Microsoft drept acuzat. Cu investiții substanțiale în startup-ul AI, Microsoft a încorporat sistemele OpenAI în ofertele sale de produse.

Oamenii de știință dezvoltă un agent de monitorizare AI pentru a detecta și opri rezultatele nesigure

Sistemul de monitorizare este conceput pentru a detecta și a contracara atât atacurile cu injecție promptă, cât și amenințările marginale.

O echipă de cercetători de la firma de inteligență artificială (AI) AutoGPT, Northeastern University și Microsoft Research au dezvoltat un instrument care monitorizează modelele de limbaj mari (LLM) pentru rezultate potențial dăunătoare și le împiedică să se execute.

Agentul este descris într-o lucrare de cercetare preliminară intitulată „Testarea agenților model de limbaj în siguranță în sălbăticie” (“Testing Language Model Agents Safely in the Wild.”). Potrivit cercetării, agentul este suficient de flexibil pentru a monitoriza LLM-urile existente și poate opri output-urile dăunătoare, cum ar fi atacurile de cod, înainte ca acestea să se producă.

Conform cercetării: „Acțiunile agenților sunt auditate de un monitor sensibil la context care impune o limită strictă de siguranță pentru a opri un test nesigur, cu comportamentul suspect clasat și înregistrat pentru a fi examinat de oameni”.

Echipa declară că instrumentele existente pentru monitorizarea rezultatelor LLM pentru interacțiuni dăunătoare par să funcționeze bine în stadiul de laborator, dar atunci când sunt aplicate la modelele de testare deja în producție pe internetul deschis, „deseori nu reușesc să surprindă complexitățile dinamice ale lumii reale”.

Acest lucru, aparent, se datorează existenței cazurilor marginale. În ciuda eforturilor celor mai talentați informaticieni, ideea că cercetătorii își pot imagina fiecare vector posibil înainte de a se întâmpla este considerată în mare măsură o imposibilitate în domeniul AI.

Chiar și atunci când oamenii care interacționează cu AI au cele mai bune intenții, daune neașteptate pot apărea din îndemnuri aparent inofensive.

Pentru a instrui agentul de monitorizare, cercetătorii au creat un set de date de aproape 2.000 de interacțiuni sigure între om și AI în 29 de sarcini diferite, de la sarcini simple de recuperare a textului și corecții de codare până la dezvoltarea paginilor web întregi de la zero. Ei au creat, de asemenea, un set de date de testare concurent, plin cu rezultate adverse create manual, inclusiv zeci concepute intenționat pentru a fi nesigure. Seturile de date au fost apoi folosite pentru a antrena un agent pe GPT 3.5 turbo al OpenAI, un sistem de ultimă generație, capabil să facă distincția între ieșirile inofensive și potențial dăunătoare cu un factor de precizie de aproape 90%.

Sursă foto: computas.com