Un nou comitet OpenAI asigură securitate robustă pentru proiectele viitoare de AI pe măsură ce lansarea GPT-5 se apropie
OpenAI a anunțat crearea unui Comitet pentru Siguranță și Securitate pentru a oferi îndrumări experte privind utilizarea produselor viitoare ale companiei de inteligență artificială (AI).
Într-o declarație, OpenAI a spus că noul comitet va fi organismul principal responsabil de a face recomandări întregului consiliu de administrație cu privire la deciziile de siguranță, în urma desființării echipei super alignment. Comitetul, format din directorii companiei Bret Taylor, Adam D’Angelo, Nicole Seligman și CEO-ul Sam Altman, are sarcina de a elabora un plan de siguranță pentru companie.
Comitetul nou înființat este așteptat să evalueze și să raporteze cu privire la liniile directoare existente de siguranță ale companiei în termen de 30 de zile, împărtășind recomandările cu Consiliul. În loc să adopte o abordare închisă, recomandările comitetului vor fi împărtășite publicului pentru a obține feedback de la consumatori și alte părți interesate.
Jakub Pachocki, Chief Scientist al OpenAI, Matt Knight, Head of Security, Lilian Weng, Head of Safety Systems, Aleksander Madry, Head of Preparedness, și John Schulman, Head of Alignment Science, vor consolida comitetul. Compania intenționează, de asemenea, să adauge o serie de experți tehnici echipei, pe măsură ce caută opțiuni dincolo de cele interne.
În timp ce comitetul de siguranță se pregătește pentru sarcina dificilă care urmează, brațul tehnic al companiei avansează spre lansarea unui nou model AI pentru a înlocui GPT-4. Noua versiune, despre care se vorbește că va fi a cincea din serie, este de așteptat să includă un mod vocal pentru funcționalități de asistent digital.
În prezent, OpenAI nu a anunțat încă un calendar pentru lansarea succesorului lui GPT-4, dar lansările recente de la Google, Meta și Anthropic ar putea forța compania să realizeze o lansare comercială în lunile următoare.
“OpenAI a început recent antrenarea modelului său de frontieră și anticipăm că sistemele rezultate ne vor duce la următorul nivel de capabilități pe drumul nostru către AGI,” se arată în declarație. “Deși suntem mândri să construim și să lansăm modele care sunt lideri în industrie atât în ceea ce privește capabilitățile, cât și siguranța, încurajăm o dezbatere amplă în acest moment important.”
Deși OpenAI afirmă că va fi transparentă în procesul de creare a noului model de frontieră, compania nu a dezvăluit încă informații despre calendar, datele de antrenament sau integrarea cu alte tehnologii emergente.
Demisionând în mijlocul furtunii
Vorbele despre un nou comitet de siguranță vin în urma demisiei fostului cercetător OpenAI, Jan Leike, în urma problemelor legate de politica de siguranță a companiei. Leike a argumentat că compania a trecut siguranța pe plan secund în favoarea produselor sale atrăgătoare, cu Altman recunoscând că OpenAI are “mult mai mult de făcut”.
Compania a fost lovită de o serie de demisii de profil înalt în ultimele săptămâni, inclusiv plecările mai multor membri esențiali ai echipei, printre care fostul Șef Științific Ilya Sutskever. La mai puțin de un an după ce a înființat o echipă Superalignment cu Sutskever și Leike, OpenAI a închis proiectul, generând îndoieli cu privire la poziția companiei în ceea ce privește siguranța.
Sursă foto: futurumgroup.com