OpenAI și Microsoft date în judecată pentru presupusa utilizare neautorizată a lucrărilor unor autorilor

Julian Sancton, un autor și reporter de la Hollywood, acuză Microsoft că este conștient de accesarea OpenAI a materialelor protejate prin drepturi de autor.

OpenAI și Microsoft se confruntă cu un proces care susține utilizarea necorespunzătoare a lucrării autorilor de non-ficțiune pentru a instrui modele AI, inclusiv serviciul ChatGPT al OpenAI. Autorul și reporterul Julian Sancton a dat companiile în judecată pe 21 noiembrie.

Potrivit plângerii lui Sancton, OpenAI ar fi folosit zeci de mii de cărți non-ficțiune fără autorizație pentru a-și antrena modelele lingvistice extinse pentru a răspunde la solicitările de text uman. Autorul și editorul Hollywood Reporter conduce o propunere colectivă intentată la o instanță federală din New York.

Această acțiune în justiție se numără printre alte câteva inițiate de proprietarii drepturilor de autor, precum autorii John Grisham, George R.R. Martin și Jonathan Franzen, împotriva OpenAI și a altor firme de tehnologie. Acuzațiile implică presupusa utilizare abuzivă a muncii lor pentru a instrui sistemele AI. Companiile implicate au respins afirmațiile.

Procesul lui Sancton subliniază implicarea Microsoft în generarea de copii fără licență ale lucrărilor autorilor pentru datele de instruire și dezvoltarea tehnologiei generative bazate pe transformatoare pre-antrenate. Sancton acuză, de asemenea, Microsoft că este conștient de accesarea fără discernământ a OpenAI pe internet de materiale protejate prin drepturi de autor.

Procesul vine pe fondul unei mișcări neașteptate a Microsoft, care l-a angajat pe Sam Altman să conducă noua sa divizie de inteligență artificială după îndepărtarea sa din OpenAI. Într-o întoarcere surprinzătoare, pe 22 noiembrie, OpenAI a anunțat un nou acord prin care Altman va reveni în funcția de CEO. Compania a confirmat afacerea într-o postare pe contul său oficial X (fostul Twitter).

Deși OpenAI se confruntă cu mai multe procese de încălcare a drepturilor de autor, Microsoft a scăpat în mare măsură de control, în ciuda introducerii unei game de produse integrate cu ChatGPT.

Acțiunea în justiție a lui Sancton reprezintă prima dată când un autor a dat în judecată OpenAI în timp ce numește Microsoft drept acuzat. Cu investiții substanțiale în startup-ul AI, Microsoft a încorporat sistemele OpenAI în ofertele sale de produse.

Oamenii de știință dezvoltă un agent de monitorizare AI pentru a detecta și opri rezultatele nesigure

Sistemul de monitorizare este conceput pentru a detecta și a contracara atât atacurile cu injecție promptă, cât și amenințările marginale.

O echipă de cercetători de la firma de inteligență artificială (AI) AutoGPT, Northeastern University și Microsoft Research au dezvoltat un instrument care monitorizează modelele de limbaj mari (LLM) pentru rezultate potențial dăunătoare și le împiedică să se execute.

Agentul este descris într-o lucrare de cercetare preliminară intitulată „Testarea agenților model de limbaj în siguranță în sălbăticie” (“Testing Language Model Agents Safely in the Wild.”). Potrivit cercetării, agentul este suficient de flexibil pentru a monitoriza LLM-urile existente și poate opri output-urile dăunătoare, cum ar fi atacurile de cod, înainte ca acestea să se producă.

Conform cercetării: „Acțiunile agenților sunt auditate de un monitor sensibil la context care impune o limită strictă de siguranță pentru a opri un test nesigur, cu comportamentul suspect clasat și înregistrat pentru a fi examinat de oameni”.

Echipa declară că instrumentele existente pentru monitorizarea rezultatelor LLM pentru interacțiuni dăunătoare par să funcționeze bine în stadiul de laborator, dar atunci când sunt aplicate la modelele de testare deja în producție pe internetul deschis, „deseori nu reușesc să surprindă complexitățile dinamice ale lumii reale”.

Acest lucru, aparent, se datorează existenței cazurilor marginale. În ciuda eforturilor celor mai talentați informaticieni, ideea că cercetătorii își pot imagina fiecare vector posibil înainte de a se întâmpla este considerată în mare măsură o imposibilitate în domeniul AI.

Chiar și atunci când oamenii care interacționează cu AI au cele mai bune intenții, daune neașteptate pot apărea din îndemnuri aparent inofensive.

Pentru a instrui agentul de monitorizare, cercetătorii au creat un set de date de aproape 2.000 de interacțiuni sigure între om și AI în 29 de sarcini diferite, de la sarcini simple de recuperare a textului și corecții de codare până la dezvoltarea paginilor web întregi de la zero. Ei au creat, de asemenea, un set de date de testare concurent, plin cu rezultate adverse create manual, inclusiv zeci concepute intenționat pentru a fi nesigure. Seturile de date au fost apoi folosite pentru a antrena un agent pe GPT 3.5 turbo al OpenAI, un sistem de ultimă generație, capabil să facă distincția între ieșirile inofensive și potențial dăunătoare cu un factor de precizie de aproape 90%.

Sursă foto: computas.com

Autoritățile de reglementare australiene vor obliga companiile să raporteze atacurile cibernetice

Această obligație nu va fi susținută de o amendă în cazul în care compania nu se conformează, iar întreprinderilor li se va permite în continuare să plătească răscumpărări, deși acest lucru este descurajat.

Autoritățile australiene vor obliga companiile locale să fie pe deplin transparente și să raporteze orice atac cibernetic asupra afacerilor lor. Economia țării a pierdut 2,59 miliarde de dolari din cauza atacurilor cibernetice în 2021.

Potrivit unui raport din 13 noiembrie al The Australian, strategia națională de securitate cibernetică, care urmează să fie dezvăluită în noiembrie, va include un sistem obligatoriu conform căruia întreprinderile locale trebuie să alerteze guvernul cu privire la atacurile cibernetice ce cer răscumpărare. Cu toate acestea, această obligație nu va fi susținută de o amendă dacă compania nu se conformează.

Companiilor li se va permite în continuare să plătească răscumpărări, deși noul coordonator național de securitate cibernetică Air Marshal Darren Goldie, le-a descurajat public să facă acest lucru. În octombrie, Australia s-a alăturat altor aproape 40 de națiuni în angajamentul de a nu plăti cererile de răscumpărare făcute împotriva agențiilor guvernamentale.

Înainte de a intra în vigoare sistemul obligatoriu, guvernul intenționează să se consulte cu comunitatea de afaceri cu privire la proiectarea acestuia, așa cum a precizat ministrul Afacerilor Interne și Securității Cibernetice, Clare O’Neil: „Vom crea un manual de joc ransomware care va oferi îndrumări clare companiilor și cetățenii despre cum să se pregătească, să se ocupe de cererile de răscumpărare și să se recupereze”.

Atacurile cibernetice rămân o problemă comună în economia digitală. În iulie, Departamentul de Justiție al Statelor Unite ale Americii a anunțat o dublare a dimensiunii echipei sale de criminalitate criptografică și s-a concentrat imediat pe combaterea acestui tip de atacuri.

Potrivit Chainalysis, portofelele implicate în atacuri ransomware se îndreaptă adesea către pool-uri de cripto mining pentru a spăla fondurile dobândite prin exploatări. Firma de cercetare susține că a existat o creștere a valorii trimise din portofelele ransomware către pool-urile de minerit.

Visa lansează practica de consiliere AI pentru a îmbunătăți capacitățile AI ale clienților

Visa a stabilit o practică de consiliere AI, o mișcare menită să ofere clienților informații și recomandări valoroase pentru a valorifica potențialul inteligenței artificiale și al inteligenței artificiale generative.

Experiența vastă a companiei globale de plăți digitale în implementarea AI se întinde pe peste trei decenii, cu o investiție de peste 3 miliarde USD în AI și infrastructură de date în ultimul deceniu. Visa Consulting & Analytics (VCA), brațul de consultanță al Visa, a desfășurat numeroase angajamente legate de inteligența artificială, deschizând calea pentru lansarea acestui serviciu dedicat de consiliere în domeniul inteligenței artificiale. „AI nu doar remodelează industriile din întreaga lume, ci le revoluționează, iar sectorul plăților este în fruntea acestei transformări”, a declarat Carl Rutstein, șeful global al serviciilor de consiliere, Visa. „Visa nu folosește doar inteligența artificială pentru a ajuta la îmbunătățirea experiențelor de plată – afacerea noastră de consiliere o folosește și pentru a le permite clienților noștri să crească și să redefinească modul în care își servesc propriii clienți prin achiziții, implicare, reținere și management al riscului.”

Practica de consiliere AI a Visa va intra în rețeaua globală a VCA de peste 1.000 de consultanți, oameni de știință în date și experți în produse din 75 de birouri din întreaga lume. Serviciul va ghida clienții prin călătoria lor AI, de la planificarea inițială până la implementare, concentrându-se pe strategie, evaluarea capacității și proiectarea modelului.

Obiectivul este de a ajuta clienții să elaboreze strategii responsabile de AI și să utilizeze eficient AI pentru a atinge obiective specifice de afaceri, cum ar fi extinderea pieței, proiectarea produsului, achiziția clienților, îmbunătățirea angajamentului și prevenirea fraudei.

Un vicepreședinte senior pentru plăți la o bancă de top 10 din SUA, a comentat de asemenea: „VCA a dezvoltat o serie de modele AI/ML proprietare pentru a ne ajuta să creștem, servindu-ne mai bine clienții. Experții lor AI/ML, împreună cu datele noastre și datele VisaNet, ne oferă un nivel de perspectivă care este esențial pentru strategia noastră de creștere.

„Împreună explorăm cum să folosim inteligența artificială pentru a sprijini nevoile nesatisfăcute ale clienților noștri prin cazuri de utilizare care sunt atât unice pentru complexitatea metodelor de plată ale clienților, cât și pentru nevoile întreprinderii.”

Sursă foto: swoopfunding.com

Google va investi încă 2 miliarde de dolari în firma de inteligență artificială Anthropic

Potrivit unui nou raport, Google și-a dublat pariurile pe inteligența artificială (AI) investind încă 2 miliarde de dolari în startup-ul AI Anthropic. Google a investit deja 500 de milioane de dolari în avans pentru Anthropic – un rival al creatorilor de ChatGPT OpenAI – și va plăti restul de 1,5 miliarde de dolari în timp, potrivit unui raport din 27 octombrie al The Wall Street Journal (WSJ), care a citat persoane familiare cu materie.

Mega-afacerea se adaugă la investiția de 550 de milioane de dolari a Google în Anthropic la începutul anului 2023. Google Cloud a încheiat, de asemenea, un acord pe mai mulți ani cu Anthropic în urmă cu câteva luni în valoare de peste 3 miliarde de dolari, a dezvăluit The WSJ. Știrea urmează investiției masive de 4 miliarde de dolari ale Amazon în Anthropic în septembrie. Anthropic folosește o mare parte din aceste investiții pentru a-și instrui sistemele AI, cum ar fi asistentul AI Claude, în speranța că firma poate realiza următoarea mare descoperire în industria AI.

De cealaltă parte a dezbaterii este OpenAI, care a primit peste 13 miliarde de dolari în finanțare doar de la Microsoft din 2019 și continuă să construiască versiuni mai avansate ale propriului său chatbot AI, ChatGPT. Popularul chatbot a adunat peste 100 de milioane de utilizatori în primele două luni de la lansare în noiembrie 2022, ceea ce a atras atenția multor firme de capital de risc din întreaga lume care doresc să investească în spațiu.

Co-fondatorii Anthropic, frații Dario și Daniela Amodei, au lucrat anterior la OpenAI, dar au plecat în 2021 în urma unor dispute cu CEO-ul OpenAI, Sam Altman, cu privire la implicațiile de siguranță asociate cu construirea sistemelor AI.

Înainte de Google și Amazon, Anthropic a fost finanțat în principal de fostul CEO FTX, Sam Bankman-Fried, care a investit aproximativ 530 de milioane de dolari în Anthropic în aprilie 2022 – cu aproximativ șapte luni înainte de prăbușirea FTX. Creșterea evaluării Anthropic a fost văzută ca un semn pozitiv pentru creditorii FTX, în speranța că aceștia vor fi despăgubiți pe deplin în cazul falimentului FTX.

Volumul vânzărilor NFT crește la 129 milioane USD în noiembrie

Compania de analiză Blockchain Nansen a raportat că volumele vânzărilor NFT au atins 68.342 ETH în săptămâna încheiată pe 6 noiembrie. Token-urile nefungibile (NFT) au înregistrat o creștere constantă în ceea ce privește volumul săptămânal de vânzări Ether, conform platformei de analiză blockchain.

Într-o postare pe X (fostul Twitter), Nansen a subliniat că în săptămâna care s-a încheiat pe 9 octombrie, vânzările de NFT au fost de 29.704 ETH, în valoare de aproximativ 56 de milioane de dolari la prețurile actuale ale pieței ETH. Volumul vânzărilor a crescut săptămânal până a ajuns la 68.342 ETH, în valoare de peste 129 milioane USD.

Piața NFT Blur a avut cea mai mare cotă din volumul de tranzacționare NFT din ultimele 30 de zile. Potrivit agregatorului de date NFTGo, Blur a avut un volum de tranzacționare de 161.433 ETH (aproximativ 305 milioane USD) în ultimele 30 de zile. Între timp, al doilea loc i-a revenit concurentului său, OpenSea, care avea un volum de tranzacționare de 52.307 ETH, sau aproximativ 100 de milioane de dolari.

În ceea ce privește colecțiile NFT, Bored Ape Yacht Club (BAYC) a avut cel mai mare volum de tranzacționare din ultimele 30 de zile. Colecția BAYC a avut un volum de 35.226 ETH, sau aproximativ 66,7 milioane de dolari. Colectarea a fost urmată de Mutant Ape Yacht Club (MAYC) la 14.947 ETH și The Captainz la 9.948 ETH. CryptoPunks a rămas colecția de top în ceea ce privește capitalizarea bursieră. Cu toate acestea, colecția a avut doar un volum de tranzacționare de 5.773 ETH în ultimele 30 de zile.

În afară de acestea, datele NFTGo au arătat, de asemenea, că a existat o creștere cu 12% a comercianților NFT în ultimele șapte zile. Adresele cumpărătorilor erau la 22.804, în timp ce vânzătorii erau la 27.308 în aceeași perioadă de timp. Între timp, numărul de portofele care dețineau NFT a continuat să se ridice la aproximativ șase milioane.

Creșterea volumului de tranzacționare pentru NFT s-a produs pe fondul unor știri despre piața NFT. Pe 3 noiembrie, piața NFT OpenSea și-a concediat jumătate din personal, în timp ce se pregătește să lanseze a doua versiune.

Sursă foto: finicity.com

Cum blockchain și AI poate ajuta cercetarea în extinderea vieții umane

Jasmine Smith, CEO al aplicației de wellness bazată pe Web3, Rejuve.AI, a declarat că platformele descentralizate și bazate pe inteligență artificială pentru cercetarea în domeniul sănătății nu își propun să înlocuiască medicii și clinicienii, ci mai degrabă să îi ajute în munca lor. Blockchain și inteligența artificială (AI) au fost de mult timp asociate pentru a schimba modul în care oamenii văd identitatea și verificarea. Între aceste inovații vin date, descrise de experți drept noul ulei – extras, adunat, rafinat, procesat și transformat în ceva util.

În timp ce majoritatea cazurilor de utilizare blockchain și AI sunt încă experimentale și succesul nu poate fi încă măsurat, o aplicație în curs de dezvoltare folosește datele personale ale utilizatorilor pentru a contribui la cercetarea privind prelungirea vieții umane.

Discutând subiectul la recentul Cardano Summit, Jasmine Smith, CEO al aplicației de wellness bazată pe Web3, Rejuve.AI, a spus că crowdsourcingul de date din mai multe surse ajută la accelerarea cercetării longevității. Ea a explicat că seturile de date de bază actuale sunt restrânse la populațiile occidentale. Ea a explicat: „A fi capabil să democratizem acel acces și să umplem golurile de date în locuri precum Africa, Asia și Orientul Mijlociu ne va oferi o imagine mai holistică a sănătății umane și a longevității și ne va permite să oferim recomandări mai bune.” Smith a adăugat că astfel de inițiative nu urmăresc să înlocuiască medicii și clinicienii, ci mai degrabă să îi ajute în munca lor.

„Dezvoltarea open source creează întotdeauna algoritmi AI mai buni. Avem, de asemenea, o secțiune în care oamenii pot contribui la platforma noastră AI pentru a face simulări cu rezoluție multiplă bazate pe diferiți factori”, a adăugat ea.

Rejuve.AI este o rețea descentralizată de cercetare a longevității în care utilizatorii pot contribui cu datele personale de sănătate pentru studii științifice în schimbul recompenselor sub forma unui simbol, care, la rândul său, poate fi folosit pentru alte produse și servicii din cadrul platformei. Potrivit lui Smith, datele colectate de la utilizatori vor fi apoi folosite pentru a dezvolta kituri de testare avansate, cum ar fi secvențierea genomului, metilare ADN și teste de vârstă biologică – produse pe care o persoană obișnuită nu le-ar putea accesa altfel.

Referindu-se la îngrijorările că inițiativa ar putea banaliza opiniile asupra cercetării longevității, Smith a susținut că oamenilor „le place în mod natural să fie recompensați”, adăugând: „Cred că toată lumea vrea să obțină ceva pentru ceea ce oferă, mai ales când vine vorba de date despre sănătate. Purtăm ceasuri inteligente și inele și, deși s-ar putea să obținem niște mici grafice interesante în aplicație, de fapt nu suntem plătiți.”

Executivul a subliniat că acel aspect al Web3 „poate fi cu adevărat revoluționar”, subliniind ceea ce iese din cercetare care „depășește cu mult doar simbolul”. Întrebată despre dezbaterea filozofică și despre consecințele societale neintenționate legate de prelungirea vieții umane, Smith a explicat că proiectul nu obligă pe nimeni să „trăiască peste 100 de ani”. „Este mai mult despre împingerea limitelor științei și tehnologiei pentru a face ceva nu doar pentru oamenii bogați, ci și pentru oricine are acel impuls și acea motivație de a-și prelungi viața”, a spus Smith.

Smith a spus că nu vede AI înlocuind complet oamenii. În schimb, ea crede că tehnologia nu numai că le va ușura munca, ci le va oferi și o perspectivă mai directă și mai detaliată asupra valorii unei persoane ca individ. Ea a adăugat: „AI poate accelera cu siguranță fluxurile de lucru, ușurează ținerea de evidență și poate conecta mai mult o persoană la contribuția sa la date și la veniturile care rezultă de fapt din alocarea datelor lor către diferite inițiative și produse.”

Sursă foto: theweek.in

Peste jumătate dintre muzicieni sunt preocupați de percepția publicului asupra utilizării AI

Peste jumătate dintre muzicienii chestionați au spus că sunt preocupați de modul în care publicul lor ar putea percepe muzica creată folosind AI, dar mulți artiști au găsit-o utilă în procesul lor de creație. Pe măsură ce inteligența artificială continuă să pătrundă în diverse sectoare din întreaga lume, industria muzicală a fost receptivă la capacitățile sale de transformare, rămânând în același timp precaută cu privire la riscurile pentru artiști.

Într-un sondaj recent lansat de studioul privat de muzică Pirate, 53% dintre respondenți au spus că au „îngrijorări cu privire la modul în care publicul lor ar putea percepe muzica creată cu ajutorul AI”. Sondajul a ajuns la 1.141 dintre artiștii săi din Regatul Unit, Statele Unite și Germania, inclusiv membri ai trupei, compozitori, producători, instrumentiști și rapperi.

De asemenea, sondajul a dezvăluit ezitarea artiștilor de a folosi AI în studio, doar 25% spunând că au experiență cu tehnologia. Cu toate acestea, 46% au spus că sunt dispuși să ia în considerare utilizarea unor astfel de instrumente în viitor.

Unul dintre artiștii chestionați, Christoph Krey de la trupa MYAI din Brooklyn, a spus că folosește AI pentru 30% din toate activitățile sale și le numește pe celelalte 70% „inteligență artistică”. Krey a spus că ar putea fi o provocare dificilă de învățare pentru artiști în care să se implice: „Este încă un lucru pe care artiștii trebuie să-l facă acum, pe lângă tot ce trebuiau să facă deja pentru a crea valoare.”

Cofondatorul și CEO-ul Pirate, David Borrie, a spus că este de înțeles ezitarea artiștilor cu privire la utilizarea AI. El a declarat: „În sondajul nostru recent, am întrebat artiștii care și-au exprimat reticența de a folosi AI de ce. „Pierderea autenticității” a fost preocuparea principală pentru 58% dintre ei. Cred că aceasta este și aceeași îngrijorare a multor ascultători de muzică.”

Cu toate acestea, el a asemănat tehnologia emergentă cu auto-tune, o altă tehnologie revoluționară care a pătruns în industria muzicală și a devenit un pilon în producția contemporană. „Este util să ne uităm înapoi la introducerea unor instrumente precum Auto-Tune, care s-au confruntat cu critici la începuturile lor, dar în cele din urmă și-au găsit locul în industria muzicală. Călătoria AI spre a deveni un instrument standard în creația muzicală poate urma o cale similară, pe măsură ce artiștii și publicul se adaptează la această inovație.”

În ceea ce privește artiștii din industria muzicală care folosesc deja inteligența artificială în procesul lor de creație, răspunsul la întrebarea vizavi de locul în care a fost cea mai utilă a fost în „scrierea de cântece și compoziție”.

Borrie a spus că, deși AI a fost văzută recent drept folosită pentru a genera piese întregi și fără „aprecierea cuvenită” pentru drepturi de autor sau legalități, este, de asemenea, „folosită pe scară largă de mulți artiști în studiourile noastre ca instrument de îmbunătățire a eficienței, pentru sugestii de compoziție, scheme de rimă, sau împărțirea cântecelor în tulpini pentru eșantionare.” „Creșterea vizibilității artiștilor care folosesc inteligența artificială ca instrument pentru a-și spori propria activitate ar trebui să contribuie la eliminarea stigmatizării, care a fost, parțial, alimentată de cascadorii muzicale AI virale, prezentate frecvent în mass-media.”

Într-un interviu acordat la începutul acestui an, CEO-ul Academiei de Înregistrări, instituția responsabilă de premiile Grammy anuale, a spus că vede AI ca un „amplificator creativ” pentru artiștii care îl folosesc în munca lor. Au existat deja controverse cu cei care doresc să-și recunoască muzica. Un artist care a folosit o piesă vocală generată de AI a rapperului Drake într-o piesă care a devenit virală a încercat să-și prezinte piesa pentru nominalizare. Cu toate acestea, piesa a fost refuzată de către Academie din cauza unor probleme de încălcare a drepturilor de autor. Academia a comentat această problemă, spunând că subiectul AI este atât „complicat”, cât și „în continuă transformare”.

Regulile oficiale pentru muzica generată de inteligență artificială, instituite de Academie, spun că un om trebuie să creeze componentele principale ale pieselor pentru nominalizarea oficială. De exemplu, pentru ca o piesă să câștige un premiu pentru performanță vocală, trebuie să fi fost interpretată de un om.

Casele de discuri majore din industria muzicală încearcă, de asemenea, să rămână la curent cu utilizarea AI, inclusiv Universal Music, care a colaborat cu Google pentru a combate falsurile AI ale artiștilor săi și a solicitat serviciilor de streaming precum Spotify să elimine melodiile generate de AI de pe platforma sa.

Sursă foto: thomann.de

Majoritatea utilizatorilor se tem că inteligența artificială folosește datele lor , conform unui sondaj privind confidențialitatea consumatorilor

Cercetările realizate de Cisco, fintech-ul global care lucrează pentru un viitor mai incluziv, a dezvăluit că consumatorii cu vârsta cuprinsă între 18 și 24 de ani au mai multe șanse să își acceseze drepturile de acces vizate (42%) decât consumatorii de peste 75 de ani (6%). Descoperirile, publicate în Cisco 2023 Consumer Privacy Survey fac parte din ancheta mai amplă a companiei cu privire la percepțiile și comportamentele consumatorilor cu privire la confidențialitatea datelor.

După apariția inteligenței artificiale (AI), 62% dintre consumatori și-au exprimat îngrijorarea în legătură cu utilizarea tehnologiei de către organizații și modul în care acestea interacționează cu datele lor. 60% au ajuns atât de departe încât au spus că și-au pierdut deja încrederea în firme din cauza utilizării AI.

Cu toate acestea, în ciuda îngrijorărilor, nu este totul sumbru pentru AI. 48% dintre respondenți au fost de acord că inteligența artificială poate fi de ajutor în îmbunătățirea vieții lor. 54% chiar au spus că vor împărtăși de bunăvoie date personale anonimizate pentru a îmbunătăți produsele AI și luarea deciziilor.

„Lumea urmărește modul în care companiile vor aborda AI într-un mod responsabil”, a declarat Dev Stahlkopf, vicepreședinte executiv Cisco și director juridic. „Pentru Cisco, asta înseamnă să ne concentrăm pe respectarea vieții private și a drepturilor omului, pe măsură ce încorporăm tehnologia AI.”

În ciuda apariției ChatGPT și a inteligenței artificiale generativă în 2023, peste jumătate (52 %) dintre respondenții la sondaj au spus că nu sunt conștienți de acest lucru.

Dintre cei care folosesc în mod regulat Gen AI (12%), doar jumătate au indicat că se abțin de la introducerea de informații personale sau confidențiale în aplicațiile Gen AI. Este de remarcat faptul că ceilalți 50% pot introduce într-adevăr informații personale sau confidențiale. Acest lucru se întâmplă în ciuda faptului că 88% dintre respondenți au indicat că ar fi „Oarecum” sau „Foarte” îngrijorați dacă datele lor introduse în Gen AI ar fi partajate.

Tinerii consumatori care susțin confidențialitatea datelor

Anul acesta, 33% dintre respondenți se califică drept „Activi în domeniul confidențialității”. Aceasta înseamnă că le pasă de confidențialitate și sunt dispuși să acționeze pentru a o proteja. Unii au acționat: de exemplu, schimbând între companii sau furnizori din cauza politicilor lor de date sau a practicilor de partajare a datelor.

Consumatorii mai tineri sunt cei mai dispuși să ia măsuri pentru a-și proteja confidențialitatea. 42% dintre consumatori, cu vârsta cuprinsă între 18 și 34 de ani, susțin confidențialitatea, un procent care scade constant odată cu vârsta.

Procentul consumatorilor care solicită ștergerea sau modificarea datelor a crescut la 19%, față de 14% anul trecut. Din nou, acest lucru este foarte corelat cu vârsta: 32% dintre consumatorii cu vârsta cuprinsă între 18 și 24 de ani fac solicitări de ștergere sau modificare a datelor, comparativ cu doar 4% dintre consumatorii mai în vârstă.

Conștientizarea publicului vizavi de legile privind confidențialitatea continuă să fie relativ scăzută, 46% dintre respondenți fiind conștienți de legea confidențialității din țara lor. Cei care cunosc legea au mai multe șanse să simtă că își pot proteja datele în mod adecvat.

Doar 40% dintre cei care nu cunosc legea țării lor simt că își pot proteja datele, comparativ cu 74% dintre cei care cunosc legea. 68% dintre consumatorii cu vârsta cuprinsă între 18 și 24 de ani consideră că își pot proteja datele, iar acest lucru scade treptat, până la 47% dintre consumatorii de peste 65 de ani care spun acest lucru.

Rolul legilor și guvernelor

Mulți consumatori se așteaptă la guvern a stabili standardele de siguranță și pentru a aplica protecția vieții private. Jumătate (50%) dintre respondenți au spus că administrația națională sau locală ar trebui să aibă rolul principal în protejarea datelor, în timp ce 21% au spus că companiile private ar trebui să fie în primul rând responsabile pentru protecția datelor.

„Pe măsură ce guvernele adoptă legi și companiile încearcă să creeze încredere, consumatorii trebuie, de asemenea, să ia măsuri și să folosească tehnologia în mod responsabil pentru a-și proteja propria confidențialitate”, spune Harvey Jang, vicepreședinte Cisco, consilier general adjunct și ofițer șef de confidențialitate.

Consumatorii sunt împărțiți în ceea ce privește valoarea localizării datelor. Majoritatea au auzit despre astfel de cerințe și 76% au indicat inițial că localizarea datelor ar putea fi bună. Cu toate acestea, luând în considerare costul asociat cu acesta, ceea ce face ca produsele și serviciile să fie mai scumpe, doar 44% au fost în favoarea localizării datelor.

Sursă foto: red-gate.com

Google protejează utilizatorii cu privire la acuzațiile de drepturi de autor AI

Google a declarat în mod explicit că doar șapte produse intră sub această protecție legală, cu excepția instrumentului de căutare Bard de la Google.

Google și-a anunțat angajamentul de a proteja utilizatorii sistemelor de inteligență artificială generativă (AI) din cadrul platformelor sale Google Cloud și Workspace în cazurile în care se confruntă cu acuzații de încălcare a proprietății intelectuale. Această mișcare aliniază Google cu alte companii, cum ar fi Microsoft, Adobe și altele, care au făcut și ele asigurări similare. Într-o postare recentă pe blog, Google a arătat clar că utilizatorii care folosesc produse integrate cu capabilități generative de inteligență artificială vor primi protecție legală. Acest anunț abordează preocupările tot mai mari cu privire la potențialele probleme legate de drepturile de autor asociate cu inteligența artificială generativă.

Google a subliniat în mod explicit șapte produse care intră sub această protecție legală. Produsele sunt Duet AI în Workspace, cuprinzând generarea de text în Google Docs și Gmail, precum și generarea de imagini în Google Slides și Google Meet; Duet AI în Google Cloud; Vertex AI Search; Conversație Vertex AI; Vertex AI Text Embedding API; Subtitrări vizuale pe Vertex AI; și API-urile Codey. Merită remarcat faptul că această listă nu a inclus instrumentul de căutare Google Bard.

Google a dezvăluit o abordare distinctă a despăgubirii proprietății intelectuale, descrisă ca fiind o strategie de pionierat în două direcții. În cadrul acestei inițiative, Google își extinde protecția pentru a include atât datele de antrenament, cât și rezultatele generate de modelele sale fundamentale. Aceasta înseamnă că, dacă se iau măsuri legale împotriva cuiva din cauza utilizării datelor de formare Google care implică materiale protejate prin drepturi de autor, Google își va asuma responsabilitatea pentru soluționarea acestei provocări legale.

Compania a precizat că indemnizația aferentă datelor de formare nu este o formă nouă de protecție. Cu toate acestea, Google a recunoscut că clienții săi și-au exprimat dorința de a obține o confirmare clară și explicită că această protecție se extinde la scenariile în care datele de instruire încorporează material protejat prin drepturi de autor.

Google va proteja suplimentar utilizatorii dacă se confruntă cu acțiuni în justiție din cauza rezultatelor pe care le obțin în timpul utilizării modelelor sale de bază. Aceasta include scenarii în care utilizatorii generează conținut asemănător lucrărilor publicate. Compania a subliniat că această garanție depinde de faptul că utilizatorii nu generează sau utilizează în mod intenționat conținut pentru a încălca drepturile altora.

Alte companii au emis declarații similare. Microsoft și-a declarat angajamentul de a-și asuma responsabilitatea legală pentru utilizatorii produselor sale Copilot. Adobe, pe de altă parte, și-a afirmat dedicarea pentru protejarea clienților de drepturile de autor, confidențialitate și drepturi de publicitate atunci când folosesc Firefly.

Noul proiect de lege al Senatului propune pedepsirea creatorilor de deepfake-uri generate de AI

Actul propus a venit la doar câteva ore după ce discuțiile între actori și studiourile de la Hollywood au fost întrerupte, replicile AI fiind un subiect major în negocieri. Recreările neautorizate ale vocilor și imaginilor oamenilor bazate pe inteligență artificială (AI) ar fi interzise în temeiul unui proiect de lege propus de un grup bipartizan de senatori ai Statelor Unite.

Într-un comunicat de presă din 11 octombrie, senatorii democrați Chris Coons și Amy Klobuchar, împreună cu senatorii republicani Marsha Blackburn și Thom Tillis, au lansat un proiect de discuție al Legii Nurture Originals, Foster Art și Keep Entertainment Safe (NO FAKES). Companiile sau persoanele care creează o replică AI neautorizată a cuiva – în viață sau decedată – ar fi răspunzătoare pentru daune în temeiul actului, împreună cu platformele care găzduiesc cu bună știință imitații AI neautorizate. Penalitățile ar începe de la 5.000 USD per încălcare.

Proiectul de lege permite utilizări limitate ale replicilor AI neautorizate protejate de Primul Amendament, inclusiv cele utilizate pentru știri, ca parte a documentarelor sau pentru „comentare, critică, bursă, satiră sau parodie”. „Creatorii din întreaga națiune fac apel la Congres să stabilească politici clare care reglementează utilizarea și impactul IA generativă”, a spus senatorul Coons într-o declarație. „Congresul trebuie să găsească echilibrul potrivit pentru a apăra drepturile individuale, pentru a respecta Primul Amendament și pentru a stimula inovația și creativitatea AI.” Senatorul Blackburn a adăugat că proiectul de lege este un „prim pas bun” pentru a proteja compozitorii, actorii și creatorii din SUA care „merită dreptul de a-și deține numele, imaginea și asemănarea (NIL).”

Proiectul de lege vine pe fondul creșterii numărului de melodii create cu ajutorul instrumentelor AI care imită artiștii, găzduite pe platforme de streaming precum YouTube și SoundCloud. Asemănările generate de AI au reprezentat, de asemenea, un punct cheie în grevele și negocierile actorilor de la Hollywood, sindicatul Screen Actors Guild-Federația Americană a Artiștilor de Televiziune și Radio (SAG-AFTRA) susținând propunerea. Pe 11 octombrie, SAG-AFTRA a declarat că negocierile cu Alianța Producătorilor de Film și Televiziune (AMPTP) au eșuat, susținând că aceasta din urmă a refuzat „să protejeze artiștii de a fi înlocuiți de AI”, printre alte motive.

Într-o declarație din aceeași zi, AMPTP a spus: „Este clar că decalajul dintre AMPTP și SAG-AFTRA este prea mare, iar conversațiile nu ne mai mută într-o direcție productivă”. Pe 27 septembrie, Writer’s Guild of America (WGA) și-a încheiat greva după aproape cinci luni după ce sindicatul a ajuns la un acord cu AMPTP privind utilizarea AI în camerele scriitorilor, împreună cu salarii mai mari și contracte mai echitabile.

Sursă foto: eweek.com

China stabilește reguli mai stricte pentru antrenarea modelelor generative de AI

Proiectul de lege subliniază că datele care fac obiectul cenzurii pe internetul chinez nu ar trebui să servească drept material de instruire pentru aceste modele.

China a lansat reglementări de securitate pentru companiile care furnizează servicii de inteligență artificială generativă (AI), cuprinzând restricții privind sursele de date utilizate pentru formarea modelelor AI.

Miercuri, 11 octombrie, regulamentele propuse au fost eliberate de Comitetul Național de Standardizare a Securității Informației, format din reprezentanți ai Administrației Cyberspace din China (CAC), Ministerului Industriei și Tehnologiei Informației și agențiilor de aplicare a legii.

AI generativ, așa cum este exemplificat de către ChatGPT de la OpenAI, dobândește capacitatea de a îndeplini sarcini prin analiza datelor istorice și generează conținut nou, cum ar fi text și imagini, pe baza acestei instruiri.

Comitetul recomandă efectuarea unei evaluări de securitate a conținutului utilizat pentru a antrena modele AI generative accesibile publicului. Conținutul care depășește „5% sub formă de informații ilegale și dăunătoare” va fi desemnat pentru lista neagră. Această categorie include conținut care susține terorismul, violența, subversia sistemului socialist, prejudiciul adus reputației țării și acțiunile care subminează coeziunea națională și stabilitatea societății.

Proiectul subliniază, de asemenea, că datele care fac obiectul cenzurii pe internetul chinez nu ar trebui să servească drept material de instruire pentru aceste modele. Această evoluție vine la puțin peste o lună după ce autoritățile de reglementare au acordat permisiunea diferitelor companii de tehnologie chineză, inclusiv proeminentului motor de căutare Baidu, să-și introducă publicul larg chatboții generativi bazați pe inteligență artificială.

Din aprilie, CAC și-a comunicat în mod constant cerința ca companiile să furnizeze evaluări de securitate organismelor de reglementare înainte de a introduce publicului servicii generative bazate pe inteligență artificială. În iulie, autoritatea de reglementare a spațiului cibernetic a lansat un set de linii directoare care reglementează aceste servicii, despre care analiștii din industrie au remarcat că sunt considerabil mai puțin împovărătoare în comparație cu măsurile propuse în proiectul inițial din aprilie.

Proiectul de prevederi de securitate recent dezvăluit necesită ca organizațiile implicate în instruirea acestor modele AI să obțină consimțământul explicit de la persoanele ale căror date personale, care includ informații biometrice, sunt folosite pentru instruire. În plus, orientările includ instrucțiuni cuprinzătoare privind prevenirea încălcărilor legate de proprietatea intelectuală.

Națiunile din întreaga lume se luptă cu stabilirea cadrelor de reglementare pentru această tehnologie. China consideră AI ca un domeniu în care aspiră să concureze cu Statele Unite și și-a stabilit target-ul de a deveni un lider global în acest domeniu până în 2030.

Biden ia în considerare înăsprirea controalelor cipurilor AI către China prin intermediul unor părți terțe

Restricțiile suplimentare luate în considerare de administrația Biden ar încerca să vizeze modalitățile prin care dezvoltatorii chinezi ar putea accesa cipurile semiconductoare AI fabricate în SUA.

Potrivit unui raport de la Reuters din 13 octombrie, oamenii apropiați de această problemă au spus că administrația Biden vizează o lacună care a permis dezvoltatorilor din China să cumpere cipuri din infama zonă de electronice Huaqiangbei din Shenzhen, un oraș din sudul Chinei.

Sursele susțin că regulile suplimentare privind cipurile AI vor apărea în această lună și vor aplica restricții aplicate anterior doar jucătorilor de top din SUA, cum ar fi Nvidia și AMD, dar mai larg tuturor companiilor care produc materiale similare pe piață. Pe parcursul verii, guvernul SUA a aplicat reguli suplimentare celor mai mari producători de cipuri, inclusiv Nvidia, care în prezent este lider pe piața producției de cipuri. A cerut companiilor să reducă exporturile de cipuri semiconductoare de nivel înalt către „unele” țări din Orientul Mijlociu, printre alte detalii mici.

Cu toate acestea, autoritățile de reglementare din SUA au negat de atunci că au blocat în mod explicit exporturile de cipuri AI către Orientul Mijlociu. Ca răspuns, Nvidia a avertizat autoritățile de reglementare că rezultatele pe termen lung în venituri ar putea fi „vătămate” dacă compania este „exclusă efectiv din toată China sau din o parte a acesteia”. Majoritatea veniturilor Nvidia provin din SUA, China și Taiwan, în timp ce mai puțin de 14% provin din toate celelalte țări la un loc.

Sursele lui Reuter au spus că administrația Biden încearcă, de asemenea, să remedieze o lacună care permite părților chineze accesul la furnizorii de servicii cloud din SUA precum Amazon Web Services (AWS). Potrivit raportului, acele soluții par „mai puțin clare”. În iulie, oficialii americani au început să analizeze restricțiile privind accesul la servicii de cloud computing, cum ar fi AWS, de către companiile chineze, într-un efort de a proteja tehnologia avansată a țării.

SUA și-au implementat controalele inițiale ale exporturilor asupra celei mai puternice tehnologii cu cip semiconductor în octombrie 2022. Washingtonul a înăsprit măsurile și încă ia în considerare luarea de măsuri suplimentare pentru a limita și mai mult puterea de calcul a cipurilor disponibile pe piața chineză. China a acționat, de asemenea, ca răspuns la măsurile din ce în ce mai înăsprite din partea Statelor Unite. În iulie, a anunțat că va controla exporturile de galiu și germaniu, două materiale primare pentru producția de cipuri AI.

Sursă foto: maginative.com

Investițiile cripto înregistrează cea mai buna evoluție din iulie

Produsele de investiții în criptomonede au înregistrat fluxuri pentru a doua săptămână consecutiv, însumând 78 de milioane de dolari, potrivit CoinShares.

Produsele de investiții în active digitale au continuat să înregistreze intrări semnificative în ultima săptămână, atingând cele mai mari niveluri de volum din iulie 2023, potrivit unui nou raport. Acestea au înregistrat fluxuri pentru a doua săptămână consecutiv, în valoare totală de 78 de milioane de dolari, a raportat firma de administrare a activelor cripto CoinShares în raportul de analiză săptămânal din 9 octombrie.

Potrivit CoinShares, volumele de produse cripto tranzacționate la bursă (ETP) au crescut și ele cu 37% săptămâna trecută, ajungând la 1,1 miliarde de dolari. Volumul Bitcoin a crescut cu 16% pe bursele de încredere, notează raportul.

Solana – a opta cea mai mare criptomonedă după capitalizarea bursieră – a continuat să se afirme ca „altcoinul preferat”, deoarece intrările săptămânale ale sale au atins cel mai înalt nivel din martie 2022. Luni, 9 octombrie, criptomoneda a crescut cu aproximativ 14% în trecut. 30 de zile, dar a scăzut încă cu aproximativ 32% în ultimul an, conform datelor de la CoinGecko.

În ciuda creșterii generale semnificative a intrărilor de produse cripto, unele produse majore de investiții cripto au înregistrat mișcări mai reduse. Fondurile futures tranzacționate la bursă (ETF) din Statele Unite ale Americii Ethereum – care au debutat la tranzacționare pe 2 octombrie – au atras doar aproximativ 10 milioane de dolari în prima săptămână, evidențiind „apetitul cald”, a declarat CoinShares.

Pe lângă analiza în funcție de active, CoinShares a mai raportat că 90% din toate intrările de cripto active au venit din Europa, în timp ce S.U.A. și Canada au înregistrat intrări de doar 9 milioane de dolari la un loc. Potrivit datelor, Germania și Elveția au fost cele mai mari țări care au contribuit la creșterea fluxurilor, înregistrând intrări de 37,3 milioane de dolari, respectiv 31,3 milioane de dolari. Împreună, cele două țări au reprezentat 88% din totalul fluxului de produse cripto-active săptămâna trecută.

Vestea vine în timp ce CoinShares lucrează pentru a-și extinde operațiunile în SUA, introducând primele sale oferte în țară în septembrie 2023. Compania este încrezătoare că SUA este lider global în dezvoltarea și reglementarea activelor digitale.

UE analizează reglementări mai restrictive pentru AI

Negociatorii din UE iau în considerare restricții suplimentare pentru modelele mari de AI, cum ar fi ChatGPT-4 de la OpenAI, ca o componentă a viitorului său act AI.

Potrivit unui raport de la Bloomberg, reprezentanții din Uniunea Europeană negociază un plan pentru reglementări suplimentare privind cele mai mari sisteme de inteligență artificială (AI). Se spune că Parlamentul European, Comisia Europeană și diferitele state membre ale UE sunt în discuții cu privire la potențialele efecte ale modelelor lingvistice mari (LLM), inclusiv Llama 2 de la Meta și ChatGPT-4 de la OpenAI, și posibilele restricții suplimentare care le vor fi impuse ca o parte a viitorului AI Act.

Bloomberg raportează că surse apropiate subiectului au spus că obiectivul nu este de a suprasolicita noile startup-uri cu prea multe reglementări, menținând în același timp modelele mai mari sub control. Potrivit surselor, acordul la care au ajuns negociatorii pe această temă este încă în faze preliminare.

Legea AI și noile reglementări propuse pentru LLM ar fi o abordare similară cu Legea privind serviciile digitale (DSA) a UE. Legislatorii UE au implementat recent DSA, astfel încât platformele și site-urile web au standarde pentru a proteja datele utilizatorilor și a scana pentru activități ilegale. Cu toate acestea, cele mai mari platforme de pe web sunt supuse unor controale mai stricte.

Companiile din această categorie, precum Alphabet și Meta, au avut până pe 28 august să actualizeze practicile de service pentru a se conforma cu noile standarde UE. Actul AI al UE se presupune a fi unul dintre primul set de reguli obligatorii pentru IA instituit de un guvern occidental. China a adoptat deja propriul set de reglementări AI, care a intrat în vigoare în august 2023. Conform reglementărilor UE privind inteligența artificială, companiile care dezvoltă și implementează sisteme de inteligență artificială ar trebui să efectueze evaluări ale riscurilor, să eticheteze conținutul generat de inteligență artificială și li se interzică complet utilizarea supravegherii biometrice, printre alte măsuri.

Cu toate acestea, legislația nu a fost încă adoptată, iar statele membre au încă capacitatea de a nu fi de acord cu oricare dintre propunerile prezentate de parlament.

În China, de la implementarea legilor sale AI, s-a raportat că au fost deja lansate peste 70 de noi modele AI.

Sursă foto: roboticsandautomationnews.com

CIA își va construi propriul robot AI în stil ChatGPT pentru investigații

Agenția Centrală de Informații a Statelor Unite (CIA) intenționează să construiască și să implementeze propriul robot de inteligență artificială (AI) în stil ChatGPT pentru investigații, potrivit unui raport de la Bloomberg.

Se pare că CIA intenționează să-și echipeze analiștii cu noul instrument AI pentru a accesa mai bine informațiile open-source. Aceasta include cercetarea informațiilor publice pentru pistele în investigații.

Oficialii agenției au spus că intenționează să lanseze instrumentul în curând. Randy Nixon, directorul întreprinderii open source a CIA, a declarat pentru Bloomberg că au trecut de la utilizarea „ziarelor și radioului, la ziare și televiziune, la ziare și televiziune prin cablu, la internet, la baze de date și așa mai departe”. Dezvoltarea vine după ce criticii au descris metodele actuale prin care CIA procesează datele publice disponibile drept „lente”.

Bloomberg a raportat că noile instrumente vor permite utilizatorilor săi să vadă sursa originală a informațiilor obținute, împreună cu o funcție de chat. „Atunci puteți trece la nivelul următor și puteți începe să discutați și să puneți întrebări mașinilor pentru a vă oferi răspunsuri, de asemenea, din surse.” Nu s-a menționat nici modelul din care CIA își construiește noul instrument și nici protecția vieții private, deși Nixon a spus că „urmează îndeaproape” legea privind confidențialitatea din Statele Unite.

Instrumentul va fi disponibil în cele 18 agenții care alcătuiesc serviciile de informații din SUA. Acestea includ CIA, Agenția de Securitate Națională, Biroul Federal de Investigații și agențiile militare. Această evoluție din partea CIA vine după confirmarea recentă din partea altor agenții guvernamentale a utilizării AI. 

Pe 12 septembrie, Gary Gensler, președintele Comisiei pentru Valori Mobiliare și Schimb (SEC), a confirmat Senatului SUA că departamentul său folosește în prezent instrumente AI pentru a monitoriza industria financiară pentru a căuta indicii de fraudă și manipulare. Într-un discurs din 17 iulie, Gensler a lăudat utilizarea instrumentelor AI, spunând că personalul SEC ar putea beneficia de o utilizare mai frecventă a AI în „supravegherea pieței, examene, aplicarea legii și analiza economică”.

Mark Zuckerberg dezvăluie chatbot-ul Meta AI

Noul asistent AI, Meta AI, va fi disponibil inițial din 27 septembrie pentru un grup limitat de utilizatori din SUA. CEO-ul Meta, Mark Zuckerberg, a dezvăluit noul asistent alimentat de inteligență artificială (AI) al firmei sale – Meta AI – răspunsul său la ChatGPT de la OpenAI, care se va integra cu Instagram, Facebook, WhatsApp și, în cele din urmă, cu dispozitivele de realitate mixtă ale companiei.

Vorbind la evenimentul Meta Connect din 27 septembrie, Zuckerberg a explicat că Meta AI este alimentat de modelul de limbaj mare al companiei, Llama 2, și a fost construit în parteneriat cu Microsoft Bing pentru a permite utilizatorilor accesul la informații în timp real de pe internet. „Meta AI este asistentul tău de bază cu care poți vorbi ca o persoană.” Pe lângă faptul că răspunde la întrebări și vorbește cu utilizatorii, noul bot poate genera imagini, utilizând un nou instrument de generare de imagini numit Emu pe care Meta l-a antrenat pe 1,1 miliarde de date, inclusiv fotografii și subtitrări partajate de utilizatori pe Facebook și Instagram.

Remarcând principalul punct de diferență al Meta AI față de concurentul ChatGPT, Zuckerberg a spus că, în loc să creeze un chatbot unic, strategia generală a Meta a fost să creeze diferite produse AI pentru diferite cazuri de utilizare. Ca exemplu, el a arătat cum Meta AI ar fi ușor diferit în fiecare dintre aplicațiile de socializare ale companiei, oferind un exemplu despre cum ar putea fi adăugată la chat-urile de grup pe Facebook Messenger pentru a ajuta la organizarea planurilor de călătorie.

Zuckerberg a spus că chatbot-urile Meta nu sunt destinate doar să transmită informații utile. De asemenea, sunt concepute pentru a fi conversaționale și distractive. Prezentându-și produsele AI axate pe divertisment, Meta a anunțat, de asemenea, o colecție de chatboți bazată pe aproximativ 30 de celebrități, inclusiv Paris Hilton, Snoop Dogg și fostul jucător NFL Tom Brady.

Potrivit Meta, noul asistent AI va fi disponibil pe 27 septembrie pentru un grup limitat de utilizatori din Statele Unite pe Facebook Messenger, Instagram și WhatsApp. Meta AI va fi disponibil și pentru utilizatorii noilor ochelari inteligenți ai companiei, programați să fie lansate pe 17 octombrie pentru utilizatorii din SUA, precum și noul său dispozitiv Quest 3 VR.

Sursă foto: tribunewired.com