Săptămâna aceasta în AI – OpenAI estimează pierderi de 44 de miliarde de dolari, Meta AI se extinde

Un raport recent de la The Information a analizat proiecțiile financiare ale OpenAI, dezvăluind că nu se așteaptă ca firma să devină profitabilă până în 2029, când se preconizează că va genera venituri de 100 de miliarde de dolari. Până atunci, OpenAI anticipează pierderi semnificative de la un an la altul, care vor însuma 44 de miliarde de dolari între 2023 și 2028, cu un vârf estimat de pierderi de 14 miliarde de dolari în 2026.

Cea mai mare cheltuială a companiei este puterea de calcul – infrastructura necesară pentru a antrena și rula modelele sale de inteligență artificială (AI). Cheltuielile în acest domeniu sunt proiectate să ajungă la 9,5 miliarde de dolari anual până în 2026; aceste costuri includ resursele de calcul de înaltă performanță (cipuri de calculator), consumul de energie electrică, stocarea datelor și dezvoltarea continuă a algoritmilor.

Raportul mai afirmă că OpenAI le prezintă investitorilor o proiecție alternativă, care arată că firma devine profitabilă în 2026, dacă se exclud cheltuieli precum costurile de antrenare a modelelor sale.

Deși este un semn pozitiv faptul că analiștii prevăd profitabilitatea în viitorul OpenAI, mai ales în contextul preocupărilor legate de momentul în care liderii din domeniul AI vor începe să obțină profituri, aceștia ridică și o întrebare esențială: Va reuși OpenAI să ajungă până în 2029 fără o restructurare financiară semnificativă? Nu este un secret că firma are un consum semnificativ de capital, iar acest nou raport subliniază amploarea cheltuielilor sale.

Chiar dacă OpenAI a strâns recent peste 6 miliarde de dolari la o evaluare de 157 de miliarde de dolari, aceasta este doar o fracțiune din cele 44 de miliarde de dolari pe care se estimează că le va cheltui înainte de a deveni profitabilă. Dacă firma nu își schimbă modelul de afaceri, nu descoperă modalități inovatoare de a reduce costurile operaționale sau nu obține finanțare suplimentară, OpenAI va trebui, cel mai probabil, să strângă capital cel puțin o dată înainte de a obține profit peste cinci ani.

John Hopfield și Geoffrey Hinton câștigă Premiul Nobel

Doi oameni de știință, John Hopfield și Geoffrey Hinton, au fost premiați cu Premiul Nobel pentru Fizică pentru contribuțiile lor la machine learning.

Hopfield a dezvoltat o rețea neuronală capabilă să stocheze și să reconstruiască modele, oferind perspective asupra modului în care creierul uman își amintește informații când primește date parțiale; munca sa a modelat memoria asociativă, făcând o legătură între neuroștiință și modelele computaționale.

Ani mai târziu, Hinton a creat mașina Boltzmann, un tip de rețea neuronală care folosește decizii aleatorii pentru a învăța reprezentări interne ale datelor; această inovație a îmbunătățit capacitatea rețelei de a recunoaște modele complexe și de a îmbunătăți deciziile viitoare. Hinton, care și-a părăsit rolul de cercetător la Google în 2023 din cauza îngrijorărilor legate de riscurile potențiale ale AI pentru umanitate, a fost un susținător vocal al considerațiilor etice în dezvoltarea inteligenței artificiale.

Deși sunt conduse de calculatoare, ambele rețele au fost inspirate de fizică și probleme de fizică. Hopfield spune că nu și-a imaginat că lucrarea sa va fi utilă în învățarea automată, dar recunoaște că există intersecții naturale între biologie, fizică și AI.

Faptul că Academia Regală Suedeză de Științe, entitatea care acordă Premiul Nobel pentru Fizică, a decis să coreleze premiul din acest an cu machine learning și AI reflectă climatul actual de inovație și arată că inteligența artificială atrage încă atenția globală. Deși tehnologiile AI orientate către consumatori, precum chatbot-urile, au dominat recent titlurile, progresele științifice din domeniul AI au adesea un impact mai profund asupra lumii.

Meta AI se extinde în 6 noi țări

Meta a anunțat că va lansa Meta AI în șase noi țări: Filipine, Bolivia, Guatemala, Paraguay, Regatul Unit și Brazilia – cele două națiuni unde anterior și-a suspendat operațiunile AI din cauza preocupărilor legate de date și confidențialitate.

Utilizatorii din aceste țări vor avea acum acces la Meta AI prin Facebook, Instagram, WhatsApp, aplicațiile Messenger, site-ul Meta.ai și ochelarii Ray-Ban Meta Glasses. Meta AI este un asistent care gestionează întrebări text și vocale și analizează imagini, oferind în mod eficient funcționalități similare altor chatboți AI avansați de pe piață.

Anterior, Meta s-a confruntat cu obstacole semnificative în lansarea serviciilor sale AI în Regatul Unit și Brazilia din cauza preocupărilor exprimate de autoritățile de protecție a datelor din fiecare țară. Cu toate acestea, compania a găsit o scăpare juridică prin susținerea faptului că Meta AI reprezintă un „interes legitim” în operațiunile comerciale. Aceasta îi permite să justifice utilizarea datelor consumatorilor fără consimțământul lor, deoarece compania susține că este necesar pentru atingerea obiectivelor sale de afaceri; în special, Meta afirmă că aceste date vor ajuta AI-ul să reflecte mai bine diversitatea populației, ceea ce este esențial pentru operațiunile sale comerciale.

Însă oare cum vor proceda companiile precum Meta în țările axate pe confidențialitatea datelor, precum Regatul Unit? Sau dacă reglementările vor fi considerate prea restrictive și dacă furnizorii de servicii AI vor opta să nu opereze în astfel de țări din acest motiv? Cu toate acestea, odată ce Meta a găsit o modalitate de a-și relua operațiunile atât în Regatul Unit, cât și în Brazilia – țări unde anterior și-a oprit serviciile din cauza problemelor de confidențialitate – este clar că firmele vor găsi soluții sau compromisuri pentru a-și menține prezența globală. Dacă ar alege să nu opereze la nivel mondial, ar pierde prea multe venituri și, mai important pentru modelele lingvistice mari, date valoroase pentru antrenament.

Sursă foto: financialexpress.com

Giganții tehnologiei NVIDIA și OpenAI văd India conducând revoluția IA

Giganții tehnologici Nvidia și OpenAI sunt hotărâți să susțină ambițiile Indiei în domeniul inteligenței artificiale (IA) și consideră că India nu doar că va modela revoluția IA, dar va conduce această transformare.

„Ideea unei IA suverane rezidă în faptul ca o națiune să dețină și să proceseze propria sa inteligență. Prin aceasta, India nu doar că va participa la revoluția IA, ci va contribui la modelarea ei,” a declarat Vishal Dhupar, director managing pentru Asia de Sud la Nvidia, lider mondial în calculul IA, la Summitul Global India AI, un eveniment de două zile care a implicat veterani din industrie și startup-uri, practicieni AI, academicieni, studenți și oficiali guvernamentali naționali și provinciali.

India, cea mai rapidă economie majoră în creștere din lume, își propune să devină un furnizor global de servicii IT și o superputere în produsele IT, profitând de tehnologie pentru a stimula creșterea economică și recunoașterea internațională. În 2024, India a preluat președinția GPAI (Parteneriatul Global pentru Inteligență Artificială). GPAI este o inițiativă multi-stakeholder cu 29 de țări membre, care își propune să reducă decalajul între teorie și practică prin susținerea cercetării și activităților aplicate în prioritățile legate de IA.

„Avem India în minte în toate deciziile importante pe care le luăm,” a declarat Srinivas Narayanan, vicepreședinte OpenAI, creatorul ChatGPT, în cadrul Summitului Global India AI.

Declarațiile oficialilor de top de la Nvidia și OpenAI vin într-un moment în care puterea din Asia de Sud a afirmat că intenționează să “democratizeze” tehnologia și IA și să o facă accesibilă tuturor, investind simultan în platforme publice comune cu focalizare pe IA, care pot fi utilizate de toți pentru a inova, dezvolta și livra produse și servicii.

„India, desigur, va construi propria autostradă națională pentru IA. Această autostradă va fi pentru economia de mâine. Va permite cetățenilor să o acceseze. Va permite cercetătorilor noștri să exploreze, să inventeze și să inoveze,” a declarat Dhupar de la Nvidia.

„Cu autostrăzile naționale [de IA], vom avea posibilitatea să codificăm cultura noastră bogată, simțul comun propriu, sensibilitățile noastre într-un model de limbă extins și dincolo de el. Misiunea noastră va fi să explorăm lumi de la biologie la fizică, de la sănătate la climă,” a adăugat Dhupar.

În acest month, Nvidia a semnat un memorandum de înțelegere cu Thapar Institute of Engineering & Technology (TIET) din India pentru a înființa Thapar School of Advanced AI & Data Science (TSAAI) cu suport tehnic din partea programului Nvidia AI University. Colaborarea își propune să ofere o gamă de programe academice, oportunități de cercetare și proiecte de inovare pentru a dota atât studenții, cât și facultatea cu abilități și cunoștințe esențiale în domeniul IA.

În luna iunie, giganții software IBM, Microsoft și Asociația Națională a Companiilor de Software și Servicii (NASSCOM) au colaborat cu guvernul provincial Gujarat pentru a promova utilizarea inteligenței artificiale în statul indian din vest. Parteneriatul își propune să înființeze și să promoveze un „Cluster de AI” pentru a stimula inovația și colaborarea între instituțiile financiare la Gujarat International Finance Tec (GIFT) City.

Misiunea strălucitoare a Indiei în domeniul IA

Narayanan de la OpenAI a declarat că misiunea Indiei în domeniul IA este „un exemplu strălucitor” și reprezintă un exemplu excelent nu doar pentru Sudul Global, ci și pentru întreaga lume privind cum ar putea arăta o investiție publică completă în IA generativă.

„India are o abordare unică pentru a face această tehnologie benefică pentru oameni prin inițiative precum infrastructura publică digitală, care a creat servicii transformative precum Interfața Unificată de Plăți (UPI),” a spus Narayanan.

În martie, India a aprobat 1,24 miliarde de dolari pentru următorii cinci ani pentru a stimula ecosistemul său de IA, inovația și antreprenoriatul. Inițiativa este așteptată să consolideze statutul de lider global al Indiei în domeniul IA și să asigure implementarea etică și responsabilă a IA.

India va achiziționa peste 10.000 de unități de procesare grafică (GPU-uri) pentru a răspunde nevoilor sale de capacitate de calcul și pentru a dezvolta un ecosistem de IA de înaltă performanță.

„Am lansat ChatGPT acum doar 1,5 ani. Am crezut că va fi o prezentare de cercetare mai discretă, dar în ultimele 18 luni am văzut că oamenii îl folosesc în moduri cu adevărat transformaționale și impactează viețile oamenilor în toate felurile de moduri pe care nu le-am imaginat,” a spus Narayanan de la OpenAI.

„În India, acest lucru a creat o nouă interfață pentru calcul. Este o modalitate naturală de a interacționa cu tehnologia, care este conversațională, și o folosim pentru a realiza lucruri. Ceea ce arată acest lucru este că atunci când ai sisteme general inteligente, oamenii le pot folosi într-o varietate de aplicații diferite. Furnizarea de expertiză la scară este una dintre cele mai importante provocări pentru societate și așa că vedem IA fiind folosită în multe industrii noi în întreaga lume,” a subliniat Narayanan.

Conform unui raport al International Data Corporation (IDC), adoptarea IA și a IA generativă (GenAI) în India – inclusiv software, servicii și hardware pentru sisteme centrate pe IA – a crescut semnificativ. Cheltuielile sunt proiectate să atingă 6 miliarde de dolari până în 2027 și au o rată de creștere anuală compusă de 33,7% pentru perioada 2022-2027. În comparație, IDC estimează că cheltuielile globale cu IA vor depăși 512 miliarde de dolari până în 2027, mai mult decât dublu față de dimensiunea pieței în 2024.

Sursă foto: oecd.ai

Un nou comitet OpenAI asigură securitate robustă pentru proiectele viitoare de AI pe măsură ce lansarea GPT-5 se apropie

OpenAI a anunțat crearea unui Comitet pentru Siguranță și Securitate pentru a oferi îndrumări experte privind utilizarea produselor viitoare ale companiei de inteligență artificială (AI).

Într-o declarație, OpenAI a spus că noul comitet va fi organismul principal responsabil de a face recomandări întregului consiliu de administrație cu privire la deciziile de siguranță, în urma desființării echipei super alignment. Comitetul, format din directorii companiei Bret Taylor, Adam D’Angelo, Nicole Seligman și CEO-ul Sam Altman, are sarcina de a elabora un plan de siguranță pentru companie.

Comitetul nou înființat este așteptat să evalueze și să raporteze cu privire la liniile directoare existente de siguranță ale companiei în termen de 30 de zile, împărtășind recomandările cu Consiliul. În loc să adopte o abordare închisă, recomandările comitetului vor fi împărtășite publicului pentru a obține feedback de la consumatori și alte părți interesate.

Jakub Pachocki, Chief Scientist al OpenAI, Matt Knight, Head of Security, Lilian Weng, Head of Safety Systems, Aleksander Madry, Head of Preparedness, și John Schulman, Head of Alignment Science, vor consolida comitetul. Compania intenționează, de asemenea, să adauge o serie de experți tehnici echipei, pe măsură ce caută opțiuni dincolo de cele interne.

În timp ce comitetul de siguranță se pregătește pentru sarcina dificilă care urmează, brațul tehnic al companiei avansează spre lansarea unui nou model AI pentru a înlocui GPT-4. Noua versiune, despre care se vorbește că va fi a cincea din serie, este de așteptat să includă un mod vocal pentru funcționalități de asistent digital.

În prezent, OpenAI nu a anunțat încă un calendar pentru lansarea succesorului lui GPT-4, dar lansările recente de la Google, Meta și Anthropic ar putea forța compania să realizeze o lansare comercială în lunile următoare.

“OpenAI a început recent antrenarea modelului său de frontieră și anticipăm că sistemele rezultate ne vor duce la următorul nivel de capabilități pe drumul nostru către AGI,” se arată în declarație. “Deși suntem mândri să construim și să lansăm modele care sunt lideri în industrie atât în ceea ce privește capabilitățile, cât și siguranța, încurajăm o dezbatere amplă în acest moment important.”

Deși OpenAI afirmă că va fi transparentă în procesul de creare a noului model de frontieră, compania nu a dezvăluit încă informații despre calendar, datele de antrenament sau integrarea cu alte tehnologii emergente.

Demisionând în mijlocul furtunii

Vorbele despre un nou comitet de siguranță vin în urma demisiei fostului cercetător OpenAI, Jan Leike, în urma problemelor legate de politica de siguranță a companiei. Leike a argumentat că compania a trecut siguranța pe plan secund în favoarea produselor sale atrăgătoare, cu Altman recunoscând că OpenAI are “mult mai mult de făcut”.

Compania a fost lovită de o serie de demisii de profil înalt în ultimele săptămâni, inclusiv plecările mai multor membri esențiali ai echipei, printre care fostul Șef Științific Ilya Sutskever. La mai puțin de un an după ce a înființat o echipă Superalignment cu Sutskever și Leike, OpenAI a închis proiectul, generând îndoieli cu privire la poziția companiei în ceea ce privește siguranța.

Sursă foto: futurumgroup.com

OpenAI dorește un parteneriat cu CNN, Fox și Time pentru a asigura licențierea conținutului de știri

OpenAI a deschis conversații cu rețele de televiziune majore, inclusiv CNN, Fox și Time, despre acordarea de licențe pentru munca lor îninstruirea AI pentru a evita încălcările drepturilor de autor, potrivit unui raport de la Bloomberg. Se pare că OpenAI încearcă să încheie înțelegeri cu giganții media care produc știri, videoclipuri și alte tipuri de conținut media digital pentru a ajuta la îmbunătățirea acurateței și a actualizării chatbot-urilor AI.

OpenAI a spus că discută despre articole de licențiere de la CNN pentru a instrui ChatGPT și a prezenta conținutul său în produsele OpenAI. Atât CNN, cât și Fox discută despre licențiere text, video și imagini.

Pe 9 ianuarie, Fox Corp a anunțat lansarea unei platforme blockchain bazată pe Polygon pentru a ajuta la verificarea utilizării conținutului de către firmele de inteligență artificială.

Jessica Sibley, CEO al Time, a lansat o declarație în care spune că este în discuții cu OpenAI și că „suntem optimiști în ceea ce privește ajungerea la un acord care să reflecte valoarea justă a conținutului nostru”.

În acest moment, chatbot-ul AI gratuit și disponibil public al OpenAI, ChatGPT-3.5, este echipat cu date de antrenament doar până în ianuarie 2022. Cu toate acestea, în septembrie 2023, OpenAI a anunțat că modelele sale premium și enterprise care rulează ChatGPT-4 pot naviga acum pe internet și nu se mai limitează la cronologia instruirii.

Inițiativa OpenAI de a crea acorduri de licențiere cu companiile media ar trebui, în esență, să-l salveze compania în continuare de problemele privind încălcările drepturilor de autor. Acest lucru vine pe măsură ce OpenAI se confruntă cu mai multe procese cu privire la presupusa încălcare a drepturilor de autor a conținutului pe care l-a folosit pentru a-și antrena modelele AI. Cel mai important proces este unul intentat de The New York Times pe 27 decembrie, care susține că utilizarea de către OpenAI a conținutului său în cursuri de formare „nu este o utilizare loială sub nicio măsură” și că rezultatul acestei utilizări amenință activitatea sa jurnalistică. O săptămână mai târziu, un alt proces a fost intentat împotriva OpenAI de către autorii Nicholas Basbanes și Nicholas Gage, care au susținut că deținătorii de drepturi de autor ar trebui să fie compensați pentru utilizarea muncii lor în formarea AI. Pe 9 ianuarie, OpenAI a răspuns oficial la acuzațiile NYT, numindu-le „fără merit” și declarând că discută cu organizațiile media despre colaborări și parteneriate pentru licențierea conținutului și integrarea AI.

Sursă foto: arstechnica.com

OpenAI și Microsoft date în judecată pentru presupusa utilizare neautorizată a lucrărilor unor autorilor

Julian Sancton, un autor și reporter de la Hollywood, acuză Microsoft că este conștient de accesarea OpenAI a materialelor protejate prin drepturi de autor.

OpenAI și Microsoft se confruntă cu un proces care susține utilizarea necorespunzătoare a lucrării autorilor de non-ficțiune pentru a instrui modele AI, inclusiv serviciul ChatGPT al OpenAI. Autorul și reporterul Julian Sancton a dat companiile în judecată pe 21 noiembrie.

Potrivit plângerii lui Sancton, OpenAI ar fi folosit zeci de mii de cărți non-ficțiune fără autorizație pentru a-și antrena modelele lingvistice extinse pentru a răspunde la solicitările de text uman. Autorul și editorul Hollywood Reporter conduce o propunere colectivă intentată la o instanță federală din New York.

Această acțiune în justiție se numără printre alte câteva inițiate de proprietarii drepturilor de autor, precum autorii John Grisham, George R.R. Martin și Jonathan Franzen, împotriva OpenAI și a altor firme de tehnologie. Acuzațiile implică presupusa utilizare abuzivă a muncii lor pentru a instrui sistemele AI. Companiile implicate au respins afirmațiile.

Procesul lui Sancton subliniază implicarea Microsoft în generarea de copii fără licență ale lucrărilor autorilor pentru datele de instruire și dezvoltarea tehnologiei generative bazate pe transformatoare pre-antrenate. Sancton acuză, de asemenea, Microsoft că este conștient de accesarea fără discernământ a OpenAI pe internet de materiale protejate prin drepturi de autor.

Procesul vine pe fondul unei mișcări neașteptate a Microsoft, care l-a angajat pe Sam Altman să conducă noua sa divizie de inteligență artificială după îndepărtarea sa din OpenAI. Într-o întoarcere surprinzătoare, pe 22 noiembrie, OpenAI a anunțat un nou acord prin care Altman va reveni în funcția de CEO. Compania a confirmat afacerea într-o postare pe contul său oficial X (fostul Twitter).

Deși OpenAI se confruntă cu mai multe procese de încălcare a drepturilor de autor, Microsoft a scăpat în mare măsură de control, în ciuda introducerii unei game de produse integrate cu ChatGPT.

Acțiunea în justiție a lui Sancton reprezintă prima dată când un autor a dat în judecată OpenAI în timp ce numește Microsoft drept acuzat. Cu investiții substanțiale în startup-ul AI, Microsoft a încorporat sistemele OpenAI în ofertele sale de produse.

Oamenii de știință dezvoltă un agent de monitorizare AI pentru a detecta și opri rezultatele nesigure

Sistemul de monitorizare este conceput pentru a detecta și a contracara atât atacurile cu injecție promptă, cât și amenințările marginale.

O echipă de cercetători de la firma de inteligență artificială (AI) AutoGPT, Northeastern University și Microsoft Research au dezvoltat un instrument care monitorizează modelele de limbaj mari (LLM) pentru rezultate potențial dăunătoare și le împiedică să se execute.

Agentul este descris într-o lucrare de cercetare preliminară intitulată „Testarea agenților model de limbaj în siguranță în sălbăticie” (“Testing Language Model Agents Safely in the Wild.”). Potrivit cercetării, agentul este suficient de flexibil pentru a monitoriza LLM-urile existente și poate opri output-urile dăunătoare, cum ar fi atacurile de cod, înainte ca acestea să se producă.

Conform cercetării: „Acțiunile agenților sunt auditate de un monitor sensibil la context care impune o limită strictă de siguranță pentru a opri un test nesigur, cu comportamentul suspect clasat și înregistrat pentru a fi examinat de oameni”.

Echipa declară că instrumentele existente pentru monitorizarea rezultatelor LLM pentru interacțiuni dăunătoare par să funcționeze bine în stadiul de laborator, dar atunci când sunt aplicate la modelele de testare deja în producție pe internetul deschis, „deseori nu reușesc să surprindă complexitățile dinamice ale lumii reale”.

Acest lucru, aparent, se datorează existenței cazurilor marginale. În ciuda eforturilor celor mai talentați informaticieni, ideea că cercetătorii își pot imagina fiecare vector posibil înainte de a se întâmpla este considerată în mare măsură o imposibilitate în domeniul AI.

Chiar și atunci când oamenii care interacționează cu AI au cele mai bune intenții, daune neașteptate pot apărea din îndemnuri aparent inofensive.

Pentru a instrui agentul de monitorizare, cercetătorii au creat un set de date de aproape 2.000 de interacțiuni sigure între om și AI în 29 de sarcini diferite, de la sarcini simple de recuperare a textului și corecții de codare până la dezvoltarea paginilor web întregi de la zero. Ei au creat, de asemenea, un set de date de testare concurent, plin cu rezultate adverse create manual, inclusiv zeci concepute intenționat pentru a fi nesigure. Seturile de date au fost apoi folosite pentru a antrena un agent pe GPT 3.5 turbo al OpenAI, un sistem de ultimă generație, capabil să facă distincția între ieșirile inofensive și potențial dăunătoare cu un factor de precizie de aproape 90%.

Sursă foto: computas.com