ChatGPT trece examenul neurologic pentru prima dată

Cea mai recentă actualizare a OpenAI a modelului său de limbă mare (LLM), ChatGPT 4.0, a trecut un examen de neurologie clinică cu 85% răspunsuri corecte într-un studiu de dovadă a conceptului. Autorii cercetării cred că, după unele reglaje, LLM-urile ar putea avea „aplicații semnificative” în neurologia clinică. Rezultatele experimentului, realizat de un grup de cercetători de la Spitalul Universitar Heidelberg și Centrul German de Cercetare a Cancerului din Heidelberg, au fost publicate pe 7 decembrie. Testul, efectuat pe 31 mai, a inclus două LLM, ChatGPT 3.5 și mai târziu. versiunea, ChatGPT 4.0.

Cercetătorii au folosit setul de întrebări pentru un examen de neurologie de la Consiliul American de Psihiatrie și Neurologie cu o mică cohortă de întrebări de la Consiliul European pentru Neurologie.

În timp ce versiunea mai veche a ChatGPT a obținut un scor de 66,8%, răspunzând corect la 1306 de întrebări din 1956, modelul mai recent, ChatGPT 4.0, a câștigat 85% cu 1662 de răspunsuri corecte. Scorul mediu uman a fost de 73,8%. ChatGPT 4.0 a depășit utilizatorii umani la întrebările comportamentale, cognitive și psihologice și a „trecut” efectiv examenul de neurologie, deoarece 70% dintre răspunsurile corecte sunt în general considerate un scor de trecere în instituțiile de învățământ.

Cu toate acestea, ambele modele au demonstrat performanțe mai slabe în sarcinile care necesită „gândire de ordin superior” decât întrebările care necesită doar „gândire de ordin inferior”.

Potrivit grupului de cercetători care efectuează experimentul, aceste rezultate servesc drept recomandare de utilizare a LLM-urilor în neurologia clinică după unele modificări: „Aceste constatări sugerează că, cu perfecționări suplimentare, modelele mari de limbaj ar putea avea aplicații semnificative în neurologia clinică”.

Cercetătorii subliniază că încă sunt rezervați. Deși există o perspectivă clară pentru aplicarea LLM-urilor în documentarea și sistemele de sprijin pentru luarea deciziilor, neurologii ar trebui să fie precauți cu privire la utilizarea lor în practică, deoarece sunt încă imperfecți în ceea ce privește sarcinile cognitive de ordin înalt. Unul dintre autorii studiului, dr. Varun Venkataramani, a spus: “Vedem studiul nostru mai mult ca o dovadă a conceptului pentru capacitățile LLM-urilor. Există încă nevoie de dezvoltare și, probabil, chiar o reglare fină specifică a LLM-urilor pentru a le face aplicabile în mod corespunzător pentru neurologia clinică. „

AI lucrează deja la unele sarcini majore din domeniul sănătății, cum ar fi găsirea remediului pentru cancer pentru AstraZeneca sau combaterea prescripției excesive de antibiotice în Hong Kong.

Oficialii UE ajung la un acord „istoric” de reglementare a AI

Acordul obligă modele precum ChatGPT și AI în general să urmeze regulile de transparență înainte de intrarea pe piață.

Negociatorii Parlamentului European și ai Consiliului au ajuns la un acord provizoriu cu privire la regulile care reglementează utilizarea inteligenței artificiale vineri, 8 decembrie.

Acordul acoperă utilizarea guvernamentală a AI în supravegherea biometrică, modul de reglementare a sistemelor AI, cum ar fi ChatGPT, și regulile de transparență care trebuie urmate înainte de intrarea pe piață. Aceasta acoperă documentele tehnice, respectarea drepturilor de autor ale Uniunii Europene și partajarea rezumatelor conținutului de formare.

UE dorește să fie prima autoritate supranațională cu legi privind AI, specificând modul în care aceasta va fi utilizată în mod benefic, protejând în același timp împotriva riscurilor. Acordul a fost încheiat în urma unei dezbateri de aproape 24 de ore pe 8 decembrie și după 15 ore de negocieri.

Acordul prevede că modelele AI cu impact semnificativ și riscuri sistemice trebuie să evalueze și să abordeze aceste riscuri, să efectueze teste contradictorii pentru rezistența sistemului, să raporteze incidentele Comisiei Europene, să asigure securitatea cibernetică și să dezvăluie eficiența energetică. „Implementarea corectă va fi esențială – Parlamentul va urmări cu atenție sprijinirea noilor idei de afaceri cu sandbox și reguli eficiente pentru cele mai puternice modele.”

După încheierea înțelegerii, comisarul european pentru piața internă Thierry Breton a postat pe X (fostul Twitter) „Istoric! #AIAct este mult mai mult decât un cadru de reguli – este o rampă de lansare pentru startup-urile și cercetătorii din UE pentru a conduce cursa globală de inteligență artificială. Ce-i mai bun are să vină!”

Conform acordului, inteligența artificială de uz general cu riscuri trebuie să urmeze coduri. Guvernele pot utiliza supravegherea biometrică în timp real doar în cazuri specifice, cum ar fi anumite infracțiuni sau amenințări severe în spațiile publice.

Acordul interzice manipularea cognitiv-comportamentală, imitarea imaginilor faciale de pe internet sau înregistrări CCTV, scorul social și sistemele biometrice care deduc detalii personale precum convingerile și orientarea. Consumatorii ar avea dreptul de a depune reclamații și de a obține explicații.

Amenzile pentru încălcări ale regulilor ar varia de la 7,5 milioane de euro (8,1 milioane de dolari) sau 1,5% din cifra de afaceri până la 35 de milioane de euro (37,7 milioane de dolari) sau 7% din cifra de afaceri globală, în funcție de nivelul de  încălcarea a regulilor și dimensiunea companiei.

Potrivit declarației Parlamentului European, textul convenit va trebui acum să fie adoptat oficial de parlament și consiliu înainte de a deveni lege europeană. Comisiile pentru piața internă și libertățile civile ale parlamentului vor vota acordul la o ședință viitoare.

Sursă foto: newrepublic.com

Majoritatea utilizatorilor se tem că inteligența artificială folosește datele lor , conform unui sondaj privind confidențialitatea consumatorilor

Cercetările realizate de Cisco, fintech-ul global care lucrează pentru un viitor mai incluziv, a dezvăluit că consumatorii cu vârsta cuprinsă între 18 și 24 de ani au mai multe șanse să își acceseze drepturile de acces vizate (42%) decât consumatorii de peste 75 de ani (6%). Descoperirile, publicate în Cisco 2023 Consumer Privacy Survey fac parte din ancheta mai amplă a companiei cu privire la percepțiile și comportamentele consumatorilor cu privire la confidențialitatea datelor.

După apariția inteligenței artificiale (AI), 62% dintre consumatori și-au exprimat îngrijorarea în legătură cu utilizarea tehnologiei de către organizații și modul în care acestea interacționează cu datele lor. 60% au ajuns atât de departe încât au spus că și-au pierdut deja încrederea în firme din cauza utilizării AI.

Cu toate acestea, în ciuda îngrijorărilor, nu este totul sumbru pentru AI. 48% dintre respondenți au fost de acord că inteligența artificială poate fi de ajutor în îmbunătățirea vieții lor. 54% chiar au spus că vor împărtăși de bunăvoie date personale anonimizate pentru a îmbunătăți produsele AI și luarea deciziilor.

„Lumea urmărește modul în care companiile vor aborda AI într-un mod responsabil”, a declarat Dev Stahlkopf, vicepreședinte executiv Cisco și director juridic. „Pentru Cisco, asta înseamnă să ne concentrăm pe respectarea vieții private și a drepturilor omului, pe măsură ce încorporăm tehnologia AI.”

În ciuda apariției ChatGPT și a inteligenței artificiale generativă în 2023, peste jumătate (52 %) dintre respondenții la sondaj au spus că nu sunt conștienți de acest lucru.

Dintre cei care folosesc în mod regulat Gen AI (12%), doar jumătate au indicat că se abțin de la introducerea de informații personale sau confidențiale în aplicațiile Gen AI. Este de remarcat faptul că ceilalți 50% pot introduce într-adevăr informații personale sau confidențiale. Acest lucru se întâmplă în ciuda faptului că 88% dintre respondenți au indicat că ar fi „Oarecum” sau „Foarte” îngrijorați dacă datele lor introduse în Gen AI ar fi partajate.

Tinerii consumatori care susțin confidențialitatea datelor

Anul acesta, 33% dintre respondenți se califică drept „Activi în domeniul confidențialității”. Aceasta înseamnă că le pasă de confidențialitate și sunt dispuși să acționeze pentru a o proteja. Unii au acționat: de exemplu, schimbând între companii sau furnizori din cauza politicilor lor de date sau a practicilor de partajare a datelor.

Consumatorii mai tineri sunt cei mai dispuși să ia măsuri pentru a-și proteja confidențialitatea. 42% dintre consumatori, cu vârsta cuprinsă între 18 și 34 de ani, susțin confidențialitatea, un procent care scade constant odată cu vârsta.

Procentul consumatorilor care solicită ștergerea sau modificarea datelor a crescut la 19%, față de 14% anul trecut. Din nou, acest lucru este foarte corelat cu vârsta: 32% dintre consumatorii cu vârsta cuprinsă între 18 și 24 de ani fac solicitări de ștergere sau modificare a datelor, comparativ cu doar 4% dintre consumatorii mai în vârstă.

Conștientizarea publicului vizavi de legile privind confidențialitatea continuă să fie relativ scăzută, 46% dintre respondenți fiind conștienți de legea confidențialității din țara lor. Cei care cunosc legea au mai multe șanse să simtă că își pot proteja datele în mod adecvat.

Doar 40% dintre cei care nu cunosc legea țării lor simt că își pot proteja datele, comparativ cu 74% dintre cei care cunosc legea. 68% dintre consumatorii cu vârsta cuprinsă între 18 și 24 de ani consideră că își pot proteja datele, iar acest lucru scade treptat, până la 47% dintre consumatorii de peste 65 de ani care spun acest lucru.

Rolul legilor și guvernelor

Mulți consumatori se așteaptă la guvern a stabili standardele de siguranță și pentru a aplica protecția vieții private. Jumătate (50%) dintre respondenți au spus că administrația națională sau locală ar trebui să aibă rolul principal în protejarea datelor, în timp ce 21% au spus că companiile private ar trebui să fie în primul rând responsabile pentru protecția datelor.

„Pe măsură ce guvernele adoptă legi și companiile încearcă să creeze încredere, consumatorii trebuie, de asemenea, să ia măsuri și să folosească tehnologia în mod responsabil pentru a-și proteja propria confidențialitate”, spune Harvey Jang, vicepreședinte Cisco, consilier general adjunct și ofițer șef de confidențialitate.

Consumatorii sunt împărțiți în ceea ce privește valoarea localizării datelor. Majoritatea au auzit despre astfel de cerințe și 76% au indicat inițial că localizarea datelor ar putea fi bună. Cu toate acestea, luând în considerare costul asociat cu acesta, ceea ce face ca produsele și serviciile să fie mai scumpe, doar 44% au fost în favoarea localizării datelor.

Sursă foto: red-gate.com

CIA își va construi propriul robot AI în stil ChatGPT pentru investigații

Agenția Centrală de Informații a Statelor Unite (CIA) intenționează să construiască și să implementeze propriul robot de inteligență artificială (AI) în stil ChatGPT pentru investigații, potrivit unui raport de la Bloomberg.

Se pare că CIA intenționează să-și echipeze analiștii cu noul instrument AI pentru a accesa mai bine informațiile open-source. Aceasta include cercetarea informațiilor publice pentru pistele în investigații.

Oficialii agenției au spus că intenționează să lanseze instrumentul în curând. Randy Nixon, directorul întreprinderii open source a CIA, a declarat pentru Bloomberg că au trecut de la utilizarea „ziarelor și radioului, la ziare și televiziune, la ziare și televiziune prin cablu, la internet, la baze de date și așa mai departe”. Dezvoltarea vine după ce criticii au descris metodele actuale prin care CIA procesează datele publice disponibile drept „lente”.

Bloomberg a raportat că noile instrumente vor permite utilizatorilor săi să vadă sursa originală a informațiilor obținute, împreună cu o funcție de chat. „Atunci puteți trece la nivelul următor și puteți începe să discutați și să puneți întrebări mașinilor pentru a vă oferi răspunsuri, de asemenea, din surse.” Nu s-a menționat nici modelul din care CIA își construiește noul instrument și nici protecția vieții private, deși Nixon a spus că „urmează îndeaproape” legea privind confidențialitatea din Statele Unite.

Instrumentul va fi disponibil în cele 18 agenții care alcătuiesc serviciile de informații din SUA. Acestea includ CIA, Agenția de Securitate Națională, Biroul Federal de Investigații și agențiile militare. Această evoluție din partea CIA vine după confirmarea recentă din partea altor agenții guvernamentale a utilizării AI. 

Pe 12 septembrie, Gary Gensler, președintele Comisiei pentru Valori Mobiliare și Schimb (SEC), a confirmat Senatului SUA că departamentul său folosește în prezent instrumente AI pentru a monitoriza industria financiară pentru a căuta indicii de fraudă și manipulare. Într-un discurs din 17 iulie, Gensler a lăudat utilizarea instrumentelor AI, spunând că personalul SEC ar putea beneficia de o utilizare mai frecventă a AI în „supravegherea pieței, examene, aplicarea legii și analiza economică”.

Mark Zuckerberg dezvăluie chatbot-ul Meta AI

Noul asistent AI, Meta AI, va fi disponibil inițial din 27 septembrie pentru un grup limitat de utilizatori din SUA. CEO-ul Meta, Mark Zuckerberg, a dezvăluit noul asistent alimentat de inteligență artificială (AI) al firmei sale – Meta AI – răspunsul său la ChatGPT de la OpenAI, care se va integra cu Instagram, Facebook, WhatsApp și, în cele din urmă, cu dispozitivele de realitate mixtă ale companiei.

Vorbind la evenimentul Meta Connect din 27 septembrie, Zuckerberg a explicat că Meta AI este alimentat de modelul de limbaj mare al companiei, Llama 2, și a fost construit în parteneriat cu Microsoft Bing pentru a permite utilizatorilor accesul la informații în timp real de pe internet. „Meta AI este asistentul tău de bază cu care poți vorbi ca o persoană.” Pe lângă faptul că răspunde la întrebări și vorbește cu utilizatorii, noul bot poate genera imagini, utilizând un nou instrument de generare de imagini numit Emu pe care Meta l-a antrenat pe 1,1 miliarde de date, inclusiv fotografii și subtitrări partajate de utilizatori pe Facebook și Instagram.

Remarcând principalul punct de diferență al Meta AI față de concurentul ChatGPT, Zuckerberg a spus că, în loc să creeze un chatbot unic, strategia generală a Meta a fost să creeze diferite produse AI pentru diferite cazuri de utilizare. Ca exemplu, el a arătat cum Meta AI ar fi ușor diferit în fiecare dintre aplicațiile de socializare ale companiei, oferind un exemplu despre cum ar putea fi adăugată la chat-urile de grup pe Facebook Messenger pentru a ajuta la organizarea planurilor de călătorie.

Zuckerberg a spus că chatbot-urile Meta nu sunt destinate doar să transmită informații utile. De asemenea, sunt concepute pentru a fi conversaționale și distractive. Prezentându-și produsele AI axate pe divertisment, Meta a anunțat, de asemenea, o colecție de chatboți bazată pe aproximativ 30 de celebrități, inclusiv Paris Hilton, Snoop Dogg și fostul jucător NFL Tom Brady.

Potrivit Meta, noul asistent AI va fi disponibil pe 27 septembrie pentru un grup limitat de utilizatori din Statele Unite pe Facebook Messenger, Instagram și WhatsApp. Meta AI va fi disponibil și pentru utilizatorii noilor ochelari inteligenți ai companiei, programați să fie lansate pe 17 octombrie pentru utilizatorii din SUA, precum și noul său dispozitiv Quest 3 VR.

Sursă foto: tribunewired.com

Meta respinge acuzațiile de încălcare a drepturilor de autor în instruirea AI

Într-un proces împotriva lui Sarah Silverman și altor autori, Meta susține că sistemul său AI nu creează materiale care încalcă drepturile de autor, respingând afirmațiile conform cărora modelul său de inteligență artificială (AI) Llama a fost antrenat folosind materiale protejate prin drepturi de autor din cărți populare.

În instanță pe 18 septembrie, Meta a cerut unui judecător federal din San Francisco să respingă acuzațiile făcute de autoarea Sarah Silverman și de o mulțime de alți autori care au spus că a încălcat drepturile de autor ale cărților lor în pregătirea sistemului său AI.

Compania-mamă Facebook și Instagram au numit utilizarea materialelor pentru a-și instrui sistemele „transformatoare” și „corectă”. „Utilizarea textelor pentru a instrui LLaMA să modeleze statistic limbajul și să genereze expresii originale este transformatoare prin natură și prin folosirea corectă prin excelență…” Meta a spus că „problema centrală” a utilizării corecte a drepturilor de autor ar trebui să fie reluată „în altă zi, într-o înregistrare mai completă”. Compania a spus că reclamantul nu poate oferi explicații cu privire la „informațiile” la care se referă și nici nu ar putea oferi rezultate specifice legate de materialul lor.

Avocații autorilor au specificat într-o declarație separată din 19 septembrie că sunt „încrezători” că revendicările lor vor fi reținute și vor continua să treacă prin „descoperire și procese”. OpenAI a încercat, de asemenea, să respingă părți din revendicări în august, pe motive similare cu cele propuse de Meta în prezent.

Procesul inițial împotriva Meta și OpenAI a fost deschis în iulie și a fost unul dintre multele procese apărute împotriva giganților Big Tech pentru încălcarea drepturilor de autor și a datelor odată cu creșterea AI. Pe 5 septembrie, o pereche de ingineri au deschis un proces colectiv împotriva OpenAI și Microsoft cu privire la presupusele lor metode de scraping pentru a obține date private în timp ce își antrenează modelele AI respective. În iulie, Google a fost dat în judecată pe motive similare, după ce și-a actualizat politica de confidențialitate. Procesul a acuzat compania că a folosit greșit cantități mari de date, inclusiv materiale protejate prin drepturi de autor, în cadrul propriului său curs de instruire AI.

Polonia verifică OpenAI, ChatGPT în urma unei plângeri GDPR

Oficiul Polonez pentru Protecția Datelor cu Caracter Personal (UODO) a deschis o investigație cu privire la o plângere împotriva ChatGPT de la OpenAI, un solicitant acuzând firma că prelucrează datele într-un „mod ilegal și nesigur”.

Într-o declarație din 20 septembrie, Jan Nowak, președintele biroului de protecție a datelor, a declarat că aceasta nu este prima dată când au existat îndoieli cu privire la conformitatea ChatGPT cu principiile europene de protecție a datelor și confidențialitate. Plângerea acuză OpenAI că prelucrează datele într-o manieră ilegală și nesigură, iar regulile pe baza cărora colectează și prelucrează datele nu sunt transparente. Reclamantul a spus că în cazul său, ChatGPT a generat informații false despre el, iar cererile sale pentru exercitarea drepturilor conform Regulamentului european general privind protecția datelor (GDPR) nu au fost îndeplinite de OpenAI.

Cu toate acestea, Nowak a recunoscut că procedura propusă împotriva OpenAI ar putea fi dificilă, deoarece se referă la o companie din afara Uniunii Europene. „Cazul se referă la încălcarea multor prevederi privind protecția datelor cu caracter personal, motiv pentru care vom cere OpenAI să răspundă la o serie de întrebări pentru a putea desfășura proceduri administrative în detaliu”, a spus Nowak.

Între timp, Jakub Groszkowski, vicepreședintele UODO, a declarat că acuzațiile din plângere ridică îndoieli cu privire la abordarea OpenAI față de principiile europene privind protecția datelor cu caracter personal. Prin urmare, UODO va clarifica aceste îndoieli, în special pe fondul principiului fundamental al confidențialității prin proiectare, conținut în GDPR, a adăugat el.

Nu este prima dată când OpenAI se pare că încalcă conformitatea europeană cu GDPR. În martie, autoritățile italiene responsabile de protecția datelor au blocat temporar chatbot-ul de inteligență artificială ChatGPT și au deschis o investigație cu privire la presupuse încălcări ale regulilor de confidențialitate a datelor. Autoritatea italiană de supraveghere a datelor a mai spus că există o lipsă de informații pentru utilizatori cu privire la datele colectate de OpenAI. În aprilie, autoritățile de reglementare din Germania au cerut răspunsuri cu privire la intențiile companiei și capacitatea de a respecta legile stricte privind confidențialitatea datelor consacrate în GDPR al UE. În aceeași lună, Comitetul European pentru Protecția Datelor a înființat un grup de lucru special privind OpenAI.

Sursă foto: information-age.com

Interviul președintelui BFN la Financial Intelligence: “Digitalizarea sectorului public trebuie încurajată prin promovarea utilizării serviciilor de e-guvernare”

financialintelligence.ro

• “Blockchain este un adevărat must-have pentru orice afacere care presupune livrări de orice fel”.

• “Cu ajutorul tehnologiei blockchain, este mult mai ușor să urmărești identitățile digitale, lucru care poate reduce cozile la ghișeuri, aeroporturi ș.a.m.d”.

• “Blockchain-ul poate fi utilizat pentru protejarea datelor, verificarea informațiilor și înregistrarea tuturor operațiunilor”

• “Automatizarea va fi vizibilă în majoritatea industriilor,  iar inteligența artificială va grăbi acest proces și mai mult. Problema apare la reintegrarea în câmpul muncii a angajaților ale căror meserii se vor automatiza”.

• “Informațiile primite prin intermediul Chat GPT necesită sortare și moderație”.

• “Digitalizarea sectorului public trebuie încurajată prin promovarea utilizării serviciilor de e-guvernare pentru a îmbunătăți eficiența administrativă, transparența și accesibilitatea”.

• “Lucruri care lipsesc României – monitorizarea progresului și compararea cu cele mai bune practici: evaluarea continuă a eficacității inițiativelor digitale și monitorizarea progresului prin comparație cu alte țări europene relevante”.

• “În România, carierele în  IT &Tech sunt foarte căutate, iar sectorul Business and Finance atrage absolvenți care doresc să devină analiști financiari, bancheri de investiții, consultanți în management, contabili și profesioniști în marketing”

• Interviu cu Sorin-Cristian NIȚĂ, Asistent Univ. Dr. Academia de Studii Economice și Președintele Bucharest Fintech Network

Ce ne puteți spune despre dezvoltarea tehnologiei blockchain în România? Care sunt principalele aplicabilități ale blockchain, în afară de monedele digitale?

Sorin-Cristian NIȚĂ: Moneda digitală este un domeniu al finanțelor relativ nou, însă prezintă valențe cu un grad ridicat de dinamicitate. Concret, aproape 70 de instituții financiare din întreaga lume au declarat că investighează CBDC-urile, cel mai notabil fiind anunțul Băncii Centrale Europene privind lansarea proiectului euro digital. În fapt, blockchain-ul are multe alte aplicabilități dincolo de acestea. O primă aplicabilitate constă în contractele smart. Acestea funcționează asemănător cu contractele clasice, așa cum le cunoaștem, însă monitorizarea termenilor se realizează automat, astfel încât, dacă una dintre părți nu respectă contractul, condițiile prezente în acesta se activează în mod automat. De asemenea, pentru afacerile care funcționează pe baza semnării unor volume mari de contracte (spre exemplu industria telecom), contractele smart sunt o foarte bună soluție, evitând astfel semnarea contractelor în mod individual (cu fiecare client).

Un alt element îl constituie urmărirea lanțului de aprovizionare. Blockchain este un adevărat must-have pentru orice afacere care presupune livrări de orice fel. Softurile obișnuite care gestionează lanțurile de aprovizionare sunt fragile, iar în cazul apariției unor erori se prefigurează șanse considerabile de apariție a problemelor la livrare, plată ș.a.m.d, lucru care poate conduce la discrepanțe financiare serioase în anumite situații. Structura blockchain-urilor este concepută pentru a fi redus factorul uman și erorile din sistem. De asemenea, acesta înregistrează fiecare aspect, astfel încât, în cazul unei defecțiuni sau a unei erori, o persoană poate afla întotdeauna ce s-a întâmplat. Un exemplu în acest sens este Walmart Canada, care și-a îmbunătățit eficiența operațiunilor considerabil de la implementarea blockchain.

De asemenea, putem discuta despre ID-urile digitale. Cu ajutorul tehnologiei blockchain, este mult mai ușor să urmărești identitățile digitale, lucru care poate reduce cozile la ghișeuri, aeroporturi ș.a.m.d. În ceea ce privește autentificarea identității, Blockchain-ul securizează întreaga procedură. În timp ce metodele obișnuite de autentificare folosesc sistemul bazat pe parole, sistemul blockchain verifică doar dacă cheia privată este corectă.

Tehnologia Blockchain și-a lăsat amprenta, de asemenea, asupra sectorului imobiliar. Anterior, tranzacționarea activelor de mare valoare, precum bunurile imobiliare, exclusiv prin canale digitale, nu a fost niciodată în mod real considerată o posibilitate. Acest tip de tranzacții este adesea efectuat offline, implicând angajamente față în față între diverse persoane fizice/juridice. Introducerea contractelor smart în platformele blockchain permite acum ca active precum imobiliarele să fie tokenizate și tranzacționate precum criptomonedele (ex.: bitcoin, ether etc.). Un proiect pilot de acest gen se desfășoară în prezent în Suedia.

Nu în ultimul rând, Blockchain-ul poate fi utilizat pentru protejarea datelor, verificarea informațiilor și înregistrarea tuturor operațiunilor, astfel încât constituie o tehnologie de neînlocuit pentru orice sferă care operează utilizând date sensibile. Am menționat numai o parte din aplicabilitățile acestei tehnologii, ele sunt mult mai numeroase.

Cum apreciați evoluția principalelor monede digitale, în special bitcoin și ether?

Sorin-Cristian NIȚĂ: Bitcoin a captat atenția publicului în jurul anului 2017, când prețul său a crescut vertiginos, atingând un maxim istoric de aproape 20.000 USD. De atunci, Bitcoin a cunoscut mai multe fluctuații semnificative de preț. Între 2018 și 2020 acesta a trecut printr-o corecție majoră, prețurile scăzând la aproximativ 3.200 USD în decembrie 2018, apoi întrând într-o fază de consolidare, tranzacționându-se între 3.000 USD și 10.000 USD pentru o lungă perioadă de timp. Ulterior, Bitcoin a cunoscut o altă creștere semnificativă a prețurilor, începând de la  aproximativ 7.000 USD și atingând un nou maxim istoric de peste 64.000 USD în aprilie 2021.

În prezent, prețul unui BTC se situează în jurul sumei de 30.000 de euro. Acesta constituie un driver al pieței, prețurile celorlalte monede având o variație oarecum corelată cu prețul bitcoin. Ce trebuie avut în vedere cu privire la evoluția oricărei monede este volatilitatea de care aceasta dă dovadă, volatilitate generată de lipsa de maturitate a pieței, coroborat cu lipsa reglementărilor specifice.

Cât de reglementată ar trebui să fie piața monedelor digitale?

Sorin-Cristian NIȚĂ: Dacă ne uităm la piața bursieră, constatăm că aceasta are reglementări concrete, indiferent că discutăm despre acțiuni, obligațiuni sau derivative, toate funcționează într-un cadru extrem de bine delimitat din punct de vedere legislativ. Cu toate acestea, determinarea nivelului adecvat de reglementare pentru piața cripto este un aspect subiectiv și depinde de diverși factori, inclusiv de obiectivele autorităților, jurisdicția specifică și riscurile și beneficiile generale asociate criptomonedelor.

Este important să reținem că reglementarea criptomonedelor constituie un aspect aflat încă în dezvoltare, iar abordările actorilor de pe piață sunt diferite raportat la jurisdicțiile existente într-o regiune/un stat anume. Unele țări au adoptat criptomonedele și tehnologia blockchain cu reglementări mai blânde, în timp ce altele au adoptat o atitudine mai precaută. Găsirea echilibrului corect este o provocare continuă și necesită o analiză atentă a potențialelor beneficii și riscuri asociate pieței cripto. Uniunea Europeană a progresat din punct de vedere legislativ în ceea ce privește reglementările prin pachetul MiCA (Markets în Crypto Assets), care ajută la creșterea transparenței, crearea unui cadru legal pentru furnizorii de servicii și dezvoltarea regulilor de combatere spălării banilor.

Cât de mult ne va schimba viitorul AI? Noi, oamenii, suntem pregătiți pentru asta? Cum va schimba AI piața muncii la nivel mondial și în România?

Sorin-Cristian NIȚĂ: Inteligența artificială are potențialul de a influența viitorul, în special pe fondul existenței învățării automate/roboticii, ce sunt de natură să ducă la automatizarea unui număr mare de sarcini de rutină din diverse industrii. Această automatizare ar putea contribui la creșterea productivității, eficienței și la economii de costuri. Cu toate acestea, anumite sectoare de muncă pot fi afectate, solicitând lucrătorilor să se adapteze și să dobândească noi competențe pentru a rămâne relevanți pe piața muncii, aflată într-o continuă schimbare. Este foarte posibil ca în industriile în care automatizarea este facilă să vedem o utilizare tot mai frecventă a roboților și a inteligenței artificiale. Cu titlu de exemplu, Amazon a început deja să facă livrări folosind dronele. În același sens, în viitorul nu foarte îndepărtat, se conturează posibilitatea livrării similare a comenzilor făcute prin aplicații 3rd party.

Personalul răspunzător de front office de la nivelul băncilor a început deja să aibă sarcini tot mai puține, majoritatea operațiunilor fiind realizate pe cale informatică. Automatizarea va fi vizibilă în majoritatea industriilor așa cum le știm noi, Iar inteligența artificială va grăbi acest proces și mai mult. Problema apare la reintegrarea în câmpul muncii a angajaților ale căror meserii se vor automatiza, intrucât deseori acești oameni au o singură specializare. Entitățile statale vor fi nevoite să intervină în piață și să le asigure o reconversie profesională eficientă, încât cei ce se regăsesc în situațiile menționate să poată lucra. Acest lucru nu ar fi benefic numai pentru angajați, ci și pentru stat, deoarece ei consumă banii pe care-i produc, iar o parte se întorc în bugetul public sub formă de taxe.

Sunt multe controverse legate de Chat GPT. Care este opinia dvs?

Sorin-Cristian NIȚĂ: În general, e util să ai un instrument performant care să fie de ajutor în desfășurarea activităților, însă informațiile primite prin intermediul acestuia necesită sortare și moderație. De exemplu, acesta este frecvent utilizat de studenți, însă, atâta timp cât informația generată este preluată fără a mai fi trecută prin filtrul gândirii, programul devine mai degrabă un obstacol. În ceea ce privește domeniul economic, de cele mai multe ori ChatGPT confundă termenii de specialitate cu cei din sfera juridică. Prin urmare, în cazul în care nu e realizată o sortare cel puțin primară a informației, instrumentul creează confuzie. În cele din urmă, nu există nicio îndoială că, în ciuda faptului că are diverse avantaje și dezavantaje, ChatGPT este revoluționar, însă cu toții ar trebui să ținem cont că nu ne putem baza exclusiv pe informațiile oferite de acest ChatBot (ne putem ajuta de el, dar fără a omite că primordiale sunt capacitățile noastre de gândire).

Cum putem diminua decalajul față de Occident în ceea ce privește indicele DESI?

Sorin-Cristian NIȚĂ: În ceea ce privește indicele DESI, România se situează pe ultimul loc din cele 27 de state membre UE, conform ultimelor date publice disponibile. Este important de remarcat că se conturează o creștere anuală relativă, însă aceasta este inferioară țărilor similare, lucru care demonstrează că nu există o convergență cu celelalte state în ceea ce privește indicele DESI.

Conform datelor existente în prezent, la capitolul conectivitate, România are rezultate relativ bune. Cu toate acestea, performanțele în ceea ce privește integrarea tehnologiilor digitale și a serviciilor publice digitale sunt slabe comparativ cu celelalte state membre. Nivelul digitalizarii și progresele relativ lente în această zonă perturbă inclusiv potențialul economic al statului român, întrucât acesta nu poate beneficia pe deplin de oportunitățile oferite de noile tehnologii. Mai mult, nivelul scăzut al serviciilor publice esențiale digitale agravează situația și mai mult adăugând costuri temporale destul de ridicate.

Astfel, în vederea reducerii decalajului existent la momentul actual, sunt necesare o serie de măsuri în sarcina statului român, precum promovarea competențelor și educației digitale în vederea accentuării gradului de alfabetizare digitală și a educației legate de tehnologie de la o vârstă fragedă. Aceasta include actualizarea curriculei școlare pentru a include formarea de bază a competențelor digitale și încurajarea adulților să participe la programe de îmbunătățire a competențelor digitale.

De asemenea, trebuie să sprijine inovația și antreprenoriatul prin crearea unui mediu favorabil pentru ca startup-urile și companiile inovatoare să prospere. Aceasta implică reducerea barierelor birocratice, asigurarea accesului la finanțare și oferirea de stimulente pentru cercetare și dezvoltare în tehnologiile digitale.

Totodată, digitalizarea sectorului public trebuie încurajată prin promovarea utilizării serviciilor de e-guvernare pentru a îmbunătăți eficiența administrativă, transparența și accesibilitatea, fapt ce poate avea un impact pozitiv atât asupra cetățenilor cât și asupra întreprinderilor.

În final, un alt lucru care lipsește României este monitorizarea progresului și compararea cu cele mai bune practici: evaluarea continuă a eficacității inițiativelor digitale și monitorizarea progresului prin comparație cu alte țări europene relevante. Învățarea de bune practici din abordări de succes ale altor actori internaționali poate ajuta la rafinarea strategiilor și la îmbunătățirea ulterioară a acestora. Este dificil să se realizeze progrese în contextul în care eficiența eforturilor depuse nu este măsurată constant.

Având în vedere că lucrați în mediul universitar, ne puteți spune principalele cariere pe care vor să le urmeze studenții?

Sorin-Cristian NIȚĂ: În România, carierele în  IT &Tech sunt foarte căutate. Mulți studenți aspiră să devină ingineri software, dezvoltatori web, analiști de date, experți în securitate cibernetică și consultanți IT, având în vedere industria tehnologică în creștere.

De asemenea, sectorul Business and Finance atrage absolvenți care doresc să devină analiști financiari, bancheri de investiții, consultanți în management, contabili și profesioniști în marketing. Pe măsură ce economia crește, există o cerere de profesioniști calificați în aceste domenii.

Sursă foto: financialintelligence.ro

ChatGPT își pierde performanța de la model la model

Unele dintre răspunsurile ChatGPT au arătat că acuratețea modelului s-a deteriorat în ultimele luni și cercetătorii nu își pot da seama de ce.

Într-un studiu din 18 iulie, cercetătorii de la Stanford și UC Berkeley au descoperit că cele mai noi modele ChatGPT au devenit mult mai puțin eficiente in oferirea de răspunsuri precise la o serie identică de întrebări în decurs de câteva luni.

Autorii studiului nu au putut oferi un răspuns clar cu privire la motivul pentru care capacitățile chatbot-ului AI s-au deteriorat.

Pentru a testa cât de fiabile au fost diferitele modele de ChatGPT, cercetătorii Lingjiao Chen, Matei Zaharia și James Zou au cerut modelelor ChatGPT-3.5 și ChatGPT-4 să rezolve o serie de probleme de matematică, să răspundă la întrebări sensibile, să scrie noi linii de cod și să urmeze un raționament vizual-spațial din prompturi.

Potrivit cercetării, în martie, ChatGPT-4 a fost capabil să identifice numere prime cu o rată de precizie de 97,6%. În același test efectuat în iunie, precizia lui GPT-4 a scăzut la doar 2,4%.

În schimb, modelul anterior GPT-3.5 a îmbunătățit identificarea numerelor prime în același interval de timp.

Studiul a constatat, de asemenea, că răspunsurile ChatGPT la întrebări referitoare la subiecte controversate – cu unele exemple care arată un accent pe etnie și gen – au devenit ulterior mai concise în refuzul de a răspunde.

Iterațiile anterioare ale chatbot-ului au oferit un raționament amplu privind motivul pentru care nu a putut răspunde la anumite întrebări sensibile. În iunie însă, modelele și-au cerut pur și simplu scuze utilizatorului și au refuzat să răspundă.

„Comportamentul aceluiași serviciu se poate schimba substanțial într-un timp relativ scurt”, au scris cercetătorii, subliniind necesitatea monitorizării continue a calității modelului AI.

Cercetătorii au recomandat utilizatorilor și companiilor care se bazează pe serviciile LLM drept componentă a fluxurilor lor de lucru să implementeze o anumită formă de analiză de monitorizare pentru a se asigura că chatbot-ul rămâne la curent.

Pe 6 iunie, OpenAI a dezvăluit planurile de a crea o echipă care va ajuta la gestionarea riscurilor care ar putea apărea dintr-un sistem AI superinteligent, lucru așteptat în acest deceniu.

Casa Albă: Demersul companiilor AI spre siguranță și transparență

Administrația Biden a subliniat responsabilitatea companiilor de inteligență artificială de a se asigura că serviciile lor sunt sigure pentru utilizare.

Pe 21 iulie, Casa Albă a facut un anunț privind companiile ce se folosesc de inteligența artificială (AI), precum OpenAI, Google și Microsoft, conform căruia acestea s-au angajat să dezvolte o tehnologie AI care este sigură și transparentă.

Administrația Biden a subliniat responsabilitatea companiilor de a asigura siguranța serviciilor lor și de a valorifica potențialul AI, promovând în același timp standarde înalte în dezvoltarea acesteia.

Kent Walker, președintele Google pentru afaceri globale, a recunoscut că obținerea succesului în AI necesită colaborare. El și-a exprimat satisfacția că s-a alăturat altor companii de top în domeniul inteligenței artificiale pentru a sprijini aceste angajamente și a asigurat că Google va continua să lucreze cu alte companii prin împărtășirea informațiilor și a celor mai bune practici.

Printre angajamente se numără testarea de securitate înainte de lansare pentru sistemele AI, partajarea celor mai bune practici în domeniul siguranței AI, investiția în securitate cibernetică și măsuri de protecție a amenințărilor interne și permiterea raportării de către terți a vulnerabilităților în sistemele AI.

Sursă foto: bath.ac.uk