Microsoft colaborează cu o organizație sindicală din SUA pentru a promova dezvoltarea de AI axată pe lucrători

Parteneriatul va acorda prioritate drepturilor lucrătorilor și va include contribuția liderilor muncii în dezvoltarea tehnologiei.

Gigantul tehnologic Microsoft și Federația Americană a Muncii și Congresul Organizațiilor Industriale (AFL-CIO) au anunțat un nou parteneriat pentru a discuta despre modul în care inteligența artificială (AI) poate anticipa nevoile lucrătorilor și poate include nevoile acestora în dezvoltarea și implementarea sa.

Potrivit AFL-CIO, obiectivele acordului includ schimbul de informații între liderii de sindicat și lucrători cu privire la tendințele AI, încorporarea perspectivelor lucrătorilor și a expertizei în dezvoltarea AI și contribuirea la formarea politicii publice care sprijină abilitățile și nevoile tehnologice ale lucrătorilor din prima linie.

Președintele Microsoft, Brad Smith, a declarat că acordul implică un efort de colaborare cu liderii sindicali pentru a se asigura că AI aduce beneficii lucrătorilor. Președintele AFL-CIO, Liz Shuler, vede cadrul de neutralitate al Microsoft și recunoașterea expertizei lucrătorilor ca un semnal că era AI poate stimula parteneriate productive de management al forței de muncă.

În 2022, Microsoft a încheiat un acord similar cu Communications Workers of America, care s-a concentrat pe susținerea drepturilor lucrătorilor de a se organiza și negocia colectiv la Activision Blizzard. Gigantul tehnologic era în proces de terminare a achiziției producătorului de jocuri video în acel moment.

Microsoft a investit 13 miliarde de dolari în OpenAI – firma nonprofit de inteligență artificială cu sediul în SUA care a creat ChatGPT – și deține 49% din acțiuni. Cu toate acestea, nu are drepturi de vot și pretinde că nu deține control operațional asupra companiei. Microsoft a dezvoltat, de asemenea, o platformă AI generativă, Azure, care se folosește de produsele GPT ale OpenAI pentru a-și extinde funcționalitatea.

Lucrătorii din numeroase industrii și-au exprimat îngrijorarea cu privire la impactul potențial al inteligenței artificiale asupra locurilor de muncă. În sectorul divertismentului, actorii de la Hollywood au intrat în grevă în iulie pentru a protesta împotriva unei propuneri de inteligență artificială a Alianței Producătorilor de Film și Televiziune.

Apariția AI generativă a stârnit îngrijorări cu privire la potențialul său de a avea un impact semnificativ pe piața muncii. În mai, IBM a estimat că AI ar putea înlocui aproximativ 7.800 de locuri de muncă la companie în termen de cinci ani. Elon Musk, CEO al SpaceX și xAI, a mers mai departe, prezicând că AI ar putea elimina cu totul necesitatea forței de muncă contemporane.

FIFA lansează colecția NFT în mijlocul Club World Cup 2023

FIFA NFT-uri, generate pe platforma Algorand, au înregistrat un volum total de tranzacții de doar 2,4 milioane de dolari de la lansarea lor în septembrie anul trecut.

Fédération Internationale de Football Association (FIFA), organismul care guvernează competițiile internaționale de fotbal, își va lansa propria colecție de simboluri nefungibile (NFT) înainte de Cupa Mondială a Cluburilor din 2023 din Arabia Saudită, în colaborare cu firma blockchain Modex.

Potrivit anunțului din 11 decembrie, o colecție inaugurală de 100 de NFT va avea premiera pe 15 decembrie și va oferi șansa de a obține bilete la finala Cupei Mondiale FIFA 2026. În plus, alte 900 de obiecte de colecție digitale vor fi emise în rețeaua Polygon și OpenSea în această lună, cuprinzând momente memorabile din turneu și versiuni digitale ale acestora.

„Programată să înceapă la Jeddah, Arabia Saudită, pe 12 decembrie, Cupa Mondială a Cluburilor FIFA reunește șapte dintre cele mai mari echipe de fotbal din lume. Campionii celor șase confederații FIFA participă cu toții”, a scris FIFA. NFT-urile vor fi disponibile pe platforma omonimă a FIFA, FIFA+ Collect. Platforma NFT a fost lansată în septembrie 2022 și este alimentată de Algorand.

„Piesele de colecție digitale măresc modurile în care fanii pot interacționa cu jucătorii, echipele și cu jocul pe care îl preferă, iar noi suntem onorați să sprijinim FIFA în realizarea acestui obiectiv”, a comentat Francesco Abbate, CEO Modex.

De la înființare, platforma FIFA+ Collect a facilitat 11 drop-uri NFT, cu 909.255 de obiecte de colecție digitale batate și 16.448 deținători. Platforma a înregistrat un volum de tranzacționare de 2,4 milioane USD pe piețele NFT primare și secundare. Cu toate acestea, „Volumul Monetăriei poate induce în eroare, deoarece FIFA+ Collect Info nu poate distinge pachetele obținute gratuit în provocări de pachetele achiziționate cu USDC”, susține FIFA+ Collect Info.

Sursă foto: proactiveinvestors.com

ChatGPT trece examenul neurologic pentru prima dată

Cea mai recentă actualizare a OpenAI a modelului său de limbă mare (LLM), ChatGPT 4.0, a trecut un examen de neurologie clinică cu 85% răspunsuri corecte într-un studiu de dovadă a conceptului. Autorii cercetării cred că, după unele reglaje, LLM-urile ar putea avea „aplicații semnificative” în neurologia clinică. Rezultatele experimentului, realizat de un grup de cercetători de la Spitalul Universitar Heidelberg și Centrul German de Cercetare a Cancerului din Heidelberg, au fost publicate pe 7 decembrie. Testul, efectuat pe 31 mai, a inclus două LLM, ChatGPT 3.5 și mai târziu. versiunea, ChatGPT 4.0.

Cercetătorii au folosit setul de întrebări pentru un examen de neurologie de la Consiliul American de Psihiatrie și Neurologie cu o mică cohortă de întrebări de la Consiliul European pentru Neurologie.

În timp ce versiunea mai veche a ChatGPT a obținut un scor de 66,8%, răspunzând corect la 1306 de întrebări din 1956, modelul mai recent, ChatGPT 4.0, a câștigat 85% cu 1662 de răspunsuri corecte. Scorul mediu uman a fost de 73,8%. ChatGPT 4.0 a depășit utilizatorii umani la întrebările comportamentale, cognitive și psihologice și a „trecut” efectiv examenul de neurologie, deoarece 70% dintre răspunsurile corecte sunt în general considerate un scor de trecere în instituțiile de învățământ.

Cu toate acestea, ambele modele au demonstrat performanțe mai slabe în sarcinile care necesită „gândire de ordin superior” decât întrebările care necesită doar „gândire de ordin inferior”.

Potrivit grupului de cercetători care efectuează experimentul, aceste rezultate servesc drept recomandare de utilizare a LLM-urilor în neurologia clinică după unele modificări: „Aceste constatări sugerează că, cu perfecționări suplimentare, modelele mari de limbaj ar putea avea aplicații semnificative în neurologia clinică”.

Cercetătorii subliniază că încă sunt rezervați. Deși există o perspectivă clară pentru aplicarea LLM-urilor în documentarea și sistemele de sprijin pentru luarea deciziilor, neurologii ar trebui să fie precauți cu privire la utilizarea lor în practică, deoarece sunt încă imperfecți în ceea ce privește sarcinile cognitive de ordin înalt. Unul dintre autorii studiului, dr. Varun Venkataramani, a spus: “Vedem studiul nostru mai mult ca o dovadă a conceptului pentru capacitățile LLM-urilor. Există încă nevoie de dezvoltare și, probabil, chiar o reglare fină specifică a LLM-urilor pentru a le face aplicabile în mod corespunzător pentru neurologia clinică. „

AI lucrează deja la unele sarcini majore din domeniul sănătății, cum ar fi găsirea remediului pentru cancer pentru AstraZeneca sau combaterea prescripției excesive de antibiotice în Hong Kong.

Oficialii UE ajung la un acord „istoric” de reglementare a AI

Acordul obligă modele precum ChatGPT și AI în general să urmeze regulile de transparență înainte de intrarea pe piață.

Negociatorii Parlamentului European și ai Consiliului au ajuns la un acord provizoriu cu privire la regulile care reglementează utilizarea inteligenței artificiale vineri, 8 decembrie.

Acordul acoperă utilizarea guvernamentală a AI în supravegherea biometrică, modul de reglementare a sistemelor AI, cum ar fi ChatGPT, și regulile de transparență care trebuie urmate înainte de intrarea pe piață. Aceasta acoperă documentele tehnice, respectarea drepturilor de autor ale Uniunii Europene și partajarea rezumatelor conținutului de formare.

UE dorește să fie prima autoritate supranațională cu legi privind AI, specificând modul în care aceasta va fi utilizată în mod benefic, protejând în același timp împotriva riscurilor. Acordul a fost încheiat în urma unei dezbateri de aproape 24 de ore pe 8 decembrie și după 15 ore de negocieri.

Acordul prevede că modelele AI cu impact semnificativ și riscuri sistemice trebuie să evalueze și să abordeze aceste riscuri, să efectueze teste contradictorii pentru rezistența sistemului, să raporteze incidentele Comisiei Europene, să asigure securitatea cibernetică și să dezvăluie eficiența energetică. „Implementarea corectă va fi esențială – Parlamentul va urmări cu atenție sprijinirea noilor idei de afaceri cu sandbox și reguli eficiente pentru cele mai puternice modele.”

După încheierea înțelegerii, comisarul european pentru piața internă Thierry Breton a postat pe X (fostul Twitter) „Istoric! #AIAct este mult mai mult decât un cadru de reguli – este o rampă de lansare pentru startup-urile și cercetătorii din UE pentru a conduce cursa globală de inteligență artificială. Ce-i mai bun are să vină!”

Conform acordului, inteligența artificială de uz general cu riscuri trebuie să urmeze coduri. Guvernele pot utiliza supravegherea biometrică în timp real doar în cazuri specifice, cum ar fi anumite infracțiuni sau amenințări severe în spațiile publice.

Acordul interzice manipularea cognitiv-comportamentală, imitarea imaginilor faciale de pe internet sau înregistrări CCTV, scorul social și sistemele biometrice care deduc detalii personale precum convingerile și orientarea. Consumatorii ar avea dreptul de a depune reclamații și de a obține explicații.

Amenzile pentru încălcări ale regulilor ar varia de la 7,5 milioane de euro (8,1 milioane de dolari) sau 1,5% din cifra de afaceri până la 35 de milioane de euro (37,7 milioane de dolari) sau 7% din cifra de afaceri globală, în funcție de nivelul de  încălcarea a regulilor și dimensiunea companiei.

Potrivit declarației Parlamentului European, textul convenit va trebui acum să fie adoptat oficial de parlament și consiliu înainte de a deveni lege europeană. Comisiile pentru piața internă și libertățile civile ale parlamentului vor vota acordul la o ședință viitoare.

Sursă foto: newrepublic.com

Băncile centrale din Italia și Coreea de Sud sunt de acord asupra cooperării CBDC

Banca d’Italia – banca centrală a Italiei – a anunțat pe 5 decembrie, prin canalele sale oficiale, că a încheiat un memorandum de înțelegere cu banca centrală a Coreei de Sud, Bank of Korea, privind sistemele informatice și de plată. Potrivit băncii centrale italiene, memorandumul de înțelegere include „schimbul reciproc de cunoștințe și informații” atunci când vine vorba de problemele legate de tehnologia informației și comunicațiilor (TIC). Mai exact, menționează problemele TIC legate de sistemele de decontare în timp real și de monedele digitale ale băncilor centrale (CBDC). Anunțul spunea că la întâlnire a participat directorul general al Băncii d’Italia, Luigi Federico Signorini, care a semnat acordul.

Pe parcursul ultimului an, ambele țări au explorat CBDC, deși cu abordări diferite.

În Italia, banca centrală s-a concentrat în principal pe interoperabilitate în soluțiile sale de decontare a tranzacțiilor bazate pe tehnologia contabilă distribuită (DLT) prin contracte hash-linked, mai degrabă decât pe o abordare CBDC angro, așa cum este cazul altor țări europene.

Între timp, Coreea de Sud a început să-și piloteze tehnologia de infrastructură CBDC în octombrie. Programul său pilot include atât bănci private, cât și instituții publice, sprijinul tehnic fiind oferit prin Banca Reglementelor Internaționale. În noiembrie, Coreea de Sud a anunțat că va invita 100.000 de cetățeni să-și testeze CBDC începând cu 2024.

Deși multe guverne avansează cu planuri de a introduce CBDC, rămâne o opoziție fermă față de monedele digitale. Un politician german a declarat recent că este un „oponent ferm” al monedei euro digitale a Uniunii Europene și consideră că CBDC-urile sunt o invazie a vieții private. În Statele Unite, multe personalități publice s-au declarat împotriva propriei CBDC din SUA. Gazda podcastului Joe Rogan a mers chiar atât de departe încât a spus că CBDC vor însemna „șah-mat” și „game over”.

Singapore lansează Strategia Naționala AI 2.0 cu planuri pentru 15.000 de experți în AI

Singapore a lansat o versiune actualizată a Strategiei sale naționale de inteligență artificială, inclusiv planuri pentru creșterea competenței guvernamentale, construirea unei națiuni inteligente și creșterea capacității de calcul. Guvernul din Singapore a lansat Strategia națională 2.0 actualizată pe 4 decembrie, subliniind modul în care intenționează să îmbrățișeze inovația și să abordeze provocările asociate cu inteligența artificială (AI).

Singapore și-a structurat strategia de inteligență artificială în trei sisteme distincte constând din 10 „activatori” care conduc acele sisteme și 15 pași de acțiune pentru ca sistemul să funcționeze. Prima strategie AI a fost introdusă în 2019. Abordarea sistematică a planului actualizat se concentrează pe trei domenii principale ale societății sale, inclusiv ceea ce numește „motoare de activitate”, „oameni și comunități” și „infrastructură și mediu”.

Construirea unei națiuni inteligente

Printre pașii de acțiune se numără planul Singapore de a dezvolta noi „Centre de excelență” AI în cadrul companiilor care operează în țară pentru a promova „crearea și utilizarea sofisticată a valorii AI în sectoare cheie”.

Planul AI actualizat are, de asemenea, criterii de echipare a agențiilor guvernamentale cu „cunoștințe specializate, capacități tehnice și instrumente de reglementare” și „îmbunătățire” a competențelor AI în toți funcționarii publici din Singapore. Conform viziunii, Singapore intenționează să-și folosească capacitatea guvernamentală pentru a crea resurse care să sprijine adoptarea AI în sectorul public.

În plus, a spus că intenționează să-și mărească numărul de „practicanți AI” sau experți locali la 15.000 prin extinderea programelor de formare specifice AI, tehnologiei și că „rămâne deschis” talentelor globale. Raportul spune că diverse programe de instruire tehnologică centrate pe dezvoltarea AI au oferit la peste 2.700 de persoane „joburi bune” până în prezent.

Singapore, la fel ca multe alte țări din întreaga lume, a declarat că intenționează, de asemenea, să își mărească capacitățile. Pentru a face acest lucru, Singapore a declarat că intenționează să aprofundeze parteneriatele cu jucători importanți din industrie, inclusiv producătorii de cipuri și furnizorii de servicii cloud, și să sprijine firmele locale din industria de calcul din Singapore. Planifică să-și pună în aplicare măsurile de acțiune în următorii 3-5 ani pentru a-și susține ambițiile în sectorul AI.

Singapore urmează alte țări în eforturile sale de a îmbrățișa AI. Recent, la AI Safety Summit, Regatul Unit a declarat că intenționează să investească 300 de milioane de lire sterline în obținerea și operarea a două supercomputere AI pentru a-și spori propria amprentă în cursa globală AI.

OpenAI, unul dintre cei mai importanți dezvoltatori de inteligență artificială din lume, a anunțat un parteneriat cu G42 în Dubai pentru a-și extinde acoperirea în regiunea Orientului Mijlociu.

Între timp, Statele Unite – unul dintre cele mai importante centre de producție de cipuri din lume – au început să înăsprească controalele la export, vizând anumite țări cu privire la tehnologia sa de a dezvolta și alimenta sisteme AI de nivel înalt.

Sursă foto: gi-de.com

Autoritățile de reglementare italiene investighează scrapingul online AI de date

Autoritatea italiană pentru protecția datelor, un organism local de reglementare a confidențialității, a anunțat lansarea unei investigații „de constatare a faptelor” pe 22 noiembrie, în care va analiza practica culegerii de date pentru a antrena algoritmi de inteligență artificială (AI).

Investigația urmărește să verifice adoptarea măsurilor de securitate adecvate pe site-urile publice și private pentru a preveni „răpirea web” a datelor personale utilizate pentru antrenamentul AI prin intermediul unor terți de la „păianjenii” producătorilor de algoritmi de inteligență artificială”.

Potrivit autorității de reglementare, acest „sondaj de constatare a faptelor” se aplică tuturor subiecților publici și privați care operează drept operatori de date, stabiliți în Italia sau care oferă servicii în Italia care oferă date cu caracter personal accesibile online. Deși nu a numit anumite companii, a spus că „de fapt” se știe că „diverse platforme AI” folosește platformele web în scopul de a colecta cantități mari de date personale. Acesta a spus că, după anchetă, va lua orice măsuri necesare, „chiar și urgent”.

În iulie, Google a fost lovit de o acțiune colectivă în Statele Unite pentru noua sa politică de confidențialitate privind eliminarea datelor AI din serviciile sale web, pentru propriile sale scopuri de instruire algoritmică AI.

Autoritățile de reglementare italiene au invitat experți din industria AI, cadre universitare și alții să participe la proces și să împărtășească opinii sau comentarii în termen de 60 de zile. Organismul italian de supraveghere a confidențialității a fost unul dintre primii care a analizat AI după ce a interzis popularului chatbot AI ChatGPT să opereze în Italia din cauza încălcărilor de confidențialitate în martie 2023. În mai, Italia a alocat milioane de euro într-un fond desemnat pentru lucrătorii supuși riscului de a fi înlocuiți de de AI.

La începutul acestei săptămâni, Italia, Franța și Germania au încheiat un acord privind viitoarea reglementare a inteligenței artificiale, potrivit unui document comun văzut de Reuters. Este de așteptat ca acordul să ajute la continuarea negocierilor similare la nivelul Uniunii Europene. Cele trei țări au susținut ideea de a crea angajamente voluntare pentru furnizorii mari și mici de AI din Uniunea Europeană.

Coaliția tehnologică a UE avertizează cu privire la suprareglementarea AI înainte de finalizarea Actului UE AI

Un grup de 33 de afaceri și companii tehnologice au semnat o cerere comună către autoritățile de reglementare din UE prin care le îndeamnă să nu reglementeze excesiv tehnologiile AI emergente în detrimentul inovației. Scrisoarea, care a fost trimisă pe 23 noiembrie și subsemnată de 33 de companii care lucrează în UE, subliniază că reglementările prea stricte pentru modelele precum ChatGPT de la OpenAI și AI de uz general (GPAI) ar putea conduce inovațiile necesare din regiune.

Cererea a evidențiat date care arată că doar 8% dintre companiile din Europa folosesc AI, ceea ce nu se apropie de obiectivul Comisiei Europene pentru 2030 de 75%. În plus, doar 3% dintre unicornii AI (“AI unicorns”) din lume provin din UE. „Competitivitatea și stabilitatea financiară a Europei depind în mare măsură de capacitatea companiilor și cetățenilor europeni de a implementa AI în domenii cheie precum tehnologia ecologică, sănătatea, producția sau energia.”

Companiile au subliniat că, pentru ca Europa să se dezvolte într-o „putere digitală globală”, are nevoie de companii care să conducă în AI prin modele de bază și GPAI – două tehnologii AI aflate sub control în viitoarea legislație a UE.

Pe lângă faptul că subliniază importanța nereglementării excesive a tehnologiilor, companiile au sugerat și soluții pentru liderii UE. Sugestiile includ reducerea costurilor de conformitate pentru companii, concentrarea pe reglementarea cazurilor de utilizare cu risc ridicat și nu a tehnologiilor specifice și clarificarea cazurilor în care există deja suprapuneri în legislația existentă.

Această evoluție vine în timp ce UE lucrează la finalizarea actului său emblematic privind AI al UE, care a fost adoptat inițial în iunie și este în prezent în curs de revizuire de către statele membre. La scurt timp după adoptarea actului inițial, o altă scrisoare a fost semnată de 160 de directori din industria tehnologiei, avertizând oficialii UE cu privire la implicațiile reglementărilor prea stricte privind AI.

Sursă foto: tradepromotioneurope.eu

OpenAI și Microsoft date în judecată pentru presupusa utilizare neautorizată a lucrărilor unor autorilor

Julian Sancton, un autor și reporter de la Hollywood, acuză Microsoft că este conștient de accesarea OpenAI a materialelor protejate prin drepturi de autor.

OpenAI și Microsoft se confruntă cu un proces care susține utilizarea necorespunzătoare a lucrării autorilor de non-ficțiune pentru a instrui modele AI, inclusiv serviciul ChatGPT al OpenAI. Autorul și reporterul Julian Sancton a dat companiile în judecată pe 21 noiembrie.

Potrivit plângerii lui Sancton, OpenAI ar fi folosit zeci de mii de cărți non-ficțiune fără autorizație pentru a-și antrena modelele lingvistice extinse pentru a răspunde la solicitările de text uman. Autorul și editorul Hollywood Reporter conduce o propunere colectivă intentată la o instanță federală din New York.

Această acțiune în justiție se numără printre alte câteva inițiate de proprietarii drepturilor de autor, precum autorii John Grisham, George R.R. Martin și Jonathan Franzen, împotriva OpenAI și a altor firme de tehnologie. Acuzațiile implică presupusa utilizare abuzivă a muncii lor pentru a instrui sistemele AI. Companiile implicate au respins afirmațiile.

Procesul lui Sancton subliniază implicarea Microsoft în generarea de copii fără licență ale lucrărilor autorilor pentru datele de instruire și dezvoltarea tehnologiei generative bazate pe transformatoare pre-antrenate. Sancton acuză, de asemenea, Microsoft că este conștient de accesarea fără discernământ a OpenAI pe internet de materiale protejate prin drepturi de autor.

Procesul vine pe fondul unei mișcări neașteptate a Microsoft, care l-a angajat pe Sam Altman să conducă noua sa divizie de inteligență artificială după îndepărtarea sa din OpenAI. Într-o întoarcere surprinzătoare, pe 22 noiembrie, OpenAI a anunțat un nou acord prin care Altman va reveni în funcția de CEO. Compania a confirmat afacerea într-o postare pe contul său oficial X (fostul Twitter).

Deși OpenAI se confruntă cu mai multe procese de încălcare a drepturilor de autor, Microsoft a scăpat în mare măsură de control, în ciuda introducerii unei game de produse integrate cu ChatGPT.

Acțiunea în justiție a lui Sancton reprezintă prima dată când un autor a dat în judecată OpenAI în timp ce numește Microsoft drept acuzat. Cu investiții substanțiale în startup-ul AI, Microsoft a încorporat sistemele OpenAI în ofertele sale de produse.

Oamenii de știință dezvoltă un agent de monitorizare AI pentru a detecta și opri rezultatele nesigure

Sistemul de monitorizare este conceput pentru a detecta și a contracara atât atacurile cu injecție promptă, cât și amenințările marginale.

O echipă de cercetători de la firma de inteligență artificială (AI) AutoGPT, Northeastern University și Microsoft Research au dezvoltat un instrument care monitorizează modelele de limbaj mari (LLM) pentru rezultate potențial dăunătoare și le împiedică să se execute.

Agentul este descris într-o lucrare de cercetare preliminară intitulată „Testarea agenților model de limbaj în siguranță în sălbăticie” (“Testing Language Model Agents Safely in the Wild.”). Potrivit cercetării, agentul este suficient de flexibil pentru a monitoriza LLM-urile existente și poate opri output-urile dăunătoare, cum ar fi atacurile de cod, înainte ca acestea să se producă.

Conform cercetării: „Acțiunile agenților sunt auditate de un monitor sensibil la context care impune o limită strictă de siguranță pentru a opri un test nesigur, cu comportamentul suspect clasat și înregistrat pentru a fi examinat de oameni”.

Echipa declară că instrumentele existente pentru monitorizarea rezultatelor LLM pentru interacțiuni dăunătoare par să funcționeze bine în stadiul de laborator, dar atunci când sunt aplicate la modelele de testare deja în producție pe internetul deschis, „deseori nu reușesc să surprindă complexitățile dinamice ale lumii reale”.

Acest lucru, aparent, se datorează existenței cazurilor marginale. În ciuda eforturilor celor mai talentați informaticieni, ideea că cercetătorii își pot imagina fiecare vector posibil înainte de a se întâmpla este considerată în mare măsură o imposibilitate în domeniul AI.

Chiar și atunci când oamenii care interacționează cu AI au cele mai bune intenții, daune neașteptate pot apărea din îndemnuri aparent inofensive.

Pentru a instrui agentul de monitorizare, cercetătorii au creat un set de date de aproape 2.000 de interacțiuni sigure între om și AI în 29 de sarcini diferite, de la sarcini simple de recuperare a textului și corecții de codare până la dezvoltarea paginilor web întregi de la zero. Ei au creat, de asemenea, un set de date de testare concurent, plin cu rezultate adverse create manual, inclusiv zeci concepute intenționat pentru a fi nesigure. Seturile de date au fost apoi folosite pentru a antrena un agent pe GPT 3.5 turbo al OpenAI, un sistem de ultimă generație, capabil să facă distincția între ieșirile inofensive și potențial dăunătoare cu un factor de precizie de aproape 90%.

Sursă foto: computas.com

Autoritățile de reglementare australiene vor obliga companiile să raporteze atacurile cibernetice

Această obligație nu va fi susținută de o amendă în cazul în care compania nu se conformează, iar întreprinderilor li se va permite în continuare să plătească răscumpărări, deși acest lucru este descurajat.

Autoritățile australiene vor obliga companiile locale să fie pe deplin transparente și să raporteze orice atac cibernetic asupra afacerilor lor. Economia țării a pierdut 2,59 miliarde de dolari din cauza atacurilor cibernetice în 2021.

Potrivit unui raport din 13 noiembrie al The Australian, strategia națională de securitate cibernetică, care urmează să fie dezvăluită în noiembrie, va include un sistem obligatoriu conform căruia întreprinderile locale trebuie să alerteze guvernul cu privire la atacurile cibernetice ce cer răscumpărare. Cu toate acestea, această obligație nu va fi susținută de o amendă dacă compania nu se conformează.

Companiilor li se va permite în continuare să plătească răscumpărări, deși noul coordonator național de securitate cibernetică Air Marshal Darren Goldie, le-a descurajat public să facă acest lucru. În octombrie, Australia s-a alăturat altor aproape 40 de națiuni în angajamentul de a nu plăti cererile de răscumpărare făcute împotriva agențiilor guvernamentale.

Înainte de a intra în vigoare sistemul obligatoriu, guvernul intenționează să se consulte cu comunitatea de afaceri cu privire la proiectarea acestuia, așa cum a precizat ministrul Afacerilor Interne și Securității Cibernetice, Clare O’Neil: „Vom crea un manual de joc ransomware care va oferi îndrumări clare companiilor și cetățenii despre cum să se pregătească, să se ocupe de cererile de răscumpărare și să se recupereze”.

Atacurile cibernetice rămân o problemă comună în economia digitală. În iulie, Departamentul de Justiție al Statelor Unite ale Americii a anunțat o dublare a dimensiunii echipei sale de criminalitate criptografică și s-a concentrat imediat pe combaterea acestui tip de atacuri.

Potrivit Chainalysis, portofelele implicate în atacuri ransomware se îndreaptă adesea către pool-uri de cripto mining pentru a spăla fondurile dobândite prin exploatări. Firma de cercetare susține că a existat o creștere a valorii trimise din portofelele ransomware către pool-urile de minerit.

Visa lansează practica de consiliere AI pentru a îmbunătăți capacitățile AI ale clienților

Visa a stabilit o practică de consiliere AI, o mișcare menită să ofere clienților informații și recomandări valoroase pentru a valorifica potențialul inteligenței artificiale și al inteligenței artificiale generative.

Experiența vastă a companiei globale de plăți digitale în implementarea AI se întinde pe peste trei decenii, cu o investiție de peste 3 miliarde USD în AI și infrastructură de date în ultimul deceniu. Visa Consulting & Analytics (VCA), brațul de consultanță al Visa, a desfășurat numeroase angajamente legate de inteligența artificială, deschizând calea pentru lansarea acestui serviciu dedicat de consiliere în domeniul inteligenței artificiale. „AI nu doar remodelează industriile din întreaga lume, ci le revoluționează, iar sectorul plăților este în fruntea acestei transformări”, a declarat Carl Rutstein, șeful global al serviciilor de consiliere, Visa. „Visa nu folosește doar inteligența artificială pentru a ajuta la îmbunătățirea experiențelor de plată – afacerea noastră de consiliere o folosește și pentru a le permite clienților noștri să crească și să redefinească modul în care își servesc propriii clienți prin achiziții, implicare, reținere și management al riscului.”

Practica de consiliere AI a Visa va intra în rețeaua globală a VCA de peste 1.000 de consultanți, oameni de știință în date și experți în produse din 75 de birouri din întreaga lume. Serviciul va ghida clienții prin călătoria lor AI, de la planificarea inițială până la implementare, concentrându-se pe strategie, evaluarea capacității și proiectarea modelului.

Obiectivul este de a ajuta clienții să elaboreze strategii responsabile de AI și să utilizeze eficient AI pentru a atinge obiective specifice de afaceri, cum ar fi extinderea pieței, proiectarea produsului, achiziția clienților, îmbunătățirea angajamentului și prevenirea fraudei.

Un vicepreședinte senior pentru plăți la o bancă de top 10 din SUA, a comentat de asemenea: „VCA a dezvoltat o serie de modele AI/ML proprietare pentru a ne ajuta să creștem, servindu-ne mai bine clienții. Experții lor AI/ML, împreună cu datele noastre și datele VisaNet, ne oferă un nivel de perspectivă care este esențial pentru strategia noastră de creștere.

„Împreună explorăm cum să folosim inteligența artificială pentru a sprijini nevoile nesatisfăcute ale clienților noștri prin cazuri de utilizare care sunt atât unice pentru complexitatea metodelor de plată ale clienților, cât și pentru nevoile întreprinderii.”

Sursă foto: swoopfunding.com

Google va investi încă 2 miliarde de dolari în firma de inteligență artificială Anthropic

Potrivit unui nou raport, Google și-a dublat pariurile pe inteligența artificială (AI) investind încă 2 miliarde de dolari în startup-ul AI Anthropic. Google a investit deja 500 de milioane de dolari în avans pentru Anthropic – un rival al creatorilor de ChatGPT OpenAI – și va plăti restul de 1,5 miliarde de dolari în timp, potrivit unui raport din 27 octombrie al The Wall Street Journal (WSJ), care a citat persoane familiare cu materie.

Mega-afacerea se adaugă la investiția de 550 de milioane de dolari a Google în Anthropic la începutul anului 2023. Google Cloud a încheiat, de asemenea, un acord pe mai mulți ani cu Anthropic în urmă cu câteva luni în valoare de peste 3 miliarde de dolari, a dezvăluit The WSJ. Știrea urmează investiției masive de 4 miliarde de dolari ale Amazon în Anthropic în septembrie. Anthropic folosește o mare parte din aceste investiții pentru a-și instrui sistemele AI, cum ar fi asistentul AI Claude, în speranța că firma poate realiza următoarea mare descoperire în industria AI.

De cealaltă parte a dezbaterii este OpenAI, care a primit peste 13 miliarde de dolari în finanțare doar de la Microsoft din 2019 și continuă să construiască versiuni mai avansate ale propriului său chatbot AI, ChatGPT. Popularul chatbot a adunat peste 100 de milioane de utilizatori în primele două luni de la lansare în noiembrie 2022, ceea ce a atras atenția multor firme de capital de risc din întreaga lume care doresc să investească în spațiu.

Co-fondatorii Anthropic, frații Dario și Daniela Amodei, au lucrat anterior la OpenAI, dar au plecat în 2021 în urma unor dispute cu CEO-ul OpenAI, Sam Altman, cu privire la implicațiile de siguranță asociate cu construirea sistemelor AI.

Înainte de Google și Amazon, Anthropic a fost finanțat în principal de fostul CEO FTX, Sam Bankman-Fried, care a investit aproximativ 530 de milioane de dolari în Anthropic în aprilie 2022 – cu aproximativ șapte luni înainte de prăbușirea FTX. Creșterea evaluării Anthropic a fost văzută ca un semn pozitiv pentru creditorii FTX, în speranța că aceștia vor fi despăgubiți pe deplin în cazul falimentului FTX.

Volumul vânzărilor NFT crește la 129 milioane USD în noiembrie

Compania de analiză Blockchain Nansen a raportat că volumele vânzărilor NFT au atins 68.342 ETH în săptămâna încheiată pe 6 noiembrie. Token-urile nefungibile (NFT) au înregistrat o creștere constantă în ceea ce privește volumul săptămânal de vânzări Ether, conform platformei de analiză blockchain.

Într-o postare pe X (fostul Twitter), Nansen a subliniat că în săptămâna care s-a încheiat pe 9 octombrie, vânzările de NFT au fost de 29.704 ETH, în valoare de aproximativ 56 de milioane de dolari la prețurile actuale ale pieței ETH. Volumul vânzărilor a crescut săptămânal până a ajuns la 68.342 ETH, în valoare de peste 129 milioane USD.

Piața NFT Blur a avut cea mai mare cotă din volumul de tranzacționare NFT din ultimele 30 de zile. Potrivit agregatorului de date NFTGo, Blur a avut un volum de tranzacționare de 161.433 ETH (aproximativ 305 milioane USD) în ultimele 30 de zile. Între timp, al doilea loc i-a revenit concurentului său, OpenSea, care avea un volum de tranzacționare de 52.307 ETH, sau aproximativ 100 de milioane de dolari.

În ceea ce privește colecțiile NFT, Bored Ape Yacht Club (BAYC) a avut cel mai mare volum de tranzacționare din ultimele 30 de zile. Colecția BAYC a avut un volum de 35.226 ETH, sau aproximativ 66,7 milioane de dolari. Colectarea a fost urmată de Mutant Ape Yacht Club (MAYC) la 14.947 ETH și The Captainz la 9.948 ETH. CryptoPunks a rămas colecția de top în ceea ce privește capitalizarea bursieră. Cu toate acestea, colecția a avut doar un volum de tranzacționare de 5.773 ETH în ultimele 30 de zile.

În afară de acestea, datele NFTGo au arătat, de asemenea, că a existat o creștere cu 12% a comercianților NFT în ultimele șapte zile. Adresele cumpărătorilor erau la 22.804, în timp ce vânzătorii erau la 27.308 în aceeași perioadă de timp. Între timp, numărul de portofele care dețineau NFT a continuat să se ridice la aproximativ șase milioane.

Creșterea volumului de tranzacționare pentru NFT s-a produs pe fondul unor știri despre piața NFT. Pe 3 noiembrie, piața NFT OpenSea și-a concediat jumătate din personal, în timp ce se pregătește să lanseze a doua versiune.

Sursă foto: finicity.com

Cum blockchain și AI poate ajuta cercetarea în extinderea vieții umane

Jasmine Smith, CEO al aplicației de wellness bazată pe Web3, Rejuve.AI, a declarat că platformele descentralizate și bazate pe inteligență artificială pentru cercetarea în domeniul sănătății nu își propun să înlocuiască medicii și clinicienii, ci mai degrabă să îi ajute în munca lor. Blockchain și inteligența artificială (AI) au fost de mult timp asociate pentru a schimba modul în care oamenii văd identitatea și verificarea. Între aceste inovații vin date, descrise de experți drept noul ulei – extras, adunat, rafinat, procesat și transformat în ceva util.

În timp ce majoritatea cazurilor de utilizare blockchain și AI sunt încă experimentale și succesul nu poate fi încă măsurat, o aplicație în curs de dezvoltare folosește datele personale ale utilizatorilor pentru a contribui la cercetarea privind prelungirea vieții umane.

Discutând subiectul la recentul Cardano Summit, Jasmine Smith, CEO al aplicației de wellness bazată pe Web3, Rejuve.AI, a spus că crowdsourcingul de date din mai multe surse ajută la accelerarea cercetării longevității. Ea a explicat că seturile de date de bază actuale sunt restrânse la populațiile occidentale. Ea a explicat: „A fi capabil să democratizem acel acces și să umplem golurile de date în locuri precum Africa, Asia și Orientul Mijlociu ne va oferi o imagine mai holistică a sănătății umane și a longevității și ne va permite să oferim recomandări mai bune.” Smith a adăugat că astfel de inițiative nu urmăresc să înlocuiască medicii și clinicienii, ci mai degrabă să îi ajute în munca lor.

„Dezvoltarea open source creează întotdeauna algoritmi AI mai buni. Avem, de asemenea, o secțiune în care oamenii pot contribui la platforma noastră AI pentru a face simulări cu rezoluție multiplă bazate pe diferiți factori”, a adăugat ea.

Rejuve.AI este o rețea descentralizată de cercetare a longevității în care utilizatorii pot contribui cu datele personale de sănătate pentru studii științifice în schimbul recompenselor sub forma unui simbol, care, la rândul său, poate fi folosit pentru alte produse și servicii din cadrul platformei. Potrivit lui Smith, datele colectate de la utilizatori vor fi apoi folosite pentru a dezvolta kituri de testare avansate, cum ar fi secvențierea genomului, metilare ADN și teste de vârstă biologică – produse pe care o persoană obișnuită nu le-ar putea accesa altfel.

Referindu-se la îngrijorările că inițiativa ar putea banaliza opiniile asupra cercetării longevității, Smith a susținut că oamenilor „le place în mod natural să fie recompensați”, adăugând: „Cred că toată lumea vrea să obțină ceva pentru ceea ce oferă, mai ales când vine vorba de date despre sănătate. Purtăm ceasuri inteligente și inele și, deși s-ar putea să obținem niște mici grafice interesante în aplicație, de fapt nu suntem plătiți.”

Executivul a subliniat că acel aspect al Web3 „poate fi cu adevărat revoluționar”, subliniind ceea ce iese din cercetare care „depășește cu mult doar simbolul”. Întrebată despre dezbaterea filozofică și despre consecințele societale neintenționate legate de prelungirea vieții umane, Smith a explicat că proiectul nu obligă pe nimeni să „trăiască peste 100 de ani”. „Este mai mult despre împingerea limitelor științei și tehnologiei pentru a face ceva nu doar pentru oamenii bogați, ci și pentru oricine are acel impuls și acea motivație de a-și prelungi viața”, a spus Smith.

Smith a spus că nu vede AI înlocuind complet oamenii. În schimb, ea crede că tehnologia nu numai că le va ușura munca, ci le va oferi și o perspectivă mai directă și mai detaliată asupra valorii unei persoane ca individ. Ea a adăugat: „AI poate accelera cu siguranță fluxurile de lucru, ușurează ținerea de evidență și poate conecta mai mult o persoană la contribuția sa la date și la veniturile care rezultă de fapt din alocarea datelor lor către diferite inițiative și produse.”

Sursă foto: theweek.in

Peste jumătate dintre muzicieni sunt preocupați de percepția publicului asupra utilizării AI

Peste jumătate dintre muzicienii chestionați au spus că sunt preocupați de modul în care publicul lor ar putea percepe muzica creată folosind AI, dar mulți artiști au găsit-o utilă în procesul lor de creație. Pe măsură ce inteligența artificială continuă să pătrundă în diverse sectoare din întreaga lume, industria muzicală a fost receptivă la capacitățile sale de transformare, rămânând în același timp precaută cu privire la riscurile pentru artiști.

Într-un sondaj recent lansat de studioul privat de muzică Pirate, 53% dintre respondenți au spus că au „îngrijorări cu privire la modul în care publicul lor ar putea percepe muzica creată cu ajutorul AI”. Sondajul a ajuns la 1.141 dintre artiștii săi din Regatul Unit, Statele Unite și Germania, inclusiv membri ai trupei, compozitori, producători, instrumentiști și rapperi.

De asemenea, sondajul a dezvăluit ezitarea artiștilor de a folosi AI în studio, doar 25% spunând că au experiență cu tehnologia. Cu toate acestea, 46% au spus că sunt dispuși să ia în considerare utilizarea unor astfel de instrumente în viitor.

Unul dintre artiștii chestionați, Christoph Krey de la trupa MYAI din Brooklyn, a spus că folosește AI pentru 30% din toate activitățile sale și le numește pe celelalte 70% „inteligență artistică”. Krey a spus că ar putea fi o provocare dificilă de învățare pentru artiști în care să se implice: „Este încă un lucru pe care artiștii trebuie să-l facă acum, pe lângă tot ce trebuiau să facă deja pentru a crea valoare.”

Cofondatorul și CEO-ul Pirate, David Borrie, a spus că este de înțeles ezitarea artiștilor cu privire la utilizarea AI. El a declarat: „În sondajul nostru recent, am întrebat artiștii care și-au exprimat reticența de a folosi AI de ce. „Pierderea autenticității” a fost preocuparea principală pentru 58% dintre ei. Cred că aceasta este și aceeași îngrijorare a multor ascultători de muzică.”

Cu toate acestea, el a asemănat tehnologia emergentă cu auto-tune, o altă tehnologie revoluționară care a pătruns în industria muzicală și a devenit un pilon în producția contemporană. „Este util să ne uităm înapoi la introducerea unor instrumente precum Auto-Tune, care s-au confruntat cu critici la începuturile lor, dar în cele din urmă și-au găsit locul în industria muzicală. Călătoria AI spre a deveni un instrument standard în creația muzicală poate urma o cale similară, pe măsură ce artiștii și publicul se adaptează la această inovație.”

În ceea ce privește artiștii din industria muzicală care folosesc deja inteligența artificială în procesul lor de creație, răspunsul la întrebarea vizavi de locul în care a fost cea mai utilă a fost în „scrierea de cântece și compoziție”.

Borrie a spus că, deși AI a fost văzută recent drept folosită pentru a genera piese întregi și fără „aprecierea cuvenită” pentru drepturi de autor sau legalități, este, de asemenea, „folosită pe scară largă de mulți artiști în studiourile noastre ca instrument de îmbunătățire a eficienței, pentru sugestii de compoziție, scheme de rimă, sau împărțirea cântecelor în tulpini pentru eșantionare.” „Creșterea vizibilității artiștilor care folosesc inteligența artificială ca instrument pentru a-și spori propria activitate ar trebui să contribuie la eliminarea stigmatizării, care a fost, parțial, alimentată de cascadorii muzicale AI virale, prezentate frecvent în mass-media.”

Într-un interviu acordat la începutul acestui an, CEO-ul Academiei de Înregistrări, instituția responsabilă de premiile Grammy anuale, a spus că vede AI ca un „amplificator creativ” pentru artiștii care îl folosesc în munca lor. Au existat deja controverse cu cei care doresc să-și recunoască muzica. Un artist care a folosit o piesă vocală generată de AI a rapperului Drake într-o piesă care a devenit virală a încercat să-și prezinte piesa pentru nominalizare. Cu toate acestea, piesa a fost refuzată de către Academie din cauza unor probleme de încălcare a drepturilor de autor. Academia a comentat această problemă, spunând că subiectul AI este atât „complicat”, cât și „în continuă transformare”.

Regulile oficiale pentru muzica generată de inteligență artificială, instituite de Academie, spun că un om trebuie să creeze componentele principale ale pieselor pentru nominalizarea oficială. De exemplu, pentru ca o piesă să câștige un premiu pentru performanță vocală, trebuie să fi fost interpretată de un om.

Casele de discuri majore din industria muzicală încearcă, de asemenea, să rămână la curent cu utilizarea AI, inclusiv Universal Music, care a colaborat cu Google pentru a combate falsurile AI ale artiștilor săi și a solicitat serviciilor de streaming precum Spotify să elimine melodiile generate de AI de pe platforma sa.

Sursă foto: thomann.de

Majoritatea utilizatorilor se tem că inteligența artificială folosește datele lor , conform unui sondaj privind confidențialitatea consumatorilor

Cercetările realizate de Cisco, fintech-ul global care lucrează pentru un viitor mai incluziv, a dezvăluit că consumatorii cu vârsta cuprinsă între 18 și 24 de ani au mai multe șanse să își acceseze drepturile de acces vizate (42%) decât consumatorii de peste 75 de ani (6%). Descoperirile, publicate în Cisco 2023 Consumer Privacy Survey fac parte din ancheta mai amplă a companiei cu privire la percepțiile și comportamentele consumatorilor cu privire la confidențialitatea datelor.

După apariția inteligenței artificiale (AI), 62% dintre consumatori și-au exprimat îngrijorarea în legătură cu utilizarea tehnologiei de către organizații și modul în care acestea interacționează cu datele lor. 60% au ajuns atât de departe încât au spus că și-au pierdut deja încrederea în firme din cauza utilizării AI.

Cu toate acestea, în ciuda îngrijorărilor, nu este totul sumbru pentru AI. 48% dintre respondenți au fost de acord că inteligența artificială poate fi de ajutor în îmbunătățirea vieții lor. 54% chiar au spus că vor împărtăși de bunăvoie date personale anonimizate pentru a îmbunătăți produsele AI și luarea deciziilor.

„Lumea urmărește modul în care companiile vor aborda AI într-un mod responsabil”, a declarat Dev Stahlkopf, vicepreședinte executiv Cisco și director juridic. „Pentru Cisco, asta înseamnă să ne concentrăm pe respectarea vieții private și a drepturilor omului, pe măsură ce încorporăm tehnologia AI.”

În ciuda apariției ChatGPT și a inteligenței artificiale generativă în 2023, peste jumătate (52 %) dintre respondenții la sondaj au spus că nu sunt conștienți de acest lucru.

Dintre cei care folosesc în mod regulat Gen AI (12%), doar jumătate au indicat că se abțin de la introducerea de informații personale sau confidențiale în aplicațiile Gen AI. Este de remarcat faptul că ceilalți 50% pot introduce într-adevăr informații personale sau confidențiale. Acest lucru se întâmplă în ciuda faptului că 88% dintre respondenți au indicat că ar fi „Oarecum” sau „Foarte” îngrijorați dacă datele lor introduse în Gen AI ar fi partajate.

Tinerii consumatori care susțin confidențialitatea datelor

Anul acesta, 33% dintre respondenți se califică drept „Activi în domeniul confidențialității”. Aceasta înseamnă că le pasă de confidențialitate și sunt dispuși să acționeze pentru a o proteja. Unii au acționat: de exemplu, schimbând între companii sau furnizori din cauza politicilor lor de date sau a practicilor de partajare a datelor.

Consumatorii mai tineri sunt cei mai dispuși să ia măsuri pentru a-și proteja confidențialitatea. 42% dintre consumatori, cu vârsta cuprinsă între 18 și 34 de ani, susțin confidențialitatea, un procent care scade constant odată cu vârsta.

Procentul consumatorilor care solicită ștergerea sau modificarea datelor a crescut la 19%, față de 14% anul trecut. Din nou, acest lucru este foarte corelat cu vârsta: 32% dintre consumatorii cu vârsta cuprinsă între 18 și 24 de ani fac solicitări de ștergere sau modificare a datelor, comparativ cu doar 4% dintre consumatorii mai în vârstă.

Conștientizarea publicului vizavi de legile privind confidențialitatea continuă să fie relativ scăzută, 46% dintre respondenți fiind conștienți de legea confidențialității din țara lor. Cei care cunosc legea au mai multe șanse să simtă că își pot proteja datele în mod adecvat.

Doar 40% dintre cei care nu cunosc legea țării lor simt că își pot proteja datele, comparativ cu 74% dintre cei care cunosc legea. 68% dintre consumatorii cu vârsta cuprinsă între 18 și 24 de ani consideră că își pot proteja datele, iar acest lucru scade treptat, până la 47% dintre consumatorii de peste 65 de ani care spun acest lucru.

Rolul legilor și guvernelor

Mulți consumatori se așteaptă la guvern a stabili standardele de siguranță și pentru a aplica protecția vieții private. Jumătate (50%) dintre respondenți au spus că administrația națională sau locală ar trebui să aibă rolul principal în protejarea datelor, în timp ce 21% au spus că companiile private ar trebui să fie în primul rând responsabile pentru protecția datelor.

„Pe măsură ce guvernele adoptă legi și companiile încearcă să creeze încredere, consumatorii trebuie, de asemenea, să ia măsuri și să folosească tehnologia în mod responsabil pentru a-și proteja propria confidențialitate”, spune Harvey Jang, vicepreședinte Cisco, consilier general adjunct și ofițer șef de confidențialitate.

Consumatorii sunt împărțiți în ceea ce privește valoarea localizării datelor. Majoritatea au auzit despre astfel de cerințe și 76% au indicat inițial că localizarea datelor ar putea fi bună. Cu toate acestea, luând în considerare costul asociat cu acesta, ceea ce face ca produsele și serviciile să fie mai scumpe, doar 44% au fost în favoarea localizării datelor.

Sursă foto: red-gate.com