Google protejează utilizatorii cu privire la acuzațiile de drepturi de autor AI

Google a declarat în mod explicit că doar șapte produse intră sub această protecție legală, cu excepția instrumentului de căutare Bard de la Google.

Google și-a anunțat angajamentul de a proteja utilizatorii sistemelor de inteligență artificială generativă (AI) din cadrul platformelor sale Google Cloud și Workspace în cazurile în care se confruntă cu acuzații de încălcare a proprietății intelectuale. Această mișcare aliniază Google cu alte companii, cum ar fi Microsoft, Adobe și altele, care au făcut și ele asigurări similare. Într-o postare recentă pe blog, Google a arătat clar că utilizatorii care folosesc produse integrate cu capabilități generative de inteligență artificială vor primi protecție legală. Acest anunț abordează preocupările tot mai mari cu privire la potențialele probleme legate de drepturile de autor asociate cu inteligența artificială generativă.

Google a subliniat în mod explicit șapte produse care intră sub această protecție legală. Produsele sunt Duet AI în Workspace, cuprinzând generarea de text în Google Docs și Gmail, precum și generarea de imagini în Google Slides și Google Meet; Duet AI în Google Cloud; Vertex AI Search; Conversație Vertex AI; Vertex AI Text Embedding API; Subtitrări vizuale pe Vertex AI; și API-urile Codey. Merită remarcat faptul că această listă nu a inclus instrumentul de căutare Google Bard.

Google a dezvăluit o abordare distinctă a despăgubirii proprietății intelectuale, descrisă ca fiind o strategie de pionierat în două direcții. În cadrul acestei inițiative, Google își extinde protecția pentru a include atât datele de antrenament, cât și rezultatele generate de modelele sale fundamentale. Aceasta înseamnă că, dacă se iau măsuri legale împotriva cuiva din cauza utilizării datelor de formare Google care implică materiale protejate prin drepturi de autor, Google își va asuma responsabilitatea pentru soluționarea acestei provocări legale.

Compania a precizat că indemnizația aferentă datelor de formare nu este o formă nouă de protecție. Cu toate acestea, Google a recunoscut că clienții săi și-au exprimat dorința de a obține o confirmare clară și explicită că această protecție se extinde la scenariile în care datele de instruire încorporează material protejat prin drepturi de autor.

Google va proteja suplimentar utilizatorii dacă se confruntă cu acțiuni în justiție din cauza rezultatelor pe care le obțin în timpul utilizării modelelor sale de bază. Aceasta include scenarii în care utilizatorii generează conținut asemănător lucrărilor publicate. Compania a subliniat că această garanție depinde de faptul că utilizatorii nu generează sau utilizează în mod intenționat conținut pentru a încălca drepturile altora.

Alte companii au emis declarații similare. Microsoft și-a declarat angajamentul de a-și asuma responsabilitatea legală pentru utilizatorii produselor sale Copilot. Adobe, pe de altă parte, și-a afirmat dedicarea pentru protejarea clienților de drepturile de autor, confidențialitate și drepturi de publicitate atunci când folosesc Firefly.

Noul proiect de lege al Senatului propune pedepsirea creatorilor de deepfake-uri generate de AI

Actul propus a venit la doar câteva ore după ce discuțiile între actori și studiourile de la Hollywood au fost întrerupte, replicile AI fiind un subiect major în negocieri. Recreările neautorizate ale vocilor și imaginilor oamenilor bazate pe inteligență artificială (AI) ar fi interzise în temeiul unui proiect de lege propus de un grup bipartizan de senatori ai Statelor Unite.

Într-un comunicat de presă din 11 octombrie, senatorii democrați Chris Coons și Amy Klobuchar, împreună cu senatorii republicani Marsha Blackburn și Thom Tillis, au lansat un proiect de discuție al Legii Nurture Originals, Foster Art și Keep Entertainment Safe (NO FAKES). Companiile sau persoanele care creează o replică AI neautorizată a cuiva – în viață sau decedată – ar fi răspunzătoare pentru daune în temeiul actului, împreună cu platformele care găzduiesc cu bună știință imitații AI neautorizate. Penalitățile ar începe de la 5.000 USD per încălcare.

Proiectul de lege permite utilizări limitate ale replicilor AI neautorizate protejate de Primul Amendament, inclusiv cele utilizate pentru știri, ca parte a documentarelor sau pentru „comentare, critică, bursă, satiră sau parodie”. „Creatorii din întreaga națiune fac apel la Congres să stabilească politici clare care reglementează utilizarea și impactul IA generativă”, a spus senatorul Coons într-o declarație. „Congresul trebuie să găsească echilibrul potrivit pentru a apăra drepturile individuale, pentru a respecta Primul Amendament și pentru a stimula inovația și creativitatea AI.” Senatorul Blackburn a adăugat că proiectul de lege este un „prim pas bun” pentru a proteja compozitorii, actorii și creatorii din SUA care „merită dreptul de a-și deține numele, imaginea și asemănarea (NIL).”

Proiectul de lege vine pe fondul creșterii numărului de melodii create cu ajutorul instrumentelor AI care imită artiștii, găzduite pe platforme de streaming precum YouTube și SoundCloud. Asemănările generate de AI au reprezentat, de asemenea, un punct cheie în grevele și negocierile actorilor de la Hollywood, sindicatul Screen Actors Guild-Federația Americană a Artiștilor de Televiziune și Radio (SAG-AFTRA) susținând propunerea. Pe 11 octombrie, SAG-AFTRA a declarat că negocierile cu Alianța Producătorilor de Film și Televiziune (AMPTP) au eșuat, susținând că aceasta din urmă a refuzat „să protejeze artiștii de a fi înlocuiți de AI”, printre alte motive.

Într-o declarație din aceeași zi, AMPTP a spus: „Este clar că decalajul dintre AMPTP și SAG-AFTRA este prea mare, iar conversațiile nu ne mai mută într-o direcție productivă”. Pe 27 septembrie, Writer’s Guild of America (WGA) și-a încheiat greva după aproape cinci luni după ce sindicatul a ajuns la un acord cu AMPTP privind utilizarea AI în camerele scriitorilor, împreună cu salarii mai mari și contracte mai echitabile.

Sursă foto: eweek.com

China stabilește reguli mai stricte pentru antrenarea modelelor generative de AI

Proiectul de lege subliniază că datele care fac obiectul cenzurii pe internetul chinez nu ar trebui să servească drept material de instruire pentru aceste modele.

China a lansat reglementări de securitate pentru companiile care furnizează servicii de inteligență artificială generativă (AI), cuprinzând restricții privind sursele de date utilizate pentru formarea modelelor AI.

Miercuri, 11 octombrie, regulamentele propuse au fost eliberate de Comitetul Național de Standardizare a Securității Informației, format din reprezentanți ai Administrației Cyberspace din China (CAC), Ministerului Industriei și Tehnologiei Informației și agențiilor de aplicare a legii.

AI generativ, așa cum este exemplificat de către ChatGPT de la OpenAI, dobândește capacitatea de a îndeplini sarcini prin analiza datelor istorice și generează conținut nou, cum ar fi text și imagini, pe baza acestei instruiri.

Comitetul recomandă efectuarea unei evaluări de securitate a conținutului utilizat pentru a antrena modele AI generative accesibile publicului. Conținutul care depășește „5% sub formă de informații ilegale și dăunătoare” va fi desemnat pentru lista neagră. Această categorie include conținut care susține terorismul, violența, subversia sistemului socialist, prejudiciul adus reputației țării și acțiunile care subminează coeziunea națională și stabilitatea societății.

Proiectul subliniază, de asemenea, că datele care fac obiectul cenzurii pe internetul chinez nu ar trebui să servească drept material de instruire pentru aceste modele. Această evoluție vine la puțin peste o lună după ce autoritățile de reglementare au acordat permisiunea diferitelor companii de tehnologie chineză, inclusiv proeminentului motor de căutare Baidu, să-și introducă publicul larg chatboții generativi bazați pe inteligență artificială.

Din aprilie, CAC și-a comunicat în mod constant cerința ca companiile să furnizeze evaluări de securitate organismelor de reglementare înainte de a introduce publicului servicii generative bazate pe inteligență artificială. În iulie, autoritatea de reglementare a spațiului cibernetic a lansat un set de linii directoare care reglementează aceste servicii, despre care analiștii din industrie au remarcat că sunt considerabil mai puțin împovărătoare în comparație cu măsurile propuse în proiectul inițial din aprilie.

Proiectul de prevederi de securitate recent dezvăluit necesită ca organizațiile implicate în instruirea acestor modele AI să obțină consimțământul explicit de la persoanele ale căror date personale, care includ informații biometrice, sunt folosite pentru instruire. În plus, orientările includ instrucțiuni cuprinzătoare privind prevenirea încălcărilor legate de proprietatea intelectuală.

Națiunile din întreaga lume se luptă cu stabilirea cadrelor de reglementare pentru această tehnologie. China consideră AI ca un domeniu în care aspiră să concureze cu Statele Unite și și-a stabilit target-ul de a deveni un lider global în acest domeniu până în 2030.

Biden ia în considerare înăsprirea controalelor cipurilor AI către China prin intermediul unor părți terțe

Restricțiile suplimentare luate în considerare de administrația Biden ar încerca să vizeze modalitățile prin care dezvoltatorii chinezi ar putea accesa cipurile semiconductoare AI fabricate în SUA.

Potrivit unui raport de la Reuters din 13 octombrie, oamenii apropiați de această problemă au spus că administrația Biden vizează o lacună care a permis dezvoltatorilor din China să cumpere cipuri din infama zonă de electronice Huaqiangbei din Shenzhen, un oraș din sudul Chinei.

Sursele susțin că regulile suplimentare privind cipurile AI vor apărea în această lună și vor aplica restricții aplicate anterior doar jucătorilor de top din SUA, cum ar fi Nvidia și AMD, dar mai larg tuturor companiilor care produc materiale similare pe piață. Pe parcursul verii, guvernul SUA a aplicat reguli suplimentare celor mai mari producători de cipuri, inclusiv Nvidia, care în prezent este lider pe piața producției de cipuri. A cerut companiilor să reducă exporturile de cipuri semiconductoare de nivel înalt către „unele” țări din Orientul Mijlociu, printre alte detalii mici.

Cu toate acestea, autoritățile de reglementare din SUA au negat de atunci că au blocat în mod explicit exporturile de cipuri AI către Orientul Mijlociu. Ca răspuns, Nvidia a avertizat autoritățile de reglementare că rezultatele pe termen lung în venituri ar putea fi „vătămate” dacă compania este „exclusă efectiv din toată China sau din o parte a acesteia”. Majoritatea veniturilor Nvidia provin din SUA, China și Taiwan, în timp ce mai puțin de 14% provin din toate celelalte țări la un loc.

Sursele lui Reuter au spus că administrația Biden încearcă, de asemenea, să remedieze o lacună care permite părților chineze accesul la furnizorii de servicii cloud din SUA precum Amazon Web Services (AWS). Potrivit raportului, acele soluții par „mai puțin clare”. În iulie, oficialii americani au început să analizeze restricțiile privind accesul la servicii de cloud computing, cum ar fi AWS, de către companiile chineze, într-un efort de a proteja tehnologia avansată a țării.

SUA și-au implementat controalele inițiale ale exporturilor asupra celei mai puternice tehnologii cu cip semiconductor în octombrie 2022. Washingtonul a înăsprit măsurile și încă ia în considerare luarea de măsuri suplimentare pentru a limita și mai mult puterea de calcul a cipurilor disponibile pe piața chineză. China a acționat, de asemenea, ca răspuns la măsurile din ce în ce mai înăsprite din partea Statelor Unite. În iulie, a anunțat că va controla exporturile de galiu și germaniu, două materiale primare pentru producția de cipuri AI.

Sursă foto: maginative.com

Investițiile cripto înregistrează cea mai buna evoluție din iulie

Produsele de investiții în criptomonede au înregistrat fluxuri pentru a doua săptămână consecutiv, însumând 78 de milioane de dolari, potrivit CoinShares.

Produsele de investiții în active digitale au continuat să înregistreze intrări semnificative în ultima săptămână, atingând cele mai mari niveluri de volum din iulie 2023, potrivit unui nou raport. Acestea au înregistrat fluxuri pentru a doua săptămână consecutiv, în valoare totală de 78 de milioane de dolari, a raportat firma de administrare a activelor cripto CoinShares în raportul de analiză săptămânal din 9 octombrie.

Potrivit CoinShares, volumele de produse cripto tranzacționate la bursă (ETP) au crescut și ele cu 37% săptămâna trecută, ajungând la 1,1 miliarde de dolari. Volumul Bitcoin a crescut cu 16% pe bursele de încredere, notează raportul.

Solana – a opta cea mai mare criptomonedă după capitalizarea bursieră – a continuat să se afirme ca „altcoinul preferat”, deoarece intrările săptămânale ale sale au atins cel mai înalt nivel din martie 2022. Luni, 9 octombrie, criptomoneda a crescut cu aproximativ 14% în trecut. 30 de zile, dar a scăzut încă cu aproximativ 32% în ultimul an, conform datelor de la CoinGecko.

În ciuda creșterii generale semnificative a intrărilor de produse cripto, unele produse majore de investiții cripto au înregistrat mișcări mai reduse. Fondurile futures tranzacționate la bursă (ETF) din Statele Unite ale Americii Ethereum – care au debutat la tranzacționare pe 2 octombrie – au atras doar aproximativ 10 milioane de dolari în prima săptămână, evidențiind „apetitul cald”, a declarat CoinShares.

Pe lângă analiza în funcție de active, CoinShares a mai raportat că 90% din toate intrările de cripto active au venit din Europa, în timp ce S.U.A. și Canada au înregistrat intrări de doar 9 milioane de dolari la un loc. Potrivit datelor, Germania și Elveția au fost cele mai mari țări care au contribuit la creșterea fluxurilor, înregistrând intrări de 37,3 milioane de dolari, respectiv 31,3 milioane de dolari. Împreună, cele două țări au reprezentat 88% din totalul fluxului de produse cripto-active săptămâna trecută.

Vestea vine în timp ce CoinShares lucrează pentru a-și extinde operațiunile în SUA, introducând primele sale oferte în țară în septembrie 2023. Compania este încrezătoare că SUA este lider global în dezvoltarea și reglementarea activelor digitale.

UE analizează reglementări mai restrictive pentru AI

Negociatorii din UE iau în considerare restricții suplimentare pentru modelele mari de AI, cum ar fi ChatGPT-4 de la OpenAI, ca o componentă a viitorului său act AI.

Potrivit unui raport de la Bloomberg, reprezentanții din Uniunea Europeană negociază un plan pentru reglementări suplimentare privind cele mai mari sisteme de inteligență artificială (AI). Se spune că Parlamentul European, Comisia Europeană și diferitele state membre ale UE sunt în discuții cu privire la potențialele efecte ale modelelor lingvistice mari (LLM), inclusiv Llama 2 de la Meta și ChatGPT-4 de la OpenAI, și posibilele restricții suplimentare care le vor fi impuse ca o parte a viitorului AI Act.

Bloomberg raportează că surse apropiate subiectului au spus că obiectivul nu este de a suprasolicita noile startup-uri cu prea multe reglementări, menținând în același timp modelele mai mari sub control. Potrivit surselor, acordul la care au ajuns negociatorii pe această temă este încă în faze preliminare.

Legea AI și noile reglementări propuse pentru LLM ar fi o abordare similară cu Legea privind serviciile digitale (DSA) a UE. Legislatorii UE au implementat recent DSA, astfel încât platformele și site-urile web au standarde pentru a proteja datele utilizatorilor și a scana pentru activități ilegale. Cu toate acestea, cele mai mari platforme de pe web sunt supuse unor controale mai stricte.

Companiile din această categorie, precum Alphabet și Meta, au avut până pe 28 august să actualizeze practicile de service pentru a se conforma cu noile standarde UE. Actul AI al UE se presupune a fi unul dintre primul set de reguli obligatorii pentru IA instituit de un guvern occidental. China a adoptat deja propriul set de reglementări AI, care a intrat în vigoare în august 2023. Conform reglementărilor UE privind inteligența artificială, companiile care dezvoltă și implementează sisteme de inteligență artificială ar trebui să efectueze evaluări ale riscurilor, să eticheteze conținutul generat de inteligență artificială și li se interzică complet utilizarea supravegherii biometrice, printre alte măsuri.

Cu toate acestea, legislația nu a fost încă adoptată, iar statele membre au încă capacitatea de a nu fi de acord cu oricare dintre propunerile prezentate de parlament.

În China, de la implementarea legilor sale AI, s-a raportat că au fost deja lansate peste 70 de noi modele AI.

Sursă foto: roboticsandautomationnews.com

CIA își va construi propriul robot AI în stil ChatGPT pentru investigații

Agenția Centrală de Informații a Statelor Unite (CIA) intenționează să construiască și să implementeze propriul robot de inteligență artificială (AI) în stil ChatGPT pentru investigații, potrivit unui raport de la Bloomberg.

Se pare că CIA intenționează să-și echipeze analiștii cu noul instrument AI pentru a accesa mai bine informațiile open-source. Aceasta include cercetarea informațiilor publice pentru pistele în investigații.

Oficialii agenției au spus că intenționează să lanseze instrumentul în curând. Randy Nixon, directorul întreprinderii open source a CIA, a declarat pentru Bloomberg că au trecut de la utilizarea „ziarelor și radioului, la ziare și televiziune, la ziare și televiziune prin cablu, la internet, la baze de date și așa mai departe”. Dezvoltarea vine după ce criticii au descris metodele actuale prin care CIA procesează datele publice disponibile drept „lente”.

Bloomberg a raportat că noile instrumente vor permite utilizatorilor săi să vadă sursa originală a informațiilor obținute, împreună cu o funcție de chat. „Atunci puteți trece la nivelul următor și puteți începe să discutați și să puneți întrebări mașinilor pentru a vă oferi răspunsuri, de asemenea, din surse.” Nu s-a menționat nici modelul din care CIA își construiește noul instrument și nici protecția vieții private, deși Nixon a spus că „urmează îndeaproape” legea privind confidențialitatea din Statele Unite.

Instrumentul va fi disponibil în cele 18 agenții care alcătuiesc serviciile de informații din SUA. Acestea includ CIA, Agenția de Securitate Națională, Biroul Federal de Investigații și agențiile militare. Această evoluție din partea CIA vine după confirmarea recentă din partea altor agenții guvernamentale a utilizării AI. 

Pe 12 septembrie, Gary Gensler, președintele Comisiei pentru Valori Mobiliare și Schimb (SEC), a confirmat Senatului SUA că departamentul său folosește în prezent instrumente AI pentru a monitoriza industria financiară pentru a căuta indicii de fraudă și manipulare. Într-un discurs din 17 iulie, Gensler a lăudat utilizarea instrumentelor AI, spunând că personalul SEC ar putea beneficia de o utilizare mai frecventă a AI în „supravegherea pieței, examene, aplicarea legii și analiza economică”.

Mark Zuckerberg dezvăluie chatbot-ul Meta AI

Noul asistent AI, Meta AI, va fi disponibil inițial din 27 septembrie pentru un grup limitat de utilizatori din SUA. CEO-ul Meta, Mark Zuckerberg, a dezvăluit noul asistent alimentat de inteligență artificială (AI) al firmei sale – Meta AI – răspunsul său la ChatGPT de la OpenAI, care se va integra cu Instagram, Facebook, WhatsApp și, în cele din urmă, cu dispozitivele de realitate mixtă ale companiei.

Vorbind la evenimentul Meta Connect din 27 septembrie, Zuckerberg a explicat că Meta AI este alimentat de modelul de limbaj mare al companiei, Llama 2, și a fost construit în parteneriat cu Microsoft Bing pentru a permite utilizatorilor accesul la informații în timp real de pe internet. „Meta AI este asistentul tău de bază cu care poți vorbi ca o persoană.” Pe lângă faptul că răspunde la întrebări și vorbește cu utilizatorii, noul bot poate genera imagini, utilizând un nou instrument de generare de imagini numit Emu pe care Meta l-a antrenat pe 1,1 miliarde de date, inclusiv fotografii și subtitrări partajate de utilizatori pe Facebook și Instagram.

Remarcând principalul punct de diferență al Meta AI față de concurentul ChatGPT, Zuckerberg a spus că, în loc să creeze un chatbot unic, strategia generală a Meta a fost să creeze diferite produse AI pentru diferite cazuri de utilizare. Ca exemplu, el a arătat cum Meta AI ar fi ușor diferit în fiecare dintre aplicațiile de socializare ale companiei, oferind un exemplu despre cum ar putea fi adăugată la chat-urile de grup pe Facebook Messenger pentru a ajuta la organizarea planurilor de călătorie.

Zuckerberg a spus că chatbot-urile Meta nu sunt destinate doar să transmită informații utile. De asemenea, sunt concepute pentru a fi conversaționale și distractive. Prezentându-și produsele AI axate pe divertisment, Meta a anunțat, de asemenea, o colecție de chatboți bazată pe aproximativ 30 de celebrități, inclusiv Paris Hilton, Snoop Dogg și fostul jucător NFL Tom Brady.

Potrivit Meta, noul asistent AI va fi disponibil pe 27 septembrie pentru un grup limitat de utilizatori din Statele Unite pe Facebook Messenger, Instagram și WhatsApp. Meta AI va fi disponibil și pentru utilizatorii noilor ochelari inteligenți ai companiei, programați să fie lansate pe 17 octombrie pentru utilizatorii din SUA, precum și noul său dispozitiv Quest 3 VR.

Sursă foto: tribunewired.com

Meta respinge acuzațiile de încălcare a drepturilor de autor în instruirea AI

Într-un proces împotriva lui Sarah Silverman și altor autori, Meta susține că sistemul său AI nu creează materiale care încalcă drepturile de autor, respingând afirmațiile conform cărora modelul său de inteligență artificială (AI) Llama a fost antrenat folosind materiale protejate prin drepturi de autor din cărți populare.

În instanță pe 18 septembrie, Meta a cerut unui judecător federal din San Francisco să respingă acuzațiile făcute de autoarea Sarah Silverman și de o mulțime de alți autori care au spus că a încălcat drepturile de autor ale cărților lor în pregătirea sistemului său AI.

Compania-mamă Facebook și Instagram au numit utilizarea materialelor pentru a-și instrui sistemele „transformatoare” și „corectă”. „Utilizarea textelor pentru a instrui LLaMA să modeleze statistic limbajul și să genereze expresii originale este transformatoare prin natură și prin folosirea corectă prin excelență…” Meta a spus că „problema centrală” a utilizării corecte a drepturilor de autor ar trebui să fie reluată „în altă zi, într-o înregistrare mai completă”. Compania a spus că reclamantul nu poate oferi explicații cu privire la „informațiile” la care se referă și nici nu ar putea oferi rezultate specifice legate de materialul lor.

Avocații autorilor au specificat într-o declarație separată din 19 septembrie că sunt „încrezători” că revendicările lor vor fi reținute și vor continua să treacă prin „descoperire și procese”. OpenAI a încercat, de asemenea, să respingă părți din revendicări în august, pe motive similare cu cele propuse de Meta în prezent.

Procesul inițial împotriva Meta și OpenAI a fost deschis în iulie și a fost unul dintre multele procese apărute împotriva giganților Big Tech pentru încălcarea drepturilor de autor și a datelor odată cu creșterea AI. Pe 5 septembrie, o pereche de ingineri au deschis un proces colectiv împotriva OpenAI și Microsoft cu privire la presupusele lor metode de scraping pentru a obține date private în timp ce își antrenează modelele AI respective. În iulie, Google a fost dat în judecată pe motive similare, după ce și-a actualizat politica de confidențialitate. Procesul a acuzat compania că a folosit greșit cantități mari de date, inclusiv materiale protejate prin drepturi de autor, în cadrul propriului său curs de instruire AI.

Polonia verifică OpenAI, ChatGPT în urma unei plângeri GDPR

Oficiul Polonez pentru Protecția Datelor cu Caracter Personal (UODO) a deschis o investigație cu privire la o plângere împotriva ChatGPT de la OpenAI, un solicitant acuzând firma că prelucrează datele într-un „mod ilegal și nesigur”.

Într-o declarație din 20 septembrie, Jan Nowak, președintele biroului de protecție a datelor, a declarat că aceasta nu este prima dată când au existat îndoieli cu privire la conformitatea ChatGPT cu principiile europene de protecție a datelor și confidențialitate. Plângerea acuză OpenAI că prelucrează datele într-o manieră ilegală și nesigură, iar regulile pe baza cărora colectează și prelucrează datele nu sunt transparente. Reclamantul a spus că în cazul său, ChatGPT a generat informații false despre el, iar cererile sale pentru exercitarea drepturilor conform Regulamentului european general privind protecția datelor (GDPR) nu au fost îndeplinite de OpenAI.

Cu toate acestea, Nowak a recunoscut că procedura propusă împotriva OpenAI ar putea fi dificilă, deoarece se referă la o companie din afara Uniunii Europene. „Cazul se referă la încălcarea multor prevederi privind protecția datelor cu caracter personal, motiv pentru care vom cere OpenAI să răspundă la o serie de întrebări pentru a putea desfășura proceduri administrative în detaliu”, a spus Nowak.

Între timp, Jakub Groszkowski, vicepreședintele UODO, a declarat că acuzațiile din plângere ridică îndoieli cu privire la abordarea OpenAI față de principiile europene privind protecția datelor cu caracter personal. Prin urmare, UODO va clarifica aceste îndoieli, în special pe fondul principiului fundamental al confidențialității prin proiectare, conținut în GDPR, a adăugat el.

Nu este prima dată când OpenAI se pare că încalcă conformitatea europeană cu GDPR. În martie, autoritățile italiene responsabile de protecția datelor au blocat temporar chatbot-ul de inteligență artificială ChatGPT și au deschis o investigație cu privire la presupuse încălcări ale regulilor de confidențialitate a datelor. Autoritatea italiană de supraveghere a datelor a mai spus că există o lipsă de informații pentru utilizatori cu privire la datele colectate de OpenAI. În aprilie, autoritățile de reglementare din Germania au cerut răspunsuri cu privire la intențiile companiei și capacitatea de a respecta legile stricte privind confidențialitatea datelor consacrate în GDPR al UE. În aceeași lună, Comitetul European pentru Protecția Datelor a înființat un grup de lucru special privind OpenAI.

Sursă foto: information-age.com

Concurența slabă din cursa cu inteligența artificială ar putea dăuna consumatorilor

Autoritatea pentru Concurență și Piețe din Regatul Unit vrea să împiedice utilizarea inteligenței artificiale pentru a submina încrederea consumatorilor. Există un „risc real” ca industria inteligenței artificiale (AI) să se dezvolte într-un mod care ar putea cauza ca doar câteva firme să domine piața, în timp ce consumatorii sunt bombardați cu informații dăunătoare, potrivit organului de supraveghere al concurenței din Regatul Unit.

Într-un raport publicat pe 18 septembrie, Autoritatea pentru Concurență și Piețe a analizat modelele fundației AI, concluzionand că, deși AI poate schimba modul în care oamenii trăiesc și lucrează, „aceste schimbări se pot produce prea rapid și pot avea un impact semnificativ asupra concurenței și a consumatorilor”.

Autoritatea de reglementare a concurenței a avertizat că, pe termen scurt, dacă concurența este slabă sau dezvoltatorii nu respectă legea privind protecția consumatorilor, consumatorii pot fi expuși la niveluri semnificative de informații false sau fraude bazate pe inteligența artificială.

Pe termen lung, există șansa ca multe firme să ajungă să câștige sau să consolideze poziții de putere de piață, ceea ce le-ar putea determina să nu ofere cele mai bune produse sau servicii sau să impună prețuri prea mari.

„Este esențial ca aceste rezultate să nu apară”, a spus CMA, CEO-ul Sarah Cardell adăugând: „Există un risc real ca utilizarea inteligenței artificiale să se dezvolte într-un mod care să submineze încrederea consumatorilor sau să fie dominată de câțiva jucători care exercită putere de piață care împiedică resimțirea tuturor beneficiilor în economie.”

Pentru a remedia acest lucru, organul de supraveghere a propus mai multe „principii directoare” pentru a asigura „protecția consumatorilor și o concurență sănătoasă, permițând în același timp beneficii economice depline”. Aceste principii directoare par să se concentreze pe creșterea accesului și a transparenței, în special atunci când vine vorba de a împiedica firmele să obțină avantaje prin utilizarea modelelor AI. Autoritatea de reglementare a concurenței din Regatul Unit a declarat că va publica o actualizare cu privire la principii și adoptarea lor la începutul anului 2024, împreună cu o perspectivă asupra evoluțiilor ulterioare din ecosistemul AI, considerând implicarea ce deja a avut loc cu dezvoltatorii AI și cu companiile care implementează tehnologia, a spus acesta.

Nu este prima dată când Marea Britanie avertizează cu privire la progresele rapide în AI. În iunie, consilierul grupului de lucru al primului ministru al Marii Britanii, Matt Clifford, a declarat că tehnologia va avea nevoie de reglementare și control în următorii doi ani pentru a reduce riscurile existențiale majore. Tot în iunie, organul de supraveghere al confidențialității din Japonia a avertizat compania-mamă a ChatGPT, OpenAI, despre metodele sale de colectare a datelor.

Camera Lorzilor din Marea Britanie adoptă un proiect de lege pentru confiscarea criptomonedelor furate

În timpul fazei de revizuire a proiectului de lege, Camera Lorzilor a convenit asupra anumitor amendamente pentru a-și clarifica intenția de a viza veniturile monetare din fraudă sau alte infracțiuni financiare.

Legea privind criminalitatea economică și transparența corporativă a fost introdusă în septembrie 2022 și urmărește în primul rând combaterea infracțiunilor financiare legate de cripto. În ultimul an, proiectul de lege a trecut de la Camera Comunelor la Camera Lorzilor și este acum în faza finală de aprobare.

În timpul revizuirii, Camera Lorzilor a convenit asupra anumitor amendamente pentru a-și clarifica intenția de a viza veniturile din fraudă sau alte infracțiuni financiare. În plus, proiectul de lege vizează, de asemenea, să stabilească prevederi pentru transparența corporativă și înregistrările de afaceri în străinătate.

În etapa finală, Camera Comunelor fie va decide să accepte amendamentele propuse, fie va recomanda modificări ale proiectului de lege. În urma aprobării, proiectul de lege va fi semnat în lege prin acordul regal, o metodă prin care un monarh aprobă în mod oficial un act al legislativului.

Autoritatea de reglementare financiară din Regatul Unit, Financial Conduct Authority (FCA), și-a dezvăluit recent disponibilitatea de a lucra cu companiile cripto pentru a dezvolta un cadru de reglementare mult așteptat pentru industrie.

Vorbind la conferința City Week de la Londra, directorul executiv al FCA Sarah Pritchard a spus: „Să lucrăm împreună pentru a ne modela regulile și reglementările în beneficiul piețelor, consumatorilor și firmelor, pe măsură ce cripto trece de la nișă la mainstream”. Pritchard a remarcat că responsabilitățile FCA se limitează la a se asigura că firmele cripto care operează în Regatul Unit respectă legislația împotriva spălării banilor și a finanțării terorismului.

Sursă foto: pymnts.com

UE anunță inițiativa de a accelera accesul la supercalculatoare pentru startup-urile AI

Președintele Uniunii Europene, Ursula von der Leyen, a cerut, de asemenea, un organism global de guvernare a AI în timpul discursului privind starea Uniunii din 2023. Aceasta a anunțat o nouă inițiativă pentru a oferi startup-urilor cu inteligență artificială (AI) acces rapid la supercalculatoarele europene.

Introducând subiectul AI, von der Leyen a invocat o scrisoare deschisă trimisă de membrii comunității globale de AI prin care se cere un control sporit de reglementare a potențialului de „extincție a AI”.

Discursul lui Per von der Leyen: „AI este o tehnologie generală care este accesibilă, puternică și adaptabilă pentru o gamă largă de utilizări – atât civile, cât și militare. Și se mișcă mai repede decât au anticipat până și dezvoltatorii săi. Deci avem o fereastră de oportunitate care se îngustează pentru a ghida această tehnologie în mod responsabil.”

Președintele a cerut asamblarea unui „nou cadru global pentru AI, construit pe trei piloni: balustrade, guvernare și ghidare a inovației”. În descrierea balustradelor necesare, președintele a invocat „Actul AI” al UE, numind-o „un model pentru întreaga lume”. Pentru pilonul „guvernare”, von der Leyen a implorat comunitatea globală să formeze un consiliu de guvernanță similar Grupului Internațional pentru Schimbările Climatice.

În cele din urmă, în sprijinul „ghidării inovației”, președintele von der Leyen a anunțat o inițiativă la nivelul UE pentru a accelera accesul la supercalculatoarele europene pentru startup-urile de inteligență artificială care doresc să formeze modele și să efectueze cercetări.

„Europa a devenit acum lider în supercalculatură – cu 3 dintre cele mai puternice 5 supercalculatoare din lume”, a spus președintele, adăugând: „Trebuie să valorificăm acest lucru”. Președintele von der Leyen a lăudat, de asemenea, companiile de tehnologie din SUA care au ales să adopte în mod voluntar standardele și etica AI și a lăudat companiile din UE care au făcut același lucru. „Acum”, a adăugat președintele, „ar trebui să aducem toate aceste lucrări împreună către standarde globale minime pentru utilizarea sigură și etică a AI”.

EY investește 1,4 miliarde de dolari în tehnologie AI și lansează o nouă platformă

Ernst & Young a dezvăluit investiții de miliarde de dolari în tehnologiile AI și lansarea unei noi platforme bazate pe inteligență artificială pentru clienții săi și personalul intern.

Ernst & Young (EY), unul dintre cei patru mari furnizori de servicii profesionale la nivel mondial, a anunțat dezvoltarea unei noi platforme bazate pe inteligență artificială (AI) pentru clienții săi.

Într-o postare din 13 septembrie, firma din Londra a dezvăluit că a investit 1,4 miliarde de dolari în tehnologii AI pentru noua sa platformă EY.ai, care își propune să ajute organizațiile să adopte AI. Platforma se bazează pe modelul LLM al EY, EY AI EYQ.

Compania a dezvăluit că o colaborare cu Microsoft a oferit EY acces timpuriu la capabilitățile Azure OpenAI, inclusiv ChatGPT-3 și ChatGPT-4. De asemenea, EY a investit împreună cu Dell în Dell Generative AI Solutions, care își propune să simplifice adoptarea AI generativă cu LLM.

Miliardele de investiții în inteligența artificială vor merge, de asemenea, la încorporarea tehnologiei în serviciile EY existente, cum ar fi EY Fabric, care este deja utilizat de 60.000 de clienți cu milioane de utilizatori unici, împreună cu achiziția de tehnologie suplimentară care susține cloud și automatizare.

Carmine Di Sibio, președinte global și CEO al EY, a comentat despre dezvoltare, spunând că momentul este „acum” pentru AI. „Adoptarea AI este mai mult decât o provocare tehnologică. Este vorba despre deblocarea unei noi valori economice în mod responsabil pentru a realiza potențialul vast al acestei evoluții tehnologice.”

EY anticipează de multă vreme boom-ul integrării AI, iar în 2018, compania a introdus un program „extensiv” de învățare AI, date și analiză și program de acreditări.

Potrivit anunțului lor, 100.000 de acreditări au fost acordate oamenilor din EY până în prezent, iar compania a reunit 4.200 de membri ai echipei axați pe tehnologie. Di Sibio a spus: „Fiecare afacere ia în considerare modul în care va fi integrată în operațiuni și impactul acesteia asupra viitorului.”

EY a fost proactiv în integrarea tehnologiilor emergente în operațiunile sale interne și externe. În octombrie anul trecut, a asistat o agenție guvernamentală din Norvegia să deschidă un birou în metavers.

Cu toate acestea, EY este doar una dintre multele întreprinderi globale majore care au inițiativa de a integra sau promova serviciile AI. Pe 13 septembrie, Goldman Sachs a respins ideea că hype-ul actual în jurul AI este doar o bulă care așteaptă să izbucnească, ci mai degrabă prezice o „revoluție” viitoare.

Sursă foto: outsourcing-pharma.com

Instrumentul Windows vizat de hackeri desfășoară programe malware de exploatare cripto

Instalatorii de software afectați sunt utilizați în principal pentru modelarea 3D și designul grafic, limba franceză fiind cea mai frecventă limbă folosită în campania de malware.

Hackerii folosesc un instrument Windows pentru a elimina programele malware de exploatare a criptomonedei din noiembrie 2021, potrivit unei analize de la Cisco’s Talos Intelligence. Atacatorul exploatează Windows Advanced Installer – o aplicație care îi ajută pe dezvoltatori să împacheteze alte programe de instalare de software, cum ar fi Adobe Illustrator – să execute scripturi rău intenționate pe dispozitivele infectate. Descoperirile sugerează că „victimele sunt probabil în diferite verticale de afaceri, inclusiv arhitectură, inginerie, construcții, producție și divertisment în țările predominante în limba franceză”, explică analiza.

Atacurile afectează preponderent utilizatorii din Franța și Elveția, cu câteva infecții în alte țări, inclusiv Statele Unite, Canada, Algeria, Suedia, Germania, Tunisia, Madagascar, Singapore și Vietnam, conform postărilor bazate pe datele de solicitare DNS trimise către gazda de comandă și control a atacatorului. Campania ilegală de cripto mining identificată de Talos implică desfășurarea de script-uri batch PowerShell și Windows rău intenționate pentru a executa comenzi și a stabili o ușă în spate în dispozitivul victimei. PowerShell, în special, este binecunoscut pentru că rulează în memoria sistemului în loc de hard disk, ceea ce face mai dificilă identificarea unui atac.

Odată ce ușa din spate este instalată, atacatorul execută amenințări suplimentare, cum ar fi programul de cripto-mining Ethereum PhoenixMiner și lolMiner, o amenințare de minerit cu mai multe monede. „Aceste scripturi rău intenționate sunt executate folosind funcția de acțiune personalizată a programului de instalare avansat, care permite utilizatorilor să predefinite sarcini de instalare personalizate. Sarcinile finale sunt PhoenixMiner și lolMiner, mineri disponibili public care se bazează pe capabilitățile GPU ale computerelor.”

Utilizarea malware-ului de cripto-mining este cunoscută sub denumirea de cryptojacking și implică instalarea codului de cripto-mining pe un dispozitiv fără știrea sau permisiunea utilizatorului, pentru a extrage ilegal criptomonede. Semnele că programele malware de exploatare pot rula pe un dispozitiv includ supraîncălzirea și performanțe slabe.

Folosirea familiilor de programe malware pentru a deturna dispozitive pentru a extrage sau a fura criptomonede nu este o practică nouă. Fostul gigant de smartphone-uri BlackBerry a identificat recent scripturi malware care vizează în mod activ cel puțin trei sectoare, inclusiv serviciile financiare, asistența medicală și guvernul.

Google face dezvăluirea AI obligatorie în anunțurile de campanie politică

Google și-a actualizat politica privind conținutul politic pentru a intra în vigoare începând cu noiembrie 2023, ceea ce va obliga dezvăluirea întregului conținut generat de inteligența artificială în anunțurile electorale.

Pe 6 septembrie, gigantul tehnologic a spus că dezvăluirile sunt necesare acolo unde există „conținut sintetic care descrie în mod neautentic oameni sau evenimente reale sau cu aspect realist”. În plus, a spus că aceste notificări trebuie să fie „clare și vizibile” în locurile în care utilizatorii le vor observa. „Anunțurile care conțin conținut sintetic modificat sau generat într-un mod care nu este semnificativ pentru afirmațiile făcute în anunț vor fi scutite de aceste cerințe de divulgare.”

Exemplele oferite de Google includ utilizarea AI în procesul de editare, cum ar fi redimensionarea, decuparea, corecțiile de culoare sau defecte sau orice modificări periferice care nu „creează reprezentări realiste ale evenimentelor reale”. Această politică actualizată se va aplica conținutului de imagine, video și audio și va fi implementată la jumătatea lunii noiembrie 2023, conform actualizării. Acest lucru vine cu exact un an înainte de alegerile prezidențiale din SUA din noiembrie 2024.

Subiectul dezvăluirilor pentru conținutul generat de AI a fost un subiect major, deoarece apariția proeminentă a instrumentelor AI de masă, cum ar fi ChatGPT de la OpenAI, a făcut mai ușoară crearea și difuzarea unui astfel de conținut. Pe măsură ce AI continuă să fie omniprezentă în diferite sectoare, Google și alte companii tehnologice importante și-au intensificat atenția asupra instrumentelor și serviciilor AI.

Într-o notă a CEO-ului Google din 5 septembrie, el a spus că se gândește să transforme compania pentru a deveni o „companie pe primul loc în AI” de când s-a alăturat în 2015.

Pe 17 august, Google și-a modernizat motorul de căutare pentru a include îmbunătățiri bazate pe inteligență artificială pentru a ajuta la eficientizarea funcțiilor de căutare. De asemenea, și-a unit forțele cu OpenAI și Microsoft pentru a crea Frontier Model Forum, pe care intenționează să-l folosească pentru a ajuta la auto-reglementarea dezvoltării AI din industrie.

Interesul Google pentru dezvoltarea politicilor de inteligență artificială s-a extins la celelalte platforme ale sale, inclusiv YouTube, care și-a lansat recent „principiile” pentru lucrul cu industria muzicală în tehnologia legată de inteligența artificială.

Sursă foto: iticollege.edu

AI ar putea revoluționa domeniul resurselor umane, dar există riscuri

Pe măsură ce companiile la nivel global se confruntă cu problema angajării de oameni calificați, păstrarea angajaților și optimizarea dinamicii la locul de muncă, potențialul inteligenței artificiale (AI) de a oferi soluții inovatoare a devenit un focus de discuție între profesioniștii în resurse umane (HR).

Pentru mulți dintre membrii din industrie și observatori, integrarea AI în HR reprezintă o fuziune promițătoare a eficienței bazate pe date și a procesului decizional îmbunătățit. Organizațiile apelează din ce în ce mai mult la instrumente bazate pe inteligență artificială pentru a eficientiza procesele care odată consumau timp și se bazau pe intuiția umană.

De exemplu, algoritmii sofisticați de inteligență artificială pot parcurge grupuri vaste de cereri de locuri de muncă, identificând candidații ale căror profiluri se potrivesc cel mai bine cu descrierea postului. Acest lucru are potențialul de a accelera procesul de recrutare și de a se asigura că respectivii candidații selectați se potrivesc mai bine cu cerințele companiei.

Dincolo de recrutare, influența AI în HR se manifestă în diverse alte domenii. Analizele predictive susținute de inteligența artificială le permit companiilor să anticipeze potențiala schimbare a angajaților, permițând profesioniștilor din HR să intervină proactiv și să abordeze problemele subordonate. Această abordare proactivă ar putea spori satisfacția angajaților, reducând posibil ratele de uzură.

Cu toate acestea, deși beneficiile AI în HR ar putea fi numeroase, integrarea sa nu este lipsită de provocări. Preocupările legate de confidențialitatea datelor, potențialul de părtinire algoritmică și teama de o dependență excesivă de tehnologie în detrimentul intuiției umane sunt subiecte de dezbatere în curs de desfășurare.

Pe măsură ce sectorul de resurse umane navighează în aceste complexități, obiectivul general rămâne clar: să valorifice puterea AI în moduri care să completeze expertiza umană, asigurându-se că implicarea umana în HR rămâne neînlocuită.

Potențialul AI personalizat în HR

Tendința emergentă în domeniul inteligenței artificiale este o îndepărtare de la soluțiile generice, universale. Mediul de afaceri modern, caracterizat prin diversitatea și provocările sale unice, necesită soluții AI mai personalizate, adaptate nevoilor specifice. Acest lucru este valabil mai ales pentru sectorul HR, unde nuanțele culturii companiei, dinamica angajaților și obiectivele organizaționale pot varia foarte mult.

De exemplu, o corporație multinațională cu o forță de muncă diversă, răspândită în diferite zone geografice, ar putea beneficia de un sistem de inteligență artificială conceput să înțeleagă și să răspundă legilor regionale privind ocuparea forței de muncă, nuanțelor culturale și fondurilor locale de talente.

Pe de altă parte, un startup din sectorul tehnologic ar putea căuta o soluție AI care să pună accent pe potrivirea competențelor, integrarea rapidă și dinamica muncii de la distanță.

Mai multe companii fac eforturi pentru a aborda această provocare, argumentând că echipele AI pot egala sau chiar depăși eficiența umană, fiind în același timp mai rentabile. Olympia este o astfel de companie. Adresându-se în primul rând startup-urilor și proprietarilor de afaceri individuali, oferă întreprinderilor echipe AI adaptate nevoilor lor specifice. Aceste echipe de inteligență artificială sunt concepute pentru a învăța complexitățile operațiunilor unei companii, de la nevoile de colaborare în timp real până la analiza aprofundată a datelor. Victoria Loskutova, co-fondatorul și CEO-ul Olympia, a declarat: „AI prezintă o soluție transformatoare pentru gestionarea resurselor umane. Permite organizațiilor să automatizeze sarcinile de rutină, să analizeze cu precizie seturi mari de date și să ofere răspunsuri imediate non-stop. Spre deosebire de HR uman, AI nu obosește niciodată; oferă servicii consecvente, elimină părtinirea inconștientă din luarea deciziilor și se scalează fără efort. Puterea inteligenței artificiale constă în revoluționarea peisajului HR, maximizând eficiența și corectitudinea, eliberând în același timp profesioniștii umani să se concentreze pe sarcini strategice și complexe în care capacitățile lor unice strălucesc cu adevărat.”

Cu toate acestea, călătoria către realizarea pe deplin a potențialului AI personalizat în HR este plină de provocări. Necesită o relație simbiotică în care companiile oferă în mod continuu feedback, asigurându-se că AI rămâne aliniată cu obiectivele lor în evoluție.

Provocări și considerații cu AI în HR

Dialogul care înconjoară AI în HR se întoarce adesea la valoarea intrinsecă a înțelegerii umane. În timp ce tehnologia oferă instrumente și soluții, esența resurselor umane este adânc înrădăcinată în înțelegere, empatie și capacitatea de a percepe nuanțe dincolo de simple date.

Brenda Neckvatal, autoarea cărții Best Practices in Human Resources: How to Claw Your Way from Want-to-Be to VP, a spus: „În era AI și automatizării, este esențial să ne amintim că nucleul resurselor umane este despre conexiunea umană. Tehnologia ne poate ajuta procesele, dar influența gândirii umane, înțelegerea și empatia sunt cele care conduc cu adevărat HR-ul înainte. Acestea sunt elemente pe care nicio mașină nu le poate replica pe deplin.”

Perspectiva ei rezonează cu mulți din comunitatea HR care cred că, în timp ce tehnologia poate oferi instrumente, esența HR este despre construirea de relații și crearea unei culturi la locul de muncă care să se conecteze cu indivizii. Neckvatal a adăugat: „Deși intenția AI este de a ajuta la reducerea volumului de muncă și la creșterea eficienței, AI, totuși, nu a fost programată să ia în considerare prejudecățile care pot deschide angajatorii pentru riscuri.”

Dacă datele de instruire sunt părtinitoare în mod inerent, deciziile bazate pe inteligența artificială ar putea reflecta aceste părtiniri, ceea ce duce la posibile rezultate inechitabile sau discriminatorii în recrutare și alte procese de resurse umane. Neckvatal a mai spus: „Site-urile AI, cum ar fi ChatGPT, nu sunt echipate cu programare pentru a atenua limbajul care creează disparități și discriminare în contextul legislației muncii și al celor mai bune practici preventive”.

Confidențialitatea și securitatea datelor apar, de asemenea, drept preocupări semnificative. Cu sistemele AI care prelucrează date cu caracter personal și profesionale extinse, protejarea acestor informații este crucială. O încălcare sau o utilizare abuzivă ar putea avea ramificații legale și poate afecta încrederea și moralul angajaților.

Evoluția IA necesită în continuare adaptabilitate. Companiile vor trebui să se asigure că echipele lor de resurse umane rămân la curent cu cele mai recente progrese, posibil implicând formare continuă și perfecționare.

Navigarea în viitorul resurselor umane

Integrarea AI în HR introduce noi paradigme și provocări. În timp ce AI oferă promisiunea unor procese simplificate și perspective predictive, esența resurselor umane s-a învârtit istoric în jurul înțelegerii aspirațiilor oamenilor și a construirii încrederii.

Loskutova a spus: „HR-ul evoluează sub influența profundă a AI – este mai mult decât un instrument; este o furtună care ne remodelează peisajul. Ne clătinam în pragul unui viitor automatizat în care AI nu are impact doar asupra industriilor noastre; le reinventează. Povestea despre HR se va transforma în curând dintr-o narațiune despre indivizi într-o saga a dansului nostru și a ciocnirii cu algoritmii. Nu este vorba doar de adaptarea la o nouă comandă de lucru, ci de navigarea în potopul întregii noastre revizuiri a societății.”

În contrast, Neckvatal a subliniat prudența pentru cei din HR care iau în considerare integrarea imediată a AI: „Este foarte recomandabil ca profesioniștii din HR să învețe cum AI prezintă riscuri pentru companiile lor înainte de a-l utiliza.”

În acest domeniu în evoluție, companiile și profesioniștii în HR sunt prezentați cu perspective variate asupra rolului și influenței AI, reflectând natura duală a discursului în curs în peisajul HR. Pe măsură ce integrarea AI continuă să modeleze anumite aspecte ale resurselor umane, industria se află într-un moment esențial în care sinteza tehnologiei și intuiția umană va determina traiectoria dinamicii forței de muncă pentru anii următori.

Sursă foto: personalprojekte.com

Membrii parlamentului britanic solicită o alianță globală pentru a combate utilizarea abuzivă a inteligenței artificiale

Colaborarea își propune să protejeze în mod colectiv împotriva persoanelor, afiliate sau nu la stat, care încearcă să folosească greșit AI pentru obiectivele lor.

Un grup de membri ai parlamentului (deputați) influenți din Regatul Unit au sfătuit guvernul să colaboreze cu aliații democratici pentru a aborda potențiala utilizare greșită a inteligenței artificiale, subliniind scopul Londrei de a fi un jucător cheie în promovarea tehnologiei emergente.

Pe 31 august, Comitetul pentru Știință, Inovare și Tehnologie (SITC), un organism consultativ al guvernului, a recomandat într-un raport ca Marea Britanie să se alinieze cu națiuni similare care împărtășesc valori democratice. Această colaborare își propune să protejeze în mod colectiv împotriva indivizilor, indiferent dacă sunt sau nu afiliați la stat, care încearcă să folosească greșit AI pentru obiectivele lor.

Prim-ministrul Marii Britanii, Rishi Sunak, intenționează să convoace un summit la începutul lunii noiembrie, reunind lideri mondiali și lideri tehnologici la Bletchley Park, un centru istoric de încălcare a codurilor din Al Doilea Război Mondial. Scopul este de a stabili linii directoare pentru AI, permițând Regatului Unit să-și asume un rol mai substanțial atât în reglementarea, cât și în a deveni un hub central pentru industria AI. Raportul evidențiază capacitatea AI de a răspândi deepfakes, care ar putea înșela publicul, și riscul ca actorii răi să folosească tehnologia pentru a dezvolta noi arme biologice și chimice.

Comisia pentru Cultură, Media și Sport a Camerei Comunelor a îndemnat recent guvernul să renunțe la propunerile care acordă dezvoltatorilor AI acces nerestricționat pentru a-și antrena sistemele folosind muzică, literatură și artă preexistente. Într-un alt raport din 30 august, comitetul a avertizat că propunerea inițială a guvernului de a scuti extragerea de texte și date bazată pe inteligență artificială de la protecția drepturilor de autor ar putea diminua valoarea artei și culturii, relegându-le la simple resurse pentru progresul AI.

În cadrul guvernului au apărut discuții cu privire la includerea Chinei în întâlnirea din noiembrie. Această adunare urmează să convoace liderii mondiali ai Grupului celor șapte, împreună cu directori din industrie, după cum a raportat Bloomberg, citând surse informate despre această problemă.

Raportul SITC a sfătuit guvernul să elaboreze un proiect de lege privind inteligența artificială pentru deliberare în cursul unei viitoare sesiuni a parlamentului din 7 noiembrie. În caz contrar, Regatul Unit ar putea duce la rămânerea în urmă a altor eforturi legislative, în special în discuțiile în curs privind Legea privind inteligența artificială a UE, afirmă raportul.

Autoritățile de reglementare din SUA neagă blocarea exporturilor de cipuri AI către Orientul Mijlociu

Departamentul de Comerț al SUA a negat blocarea vânzărilor de cipuri AI către Orientul Mijlociu și a rămas tăcut dacă cerințele au fost impuse doar anumitor țări. Acesta a declarat pe 31 august că administrația Biden „nu a blocat vânzările de cipuri către Orientul Mijlociu”, potrivit unui raport de la Reuters.

Acest lucru vine după ce a fost dezvăluit într-un raport Nvidia că guvernul SUA a extins cerințele pentru licențele de export pentru cipuri de inteligență artificială (AI). Advanced Micro Devices (AMD), un concurent direct al Nvidia, a primit, de asemenea, o scrisoare similară de la autoritățile de reglementare. Departamentul de Comerț nu a comentat dacă cerințele au fost impuse anumitor companii din SUA. Cu toate acestea, noile reguli ar impune ca Nvidia și AMD să obțină licențe înainte de a vinde cipuri emblematice „în unele țări din Orientul Mijlociu”, potrivit dosarului.

Niciuna dintre cele două companii nu a dezvăluit dacă au aplicat pentru licențele menționate sau dacă a existat vreun feedback cu privire la acordarea licențelor pentru acea regiune. Nvidia a avertizat autoritățile de reglementare în raportul său trimestrial că „excluderea efectivă cu totul a Chinei sau o parte din China” ar putea „dăuna” la rezultatele pe termen lung pentru companie.

În octombrie 2022, administrația Biden a emis controalele inițiale la export într-un efort de a încetini China să dezvolte sisteme AI de nivel înalt cu cipuri semiconductoare puternice fabricate de companiile americane. Oficialii de la Washington au declarat că iau în considerare și mai mult înăsprirea reglementărilor menționate anterior într-o declarație făcută pe 29 iunie, care ar limita și mai mult puterea de calcul a cipurilor disponibile pe piața chineză.

Mișcările făcute de guvernul SUA au fost atent supravegheate de alte autorități de reglementare din întreaga lume. La scurt timp după intrarea în vigoare a reglementărilor inițiale ale SUA, a fost încheiat un acord cu Țările de Jos și Japonia pentru a restricționa exporturile de echipamente de fabricare a semiconductoarelor în China.

Oficialii din Regatul Unit, Franța și Germania au spus în mod deschis că iau în considerare controlul investițiilor străine directe chineze în sectoare cruciale precum AI. China a răspuns spunând că va controla exportul de produse cu galiu și germaniu, materiile prime primare necesare pentru a produce cipuri AI.

Sursă foto: analyticsinsight.net