Partidele politice germane s-au împărțit cu privire la modul în care să reglementeze adoptarea AI

În aprilie 2021, Comisia Europeană și-a prezentat propunerea de reguli armonizate privind inteligența artificială (AI), denumită Actul Inteligenței Artificiale (Legea AI). După ce Consiliul Uniunii Europene și Parlamentul European și-au finalizat pozițiile în decembrie 2022 și iunie 2023, instituțiile legislative au intrat într-o discuție privind viitorul regulament AI.

Negocierile pot fi provocatoare din cauza diferențelor semnificative dintre Parlament și Consiliu cu privire la aspecte specifice, cum ar fi supravegherea biometrică. În Germania, grupurile politice și experții digitali sunt, de asemenea, îngrijorați de modificările propuse la Legea AI.

Die Linke solicită o reglementare mai strictă și transparență

Partidul de stânga german Die Linke a evidențiat lacune semnificative în reglementarea europeană a inteligenței artificiale, în special în ceea ce privește protecția consumatorilor și obligațiile pentru furnizorii și utilizatorii de inteligență artificială.

Ea dorește să solicite ca sistemele cu risc ridicat – inclusiv sistemele AI care prezintă un risc ridicat pentru sănătatea, siguranța și drepturile fundamentale ale persoanelor fizice – să fie verificate de către o autoritate de supraveghere a conformității cu regulamentul înainte ca aceste sisteme AI să fie lansate pe piață. . Die Linke a sugerat ca guvernul german să numească cel puțin o autoritate națională de supraveghere și să furnizeze suficiente resurse financiare pentru a îndeplini această sarcină.

„Politica trebuie să se asigure că o tehnologie care este semnificativă pentru toată lumea, dar controlată doar de câțiva este supravegheată de o autoritate de reglementare și dovedită de încredere înainte de implementarea ei”, a spus Petra Sitte, un politician de la Die Linke, adăugând: „Prin urmare, nu vă lăsați șantajați de lobbyiștii marilor corporații tehnologice. De asemenea, putem consolida o abordare open-source în Europa […], ceea ce înseamnă că un cod de programare este accesibil tuturor.”

Die Linke susține, de asemenea, interzicerea explicită a sistemelor de identificare și clasificare biometrică în spațiile publice, interferențe electorale determinate de inteligență artificială și sisteme de poliție predictivă.

Potrivit partidului, excepția pentru sistemele științifice AI specificate în Legea AI nu ar trebui să se aplice dacă sistemul este utilizat în afara instituțiilor de cercetare. Die Linke solicită deja guvernului german să dezvolte programe de instruire privind capacitățile și limitările sistemelor AI și să evalueze anual sistemele AI utilizate în operațiunile guvernamentale „folosind un model standardizat de clasificare a riscurilor”, precum și să le înregistreze într-un registru AI. .

Uniunea acordă prioritate inovației și deschiderii

În schimb, coaliția de centru-dreapta a Uniunii Creștin Democrate din Germania și a Uniunii Creștin Sociale din Bavaria – cunoscută și sub denumirea de „Uniunea” – a subliniat că AI nu ar trebui reglementată excesiv. Acesta pledează pentru ca guvernul federal să acorde prioritate AI și un mediu favorabil inovației în Europa.

În ceea ce privește negocierile , Uniunea și-a notat documentul de poziție, susținând că AI generativă va permite companiilor germane și europene să exceleze la nivel internațional. Partidul dorește să evite înființarea unei mari autorități de supraveghere la Bruxelles, precum și diferențele în implementarea legii AI în statele membre UE. Deși pledează pentru definiții mai clare, sugerează, de asemenea, asigurarea securității juridice prin alinierea la Regulamentul general privind protecția datelor, la Legea datelor și la Legea piețelor digitale.

Uniunea face, de asemenea, propuneri concrete pentru a asigura suveranitatea tehnologică a Germaniei în AI. Recunoscând provocările de construire a unei infrastructuri complet noi într-un interval de timp realist, partidul recomandă extinderea infrastructurii de supercalculatură existente a Centrului Gauss pentru Supercomputing. De asemenea, propune ca startup-urile germane și europene, întreprinderile mici și mijlocii (IMM-uri) și dezvoltatorii open-source să aibă acces dedicat la această infrastructură.

Pentru a încuraja creșterea startup-urilor germane de AI, Uniunea a sugerat ca unor astfel de întreprinderi mici să li se atribuie contracte guvernamentale.

În plus, Uniunea a evidențiat un deficit de investiții în spin-off-urile universitare și AI cu sursă deschisă și a pledat pentru sprijinul direcționat prin inițiative naționale, cum ar fi Fondul suveran pentru tehnologie. Având în vedere utilizarea pe scară largă a AI în diferite instituții de învățământ, organizații și companii, Uniunea a subliniat necesitatea urgentă de a stabili sisteme locale pentru a preveni scurgerea accidentală de informații.

Asociația Germană AI necesită soluții practice

Asociația Germană AI (KI Bundesverband), cea mai mare asociație industrială din Germania pentru AI, reprezentând peste 400 de IMM-uri inovatoare, startup-uri și antreprenori, pledează, de asemenea, pentru deschiderea către inovare.

„Așadar, Europa trebuie să poată oferi propriile sisteme AI care pot concura cu omologii lor americani sau chinezi”, a declarat Jörg Bienert, președintele KI Bundesverband. În timp ce KI Bundesverband acceptă ideea că un cadru de reglementare cuplat cu investiții în AI poate fi o modalitate de a stimula inovarea, asociația nu este de acord cu abordarea UE față de acest obiectiv. Bienert consideră că orice strategie trebuie să includă trei componente cheie: atenuarea riscurilor potențiale, promovarea dezvoltării interne și protejarea drepturilor fundamentale și a valorilor europene.

Potrivit Bienert, legislatorii UE nu au reușit să creeze un cadru de reglementare care să se concentreze pe amenințările și riscurile reale ale aplicațiilor AI. El a mai spus că Legea AI riscă să devină mai mult o reglementare pentru software-ul avansat decât o abordare bazată pe risc. Introducerea unei astfel de reglementări extinse după dominația companiilor tehnologice din Statele Unite și China va împiedica șansele companiilor europene de inteligență artificială de a-și consolida poziția și de a crea dependență de tehnologia străină. „Ceea ce este nevoie acum sunt soluții sensibile și practice pentru a atenua riscurile și amenințările reale prezentate de AI, nu soluții politice rapide determinate de ideologie.”

Găsind un echilibru

Guvernul Germaniei sprijină Legea AI, dar vede și un potențial suplimentar pentru îmbunătățiri. Annika Einhorn, purtătorul de cuvânt al Ministerului Federal pentru Afaceri Economice și Acțiune Climatică, a declarat : „Acordăm importanță atingerii unui echilibru între reglementare și deschidere către inovare, în special în peisajul AI german și european”. Guvernul federal va susține, de asemenea, acest lucru în cadrul negocierilor privind Legea AI.

Pe lângă negocieri, guvernul federal implementează deja numeroase măsuri pentru promovarea companiilor germane de AI, inclusiv stabilirea de structuri de cercetare de înaltă performanță și vizibile la nivel internațional și, în special, furnizarea de infrastructură de calcul și AI de ultimă generație la nivel internațional. În plus, în timpul negocierilor privind Legea AI, guvernul federal continuă să pledeze pentru „o abordare ambițioasă” a bancurilor de testare AI. Potrivit lui Einhorn, acest lucru permite inovarea, îndeplinind în același timp și cerințele Legii AI.

Europa este lăsată în urmă?

Toate aceste sugestii și idei pot suna promițătoare, dar adevărul este că majoritatea modelelor mari de AI sunt dezvoltate în SUA și China. Privind această tendință, experții digitali sunt îngrijorați de faptul că economiile digitale germane și europene ar putea rămâne în urmă. În timp ce Europa deține o expertiză semnificativă în domeniul inteligenței artificiale, disponibilitatea puterii de calcul împiedică dezvoltarea ulterioară.

Pentru a examina modul în care Germania ar putea ajunge din urmă în AI, Ministerul Afacerilor Economice și Acțiunii Climatice a comandat un studiu de fezabilitate intitulat „Modele mari de AI pentru Germania”.

În studiu, experții susțin că, dacă Germania nu poate dezvolta și furniza în mod independent această tehnologie de bază, industria germană va trebui să se bazeze pe servicii străine, ceea ce prezintă provocări în ceea ce privește protecția datelor, securitatea datelor și utilizarea etică a modelelor AI.

Dominanța pe piață a companiilor din SUA în motoarele de căutare, rețelele sociale și serverele cloud exemplifica dificultățile care pot apărea în ceea ce privește securitatea și reglementarea datelor. Pentru a aborda aceste dificultăți, studiul propune înființarea unei infrastructuri de supercomputing AI în Germania, care să permită dezvoltarea unor modele AI mari și să ofere resurse de calcul companiilor mai mici. Cu toate acestea, detaliile specifice privind finanțarea și implementarea rămân de stabilit.

„AI făcut în Europa”

În AI, dependența Europei de software și servicii din țările non-europene este în creștere constantă. Potrivit Holger Hoos, profesor Alexander von Humboldt pentru AI, acest lucru reprezintă o amenințare la adresa suveranității sale, deoarece reglementarea singură nu poate aborda în mod adecvat problema. Hoos a subliniat necesitatea unei schimbări substanțiale în strategiile germane și europene de AI, însoțită de investiții publice semnificative direcționate.

Un aspect cheie al acestei propuneri este crearea unui „CERN pentru IA” recunoscut la nivel global. Acest centru ar avea puterea de calcul necesară, resursele de date și personalul calificat pentru a facilita cercetarea de ultimă oră AI. Un astfel de centru ar putea atrage talente, promova activități și conduce proiecte în domeniul AI la scară globală, aducând o contribuție demnă de remarcat la succesul „AI made in Europe”. Hoos a adăugat: „Ne aflăm într-un moment critic. Este nevoie de o schimbare clară a cursului, de un efort îndrăzneț pentru a face AI realizată în Europa un succes – un succes care va avea un impact profund asupra economiei, societății și viitorului nostru.”

Sursă foto: thehill.com

Două treimi din extensiile AI Chrome ar putea pune în pericol securitatea utilizatorilor

Datele dintr-un raport Incogni au arătat că 69% dintre extensiile AI pentru Google Chrome au un impact de risc ridicat asupra securității cibernetice a utilizatorilor in cazul breșelor de securitate.

Raportul din august a analizat 70 de extensii AI Chrome din șapte categorii diferite, inclusiv 10 extensii de scriere, care au intrat toate în categoria cu risc ridicat, iar 60% dintre extensii au avut un risc scăzut pentru a face față unei breșe de securitate în primul rând.

Darius Belejevas, șeful Incogni, a spus că, în timp ce aceste extensii oferă „confort incontestabil”, utilizatorii ar trebui să aibă confidențialitatea și protecția securității drept prioritate principală. „Înțelegerea datelor pe care utilizatorii le partajează extensiilor și a fiabilității acestora în păstrarea lor în siguranță este crucială.”

Datele au constatat că 59% dintre extensiile analizate colectează date despre utilizatori, 44% dintre acestea colectând „informații de identificare personală” (PII). PII include date precum numele utilizatorului, adresa și numărul de identificare.

„Fiind precauți în alegerea extensiilor AI Chrome și rămânând informați cu privire la potențialele lor riscuri”, a spus el, „utilizatorii pot îmbrățișa beneficiile AI și își protejează în același timp informațiile personale.”

Tema privind confidențialitatea și colectarea și manipularea greșită a datelor utilizatorilor a devenit o preocupare majoră, alături de creșterea rapidă a aplicațiilor AI.

În iunie, Google și-a schimbat politica de confidențialitate pentru a permite scraping-ul de date pentru a-și antrena sistemele AI – deși a fost întâmpinată foarte repede cu un proces colectiv care susținea că au fost încălcate drepturile de confidențialitate și de proprietate prin noile modificări.

Worldcoin, a fost una dintre evoluțiile majore recente din industrie care a stârnit îngrijorări cu privire la gestionarea datelor utilizatorilor. Aceasta a determinat autoritățile globale de reglementare să lanseze investigații cu privire la respectarea protocolului.

Între timp, pe 7 august, guvernul indian a adoptat un proiect de lege prin camera inferioară a parlamentului care ar ușura reglementările privind conformitatea datelor pentru companiile Big Tech, precum Google și Meta.

Zoom actualizează termenii după reacțiile negative privind utilizarea AI

Mulți utilizatori au declarat online că opresc folosirea platformei Zoom-ului din cauza unor termeni care aparent au permis platformei să culeagă datele acestora pentru a antrena modele AI.

Platforma de videoconferințe Zoom și-a actualizat termenii și condițiile după o reacție larg răspândită asupra unei secțiuni referitoare la eliminarea datelor AI, clarificând că nu va folosi conținutul utilizatorului pentru a antrena algoritmi de inteligență artificială fără consimțământ.

Într-o postare din 7 august, Zoom a spus că termenii și condițiile sale au fost actualizați pentru a confirma în continuare că nu va folosi conținutul de chat, audio sau video de la clienții săi pentru a antrena AI fără aprobarea lor explicită.

În weekend, un număr mare de utilizatori Zoom au amenințat că nu vor mai folosi platforma după ce au descoperit termeni care se presupune că ar însemna că firma va folosi o gamă largă de conținut pentru clienți pentru a antrena modele AI.

În cea mai recentă postare, Zoom a spus că termenii legați de AI au fost adăugați în martie și a reiterat că nu va folosi date despre clienți pentru instruirea AI fără consimțământ. Termenii au fost acum actualizați pentru a include o clarificare similară: „Fără a încălca cele de mai sus, Zoom nu va folosi conținut audio, video sau chat pentru a instrui modelele noastre de inteligență artificială fără consimțământul dumneavoastră.”

Postarea din partea platformei explică posibilitățile sale in materie de AI – un instrument de rezumat al întâlnirilor și un compozitor de mesaje – sunt înscrise cu proprietarii de conturi sau administratorii capabili să controleze activarea instrumentelor.

Îngrijorarea a apărut cu privire la condițiile în care utilizatorii au fost de acord cu utilizarea, colectarea, distribuirea și stocarea de către Zoom a „Datelor generate de servicii” în orice scop, inclusiv pentru formarea AI și a modelelor de învățare automată.

Alți termeni au permis dreptul aplicației de a utiliza conținutul generat de clienți pentru, printre alte utilizări, învățarea automată și instruirea și testarea AI.

Alte companii de tehnologie au actualizat recent politicile de confidențialitate pentru a face loc scraping-ului de date pentru a instrui AI.

Între timp, există o preocupare tot mai mare cu privire la utilizarea de către firmele de tehnologie a AI și posibilele implicații privind confidențialitatea. În iunie, grupurile de protecție a consumatorilor din Uniunea Europeană au îndemnat autoritățile de reglementare să investigheze modelele de inteligență artificială utilizate în chatbot-uri precum ChatGPT de la OpenAI sau Bard de la Google.

Grupurile au fost preocupate de dezinformare, colectarea datelor și manipularea generate de roboți. UE a adoptat Actul AI pe 14 iunie, care va intra în vigoare în următorii doi-trei ani și oferă un cadru pentru dezvoltarea și implementarea AI.

Sursă foto: nationaltoday.com

Lansarea Worldcoin stârnește dezbateri despre confidențialitatea datelor și viitorul AI

Lansarea Worldcoin a stârnit o nouă dezbatere asupra viitorului identității descentralizate, inteligenței artificiale și dacă scanarea irisului este singura cale de urmat.

Controversatul proiect criptografic de identificare digitală Worldcoin a fost lansat pe 24 iulie după trei ani de dezvoltare.

Proiectul a fost co-fondat de Sam Altman, CEO al OpenAI – compania din spatele popularului chatbot bazat pe inteligență artificială (AI) ChatGPT.

Worldcoin a făcut titluri imediat după anunțul său din iunie 2021, deoarece a promis că va crea un sistem futurist de identitate digitală prin scanarea globilor oculari ai oamenilor.

Worldcoin susține că va deveni din ce în ce mai dificil să se facă diferența între oameni și roboți online, pe măsură ce tehnologia AI avansează. Astfel, pentru a diferenția oamenii de AI, a creat un sistem de identificare digitală bazat pe „dovada personalității”. Acest ID digital va fi generat prin scanarea irisului unei persoane și oferindu-i un „World ID”.

Firma susține că toate datele biometrice vor fi salvate pe un blockchain descentralizat, iar proiectul nu stochează date personale. Acesta generează o dovadă de zero cunoștințe pentru a verifica dacă utilizatorul este uman, fără a dezvălui datele utilizate pentru a crea dovada.

În ciuda controverselor persistente de la anunțarea sa, Worldcoin a asigurat o finanțare de 115 milioane de dolari în mai și a reușit să strângă peste 2 milioane de înscrieri înainte de lansarea sa oficială pentru public.

Ecosistemul Worldcoin

Worldcoin combină World ID și tokenul Worldcoin (WLD) – două componente esențiale ale ecosistemului.

Prima este o identitate digitală axată pe confidențialitate, care ajută oamenii să-și autentifice identitatea și unicitatea online, protejându-le în același timp anonimatul. Pentru a primi un World ID, utilizatorii trebuie să treacă prin verificarea biometrică folosind un „Orb”. După finalizarea acestei verificări, persoanelor fizice li se acordă un World ID unic și, acolo unde este permis de lege, token-uri WLD.

Ecosistemul digital ID constă și din aplicația World, care funcționează ca un portofel și oferă servicii financiare descentralizate. Aplicația conține, de asemenea, ID-ul mondial unic al utilizatorilor, generat de o scanare a irisului. Compania susține că aplicația poate verifica utilizatorii pe orice aplicație terță parte.

Utilizatorii își pot scana irisul în locații desemnate folosind un Orb. După ce irisul lor este scanat, un utilizator primește 25 de token-uri WLD. Mai multe companii de criptomonede de top, inclusiv Binance, Bybit, OKX, Gate.io și Huobi, au listat deja tokenul.

Șeful de comunicare al lui Bybit, Nathan Thompson, a declarat că WLD a fost listat pe platformă în funcție de cererea comunității. Întrebat despre provocările cu care s-ar putea confrunta proiectul, Thompson a spus că cea mai importantă provocare este percepția publicului: „Nativii criptografici se vor lupta să ajungă în spatele unui proiect ale cărui valori de bază sunt antiteza a tot ceea ce reprezintă, în timp ce „nocoiners” ar necesita o înștiințare semnificativă cu privire la beneficiile proiectului dacă se așteaptă ca aceștia să sprijine proiectul.”

Nick Dazé, CEO-ul Heirloom – o platformă Web3 care dovedește acreditările și caracterul personal – a declarat că Worldcoin este foarte interesant, dar execuția este departe de realitate:

„Fără a-l împuternici pe creatorul acestei identități să dețină și să controleze în totalitate identitatea într-un mod permanent, proiectul este periculos. Dacă datele sunt descentralizate, hack-urile sofisticate ar putea fi descurajate, deoarece câștigul pentru hacker ar fi mai greu de înțeles. Cu toate acestea, o “mină de aur” cu mii sau milioane de ID-uri este o țintă excelentă pentru operațiuni de hacking costisitoare, profesionale, eventual sponsorizate de stat.”

Critici privind confidențialitatea datelor

Proiectul a atras critici din partea activiștilor de confidențialitate, experților în securitate cibernetică și entuziaștilor cripto. Cofondatorul Ethereum, Vitalik Buterin, a fost printre primii care au reacționat la lansare, ridicând îngrijorări cu privire la metoda folosită pentru a crea ID-uri mondiale. Buterin a spus că cineva ar putea scana irisul altei persoane pentru a determina dacă are un World ID.

Reporterii MIT Technology Review susțin că Worldcoin a folosit „practici de marketing înșelătoare, a colectat mai multe date personale decât a recunoscut și nu a reușit să obțină un consimțământ informat semnificativ”. Ei au mai susținut că o mare parte din înscrierile sale timpurii au venit din țările în curs de dezvoltare din Asia și Africa, unde legile privind datele și confidențialitatea nu sunt la fel de stricte.

Unde se lansează Worldcoin?

Proiectul a fost lansat în 35 de orașe din 20 de țări, cu noi înscrieri începând cu 24 iulie. Chiar dacă proiectul a reușit peste 2 milioane de înscrieri, răspunsul după lansare a părut slab pe baza rapoartelor timpurii.

Hong Kong a înregistrat cel mai mare număr de înscrieri din 20 de țări în primele două zile, reprezentând aproape jumătate din toate înscrierile. Cu toate acestea, în medie, cele trei locații din Hong Kong au înregistrat aproximativ 200 de înscrieri, ducând numărul total de înscrieri în prima zi la aproximativ 1000, ceea ce este relativ scăzut în comparație cu înscrierile pre-lansare.

Worldcoin nu lansează WLD în Statele Unite și a clarificat în termenii săi de serviciu că „nu este destinat să fie disponibil pentru utilizare, cumpărare sau acces” pentru rezidenții din SUA.

SUA au o istorie în reglementarea datelor biometrice, iar CEO-ul Fetch.ai, Humayun Sheikh, a declarat că fondatorii proiectului par să fie conștienți de această rezistență la reglementare. Worldcoin s-a concentrat în primul rând pe țări cu mai puține drepturi de confidențialitate și reglementări pentru testare, cum ar fi Kenya, Sudan și Ghana.

„În afară de SUA, proiectul se poate confrunta și cu probleme de reglementare din partea Uniunii Europene. În timp ce compania susține că respectă Regulamentul general privind protecția datelor, UE are unele dintre cele mai stricte legi privind protecția datelor din lume. Natura însăși a operațiunilor Worldcoin implică construirea unei baze de date biometrice. Deci, este posibil ca aceștia să se confrunte cu provocări în respectarea acestor legi. Chiar și țări precum India – unde Worldcoin și-a început deja operațiunile – ar fi dornice să cerceteze Worldcoin din cauza viitoarei facturi de protecție a datelor”, a spus Sheikh.

Organismul de reglementare a datelor din UK a declarat că doresc să investigheze Worldcoin, în timp ce organul francez de supraveghere a confidențialității a tras un semnal de alarmă cu privire la metodele de colectare a datelor utilizate de proiect.

Fraser Edwards, co-fondatorul și CEO la furnizorul de infrastructură de date descentralizată Cheqd, a declarat că Worldcoin are elemente de cele mai bune practici (doar șabloanele biometrice sunt stocate dacă sunt alese), dar creează totuși o bază de date centralizată a acestor șabloane și face acest lucru cu puțin sau deloc consimțământ informat, adică să le spună oamenilor la ce renunță.

„De îndată ce aceste șabloane sunt legate de identitate (eventual cu Orb), aceste date biometrice pot fi folosite pentru a identifica oamenii. Trebuie să luăm în considerare consecințele neintenționate, iar o bază de date biometrică globală este cea mai mare miză în consecințele neintenționate.”

Pe măsură ce AI și presupusele soluții la problemele pe care le-a creat continuă să se dezvolte, va fi crucial pentru autoritățile de reglementare să țină pasul cu vremurile și să creeze cadre dinamice pentru a asigura confidențialitatea și securitatea utilizatorilor.

Sursă foto: cryptoslate.com

ChatGPT își pierde performanța de la model la model

Unele dintre răspunsurile ChatGPT au arătat că acuratețea modelului s-a deteriorat în ultimele luni și cercetătorii nu își pot da seama de ce.

Într-un studiu din 18 iulie, cercetătorii de la Stanford și UC Berkeley au descoperit că cele mai noi modele ChatGPT au devenit mult mai puțin eficiente in oferirea de răspunsuri precise la o serie identică de întrebări în decurs de câteva luni.

Autorii studiului nu au putut oferi un răspuns clar cu privire la motivul pentru care capacitățile chatbot-ului AI s-au deteriorat.

Pentru a testa cât de fiabile au fost diferitele modele de ChatGPT, cercetătorii Lingjiao Chen, Matei Zaharia și James Zou au cerut modelelor ChatGPT-3.5 și ChatGPT-4 să rezolve o serie de probleme de matematică, să răspundă la întrebări sensibile, să scrie noi linii de cod și să urmeze un raționament vizual-spațial din prompturi.

Potrivit cercetării, în martie, ChatGPT-4 a fost capabil să identifice numere prime cu o rată de precizie de 97,6%. În același test efectuat în iunie, precizia lui GPT-4 a scăzut la doar 2,4%.

În schimb, modelul anterior GPT-3.5 a îmbunătățit identificarea numerelor prime în același interval de timp.

Studiul a constatat, de asemenea, că răspunsurile ChatGPT la întrebări referitoare la subiecte controversate – cu unele exemple care arată un accent pe etnie și gen – au devenit ulterior mai concise în refuzul de a răspunde.

Iterațiile anterioare ale chatbot-ului au oferit un raționament amplu privind motivul pentru care nu a putut răspunde la anumite întrebări sensibile. În iunie însă, modelele și-au cerut pur și simplu scuze utilizatorului și au refuzat să răspundă.

„Comportamentul aceluiași serviciu se poate schimba substanțial într-un timp relativ scurt”, au scris cercetătorii, subliniind necesitatea monitorizării continue a calității modelului AI.

Cercetătorii au recomandat utilizatorilor și companiilor care se bazează pe serviciile LLM drept componentă a fluxurilor lor de lucru să implementeze o anumită formă de analiză de monitorizare pentru a se asigura că chatbot-ul rămâne la curent.

Pe 6 iunie, OpenAI a dezvăluit planurile de a crea o echipă care va ajuta la gestionarea riscurilor care ar putea apărea dintr-un sistem AI superinteligent, lucru așteptat în acest deceniu.

Casa Albă: Demersul companiilor AI spre siguranță și transparență

Administrația Biden a subliniat responsabilitatea companiilor de inteligență artificială de a se asigura că serviciile lor sunt sigure pentru utilizare.

Pe 21 iulie, Casa Albă a facut un anunț privind companiile ce se folosesc de inteligența artificială (AI), precum OpenAI, Google și Microsoft, conform căruia acestea s-au angajat să dezvolte o tehnologie AI care este sigură și transparentă.

Administrația Biden a subliniat responsabilitatea companiilor de a asigura siguranța serviciilor lor și de a valorifica potențialul AI, promovând în același timp standarde înalte în dezvoltarea acesteia.

Kent Walker, președintele Google pentru afaceri globale, a recunoscut că obținerea succesului în AI necesită colaborare. El și-a exprimat satisfacția că s-a alăturat altor companii de top în domeniul inteligenței artificiale pentru a sprijini aceste angajamente și a asigurat că Google va continua să lucreze cu alte companii prin împărtășirea informațiilor și a celor mai bune practici.

Printre angajamente se numără testarea de securitate înainte de lansare pentru sistemele AI, partajarea celor mai bune practici în domeniul siguranței AI, investiția în securitate cibernetică și măsuri de protecție a amenințărilor interne și permiterea raportării de către terți a vulnerabilităților în sistemele AI.

Sursă foto: bath.ac.uk