Coca-Cola a semnat un parteneriat de 1,1 miliarde de dolari cu Microsoft în domeniul AI

Compania Coca-Cola a anunțat o colaborare strategică pe cinci ani cu Microsoft pentru soluțiile sale de cloud și inteligență artificială.

Cele două companii au semnat inițial un parteneriat în 2020, cu Microsoft furnizând gigantului de băuturi software de afaceri, inclusiv soluțiile sale de cloud computing, instrumentele de chat Teams și Dynamic 365, suita sa de software enterprise.

Acum au actualizat această colaborare pentru a include capacitățile evolutive de AI generative ale Microsoft. În anunțul lor, cele două companii au confirmat că intenționează să experimenteze cu tehnologii emergente, cum ar fi Azure OpenAI Service, pentru a dezvolta soluții pentru diverse funcții de afaceri ale Coca-Cola.

“Prin parteneriatul nostru pe termen lung, am făcut progrese semnificative pentru a accelera transformarea AI la nivelul întregii rețele a companiei Coca-Cola și a rețelei sale de parteneri independenți din întreaga lume,” a comentat Judson Althoff, CFO-ul Microsoft.

Un aspect vital al parteneriatului va fi Copilot, asistentul de AI al Microsoft, despre care compania susține că poate îmbunătăți productivitatea și economisi mii de ore de lucru pentru întreprinderi. La Coca-Cola, Copilot va avea sarcina de a ajuta angajații să îmbunătățească operațiunile, să îmbunătățească experiența clienților, să crească eficiența și să descopere noi oportunități de creștere.

Cele două companii nu au dezvăluit repartizarea celor 1,1 miliarde de dolari, inclusiv cât din aceasta merge către produse existente precum Azure și Dynamics 365 și cât merge către produsele inovatoare de AI generativ.

“Parteneriatul nostru extins cu Microsoft reprezintă un capitol important în călătoria Coca-Cola către o întreprindere axată pe digital, alimentată de tehnologiile emergente. Capabilitățile Microsoft ne ajută să accelerăm adoptarea AI pentru a crea valoare incrementală la nivel de întreprindere”, a comentat Neeraj Tolmare, vicepreședintele senior al Coca-Cola.

Parteneriatul demonstrează dominația continuă a Microsoft în sectorul de inteligență artificială. Doar acum un deceniu, compania era văzută ca o marcă aflată în declin, urmând același parcurs ca și gigantii anteriori precum producătorul de PC-uri Wang și producătorii de telefoane Nokia și BlackBerry. Cu toate acestea, s-a reinventat cu ajutorul calculului în cloud și a inteligenței artificiale în ultimii ani.

Astăzi, Microsoft trage sforile la OpenAI, creatorul ChatGPT și un lider de piață în domeniul AI. Acest trend în AI a triplat capitalizarea de piață a companiei în ultimii trei ani, ajungând la 3 trilioane de dolari, făcând-o cea mai mare companie din lume.

Sursă foto: uctoday.com

Noul centru Microsoft din Londra va contribui la dezvoltarea unor lucrări inovatoare în domeniul modelelor de inteligență artificială

Microsoft își intensifică investiția în domeniul inteligenței artificiale emergente din Marea Britanie, promițând să deschidă un nou centru de inteligență artificială în Londra pentru a conduce munca companiei cu această tehnologie.

După abia o lună de la lansarea Microsoft AI, gigantul tehnologic confirmă lansarea unui centru la Londra conceput pentru a “impulsiona lucrări inovatoare” în domeniul modelelor de inteligență artificială. Denumit Microsoft AI London, acest centru va oferi instrumente pentru modelele de bază, în timp ce va explora colaborările cu OpenAI și alte companii partenere din domeniul tehnologiei.

Condus de fostul inginer de la Inflection și Deepmind, Jordan Hoffmann, centrul de la Londra va angaja mai mulți experți în inteligența artificială pentru a se alătura echipei. Se așteaptă ca majoritatea membrilor echipei să fie recrutați din biroul Microsoft din Paddington, Londra, anunțul sugerând că în viitorul apropiat vor fi făcute angajări masive.

“In următoarele săptămâni și luni, vom posta anunțuri de angajare și vom recruta activ persoane excepționale care doresc să lucreze la cele mai interesante și provocatoare întrebări legate de inteligența artificială din zilele noastre,” se confirmă în anunț.

Microsoft AI, lansat în mijlocul lunii martie, reprezintă planul companiei de a se orienta către inteligența artificială generativă, concentrându-se pe îmbunătățirea Copilot și a altor oferte de inteligență artificială. Organizația nou creată este așteptată să fie vârful inovației în domeniul inteligenței artificiale în cadrul Microsoft, cu Mustafa Suleyman numit să conducă noua organizație.

Alegerea Regatului Unit ca bază pare să fie o alegere evidentă pentru Microsoft AI, cu Suleyman indicând o bază solidă de experți în învățarea automată în regiune. “Sunt profund conștient de extraordinarele talente și ecosistemul de inteligență artificială din Regatul Unit, și sunt încântat să fac acest angajament față de Regatul Unit în numele Microsoft AI,” a declarat Suleyman.

În plus, decizia de a stabili un centru în Londra va permite companiei să-și extindă prezența în Regatul Unit. Țara găzduiește în prezent Laboratorul Microsoft Research Cambridge și beneficiază de o subvenție de 2,5 miliarde de lire sterline (2,7 miliarde de dolari) pentru îmbunătățirea adoptării inteligenței artificiale și a altor tehnologii emergente.

Strategia Regatului Unit în domeniul AI

Conștient de puterea AI de a revoluționa peisajul digital, guvernul Regatului Unit a adoptat o abordare rapidă pentru a rămâne în fruntea evoluției, alocând o avere în cercetare și dezvoltare.

Cu peste 120 de milioane de dolari cheltuiți și o echipă specializată conducând avansul, Regatul Unit dorește să asigure standarde minime globale pentru reglementarea AI. Rezultatele eforturilor concertate au dus la Declarația Bletchley, în care mai multe țări și-au adăugat semnăturile la document.

“Având în vedere importanța AI pentru securitatea națională, ar trebui să se stabilească și un forum pentru țările cu valori liberale și democrate, care să poată dezvolta o protecție mutuală îmbunătățită împotriva acelor actori – statali sau nu – care sunt dușmani ai acestor valori,” se arată într-un raport al Comitetului din Camera Comunelor din 2023.

Sursă foto: egi.co.uk

Casa Albă dezvăluie planul de bază pentru inteligența artificială destinat agențiilor federale din SUA

Casa Albă a emis un nou memorandum destinat agențiilor federale cu mandate privind implementarea și gestionarea riscurilor inteligenței artificiale (IA) în birourile guvernamentale din Statele Unite.

Memorandumul, intitulat “M-24-10: Avansarea Inovației în Guvernare și Gestionarea Riscurilor pentru Utilizarea de Către Agenții a Inteligenței Artificiale”, a fost publicat la 28 martie de către Biroul Executiv al Președintelui prin Biroul de Management și Buget.

La fel ca multe dintre documentele legate de IA pe care le-am văzut publicate de instituțiile guvernamentale și organizațiile globale în trecut, acest nou memorandum oferă un cadru pentru guvernanța, inovația și gestionarea riscurilor legate de IA pentru diversele agenții federale din SUA, cu speranța că unele dintre aceste practici vor fi adoptate în întreaga lume.

Memorandumul este conceput pentru a se asigura că adoptarea tehnologiilor de IA în cadrul agențiilor federale atenuează riscurile, în timp ce este inovativă și ia în considerare preocupările etice.

Iată componentele și directivele cheie ale memorandumului pe care agențiile federale sunt îndemnate să le urmeze și să le implementeze până la 1 decembrie 2024.

Inițiativele guvernului în domeniul IA

Guvernanța IA: Memorandumul impune numirea unui Ofițer Șef de IA (CAIO) în cadrul fiecărei agenții federale pentru a supraveghea guvernanța IA, inovația și gestionarea riscurilor. CAIO va avea sarcina de a coordona inițiativele de IA în cadrul agențiilor lor respective și de a se asigura că tehnologiile de IA sunt dezvoltate și utilizate în moduri care se aliniază cu politicile și principiile federale. În plus, CAIO-urile sunt responsabile de elaborarea strategiilor pentru utilizarea IA, crearea unui inventar al cazurilor de utilizare a IA și de a lucra îndeaproape cu oficialii existenți în probleme legate de IA care afectează departamentele lor.

Implementarea responsabilă a IA: Memorandumul încurajează agențiile federale să țină cont de etica în timp ce fiecare departament continuă să își dezvolte capacitățile de IA și ulterior să își implementeze IA, în special în ceea ce privește îmbunătățirea infrastructurii IT, gestionarea datelor, securitatea cibernetică și dezvoltarea forței de muncă legate de IA. Memorandumul subliniază, de asemenea, importanța departamentelor de a împărtăși resursele de IA, cum ar fi modelele, codul și datele, în întreaga guvernare federală pentru a încuraja colaborarea și a cataliza inovația.

Gestionarea riscurilor pentru IA: O parte semnificativă din memorandumul de 34 de pagini este dedicată practicilor de gestionare a riscurilor pentru IA, în special în ceea ce privește aplicațiile de IA care ar putea afecta drepturile și siguranța publică. Având în vedere acest lucru, memorandumul solicită agențiilor federale să implementeze “practici minime de gestionare a riscurilor”, inclusiv testarea pentru bias și echitate, monitorizarea continuă a sistemelor de IA și evaluarea regulată pentru a se asigura că aplicațiile de IA nu subminează încrederea sau siguranța publică.

Avansul global al politicilor de inteligență artificială: Provocarea aplicării

Recent, au fost adoptate multe politici și reglementări privind inteligența artificială care fie au fost aprobate, fie își fac drum prin corpul legislativ al unei țări sau organizații fără multă rezistență.

Am văzut Uniunea Europeană adoptând Legea privind IA, am văzut Organizația Națiunilor Unite adoptând o rezoluție provizorie privind IA, am văzut administrația Biden eliberând un ordin executiv privind IA, și acum, vedem Casa Albă lansând cel mai recent memorandum privind IA.

Este clar că fiecare țară încearcă să arate lumii că sunt jucători serioși în cursa pentru IA, cu speranța că politica și reglementarea privind IA pe care o creează vor deveni fie un standard global, fie cel puțin o sursă de inspirație pentru politicile și reglementările privind IA care urmează; dar un lucru la care aceste politici nu reușesc deloc este să explice cum vor fi ele aplicate.

Cele mai multe politici și reglementări privind IA sunt insuficiente în așteptările lor că participanții din industrie sunt dispuși să divulge informații despre modelele lor de IA și despre cazurile lor de utilizare actuale și viitoare. Cu excepția unei companii foarte expuse public care încalcă în mod flagrant una dintre legi sau mandate, va fi dificil să se identifice companiile care nu respectă reglementările.

Ce nu ajută este natura secretă a acestei industrii extrem de tehnice. Dacă un startup sau o companie are într-adevăr un model inovator de IA, cel mai probabil nu va dori să dezvăluie natura modelului sau cazurile sale de utilizare, deoarece ar putea să îl pună într-o poziție defavorabilă și ar putea duce la copierea efectivă a tehnologiei sale de către concurenți. Din aceste motive, printre multe altele, legile și reglementările cuprinzătoare privind IA pe care le vedem luând amploare sunt, în multe cazuri, lipsite de putere.

În alte cazuri mai specifice, legile privind IA create sunt utile, în special cele care impun penalități celor care folosesc IA pentru a provoca prejudicii. Mai devreme în acest an, FCC a emis o hotărâre care a făcut robo-apelurile generate de IA ilegale în conformitate cu Legea privind protecția consumatorilor de telefonie. Aceasta s-a întâmplat la scurt timp după ce mulți locuitori din New Hampshire au primit un mesaj audio generat de IA care imita vocea președintelui Joe Biden și îi încuraja să nu voteze. Dar datorită noii hotărâri a FCC, persoanele care folosesc IA generativă pentru a manipula, a viza sau a dezinforma alții prin robo-apeluri pot primi amenzi reglementare de peste 23.000 de dolari per apel.

Sursă foto: shopsg7.shop

Cele mai recente angajări ale Microsoft schimbă echilibrul produselor AI destinate consumatorilor

Pe măsură ce cursa pentru inteligența artificială (AI) generativă se intensifică, Microsoft a demarat o serie de angajări masive de experți în tehnologii emergente în ultimele săptămâni.

Microsoft l-a angajat pe Mustafa Suleyman să conducă divizia sa de AI pentru consumatori, în timp ce compania tehnologică își stabilește strategia pentru următoarea lansare majoră de AI pentru consumatori. Suleyman a fost anterior cofondatorul Google DeepMind și se așteaptă să impună noi ambiții către Microsoft în domeniul AI. Rolul lui Suleyman în cadrul Microsoft este de a superviza integrarea formală a AI Copilot în Windows, elementele de conversație în Bing și o posibilă incursiune în spațiul hardware. Se așteaptă ca Suleyman să transforme marile idei AI ale Microsoft în produse comerciale fără a face neglija standardele de siguranță.

“Suntem determinați să ne asigurăm că acest următor val de inovație va aduce produse incredibile pentru consumatori,” a declarat Suleyman.

Suleyman a fondat startup-ul Inflection AI și a obținut anterior 1,3 miliarde de dolari în finanțare, evaluând firma de doi ani la peste 4 miliarde de dolari.

Cândva un concurent important al OpenAI în domeniul chatbot-urilor, Inflection AI își transferă o mare parte a echipei la Microsoft, inclusiv cofondatorul startup-ului Karen Simonyan, care este acum șef științific al diviziei de AI pentru consumatori a Microsoft, punând capăt rivalității cu OpenAI.

“Îi felicităm pe Mustafa și Karen pentru noile lor roluri și așteptăm cu nerăbdare să lucrăm cu ei,” a declarat OpenAI într-o declarație.

Microsoft este hotărât să își mărească distanța față de alți dezvoltatori de AI, cu Google și Meta lansând noi și îmbunătățite modele de limbaj mare (LLM). Cu Google Gemini câștigând teren și o posibilă colaborare cu Apple în pregătire, Microsoft se pregătește pentru o competiție acerbă în lunile următoare.

Renunțând la OpenAI

În ciuda investiției sale considerabile în OpenAI, valul recent de angajări al Microsoft este văzut ca o încercare de a-și consolida unitatea de AI în afara producătorului ChatGPT. Microsoft are mai multe motive să își urmărească inițiativele de AI în propriile sale laboratoare, inclusiv investigațiile recente ale Departamentului de Justiție al Statelor Unite și ale Comisiei Federale pentru Comerț în legătură cu preocupările privind concurența neloială.

Autoritățile au exprimat preocupări că investiția Microsoft în OpenAI ar putea încălca regulile existente privind concurența neloială, cu reglementatorii Uniunii Europene semnalând parteneriatul sub reglementările sale privind fuziunile.

Sursă foto: uctoday.com

AI transformă rapid social media

Pe măsură ce inteligența artificială generativă (AI) continuă să înregistreze realizări impresionante, un nou studiu realizat de Research and Markets relevă că platformele de socializare sunt principalii adoptanți ai acestei tehnologii.

Raportul, intitulat “AI în piața de social media – Prognoze de la 2024 la 2029”, remarcă faptul că actorii din industrie se bazează pe instrumentele AI pentru a îmbunătăți experiențele clienților și pentru a face recomandări personalizate pentru utilizatori.

În timp ce dependența rețelelor de socializare de AI este deja la un nivel maxim, raportul prezice o creștere bruscă a adoptării în anii următori, care se așteaptă să depășească cazurile de utilizare anterioare. Principalele motoare ale exploziei AI includ necesitatea de a adapta conținutul pentru utilizatori specifici în cazul reclamelor și postărilor recomandate.

Raportul prezice o tranziție către chatbot-uri alimentate de AI pentru rezolvarea întrebărilor clienților, o mișcare concepută pentru a atenua sarcinile reprezentanților ai serviciului de asistență pentru clienți. Mai mult, se așteaptă ca platformele de socializare să aplice AI pentru analiza datelor și pentru a obține idei cheie pentru a conduce competiția într-un spațiu în evoluție rapidă.

Integrarea instrumentelor AI oferă utilizatorilor mai multe capabilități, inclusiv programarea postărilor și urmărirea performanțelor. În mod specific, managerii de social media pot folosi AI pentru a automatiza sarcinile repetitive, economisind mult timp pe parcurs. “Capacitatea de a delega aceste sarcini unui asistent alimentat de AI oferă managerilor oportunitatea de a se concentra pe activități mai strategice care pot duce la o productivitate îmbunătățită și o prezență mai puternică pe rețelele de socializare”, se menționează în raport.

Un alt factor cheie de creștere pentru AI în social media este progresul în recunoașterea imaginilor. Platformele de socializare pot introduce noi utilități, inclusiv etichetarea automată și sugestii pentru noi prieteni folosind tehnologia de recunoaștere facială susținută de AI.

Evaluarea predictivă a riscurilor este o altă sferă care alimentează adoptarea rapidă a AI în social media, cu vânzări și marketing care înregistrează interese similare.

În ceea ce privește tehnologia, în prezent învățarea automată și învățarea profundă conduc, dar raportul prezice o creștere semnificativă a prelucrării limbajului natural (NLP) în anii următori.

Jucătorii cheie își dublează pariurile pe AI

Mai mulți giganți în domeniul social media au prezentat instrumente AI și Web3 pentru a îmbunătăți experiențele clienților. Meta (NASDAQ: META), compania mamă a Instagram și Facebook, a introdus noi experiențe AI, inclusiv un set de chatboturi inspirate de vedete și influențe culturale.

Alte platforme de social media au lansat generatori de imagini și funcționalități de editare video bazate pe AI pentru a ține pasul cu ritmul inovației. În noiembrie, YouTube și-a dezvăluit cele mai recente funcționalități AI care permit creatorilor să rezume comentariile de pe videoclipurile pe termen lung, protejând drepturile de autor. „Lucrând împreună, vom înțelege mai bine cum pot fi aceste tehnologii cele mai valoroase pentru artiști și fani, cum pot îmbunătăți creativitatea și unde putem căuta să rezolvăm probleme critice pentru viitor”, a declarat CEO-ul YouTube, Neal Mohan, la acea vreme.

Sursă foto: medium.com

India ia decizii pentru startup-uri prin noua reglementare privind lansarea uneltelor AI către public

India a emis un aviz prin care solicită companiilor “mari” care utilizează unelte de inteligență artificială (AI) sau modele AI generative să obțină aprobarea guvernului înainte de a le lansa către public. Avizul Ministerului Tehnologiei Informației și Electronicelor (MeitY) nu se aplică startup-urilor.

De asemenea, avizul solicită companiilor de tehnologie să se asigure că uneltele lor de AI, produsele sau serviciile “nu permit niciun fel de bias sau discriminare sau nu amenință integritatea procesului electoral”. Cea mai populată țară din lume își va desfășura alegerile naționale în vara aceasta, unde se așteaptă ca Partidul Bharatiya Janata al prim-ministrului Narendra Modi să obțină o majoritate clară și să dețină funcția pentru un al treilea mandat, susținut de o economie robustă.

“Avizul vizează platformele AI neetestate care sunt implementate pe internetul indian”, a clarificat Rajeev Chandrasekhar, ministru adjunct al Tehnologiei Informației, pe X.

Căutarea permisiunii de la MeitY este valabilă doar pentru “platformele mari și nu se aplică startup-urilor”, a adăugat Chandrasekhar.

Avizul vine la scurt timp după ce un utilizator a afirmat că platforma AI Gemini a gigantului american de căutare Google a oferit răspunsuri influențate atunci când a fost întrebat dacă PM Modi era fascist. Google a cerut scuze guvernului indian pentru Gemini, declarând că platforma este “nepotrivită”.

Gemini de la Google a fost, de asemenea, criticat în alte părți și a trebuit să oprească temporar funcția de imagini generate de AI după ce a produs rezultate care distorsionau etnia și genul figurilor istorice.

Cu toate acestea, avizul Indiei a fost criticat de mai multe companii de tehnologie. Martin Casado, partener general la firma de investiții Andreessen Horowitz, a declarat pe X: „Ce o tragedie. Cererea de aprobare guvernamentală pentru a implementa un model… Este împotriva inovației. Este împotriva publicului. Și toți pierdem…”

Aravind Srinivas, director executiv al Perplexity.ai, a declarat pe X că avizul a fost “o mișcare proastă a Indiei”. Cu toate acestea, Chandrasekhar din India a răspuns rapid, clarificând că există consecințe legale în cadrul legilor penale și IT existente pentru platformele care permit sau produc direct conținut ilegal. “Deci, cel mai bun mod de a vă proteja este să folosiți etichetarea și consimțământul explicit și dacă sunteți o platformă majoră să solicitați permisiunea de la guvern înainte de a implementa platforme cu erori”, a spus el.

Avizul exclude startup-urile, luând în considerare că India are acum peste 1,00,000 de startup-uri, cu potențialul de a adăuga 10,00,000 de startup-uri în deceniul următor.

India urmează să lanseze un cadru regulativ preliminar pentru AI până în luna iulie pentru a utiliza tehnologia în scopul creșterii economice, în timp ce stabilește măsuri de protecție pentru a preveni abuzul.

Sursă foto: indiaai.gov.in

93% dintre firmele din Arabia Saudită au strategii avansate pentru integrarea AI

Un nou studiu realizat de Cisco a descoperit o creștere a adoptării inteligenței artificiale (AI) de către firmele private din Arabia Saudită, stimulată de necesitatea de a îmbunătăți productivitatea și eficiența la locul de muncă.

Raportul, intitulat “Indexul de pregătire pentru AI în Arabia Saudită”, a sondat peste 8.000 de companii din 30 de țări pentru a evalua planurile lor de integrare a AI în procesele lor. Raportul Cisco vine înaintea conferinței LEAP 2024 din capitala Arabiei Saudite, Riyadh, denumită “cea mai mare conferință tech din lume”.

Un studiu mai detaliat al sondajului dezvăluie că, în timp ce 93% dintre companiile din Arabia Saudită au strategii avansate pentru integrarea AI, doar 8% dintre firme sunt pregătite să implementeze complet tehnologia în sistemele lor. O parte semnificativă din firmele intervievate menționează absența unei infrastructuri solide pentru a gestiona procese AI complexe, în timp ce o mică parte indică un cadru reglementar neclar drept motiv pentru ezitarea în adoptarea AI. 31% din companiile analizate consideră că numărul redus de oameni talentați implicați este un motiv semnificativ pentru ezitarea de a se implica complet în AI, iar 82% promit să crească investițiile în echiparea angajaților cu noi competențe în domeniul AI.

În ciuda factorilor care stau în calea firmelor din Arabia Saudită, aproape toate întreprinderile intervievate își propun să crească productivitatea la locul de muncă prin utilizarea modelelor AI generative de către angajați. 30% dintre firme iau în considerare perspectivele de noi surse de venituri cu AI, în timp ce altele vizează avantajele serviciilor personalizate pentru clienți.

Indexul Cisco notează că doar un număr limitat de firme din țară pot preveni atacurile cibernetice ale răufăcătorilor asupra sistemelor AI. Cu toate acestea, raportul sugerează că o combinație între sectorul privat și ambiția guvernului saudit de a adopta AI este de așteptat să umple orice lacune care împiedică adoptarea AI.

„Pe măsură ce Autoritatea Saudiă pentru Date și Inteligență Artificială lucrează la implementarea Strategiei Naționale pentru Date și AI, informațiile din index pot ajuta la informarea priorităților în cadrul pilonilor importanți, inclusiv strategie, infrastructură, date, guvernanță, talente și cultură,” a declarat Salman Faqeeh, Director General, Cisco Arabia Saudită.

O încercare curajoasă pentru AI

Arabia Saudită a depus eforturi susținute pentru a transforma economia sa digitală cu ajutorul inteligenței artificiale. Eforturile țării au condus la investiții în noi cipuri Nvidia și la lansarea unei inițiative naționale de educație în domeniul AI pentru a a mări numărul de angajați talentați pentru companiile globale de AI. Pentru a se distanța de dominația SUA și Chinei, Arabia Saudită a dezvăluit AceGPT, un model nativ de limbaj larg (LLM), pentru a surprinde subtilitățile culturii arabe.

“Arabia Saudită a făcut progrese semnificative în ultimii ani pentru a se afirma ca un jucător important în domeniul AI”, a declarat Faqeeh. “Regatul recunoaște potențialul transformativ al AI și l-a plasat în centrul Viziunii sale 2030.”

Sursă foto: al-monitor.com

Legislatorii din Singapore dezbat impactul economic al inteligenței artificiale înainte de lansarea noului buget

Membrii Parlamentului din Singapore (MP-uri) dezbat impactul inteligenței artificiale generative asupra economiei înaintea lansării unui nou buget național. Channel News Asia a raportat că 56 de MP-uri și-au exprimat opinii cu privire la implicațiile adoptării AI-ului în statul oraș. Discuția care a durat opt ore a generat remarci diverse din partea legislatorilor, majoritatea exprimând îngrijorare cu privire la viitorul muncii în Singapore.

MP-ul Desmond Choo a remarcat că adoptarea AI-ului ar putea crea anumite job-uri redundante, ducând la mii de pierderi de locuri de muncă în Singapore. În special, parlamentarul a exprimat îngrijorare cu privire la rolurile de nivel de intrare în codificare și servicii pentru clienți, având în vedere competența instrumentelor AI în aceste domenii.

“Anumite abilități pe care până nu demult le-am considerat rezistente în fața viitorului, cum ar fi codificarea sau analiza statistică, ar putea deveni rapid devalorizate atunci când instrumentele AI pot face sarcinile acestor job-uri la fel de bine, dacă nu mai bine, pentru o fracțiune din costul și timpul implicate,” a spus MP-ul Jamus Lim, afirmând poziția lui Choo.

Legislatorii au subliniat creșterea numărului de tineri singaporezi care învață abilități de codificare în universități, descriind avântul adoptării ca o “schimbare seismică” pentru economie.

Pe de altă parte, o parte a parlamentarilor argumentează că integrările AI pot oferi mai multe beneficii pentru economie, provenite din îmbunătățirea eficienței la locul de muncă. Ei menționează beneficiile de economisire a costurilor și timpului obținute din instrumentele AI generative la locul de muncă, dar subliniază costurile ridicate asociate cu creșterea abilităților angajaților.

Legislatorii singaporezi susțin o abordare echilibrată în integrarea AI pentru a proteja forța de muncă. Există un consens între parlamentari cu privire la necesitatea unei campanii de sensibilizare la nivel național privind AI și la o legislație riguroasă pentru a evita capcanele similare cu imploziile firmelor de monedă digitală din țară.

“Ceea ce trebuie să ne asigurăm ca guvern este că nimeni nu alunecă prin crăpături,” a spus MP-ul Christopher de Souza. “Pentru a asigura fiecărui singaporez că, pe măsură ce devenim o societate activată de AI, fiecare va avea acea oportunitate să învețe și să crească și niciunul dintre noi nu trebuie să se teamă că va fi înlocuit.”

Un pas înainte

În timp ce legislatorii lucrează la limitele pentru AI în Singapore, statul oraș recent a dezvăluit o inițiativă de investiții de 1 miliard de dolari pentru a-și alimenta ambițiile în domeniul AI. Potrivit Strategiei Naționale AI 2.0, Singapore intenționează să-și tripleze experții în domeniul AI la 15.000 în anii următori pentru a oferi forța de muncă necesară firmelor locale și internaționale. Singapore își îndreaptă privirea către aplicațiile AI în finanțe pentru a combate spălarea de bani, testând în același timp apele cu un model AI regional adaptat pentru Asia de Sud-Est. Se preconizează că modelul regional va captura nuanțele culturale și este instruit în 11 limbi locale, inclusiv vietnameză, thai și bahasa indoneziană.

Grecia explorează planuri pentru o platformă bazată pe inteligență artificială pentru a combate știrile false

Pe măsură ce dezinformarea atinge noi extreme, Grecia și-a asumat angajamentul de a lua o serie de măsuri preventive pentru a proteja națiunea de efectele adverse ale știrilor false. National Herald a relatat că Ministerul Afacerilor Externe și al Guvernării Digitale din Grecia a confirmat planurile de a crea o platformă bazată pe inteligență artificială (AI) pentru a combate dezinformarea.

Platforma bazată pe AI, proiectată pentru a identifica și bloca știrile false pe spațiile de socializare din Grecia, este prima încercare a guvernului de a utiliza tehnologiile emergente în lupta împotriva știrilor false. Un aspect cheie al platformei este eliminarea informațiilor false considerate dăunătoare pentru interesele națiunii.

În urma neplății datoriei către Fondul Monetar Internațional (FMI), țara a fost afectată de instabilitate politică, creștere a inegalității veniturilor și perturbarea coeziunii sociale. Autoritățile elene observă că problemele variate cu care se confruntă țara sunt amplificate de știrile false, determinând promisiunea unei acțiuni ferme la nivel național.

Platforma planificată va depăși simpla recunoaștere a cuvintelor cheie pentru a include capacități AI de înțelegere a contextului mesajelor. O înțelegere contextuală a conținutului este așteptată să crească eficiența guvernului în depistarea știrilor false care ar putea trece de verificarea uneltelor bazate pe recunoașterea cuvintelor cheie. Există planuri ca noul instrument AI să fie folosit în studiile la Academia Diplomatică Elenă pentru a instrui viitorii diplomați cu privire la impactul AI-ului asupra rețelelor de socializare. Adepții noii platforme bazate pe AI susțin că instrumentul nu va fi folosit ca un dispozitiv pentru a sufoca rapoartele negative împotriva guvernului, ci va rămâne imparțial.

Încercările anterioare de a combate știrile false prin sancțiuni împotriva caselor de presă au fost criticate sever de presă, forțând guvernul să exploreze noi căi pentru a preveni răspândirea dezinformării cu ajutorul tehnologiilor emergente.

Echipa consultativă AI

În târziul anului 2023, Grecia a anunțat planuri pentru stabilirea unui comitet consultativ AI pentru a-și elabora strategia națională AI. Comitetul, aprobat de prim-ministrul Kyriakos Mitsotakis, cuprinde experți din diverse domenii, inclusiv etică, știință, inginerie și IT. Conform anunțului, obiectivul final al Comisiei este protejarea consumatorilor greci și elaborarea unui cadru robust pentru a ghida activitățile firmelor AI din țară.

“De asemenea, vom lucra în mod coordonat pentru ca Grecia să poată fi membru al inițiativelor internaționale pentru AI care sunt dezvoltate în cadrul Organizației Internaționale de Inteligență Artificială,” a declarat membrul comitetului, Constantinos Daskalakis.

Sursă foto: canterbury.ai

Meta anunță măsuri de protecție AI pentru alegerile din UE din 2024

Meta a anunțat planurile sale de a combate utilizarea abuzivă a inteligenței artificiale generative înaintea alegerilor pentru Parlamentul European din 2024. Meta, proprietarul platformelor de social media Facebook, Instagram și Threads, declară că a investit peste 20 de miliarde de dolari în siguranță și securitate și a mărit semnificativ dimensiunea echipei sale globale care lucrează în acest domeniu la aproximativ 40.000 de persoane pentru a-și sprijini eforturile.

Alegerile tind să fie un teren propice pentru activități înșelătoare. Adesea vedem competiții folosind tactici care îi pun pe adversarii lor în dezavantaj și le oferă un avantaj. În alegerile anterioare, s-a presupus ca Facebook ar fi fost una dintre cele mai folosite medii pentru executarea atacurilor și a campaniilor împotriva candidaților politici. La acea vreme, cei mai comuni vectori de atac erau dezinformarea și operațiunile de influență, dar, odată cu multele inovații tehnologice care au avut loc de atunci, Meta are acum în vizor și atacurile cu inteligență artificială generativă.

“În ultimii opt ani, am implementat instrumente de transparență de vârf în industrie pentru reclamele despre probleme sociale, alegeri sau politică, am dezvoltat politici cuprinzătoare pentru a preveni interferența în alegeri și fraudarea votului și am construit cel mai mare program de verificare a faptelor de către terți din orice platformă de social media pentru a ajuta la combaterea răspândirii dezinformării”, a declarat Meta în postarea lor de blog care își conturează strategia. “Mai recent, ne-am angajat să adoptăm o abordare responsabilă față de noile tehnologii, precum GenAI. Ne vom baza pe toate aceste resurse în perioada premergătoare alegerilor”.

Pașii Meta pentru etichetarea și reglementarea conținutului generat de AI

Meta a implementat mai multe măsuri pentru a se asigura că conținutul generat de un sistem AI poate fi identificat rapid și ușor. De asemenea, au actualizat platforma lor astfel încât conținutul generat de AI să aibă mai puține șanse să apară în feed-ul unui utilizator dacă încalcă Termenii de Serviciu ai Meta.

Compania deja etichetează imaginile generate de propriul său AI Meta. Este în procesul de dezvoltare a uneltelor pentru a eticheta imaginile generate de AI de la alte mari companii de tehnologie, precum Google, OpenAI, Microsoft, Adobe, Midjourney și Shutterstock, astfel încât vizitatorii să poată determina rapid dacă o imagine a fost generată de AI. Dar în viitor, Meta are planuri să introducă o funcție care să solicite utilizatorilor să dezvăluie atunci când partajează conținut video sau audio generat de AI. Compania afirmă că nerespectarea acestei reguli ar putea atrage penalități pentru utilizator.

Din perspectiva agenților de publicitate, Meta cere celor care creează reclame să dezvăluie atunci când imagini fotorealiste, videoclipuri sau sunete audio realiste au fost create sau modificate digital cu ajutorul AI-ului. În spatele tuturor acestor eforturi, Meta îi pregătește pe angajații lor din întreaga Europă cu privire la cea mai bună metodă de evaluare a conținutului media generat de AI și digital modificat și desfășoară o campanie de alfabetizare media pentru a crește conștientizarea publicului cu privire la modul de detectare a conținutului generat de AI.

În plus, Meta s-a alăturat a două organizații – Partnership on AI și Tech Accord – care își propun să abordeze provocările cu care se confruntă lumea din cauza progreselor în AI și să combată utilizarea înșelătoare a AI-ului în alegerile din 2024.

Toate implementările actuale și planificate ale Meta pentru combaterea abuzului AI sunt menite să ajute publicul să identifice rapid dacă conținutul pe care îl vizionează este autentic sau falsificat. Capacitatea de a face distincția între conținutul legitim și cel ilegitim este crucială în acest moment, și probabil va juca un rol mai mare în viața noastră pe măsură ce sistemele AI devin mai avansate.

De ce acum: Necesitatea urgentă a măsurilor de protecție împotriva dezinformării electorale induse de AI

Momentul îmbunătățirii concentrării Meta pe instrumente și măsuri de protecție împotriva utilizării neadecvate a tehnologiilor AI generative nu este o coincidență. În 2024 au loc mai multe alegeri care reprezintă ținte principale pentru campaniile de dezinformare induse de AI.

Sistemele AI generative pot crea conținut digital extrem de realist și convingător, inclusiv imagini, videoclipuri și audio. În timp ce aceste avansuri au potențialul de a deschide calea inovației și creativității, ele prezintă și riscuri semnificative atunci când sunt folosite în scopuri dăunătoare. În contextul unei alegeri, miza este extrem de ridicată, deoarece conținutul generat de AI poate fi folosit pentru a crea narative false, pentru a impersona figuri politice sau pentru a manipula faptele în moduri care sunt dificil de detectat și contracarat. Astfel de activități pot afecta grav opinia publică, comportamentul votantului și, în cele din urmă, integritatea procesului electoral.

La începutul acestui an, am asistat la unul dintre aceste atacuri când o persoană a desfășurat o campanie de dezinformare în New Hampshire folosind AI pentru a replica vocea președintelui Joe Biden, creând un mesaj prin care le spunea rezidenților că nu este nevoie să iasă și să-l voteze în viitoarele alegeri. Deși campania a fost identificată ulterior ca fiind ilegitimă, au trecut ore înainte ca vestea să se răspândească că nu era președintele și că apelul telefonic era un atac rău intenționat.

Cu atacuri de acest fel susceptibile să crească pe măsură ce alegerile se apropie, mai multe companii, în special cele care sunt ținte principale pentru răspândirea informațiilor și dezinformărilor, vor trebui să implementeze instrumente și măsuri de protecție care să permită altora să detecteze ușor dacă conținutul a fost generat de AI.

Sursă foto: reuters.com

Peru ia în considerare un AI Framework axat pe siguranța consumatorilor

Peru și-a exprimat intenția de a se alătura listei țărilor care urmăresc un cadru cuprinzător de inteligență artificială (AI) după depunerea unei propuneri de lege la Adunarea Națională.

Propunerea de lege depusă la Congresul din Peru reprezintă prima încercare a țării de a reglementa activitățile dezvoltatorilor de AI pe fondul creșterii ratei de adoptare. Având în vedere prezența chatboturilor de inteligență artificială străine în țară, deputatul Carlos Javier Zeballos Madariaga a inițiat proiectul de lege în parlament, militând pentru reguli stricte privind AI-ul.

Milioane de peruvieni folosesc chatboturile generative de inteligență artificială pentru o productivitate îmbunătățită, dar reglementatorii sunt îngrijorați că utilizarea necontrolată a tehnologiei ar putea duce la mai multe probleme în țară pe termen lung.

Proiectul de lege are ca scop limitarea răspândirii dezinformării prin deepfakes, reglementarea utilizării AI în piețele financiare și protejarea consumatorilor de produsele AI nocive. În timp ce prevederile proiectului de lege capturează particularitățile Peruului, cadru regulamentar se inspiră din cadrul AI al Uniunii Europene.

„Acest proiect de lege este destinat să garanteze protecția drepturilor esențiale, intimitatea și securitatea cetățenilor și să promoveze transparența, etica, inovația și progresul în domeniul inteligenței artificiale,” se menționează în preambulul proiectului de lege privind AI-ul din Peru.

O analiză detaliată a proiectului de lege relevă intenția de a menține suveranitatea datelor, căutând să țină dezvoltatorii globali de AI responsabili în conformitate cu regulile locale de confidențialitate a datelor. Proiectul de lege prevede în mod specific că firmele de AI trebuie să respecte legislația peruană indiferent de locația serverelor companiei.

Cadru regulamentar nou urmărește și stabilirea unor reguli stricte privind auditarea, cerând dezvoltatorilor de AI să facă rapoarte regulate către un organism de reglementare. Furnizorii de servicii sunt așteptați să obțină consimțământul expres al utilizatorilor înainte de a folosi datele acestora pentru antrenarea modelelor lor de limbaj de mari dimensiuni (LLM-uri).

În loc să fie doar un ghid de funcționare, proiectul de lege prevede penalități pentru încălcări, inclusiv amenzi drastice, închisoare pentru membrii principali ai companiilor de AI care încalcă regulile și alte sancțiuni drastice.

Bazându-se pe planul de reglementare al UE

Legea UE privind inteligența artificială a devenit o forță dominantă în reglementarea globală a AI-ului datorită prevederilor sale inovatoare și a “abordării bazate pe riscuri”. După controlul reușit al furnizorilor de servicii de active digitale din regiune prin reglementarea sa privind Piețele în Criptomonede (MiCA), UE dorește să reproducă același succes și în cazul AI-ului.

Cu toate acestea, criticii au susținut că playbook-ul UE ar putea sufoca inovația și ar putea declanșa o migrație masivă de talente și capital către alte jurisdicții mai puțin restrictive. În apărarea sa, UE afirmă că regulile reprezintă un echilibru sănătos între inovație și protecția consumatorilor, concepute pentru a stabili ritmul pentru un cadru regulamentar uniform pentru AI.

Sursă foto: perureports.com