Casa Albă dezvăluie planul de bază pentru inteligența artificială destinat agențiilor federale din SUA

Casa Albă a emis un nou memorandum destinat agențiilor federale cu mandate privind implementarea și gestionarea riscurilor inteligenței artificiale (IA) în birourile guvernamentale din Statele Unite.

Memorandumul, intitulat “M-24-10: Avansarea Inovației în Guvernare și Gestionarea Riscurilor pentru Utilizarea de Către Agenții a Inteligenței Artificiale”, a fost publicat la 28 martie de către Biroul Executiv al Președintelui prin Biroul de Management și Buget.

La fel ca multe dintre documentele legate de IA pe care le-am văzut publicate de instituțiile guvernamentale și organizațiile globale în trecut, acest nou memorandum oferă un cadru pentru guvernanța, inovația și gestionarea riscurilor legate de IA pentru diversele agenții federale din SUA, cu speranța că unele dintre aceste practici vor fi adoptate în întreaga lume.

Memorandumul este conceput pentru a se asigura că adoptarea tehnologiilor de IA în cadrul agențiilor federale atenuează riscurile, în timp ce este inovativă și ia în considerare preocupările etice.

Iată componentele și directivele cheie ale memorandumului pe care agențiile federale sunt îndemnate să le urmeze și să le implementeze până la 1 decembrie 2024.

Inițiativele guvernului în domeniul IA

Guvernanța IA: Memorandumul impune numirea unui Ofițer Șef de IA (CAIO) în cadrul fiecărei agenții federale pentru a supraveghea guvernanța IA, inovația și gestionarea riscurilor. CAIO va avea sarcina de a coordona inițiativele de IA în cadrul agențiilor lor respective și de a se asigura că tehnologiile de IA sunt dezvoltate și utilizate în moduri care se aliniază cu politicile și principiile federale. În plus, CAIO-urile sunt responsabile de elaborarea strategiilor pentru utilizarea IA, crearea unui inventar al cazurilor de utilizare a IA și de a lucra îndeaproape cu oficialii existenți în probleme legate de IA care afectează departamentele lor.

Implementarea responsabilă a IA: Memorandumul încurajează agențiile federale să țină cont de etica în timp ce fiecare departament continuă să își dezvolte capacitățile de IA și ulterior să își implementeze IA, în special în ceea ce privește îmbunătățirea infrastructurii IT, gestionarea datelor, securitatea cibernetică și dezvoltarea forței de muncă legate de IA. Memorandumul subliniază, de asemenea, importanța departamentelor de a împărtăși resursele de IA, cum ar fi modelele, codul și datele, în întreaga guvernare federală pentru a încuraja colaborarea și a cataliza inovația.

Gestionarea riscurilor pentru IA: O parte semnificativă din memorandumul de 34 de pagini este dedicată practicilor de gestionare a riscurilor pentru IA, în special în ceea ce privește aplicațiile de IA care ar putea afecta drepturile și siguranța publică. Având în vedere acest lucru, memorandumul solicită agențiilor federale să implementeze “practici minime de gestionare a riscurilor”, inclusiv testarea pentru bias și echitate, monitorizarea continuă a sistemelor de IA și evaluarea regulată pentru a se asigura că aplicațiile de IA nu subminează încrederea sau siguranța publică.

Avansul global al politicilor de inteligență artificială: Provocarea aplicării

Recent, au fost adoptate multe politici și reglementări privind inteligența artificială care fie au fost aprobate, fie își fac drum prin corpul legislativ al unei țări sau organizații fără multă rezistență.

Am văzut Uniunea Europeană adoptând Legea privind IA, am văzut Organizația Națiunilor Unite adoptând o rezoluție provizorie privind IA, am văzut administrația Biden eliberând un ordin executiv privind IA, și acum, vedem Casa Albă lansând cel mai recent memorandum privind IA.

Este clar că fiecare țară încearcă să arate lumii că sunt jucători serioși în cursa pentru IA, cu speranța că politica și reglementarea privind IA pe care o creează vor deveni fie un standard global, fie cel puțin o sursă de inspirație pentru politicile și reglementările privind IA care urmează; dar un lucru la care aceste politici nu reușesc deloc este să explice cum vor fi ele aplicate.

Cele mai multe politici și reglementări privind IA sunt insuficiente în așteptările lor că participanții din industrie sunt dispuși să divulge informații despre modelele lor de IA și despre cazurile lor de utilizare actuale și viitoare. Cu excepția unei companii foarte expuse public care încalcă în mod flagrant una dintre legi sau mandate, va fi dificil să se identifice companiile care nu respectă reglementările.

Ce nu ajută este natura secretă a acestei industrii extrem de tehnice. Dacă un startup sau o companie are într-adevăr un model inovator de IA, cel mai probabil nu va dori să dezvăluie natura modelului sau cazurile sale de utilizare, deoarece ar putea să îl pună într-o poziție defavorabilă și ar putea duce la copierea efectivă a tehnologiei sale de către concurenți. Din aceste motive, printre multe altele, legile și reglementările cuprinzătoare privind IA pe care le vedem luând amploare sunt, în multe cazuri, lipsite de putere.

În alte cazuri mai specifice, legile privind IA create sunt utile, în special cele care impun penalități celor care folosesc IA pentru a provoca prejudicii. Mai devreme în acest an, FCC a emis o hotărâre care a făcut robo-apelurile generate de IA ilegale în conformitate cu Legea privind protecția consumatorilor de telefonie. Aceasta s-a întâmplat la scurt timp după ce mulți locuitori din New Hampshire au primit un mesaj audio generat de IA care imita vocea președintelui Joe Biden și îi încuraja să nu voteze. Dar datorită noii hotărâri a FCC, persoanele care folosesc IA generativă pentru a manipula, a viza sau a dezinforma alții prin robo-apeluri pot primi amenzi reglementare de peste 23.000 de dolari per apel.

Sursă foto: shopsg7.shop