Meta anunță măsuri de protecție AI pentru alegerile din UE din 2024

Meta a anunțat planurile sale de a combate utilizarea abuzivă a inteligenței artificiale generative înaintea alegerilor pentru Parlamentul European din 2024. Meta, proprietarul platformelor de social media Facebook, Instagram și Threads, declară că a investit peste 20 de miliarde de dolari în siguranță și securitate și a mărit semnificativ dimensiunea echipei sale globale care lucrează în acest domeniu la aproximativ 40.000 de persoane pentru a-și sprijini eforturile.

Alegerile tind să fie un teren propice pentru activități înșelătoare. Adesea vedem competiții folosind tactici care îi pun pe adversarii lor în dezavantaj și le oferă un avantaj. În alegerile anterioare, s-a presupus ca Facebook ar fi fost una dintre cele mai folosite medii pentru executarea atacurilor și a campaniilor împotriva candidaților politici. La acea vreme, cei mai comuni vectori de atac erau dezinformarea și operațiunile de influență, dar, odată cu multele inovații tehnologice care au avut loc de atunci, Meta are acum în vizor și atacurile cu inteligență artificială generativă.

“În ultimii opt ani, am implementat instrumente de transparență de vârf în industrie pentru reclamele despre probleme sociale, alegeri sau politică, am dezvoltat politici cuprinzătoare pentru a preveni interferența în alegeri și fraudarea votului și am construit cel mai mare program de verificare a faptelor de către terți din orice platformă de social media pentru a ajuta la combaterea răspândirii dezinformării”, a declarat Meta în postarea lor de blog care își conturează strategia. “Mai recent, ne-am angajat să adoptăm o abordare responsabilă față de noile tehnologii, precum GenAI. Ne vom baza pe toate aceste resurse în perioada premergătoare alegerilor”.

Pașii Meta pentru etichetarea și reglementarea conținutului generat de AI

Meta a implementat mai multe măsuri pentru a se asigura că conținutul generat de un sistem AI poate fi identificat rapid și ușor. De asemenea, au actualizat platforma lor astfel încât conținutul generat de AI să aibă mai puține șanse să apară în feed-ul unui utilizator dacă încalcă Termenii de Serviciu ai Meta.

Compania deja etichetează imaginile generate de propriul său AI Meta. Este în procesul de dezvoltare a uneltelor pentru a eticheta imaginile generate de AI de la alte mari companii de tehnologie, precum Google, OpenAI, Microsoft, Adobe, Midjourney și Shutterstock, astfel încât vizitatorii să poată determina rapid dacă o imagine a fost generată de AI. Dar în viitor, Meta are planuri să introducă o funcție care să solicite utilizatorilor să dezvăluie atunci când partajează conținut video sau audio generat de AI. Compania afirmă că nerespectarea acestei reguli ar putea atrage penalități pentru utilizator.

Din perspectiva agenților de publicitate, Meta cere celor care creează reclame să dezvăluie atunci când imagini fotorealiste, videoclipuri sau sunete audio realiste au fost create sau modificate digital cu ajutorul AI-ului. În spatele tuturor acestor eforturi, Meta îi pregătește pe angajații lor din întreaga Europă cu privire la cea mai bună metodă de evaluare a conținutului media generat de AI și digital modificat și desfășoară o campanie de alfabetizare media pentru a crește conștientizarea publicului cu privire la modul de detectare a conținutului generat de AI.

În plus, Meta s-a alăturat a două organizații – Partnership on AI și Tech Accord – care își propun să abordeze provocările cu care se confruntă lumea din cauza progreselor în AI și să combată utilizarea înșelătoare a AI-ului în alegerile din 2024.

Toate implementările actuale și planificate ale Meta pentru combaterea abuzului AI sunt menite să ajute publicul să identifice rapid dacă conținutul pe care îl vizionează este autentic sau falsificat. Capacitatea de a face distincția între conținutul legitim și cel ilegitim este crucială în acest moment, și probabil va juca un rol mai mare în viața noastră pe măsură ce sistemele AI devin mai avansate.

De ce acum: Necesitatea urgentă a măsurilor de protecție împotriva dezinformării electorale induse de AI

Momentul îmbunătățirii concentrării Meta pe instrumente și măsuri de protecție împotriva utilizării neadecvate a tehnologiilor AI generative nu este o coincidență. În 2024 au loc mai multe alegeri care reprezintă ținte principale pentru campaniile de dezinformare induse de AI.

Sistemele AI generative pot crea conținut digital extrem de realist și convingător, inclusiv imagini, videoclipuri și audio. În timp ce aceste avansuri au potențialul de a deschide calea inovației și creativității, ele prezintă și riscuri semnificative atunci când sunt folosite în scopuri dăunătoare. În contextul unei alegeri, miza este extrem de ridicată, deoarece conținutul generat de AI poate fi folosit pentru a crea narative false, pentru a impersona figuri politice sau pentru a manipula faptele în moduri care sunt dificil de detectat și contracarat. Astfel de activități pot afecta grav opinia publică, comportamentul votantului și, în cele din urmă, integritatea procesului electoral.

La începutul acestui an, am asistat la unul dintre aceste atacuri când o persoană a desfășurat o campanie de dezinformare în New Hampshire folosind AI pentru a replica vocea președintelui Joe Biden, creând un mesaj prin care le spunea rezidenților că nu este nevoie să iasă și să-l voteze în viitoarele alegeri. Deși campania a fost identificată ulterior ca fiind ilegitimă, au trecut ore înainte ca vestea să se răspândească că nu era președintele și că apelul telefonic era un atac rău intenționat.

Cu atacuri de acest fel susceptibile să crească pe măsură ce alegerile se apropie, mai multe companii, în special cele care sunt ținte principale pentru răspândirea informațiilor și dezinformărilor, vor trebui să implementeze instrumente și măsuri de protecție care să permită altora să detecteze ușor dacă conținutul a fost generat de AI.

Sursă foto: reuters.com