Le aziende tecnologiche firmano un accordo per combattere i deepfake elettorali generati dall’intelligenza artificiale
Venerdì le principali aziende tecnologiche hanno firmato un patto per adottare volontariamente “precauzioni ragionevoli” per impedire che gli strumenti di intelligenza artificiale vengano utilizzati per interrompere le elezioni democratiche in tutto il mondo.
I dirigenti di Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI e TikTok si sono riuniti alla Conferenza sulla sicurezza di Monaco per annunciare un nuovo quadro su come rispondono ai deepfake generati dall'intelligenza artificiale che ingannano deliberatamente gli elettori. Anche altre dodici società, inclusa la X di Elon Musk, stanno firmando l’accordo.
“Tutti riconoscono che nessuna azienda tecnologica, nessun governo, nessuna organizzazione della società civile è in grado di affrontare da sola l’avvento di questa tecnologia e il suo possibile uso nefasto”, ha affermato Nick Clegg, presidente degli affari globali di Meta, l’organizzazione società madre di Facebook e Instagram, in un'intervista prima del vertice.
L’accordo è in gran parte simbolico, ma prende di mira immagini, audio e video sempre più realistici generati dall’intelligenza artificiale “che falsificano o alterano ingannevolmente l’aspetto, la voce o le azioni di candidati politici, funzionari elettorali e altre parti interessate chiave in un’elezione democratica, o che forniscono false informazioni agli elettori su quando, dove e come possono votare legalmente”.
Le aziende non si impegnano a vietare o rimuovere i deepfake. Invece, l’accordo delinea i metodi che utilizzeranno per cercare di rilevare ed etichettare i contenuti ingannevoli dell’intelligenza artificiale quando verranno creati o distribuiti sulle loro piattaforme. Si rileva che le aziende condivideranno le migliori pratiche tra loro e forniranno “risposte rapide e proporzionate” quando tali contenuti inizieranno a diffondersi.
Cosa sapere sulle elezioni del 2024
La vaghezza degli impegni e la mancanza di requisiti vincolanti probabilmente hanno contribuito a conquistare un gruppo diversificato di aziende, ma i sostenitori delusi cercavano garanzie più forti.
“Il linguaggio non è così forte come ci si potrebbe aspettare”, ha detto Rachel Orey, direttore associato senior del Progetto Elezioni presso il Bipartisan Policy Center. “Penso che dovremmo dare credito dove è dovuto e riconoscere che le aziende hanno un interesse a che i loro strumenti non vengano utilizzati per compromettere elezioni libere ed eque. Detto questo, è volontario e terremo d’occhio se verranno portati a termine”.
Clegg ha affermato che ogni azienda “ha giustamente la propria serie di politiche sui contenuti”.
“Questo non significa tentare di imporre una camicia di forza a tutti”, ha detto. “E in ogni caso, nessuno nel settore pensa che si possa affrontare un paradigma tecnologico completamente nuovo nascondendo le cose sotto il tappeto e cercando di giocare a “Acchiacca la talpa” e trovando tutto ciò che pensi possa fuorviare qualcuno”.
All'annuncio di venerdì si sono uniti anche diversi leader politici europei e statunitensi. La vicepresidente della Commissione europea Vera Jourova ha affermato che, sebbene un accordo di questo tipo non possa essere globale, “contiene elementi positivi e di grande impatto”. Ha inoltre esortato i colleghi politici ad assumersi la responsabilità di non utilizzare gli strumenti di intelligenza artificiale in modo ingannevole e ha avvertito che la disinformazione alimentata dall’intelligenza artificiale potrebbe portare “alla fine della democrazia, non solo negli Stati membri dell’UE”.
L'accordo nella città tedesca incontro annuale sulla sicurezza arriva mentre più di 50 paesi dovrebbero resistere elezioni nazionali nel 2024. Bangladesh, Taiwan, Pakistan e più recentemente Indonesia lo hanno già fatto.
Tentativi di interferenza elettorale generata dall’intelligenza artificiale sono già iniziaticome quando Chiamate robotiche IA che imitavano Presidente degli Stati Uniti La voce di Joe Biden ha cercato di scoraggiare la gente dal votare alle elezioni primarie del New Hampshire il mese scorso.
Pochi giorni prima Elezioni in Slovacchia a novembre, registrazioni audio generate dall’intelligenza artificiale hanno impersonato un candidato che discuteva dei piani per aumentare i prezzi della birra e manipolare le elezioni. I fact-checker si sono affrettati a identificarli come falsi mentre si diffondevano sui social media.
Anche i politici hanno sperimentato la tecnologia, dall'utilizzo Chatbot IA per comunicare con gli elettori aggiungendo immagini generate dall'intelligenza artificiale agli annunci.
L’accordo invita le piattaforme a “prestare attenzione al contesto e in particolare a salvaguardare l’espressione educativa, documentaristica, artistica, satirica e politica”.
Ha affermato che le aziende si concentreranno sulla trasparenza verso gli utenti riguardo alle loro politiche e lavoreranno per educare il pubblico su come evitare di cadere nelle false IA.
La maggior parte delle aziende ha già affermato in precedenza che sta proteggendo i propri strumenti di intelligenza artificiale generativa in grado di manipolare immagini e suoni, lavorando anche per identificare e etichettare i contenuti generati dall'intelligenza artificiale in modo che gli utenti dei social media sappiano se ciò che stanno vedendo è reale. Ma la maggior parte delle soluzioni proposte non sono ancora state implementate e le aziende hanno subito pressioni per fare di più.
Questa pressione è maggiore negli Stati Uniti, dove il Congresso deve ancora approvare leggi che regolino l’intelligenza artificiale in politica, lasciando che le aziende si governino in gran parte da sole.
La Commissione federale delle comunicazioni recentemente confermato Le clip audio generate dall'intelligenza artificiale nelle chiamate robotiche sono contro la legge, ma ciò non copre i deepfake audio quando circolano sui social media o nelle pubblicità delle campagne.
Molte società di social media hanno già adottato politiche per scoraggiare i post ingannevoli sui processi elettorali, generati o meno dall’intelligenza artificiale. Meta afferma che rimuove la disinformazione su “date, luoghi, orari e metodi per votare, registrazione degli elettori o partecipazione al censimento” così come altri post falsi intesi a interferire con la partecipazione civica di qualcuno.
Jeff Allen, co-fondatore dell'Integrity Institute ed ex data scientist di Facebook, ha affermato che l'accordo sembra un “passo positivo”, ma gli piacerebbe comunque vedere le società di social media intraprendere altre azioni per combattere la disinformazione, come la creazione di raccomandazioni sui contenuti sistemi che non danno priorità al coinvolgimento sopra ogni altra cosa.
Lisa Gilbert, vicepresidente esecutiva del gruppo di difesa Public Citizen, ha sostenuto venerdì che l’accordo “non è sufficiente” e che le società di intelligenza artificiale dovrebbero “trattenere la tecnologia” come quella iperrealistica. generatori di testo in video “fino a quando non saranno adottate misure di salvaguardia sostanziali e adeguate per aiutarci a evitare molti potenziali problemi”.
Oltre alle aziende che hanno contribuito a mediare l'accordo di venerdì, altri firmatari includono gli sviluppatori di chatbot Anthropic e Inflection AI; ElevenLabs, startup di clonazione vocale; Arm Holdings, progettista di chip; società di sicurezza McAfee e TrendMicro; e Stability AI, noto per aver creato il generatore di immagini Stable Diffusion.
Notevolmente assente è un altro popolare generatore di immagini AI, Midjourney. La startup con sede a San Francisco non ha risposto immediatamente a una richiesta di commento venerdì.
L'inclusione di X – non menzionata in un annuncio precedente sull'accordo pendente – è stata una delle sorprese dell'accordo di venerdì. Musk ha ridotto drasticamente i team di moderazione dei contenuti dopo aver rilevato l'ex Twitter e si è descritto come un “assolutista della libertà di parola”.
In una dichiarazione di venerdì, l’amministratore delegato di X Linda Yaccarino ha affermato che “ogni cittadino e azienda ha la responsabilità di salvaguardare elezioni libere ed eque”.
“X si impegna a fare la sua parte, collaborando con colleghi per combattere le minacce dell’intelligenza artificiale, proteggendo allo stesso tempo la libertà di parola e massimizzando la trasparenza”, ha affermato.
__
L'Associated Press riceve il sostegno di diverse fondazioni private per migliorare la sua copertura esplicativa sulle elezioni e sulla democrazia. Scopri di più sull'iniziativa democratica di AP Qui. L'AP è l'unico responsabile di tutti i contenuti.