L’Intelligenza Artificiale può influenzare le elezioni del 2024?

Squilla il telefono. Rispondo e sento la voce di uno dei candidati alle elezioni che mi parla. No, non è un messaggio registrato. Fa riferimento a me, a dove vivo, al mio lavoro. Risponde alle mie domande su economia, lavoro, politica estera, innovazione tecnologica. Eppure, non è il candidato in persona. È il suo gemello digitale, praticamente un’IA addestrata con la sua voce, il suo programma elettorale e i suoi discorsi che – conoscendo alcuni dati delle persone che chiama (età, residenza, professione) – è in grado di rispondere alle domande poste dagli elettori. Pensate: migliaia di cittadini che possono essere contattati in una sola giornata, contemporaneamente.

Se vi sembra uno scenario da film di fantascienza o da serie distopica, sappiate che in realtà ci siamo già molto vicini. In Pennsylvania (USA), ad esempio, la candidata democratica al Congresso Shamaine Daniels sta usando un sistema di IA generativa chiamato “Ashley” che sta contattando telefonicamente gli elettori dello Stato per raccogliere fondi per la campagna elettorale, presentandosi come volontario che supporta il lavoro della candidata. Ashley conosce perfettamente il programma della candidata, il profilo delle persone che sta chiamando (in modo da interagire con loro) e non si abbatte se qualcuno le attacca il telefono. Ashley ha una voce metallica e dice di essere un’IA, nonostante nessuna legge al momento imponga alla startup che l’ha creata e alla candidata che la utilizza alcun obbligo di trasparenza.

2024: anno elettorale per tutto il pianeta

Insomma, l’intelligenza artificiale è già arrivata nelle campagne elettorali e, praticamente ovunque, ha fatto prima dei legislatori, con effetti che potrebbero essere molto pericolosi. Il 2024, infatti, sarà “il più grande anno di elezioni della storia”, come ha recentemente titolato l’Economist. Più di 4 miliardi di persone, oltre la metà della popolazione mondiale, saranno chiamate a esprimere un voto in circa 60 Paesi (a partire dal rinnovo del parlamento europeo a giugno e dalle elezioni presidenziali Usa a novembre).

>> QUESTO ARTICOLO E’ TRATTO DALLA NEWSLETTER GRATUITA LEGGE ZERO. ISCRIVITI QUI.

In linea generale, l’intelligenza artificiale può essere utilizzata – anche proficuamente – in diversi ambiti delle nostre democrazie (qui un interessante approfondimento di Bruce Schneier). Ad esempio:
– L’IA può essere impiegata per aiutare gli elettori a comprendere e confrontare le posizioni dei differenti candidati sui differenti temi.
– L’IA può aiutare i candidati a capire cosa vogliono gli elettori e a creare programmi elettorali che soddisfino bisogni e aspettative dei cittadini (è quello che ha già fatto in UK il candidato indipendente Andrew Gray).
– L’IA potrebbe aiutare i candidati a creare materiali efficaci a basso costo (audio, video, grafiche, siti).

È quindi facilmente prevedibile che nell’ambito delle campagne elettorali sarà fatto un uso sempre più diffuso di sistemi di intelligenza artificiale che potrebbero – se impiegati in modo non etico – falsare i meccanismi democratici. È questo uno dei motivi per cui nel corso degli ultimi mesi i grandi della terra si stanno interessando tanto di intelligenza artificiale: evitare che i sistemi di IA possano avere effetti tossici su democrazie e campagne elettorali, alterandone lo svolgimento.

AI  e elezioni: la questione dei deepfake

In questo momento, quello che preoccupa molti è il tema dei deepfake: grazie alle soluzioni di IA generativa è sempre più facile creare foto, video e audio falsi, al solo fine di danneggiare l’immagine pubblica di un candidato e di fargli perdere voti. La tecnologia che sta dietro ai deepfake sta diventando sempre più sofisticata, e distinguere un video vero da uno falso potrà risultare progressivamente complicato, con pesantissime implicazioni per il mondo dell’informazione, per il dibattito democratico e per la vita di tutti noi.

In Slovacchia una registrazione falsa ha influenzato l’esito elettorale e anche in Argentina i deepfake hanno contraddistinto il confronto tra i candidati alle presidenziali (ne abbiamo parlato nel #1 di LeggeZero). Un’indagine dell’agenzia AFP, invece, ha scoperto che centinaia di articoli che parlano positivamente dell’operato del governo del Bangladesh, apparentemente scritti da esperti indipendenti, sarebbero stati scritti da IA in vista delle prossime elezioni.

Lo scenario è così preoccupante che il Presidente USA Biden – che ha annunciato la propria ricandidatura – ha creato una task force dedicata al tema dei deepfake. Si tratta di un team di avvocati che sta lavorando alla creazione di un “kit legale” per agire velocemente nel caso in cui ce ne fosse bisogno.

La risposta di governi e aziende tecnologiche

Il lavoro non è facile: negli USA soltanto alcuni stati federali hanno adottato delle norme sulla diffusione di contenuti fake (regolando la materia in modo molto difforme tra loro), ma manca una disciplina nazionale. In Europa, invece, l’AI Act contiene specifici obblighi di trasparenza sui contenuti generati da IA, ma non sarà comunque pienamente applicabile prima di due anni. Nelle ultime settimane, in tutto il mondo, si sta facendo strada l’idea che i casi di contraffazione digitale dovrebbero essere vietati (e quindi puniti) in quanto tali, dal momento che i contenuti manipolati sarebbero comunque in grado di condizionare l’opinione pubblica. Non è facile però: non sempre è agevole rintracciare chi ha creato il deepfake e, punendo chi li diffonde, si correrebbe il rischio di ritenere colpevoli anche chi li ha inconsapevolmente condivisi, facendo incolpevole affidamento sulla loro veridicità. In ogni caso, è facile prevedere che le nuove leggi saranno davvero efficaci soltanto se prevederanno la possibilità per le vittime di bloccare rapidamente, e agevolmente, la diffusione dei video contraffatti.

Nel ritardo degli Stati, sono le aziende tecnologiche che provano a correre ai ripari. Microsoft e Adobe, ad esempio, hanno avviato un progetto (Content Credentials) che promette di etichettare i contenuti generati dall’IA in modo da poterli facilmente individuare. Meta e TikTok hanno avviato iniziative per etichettare efficacemente i contenuti prodotti da IA, mentre OpenAI ha recentemente cambiato i propri termini d’uso per vietare l’uso dei propri strumenti in campagna elettorale. Tutte iniziative lodevoli, ma mi sembra un déjà vu. È già successo con le piattaforme di social media che, per molto tempo, sono state libere di autoregolarsi. E non è finita benissimo. Cambridge Analytica vi ricorda qualcosa?

© RIPRODUZIONE RISERVATA

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *