Le nuove frontiere della politica nell’utilizzo dell’intelligenza artificiale

L’intelligenza artificiale è entrata nel mondo della politica con modalità e intenti che ne lasciano presagire potenzialità e pericoli.

 

 

Quello dell’intelligenza artificiale non è un tema nuovo ormai, e i suoi ambiti di applicazione sono riconosciuti quasi come infiniti. Il ricorso all’AI è divenuto dirompente anche in politica; che cosa significa?
In molti casi l’AI è stata pensata come strumento di supporto all’attività politica, per potenziare servizi di varia natura attraverso l’automazione di alcuni processi. Ci è andata vicina la Nuova Zelanda che, nel 2017, ha lanciato il primo “politico robot”, Sam: un chatbot in grado di dialogare con i cittadini via Facebook al fine di raccoglierne le esigenze e stilare un programma politico che rispondesse ai loro bisogni.

Ma questo è un esempio di una implementazione semplice e diretta. In corso c’è un altro utilizzo dell’AI, molto aggressivo e pericoloso; si tratta di quei software estremamente sofisticati che, grazie al sistema di apprendimento automatizzato proprio dell’intelligenza artificiale, sono in grado di riprodurre e sostituire volti, fisionomie e suoni propri di ciascun essere umano, generando un clone estremamente veritiero: il cosiddetto Deepfake. Contenuti audio e video falsi vengono quindi creati sulla base di dati autentici e diffusi attraverso bot con l’intento di alimentare, il più delle volte, una disinformazione atta ad orientare l’opinione pubblica. A riprova di questo, negli ultimi anni, si sono moltiplicati gli account social falsi o anonimi che condividono esclusivamente contenuti non originali ripresi da altri profili social: una strategia per dare maggiore visibilità a video e immagini utilizzati con finalità precise.

Le immagini diffuse ritraggono perlopiù esponenti politici di fama mondiale, riprodotti artificialmente fuori contesto e accompagnati da didascalie allusive, al fine di manipolare le informazioni o diffonderne di false. È successo a Hilary Clinton, accusata di aver collaborato alla gestione di un giro di prostituzione a Washington nel 2016 o al presidente Biden, ritratto vicino a due giovani ragazze e accusato di comportamenti inappropriati. Un altro esempio? La foto della (presunta) nonna del presidente della Commissione Europea, Ursula Von Der Leyen, ritratta mentre stringe la mano ad Hitler ed accusata di nazismo, pubblicata a novembre 2023. Si tratta, anche in questo caso, di una ricostruzione artificiale di un’immagine storica estrapolata e manipolata.

 

 

Secondo l’Institute of Strategic Dialogue (ISD), nella maggior parte dei casi questi bot sono finanziati dal Partito Comunista cinese, con intenti propagandistici anti UE e pro-Russia. In altre occasioni sono stati associati a gruppi politici di estrema destra vicini a Trump; questo fa pensare all’ennesima battaglia USA-Cina per il controllo dei mezzi di informazione.
Altissimo è quindi il campanello di allarme con l’avvento delle elezioni americane a novembre 2024: l’idea è che l’AI possa essere utilizzata con l’intento di generare sgomento nell’opinione pubblica internazionale e insoddisfazione nell’elettore mostrando degrado urbano, fatiscenza, immobilismo politico, debito pubblico da ricondurre ad una cattiva gestione da parte del governo democratico degli utlimi anni.

Questo solleva un altro tema o, forse, accende i fari su una triste verità: ad oggi i social rappresentano la principale fonte di informazione degli elettori, nonché la nuova linfa vitale della disinformazione; questo diventa ancor più evidente soprattutto in periodi delicati quali le campagne elettorali. L’elettore è costantemente esposto a false notizie cui si sommano attacchi informatici e cyber spionaggio; in questo contesto, l’AI da supporto diviene l’ennesima arma di una guerra informatica in grado di ledere la fiducia nelle istituzioni in periodi critici.

Se è verosimile ipotizzare il suo utilizzo massiccio nei prossimi mesi, in vista delle elezioni americane di novembre, nulla vieta di pensare che possa essere stata impiegata altrettanto aggressivamente per quelle europee di giugno, con conseguenze potenzialmente gravissime.

Per condividere questo articolo: