-4.1 C
Rome
martedì, Marzo 18, 2025
- Pubblicità -
Scienze & AmbienteÈ vero? I deepfake potrebbero rappresentare un pericolo per le elezioni...

È vero? I deepfake potrebbero rappresentare un pericolo per le elezioni libere

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Gli esperti politici dell’Università della Virginia lanciano l’allarme sul fatto che gli operatori politici potrebbero sviluppare annunci di attacco utilizzando messaggi generati dal computer “deepfake” video e registrazioni e distribuirli all’ultimo minuto per cambiare le sorti delle elezioni.

Deepfake, manipolazione delle immagini - impressione artistica.

Deepfake, manipolazione delle immagini – impressione artistica. Illustrazione di Emily Faith Morgan, UVA Communications

La possibilità è abbastanza reale che la scorsa settimana la Commissione elettorale federale abbia aperto un commento pubblico su una proposta di includere i deepfake nel divieto di rappresentazione fraudolenta nella pubblicità della campagna.

Un deepfake è una manipolazione creata dal computer della voce o delle sembianze di una persona utilizzando l’apprendimento automatico per creare contenuti che sembrano reali. Vengono utilizzati per qualsiasi cosa, dalla pubblicità all’intrattenimento, dalle bufale alle molestie.

“Consulenti politici, campagne, candidati e persino membri del pubblico in generale stanno avanzando nell’uso della tecnologia senza comprendere appieno come funziona o, cosa più importante, tutti i potenziali danni che può causare”, ha affermato Carah Ong Whaley, responsabile del programma accademico. per il Centro di Politica UVA.

“Sono particolarmente preoccupata per l’uso dell’intelligenza artificiale per la manipolazione degli elettori, non solo attraverso i deepfake, ma attraverso la capacità dell’intelligenza artificiale generativa di microtargetizzare sotto steroidi attraverso messaggi di testo e campagne e-mail”, ha affermato.

La professoressa di diritto Danielle Citron ha avvertito che un deepfake tempestivo potrebbe cambiare le elezioni.  (Foto Legge UVA)

La professoressa di diritto Danielle Citron ha avvertito che un deepfake tempestivo potrebbe cambiare le elezioni. (Foto Legge UVA)

La corsa per la nomina presidenziale del Partito Repubblicano ha già visto un po’ di deepfakery. A giugno, il governatore della Florida.

La campagna presidenziale di Ron DeSantis “War Room” ha pubblicato un video che includeva foto realistiche e deepfake del favorito ed ex presidente Donald Trump che abbracciava e persino baciava il naso del dottor Anthony S. Fauci, ex direttore del National Institute of Allergy and Infectious Disease.

La campagna di DeSantis ha ammesso che le fotografie erano false. Hanno notato che la campagna di Trump aveva utilizzato foto generate dall’intelligenza artificiale del governatore della Florida che cavalcava un rinoceronte e un post che includeva un video ritoccato del candidato presidenziale repubblicano Chris Christie che teneva un discorso mentre teneva in mano un piatto di ciambelle.

Entrambi i post della campagna di Trump erano palesemente falsi.

In un annuncio pubblicitario di luglio pubblicato da un potente comitato di azione politica a sostegno di DeSantis nelle primarie presidenziali repubblicane dell’Iowa, una voce che sembrava quella di Trump criticava il governatore dell’Iowa.

“Ho aperto la carica di governatore a Kim Reynolds”, afferma la dichiarazione trumpiana. “E quando è rimasta indietro, l’ho appoggiata. Ha fatto grandi manifestazioni e ha vinto. Ora vuole rimanere neutrale. Non la invito agli eventi.

Le parole erano di Trump, ma la voce no. Le parole provenivano da un post sui social media, ma la voce era un’imitazione sintetica generata dal computer.

“Questa funzionalità rende possibile creare audio e video di persone reali che dicono e fanno cose che non hanno mai detto o fatto”, ha scritto l’esperta di privacy informatica Danielle Citron della UVA nella prefazione a un articolo del 2019 scritto con Robert Chesney dell’Università del Texas Law. Scuola.

Citron è professore di diritto Schenck della Jefferson Scholars Foundation e professore di diritto Caddell e Chapman presso la UVA School of Law.

“Il potenziale per influenzare l’esito di un’elezione è reale, in particolare se l’aggressore è in grado di cronometrare la distribuzione in modo tale che ci sia una finestra sufficiente per far circolare il falso, ma non abbastanza finestra perché la vittima possa sfatarlo in modo efficace (supponendo che possa essere sfatato del tutto)”, ha scritto.

I deepfake di Trump non sono stati gli unici a circolare ampiamente quest’anno. A marzo, quando una serie di fallimenti bancari scossero l’economia, un clip audio in cui sembrava che il presidente Joe Biden fornisse una valutazione disastrosa dello stato del sistema bancario si diffuse ampiamente su Internet. Non era reale.

Un rapporto di aprile del Congressional Research Service, un braccio di ricerca sulle politiche pubbliche del Congresso degli Stati Uniti, ha espresso il timore che i deepfake possano essere utilizzati anche da altri paesi per intromettersi nelle elezioni.

“Avversari statali o individui politicamente motivati ​​potrebbero rilasciare video falsificati di funzionari eletti o altri personaggi pubblici che fanno commenti incendiari o si comportano in modo inappropriato”, ha riferito il servizio. “Ciò potrebbe, a sua volta, erodere la fiducia del pubblico, influenzare negativamente il discorso pubblico o addirittura influenzare le elezioni”.

Il servizio rileva anche un concetto proposto da Citron e Chesney di un “dividendo del bugiardo”, in cui qualcuno legittimamente sorpreso a fare qualcosa di sbagliato usa l’esistenza di deepfake per negare le proprie azioni.

“Un pubblico scettico sarà portato a dubitare dell’autenticità delle prove audio e video reali. Questo scetticismo può essere invocato sia contro i contenuti autentici che contro quelli adulterati”, hanno scritto gli autori.

Mettere in cattiva luce un avversario è una tradizione politica.

“Foto e riprese video manipolate, commenti dei candidati decontestualizzati; è già stato utilizzato per decenni nelle campagne elettorali”, ha detto Whaley.

“L’intelligenza artificiale aumenta drasticamente la portata e la proliferazione, lasciandoci insensibili e, si spera, mettendo in discussione tutto ciò che vediamo e sentiamo sulle elezioni. Per alcuni elettori, l’esposizione a determinati messaggi potrebbe sopprimere l’affluenza alle urne. Per altri, peggio ancora, potrebbe alimentare rabbia e violenza politica”.

Citron e Chesney temono che le discussioni sociali su quali fatti siano veri possano far sì che le bugie siano prontamente accettate dagli elettori.

“Il mercato delle idee soffre già del decadimento della verità poiché il nostro ambiente informativo in rete interagisce in modo tossico con i nostri pregiudizi cognitivi”, hanno scritto gli autori.

“I deepfake aggraveranno significativamente questo problema. Gli individui e le imprese dovranno affrontare nuove forme di sfruttamento, intimidazione e sabotaggio personale. Anche i rischi per la nostra democrazia e per la sicurezza nazionale sono profondi”.

Ci sono sforzi da parte del Congresso e del governo federale per regolamentare l’uso dei media generati dall’intelligenza artificiale. Il 16 agosto la Commissione elettorale federale ha aperto al pubblico un commento su una proposta di norma che include le produzioni di intelligenza artificiale ai sensi delle norme sulla falsa dichiarazione fraudolenta dell’autorità della campagna.

La proposta è nata dopo una petizione di luglio di Public Citizen, un’organizzazione di difesa senza scopo di lucro. I commenti sulla norma proposta, REG 2023–02, devono essere sottoposto alla commissione entro il 16 ottobre.

Whaley teme che un deepfake tempestivo possa provocare il caos in tempo di elezioni, magari diffondendosi attraverso i social media. Ha osservato che ci sono 65 elezioni in 54 paesi previste per il 2024.

“Con un significativo cambio di leadership nelle società di social media, in particolare X, mi chiedo se i team politici e tecnici siano in grado di valutare appieno la proliferazione della malinformazione attraverso le piattaforme”, ha affermato.

“Ciò è particolarmente preoccupante dato che la disinformazione online e l’organizzazione online possono sfociare nella violenza politica nel mondo reale. Pensa a Charlottesville 2017 o al 6 gennaio, ma molto, molto peggio.

Fonte: Università della Virginia



Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.