I recenti progressi nell’intelligenza artificiale generativa hanno stimolato sviluppi nella sintesi vocale realistica. Sebbene questa tecnologia possa potenzialmente migliorare la vita attraverso assistenti vocali personalizzati e strumenti di comunicazione che migliorano l’accessibilità, ha anche portato a risultati positivi deepfakein cui il parlato sintetizzato può essere utilizzato in modo improprio per ingannare gli esseri umani e le macchine per scopi nefasti.
In risposta a questa minaccia in evoluzione, Ning Zhangprofessore assistente di informatica e ingegneria presso la McKelvey School of Engineering della Washington University di St. Louis, ha sviluppato uno strumento chiamato AntiFake, un nuovo meccanismo di difesa progettato per contrastare la sintesi vocale non autorizzata prima che avvenga.
Zhang ha presentato AntiFake alla conferenza sulla sicurezza informatica e delle comunicazioni dell’Association for Computing Machinery a Copenhagen, Danimarca.
A differenza dei tradizionali metodi di rilevamento dei deepfake, utilizzati per valutare e scoprire l’audio sintetico come strumento di mitigazione post-attacco, AntiFake assume una posizione proattiva. Impiega tecniche contraddittorie per impedire la sintesi di discorsi ingannevoli rendendo più difficile per gli strumenti di intelligenza artificiale leggere le caratteristiche necessarie dalle registrazioni vocali. Il codice è liberamente disponibile per gli utenti.
“AntiFake si assicura che quando mettiamo a disposizione i dati vocali, sia difficile per i criminali utilizzare tali informazioni per sintetizzare le nostre voci e impersonificarci”, ha detto Zhang.
“Lo strumento utilizza una tecnica di IA contraddittoria che originariamente faceva parte degli strumenti dei criminali informatici, ma ora la utilizziamo per difenderci da loro. Confondiamo leggermente il segnale audio registrato, lo distorciamo o lo perturbiamo quel tanto che basta affinché suoni ancora bene per gli ascoltatori umani, ma è completamente diverso dall’intelligenza artificiale.
Per garantire che AntiFake possa resistere a un panorama in continua evoluzione di potenziali aggressori e modelli di sintesi sconosciuti, Zhang e il primo autore Zhiyuan Yu, uno studente laureato nel laboratorio di Zhang, hanno creato lo strumento in modo che fosse generalizzabile e lo hanno testato rispetto a cinque tecnologie all’avanguardia. -sintetizzatori vocali artistici.
AntiFake ha raggiunto un tasso di protezione superiore al 95%, anche contro sintetizzatori commerciali sconosciuti. Hanno inoltre testato l’usabilità di AntiFake con 24 partecipanti umani per confermare che lo strumento è accessibile a popolazioni diverse.
Attualmente, AntiFake può proteggere brevi spezzoni di discorso, mirando al tipo più comune di imitazione vocale. Ma, ha affermato Zhang, nulla può impedire che questo strumento venga ampliato per proteggere registrazioni o musica più lunghe nella lotta in corso contro la disinformazione.
“Alla fine, vogliamo essere in grado di proteggere completamente le registrazioni vocali”, ha detto Zhang.
“Anche se non so quale sarà il futuro della tecnologia vocale basata sull’intelligenza artificiale (nuovi strumenti e funzionalità vengono sviluppati continuamente), penso che la nostra strategia di rivoltare le tecniche degli avversari contro di loro continuerà ad essere efficace. L’intelligenza artificiale rimane vulnerabile alle perturbazioni degli avversari, anche se potrebbe essere necessario modificare le specifiche ingegneristiche per mantenere questa strategia vincente”.
Da un’altra testata giornalistica. news de www.technology.org