3.6 C
Rome
martedì, Novembre 26, 2024
- Pubblicità -
Scienze & AmbienteRilevare i contenuti manipolati dall’intelligenza artificiale è una corsa agli armamenti impegnativa

Rilevare i contenuti manipolati dall’intelligenza artificiale è una corsa agli armamenti impegnativa

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Le dichiarazioni non costituiscono alcuna garanzia

Uno studio del DR (in danese) ha rilevato che un bambino su tre di età compresa tra 9 e 14 anni non considera mai la possibilità che foto e video sui social media possano essere manipolati. I numerosi deepfake hanno ora portato Meta, proprietaria di Facebook e Instagram, a cercare di rilevare immagini e video generati dal computer. Allo stesso tempo, l’AI Act dell’UE – la prima legislazione al mondo sull’IA – renderà obbligatoria la dichiarazione dei contenuti generati dal computer. Tuttavia, anche se si sta elaborando una regolamentazione in questo settore e le aziende tecnologiche cercheranno di rilevare i deepfake, Morten Mørup ritiene che non vi sia alcuna garanzia che potremo evitare di vedere molti più contenuti deepfake in futuro.

“Iniziare a dichiarare i deepfake è sicuramente un passo importante, ma ci saranno ancora persone che potranno generare contenuti senza che questi vengano dichiarati. Sono in corso ricerche sullo sviluppo di rilevatori di deepfake basati sull’intelligenza artificiale, ma poi siamo tornati alla corsa agli armamenti. Ed è una corsa agli armamenti che penso sarà molto difficile da vincere. Non dobbiamo quindi chiudere un occhio e dare per scontato che tutto ciò che non è dichiarato deepfake sia reale”, afferma Morten Mørup.

Attualmente esiste un altro metodo per rilevare i deepfake che ignora completamente l’intelligenza artificiale e si basa su una ricerca approfondita.

“Puoi provare a confrontare un deepfake con altre informazioni. Supponiamo, ad esempio, che un video mostri qualcosa che è accaduto in Ucraina. In tal caso, puoi confrontarlo con le foto satellitari e le informazioni meteorologiche del momento per vedere se tutto corrisponde al video clip. Ad esempio, quel giorno pioveva e il videoclip mostrava un cielo senza nuvole? L’unico problema è che i modelli di intelligenza artificiale possono potenzialmente avere accesso anche alle informazioni su cui stiamo confrontando il video. Quindi un buon deepfake farà sì che nel video stia piovendo”, afferma Morten Mørup.

Un mondo di disinformazione

Nel 2019, l’amministratore delegato di una società energetica britannica ha ricevuto una telefonata da quello che credeva essere il suo superiore nella società madre in Germania, che gli diceva di trasferire 220.000 euro su un conto bancario. In realtà il CEO era stato ingannato da un deepfake. Un truffatore aveva utilizzato l’intelligenza artificiale per generare la voce del suo superiore in modo così convincente che il direttore aveva trasferito immediatamente il denaro. Nel febbraio 2024, una grande azienda di Hong Kong ha subito un incidente simile e ha subito una frode di 25,6 milioni di dollari.

In Danimarca, il Ministero degli Affari Esteri monitorerà più da vicino le conversazioni video diplomatiche dopo che il Ministro degli Esteri, Lars Løkke Rasmussen (M), ha ricevuto l’anno scorso una chiamata deepfake da parte di un gruppo di comici russi che avevano falsificato il volto e la voce di Moussa Faki, presidente della Commissione dell’Unione Africana.

Sebbene prevenire truffe simili e diffondere disinformazione generata da deepfake possa essere difficile, Morten Mørup ritiene che una maggiore consapevolezza dei problemi sia fondamentale per limitare il problema.

“I requisiti di dichiarazione renderanno più difficile per gli utenti regolari realizzare deepfake senza essere scoperti, ma continueranno ad esserci attori importanti là fuori che froderanno altri o influenzeranno i processi democratici. Dobbiamo quindi riconoscere che queste tecnologie esistono e agire di conseguenza. Dobbiamo praticare la critica delle fonti e comprendere che viviamo in un mondo di disinformazione, dove esiste una manipolazione che può essere molto difficile da individuare. La nostra comprensione comune di ciò che è reale può essere minacciata come società. Sarebbe un grosso problema se iniziassimo a rifiutare le verità come disinformazione e false perché non si adattano alla nostra visione del mondo”, afferma Morten Mørup.

Le immagini di Taylor Swift sono state successivamente cancellate e le ricerche utilizzando il nome della cantante sono state disabilitate per un periodo su X per impedire la condivisione di nuove immagini. Da allora, diversi politici statunitensi, tra cui la deputata Yvette Clarke (democratica), hanno chiesto una legislazione che vieti la creazione e la condivisione di deepfake come contenuti pornografici su Internet.

Fonte: DTU



Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.