In una conferenza di due giorni su “Intelligenza artificiale e giustizia”, tenutasi presso la Corte Suprema spagnola e organizzata dall’Asociación de Letrados del Tribunal Supremo (ALTS), il giudice Manuel Marchena ha avvertito che l’intelligenza artificiale sta rapidamente cambiando il modo in cui le società comprendono la verità e l’equità. Rivolgendosi a un pubblico a Madrid, ha delineato le sfide legali ed etiche poste dai deepfake, dalla profilazione algoritmica e dalla concentrazione del potere digitale – sfide che, secondo lui, l’Europa deve affrontare con urgenza.
Il giudice della Corte Suprema spagnola Manuel Marchena ha avvertito che l’intelligenza artificiale (AI), i deepfake e l’economia dei dati stanno trasformando il modo in cui le società comprendono la verità, la democrazia e la giustizia. Rivolgendosi a studenti e professionisti, la sua conferenza ha esplorato i profondi cambiamenti giuridici ed etici innescati dal rapido sviluppo tecnologico.
Perché le piattaforme “gratuite” non sono realmente gratuite
Marchena ha esordito ponendo una semplice domanda: se piattaforme come Twitter (ora X), WhatsApp o Google facessero pagare un euro all’anno, la gente pagherebbe? Molto probabilmente sì, ha sostenuto. E anche con dieci euro milioni continuerebbero a usufruire dei servizi.
Eppure queste società, alcune valutate in decine o centinaia di miliardi, non fanno pagare nulla. Per Marchena, questo rivela che il loro vero modello di business lo è dati personalispesso descritto come “il petrolio del 21° secolo”. Questi dati, ha detto, hanno un valore geopolitico e danno un’enorme influenza alle aziende che li controllano.
Una nuova lezione digitale: gli “irrilevanti” di Harari
Citando lo storico Yuval Noah Harari, il giudice ha avvertito che i sistemi digitali possono creare una nuova categoria sociale: l’ irrilevanti. Si tratta di persone i cui dati non interessano agli algoritmi e le cui voci rischiano di essere escluse dai processi politici ed economici.
Marchena ha suggerito che questo divario emergente è già visibile nel modo in cui gli algoritmi determinano ciò che i cittadini vedono, leggono e discutono online.
I deepfake e il “diritto a non farsi ingannare”
Uno degli avvertimenti più forti di Marchena riguardava la diffusione dei deepfake generati dall’intelligenza artificiale. Oggi, ha detto, è possibile produrre video o audio in cui personaggi pubblici sembrano dire cose che non hanno mai detto. Nel momento in cui una persona dimostra che il contenuto è falso, il danno politico o reputazionale potrebbe già essere irreversibile.
Questo è il motivo per cui molte istituzioni, compreso il Parlamento europeo, stanno sviluppando strumenti normativi per proteggere quelli che Marchena chiamava gli emergenti “diritto a non lasciarsi ingannare”.
Ha collegato queste preoccupazioni al nuovo Legge dell’UE sull’intelligenza artificialeche limita i sistemi di IA ad alto rischio e vieta alcune pratiche di sorveglianza biometrica che minacciano i diritti dei cittadini.
Nanotecnologia, informatica quantistica e società robotizzata
Marchena ha anche fatto riferimento alle idee pubblicate da Mustafa Suleyman, co-fondatore di DeepMind, che descrivono le tecnologie che trasformeranno radicalmente la società: informatica quantistica, nanotecnologia e robotica.
Immaginava un futuro in cui i grandi edifici potessero essere costruiti interamente da robot autonomi che operano continuamente, “365 giorni all’anno, 24 ore al giorno”, con profonde implicazioni per i mercati del lavoro e i servizi pubblici.
Kasparov vs Deep Blue: quando le macchine superarono l’intuizione umana
Per illustrare l’evoluzione delle capacità delle macchine, il giudice ha rivisitato gli storici incontri tra Garry Kasparov e Deep Blue dell’IBM. Mentre un maestro di scacchi umano può pensare qualche mossa in anticipo, Deep Blue ha valutato centinaia di milioni di possibili posizioni al secondo.
Per Marchena, questo momento simbolico è ancora importante: segna il punto in cui le macchine hanno innegabilmente superato l’intuizione umana in certi ambiti.
Algoritmi predittivi e fine della privacy?
La conferenza ha anche fatto riferimento a uno studio dell’Università di Cambridge che mostra come gli algoritmi possono dedurre i tratti della personalità e le preferenze dall’attività sui social media. Con dati sufficienti, il sistema potrebbe comprendere una persona meglio del suo partner o persino dei suoi genitori.
Marchena ha avvertito che ciò solleva non solo rischi per la privacy, ma anche domande sull’autonomia: cosa succede se gli individui iniziano a fidarsi degli algoritmi più che del proprio giudizio?
IA, diritti umani e tutele legali
Il giudice ha riconosciuto che gli esperti non sono d’accordo: alcuni temono i rischi esistenziali dell’intelligenza artificiale, mentre altri sostengono che l’intelligenza artificiale non potrà mai replicare la profondità dell’intuizione umana o del ragionamento morale.
Ha criticato le idee transumaniste di “immortalità digitale”, descrivendole come miti tecnologici che confondono una copia digitale con una vera identità personale.
Queste preoccupazioni fanno eco ai recenti dibattiti europei sui diritti umani e sull’intelligenza artificiale, comprese le questioni esplorate in Il rapporto dell’European Times su IA e diritti fondamentali.
Responsabilità democratica e protezione dai deepfake
Gli avvertimenti di Marchena sono in linea con una tendenza europea più ampia: nuove regole contro i deepfake, la manipolazione delle immagini e gli abusi dei dati biometrici. La Danimarca, ad esempio, ha elaborato leggi per proteggere i cittadini dalle imitazioni digitali ultrarealistiche create senza consenso.
A livello comunitario, indagini come quella L’indagine della Mediatrice europea sugli standard dell’IA riflettono la crescente preoccupazione in materia di responsabilità, non discriminazione e trasparenza algoritmica.
La giustizia nell’era degli algoritmi
Secondo Marchena, i sistemi giudiziari non possono rimanere neutrali o passivi di fronte a cambiamenti così profondi. I tribunali si occupano già di prove digitali, strumenti di polizia algoritmica e narrazioni mediatiche che si evolvono più velocemente delle procedure giudiziarie.
La sfida, ha affermato, è garantire trasparenza giuridica, non discriminazione E rimedi efficaci per coloro che sono danneggiati dalle decisioni automatizzate. La tecnologia deve restare responsabile dei principi democratici.
Un appello al pensiero critico
Marchena ha concluso esortando il pubblico, in particolare le generazioni più giovani, a mantenere una distanza critica dalle raccomandazioni algoritmiche. Il futuro della democrazia e della giustizia, ha suggerito, dipende dalla capacità dei cittadini di mettere in discussione i sistemi digitali piuttosto che arrendersi ad essi.
Illustrazione editoriale (prompt 16:9)
(Per uso editoriale – non mostrato nel testo dell’articolo)
Richiesta immagine:
“Crea un’illustrazione realistica in stile editoriale 16:9 raffigurante un’aula di tribunale europea o l’interno della Corte Suprema spagnola. La silhouette di un giudice si trova di fronte a una grande interfaccia digitale traslucida piena di volti sfocati, linee di codice e modelli di intelligenza artificiale. Sullo sfondo appaiono sottili sagome di persone che utilizzano smartphone, a simboleggiare i social media e i deepfake. Utilizza blu tenui, grigi e tonalità oro chiaro, profondità di campo morbida
Originalmente pubblicato su The European Times.
