C’è un urgente bisogno di supportare i cittadini con un sistema di autodifesa digitale, o un Neuroshield, sostiene un esperto di neuroscienze dal Baker Institute of Public Policy della Rice University.
Passi per regolamentare l’intelligenza artificiale avanzata (AI) e Social media potenziati dall’intelligenza artificiale sono necessari per proteggere le persone dall’IA che “hackera” le nostre relazioni interpersonali e l’intelligenza collettiva, afferma Harris Eyrericercatore di salute cerebrale presso il Baker Institute.
“Sebbene tale tecnologia porti il mondo intero sui nostri dispositivi e offra ampie opportunità di realizzazione individuale e comunitaria, può anche distorcere la realtà e creare false illusioni”, scrive nel nuovo rapporto.
“Diffondendo disinformazione e disinformazione, i social media e l’intelligenza artificiale pongono una sfida diretta al funzionamento delle nostre democrazie”.
Attualmente, falsi profondi stanno già causando preoccupazione mentre il paese si avvia verso una stagione elettorale. Eyre sostiene che c’è un urgente bisogno di progettare politiche basate sulle neuroscienze per sostenere i cittadini contro l’IA, come un “neuroscudo”.
“Il modo in cui interpretiamo la realtà che ci circonda, il modo in cui apprendiamo e reagiamo, dipende dal modo in cui i nostri cervelli sono cablati”, scrive.
“È stato sostenuto che, data la rapida ascesa della tecnologia, all’evoluzione non è stato concesso abbastanza tempo per sviluppare quelle regioni della neocorteccia che sono responsabili delle funzioni cognitive superiori. Di conseguenza, siamo biologicamente vulnerabili ed esposti”.
Il neuroshield comporterebbe un triplice approccio: sviluppo di un codice di condotta rispetto all’obiettività delle informazioni, attuazione di protezioni normative e creazione di un kit di strumenti educativi per i cittadini.
Il rapporto sostiene che la cooperazione tra editori, giornalisti, leader dei media, opinion maker e scienziati del cervello può formare un “codice di condotta” che supporta l’obiettività delle informazioni. Eyre spiega che interpretare i fatti rientra nel regno della libertà sociale e politica, ma le verità innegabili devono essere protette.
“Come dimostrano le neuroscienze, l’ambiguità nella comprensione dei fatti può creare ‘verità alternative’ che vengono fortemente codificate nel nostro cervello”, spiega.
Un toolkit sviluppato con i neuroscienziati potrebbe proteggere la libertà cognitiva proteggendo al tempo stesso le persone, in particolare i giovani sui social media, dalla disinformazione.
L’obiettivo principale del toolkit sarebbe quello di aiutare le persone a imparare come eseguire il proprio controllo dei fatti e combattere la suscettibilità del cervello a pregiudizi e disinformazione. Ad esempio, Google ha attualmente campagne in altri paesi che mostrano brevi video sui siti di social media e mettono in evidenza il modo in cui possono essere fatte affermazioni fuorvianti.
Tuttavia, l’autogoverno e l’affidamento esclusivo a un codice di condotta possono creare condizioni di disparità, sostiene Eyre.
“È fondamentale sia per i responsabili politici che per i neuroscienziati portare avanti questo approccio politico”, afferma.
“La proposta di legge europea sull’IA è un esempio di previsione di come i fornitori di modelli di intelligenza artificiale possano essere ritenuti responsabili e mantenere la trasparenza. Coinvolgendo da vicino i neuroscienziati nella pianificazione e nell’implementazione del Neuroshield, gli Stati Uniti possono garantire che vengano prese in considerazione le migliori intuizioni esistenti sul funzionamento della nostra cognizione”.
Fonte: Università del Riso
Da un’altra testata giornalistica. news de www.technology.org