-0.8 C
Rome
domenica, Novembre 10, 2024
- Pubblicità -
Scienze & Ambiente"Neuroshield" potrebbe proteggere dall'intelligenza artificiale

“Neuroshield” potrebbe proteggere dall’intelligenza artificiale

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


C’è un urgente bisogno di supportare i cittadini con un sistema di autodifesa digitale, o un Neuroshield, sostiene un esperto di neuroscienze dal Baker Institute of Public Policy della Rice University.

Cuffie per realtà virtuale, neuroshield - foto illustrativa.

Cuffie per realtà virtuale, neuroshield – foto illustrativa. Credito immagine: Jezael Melgoza tramite Unsplash, licenza gratuita

Passi per regolamentare l’intelligenza artificiale avanzata (AI) e Social media potenziati dall’intelligenza artificiale sono necessari per proteggere le persone dall’IA che “hackera” le nostre relazioni interpersonali e l’intelligenza collettiva, afferma Harris Eyrericercatore di salute cerebrale presso il Baker Institute.

“Sebbene tale tecnologia porti il ​​mondo intero sui nostri dispositivi e offra ampie opportunità di realizzazione individuale e comunitaria, può anche distorcere la realtà e creare false illusioni”, scrive nel nuovo rapporto.

“Diffondendo disinformazione e disinformazione, i social media e l’intelligenza artificiale pongono una sfida diretta al funzionamento delle nostre democrazie”.

Attualmente, falsi profondi stanno già causando preoccupazione mentre il paese si avvia verso una stagione elettorale. Eyre sostiene che c’è un urgente bisogno di progettare politiche basate sulle neuroscienze per sostenere i cittadini contro l’IA, come un “neuroscudo”.

Realtà virtuale, intelligenza artificiale - impressione artistica.

Realtà virtuale, intelligenza artificiale – impressione artistica. Credito immagine: Barbara Zandoval tramite Unsplash, licenza gratuita

“Il modo in cui interpretiamo la realtà che ci circonda, il modo in cui apprendiamo e reagiamo, dipende dal modo in cui i nostri cervelli sono cablati”, scrive.

“È stato sostenuto che, data la rapida ascesa della tecnologia, all’evoluzione non è stato concesso abbastanza tempo per sviluppare quelle regioni della neocorteccia che sono responsabili delle funzioni cognitive superiori. Di conseguenza, siamo biologicamente vulnerabili ed esposti”.

Il neuroshield comporterebbe un triplice approccio: sviluppo di un codice di condotta rispetto all’obiettività delle informazioni, attuazione di protezioni normative e creazione di un kit di strumenti educativi per i cittadini.

Il rapporto sostiene che la cooperazione tra editori, giornalisti, leader dei media, opinion maker e scienziati del cervello può formare un “codice di condotta” che supporta l’obiettività delle informazioni. Eyre spiega che interpretare i fatti rientra nel regno della libertà sociale e politica, ma le verità innegabili devono essere protette.

“Come dimostrano le neuroscienze, l’ambiguità nella comprensione dei fatti può creare ‘verità alternative’ che vengono fortemente codificate nel nostro cervello”, spiega.

Un toolkit sviluppato con i neuroscienziati potrebbe proteggere la libertà cognitiva proteggendo al tempo stesso le persone, in particolare i giovani sui social media, dalla disinformazione.

L’obiettivo principale del toolkit sarebbe quello di aiutare le persone a imparare come eseguire il proprio controllo dei fatti e combattere la suscettibilità del cervello a pregiudizi e disinformazione. Ad esempio, Google ha attualmente campagne in altri paesi che mostrano brevi video sui siti di social media e mettono in evidenza il modo in cui possono essere fatte affermazioni fuorvianti.

Tuttavia, l’autogoverno e l’affidamento esclusivo a un codice di condotta possono creare condizioni di disparità, sostiene Eyre.

“È fondamentale sia per i responsabili politici che per i neuroscienziati portare avanti questo approccio politico”, afferma.

“La proposta di legge europea sull’IA è un esempio di previsione di come i fornitori di modelli di intelligenza artificiale possano essere ritenuti responsabili e mantenere la trasparenza. Coinvolgendo da vicino i neuroscienziati nella pianificazione e nell’implementazione del Neuroshield, gli Stati Uniti possono garantire che vengano prese in considerazione le migliori intuizioni esistenti sul funzionamento della nostra cognizione”.

Fonte: Università del Riso



Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.