L’intelligenza artificiale (AI) e gli algoritmi possono e vengono utilizzati per radicalizzare, polarizzare e diffondere il razzismo e l’instabilità politica, afferma un accademico della Lancaster University.
Joe Burton, professore di sicurezza internazionale alla Lancaster University, sostiene che l’intelligenza artificiale e gli algoritmi non sono solo strumenti utilizzati dalle agenzie di sicurezza nazionali per prevenire attività dannose online, ma possono contribuire alla polarizzazione, al radicalismo e alla violenza politica, costituendo una minaccia per la sicurezza nazionale.
Oltre a ciò, afferma, i processi di cartolarizzazione (che presentano la tecnologia come una minaccia esistenziale) sono stati determinanti nel modo in cui l’intelligenza artificiale è stata progettata, utilizzata e negli esiti dannosi che ha generato.
L’articolo del professor Burton ‘Estremismo algoritmico? La cartolarizzazione dell’intelligenza artificiale (AI) e il suo impatto sul radicalismo, la polarizzazione e la violenza politica” è pubblicato nel giornale ad alto impatto “Technology in Society” di Elsevier.
“L’intelligenza artificiale è spesso considerata uno strumento da utilizzare per contrastare l’estremismo violento”, afferma il professor Burton. “Ecco l’altro lato del dibattito.”
Il documento esamina il modo in cui l’intelligenza artificiale è stata cartolarizzata nel corso della sua storia, nelle rappresentazioni dei media e della cultura popolare, ed esplora esempi moderni di intelligenza artificiale che hanno effetti polarizzanti e radicalizzanti che hanno contribuito alla violenza politica.
L’articolo cita la serie di film classici, Terminator, che descriveva un olocausto commesso da un’intelligenza artificiale “sofisticata e maligna”, che faceva più di ogni altra cosa per inquadrare la consapevolezza popolare dell’intelligenza artificiale e la paura che la coscienza della macchina potesse portare a conseguenze devastanti per l’umanità. l’umanità – in questo caso una guerra nucleare e un tentativo deliberato di sterminare una specie.
“Questa mancanza di fiducia nelle macchine, le paure ad esse associate e la loro associazione con le minacce biologiche, nucleari e genetiche per l’umanità hanno contribuito al desiderio da parte dei governi e delle agenzie di sicurezza nazionali di influenzare lo sviluppo della tecnologia, di mitigare rischio e (in alcuni casi) per sfruttarne le potenzialità positive”, scrive il professor Burton.
Il ruolo dei droni sofisticati, come quelli utilizzati nella guerra in Ucraina, è ora, afferma il professor Burton, capace di piena autonomia, comprese funzioni come l’identificazione e il riconoscimento dei bersagli.
E, mentre c’è stato un ampio e influente dibattito elettorale, anche alle Nazioni Unite, per vietare i “robot assassini” e per mantenere l’essere umano coinvolto quando si tratta di prendere decisioni sulla vita o sulla morte, l’accelerazione e l’integrazione in droni armati, dice, ha continuato a ritmo sostenuto.
Nella sicurezza informatica – la sicurezza dei computer e delle reti informatiche – l’intelligenza artificiale viene utilizzata in modo massiccio e l’area prevalente è la (dis)informazione e la guerra psicologica online.
Le azioni del governo di Putin contro i processi elettorali statunitensi nel 2016 e il conseguente scandalo Cambridge Analytica hanno mostrato il potenziale della combinazione dell’intelligenza artificiale con i big data (compresi i social media) per creare effetti politici incentrati sulla polarizzazione, sull’incoraggiamento di credenze radicali e sulla manipolazione dei gruppi identitari. . Ha dimostrato il potere e il potenziale dell’intelligenza artificiale nel dividere le società.
E durante la pandemia, l’intelligenza artificiale è stata considerata positiva nel tracciare e rintracciare il virus, ma ha anche portato a preoccupazioni sulla privacy e sui diritti umani.
L’articolo esamina la stessa tecnologia dell’intelligenza artificiale, sostenendo che esistono problemi nella progettazione dell’intelligenza artificiale, nei dati su cui si basa, nel modo in cui viene utilizzata, nei suoi risultati e impatti.
Il documento si conclude con un messaggio forte ai ricercatori che lavorano nel campo della sicurezza informatica e delle relazioni internazionali.
“L’intelligenza artificiale è certamente in grado di trasformare le società in modo positivo, ma presenta anche rischi che devono essere meglio compresi e gestiti”, scrive il professor Burton, esperto di conflitti informatici e tecnologie emergenti e che fa parte del team dell’Università Scienza della sicurezza e della protezione iniziativa.
“Comprendere gli effetti divisivi della tecnologia in tutte le fasi del suo sviluppo e utilizzo è chiaramente vitale.
“Gli studiosi che lavorano nel campo della sicurezza informatica e delle relazioni internazionali hanno l’opportunità di integrare questi fattori nell’agenda emergente della ricerca sull’intelligenza artificiale ed evitare di trattare l’intelligenza artificiale come una tecnologia politicamente neutrale.
“In altre parole, la sicurezza dei sistemi di intelligenza artificiale e il modo in cui vengono utilizzati nelle lotte geopolitiche internazionali non dovrebbero prevalere sulle preoccupazioni sui loro effetti sociali”.
Fonte: Università di Lancaster
Da un’altra testata giornalistica. news de www.technology.org