I leader del settore tecnologico e i luminari alla ricerca di riflettori stanno monopolizzando il discorso globale sull’intelligenza artificiale (AI) e spesso comunicano che la sua adozione comporta rischi catastrofici che vanno oltre la comprensione umana. Affermano i profeti di sventura che l’intelligenza artificiale comporta “un risultato negativo così grave (che) annienterebbe la vita intelligente originaria della Terra o ne ridurrebbe permanentemente o drasticamente il potenziale”.
Queste proiezioni di disastri futuri lontani – e i giornalisti dei media che le invitano – rendono un pessimo servizio al pubblico distogliendo l’attenzione dai problemi sociali che l’intelligenza artificiale sta causando oggi e dalla considerazione dei benefici dell’intelligenza artificiale.
Un gruppo di studiosi di etica sostiene questi punti in un documento articolo ad accesso aperto pubblicato sul Journal of Medical Ethics. L’autrice principale Nancy Jecker è professoressa di bioetica presso la School of Medicine dell’Università di Washington.
“Il rischio esistenziale, che chiamiamo ‘Rischio X’, si riferisce ad attività che minacciano gravi pericoli per l’umanità, come le armi nucleari, il cambiamento climatico e le malattie infettive emergenti”, ha affermato. “Questi hanno un’enorme capacità di spazzare via un gran numero di persone e di minare il benessere umano. Ci avviciniamo a loro con una valutazione del rischio equilibrata che includa i rischi che si verificano oggi”.
Con l’intelligenza artificiale, le preoccupazioni del qui e ora implicano pregiudizi algoritmici che portano a: genere E discriminazione razialegenerato dall’intelligenza artificiale abuso sessuale su minori, sfruttamento del lavoro, soprattutto nei paesi più poveri, e lo spostamento del lavoro creativo umano. La disinformazione durante questo anno elettorale è un’altra delle principali preoccupazioni, ha affermato Jecker.
I media in cerca di clic sui titoli dei giornali sono tentati di enfatizzare invece i dibattiti sull’intelligenza artificiale che sollevano lo spettro di un disastro lontano, ha suggerito. Allo stesso modo, i leader tecnologici che hanno interessi finanziari nello sviluppo dell’intelligenza artificiale sanno che aumentare i timori del pubblico riguardo a calamità lontane può eclissare la considerazione dei danni attuali dell’intelligenza artificiale.
“Ciò che mi preoccupa di più è ciò che non viene detto e dove non sono i riflettori”, ha offerto Jecker. “La maggior parte delle persone nel settore tecnologico non deve preoccuparsi personalmente di vedersi rifiutare un lavoro o un prestito bancario a causa di un algoritmo sessista o abilista, o di non essere presa in considerazione per la libertà condizionale a causa di un algoritmo razzista.”
I lavoratori della tecnologia, in particolare i leader, sono in maggioranza uomini bianchi senza disabilitàe questo punto di vista informa le loro valutazioni etiche, ha suggerito.
Gli autori hanno scritto l’articolo con la speranza di ampliare il dibattito sull’etica dell’IA per includere non solo le voci tecnologicamente consapevoli ma anche coloro che sono storicamente emarginati e le cui opportunità sono a rischio.
Il documento citava un anno della Stanford University 2023 analisi della letteratura accademica sull’etica dell’IA che ha visto uno spostamento dagli autori accademici verso autori con affiliazioni all’industria tecnologica; Gli autori tecnologici hanno prodotto il 71% in più di pubblicazioni rispetto agli accademici tra il 2014 e il 2022.
“I lavoratori tecnologici non hanno una formazione formale in etica”, ha detto Jecker. “Possono parlarci delle scelte da fare nell’ambito dell’intelligenza artificiale, ma non dovrebbero condurre dibattiti etici nella pubblica piazza. Non solo i leader tecnologici non sono formati per farlo, ma hanno anche un conflitto di interessi, dato il loro lavoro in quel settore”.
Un esempio di direzione positiva per il discorso sull’intelligenza artificiale, ha affermato Jecker, è l’ partenariato pubblico-privato appena annunciato dall’Università di Washington e dall’Università di Tsukuba in Giappone, con investimenti del settore privato da parte di Amazon, Nvidia e altre società. Il progetto mira a promuovere la ricerca, l’imprenditorialità, lo sviluppo della forza lavoro e l’implementazione sociale dell’intelligenza artificiale
“Dobbiamo impegnarci in sforzi transfrontalieri che coinvolgano diversi gruppi provenienti da diversi settori della società per lavorare insieme su questioni complesse”, ha affermato Jecker.
I commenti fissati sulle catastrofi possono anche distogliere l’attenzione dai benefici dell’intelligenza artificiale in settori come la medicina, hanno scritto gli autori. Hanno fatto riferimento alla capacità dell’intelligenza artificiale di aiutare i radiologi a identificare casi di pazienti ad alto rischio, a far avanzare la medicina di precisione basata sull’analisi genomica e a vagliare grandi set di dati per prevedere meglio i risultati dei pazienti.
“Un approccio equilibrato all’intelligenza artificiale deve valutare i benefici così come i rischi”, ha affermato Jecker.
Fonte: Università di Washington
Da un’altra testata giornalistica. news de www.technology.org
[…] Gli scenari in cui il cielo sta cadendo distraggono dai rischi che l’intelligenza artificiale pone… […]