Impegnarsi con la comunità tecnologica non è “un bell’anno da avere” per i politici della difesa-è “assolutamente indispensabile avere questa comunità impegnata fin dall’inizio nella progettazione, sviluppo e uso dei framework che guideranno la sicurezza dei sistemi di intelligenza artificiale e delle capacità di Gosia, ha affermato Gosia Loy, capo del co-deputy dell’Institute for Disarmamment Research (Unidir).
Parlando al recente Conferenza globale sulla sicurezza dell’IA ed etica Ospitato da Unidir a Ginevra, ha sottolineato l’importanza di erigere i guardrail efficaci mentre il mondo naviga in quello che viene frequentemente chiamato “momento oppenheimer” di AI – in riferimento a Robert Oppenheimer, il fisico nucleare degli Stati Uniti meglio noto per il suo ruolo fondamentale nel creare la bomba atomica.
È necessaria una supervisione in modo che gli sviluppi di intelligenza artificiale rispettino i diritti umani, il diritto internazionale e l’etica – in particolare nel campo delle armi guidate dall’A -guidato – per garantire che queste potenti tecnologie si sviluppino in modo controllato e responsabile, ha insistito il funzionario UNIDIR.
Tecnica imperfetta
L’IA ha già creato un dilemma di sicurezza per governi e militari in tutto il mondo.
La natura a doppio uso delle tecnologie di intelligenza artificiale-dove possono essere utilizzate sia in ambienti civili che militari-significa che gli sviluppatori potrebbero perdere il contatto con le realtà delle condizioni del campo di battaglia, in cui la loro programmazione potrebbe costare la vita, ha avvertito Arnaud Valli, capo degli affari pubblici di Comand Ai.
Gli strumenti sono ancora agli inizi ma hanno a lungo le paure alimentate che potrebbero essere usate per prendere decisioni sulla vita o sulla morte in un ambiente di guerra, rimuovendo la necessità di processo decisionale e responsabilità umana. Quindi le crescenti richieste di regolamentazione, per garantire che vengano evitati errori che potrebbero portare a conseguenze disastrose.
“Vediamo che questi sistemi falliscano continuamente”, ha affermato David Sully, CEO della società con sede a Londra Advai, aggiungendo che le tecnologie rimangono “molto nonno”.
“Quindi, farli sbagliare non è difficile come pensano le persone a volte”, ha osservato.
Una responsabilità condivisa
In Microsoft, i team si stanno concentrando sui principi fondamentali di sicurezza, inclusività, equità e responsabilità, ha affermato Michael Karimian, direttore della diplomazia digitale.
Il gigante della tecnologia degli Stati Uniti fondata da Bill Gates pone limitazioni alla tecnologia di riconoscimento facciale in tempo reale utilizzato dalle forze dell’ordine che potrebbero causare danni mentali o fisici, ha spiegato Karimian.
Devono essere messe in atto chiare garanzie e le aziende devono collaborare per abbattere i silos, ha detto all’evento all’ONU Ginevra.
“L’innovazione non è qualcosa che accade solo all’interno di un’organizzazione. C’è la responsabilità di condividere”, ha affermato Karimian, la cui azienda collabora con Unidir per garantire il rispetto dell’intelligenza artificiale ai diritti umani internazionali.
Paradox di supervisione
Parte dell’equazione è che le tecnologie si stanno evolvendo a un ritmo così in fretta, i paesi stanno lottando per tenere il passo.
“Lo sviluppo dell’intelligenza artificiale sta superando la nostra capacità di gestire i suoi numerosi rischi”, ha affermato Sulyna Nur Abdullah, capo della pianificazione strategica e consulente speciale del segretario generale presso l’International Telecomunication Union (Itu).
“Dobbiamo affrontare il paradosso della governance dell’IA, riconoscendo che le normative a volte in ritardo rispetto alla tecnologia lo rendono un must per il dialogo continuo tra gli esperti politici e tecnici per sviluppare strumenti per una governance efficace”, ha affermato la signora Abdullah, aggiungendo che anche i paesi in via di sviluppo devono ottenere un posto al tavolo.
Lava di responsabilità
Più di un decennio fa nel 2013, il famoso esperto di diritti umani Christof Heyns in un rapporto Su Lethal Autonomous Robotics (LARS) ha avvertito che “togliere gli umani fuori dal ciclo rischia anche di togliere l’umanità fuori dal ciclo”.
Oggi non è meno difficile tradurre i giudizi legali dipendenti dal contesto in un programma software ed è ancora fondamentale che le decisioni di “vita e morte” siano prese dagli umani e non dai robot, ha insistito Peggy Hicks, direttore della divisione di sviluppo del diritto delle Nazioni Unite per i diritti umani (Ohchr).
Società mirroring
Mentre i grandi leader della tecnologia e della governance vedono in gran parte gli occhi per gli occhi dei principi guida dei sistemi di difesa dell’IA, gli ideali potrebbero essere in contrasto con i profitti delle aziende.
“Siamo un’azienda privata – cerchiamo anche la redditività”, ha affermato il signor Valli di COMAND AI.
“L’affidabilità del sistema è talvolta molto difficile da trovare”, ha aggiunto. “Ma quando lavori in questo settore, la responsabilità potrebbe essere enorme, assolutamente enorme.”
Sfide senza risposta
Mentre molti sviluppatori si impegnano a progettare algoritmi “equa, sicuri, robusti” secondo il signor Sully – non esiste una road map per l’implementazione di questi standard – e le aziende potrebbero non sapere nemmeno cosa stiano cercando di raggiungere esattamente.
Questi principi “tutti impongono come dovrebbe avvenire l’adozione, ma non spiegano davvero come ciò dovrebbe accadere”, ha affermato Sully, ricordando ai politici che “l’IA è ancora nelle prime fasi”.
La grande tecnologia e i politici devono ingrandire e riflettere sul quadro più ampio.
“Ciò che è robustezza per un sistema è un obiettivo incredibilmente tecnico e davvero impegnativo da determinare ed è attualmente senza risposta”, ha continuato.
Nessuna “impronta digitale”.
Il signor Sully, che si è descritto come un “grande sostenitore della regolamentazione” dei sistemi di intelligenza artificiale, lavorava per i non mandati Organizzazione completa del trattato di ban nucleare a Vienna, che monitora se si verificano test nucleari.
Ma identificare le armi guidate dall’IA, dice, pone una sfida completamente nuova che le armi nucleari-con firme forensi-non lo fanno.
“Esiste un problema pratico in termini di come la polizia di qualsiasi tipo di regolamento a livello internazionale”, ha affermato il CEO. “È la parte che nessuno vuole affrontare. Ma fino a quando non sarà affrontato … Penso che sarà un enorme, enorme ostacolo.”
Salvaguardia futura
I delegati della Conferenza Unidir hanno insistito sulla necessità di una lungimiranza strategica, per comprendere i rischi posti dalle tecnologie all’avanguardia che ora nascono.
Per Mozilla, che allena la nuova generazione di tecnologi, i futuri sviluppatori “dovrebbero essere consapevoli di ciò che stanno facendo con questa potente tecnologia e ciò che stanno costruendo”, ha insistito Elias dell’azienda.
Accademici come Moses B. Khanyile dell’Università di Stellenbosch in Sudafrica credono che anche le università abbiano una “responsabilità suprema” per salvaguardare i valori etici di base.
Gli interessi dei militari – gli utenti previsti di queste tecnologie – e i governi come regolatori devono essere “armonizzati”, ha affermato il dott. Khanyile, direttore dell’unità di ricerca sull’intelligenza artificiale della difesa presso la Stellenbosch University.
“Devono vedere AI Tech come uno strumento per sempre, e quindi devono diventare una forza per il bene.”
Paesi impegnati
Alla domanda su quale singola azione avrebbe intrapreso per costruire fiducia tra paesi, diplomatici provenienti da Cina, Paesi Bassi, Pakistan, Francia, Italia e Corea del Sud.
“Dobbiamo definire una linea di sicurezza nazionale in termini di controllo delle esportazioni delle tecnologie hi-tech”, ha affermato Shen Jian, ambasciatore straordinario e plenipotenziario (disarmo) e vice rappresentante permanente della Repubblica popolare cinese.
I percorsi per futuri ricerche e sviluppo dell’IA devono includere anche altri campi emergenti come la fisica e le neuroscienze.
“L’intelligenza artificiale è complicata, ma il mondo reale è ancora più complicato”, ha affermato Robert a Den Bosch, ambasciatore del disarmo e rappresentante permanente dei Paesi Bassi alla conferenza sul disarmo. “Per questo motivo, direi che è anche importante guardare l’IA in convergenza con altre tecnologie e in particolare il cyber, il quantico e lo spazio.”
Da un’altra testata giornalistica. news de news.un.org