Il professore di informatica e ingegneria dell’Università del Michigan identifica le nuove preoccupazioni che i recenti progressi dell’intelligenza artificiale pongono per i mercati finanziari.
Nostro regolamenti finanziari non riescono a tenere il passo in un mondo in cui gli algoritmi di intelligenza artificiale possono già analizzare informazioni finanziarie in tempo reale e prendere decisioni commerciali ad alto rischio con poca o nessuna supervisione umana.
Michael Wellmannil presidente della divisione Richard H. Orenstein e il professore universitario di informatica e ingegneria Lynn A. Conway hanno testimoniato davanti alla commissione del Senato per le banche, l’edilizia abitativa e gli affari urbani per allertare i legislatori sui potenziali pericoli per la sicurezza e l’equità posti dall’intelligenza artificiale utilizzo nei sistemi finanziari.
“Le nostre leggi esistenti, in generale, sono scritte sulla base del presupposto che le persone prendono le decisioni”, ha detto Wellman. “Quando l’IA prende le decisioni, le nostre leggi garantiscono adeguatamente la responsabilità di coloro che mettono l’IA in funzione?”
Il potenziale pericolo per l’economia non deriva solo da malintenzionati che sperano di utilizzare l’intelligenza artificiale per manipolare i mercati o estrarre informazioni finanziarie. Secondo una ricerca condotta da Megan Shearer, un recente dottorato di ricerca. laureati del gruppo di Wellman, gli algoritmi automatizzati progettati semplicemente per massimizzare il profitto potrebbero essere altrettanto preoccupanti.
La loro ricerca dimostra come un algoritmo di trading possa imparare a manipolare i mercati senza istruzioni esplicite in tal senso. Questa potenziale discrepanza tra le specifiche di uno sviluppatore e le azioni di un’intelligenza artificiale solleva interrogativi su come ritenere gli sviluppatori di intelligenza artificiale responsabili degli agenti che rilasciano nel mondo.
“Gran parte della legge esistente dipende dall’intenzione di manipolare, e non è chiaro come ciò si applicherebbe a un algoritmo di intelligenza artificiale che apprende la manipolazione da solo”, ha affermato Wellman.
Una tale scappatoia potrebbe consentire agli sviluppatori di intelligenza artificiale di evitare la responsabilità della propria intelligenza artificiale.
“Dobbiamo trovare modi per definire le intenzioni nel contesto di un sistema di intelligenza artificiale”, ha affermato Wellman. “Sfortunatamente, è difficile sapere come migliorare il controllo dell’intelligenza artificiale data la segretezza del settore e la difficoltà di prevedere cosa potrebbe accadere dopo.
“Se qualcuno ti dice che sa dove sarà la tecnologia AI tra cinque o dieci anni – o anche l’anno prossimo – non credergli. Anche valutare l’esatta portata e la natura dell’IA impiegata nel trading algoritmico oggi non è possibile, a causa della mancanza di informazioni pubbliche”.
Wellman ritiene che creare una conoscenza più pubblica e aperta su quali pratiche possono creare rischi aiuterà a preparare meglio i sistemi finanziari per l’intelligenza artificiale e a ispirare regole e sistemi di mercato che rimangono resilienti agli inevitabili impatti dell’intelligenza artificiale.
“Le simulazioni di come si comporta l’intelligenza artificiale in ambienti di test che assomigliano a sistemi finanziari reali possono aiutare i ricercatori e i regolatori a comprendere meglio il comportamento di un algoritmo prima di inserirlo nel mondo reale”, ha affermato Wellman.
“Dobbiamo distinguere quali pratiche e circostanze aiutano e quali danneggiano, e identificare i modelli di mercato o le normative che promuovono pratiche benefiche e scoraggiano quelle dannose”.
Questa conoscenza aperta è necessaria affinché gli enti regolatori siano in grado di rispondere all’intelligenza artificiale prima che rappresenti un rischio serio, il che è “a volte essenziale per evitare esiti davvero terribili”, secondo Wellman.
L’intelligenza artificiale potrebbe anche esacerbare i vantaggi commerciali dei partiti che hanno accesso a grandi quantità di informazioni, ha affermato. Poiché le aziende con più dati possono costruire l’intelligenza artificiale più capace, le aziende che monopolizzano i dati potrebbero ottenere una superiorità nel trading finanziario. La monopolizzazione delle risorse informative per la negoziazione non è stata finora ampiamente studiata o discussa.
“I dati sulla formazione dovrebbero essere regolamentati come se fossero informazioni privilegiate? Questo è qualcosa su cui i legislatori devono riflettere”, ha detto Wellman.
“Se i mercati fossero considerati ingiusti a causa di questioni come la manipolazione o i vantaggi dell’informazione, ciò potrebbe minare la fiducia nel sistema generale e degradare il processo essenziale di formazione del capitale per l’economia”.
Fonte: Università del Michigan
Da un’altra testata giornalistica. news de www.technology.org