Tra i settori più caldi per l’adozione dell’intelligenza artificiale (AI) c’è l’assistenza sanitaria. La Food and Drug Administration ha ora approvato più di 500 dispositivi di intelligenza artificiale, la maggior parte solo negli ultimi due anni, per assistere i medici in una serie di compiti, dalla misurazione del rischio di insufficienza cardiaca alla diagnosi del cancro.
In mezzo a questa ondata, studi recenti hanno rivelato che i modelli di intelligenza artificiale possono prevedere i dati demografici dei pazienti, inclusa la razza, direttamente dalle immagini mediche, anche se ai medici umani non sono evidenti caratteristiche anatomiche o fisiologiche distintive. Questi risultati hanno suscitato la preoccupazione che i sistemi di intelligenza artificiale possano discriminare i pazienti e aggravare la disparità sanitaria. Allo stesso modo, tuttavia, i sistemi potrebbero migliorare il monitoraggio degli esiti dei pazienti collegabili alla razza, nonché identificare nuovi fattori di rischio per la malattia.
Richiamando l’attenzione su queste implicazioni, Giacomo Zuun’affiliata di Stanford Institute for Human-Centered AIe i colleghi hanno scritto un nuovo “Prospettiva” articolo per il giornale Scienza. In questa intervista, Zou, un assistente professore di scienza dei dati biomedici e, per gentile concessione, di informatica e ingegneria elettrica a Stanford, discute la promessa e il pericolo dell’intelligenza artificiale nel prevedere i dati demografici dei pazienti.
Perché la razza è un concetto potenzialmente problematico nelle strutture sanitarie?
La razza è un costrutto sociale complesso senza basi biologiche. Il concetto di chi sia questa o quella “razza” varia nel tempo e nei diversi contesti e ambienti; dipende dal paese in cui ti trovi e in che secolo sei.
Esistono altre variabili umane, come l’ascendenza genetica e i rischi genetici di diverse malattie, che sono più sfumate e probabilmente più rilevanti per l’assistenza sanitaria.
L’intelligenza artificiale è in grado di discernere in modo plausibile le differenze biologiche che i medici e gli anatomisti umani hanno trascurato nelle immagini mediche o è più probabile che l’IA stia traendo inferenze basate su altre caratteristiche nei dati disponibili?
Molti modelli di AI sono ancora sostanzialmente non interpretabili”scatole nere”, nel senso che gli utenti non sanno davvero quali caratteristiche e informazioni utilizzano gli algoritmi di intelligenza artificiale per arrivare a previsioni particolari. Detto questo, non abbiamo prove che ci siano differenze biologiche in queste immagini tra diversi gruppi che l’IA sta rilevando.
Riteniamo che la qualità e le caratteristiche dei dati e dei set di addestramento utilizzati per sviluppare l’IA svolgano un ruolo importante. Ad esempio, i pazienti in un’area ospedaliera o in una clinica possono avere maggiori probabilità di avere determinate comorbilità o altre condizioni mediche, che in realtà hanno varie manifestazioni nelle immagini. E l’algoritmo potrebbe raccogliere quelle manifestazioni come artefatti e creare correlazioni spurie con la razza, perché i pazienti di una particolare categoria razziale vivono vicino e quindi vanno in quell’ospedale o clinica.
Un’altra possibilità sono gli artefatti tecnici sistemici, ad esempio dai tipi di macchine e dai metodi utilizzati per raccogliere immagini mediche. Anche nello stesso ospedale possono esserci due diversi centri di imaging, forse anche utilizzando la stessa attrezzatura, ma potrebbe semplicemente essere che il personale sia addestrato in modo diverso in una sala di imaging rispetto all’altra, ad esempio su quanto tempo deve essere eseguito l’imaging di un paziente o da che angolazione. Tali variazioni potrebbero portare a risultati diversi che possono apparire come modelli sistemici nelle immagini che l’IA correla con i dati demografici razziali o etnici, “giustamente” o “erroneamente”, ovviamente tenendo presente che queste categorie demografiche possono essere rozze e arbitrarie.
In che modo il discernimento dell’IA delle variabili razziali nascoste può esacerbare le disuguaglianze sanitarie?
Se l’algoritmo utilizza la razza o qualche proxy razziale per fare le sue previsioni diagnostiche e i medici non sono a conoscenza del fatto che la razza viene utilizzata, ciò potrebbe portare a una pericolosa diagnosi insufficiente o eccessiva di determinate condizioni. Guardando più in profondità le macchine per l’imaging e i set di allenamento che ho menzionato prima, supponiamo che i pazienti di una certa razza fossero più propensi a sottoporsi a scansioni su macchine a raggi X di tipo A perché quelle macchine sono installate dove vivono quelle persone.
Supponiamo ora che i casi positivi, ad esempio, di malattie polmonari nel set di addestramento per gli algoritmi di intelligenza artificiale siano stati raccolti principalmente da macchine a raggi X di tipo B. Se l’intelligenza artificiale impara a tenere conto del tipo di macchina quando prevede le variabili razziali e se i pazienti hanno malattie polmonari, potrebbe avere meno probabilità di prevedere malattie polmonari per le persone sottoposte a test su macchine di tipo A.
In pratica, ciò significherebbe che le persone sottoposte a scansione da macchine di tipo A potrebbero essere sottodiagnosticate per malattie polmonari, portando a disparità di assistenza sanitaria.
D’altra parte, in che modo la capacità dell’IA di dedurre le variabili razziali fa avanzare gli obiettivi dell’equità sanitaria?
L’intelligenza artificiale potrebbe essere utilizzata per monitorare, valutare e ridurre la disparità di assistenza sanitaria nei casi in cui le cartelle cliniche o gli studi di ricerca non acquisiscono i dati demografici dei pazienti. Senza questi dati, è molto difficile sapere se un certo gruppo di pazienti stia effettivamente ricevendo cure simili o abbia risultati simili rispetto ad altri gruppi di pazienti. In questo modo, se l’intelligenza artificiale può dedurre accuratamente le variabili razziali per i pazienti, potremmo utilizzare le variabili razziali imputate come proxy per valutare l’efficacia dell’assistenza sanitaria tra le popolazioni e ridurre le disparità nell’assistenza. Queste valutazioni ci darebbero anche un feedback per aiutarci a controllare le prestazioni dell’IA nel distinguere i dati demografici dei pazienti e assicurarci che le inferenze che l’IA sta facendo non stiano perpetuando o introducendo disparità nell’assistenza sanitaria.
Un altro vantaggio importante è che l’intelligenza artificiale può potenzialmente fornirci classificazioni molto più granulari dei gruppi demografici rispetto alle categorie di razza standard e discrete che spesso incontriamo. Ad esempio, chiunque sia di discendenza asiatica, che provenga dall’Asia meridionale o dall’Asia orientale, o che sia cinese o giapponese, è solitamente raggruppato sotto un rozzo ombrello, “asiatico”, su moduli di sondaggio standard o cartelle cliniche.
Al contrario, gli algoritmi di intelligenza artificiale spesso rappresentano i singoli pazienti su uno spettro continuo di variazione nella discendenza. Quindi c’è un potenziale interessante con l’IA per conoscere sottogruppi di pazienti più granulari e valutare i servizi medici forniti loro e i loro risultati.
Fonte: Università di Stanford
Da un’altra testata giornalistica. news de www.technology.org