I ricercatori di Stanford delineano una struttura per gli ingegneri mentre si espandono e costruiscono nuovi modelli di intelligenza artificiale medica.
Un paziente giace sul tavolo operatorio mentre l’équipe chirurgica raggiunge un vicolo cieco. Non riescono a trovare la rottura intestinale. Un chirurgo chiede ad alta voce: “Controlla se abbiamo perso una vista di qualsiasi sezione intestinale nel feed visivo degli ultimi 15 minuti”.
UN assistente medico di intelligenza artificiale si mette al lavoro rivedendo le scansioni passate del paziente ed evidenziando i flussi video della procedura in tempo reale. Avvisa il team quando ha saltato una fase della procedura e legge la letteratura medica pertinente quando i chirurghi incontrano un raro fenomeno anatomico.
I medici di tutte le discipline, con l’assistenza dell’intelligenza artificiale, potrebbero presto avere la possibilità di consultare rapidamente l’intera cartella clinica di un paziente sullo sfondo di tutti i dati sanitari medici e di ogni parte di letteratura medica pubblicata online. Questa potenziale versatilità nello studio medico è possibile solo ora grazie all’ultima generazione di modelli AI.
“Vediamo un cambio di paradigma in arrivo nel campo dell’IA medica”, ha affermato Jure Leskovec, professore di informatica alla Stanford Engineering. “In precedenza, i modelli di intelligenza artificiale medica potevano affrontare solo pezzi molto piccoli e ristretti del puzzle dell’assistenza sanitaria. Ora stiamo entrando in una nuova era, in cui si tratta molto di più di pezzi più grandi del puzzle in questo campo ad alta posta in gioco.
I ricercatori di Stanford e i loro collaboratori descrivono l’intelligenza artificiale medica generalista, o GMAI, come una nuova classe di modelli di intelligenza artificiale medica che sono ben informati, flessibili e riutilizzabili in molte applicazioni mediche e tipi di dati. La loro prospettiva su questo progresso è pubblicata nel numero di Natura.
Leskovec e i suoi collaboratori raccontano come GMAI interpreterà diverse combinazioni di dati da imaging, cartelle cliniche elettroniche, risultati di laboratorio, genomica e testo medico ben oltre le capacità di modelli concorrenti come ChatGPT. Questi modelli GMAI forniranno spiegazioni vocali, offriranno consigli, disegneranno schizzi e annoteranno immagini.
“Molte inefficienze ed errori che si verificano oggi in medicina si verificano a causa dell’iperspecializzazione dei medici umani e del flusso lento e discontinuo di informazioni”, ha affermato il co-primo autore Michele Moro, MD e ora borsista post-dottorato presso la Stanford Engineering. “Il potenziale impatto dei modelli di intelligenza artificiale medica generalista potrebbe essere profondo perché non sarebbero solo esperti nella loro area ristretta, ma avrebbero più capacità in tutte le specialità”.
Medicina senza frontiere
Degli oltre 500 modelli di intelligenza artificiale per la medicina clinica approvati dalla FDA, la maggior parte esegue solo uno o due compiti ristretti, come la scansione di una radiografia del torace per segni di polmonite. Ma i recenti progressi nella ricerca sui modelli di fondazione promettono di risolvere compiti più diversi e impegnativi.
“La parte entusiasmante e rivoluzionaria è che i modelli di intelligenza artificiale medica generalista saranno in grado di ingerire diversi tipi di informazioni mediche, ad esempio studi di imaging, risultati di laboratorio e dati genomici, per poi eseguire attività che istruiamo loro a svolgere al volo ”, ha detto Leskovec.
“Ci aspettiamo di vedere un cambiamento significativo nel modo in cui opererà l’IA medica”, ha continuato Moor. “Successivamente, avremo dispositivi che, invece di svolgere un solo compito, possono svolgere forse mille compiti, alcuni dei quali non erano nemmeno previsti durante lo sviluppo del modello”.
Gli autori, che includono anche Oishi Banerjee e Pranav Rajpurkar dell’Università di Harvard, Harlan Krumholz di Yale, Zahra Shakeri Hossein Abad dell’Università di Toronto ed Eric Topol dello Scripps Research Translational Institute, delineano come GMAI potrebbe affrontare una varietà di applicazioni dai chatbot con i pazienti, prendere appunti, fino al supporto decisionale al capezzale per i medici.
Nel reparto di radiologia, propongono gli autori, i modelli potrebbero redigere referti radiologici che evidenziano visivamente le anomalie, tenendo conto della storia del paziente. I radiologi potrebbero migliorare la loro comprensione dei casi chattando con i modelli GMAI: “Puoi evidenziare eventuali nuove lesioni da sclerosi multipla che non erano presenti nell’immagine precedente?”
Nel loro documento, gli scienziati descrivono ulteriori requisiti e capacità necessari per sviluppare GMAI in una tecnologia affidabile. Sottolineano che il modello deve consumare tutti i dati medici personali, nonché le conoscenze mediche storiche, e fare riferimento ad esso solo quando interagisce con utenti autorizzati. Deve quindi essere in grado di tenere una conversazione con un paziente, proprio come un’infermiera di triage o un medico per raccogliere nuove prove e dati o suggerire vari piani di trattamento.
Preoccupazioni per lo sviluppo futuro
Nel loro documento di ricerca, i coautori affrontano le implicazioni di un modello capace di 1.000 incarichi medici con il potenziale per imparare ancora di più. “Pensiamo che il problema più grande per i modelli generalisti in medicina sia la verifica. Come facciamo a sapere che il modello è corretto e non solo inventato?” disse Leskovec.
Indicano i difetti già rilevati nel modello linguistico ChatGPT. Allo stesso modo, un’immagine generata dall’intelligenza artificiale del papa che indossa un piumino firmato è divertente. “Ma se c’è uno scenario ad alto rischio e il sistema di intelligenza artificiale decide sulla vita e sulla morte, la verifica diventa davvero importante”, ha detto Moor.
Gli autori continuano dicendo che anche la salvaguardia della privacy è una necessità. “Questo è un grosso problema perché con modelli come ChatGPT e GPT-4, la comunità online ha già identificato i modi per eseguire il jailbreak delle attuali protezioni in atto”, ha affermato Moor.
“Anche la decifrazione tra i dati e i pregiudizi sociali rappresenta una grande sfida per GMAI”, ha aggiunto Leskovec. I modelli GMAI hanno bisogno della capacità di concentrarsi sui segnali che sono causali per una data malattia e ignorano i segnali spuri che tendono solo a correlarsi con l’esito.
Supponendo che le dimensioni del modello diventeranno solo più grandi, Moor indica le prime ricerche che mostrano che i modelli più grandi tendono a mostrare più pregiudizi sociali rispetto ai modelli più piccoli. “È responsabilità dei proprietari e degli sviluppatori di tali modelli e fornitori, soprattutto se li stanno implementando negli ospedali, assicurarsi davvero che tali pregiudizi vengano identificati e affrontati nella fase iniziale”, ha affermato Moor.
“La tecnologia attuale è molto promettente, ma manca ancora molto”, ha concordato Leskovec. “La domanda è: possiamo identificare i pezzi attualmente mancanti, come la verifica dei fatti, la comprensione dei pregiudizi e la spiegabilità/giustificazione delle risposte in modo da fornire un’agenda per la comunità su come fare progressi per realizzare appieno il profondo potenziale di GMAI? “
Fonte: Università di Stanford
Da un’altra testata giornalistica news de www.europeantimes.news