Software proprietario di intelligenza artificiale progettato per essere un sistema di allarme precoce per sepsi non è possibile distinguere i pazienti ad alto e basso rischio prima che ricevano i trattamenti, secondo un nuovo studio dell’Università del Michigan.
Lo strumento, denominato Epic Sepsis Model, fa parte del software di cartella clinica elettronica di Epic, che serve il 54% dei pazienti negli Stati Uniti e il 2,5% dei pazienti a livello internazionale, secondo una dichiarazione del CEO dell’azienda. segnalato dal Wisconsin State Journal. Genera automaticamente stime del rischio di sepsi nei registri dei pazienti ricoverati ogni 20 minuti, che i medici sperano possa consentire loro di rilevare quando un paziente potrebbe contrarre la sepsi prima che le cose vadano male.
“La sepsi presenta tutti questi sintomi vaghi, quindi quando un paziente si presenta con un’infezione, può essere davvero difficile sapere chi può essere mandato a casa con alcuni antibiotici e chi potrebbe aver bisogno di rimanere nel reparto di terapia intensiva. Ci mancano ancora molti pazienti affetti da sepsi”, ha affermato Tom Valleprofessore associato di medicina polmonare e terapia intensiva, medico di terapia intensiva e coautore dello studio pubblicato di recente sul New England Journal of Medicine AI.
La sepsi è responsabile di un terzo di tutti i decessi ospedalieri negli Stati Uniti e il trattamento precoce è fondamentale per la sopravvivenza dei pazienti. La speranza è che le previsioni dell’intelligenza artificiale possano essere determinanti affinché ciò accada, ma al momento non sembrano ottenere di più dai dati dei pazienti rispetto a quanto fanno i medici.
“Sospettiamo che alcuni dei dati sanitari su cui si basa il modello Epic Sepsis codificano, forse involontariamente, il sospetto medico che il paziente abbia sepsi”, ha affermato Jenna Viennaprofessore associato di informatica e ingegneria e autore corrispondente dello studio.
I pazienti non riceveranno esami dell’emocoltura e trattamenti antibiotici finché non inizieranno a presentare sintomi di sepsi, ad esempio. Sebbene tali dati potrebbero aiutare un’intelligenza artificiale a identificare in modo molto accurato i rischi di sepsi, potrebbero anche entrare nelle cartelle cliniche troppo tardi per aiutare i medici ad andare avanti con i trattamenti.
Questa discrepanza nella tempistica tra il momento in cui le informazioni diventano disponibili per l’intelligenza artificiale e il momento in cui diventano più rilevanti per i medici era evidente nella valutazione dei ricercatori di come il modello Epic Sepsis si è comportato per 77.000 adulti ricoverati presso l’Università del Michigan Health, il braccio clinico della Michigan Medicine. .
L’intelligenza artificiale aveva già effettuato stime del rischio di contrarre la sepsi per ciascun paziente durante le operazioni standard del centro medico, quindi i ricercatori dovevano solo estrarre i dati ed eseguire le loro analisi. Quasi il 5% dei pazienti aveva sepsi.
Per misurare le prestazioni dell’IA, il team ha calcolato la probabilità che l’IA assegnasse punteggi di rischio più elevati ai pazienti a cui era stata diagnosticata la sepsi, rispetto ai pazienti a cui non era mai stata diagnosticata la sepsi.
Includendo le previsioni fatte dall’IA in tutte le fasi della degenza ospedaliera del paziente, l’IA potrebbe identificare correttamente un paziente ad alto rischio nell’87% delle volte. Tuttavia, l’intelligenza artificiale era corretta solo nel 62% dei casi quando si utilizzavano i dati del paziente registrati prima che il paziente soddisfacesse i criteri per essere affetto da sepsi. Forse la cosa più significativa è che il modello ha assegnato punteggi di rischio più elevati solo al 53% dei pazienti che hanno contratto la sepsi quando le previsioni erano limitate a prima che fosse ordinata un’emocoltura.
I risultati suggeriscono che il modello indicava se i pazienti avevano ricevuto test diagnostici o trattamenti quando facevano previsioni. A quel punto, i medici sospettano già che i loro pazienti abbiano la sepsi, quindi è improbabile che le previsioni dell’IA facciano la differenza.
“Dobbiamo considerare quando nel flusso di lavoro clinico il modello viene valutato per decidere se è utile per i medici”, ha affermato Donna Tjandra, dottoranda in informatica e ingegneria e coautrice dello studio. “La valutazione del modello con i dati raccolti dopo che il medico ha già sospettato l’insorgenza della sepsi può far sembrare forti le prestazioni del modello, ma ciò non è in linea con ciò che aiuterebbe i medici nella pratica.”
Fonte: Università del Michigan
Da un’altra testata giornalistica. news de www.technology.org