I ricercatori di chimica, biologia e medicina si stanno trasformando sempre più a modelli di intelligenza artificiale per sviluppare nuove ipotesi. Tuttavia, non è spesso chiaro su quale base gli algoritmi giungono alle loro conclusioni e in che misura possono essere generalizzati. Una pubblicazione dell’Università di Bonn ora avverte di incomprensioni nella gestione dell’intelligenza artificiale. Allo stesso tempo, evidenzia le condizioni in cui molto probabilmente i ricercatori possono avere fiducia nei modelli. Lo studio è stato ora pubblicato sulla rivista Cell riferisce la scienza fisica.
Gli algoritmi di apprendimento automatico adattivo sono incredibilmente potenti. Tuttavia, hanno uno svantaggio: il modo in cui i modelli di apprendimento automatico arrivano alle loro previsioni spesso non è evidente dall’esterno.
Supponiamo di nutrire l’intelligenza artificiale con foto di diverse migliaia di auto. Se ora lo presenti con una nuova immagine, di solito può identificare in modo affidabile se l’immagine mostra anche un’auto o meno. Ma perché? Ha davvero imparato che un’auto ha quattro ruote, un parabrezza e uno scarico? O la sua decisione si basa su criteri che sono effettivamente irrilevanti, come l’antenna sul tetto? Se così fosse, potrebbe anche classificare una radio come auto.
I modelli AI sono scatole nere
“I modelli AI sono scatole nere”, evidenzia il Prof. Dr. Jürgen Bajorath. “Di conseguenza, non si dovrebbe fidarsi ciecamente dei loro risultati e trarre conclusioni da loro.” L’esperto di chimica computazionale dirige l’IA nel dipartimento di scienze della vita presso il Lamarr Institute for Machine Learning and Artificial Intelligence. È anche responsabile del programma di informatica per le scienze della vita presso il Centro internazionale per la tecnologia dell’informazione (B-IT) di Bonn-Aachen presso l’Università di Bonn. Nella pubblicazione attuale, ha studiato la questione di quando si può probabilmente fare affidamento sugli algoritmi. E viceversa: quando no.
Il concetto di “spiegabilità” svolge un ruolo importante in questo contesto. Metaforicamente parlando, questo si riferisce agli sforzi all’interno della ricerca AI per perforare uno spioncino nella scatola nera. L’algoritmo dovrebbe rivelare i criteri che utilizza come base: le quattro ruote o l’antenna. “L’apertura della scatola nera attualmente è un argomento centrale nella ricerca AI”, afferma Bajorath. “Alcuni modelli di intelligenza artificiale sono sviluppati esclusivamente per rendere più comprensibili i risultati degli altri”.
La spiegabilità, tuttavia, è solo un aspetto: la questione di quali conclusioni potrebbero essere tratte dai criteri decisionali scelti da un modello è altrettanto importante. Se l’algoritmo indica che ha basato la sua decisione sull’antenna, un essere umano sa immediatamente che questa caratteristica è scarsamente adatta per identificare le auto. Nonostante ciò, i modelli adattivi sono generalmente utilizzati per identificare le correlazioni in grandi set di dati che gli esseri umani potrebbero non notare nemmeno. Siamo quindi come alieni che non sanno cosa rende un’auto: un alieno non sarebbe in grado di dire se un’antenna è o meno un buon criterio.
I modelli in linguaggio chimico suggeriscono nuovi composti
“C’è un’altra domanda che dobbiamo sempre farci quando usiamo le procedure di intelligenza artificiale nella scienza”, sottolinea Bajorath, che è anche membro dell’area di ricerca transdisciplinare (tra) “Modellazione”: “Quanto sono interpretabili i risultati?” I modelli in lingua chimica sono attualmente un argomento caldo in chimica e ricerca farmaceutica. È possibile, ad esempio, alimentarli con molte molecole che hanno una certa attività biologica. Sulla base di questi dati di input, il modello apprende e suggerisce idealmente una nuova molecola che ha anche questa attività ma una nuova struttura. Questo è anche indicato come modellazione generativa. Tuttavia, il modello di solito non può spiegare perché si tratta di questa soluzione. Spesso è necessario applicare successivamente metodi AI spiegabili.
Tuttavia, Bajorath mette in guardia contro l’interpretazione eccessiva di queste spiegazioni, cioè anticipando che le caratteristiche dell’IA considerano importanti in effetti causano l’attività desiderata. “Gli attuali modelli di intelligenza artificiale non comprendono essenzialmente nulla sulla chimica”, afferma. “Sono puramente statistici e correlativi di natura e prestano attenzione a qualsiasi caratteristica distintiva, indipendentemente dal fatto che queste caratteristiche possano essere chimicamente o biologicamente rilevanti o meno”. Nonostante ciò, potrebbero anche avere ragione nella loro valutazione, quindi forse la molecola suggerita ha le capacità desiderate. Le ragioni di ciò, tuttavia, possono essere completamente diverse da ciò che ci aspetteremmo in base alla conoscenza chimica o all’intuizione. Per valutare la potenziale causalità tra le caratteristiche che guidano le previsioni e gli esiti dei corrispondenti processi naturali, sono in genere richiesti esperimenti: i ricercatori devono sintetizzare e testare la molecola, nonché altre molecole con il motivo strutturale che l’IA considera importante.
I controlli di plausibilità sono importanti
Tali test richiedono tempo e costosi. Bajorath avverte così dall’interpretazione eccessiva dell’intelligenza artificiale si traduce nella ricerca di relazioni causali scientificamente plausibili. A suo avviso, un controllo di plausibilità basato su una solida logica scientifica è di fondamentale importanza: la caratteristica suggerita dall’intelligenza artificiale spiegabile può effettivamente essere responsabile della proprietà chimica o biologica desiderata? Vale la pena perseguire il suggerimento dell’intelligenza artificiale? O è un probabile artefatto, una correlazione identificata in modo casuale come l’antenna dell’auto, che non è affatto rilevante per la funzione effettiva?
Lo scienziato sottolinea che l’uso di algoritmi adattivi fondamentalmente ha il potenziale per far avanzare sostanzialmente la ricerca in molte aree della scienza. Tuttavia, si deve essere consapevoli dei punti di forza di questi approcci – e in particolare dei loro punti deboli.
Da un’altra testata giornalistica. news de www.sciencedaily.com