I ricercatori hanno sviluppato nanoparticelle in grado di penetrare nella retina neurale e fornire mRNA alle cellule dei fotorecettori il cui corretto funzionamento rende possibile la visione.

Gli scienziati dell’Oregon State University College of Pharmacy hanno dimostrato in modelli animali la possibilità di utilizzare nanoparticelle lipidiche e RNA messaggero, la tecnologia alla base dei vaccini COVID-19, per trattare la cecità associata a una rara condizione genetica.

Lo studio è stato pubblicato oggi (11 gennaio 2023) sulla rivista I progressi della scienza. È stato guidato dal professore associato di scienze farmaceutiche dell’OSU Gaurav Sahay, dallo studente di dottorato dell’Oregon State Marco Herrera-Barrera e dall’assistente professore di oftalmologia dell’Oregon Health & Science University Renee Ryals.

Gli scienziati hanno superato quella che era stata la principale limitazione dell’utilizzo di nanoparticelle lipidiche, o LNP, per trasportare materiale genetico ai fini della terapia della vista, facendole raggiungere la parte posteriore dell’occhio, dove si trova la retina.

I lipidi sono acidi grassi e composti organici simili tra cui molti oli e cere naturali. Le nanoparticelle sono minuscoli pezzi di materiale di dimensioni variabili da uno a 100 miliardesimi di metro. L’RNA messaggero fornisce istruzioni alle cellule per produrre una particolare proteina.

Con i vaccini contro il coronavirus, l’mRNA trasportato dagli LNP istruisce le cellule a creare un pezzo innocuo della proteina spike del virus, che innesca una risposta immunitaria dal corpo. Come terapia per la compromissione della vista derivante dalla degenerazione retinica ereditaria, o IRD, l’mRNA istruirebbe le cellule dei fotorecettori – difettose a causa di una mutazione genetica – a produrre le proteine ​​necessarie per la vista.

L’IRD comprende un gruppo di disturbi di varia gravità e prevalenza che colpiscono una persona su poche migliaia in tutto il mondo.

Gli scienziati hanno dimostrato, in una ricerca che ha coinvolto topi e primati non umani, che gli LNP dotati di peptidi erano in grado di passare attraverso le barriere negli occhi e raggiungere la retina neurale, dove la luce viene trasformata in segnali elettrici che il cervello converte in immagini.

“Abbiamo identificato un nuovo set di peptidi che possono raggiungere la parte posteriore dell’occhio”, ha detto Sahay. “Abbiamo usato questi peptidi per agire come codici postali per consegnare nanoparticelle che trasportano materiali genetici all’indirizzo previsto all’interno dell’occhio”.

“I peptidi che abbiamo scoperto possono essere usati come ligandi mirati direttamente coniugati a RNA silenzianti, piccole molecole per terapie o come sonde di imaging”, ha aggiunto Herrera-Barrera.

Sahay e Ryals hanno ricevuto una sovvenzione di 3,2 milioni di dollari dal National Eye Institute per continuare a studiare la promessa delle nanoparticelle lipidiche nel trattamento della cecità ereditaria. Condurranno la ricerca sull’uso degli LNP per fornire uno strumento di editing genetico che potrebbe eliminare i geni cattivi nelle cellule dei fotorecettori e sostituirli con geni correttamente funzionanti.

La ricerca mira a sviluppare soluzioni per le limitazioni associate all’attuale principale mezzo di consegna per l’editing genetico: un tipo di virus noto come virus adeno-associato o AAV.

“L’AAV ha una capacità di confezionamento limitata rispetto agli LNP e può provocare una risposta del sistema immunitario”, ha affermato Sahay. “Inoltre, non funziona in modo fantastico nel continuare a esprimere gli enzimi che lo strumento di modifica utilizza come forbici molecolari per eseguire tagli nel DNA da modificare. Speriamo di utilizzare ciò che abbiamo appreso finora sugli LNP per sviluppare un sistema di consegna dell’editor di geni migliorato”.

Riferimento: “Le nanoparticelle lipidiche guidate da peptidi forniscono mRNA alla retina neurale di roditori e primati non umani” 11 gennaio 2023, I progressi della scienza.
DOI: 10.1126/sciadv.add4623

Lo studio LNP guidato dai peptidi è stato finanziato dal National Institutes of Health. Hanno partecipato alla ricerca per l’Oregon State anche i docenti del College of Pharmacy Oleh Taratula e Conroy Sun, i ricercatori post-dottorato Milan Gautam e Mohit Gupta, gli studenti di dottorato Antony Jozic e Madeleine Landry, l’assistente di ricerca Chris Acosta e lo studente universitario Nick Jacomino, uno studente di bioingegneria al College di Ingegneria che si è laureata nel 2020.

Da un’altra testata giornalistica news de www.europeantimes.news

2.5 C
Rome
sabato, Aprile 5, 2025
- Pubblicità -
Scienze & AmbienteDalle reti ricorrenti a GPT-4: misurazione del progresso algoritmico nei modelli linguistici

Dalle reti ricorrenti a GPT-4: misurazione del progresso algoritmico nei modelli linguistici

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Nel 2012, il migliore i modelli linguistici erano piccole reti ricorrenti che faticavano a formare frasi coerenti. Avanti veloce fino ad oggi e modelli linguistici di grandi dimensioni come GPT-4 superano la maggior parte degli studenti del SAT. Come è stato possibile questo rapido progresso?

Credito immagine: MIT CSAIL

In un nuova carta, i ricercatori di Epoch, MIT FutureTech e Northeastern University hanno deciso di far luce su questa domanda. La loro ricerca suddivide i fattori trainanti del progresso nei modelli linguistici in due fattori: l’aumento della quantità di calcolo utilizzato per addestrare i modelli linguistici e le innovazioni algoritmiche. In tal modo, eseguono l’analisi più ampia fino ad oggi del progresso algoritmico nei modelli linguistici.

I loro risultati mostrano che, a causa dei miglioramenti algoritmici, il calcolo necessario per addestrare un modello linguistico a un certo livello di prestazioni si è dimezzato all’incirca ogni 8 mesi. “Questo risultato è fondamentale per comprendere i progressi storici e futuri nei modelli linguistici”, afferma Anson Ho, uno dei due autori principali dell’articolo. “Sebbene la scalabilità dell’elaborazione sia stata cruciale, è solo una parte del puzzle. Per avere un quadro completo è necessario considerare anche il progresso algoritmico”.

La metodologia dell’articolo si ispira alle “leggi di scala neurale”: relazioni matematiche che prevedono le prestazioni del modello linguistico date determinate quantità di calcoli, dati di addestramento o parametri del modello linguistico. Compilando un set di dati di oltre 200 modelli linguistici a partire dal 2012, gli autori hanno adattato una legge di ridimensionamento neurale modificata che tiene conto dei miglioramenti algoritmici nel tempo.

Sulla base di questo modello adattato, gli autori eseguono un’analisi di attribuzione delle prestazioni, scoprendo che la scalabilità del calcolo è stata più importante delle innovazioni algoritmiche per migliorare le prestazioni nella modellazione del linguaggio. In effetti, scoprono che l’importanza relativa dei miglioramenti algoritmici è diminuita nel tempo. “Ciò non implica necessariamente che le innovazioni algoritmiche abbiano subito un rallentamento”, afferma Tamay Besiroglu, che ha anche co-diretto lo studio.

“La nostra spiegazione preferita è che il progresso algoritmico è rimasto a un ritmo più o meno costante, ma il calcolo è stato notevolmente ampliato, facendo sembrare il primo relativamente meno importante.” I calcoli degli autori supportano questo quadro, dove trovano un’accelerazione nella crescita del calcolo, ma nessuna prova di un’accelerazione o di un rallentamento nei miglioramenti algoritmici.

Modificando leggermente il modello, hanno anche quantificato il significato di un’innovazione chiave nella storia dell’apprendimento automatico: il Transformer, che è diventato l’architettura del modello linguistico dominante sin dalla sua introduzione nel 2017. Gli autori scoprono che i guadagni di efficienza offerti dal Transformer corrispondono a quasi due anni di progresso algoritmico nel campo, sottolineando l’importanza della sua invenzione.

Sebbene ampio, lo studio presenta diverse limitazioni. “Un problema ricorrente che abbiamo riscontrato è stata la mancanza di dati di qualità, che può rendere difficile l’adattamento del modello”, afferma Ho. “Il nostro approccio inoltre non misura il progresso algoritmico su attività a valle come la codifica e i problemi di matematica, per cui i modelli linguistici possono essere ottimizzati.”

Nonostante queste carenze, il loro lavoro rappresenta un importante passo avanti nella comprensione dei fattori trainanti del progresso nel campo dell’intelligenza artificiale. I loro risultati aiutano a far luce su come potrebbero svolgersi gli sviluppi futuri dell’intelligenza artificiale, con importanti implicazioni per la politica sull’intelligenza artificiale. “Questo lavoro, condotto da Anson e Tamay, ha importanti implicazioni per la democratizzazione dell’intelligenza artificiale”, ha affermato Neil Thompson, coautore e direttore del MIT FutureTech. “Questi miglioramenti in termini di efficienza significano che ogni anno livelli di prestazioni dell’IA che erano fuori portata diventano accessibili a più utenti”.

“I LLM sono migliorati a un ritmo vertiginoso negli ultimi anni. Questo articolo presenta l’analisi più approfondita fino ad oggi dei contributi relativi delle innovazioni hardware e algoritmiche al progresso delle prestazioni LLM”, afferma Lukas Finnveden, ricercatore di Open Philanthropy, che non è stato coinvolto nell’articolo.

“Questa è una questione a cui tengo moltissimo, poiché informa direttamente sul ritmo di ulteriori progressi che dovremmo aspettarci in futuro, il che aiuterà la società a prepararsi per questi progressi. Gli autori adattano una serie di modelli statistici a un ampio set di dati di valutazioni LLM storiche e utilizzano un’ampia convalida incrociata per selezionare un modello con forti prestazioni predittive. Forniscono inoltre un’idea chiara di come i risultati varierebbero in base a diverse ipotesi ragionevoli, eseguendo numerosi controlli di robustezza. Nel complesso, i risultati suggeriscono che gli aumenti nell’elaborazione sono stati e continueranno a essere responsabili della maggior parte dei progressi nell’LLM finché i budget di elaborazione continueranno ad aumentare di ≥ 4 volte all’anno. Tuttavia, il progresso algoritmico è significativo e potrebbe costituire la maggior parte dei progressi se il ritmo dell’aumento degli investimenti rallentasse”.

Scritto da Rachele Gordon

Fonte: Istituto di Tecnologia del Massachussetts



Da un’altra testata giornalistica. news de www.technology.org

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.