I ricercatori hanno sviluppato nanoparticelle in grado di penetrare nella retina neurale e fornire mRNA alle cellule dei fotorecettori il cui corretto funzionamento rende possibile la visione.

Gli scienziati dell’Oregon State University College of Pharmacy hanno dimostrato in modelli animali la possibilità di utilizzare nanoparticelle lipidiche e RNA messaggero, la tecnologia alla base dei vaccini COVID-19, per trattare la cecità associata a una rara condizione genetica.

Lo studio è stato pubblicato oggi (11 gennaio 2023) sulla rivista I progressi della scienza. È stato guidato dal professore associato di scienze farmaceutiche dell’OSU Gaurav Sahay, dallo studente di dottorato dell’Oregon State Marco Herrera-Barrera e dall’assistente professore di oftalmologia dell’Oregon Health & Science University Renee Ryals.

Gli scienziati hanno superato quella che era stata la principale limitazione dell’utilizzo di nanoparticelle lipidiche, o LNP, per trasportare materiale genetico ai fini della terapia della vista, facendole raggiungere la parte posteriore dell’occhio, dove si trova la retina.

I lipidi sono acidi grassi e composti organici simili tra cui molti oli e cere naturali. Le nanoparticelle sono minuscoli pezzi di materiale di dimensioni variabili da uno a 100 miliardesimi di metro. L’RNA messaggero fornisce istruzioni alle cellule per produrre una particolare proteina.

Con i vaccini contro il coronavirus, l’mRNA trasportato dagli LNP istruisce le cellule a creare un pezzo innocuo della proteina spike del virus, che innesca una risposta immunitaria dal corpo. Come terapia per la compromissione della vista derivante dalla degenerazione retinica ereditaria, o IRD, l’mRNA istruirebbe le cellule dei fotorecettori – difettose a causa di una mutazione genetica – a produrre le proteine ​​necessarie per la vista.

L’IRD comprende un gruppo di disturbi di varia gravità e prevalenza che colpiscono una persona su poche migliaia in tutto il mondo.

Gli scienziati hanno dimostrato, in una ricerca che ha coinvolto topi e primati non umani, che gli LNP dotati di peptidi erano in grado di passare attraverso le barriere negli occhi e raggiungere la retina neurale, dove la luce viene trasformata in segnali elettrici che il cervello converte in immagini.

“Abbiamo identificato un nuovo set di peptidi che possono raggiungere la parte posteriore dell’occhio”, ha detto Sahay. “Abbiamo usato questi peptidi per agire come codici postali per consegnare nanoparticelle che trasportano materiali genetici all’indirizzo previsto all’interno dell’occhio”.

“I peptidi che abbiamo scoperto possono essere usati come ligandi mirati direttamente coniugati a RNA silenzianti, piccole molecole per terapie o come sonde di imaging”, ha aggiunto Herrera-Barrera.

Sahay e Ryals hanno ricevuto una sovvenzione di 3,2 milioni di dollari dal National Eye Institute per continuare a studiare la promessa delle nanoparticelle lipidiche nel trattamento della cecità ereditaria. Condurranno la ricerca sull’uso degli LNP per fornire uno strumento di editing genetico che potrebbe eliminare i geni cattivi nelle cellule dei fotorecettori e sostituirli con geni correttamente funzionanti.

La ricerca mira a sviluppare soluzioni per le limitazioni associate all’attuale principale mezzo di consegna per l’editing genetico: un tipo di virus noto come virus adeno-associato o AAV.

“L’AAV ha una capacità di confezionamento limitata rispetto agli LNP e può provocare una risposta del sistema immunitario”, ha affermato Sahay. “Inoltre, non funziona in modo fantastico nel continuare a esprimere gli enzimi che lo strumento di modifica utilizza come forbici molecolari per eseguire tagli nel DNA da modificare. Speriamo di utilizzare ciò che abbiamo appreso finora sugli LNP per sviluppare un sistema di consegna dell’editor di geni migliorato”.

Riferimento: “Le nanoparticelle lipidiche guidate da peptidi forniscono mRNA alla retina neurale di roditori e primati non umani” 11 gennaio 2023, I progressi della scienza.
DOI: 10.1126/sciadv.add4623

Lo studio LNP guidato dai peptidi è stato finanziato dal National Institutes of Health. Hanno partecipato alla ricerca per l’Oregon State anche i docenti del College of Pharmacy Oleh Taratula e Conroy Sun, i ricercatori post-dottorato Milan Gautam e Mohit Gupta, gli studenti di dottorato Antony Jozic e Madeleine Landry, l’assistente di ricerca Chris Acosta e lo studente universitario Nick Jacomino, uno studente di bioingegneria al College di Ingegneria che si è laureata nel 2020.

Da un’altra testata giornalistica news de www.europeantimes.news

19.9 C
Rome
venerdì, Aprile 4, 2025
- Pubblicità -
Scienze & AmbienteEsplorare le vulnerabilità dei sistemi di intelligenza artificiale alla disinformazione online

Esplorare le vulnerabilità dei sistemi di intelligenza artificiale alla disinformazione online

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Un ricercatore dell’Università del Texas ad Arlington sta lavorando per aumentare la sicurezza dei sistemi di generazione del linguaggio naturale (NLG), come quelli utilizzati da ChatGPT, per proteggersi da usi impropri e abusi che potrebbero consentire la diffusione di disinformazione in rete.

Dobbiamo ricercare potenziali vulnerabilità dei sistemi di intelligenza artificiale quando sono esposti a disinformazione online.

Dobbiamo ricercare potenziali vulnerabilità dei sistemi di intelligenza artificiale quando sono esposti a disinformazione online. Credito immagine: Jenny Ueberberg tramite Unsplash, licenza gratuita

Shirin Nilizadeh, assistente professore presso il Dipartimento di Informatica e Ingegneria, ha ottenuto una sovvenzione quinquennale del Faculty Early Career Development Program (CAREER) di $ 567.609 dalla National Science Foundation (NSF) per la sua ricerca.

Shirin Nilizadeh

Shirin Nilizadeh. Credito immagine: UTA

Comprendere le vulnerabilità dell’intelligenza artificiale (AI) alla disinformazione online è “un problema importante e tempestivo da affrontare”, ha affermato.

“Questi sistemi hanno architetture complesse e sono progettati per apprendere da qualsiasi informazione si trovi su Internet. Un avversario potrebbe tentare di avvelenare questi sistemi con una raccolta di informazioni contraddittorie o false”, ha affermato Nilizadeh.

“Il sistema apprenderà le informazioni contraddittorie, nello stesso modo in cui apprende informazioni veritiere. L’avversario può anche utilizzare alcune vulnerabilità del sistema per generare contenuti dannosi. Dobbiamo prima comprendere le vulnerabilità di questi sistemi per sviluppare tecniche di rilevamento e prevenzione che migliorino la loro resilienza a questi attacchi”.

Il CAREER Award è l’onore più prestigioso della NSF per i giovani docenti. I destinatari sono ricercatori eccezionali, ma ci si aspetta che siano anche insegnanti eccezionali attraverso la ricerca, l’eccellenza educativa e l’integrazione dell’istruzione e della ricerca nelle loro istituzioni di origine.

La ricerca di Nilizadeh includerà uno sguardo completo ai tipi di attacchi a cui i sistemi NLG sono suscettibili e la creazione di metodi di ottimizzazione basati sull’intelligenza artificiale per esaminare i sistemi rispetto a diversi modelli di attacco.

Esplorerà inoltre un’analisi approfondita e la caratterizzazione delle vulnerabilità che portano ad attacchi e svilupperà metodi difensivi per proteggere i sistemi NLG.

Utilizzo di software di apprendimento automatico - impressione artistica.

Utilizzo di software di apprendimento automatico: impressione artistica. Credito immagine: Mohamed Hassan tramite Pxhere, dominio pubblico CC0

Il lavoro si concentrerà su due comuni tecniche di generazione del linguaggio naturale: sintesi e risposta a domande.

Nella fase di riepilogo, all’AI viene fornito un elenco di articoli e gli viene chiesto di riassumerne il contenuto. Nella risposta alle domande, il sistema riceve un documento, trova le risposte alle domande in quel documento e genera risposte testuali.

Hong Jiang, presidente del Dipartimento di Informatica e Ingegneria, ha sottolineato l’importanza della ricerca di Nilizadeh.

Codifica algoritmi di intelligenza artificiale - foto illustrativa.

Codifica algoritmi di intelligenza artificiale – foto illustrativa. Credito immagine: Kevin Ku tramite Unsplash, licenza gratuita

“Con modelli di linguaggi di grandi dimensioni e sistemi di generazione di testo che rivoluzionano il modo in cui interagiamo con le macchine e consentono lo sviluppo di nuove applicazioni per l’assistenza sanitaria, la robotica e oltre, emergono serie preoccupazioni su come questi potenti sistemi possano essere utilizzati in modo improprio, manipolati o causare perdite di privacy e sicurezza minacce”, ha detto Jiang.

“Sono minacce come queste che il premio CAREER del Dr. Nilizadeh cerca di difendersi esplorando nuovi metodi per migliorare la robustezza di tali sistemi in modo che gli usi impropri possano essere rilevati e mitigati e gli utenti finali possano fidarsi e spiegare i risultati generati dai sistemi .”

Fonte: Università del Texas ad Arlington



Da un’altra testata giornalistica. news de www.technology.org

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.