I ricercatori hanno sviluppato nanoparticelle in grado di penetrare nella retina neurale e fornire mRNA alle cellule dei fotorecettori il cui corretto funzionamento rende possibile la visione.

Gli scienziati dell’Oregon State University College of Pharmacy hanno dimostrato in modelli animali la possibilità di utilizzare nanoparticelle lipidiche e RNA messaggero, la tecnologia alla base dei vaccini COVID-19, per trattare la cecità associata a una rara condizione genetica.

Lo studio è stato pubblicato oggi (11 gennaio 2023) sulla rivista I progressi della scienza. È stato guidato dal professore associato di scienze farmaceutiche dell’OSU Gaurav Sahay, dallo studente di dottorato dell’Oregon State Marco Herrera-Barrera e dall’assistente professore di oftalmologia dell’Oregon Health & Science University Renee Ryals.

Gli scienziati hanno superato quella che era stata la principale limitazione dell’utilizzo di nanoparticelle lipidiche, o LNP, per trasportare materiale genetico ai fini della terapia della vista, facendole raggiungere la parte posteriore dell’occhio, dove si trova la retina.

I lipidi sono acidi grassi e composti organici simili tra cui molti oli e cere naturali. Le nanoparticelle sono minuscoli pezzi di materiale di dimensioni variabili da uno a 100 miliardesimi di metro. L’RNA messaggero fornisce istruzioni alle cellule per produrre una particolare proteina.

Con i vaccini contro il coronavirus, l’mRNA trasportato dagli LNP istruisce le cellule a creare un pezzo innocuo della proteina spike del virus, che innesca una risposta immunitaria dal corpo. Come terapia per la compromissione della vista derivante dalla degenerazione retinica ereditaria, o IRD, l’mRNA istruirebbe le cellule dei fotorecettori – difettose a causa di una mutazione genetica – a produrre le proteine ​​necessarie per la vista.

L’IRD comprende un gruppo di disturbi di varia gravità e prevalenza che colpiscono una persona su poche migliaia in tutto il mondo.

Gli scienziati hanno dimostrato, in una ricerca che ha coinvolto topi e primati non umani, che gli LNP dotati di peptidi erano in grado di passare attraverso le barriere negli occhi e raggiungere la retina neurale, dove la luce viene trasformata in segnali elettrici che il cervello converte in immagini.

“Abbiamo identificato un nuovo set di peptidi che possono raggiungere la parte posteriore dell’occhio”, ha detto Sahay. “Abbiamo usato questi peptidi per agire come codici postali per consegnare nanoparticelle che trasportano materiali genetici all’indirizzo previsto all’interno dell’occhio”.

“I peptidi che abbiamo scoperto possono essere usati come ligandi mirati direttamente coniugati a RNA silenzianti, piccole molecole per terapie o come sonde di imaging”, ha aggiunto Herrera-Barrera.

Sahay e Ryals hanno ricevuto una sovvenzione di 3,2 milioni di dollari dal National Eye Institute per continuare a studiare la promessa delle nanoparticelle lipidiche nel trattamento della cecità ereditaria. Condurranno la ricerca sull’uso degli LNP per fornire uno strumento di editing genetico che potrebbe eliminare i geni cattivi nelle cellule dei fotorecettori e sostituirli con geni correttamente funzionanti.

La ricerca mira a sviluppare soluzioni per le limitazioni associate all’attuale principale mezzo di consegna per l’editing genetico: un tipo di virus noto come virus adeno-associato o AAV.

“L’AAV ha una capacità di confezionamento limitata rispetto agli LNP e può provocare una risposta del sistema immunitario”, ha affermato Sahay. “Inoltre, non funziona in modo fantastico nel continuare a esprimere gli enzimi che lo strumento di modifica utilizza come forbici molecolari per eseguire tagli nel DNA da modificare. Speriamo di utilizzare ciò che abbiamo appreso finora sugli LNP per sviluppare un sistema di consegna dell’editor di geni migliorato”.

Riferimento: “Le nanoparticelle lipidiche guidate da peptidi forniscono mRNA alla retina neurale di roditori e primati non umani” 11 gennaio 2023, I progressi della scienza.
DOI: 10.1126/sciadv.add4623

Lo studio LNP guidato dai peptidi è stato finanziato dal National Institutes of Health. Hanno partecipato alla ricerca per l’Oregon State anche i docenti del College of Pharmacy Oleh Taratula e Conroy Sun, i ricercatori post-dottorato Milan Gautam e Mohit Gupta, gli studenti di dottorato Antony Jozic e Madeleine Landry, l’assistente di ricerca Chris Acosta e lo studente universitario Nick Jacomino, uno studente di bioingegneria al College di Ingegneria che si è laureata nel 2020.

Da un’altra testata giornalistica news de www.europeantimes.news

7.5 C
Rome
lunedì, Aprile 7, 2025
- Pubblicità -
Scienze & Ambiente3 strumenti essenziali per ottimizzare gli sforzi di web scraping

3 strumenti essenziali per ottimizzare gli sforzi di web scraping

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


A meno che tu non sia attivo nei tuoi sforzi di ottimizzazione, il web scraping può essere un processo ingombrante da supervisionare e da cui ottenere valore. Si tratta di scegliere gli strumenti giusti per affrontare le sfide e le inefficienze coinvolte: quindi, senza giri di parole, ecco alcuni strumenti indispensabili per un’estrazione dei dati efficiente ed efficace.

Web scraping: interpretazione artistica.

Web scraping – interpretazione artistica. Origine immagine: Microsoft Copilot

API di web scraping

Le API, o interfacce di programmazione dell’applicazione, sono una parte importante del quadro del moderno web scraping. Essenzialmente, fungono da ponte tra il tuo software di scraping e il sito web a cui ti rivolgi, offrendo di conseguenza un processo di estrazione dei dati più fluido e strutturato. Ecco come sfruttare le API giuste può migliorare significativamente i tuoi sforzi di scraping:

  • Accesso diretto ai dati: le API consentono il recupero diretto dei dati in un formato strutturato, ignorando la necessità dell’analisi HTML. Ciò non solo accelera il processo ma riduce anche al minimo gli errori.
  • Blocco IP ridotto: un utilizzo efficiente delle API può contribuire a ridurre la probabilità che il tuo indirizzo IP venga bloccato dai siti web. Poiché le richieste API vengono generalmente effettuate nell’ambito di policy di utilizzo accettabili, è meno probabile che attivino meccanismi anti-scraping.
  • Gestione degli errori: L’API giusta può risolvere gli errori proibiti di Cloudflare 403 durante il web scraping, tra gli altri enigmi comunemente riscontrati. Negozia questi problemi fornendo percorsi alternativi o accesso autenticato ai dati richiesti.
  • Scalabilità: Con le API puoi scalare le tue attività di estrazione dei dati senza compromettere la velocità o la precisione. Gestiscono grandi volumi di richieste di dati in modo efficiente, rendendoli ideali per progetti di web scraping espansivi.

Siamo a un punto in cui Il 98% degli sviluppatori vedono le API come fondamentali per lavorare in modo efficiente. Ciò è particolarmente rilevante per il web scraping, ma si applica in modo più ampio a tutto lo spettro aziendale, con le aziende che implementano API che godono di un Aumento della capitalizzazione di mercato del 12,7%. in media.

Tutto si riduce alla verità di lunga data secondo cui le informazioni sono potenti e l’accesso ad esse è determinante nel plasmare il successo aziendale.

Browser senza testa

I browser headless sono un altro prodigio della scena del web scraping – e sono fondamentalmente browser web, ma senza un’interfaccia utente grafica, che consente loro di eseguire script per testare le pagine web come se un utente reale stesse navigando nel sito. Ecco perché l’integrazione dei browser headless nel tuo toolkit può essere trasformativa:

  • Rendering di JavaScript: Molti siti Web moderni utilizzano JavaScript per caricare dinamicamente i contenuti, oltre a il 98,9% che lo utilizzano per scopi di programmazione lato client. I browser headless possono interpretare ed eseguire il rendering di JavaScript proprio come un browser standard, garantendo l’acquisizione dei dati del sito Web completi e caricati dinamicamente.
  • Velocità ed efficienza: senza il sovraccarico derivante dal caricamento di CSS, caratteri e altri elementi dell’interfaccia utente, i browser headless funzionano a velocità significativamente più elevate. Questa efficienza è fondamentale quando si affrontano operazioni di raschiatura su larga scala.
  • Automazione e test: Facilitano il test automatizzato delle applicazioni web simulando le interazioni dell’utente come il clic o lo scorrimento delle pagine. Questa funzione è preziosa per testare il rendimento delle tue strategie di scraping in condizioni reali.
  • Raschiatura più furtiva: imitando i modelli di navigazione umana ma senza effettivi sovraccarichi del browser, si riduce il rischio di rilevamento da parte delle tecnologie anti-scraping.

Una discussione sui browser headless sul podcast TestTalks ha affermato che in termini di aumento della velocità, questa tecnologia può essere fino a 10 volte più veloce rispetto agli strumenti dipendenti dall’interfaccia utente. Questo dovrebbe farti venire l’idea di usarli non solo per il web scraping, ma per scopi di test delle app più ampi.

Servizi proxy

Mantenere l’anonimato ed evitare i divieti IP sono entrambi importanti se vuoi che le tue strategie di web scraping funzionino bene. I servizi proxy possono venirti in aiuto in questo aspetto indirizzando le tue richieste attraverso diversi server in tutto il mondo. Ecco come l’implementazione dei servizi proxy può migliorare la tua strategia di estrazione dei dati:

  • Rotazione IP: i proxy possono ruotare automaticamente gli indirizzi IP a ogni richiesta. Ciò rende molto più difficile per i siti Web tracciare e bloccare l’IP del tuo scraper, mantenendo la continuità della raccolta dei dati.
  • Targeting geografico: utilizzando proxy situati in paesi specifici, puoi accedere a contenuti con restrizioni geografiche o vedere come i siti Web vengono visualizzati in modo diverso in base alla regione. Ciò è particolarmente utile per l’analisi di mercato e le strategie SEO che dipendono da dati basati sulla posizione.
  • Aumento del tasso di richiesta: con i proxy è possibile inviare più richieste a un sito Web senza attivare limitatori di velocità o misure anti-spam. Ciò è essenziale quando il tempo è un fattore critico e sono necessari rapidamente grandi volumi di dati.
  • Riduzione della latenza: La scelta di server proxy geograficamente più vicini al server di destinazione può ridurre i tempi di risposta, rendendo il processo di scraping più rapido ed efficiente.

Naturalmente molti siti utilizzano server proxy inversi, tra cui Cloudflare implementato da circa il 23% del mercato come mezzo per difendersi dagli attacchi informatici e per deviare i tentativi di scraping. Il fatto che sia possibile utilizzare la stessa tattica per risolvere questo problema è importante se si desidera acquisire dati in modo coerente.

Pensieri finali

C’è molto di più nel web scraping oltre alla sola scelta dello strumento, ma il punto è che con questi esempi come base per i tuoi sforzi più ampi, costruirai da inizi ottimali ed estrarrai informazioni in modo più pulito, coerente e conveniente.



Da un’altra testata giornalistica. news de www.technology.org

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.