-0.3 C
Rome
lunedì, Novembre 25, 2024
- Pubblicità -
Scienze & AmbienteWormGPT: come ChatGPT, ma per scopi dannosi

WormGPT: come ChatGPT, ma per scopi dannosi

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.


Un nuovo strumento noto come WormGPT è emerso nel regno di crimine informaticosfruttando l’intelligenza artificiale generativa (AI) per facilitare sofisticati attacchi informatici.

Sicurezza informatica, tecnologia informatica - interpretazione artistica.

Cybersecurity, tecnologia informatica – interpretazione artistica. Credito immagine: chat WOCinTech tramite FlickrCC BY 2.0

L’idea di utilizzare piattaforme di intelligenza artificiale generativa per scopi criminali non è nuova, ma fino ad ora non esistevano sviluppi su larga scala. Questo sviluppo evidenzia il riutilizzo della tecnologia AI da parte di individui malintenzionati, fornendo loro capacità avanzate per impegnarsi in attività di criminalità informatica.

Una recente ricerca condotta da SlashNext rivela che WormGPT è stato promosso nei forum sotterranei come uno strumento di intelligenza artificiale generativa specificamente progettato per il lancio di attacchi avanzati di phishing e di compromissione della posta elettronica aziendale (BEC).

Daniel Kelley, un ricercatore di sicurezza, ha spiegato che questo strumento, WormGPT, funge da alternativa blackhat ai modelli GPT, su misura per facilitare le attività dannose. I criminali informatici possono utilizzare questa tecnologia per automatizzare la creazione di e-mail fraudolente altamente convincenti e personalizzate per i singoli destinatari, aumentando così in modo significativo la percentuale di successo dei loro attacchi.

WormGPT e strumenti simili pongono nuove sfide agli specialisti della sicurezza informatica.

WormGPT e strumenti simili pongono nuove sfide agli specialisti della sicurezza informatica. Credito immagine: Philipp Katzenberger tramite Unsplash, licenza gratuita

Il creatore del software ha descritto WormGPT come principale avversario di modelli noti come ChatGPT, affermando che consente l’esecuzione di varie attività illegali.

Nelle mani sbagliate, strumenti come WormGPT possiedono un notevole potenziale come armi formidabili, in particolare poiché ChatGPT di OpenAI e Bard di Google stanno attivamente adottando misure per contrastare l’uso improprio di modelli linguistici di grandi dimensioni (LLM) nella fabbricazione di e-mail di phishing persuasive e la generazione di messaggi dannosi codice.

“I limiti anti-abuso di Bard nel regno della sicurezza informatica sono significativamente inferiori rispetto a quelli di ChatGPT. Di conseguenza, è molto più facile generare contenuti dannosi utilizzando le capacità di Bard”, ha scritto Check Point in un rapporto.

Logo ChatGPT sullo schermo di uno smartphone.  Il logo OpenAI è visibile sullo sfondo.

Logo ChatGPT sullo schermo di uno smartphone. Il logo OpenAI è visibile sullo sfondo. Credito immagine: Mojahid Mottakin tramite Unsplash, licenza gratuita

Nel febbraio di quest’anno, una società di sicurezza informatica israeliana ha rivelato i metodi utilizzati dai criminali informatici per aggirare i limiti di ChatGPT, un modello di linguaggio AI. Hanno sfruttato l’API del modello e si sono impegnati in attività illecite, come il commercio di account premium rubati e la vendita di software a forza bruta utilizzato per hackerare gli account ChatGPT utilizzando ampi elenchi di indirizzi e-mail e password.

L’esistenza di WormGPT, che opera apparentemente senza confini etici, evidenzia la significativa minaccia rappresentata dall’IA generativa. Consente anche ai criminali informatici alle prime armi di lanciare rapidamente attacchi su larga scala senza richiedere conoscenze tecniche approfondite.

Ad aumentare la preoccupazione c’è la promozione di “jailbreak” per ChatGPT, che comporta la creazione di prompt e input specializzati progettati per manipolare lo strumento in modo da generare output che potrebbero comportare la divulgazione di informazioni sensibili, contenuti inappropriati o l’esecuzione di codice dannoso.

Il ricercatore di sicurezza Daniel Kelley spiega che l’IA generativa può creare e-mail con una grammatica impeccabile, facendole sembrare legittime e riducendo la probabilità di essere contrassegnate come sospette. Questa democratizzazione della tecnologia IA generativa facilita l’esecuzione di sofisticati attacchi BEC, consentendo a una gamma più ampia di criminali informatici di utilizzare tali strumenti, anche con competenze limitate.

Inoltre, un altro sviluppo recente coinvolge i ricercatori di Mithril Security che modificano un modello di intelligenza artificiale open source esistente, GPT-J-6B, per diffondere disinformazione. Questo modello modificato, noto come PoisonGPT, è stato caricato su repository pubblici, consentendone l’integrazione in altre applicazioni.

La tecnica, denominata avvelenamento della catena di fornitura LLM, dipende dal caricamento del modello modificato con un nome che impersona una nota azienda. In questo caso l’a typosquatted versione di EleutherAI, la società dietro GPT-Jè stato utilizzato.

Scritto da Alius Noreika



Da un’altra testata giornalistica. news de www.technology.org

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

- Pubblicità -
- Pubblicità -Newspaper WordPress Theme

Contenuti esclusivi

Iscriviti oggi

OTTENERE L'ACCESSO ESCLUSIVO E COMPLETO AI CONTENUTI PREMIUM

SOSTENERE IL GIORNALISMO NON PROFIT

Get unlimited access to our EXCLUSIVE Content and our archive of subscriber stories.

- Pubblicità -Newspaper WordPress Theme

Articoli più recenti

Altri articoli

- Pubblicità -Newspaper WordPress Theme

INFORMATIVA: Alcuni degli articoli che pubblichiamo provengono da fonti non in lingua italiana e vengono tradotti automaticamente per facilitarne la lettura. Se vedete che non corrispondono o non sono scritti bene, potete sempre fare riferimento all'articolo originale, il cui link è solitamente in fondo all'articolo. Grazie per la vostra comprensione.