Un nuovo strumento noto come WormGPT è emerso nel regno di crimine informaticosfruttando l’intelligenza artificiale generativa (AI) per facilitare sofisticati attacchi informatici.
L’idea di utilizzare piattaforme di intelligenza artificiale generativa per scopi criminali non è nuova, ma fino ad ora non esistevano sviluppi su larga scala. Questo sviluppo evidenzia il riutilizzo della tecnologia AI da parte di individui malintenzionati, fornendo loro capacità avanzate per impegnarsi in attività di criminalità informatica.
Una recente ricerca condotta da SlashNext rivela che WormGPT è stato promosso nei forum sotterranei come uno strumento di intelligenza artificiale generativa specificamente progettato per il lancio di attacchi avanzati di phishing e di compromissione della posta elettronica aziendale (BEC).
Daniel Kelley, un ricercatore di sicurezza, ha spiegato che questo strumento, WormGPT, funge da alternativa blackhat ai modelli GPT, su misura per facilitare le attività dannose. I criminali informatici possono utilizzare questa tecnologia per automatizzare la creazione di e-mail fraudolente altamente convincenti e personalizzate per i singoli destinatari, aumentando così in modo significativo la percentuale di successo dei loro attacchi.
Il creatore del software ha descritto WormGPT come principale avversario di modelli noti come ChatGPT, affermando che consente l’esecuzione di varie attività illegali.
Nelle mani sbagliate, strumenti come WormGPT possiedono un notevole potenziale come armi formidabili, in particolare poiché ChatGPT di OpenAI e Bard di Google stanno attivamente adottando misure per contrastare l’uso improprio di modelli linguistici di grandi dimensioni (LLM) nella fabbricazione di e-mail di phishing persuasive e la generazione di messaggi dannosi codice.
“I limiti anti-abuso di Bard nel regno della sicurezza informatica sono significativamente inferiori rispetto a quelli di ChatGPT. Di conseguenza, è molto più facile generare contenuti dannosi utilizzando le capacità di Bard”, ha scritto Check Point in un rapporto.
Nel febbraio di quest’anno, una società di sicurezza informatica israeliana ha rivelato i metodi utilizzati dai criminali informatici per aggirare i limiti di ChatGPT, un modello di linguaggio AI. Hanno sfruttato l’API del modello e si sono impegnati in attività illecite, come il commercio di account premium rubati e la vendita di software a forza bruta utilizzato per hackerare gli account ChatGPT utilizzando ampi elenchi di indirizzi e-mail e password.
L’esistenza di WormGPT, che opera apparentemente senza confini etici, evidenzia la significativa minaccia rappresentata dall’IA generativa. Consente anche ai criminali informatici alle prime armi di lanciare rapidamente attacchi su larga scala senza richiedere conoscenze tecniche approfondite.
Ad aumentare la preoccupazione c’è la promozione di “jailbreak” per ChatGPT, che comporta la creazione di prompt e input specializzati progettati per manipolare lo strumento in modo da generare output che potrebbero comportare la divulgazione di informazioni sensibili, contenuti inappropriati o l’esecuzione di codice dannoso.
Il ricercatore di sicurezza Daniel Kelley spiega che l’IA generativa può creare e-mail con una grammatica impeccabile, facendole sembrare legittime e riducendo la probabilità di essere contrassegnate come sospette. Questa democratizzazione della tecnologia IA generativa facilita l’esecuzione di sofisticati attacchi BEC, consentendo a una gamma più ampia di criminali informatici di utilizzare tali strumenti, anche con competenze limitate.
Inoltre, un altro sviluppo recente coinvolge i ricercatori di Mithril Security che modificano un modello di intelligenza artificiale open source esistente, GPT-J-6B, per diffondere disinformazione. Questo modello modificato, noto come PoisonGPT, è stato caricato su repository pubblici, consentendone l’integrazione in altre applicazioni.
La tecnica, denominata avvelenamento della catena di fornitura LLM, dipende dal caricamento del modello modificato con un nome che impersona una nota azienda. In questo caso l’a typosquatted versione di EleutherAI, la società dietro GPT-Jè stato utilizzato.
Scritto da Alius Noreika
Da un’altra testata giornalistica. news de www.technology.org