Mentre gli esperti dei media discutono su come le app di smart intelligence cambieranno il mondo, quali professioni rimarranno e quali emergeranno, i truffatori che operano nello spazio virtuale hanno già iniziato a utilizzare ChatGPT e altri programmi intelligenti nelle loro attività.
Grazie a questa transizione fondamentale della nostra società, presto potremmo ricevere non solo un numero maggiore, ma anche attacchi molto più intelligenti.
Uno dei rischi principali deriva dal fatto che le macchine intelligenti possono facilmente condividere consigli anche con quelle persone che hanno un chiaro desiderio di non migliorare questo mondo. Pertanto, gli sviluppatori creano nuove strategie per limitare l’uso dell’intelligenza artificiale nel commettere crimini.
Chatbot AI e sfide per la sicurezza informatica
In risposta alla crescente attenzione del pubblico su ChatGPT, Laboratorio di innovazione di Europol sta analizzando attivamente la situazione per scoprire in che modo i modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT possono essere oggetto di abusi da parte dei criminali e come possono aiutare gli investigatori nel loro lavoro quotidiano.
Al momento, Europol distingue le tre maggiori minacce:
- Phishing e ingegneria sociale: la capacità di ChatGPT di produrre testi altamente realistici lo rende uno strumento utile per i truffatori, in quanto può imitare lo stile vocale di individui o gruppi specifici. Questo può confondere le potenziali vittime e portarle a fidarsi dei criminali.
- Disinformazione: la capacità di ChatGPT di creare rapidamente testi dal suono autentico lo rende ideale per scopi di propaganda e disinformazione, poiché gli utenti possono creare e diffondere un gran numero di messaggi che riflettono una particolare narrazione con uno sforzo relativamente ridotto.
- Crimine informatico: ChatGPT può non solo generare un linguaggio simile a quello umano, ma anche programmare codice in vari linguaggi di programmazione. Per un potenziale criminale con scarse conoscenze tecniche, questa è una risorsa inestimabile per lo sviluppo di codice dannoso.
ChatGPT e altri programmi scrivono davvero lettere abbastanza convincenti e persuasive e creano documenti formali utilizzando praticamente qualsiasi stile richiesto. Ma non è tutto: anche i chatbot basati sull’intelligenza artificiale possono creare un codice software funzionante.
Hacking con ChatGPT (e altri chatbot)
Naturalmente, se qualcuno chiede semplicemente di creare un programma ransomware, ChatGPT rifiuterà. Tuttavia, se chiediamo in modo un po’ più intelligente, gli chiederemo di generare funzioni separate, quindi combinarle e quindi creare un’app di crittografia dei dati, ad esempio, il problema passa a un dominio superiore.
Chiedere a ChatGPT di creare funzioni separate è effettivamente possibile, utilizzando un linguaggio di programmazione a tua scelta. L’unica abilità tecnica di cui hai bisogno è combinarli in un unico programma di lavoro.
Ovviamente, hai bisogno di alcune conoscenze informatiche, per comprendere il contesto, in modo da poter formulare correttamente le tue richieste per un chatbot ed essere in grado di formulare con precisione l’attività tecnica che desideri implementare.
Alcuni esperti di sicurezza informatica affermano di essere riusciti a creare “repliche” completamente funzionanti di codice dannoso in meno di un’ora, utilizzando questa particolare tecnica assistita dall’intelligenza artificiale. Allo stesso modo, i criminali informatici possono produrre parti di codice per programmi per decifrare password, analizzare vulnerabilità di diversi siti Web o trovare exploit tecnici in altri prodotti software.
Non così utile per la sicurezza informatica
Pur essendo in grado di fornire un grande aiuto ai potenziali criminali, l’intelligenza artificiale può essere utilizzata solo in misura molto limitata dall’altra parte: gli specialisti della sicurezza informatica.
L’intelligenza artificiale può consigliare su come proteggersi da una specifica azione dannosa, aiutare a creare una regola di sicurezza o aiutare ad analizzare una quantità maggiore di dati, ma non implementa tutte le azioni necessarie per proteggersi dalle nuove minacce emergenti. Non può affrontare ogni caso specifico in modo individuale, come fa uno specialista umano.
Scritto da Alius Noreika
Da un’altra testata giornalistica. news de www.technology.org