CybergON: AI e sicurezza informatica, strumento di attacco o arma di difesa?

BRUNELLO (VARESE). Quando, a novembre, OpenAI ha lanciato il rivoluzionario modello linguistico di intelligenza artificiale, ChatGPT, milioni di utenti sono rimasti affascinati dalle sue capacità.

I modelli Generative Pre-trained Transformer (GPT) hanno portato alla ribalta l’AI generativa, raggiungendo un milione di utenti in cinque giorni e OpenAI si classifica tra i primi 150 siti e app più visitati in Italia.

Tuttavia, sebbene OpenAI si sia impegnata a garantire che la propria tecnologia sia usata adeguatamente, le capacità dell’intelligenza artificiale sono aumentate anche in modo negativo diventando uno strumento usato per facilitare la conduzione di attacchi informatici.

CybergON, la business unit di Elmec Informatica che si occupa di cybersecurity, ha messo in luce le principali tecniche di attacco condotte tramite AI e modelli Generative Pre-trained Transformer (GPT) che offrono più velocità e automazione ai cybercriminali e, al contempo, una maggiore accessibilità anche a persone senza competenze tecniche.

AI e sicurezza informatica, strumento di attacco o arma di difesa?

Stando alle evidenze riscontrate da CybergON, l’intelligenza artificiale – e più nello specifico ChatGPT – può essere utilizzata per tre principali scopi malevoli: per migliorare le tecniche di ingegneria sociale e rendere gli attacchi di phishing più mirati, per installare malware e per creare delle campagne DeepFake.

Partendo dalla sua funzione principale, ovvero quella di chatbot, aggiungendo un’interfaccia testuale avanzata e la registrazione di immagini, video e audio, la tecnologia può creare un output video che rappresenta la persona mentre recita frasi che non ha mai realmente detto.

In questo caso, i DeepFake possono essere impiegati in campagne diffamatorie, frodi, furti e personificazioni del tutto illegali.

Tuttavia, se da un lato vi sono dei rischi, l’intelligenza artificiale può essere adoperata anche per far progredire la sicurezza informatica.

CybergON analizza come i criminali della rete stanno sfruttando ChatGPT per il cybercrime

Ad esempio, i vendor possono individuare e risolvere le vulnerabilità più velocemente , in modo da rendere più sicuro l’utilizzo dei software ed evitare di lasciare porte aperte a potenziali attaccanti.

Inoltre, può essere integrata nella formazione anti-phishing di un’azienda per aumentare la consapevolezza dei dipendenti.

“La superficie di attacco nei moderni ambienti aziendali è sempre in aumento, così come i volumi di dati che devono essere monitorati ed analizzati per individuare potenziali rischi”, afferma Elisa Ballerio, Marketing Director di CybergON.

“È necessario un nuovo livello di soluzioni per contrastare le minacce informatiche: l’AI è lo strumento che, se combinato con il fattore umano ed altre tecnologie di sicurezza, può fornire la massima protezione. Al momento la sola AI non è sufficiente, per questo, per verificare il grado della minaccia, oltre che per determinare l’impatto sociale ed economico deve entrare in gioco l’esperienza umana”.

© RIPRODUZIONE RISERVATA

Autore