Le tecnologie di intelligenza artificiale (AI) possono essere un'arma a doppio taglio per la cybersecurity: da un lato possono aiutare i professionisti della sicurezza informatica automatizzando e ottimizzando le attività, ma dall'altro possono essere utilizzate dagli hacker per automatizzare e scalare i loro attacchi o renderli più convincenti.
Uno sviluppo significativo e recente che ha suscitato molta attenzione è l'emergere di strumenti open-source di AI generativa e di potenti modelli linguistici come ChatGPT e Bard.
Richard De La Torre, Technical Marketing Manager di Bitdefender, ci parla di come il panorama della sicurezza informatica sia in continua evoluzione con il progredire della tecnologia.
Il lato negativo: l’AI rafforza i criminali informatici
I modelli linguistici di grandi dimensioni come ChatGPT hanno reso più facile che mai per i criminali informatici creare rapidamente e-mail di phishing e attacchi di social engineering sofisticati e dall'aspetto autentico.
Poiché questi strumenti sono in grado di generare istantaneamente testi colloquiali redatti dall’uomo, gli hacker sono in grado di imitare in modo convincente lo stile di comunicazione di persone o aziende fidate, aumentando così l'efficacia dei loro attacchi.
Presto i criminali informatici utilizzeranno probabilmente questi modelli linguistici in combinazione con immagini, audio e video generati dall'intelligenza artificiale per ingannare ulteriormente gli utenti ignari e indurli a condividere informazioni sensibili, a fornire l'accesso ai sistemi informatici o a compiere azioni che non dovrebbero.
AI anche per scalare e automatizzare cyberattacchi
Inoltre, strumenti di intelligenza artificiale generativa come ChatGPT e altri consentono ai criminali informatici di scalare e automatizzare i loro attacchi a un livello prima non possibile.
Anche i criminali informatici alle prime armi possono utilizzare questi strumenti per facilitare la scrittura di codice dannoso o per analizzare le loro varianti di malware esistenti e colmare eventuali lacune e renderli più efficaci.
Sebbene ChatGPT disponga di alcune protezioni per impedire agli utenti di generare malware o altri contenuti per scopi malevoli, i ricercatori di Bitdefender hanno scoperto che queste protezioni possono essere aggirate con relativa facilità con le giuste tecniche e conoscenze.
Utilizzando strumenti di intelligenza artificiale generativa per semplificare lo sviluppo di malware e automatizzare la distribuzione dei loro attacchi, i gruppi di criminali informatici possono aumentare la loro frequenza e gettare una rete più ampia per colpire un maggior numero di potenziali vittime.
Il lato positivo: assistenza per i team di sicurezza sovraccarichi di lavoro
Nonostante le preoccupazioni e i rischi che circondano l'AI generativa, queste tecnologie rappresentano anche un'opportunità per le aziende di rafforzare le difese di sicurezza informatica e supportare i loro team di cybersecurity, spesso sovraccarichi di lavoro.
Con il volume e la complessità sempre crescenti delle minacce informatiche, gli strumenti basati sull'AI possono aiutare i team della sicurezza ad automatizzare le attività di sicurezza più banali e ripetitive, consentendo agli analisti di concentrarsi su aspetti più critici del loro lavoro e migliorando l'efficienza operativa.
L'intelligenza artificiale può essere utilizzata anche per automatizzare il monitoraggio e l'analisi degli eventi e dei registri di sicurezza, identificando le anomalie nel comportamento e consentendo un rilevamento e una risposta più rapidi alle potenziali minacce.
Gli algoritmi di apprendimento automatico possono essere addestrati per identificare schemi indicativi di attività dannose, liberando tempo prezioso per i professionisti della sicurezza informatica per l’indagine e la neutralizzazione delle minacce.
I suggerimenti di Bitdefender
Da tempo Bitdefender integra l'intelligenza artificiale e il machine learning nelle proprie soluzioni di cybersecurity.
Per esempio, Bitdefender GravityZone eXtended Detection and Response (XDR) sfrutta le tecnologie di machine learning per correlare e analizzare grandi quantità di dati di sicurezza provenienti da diversi sensori e fonti in tutta l'azienda.
GravityZone Incident Advisor presenta quindi i risultati in un formato leggibile dall'uomo che consente ai professionisti della sicurezza di intraprendere rapidamente le azioni consigliate.
Man mano che gli strumenti di intelligenza artificiale diventano più avanzati, il settore della sicurezza informatica continuerà a sviluppare modi innovativi per sfruttare queste tecnologie per migliorare l'efficienza operativa e rafforzare le difese.
In definitiva, le aziende devono adottare un approccio proattivo e multilivello alla sicurezza per rafforzare la loro resilienza informatica, a fronte della crescente diffusione delle tecnologie di intelligenza artificiale.