L'AI diventa un "moltiplicatore di forza" per i team di sicurezza informatica a corto di personale

Un analista di sicurezza informatica che utilizza un'interfaccia potenziata dall'AI per monitorare le minacce. In un contesto di crescente carenza di talenti e di un'escalation delle minacce informatiche, le aziende si rivolgono sempre più all'intelligenza artificiale come un "moltiplicatore di forza" per i loro team di sicurezza. Un recente sondaggio di Fortinet rivela che quasi tutte le organizzazioni stanno adottando o pianificando di adottare soluzioni AI per colmare il divario di competenze e far fronte a un panorama di attacchi sempre più complesso. ARTICOLO COMPLETO Un panorama di minacce in peggioramento I dati del "2025 Fortinet Cybersecurity Skills Gap survey" sono eloquenti. L'indagine, che ha coinvolto 1.850 responsabili IT e di sicurezza informatica in 29 paesi, ha rilevato che l'86% delle organizzazioni ha subito una o più violazioni della sicurezza nel 2024, un aumento rispetto all'80% del 2021. Quasi un terzo (28%) ha riportato cinque o più violazioni. L'impatto finanziario di questi incidenti è significativo: per oltre la metà delle aziende intervistate (52%), i costi delle violazioni hanno superato il milione di dollari, un dato in crescita rispetto al 38% registrato nel 2021. Questa pressione costante sta spingendo i leader della sicurezza a cercare nuove soluzioni per migliorare l'efficienza e la resilienza. L'adozione massiccia dell'intelligenza artificiale La risposta a questa sfida è sempre più l'intelligenza artificiale. Il 97% degli intervistati ha dichiarato di utilizzare o di pianificare l'uso di una soluzione di cybersecurity che sfrutta l'AI. L'80% delle organizzazioni conferma che gli strumenti di intelligenza artificiale stanno già aiutando i loro team a essere più efficaci. L'AI/ML (Machine Learning) eccelle nell'analizzare enormi set di dati a una velocità e con una precisione impossibili per un essere umano. Questo permette di automatizzare il rilevamento di eventi sospetti, identificare catene di comportamenti potenzialmente dannosi, individuare nuove varianti di ransomware e altre minacce avanzate, liberando gli analisti umani dal compito tedioso di vagliare un flusso costante di falsi positivi. Il paradosso del "gap nel gap" Tuttavia, l'adozione dell'AI non è priva di ostacoli. Quasi la metà delle organizzazioni (48%) ha identificato la mancanza di personale con competenze sufficienti in intelligenza artificiale come la più grande sfida per l'integrazione di queste tecnologie. Questo crea un paradosso: la tecnologia progettata per alleviare la pressione dovuta alla carenza di personale rimane sottoutilizzata proprio a causa di quella stessa carenza. Un'implementazione efficace dell'AI richiede competenze duplici: non solo saper operare i sistemi AI, ma anche sapersi difendere da attacchi potenziati dall'AI, una preoccupazione per il 49% degli intervistati. La richiesta non è più solo per analisti di sicurezza, ma per "ingegneri della sicurezza AI", una figura professionale ancora più rara, in grado di implementare, gestire e ottimizzare questi nuovi e complessi strumenti difensivi. L'intelligenza artificiale si sta affermando come uno strumento indispensabile nella lotta contro il cybercrime, agendo come un vero e proprio moltiplicatore di forza per team sotto pressione. Tuttavia, la sua adozione sta anche mettendo in luce la necessità di una nuova generazione di professionisti della sicurezza, con competenze specifiche che uniscano la cybersecurity tradizionale con la scienza dei dati e l'ingegneria del machine learning. La sfida per le organizzazioni sarà quella di investire non solo nella tecnologia, ma anche nella formazione per colmare questo nuovo e critico divario di competenze.
|