Il 39% delle imprese sta facendo leva sull’AI per potenziare i programmi di cyber security
Il 75% delle organizzazioni prevede di aumentare gli investimenti per fare fronte ad attacchi sempre più sofisticati
Governance, controlli tecnici, cultura della sicurezza e capacità di apprendimento continuo i fattori chiave per costruire la fiducia
La GenAI sta abbassando le barriere d’ingresso per gli attaccanti, rendendo più accessibili le competenze per orchestrare cyberattacchi come malware, ransomware e phishing
«L’intelligenza artificiale generativa sta trasformando ogni aspetto dell’organizzazione, dai processi operativi alla creazione di valore per clienti e cittadini. La sfida non è più se adottare l’AI, ma come farlo in modo responsabile, sicuro e sostenibile». Così Fabio Battelli, Enterprise Security Leader di Deloitte Italia, commenta le nuove sfide per il mondo cyber su Voices, la piattaforma che ospita commenti a firma degli esperti Deloitte su temi di attualità.
«Secondo l’ultima edizione della Global Future of Cyber Survey di Deloitte, un’indagine globale che ha coinvolto quasi 1.200 decision-maker nel mondo, a fronte della preoccupazione per il livello sempre più sofisticato degli attacchi cyber reso possibile dall’AI, il 39% degli intervistati sta a sua volta già facendo leva sull’AI per potenziare i propri programmi di cyber security. E il 75% delle organizzazioni prevede di aumentare gli investimenti in cybersecurity proprio per far fronte a questi nuovi attacchi», scrive Battelli.
Fronti di rischio interconnessi
Secondo l’analisi di Deloitte, ci sono diverse categorie emergenti di rischio che richiedono strategie di mitigazione specifiche e coordinate. Innanzitutto, i rischi per le capacità di AI, ovvero le vulnerabilità intrinseche dei modelli stessi. Le tecniche di prompt injection, dove attaccanti manipolano le istruzioni per ingannare il sistema e fargli rivelare dati protetti o eseguire azioni malevole, sono diventate la principale minaccia per le applicazioni basate su Large Language Models secondo l’OWASP Top 10 (un rapporto redatto periodicamente da esperti globali di sicurezza sui principali rischi nelle applicazioni web). A queste si aggiungono attacchi di evasion, dove esempi deliberatamente costruiti inducono il modello a decisioni errate, e di data poisoning, in cui i dataset di addestramento vengono contaminati con informazioni ingannevoli o scorrette.
I rischi da AI avversaria, inoltre, segnalano come la GenAI stia abbassando drasticamente le barriere d’ingresso per gli attaccanti. La tecnologia rende più accessibili le competenze necessarie per orchestrare cyberattacchi sofisticati: malware e ransomware possono ora essere automatizzati e personalizzati su larga scala con pochi sforzi. Gli attacchi di phishing sono diventati quasi indistinguibili da comunicazioni legittime grazie alla capacità della GenAI di creare testi naturali e contestualizzati, mentre le tecnologie deepfake permettono di impersonare audio e video sempre più convincenti.
Da considerare anche i rischi dall’ecosistema e dal mercato, che sfuggono spesso al controllo diretto delle singole organizzazioni, ma ne condizionano pesantemente le scelte strategiche. L’incertezza regolatoria è in cima alle preoccupazioni: secondo il report State of Generative AI in the Enterprise di Deloitte, la conformità normativa è la principale barriera percepita alla scalabilità dei programmi GenAI.
Strategie di difesa integrate
«Di fronte a questa complessità, la risposta non può essere frammentata», sottolinea Battelli. «I Chief Information Security Officer e i leader risk devono adottare un approccio olistico che integri controlli tecnici, governance dei processi e cultura organizzativa».
Sul fronte dei dati e della proprietà intellettuale, diventa essenziale implementare meccanismi di tracciabilità della provenienza e strategie avanzate di gestione dei diritti digitali, inclusi watermarking e content credentials verificabili per identificare l’origine dei contenuti generati. La data minimization nei sistemi RAG (Retrieval Augmented Generation), la redazione automatica di informazioni personali e segreti aziendali, e policy chiare sull’uso di strumenti GenAI non autorizzati sono misure complementari e imprescindibili.
La sicurezza dei modelli e delle applicazioni richiede l’adozione di “AI firewall” capaci di monitorare dati in ingresso e in uscita dai modelli per rilevare minacce in tempo reale, superando i limiti delle soluzioni basate su regole. L’adversarial training—raccomandato dal NIST per replicare attacchi e identificare vulnerabilità—e l’uso di General Adversarial Networks per scoprire falle non rilevabili con scanner tradizionali, completano la strategia difensiva.
Sul versante della minaccia avversaria, è necessario potenziare le capacità di rilevazione con strumenti AI-powered in grado di identificare deepfake multimodali e contenuti generati automaticamente su larga scala, affiancati da playbook operativi specifici per phishing generativo, impersonation e malware evoluto. La formazione continua dei team di sicurezza e degli utenti finali diventa un asset strategico per mantenere la consapevolezza su tecniche d’attacco in rapida evoluzione».
Dall’incertezza al vantaggio competitivo
«La gestione dei rischi di mercato e infrastrutturali richiede scelte architetturali e strategiche lungimiranti», prosegue l’esperto cyber. «Modelli ibridi cloud-on premise, workload balancing intelligente e l’adozione di hardware resource-efficient, possono ridurre i consumi energetici fino al 96% rispetto a processori tradizionali. Sistemi di raffreddamento a liquido, collocazione strategica presso fonti di energia pulita (solare, eolica, nucleare) e partnership con fornitori diversificati aiutano a mitigare il rischio di vendor lock-in e carenze di supply chain.
Ma la vera trasformazione passa dalla capacità di vedere la gestione del rischio GenAI non come un freno, ma come un abilitatore di innovazione sostenibile. Le organizzazioni più mature stanno integrando la sicurezza nel ciclo di vita dello sviluppo AI fin dalle prime fasi – il cosiddetto approccio “secure by design” – e adottando principi di human-in-the-loop per bilanciare automazione e controllo.
Il framework Trustworthy AI di Deloitte sintetizza questo approccio olistico: affidabilità, trasparenza, equità, privacy e sicurezza non sono obiettivi separati, ma dimensioni interconnesse di un ecosistema AI responsabile. Ogni componente—dati, modelli, applicazioni, infrastrutture, processi—deve essere progettato e gestito con consapevolezza dei rischi e dei controlli necessari lungo l’intero value stream».
Il ruolo della leadership
«In questo scenario, il CISO e i leader in ambito risk assumono un ruolo cruciale non solo come custodi della sicurezza, ma come facilitatori della trasformazione digitale», sottolinea Battelli. «La loro capacità di tradurre complessità tecniche in strategie di business comprensibili al board, di quantificare rischi e benefici, e di allineare investimenti cyber alle priorità aziendali determina il successo o il fallimento dei programmi GenAI.
L’evidenza empirica mostra che le organizzazioni che trattano la cybersecurity come vantaggio competitivo—non come costo inevitabile—ottengono risultati migliori sia in termini di resilienza che di capacità di innovazione. Questo richiede un cambio di mindset: passare da posture difensive reattive a strategie proattive che anticipano minacce emergenti e costruiscono fiducia sistematica nel tessuto tecnologico aziendale.
La fiducia in un mondo guidato dall’AI non si conquista con una singola soluzione o un unico investimento. Si costruisce giorno dopo giorno, integrando governance rigorosa, controlli tecnici avanzati, cultura della sicurezza diffusa e capacità di apprendimento continuo. Le organizzazioni che riusciranno a bilanciare velocità di adozione e solidità dei controlli, innovazione e responsabilità, saranno quelle che trasformeranno l’incertezza dell’AI-driven world in un vantaggio strategico duraturo», conclude l’Enterprise Security Leader di Deloitte Italia.

