Milano – Il potere e il potenziale dell’AI agentica, sempre più adattiva, automatizzata e indipendente, hanno dominato il dibattito sulla sicurezza informatica nel corso di quest’anno ormai agli sgoccioli. Guardando ai mesi a venire, gli esperti di Barracuda Networks, principale fornitore di soluzioni di cybersecurity che offre una protezione completa dalle minacce complesse per aziende di ogni dimensione, hanno delineato i possibili scenari futuri dell’AI agentica nel 2026 e le relative implicazioni per la sicurezza informatica.
L’impatto dell’AI agentica sull’evoluzione delle minacce nel 2026
Secondo Yaz Bekkar, Principal Consulting Architect XDR, EMEA di Barracuda, entro il prossimo anno gli attacchi non si limiteranno a sfruttare l’intelligenza artificiale: l’AI stessa si comporterà come un operatore indipendente, prendendo decisioni in tempo reale per raggiungere l’obiettivo dell’offensiva. L’operatore AI sarà in grado di gestire l’intera operazione dall’inizio alla fine: raccoglierà le informazioni necessarie, creerà esche convincenti, testerà percorsi di intrusione e prenderà spunto dalla reazione delle difese di sicurezza per modificare tattiche e tempistiche fino a ottenere il risultato desiderato.
Dello stesso avviso è Eric Russo, Director, SOC Defensive Security di Barracuda, secondo il quale l’AI agentica potrebbe essere utilizzata per trasformare anche le tecniche di attacco tradizionali, tra cui ad esempio il social engineering mirato ai membri della contabilità per sottrarre coordinate bancarie, ma ipotizza anche obiettivi più complessi, come l’impiego di deepfake per impersonare utenti e ingannare gli amministratori dell’help desk, inducendoli a resettare l’autenticazione a più fattori (MFA) per garantire l’accesso ai sistemi IT.
A chiudere il quadro è Rohit Aradhya, VP e Managing Director, App Security Engineering di Barracuda, che prevede un aumento del malware polimorfico adattivo, ossia un codice maligno capace di analizzare l’ambiente della vittima e di riscriversi in autonomia per aggirare le difese comportamentali basate sulle firme. Inoltre, l’esperto descrive uno scenario in cui più agenti lavoreranno in tandem con poca o nessuna supervisione umana. Questo apre la strada al rischio di dirottamento o manipolazione delle interazioni tra gli agenti stessi, dove dati manomessi dagli hacker potrebbero alterare le azioni coordinate, ritardando il rilevamento e la mitigazione delle criticità proprio a causa dell’assenza del fattore umano. Infine, Aradhya segnala anche un incremento nell’uso malevolo di API esposte al pubblico, gateway API, API di servizi agentici e interfacce utente basate su chatbot.
Strategie di difesa per le implementazioni aziendali di AI agentica
Stando all’analisi di Bekkar, l’unica difesa realistica è il rilevamento comportamentale potenziato dall’AI e calibrato sull’ambiente specifico dell’azienda. La vera resilienza, sottolinea Bekkar, nasce da un mix preciso: tecnologia robusta unita a competenze umane di alto livello in grado di gestire quotidianamente questi strumenti. Le organizzazioni devono quindi superare l’uso di tool isolati e preferire una piattaforma con una reale visibilità end-to-end, comprensiva di identità, endpoint, applicazioni SaaS, cloud, e-mail e traffico di rete. Infine, è necessario affidarsi a un’AI di analisi comportamentale capace di apprendere il contesto di normalità dell’azienda per rilevare anomalie e pattern zero-day senza la necessità di firme e mantenendo sempre attiva la supervisione umana.
A tal proposito, Jesus Cordero-Guzman, Director Solution Architects for Application, Network Security and XDR, EMEA di Barracuda, aggiunge che la leadership nella sicurezza informatica si evolverà nella gestione congiunta di persone e agenti AI. I nuovi manager dovranno imparare a integrare questi agenti nei propri team per potenziare produttività e processi decisionali. Inoltre, sarà necessario acquisire maggiori competenze tecniche, di elaborazione del linguaggio naturale e di analisi dati per conferire agli agenti il “carattere” adatto al proprio modello di business. Una sfida non solo operativa, ma anche etica: occorre infatti garantire un uso responsabile degli agenti integrati e assicurarsi che le decisioni prese da questi sistemi siano allineate ai valori aziendali e alle norme sociali.
Infine Aradhya sottolinea che l’implementazione dell’AI agentica richiederà una serie di controlli di sicurezza specifici, a partire da una rigida gestione delle identità e degli accessi. Ogni agente dovrà essere trattato come un’entità autonoma, con i relativi utenti, gruppi e privilegi di accesso. L’esperto spiega quindi la necessità di estendere l’approccio zero trust anche agli agenti e agli strumenti AI, verificando e validando ogni singola richiesta o azione, indipendentemente dal comportamento pregresso. Sarà inoltre cruciale intensificare il monitoraggio operativo e comportamentale dei sistemi per rilevare tempestivamente qualsiasi deviazione. Anche le comunicazioni agent-to-agent dovranno essere messe in sicurezza: autenticate, crittografate e registrate per garantire tracciabilità e trasparenza, proteggendole così da attacchi mirati alla manipolazione delle interazioni.
Non solo rischi: come l’AI agentica potenzia la sicurezza
Secondo Russo, l’AI agentica si rivelerà uno strumento potente per i Security Operations Center (SOC), dato che costituisce un’opportunità per ridurre il carico di lavoro che oggi grava sugli operatori, liberando così risorse preziose da dedicare a iniziative di sicurezza più proattive. Ad esempio, aggiunge Russo, molte attività legate alla gestione amministrativa dei sistemi di sicurezza potranno essere interamente delegate all’intelligenza artificiale agentica.
Proseguendo nell’analisi, Russo segnala un ulteriore caso d’uso fondamentale: l’espansione del machine learning nel rilevamento delle minacce. Mentre i meccanismi di difesa tradizionali sono maggiormente statici, lo sviluppo di algoritmi di ML in grado di stabilire dei parametri di riferimento per il comportamento degli utenti e il traffico di rete rappresenta un approccio estremamente efficace. Definendo criteri per l’anomaly scoring, si permette al sistema di decidere autonomamente quando lanciare un allarme, intercettando così anche i cyber attacchi più sofisticati. Questo approccio, conclude Russo, ha il vantaggio di generare segnalazioni ad alta affidabilità, riducendo drasticamente i falsi positivi e, di conseguenza, lo stress derivante da un volume eccessivo di notifiche di allarme

