AI nel mirino: il nuovo vettore di rischio cyber

L’intelligenza artificiale ha trasformato l’attacco informatico in un processo industriale. Gli agenti autonomi possono pianificare, testare ed eseguire intrusioni senza supervisione, sondando difese, generando exploit e adattandosi in tempo reale. Questo ribalta completamente il paradigma: non servono più competenze elevate o infrastrutture complesse per lanciare campagne avanzate.

Tre dinamiche rendono l’AI un vettore di rischio unico:

  • Automazione offensiva: l’AI riduce drasticamente i costi dell’attacco e aumenta la scalabilità.
  • Personalizzazione estrema: phishing, BEC e social engineering diventano quasi indistinguibili dal reale.
  • Superficie invisibile: API dimenticate, identità tecniche e asset cloud non mappati diventano bersagli perfetti per agenti autonomi.

Come l’AI sta cambiando gli attacchi informatici

Phishing e social engineering “su misura”

Il social engineering vive una seconda giovinezza: campagne di phishing automatizzate, contenuti personalizzati e messaggi generati da modelli linguistici aumentano del +66% nel 2025. Gli attacchi diventano più credibili, più rapidi e più difficili da rilevare.

Esempi concreti:

  • Email che imitano perfettamente lo stile di un dirigente.
  • Deepfake vocali che autorizzano bonifici.
  • Identità sintetiche costruite da dati rubati.

Agenti autonomi e attacchi industrializzati

Gli agenti AI possono:

  • Identificare vulnerabilità in autonomia.
  • Generare exploit su misura.
  • Distribuire malware adattivo.
  • Aggirare difese basate su pattern statici.

Il fenomeno del LLMjacking — abuso di modelli AI tramite credenziali cloud rubate — introduce un rischio doppio: costi elevati e fuga di dati sensibili.

DDoS e hacktivism potenziati

Nel 2025 gli attacchi DDoS superano ogni altra categoria, alimentati da botnet più intelligenti e da un hacktivism cresciuto del +145%. L’AI permette di coordinare attacchi massivi con maggiore precisione e impatto.

Ransomware evoluto

Il ransomware non scompare: evolve. L’AI permette:

  • Movimenti laterali più rapidi.
  • Cifratura selettiva basata sul valore dei dati.
  • Estorsione multipla (esfiltrazione, minaccia, sabotaggio).

La “materia oscura” del cyberspazio

Una delle minacce più sottovalutate è ciò che non si vede: asset dimenticati, API non monitorate, identità tecniche fuori governance. Questa superficie invisibile rappresenta un’enorme opportunità per gli attaccanti, soprattutto quando l’AI può scandagliare e correlare informazioni a una velocità impossibile per un SOC tradizionale.

Molte aziende credono di essere sicure solo perché non rilevano incidenti. In realtà, spesso non hanno visibilità sufficiente per accorgersene.

Il fattore umano: anello debole o leva strategica?

L’AI amplifica il rischio, ma il fattore umano resta decisivo. Le ricerche italiane mostrano che molte violazioni avvengono per:

  • configurazioni errate,
  • credenziali deboli,
  • procedure obsolete,
  • scarsa formazione.

L’AI non elimina l’errore umano: lo sfrutta.

Difendersi nell’era dell’AI: cosa serve davvero

Sicurezza autonoma e identità non umane

Le organizzazioni devono prepararsi a gestire identità non umane — agenti AI, bot, servizi automatizzati — con lo stesso rigore delle identità umane. La sicurezza autonoma diventa un pilastro per SOC, compliance e gestione del rischio.

Governance e visibilità totale

La resilienza nasce dall’integrazione tra governance, tecnologia e competenze. Non bastano soluzioni isolate: serve una visione continua e adattiva della superficie di attacco.

Compliance come leva strategica

Il 2026 è l’anno della convergenza normativa:

  • NIS2
  • Cyber Resilience Act
  • DORA
  • AI Act

Questi framework impongono sicurezza by design, supply chain robusta e controlli continui su IT, OT, IoT e sistemi industriali.

Formazione avanzata e cultura cyber

L’AI rende gli attacchi più credibili: solo una forza lavoro preparata può riconoscerli. Le aziende italiane stanno investendo sempre più in programmi di awareness evoluti, ma il gap resta significativo.

Ulteriori informazioni: l’AI non è il nemico, ma un acceleratore

L’intelligenza artificiale non è per natura un rischio: è un amplificatore. Amplifica ciò che trova — competenze, vulnerabilità, processi, errori. Le aziende che sapranno governarla trasformeranno il rischio in resilienza e vantaggio competitivo. Le altre diventeranno bersagli facili in un ecosistema dove gli attacchi sono sempre più veloci, invisibili e intelligenti.

Lascia un commento