L’AI è diventata la nuova elettricità del mondo digitale aiutando hacker: alimentando servizi, automatizzare processi, creare contenuti e potenziare la produttività come mai prima. Ma ogni rivoluzione tecnologica porta con sé un’ombra. E oggi quell’ombra ha un nome preciso: AI-driven hacking.
Negli ultimi anni, la comunità di sicurezza informatica ha assistito a un’accelerazione impressionante delle capacità offensive rese possibili dall’AI. Non parliamo più solo di strumenti automatizzati o script kiddies potenziati. Parliamo di modelli linguistici, reti neurali e agenti autonomi in grado di supportare, velocizzare e amplificare attacchi informatici con una precisione che fino a ieri sembrava fantascienza.
Come ethical hacker, non posso ignorare questo cambiamento. E come divulgatore, sento il dovere di raccontarlo.

L’AI come “apprendista hacker”: quando il modello diventa complice
Uno dei fenomeni più inquietanti è la capacità dell’AI di generare codice malevolo, anche senza che l’utente lo richieda esplicitamente. Basta una descrizione ambigua, un contesto tecnico, o una richiesta formulata in modo furbo, e alcuni modelli possono produrre:
- script di enumerazione avanzata
- payload per exploit noti
- macro malevole
- template di phishing credibili
- automazioni per brute forcing o credential stuffing
Non è magia. È statistica. Il modello non “vuole” aiutare gli hacker, ma non comprende il confine etico tra uso legittimo e uso offensivo. E questo apre scenari pericolosi.

Phishing 2.0: email perfette, senza errori, senza sospetti
Il phishing è sempre stato efficace perché gioca sulla psicologia, non sulla grammatica. Ma l’AI ha eliminato anche quell’ultimo difetto che spesso salvava gli utenti: gli errori.
Oggi un attaccante può generare:
- email impeccabili nello stile di un’azienda
- messaggi personalizzati sulla vittima (grazie ai dati pubblici)
- conversazioni credibili per truffe BEC
- landing page persuasive create in pochi minuti
Il tutto con un livello di qualità che supera quello di molti copywriter professionisti.
Il phishing non è più un messaggio mal scritto. È una simulazione perfetta di fiducia.

Social engineering potenziato: l’AI studia la vittima
Gli hacker più pericolosi non sono quelli che scrivono exploit, ma quelli che manipolano le persone. L’AI ha reso questo processo più semplice e più scalabile.
Oggi un attaccante può:
- analizzare i social della vittima
- estrarre pattern comportamentali
- generare messaggi personalizzati
- simulare stili di scrittura
- creare deepfake vocali per ingannare colleghi o familiari
Il social engineering non è più un’arte. È un processo industriale.
Malware generativo: la nuova frontiera dell’offensiva
Alcuni ricercatori hanno dimostrato che l’AI può essere utilizzata per:
- offuscare codice in modo dinamico
- generare varianti infinite di malware
- adattare un payload in tempo reale per evitare detection
- suggerire exploit chain basate su CVE recenti
Il risultato è un ecosistema di minacce che evolve più velocemente delle difese.
Non è un caso che molte aziende di cybersecurity stiano investendo in AI difensiva, perché l’AI offensiva corre più veloce.
L’illusione della sicurezza: “se lo dice l’AI, sarà giusto”
Uno dei rischi meno discussi è la fiducia cieca. Molti utenti, anche tecnici, tendono a considerare l’AI come un’autorità. Questo porta a:
- eseguire comandi suggeriti senza verificarli
- fidarsi di configurazioni sbagliate
- accettare codice vulnerabile
- ignorare warning reali perché “l’AI non li ha menzionati”
Gli hacker lo sanno. E sfruttano questa fiducia per manipolare gli utenti attraverso contenuti generati automaticamente.
La risposta dell’ethical hacking: educazione, trasparenza, difesa attiva
Non tutto è perduto. L’AI può essere un’arma, ma può essere anche uno scudo.
Gli ethical hacker stanno già utilizzando l’AI per:
- analizzare log a velocità sovrumana
- identificare pattern di attacco
- generare patch e fix più rapidamente
- simulare attacchi per testare la resilienza
- automatizzare la threat intelligence
La chiave è non demonizzare l’AI, ma imparare a governarla.
Ulteriori informazioni:
l’AI non è buona o cattiva. Dipende da chi la guida
L’intelligenza artificiale non ha morale. Non ha intenzioni. Non ha etica. È uno strumento. Potentissimo. E come ogni strumento, può essere usato per costruire o per distruggere. Il compito di chi lavora nella sicurezza — e di chiunque viva nel mondo digitale — è non lasciare che siano gli hacker a decidere come usarla. La vera battaglia non è tra AI e umani. È tra chi vuole proteggere e chi vuole sfruttare. E questa battaglia è appena iniziata.

