Il 2025 segna un traguardo importante per il Cost of a Data Breach Report, lo studio annuale di IBM condotto insieme al Ponemon Institute, che da vent’anni rappresenta il punto di riferimento per comprendere i rischi e i costi legati alle violazioni dei dati. Quest’anno, più che mai, l’attenzione si concentra su un fattore che sta trasformando radicalmente il panorama della sicurezza informatica: l’intelligenza artificiale (AI).

Da una parte l’AI accelera il rilevamento e il contenimento delle minacce, abbattendo i costi medi globali delle violazioni. Dall’altra, l’adozione spesso incontrollata di sistemi AI apre la strada a nuove vulnerabilità, come la shadow AI e la mancanza di policy di governance.
Un cambiamento epocale: l’impatto dell’AI sulla sicurezza
Due decenni fa le principali cause di violazione erano dispositivi smarriti o rubati (45%), mentre appena il 10% era attribuibile ad attacchi hacker. Oggi lo scenario è completamente ribaltato: phishing, vulnerabilità cloud e minacce interne dominano la scena.
Nel 2020 la pandemia ha fatto esplodere i ransomware, diventati rapidamente il principale incubo delle imprese. Oggi l’attenzione si sposta sull’AI: se da un lato i sistemi di difesa basati su AI riducono i tempi di contenimento, dall’altro gli aggressori utilizzano strumenti di genAI e deepfake per perfezionare le loro campagne di phishing.
I numeri che contano del 2025
- Quasi 5ML di dollari: è il costo medio globale di una violazione, in calo del 9% rispetto ai 4,88 milioni del 2024, grazie all’uso di AI e automazione nella risposta agli incidenti.
- 10ML di dollari: il costo medio negli Stati Uniti, in aumento del 9% per via delle normative più stringenti e dei costi di escalation.
- 13%: percentuale di aziende che hanno subito incidenti legati all’AI; tra queste, il 97% non aveva controlli di accesso adeguati.
- 16%: quota delle violazioni perpetrate da criminali che utilizzano AI, soprattutto tramite phishing generato da algoritmi (37%) e deepfake (35%).
- 5ML di dollari**: costo medio di un attacco condotto da insider malevolo, il più oneroso tra i vettori analizzati.
- 200MILA dollari in più: il costo aggiuntivo per incidenti causati da shadow AI.
- 63%: le organizzazioni che si sono rifiutate di pagare il riscatto richiesto dai ransomware, in aumento rispetto al 59% del 2024.
La minaccia della Shadow AI
Uno dei punti più delicati del report riguarda proprio la cosiddetta shadow AI, ossia l’uso di strumenti di intelligenza artificiale senza l’approvazione o la supervisione del datore di lavoro. Il 20% delle organizzazioni ha dichiarato di aver subito una violazione riconducibile a questa pratica, con un aggravio medio di 200Mila dollari per incidente.
Gli effetti sono gravi: compromissione di dati personali identificabili (65%), furto di proprietà intellettuale (40%) e aumento dell’esposizione a causa della frammentazione dei dati su più ambienti.
Resilienza AI: un’arma a doppio taglio
Il report evidenzia come l’AI sia ormai un obiettivo di alto valore. App, API e plug-in compromessi nella supply chain dell’AI hanno generato effetti a catena, causando perdita di dati (60%) e interruzioni operative (31%). Tuttavia, quando implementata correttamente, l’AI può fare la differenza:
- riduce i tempi di rilevamento e contenimento fino a 80 giorni.
- abbassa i costi medi di 2ML di dollari.
- aumenta l’efficacia dei team di sicurezza anche in contesti di personale ridotto.
Governance e sicurezza: un gap ancora da colmare
Uno dei dati più preoccupanti è che il 63% delle aziende non dispone di policy di governance per l’AI. Anche laddove esistono, spesso non vengono applicate in modo strutturato. Questo significa che l’adozione dell’AI cresce a ritmi molto più rapidi rispetto alla sicurezza e alla supervisione.
- meno della metà ha un processo di approvazione per l’implementazione.
- il 62% non ha controlli di accesso adeguati.
- solo il 34% conduce audit periodici sull’uso non autorizzato dell’AI.
Migliorare le pratiche
Il report propone una serie di approcci per ridurre rischi e costi:
- Rafforzare le identità – umane e non umane (NHI), includendo agenti AI che accedono a sistemi critici.
- Adottare autenticazione moderna – come passkey resistenti al phishing.
- Integrare sicurezza e governance dell’AI – abbattendo i silos tra CISO, CRO e CCO.
- Implementare controlli dati avanzati – data discovery, classificazione, crittografia e gestione delle chiavi.
- Simulare crisi informatiche – per migliorare la resilienza e testare piani di risposta agli incidenti.
E’ sempre ed ancora, una corsa contro il tempo.
Il rapporto evidenzia un paradosso: l’AI è in contemporanea la cura e la malattia della cybersecurity. Se da un lato abbatte i tempi di risposta e riduce i costi delle violazioni, dall’altro apre nuove superfici d’attacco se non governata correttamente. Bisogna trovare un equilibrio tra innovazione e supervisione, tra adozione rapida e implementazione sicura. La lezione più importante è che il problema non è tanto l’AI in sé, quanto l’assenza di regole e controlli adeguati.