Utilizzo sicuro dell’AI: te ne stai occupando?
L’intelligenza artificiale è una nuova superficie di attacco, che gli approcci alla sicurezza tradizionali faticano a proteggere.
Ciao, sono Ale.
Alcuni dati dallo studio globale di KPMG sull’utilizzo dell’AI (anche in azienda):
A livello globale il 58% degli intervistati dichiara di usare l’AI regolarmente sul lavoro, ma solo il 47% ha ricevuto formazione specifica e solo il 40% lavora in aziende con policy sull’AI.
Quasi la metà dei dipendenti ammette di violare le policy aziendali caricando informazioni sensibili su strumenti pubblici come ChatGPT.
E a livello italiano?
Sul campione di 1.000 persone intervistate nel nostro Paese, ritroviamo conferma dell’andamento globale, anche se con alcune differenze.
Gli intervistati che affermano di aver ricevuto una formazione adeguata sul tema sono il 59% (contro il 47% registrato a livello globale).
Allo stesso modo, il 57% degli intervistati afferma che la propria azienda ha adottato policy AI. Un dato incoraggiante rispetto al 40% globale.
Nonostante questo, le differenze si appiattiscono quanto si valuta il dato sugli intervistati che si affidano alle risposte generate dall’AI senza verificarle (61% contro il 66% globale), portando a errori lavorativi (60% contro il 56% globale).
Tutto questo in un contesto dove, come segnala questa guida di IBM, nel 2024 gli incidenti di sicurezza legati all’AI sono aumentati del 56.4%. Dato ancora più significativo, ben il 63% delle organizzazioni violate non aveva policy di governance dell’AI, o ne stava ancora sviluppando una.
Questi numeri ci dicono qualcosa di cui, sotto sotto, siamo già consapevoli: l’adozione dell’AI senza una regolamentazione specifica comporta dei rischi che non si possono più ignorare.
Eppure la maggior parte delle aziende sta facendo ancora troppo poco per gestirli.
Un problema di persone o di tecnologia?
Quando pensi ai rischi dell’AI, pensi al modello che memorizza dati sensibili dal training set, o pensi al dipendente che carica un documento confidenziale su ChatGPT per farsi scrivere il riassunto?
Un paper della Cornell University datato 2024 ha analizzato 45 studi scientifici sui rischi AI per la privacy, identificando 19 rischi principali, distribuiti su quattro livelli:
modello (26.67%),
minacce interne (25.87%),
infrastruttura (25.20%),
dataset (22.26%).
La distribuzione è uniforme su tecnologia, persone, processi, perciò concentrarsi unicamente sulla tecnologia non è sufficiente.
Una postura di difesa robusta deve tenere conto di tutti i quattro livelli, altrimenti risulterà sbilanciata.
Le aziende stanno proteggendo tutti i livelli?
No. Stanno proteggendo il perimetro tradizionale: firewall, antivirus, gestione degli accessi. Ma l’AI non rispetta il perimetro tradizionale.
Se l’upload del file Excel su un LLM pubblico è ormai uno scenario noto, le dinamiche attuali risultano più complesse. Uno sviluppatore che affida il debugging di codice sorgente proprietario a un assistente AI, un manager che concede permessi a tool per trascrivere i meeting, un’estensione browser che legge in chiaro i dati del CRM, tutti scenari che configurano esportazione di dati sensibili fuori dal perimetro aziendale.
Eppure nessun firewall ha bloccato nulla, perché tecnicamente non è un attacco. Anche se i rischi potenziali sono gli stessi.
Il problema non è che ChatGPT è pericoloso, ma che il dipendente sta agendo in un modo che mette a repentaglio la sicurezza dei dati aziendali.
Secondo il report IBM del luglio 2025, un’organizzazione su cinque ha già subito violazioni a causa di shadow AI: strumenti AI usati dai dipendenti senza che l’IT ne fosse a conoscenza.
È colpa dei dipendenti?
Anche se le singole azioni partono da iniziative personali, il problema è sistemico non serve additare il capro espiatorio.
L’AI è accessibile a tutti, subito, senza bisogno di autorizzazione IT, di budget, o di formazione. L’accessibilità al costo di pochi clic si unisce ai vantaggi percepiti: l’AI funziona, fa risparmiare tempo, produce risultati che sembrano utili.
Così la velocità di adozione continua a crescere più della consapevolezza sui rischi e, anche nei casi in cui questa consapevolezza esiste, mancano policy chiare perché la cultura dell’AI spinge verso la sperimentazione prima della regolamentazione
Dal report condotto da Ponemon Institute del 2025 emerge che il 63% delle organizzazioni che hanno subito violazioni di dati non dispone di policy di governance dell’IA o ne sta ancora sviluppando una.
Senza una definizione chiara di cosa si può fare con l’AI e cosa non si deve fare, ci si può affidare solo al buon senso. Stiamo parlando, però, di una tecnologia troppo nuova perché il buon senso sia già abbastanza sviluppato. Per esempio il 56% dei lavoratori ammette di aver commesso errori a causa dell’AI. La maggior parte presenta il lavoro generato dall’AI come proprio, senza dichiararlo.
È chiaro che mai come con questa tecnologia stiamo sperimentando attratti dal risparmio di tempo e fatica che promette. Manca, però, un’etichetta che stabilisca quando il suo uso sia appropriato e una consapevolezza sulle misure di sicurezza necessarie.
Cosa dovrebbe fare un’azienda?
Cinque cose, in ordine.
Primo: scrivere regole chiare. Non “non usare AI”, ma “questi dati non escono dal perimetro aziendale, questi strumenti sono approvati per uso interno, queste tipologie di contenuti possono essere elaborate esternamente”. I divieti generici sono facilmente fraintendibili; c’è bisogno di regole operative che rendano evidenti eventuali infrazioni.
Secondo: classificare i dati. Il dipendente può sapere cosa può e cosa non può caricare su uno strumento esterno, solo se esiste una classificazione che distingue dati pubblici, interni, confidenziali, sensibili. Senza classificazione, ogni decisione rimane a giudizio del dipendente, il che, come abbiamo già visto, non è una buona prassi, soprattutto in campo AI.
Terzo: implementare controlli tecnici. DSPM (Data Security Posture Management) per sapere dove sono i dati e chi ci accede. CASB (Cloud Access Security Broker) per monitorare e regolamentare l’uso di servizi cloud esterni. DLP (Data Loss Prevention) per bloccare l’esportazione di dati classificati come sensibili.
Questi strumenti esistono, funzionano, costano, ma costano sempre meno di un incidente.
Quarto: formare le persone. Non formazione generica su “cos’è l’AI”, ma formazione specifica su “come usi l’AI nel tuo lavoro senza creare rischi”. Esempi pratici, scenari reali, alternative concrete. L’awareness training deve includere il tema AI come parte centrale, non come appendice. Le persone devono uscire dalla formazione con una consapevolezza facilmente applicabile, non con nozioni confuse e troppo generali.
Quinto: fornire alternative interne. Se l’azienda vieta l’uso di strumenti esterni ma non fornisce strumenti interni, otterrà l’effetto di tutti i proibizionismi e cioè alimentare il sommerso. Implementare progetti AI interni, governati, con dati controllati.
Ma attenzione: anche in questo caso è indispensabile conoscere e classificare i dati, altrimenti alimenti i modelli interni con dati potenzialmente sporchi o sensibili che non dovrebbero essere lì.
Esistono standard adeguati per queste operazioni?
Sì. ISO 42001, standard specifico per la gestione dell’AI, che copre governance, gestione del rischio, trasparenza, accountability. Anche se non si investe direttamente in una certificazione, può essere utile ispirarsi a questo framework operativo per costruire un sistema di gestione dell’AI che integri sicurezza, privacy, compliance.
Oltre a questo, il GDPR si applica all’AI. Perciò, minimizzazione dei dati, trasparenza, limitazione della conservazione. Se usi AI su dati personali, devi rispettare gli stessi principi che rispetti per qualsiasi altro trattamento.
Perché le aziende non agiscono?
Perché l’AI è percepita come opportunità, non come rischio e quindi le organizzazioni stanno trascurando la sicurezza e la regolamentazione dell’AI a favore dell’adozione immediata alla ricerca di un vantaggio competitivo o di una accelerazione.
Tutti sperimentano, tutti credono di trovare benefici di tempo ed efficienza. Il rischio è astratto, il beneficio è immediato.
Velocità più che controllo. Sperimentazione più che regolamentazione. Fino a quando qualcosa si rompe.
Il report IBM sul costo delle violazioni dice che i sistemi non governati hanno maggiori probabilità di essere violati e sono più costosi di quando lo sono.
Gli strumenti per portare questa situazione sotto controllo esistono, richiedono sforzi ma è ora di cominciare a usarli.
Ale
Alcune cose che, se ti va, possiamo fare insieme:
Condividiamo — se hai un progetto che vuoi condividere con me o cerchi confronto su un argomento specifico.
Restiamo in contatto — ogni settimana condivido sul mio profilo LinkedIn insight legati alla tecnologia e soprattutto al suo impatto sul business.
[Immagine di copertina di Bart Fish & Power Tools of AI /
https://betterimagesofai.org

