L’AI è ancora nella fase dell'illusione?
Hype, governance e prompt fatigue
Ciao, sono Ale.
Gartner ha pubblicato un’analisi sulla cybersecurity e l’AI che conferma quello che molti di noi vedono ogni giorno: il gap tra promesse e realtà sta generando “prompt fatigue” e ROI negativi.
Non è nulla di sorprendente: quando l’hype supera di tre ordini di grandezza la maturità della tecnologia, la disillusione è garantita.
L’hype non è sostenibile
La corsa alla GenAI ha seguito il copione classico: vendor che ribattezzano automazioni esistenti come “agenti AI”, executive che approvano budget senza metriche chiare, team che integrano strumenti frammentati sperando in produttività miracolosa.
Il risultato? Gartner lo chiama con precisione: “prompt fatigue”.
Troppi tool con interfacce interattive. Troppi assistenti che richiedono prompt diversi. Troppa frammentazione nei workflow di operation.
E dietro tutto questo, un problema più profondo: molti “agenti AI” venduti come rivoluzionari sono semplicemente script di automazione potenziati. Non c’è autonomia. Non c’è capacità decisionale. Solo marketing che maschera funzionalità già viste.
Non sto dicendo che la GenAI sia inutile, ma il modo in cui viene venduta e implementata ignora sistematicamente i rischi per inseguire produttività teorica.
I rischi che nessuno vuole discutere
Quando integri LLM di terze parti nella tua infrastruttura security, introduci superfici di attacco specifiche che la maggior parte delle organizzazioni non sta presidiando.
Gartner le categorizza in tre aree:
1. Content Anomaly Detection
Il problema: I modelli generativi producono output probabilistici. Questo significa fantasie, contenuti inaccurati, violazioni di copyright, output illegali o dannosi per il brand.
Cosa significa per te: Se un assistente AI suggerisce una risposta basandosi su dati allucinati, stai prendendo decisioni su informazioni false. E se quell’output finisce in una comunicazione esterna, hai un problema di brand oltre che tecnico.
2. Data Protection
Il problema: Quando usi modelli esterni, i tuoi dati passano attraverso infrastrutture che non controlli. Leakage, compromissione della confidenzialità, impossibilità di condurre privacy impact assessment.
Cosa significa per te: Ogni prompt che contiene informazioni sensibili è un potenziale data breach. E quando il modello è hostato esternamente, non hai visibilità su come quei dati vengono gestiti, storati, o usati per training.
La falla: Dati confidenziali trasmessi attraverso prompt a servizi esterni. Privacy compromessa in ambienti gestiti da terzi. Impossibilità di governare policy di data protection in modelli black box.
NB Anche utilizzando LLM interni, senza una corretta data classification rischi di istituire i modelli con dati sensibili o riservati compromettendo la segregazione delle informazioni
3. Sicurezza delle applicazioni AI
Il problema: i sistemi di AI sono vulnerabili a nuovi tipi di attacco come prompt injection (dirette e indirette), attacchi ai vector database, accesso non autorizzato a parametri del modello.
Cosa significa per te: Un attaccante che riesce a iniettare prompt malevoli può manipolare l’output del modello, estrarre dati sensibili, o bypassare controlli di sicurezza. Se invece “avvelena” i database che alimentano il modello (Retrieval Augmented Generation) corromperà tutte le risposte future.
Questi rischi si amplificano quando usi modelli esterni senza controllare i processi applicativi, lo storage, gli update del modello, ma esistono anche con modelli on-prem, se non proteggi l’intera catena.
La governance come perimetro
In questo contesto, l’EU AI Act è il primo framework sistematico che tenta di categorizzare il rischio AI in modo granulare indicando quattro tier:
Rischio minimo: Nessun obbligo specifico, AI che non minaccia diritti o sicurezza (largely unregulated)
Rischio limitato: Requisiti di trasparenza, necessità di informare l’utente che sta interagendo con una AI.
Alto rischio: Compliance stringente, risk assessment obbligatori, e requisiti di cybersecurity espliciti.
Rischio inaccettabile: Sistemi vietati (social scoring, manipolazione comportamentale, rilevamento emozioni in scuole, sorveglianza biometrica di massa)
Le penalità? Fino a €35M o il 7% del fatturato globale annuo.
A differenza del GDPR (entrato in vigore tutto insieme nel 2018), l’AI Act ha enforcement scaglionato. Questo permette di lavorare verso compliance in fasi, invece di correre verso una deadline singola e ci da il tempo di maturare nella consapevolezza dei rischi legati all’AI.
Ma c’è un problema pratico: per essere compliant, devi sapere quali sistemi AI hai in uso direttamente o annegati in soluzioni terze (embedded). E Gartner stima che il numero di sistemi AI embedded nelle enterprise sia aumentato di un ordine di grandezza.
L’inventario degli AI-enabled systems diventano un prerequisito.
Ancora una volta e anche in questo caso, non puoi fare risk assessment su quello che non sai di avere.
Come gestire (budget, metriche e skill)
Il consiglio di Gartner è sensato e va nella direzione opposta dell’hype: approccio pluriennale, non big bang.
Anno 1-2: Application Security e Security Operations
Inizia dove l’impatto è misurabile. Integra GenAI in modo progressivo nei workflow esistenti, non stravolgere tutto per inseguire l’automazione totale.
Metriche prima di tutto
Definisci come misuri i benefici prima di iniziare. Gartner segnala che molte organizzazioni non hanno metriche per valutare il ROI delle GenAI.
Raffina detection e productivity metrics per account per le nuove capacità GenAI.
Priorità: Augmentation, non Automation
L’obiettivo non è sostituire competenze è aumentare la loro capacità (nel nostro caso gli analisti aumentano la capacità di sviluppo di integrazioni e tool di automazione). Pianifica a lungo termine i cambiamenti nei requisiti di skill , perché GenAI cambierà cosa serve sapere fare.
Bilancia privacy e rischi
Valuta i benefici attesi contro i rischi di adozione. Non è “AI sì o no”. È “quale AI, con quali controlli, per quale use case”.
Governance interna prima di compliance esterna
Anche se non sei sotto EU AI Act ora, inizia ad inventariare. Sapere quali sistemi AI usi, dove risiedono i dati, chi ha accesso, quali controlli hai, dove le addestri.
Questo serve per:
Risk management interno
Vendor management (cosa fanno i tuoi fornitori con l’AI)
Preparazione a normative future
Come agire (discovery, protezione)
La capacità generativa dei modelli non la controlli. È probabilistica per natura.
Ma puoi controllare: la governance dei tuoi dati, il catalogo dei tuoi asset, l’accesso ai sistemi critici, i controlli runtime sulle applicazioni AI.
E su questo punto gli strumenti a disposizione stanno evolvendo sia integrati nelle architetture SASE (come CATO) sia con soluzioni puntuali di DSPM come Cyera.
Invece di inseguire promesse probabilistiche o entusiasmi basati su hype, costruisci fondamenta solide:
Discovery: Quali AI agent, quali modelli, quali integrazioni hai già?
Access Control: Chi può fare cosa? Gli agent hanno credenziali proprie? Possono accedere a sistemi e dati critici?
Development Lifecycle: Version control per agent code, niente secrets in code, framework con security built-in.
Runtime Controls: Protezione near-real-time contro prompt injection, jailbreak, manipolazione output.
Data Governance: Quali dati possono essere inviati a modelli esterni? Come proteggi confidenzialità?
Oltre all’hype
L’automazione totale delle attività è un sogno ricorrente che si infrange sempre contro la complessità reale.
La GenAI non è diversa. È l’ultima di una serie di tecnologie che promettono boost di produttività spinta dall’automazione.
Questo non significa rifiutare l’innovazione. Significa esercitare dissenso cognitivo rispetto al marketing.
Significa costruire su fondamenta solide (governance, catalogazione, controlli) invece che su promesse.
E significa accettare che il valore della GenAI si misurerà in anni, non in trimestri.
Chi oggi sta implementando GenAI senza metriche, senza discovery, senza controlli sui rischi specifici, sta vivendo il paradosso di accumulare debito tecnico (e di compliance) mascherato da innovazione.
E tra 18-24 mesi, quando Gartner pubblicherà i dati sulla disillusione post-implementazione, scopriremo quanto è costato inseguire l’hype invece di costruire valore reale.
Ale
Fonti: Cybersecurity and AI: Enabling Security While Managing Risk (2025), EU AI Act
P.S. Sono felice di vivere in Europa e sapere che c’è questa cura e questo percorso di maturazione nella regolamentazione AI. Non crediamo alla falsa narrazione che l’Europa regolamenta mentre gli altri innovano. C’è in ballo la nostra sicurezza che è più preziosa del fatturato delle big tech.
Alcune cose che, se ti va, possiamo fare insieme:
LAB Napoli — Stai valutando le soluzioni SASE, ma hai bisogno di capire concretamente come funzionano? Allora il nostro LAB è perfetto per te.
Condividiamo — se hai un progetto che vuoi condividere con me o cerchi confronto su un argomento specifico.
Restiamo in contatto — ogni settimana condivido sul mio profilo LinkedIn insight legati alla tecnologia e soprattutto al suo impatto sul business.

