C’è un filo sottile che separa l’innovazione dalla leggerezza. Nel caso dell’intelligenza artificiale generativa, questo filo si chiama verifica. E quando viene meno, anche le società di consulenza più solide possono ritrovarsi in una posizione scomoda. È quanto accaduto a Deloitte Australia, che ha ammesso di aver utilizzato ChatGPT per redigere un rapporto destinato al governo federale, poi risultato costellato di citazioni errate, riferimenti inventati e fonti inesistenti. In gergo tecnico, si parla di allucinazioni dell’IA: errori di generazione, frutto della tendenza dei modelli linguistici a produrre contenuti plausibili ma falsi.
La società ha accettato di rimborsare parte del compenso percepito per la consulenza — un gesto di responsabilità, ma anche il segnale di una consapevolezza crescente: l’IA non è infallibile, e il suo utilizzo improprio può avere conseguenze reputazionali ed economiche rilevanti. Nel rapporto incriminato, intitolato Targeted Compliance Framework Assurance Review, alcuni studiosi citati come fonte — tra cui la docente di diritto Lisa Burton Crawford — hanno dichiarato di non riconoscere le frasi o le pubblicazioni loro attribuite. Non si è trattato di malafede, bensì del frutto di un processo automatico: il modello linguistico utilizzato da Deloitte avrebbe costruito citazioni e riferimenti coerenti nello stile, ma privi di riscontro reale.
Le allucinazioni non nascono da un errore tecnico nel senso stretto: derivano dal funzionamento stesso dei modelli linguistici, che non conoscono i fatti, ma predicono la parola successiva più probabile in una sequenza. È un processo statistico, non cognitivo. Quando l’algoritmo non trova nei propri dati di addestramento una risposta precisa, tende a riempire il vuoto con un’invenzione plausibile. Il risultato sono testi fluidi, coerenti, ma potenzialmente inesatti. In contesti giornalistici o creativi l’effetto può essere innocuo. In ambito istituzionale, legale o economico, diventa un rischio operativo concreto.
Il caso Deloitte apre un tema cruciale: chi risponde degli errori dell’IA? L’azienda ha assunto la piena responsabilità del rapporto, ma l’episodio evidenzia la fragilità del confine tra strumento e autore. Se un testo è stato rifinito con l’aiuto di ChatGPT, fino a che punto resta un’opera del consulente? E fino a che punto l’IA diventa parte del processo produttivo, quindi soggetta alle stesse garanzie di qualità e tracciabilità? La questione non è puramente etica o tecnologica: è economica. Le grandi società di consulenza, le banche, gli studi legali e persino le pubbliche amministrazioni stanno integrando sistemi di intelligenza artificiale per migliorare produttività e velocità decisionale. Ma ogni documento prodotto con l’ausilio di un algoritmo deve essere verificato e certificato come se fosse stato redatto integralmente da una persona.
Il rischio di delegare troppo alla macchina è concreto. Le IA generative riducono i tempi di stesura, ma amplificano la necessità di revisione critica: l’efficienza guadagnata in un passaggio si può perdere, e moltiplicare, in un secondo, se l’errore passa inosservato. Dietro l’episodio australiano si cela un’abitudine ormai diffusa: chiedere all’IA di “fare la prima bozza”. È una scorciatoia comprensibile — le macchine sono rapide, esaustive, non si stancano — ma la velocità, da sola, non è un valore. In assenza di controllo umano, i modelli linguistici finiscono per generare una sorta di verità probabilistica: frasi che suonano credibili ma che non corrispondono necessariamente alla realtà.
Molte imprese, spinte dalla corsa alla digitalizzazione, stanno adottando l’IA in maniera entusiastica ma superficiale. È un rischio già visto in altri momenti della storia industriale: la tecnologia corre, la governance arranca. Nel caso dell’IA, tuttavia, l’impatto è più profondo. Si tratta di sistemi capaci di produrre linguaggio, e quindi di influenzare direttamente la percezione della realtà, la materia prima di ogni decisione economica. Ciò che il caso Deloitte ci insegna è che il controllo della qualità informativa diventa la nuova frontiera della due diligence aziendale. Non basta più verificare bilanci, procedure o processi: occorre verificare anche la fonte cognitiva dei testi generati. Chi ha scritto questo documento? È stato verificato? Quali strumenti di IA sono stati impiegati e con quali limiti dichiarati?
Alcune aziende stanno già implementando sistemi di “IA audit”, cioè di verifica interna dei contenuti generati da modelli linguistici. È un passo nella direzione giusta, ma richiede investimenti e competenze trasversali: linguisti, data scientist, giuristi, esperti di compliance. L’intelligenza artificiale non va demonizzata. Può essere un alleato formidabile nella redazione di report, analisi e sintesi di grandi volumi di dati. Ma deve restare uno strumento, non un autore. Come accade per ogni tecnologia, la differenza non la fa la macchina, bensì il suo utilizzo.
La vera sfida è culturale: imparare a convivere con strumenti che sembrano intelligenti, ma non possiedono discernimento. L’IA non sa distinguere tra il vero e il falso, ma può aiutarci a farlo più velocemente — se chi la usa sa dove guardare. Il caso Deloitte non è un incidente isolato, ma un campanello d’allarme. Ci ricorda che l’innovazione, per essere credibile, deve restare sotto il controllo della ragione umana. E che, anche nell’era dell’intelligenza artificiale, l’ultima parola deve appartenere all’uomo.
Con l’arrivo dei nuovi sistemi di ricerca basati sull’intelligenza artificiale, Google sta cambiando le regole del gioco: la visibilità dei contenuti non dipende più solo da parole chiave o SEO, ma dalla credibilità, originalità e coerenza delle fonti. In questo scenario, affidarsi all’automazione cieca è un rischio: le piattaforme premiano ciò che è verificabile, autorevole e costruito con metodo.
È qui che Business Intelligence Group fa la differenza. Grazie alla selezione di informazioni, ricerche e analisi curate da professionisti esperti, BIG aiuta imprese e organizzazioni a produrre contenuti originali, solidi e a prova di allucinazione, capaci di emergere anche nei nuovi algoritmi basati sull’IA.
L’obiettivo è chiaro: unire la velocità della tecnologia alla profondità del giudizio umano, per creare report, articoli e strategie di comunicazione che mantengano valore e autorevolezza nel tempo.
Scopri come Business Intelligence Group può aiutarti a costruire contenuti credibili e performanti nell’era dell’intelligenza artificiale di Google.


