di Gianni Bientinesi CEO di Business Intelligence Group


Mio nonno raccontava che suo padre, la prima volta che vide un treno, restò immobile sul ciglio di un campo di granturco nella pianura veneta. Non per paura. Per l’impossibilità di dare un nome a quello che aveva davanti. Non era un carro. Non era un cavallo. Non era niente che conoscesse. E quando non sai dare un nome a qualcosa, il corpo si ferma prima della mente.

Mi è tornata in mente questa immagine qualche settimana fa, durante un workshop con un gruppo di manager di un’azienda manifatturiera del Nord-Est. Avevo appena mostrato loro cosa può fare un modello di intelligenza artificiale generativa applicato all’analisi dei reclami clienti. Silenzio. Poi uno di loro, il direttore commerciale, un uomo pratico che vende raccorderia idraulica da trent’anni, ha detto una cosa semplice: “Ma allora cosa ci sto a fare io?”. Non era retorica. Era lo stesso smarrimento del bisnonno davanti al treno.

Ci penso spesso, da sociologo che per mestiere osserva come le persone reagiscono al cambiamento. Lo stupore tecnologico non è mai davvero tecnologico. È identitario. Quando una macchina fa qualcosa che pensavamo fosse esclusivamente nostro, spostarci nello spazio a velocità impossibili, generare un pensiero che sembra umano, non è la macchina che ci spaventa. È il dubbio su cosa resti di noi senza quella esclusiva.


Torniamo un momento al treno, perché l’analogia è più precisa di quanto sembri.

Negli anni Trenta dell’Ottocento, quando le prime locomotive attraversarono la campagna inglese, il Quarterly Review pubblicò un editoriale in cui si sosteneva che nessuna persona sana di mente avrebbe affidato la propria vita a una macchina del genere. I medici avvertivano che il corpo umano non era progettato per superare i cinquanta chilometri orari. I proprietari terrieri lungo le linee ferroviarie intentarono cause legali, convinti che il rumore avrebbe reso sterili le mucche e fatto inacidire la birra nelle cantine.

Oggi ci fa sorridere. Ma dietro quelle reazioni c’era qualcosa di profondo, che nessuno storico della tecnologia dovrebbe liquidare come ignoranza. Il treno non era un miglioramento. Era una ridefinizione. Prima della ferrovia, la distanza tra due città era una funzione del tempo: Londra e Birmingham erano lontane perché ci volevano giorni per arrivarci. Dopo la ferrovia, quella distanza si compresse in ore. E con essa si compresse qualcosa di più sottile: l’idea stessa di dove finisce il mio mondo e dove inizia quello degli altri.

Quando parlo di intelligenza artificiale con gli imprenditori, e lo faccio ogni settimana, è il mio lavoro all’Osservatorio Business Intelligence Group, ritrovo esattamente questa dinamica. L’AI generativa non è un software migliore. È una compressione. Comprime il tempo tra una domanda e una risposta, tra un’intuizione e un documento, tra un dato grezzo e una strategia. E come il treno, non chiede di imparare qualcosa di nuovo. Chiede di disimparare qualcosa di vecchio. Che è molto più faticoso.


C’è un pattern che i sociologi dell’innovazione conoscono bene, anche se ogni generazione finge di scoprirlo per la prima volta. Lo stupore iniziale viene sempre seguito da una resistenza morale, “non è naturale”, “si perdono i posti di lavoro”, “dove andremo a finire”, poi da una normalizzazione sorprendentemente rapida, e infine da una rimozione completa. Ciò che era inconcepibile diventa ovvio. Ciò che era ovvio viene dimenticato.

Il cinema italiano, a suo modo, lo aveva già capito. Ne Il ragazzo di campagna di Castellano e Pipolo, Artemio, il contadino interpretato da Pozzetto, arriva a Milano e resta paralizzato davanti a un mondo che non riesce a decifrare. Le porte girevoli, le scale mobili, il ritmo della città: ogni oggetto è una piccola locomotiva che gli sfreccia davanti senza che lui riesca a salirci sopra. Ridiamo, certo. Ma Artemio non è uno stupido. È un uomo il cui frame interpretativo si è rotto tutto insieme, in un colpo solo. È il bisnonno veneto davanti al treno, solo che stavolta c’è la colonna sonora. E se ci pensiamo bene, quella stessa scena si ripete oggi in migliaia di uffici italiani: il manager che apre ChatGPT per la prima volta e resta lì, con le mani sulla tastiera, senza sapere cosa chiedere. Non perché non sappia scrivere. Perché non sa ancora in che mondo si trova.

Con il treno è successo in meno di una generazione. Nel 1830 la locomotiva era un prodigio. Nel 1860 era in ritardo. Con l’elettricità, stesso copione: Edison accese le prime lampadine e la gente accorse come a un miracolo; vent’anni dopo, se la luce mancava per cinque minuti, scrivevano lettere di protesta al sindaco.

Con l’intelligenza artificiale questo ciclo sta accadendo a una velocità che non ha precedenti. ChatGPT ha raggiunto cento milioni di utenti in due mesi. Ma il dato che mi colpisce di più non è questo. È che i miei studenti all’università, ragazzi di ventidue anni, già non si stupiscono più. Usano l’AI come io usavo la calcolatrice: uno strumento, non un miracolo. Si irritano, semmai, quando il modello sbaglia. Lo stupore è durato un battito di ciglia.

Del resto, basta osservare noi stessi. Lanciamo un prompt, e restiamo davanti allo schermo ad aspettare che la risposta sia pronta. Se il modello ci mette più di un minuto, sbuffiamo. Diciamo che è lento. Ci dimentichiamo completamente di quanto tempo avremmo impiegato a farlo da soli: ore, forse giorni, per un’analisi che la macchina ha prodotto in quaranta secondi. È esattamente il passaggio dal prodigio al ritardo. La locomotiva del 1830 che diventa il pendolare del 1860, compresso in pochi mesi di utilizzo.


Quello che vedo sul campo, attraverso le ricerche dell’Osservatorio BIG, conferma questa accelerazione. Nel giro di diciotto mesi, il sentiment dei decisori aziendali italiani verso l’intelligenza artificiale è passato da quella che definirei una curiosità ansiosa a un’aspettativa operativa. Nessuno mi chiede più “cos’è l’AI”. Mi chiedono “come la integro senza perdere il controllo dei miei processi”. È il passaggio dal prodigio al ritardo del treno, condensato in un anno e mezzo.

Ma c’è un rischio in questa normalizzazione veloce, ed è lo stesso rischio che si corse con la ferrovia. Quando lo stupore muore troppo presto, si smette di guardare davvero. Si applicano al nuovo le regole del vecchio. Si cerca di governare il treno con le leggi pensate per i cavalli.

Non posso non pensare all’AI Act europeo. Un atto normativo con intenzioni serie e condivisibili, che però, nella sua architettura, tradisce una fatica di fondo: quella di regolamentare qualcosa che ridefinisce le nozioni stesse di autore, di decisione, di responsabilità. Non è un problema di volontà politica. È un problema di categorie. Le categorie sono sempre in ritardo rispetto a ciò che devono contenere.


Qualche mese fa ho tenuto una lezione a un gruppo di dottorandi, e ho chiesto loro di fare un esercizio semplice: descrivete cosa provate quando un’AI genera un testo che sembra scritto da un essere umano. Le risposte sono state sorprendentemente uniformi. Inquietudine. Non paura, non entusiasmo. Inquietudine. Quella sensazione sottile di quando qualcosa è familiare e alieno allo stesso tempo.

È lo stesso uncanny valley che il bisnonno veneto deve aver provato: una cosa che si muove come un animale ma non è un animale, che sbuffa come un essere vivente ma non è vivo. L’AI scrive come una persona ma non è una persona. E in quello scarto, in quello spazio tra il sembra e il non è, si gioca tutta la partita culturale dei prossimi anni.

Per chi fa il mio mestiere, osservare i comportamenti, leggere i dati, interpretare il mercato, la tentazione è di colmare subito quello spazio con risposte, modelli, framework. Ma forse la cosa più intelligente da fare è esattamente l’opposto: restare nello stupore ancora un po’.

I passeggeri che nel 1830 guardavano il paesaggio sfrecciare dal finestrino vedevano il mondo con una nitidezza che i pendolari del 1860 avevano già perso. Erano testimoni di una transizione, e lo sapevano. Oggi siamo nella stessa posizione. Chi si ferma a guardare davvero, non il tool, non il prompt, non il modello, ma cosa sta cambiando nel modo in cui pensiamo, decidiamo, ci relazioniamo, ha un vantaggio che nessun algoritmo potrà mai replicare.

Lo stupore non è una debolezza. È intelligenza prima che diventi abitudine.


Gianni Bientinesi è sociologo, direttore dell’Osservatorio Business Intelligence Group e cultore della materia presso l’Università di Pisa.