C’è un termine che, nel dibattito sull’intelligenza artificiale, ricorre con insistenza: allucinazioni. Così si chiamano le risposte in cui i modelli generativi inventano fatti, citano fonti inesistenti o distorcono informazioni verificabili. In apparenza, sembrerebbe solo un difetto tecnico, una falla nel sistema. Ma se proviamo a guardare più da vicino, questo fenomeno racconta qualcosa di più profondo: la difficoltà delle macchine a convivere con il vuoto di conoscenza, la loro tendenza – proprio come la nostra infanzia – a riempirlo di storie.
Un bambino, di fronte a un mistero, non sceglie il silenzio. Quando non capisce il tuono, immagina divinità o giganti. Quando non sa spiegare la malattia, la attribuisce a punizioni o magie. Queste spiegazioni, che oggi definiremmo ingenue, non sono segni di ignoranza, ma passaggi cognitivi naturali: la mente, non tollerando il vuoto, preferisce la coerenza interna alla verifica esterna. I modelli di intelligenza artificiale si comportano in modo sorprendentemente simile: quando i dati mancano o non bastano, non si fermano. Generano comunque una sequenza coerente, predicendo il “pezzo mancante” con la probabilità più plausibile. Anche se quella plausibilità non coincide con la verità.
Ecco allora che le allucinazioni dell’IA non appaiono più come errori meccanici, ma come sintomi di una fase immatura del loro sviluppo: una sorta di infanzia cognitiva digitale. Le macchine, come bambini che balbettano storie, non hanno ancora la capacità di distinguere tra immaginazione e realtà verificata. È un’analogia suggestiva, ma che va maneggiata con prudenza. Non dobbiamo cedere alla tentazione di attribuire coscienza o interiorità alle tecnologie: ciò che “matura” davvero non è la macchina in sé, ma l’insieme degli strumenti, delle procedure e delle regole che la società costruisce attorno ad essa.
La sfida è proprio questa: passare dai balbettii alle verifiche, dal mito alla conoscenza. Il salto di qualità arriverà quando i modelli sapranno riconoscere i propri limiti, dichiarare l’incertezza, chiedere i dati mancanti, distinguere la narrazione dalla prova. In altre parole, quando saranno capaci non solo di parlare, ma anche di tacere, di sospendere il discorso in attesa di una conferma. Sarebbe una sorta di adolescenza cognitiva, in cui l’IA non si limita a sedurre con parole fluide, ma impara a costruire la propria autorevolezza su criteri condivisi di verità.
Fino ad allora, le allucinazioni restano inevitabili, ma non per questo prive di significato. Ci ricordano che la conoscenza non è solo un flusso di parole ordinate: è anche un processo di verifica, una pratica sociale, un metodo. Tocca agli sviluppatori introdurre meccanismi di trasparenza e tracciabilità, agli utenti imparare a distinguere la plausibilità dalla prova, e alle istituzioni fissare criteri chiari per misurare l’affidabilità di queste tecnologie.
Così, forse, comprenderemo che le allucinazioni non sono soltanto inganni da correggere, ma i segnali di un percorso in atto. Un cammino che ricorda da vicino quello dell’umanità, passata nei secoli dai miti alle scienze. Anche le macchine, se guidate con saggezza, potranno compiere la stessa trasformazione: dalla fantasia che consola al sapere che regge il confronto con la realtà.