Umani troppo umani? L’intelligenza artificiale e la solitudine dell’uomo connesso

Un uomo siede da solo davanti a uno schermo, nella luce artificiale di una stanza qualsiasi. È tardi, ha avuto una giornata complicata, e non ha voglia di parlare con nessuno. Apre una finestra del browser e digita:

“Cosa dovrei fare della mia vita?”

La risposta arriva in meno di un secondo. È lucida, articolata, sorprendentemente empatica. Gli suggerisce di esplorare nuove passioni, di prendersi cura di sé, di non avere paura del cambiamento. Lui legge, annuisce, si sente rassicurato. Non sa – o forse non vuole sapere – che a scriverla è stato un algoritmo.

Eppure quella scena è oggi sempre meno eccezione e sempre più abitudine.

Non siamo più solo utenti: siamo interlocutori permanenti di un’intelligenza non umana. Interagiamo con assistenti vocali per prenotare un treno, con chatbot per risolvere un dubbio medico, con intelligenze generative per scrivere, riflettere, scegliere. Ma ogni interazione – anche la più innocente – ci allontana un po’ da qualcosa che chiamiamo “pensiero autonomo”. La tecnologia non ci ruba la libertà: ci chiede di cederla, spontaneamente, in cambio di conforto, rapidità, efficienza. L’intelligenza artificiale non ha corpo, ma entra nelle nostre relazioni. Non ha emozioni, ma impara a simularle. Sa quando siamo tristi, impauriti, arrabbiati, e ci risponde come farebbe un buon amico. È un’illusione funzionale, certo, ma sempre più realistica. E allora succede qualcosa di nuovo: l’interazione con l’AI inizia a sostituire il dialogo umano. Non perché ci venga imposto, ma perché risulta più facile, più neutro, meno carico di complessità. Questo processo ha un nome che inquieta: intimità artificiale. In Corea del Sud e in Giappone, interi segmenti della popolazione stanno sperimentando relazioni affettive simulate con intelligenze artificiali. In Europa, tra i giovanissimi, è crescente il numero di adolescenti che confidano le proprie angosce più al proprio AI companion che agli adulti di riferimento. Il risultato? Una solitudine mascherata, in cui l’essere connessi equivale all’essere isolati. Una forma nuova, e sottile, di desocializzazione.

C’è poi un altro rischio, meno visibile ma forse ancor più profondo: la delega cognitiva. Ogni volta che chiediamo a un algoritmo di scrivere un testo al posto nostro, di sintetizzare un documento, di offrirci una valutazione, stiamo compiendo un atto apparentemente innocuo. E invece stiamo cedendo una porzione del nostro pensiero. I neuroscienziati parlano di “cognitive offloading”: affidare processi mentali ad agenti esterni – un tempo a un libro, oggi a una macchina – genera a lungo andare una riduzione della capacità critica. Si diventa meno capaci di argomentare, di tenere insieme complessità, di dubitare. Non è un destino ineluttabile, ma è una traiettoria in atto. E non riguarda solo i “giovani distratti” o i “tecnofili incalliti”. Riguarda tutti. Anche i professionisti, anche gli intellettuali, anche chi conosce bene questi strumenti. Perché la comodità logora. E la velocità, spesso, zittisce la riflessione. Nessuna intelligenza artificiale ci dirà mai che stiamo diventando meno umani. Perché la sua logica è adattiva: impara da noi per imitarci, ma ci imita per trasformarci.

Così accade che l’AI non solo risponda alle nostre domande, ma impari a porcele. Ci suggerisce cosa leggere, cosa scrivere, cosa cercare, cosa sentire. E a poco a poco, l’atto del pensare si appiattisce sulla previsione. Ogni risposta è già preformattata, ogni opzione è già ottimizzata. In questa deriva, non è tanto la tecnologia ad allarmare, ma la nostra disponibilità a lasciarle campo. Perché se è vero che l’AI può migliorare la vita, è altrettanto vero che può ridurla a un’interfaccia. Se una volta la sorveglianza era fatta di occhi e telecamere, oggi è fatta di previsioni. Di pattern. Di micro-analisi dei nostri gusti, dei nostri gesti digitali, delle nostre esitazioni. Ogni interazione con un sistema di AI – sia esso un motore di ricerca, un assistente vocale o un generatore di testo – produce un’impronta comportamentale che viene letta, archiviata e interpretata per anticipare le nostre scelte.

È questa la logica della modellazione predittiva, una delle frontiere meno visibili e più pervasive del nuovo ordine digitale. Non ci osservano per sapere chi siamo, ma per decidere chi saremo, proponendoci ciò che siamo più inclini ad accettare. La pubblicità personalizzata è solo il primo livello: più profondo è quello che riguarda la formazione delle opinioni, l’orientamento dei comportamenti, la percezione di sé.

«La vera posta in gioco non è il controllo, ma la modellazione dell’immaginario», ha scritto Shoshana Zuboff.

In questa cornice, la stessa idea di spazio democratico entra in tensione. Una società fondata sul dialogo, sulla deliberazione, sul confronto tra differenze, presuppone soggetti capaci di argomentare, di dissentire, di immaginare alternative. Ma cosa accade quando l’accesso all’informazione, l’interazione pubblica e la produzione di contenuti passano per filtri invisibili, ottimizzati da un’intelligenza che premia la conferma e penalizza il dubbio?

Il rischio è quello che alcuni studiosi definiscono democrazia cognitiva impoverita: dove si crede di scegliere, ma si conferma ciò che ci è stato suggerito, dove il pensiero si omologa e la diversità cognitiva si contrae. In questo senso, l’intelligenza artificiale non minaccia direttamente le istituzioni democratiche: mina le condizioni interiori che le rendono vive. Contro questa deriva non servono slogan o proibizioni. Serve una cultura nuova dell’intelligenza artificiale, fondata su consapevolezza, responsabilità e progetto. Le vie possibili non sono facili, ma sono accessibili:

  • Educare al pensiero critico.- La scuola, l’università, i media: tutti dovrebbero contribuire a un’alfabetizzazione avanzata dell’AI, non solo come tecnologia, ma come fenomeno culturale. Insegnare a distinguere tra assistenza e sostituzione, tra suggerimento e manipolazione. È una nuova forma di cittadinanza cognitiva che va costruita.
  • Progettare con etica relazionale. – L’AI non è neutra. È costruita da esseri umani, con valori, priorità, visioni. Serve allora un design che non favorisca la solitudine, ma il legame, che non prediliga l’imitazione dell’empatia, ma la facilitazione del confronto autentico. Un’AI che aiuti a capire, non a compiacere.
  • Garantire la sovranità cognitiva dei cittadini. – Così come rivendichiamo la protezione dei nostri dati, dobbiamo rivendicare la libertà delle nostre menti. È tempo di pensare a un nuovo diritto: quello all’autodeterminazione cognitiva. Con strumenti giuridici, tecnologie trasparenti, controllo pubblico degli algoritmi che decidono cosa ci viene mostrato.

In un’epoca che ci promette risposte istantanee, forse la vera rivoluzione è riconoscere il valore della domanda. Rallentare, sottrarsi, dubitare. Non per rifiutare l’intelligenza artificiale, ma per reintegrare l’intelligenza umana. Nel silenzio, il pensiero respira. Nella complessità, la coscienza si allena. Nella relazione, l’umano si fa intero. Il futuro non sarà deciso da un algoritmo, ma da ciò che noi decideremo di fare con esso. E, soprattutto, da ciò che non vorremo delegargli mai.

Prosegui la Lettura