Un flusso continuo di contenuti accelera le nostre reazioni e rallenta il pensiero: tra algoritmi, attenzione e identità digitale, un’analisi su come si costruisce oggi ciò che crediamo di scegliere.
Me ne accorgo anch’io, come chiunque altro. Apro un’app con l’idea di restare pochi secondi e ne esco minuti dopo, con la sensazione che qualcosa sia passato senza davvero fermarsi. Un’immagine, una frase, un volto. Poi un altro. Poi un altro ancora. Tutto scorre senza attrito, senza soglia. Quando mi fermo, se mi fermo, resta una traccia vaga, come dopo un sogno interrotto.

Questo scarto iniziale non ha a che fare con la distrazione ma con il tempo. Il tempo del pensiero non coincide più con il tempo dei flussi digitali. Le idee arrivano troppo velocemente per essere elaborate, le connessioni non fanno in tempo a stabilizzarsi. Non è una mancanza di capacità, è una questione di ritmo. Ma questo ritmo ha una direzione, e non è neutrale.
Spesso ci limitiamo a descrivere la sensazione: quel leggero senso di saturazione, di affaticamento mentale, di dispersione. Fermarsi lì sarebbe comodo. Perché ciò che stiamo vivendo non è casuale, né spontaneo.
I contenuti che incontriamo ogni giorno non circolano perché sono veri, completi o rilevanti. Circolano perché funzionano. “Funzionare”, oggi, significa generare attenzione misurabile, reazione immediata, continuità di consumo. Gli algoritmi non decidono cosa pensare ma decidono cosa incontriamo prima, cosa ritorna, cosa scompare. Costruiscono familiarità e ciò che diventa familiare, nel tempo, tende a sembrarci affidabile.

Quando questo meccanismo coinvolge milioni di persone nello stesso istante, smette di essere un fatto individuale. Le reazioni iniziano ad assomigliarsi. Emozioni rapide come paura, indignazione o senso di appartenenza viaggiano più velocemente di qualunque ragionamento complesso. Non hanno bisogno di essere verificate, solo riconosciute, e ciò che viene riconosciuto in fretta tende a essere condiviso.
Il risultato non è una società più informata, ma una società più reattiva. E una società reattiva è una società facilmente polarizzabile.
A questo punto il conflitto non nasce più da differenze reali ma da architetture comunicative che separano. Le bolle informative non sono incidenti di percorso: sono ambienti coerenti, chiusi, progettati per trattenere l’attenzione. All’interno di questi spazi la complessità diventa faticosa, l’ambiguità irritante. Funzionano meglio le posizioni nette, le semplificazioni, le provocazioni.
Non è informazione.
Non è ideologia.
È strategia comunicativa.

Chi divide ottiene visibilità. Chi spaventa mantiene controllo. Chi provoca si fa notare. Questa triade non è nuova ma oggi opera con una velocità e una precisione che non avevamo mai conosciuto. Non serve convincere, non serve spiegare: basta attivare.
Sarebbe rassicurante attribuire tutto questo alle macchine ma sarebbe anche una scorciatoia. L’intelligenza artificiale non inventa conflitti, paure o provocazioni. Li amplifica, li rende più rapidi, più efficienti, più automatici. Dietro ogni architettura che premia la reazione c’è sempre una scelta umana: economica, politica, culturale. La responsabilità non è tecnologica, è nostra.

Quando questo sistema diventa l’ambiente quotidiano in cui viviamo, non influenza solo ciò che pensiamo ma chi diventiamo. L’identità digitale non è una versione falsa di noi stessi. È una versione mediata, selezionata, performativa. Non basta più essere: bisogna apparire, essere leggibili, riconoscibili. La visibilità prende il posto dell’esperienza, la reazione quello della riflessione.
Viviamo in una condizione ibrida, in cui informazione, linguaggio e identità coincidono sempre di più e se l’informazione diventa l’ambiente in cui esiste la nostra identità, allora controllare l’informazione significa controllare l’immaginazione. Chi orienta l’immaginazione, orienterà il futuro.
A questo punto la domanda iniziale torna ma non è più teorica.
Chi guida le nostre scelte?
Non l’algoritmo, da solo.
Non la tecnologia, in sé.
Ma chi ha imparato a usare questi strumenti per guidare le nostre reazioni.
Non possiamo controllare tutto ciò che vedremo. Possiamo però decidere come reagire a ciò che vediamo. E forse, oggi, il gesto più radicale non è informarsi di più, ma recuperare il tempo del pensiero, prima che venga completamente assorbito dal flusso.
Approfondimenti
Riferimenti bibliografici
- Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, Milano, 2017.
https://www.raffaellocortina.it/scheda-libro/luciano-floridi/la-quarta-rivoluzione-9788860309334-2638.html - Shoshana Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma, 2019.
https://www.luissuniversitypress.it/pubblicazioni/il-capitalismo-della-sorveglianza - James Williams, Stand Out of Our Light. Freedom and Resistance in the Attention Economy, Cambridge University Press, Cambridge, 2018.
https://www.cambridge.org/core/books/stand-out-of-our-light/3F8D7BA2C0FE3A7126A4D9B73A89415D - Papa Francesco, Messaggio per la 58ª Giornata Mondiale delle Comunicazioni Sociali: “Intelligenza artificiale e sapienza del cuore”, 24 gennaio 2024, Sala Stampa della Santa Sede.
https://www.vatican.va/content/francesco/it/messages/communications/documents/20240124-messaggio-comunicazioni-sociali.html - Noam Chomsky, cit. in Agenda Digitale, “Intelligenza artificiale o stupidità reale: le sferzate di Chomsky all’IA”, 21 marzo 2023.
https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-o-stupidita-reale-le-sferzate-di-noam-chomsky-allia - George Orwell, 1984 (Nineteen Eighty‑Four), Secker & Warburg, Londra, 1949 — romanzo distopico sul controllo dell’informazione, del linguaggio e del pensiero.
https://it.wikipedia.org/wiki/1984_(romanzo)
