Molte persone pensano di “scegliere” cosa guardare, leggere e in cosa credere online. In realtà, i social network decidono sempre più spesso cosa ci raggiunge per primo, cosa viene ripetuto e cosa sparisce. Nel 2025, i feed basati sulle raccomandazioni non sono più semplici cronologie: sono motori di previsione addestrati a trattenere l’attenzione, e quell’attenzione ha una direzione. Il risultato è un rimodellamento sottile di come vediamo la società, la politica, la salute, le relazioni e persino noi stessi.
I feed dei social sono ordinati, non “mostrati”. Il For You di TikTok, l’Esplora di Instagram, le raccomandazioni di YouTube e il feed di Facebook funzionano tutti secondo lo stesso principio: selezionare contenuti che con maggiore probabilità provocano una reazione. Il sistema non “capisce” verità o qualità come un essere umano. Capisce la probabilità: cosa ti fa fermare, rivedere, commentare, condividere o discutere.
Questo ordinamento crea una realtà personale che sembra naturale perché rispecchia il tuo comportamento precedente. Se guardi due video su un tema — tendenze fitness, uno scandalo politico, una storia legata alla salute mentale — potresti riceverne rapidamente altri venti, ciascuno un po’ più carico sul piano emotivo. Il feed diventa un circuito: tu reagisci, il sistema impara e il tuo feed futuro si restringe.
Nel 2025 questo effetto è amplificato dai segnali incrociati tra formati. Uno scorrimento veloce può essere interpretato come segnale negativo, mentre un “salvataggio” o un “rivedere” viene considerato molto prezioso. Molti social tracciano anche schemi a livello di dispositivo, come durata delle sessioni, orari di utilizzo e persino se tendi ad aprire link esterni. Ecco perché due persone che cercano lo stesso argomento possono uscire con impressioni del tutto diverse su ciò che è “comune” o “vero”.
Il meccanismo più sottovalutato è la ripetizione. Quando la stessa idea appare in formati diversi — clip brevi, meme, thread “spiegoni”, video di reazione — diventa familiare. E la familiarità spesso viene percepita come credibilità, anche quando l’affermazione è debole. Questo cambiamento raramente viene notato, perché non arriva come un’unica argomentazione persuasiva. Arriva come mille piccoli spinte.
L’engagement premia anche la certezza più della sfumatura. Un post calmo e basato su prove tende a generare meno reazioni immediate rispetto a un contenuto sicuro, provocatorio, “tagliente”. Con il tempo, il feed si sbilancia verso contenuti emotivamente efficienti: indignazione, paura, humour tribale e “verità” semplificate. Non è un fallimento morale degli utenti; è un esito prevedibile di sistemi che misurano il successo in attenzione.
Quando interagisci con contenuti che confermano la tua visione, il sistema lo interpreta come “soddisfazione”. È così che l’engagement diventa convinzione: non perché decidi consapevolmente, ma perché l’ambiente si satura di una sola direzione interpretativa. Quando compaiono punti di vista opposti, spesso arrivano in versioni distorte, pensate per innescare conflitto più che comprensione.
Una delle trappole più note è la “filter bubble”, ma nel 2025 è più complessa di quanto si descriveva anni fa. Non si tratta solo di mostrarti ciò che ti piace: si tratta di mostrarti ciò che ti fa restare. E questo può includere contenuti che detesti, che ti scioccano o che ti rendono ansioso. L’obiettivo non è il comfort; è la permanenza.
Un’altra trappola è il ciclo dell’indignazione. Molti social hanno imparato che la rabbia produce engagement rapido. Una singola clip infiammatoria può diffondersi più velocemente di un’inchiesta accurata, perché invita a reagire subito. Questo influenza il dibattito pubblico: ciò che diventa virale non è necessariamente ciò che è più importante, ma ciò che è più esplosivo sul piano emotivo. Con il tempo, le persone iniziano a percepire la società come più ostile, più estrema e più polarizzata di quanto possa essere nella vita offline.
Una terza trappola è il rinforzo identitario. Se interagisci con contenuti che ti presentano come parte di un gruppo — tribù politica, stile di vita, “chi sa la verità”, “chi è sotto attacco” — il feed può intensificare quel frame. Funziona perché i contenuti legati all’identità “attaccano”: non sono solo informazioni, sono appartenenza. Nel 2025, molti creator progettano contenuti proprio per attivare la lealtà del gruppo, perché stabilizza la loro diffusione in una nicchia.
Molte persone immaginano la radicalizzazione come un evento improvviso: un video scioccante e poi il cambio totale. In realtà è graduale. La catena di raccomandazioni spesso parte da una curiosità leggera — un estratto di intervista, una clip che “mette in dubbio i media”, un post di auto-aiuto sulle “cause nascoste”. Poi passa a affermazioni più forti, presentate come semplici domande ma con implicazioni sempre più pesanti.
La pendenza funziona perché il sistema preferisce l’escalation. Se hai già visto la versione “morbida”, il prossimo gancio efficace è quella più tagliente. Se hai guardato un dibattito, potresti ricevere un video “smontaggio”. Se hai visto una spiegazione, potresti vedere una versione con tono complottista che sembra più “rivelatrice”. Ogni passaggio è abbastanza piccolo da sembrare ragionevole nel momento.
Nel 2025 questo è rafforzato da ecosistemi di creator. Influencer collaborano spesso tra nicchie vicine: benessere, finanza, contenuti sulla mascolinità, commento politico, intrattenimento “anti-establishment”. I motori di raccomandazione collegano questi network perché condividono schemi simili di pubblico. Il cambiamento di visione del mondo può avvenire senza che una persona cerchi mai contenuti estremi in modo diretto.

Usare i social non è la stessa cosa che esserne usati. Nel 2025, l’obiettivo realistico non è abbandonarli del tutto, ma ridurre l’esposizione automatica e ricostruire una scelta intenzionale. Il primo passo è riconoscere che il tuo feed non è uno specchio della società: è uno specchio di ciò che cattura la tua attenzione.
Un passo pratico è separare i feed di intrattenimento da quelli informativi. Ad esempio: usare TikTok o Instagram per contenuti leggeri, ma affidarsi a un’abitudine diversa per le notizie — visite dirette a fonti affidabili, RSS, newsletter, podcast con standard editoriali chiari. Più deleghi al feed “cosa conta oggi”, più la tua visione del mondo diventa un prodotto della logica dell’engagement.
Un altro passo è diversificare attivamente gli input. Segui fonti credibili con cui non sei completamente d’accordo, soprattutto quelle che argomentano con calma invece di provocare. Aggiungi prospettive internazionali. Crea liste su X, usa feed “Following” quando possibile e riduci la dipendenza da sezioni tipo “For You”. Sono cambiamenti piccoli, ma interrompono l’idea che il feed predefinito sia la realtà.
Inizia controllando i tuoi segnali. Se guardi spesso contenuti che non ti piacciono solo per arrabbiarti, stai insegnando al sistema che la rabbia è il tuo stato preferito. Se apri sempre i commenti, stai segnalando che il conflitto ti coinvolge. Se “hate-watch” dei creator, stai comunque addestrando il modello a mostrartene di più. Nel 2025, il sistema è indifferente alle motivazioni: legge solo il comportamento.
Usa i controlli interni in modo più deciso di quanto faccia la maggior parte delle persone: “Non mi interessa”, mute di parole chiave, nascondi argomenti, smetti di seguire account che ti trascinano in spirali emotive e limita le notifiche ai messaggi diretti invece che agli avvisi di tendenza. Anche una scelta semplice come disattivare l’autoplay può ridurre l’inerzia delle catene di raccomandazione.
Infine, crea punti di arresto intenzionali. Lo scroll infinito elimina il momento naturale della riflessione. Un tempo massimo, l’abitudine di chiudere l’app dopo aver letto un contenuto lungo o decidere uno scopo prima di aprire un social (“controllo i messaggi, non navigo”) può restituire controllo. La chiave non è la disciplina come punizione, ma la struttura come protezione: impedisce che la tua visione del mondo venga modellata da ciò che è più efficiente nel catturare attenzione.