A maioria das pessoas acredita que “escolhe” o que vê, lê e acredita na internet. Na prática, as redes sociais decidem cada vez mais o que chega até nós primeiro, o que se repete e o que desaparece. Em 2025, os feeds de recomendação já não são simples linhas cronológicas: são motores de previsão treinados para reter a atenção, e essa atenção segue uma direção. O resultado é uma transformação discreta na forma como entendemos a sociedade, a política, a saúde, as relações e até nós próprios.
Os feeds das redes sociais são classificados, não apenas “exibidos”. O For You do TikTok, o Explore do Instagram, as recomendações do YouTube e o feed do Facebook funcionam, em essência, com o mesmo princípio: selecionar conteúdos com maior probabilidade de provocar uma reação. O sistema não “compreende” a verdade ou a qualidade como um ser humano. Ele calcula probabilidades: o que faz alguém parar, rever, comentar, partilhar ou discutir.
Essa classificação cria uma realidade pessoal que parece natural, porque corresponde ao seu comportamento anterior. Se vir dois vídeos sobre um tema — tendências de fitness, um escândalo político, uma história de saúde mental — é provável que surjam rapidamente mais vinte, cada um ligeiramente mais emocional. O feed torna-se um ciclo: você reage, o sistema aprende e a sua próxima experiência fica mais estreita.
Em 2025, este efeito é reforçado por sinais cruzados entre formatos. Um simples deslizar rápido pode ser interpretado como sinal negativo, enquanto guardar ou rever indica alto valor. Muitas redes também registam padrões como duração da sessão, horários de uso e até a tendência para clicar em links externos. É por isso que duas pessoas podem pesquisar o mesmo assunto e obter perceções muito diferentes do que é “comum” ou “verdadeiro”.
O mecanismo mais subestimado é a repetição. Quando a mesma ideia aparece em formatos diferentes — vídeos curtos, memes, threads “explicativas”, reações — ela torna-se familiar. E a familiaridade, muitas vezes, soa a credibilidade, mesmo quando a afirmação é fraca. A mudança ocorre sem que a pessoa perceba, porque não chega como um único argumento convincente, mas como centenas de pequenas influências.
O envolvimento também favorece a certeza em vez da nuance. Um conteúdo calmo e fundamentado tende a gerar menos reação imediata do que uma opinião confiante e provocadora. Com o tempo, o feed fica enviesado para conteúdos emocionalmente eficientes: indignação, medo, humor tribal e “opiniões” simplificadas. Isso não é um defeito moral do utilizador; é um resultado previsível de sistemas que tratam a atenção como sucesso.
Quando você interage com algo que confirma a sua visão, o sistema interpreta isso como “satisfação”. É assim que o envolvimento se transforma em crença: não porque você decide conscientemente, mas porque o ambiente fica saturado por uma única direção de interpretação. Quando pontos de vista opostos aparecem, muitas vezes surgem distorcidos, feitos para gerar conflito e não compreensão.
Uma das armadilhas mais conhecidas é a “bolha de filtro”, mas em 2025 ela é mais complexa do que as primeiras descrições sugeriam. Não se trata apenas de mostrar o que você gosta, mas o que o mantém a assistir. Isso pode incluir conteúdos de que você não gosta, que o chocam ou que o deixam ansioso. O objetivo não é conforto; é retenção.
Outra armadilha é o ciclo da indignação. Muitas redes aprenderam que a raiva gera envolvimento rápido. Um único clipe inflamatório pode espalhar-se mais depressa do que uma investigação cuidadosa, porque provoca reação instantânea. Isso influencia o debate público: os assuntos que se tornam virais nem sempre são os mais importantes, mas sim os mais explosivos emocionalmente. Com o tempo, as pessoas passam a sentir que a sociedade é mais hostil, extrema e polarizada do que pode ser fora do ecrã.
Uma terceira armadilha é o reforço de identidade. Se você interage com conteúdos que o enquadram como parte de um grupo — uma tribo política, um estilo de vida, “quem sabe a verdade”, “quem está sob ataque” — o feed intensifica essa narrativa. Isso é poderoso porque conteúdos ligados à identidade criam vínculo: não são só informação, são pertença. Em 2025, muitos criadores desenham conteúdos para ativar lealdade de grupo, porque isso estabiliza o alcance dentro de um nicho.
Muita gente imagina a radicalização como algo repentino: um vídeo chocante e a pessoa muda. Na prática, é gradual. A cadeia de recomendações costuma começar com curiosidade leve — um excerto de entrevista, um vídeo que “questiona a narrativa dominante”, ou um post de autoajuda sobre “causas escondidas”. Depois avança para afirmações mais fortes, apresentadas como “só perguntas”, mas com implicações cada vez maiores.
A inclinação funciona porque o sistema prefere escalada. Se você já viu a versão leve, o próximo estímulo eficaz costuma ser a versão mais intensa. Se viu um debate, pode receber um vídeo de ataque. Se viu uma explicação, pode receber uma versão com tom conspirativo que parece mais “reveladora”. Cada passo é pequeno o suficiente para parecer razoável no momento.
Em 2025, isso é reforçado por ecossistemas de criadores. Influenciadores colaboram entre nichos próximos — bem-estar, finanças, conteúdos sobre masculinidade, comentário político, entretenimento anti-sistema. Os motores de recomendação ligam essas redes porque partilham padrões de audiência. Assim, a mudança de visão do mundo pode acontecer sem que a pessoa procure material extremo diretamente.

Há diferença entre usar redes sociais e ser usado por elas. Em 2025, o objetivo realista não é abandonar tudo, mas reduzir a exposição automática e reconstruir escolhas intencionais. Isso começa por reconhecer que o seu feed não é um espelho da sociedade — é um espelho do que prende a sua atenção.
Um passo prático é separar feeds de entretenimento e fontes de informação. Por exemplo: usar TikTok ou Instagram para conteúdo leve, mas construir outro hábito para notícias — visitas diretas a meios de confiança, RSS, newsletters e podcasts com padrões editoriais claros. Quanto mais você delega “o que importa hoje” a um feed classificado, mais a sua visão do mundo vira produto da lógica de envolvimento.
Outro passo é diversificar conscientemente a entrada de informação. Seguir fontes credíveis com as quais você nem sempre concorda, especialmente aquelas que argumentam com cuidado em vez de provocar. Adicionar perspetivas internacionais. Criar listas no X, usar feeds de “Seguindo” quando disponíveis e reduzir dependência de recomendações automáticas. Mudanças pequenas quebram a ideia de que o feed padrão é a realidade.
Comece por analisar os seus próprios sinais. Se você assiste conteúdos que odeia apenas para sentir raiva, está a ensinar ao sistema que a raiva é o seu estado preferido. Se entra sempre nos comentários, está a indicar que conflito é envolvente. Se faz “hate-watch” de criadores, continua a treinar o modelo para entregar mais desse conteúdo. Em 2025, o sistema é indiferente aos seus motivos — ele lê apenas comportamento.
Use os controlos internos de forma mais firme do que a maioria das pessoas: “Não tenho interesse”, silenciar palavras-chave, ocultar tópicos, deixar de seguir contas que o puxam para espirais emocionais e limitar notificações a mensagens diretas em vez de alertas de tendências. Até medidas simples como desligar autoplay reduzem o impulso das cadeias de recomendação.
Por fim, crie pontos de paragem deliberados. O scroll infinito elimina o momento natural de refletir. Um limite de tempo, o hábito de fechar a aplicação após ler um conteúdo longo, ou abrir uma rede com um objetivo definido (“vou ver mensagens, não navegar”) ajuda a recuperar controlo. O essencial não é disciplina como punição, mas estrutura como proteção: impede que a sua visão do mundo seja moldada pelo conteúdo mais eficiente em capturar atenção.