top of page

Como bolhas de filtro moldam o marketing político

  • Foto do escritor: Sunê
    Sunê
  • 26 de nov.
  • 5 min de leitura
Durante anos, consolidou-se a ideia de que as plataformas digitais criam bolhas de filtro que isolam indivíduos, reforçam vieses e radicalizam comportamentos políticos. A tese ganhou apelo no debate público porque oferece um culpado simples: “o algoritmo”. Essa narrativa é conveniente, mas incorreta. Quando se observa a literatura científica, os dados das próprias plataformas e os padrões de consumo de informação no Brasil e no exterior, surge uma conclusão mais sóbria: a bolha começa no usuário, não no sistema. O algoritmo só acelera um movimento que já estava em andamento muito antes da tecnologia se tornar central no cotidiano.

Esse ponto raramente aparece nas discussões porque exige admitir que o isolamento informacional não é um acidente técnico, mas uma escolha humana. A psicologia social reconhece esse comportamento há décadas. Em 1957, Leon Festinger formulou o conceito de viés de confirmação, descrevendo a tendência de indivíduos buscarem conteúdos que validam crenças prévias e evitarem aquilo que produz desconforto cognitivo. A teoria nasceu quase meio século antes de qualquer rede social operar um sistema de recomendação. Isso significa que a preferência por ambientes homogêneos, coerentes e confortáveis é anterior à lógica algorítmica. A tecnologia apenas automatizou o que as pessoas já faziam manualmente.

bolha de filtro
As bolhas de filtro não são um fenômeno tão moderno assim


Essa hipótese (de que a bolha é consequência do comportamento, não da plataforma) vem sendo reforçada por pesquisas empíricas robustas. Em 2015, uma análise conduzida pelo Facebook Research com mais de 10 milhões de usuários revelou que cerca de 30% da filtragem ideológica ocorre antes de qualquer intervenção algorítmica. O principal fator responsável pela homogeneização do feed era a própria rede de conexões escolhida pelos usuários: quem seguiam, com quem interagiam, quais páginas acompanhavam. O algoritmo reforçava o padrão, mas não era o ponto de origem. Resultados semelhantes apareceram em estudos do MIT em 2018, que mostraram que, mesmo diante de conteúdos politicamente divergentes, usuários não se engajavam, ignorando material contrário às suas visões. Em outras palavras, a exposição existe; o consumo é que não ocorre.

No Brasil, pesquisas recentes reforçam essa leitura. O Reuters Digital News Report de 2023 apontou o país como uma das nações com maior nível de “seleção ativa de fontes compatíveis com crenças prévias”. Além disso, 62% dos brasileiros afirmam evitar notícias que “irritam ou estressam”. A rejeição antecipada já funciona como filtro, com ou sem algoritmo. Isso explica por que ambientes sem feed, como o WhatsApp, formam bolhas rígidas. Monitoramentos da UFMG, FGV e IBPAD mostram que grupos políticos ou temáticos nesse aplicativo não se tornam homogêneos por força algorítmica, mas por auto-seleção: os integrantes adicionam apenas pessoas com visões similares. Se a plataforma não usa recomendação automatizada e ainda assim forma bolhas, o problema não está na máquina.

Comportamento humano é o terreno original onde a bolha se forma. O algoritmo é a infraestrutura que acelera o processo. Essa distinção é fundamental porque ressignifica o papel da tecnologia. Ela não é a arquiteta da polarização; é o amplificador de padrões que já existem. Para entender esse mecanismo, basta observar como sistemas de recomendação funcionam. Independente da plataforma, a lógica é otimizar três métricas: probabilidade de clique, tempo de permanência e chance de retorno. São objetivos comerciais, não ideológicos. Quando um usuário apresenta dezenas de sinais comportamentais alinhados (curtidas, comentários, tempo de tela, repetição de temas) o sistema retorna mais conteúdos semelhantes. É uma resposta simplesmente estatística.

Pesquisas independentes mostram a mesma dinâmica. Em 2021, um relatório da Mozilla analisou o YouTube e concluiu que recomendações consideradas extremas ou altamente polarizadas só apareciam após interações repetidas do usuário. A sequência comportamental vinha primeiro. Em testes de campo com contas novas no TikTok no Brasil, a formação de bolhas também não era imediata. As recomendações só se tornavam altamente segmentadas após oito a quinze interações claras dentro de um mesmo tema. Esses padrões reforçam a hipótese do espelho: a plataforma devolve ao usuário o que ele demonstra preferir.

Esse ciclo cria uma estrutura previsível: usuários evitam conteúdos dissonantes; as plataformas identificam esse comportamento; a lógica algorítmica otimiza a entrega para maximizar engajamento; o usuário interpreta a repetição como “acerto” do feed; e o comportamento se intensifica. A bolha surge dessa sobreposição entre preferências cognitivas e incentivos matemáticos. Não é uma parede rígida criada artificialmente. É uma área de reforço formada na fronteira entre psicologia e tecnologia. A explicação é menos espetacular do que a versão popular, mas muito mais precisa.

O impacto desse processo aparece de forma clara em momentos de alta tensão social. Nas eleições americanas de 2020, análises do New York Times mostraram que a sobreposição de páginas consumidas por apoiadores de Trump e Biden no Facebook era inferior a 5%. A leitura superficial sugeriria manipulação algorítmica. Só que a comparação histórica mostrava que essa baixa sobreposição já existia antes do ciclo eleitoral. O comportamento de busca seletiva antecedia a campanha. O mesmo ocorreu no Brasil em 2018 e 2022, quando grupos de WhatsApp se tornaram ambientes de circulação homogênea de conteúdo político. Sem feed, sem recomendação e sem curadoria automática, o isolamento informacional permaneceu. A explicação não está na tecnologia, mas no comportamento social.

Esse ponto é crucial para quem trabalha com marketing político e comunicação estratégica. Muitas campanhas operam sob a suposição de que basta aumentar volume, frequência ou alcance para “furar a bolha”. Só que, se a bolha é comportamento, ampliar o volume apenas reforça a rejeição. A ideia de que mensagens massivas atravessam ambientes ideológicos fechados é mais mito do que estratégia. Quando um indivíduo evita informações dissonantes por proteção cognitiva, a expansão de alcance falha porque o filtro está na recepção, não na distribuição.

A consequência prática disso é clara: campanhas que tentam “falar com todos” acabam falando com quase ninguém. Estratégias que assumem que o algoritmo pode ser forçado a entregar mensagens para públicos frios ignoram o funcionamento básico das plataformas. A disputa política, assim como a disputa comercial, depende de mapear brechas: os pontos de porosidade do comportamento. As pessoas não mudam de opinião diante de choque direto, mas respondem a informações que transitam em áreas de baixa fricção cognitiva, onde a mensagem é percebida como familiar o suficiente para ser tolerada, mas nova o bastante para causar microajustes de percepção.

Ao reconhecer que a bolha não é um artefato técnico, mas uma estrutura comportamental amplificada por sistemas matemáticos, o debate se torna menos moralista e mais pragmático. Plataformas não são entidades ideológicas e não operam com a intenção de radicalizar; operam para reter atenção. E indivíduos não são agentes passivos arrastados por algoritmos; fazem escolhas que antecedem a mediação tecnológica. As bolhas são resultado da interação entre esses dois vetores.

A discussão pública tende a buscar culpados e soluções simplistas. “Regular o algoritmo”, “limitar o alcance”, “reduzir recomendação” viram propostas intuitivas, mas ineficazes. O que muda o cenário não é reescrever a arquitetura tecnológica, mas compreender e trabalhar com o comportamento humano que a sustenta. A atenção, a crença, a adesão e a rejeição se organizam a partir de tensões internas do usuário. Plataformas apenas replicam isso em escala. A política, o marketing e a comunicação precisam incorporar essa realidade se quiserem operar com eficiência. Estratégias que ignoram o elemento humano e culpam exclusivamente a máquina permanecem presas a diagnósticos errados.
bottom of page