TL;DR
- 51% de todo o tráfego web em 2024 foi automatizado. Pela primeira vez na história, bots superaram humanos.
- O problema não é só criação de conteúdo falso. Bots amplificam conteúdo existente, distorcendo a percepção de escala e importância.
- Ao mesmo tempo, humanos se autocensuram nas redes. O que resta para analisar não é nem bot puro nem humano autêntico, é um híbrido distorcido.
- Surveys online quadruplicaram desde 2015, mas respostas válidas caíram de 75% para 10% em alguns estudos. O social listening precisa de camadas adicionais de validação.
A Premissa Que Deixou de Existir
O social listening foi construído sobre uma premissa simples: posts em redes sociais representam opiniões humanas reais. Você coleta menções, analisa sentimento, identifica tendências, e tem um retrato do que as pessoas pensam sobre sua marca.
Essa premissa está cada vez mais difícil de sustentar.
O Imperva Bad Bot Report de 2025 trouxe um dado que deveria alarmar todo profissional de pesquisa: 51% de todo o tráfego web em 2024 foi automatizado. Pela primeira vez na história da internet, bots superaram humanos. E não foi por pouco.
A porcentagem de "bad bots", aqueles com intenções maliciosas ou manipuladoras, chegou a 32% do tráfego total, marcando o quinto ano consecutivo de aumento. Em setores específicos, a distorção é ainda maior: no varejo, 59% do tráfego vem de bad bots. Em turismo, 41%.
O Caso Cracker Barrel
Em novembro de 2025, a Marketing Brew publicou uma reportagem com um título provocativo: "Will bots end social listening as we know it?" O artigo documentava casos recentes de marcas que tomaram decisões baseadas em dados de social media que eram, ao menos parcialmente, fabricados ou amplificados artificialmente.
O caso mais emblemático era o do Cracker Barrel, a rede americana de restaurantes country. A empresa lançou um rebrand e enfrentou uma onda de críticas nas redes sociais. O feedback negativo foi tão intenso que a empresa recuou, ajustando a estratégia em resposta ao que parecia ser uma rejeição clara do público.
O problema: análises posteriores indicaram que a onda de críticas foi desproporcialmente amplificada por bots. A reação orgânica real era significativamente menor do que os números brutos sugeriam.
Caso American Eagle
A campanha com Sydney Sweeney foi analisada pela PeakMetrics. Resultado: 44% dos posts negativos e 36% dos posts positivos vieram de prováveis bots. O sentimento "real" era impossível de determinar com precisão.
Molly Dwyer, diretora de insights da PeakMetrics, explicou à Marketing Brew o problema central:
"More of the content that we're seeing is not necessarily created by bots, but is being amplified by bots. That's messing with our sense of reality and what matters."
— Molly Dwyer, Director of Insights, PeakMetrics
O ponto crucial: bots não apenas criam conteúdo falso. Eles amplificam conteúdo existente, distorcendo a percepção de escala. Uma reclamação real de 100 pessoas pode parecer uma revolta de 10.000 se bots decidirem amplificá-la.
O X Não É Mais Real
O antigo Twitter, agora X, sempre foi a plataforma preferida para social listening em tempo real. É onde crises estouram primeiro, onde tendências se formam, onde a conversação pública acontece.
Segundo análise da 5th Column AI, aproximadamente 64% das contas analisadas na plataforma são potencialmente bots. A metodologia analisou 1,269 milhão de contas. Outras estimativas, citadas em discussões no Reddit, variam de 12% a 80%, dependendo da metodologia. O próprio Elon Musk, antes de comprar a plataforma, estimava cerca de 20% de contas falsas.
Um especialista da F5, em entrevista sobre o tema, considerou plausível que mais de 80% das contas sejam falsas quando se considera o ecossistema completo de bots dormentes, contas abandonadas e operações automatizadas.
Chris Hackney, CPO da Meltwater, uma das principais plataformas de social listening do mundo, descreveu para a Marketing Brew como sua equipe identifica atividade coordenada de bots:
"It's like watching birds in the sky, flying in a flock. Suddenly you see a whole bunch of activity on newer accounts or less responsive accounts, typically all on one subject."
— Chris Hackney, CPO, Meltwater
O Duplo Problema
O social listening enfrenta agora um duplo problema que torna os dados cada vez menos confiáveis.
Problema 1: Dados poluídos por bots. A atividade automatizada distorce volumes, sentimentos e tendências. Um trending topic pode ser artificial. Uma crise pode ser fabricada. Um elogio pode ser orquestrado.
Problema 2: Humanos se autocensurando. Como documentei no artigo anterior, pessoas estão modificando sua forma de se expressar online. Medo de parecer IA, vigilância algorítmica, cultura performativa. A linguagem está encolhendo. O que as pessoas postam publicamente não reflete mais o que realmente pensam.
O Social Juice capturou esse fenômeno com precisão:
"The other issue is what we discussed earlier, people holding back their thoughts because of the performative nature of the internet and the ongoing flood of low quality AI content. Audience feedback that is not one to one should be treated with caution."
— The Social Juice, 2026
O resultado desse duplo problema: o que resta para analisar não representa nem bots puros nem humanos autênticos. É um híbrido distorcido. Um espelho quebrado que mostra uma versão deformada da realidade.
O Colapso da Pesquisa Online
O problema não se limita a redes sociais. Pesquisas online, surveys, formulários de feedback, estão todos sob ataque.
Segundo estudo publicado na Nature em 2024, o uso de surveys online quadruplicou de 2015 a 2024. Ao mesmo tempo, a qualidade das respostas despencou. Um estudo do PMC sobre fraude em pesquisas documentou declínio de respostas utilizáveis de 75% para 10% em anos recentes.
Outro exemplo extremo: um estudo sobre um app de redução de álcool descobriu que 75,6% dos respondentes eram bots. Três quartos da amostra eram máquinas fingindo ser humanos com problemas de alcoolismo.
Pesquisadores da Dartmouth calcularam que apenas 10 a 52 respostas falsas são suficientes para inverter o resultado de uma pesquisa eleitoral típica. A margem de manipulação é assustadoramente pequena.
A ScienceDirect publicou pesquisa mostrando que bots LLM (Large Language Models) "preferem" comportamentos indesejáveis, distorcendo resultados de pesquisas comportamentais. Quando você pergunta a um bot se ele faria algo antiético, ele tende a dizer que sim, porque modelos de linguagem não têm o filtro social humano.
Os Casos Que Deveriam Preocupar
A Marketing Brew documentou vários casos de marcas afetadas por atividade coordenada de bots:
- McDonald's: Ataques de bots rastreados pela PeakMetrics em 2025
- Boeing: Amplificação artificial de narrativas negativas durante crises
- PGA: Bots interferindo em discussões sobre fusão com LIV Golf
- Tylenol: Após anúncio relacionado a Trump, 93% da atividade de bots foi repost de conteúdo existente, não criação original
Avery Akkineni, CMO da VaynerX, capturou o dilema prático enfrentado por marcas:
"Part of this is fake, but also part of this is real, and we need to take these comments seriously."
— Avery Akkineni, CMO, VaynerX
O problema não é que tudo seja falso. É que você não sabe mais o que é real. E essa incerteza contamina toda a tomada de decisão.
O Que as Plataformas Não Estão Fazendo
Pesquisadores da Notre Dame publicaram estudo avaliando como plataformas sociais combatem bots maliciosos. A conclusão foi dura: "None of the eight social media platforms tested are providing sufficient protection and monitoring to keep users safe from malicious bot activity."
Nenhuma das oito plataformas testadas oferece proteção suficiente. Nenhuma.
Pesquisadores da Washington University descreveram a situação como uma corrida armamentista sem fim previsível: "It's a cat and mouse game. As creators change their programs, we have to look for other features we can use to find them."
A Nature Scientific Reports publicou comparação global de características de bots versus humanos. A conclusão: bots estão ficando melhores em evitar detecção. A cada mês que passa, a distinção fica mais difícil.
O Que Resta de Confiável
Se o social listening tradicional está comprometido, o que funciona?
1. First-party data. Dados coletados diretamente, em canais controlados. SAC, pesquisas pós-compra, comunidades fechadas. A Zappi documentou como marcas líderes estão priorizando coleta direta sobre dados de terceiros.
2. Combinação de métodos. Michelle Spigner, da Mother LA, explicou à Marketing Brew que agências estão trabalhando com múltiplas camadas de validação: plataformas de narrative intelligence (como PeakMetrics e Cyabra) combinadas com brand sentiment studies, consumer polls e focus groups tradicionais.
3. Comunidades verificadas. Grupos fechados com identidade verificada. Menos escala, mais confiabilidade. O oposto do social listening massivo, mas talvez a única forma de garantir que você está ouvindo humanos.
4. O retorno ao presencial. Focus groups tradicionais. Entrevistas em profundidade. O que a indústria de pesquisa chama, com certo humor, de "touch grass". Pisar na grama. Sair do digital.
Molly Dwyer, da PeakMetrics, observou:
"People are craving human contact and human interaction to get a sense of what's real, and I think that brands are going to choose to do that as well."
— Molly Dwyer, Director of Insights, PeakMetrics
A Evolução Necessária
O social listening não vai desaparecer. Mas precisa evoluir. Segundo o Influencer Marketing Hub, 13% dos líderes de social media fizeram do social listening prioridade máxima no final de 2024, com orçamentos crescentes. E 82% dos profissionais de marketing consideram social listening essencial para planejamento.
A demanda existe. O que precisa mudar é a metodologia.
A Brand24 escreveu: "Social listening is evolving from a traditional brand monitoring tool into a strategic driver of visibility in the age of AI." O desafio é que essa evolução exige investimento em filtros, validação cruzada e, crucialmente, ceticismo sobre os próprios dados.
Chris Hackney, da Meltwater, prevê que consumidores vão "boomerang back to trusted sources", criadores verificados e contas oficiais de marcas. Se isso acontecer, o social listening precisará se concentrar em círculos menores, mais verificáveis, mais humanos.
A Postura Necessária
Nina Ruhe, da EP+Co, ofereceu o conselho mais prático para marcas navegando esse cenário:
"Your best defense is a good offense. Whether you're an agency or a brand, whatever you put out there, have a team that is ready with a response for quite literally anything."
— Nina Ruhe, Group Strategy Director, EP+Co
A postura não pode mais ser passiva. Monitorar não basta. É preciso questionar cada métrica, validar cada tendência, triangular cada insight com fontes independentes.
O Social Juice resumiu a implicação para marcas:
"Brands need to invest more time in creating online and offline environments where people feel comfortable speaking naturally."
— The Social Juice, 2026
O problema não é apenas filtrar bots. É criar espaços onde humanos queiram falar com honestidade. Onde a autocensura diminua. Onde a performance dê lugar à autenticidade.
Isso é muito mais difícil do que configurar uma ferramenta de monitoramento. Mas talvez seja a única forma de recuperar a premissa fundamental que fez o social listening valer a pena: a ideia de que você está ouvindo pessoas reais, falando o que realmente pensam.
Referências
- Imperva (2025). "2025 Imperva Bad Bot Report". Imperva
- Imperva (2024). "Five Key Takeaways from the 2024 Bad Bot Report". Imperva
- Thales/Imperva (2025). "2025 Imperva Bad Bot Report Press Release". Thales
- Cyber Risk Leaders (2025). "Thales Report: AI Behind Bad Bot Development". Cyber Risk Leaders
- Marketing Brew (2025). "Will Bots End Social Listening As We Know It?". Marketing Brew
- 5th Column AI (2025). "Bots on X.com". Internet 2.0
- F5 (2025). "Bot Traffic Percentage and Fake Accounts: Expert Analysis". F5
- The Social Juice (2026). "The Brand Savior Complex". Substack
- Nature (2024). "The Rise of Online Surveys". Nature
- PMC (2024). "AI-Powered Fraud and Survey Integrity". PMC
- Centre for Evidence (2025). "Bots Interference in Research". Centre for Evidence
- Study Finds (2025). "The AI Scam That Could Threaten Public Opinion Research". Study Finds
- ScienceDirect (2025). "LLM Bots and Behavioral Research Distortion". ScienceDirect
- Notre Dame News (2025). "Social Media Platforms Aren't Doing Enough to Stop Harmful AI Bots". Notre Dame
- Washington University (2025). "Are Bots Winning the War to Control Social Media?". WashU
- Nature Scientific Reports (2025). "Global Bot vs Human Comparison". Nature
- Zappi (2025). "Consumer Insights Are Changing Fast". Zappi
- Influencer Marketing Hub (2025). "Social Media Listening Report". IMH
- Brand24 (2025). "What Is Social Listening". Brand24
- Hootsuite (2025). "AI Social Listening". Hootsuite
- Sprinklr (2025). "Social Listening Guide". Sprinklr
- The SI Lab (2025). "State of Social Listening". SI Lab
- JMIR (2020). "Threats of Bots to Research Data Quality". JMIR
- PMC (2023). "Bot Interference in Online Research". PMC
- PMC (2024). "Survey Fraud Detection Strategies". PMC
- Wikipedia (2024). "Dead Internet Theory". Wikipedia
- Galaxy Research (2025). "Dead Internet Theory: Collapse of Online Truth". Galaxy
- The Loop ECPR (2025). "Dead Internet Theory and Synthetic Politics". ECPR
- Time (2025). "Sam Altman on Dead Internet Theory". Time
- The Guardian (2024). "AI Bots and Dead Internet Theory". The Guardian
- ClickGuard (2022). "Twitter Spam Bots Analysis". ClickGuard
- SpiderAF (2025). "Social Media Bots: How to Protect Your Brand". SpiderAF
- Greenbook (2025). "Online Survey Frauds in Market Research". Greenbook
- BMJ Open Quality (2025). "Survey Quality and Bot Interference". BMJ
- Research Shield (2025). "How to Combat Survey Bots". Research Shield
- TGM Research (2025). "AI in Survey Fraud Detection". TGM Research