TL;DR
- 54% dos posts longos no LinkedIn são provavelmente gerados por IA. Posts detectados como AI recebem 45% menos engajamento.
- Palavras como "delve", "meticulous", "tapestry" e "navigate" aumentaram até 51% após o lançamento do ChatGPT, segundo o Max Planck Institute.
- O problema real não é quem usa IA. É a suspeita generalizada: humanos estão se autocensurando, evitando palavras e formas de expressão com medo de parecerem robôs.
- A atmosfera de policiamento mútuo corrói a autenticidade mais do que a própria IA. Marcas que querem diferenciação precisam abraçar os "defeitos" humanos.
A Palavra Que Virou Sinal de Alarme
Em junho de 2025, a The Verge publicou uma reportagem com um título que resumia um fenômeno cultural emergente: "You Sound Like ChatGPT". A jornalista Sarah Parker documentou como a linguagem cotidiana estava mudando em função de um modelo de IA.
A reportagem citava uma pesquisa do Max Planck Institute for Human Development que analisou cerca de 280.000 vídeos de canais acadêmicos no YouTube. O resultado: palavras favoritas do ChatGPT, como "meticulous", "delve", "realm" e "adept", aumentaram até 51% após o lançamento do modelo. A palavra "delve", especificamente, tornou-se o maior "shibboleth" da era da IA, uma senha involuntária que sinaliza: isto foi escrito por uma máquina.
"'Delve' has become an academic shibboleth, a neon sign in the middle of every conversation flashing ChatGPT was here."
— Sarah Parker, The Verge, Junho 2025
Adam Aleksic, linguista e criador de conteúdo conhecido como "Etymology Nerd", foi além. Em seu TED Talk de dezembro de 2025, ele documentou um aumento de 2.000% na palavra "delve" em papers acadêmicos nos últimos três anos. O padrão era inconfundível: não era evolução orgânica da língua. Era contaminação.
O Vocabulário da Máquina
Em discussões no Reddit e em análises de plataformas como Originality.AI, uma lista de "AI tells" começou a circular. Palavras e padrões que denunciam texto gerado por IA:
- Delve: o maior indicador de todos
- Tapestry: "a tapestry of ideas"
- Navigate/Navigating: "navigating the landscape"
- Meticulous/Meticulously
- Realm: "in the realm of"
- Journey e Embark
- Underscore e Leverage
- Comprehensive e Nuanced
- Landscape: "in the ever-evolving landscape of..."
Além do vocabulário, padrões estruturais também delatam. Segundo análises em fóruns especializados, o ChatGPT usa travessões (em-dashes) de 3 a 5 vezes mais por 100 palavras do que textos humanos. Frases tipo "It's not about X, it's about Y" aparecem com frequência suspeita. Listas numeradas e estruturadas demais. Tom formal demais para contextos informais. Ausência de gírias, regionalismos e, crucialmente, ausência de erros.
A Invasão do LinkedIn
Em outubro de 2024, a Originality.AI publicou um estudo que analisou 8.795 posts públicos do LinkedIn entre janeiro de 2018 e outubro de 2024. Os números eram contundentes:
- 54% dos posts longos no LinkedIn são provavelmente gerados por IA
- 189% de aumento em posts detectados como IA após o lançamento do ChatGPT
- 107% de aumento no tamanho médio dos posts desde o ChatGPT
- Posts detectados como AI recebem 45% menos engajamento
A pesquisadora independente Kiara Stent, citada pelo The Social Juice, fez uma análise manual mais qualitativa. Examinou aproximadamente 200 posts de 50 perfis diferentes no LinkedIn. Sua avaliação: cerca de 75% pareciam ser gerados por inteligência artificial.
O CEO que Vê Fantasmas
Em setembro de 2025, Sam Altman, CEO da OpenAI, fez uma série de posts no X que viralizaram. Comentando sobre a qualidade decrescente das interações online, ele admitiu publicamente:
"I assume it's all fake/bots, even though in this case, I know codex growth is really strong and the trend here is real."
— Sam Altman, CEO da OpenAI, Setembro 2025
Em outro post, ele foi ainda mais direto: "The net effect is somehow AI twitter/AI reddit feels very fake in a way it really didn't a year or two ago." E completou: "I never took the dead internet theory that seriously but it seems like there are really a lot of LLM-run twitter accounts now."
O criador do ChatGPT estava, essencialmente, admitindo que sua criação tinha tornado a internet menos legível, menos confiável, menos humana. E que ele próprio, ao consumir conteúdo online, agora assumia por padrão que tudo era falso.
A Internet Morta
A "Dead Internet Theory", que até pouco tempo atrás era considerada conspiração paranoica, ganhou credibilidade nos círculos mainstream. O relatório Imperva Bad Bot Report de 2025 confirmou que 51% de todo o tráfego web em 2024 foi automatizado. Pela primeira vez na história, bots superaram humanos.
Segundo análise da Galaxy Research, 14,1% dos seguidores em redes sociais são bots ou contas inativas. Para contas com mais de 1 milhão de seguidores, esse número sobe para 23%. A Originality.AI reportou que conteúdo detectado como IA nos 20 primeiros resultados orgânicos do Google subiu de 2,27% para 17,31% até setembro de 2025.
O Guardian publicou uma matéria assustadora: a internet está se tornando uma máquina de gerar conteúdo para ser consumido por outras máquinas. E humanos estão ficando cada vez mais invisíveis nesse ecossistema.
A Suspeita é Pior que o Crime
Aqui está o insight crucial, extraído de uma pesquisa da Cornell University: não é o uso real de IA que corrói a confiança. É a suspeita.
O estudo examinou o uso de "smart replies", respostas automáticas sugeridas por IA. Descobriu que o uso dessas respostas aumentava a cooperação e a linguagem positiva na comunicação. Mas quando o interlocutor acreditava que o outro lado estava usando IA, a avaliação era significativamente mais negativa. A pessoa era vista como menos colaborativa, menos autêntica, menos confiável.
A conclusão devastadora: "It wasn't actual AI usage that turned them off. It was the suspicion of it."
O Social Juice, newsletter especializada em marketing, capturou esse fenômeno com precisão:
"Comments accusing random people of using AI are more likely to create an atmosphere of fear for the public than companies actually pushing AI-generated content. We risk getting stuck in another cycle of policing one another."
— The Social Juice, 2026
Os Três Sinais Humanos Que Estamos Perdendo
Mor Naaman, professor da Cornell Tech, ofereceu um framework útil para entender o que está em jogo. Em entrevista à The Verge, ele identificou três níveis de "sinais humanos" que estão sendo corroídos pela adoção massiva de IA:
1. Sinais de humanidade básica. Vulnerabilidade, rituais pessoais, as pequenas imperfeições que comunicam: "Isso sou eu, sou humano". Quando lemos um texto com um erro de digitação ou uma construção gramatical inusitada, inconscientemente registramos: uma pessoa real escreveu isso.
2. Sinais de atenção e esforço. A prova de que alguém se importou o bastante para escrever aquilo pessoalmente. Quando você recebe uma mensagem de aniversário genérica, mesmo que seja bem escrita, você sabe que foi copia-cola. A IA escalou esse problema para toda a comunicação.
3. Sinais de habilidade. Senso de humor, competência técnica, a personalidade única de cada escritor. Naaman pergunta: "Even on dating sites, what does it mean to be funny on your profile or in chat anymore where we know that AI can be funny for you?"
O que está em jogo não é apenas vocabulário. É toda a arquitetura de sinais que usamos para avaliar autenticidade, esforço e caráter.
A Homogeneização da Língua
Pesquisadores da UC Berkeley publicaram um estudo mostrando que IAs respondem com estereótipos quando expostas a dialetos diferentes do inglês americano padrão. Exageram sotaques de forma constrangedora. Perpetuam a ideia de que existe um "inglês correto".
Hiromu Yakura, pesquisador do Max Planck Institute, observou: "We internalize this virtual vocabulary into daily communication." A IA está criando uma "língua franca digital" que privilegia inglês americano padrão, elimina regionalismos e idiossincrasias, e remove os "defeitos" que nos tornam humanos.
A ironia é amarga: uma tecnologia que prometia democratizar a escrita está, na prática, padronizando-a. A escrita está ficando mais "correta" e mais genérica. Mais fluente e menos interessante. Mais polida e menos humana.
O Ciclo Vicioso da Autocensura
O ciclo que está se formando é preocupante:
- IA produz conteúdo com padrões linguísticos específicos
- Humanos absorvem inconscientemente esses padrões
- Detectores de IA marcam humanos como máquinas
- Humanos começam a evitar palavras "suspeitas"
- A linguagem fica cada vez mais restrita
Já existem guias no Reddit ensinando pessoas a "não soar como ChatGPT". Escritores profissionais relatam revisar seus textos para remover palavras que poderiam acionar detectores. Estudantes universitários têm medo de usar certos termos em suas dissertações.
A linguagem está encolhendo. E o medo de parecer máquina está nos tornando menos expressivos, não mais.
A Autenticidade Como Ativo Estratégico
Para marcas, as implicações são profundas. A ANA (Association of National Advertisers) elegeu "Authenticity" como palavra do ano em marketing em 2025. Não por acaso.
Segundo pesquisa da ThoughtLab/Smythos, 73% dos consumidores conseguem identificar e rejeitar conteúdo de marketing gerado por IA. A KoInsights documentou o que chamou de "authenticity premium": consumidores pagam mais por produtos e serviços de marcas que percebem como genuínas.
Chris Best, CEO do Substack, capturou o dilema: "We're going to live in a world where you could have a bunch of AI slop that keeps dumb people clicking." O desafio para marcas é se diferenciar do "AI slop", do lodo genérico de conteúdo automatizado.
O Que Fazer Com Isso
A resposta não é abandonar IA. Isso seria ingênuo e impraticável. A resposta é repensar o papel da autenticidade na comunicação.
Para profissionais de comunicação:
- Abraçar os "defeitos" humanos. Regionalismos, gírias, construções inusitadas, opiniões fortes. Os elementos que IA tem dificuldade de replicar são exatamente os que comunicam humanidade.
- Investir em voz autoral. Quanto mais padronizado fica o conteúdo automatizado, mais valor tem uma voz reconhecível e consistente.
- Aceitar que o esforço é o sinal. Se algo parece fácil demais, provavelmente parece automatizado. O valor está no que claramente exigiu trabalho.
Para marcas:
- A autenticidade virou diferencial competitivo. Enquanto concorrentes automatizam comunicação, marcas que investem em voz humana se destacam.
- Cuidado com a "perfeição suspeita". Comunicação perfeita demais levanta desconfiança. Às vezes, a imperfeição é a prova de que é real.
- Criar espaços para fala natural. Como sugeriu o Social Juice: "Brands need to invest more time in creating online and offline environments where people feel comfortable speaking naturally."
Para todos nós:
Resistir à tentação de policiar os outros. A atmosfera de suspeita é mais tóxica do que o uso real de IA. Acusar estranhos na internet de usar ChatGPT não torna a internet mais humana. Apenas amplifica o medo.
E talvez, só talvez, voltar a usar a palavra "delve" de vez em quando. Só para provar que podemos.
Referências
- Parker, S. (2025). "You Sound Like ChatGPT". The Verge
- Brinkmann, L. et al. (2024). "ChatGPT's Linguistic Impact on YouTube Academic Channels". Max Planck Institute / arXiv
- Aleksic, A. (2025). "Why Are People Starting to Sound Like ChatGPT?". TED Talk
- Originality.AI (2024). "AI Content Published on LinkedIn". Originality.AI Blog
- eWeek (2024). "AI-Generated Posts Flood LinkedIn". eWeek
- Altman, S. (2025). Posts sobre Dead Internet Theory. Business Insider
- Imperva (2025). "2025 Imperva Bad Bot Report". Imperva
- Galaxy Research (2025). "Dead Internet Theory: Collapse of Online Truth". Galaxy
- Steffen, N. (2025). "The Dead Internet Theory". Nicole Steffen
- Cornell University (2019). "Smart Replies and Trust in Communication". ScienceDirect
- The Social Juice (2026). "The Brand Savior Complex". Substack
- UC Berkeley (2024). "AI and Dialects: Stereotyping in Language Models". arXiv
- FSU Research (2025). "Why Does ChatGPT Delve So Much?". ACL Anthology
- FSU News (2025). "Why Does ChatGPT Delve So Much?". FSU News
- Fortune (2025). "Sam Altman: People Starting to Talk Like AI". Fortune
- Time (2025). "Sam Altman on Dead Internet Theory". Time
- Scientific American Podcast (2025). "Adam Aleksic on Internet Culture and Language". Scientific American
- CNN Podcast (2024). "The Assignment: AI and Language". CNN
- Lingthusiasm Podcast (2024). "Episode 105: Linguistics of TikTok". Lingthusiasm
- CMR Berkeley (2025). "Authenticity in the Age of AI". California Management Review
- ANA (2025). "Word of the Year: Authenticity". ANA
- Smythos/ThoughtLab (2025). "The AI Content Trust Gap". Smythos
- KoInsights (2025). "The Authenticity Premium". KoInsights
- Reddit (2024). "How to Not Sound Like ChatGPT". r/ChatGPTPro
- Reddit (2025). "54% of LinkedIn Posts Are Now AI-Generated". r/ChatGPT
- Reddit (2025). "What AIisms Give Away AI-Generated Text". r/WritingWithAI
- Reddit (2024). "Em-dashes in ChatGPT Responses". r/GPT3
- arXiv (2024). "Comparison of 10,000 Texts: Human vs AI". arXiv
- Best, C. (2025). Citado em Business Insider sobre AI content. Business Insider
- Naaman, M. (2025). Citado em The Verge sobre sinais humanos perdidos. The Verge