Você Está Soando Como ChatGPT (E Isso Importa)

A palavra "delve" apareceu 2.000% mais vezes em artigos acadêmicos nos últimos três anos. Não porque pesquisadores decidiram coletivamente que é uma palavra bonita. Porque o ChatGPT adora usá-la. E agora humanos estão evitando certas palavras com medo de parecerem máquinas.

TL;DR

A Palavra Que Virou Sinal de Alarme

Em junho de 2025, a The Verge publicou uma reportagem com um título que resumia um fenômeno cultural emergente: "You Sound Like ChatGPT". A jornalista Sarah Parker documentou como a linguagem cotidiana estava mudando em função de um modelo de IA.

A reportagem citava uma pesquisa do Max Planck Institute for Human Development que analisou cerca de 280.000 vídeos de canais acadêmicos no YouTube. O resultado: palavras favoritas do ChatGPT, como "meticulous", "delve", "realm" e "adept", aumentaram até 51% após o lançamento do modelo. A palavra "delve", especificamente, tornou-se o maior "shibboleth" da era da IA, uma senha involuntária que sinaliza: isto foi escrito por uma máquina.

"'Delve' has become an academic shibboleth, a neon sign in the middle of every conversation flashing ChatGPT was here."

— Sarah Parker, The Verge, Junho 2025

Adam Aleksic, linguista e criador de conteúdo conhecido como "Etymology Nerd", foi além. Em seu TED Talk de dezembro de 2025, ele documentou um aumento de 2.000% na palavra "delve" em papers acadêmicos nos últimos três anos. O padrão era inconfundível: não era evolução orgânica da língua. Era contaminação.

51%
Aumento em palavras favoritas do ChatGPT em canais acadêmicos do YouTube, segundo o Max Planck Institute

O Vocabulário da Máquina

Em discussões no Reddit e em análises de plataformas como Originality.AI, uma lista de "AI tells" começou a circular. Palavras e padrões que denunciam texto gerado por IA:

Além do vocabulário, padrões estruturais também delatam. Segundo análises em fóruns especializados, o ChatGPT usa travessões (em-dashes) de 3 a 5 vezes mais por 100 palavras do que textos humanos. Frases tipo "It's not about X, it's about Y" aparecem com frequência suspeita. Listas numeradas e estruturadas demais. Tom formal demais para contextos informais. Ausência de gírias, regionalismos e, crucialmente, ausência de erros.

A Invasão do LinkedIn

Em outubro de 2024, a Originality.AI publicou um estudo que analisou 8.795 posts públicos do LinkedIn entre janeiro de 2018 e outubro de 2024. Os números eram contundentes:

A pesquisadora independente Kiara Stent, citada pelo The Social Juice, fez uma análise manual mais qualitativa. Examinou aproximadamente 200 posts de 50 perfis diferentes no LinkedIn. Sua avaliação: cerca de 75% pareciam ser gerados por inteligência artificial.

45%
Menos engajamento em posts detectados como gerados por IA no LinkedIn

O CEO que Vê Fantasmas

Em setembro de 2025, Sam Altman, CEO da OpenAI, fez uma série de posts no X que viralizaram. Comentando sobre a qualidade decrescente das interações online, ele admitiu publicamente:

"I assume it's all fake/bots, even though in this case, I know codex growth is really strong and the trend here is real."

— Sam Altman, CEO da OpenAI, Setembro 2025

Em outro post, ele foi ainda mais direto: "The net effect is somehow AI twitter/AI reddit feels very fake in a way it really didn't a year or two ago." E completou: "I never took the dead internet theory that seriously but it seems like there are really a lot of LLM-run twitter accounts now."

O criador do ChatGPT estava, essencialmente, admitindo que sua criação tinha tornado a internet menos legível, menos confiável, menos humana. E que ele próprio, ao consumir conteúdo online, agora assumia por padrão que tudo era falso.

A Internet Morta

A "Dead Internet Theory", que até pouco tempo atrás era considerada conspiração paranoica, ganhou credibilidade nos círculos mainstream. O relatório Imperva Bad Bot Report de 2025 confirmou que 51% de todo o tráfego web em 2024 foi automatizado. Pela primeira vez na história, bots superaram humanos.

Segundo análise da Galaxy Research, 14,1% dos seguidores em redes sociais são bots ou contas inativas. Para contas com mais de 1 milhão de seguidores, esse número sobe para 23%. A Originality.AI reportou que conteúdo detectado como IA nos 20 primeiros resultados orgânicos do Google subiu de 2,27% para 17,31% até setembro de 2025.

O Guardian publicou uma matéria assustadora: a internet está se tornando uma máquina de gerar conteúdo para ser consumido por outras máquinas. E humanos estão ficando cada vez mais invisíveis nesse ecossistema.

A Suspeita é Pior que o Crime

Aqui está o insight crucial, extraído de uma pesquisa da Cornell University: não é o uso real de IA que corrói a confiança. É a suspeita.

O estudo examinou o uso de "smart replies", respostas automáticas sugeridas por IA. Descobriu que o uso dessas respostas aumentava a cooperação e a linguagem positiva na comunicação. Mas quando o interlocutor acreditava que o outro lado estava usando IA, a avaliação era significativamente mais negativa. A pessoa era vista como menos colaborativa, menos autêntica, menos confiável.

A conclusão devastadora: "It wasn't actual AI usage that turned them off. It was the suspicion of it."

O Social Juice, newsletter especializada em marketing, capturou esse fenômeno com precisão:

"Comments accusing random people of using AI are more likely to create an atmosphere of fear for the public than companies actually pushing AI-generated content. We risk getting stuck in another cycle of policing one another."

— The Social Juice, 2026

Os Três Sinais Humanos Que Estamos Perdendo

Mor Naaman, professor da Cornell Tech, ofereceu um framework útil para entender o que está em jogo. Em entrevista à The Verge, ele identificou três níveis de "sinais humanos" que estão sendo corroídos pela adoção massiva de IA:

1. Sinais de humanidade básica. Vulnerabilidade, rituais pessoais, as pequenas imperfeições que comunicam: "Isso sou eu, sou humano". Quando lemos um texto com um erro de digitação ou uma construção gramatical inusitada, inconscientemente registramos: uma pessoa real escreveu isso.

2. Sinais de atenção e esforço. A prova de que alguém se importou o bastante para escrever aquilo pessoalmente. Quando você recebe uma mensagem de aniversário genérica, mesmo que seja bem escrita, você sabe que foi copia-cola. A IA escalou esse problema para toda a comunicação.

3. Sinais de habilidade. Senso de humor, competência técnica, a personalidade única de cada escritor. Naaman pergunta: "Even on dating sites, what does it mean to be funny on your profile or in chat anymore where we know that AI can be funny for you?"

O que está em jogo não é apenas vocabulário. É toda a arquitetura de sinais que usamos para avaliar autenticidade, esforço e caráter.

A Homogeneização da Língua

Pesquisadores da UC Berkeley publicaram um estudo mostrando que IAs respondem com estereótipos quando expostas a dialetos diferentes do inglês americano padrão. Exageram sotaques de forma constrangedora. Perpetuam a ideia de que existe um "inglês correto".

Hiromu Yakura, pesquisador do Max Planck Institute, observou: "We internalize this virtual vocabulary into daily communication." A IA está criando uma "língua franca digital" que privilegia inglês americano padrão, elimina regionalismos e idiossincrasias, e remove os "defeitos" que nos tornam humanos.

A ironia é amarga: uma tecnologia que prometia democratizar a escrita está, na prática, padronizando-a. A escrita está ficando mais "correta" e mais genérica. Mais fluente e menos interessante. Mais polida e menos humana.

O Ciclo Vicioso da Autocensura

O ciclo que está se formando é preocupante:

  1. IA produz conteúdo com padrões linguísticos específicos
  2. Humanos absorvem inconscientemente esses padrões
  3. Detectores de IA marcam humanos como máquinas
  4. Humanos começam a evitar palavras "suspeitas"
  5. A linguagem fica cada vez mais restrita

Já existem guias no Reddit ensinando pessoas a "não soar como ChatGPT". Escritores profissionais relatam revisar seus textos para remover palavras que poderiam acionar detectores. Estudantes universitários têm medo de usar certos termos em suas dissertações.

A linguagem está encolhendo. E o medo de parecer máquina está nos tornando menos expressivos, não mais.

A Autenticidade Como Ativo Estratégico

Para marcas, as implicações são profundas. A ANA (Association of National Advertisers) elegeu "Authenticity" como palavra do ano em marketing em 2025. Não por acaso.

Segundo pesquisa da ThoughtLab/Smythos, 73% dos consumidores conseguem identificar e rejeitar conteúdo de marketing gerado por IA. A KoInsights documentou o que chamou de "authenticity premium": consumidores pagam mais por produtos e serviços de marcas que percebem como genuínas.

Chris Best, CEO do Substack, capturou o dilema: "We're going to live in a world where you could have a bunch of AI slop that keeps dumb people clicking." O desafio para marcas é se diferenciar do "AI slop", do lodo genérico de conteúdo automatizado.

73%
Dos consumidores conseguem identificar e rejeitar marketing gerado por IA, segundo ThoughtLab

O Que Fazer Com Isso

A resposta não é abandonar IA. Isso seria ingênuo e impraticável. A resposta é repensar o papel da autenticidade na comunicação.

Para profissionais de comunicação:

Para marcas:

Para todos nós:

Resistir à tentação de policiar os outros. A atmosfera de suspeita é mais tóxica do que o uso real de IA. Acusar estranhos na internet de usar ChatGPT não torna a internet mais humana. Apenas amplifica o medo.

E talvez, só talvez, voltar a usar a palavra "delve" de vez em quando. Só para provar que podemos.

Referências

  1. Parker, S. (2025). "You Sound Like ChatGPT". The Verge
  2. Brinkmann, L. et al. (2024). "ChatGPT's Linguistic Impact on YouTube Academic Channels". Max Planck Institute / arXiv
  3. Aleksic, A. (2025). "Why Are People Starting to Sound Like ChatGPT?". TED Talk
  4. Originality.AI (2024). "AI Content Published on LinkedIn". Originality.AI Blog
  5. eWeek (2024). "AI-Generated Posts Flood LinkedIn". eWeek
  6. Altman, S. (2025). Posts sobre Dead Internet Theory. Business Insider
  7. Imperva (2025). "2025 Imperva Bad Bot Report". Imperva
  8. Galaxy Research (2025). "Dead Internet Theory: Collapse of Online Truth". Galaxy
  9. Steffen, N. (2025). "The Dead Internet Theory". Nicole Steffen
  10. Cornell University (2019). "Smart Replies and Trust in Communication". ScienceDirect
  11. The Social Juice (2026). "The Brand Savior Complex". Substack
  12. UC Berkeley (2024). "AI and Dialects: Stereotyping in Language Models". arXiv
  13. FSU Research (2025). "Why Does ChatGPT Delve So Much?". ACL Anthology
  14. FSU News (2025). "Why Does ChatGPT Delve So Much?". FSU News
  15. Fortune (2025). "Sam Altman: People Starting to Talk Like AI". Fortune
  16. Time (2025). "Sam Altman on Dead Internet Theory". Time
  17. Scientific American Podcast (2025). "Adam Aleksic on Internet Culture and Language". Scientific American
  18. CNN Podcast (2024). "The Assignment: AI and Language". CNN
  19. Lingthusiasm Podcast (2024). "Episode 105: Linguistics of TikTok". Lingthusiasm
  20. CMR Berkeley (2025). "Authenticity in the Age of AI". California Management Review
  21. ANA (2025). "Word of the Year: Authenticity". ANA
  22. Smythos/ThoughtLab (2025). "The AI Content Trust Gap". Smythos
  23. KoInsights (2025). "The Authenticity Premium". KoInsights
  24. Reddit (2024). "How to Not Sound Like ChatGPT". r/ChatGPTPro
  25. Reddit (2025). "54% of LinkedIn Posts Are Now AI-Generated". r/ChatGPT
  26. Reddit (2025). "What AIisms Give Away AI-Generated Text". r/WritingWithAI
  27. Reddit (2024). "Em-dashes in ChatGPT Responses". r/GPT3
  28. arXiv (2024). "Comparison of 10,000 Texts: Human vs AI". arXiv
  29. Best, C. (2025). Citado em Business Insider sobre AI content. Business Insider
  30. Naaman, M. (2025). Citado em The Verge sobre sinais humanos perdidos. The Verge
ChatGPT Linguagem Autenticidade IA Comunicação