TL;DR
Durante a Segunda Guerra, militares americanos queriam blindar os aviões onde havia mais buracos de bala. O matemático Abraham Wald percebeu o óbvio que todos ignoravam: os aviões que voltavam cheios de buracos eram os sobreviventes. Os buracos que faltavam estavam nos aviões que não voltaram. A blindagem deveria ir onde os buracos NÃO estavam. Este artigo inaugura o pilar Creative Data explorando por que os insights mais poderosos frequentemente vêm do que está ausente.
A imagem
Imagine um avião de combate retornando de uma missão sobre a Europa ocupada pelos nazistas. O bombardeiro pousa com dificuldade, seu corpo metálico perfurado por dezenas de buracos de bala. Técnicos correm para examinar os danos. Onde estão os buracos? Na fuselagem. Nas asas. Na cauda. Os motores, curiosamente, quase intocados.
Agora responda: onde você colocaria a blindagem adicional?
Se você pensou "na fuselagem, nas asas e na cauda", você acabou de cometer o mesmo erro que alguns dos militares mais experientes da Segunda Guerra Mundial cometeram. O erro que um matemático húngaro de 40 anos corrigiu com uma pergunta simples, salvando incontáveis vidas.
A pergunta era: onde estão os buracos que faltam?
O matemático que via o invisível
Abraham Wald nasceu em 31 de outubro de 1902, em Kolozsvár, na Hungria (hoje Cluj, na Romênia). Filho de um padeiro kosher, neto de rabino, Wald foi educado em casa pela família porque não podia frequentar escolas que exigiam presença aos sábados, o Sabbath judaico. Essa educação não convencional produziu uma mente não convencional.
Aos 25 anos, Wald estava na Universidade de Viena, estudando geometria sob a orientação de Karl Menger. Entre 1931 e 1937, publicou 21 papers de geometria, descritos por Menger como "profundos, belos e de importância fundamental". Publicou também 10 papers de economia e econometria no mesmo período. Era, nas palavras de seus colegas, "quieto e gentil, profundamente imerso em seu trabalho". Também era, consistentemente, "o mais inteligente da sala", mesmo quando havia muitos inteligentes por perto.
Em 1938, os nazistas invadiram a Áustria. Wald recebeu um convite para trabalhar nos Estados Unidos e partiu. Quase toda sua família, oito de nove membros, morreu nas câmaras de gás de Auschwitz.
O grupo mais extraordinário de estatísticos jamais reunido
O Statistical Research Group (SRG) foi fundado em julho de 1942, em um prédio discreto no 401 West 118th Street, Morningside Heights, Manhattan, a um quarteirão de Columbia. Financiado pelo Applied Mathematics Panel do National Defense Research Committee e dirigido por W. Allen Wallis, o SRG era, nas palavras do próprio Wallis, "o grupo mais extraordinário de estatísticos jamais organizado, considerando tanto número quanto qualidade".
Uma espécie de Projeto Manhattan para equações, não explosivos.
Os membros? Abraham Wald. Milton Friedman, futuro Prêmio Nobel de Economia. George Stigler, também futuro Nobel. Leonard Jimmie Savage, pioneiro da teoria da decisão e estatística bayesiana. Frederick Mosteller, que fundaria o departamento de estatística de Harvard. Norbert Wiener, criador da cibernética, como consultor ocasional. E cerca de 30 jovens mulheres, principalmente graduadas de Hunter e Vassar, trabalhando como "computadoras" humanas, fazendo à mão os cálculos que hoje fazemos em milissegundos.
O problema dos aviões
Bombardeiros americanos estavam sofrendo pesadas baixas dos sistemas de defesa alemães. O comando militar precisava reduzir as perdas. Uma solução óbvia: adicionar blindagem aos aviões. O dilema: blindagem protege, mas pesa. Aviões mais pesados são menos manobráveis e consomem mais combustível. A questão estratégica: onde colocar a blindagem para máxima proteção com mínimo peso?
A Marinha apresentou ao SRG dados sobre aviões que retornavam de missões sobre a Europa. Os técnicos haviam mapeado meticulosamente a distribuição dos danos: muitos buracos na fuselagem, muitos nas asas e cauda, poucos nos motores.
Os oficiais militares viram uma oportunidade de eficiência. Podemos obter a mesma proteção com menos blindagem, raciocinaram, se concentrarmos a proteção nos lugares com maior necessidade: onde os aviões estão sendo mais atingidos.
A conclusão pareceu óbvia: blindar a fuselagem, as asas e a cauda.
Wald olhou para os mesmos dados. E fez a pergunta que ninguém havia feito.
A pergunta que muda tudo
"A blindagem não vai onde os buracos estão. Vai onde os buracos não estão: nos motores." Abraham Wald
O raciocínio de Wald era elegante em sua simplicidade.
Primeiro: onde estão os buracos que faltam? Os que estariam em toda a carcaça do motor, se o dano fosse distribuído uniformemente?
Segundo: os buracos que faltam estão nos aviões que faltam. Os aviões que levaram tiros nos motores não voltaram para ser examinados.
Terceiro: o grande número de aviões voltando com a fuselagem perfurada é evidência forte de que tiros na fuselagem podem, e portanto devem, ser tolerados.
Quarto: o pequeno número de aviões voltando com motores danificados não significa que os motores são menos atingidos. Significa que os aviões atingidos nos motores caem.
Jordan Ellenberg, em seu livro "How Not To Be Wrong", oferece uma analogia perfeita: "Se você for à sala de recuperação de um hospital, verá muito mais pessoas com buracos de bala nas pernas do que pessoas com buracos de bala no peito. Mas não é porque as pessoas não levam tiros no peito; é porque as pessoas que levam tiros no peito não se recuperam."
A Lição Central
Wald produziu oito memorandos técnicos sobre o problema. Suas técnicas foram usadas através da Segunda Guerra Mundial, Coreia e Vietnã.
Países não vencem guerras apenas por serem mais corajosos. Os vencedores são geralmente os que conseguem 5% menos aviões abatidos, ou usam 5% menos combustível, ou conseguem 5% mais nutrição para sua infantaria a 95% do custo.
Não é o material de que filmes de guerra são feitos, mas é o material de que guerras são feitas. E há matemática em cada passo do caminho.
O viés de sobrevivência: anatomia de um erro universal
O que Wald identificou nos aviões tem um nome formal: survivorship bias, ou viés de sobrevivência. É o erro lógico de concentrar-se em entidades que passaram por um processo de seleção enquanto ignora aquelas que não passaram.
O mecanismo é simples:
- O que vemos: sobreviventes. Aviões que voltaram, empresas que existem, pessoas bem-sucedidas.
- O que não vemos: fracassos. Aviões abatidos, empresas falidas, pessoas que tentaram e não conseguiram.
- O erro: assumir que os sobreviventes são representativos do todo.
O viés de sobrevivência aparece em todo lugar:
Em finanças: fundos que faliram são excluídos de análises de performance. Um estudo de 2006 da Savant Capital mostrou que a categoria Large Blend do Morningstar apresentou crescimento de 178.4% entre 1995 e 2004. Quando incluíram os fundos que haviam morrido no período, o crescimento real era de 134.5%.
Em negócios: Bill Gates, Mark Zuckerberg, Steve Jobs largaram a faculdade e se tornaram bilionários. A narrativa sugere que educação formal é opcional para o sucesso. O que não vemos: milhares de dropouts que tentaram o mesmo caminho e falharam.
Na cultura: "A música era melhor antigamente." Ouvimos as músicas dos anos 60 e 70 que sobreviveram até hoje, os hits, os clássicos. Não ouvimos as milhares de músicas ruins que foram esquecidas. Estamos comparando o melhor do passado com tudo do presente.
Evidência silenciosa: Diagoras e os marinheiros afogados
Nassim Nicholas Taleb, em "The Black Swan", introduz o conceito de "silent evidence", evidência silenciosa.
Diágoras de Melos era um não-crente nos deuses. Para convencê-lo do poder divino, mostraram-lhe tábuas pintadas com retratos de adoradores que haviam rezado e depois sobrevivido a um naufrágio.
"Veja", disseram-lhe, "você que nega que os deuses cuidam das coisas humanas. O que você diz de tantas pessoas preservadas da morte pelo favor especial deles?"
Diágoras respondeu: "Por que, onde estão as pinturas daqueles que rezaram e depois se afogaram?"
A resposta de Cícero, que registrou a história: "Os adoradores afogados, estando mortos, teriam muita dificuldade em anunciar suas experiências do fundo do mar."
Este é o problema fundamental da evidência silenciosa. Os mortos não falam. Os fracassados raramente escrevem livros. Os manuscritos rejeitados não são publicados. Os fundos falidos são excluídos dos bancos de dados. Os aviões abatidos não voltam para inspeção.
WYSIATI: o que você vê é tudo o que existe
Daniel Kahneman, Prêmio Nobel de Economia, identificou em "Thinking, Fast and Slow" um mecanismo cognitivo que explica por que somos tão vulneráveis ao viés de sobrevivência.
Ele chamou de WYSIATI: "What You See Is All There Is". O que você vê é tudo o que existe.
O conceito descreve nossa tendência de basear julgamentos apenas na informação imediatamente disponível, ignorando o que não vemos. O Sistema 1, nosso pensamento rápido e intuitivo, trabalha apenas com o que está presente.
"Uma decisão estúpida que funciona bem se torna uma decisão brilhante em retrospecto." Daniel Kahneman
É por isso que empreendedores bem-sucedidos conseguem criar narrativas coerentes sobre suas jornadas, mesmo quando a realidade foi caótica e cheia de sorte. WYSIATI é o default cognitivo. Superá-lo exige esforço deliberado para considerar o ausente.
A história por trás dos dados
"The story behind the data is arguably more important than the data itself. Or more precisely, the reason behind why we are missing certain pieces of data may be more meaningful than the data we have." Chris Bracks
Esta citação captura a essência do que estamos discutindo. Os dados que vemos contam uma história. Mas a história mais importante pode ser a dos dados que não vemos. E mais importante ainda: por que esses dados estão faltando.
No caso de Wald:
- Os dados mostravam poucos buracos nos motores
- A história por trás dos dados: aviões atingidos nos motores não voltavam
- O motivo da ausência: letalidade
- A conclusão correta: proteger os motores
O insight do negativo em marketing
A lição de Wald não se aplica apenas a aviões e estatística. Algumas das campanhas de marketing mais eficazes da história foram construídas sobre o mesmo princípio: o insight do negativo.
Got Milk? (1993)
O California Milk Processor Board enfrentava consumo de leite em declínio. O insight contraintuitivo: em vez de promover os benefícios do leite, focaram nas consequências de não ter leite. Mostraram o desconforto de tentar engolir um sanduíche seco de pasta de amendoim sem leite. O insight veio do negativo. Do que faltava. Da ausência.
Dove Campaign for Real Beauty (2004)
Pesquisa revelou: apenas 2 a 4% das mulheres no mundo se consideravam bonitas. O insight: em vez de mostrar a beleza idealizada, mostrar a beleza real que as mulheres não conseguiam ver em si mesmas. O que faltava na autopercepção das mulheres era a própria beleza.
Volkswagen Think Small (1959)
Era quando fazer uma declaração de moda com velocidade, estilo e design eram as principais considerações para comprar um carro. O insight contrário: admitir honestamente as "fraquezas" e explicar por que eram na verdade vantagens. A Ad Age classificou Think Small como uma das maiores campanhas publicitárias de todos os tempos.
Ferramentas para ver o invisível
Inversão: o modelo mental de Charlie Munger
Carl Gustav Jacob Jacobi, matemático alemão do século XIX, tinha um lema: "Man muss immer umkehren." Deve-se sempre inverter.
Charlie Munger adaptou o princípio: "Tudo que eu quero saber é onde vou morrer, para nunca ir lá."
Em vez de perguntar "como ter sucesso?", perguntar: "o que garantiria o fracasso?" E evitar isso. Evitar estupidez é mais fácil que buscar brilhantismo.
Pré-Mortem: o método de Gary Klein
O pré-mortem é uma ferramenta de planejamento que envolve imaginar que um projeto já falhou, e então trabalhar para trás para identificar as causas potenciais dessa falha.
- Transporte-se para o futuro: "É um ano depois. Este projeto foi um desastre completo."
- Liste as causas: "O que deu errado?"
- Trabalhe para trás: "O que poderia ter prevenido cada falha?"
- Aja agora: implemente as prevenções.
O cão que não latiu
Em "Silver Blaze", uma das histórias mais famosas de Sherlock Holmes, um cavalo de corrida premiado desaparece e seu treinador é encontrado assassinado.
Inspector Gregory: "Há algum outro ponto para o qual você gostaria de chamar minha atenção?"
Holmes: "Para o curioso incidente do cão durante a noite."
Gregory: "O cão não fez nada durante a noite."
Holmes: "Esse foi o curioso incidente."
O fato de o cão não ter latido levou Holmes a concluir que o criminoso era alguém que o cão conhecia. O silêncio foi a informação mais importante.
A arte de ver o invisível
Este artigo começou com uma imagem: um avião cheio de buracos e a pergunta sobre onde colocar a blindagem.
A resposta correta é contraintuitiva: onde os buracos não estão.
Abraham Wald, um matemático húngaro trabalhando em um prédio discreto em Manhattan, salvou vidas fazendo uma pergunta que ninguém havia feito: onde estão os buracos que faltam?
Os princípios que emergem desta história
A ausência é informação. Os buracos que faltam, o cão que não latiu, os manuscritos rejeitados, os fundos fechados. Tudo isso é informação.
Sobreviventes não são representativos. Bill Gates, o avião que voltou, o fundo que ainda existe são os sobreviventes de um processo brutal de seleção.
A narrativa de sucesso é construída depois. A realidade foi provavelmente mais caótica, com mais sorte envolvida.
Inverter o problema revela o oculto. Perguntar "o que causaria o fracasso?" frequentemente revela riscos invisíveis.
WYSIATI é o default cognitivo. Superar isso exige esforço deliberado para considerar o ausente.
Este artigo inaugura o pilar Creative Data deste site. A tese central do pilar: ajudar pessoas a extrair de dados duros os insights mais inteligentes e acionáveis.
A primeira lição é que os insights mais poderosos frequentemente vêm do que falta nos dados.
Olhe para seus dados. Olhe para sua pesquisa. Olhe para suas métricas.
Agora pergunte: o que está faltando? Quem não está aqui? O que o cão não latiu?
As respostas podem mudar tudo.
Referências
Livros
- Ellenberg, Jordan. How Not To Be Wrong: The Power of Mathematical Thinking. Penguin Press, 2014.
- Kahneman, Daniel. Thinking, Fast and Slow. Farrar, Straus and Giroux, 2011.
- Taleb, Nassim Nicholas. The Black Swan: The Impact of the Highly Improbable. Random House, 2007.
Artigos Acadêmicos
- Wald, Abraham. "A Method of Estimating Plane Vulnerability Based on Damage of Survivors." Center for Naval Analyses, CRC 432, 1943/1980.
- Mangel, Marc & Samaniego, Francisco. "Abraham Wald's Work on Aircraft Survivability." Journal of the American Statistical Association, Vol 79, No. 386, 1984.
- Wallis, W. Allen. "The Statistical Research Group, 1942-1945." Journal of the American Statistical Association 75, 1980.
- Ioannidis, John P.A. "Why Most Published Research Findings Are False." PLoS Medicine, 2005.
Cases de Marketing
- ANA Educational Foundation. "Got Milk? Case Study."
- Ogilvy. "Dove Real Beauty Sketches."
- 4As Timeline. "VW Think Small."
- Leo Burnett / Contagious. "Always #LikeAGirl Case Study."
Outras Fontes
- American Mathematical Society. "The Legend of Abraham Wald." Feature Column, 2016.
- Farnam Street. "Inversion: The Power of Avoiding Stupidity."
- Farnam Street. "Survivorship Bias: The Tale of Forgotten Failures."