08 de Fevereiro de 2026 — Creative Data

Creative Data

TL;DR

Durante a Segunda Guerra, militares americanos queriam blindar os aviões onde havia mais buracos de bala. O matemático Abraham Wald percebeu o óbvio que todos ignoravam: os aviões que voltavam cheios de buracos eram os sobreviventes. Os buracos que faltavam estavam nos aviões que não voltaram. A blindagem deveria ir onde os buracos NÃO estavam. Este artigo inaugura o pilar Creative Data explorando por que os insights mais poderosos frequentemente vêm do que está ausente.

A imagem

Imagine um avião de combate retornando de uma missão sobre a Europa ocupada pelos nazistas. O bombardeiro pousa com dificuldade, seu corpo metálico perfurado por dezenas de buracos de bala. Técnicos correm para examinar os danos. Onde estão os buracos? Na fuselagem. Nas asas. Na cauda. Os motores, curiosamente, quase intocados.

Agora responda: onde você colocaria a blindagem adicional?

Se você pensou "na fuselagem, nas asas e na cauda", você acabou de cometer o mesmo erro que alguns dos militares mais experientes da Segunda Guerra Mundial cometeram. O erro que um matemático húngaro de 40 anos corrigiu com uma pergunta simples, salvando incontáveis vidas.

A pergunta era: onde estão os buracos que faltam?

O matemático que via o invisível

Abraham Wald nasceu em 31 de outubro de 1902, em Kolozsvár, na Hungria (hoje Cluj, na Romênia). Filho de um padeiro kosher, neto de rabino, Wald foi educado em casa pela família porque não podia frequentar escolas que exigiam presença aos sábados, o Sabbath judaico. Essa educação não convencional produziu uma mente não convencional.

Aos 25 anos, Wald estava na Universidade de Viena, estudando geometria sob a orientação de Karl Menger. Entre 1931 e 1937, publicou 21 papers de geometria, descritos por Menger como "profundos, belos e de importância fundamental". Publicou também 10 papers de economia e econometria no mesmo período. Era, nas palavras de seus colegas, "quieto e gentil, profundamente imerso em seu trabalho". Também era, consistentemente, "o mais inteligente da sala", mesmo quando havia muitos inteligentes por perto.

Em 1938, os nazistas invadiram a Áustria. Wald recebeu um convite para trabalhar nos Estados Unidos e partiu. Quase toda sua família, oito de nove membros, morreu nas câmaras de gás de Auschwitz.

O grupo mais extraordinário de estatísticos jamais reunido

O Statistical Research Group (SRG) foi fundado em julho de 1942, em um prédio discreto no 401 West 118th Street, Morningside Heights, Manhattan, a um quarteirão de Columbia. Financiado pelo Applied Mathematics Panel do National Defense Research Committee e dirigido por W. Allen Wallis, o SRG era, nas palavras do próprio Wallis, "o grupo mais extraordinário de estatísticos jamais organizado, considerando tanto número quanto qualidade".

Uma espécie de Projeto Manhattan para equações, não explosivos.

Os membros? Abraham Wald. Milton Friedman, futuro Prêmio Nobel de Economia. George Stigler, também futuro Nobel. Leonard Jimmie Savage, pioneiro da teoria da decisão e estatística bayesiana. Frederick Mosteller, que fundaria o departamento de estatística de Harvard. Norbert Wiener, criador da cibernética, como consultor ocasional. E cerca de 30 jovens mulheres, principalmente graduadas de Hunter e Vassar, trabalhando como "computadoras" humanas, fazendo à mão os cálculos que hoje fazemos em milissegundos.

O problema dos aviões

Bombardeiros americanos estavam sofrendo pesadas baixas dos sistemas de defesa alemães. O comando militar precisava reduzir as perdas. Uma solução óbvia: adicionar blindagem aos aviões. O dilema: blindagem protege, mas pesa. Aviões mais pesados são menos manobráveis e consomem mais combustível. A questão estratégica: onde colocar a blindagem para máxima proteção com mínimo peso?

A Marinha apresentou ao SRG dados sobre aviões que retornavam de missões sobre a Europa. Os técnicos haviam mapeado meticulosamente a distribuição dos danos: muitos buracos na fuselagem, muitos nas asas e cauda, poucos nos motores.

Os oficiais militares viram uma oportunidade de eficiência. Podemos obter a mesma proteção com menos blindagem, raciocinaram, se concentrarmos a proteção nos lugares com maior necessidade: onde os aviões estão sendo mais atingidos.

A conclusão pareceu óbvia: blindar a fuselagem, as asas e a cauda.

Wald olhou para os mesmos dados. E fez a pergunta que ninguém havia feito.

A pergunta que muda tudo

"A blindagem não vai onde os buracos estão. Vai onde os buracos não estão: nos motores." Abraham Wald

O raciocínio de Wald era elegante em sua simplicidade.

Primeiro: onde estão os buracos que faltam? Os que estariam em toda a carcaça do motor, se o dano fosse distribuído uniformemente?

Segundo: os buracos que faltam estão nos aviões que faltam. Os aviões que levaram tiros nos motores não voltaram para ser examinados.

Terceiro: o grande número de aviões voltando com a fuselagem perfurada é evidência forte de que tiros na fuselagem podem, e portanto devem, ser tolerados.

Quarto: o pequeno número de aviões voltando com motores danificados não significa que os motores são menos atingidos. Significa que os aviões atingidos nos motores caem.

Jordan Ellenberg, em seu livro "How Not To Be Wrong", oferece uma analogia perfeita: "Se você for à sala de recuperação de um hospital, verá muito mais pessoas com buracos de bala nas pernas do que pessoas com buracos de bala no peito. Mas não é porque as pessoas não levam tiros no peito; é porque as pessoas que levam tiros no peito não se recuperam."

A Lição Central

Wald produziu oito memorandos técnicos sobre o problema. Suas técnicas foram usadas através da Segunda Guerra Mundial, Coreia e Vietnã.

Países não vencem guerras apenas por serem mais corajosos. Os vencedores são geralmente os que conseguem 5% menos aviões abatidos, ou usam 5% menos combustível, ou conseguem 5% mais nutrição para sua infantaria a 95% do custo.

Não é o material de que filmes de guerra são feitos, mas é o material de que guerras são feitas. E há matemática em cada passo do caminho.

O viés de sobrevivência: anatomia de um erro universal

O que Wald identificou nos aviões tem um nome formal: survivorship bias, ou viés de sobrevivência. É o erro lógico de concentrar-se em entidades que passaram por um processo de seleção enquanto ignora aquelas que não passaram.

O mecanismo é simples:

O viés de sobrevivência aparece em todo lugar:

Em finanças: fundos que faliram são excluídos de análises de performance. Um estudo de 2006 da Savant Capital mostrou que a categoria Large Blend do Morningstar apresentou crescimento de 178.4% entre 1995 e 2004. Quando incluíram os fundos que haviam morrido no período, o crescimento real era de 134.5%.

Em negócios: Bill Gates, Mark Zuckerberg, Steve Jobs largaram a faculdade e se tornaram bilionários. A narrativa sugere que educação formal é opcional para o sucesso. O que não vemos: milhares de dropouts que tentaram o mesmo caminho e falharam.

Na cultura: "A música era melhor antigamente." Ouvimos as músicas dos anos 60 e 70 que sobreviveram até hoje, os hits, os clássicos. Não ouvimos as milhares de músicas ruins que foram esquecidas. Estamos comparando o melhor do passado com tudo do presente.

Evidência silenciosa: Diagoras e os marinheiros afogados

Nassim Nicholas Taleb, em "The Black Swan", introduz o conceito de "silent evidence", evidência silenciosa.

Diágoras de Melos era um não-crente nos deuses. Para convencê-lo do poder divino, mostraram-lhe tábuas pintadas com retratos de adoradores que haviam rezado e depois sobrevivido a um naufrágio.

"Veja", disseram-lhe, "você que nega que os deuses cuidam das coisas humanas. O que você diz de tantas pessoas preservadas da morte pelo favor especial deles?"

Diágoras respondeu: "Por que, onde estão as pinturas daqueles que rezaram e depois se afogaram?"

A resposta de Cícero, que registrou a história: "Os adoradores afogados, estando mortos, teriam muita dificuldade em anunciar suas experiências do fundo do mar."

Este é o problema fundamental da evidência silenciosa. Os mortos não falam. Os fracassados raramente escrevem livros. Os manuscritos rejeitados não são publicados. Os fundos falidos são excluídos dos bancos de dados. Os aviões abatidos não voltam para inspeção.

WYSIATI: o que você vê é tudo o que existe

Daniel Kahneman, Prêmio Nobel de Economia, identificou em "Thinking, Fast and Slow" um mecanismo cognitivo que explica por que somos tão vulneráveis ao viés de sobrevivência.

Ele chamou de WYSIATI: "What You See Is All There Is". O que você vê é tudo o que existe.

O conceito descreve nossa tendência de basear julgamentos apenas na informação imediatamente disponível, ignorando o que não vemos. O Sistema 1, nosso pensamento rápido e intuitivo, trabalha apenas com o que está presente.

"Uma decisão estúpida que funciona bem se torna uma decisão brilhante em retrospecto." Daniel Kahneman

É por isso que empreendedores bem-sucedidos conseguem criar narrativas coerentes sobre suas jornadas, mesmo quando a realidade foi caótica e cheia de sorte. WYSIATI é o default cognitivo. Superá-lo exige esforço deliberado para considerar o ausente.

A história por trás dos dados

"The story behind the data is arguably more important than the data itself. Or more precisely, the reason behind why we are missing certain pieces of data may be more meaningful than the data we have." Chris Bracks

Esta citação captura a essência do que estamos discutindo. Os dados que vemos contam uma história. Mas a história mais importante pode ser a dos dados que não vemos. E mais importante ainda: por que esses dados estão faltando.

No caso de Wald:

O insight do negativo em marketing

A lição de Wald não se aplica apenas a aviões e estatística. Algumas das campanhas de marketing mais eficazes da história foram construídas sobre o mesmo princípio: o insight do negativo.

Got Milk? (1993)

O California Milk Processor Board enfrentava consumo de leite em declínio. O insight contraintuitivo: em vez de promover os benefícios do leite, focaram nas consequências de não ter leite. Mostraram o desconforto de tentar engolir um sanduíche seco de pasta de amendoim sem leite. O insight veio do negativo. Do que faltava. Da ausência.

Dove Campaign for Real Beauty (2004)

Pesquisa revelou: apenas 2 a 4% das mulheres no mundo se consideravam bonitas. O insight: em vez de mostrar a beleza idealizada, mostrar a beleza real que as mulheres não conseguiam ver em si mesmas. O que faltava na autopercepção das mulheres era a própria beleza.

Volkswagen Think Small (1959)

Era quando fazer uma declaração de moda com velocidade, estilo e design eram as principais considerações para comprar um carro. O insight contrário: admitir honestamente as "fraquezas" e explicar por que eram na verdade vantagens. A Ad Age classificou Think Small como uma das maiores campanhas publicitárias de todos os tempos.

Ferramentas para ver o invisível

Inversão: o modelo mental de Charlie Munger

Carl Gustav Jacob Jacobi, matemático alemão do século XIX, tinha um lema: "Man muss immer umkehren." Deve-se sempre inverter.

Charlie Munger adaptou o princípio: "Tudo que eu quero saber é onde vou morrer, para nunca ir lá."

Em vez de perguntar "como ter sucesso?", perguntar: "o que garantiria o fracasso?" E evitar isso. Evitar estupidez é mais fácil que buscar brilhantismo.

Pré-Mortem: o método de Gary Klein

O pré-mortem é uma ferramenta de planejamento que envolve imaginar que um projeto já falhou, e então trabalhar para trás para identificar as causas potenciais dessa falha.

  1. Transporte-se para o futuro: "É um ano depois. Este projeto foi um desastre completo."
  2. Liste as causas: "O que deu errado?"
  3. Trabalhe para trás: "O que poderia ter prevenido cada falha?"
  4. Aja agora: implemente as prevenções.

O cão que não latiu

Em "Silver Blaze", uma das histórias mais famosas de Sherlock Holmes, um cavalo de corrida premiado desaparece e seu treinador é encontrado assassinado.

Inspector Gregory: "Há algum outro ponto para o qual você gostaria de chamar minha atenção?"

Holmes: "Para o curioso incidente do cão durante a noite."

Gregory: "O cão não fez nada durante a noite."

Holmes: "Esse foi o curioso incidente."

O fato de o cão não ter latido levou Holmes a concluir que o criminoso era alguém que o cão conhecia. O silêncio foi a informação mais importante.

A arte de ver o invisível

Este artigo começou com uma imagem: um avião cheio de buracos e a pergunta sobre onde colocar a blindagem.

A resposta correta é contraintuitiva: onde os buracos não estão.

Abraham Wald, um matemático húngaro trabalhando em um prédio discreto em Manhattan, salvou vidas fazendo uma pergunta que ninguém havia feito: onde estão os buracos que faltam?

Os princípios que emergem desta história

A ausência é informação. Os buracos que faltam, o cão que não latiu, os manuscritos rejeitados, os fundos fechados. Tudo isso é informação.

Sobreviventes não são representativos. Bill Gates, o avião que voltou, o fundo que ainda existe são os sobreviventes de um processo brutal de seleção.

A narrativa de sucesso é construída depois. A realidade foi provavelmente mais caótica, com mais sorte envolvida.

Inverter o problema revela o oculto. Perguntar "o que causaria o fracasso?" frequentemente revela riscos invisíveis.

WYSIATI é o default cognitivo. Superar isso exige esforço deliberado para considerar o ausente.

Este artigo inaugura o pilar Creative Data deste site. A tese central do pilar: ajudar pessoas a extrair de dados duros os insights mais inteligentes e acionáveis.

A primeira lição é que os insights mais poderosos frequentemente vêm do que falta nos dados.

Olhe para seus dados. Olhe para sua pesquisa. Olhe para suas métricas.

Agora pergunte: o que está faltando? Quem não está aqui? O que o cão não latiu?

As respostas podem mudar tudo.


Referências

Livros

  • Ellenberg, Jordan. How Not To Be Wrong: The Power of Mathematical Thinking. Penguin Press, 2014.
  • Kahneman, Daniel. Thinking, Fast and Slow. Farrar, Straus and Giroux, 2011.
  • Taleb, Nassim Nicholas. The Black Swan: The Impact of the Highly Improbable. Random House, 2007.

Artigos Acadêmicos

  • Wald, Abraham. "A Method of Estimating Plane Vulnerability Based on Damage of Survivors." Center for Naval Analyses, CRC 432, 1943/1980.
  • Mangel, Marc & Samaniego, Francisco. "Abraham Wald's Work on Aircraft Survivability." Journal of the American Statistical Association, Vol 79, No. 386, 1984.
  • Wallis, W. Allen. "The Statistical Research Group, 1942-1945." Journal of the American Statistical Association 75, 1980.
  • Ioannidis, John P.A. "Why Most Published Research Findings Are False." PLoS Medicine, 2005.

Cases de Marketing

  • ANA Educational Foundation. "Got Milk? Case Study."
  • Ogilvy. "Dove Real Beauty Sketches."
  • 4As Timeline. "VW Think Small."
  • Leo Burnett / Contagious. "Always #LikeAGirl Case Study."

Outras Fontes

  • American Mathematical Society. "The Legend of Abraham Wald." Feature Column, 2016.
  • Farnam Street. "Inversion: The Power of Avoiding Stupidity."
  • Farnam Street. "Survivorship Bias: The Tale of Forgotten Failures."
Creative Data

TL;DR

During World War II, American military officers wanted to armor planes where they saw the most bullet holes. Mathematician Abraham Wald noticed what everyone else missed: the planes returning full of holes were the survivors. The missing holes were on the planes that didn't make it back. Armor should go where the holes AREN'T. This article inaugurates the Creative Data pillar by exploring why the most powerful insights often come from what's absent.

The Image

Picture a combat aircraft returning from a mission over Nazi-occupied Europe. The bomber lands hard, its metal body riddled with dozens of bullet holes. Technicians rush to examine the damage. Where are the holes? In the fuselage. In the wings. In the tail. The engines, curiously, are almost untouched.

Now answer: where would you add extra armor?

If you thought "the fuselage, wings, and tail," you just made the same mistake that some of the most experienced military officers in World War II made. The mistake that a 40-year-old Hungarian mathematician corrected with a simple question, saving countless lives.

The question was: where are the missing holes?

The mathematician who saw the invisible

Abraham Wald was born on October 31, 1902, in Kolozsvár, Hungary (now Cluj, Romania). Son of a kosher baker, grandson of a rabbi, Wald was homeschooled because he couldn't attend schools that required Saturday attendance, the Jewish Sabbath. This unconventional education produced an unconventional mind.

By 25, Wald was at the University of Vienna, studying geometry under Karl Menger. Between 1931 and 1937, he published 21 geometry papers, described by Menger as "deep, beautiful, and of fundamental importance." He also published 10 papers on economics and econometrics in the same period. He was, in the words of his colleagues, "quiet and gentle, deeply immersed in his work." He was also, consistently, "the smartest person in the room," even when many smart people were around.

In 1938, the Nazis invaded Austria. Wald received an invitation to work in the United States and left. Almost his entire family, eight of nine members, died in the gas chambers of Auschwitz.

The most extraordinary group of statisticians ever assembled

The Statistical Research Group (SRG) was founded in July 1942, in a nondescript building at 401 West 118th Street, Morningside Heights, Manhattan, one block from Columbia. Funded by the Applied Mathematics Panel of the National Defense Research Committee and directed by W. Allen Wallis, the SRG was, in Wallis's own words, "the most extraordinary group of statisticians ever organized, considering both number and quality."

A sort of Manhattan Project for equations, not explosives.

The members? Abraham Wald. Milton Friedman, future Nobel Prize winner in Economics. George Stigler, also a future Nobel laureate. Leonard Jimmie Savage, pioneer of decision theory and Bayesian statistics. Frederick Mosteller, who would found Harvard's statistics department. Norbert Wiener, creator of cybernetics, as an occasional consultant. And about 30 young women, mainly graduates of Hunter and Vassar, working as human "computers," doing by hand the calculations we now complete in milliseconds.

The airplane problem

American bombers were suffering heavy losses from German defense systems. Military command needed to reduce casualties. An obvious solution: add armor to the aircraft. The dilemma: armor protects but weighs. Heavier aircraft are less maneuverable and consume more fuel. The strategic question: where to place armor for maximum protection with minimum weight?

The Navy presented the SRG with data on aircraft returning from missions over Europe. Technicians had meticulously mapped the damage distribution: many holes in the fuselage, many in the wings and tail, few in the engines.

Military officers saw an opportunity for efficiency. We can get the same protection with less armor, they reasoned, if we concentrate protection where it's most needed: where the planes are getting hit the most.

The conclusion seemed obvious: armor the fuselage, wings, and tail.

Wald looked at the same data. And asked the question no one had asked.

The question that changes everything

"The armor doesn't go where the bullet holes are. It goes where the bullet holes aren't: on the engines." Abraham Wald

Wald's reasoning was elegant in its simplicity.

First: where are the missing holes? The ones that would have been all over the engine casing if the damage had been distributed uniformly?

Second: the missing holes are on the missing planes. The planes that took hits to the engines didn't return to be examined.

Third: the large number of planes returning with perforated fuselages is strong evidence that fuselage hits can, and therefore must, be tolerated.

Fourth: the small number of planes returning with damaged engines doesn't mean engines are hit less often. It means planes hit in the engines go down.

Jordan Ellenberg, in his book "How Not To Be Wrong," offers a perfect analogy: "If you go to the recovery room at the hospital, you'll see a lot more people with bullet holes in their legs than people with bullet holes in their chests. But that's not because people don't get shot in the chest; it's because the people who get shot in the chest don't recover."

The Central Lesson

Wald produced eight technical memoranda on the problem. His techniques were used throughout World War II, Korea, and Vietnam.

Countries don't win wars just by being braver than the other side. The winners are usually the guys who get 5% fewer of their planes shot down, or use 5% less fuel, or get 5% more nutrition into their infantry at 95% of the cost.

That's not the stuff war movies are made of, but it's the stuff wars are made of. And there's math at every step of the way.

Survivorship bias: anatomy of a universal error

What Wald identified in the planes has a formal name: survivorship bias. It's the logical error of concentrating on entities that passed a selection process while ignoring those that did not.

The mechanism is simple:

Survivorship bias appears everywhere:

In finance: funds that failed are excluded from performance analyses. A 2006 study by Savant Capital showed that Morningstar's Large Blend category grew 178.4% between 1995 and 2004. When they included funds that had died during the period, actual growth was 134.5%.

In business: Bill Gates, Mark Zuckerberg, Steve Jobs dropped out of college and became billionaires. The narrative suggests formal education is optional for success. What we don't see: thousands of dropouts who tried the same path and failed.

In culture: "Music was better in the old days." We hear songs from the 60s and 70s that survived to today, the hits, the classics. We don't hear the thousands of bad songs that were forgotten. We're comparing the best of the past with everything from the present.

Silent evidence: Diagoras and the drowned sailors

Nassim Nicholas Taleb, in "The Black Swan," introduces the concept of "silent evidence."

Diagoras of Melos was a disbeliever in the gods. To convince him of divine power, they showed him painted tablets with portraits of worshippers who had prayed and then survived a shipwreck.

"See," they told him, "you who deny that the gods care for human things. What do you say of so many people preserved from death by their special favor?"

Diagoras replied: "Why, where are those painted who were shipwrecked after their prayers?"

Cicero's response, who recorded the story: "The drowned worshippers, being dead, would have a lot of trouble advertising their experiences from the bottom of the sea."

This is the fundamental problem of silent evidence. The dead don't speak. The failed rarely write books. Rejected manuscripts are not published. Failed funds are excluded from databases. Downed planes don't return for inspection.

WYSIATI: What You See Is All There Is

Daniel Kahneman, Nobel laureate in Economics, identified in "Thinking, Fast and Slow" a cognitive mechanism that explains why we're so vulnerable to survivorship bias.

He called it WYSIATI: "What You See Is All There Is."

The concept describes our tendency to base judgments only on immediately available information, ignoring what we don't see. System 1, our fast, intuitive thinking, works only with what's present.

"A stupid decision that works out well becomes a brilliant decision in hindsight." Daniel Kahneman

That's why successful entrepreneurs can create coherent narratives about their journeys, even when reality was chaotic and full of luck. WYSIATI is the cognitive default. Overcoming it requires deliberate effort to consider the absent.

The story behind the data

"The story behind the data is arguably more important than the data itself. Or more precisely, the reason behind why we are missing certain pieces of data may be more meaningful than the data we have." Chris Bracks

This quote captures the essence of what we're discussing. The data we see tells a story. But the more important story may be that of the data we don't see. And more important still: why that data is missing.

In Wald's case:

The negative insight in marketing

Wald's lesson doesn't only apply to planes and statistics. Some of the most effective marketing campaigns in history were built on the same principle: the negative insight.

Got Milk? (1993)

The California Milk Processor Board faced steadily declining milk consumption. The counterintuitive insight: instead of promoting milk's benefits, focus on the consequences of not having milk. Show the discomfort of trying to swallow a dry peanut butter sandwich without milk. The insight came from the negative. From what was missing. From absence.

Dove Campaign for Real Beauty (2004)

Research revealed: only 2 to 4% of women worldwide considered themselves beautiful. The insight: instead of showing idealized beauty, show the real beauty women couldn't see in themselves. What was missing from women's self-perception was their own beauty.

Volkswagen Think Small (1959)

It was an era when making a fashion statement with speed, style, and design were the main considerations for buying a car. The contrary insight: honestly admit the "weaknesses" and explain why they were actually advantages. Ad Age ranked Think Small as one of the greatest advertising campaigns of all time.

Tools for seeing the invisible

Inversion: Charlie Munger's mental model

Carl Gustav Jacob Jacobi, a 19th-century German mathematician, had a motto: "Man muss immer umkehren." One must always invert.

Charlie Munger adapted the principle: "All I want to know is where I'm going to die, so I'll never go there."

Instead of asking "how to succeed?", ask: "what would guarantee failure?" And avoid that. Avoiding stupidity is easier than seeking brilliance.

Pre-Mortem: Gary Klein's method

The pre-mortem is a planning tool that involves imagining a project has already failed, then working backward to identify potential causes of that failure.

  1. Transport yourself to the future: "It's one year later. This project was a complete disaster."
  2. List the causes: "What went wrong?"
  3. Work backward: "What could have prevented each failure?"
  4. Act now: implement the preventions.

The dog that didn't bark

In "Silver Blaze," one of Sherlock Holmes's most famous stories, a prized racehorse disappears and its trainer is found murdered.

Inspector Gregory: "Is there any other point to which you would wish to draw my attention?"

Holmes: "To the curious incident of the dog in the night-time."

Gregory: "The dog did nothing in the night-time."

Holmes: "That was the curious incident."

The fact that the dog didn't bark led Holmes to conclude that the criminal was someone the dog knew. The silence was the most important information.

The art of seeing the invisible

This article began with an image: a plane full of holes and the question of where to add armor.

The correct answer is counterintuitive: where the holes aren't.

Abraham Wald, a Hungarian mathematician working in a nondescript building in Manhattan, saved lives by asking a question no one had asked: where are the missing holes?

The principles that emerge from this story

Absence is information. The missing holes, the dog that didn't bark, the rejected manuscripts, the closed funds. All of this is information.

Survivors aren't representative. Bill Gates, the plane that returned, the fund that still exists are survivors of a brutal selection process.

The success narrative is constructed afterward. Reality was probably more chaotic, with more luck involved.

Inverting the problem reveals the hidden. Asking "what would cause failure?" often reveals invisible risks.

WYSIATI is the cognitive default. Overcoming this requires deliberate effort to consider the absent.

This article inaugurates the Creative Data pillar of this site. The pillar's central thesis: helping people extract the smartest, most actionable insights from hard data.

The first lesson is that the most powerful insights often come from what's missing in the data.

Look at your data. Look at your research. Look at your metrics.

Now ask: what's missing? Who isn't here? What didn't the dog bark at?

The answers may change everything.


References

Books

  • Ellenberg, Jordan. How Not To Be Wrong: The Power of Mathematical Thinking. Penguin Press, 2014.
  • Kahneman, Daniel. Thinking, Fast and Slow. Farrar, Straus and Giroux, 2011.
  • Taleb, Nassim Nicholas. The Black Swan: The Impact of the Highly Improbable. Random House, 2007.

Academic Articles

  • Wald, Abraham. "A Method of Estimating Plane Vulnerability Based on Damage of Survivors." Center for Naval Analyses, CRC 432, 1943/1980.
  • Mangel, Marc & Samaniego, Francisco. "Abraham Wald's Work on Aircraft Survivability." Journal of the American Statistical Association, Vol 79, No. 386, 1984.
  • Wallis, W. Allen. "The Statistical Research Group, 1942-1945." Journal of the American Statistical Association 75, 1980.
  • Ioannidis, John P.A. "Why Most Published Research Findings Are False." PLoS Medicine, 2005.

Marketing Cases

  • ANA Educational Foundation. "Got Milk? Case Study."
  • Ogilvy. "Dove Real Beauty Sketches."
  • 4As Timeline. "VW Think Small."
  • Leo Burnett / Contagious. "Always #LikeAGirl Case Study."

Other Sources

  • American Mathematical Society. "The Legend of Abraham Wald." Feature Column, 2016.
  • Farnam Street. "Inversion: The Power of Avoiding Stupidity."
  • Farnam Street. "Survivorship Bias: The Tale of Forgotten Failures."