Além da Publicidade
TL;DR
Marketing Mix Modeling (MMM) usa econometria para isolar o impacto real de cada variável de marketing sobre vendas. Enquanto atribuição digital credita o último clique, MMM captura efeitos de longo prazo, sinergia entre canais e fatores externos. Ferramentas open-source como Google Meridian e Meta Robyn democratizaram o acesso. Os dados do IPA Databank, da Analytic Partners e de Lewis & Rao convergem para uma conclusão incômoda: a maioria dos orçamentos de marketing está otimizada para a métrica errada.
O CMO que cortou o orçamento certo
Em 2019, uma empresa europeia de e-commerce revisou seus relatórios de atribuição digital. O veredito do Google Analytics era limpo: busca paga gerava 62% das conversões rastreáveis. Mídia programática aparecia com 4%. TV e rádio mal registravam presença. O CMO fez o que qualquer executivo racional faria. Cortou TV em 70%. Reduziu programática em 40%. Triplicou o investimento em search.
Nos primeiros três meses, o custo por aquisição caiu. O dashboard ficou verde. O board celebrou.
No sexto mês, as vendas totais estagnaram. No nono, começaram a cair. No décimo segundo, a marca havia perdido 11% de participação de mercado. O CMO perdeu o emprego. O substituto contratou uma consultoria de econometria.
O modelo de Marketing Mix Modeling revelou o que o dashboard escondia: TV gerava 34% do volume incremental de vendas. A busca paga capturava demanda que TV criava. Cortar TV foi cortar a raiz e esperar que a planta sobrevivesse.
Essa história se repete com variações em centenas de empresas. A razão é estrutural. Os sistemas de atribuição digital foram desenhados para rastrear cliques, e cliques capturam o momento final de uma decisão que começou muito antes.
A ilusão da mensuração perfeita
A era digital prometeu algo irresistível: mensuração completa. Cada impressão rastreada. Cada clique contabilizado. Cada conversão atribuída ao canal correto. John Wanamaker podia finalmente descansar em paz.
Exceto que a promessa era falsa.
A atribuição de último clique atribui 100% do crédito ao touchpoint final antes da conversão. Uma pessoa vê um anúncio de TV na segunda-feira, pesquisa a marca no Google na terça, clica em um anúncio de search na quarta e compra. O crédito vai inteiro para search. TV recebe zero. A decisão orçamentária que segue é previsível: mais search, menos TV. Mais colheita, menos plantio.
1,2x a 2,3x
Plataformas digitais sobre-reportam sua própria performance por esse fator, segundo análise de 792 modelos em 194 anunciantes (Cassandra, 2026)
Lewis e Rao publicaram no Quarterly Journal of Economics em 2015 um estudo que deveria ter abalado a indústria. A conclusão: medir o retorno real de publicidade digital com experimentos controlados exige amostras tão grandes que os resultados se tornam economicamente impraticáveis para a maioria das campanhas. O problema da incrementalidade revela que testes A/B tradicionais ignoram a pergunta mais cara do marketing: quanto teria acontecido sem a campanha? O experimento mediano na pesquisa deles precisou de 3,3 milhões de observações para distinguir entre uma campanha que se pagava e uma que era ineficaz. Para detectar uma diferença de 5% nos resultados de marketing, foram necessárias 1,3 bilhão de observações.
O problema vai além da escala. Cada plataforma reporta conversões usando modelos proprietários que favorecem a própria plataforma. O Google atribui de um jeito. A Meta atribui de outro. O TikTok de um terceiro. Quando você soma as conversões que cada plataforma declara ter gerado, o total excede as vendas reais da empresa. São todos corretos individualmente e impossíveis coletivamente.
A erosão dos cookies de terceiros agravou o cenário. Safari e Firefox já bloqueiam cookies de terceiros. O Chrome prometeu, recuou e voltou a prometer. A regulação europeia (GDPR) e as leis de privacidade globais restringem o rastreamento individual. A Multi-Touch Attribution (MTA), que dependia de seguir o usuário entre sites, perdeu o chão. O único método que sempre funcionou sem dados individuais voltou ao centro da conversa.
O que é Marketing Mix Modeling, sem mistério
Marketing Mix Modeling é uma técnica estatística que usa dados agregados para quantificar o impacto de cada variável de marketing sobre resultados de negócio. O conceito remonta a 1949. A lógica é direta.
Imagine uma equação. No lado esquerdo, coloque suas vendas semanais. No lado direito, coloque todas as variáveis que podem influenciar essas vendas: investimento em TV, search pago, social media, preço, distribuição, promoções, sazonalidade, temperatura, feriados, ações de concorrentes. O modelo estatístico calcula o coeficiente de cada variável. Quanto de venda cada real investido em cada canal gera, controlando por tudo mais.
MMM opera com dados de nível agregado. Vendas por semana, por região, por canal. Sem necessidade de cookies. Sem rastreamento individual. Sem dependência de plataformas digitais para reportar seus próprios resultados. Essa independência é o que torna MMM relevante quando os modelos baseados em rastreamento individual estão desmoronando.
O que MMM captura e atribuição digital ignora
Efeitos de longo prazo (adstock): a TV que rodou há três semanas ainda gera vendas hoje. Atribuição digital só vê o que acontece na janela de conversão.
Sinergia entre canais: TV amplifica search. Social amplifica display. MMM quantifica essas interações. Atribuição trata cada canal como silo.
Fatores externos: sazonalidade, clima, ações de concorrentes, inflação. MMM controla por eles. Atribuição os ignora e credita ao marketing o que é efeito externo.
Saturação: cada real adicional investido em um canal gera menos retorno. MMM modela essa curva. Atribuição trata o retorno como linear infinito.
O renascimento: por que 2024-2026 mudou tudo
MMM existia desde 1949. Por décadas, ficou restrito a consultorias especializadas que cobravam centenas de milhares de dólares por projeto. O processo levava meses. Exigia econometristas com doutorado. Apenas corporações globais podiam bancar.
Dois eventos quebraram essa barreira.
Em janeiro de 2022, a Meta lançou o Robyn, um pacote open-source de MMM escrito em R. Robyn usa machine learning para automatizar grande parte do processo que antes exigia meses de trabalho manual. O modelo gera soluções Pareto-ótimas, permitindo que o analista escolha entre diferentes trade-offs de ajuste e parcimônia. A BARK, empresa de produtos para pets, usou Robyn para realocar orçamento e identificou que estava sobre-investindo em canais de fundo de funil por 23%.
Em março de 2024, o Google anunciou o Meridian, seu próprio framework open-source de MMM. Construído em Python com inferência bayesiana, Meridian integra dados proprietários do Google (como reach e frequência do YouTube) diretamente no modelo. Em fevereiro de 2025, foi aberto para todos os data scientists e marketers do mundo.
+6,5%
Aumento médio de vendas que marcas de e-commerce obtêm ao otimizar alocação de mídia com MMM, sem aumentar investimento total (Sellforte, 2025)
A democratização tem consequências. Quando MMM custava US$ 300 mil e levava seis meses, ficava confinado a relatórios anuais que poucos liam. Quando MMM roda em semanas, com código aberto e dados atualizados, vira ferramenta de decisão operacional. O ciclo de aprendizado encurta. As decisões erradas são corrigidas antes de causar dano permanente.
O que os modelos realmente mostram
A evidência acumulada por décadas de econometria converge em padrões consistentes que contradizem a sabedoria convencional do marketing digital.
1. Brand building gera a maior parte do crescimento de longo prazo
Les Binet e Peter Field analisaram mais de 1.000 campanhas do IPA Databank e chegaram a uma proporção que se tornou referência: 60% do orçamento para brand building, 40% para ativação. Campanhas que respeitavam essa proporção reportaram efeitos de lucro significativamente maiores no horizonte de três anos. O estudo atualizado de 2018, Effectiveness in Context, refinou o número para 62:38 dependendo da categoria, mas a direção permaneceu. Publicidade de brand building sustenta crescimento no longo prazo de formas que ativação isolada é incapaz de reproduzir.
O problema: atribuição digital é cega para brand building. Se você avalia canais pelo último clique, vai concluir que ativação gera todo o retorno. É como avaliar jogadores de futebol apenas por gols marcados e concluir que goleiros são inúteis. E mesmo quando a empresa aceita investir em marca, a objeção seguinte é previsível: "como meço isso antes de três anos?". A resposta existe, e envolve indicadores antecedentes como Share of Search, disponibilidade mental e ESOV.
2. TV permanece como o canal de maior volume incremental
Dados da Analytic Partners (ROI Genome, base de mais de 750 marcas) mostram repetidamente que TV gera o maior volume absoluto de vendas incrementais entre todos os canais, mesmo com ROI unitário inferior ao de digital. O motivo: alcance. TV atinge audiências que digital simplesmente não alcança na mesma escala, especialmente light buyers, que, como Byron Sharp demonstrou no Ehrenberg-Bass Institute, representam a maior oportunidade de crescimento para qualquer marca.
3. A sinergia entre canais é enorme e sistematicamente ignorada
MMM captura interações entre variáveis. Um dos achados mais robustos: TV amplifica a eficiência de search pago em 20% a 40%, dependendo da categoria (dados Analytic Partners). Quando a marca corta TV, o custo por clique de search sobe. As conversões de search caem. O dashboard mostra search como menos eficiente, mas a causa real foi a remoção de TV. Atribuição de último clique é incapaz de capturar esse efeito.
4. Cortar marketing em crise destrói valor
O ROI Genome da Analytic Partners documentou que 60% das marcas que aumentaram investimento em mídia durante a recessão viram melhora no ROI. Marcas que cortaram orçamento arriscaram perder até 15% da receita, com recuperação que levava anos. A razão econométrica: quando concorrentes cortam, o custo da atenção cai. Quem mantém investimento compra participação mental a preço de desconto.
"O que não podemos medir diretamente, tendemos a tratar como inexistente. Mas os efeitos de longo prazo da publicidade de marca são reais, mensuráveis com as ferramentas certas e frequentemente maiores do que os efeitos de curto prazo que dominam os dashboards."
Les Binet, Head of Effectiveness, adam&eveDDB
As limitações que ninguém quer discutir
MMM resolve problemas reais. Também carrega limitações reais.
Correlação vs. causalidade. MMM é fundamentalmente correlacional. O modelo identifica que quando investimento em TV sobe, vendas sobem. Isso sugere causalidade, mas pode refletir o fato de que empresas investem mais em TV quando esperam vender mais (sazonalidade de Natal, por exemplo). Bons modelos controlam por sazonalidade e variáveis confusoras, mas a armadilha persiste.
Granularidade limitada. MMM opera com dados agregados. Ele diz que TV gerou X vendas incrementais na semana Y. Ele diz qual criativo ou qual programa de TV gerou mais impacto apenas quando o modelo inclui essas variáveis, o que exige dados granulares que nem sempre existem.
Garbage in, garbage out. A qualidade do modelo depende da qualidade dos dados de entrada. Dados de investimento imprecisos, séries temporais curtas demais, variáveis ausentes. Qualquer desses fatores contamina os resultados. Broadbent já alertava em 1997, no seu Accountable Advertising, que o rigor na coleta de dados é mais determinante para a qualidade do modelo do que a sofisticação estatística aplicada.
Resultados estáticos em mercados dinâmicos. Um MMM calibrado com dados de 2023 pode ser irrelevante em 2025 se o mix de mídia mudou, se um novo concorrente entrou ou se o comportamento do consumidor se alterou. Modelos precisam ser recalibrados com frequência, o que as ferramentas open-source finalmente tornaram viável.
MMM + Experimentos: a triangulação que funciona
O estado da arte em mensuração de marketing em 2026 combina três métodos. Nenhum sozinho é suficiente.
MMM fornece a visão macro: quanto cada canal contribui para vendas, como os canais interagem e onde o orçamento está mal alocado. Funciona no nível estratégico. Responde "quanto investir em cada canal."
Experimentos controlados (lift tests) fornecem causalidade: rodar uma campanha em metade das regiões e medir a diferença. Confirmam ou refutam os coeficientes que MMM sugere. O Robyn da Meta, por exemplo, permite calibrar os resultados do MMM com dados de lift tests, aumentando a precisão.
Atribuição digital permanece útil no nível tático: qual criativo performa melhor, qual landing page converte mais, qual campanha de search precisa de ajuste imediato. O erro é usar atribuição para decisões estratégicas de alocação de orçamento.
Cada método ilumina uma parte do problema. Separados, cada um distorce. Combinados, triangulam algo próximo da verdade. O dashboard sozinho conta uma história incompleta. MMM conta outra. Experimentos arbitram entre as duas.
Checklist: sua empresa está pronta para MMM?
- Possui pelo menos 2 anos de dados semanais de vendas e investimento por canal?
- Registra investimento em mídia offline (TV, OOH, rádio) com a mesma disciplina que registra digital?
- Tem acesso a dados de variáveis externas (sazonalidade, preço, distribuição, promoções)?
- Consegue isolar dados por região geográfica para permitir testes controlados?
- Tem pelo menos um analista com fluência em R ou Python para operar Robyn ou Meridian?
- O CMO entende que MMM mede contribuição incremental, e que os números provavelmente vão contradizer o dashboard de atribuição?
- Existe disposição para recalibrar o modelo a cada 6 a 12 meses com dados atualizados?
- A organização aceita que "medir marketing" significa conviver com incerteza, e que intervalos de confiança importam tanto quanto estimativas pontuais?
O fim do achismo é o começo do desconforto
MMM vai te dizer coisas que você talvez prefira ignorar. Vai mostrar que aquele canal que seu dashboard celebra gera menos vendas incrementais do que parece. Vai revelar que o investimento em marca que o CFO quer cortar é responsável por uma parcela de crescimento de longo prazo que nenhuma tática de performance consegue substituir. Vai sugerir que a alocação otimizada é diferente da alocação que sua organização está politicamente disposta a aceitar.
A econometria aplicada ao marketing é desconfortável porque substitui narrativa por número. E números, ao contrário de narrativas, resistem a negociação.
Mas o desconforto é produtivo. Quando a Represent Clothing usou Sellforte para modelar seu mix durante a Black Friday de 2024, realocou orçamento com base nos coeficientes e obteve 44% mais receita incremental em comparação ao ano anterior. O modelo mostrou que a empresa estava sobre-investindo em retargeting e sub-investindo em awareness. O dashboard de atribuição jamais teria chegado a essa conclusão.
O Google Trends mostra que buscas globais por "Marketing Mix Modeling" crescem consistentemente há uma década. A WARC declarou 2025 o ano do renascimento do MMM. A convergência entre erosão de cookies, regulação de privacidade e ferramentas open-source criou uma janela que raramente se abre. Pela primeira vez, empresas de qualquer porte podem rodar modelos econométricos com a mesma sofisticação que antes custava o orçamento anual de uma startup.
A pergunta que MMM responde é a mesma de sempre: onde cada real investido gera mais retorno? A diferença é que agora, com as ferramentas certas, a resposta está ao alcance de quem estiver disposto a aceitar o que os dados dizem. Mesmo quando dizem o contrário do que o dashboard mostra.
Referências e fontes
Pesquisa acadêmica
- Lewis, R. A. & Rao, J. M. (2015). "The Unfavorable Economics of Measuring the Returns to Advertising." Quarterly Journal of Economics, 130(4), 1941-1973.
- Binet, L. & Field, P. (2013). The Long and the Short of It: Balancing Short and Long-Term Marketing Strategies. IPA.
- Binet, L. & Field, P. (2018). Effectiveness in Context. IPA.
- Sharp, B. (2010). How Brands Grow: What Marketers Don't Know. Oxford University Press.
- Broadbent, S. (1997). Accountable Advertising. Admap Publications.
Ferramentas e plataformas
- Google Meridian. Open-source MMM framework (2024). developers.google.com/meridian
- Meta Robyn. AI/ML-powered open-source MMM (2022). facebookexperimental.github.io/Robyn
- Sellforte. MMM para e-commerce e varejo. sellforte.com
Dados e relatórios
- Analytic Partners. ROI Genome Intelligence Reports (2022-2025). analyticpartners.com
- WARC. "The Renaissance of Marketing Mixed Modelling" (2024). warc.com
- Cassandra. "Marketing Attribution Software Analysis: 792 Models, 194 Advertisers" (2026). cassandra.app
- IPA Effectiveness Databank. Mais de 1.000 campanhas analisadas. ipa.co.uk
Cases
- BARK: Otimização de alocação de orçamento com Robyn (Meta case study)
- Represent Clothing: +44% receita incremental via MMM na Black Friday 2024 (Sellforte case study)
- Central Retail Corporation: MMM in-house com Robyn (Meta case study)
Diego Isaac é estrategista de marcas. Escreve sobre o que a ciência diz que funciona em marketing, especialmente quando contradiz o que o mercado pratica.
LinkedIn
Beyond Advertising
TL;DR
Marketing Mix Modeling (MMM) uses econometrics to isolate the true impact of each marketing variable on sales. While digital attribution credits the last click, MMM captures long-term effects, cross-channel synergies, and external factors. Open-source tools like Google Meridian and Meta Robyn have democratized access. Data from the IPA Databank, Analytic Partners, and Lewis & Rao converge on an uncomfortable conclusion: most marketing budgets are optimized for the wrong metric.
The CMO who cut the right budget
In 2019, a European e-commerce company reviewed its digital attribution reports. The Google Analytics verdict was clean: paid search drove 62% of trackable conversions. Programmatic display showed 4%. TV and radio barely registered. The CMO did what any rational executive would do. Cut TV by 70%. Reduced programmatic by 40%. Tripled investment in search.
In the first three months, cost per acquisition dropped. The dashboard turned green. The board celebrated.
By month six, total sales stagnated. By month nine, they started falling. By month twelve, the brand had lost 11% market share. The CMO lost his job. His replacement hired an econometrics consultancy.
The Marketing Mix Model revealed what the dashboard had hidden: TV generated 34% of incremental sales volume. Paid search was capturing demand that TV created. Cutting TV meant cutting the root and expecting the plant to survive.
This story repeats itself with variations across hundreds of companies. The reason is structural. Digital attribution systems were designed to track clicks, and clicks capture the final moment of a decision that began much earlier.
The illusion of perfect measurement
The digital era promised something irresistible: complete measurement. Every impression tracked. Every click counted. Every conversion attributed to the correct channel. John Wanamaker could finally rest in peace.
Except the promise was false.
Last-click attribution assigns 100% of credit to the final touchpoint before conversion. A person sees a TV ad on Monday, searches the brand on Google Tuesday, clicks a search ad Wednesday, and buys. All credit goes to search. TV gets zero. The budget decision that follows is predictable: more search, less TV. More harvesting, less planting.
1.2x to 2.3x
Digital platforms over-report their own performance by this factor, according to analysis of 792 models across 194 advertisers (Cassandra, 2026)
Lewis and Rao published in the Quarterly Journal of Economics in 2015 a study that should have shaken the industry. The conclusion: measuring the true return of digital advertising through controlled experiments requires samples so large that results become economically impractical for most campaigns. The incrementality problem shows that traditional A/B tests ignore marketing's most expensive question: how much would have happened without the campaign? The median experiment in their research needed 3.3 million observations to distinguish between a break-even campaign and an ineffective one. To detect a 5% difference in marketing outcomes, 1.3 billion observations were required.
The problem extends beyond scale. Each platform reports conversions using proprietary models that favor its own platform. Google attributes one way. Meta another. TikTok a third. When you sum the conversions each platform claims to have generated, the total exceeds the company's actual sales. All individually correct and collectively impossible.
Third-party cookie erosion has worsened the picture. Safari and Firefox already block third-party cookies. Chrome promised, reversed course, and promised again. European regulation (GDPR) and global privacy laws restrict individual tracking. Multi-Touch Attribution (MTA), which depended on following users across sites, lost its foundation. The only method that always worked without individual data returned to center stage.
What Marketing Mix Modeling actually is
Marketing Mix Modeling is a statistical technique that uses aggregate data to quantify the impact of each marketing variable on business outcomes. The concept dates back to 1949. The logic is straightforward.
Imagine an equation. On the left side, place your weekly sales. On the right side, place every variable that might influence those sales: TV investment, paid search, social media, price, distribution, promotions, seasonality, temperature, holidays, competitor actions. The statistical model calculates each variable's coefficient. How much sales each dollar invested in each channel generates, controlling for everything else.
MMM operates with aggregate-level data. Sales by week, by region, by channel. No cookies needed. No individual tracking. No dependence on digital platforms to self-report their own results. This independence is what makes MMM relevant when individual-tracking-based models are collapsing.
What MMM captures and digital attribution misses
Long-term effects (adstock): the TV that ran three weeks ago still drives sales today. Digital attribution only sees what happens within the conversion window.
Cross-channel synergy: TV amplifies search. Social amplifies display. MMM quantifies these interactions. Attribution treats each channel as a silo.
External factors: seasonality, weather, competitor actions, inflation. MMM controls for them. Attribution ignores them and credits marketing for what are external effects.
Saturation: each additional dollar invested in a channel yields diminishing returns. MMM models this curve. Attribution treats returns as infinitely linear.
The renaissance: why 2024-2026 changed everything
MMM has existed since 1949. For decades, it remained confined to specialized consultancies charging hundreds of thousands of dollars per project. The process took months. Required PhD-level econometricians. Only global corporations could afford it.
Two events broke this barrier.
In January 2022, Meta launched Robyn, an open-source MMM package written in R. Robyn uses machine learning to automate much of the process that previously required months of manual work. The model generates Pareto-optimal solutions, allowing analysts to choose among different fit-parsimony trade-offs. BARK, a pet products company, used Robyn to reallocate budget and discovered it was over-investing in bottom-of-funnel channels by 23%.
In March 2024, Google announced Meridian, its own open-source MMM framework. Built in Python with Bayesian inference, Meridian integrates Google's proprietary data (like YouTube reach and frequency) directly into the model. In February 2025, it was opened to all data scientists and marketers worldwide.
+6.5%
Average sales increase e-commerce brands achieve by optimizing media allocation with MMM, without increasing total investment (Sellforte, 2025)
Democratization has consequences. When MMM cost $300,000 and took six months, it stayed confined to annual reports that few read. When MMM runs in weeks, with open-source code and updated data, it becomes an operational decision tool. The learning cycle shortens. Wrong decisions get corrected before causing permanent damage.
What the models actually show
Evidence accumulated over decades of econometrics converges on consistent patterns that contradict conventional digital marketing wisdom.
1. Brand building drives most long-term growth
Les Binet and Peter Field analyzed over 1,000 campaigns from the IPA Databank and arrived at a ratio that became the benchmark: 60% of budget for brand building, 40% for activation. Campaigns respecting this ratio reported significantly larger profit effects over three-year horizons. The updated 2018 study, Effectiveness in Context, refined the number to 62:38 depending on category, but the direction held. Brand building advertising sustains long-term growth in ways that activation alone cannot reproduce.
The problem: digital attribution is blind to brand building. If you evaluate channels by last click, you will conclude that activation drives all returns. It is like evaluating football players only by goals scored and concluding that goalkeepers are useless. And even when a company accepts investing in brand, the next objection is predictable: "how do I measure this before three years?". The answer exists, and involves leading indicators like Share of Search, mental availability, and ESOV.
2. TV remains the highest-volume incremental channel
Data from Analytic Partners (ROI Genome, database of 750+ brands) consistently shows that TV generates the largest absolute volume of incremental sales among all channels, even with lower per-unit ROI than digital. The reason: reach. TV reaches audiences that digital simply cannot match at the same scale, especially light buyers who, as Byron Sharp demonstrated at the Ehrenberg-Bass Institute, represent the largest growth opportunity for any brand.
3. Cross-channel synergy is massive and systematically ignored
MMM captures interactions between variables. One of the most robust findings: TV amplifies paid search efficiency by 20% to 40%, depending on category (Analytic Partners data). When a brand cuts TV, cost per click for search rises. Search conversions decline. The dashboard shows search as less efficient, but the real cause was removing TV. Last-click attribution cannot capture this effect.
4. Cutting marketing during crises destroys value
Analytic Partners' ROI Genome documented that 60% of brands that increased media investment during recession saw ROI improvements. Brands that cut budgets risked losing up to 15% of revenue, with recovery taking years. The econometric logic: when competitors cut, the cost of attention drops. Those who maintain investment buy mental availability at a discount.
"What we cannot measure directly, we tend to treat as nonexistent. But the long-term effects of brand advertising are real, measurable with the right tools, and often larger than the short-term effects that dominate dashboards."
Les Binet, Head of Effectiveness, adam&eveDDB
The limitations nobody wants to discuss
MMM solves real problems. It also carries real limitations.
Correlation vs. causation. MMM is fundamentally correlational. The model identifies that when TV investment rises, sales rise. This suggests causation, but may reflect the fact that companies invest more in TV when they expect to sell more (Christmas seasonality, for example). Good models control for seasonality and confounding variables, but the trap persists.
Limited granularity. MMM operates with aggregate data. It says TV generated X incremental sales in week Y. It reveals which creative or which TV program drove more impact only when the model includes those variables, which requires granular data that does not always exist.
Garbage in, garbage out. Model quality depends on input data quality. Imprecise investment data, time series that are too short, missing variables. Any of these factors contaminates results. Broadbent warned in 1997, in his Accountable Advertising, that rigor in data collection determines model quality more than statistical sophistication.
Static results in dynamic markets. An MMM calibrated with 2023 data may be irrelevant in 2025 if the media mix changed, a new competitor entered, or consumer behavior shifted. Models need frequent recalibration, which open-source tools have finally made viable.
MMM + Experiments: the triangulation that works
The state of the art in marketing measurement in 2026 combines three methods. None alone is sufficient.
MMM provides the macro view: how much each channel contributes to sales, how channels interact, and where budget is misallocated. It works at the strategic level. It answers "how much to invest in each channel."
Controlled experiments (lift tests) provide causality: run a campaign in half the regions and measure the difference. They confirm or refute the coefficients MMM suggests. Meta's Robyn, for instance, allows calibrating MMM results with lift test data, increasing accuracy.
Digital attribution remains useful at the tactical level: which creative performs best, which landing page converts more, which search campaign needs immediate adjustment. The error is using attribution for strategic budget allocation decisions.
Each method illuminates part of the problem. Separately, each distorts. Combined, they triangulate something close to truth. The dashboard alone tells an incomplete story. MMM tells another. Experiments arbitrate between them.
Checklist: is your company ready for MMM?
- Do you have at least 2 years of weekly sales and channel investment data?
- Do you record offline media investment (TV, OOH, radio) with the same discipline as digital?
- Do you have access to external variable data (seasonality, pricing, distribution, promotions)?
- Can you isolate data by geographic region to enable controlled tests?
- Do you have at least one analyst fluent in R or Python to operate Robyn or Meridian?
- Does the CMO understand that MMM measures incremental contribution, and that the numbers will likely contradict the attribution dashboard?
- Is there willingness to recalibrate the model every 6 to 12 months with updated data?
- Does the organization accept that "measuring marketing" means living with uncertainty, and that confidence intervals matter as much as point estimates?
The end of guesswork is the beginning of discomfort
MMM will tell you things you might prefer to ignore. It will show that the channel your dashboard celebrates generates fewer incremental sales than it appears. It will reveal that the brand investment the CFO wants to cut drives a share of long-term growth that no performance tactic can replace. It will suggest that the optimal allocation differs from the allocation your organization is politically willing to accept.
Econometrics applied to marketing is uncomfortable because it replaces narrative with numbers. And numbers, unlike narratives, resist negotiation.
But discomfort is productive. When Represent Clothing used Sellforte to model its mix during Black Friday 2024, it reallocated budget based on coefficients and achieved 44% more incremental revenue compared to the previous year. The model showed the company was over-investing in retargeting and under-investing in awareness. The attribution dashboard would never have reached that conclusion.
Google Trends shows that global searches for "Marketing Mix Modeling" have been growing consistently for a decade. WARC declared 2025 the year of MMM's renaissance. The convergence of cookie erosion, privacy regulation, and open-source tools created a window that rarely opens. For the first time, companies of any size can run econometric models with the same sophistication that previously cost a startup's annual budget.
The question MMM answers is the same as always: where does each dollar invested generate the most return? The difference is that now, with the right tools, the answer is within reach for anyone willing to accept what the data says. Even when it says the opposite of what the dashboard shows.
References and sources
Academic research
- Lewis, R. A. & Rao, J. M. (2015). "The Unfavorable Economics of Measuring the Returns to Advertising." Quarterly Journal of Economics, 130(4), 1941-1973.
- Binet, L. & Field, P. (2013). The Long and the Short of It: Balancing Short and Long-Term Marketing Strategies. IPA.
- Binet, L. & Field, P. (2018). Effectiveness in Context. IPA.
- Sharp, B. (2010). How Brands Grow: What Marketers Don't Know. Oxford University Press.
- Broadbent, S. (1997). Accountable Advertising. Admap Publications.
Tools and platforms
- Google Meridian. Open-source MMM framework (2024). developers.google.com/meridian
- Meta Robyn. AI/ML-powered open-source MMM (2022). facebookexperimental.github.io/Robyn
- Sellforte. MMM for e-commerce and retail. sellforte.com
Data and reports
- Analytic Partners. ROI Genome Intelligence Reports (2022-2025). analyticpartners.com
- WARC. "The Renaissance of Marketing Mixed Modelling" (2024). warc.com
- Cassandra. "Marketing Attribution Software Analysis: 792 Models, 194 Advertisers" (2026). cassandra.app
- IPA Effectiveness Databank. Over 1,000 campaigns analyzed. ipa.co.uk
Case studies
- BARK: Budget allocation optimization with Robyn (Meta case study)
- Represent Clothing: +44% incremental revenue via MMM on Black Friday 2024 (Sellforte case study)
- Central Retail Corporation: In-house MMM with Robyn (Meta case study)
Diego Isaac is a brand strategist. He writes about what science says works in marketing, especially when it contradicts what the market practices.
LinkedIn