Dados em mídia: o que a gente media em 1990 e o que aprendemos (com esforço) a enxergar em 2026
- Karina Wenda Landini
- há 3 horas
- 5 min de leitura

Em mídia, a relação com dados sempre foi uma tentativa de traduzir presença em evidência. Em 1990, essa tradução era mais lenta, mais indireta e, muitas vezes, mais “probabilística” do que a gente gostava de admitir. Em 2026, ela é mais rápida, mais instrumentada e mais sofisticada - mas também mais frágil em confiança, mais complexa em governança e, em certos pontos, menos comparável do que o mercado precisa para tomar decisões com serenidade.
O contraste real não é “antes não tinha dado e agora tem”. É outro: em 1990, medíamos para planejar e justificar exposição; hoje, medimos para ajustar, aprender e sustentar escolhas ao longo do caminho. Isso muda tudo, porque desloca a mensuração do papel de documento final para o papel de ferramenta viva, um tipo de bússola que ajuda a construir consistência de presença, em vez de apenas comprovar compra de espaço.
Na década de 90, o centro de gravidade da mensuração estava em métricas de alcance e repetição. GRP, cobertura, frequência, CPM e estimativas de audiência organizavam o investimento e davam uma linguagem comum entre marketing, mídia e veículos. Era um modelo coerente para o ecossistema de então: poucos canais dominantes, consumo mais concentrado e menos pontos de contato “mensuráveis” no nível de indivíduo. A própria evolução tecnológica daquele período - como a migração de diários para medição eletrônica de audiência em TV - melhorou precisão e operacionalidade, mas não mudou a essência do que era medido: continuávamos muito mais perto de “quantas pessoas podem ter sido expostas” do que de “o que essa exposição provocou”.
E aí estavam as dores mais típicas daquela era. A primeira era o tempo: aprender demorava. Otimização, quando existia, vinha tarde, e acabava virando aprendizado “para a próxima”. A segunda era a dependência de proxies: medíamos exposição porque era o que dava para medir com escala; quando queríamos entender lembrança, intenção ou vendas, entrávamos em territórios de pesquisa e correlação onde a ligação com a mídia nem sempre ficava nítida. A terceira era a falta de leitura de jornada: a campanha tinha começo, meio e fim, mas o consumidor já vivia influências simultâneas e contextos que o modelo de mensuração não capturava com precisão. A quarta era a integração: cada meio com sua régua, seu relatório, seu mundo, e a soma nem sempre virava uma visão única sobre presença construída.
Curiosamente, os desejos de capacidade de mensuração nos anos 90 eram muito claros e vários viraram realidade. Havia uma ambição legítima de encurtar a distância entre decisão e evidência: medir mais rápido, com mais granularidade, reduzir desperdício, distinguir entrega de impacto. A partir daí, o digital não só trouxe mais sinais como forçou o mercado a definir padrões mínimos do que significa “entrega qualificada”. Um marco desse esforço é a padronização de viewability, porque ela responde a uma pergunta que, por décadas, ficou sem chão: “isso apareceu de fato para alguém?”. As diretrizes do MRC/IAB dão critérios objetivos para chamar uma impressão de visível (por exemplo, porcentagem mínima de pixels em tela por um tempo mínimo), criando um piso comum para conversas que antes eram puramente declarativas.
Em 2026, a mensuração ganhou musculatura operacional: dashboards, eventos, conversões, cortes, modelagens, testes e leituras quase em tempo real. Também ganhou, para as equipes de marketing e mídia, a chance de tratar campanha menos como “peça fechada” e mais como construção em andamento: a cada semana, uma oportunidade de recalibrar investimento, criativo, frequência, segmentação, sequência de mensagens e contexto de veiculação. Isso é um avanço enorme, porque transforma dado em decisão, e decisão em arquitetura.
Só que o presente também trouxe dores novas (e intensificou algumas antigas). A primeira é confiança e transparência. A cadeia programática e a multiplicação de intermediários criaram um cenário onde, muitas vezes, ver “o todo” é difícil e auditar de ponta a ponta exige disciplina e parceiros muito bem escolhidos. Marc Pritchard (P&G) cristalizou esse desconforto ao criticar a opacidade do ecossistema, descrito como “murky at best and fraudulent at worst”. Para quem lidera mídia, isso não é só debate reputacional: é governança de investimento.
A segunda dor é a confusão entre “métrica correta” e “métrica suficiente”. Viewability foi um passo, mas é só isso: um passo. Um anúncio pode estar visível e ainda assim ser ignorado; pode gerar clique e não construir memória; pode converter no curto prazo e desgastar coerência no longo. O dado, aqui, não falha por ser “ruim”, ele falha quando a gente pede para ele responder sozinho algo que é, por natureza, composto: atenção, contexto, percepção e significado.
A terceira dor é comparabilidade em um mundo de plataformas. Métricas variam, metodologias variam, definições variam. E quando o budget precisa atravessar ecossistemas (social, mídia tradicional, mídia impressa, retail media, OOH digital, CTV), a tomada de decisão pode ficar refém de leituras incomensuráveis.
A quarta é privacidade e perda de sinal: consentimento, restrições de rastreamento e limites de identificação mudaram o jogo. Em vez de prometer controle total (que, na prática, era uma “certeza bonita” e muitas vezes ilusória), o mercado vem sendo empurrado para uma maturidade mais honesta: combinar sinais, aceitar limites, desenhar mensuração desde o planejamento e usar métodos que reduzam a dependência de atribuição simplista.
É nesse pano de fundo que aparecem as esperanças mais realistas para o futuro próximo e elas não soam como “tecnologia salvadora”, e sim como correção de rota do próprio mercado. A primeira esperança é elevar o piso de qualidade: mais auditoria, mais padronização, mais clareza sobre o que é humano, o que é visível e o que é válido. Keith Weed, CMO da Unilever pressionou por padrões mais exigentes ao afirmar que “Anything less than 100% viewability of digital ads is not good enough” comparando com a normalização de uma compra de pacote de biscoitos prometendo 50 unidades por embalagem, mas entregando apenas 45 porque o mercado concorda que 90% de acerto na contagem é bom o suficiente.
E, quando o tema é tráfego não-humano, ele também trouxe uma provocação forte sobre escala do problema: “If you put together the good bots and the bad bots you're talking about 60 percent of the traffic on the Internet.”. A discussão pode ter nuances técnicas, mas a implicação estratégica é direta: números precisam voltar a representar pessoas, e não apenas circulação de sistema.
A segunda esperança é tornar mensuração mais sensível ao que marca realmente disputa: não só exposição e clique, mas qualidade de atenção, contexto, coerência e memória. Não como poesia; como arquitetura. Uma arquitetura de presença, onde o dado não entra para fechar um relatório, mas para orientar escolhas: onde insistir, onde ajustar, onde reduzir, como sequenciar, como sustentar consistência sem saturar, como manter a marca reconhecível e relevante em ambientes diferentes.
No fundo, o contraste entre 1990 e 2026 é o amadurecimento de uma pergunta. Antes: “quantos pontos eu comprei?”. Agora: “que presença eu construí e o que essa presença provocou, de fato?”. Quando a mensuração é tratada como instrumento de decisão (e não como cerimônia de encerramento), ela deixa de ser uma coleção de indicadores e vira um sistema de navegação. E é aí que os dados começam a cumprir o papel mais nobre em mídia: ele deixa de ser um placar e vira um instrumento de direção. E direção é o que permite presença com sentido: aquela que não só aparece, mas permanece.



Comentários