Um número com muitas casas decimais inspira confiança. Não deveria.
Há uma confusão persistente que atravessa o discurso público, os relatórios técnicos, os modelos económicos e até alguns artigos científicos: a confusão entre precisão e exactidão. São conceitos distintos, com implicações distintas, e misturá-los tem consequências que vão muito além do pedantismo metrológico.
A precisão diz respeito à reprodutibilidade de um resultado: a dispersão das medições em torno de um valor central. A exactidão diz respeito à proximidade desse valor central em relação à realidade. Um instrumento pode ser extraordinariamente preciso e sistematicamente errado. Um arqueiro que acerta sempre no mesmo ponto fora do centro é preciso. Não é exacto.
Isto seria apenas uma nota técnica de rodapé se a nossa cognição não reagisse ao número com mais casas decimais como se fosse mais verdadeiro. Não é um defeito dos outros: é uma tendência documentada, robusta, e muito difícil de contrariar mesmo quando se conhece o mecanismo.
Precisão como autoridade
O problema começa na apresentação. Quando um modelo económico projecta o crescimento do PIB em 2,347%, a terceira casa decimal não acrescenta informação: acrescenta aparência de rigor. O modelo que produziu esse número tem pressupostos, simplificações e incertezas que tornam a distinção entre 2,3% e 2,4% completamente sem sentido. Mas o número com três casas decimais comunica algo diferente: comunica que alguém sabe, com detalhe e profundidade, o que vai acontecer.
Note-se o contraste com a física. A massa do electrão, segundo os valores recomendados pelo CODATA em 2018, é 9,1093837015 × 10⁻³¹ kg: onze algarismos significativos, com uma incerteza declarada de ±0,0000000028 × 10⁻³¹ kg. As casas decimais extra existem porque a incerteza foi medida e está explicitamente declarada. O número longo não é uma pose de rigor: é o resultado de medições independentes repetidas em laboratórios distintos, com o intervalo de incerteza como parte integrante do resultado. Sem ele, o número não é um resultado, é uma afirmação incompleta.
Nassim Taleb descreveu um mecanismo afim no conceito que designou por falácia lúdica: a tendência para tratar a incerteza real — aberta, irredutível, mal definida — como se fosse a incerteza bem-comportada de um jogo de casino, onde as probabilidades são conhecidas, as regras fixas e os resultados calculáveis. A precisão numérica do modelo opera exactamente como essa ilusão: dá a aparência de termos medido o risco quando apenas o encenámos. Não é incompetência dos modelos; é uma ilusão estrutural produzida pelo formalismo matemático quando aplicado a domínios que lhe são resistentes.
Isto é particularmente perigoso porque o antídoto não é simples. Não basta dizer «os números podem estar errados». É preciso perceber como estão errados e porquê, o que implica distinguir erro aleatório de erro sistemático, variância de enviesamento, e aquilo que um modelo pode, por natureza, saber daquilo que não pode.
Dois tipos de erro que não são a mesma coisa
Em metrologia, a ciência da medição, a distinção entre erro sistemático e erro aleatório é fundamental e não é negociável.
O erro aleatório é imprevisível, flutua em torno de zero, e diminui com a repetição das medições. É o ruído. Mais medições, menos ruído, até ao limite imposto pela física do instrumento.
O erro sistemático é constante, ou pelo menos consistente. Não diminui com a repetição. Um termómetro mal calibrado que lê sempre 0,5 graus a mais produz medições muito precisas e sistematicamente erradas. Repetir a medição mil vezes não resolve o problema, confirma-o com maior confiança estatística.
A questão relevante não é apenas técnica. A maior parte dos erros consequentes na ciência aplicada, na economia e na política pública não são erros aleatórios; são erros sistemáticos que resultam de pressupostos incorrectos, de amostras não representativas, de definições operacionais que não capturam o fenómeno que se pretende medir. São erros que a precisão estatística não corrige; pelo contrário, pode amplificar, porque um resultado sistematicamente enviesado, apresentado com intervalos de confiança apertados, é mais enganador do que um resultado ruidoso e honestamente incerto.
O problema das definições
Antes de qualquer medição, há uma definição. E as definições raramente são inócuas.
O que é o «desemprego»? A taxa oficial conta os que estão sem trabalho e à procura activa de emprego. Não conta os que desistiram de procurar, os que trabalham a tempo parcial involuntariamente, os que aceitaram emprego muito abaixo das suas qualificações. O número que sai — 6,2%, por exemplo — é calculado com precisão a partir de uma definição que exclui precisamente as situações mais problemáticas. O número é preciso. A realidade que representa é parcial.
O mesmo se aplica ao produto interno bruto como medida de bem-estar, à temperatura média global como descrição do estado do clima, ao QI como medida de inteligência, ao valor p como critério de significância científica. Cada um destes números captura uma fatia da realidade com razoável precisão e omite, estruturalmente, o que não cabe na definição.
Um caso de manual: em 2017, a American Heart Association e o American College of Cardiology baixaram o limiar de diagnóstico de hipertensão de 140/90 para 130/80 mmHg. Do dia para a noite, a prevalência de hipertensão nos Estados Unidos saltou de cerca de 32% para perto de 46% da população adulta. Entre adultos com menos de 45 anos, a prevalência mais do que duplicou. Nenhuma tensão arterial mudou: mudou a definição. O número de hipertensos cresceu de forma mensurável, precisa e absolutamente real, dentro dos limites da definição adoptada. Fora desses limites, a biologia ficou como estava.

George Box, estatístico britânico, formulou isto com uma clareza que sobreviveu ao tempo: «Essencialmente, todos os modelos estão errados, mas alguns são úteis.» O problema não é a imperfeição dos modelos, mas a frequência com que esquecemos facilmente a primeira parte da frase.
A falácia da narrativa e os modelos retrospectivos
Há um caso especialmente insidioso: o modelo construído depois de os dados existirem e que, por isso, se ajusta a eles com aparente perfeição.
Qualquer conjunto de dados históricos pode ser ajustado por um modelo suficientemente complexo. Se há liberdade para escolher a forma funcional, os parâmetros e as variáveis explicativas depois de ver os dados, é sempre possível encontrar uma equação que os descreva bem. Isso não significa que o modelo captou a estrutura real do fenómeno; significa que se encontrou uma curva que passa pelos pontos.

O teste relevante é o de fora da amostra: o modelo que foi ajustado ao passado consegue prever o futuro? Com frequência, não.
Os modelos financeiros que «explicavam» os mercados até 2007 falharam quando mais importava. Os modelos epidemiológicos do início de 2020 divergiram entre si e erraram substancialmente em relação à realidade observada, em particular nas previsões do primeiro pico da pandemia. Há erros documentados da ordem de uma grandeza. Não porque os seus autores fossem incompetentes, muitos eram investigadores sérios. Mas o fenómeno tinha uma complexidade que o modelo não conseguia capturar, e a precisão das estimativas escondia essa incapacidade.
Taleb chamou a este segundo padrão a falácia da narrativa: a tendência para construir histórias coerentes sobre eventos passados que eram, no momento em que ocorreram, muito menos previsíveis do que parecem à posteriori. O modelo retrospectivo é sempre mais convincente do que o modelo prospectivo deveria ser, e essa assimetria é raramente declarada.
Quando a incerteza é parte do resultado
A física experimental tem uma relação estruturalmente honesta com a incerteza. Esta relação não surge por virtude particular dos físicos, mas porque a física desenvolveu, ao longo de séculos, uma cultura e uma linguagem que tornam a declaração explícita das incertezas constitutiva do próprio resultado.
Um resultado experimental sem incerteza associada não é um resultado, é uma afirmação incompleta. Quando se publica uma medição, publica-se também o intervalo de incerteza, a sua origem (estatística ou sistemática), e os pressupostos que a sustentam. O número isolado não tem significado; o número com a sua incerteza é o resultado real.
O exemplo mais extremo que a física conhece é o momento magnético anómalo do electrão. A medição mais recente, obtida em 2023 na Universidade de Northwestern, deu ae = 1,001 159 652 180 59, com uma incerteza de 0,13 partes por bilião: a propriedade mais precisamente medida de qualquer partícula elementar. A concordância entre teoria e experiência atinge 1 parte em 10¹². Este número tem doze casas decimais verificadas, cada uma delas com incerteza declarada e escrutinada.

É o oposto exacto do PIB a 2,347%: aqui as casas decimais existem porque foram conquistadas medição a medição, e a incerteza está sempre presente, sempre visível, e é ela própria objecto de análise.
Seria injusto concluir que outras disciplinas ignoram a incerteza nos seus contextos técnicos. Há econometria séria, epidemiologia séria e estatística aplicada séria com normas de rigor tão exigentes quanto as da física experimental. O problema não é disciplinar: é o que acontece quando o conhecimento especializado sai dos seus contextos de produção e entra no discurso público, político ou jornalístico. É nessa tradução que a incerteza costuma desaparecer, porque complica a mensagem, fragiliza a autoridade e torna o número menos utilizável como instrumento de persuasão.
Não é coincidência que a ilusão de precisão seja mais prevalente onde a pressão para comunicar certeza é maior: política, economia, previsão institucional. O problema não está tanto nas disciplinas quanto nas condições em que os seus resultados circulam.
Como ler números com mais cuidado
Não se trata de desconfiar de todos os números, isso seria uma forma diferente de irracionalidade. Trata-se de fazer as perguntas certas.
O que é que este número está a medir, exactamente? A definição operacional do conceito corresponde ao conceito que me interessa? Qual é a incerteza associada, e é estatística ou sistemática? O modelo foi construído antes ou depois de ver os dados? O que é que este número não captura?
Estas não são perguntas técnicas reservadas a especialistas. São perguntas de literacia quantitativa básica: a capacidade de interagir com números sem lhes atribuir autoridade que não merecem.
Um número com muitas casas decimais pode ser o resultado de medição cuidadosa e honesta. Pode também ser a embalagem sofisticada de uma suposição mal fundamentada. A diferença entre os dois casos não está no número, está no que o produziu.
Aprender a distingui-los é mais útil do que confiar em qualquer modelo em particular.
Uma última nota: este artigo também constrói uma narrativa. Qualquer leitura crítica que se aplique a outros números deve aplicar-se igualmente às suas afirmações.
Referências
E. Tiesinga, P. J. Mohr, D. B. Newell, B. N. Taylor, CODATA Recommended Values of the Fundamental Physical Constants: 2018, Reviews of Modern Physics 93, 025010 (2021). DOI: 10.1103/RevModPhys.93.025010N
N. Taleb, The Black Swan: The Impact of the Highly Improbable (Random House, Nova Iorque, 2007).
G. E. P. Box, Science and Statistics, Journal of the American Statistical Association 71, 791–799 (1976). DOI: 10.1080/01621459.1976.10480949
P. K. Whelton et al., 2017 ACC/AHA/AAPA/ABC/ACPM/AGS/APhA/ASH/ASPC/NMA/PCNA Guideline for the Prevention, Detection, Evaluation, and Management of High Blood Pressure in Adults, Journal of the American College of Cardiology 71, e127–e248 (2018). DOI: 10.1016/j.jacc.2017.11.006P
Muntner, R. M. Carey, S. Gidding, D. W. Jones, S. J. Taler, J. T. Wright Jr., P. K. Whelton, Potential U.S. Population Impact of the 2017 ACC/AHA High Blood Pressure Guideline, Journal of the American College of Cardiology 71, 109–118 (2018). DOI: 10.1016/j.jacc.2017.10.073
X. Fan, T. G. Myers, B. A. D. Sukra, G. Gabrielse, Measurement of the Electron Magnetic Moment, Physical Review Letters 130, 071801 (2023). DOI: 10.1103/PhysRevLett.130.071801




