Incerteza, probabilidade e a práxis da ciência contemporânea
Renato Kinouchi
Professor do PPGFil da UFABC
11/06/2021 • Coluna ANPOF
Sou de um país vertiginoso onde a loteria é a parte principal da realidade: até o dia de hoje, pensei tão pouco nela como na conduta dos deuses indecifráveis ou do meu coração. (A loteria da Babilônia, J. L. Borges)
Quem porventura tenha cursado uma disciplina tradicional de filosofia da ciência provavelmente estudou o modelo da lei de cobertura de Hempel (em Filosofia da Ciência Natural), que divide as explicações científicas em duas grandes classes, a saber, as explicações dedutivo-nomológicas e as explicações probabilísticas. Provavelmente também se recorda de que a visão de ciência sustentada pelo empirismo lógico, em geral, dava primazia às explicações dedutivo-nomológicas, ao passo que as explicações probabilísticas eram consideradas incapazes de fornecer universalidade e certeza dedutiva, fornecendo apenas, e no máximo, algum grau apreciável de probabilidade ou de certeza prática. Cumpre dizer que esse tipo de hierarquização não é exclusividade do empirismo lógico. Muito pelo contrário, trata-se de algo recorrente no pensamento ocidental, podendo ser rastreado em Aristóteles, que incorpora o espontâneo (automaton) e o acaso (tyché) em sua física enquanto explica que, por se tratarem de causas acidentais, não estão no mesmo patamar de importância das quatro causas necessárias, não acidentais, que seriam o verdadeiro objeto da ciência.
Embora depreciadas teoricamente, a noção de acaso e, seu correlato epistemológico, a noção de probabilidade, ambas desempenhavam um papel relevante no âmbito dos saberes práticos. Os estudos sobre a história da probabilidade invariavelmente discorrem sobre como tal noção esteve por muito tempo associada a assuntos mundanos, tais como os jogos de azar, as loterias e os contratos de cobertura de riscos de viagens comerciais marítimas. Por sinal, o próprio marco do aparecimento da teoria clássica da probabilidade aconteceu nesse contexto, por ocasião da correspondência entre Fermat e Pascal sobre a divisão das apostas em um jogo de dados interrompido. A partir de então, houve um contínuo desenvolvimento do cálculo probabilístico e da estatística, com aplicações extremamente amplas. Por exemplo, nos laboratórios as medições estão sujeitas a erros de observação, os quais, entretanto, podem ser tratados estatisticamente de modo a se estimar o erro provável das medições. Por outro lado, certas distribuições estatísticas são muito robustamente encontradas em fenômenos populacionais, e os agentes políticos e econômicos podem tirar proveito disso por meio de previsões de médio e longo prazo. Diga-se de passagem que os estados nacionais realizam censos populacionais periódicos a fim de obter parâmetros confiáveis para projetar e avaliar suas políticas públicas — e ai daqueles que abrem mão dessa ferramenta fundamental, pois terão como guia apenas a ignorância de si. Em todo caso, esses assuntos envolvem questões práticas de quem está na lida diária no laboratório, na pesquisa de campo ou no bureau de estatística. Sobre essa parte da história da probabilidade, vale a pena conferir o livro The Taming of Chance, de Ian Hacking.
A estatística e o cálculo de probabilidades ampliam consideravelmente as maneiras de testar as hipóteses. Na visão popularizada por Popper, o teste de hipótese se dá pela comparação dos resultados experimentais com aquilo que foi deduzido das leis gerais e das condições iniciais do fenômeno investigado. Note-se, neste interim, que os dados são comparados com algo concebido no domínio da certeza. Mas a estatística também permite comparar os dados com distribuições aleatórias, de tal modo que se encontrarmos dados que diferem significativamente de uma distribuição aleatória, então podemos inferir, com certo grau de probabilidade, que há alguma coisa interferindo. Nesse tipo de investigação, é extremamente importante que o desenho experimental seja randomizado, pois apenas assim a amostra poderá ser adequadamente comparada com uma distribuição aleatória. O exemplo mais à mão, lamentavelmente, é o dos ensaios clínicos randomizados empregados no desenvolvimento de vacinas. Nesse caso, a amostra da população deve ser representativa mas também deve ser selecionada e alocada, nos grupos experimental e controle, de maneira randômica. Procede-se dessa forma para que o grupo controle, que recebe o placebo, aproxime-se o mais possível do comportamento estatístico esperado de uma população deixada, por assim dizer, à própria sorte.
A partir da segunda metade do século passado a informática potencializou enormemente a utilização de ferramentas estatísticas, engendrando o nascimento da ciência de dados. Talvez não seja exagero dizer que, hoje em dia, aquela certeza advinda da aplicação de leis gerais e necessárias tornou-se uma peça do museu da ciência. A variedade de modelos e métodos experimentais empregados na pesquisa simplesmente não cabe na lousa de um curso tradicional de filosofia da ciência. E quando se vasculha a produção filosófica recente sobre o assunto, encontra-se uma volumosa literatura a respeito de modelos probabilísticos, compondo uma subárea que se pode chamar, grosso modo, de filosofia da probabilidade — para um panorama da área, conferir The Oxford Handbook of Probability and Philosophy, editado por Hájek & Hitchcock. A certeza, nesse quadro alternativo, é o caso especial onde o grau de probabilidade de uma hipótese equivale a 1, havendo graus intermediários ao longo de uma métrica, por meio da qual se pode estimar o quanto apostar em uma hipótese em comparação com as outras.
Ocorre que quem aposta em uma hipótese sempre corre o risco de decepcionar-se. As decepções podem ser de dois tipos: 1) posso apostar que a hipótese é verdadeira mas ela ser falsa, e 2) posso apostar que a hipótese é falsa mas ela ser verdadeira. Quando as possíveis decepções decorrentes das apostas não forem muito custosas, isto é, quando as perdas consequentes das falhas acima não forem de monta, podemos nos entreter com as hipóteses como se elas fizessem parte um jogo inocente. Mas quando as opções de aposta engendram consequências sociais e éticas consideráveis, aparece uma questão de valores na tomada de decisão — como explicado por Eros Carvalho, no ensaio As Humanidade e o uso adequado da Ciência. Denomina-se risco indutivo a probabilidade daquelas falhas multiplicada pela grandeza das consequências danosas. Em um influente artigo intitulado Inductive Risk and Values in Science, a filósofa Heather Douglas argumenta que o risco indutivo mostra que a aceitação ou rejeição de hipóteses precisa considerar valores sociais e éticos quando as consequências da decisão ameaçam tais valores. Considere-se, por exemplo, a hipótese de que a livre circulação do vírus da Covid-19 levaria naturalmente à imunidade de rebanho. Embora a hipótese realmente possua alguma probabilidade de ser verdadeira, o risco dessa opção é incomparavelmente maior do que o risco envolvido no desenvolvimento de vacinas. Em minha opinião, esse é o golpe de misericórdia na já surrada norma da ciência livre de valores.
Nos últimos anos temos visto movimentos de vanguarda em filosofia que confrontam certos tabus e preconceitos correntes até poucas décadas. À primeira vista, a área da filosofia da ciência pode parecer conservadora e modorrenta em suas transformações. Mas a reflexão que desejo deixar é a de que, em suma, está em curso uma notável valorização do papel desempenhado pelo conceito de probabilidade, e isso põe em xeque um dos mais recorrentes dogmas da ciência do passado, o de que o conhecimento científico só se estabelece no domínio da certeza. Uma visão atualizada da ciência mostra um cenário bem diferente: cientistas tirando proveito da aleatoriedade e da estatística para estimar e comparar, por meio de ferramentas computacionais, a probabilidade e o risco das hipóteses aventadas. Cada vez mais a probabilidade é o guia da vida — inclusive para quem se engaja na vida da pesquisa científica.