quinta-feira, 13 de dezembro de 2018

Certeza e incerteza, objectividade e subjectividade

Meu texto no vol. XII de "Ética Aplicada" (Edições 70), sobre "Investigação Científica", coordenado por Maria do Céu Patrão Neves e Maria da Graça Carvalho:

A ciência, que está por todo o lado nas nossas vidas, goza de uma aura de indisputabilidade. Ouve-se muitas vezes dizer que certa afirmação «foi provada pela ciência», ou que «é baseada em evidência científica». Associa-se à certeza e à objectividade. Como a certeza e a objectividade são virtudes epistémicas, a ciência detém um enorme poder social, o poder, em muitos casos, de fechar uma discussão. As relações entre ciência, certeza e objectividade, embora íntimas, não dispensam uma análise cuidada. Convém começar por definir o que são a ciência, a certeza e a objectividade (e, em contraste, o que são a não ciência, a incerteza e a subjectividade) para melhor compreender o real poder da ciência e as suas limitações.

Dado que a ciência tem um percurso histórico, que eclode de um modo muito nítido com a Revolução Científica nos séculos XVI e XVII, a consideração da história da ciência (e, ligada a esta, da fi osofi a da ciência) é muito útil para se perceber melhor a relação da ciência com os conceitos que aqui nos
interessam. Ensaiaremos uma análise dos conceitos de ciência, certeza e objectividade, numa perspectiva histórica, que inclui exemplos ilustrativos. Esta análise interessa à ética: a ciência
deve submeter-se à ética, cujos princípios estão para além da ciência, e quebras éticas acontecem quando é oferecido como ciência aquilo que o não é, o que não raro sucede quando existem falhas no apuramento da certeza e no uso da objectividade. Tem pois a ver com a ética a destrinça epistemológica que aqui se apresenta sumariamente entre ciência e não ciência, certeza e incerteza, e objectividade e subjectividade.

O que é a ciência?

O termo «ciência» designa, por um lado, um conjunto de conhecimentos que o ser humano possui sobre o mundo ou Natureza (ao qual ele próprio pertence, pelo que o homem pode ser objecto da ciência) e, por outro lado, o  método, o chamado método científico, que permite acrescentar
conhecimento ao já existente. Os dois significados estão ligados, uma vez que não poderá haver novo conhecimento sem aplicação do método referido.

Como o método científico permite alargar o nosso conhecimento do mundo, é natural defender que o segundo significado de ciência – a ciência como método de conhecer – é mais relevante do que o primeiro – a ciência como corpo de conhecimentos. Com efeito, a ciência é mais um método, que
continua a ser usado por ter dado até aqui muito bons resultados, do que um conjunto de conhecimentos, que são e serão susceptíveis de revisão. Lamentavelmente, esta valorização
nem sempre é feita no ensino e, mais em geral, na comunicação da ciência. Quem considerar os conhecimentos da ciência inabaláveis estará a menosprezar o método científico, que tem o grande poder de continuar a questionar a realidade. A ciência não é um conjunto de dogmas acriticamente aceites, como encontramos nas religiões, mas o continuado esforço humano para compreender o mundo, um esforço que tem sido bem-sucedido, pelo que podemos esperar que continue a
sê-lo. Há coisas que sabemos bem, há coisas que sabemos mal e esperamos vir a saber melhor e há coisas que simplesmente não sabemos, mas que esperamos vir um dia a saber. O nosso actual corpo de conhecimentos será, certamente, revisto e alargado no futuro.

O método científico iniciou-se com a Revolução Científica, que se deu como foi dito nos séculos XVI e XVII. Pode-se falar de ciência anterior, mas o método estabeleceu uma «nova ciência», que deu frutos extraordinários. Entre as obras marcantes dessa época estão duas do físico Galileu Galilei Mensageiro das Estrelas, de  1610, em que o autor descreve as suas primeiras observações
dos céus com o telescópio revelando novos fenómenos, e Diálogos e Demonstrações Matemáticas Acerca de Duas Novas Ciências, mais conhecido por Duas Novas Ciências, de 1638, em que descreve as experiências de queda dos corpos que realizou com a ajuda de um plano inclinado. As suas conclusões opunham-se claramente ao que se conhecia nessa época. Escreveu, em Duas Novas Ciências: «Não existe nada, na Natureza, anterior ao movimento, a respeito do qual os livros escritos pelos filósofos não são nem pouco numerosos nem pequenos. Mesmo assim, descobri através de experiências algumas propriedades notáveis e que até agora não foram observadas nem demonstradas.»

Em que consiste então o método científico, inaugurado pelos trabalhos de Galileu? Tratava-se de um novo modo de apurar a verdade a respeito de um certo assunto, entendendo-se por verdade a correspondência com a realidade. Nesse modo, a observação e a experiência desempenham um papel
fulcral. Não é fácil definir esse método, até porque existe uma grande variedade de situações no trabalho dos cientistas (variedade essa que resulta das grandes diferenças de objectos de estudo, que podem ir dos movimentos nos céus ou na Terra à psicologia e à sociologia), mas, esquematicamente, pode dizer-se que segue na maior parte dos casos, desde os trabalhos pioneiros de Galileu, três etapas:

1 – formulação de uma hipótese ou ideia sobre o funcionamento do mundo;
2 – observação e/ou experimentação, com controlo das variáveis  que possam afectar os resultados, as duas acompanhadas pelo raciocínio lógico;
3 – eventual confirmação da hipótese, que assim se pode transformar em lei, e sua comunicação à comunidade científica procurando um consenso. As leis são integradas em teorias mais gerais, e umas e outras só poderão ser descartadas perante novas observações, experimentações ou raciocínios.

Só se descobre o mundo a partir de alguma ideia prévia: a hipótese. Esta hipótese pode ser, simplesmente, como no caso da queda dos corpos, a rejeição de uma ideia que vinha da Antiguidade. Na hipótese, há um «salto mental», um «pulo» da imaginação, uma intuição criadora, pelo que é difícil apresentar para ela uma descrição genérica. A história tem, porém, ensinado que certos critérios gerais, como os da simplicidade e da beleza, são bons pontos de partida no processo de investigação científica. Esses dois conceitos estão associados de perto à matemática. A matemática revelou-se, de facto, necessária à formulação das leis naturais. Galileu escreveu no seu livro
O Ensaiador, de 1623:  «A filosofia encontra-se escrita neste grande livro que continuamente se abre perante nossos olhos – dito é o Universo –, que não se pode compreender antes de entender a língua e conhecer os caracteres com os quais está escrito. Ele está escrito em língua matemática, os caracteres são triângulos, circunferências e outras figuras geométricas, sem cujos meios é impossível entender humanamente as palavras; sem eles nós vagamos perdidos dentro de um obscuro labirinto.»

Mas o que são as leis naturais? Essas leis exprimem regularidades no funcionamento do mundo: de facto, as observações indicam que o nosso mundo segue uma certa ordem, quer dizer, não é «esquizofrénico», portando-se nas mesmas condições ora de uma maneira ora de outra. As leis naturais relacionam factos observados, integrando-os num enunciado de validade geral: por exemplo, todos os corpos caem para a Terra, como se sabe desde tempos imemoriais. Mas a observação rigorosa conjugada com o raciocínio levou Galileu a uma conclusão mais precisa contida na Lei da Queda dos Graves: descontado o efeito da resistência do ar, todos os corpos, colocados nas
mesmas condições, caem exactamente da mesma maneira. Reconhece-se aqui uma unidade na diversidade. Conhecendo a posição e a velocidade inicial de um corpo, podemos saber o seu movimento futuro. Um corpo, não importando a sua constituição e tamanho, largado na vertical, no vazio, cai ao longo de uma linha recta aumentando a sua velocidade na proporção directa do tempo decorrido. Neste exemplo, a linguagem matemática está patente em expressões como «linha recta» e «proporção directa». Se estivermos confrontados com um caso em que essa lei pareça não funcionar, deveremos examinar com cuidado se se está ou não nas mesmas circunstâncias, uma vez que as leis naturais são absolutamente prescritivas: não admitem violações. Se houvesse uma violação, a lei teria de ser substituída por outra.

O físico Isaac Newton, baseando-se nas conclusões de Galileu, propôs uma lei mais geral do movimento: a aceleração, ou taxa de variação da velocidade, é directamente proporcional à força aplicada (Segunda Lei de Newton), um enunciado contido nos Princípios Matemáticos da Filosofia
Natural, de 1687. Serve este caso para mostrar uma característica essencial da ciência: ela é cumulativa, isto é, o novo conhecimento tem de encaixar no anterior; neste caso passou-se de uma lei particular para uma lei geral que engloba a que existia, e permite uma aplicação maior, como,
por exemplo, a descrição do movimento da Lua em volta da Terra. Quando se junta novo conhecimento ao antigo, embora possa haver um reajustamento de um ou de outro aspecto, a parte mais substancial do conhecimento anterior deve permanecer. Ao contrário do que muitas vezes se pensa, em ciência o novo respeita sempre o velho, pelo que a ciência exige um processo de aprendizagem do que se sabe além da aprendizagem do modo de saber. Uma anedota ilustra
esta afirmação. O imperador da Prússia Frederico IV, numa visita que fez no século XIX ao Observatório de Bona, perguntou ao astrónomo-mor Friedrich Argelander: «Então, o que há de novo nos céus?» O seu interlocutor respondeu sabiamente: «Será que Vossa Majestade já conhece o que há de velho?» É por haver necessidade de conhecer o velho para alcançar o novo que se fala em evolução ou, se se quiser, em progresso da ciência.

Newton usou uma bela metáfora para referir que o trabalho da ciência é continuado: «Se consegui ver mais longe, é porque estava aos ombros de gigantes.» Pode subentender-se que se referia aos «gigantes» que o antecederam, não só Galileu, que usou o telescópio para observar os céus ou a experiência do plano inclinado para obter a Lei da Queda dos Graves, mas também o astrónomo seu contemporâneo Johannes Kepler, que estudou os movimentos dos astros nos céus, obtendo para eles leis de expressão matemática. A junção dos dois tipos de informação – a que resulta da experimentação na Terra e a que provém da observação dos céus – permitiu a Newton uma descrição unificada (este é um bom exemplo de aplicação na ciência do critério de simplicidade!) dos fenómenos da Terra e do céu: precisamente a Lei da Gravitação Universal, mais uma vez de expressão matemática, que descreve a força de atracção entre quaisquer corpos.

No início do século XX, outro físico, Albert Einstein, sem prejudicar a validade da Lei da Gravitação Universal no domínio dos objectos com pequenas massas, formulou, num golpe de génio, uma nova teoria da gravitação: a Teoria da Relatividade Geral, segundo a qual a gravitação é o encurvamento do espaço e do tempo causado pela presença da matéria e energia. A nova teoria permitiu mais tarde englobar a descrição de fenómenos cósmicos, como o Big Bang e os buracos negros, aos quais a teoria de Newton manifestamente não se aplica. Usando o dito newtoniano, também Einstein subiu aos ombros de gigantes, elevando a «pirâmide humana». As leis de Galileu, Kepler, Newton e Einstein encaixam-se perfeitamente umas nas outras, formando um edifício coerente. Não aconteceu até à data, mas tudo leva a crer que alguém, um dia, subirá aos ombros de Einstein para ver ainda mais longe.

Uma boa teoria científica não descreve apenas o que se conhece, mas deve também ter um carácter preditivo: deve permitir prever fenómenos ainda não observados, servindo a respectiva observação para confirmar a teoria. Foi o que aconteceu de forma notável com a teoria de Newton, que permitiu, em 1846, a descoberta, só por meio de cálculos, de Neptuno, um novo planeta. No quadro da Teoria da Relatividade Geral, Einstein previu, em 1915, que a luz devia encurvar-se ao passar perto de um astro. Assim, uma estrela que enviasse raios rasantes ao Sol seria, durante um eclipse solar, observada numa posição desviada da sua posição usual. A observação de um eclipse total do Sol em 1919, no Norte do Brasil e na ilha do Príncipe, permitiu confirmar a teoria einsteiniana. Quando perguntaram ao sábio o que teria sucedido se essa confirmação não tivesse acontecido, ele respondeu: «Nesse caso eu teria pena do pobre Deus. A teoria está mesmo certa.» O êxito de Einstein espalhou-se logo. O Times de Londres titulou: «Revolução na ciência. Nova teoria do Universo.» De facto, a revolução  não punha Newton de lado, simplesmente ia mais longe do que ele tinha chegado. Na Royal Astronomical Society britânica, o retrato de Einstein passou a figurar ao lado do de Newton, não o substituindo.

 Será que vamos saber mais? Essa é a nossa esperança, bem justificada pela história da ciência. Einstein escreveu (numa carta de 1936, incluída no livro de Max JAMMER Einstein e a Religião: Física e Teologia): «Temos de admitir que o nosso conhecimento actual das leis é apenas uma obra incompleta, de modo que, em última instância, a crença na existência de leis fundamentais também se apoia numa espécie de fé. Seja como for, essa fé tem sido amplamente justificada pelo progresso na ciência.»

 Um elemento muito importante do método científico, presente tanto em Galileu e Newton como em Einstein, é a comunicação aos peers (pares), mas, mais em geral, à sociedade, dos resultados da investigação. Como vários cérebros pensam melhor do que um só, as observações e experiências devem ser repetidas para verificar se há ou não confirmação dos resultados anunciados. Por outras palavras, um dos maiores recursos do método científico é a peer review (revisão pelos pares), um processo que, não sendo perfeito, pelo menos permite corrigir alguns dos erros cometidos por indivíduos ou grupos.

 Existem várias actividades humanas além da ciência, por exemplo a arte, a religião ou a ética. É por isso normal que se façam afirmações que não possam ser consideradas científicas por não resultarem da aplicação do método científico. A arte, a religião ou a ética não têm pretensões científicas, não desejando competir com a ciência. Mas há quem pretenda fazer ciência sem o fazer efectivamente. Falamos de pseudociência quando a não ciência se tenta disfarçar de ciência. Pseudociência é qualquer tipo de informação ou actividade que se diz baseada em factos científicos e fundamentada pelo método científico, que pode até usar a linguagem científica, mas que não usa factos científicos correctos ou que não resulta do bom uso do método científico. A pseudociência está eivada de erros, que ela própria não corrige, ao contrário da ciência, que possui a virtualidade de corrigir eventuais erros pelo bom uso do método científico.

Verdade e erro 

Falemos de erro, que, segundo o Dicionário da Língua Portuguesa Contemporânea, é a «acção de actuar, proceder de forma incorrecta». Ouve-se muitas vezes dizer que a ciência procura a verdade. Essa afirmação remete para a definição de verdade, que, segundo o mesmo dicionário, é a «adequação do pensamento ou da sua expressão aos factos ou conhecimentos que se pretendem exprimir = exactidão, justeza ≠ erro, ilusão, mentira».

 A teoria do conhecimento ou epistemologia é um capítulo importante da filosofia. Não é aqui o lugar para entrar na longa discussão sobre o que é o conhecimento, bastando lembrar que, logo no tempo de Galileu, a filosofia da ciência começou a ser debatida com contributos como os que foram dados pelo jurista e filósofo Francis Bacon e pelo matemático, físico e filósofo René Descartes. Aceitando como marca de verdade a «adequação do pensamento aos factos», consideramos verdadeiras as afirmações que surgiram por aplicação do método científico, como a Lei da Queda dos Graves, a Segunda Lei de Newton, a Lei da Gravitação Universal e a descrição da gravidade pela Teoria da Relatividade Geral, embora umas tenham maior generalidade ou maior grau de precisão do que outras. Mas não podemos dizer que sejam absolutamente verdadeiras todas as afirmações científicas, essas ou quaisquer outras que conhecemos actualmente, pois a aplicação do método científico poderá no futuro trazer novidades. Podemos apenas dizer que, no quadro da sua validade, essas proposições são verdadeiras tanto quanto sabemos, por terem sido confirmadas pela pluralidade de observações realizadas.

Podemos aspirar à verdade e procurá-la com afinco, no sentido de buscar descrições da Natureza que se ajustem cada vez melhor a esta. Partindo do princípio de que a investigação científica será infindável, a ciência não será tanto a procura da verdade última, uma meta inalcançável, mas sim a procura do erro. Poderá ser impossível encontrar a verdade absoluta, mas já é possível encontrar um erro numa certa afirmação, entendendo- se por erro o desajuste entre uma certa afirmação e a realidade a que ela se refere. Em numerosos casos de interesse prático, é relativamente fácil reconhecer um erro quando uma nova observação, experiência ou raciocínio contradizem o que se julgava saber. Basta que apareça uma discrepância observacional, experimental ou lógica relativamente a uma lei científica para ela ter de ser revista.

O filósofo Karl Popper colocou a ênfase da sua filosofia precisamente no erro. Na sua visão, partilhada pela maioria dos cientistas contemporâneos (mas que tem sido naturalmente sujeita a críticas, como por exemplo as de Thomas Kuhn e Paul Feyerabend), a ciência não pode aspirar a verdades absolutas, sendo antes um meio para reduzir a nossa incerteza a respeito do mundo natural. POPPER escreveu, na sua obra Lógica da Pesquisa Científica (original de 1935): «na medida em que um enunciado científico fala sobre a realidade, tem de ser falseável; se não for, não fala sobre a realidade». E o que vem a ser um enunciado «falseável»? Segundo o mesmo filósofo, sê-lo-á se for possível mostrar que ele é falso ou se for possível refutá-lo recorrendo a rigorosos testes empíricos. POPPER acrescentou no seu livro Conjecturas e Refutações (original de 1963): «A história da ciência, como a história de todas as ideias humanas, é feita de sonhos irresponsáveis, de erros e obstinação. Mas a ciência é uma das poucas actividades humanas, talvez a única, em que os erros são criticados sistematicamente, inclusive corrigidos e valorizados. Em razão disso é que neste campo da actividade humana aprende-se muitas vezes com os erros podendo-se falar com clareza e sensatez em progresso científico.»

 Não existindo verdades absolutas, é óbvio que algumas afirmações da ciência são mais verdadeiras ou mais certas do que outras. Por exemplo, ninguém pode hoje duvidar de que os corpos caem para a Terra seguindo a Lei da Queda dos Graves, nem que o movimento dos corpos à superfície da Terra ou em volta da Terra é regulado pela Segunda Lei de Newton conjugada com a Lei da Gravitação Universal. Tal acontece porque, independentemente dos refinamentos devidos a Einstein (que não têm interesse prático na maioria das situações correntes), todas as observações e experiências realizadas até agora confirmaram as conclusões de Galileu e Newton dentro dos d

 No chamado «método dedutivo de prova» de Popper, parte- se de uma hipótese para uma prova empírica, passando pelas consequências lógicas que se podem extrair dela. O trabalho do cientista consiste em extrair inferências lógicas da sua conjectura inicial. Nessa prova, os testes empíricos, isto é, o confronto das previsões com a realidade, são fulcrais. Se uma ideia resistir a testes efectuados por um certo grupo de investigação, ela será suficientemente robusta para ser submetida à consideração da comunidade científica. Um único trabalho científico não é suficiente: para assegurar a sua validade, é necessário que seja confirmada por outros. A prova em ciência tem semelhanças com a prova em direito: em ciência, tenta convencer-se  a comunidade científica da validade de uma certa afirmação; em direito, a prova é o meio de convencer o juiz ou um júri dos factos em julgamento, que são apresentados pelas partes em litígio. Mas devemos lembrar que, segundo Popper, nas ciências empíricas, as provas não existem, se entendermos por prova um argumento que estabeleça de uma vez por todas a verdade de uma teoria. A Natureza é o «juiz supremo» e ela pode vir a proferir nova sentença. A propósito da metáfora jurídica, convém lembrar as palavras de Einstein, incluídas no livro de Helen DUKAS e Banesh HOFFMANN Albert Einstein, O Lado Humano: «O teórico da ciência não deve ser invejado. Uma vez que a Natureza, ou mais exactamente a experiência, é um juiz inexorável e não muito amigável do seu trabalho. Nunca diz “Sim” a uma teoria. Nos casos mais favoráveis, diz “Talvez” e, na grande maioria dos casos, diz simplesmente “Não”. Se uma experiência concorda com uma teoria, significa “Talvez”, e se não concordar, significa “Não”. Provavelmente toda teoria irá um dia experimentar o seu “Não” – a maioria das teorias, não muito depois da sua concepção.»

 O método científico foi criado e aperfeiçoado para que a missão da ciência pudesse ser cumprida da maneira mais eficaz possível, isto é, para que pudéssemos encontrar e corrigir o maior número de erros no nosso conhecimento do mundo. Ao longo da história da ciência, os cientistas sempre tentaram encontrar e corrigir erros nas descrições que iam fazendo. Eles são, por isso, muito sensíveis a erros, sabendo que a verdade só pode ser alcançada de uma forma progressiva e, portanto, sempre limitada. Uma verdade é sempre provisória.

Errar é humano. Decerto os cientistas são seres humanos e as suas ideias ou actos podem sofrer influências que prejudiquem a aplicação do método científico. Os erros involuntários são, tarde ou cedo, corrigidos pelo próprio ou pelos seus pares. Mas há seres humanos que não reconhecem os erros que lhes são apontados. Por vezes, embora em pequena escala, são os próprios cientistas quem não são fieis ao método científico. Mas, na maior parte das vezes, são outras pessoas, não cientistas, quem espalha erros, alegando o uso da ciência devido ao prestígio de que esta desfruta (de facto, nem sempre é fácil separar ciência de pseudociência). Os cientistas devem lembrar-se de que têm um compromisso forte e permanente para com o método científico, um compromisso que deve, em particular, ser valorizado quando outros factores – políticos, económicos, jornalísticos, etc. – estão em jogo. Além disso, devem lembrar-se que é sua missão  contribuir para que o público tenha acesso aos conhecimentos e ao método da ciência. Nesse esforço, devem procurar ser o mais verdadeiros possível, sempre com a preocupação da compreensibilidade. No ensino como na comunicação pública da ciência, pode ser-se rigoroso – isto é, não dizer nada de errado – prescindindo de pormenores complicados.

Muitas vezes se pensa que, se a ciência nada sabe ao certo, então tudo é possível. Nada mais errado. Há coisas que sabemos bem e que constituem constrangimentos ao nosso conhecimento futuro. O astrofísico Carl Sagan, um dos maiores comunicadores de ciência dos nossos tempos, transmitiu a ideia de que a ciência deve procurar uma posição intermédia entre conservadorismo e inovação, a manutenção de velhas ideias e a abertura às novas. Escreveu no seu livro Um Mundo Infestado de Demónios (original de 1995): «No cerne da ciência reside um equilíbrio fundamental entre duas atitudes aparentemente contraditórias – a abertura para novas ideias, por bizarras ou pouco intuitivas que sejam, e o exame céptico mais implacável de todas as ideias, velhas e novas. É assim que as verdades profundas são separadas de puros absurdos. O empreendimento colectivo do pensamento criativo e do pensamento céptico, trabalhando conjuntamente, faz avançar o conhecimento. No entanto, existe uma certa tensão entre aquelas duas atitudes aparentemente contraditórias.»

 Certeza e incerteza 

 A palavra «certeza» é, em geral, identificada com verdade. Do dicionário mencionado: «1. Característica daquilo que não levanta dúvidas, que é certo = evidência, verdade ≠ incerteza, probabilidade. 2. Aquilo que é seguro ou que se afirma como real, certo…, e acerca do qual não se tem dúvidas; dado adquirido = realidade ≠ ilusão, incerteza, invenção.» A história da ciência tem mostrado que a certeza de uma lei científica não passa de uma aspiração. SAGAN acrescentou noutro passo do referido livro: «Os seres humanos podem ansiar por certezas absolutas e aspirar a elas; podem pretender, como os adeptos de certas religiões, tê-las alcançado. Porém, a história da ciência – de longe a pretensão ao conhecimento mais bem-sucedida acessível ao homem – ensina-nos que o máximo que podemos esperar são melhoramentos sucessivos da nossa compreensão, a aprendizagem com os nossos erros, uma abordagem assimptótica do universo, mas com a limitação de sabermos que a certeza absoluta nos escapará sempre.»

Não deve ser escamoteado que a discussão e a incerteza fazem parte do processo da ciência. É precisamente a discussão científica que ajuda a reduzir a incerteza. Da discussão nasce a luz: tarde ou cedo, haverá respostas melhores do que as anteriores em resultado da aplicação do método científico.

 A palavra «evidência» pertence ao campo semântico da «certeza»: «1. Qualidade do que não oferece dúvidas, do que é evidente. 2. O que não oferece dúvidas ao espírito, o que pode ser verificado. 3. Aquilo que serve para mostrar que alguma coisa é verdadeira = prova.» Podendo ser vista como sinónimo de prova, deve, porém, esclarecer-se que este termo tem em português um significado algo diferente do inglês evidence. Em português, uma coisa evidente é algo que não precisa de prova, que pode ser considerado uma verdade. A prova revela-se necessária precisamente quando não há evidência.

 Denotando falta de certeza, «incerteza» é um termo usado, com significados diferentes, em diversas áreas, incluindo física, estatística, psicologia, economia, sociologia, etc. Em física, refere-se, em geral, ao grau de imprecisão de medidas físicas. Quando se realiza uma medida de uma grandeza física, existe sempre uma incerteza: há erros, quer ocasionais e inevitáveis, quer sistemáticos e evitáveis ou, pelo menos, minimizáveis. Por isso tem de ser realizado um conjunto de medidas em vez de apenas uma. No tratamento dos dados recorre-se à estatística, disciplina que assenta no conceito de probabilidade. A probabilidade foi introduzida no século XVII na matemática para descrever jogos de fortuna, em que ocorrem situações imprevisíveis devidas, por exemplo, ao lançamento de dados. Quando a física tratou, no século XIX, de descrever sistemas complexos, como os gases (formados por muitas partículas em movimento incessante), percebeu que tinha de recorrer à probabilidade e à estatística. As afirmações que formula nesse domínio são naturalmente incertas, sendo a probabilidade uma medida da incerteza. Em física quântica, disciplina que surgiu no início do século XX para descrever a realidade microscópica, a incerteza está incorporada a um nível mais fundamental. Verificou-se que, à escala do muito pequeno, é válido o chamado «princípio de incerteza de Heisenberg» (que, de facto, não é um princípio, mas um corolário dos princípios da teoria quântica), segundo o qual não podemos conhecer simultaneamente a posição e a velocidade de uma partícula, como por exemplo um electrão. Tanto a posição, como a velocidade de uma partícula só podem ser descritas por uma função probabilística. Einstein reagiu com a sua famosa frase «Deus não joga aos dados», que significa que para ele a realidade não podia ter uma natureza probabilística (para Einstein, Deus era sinónimo de mundo, ou melhor, de harmonia do mundo). Por outro lado, as ciências sociais e humanas situam-se em pleno reino da imprevisibilidade. O termo «incerteza» refere-se nelas a situações em que não se pode prever com precisão o efeito de uma condição ou o resultado de uma acção. Essas ciências têm procurado fazer modelações e teorizações baseadas na metodologia das ciências exactas e naturais, mas o grau de incerteza nas suas afirmações é necessariamente maior, dada a enorme variabilidade que é característica dos seus objectos de estudo.

 Objectivo e subjectivo 

Embora estejam relacionadas, objectividade não é o mesmo que verdade ou certeza. O conceito é  bastante mais moderno. Objectividade significa a procura da fidelidade ao real. Preocupa-se com a filtragem das variações que provocam incertezas. Mas comecemos por ver a definição do termo «objectivo» no referido dicionário: «1. Que é relativo a um objecto. 2. Que existe por si, independentemente do conhecimento, do pensamento ou do sujeito. 3. Que é válido para todos e não para um indivíduo em particular. 4. Que assenta na observação, na experiência.» Em contraste, «subjectivo» é: «1. Que é próprio do sujeito pensante ou relativo a ele. 2. Que é próprio do sujeito individual, que assenta na interioridade, no modo de ser de cada pessoa = pessoal. 3. Que emite juízos de valor sobre a realidade das coisas. 4. Que não corresponde a nenhuma realidade, que é aparente, ilusório.» Embora possa parecer clara a dicotomia entre objectivo e subjectivo – entre o que é próprio do mundo exterior e aquilo que é próprio do eu interior –, essa dicotomia é um dos temas da filosofia, por não ser fácil separar o eu do mundo.

 É curiosa a deriva semântica que ocorreu com as palavras «objectivo» e «subjectivo». Os escolásticos medievais, como Guilherme de Ockham, usavam essas palavras com significado oposto ao actual, isto é, objectivo dizia respeito a uma impressão individual e subjectivo, a uma comum (e ainda em Descartes se encontram marcas desse uso primitivo). Só com o filósofo Immanuel Kant, no século XVIII, se iniciou o uso moderno dos termos; e só a partir de 1820 os dicionários começaram a introduzir o significado actual.

 A ideia de objectividade remonta a um tempo anterior a Kant: nos Princípios de Filosofia de Descartes encontramos as qualidades primárias (tamanho, forma, movimento), que diríamos hoje objectivas, e as secundárias (cores, odores, sabores), que diríamos subjectivas, e no Novo Órgão de Bacon surgem os «ídolos da caverna», que bloqueiam a mente de um indivíduo. Mas só a meio do século XIX, após Kant, o conceito de objectivo ganhou um consenso alargado tanto na filosofia como na ciência. A Crítica da Razão Pura, de 1781, obra principal da teoria do conhecimento de Kant, foi a primeira das suas três Críticas: as outras foram a Crítica da Razão Prática, de 1788, e a Crítica do Juízo, de 1790. A «validade objectiva» de Kant refere- se não a objectos externos, mas a «formas de sensibilidade», como o tempo, o espaço e a causalidade, que são condições da experiência. Para ele, subjectivo aplica-se a sensações meramente empíricas. A distinção é, portanto, entre o universal e o particular, em vez de ser entre o mundo e o indivíduo. Escreveu KANT na sua Crítica da Razão Pura: «Se algo for válido para todos os que estejam na posse da razão, seus fundamentos serão objectivos e suficientes.» O significado de objectivo ficou operacional com cientistas como o físico e médico Hermann von Helmholtz, o médico Claude Bernard e o biólogo Thomas Huxley: o primeiro, muito influenciado por Kant, ensaiou criar uma física do corpo humano; o segundo criou a medicina experimental ou baseada na evidência; e o terceiro foi o maior defensor da teoria da evolução de Darwin.

Como conseguir a objectividade em ciência? Os instrumentos que permitem registos sempre foram meios de procurar a objectividade, uma vez que uma visão individual, que é aliás difícil de partilhar, pode não ser segura. A fotografia surgiu em 1826 e a sua utilidade na ciência sobressaiu logo nessa altura: as imagens fotográficas são vistas da mesma maneira por todos os observadores. Uma fotografia da Lua feita com uma câmara primitiva acoplada ao telescópio era mais objectiva do que um dos desenhos que Galileu fez do nosso satélite enquanto a observava com o seu telescópio. E uma fotografia feita com uma câmara moderna é ainda mais objectiva, no sentido de ser mais fiel à realidade. Mas em que medida serão as imagens fotográficas objectivas? Mesmo um instrumento como uma câmara fotográfica pode não fornecer um meio de prova objectiva. Já na época de Galileu, houve quem afirmasse que as lentes podiam ter defeitos que alterassem as imagens. E o mesmo pode, afinal, ser dito de uma lente moderna. A fotografia é uma tecnologia baseada na ciência, mas também é uma arte, sendo passível de manipulação. Essa possibilidade tornou-se particularmente evidente no mundo digital em que vivemos hoje, no qual o Photoshop é tecnologia  comum. O certo é que uma imagem é sempre diferente de um objecto real. Podem-se tirar, em várias circunstâncias e de vários modos, várias imagens do mesmo objecto, que diferirão necessariamente. O juízo treinado de um cientista é que permitirá escolher as imagens que mais se aproximam da realidade.

Os filósofos de ciência Lorraine Daston e Peter Galison escreveram uma história da objectividade em que enfatizam o poder da imagem; distinguem três fases na evolução histórica: a fidelidade à Natureza (uma ancestral preocupação da ciência), a objectividade mecânica (recorrendo, por exemplo, à câmara fotográfica) e o juízo treinado (um cientista experiente não se deixa enganar por uma imagem). O caminho para a objectividade não se faz sem dificuldades. Segundo aqueles autores, «a objectividade está para a epistemologia como o extremo ascetismo está para a moralidade».

 Terminemos com a ética. Kant começou por estudar mecânica celeste, antes de enveredar pela filosofia. Na conclusão da Crítica da Razão Prática, KANT contrasta o mundo exterior, regulado por leis imperativas, e o eu, no qual as leis morais surgem: «Duas coisas enchem o ânimo de admiração e veneração sempre novas e crescentes, quanto mais frequentemente e com maior assiduidade delas se ocupa a reflexão: O céu estrelado sobre mim e a lei moral em mim. Não as hei-de procurar e simplesmente presumir a ambas como envoltas em obscuridades ou no transcendente, fora do meu horizonte; vejo-as perante mim e religo-as imediatamente com a consciência da minha existência.» De acordo com o programa iluminista, não existe nem ciência nem moralidade sem consciência.

Referências e leituras recomendadas

CARAÇA, João, Ciência, Lisboa, Difusão Cultural, 1997.

DASTON, Lorraine e GALISON, Peter, Objectivity, Nova Iorque, Zone Books, 2007.

Dicionário da Língua Portuguesa Contemporânea, 2 vols., Lisboa, Academia das Ciências de Lisboa e Verbo, 2001.

DUKAS, Helen e HOFFMANN, Banesh (org.), Albert Einstein, O Lado Humano, Brasília, Universidade de Brasília, 1979.

FIOLHAIS, Carlos, A Coisa Mais Preciosa Que Temos, Lisboa, Gradiva, 2002.

FIOLHAIS, Carlos e MARÇAL, David, A Ciência e os Seus Inimigos, Lisboa, Gradiva, 2017.

GALILEI, Galileu, O Ensaiador, in Os Pensadores: Galileu e Newton, São Paulo, Nova Cultural, 1991.

GALILEI, Galileu, Diálogo sobre Duas Novas Ciências, in Aos Ombros de Gigantes: As Grandes Obras da Física e Astronomia, coligido e comentado por Stephen Hawking, Lisboa, Texto Editores, 2010.

GEYMONAT, Ludovico, Elementos de Filosofia da Ciência, Lisboa, Gradiva, [s.d.].

JAMMER, Max, Einstein e a Religião, Rio de Janeiro, Contraponto, 2000.

KANT, Immanuel, Crítica da Razão Pura, 6.ª ed., Lisboa, Fundação Calouste Gulbenkian, 2008.

KANT, Immanuel, Crítica da Razão Pura, Lisboa, Edições 70, 2011.

LOSEE, John, Introdução Histórica à Filosofia da Ciência, Lisboa, Terramar, 1998.

MARÇAL, David, Pseudociência, Lisboa, Fundação Francisco Manuel dos Santos, 2014.

POPPER, Karl, A Lógica da Pesquisa Científica, São Paulo, Cultrix, 1998.

POPPER, Karl, Conjecturas e Refutações, Coimbra, Almedina, 2003.

SAGAN, Carl, Um Mundo Infestado de Demónios, Lisboa, Gradiva, 1997.
Etica

2 comentários:

Carlos Ricardo Soares disse...

É interessante a ideia de que a ciência, o método científico, são um sistema de prevenção e de correção de erros e, tanto ou mais do que isso, de exploração do mundo, a partir da imaginação e do conhecimento estabelecido. Fica-se com a ilusão de que a ciência é o próprio mundo e não apenas o conhecimento de uma faceta do mundo. E, no entanto, a ciência é apenas um ingrediente muito novo, recém-nascido, nesse mundo.
A ciência deslumbra por ser ela mesma expressão daquilo que, a todo o custo, quer expressar.
Já quanto à expressão "Existem várias actividades humanas além da ciência, por exemplo a arte, a religião ou a ética", diria que temos um problema clássico de ordenação e classificação inerentes à condição humana de analisar, dividir, separar e juntar de novo com fronteiras, para não esquecer diferenças... Em toda a feitura humana existe algum tipo de preocupação/razão/objetivo/preferência/capricho...estético. Qualquer objeto, desde um sapato à roda de uma carroça de brincar, até os mamarrachos, parecem obedecer a um qualquer gosto ou pretensão estética. A produção de objetos, de obras, de artefactos, não é alheia a algum tipo de racionalidade. A valoração envolvida na arte, tantas vezes coincidente com a religião e o sentimento ético do artista, sofre, não raro, com a "desilusão" demolidora introduzida pela ciência.
Quando as artes são uma forma de reforçar a "crença" ou o gosto que se tem, a ciência pode surgir como desmancha prazeres.
Estando a arte associada ao prazer, muitas vezes resta o prazer de apreciar somente a arte e não o "conteúdo".
Relativamente à religião, ela apresenta-se como algo totalitário, que não dá meças, nem à ciência, nem à arte, nem às outras religiões.
A religião é a grande esponja.
Não concordo que a ciência se deva submeter à ética, como o texto refere.
À ética só devem submeter-se os comportamentos, as condutas humanas.
A ciência, como se verifica em manuais da especialidade, é eticamente neutra. Não se diz "deve ser" eticamente neutra. Ser ciência ou não nada tem de ético.

Anónimo disse...

Há uma condição aparentemente prevalente sobre todas as outras para a objetividade, credibilidade e sustentabilidade da Ciência: medição (e contagem).
A beleza da "estética" e a robustez da "ética" abrem alas quando entra em ação a medição (e a contagem); pesem, embora, algumas medições "erradas" que surgem a apoiar "previsões teóricas".
Já dizia lord Kelvin (William Thomson) e com razão: "...when you cannot express it in numbers, your knowledge is of a meagre und unsatisfactory kind".
Todavia, sermões e missas cantadas poderão ser muito apreciadas e convenientes.

O corpo e a mente

 Por A. Galopim de Carvalho   Eu não quero acreditar que sou velho, mas o espelho, todas as manhãs, diz-me que sim. Quando dou uma aula, ai...