O italiano Giorgio Parisi, último Nobel da Física (metade), acaba de publicar um livro muito interessante na Gradiva, onde dá uma longa entrevista sobre a sua vida e sobre a ciência. Transcrevo aqui uma das respostas, esperando abrir o apetite para as demais:
Como se pode resumir o estado actual da física?
Devo dizer antes de mais que, nos dias de hoje, é difícil ter uma visão de conjunto da ciência: a quantidade de publicações é enorme: por exemplo, a cada ano são publicados mais de 100.000 artigos de física e 20.000 artigos de imunologia em revistas especializadas. Mesmo que procurasse seguir todas as novidades inerentes apenas nestes dois campos, teria diante de mim uma tarefa impossível. Tal produção científica deve-se ao número de cientistas vivos, que é superior ao dos cientistas defuntos: as pessoas que, neste momento, trabalham em instituições científicas são em maior número do que todas aquelas que, no total, trabalharam no passado, em toda a História da Humanidade. A impossibilidade de seguir a enorme massa de resultados obtidos leva a uma hiper-especialização e a uma fragmentação do saber, que são muito prejudiciais, mas também difíceis de evitar.
Além disso, uma plena compreensão dos processos históricos que conduziram à física contemporânea não pode ser obtida sem considerar aspectos sociológicos e, mais em geral, extra-científicos, dos cientistas europeus nos Estados Unidos e o nascimento contemporâneo da Big Science; as relações com as indústrias; a utilização dos resultados obtidos nos campos industrial, tecnológico e militar; a política de financiamentos e assim por diante.
No decurso do século XX, a física alcançou finalmente uma formulação completa e satisfatória das suas leis, pelo menos no que respeita à escala que interessa às normais actividades humanas, no intervalo
que vai da física nuclear e subnuclear (10-16 cm) até ao movimento das estrelas e das galáxias.
Parte dos problemas que estavam no auge há três décadas já se resolveu, como um ciclo que chegou à sua conclusão natural ERRO. Durante um longo espaço de tempo, um dos problemas-chave da física consistiu em encontrar as leis fundamentais da Natureza, ou seja, em procurar determinar os constituintes elementares da matéria e as forças que agiam entre elas. Ainda há 20 anos a estrutura dos constituintes do núcleo (protões e neutrões) e a origem das forças nucleares eram desconhecidas: discutia-se afincadamente se os quarks eram ou não os constituintes dos protões, ao mesmo tempo que não se tinha uma ideia precisa de qual era a natureza das forças que operavam entre estes hipotéticos quarks.
Agora sabemos quase tudo sobre os quarks e sobre as suas interacções: as leis da física, dos núcleos ERRO atómicos às galáxias, parecem ser temas consolidados e é opinião corrente que o futuro não deverá reservar surpresas (ou, pelo menos, a esmagadora maioria dos cientistas não as espera). Ao contrário, a escalas pequeníssimas (muito mais pequenas do que um núcleo atómico) ou a enormíssimas (o universo inteiro) ainda há muitas coisas que não compreendemos e, sob certos aspectos, tacteamos completamente na mais total ignorância.
A pequenas escalas (10-16 cm) os fenómenos observados podem descrever-se bem no quadro geral da mecânica quântica relativista. Em particular, parece já estar consolidado que a matéria nuclear é composta por quarks e gluões, que interagem segundo as leis da cromodinâmica quântica. Estas partículas, que não podem existir isoladas, combinando-se, dão origem ao protão, ao neutrão (com um raio de 10-13 cm) e sucessivamente aos núcleos atómicos; os mesmos são ainda responsáveis pelas forças entre os núcleos. As forças electromagnéticas e nucleares fracas estão bem descritas pela teoria de Sheldon Glashow, Steven Weinberg e Abdus Salam. As previsões da referida teoria e da cromodinâmica quântica foram confirmadas por numerosas experiências, utilizando aceleradores de partículas a altíssima energia.
A mecânica quântica não relativista é essencial para compreender a formação dos átomos e das moléculas. Por exemplo, os espectros de emissão e de absorção da luz, medidos experimentalmente, estão em óptimo acordo com os cálculos teóricos (exactos quando é possível, noutros casos aproximados). As técnicas da mecânica estatística permitem estudar as propriedades de agregados macroscópicos de muitos átomos e, por conseguinte, a estrutura dos gases, líquidos e sólidos, as transições de fase e assim por diante.
A necessidade de explicar novos fenómenos (por exemplo, o efeito de Hall quântico ERRO) levaram à construção de teorias extremamente sofisticadas.
Prosseguindo em escalas cada vez maiores, as forças gravitacionais, na forma enunciada da relatividade geral, são capazes de explicar com uma precisão quase incrível o movimento dos planetas, estrelas e galáxias. A escalas ainda maiores, as dificuldades são essencialmente de natureza observacional (não conhecemos bem a estrutura do Universo e a distribuição das galáxias), mas não existem motivos fundamentados para supor que as leis da gravitação falhem a estas distâncias.
A situação muda se progredimos para escalas mais pequenas que 10-16 cm ou para escalas muito maiores que galáxias. Aqui há muitas coisas que não compreendemos. No que respeita às escalas pequenas, não sabemos se a lista de partículas que conhecemos está fundamentalmente completa ou se existem novas partículas relativamente leves (de massa de umas centenas de vezes inferior ao protão) não ainda observadas. Com efeito, o esquema teórico actual não parece ser completamente satisfatório, se extrapolado a distâncias muito mais pequenas que 10-16 cm (por exemplo, a 10-19 cm).
Uma modificação da teoria muito razoável (a supersimetria) leva quase a duplicar o número de partículas existentes, face àquelas conhecidas. É extremamente importante individualizar a existência de partículas previstas pela supersimetria e experiências muito complexas estão já em curso. O quadro teórico das leis a pequena escala é completamente distinto, consoante a hipótese de a supersimetria estar ou não correcta; e apenas as experiências nos poderão dizer qual das duas hipóteses estará certa.
A uma escala ainda mais pequena (10-33 cm) é necessário enfrentar os problemas ligados à quantização da gravidade. Aqui, a situação é ainda mais difícil, na medida em que não temos a possibilidade de realizar experiências. A única esperança é que as informações já adquiridas sobre a estrutura das partículas sejam suficientes para determinar de forma consistente a teoria também a estas escalas. Tal esperança tem origem, em parte, na extrema dificuldade existente na construção de teorias coerentes da gravidade quântica.
Alguns físicos esperam obter uma equação (ou um conjunto de equações), a partir da qual a estrutura das partículas observadas (quarks, leptões e bosões mediadores das interacções fundamentais), a sua massa e as suas propriedades serão dedutíveis, em linha de princípio e de acordo com a experiência: quer as leis gravitacionais quer as forças nucleares seriam descritas mediante um tratamento único. Se este objectivo for alcançado (teorias de grande unificação), poder-se-ia de alguma maneira pensar que a pesquisa das leis físicas fundamentais ficaria concluída, não tanto porque as eventuais leis propostas estivessem irrefutavelmente correctas, mas porque uma sua possível violação seria observável apenas em regiões de energia não acessíveis ao observador. Apenas o futuro poderá dizer se estaremos em condições de construir esta formidável síntese teórica (que é jocosamente denominada TOE, Theory Of Everything, teoria de tudo).
Se um projecto similar chegasse a ser concluído e se se encontrassem as leis que regulam o comportamento dos constituintes elementares da matéria, não seria preciso de qualquer maneira temer um eventual desemprego dos físicos. Com efeito, como já tive oportunidade de considerar, o conhecimento das leis de base não implica de todo a compreensão dos fenómenos. As leis da física são frequentemente formuladas como equações, cuja resolução permite em princípio calcular o movimento dos componentes do sistema físico considerado. Por exemplo, em astronomia, a lei da gravitação universal de Newton (a aceleração é proporcional ao inverso do quadrado da distância) determina as trajectórias das estrelas e dos planetas. Esta lei é conhecida há mais de três séculos. Desde então, gerações e gerações de astrónomos dedicaram-se a procurar algoritmos que permitissem calcular efectivamente a posição dos objectos astronómicos partindo dessa lei.
Para compreender bem a complexidade desta tarefa basta observar uma das imagens dos anéis de Saturno fotografados pela Voyager. Os anéis não são homogéneos: distinguem-se três; cada um divide-se numa miríade de anéis mais pequenos, separados por espaços vazios. Actualmente, parece razoável pensar que esta estrutura complicada é determinada pelos efeitos gravitacionais dos satélites de Saturno sobre asteróides minúsculos (por vezes com apenas algumas dezenas de metros de diâmetro) que compõem os mesmos anéis. Deduzir a forma destas subdivisões das leis de Newton é um dos problemas em aberto sobre os quais os astrónomos estão a trabalhar com persistência, embora prosseguindo com lentidão.
Dou um outro exemplo, desta vez num campo diferente da física: para além de cada dúvida razoável é sabido que, a uma escala microscópica, os electrões interagem repelindo-se com uma força inversamente proporcional ao quadrado da distância entre eles e que os seus movimentos estão regulados pela mecânica quântica. Neste quadro conceptual indiscutível, não é de todo evidente como e porque é que certos materiais se tornam supercondutores a uma temperatura relativamente elevada, ou seja, a apenas 180 graus Celsius abaixo de zero, e não perto do zero absoluto (-273 graus Celsius). A denominada supercondutividade a alta temperatura foi descoberta apenas recentemente e, não obstante a enorme massa de dados acumulados nestes últimos anos, estamos bastante longe de compreender a sua origem. Se bem que conheçamos as leis que regulam o comportamento de cada electrão, escapam-nos as causas da emergência desse comportamento colectivo dos electrões, que dá origem à supercondutividade.
A verdadeira dificuldade – que gostaria de reiterar – não está, por conseguinte, na formulação das leis fundamentais, mas em descobrir todas as consequências dessas leis e em construir, numa base puramente experimental ou em consequência das leis basilares, leis fenomenológicas do tipo: as molas alongam-se proporcionalmente à força aplicada. Este processo é cansativo e nem sempre é linear: aqui a metis grega desempenha um papel muito mais forte do que a sofia. Por outras palavras, uma abordagem dedutiva formal (adorada pelos matemáticos) na maior parte dos casos não leva a lado nenhum; é muito mais profícuo proceder por indícios e com base na intuição (como fazem os caçadores), formulando hipóteses de trabalho, cuja verificação é postergada, e efectuando várias simplificações. No final, obtém-se uma descrição nítida do fenómeno: chegados a este ponto, podem utilizar-se os usuais instrumentos lógico-dedutivos para construir uma teoria rigorosa.
Esta mistura de intuição e dedução permite fazer previsões sobre o comportamento dos sistemas físicos; previsões na maioria dos casos verificáveis. Lê-se frequentemente que a lei tal de fulano tal foi confirmada experimentalmente; mas a palavra teoria refere-se quase sempre não às leis de base, já para além de qualquer dúvida, mas a este procedimento, utilizado para deduzir as leis fenomenológicas.
Trata-se de um modus operandi que subsiste pelo menos desde o pós-guerra com a diferença que, enquanto nos anos 1950 não tínhamos uma ideia precisa daquilo que acontecia dentro do protão, agora sabemos, ou pelo menos acreditamos saber que um protão é composto por três quarks, que estes interagem com os gluões, no que diz respeito às interacções nucleares fortes, e com os bosões W e Z, no que respeita às interacções nucleares fracas.
As mudanças mais interessantes que ocorreram nestes anos dizem respeito seja ao tipo de leis fenomenológicas que se procuram obter, seja aos instrumentos conceptuais e concretos que se usam. Se a ciência, como dizia Bukharin, é um empreendimento prático que tem como objectivo o controlo (no sentido lato) da Natureza, os modos do seu desenvolvimento e as temáticas enfrentadas dependerão necessariamente dos problemas que a sociedade deve resolver e dos instrumentos técnicos à disposição.
Portanto, mesmo se por vezes sucede que algum físico se senta, como Alexandre Magno, a chorar diante do mar porque não há mais terras novas para conquistar, esta não é a sensação com que vive a maioria da comunidade científica.
Na verdade, o conhecimento das leis que operam entre os constituintes elementares de um sistema não implica de todo a compreensão do comportamento global. Por exemplo, não é fácil deduzir das forças que agem sobre moléculas de água a razão pela qual o gelo é mais leve que a água, que – ao contrário da maioria das substâncias – se torna menos densa quando é arrefecida abaixo dos 4 graus Celsius.
A resposta a este tipo de questões pode obter-se utilizando a mecânica estatística. Esta disciplina, que nasceu na transição entre o século passado e o início deste século, com os trabalhos de Boltzmann e Gibbs, tem por tarefa estudar o comportamento dos sistemas compostos por muitas partículas, não determinando a trajectória das partículas individuais, mas usando métodos probabilísticos.
Talvez o resultado mais interessante da mecânica estatística consista em ter compreendido de uma vez por todas como é que é possível a emergência dos comportamentos colectivos: enquanto para poucos átomos de água não estamos em condições de dizer se eles formam um sólido ou um líquido e qual é a temperatura de transição, afirmações semelhantes assumem uma natureza bastante precisa se considerarmos um grande número de átomos (com mais precisão, quando o número dos átomos tende para o infinito). As transições de fase nascem por conseguinte como efeito do comportamento colectivo de muitos componentes. Nos últimos decénios a mecânica estatística permitiu-se estudar as mais variadas transições de fase, nas quais nascem comportamentos colectivos distintos.
Hoje as capacidades preditivas da mecânica estatística estão muito aumentadas, seja pelo efeito de análises teóricas sempre mais refinadas, seja graças ao uso dos computadores que se revelaram suportes válidos sobretudo na análise dos sistemas nos quais as leis são escolhidas de forma casual, ou seja os denominados sistemas desordenados (sobre os quais que já falei).
Sem comentários:
Enviar um comentário