Minha Comunicação apresentada no Colóquio do Porto -
"O Homem e o(s) Jogo(s)", 14 e 15 de Novembro de 2008, e publicada na
Revista Portuguesa de Psicanálise, 29 (2009) [2] (na figura Bohr e Einstein): Psicanálise e Cultura:
Desde tempos remotos que os homens decide certos acontecimentos por lançamento de dados. Quando os homens não podiam ou não queriam decidir, deixavam a decisão ao acaso,lançando, por exemplo, um ou mais dados. Muitas vezes dizia-se que esse acto consistia em dar a palavra a Deus ou aos deuses. O escritor francês Anatole France (1844-1924) resumiu literariamente essa atitude quando escreveu, em “O Jardim de Epicuro”: “O azar é talvez o pseudónimo de Deus quando ele não quer pôr a sua assinatura”. Repare-se no cuidado do autor revelado pelo “talvez”...
A palavra azar é uma das muitas que nos legaram os árabes: “az-zahr”significa etimologicamente “o dado”,embora à letra seja “a flor”, pois os antigos dados árabes desenhavam uma flor no lugar do actual seis. Significa modernamente,e dando a palavra ao “Dicionário Houaiss”, “revés, infelicidade, infortúnio”, ou, mais em geral, “acaso, sorte, eventualidade". O jogo de dados, ainda mais antigo do que a civilização árabe, é, de facto, uma boa forma de concretizar um de entre vários acontecimentos com igual possibilidade de realização, podendo nós, convencionalmente, dizer que ganhamos ou que perdemos quando se efectiva uma dessas possibilidades.
Em linguagem científica, dizemos hoje que no lançamento de um dado existe a probabilidade de um sexto de sair o seis, pois existem seis possibilidades iguais de materialização e só uma delas (“a flor”)dará sorte ou azar. A equiprobabilidade de acontecimentos é uma suposição fundamental, isto é, tem de haver uma espécie de justiça subjacente, mostrando a prática que, se lançarmos muitas vezes os dados, em cerca de um sexto delas sairá o seis,sendo a aproximação tanto melhor quantas mais vezes lançarmos. A teoria das probabilidades é hoje um ramo da matemática bem estabelecido, mas, apesar dessa noção estar hoje clara, ela era apenas intuitiva no tempo dos árabes. Acontece que a noção de probabilidade é muito pouco intuitiva: a nossa mente tem uma grande dificuldade em lidar com ela. Recusamo-nos a aceitar, por exemplo, que depois de ter saído, obviamente “por sorte” ou “por azar” duas vezes seguidas o seis,que a probabilidade de sair de novo o seis no lançamento seguinte deixou de ser um sexto. É como se o nosso cérebro não tivesse sido feito para as probabilidades. O matemático contemporâneo Persi Diaconis, professor na Universidade de Stanford, nos Estados Unidos, não teve pejo em dizer: “Os circuitos do nosso cérebro não foram, simplesmente, feitos para resolverproblemas de probabilidade”.
Foi longo e penoso o percurso até se chegar à moderna matemática do azar. Mas, no início, a motivação foram os jogos de azar (ou de sorte, depende da perspectiva, mas o termo azar será mais adequado pois, no jogo, são normalmente muitos mais os os que perdem do que os que ganham). Os objectos físicos que foram os dados precederam o pensamento matemático. No Renascimento, o matemático, filósofo e médico italiano Giordano Cardano (1501-1576), um jogador compulsivo, foi o primeiro a abordar o assunto com algum rigor. O seu livro “Liber de Ludo Aleae” (O Livro dos Jogos de Azar), só publicado postumamente (em 1663), foi a primeira análise matemática dos jogos. O autor reparou que, para resolver uma questão de probabilidades, tinha de reconhecer quais eram os acontecimentos igualmente prováveis.
O também italiano e comummente considerado o “pai da física” Galileu Galilei (1564-162), em resposta a uma solicitação do Grão-Duque da Toscana, foi o primeiro a resolver quantitativamente um problema concreto de probabilidades. A questão era sobre a probabilidade de saírem os valores 9 e 10 lançando simultaneamente três dados. Não deixa de ser curioso que o primeiro autor da descrição matemática do movimento (foi ele a formular quantitativamente a lei da queda dos graves) tenha sido também o primeiro a lidar matematicamente com a noção de probabilidade. No seu opúsculo “Sopra la Scoperte dei Dadi” (Considerações sobre o Jogo de Dados), saído em 1612, efectuou correctamente uma comparação de probabilidades de acontecimentos muito próximos. Galileu explicou, nessa obra, porque razão, embora sejam seis as somas diferentes que permitem obter 9 pontos quando se lançam três dados e igualmente seis as somas que permitem obter 10 pontos, o total de 10 ocorre mais vezes do que o total de9: há 25 configurações para que ocorra o 9 mas já há 27 para que ocorra o 10, de entre um total de 216 configurações possíveis. Quase indistinguível para um jogador não tão bom como o Duque da Toscana, mas perfeitamente ao alcance do olhar rigoroso de Galileu, que suspeitou que, por longa observação, seria possível medir, na prática, a pequena diferença.
Mas foi outro italiano, o monge franciscano e matemático Frei Luca Paccioli (1445-1517), célebre pelos seus estudos da “divina proporção”, um tema de geometria muito glosado em inúmeras manifestações artísticas, o responsável pelo desafio que iria permitir, muitos anos depois, inaugurar formalmente o conceito de probabilidade, ao inquirir no seu livro "Summa de arithmetica, geometria, proportioni et proportionalita" (1494) como se devia dividir o dinheiro de um jogo de azar interrompido por qualquer razão. De certo modo, ainda que de uma forma apenas embrionária, foi ele que inaugurou a noção de probabilidade como esperança matemática, isto é, como capacidade de previsão quantitativa de eventos futuros. Este problema foi reatado pelos franceses Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1655), dois dos maiores matemáticos do século XVII (ficou célebre o “último teorema de Fermat”, que só há pouco tempo foi demonstrado), num conjunto de cartas onde trocaram ideias sobre a melhor forma de repartir o dinheiro de um jogo interrompido. A questão tinha sido suscitada por Antoine Gambaud, Chevalier de Méré (1607-1684), um outro jogador compulsivo, que pediu ajuda a Pascal para resolver um caso concreto relacionado com lançamentos de dados. Numa missiva de 24 de Agosto de1655, Fermat propôs a Pascal uma resolução do problema que lhe tinha sido endossado (os dois nunca se encontraram fisicamente), surgindo assim uma primeira ligação do cálculo das probabilidades à economia. Por estranho que isso parecesse, as probabilidades tinham interesse económico! Não chegou até aos nossos dias a carta original de Pascal, mas conhecem-se, no total, seis cartas entre os dois sobre o assunto. Essa correspondência não foi publicada imediatamente mas apenas, anos volvidos, em 1657, quando o físico holandês Christian Huyghens (1629-1695), contemporâneo do físico inglês Isaac Newton(1643-1727), a descobriu e comentou no seu livro “Libellus de ratiociniis inludo aleae“ (Sobre o raciocínio nos jogos de azar).
Para alicerçar a teoria matemática das probabilidades, faltava a fundamentação,em bases sólidas, do conceito de “longa observação” de Galileu, isto é, mostrar rigorosamente que, por experiências repetidas, era possível medir probabilidades com uma exactidão arbitrária: por exemplo, em 1000 lançamentos de um dado devia sair em cerca de um sexto, portanto em 167, lançamentos o valor seis e a aproximação ao valor preciso de um sexto seria tanto melhor quanto maior fosse o número de lançamentos. A demonstração desta afirmação – alei dos grandes números ou lei fundamental das probabilidades - , que permite ligar, com precisão, frequências relativas e probabilidades, só foi efectuada pelo físico-matemático suíço Jacob Bernoulli (1654 - 1705), que publicou este importante resultado no seu livro "Ars Conjectandi" (A arte da conjectura), saído postumamente em 1713.
Como se vê, o jogo e a economia ligada ao jogo estão na raiz da teoria das probabilidades, que, originalmente, tem tanto de matemático como de físico, uma vez que era necessário um objecto físico – o dado – e a experimentação – o lançamento do dado - para motivar, primeiro, e verificar, depois, suposições matemáticas.
O matemático, físico e astrónomo francês Pierre Simon de Laplace (1749-1827),um dos grandes divulgadores e continuadores da obra de Newton, foi o autor do primeiro tratado matemático sobre as probabilidades. Mais uma vez é irónico que tenha sido um newtoniano convicto, portanto um defensor do determinismo mecânico (foi ele que respondeu a Napoleão quando este lhe perguntou sobre o lugar de Deus na obra laplaciana: “Sir, je n’avais pas besoin de cette hypothèse là!”), o autor e proponente de conceitos de probabilidade, que estão ou parecem estar nos antípodas do pensamento newtoniano. No seu livro"Théorie analytique des probabilités" (Teoria analítica da sprobabilidades), saído em 1812, obteve uma função matemática a que hoje se chama distribuição normal de probabilidades, à qual também está associado o nome do matemático alemão Carl Friedrich Gauss (1777-1855). Daí os nomes alternativos de “curva de Gauss” e “curva de Laplace-Gauss” para essa curva coma forma típica de um sino que tão bem descreve os erros aleatórios numa medida de uma grandeza física. Mas, de facto, o autor mais antigo dessa curva foi, em1733, o matemático francês Abraham De Moivre (1667-1754), um dos primeiros a usar as probabilidades para o cálculo de seguros.
O também italiano e comummente considerado o “pai da física” Galileu Galilei (1564-162), em resposta a uma solicitação do Grão-Duque da Toscana, foi o primeiro a resolver quantitativamente um problema concreto de probabilidades. A questão era sobre a probabilidade de saírem os valores 9 e 10 lançando simultaneamente três dados. Não deixa de ser curioso que o primeiro autor da descrição matemática do movimento (foi ele a formular quantitativamente a lei da queda dos graves) tenha sido também o primeiro a lidar matematicamente com a noção de probabilidade. No seu opúsculo “Sopra la Scoperte dei Dadi” (Considerações sobre o Jogo de Dados), saído em 1612, efectuou correctamente uma comparação de probabilidades de acontecimentos muito próximos. Galileu explicou, nessa obra, porque razão, embora sejam seis as somas diferentes que permitem obter 9 pontos quando se lançam três dados e igualmente seis as somas que permitem obter 10 pontos, o total de 10 ocorre mais vezes do que o total de9: há 25 configurações para que ocorra o 9 mas já há 27 para que ocorra o 10, de entre um total de 216 configurações possíveis. Quase indistinguível para um jogador não tão bom como o Duque da Toscana, mas perfeitamente ao alcance do olhar rigoroso de Galileu, que suspeitou que, por longa observação, seria possível medir, na prática, a pequena diferença.
Mas foi outro italiano, o monge franciscano e matemático Frei Luca Paccioli (1445-1517), célebre pelos seus estudos da “divina proporção”, um tema de geometria muito glosado em inúmeras manifestações artísticas, o responsável pelo desafio que iria permitir, muitos anos depois, inaugurar formalmente o conceito de probabilidade, ao inquirir no seu livro "Summa de arithmetica, geometria, proportioni et proportionalita" (1494) como se devia dividir o dinheiro de um jogo de azar interrompido por qualquer razão. De certo modo, ainda que de uma forma apenas embrionária, foi ele que inaugurou a noção de probabilidade como esperança matemática, isto é, como capacidade de previsão quantitativa de eventos futuros. Este problema foi reatado pelos franceses Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1655), dois dos maiores matemáticos do século XVII (ficou célebre o “último teorema de Fermat”, que só há pouco tempo foi demonstrado), num conjunto de cartas onde trocaram ideias sobre a melhor forma de repartir o dinheiro de um jogo interrompido. A questão tinha sido suscitada por Antoine Gambaud, Chevalier de Méré (1607-1684), um outro jogador compulsivo, que pediu ajuda a Pascal para resolver um caso concreto relacionado com lançamentos de dados. Numa missiva de 24 de Agosto de1655, Fermat propôs a Pascal uma resolução do problema que lhe tinha sido endossado (os dois nunca se encontraram fisicamente), surgindo assim uma primeira ligação do cálculo das probabilidades à economia. Por estranho que isso parecesse, as probabilidades tinham interesse económico! Não chegou até aos nossos dias a carta original de Pascal, mas conhecem-se, no total, seis cartas entre os dois sobre o assunto. Essa correspondência não foi publicada imediatamente mas apenas, anos volvidos, em 1657, quando o físico holandês Christian Huyghens (1629-1695), contemporâneo do físico inglês Isaac Newton(1643-1727), a descobriu e comentou no seu livro “Libellus de ratiociniis inludo aleae“ (Sobre o raciocínio nos jogos de azar).
Para alicerçar a teoria matemática das probabilidades, faltava a fundamentação,em bases sólidas, do conceito de “longa observação” de Galileu, isto é, mostrar rigorosamente que, por experiências repetidas, era possível medir probabilidades com uma exactidão arbitrária: por exemplo, em 1000 lançamentos de um dado devia sair em cerca de um sexto, portanto em 167, lançamentos o valor seis e a aproximação ao valor preciso de um sexto seria tanto melhor quanto maior fosse o número de lançamentos. A demonstração desta afirmação – alei dos grandes números ou lei fundamental das probabilidades - , que permite ligar, com precisão, frequências relativas e probabilidades, só foi efectuada pelo físico-matemático suíço Jacob Bernoulli (1654 - 1705), que publicou este importante resultado no seu livro "Ars Conjectandi" (A arte da conjectura), saído postumamente em 1713.
Como se vê, o jogo e a economia ligada ao jogo estão na raiz da teoria das probabilidades, que, originalmente, tem tanto de matemático como de físico, uma vez que era necessário um objecto físico – o dado – e a experimentação – o lançamento do dado - para motivar, primeiro, e verificar, depois, suposições matemáticas.
O matemático, físico e astrónomo francês Pierre Simon de Laplace (1749-1827),um dos grandes divulgadores e continuadores da obra de Newton, foi o autor do primeiro tratado matemático sobre as probabilidades. Mais uma vez é irónico que tenha sido um newtoniano convicto, portanto um defensor do determinismo mecânico (foi ele que respondeu a Napoleão quando este lhe perguntou sobre o lugar de Deus na obra laplaciana: “Sir, je n’avais pas besoin de cette hypothèse là!”), o autor e proponente de conceitos de probabilidade, que estão ou parecem estar nos antípodas do pensamento newtoniano. No seu livro"Théorie analytique des probabilités" (Teoria analítica da sprobabilidades), saído em 1812, obteve uma função matemática a que hoje se chama distribuição normal de probabilidades, à qual também está associado o nome do matemático alemão Carl Friedrich Gauss (1777-1855). Daí os nomes alternativos de “curva de Gauss” e “curva de Laplace-Gauss” para essa curva coma forma típica de um sino que tão bem descreve os erros aleatórios numa medida de uma grandeza física. Mas, de facto, o autor mais antigo dessa curva foi, em1733, o matemático francês Abraham De Moivre (1667-1754), um dos primeiros a usar as probabilidades para o cálculo de seguros.
No século XIX um novo ramo da física emergiu, em ligação estreita com a química: a teoria cinética dos gases, para cujo estudo logo se percebeu a enorme utilidade da teoria das probabilidades.Uma amostra de um qualquer gás contém um número muito grande de moléculas em movimento desordenado (a palavra gás, proveniente do grego, foi então criada, significando“caos, desordem”). Para podermos fazer afirmações sobre o comportamento conjunto desses sistemas, era obrigatória a limitação ao uso de conceitos probabilístico-estatísticos. Físicos como o escocês James Clerk Maxwell (1831 -1879) e o austríaco Ludwig Boltzman (1844 -1906) aplicaram os ensinamentos conhecidos na sua época sobre probabilidades e estatística para descrever o comportanento das multidões de partículas presentes num porção de matéria, gasosa ou não. O desenvolvimento da teoria cinética permitiu justificar microscopicamente um conjunto de leis macroscópicas, as leis da termodinâmica, que descreviam bem uma grande variedade de fenómenos térmicos, isto é, fenómenos para cuja descrição é necessário invocar a noção de temperatura. A compatibilidade com a mecânica determinista de Newton existe em princípio (foi Laplace que disse que,conhecendo as condições iniciais de cada partícula e as forças que sobre ela actuavam,se poderia em princípio conhecer não só todo o futuro como todo o passado de uma partícula; um ser com essa capacidade foi chamado “demónio de Laplace”),embora ela nem sempre seja óbvia. Contudo, a necessidade de introduzir o conceito de probabilidade devia-se à impossibilidade de uma descrição completa e pormenorizada. Por exemplo, foi criado o conceito de entropia, medida da desordem, que Boltzman associou à probabilidade: no seu túmulo, no Cemitério Central de Viena, está gravada, precisamente, a equação simples, de sua autoria, que relaciona entropia e probabilidade. Além da mecânica de Newton, tornou-se necessária e foi desenvolvida uma outra mecânica, que deveria partir da primeira e ser inteiramente compatível com ela, que foi chamada mecânica estatística.
Finalmente, no primeiro quartel do século XX, emergiu uma teoria física que descrevia bem a realidade microscópica, e a qual, por oposição à mecânica newtoniana, albergava no seu cerne o conceito de probabilidade. Porquê a probabilidade? Não se tratava agora da impossibilidade de conhecer pormenorizadamente o comportamento individual das partículas, como acontecia na teoria cinética dos gases e na mecânica estatística, mas sim de aceitar a ideia radical de que, para descrever todas as coisas do mundo, era necessário aceitar o primado da aleatoriedade. Não se pode dizer onde está um electrão, uma vez que, em repetidas experiências de medida feitas no mesmo sistema em condições iguais, ele se encontrará em sítios diferentes. O mais que podemos dizer, a priori, é que é mais provável que ele se venha a numa dada região do que noutra. E, a posteriori, encontra-se,de facto, por meio de numerosas experiências, a distribuição de probabilidade que a teoria quântica previu. Físicos como o alemão Werner Heisenberg (1901-1976), o autor da famosa relação de incerteza segundo o qual não podemos conhecer simultaneamente a posição e a velocidade de um electrão, o austríaco Erwin Schroedinger (1887-1961), o autor de uma equação que descreve a dinâmica quântica, o inglês Paul Dirac (1902-1984), o autor de uma ligação entre a teoria quântica com a teoria relativista, e o alemão Max Born (1882,1970), o autor da interpretação probabilística da função de onda que obedece à equação de Schroedinger, foram os protagonistas maiores dessa revolução na física: a criação e desenvolvimento da teoria quântica, na qual assenta hoje em boa parte a física moderna. Facto notável: a velha mecânica de Newton podia ser vista como um certo limite da nova mecânica quântica.
Porém, e apesar de todos os triunfos dessa teoria, um dos maiores físicos de sempre, e também um dos percursores da teoria quântica quando teorizou o efeito fotoeléctrico, o alemão mais tarde naturalizado suíço e norte-americano Albert Einstein (1879-1955) nunca aceitou como completa edefinitiva esta descrição do mundo baseada em probabilidades. Gostava de dizer: “Gott wuerfelt nicht”, isto é, “Deus não joga aos dados com o Universo”. O dinamarquês Niels Bohr (1885–1962), o autor da teoria quântica antiga, dita assim por ter antecedido a formulação moderna de Heisenberg et al., disse um dia a Einstein: “Você, Einstein, não tem o direito de dizer a Deus o que ele deve fazer”.
Jogará Deus aos dados com o Universo? Tanto quantos sabemos hoje, e no sentido considerado por Einstein,sim. Esta afirmação não tem nenhum fundo teológico (Einstein não acreditava num Deus pessoal, tal como aparece retratado no Antigo Testamento), mas antes significa que as leis da física têm, a nível microscópico (ao nível, por exemplo, dos átomos e das moléculas), um carácter probabilístico. À partida, só podemos aspirar a conhecer probabilidades de ocorrência de certos eventos como a detecção de um electrão num certa posição do espaço. Não podemos dizer que um electrão vai estar com absoluta certeza num certo lugar, mas apenas dizer que é provável que ele venha a ser encontrado numa certa região do espaço em torno dessa posição. Naquela que se tornou a maior das disputas intelectuais do século XX, protagonizada por Einstein e por Bohr sobre o sentido e a validade da teoria quântica, o primeiro perdeu e o segundo ganhou. Com efeito, todas as previsões dessa teoria têm sido, sem ambiguidade, confirmadas de modo bastante exacto por numerosíssimas experiências. Não há, até agora, uma única excepção. Por outro lado, não têm sido infirmadas doutrinasque têm sido proposta em oposição à teoria quântica, por exemplo as chamadas “teoriasde variáveis escondidas”, isto é, teorias que pressupõem uma realidadedeterminista subjacente às probabilidades quânticas. Tudo indica que o mundo équântico e que temos, portanto, no domínio microscópico, de nos limitar acalcular e a indicar probabilidades.
A teoria quântica, através das suas aplicações, entrou nas nossas vidas: o transístor e o lasersão, entre outros exemplos, tecnologias assentes na teoria quântica. A nível conceptual, ligou-se também à filosofia e à teologia, assim como a certasformas de psicologia popular e de espiritualidade (veja-se, por exemplo, o best-seller “O Tao da Física”, doaustríaco Fritjof Capra, que expõe relações entre física quântica e misticismooriental), embora esta última relação seja altamente controversa. Há até umarelação insuspeita entre teoria quântica e psicanálise: O físico suíço Wolfgang Pauli (1900-1958), um outro grande nome dos tempos iniciais da teoria quântica, depois de sofrer um colapsonervoso, consultou o psicoterapeuta Carl Gustav Jung (1875-1961), um doscontinuadores da obra do austríaco Sigmund Freud (1856-1939), de quem foi durante alguns anos amigo (Jung era, por sua vez, amigo de Einstein, com quem partilhava a origem judaica). Pauli dedicou-se depois a interpretar os seus sonhos, tornando-se um bom estudante da psiquiatria jungiana. Sentiu-se mesmo à vontade para criticar as ideias de Jung, com quem trocou ampla correspondência que se encontra hoje publicada. O resultado foi um estranho casamento entre psicanálise e ciência!
Retomando a frase de Anatole France sobre Deus e o azar, citada logo no início: o azar será o pseudónimode Deus quando Ele não se quer dar a conhecer? Talvez seja mais adequado afirmar que a probabilidade quântica é a maneira com que a Natureza se esconde de nós na escala do muito pequeno...
REFERÊNCIAS:
- Amir D. Aczel, Chance. A Guide to Gambling, Love, the Stock Market, and just about everything else, New York: Thunder’s Mouth Press, 2004.
- Deborah J. Bennett, Aleatoridade, São Paulo (Brasil): Martins Fontes, 2003 (tradução de Randomness, Boston: Harvard UniversityPress, 1998).
- Fritjoj Capra, O Tao da Física, Lisboa: Presença, 2009 (reedição).
- Anatole France, Lejardin d' Épicure. Paris: Calmann-Lévy, 1925.
- C. G. Jung and Wolfgang Pauli, Atom and Archetype: The Pauli/Jung Letters, 1932-1958, Princeton University Press, 2001.
- Arthur I.Miller, Deciphering the Cosmic Number. The Strange Friendship of Wolfgang Pauli and Carl Jung, New York: Norton, 2009.
2 comentários:
Então aqui fica uma definição que me parece boa:
«Diz-se que alguém tem AZAR quando uma ocorrência que lhe seria favorável e muito provável não sucede»; ou quando «sucede uma ocorrência pouco provável e que lhe é desfavorável»
Ao invés:
«Diz-se que alguém tem SORTE quando uma ocorrência muito provável, e que lhe seria desfavorável, não sucede», ou «quando uma ocorrência pouco provável e favorável lhe sucede»
É espantosa a quandidade de gente que joga no euroMilhões!
Até eu, que já estudei probabilidades e estatística, jogo às vezes no euroMilhões. E sei que a probabilidade de ganhar é zero (à escala humana)...
É mesmo o sonho que comanda a vida... e não o jogo de dados...
Enviar um comentário