quinta-feira, 19 de março de 2020

NOVOS DESAFIOS DA REVOLUÇÃO DIGITAL


Este é o texto da conferência que proferi na sessão comemorativa dos 170 anos da “Revista Militar” realizada a 27 de Junho de 2019 na Reitoria da Universidade de Lisboa, e que foi publicado no número de Janeiro da Revista Militar. Numa missão de serviço público, republico-o aqui. É um long read para dias de crise, que espero passem rapidamente: 


1-Evolução histórica

Actualmente o computador mais potente do mundo está situado no Oak Ridge National Laboratory, gerido pelo Departamento de Energia do governo norte-americano, em Tennessee, nos Estados Unidos, e dá pelo nome de IBM Summit [1]. O seu poder de cálculo pode atingir 200 petaflops, isto é, 200 x 1015 flops (floating-point operations per second, operações de vírgulas flutuante por segundo). Para perceber a dimensão da evolução tecnológica na área da informática, há que o comparar com o poder de cálculo do primeiro computador electrónico digital de grande escala: o ENIAC (sigla de Electronic Numerical Integrator and Computer), desenvolvido durante a Segunda Guerra Mundial, mas só acabado de construir em 1946, que conseguia apenas 5000 = 5 x 103 flops, portanto, 14 ordens de grandeza mais abaixo do que o IBM Summit. O ENIAC era um volumoso computador a válvulas, que tinha de ser programado por ligação de fios. A história dos computadores é uma das mais impressionantes de todas as histórias tecnológicas: nenhuma outra indústria evoluiu tanto em sete décadas [2].

 O transístor constituiu uma enorme inovação ao iniciar um processo que até agora nunca parou de miniaturização. O primeiro surgiu em 1947 das mãos dos físicos norte-americanos John Bardeen, William Shockley e Walter Brattain, que trabalhavam nos Bell Labs, na Nova Jérsia, que pela sua invenção foram laureados com o Prémio Nobel Física em 1956. Os transístores, que não passam de interruptores para a corrente electrónica, logo começaram a ser associados em circuitos necessariamente simples. As primeiras aplicações militares de transístores em transmissões por via rádio apareceram, fornecidas pela Philco, em 1953 (Fig. 1). O primeiro circuito integrado, composto por transístores e outros componentes electrónicos, foi montado em 1958 pelo físico Jack Kilby, trabalhando para a Texas Instruments, sedeada em Dallas, Texas, que, embora com injustificado atraso (2000), também recebeu o Prémio Nobel da Física. Não demorou muito até surgir, em 1961, no mercado o primeiro circuito integrado. Este circuito, fabricado para a Fairchild Semiconductor, fundada em São Francisco, Califórnia, a partir de uma empresa fundada por Shockley, só tinha um transístor, três resistências e um condensador.


Fig. 1 Um dos primeiros anúncios de aplicações dos transístor foi militar.

Um passo importante do desenvolvimento da indústria dos computadores foi a previsão, feta em 1965, que ficou conhecida por Lei de Moore, proposta do engenheiro norte-americano Gordon Moore, que fundaria e dirigiria a Intel em 1968. Foi publicada na revista Electronics [3], sendo o seguinte o seu enunciado mais popular na actualidade: “o número de transístores num circuito integrado duplica num período compreendido entre 18 a 24 meses.” Portanto, num prazo de cerca de dois anos o poder de cálculo passa  para o dobro pela colocação do dobro de transístores no mesmo espaço. Essa previsão revelou-se certeira, embora haja quem diga que, tendo-se a Intel tornado líder do mercado dos processadores, ela se encarregou-se de, ao longo do tempo, confirmar o vaticínio do seu CEO. A história dos computadores pode-se resumir na produção de circuitos integrados cada vez mais complexos, o que foi possível por os transístores se terem tornado cada vez mais pequenos (o primeiro media cerca de 3 cm e num CPU de um computador moderno com os mesmos 3 cm cabem mais de um milhar de milhão de transístores), proporcionando computadores cada vez mais potentes, mas, apesar disso, mais pequenos e, considerando a relação entre preço e potência computacional, mais baratos. A Fig. 2 mostra a lei de Moore cotejada com a evolução dos processadores fornecidos pela indústria.



Fig. 2 Lei de Moore – Número de transístores em chips de circuitos integrados (1971-2016). A escala do eixo vertical está em potências de dez.

Não se pode deixar de admirar a rapidez com que foram atingidos os actuais patamares tecnológicos na computação. Em 1969, a missão Apollo 11 levava a bordo dois computadores idênticos, um no módulo do comando e outro no módulo lunar) que tinham um processador de apenas 43 kHz e a memória RAM de 33 kB, o que representa cerca de cem mil vezes menos rapidez do que um smartphone de hoje e um milhão de vezes menor espaço de memória [4]. Estava-se ainda no tempo anterior ao dos computadores pessoais. Não tendo sido o primeiro, o protótipo dos primeiros computadores pessoais foi o IBM PC, 1981, que estava baseado num processador da fábrica de Moore, o Intel 8088 (4,8 MHz). Representou um marco decisivo na evolução dos computadores. Outros marcos decisivos foram a criação, que tinha ocorrido em 1975, da Microsoft, responsável por sistemas operativos como primeiro o MS-DODS e depois o Windows, em sucessivas versões, e a criação da Apple, empresa rival tanto da IBM como da Microsoft, em 1976, que construiu computadores pessoais como o Apple II e o Macintosh e que hoje é uma das empresas com maior cotação na bolsa [5]. A Internet, rede que permitiu ligar os computadores entre si, mudando radicalmente o uso de computadores, é de 1969, estando na sua génese a Arpanet, Advanced Research Projects Agency Network, um projecto do Departamento de Defesa dos Estados Unidos, mas o seu maior momento revolucionário foi o desenvolvimento duas décadas volvidas, em 1989, da World Wide Web (WWW), no CERN, em Genebra, na Suíça, um consórcio internacional de investigação fundamental. A WWW democratizou o uso de computadores, pois permitiu o uso da Internet por todos, acelerando o processo de globalização permitido pelos meios digitais. Já no virar do século passado, em 1998, a Google iniciou o seu percurso de extraordinário crescimento baseado no seu eficaz algoritmo de localização de conteúdos na WWW. A chegada dos computadores a amplas camadas da população passou, portanto, não só pelo aparecimento de computadores mais rápidos, mas também por ligações mais rápidas entre eles e ainda por software que facilitava o seu uso.

Dispomos hoje de processadores que permitem um sem número de tarefas. Mas, com os transístores cada vez mais pequenos, uma questão interessante é a de saber se está à vista o fim da lei de Moore? Se sim, quantos anos durará ainda? A resposta é que existe um limite físico bem conhecido para os transístores que é o tamanho do átomo, já que todos os materiais são feitos de átomos, mas há limites impostos antes de aí chegar por questões de design e processos de fabrico, para além da questão obviamente relevante do custo, que fixa o preço. Segundo os cálculos de alguns analistas a Lei de Moore deverá acabar por volta de 2025, pelo que já se cogitam alternativas tecnológicas de modo a superar esse constrangimento [6]. Por um lado, há quem pense nas possibilidades fantásticas que ainda existe com a miniaturização dos transístores até à dimensão atómica. Por outro lado, há quem procure alternativas ao paradigma actual que consiste na representação da informação de modo digital em uns e zeros e o seu processamento de acordo com regras clássicas da lógica.
O tamanho dos transístores não é o único problema que limita a construção dos computadores futuro. Outro é o chamado “funil” da memória, que consiste no facto de uma unidade de processamento central (CPU) poder somar dois números em menos do que um nanossegundo, ao passo que a colocação de um número num registo de memória demora cem nanossegundos: o CPU tem de esperar pela memória! A memória mais imediata tem obviamente de ser rápida, mas há toda uma pirâmide de dispositivos de memória, que na base pode ter registos de acesso mais lento (Fig. 3).



Fig. 3 – Exemplo de hierarquia de memória computacional.

Neste artigo, depois de apresentarmos alguns dos desafios que os computadores mais poderosos vencem na prática, ao levarem a cabo simulações computacionais, discutimos o eventual impacto na indústria digital dos desenvolvimentos em nanotecnologia, a tecnologia à escala atómico-molecular, e a mudança de paradigma que pode constituir a substituição da computação hoje convencional pela computação quântica, que em vez de bits funciona com qubits, que são contínuos em vez de descontínuos.

2- Supercomputadores e simulações

Se a maior parte dos nossos computadores pessoais serve para comunicar, para consultar informação, para processar textos ou fazer cálculos, usando respectivamente processadores de texto ou folhas de cálculo, muitos computadores encontram aplicações em vários ramos da ciência, por permitirem realizar simulações. Estas são manipulações de modelos matemáticos que permitem realizar experiências que, na Natureza, seriam impossíveis, muito difíceis, muito perigosas, muito caras, muito rápidas, ou muito lentas. O computador, que é resultado da ciência (o transístor é uma aplicação da física quântica!), tornou-se ele próprio um instrumento de ciência, ampliando as possibilidades desta. É oportuno lembrar as palavras do físico americano Freeman J. Dyson, em 1999: “A maior parte das revoluções científicas recentes foram despoletadas por instrumentos.”  [7]. Tal como Galileu inaugurou a ciência moderna quando passou a usar o telescópio para observação do céu, aumentando muito o poder da visão humana, também hoje a ciência ganhou novo impulso com a utilização de poderosas simulações computacionais. Elas tornaram-se correntes em domínico como a física (incluindo nesta as nanociências), a química, a biologia e a medicina, as ciências do ambiente, a meteorologia e climatologia, vários ramos da engenharia, etc., tendo permitido responder a relevantes desafios societais. O computador melhora a observação e substitui a experimentação. Permite, por exemplo, ver a dinâmica de sistemas complexos, tendo inaugurado a nova “ciência do caos,” tal como o telescópio permitiu observar objectos distantes e inaugurar a astronomia moderna.
Todos os anos é publicada uma lista a actualizada dos 500 maiores supercomputadores do mundo, o top500 da supercomputação [1]. A maior parte das máquinas incluídas nessa lista serve para “correr” simulações cujo objectivo é a resolução de certos problemas que o ser humano enfrenta. Em 2000 esteve no topo da lista o ASCI White, instale um desempenho de pico de 12,3 teraflops, no Lawrence Livermore National Laboratory, na Califórnia, com 8192 processadores, que realizava simulações relacionadas com armas nucleares (as explosões reais tinham sido banidas por tratados internacionais, que apenas eram violados por um pequeno grupo de países). Em 2002, na sequência da assinatura em 1997 do Tratado de Quioto, no Japão, sobre alterações climáticas, surgiu no cimo do top500 o computador apoiado pelo governo japonês Earth Simulator, construído pela NEC, cujos 5120 processadores atingiam 35,86 teraflops, permitindo calcular de maneira minimamente realista o clima futuro da Terra. Em 2004 encabeçava a lista dos maiores supercomputadores do mundo o BlueGene L, um projecto da IBM para o governo norte-americano, com 32 768 processadores, capaz de atingir 70 gigaflops, era usado, conforme o nome sugere, para cálculos de biologia, designadamente o enrolamento de proteínas.

Os supercomputadores servem para fazer simulações de vários tipos em várias áreas disciplinares [8] como, por exemplo, a simulação do comportamento de um caça F-18 num túnel de vento, a previsão meteorológica de curto ou médio prazo (é o que faz, por exemplo, o supercomputador Cray no European Centre of Medium-range Weather Forecast, Reading, no Reino Unido) e as alterações climáticas globais (um projecto muito interessante nesta área, o Climateprediction.net, recorre à associação de voluntária de utentes da Internet que fornecem tempo de cálculo das suas máquinas, de modo a transformar num supercomputador um conjunto de máquinas pessoais). Um exemplo dos avanços científicos que a supercomputação permitiu foi a descoberta das ondas gravitacionais, realizado em 2015 pela colaboração LIGO, com equipamentos em Washington e na Louisiana, graças à comparação de sinais recolhidos com telescópios especiais com simulações do choque de gigantescos buracos negros. Einstein tinha feito em 1926 a previsão da existência de ondas gravitacionais e hoje sabemos, da observação directa completada com a computação, que elas existem realmente [9].

Todos os computadores da lista top500 têm actualmente (2019) mais de um petaflop, estando instalada a corrida para o nível seguinte de desempenho na escala de potência computacional (Fig 4). Está instalada uma corrida entre os países mais poderosos do mundo para construir computadores cada vez mais poderosos: a seguir ao peta será o exa (1018). De  certo modo os seus supercomputadores são um símbolo do seu poder. Mas constituem também um poder efectivo, pois, parafraseando a célebre frase de Francis Bacon, “prever é poder”. O IBM Summit sucedeu ao computador chinês Sunway TaihuLight, que já foi o mais rápido do mundo. Actualmente a China é o país com mais sistemas computacionais na lista do top 500 (229). Em forte contraste, os Estados Unidos só têm menos de metade (108), circunstância que poderá justificar um elevado investimento em computação da actual administração norte-americana ao mesmo tempo que diminui o investimento em ramos da ciência como os que dizem respeito ao ambiente e o clima. A Europa, que têm uma iniciativa conjunta na área da supercomputação (PRACE, Partnership for Advanced Computing in Europe), representada pelo Reino Unido (20), Alemanha (17), França (18) e Irlanda (12), aparece apenas depois do Japão (31), que é o terceiro país após a China e os Estados Unidos (Fig.  5)


 Fig. 4 Evolução do poder de cálculo em flops dos sistemas computacionais do top 500. Na linha de baixo a máquina n.º 500, na linha intermédia a máquina n.º 1 e no cimo a soma das máquinas do 1 ao 500 (poder de cálculo total das máquinas da lista). A escala vertical, de potências, está em gigaflops.



Fig. 5 Distribuição de supercomputadores na lista do top500 por país (Nov. 2018)

Em Portugal, a Universidade de Coimbra foi pioneira na área da supercomputação ao instalar em 1998 um supercomputador, baptizado de Centopeia, que atingia 4,2 gigaflops, construído a partir da associação de 24 workstations,  ao qual se sucedeu em 2006 a Milipeia, um sistema da Sun, em 2006, com 520 nós, que atingia 1,6 teraflops, e em 2015 o Navigator, um sistema da Fujitsu, com cerca de 4000 nós, que atinge 72 teraflops. Nessa máquinas, instaladas no Centro de Computação Avançada da Universidade de Coimbra, de acesso aberto à comunidade científica nacional “correm-se” simulações de vários tipos. Pertence à Universidade de Coimbra o representante português no PRACE.

3- O caminho para o nano

O nanómetro (1 nanómetro = 1 nm = 0,000 000 001 m) é a escala dos átomos e das moléculas, um milésimo do mícron, que é a escala das células vivas. A nanotecnologia é a engenharia a esta escala [10]. Almeja o fabrico e a manipulação de nanosistemas, i.e., sistemas com dimensões menores do que 100 nanómetros. O número de artigos científicos com “nano” no título não tem parado de crescer desde 1990 (Fig.  6), assim como aplicações que chegam ao mercado. Há quem preveja que se torne uma tecnologia de fabrico dominante no século XXI. O fabrico tradicional é top-down: retira-se material até ficar o produto. É o que acontece no fabrico de chips de semicondutores, que estão no cerne da indústria informática. Mas, na nanotecnologia, o fabrico é bottom-up: junta-se material até se obter o produto. Por exemplo, juntam-se átomos para formar moléculas ou agregados atómicos. Juntam-se moléculas ou agregados para formar materiais. É isso de resto que acontece nos sistemas biológicos.



Fig. 6. Evolução do número de artigos científicos sobre nanotecnologias no título em comparação com artigos sobre semicondutores e e nanotecnologias.

O físico norte-americano Richard Feynman, que recebeu o Prémio Nobel da Física em 1965, afirmou numa conferência que deu em 1959 para a Sociedade Americana de Física: “There is plenty of room at the bottom.” (“Há muito espaço lá em baixo”) [11], querendo com isso dizer que poderíamos conduzir os átomos e moléculas no vazio para certas posições adequadas a um fim pretendido. Nessa conferência tratou a questão de colocar toda a Enciclopédia Britânica na cabeça de um alfinete, concluindo que isso não só era possível como se poderia, pelo menos em princípio, colocar toda a literatura jamais escrita no referido espaço. Num tom divertido, anunciou um prémio a quem conseguisse fazer um escrito em que as letras estivessem reduzidas de um factor de 1/25000 (a escada das cartas militares usadas em Portugal, nas quais 4 cm correspondem a 1 km). Se um ponto de um texto impresso tiver a altura de um milímetro, isso significaria que as letras teriam de medir 1/25,000 mm = 40 nm, o que só se consegue com átomos. De facto, em 1989, os Laboratórios da IBM em Zurique conseguiram colocar 35 átomos de xénon sobre uma superfície de níquel de modo a escrever o nome da empresa à escala atómica (Fig. 7).



Fig. 7. A escala vertical deste letreiro da IBM é 5 nm.

Proezas maiores da nanotecnologia foram a obtenção do fulereno (1985), uma bola de 60 átomos de carbono, de nanotubos (1991), que são tubos de carbono, e do grafeno (2005), que são folhas de carbono, como as que se encontram empilhadas na grafite.
Há quem especule que a nanotecnologia pode contribuir para o progresso da tecnologia eletrónica, proporcionando transístores que são moléculas ou agregados atómicos (no limite um só átomo) e, desse modo, tirando partido da constituição atómica da matéria no limite da lei de Moore [12]. Evidentemente que, quando os componentes de um processador chegarem à escala atómica, a lei de Moore não poderá continuar a ser aplicada. Nessa altura, os efeitos quânticos tornar-se-ão relevantes. As questões a enfrentar são: podem-se fazer transístores com muito poucos átomos? Conseguiremos usar esses transístores em computadores funcionais? Alguns visionários pensam que será protelado a chegada ao limite da lei de Moore construindo processadores de base nanotecnológica. De certo modo nanotransístores estarão para a tecnologia actual, como os primeiros transístores estiveram para as válvulas electrónicas: representam nova tecnologia com um grande potencial de crescimento (Fig. 8).



Fig.8. Fim da lei de Moore (linha a cheio interrompida na estrela): a curva  de baixo representa as limitações das tecnologias actuais, enquanto a curva de cima representa um previsão baseada no desenvolvimento de nanotecnologias..

4- Computação quântica

Em alternativa ou em complemento de eventuais progressos na computação graças ao uso da nanotecnologia, oferecem-se outras tecnologias, algumas radicalmente diferentes. Uma das mais exploradas é a chamada computação quântica. Se, à escala atómica, os efeitos quânticos se tornam importantes, porque não aproveitá-los em benefício do cálculo?

Um computador quântico é uma máquina que realiza cálculos baseados nas leis da mecânica quântica, a mecânica desenvolvida na primeira metade do século XX que descreve o comportamento de partículas e sistemas à escala molecular, atómica e subatómica. Essa mecânica inclui conceitos não clássicos muito estranhos como são a sobreposição, o colapso e o entrelaçamento. A Natureza conhece esses efeitos e a questão consiste em saber se há tecnologias viáveis assentes neles.

Foi o já referido Richard Feynman quem propôs o conceito de computação quântica. Afirmou em 1982, em tom coloquial: “... tentar encontrar uma simulação computacional da física parece-me um excelente programa para perseguir... e eu não estou feliz com todas as análises que têm sido feitas apenas com a teoria clássica, porque a Natureza não é clássica, caramba, e se quiserem fazer uma simulação da Natureza, é melhor torná-la quântica e, com mil raios, é um problema maravilhoso, porque não parece nada fácil.” [13]

O que é uma sobreposição quântica? Num computador digital clássico a representação da informação faz-se usando bits, zero ou um, sim ou não, num computador quântico faz-se usando qubits, que são combinações arbitrárias de estados. Um sistema quântico pode estar em qualquer combinação de dois estados designados por |0> e |1> (cada um deles representa um bit, “sim” ou “não”). Por exemplo, num átomo, um certo estado excitado do átomo representa |1> e um estado fundamental representa |0>. Um qubit diz respeito a uma sobreposição (ou adição) de dois estados: |Ψ> = a1 |0> + a2 |1>. onde a1 e a2, designados por amplitudes de probabilidade, são números complexos tais que a soma dos quadrados dos seus módulos dá um: |a1|2 + | a2 |2 = 1. Nessa situação dizemos que que o sistema está nos dois estados |1> e |0> ao mesmo tempo. Mas, de facto, nunca o observamos nessa situação: a observação vai levar a que encontremos o sistema no estado |1> ou no estado |0>, com probabilidades que são dadas, respectivamente, por |a1|2 e | a2|2. No caso de uma distribuição uniforme |a1|2 = | a2 |2  =1/2,  isto é, existe igual probabilidade de estar num estado ou noutro. Falamos então de colapso do estado quântico, provocada pela interferência com o exterior (neste caso, o observador). Um exemplo muito conhecido da sobreposição quântica é o chamado “gato de Schroedinger”, um gato dentro de uma caixa que pode morrer com uma certa probabilidade devido à ocorrência de um evento quântico. Se forem amplificadas para o mundo macroscópicos as regras que presidem ao mundo microscópico, então o gato poderia estar na situação bizarra de estar vivo e morto ao mesmo tempo. Só quando o observamos se concretiza o chamado colapso do estado e verificamos se está vivo ou morto. Repetindo a experiência muitas vezes com gatos em idênticas circunstâncias, obteríamos as probabilidades que caracterizam a mistura inicial.

Considerando agora um qubit de 3 bits, uma sobreposição uniforme de todos os estados possíveis é | Ψ > = 1/√8 |000> + 1/ √8 |001> + . . . + 1/√8 |111> . Cada um dos estados |000> , |001> e |111>  tem igual probabilidade de ser observado. Em geral, um registo de n qubits pode representar números de 0 a 2n-1 simultaneamente, o que cobre um espaço imenso. Quando observarmos o estado descrito pela sobreposição, ela colapsa aleatoriamente para representar uma só das suas componentes.

Os computadores clássicos têm portas lógicas que processam os bits. Para uma certa porta (gate), cada entrada de uns e zeros corresponde uma certa saída de uns e zeros. Na mecânica quântica a destruição de informação numa porta lógica) geraria calor que levaria à destruição da sobreposição de qubits (um exemplo é a porta  AND que só dá 1 quando as entradas são 1 e 1). Por isso as operações com qubits devem ser reversíveis. Precisamos, por isso, de novas portas, ditas quânticas em vez de clássicas. As gates quânticas são semelhantes às clássicas, mas o seu estado de input original tem de ser derivado de um modo único do estado final, isto é, têm de ser reversíveis. A porta mais simples envolve um só qubit é chamada “gate de Hadamard”. É usada para colocar qubits em sobreposição: transforma o estado |0> no estado de sobreposição uniforme |0> + |1> (Fig. 9) . Aplicando esta gate ao estado de sobreposição o resultado é o oposto do estado inicial: vem um |1>, sendo desfeita a sobreposição. Como, portanto, duas portas de Hadamard em série podem ser usadas como uma porta NOT, uma gate de Hadamard pode ser chamada raiz quadrada da porta NOT.


Fig. 9. Funcionamento de uma porta de Hadamard em computação quântica. 


Os sistemas práticos de computação quântica podem ser concretizados de uma grande variedade de maneiras: “ratoeira” de iões (regiões onde um ião não pode sair), “pontos quânticos” (que são uma espécie de átomos artificiais), sistemas ópticos, sistemas de ressonância magnética nuclear, etc. Um problema técnico da computação quântica é a sua implementação prática: é necessário impedir a “decoerência”, ou seja, a indesejada interação com o ambiente, que pode causar o colapso indesejado do estado quântico. Os cálculos quânticos reais requerem, por isso, algoritmos de correcção de erros, que ainda não estão aperfeiçoados.

Para que serve a computação quântica? Para certos problemas, usando algoritmos adequados, ela pode ser muito mais rápida do que a computação clássica. É o caso da factorização de um número inteiro em números primos, usada na criptografia. Em 2001 conseguiu-se, com um computador quântico, uma factorização trivial: 15=3 x 5. Mas espera-se conseguir factorizações não triviais de números muito grandes, um feito que terá consequências para a criptografia, ao permitir quebrar códigos de acesso (felizmente que a física quântica proporciona novos protocolos de segurança). Outras aplicações são a simulação de sistemas quânticos em problemas de física, química, nanotecnologia, ciência de materiais e biologia, por exemplo no design de novas moléculas de interesse farmacêutico, etc. Como bem disse Feynman, se a Natureza é quântica, nada mais adequado do que usar simulações quânticas em sistemas simples para  compreender sistemas quânticos complexos. Outra possibilidade de aplicação é o seu uso em buscas em enormes bases de dados, reconhecendo rapidamente padrões. Os contributos para a inteligência artificial são fáceis de antever.
A história da computação quântica não conheceu interrupção desde a proposta de Feynman. Em 1985 o físico britânico David Deutsch desenvolveu o conceito de máquina de Turing quântica, mostrando que os circuitos quânticos eram universais. Em 1994 o matemático norte-americano Peter Shor desenvolveu um algoritmo quântico para factorizar grandes números num tempo polinomial e não exponencial (isto é, que cresce com uma potência e não com uma soma de todas). Em 1997 o cientista de comutadores indo-americano Lov Grover desenvolveu um algoritmo quântico de busca. Em 1998 primeiro computador funcional de 2 qubits foi demonstrado na Universidade de Califórnia, Berkeley, nos Estados Unidos. Já neste século, em 2001, o primeiro computador funcional de 7 qubits com base em RMN foi demonstrado no IBM Almaden Research Center, em S. José, Califórnia Em 2001 foi feita a primeira execução do algoritmo de Shor: o número 15 foi factorizado usando 1018 moléculas idênticas, cada uma com sete átomos. Recentemente (2019) foi anunciado que uma equipa da Google terá conseguido demonstrar a “supremacia quântica,” isto é, usar a computação para resolver rapidamente um certo problema que demoraria uma eternidade num computador clássico, ainda que este fosse o mais potente supercomputador [14].

Actualmente existem vários computadores quânticos, mas eles ainda são relativamente rudimentares. A IBM colocou um computador quântico acessível na rede por utentes comuns: IBM Q Experience–Quantum Computing project (criado em 2016, acessível na Internet em 2018). Os seus processadores são dois 5 qubits e um de 16 qubits. Em 2019 a mesma empresa anunciou o seu primeiro computador quântico comercial.

 Um problema actual da computação quântica é a necessidade de construção de máquinas maiores: são necessárias máquinas com mais de 50 qubits para rivalizar com os computadores clássicos correntes, para não falar já dos maiores supercomputadores. E está em boa parte por resolver o já referido problema da correcção de erros provenientes da interacção com o exterior. Em computação quântica as operações têm de ser mais rápidas do que os tempos de decoerência.

5- Conclusões

O futuro já começou. O futuro começa aliás todos os dias… Nos laboratórios de investigação actuais encontram-se já os protótipos dos computadores do futuro.

Analisaram-se aqui duas possibilidades que se oferecem como desafios na computação avançada: desenvolvimentos em hardware no domínio da nanotecnologia, que permitiria computadores muito mais pequenos, o que significa computadores do tamanho dos actuais, mas muito mais poderosos: contidos no mesmo espaço teríamos muitos mais transístores, aproximando-nos do limite dado pela Lei de Moore. Por outro lado, é possível mudar o paradigma da computação, passando da computação clássica, com bits, para a computação quântica, com qubits. Para certos problemas a velocidade de resposta seria muito maior.

Convém no processo de desenvolvimento científico-tecnológico não esquecer que nos cabe a nós fazer com que o nosso futuro, onde os computadores terão decerto ainda maior presença do que hoje, seja melhor do que o passado. A ética terá, como hoje, um papel sobre o que se deve ou não deve fazer com as novas tecnologias. Mas isso é um problema humano e não científico-tecnológico.

Referências:
[2] Stephen J Marshall, The Story of the Computer: A Technical and Business History CreateSpace Independent Publishing Platform, 2017
[3] Gordon E. Moore, “Cramming more componentes onto integrated circuits”, Electronics, vol. 38, n.8, 19/Abril/1965. https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/moores-law-electronics.pdf
[5] Walter Isaacson, Os Inovadores, Porto Editora, 2016.
[7] Freeman J. Dyson, O Sol, o genoma e a Internet, temas e Debates, 2000.
[8] William J. Kaufmann, Supercomputing and the Transformation of Science, Scientific American Library, 1993.
[9] B. P. Abbott et al., “Observation of Gravitational Waves from a Binary Black Hpole Merger”,.Physical Review Letters  116, 061102 (2016) https://physics.aps.org/featured-article-pdf/10.1103/PhysRevLett.116.061102
[10] K. Eric Drexler, Engines of Creation: The Coming Era of Nanotechnology , Doubleday, 1986
[12] Jerry Wu et al., A Nanotechnology Enhancement of Moore’s law, Applied Computational Intelkligence and Soft Computing, vol. 2013, 426962, https://core.ac.uk/download/pdf/192453824.pdf
[13] Feynman Simulating Physics with Computers", International Journal of Theoretical Physics, volume 21, 1982, p. 467-488, at p. 486

Fontes das figuras

Fig. 9



Sem comentários:

O BRASIL JUNTA-SE AOS PAÍSES QUE PROÍBEM OU RESTRINGEM OS TELEMÓVEIS NA SALA DE AULA E NA ESCOLA

A notícia é da Agência Lusa. Encontrei-a no jornal Expresso (ver aqui ). É, felizmente, quase igual a outras que temos registado no De Rerum...