Este é o texto da conferência que proferi na sessão comemorativa dos 170
anos da “Revista Militar” realizada a 27 de Junho de 2019 na Reitoria da
Universidade de Lisboa, e que foi publicado no número de Janeiro da Revista Militar. Numa missão de serviço público, republico-o aqui. É um long read para dias de crise, que espero passem rapidamente:
1-Evolução histórica
Actualmente o computador
mais potente do mundo está situado no Oak Ridge National Laboratory, gerido
pelo Departamento de Energia do governo norte-americano, em Tennessee, nos Estados
Unidos, e dá pelo nome de IBM Summit [1].
O seu poder de cálculo pode atingir 200 petaflops, isto é, 200 x 1015
flops (floating-point operations per
second, operações de vírgulas flutuante por segundo). Para perceber a
dimensão da evolução tecnológica na área da informática, há que o comparar com
o poder de cálculo do primeiro computador electrónico digital de grande escala:
o ENIAC (sigla de Electronic Numerical Integrator and Computer), desenvolvido
durante a Segunda Guerra Mundial, mas só acabado de construir em 1946, que
conseguia apenas 5000 = 5 x 103 flops, portanto, 14 ordens de
grandeza mais abaixo do que o IBM Summit.
O ENIAC era um volumoso computador a
válvulas, que tinha de ser programado por ligação de fios. A história dos
computadores é uma das mais impressionantes de todas as histórias tecnológicas:
nenhuma outra indústria evoluiu tanto em sete décadas [2].
O transístor constituiu uma enorme inovação ao
iniciar um processo que até agora nunca parou de miniaturização. O primeiro surgiu
em 1947 das mãos dos físicos norte-americanos John Bardeen, William Shockley e
Walter Brattain, que trabalhavam nos Bell
Labs, na Nova Jérsia, que pela sua invenção foram laureados com o Prémio
Nobel Física em 1956. Os transístores, que não passam de interruptores para a
corrente electrónica, logo começaram a ser associados em circuitos
necessariamente simples. As primeiras aplicações militares de transístores em
transmissões por via rádio apareceram, fornecidas pela Philco, em 1953 (Fig. 1).
O primeiro circuito integrado, composto por transístores e outros componentes
electrónicos, foi montado em 1958 pelo físico Jack Kilby, trabalhando para a Texas Instruments, sedeada em Dallas,
Texas, que, embora com injustificado atraso (2000), também recebeu o Prémio
Nobel da Física. Não demorou muito até surgir, em 1961, no mercado o primeiro
circuito integrado. Este circuito, fabricado para a Fairchild Semiconductor, fundada em São Francisco, Califórnia, a
partir de uma empresa fundada por Shockley, só tinha um transístor, três
resistências e um condensador.
Fig. 1 Um dos primeiros
anúncios de aplicações dos transístor foi militar.
Um passo importante do
desenvolvimento da indústria dos computadores foi a previsão, feta em 1965, que
ficou conhecida por Lei de Moore, proposta do engenheiro norte-americano Gordon
Moore, que fundaria e dirigiria a Intel em 1968. Foi publicada na revista Electronics [3], sendo o seguinte o seu
enunciado mais popular na actualidade: “o número de transístores num circuito
integrado duplica num período compreendido entre 18 a 24 meses.” Portanto, num
prazo de cerca de dois anos o poder de cálculo passa para o dobro pela colocação do dobro de transístores
no mesmo espaço. Essa previsão revelou-se certeira, embora haja quem diga que,
tendo-se a Intel tornado líder do mercado dos processadores, ela se encarregou-se
de, ao longo do tempo, confirmar o vaticínio do seu CEO. A história dos
computadores pode-se resumir na produção de circuitos integrados cada vez mais
complexos, o que foi possível por os transístores se terem tornado cada vez
mais pequenos (o primeiro media cerca de 3 cm e num CPU de um computador
moderno com os mesmos 3 cm cabem mais de um milhar de milhão de transístores), proporcionando
computadores cada vez mais potentes, mas, apesar disso, mais pequenos e, considerando
a relação entre preço e potência computacional, mais baratos. A Fig. 2 mostra a
lei de Moore cotejada com a evolução dos processadores fornecidos pela
indústria.
Fig. 2 Lei de Moore –
Número de transístores em chips de circuitos integrados (1971-2016). A escala
do eixo vertical está em potências de dez.
Não se pode deixar de
admirar a rapidez com que foram atingidos os actuais patamares tecnológicos na
computação. Em 1969, a missão Apollo 11 levava
a bordo dois computadores idênticos, um no módulo do comando e outro no módulo
lunar) que tinham um processador de apenas 43 kHz e a memória RAM de 33 kB, o
que representa cerca de cem mil vezes menos rapidez do que um smartphone de hoje e um milhão de vezes
menor espaço de memória [4]. Estava-se ainda no tempo anterior ao dos
computadores pessoais. Não tendo sido o primeiro, o protótipo dos primeiros computadores
pessoais foi o IBM PC, 1981, que estava baseado num processador da fábrica de
Moore, o Intel 8088 (4,8 MHz). Representou um marco decisivo na evolução dos
computadores. Outros marcos decisivos foram a criação, que tinha ocorrido em
1975, da Microsoft, responsável por sistemas operativos como primeiro o MS-DODS
e depois o Windows, em sucessivas versões, e a criação da Apple, empresa rival
tanto da IBM como da Microsoft, em 1976, que construiu computadores pessoais
como o Apple II e o Macintosh e que hoje é uma das empresas com maior cotação
na bolsa [5]. A Internet, rede que permitiu ligar os computadores entre si, mudando
radicalmente o uso de computadores, é de 1969, estando na sua génese a Arpanet,
Advanced Research Projects Agency Network,
um projecto do Departamento de Defesa dos Estados Unidos, mas o seu maior momento
revolucionário foi o desenvolvimento duas décadas volvidas, em 1989, da World Wide Web (WWW), no CERN, em
Genebra, na Suíça, um consórcio internacional de investigação fundamental. A
WWW democratizou o uso de computadores, pois permitiu o uso da Internet por
todos, acelerando o processo de globalização permitido pelos meios digitais. Já
no virar do século passado, em 1998, a Google iniciou o seu percurso de
extraordinário crescimento baseado no seu eficaz algoritmo de localização de
conteúdos na WWW. A chegada dos computadores a amplas camadas da população
passou, portanto, não só pelo aparecimento de computadores mais rápidos, mas
também por ligações mais rápidas entre eles e ainda por software que facilitava o seu uso.
Dispomos hoje de
processadores que permitem um sem número de tarefas. Mas, com os transístores
cada vez mais pequenos, uma questão interessante é a de saber se está à vista o
fim da lei de Moore? Se sim, quantos anos durará ainda? A resposta é que existe
um limite físico bem conhecido para os transístores que é o tamanho do átomo, já
que todos os materiais são feitos de átomos, mas há limites impostos antes de
aí chegar por questões de design e processos de fabrico, para além da questão obviamente
relevante do custo, que fixa o preço. Segundo os cálculos de alguns analistas a
Lei de Moore deverá acabar por volta de 2025, pelo que já se cogitam
alternativas tecnológicas de modo a superar esse constrangimento [6]. Por um
lado, há quem pense nas possibilidades fantásticas que ainda existe com a
miniaturização dos transístores até à dimensão atómica. Por outro lado, há quem
procure alternativas ao paradigma actual que consiste na representação da
informação de modo digital em uns e zeros e o seu processamento de acordo com
regras clássicas da lógica.
O tamanho dos
transístores não é o único problema que limita a construção dos computadores
futuro. Outro é o chamado “funil” da memória, que consiste no facto de uma
unidade de processamento central (CPU) poder somar dois números em menos do que
um nanossegundo, ao passo que a colocação de um número num registo de memória demora
cem nanossegundos: o CPU tem de esperar pela memória! A memória mais imediata
tem obviamente de ser rápida, mas há toda uma pirâmide de dispositivos de
memória, que na base pode ter registos de acesso mais lento (Fig. 3).
Fig. 3 – Exemplo de
hierarquia de memória computacional.
Neste artigo, depois de
apresentarmos alguns dos desafios que os computadores mais poderosos vencem na
prática, ao levarem a cabo simulações computacionais, discutimos o eventual
impacto na indústria digital dos desenvolvimentos em nanotecnologia, a tecnologia
à escala atómico-molecular, e a mudança de paradigma que pode constituir a
substituição da computação hoje convencional pela computação quântica, que em
vez de bits funciona com qubits, que são contínuos em vez de
descontínuos.
2- Supercomputadores e
simulações
Se a maior parte dos
nossos computadores pessoais serve para comunicar, para consultar informação,
para processar textos ou fazer cálculos, usando respectivamente processadores
de texto ou folhas de cálculo, muitos computadores encontram aplicações em
vários ramos da ciência, por permitirem realizar simulações. Estas são manipulações
de modelos matemáticos que permitem realizar experiências que, na Natureza,
seriam impossíveis, muito difíceis, muito perigosas, muito caras, muito rápidas,
ou muito lentas. O computador, que é resultado da ciência (o transístor é uma
aplicação da física quântica!), tornou-se ele próprio um instrumento de ciência,
ampliando as possibilidades desta. É oportuno lembrar as palavras do físico
americano Freeman J. Dyson, em 1999: “A maior parte das revoluções científicas
recentes foram despoletadas por instrumentos.” [7]. Tal como Galileu inaugurou a ciência
moderna quando passou a usar o telescópio para observação do céu, aumentando
muito o poder da visão humana, também hoje a ciência ganhou novo impulso com a
utilização de poderosas simulações computacionais. Elas tornaram-se correntes
em domínico como a física (incluindo nesta as nanociências), a química, a
biologia e a medicina, as ciências do ambiente, a meteorologia e climatologia,
vários ramos da engenharia, etc., tendo permitido responder a relevantes
desafios societais. O computador melhora a observação e substitui a
experimentação. Permite, por exemplo, ver a dinâmica de sistemas complexos,
tendo inaugurado a nova “ciência do caos,” tal como o telescópio permitiu
observar objectos distantes e inaugurar a astronomia moderna.
Todos os anos é publicada
uma lista a actualizada dos 500 maiores supercomputadores do mundo, o top500 da supercomputação [1]. A maior
parte das máquinas incluídas nessa lista serve para “correr” simulações cujo
objectivo é a resolução de certos problemas que o ser humano enfrenta. Em 2000
esteve no topo da lista o ASCI White,
instale um desempenho de pico de 12,3 teraflops, no Lawrence Livermore National
Laboratory, na Califórnia, com 8192 processadores, que realizava simulações
relacionadas com armas nucleares (as explosões reais tinham sido banidas por tratados
internacionais, que apenas eram violados por um pequeno grupo de países). Em
2002, na sequência da assinatura em 1997 do Tratado de Quioto, no Japão, sobre
alterações climáticas, surgiu no cimo do top500
o computador apoiado pelo governo japonês Earth Simulator, construído pela NEC, cujos 5120 processadores atingiam
35,86 teraflops, permitindo calcular de maneira minimamente realista o clima futuro
da Terra. Em 2004 encabeçava a lista dos maiores supercomputadores do mundo o BlueGene L, um projecto da IBM para o
governo norte-americano, com 32 768 processadores, capaz de atingir 70 gigaflops,
era usado, conforme o nome sugere, para cálculos de biologia, designadamente o
enrolamento de proteínas.
Os supercomputadores
servem para fazer simulações de vários tipos em várias áreas disciplinares [8] como,
por exemplo, a simulação do comportamento de um caça F-18 num túnel de vento, a
previsão meteorológica de curto ou médio prazo (é o que faz, por exemplo, o supercomputador
Cray no European Centre of Medium-range Weather Forecast, Reading, no Reino
Unido) e as alterações climáticas globais (um projecto muito interessante nesta
área, o Climateprediction.net, recorre à associação de voluntária de utentes da
Internet que fornecem tempo de cálculo das suas máquinas, de modo a transformar
num supercomputador um conjunto de máquinas pessoais). Um exemplo dos avanços
científicos que a supercomputação permitiu foi a descoberta das ondas
gravitacionais, realizado em 2015 pela colaboração LIGO, com equipamentos em
Washington e na Louisiana, graças à comparação de sinais recolhidos com
telescópios especiais com simulações do choque de gigantescos buracos negros.
Einstein tinha feito em 1926 a previsão da existência de ondas gravitacionais e
hoje sabemos, da observação directa completada com a computação, que elas existem
realmente [9].
Todos os computadores da
lista top500 têm actualmente (2019) mais
de um petaflop, estando instalada a corrida para o nível seguinte de desempenho
na escala de potência computacional (Fig 4). Está instalada uma corrida entre
os países mais poderosos do mundo para construir computadores cada vez mais
poderosos: a seguir ao peta será o exa (1018). De certo modo os seus supercomputadores são um
símbolo do seu poder. Mas constituem também um poder efectivo, pois,
parafraseando a célebre frase de Francis Bacon, “prever é poder”. O IBM Summit sucedeu ao computador chinês Sunway TaihuLight, que já foi o mais
rápido do mundo. Actualmente a China é o país com mais sistemas computacionais na
lista do top 500 (229). Em forte
contraste, os Estados Unidos só têm menos de metade (108), circunstância que
poderá justificar um elevado investimento em computação da actual administração
norte-americana ao mesmo tempo que diminui o investimento em ramos da ciência
como os que dizem respeito ao ambiente e o clima. A Europa, que têm uma
iniciativa conjunta na área da supercomputação (PRACE, Partnership for Advanced Computing in Europe), representada pelo
Reino Unido (20), Alemanha (17), França (18) e Irlanda (12), aparece apenas
depois do Japão (31), que é o terceiro país após a China e os Estados Unidos
(Fig. 5)
Fig. 5 Distribuição de
supercomputadores na lista do top500 por país (Nov. 2018)
Em Portugal, a
Universidade de Coimbra foi pioneira na área da supercomputação ao instalar em
1998 um supercomputador, baptizado de Centopeia,
que atingia 4,2 gigaflops, construído a partir da associação de 24 workstations, ao qual se sucedeu em 2006 a
Milipeia, um sistema da Sun, em 2006,
com 520 nós, que atingia 1,6 teraflops, e em 2015 o Navigator, um sistema da Fujitsu, com cerca de 4000 nós, que atinge
72 teraflops. Nessa máquinas, instaladas no Centro de Computação Avançada da
Universidade de Coimbra, de acesso aberto à comunidade científica nacional “correm-se”
simulações de vários tipos. Pertence à Universidade de Coimbra o representante
português no PRACE.
3- O caminho para o nano
O nanómetro (1 nanómetro
= 1 nm = 0,000 000 001 m) é a escala dos átomos e das moléculas, um milésimo do
mícron, que é a escala das células vivas. A nanotecnologia é a engenharia a
esta escala [10]. Almeja o fabrico e a manipulação de nanosistemas, i.e., sistemas com dimensões menores do
que 100 nanómetros. O número de artigos científicos com “nano” no título não
tem parado de crescer desde 1990 (Fig. 6),
assim como aplicações que chegam ao mercado. Há quem preveja que se torne uma
tecnologia de fabrico dominante no século XXI. O fabrico tradicional é top-down: retira-se material até ficar o
produto. É o que acontece no fabrico de chips de semicondutores, que estão no
cerne da indústria informática. Mas, na nanotecnologia, o fabrico é bottom-up: junta-se material até se obter
o produto. Por exemplo, juntam-se átomos para formar moléculas ou agregados atómicos.
Juntam-se moléculas ou agregados para formar materiais. É isso de resto que
acontece nos sistemas biológicos.
Fig. 6. Evolução do
número de artigos científicos sobre nanotecnologias no título em comparação com
artigos sobre semicondutores e e nanotecnologias.
O físico norte-americano Richard
Feynman, que recebeu o Prémio Nobel da Física em 1965, afirmou numa conferência
que deu em 1959 para a Sociedade Americana de Física: “There is plenty of room
at the bottom.” (“Há muito espaço lá em baixo”) [11], querendo com isso dizer
que poderíamos conduzir os átomos e moléculas no vazio para certas posições
adequadas a um fim pretendido. Nessa conferência tratou a questão de colocar
toda a Enciclopédia Britânica na cabeça de um alfinete, concluindo que isso não
só era possível como se poderia, pelo menos em princípio, colocar toda a
literatura jamais escrita no referido espaço. Num tom divertido, anunciou um
prémio a quem conseguisse fazer um escrito em que as letras estivessem reduzidas
de um factor de 1/25000 (a escada das cartas militares usadas em Portugal, nas
quais 4 cm correspondem a 1 km). Se um ponto de um texto impresso tiver a
altura de um milímetro, isso significaria que as letras teriam de medir 1/25,000
mm = 40 nm, o que só se consegue com átomos. De facto, em 1989, os Laboratórios
da IBM em Zurique conseguiram colocar 35 átomos de xénon sobre uma superfície
de níquel de modo a escrever o nome da empresa à escala atómica (Fig. 7).
Fig. 7. A escala vertical
deste letreiro da IBM é 5 nm.
Proezas maiores da
nanotecnologia foram a obtenção do fulereno (1985), uma bola de 60 átomos de
carbono, de nanotubos (1991), que são tubos de carbono, e do grafeno (2005),
que são folhas de carbono, como as que se encontram empilhadas na grafite.
Há quem especule que a
nanotecnologia pode contribuir para o progresso da tecnologia eletrónica, proporcionando
transístores que são moléculas ou agregados atómicos (no limite um só átomo) e,
desse modo, tirando partido da constituição atómica da matéria no limite da lei
de Moore [12]. Evidentemente que, quando os componentes de um processador
chegarem à escala atómica, a lei de Moore não poderá continuar a ser aplicada. Nessa
altura, os efeitos quânticos tornar-se-ão relevantes. As questões a enfrentar são:
podem-se fazer transístores com muito poucos átomos? Conseguiremos usar esses
transístores em computadores funcionais? Alguns visionários pensam que será
protelado a chegada ao limite da lei de Moore construindo processadores de base
nanotecnológica. De certo modo nanotransístores estarão para a tecnologia
actual, como os primeiros transístores estiveram para as válvulas electrónicas:
representam nova tecnologia com um grande potencial de crescimento (Fig. 8).
Fig.8. Fim da lei de
Moore (linha a cheio interrompida na estrela): a curva de baixo representa as limitações das
tecnologias actuais, enquanto a curva de cima representa um previsão baseada no
desenvolvimento de nanotecnologias..
4- Computação quântica
Em alternativa ou em
complemento de eventuais progressos na computação graças ao uso da nanotecnologia,
oferecem-se outras tecnologias, algumas radicalmente diferentes. Uma das mais exploradas
é a chamada computação quântica. Se, à escala atómica, os efeitos quânticos se tornam
importantes, porque não aproveitá-los em benefício do cálculo?
Um computador quântico é
uma máquina que realiza cálculos baseados nas leis da mecânica quântica, a
mecânica desenvolvida na primeira metade do século XX que descreve o
comportamento de partículas e sistemas à escala molecular, atómica e subatómica.
Essa mecânica inclui conceitos não clássicos muito estranhos como são a sobreposição,
o colapso e o entrelaçamento. A Natureza conhece esses efeitos e a questão
consiste em saber se há tecnologias viáveis assentes neles.
Foi o já referido Richard
Feynman quem propôs o conceito de computação quântica. Afirmou em 1982, em tom
coloquial: “... tentar encontrar uma simulação computacional da física
parece-me um excelente programa para perseguir... e eu não estou feliz com
todas as análises que têm sido feitas apenas com a teoria clássica, porque a
Natureza não é clássica, caramba, e se quiserem fazer uma simulação da
Natureza, é melhor torná-la quântica e, com mil raios, é um problema
maravilhoso, porque não parece nada fácil.” [13]
O que é uma sobreposição
quântica? Num computador digital clássico a representação da informação faz-se
usando bits, zero ou um, sim ou não, num
computador quântico faz-se usando qubits,
que são combinações arbitrárias de estados. Um sistema quântico pode estar
em qualquer combinação de dois estados designados por |0> e |1> (cada um
deles representa um bit, “sim” ou “não”). Por exemplo, num átomo, um certo estado
excitado do átomo representa |1> e um estado fundamental representa |0>. Um
qubit diz respeito a uma sobreposição
(ou adição) de dois estados: |Ψ> = a1
|0> + a2 |1>. onde a1 e a2, designados por amplitudes de probabilidade,
são números complexos tais que a soma dos quadrados dos seus módulos dá um: |a1|2 + | a2 |2 = 1. Nessa
situação dizemos que que o sistema está nos dois estados |1> e |0> ao
mesmo tempo. Mas, de facto, nunca o observamos nessa situação: a observação vai
levar a que encontremos o sistema no estado |1> ou no estado |0>, com
probabilidades que são dadas, respectivamente, por |a1|2 e | a2|2.
No caso de uma distribuição uniforme |a1|2
= | a2 |2 =1/2, isto é, existe igual probabilidade de estar
num estado ou noutro. Falamos então de colapso do estado quântico, provocada
pela interferência com o exterior (neste caso, o observador). Um exemplo muito
conhecido da sobreposição quântica é o chamado “gato de Schroedinger”, um gato
dentro de uma caixa que pode morrer com uma certa probabilidade devido à
ocorrência de um evento quântico. Se forem amplificadas para o mundo
macroscópicos as regras que presidem ao mundo microscópico, então o gato poderia
estar na situação bizarra de estar vivo e morto ao mesmo tempo. Só quando o
observamos se concretiza o chamado colapso do estado e verificamos se está vivo
ou morto. Repetindo a experiência muitas vezes com gatos em idênticas
circunstâncias, obteríamos as probabilidades que caracterizam a mistura
inicial.
Considerando agora um
qubit de 3 bits, uma sobreposição uniforme de todos os estados possíveis é | Ψ >
= 1/√8 |000> + 1/ √8 |001> + . . . + 1/√8 |111> . Cada um dos estados |000>
, |001> e |111> tem igual
probabilidade de ser observado. Em geral, um registo de n qubits pode representar números de 0 a 2n-1 simultaneamente,
o que cobre um espaço imenso. Quando observarmos o estado descrito pela sobreposição,
ela colapsa aleatoriamente para representar uma só das suas componentes.
Os computadores clássicos
têm portas lógicas que processam os bits. Para uma certa porta (gate), cada entrada de uns e zeros
corresponde uma certa saída de uns e zeros. Na mecânica quântica a destruição
de informação numa porta lógica) geraria calor que levaria à destruição da sobreposição
de qubits (um exemplo é a porta AND
que só dá 1 quando as entradas são 1 e 1). Por isso as operações com qubits
devem ser reversíveis. Precisamos, por isso, de novas portas, ditas quânticas
em vez de clássicas. As gates quânticas
são semelhantes às clássicas, mas o seu estado de input original tem de
ser derivado de um modo único do estado final, isto é, têm de ser reversíveis. A
porta mais simples envolve um só qubit
é chamada “gate de Hadamard”. É usada para colocar qubits em sobreposição: transforma o estado |0> no estado de
sobreposição uniforme |0> + |1> (Fig. 9) . Aplicando esta gate ao estado
de sobreposição o resultado é o oposto do estado inicial: vem um |1>, sendo
desfeita a sobreposição. Como, portanto, duas portas de Hadamard em série podem
ser usadas como uma porta NOT,
uma gate de Hadamard pode ser chamada
raiz quadrada da porta NOT.
Fig. 9. Funcionamento de
uma porta de Hadamard em computação quântica.
Os sistemas práticos de
computação quântica podem ser concretizados de uma grande variedade de maneiras:
“ratoeira” de iões (regiões onde um ião não pode sair), “pontos quânticos” (que
são uma espécie de átomos artificiais), sistemas ópticos, sistemas de
ressonância magnética nuclear, etc. Um problema técnico da computação quântica é
a sua implementação prática: é necessário impedir a “decoerência”, ou seja, a
indesejada interação com o ambiente, que pode causar o colapso indesejado do
estado quântico. Os cálculos quânticos reais requerem, por isso, algoritmos de
correcção de erros, que ainda não estão aperfeiçoados.
Para que serve a computação
quântica? Para certos problemas, usando algoritmos adequados, ela pode ser
muito mais rápida do que a computação clássica. É o caso da factorização de um número
inteiro em números primos, usada na criptografia. Em 2001 conseguiu-se, com um
computador quântico, uma factorização trivial: 15=3 x 5. Mas espera-se
conseguir factorizações não triviais de números muito grandes, um feito que
terá consequências para a criptografia, ao permitir quebrar códigos de acesso
(felizmente que a física quântica proporciona novos protocolos de segurança). Outras
aplicações são a simulação de sistemas quânticos em problemas de física,
química, nanotecnologia, ciência de materiais e biologia, por exemplo no design de novas moléculas de interesse
farmacêutico, etc. Como bem disse Feynman, se a Natureza é quântica, nada mais
adequado do que usar simulações quânticas em sistemas simples para compreender sistemas quânticos complexos.
Outra possibilidade de aplicação é o seu uso em buscas em enormes bases de
dados, reconhecendo rapidamente padrões. Os contributos para a inteligência
artificial são fáceis de antever.
A história da computação
quântica não conheceu interrupção desde a proposta de Feynman. Em 1985 o físico
britânico David Deutsch desenvolveu o conceito de máquina de Turing quântica,
mostrando que os circuitos quânticos eram universais. Em 1994 o matemático
norte-americano Peter Shor desenvolveu um algoritmo quântico para factorizar
grandes números num tempo polinomial e não exponencial (isto é, que cresce com
uma potência e não com uma soma de todas). Em 1997 o cientista de comutadores
indo-americano Lov Grover desenvolveu um algoritmo quântico de busca. Em 1998
primeiro computador funcional de 2 qubits
foi demonstrado na Universidade de Califórnia, Berkeley, nos Estados Unidos. Já
neste século, em 2001, o primeiro computador funcional de 7 qubits com base em RMN foi demonstrado
no IBM Almaden Research Center, em S. José, Califórnia Em 2001 foi feita a primeira
execução do algoritmo de Shor: o número 15 foi factorizado usando 1018
moléculas idênticas, cada uma com sete átomos. Recentemente (2019) foi
anunciado que uma equipa da Google terá conseguido demonstrar a “supremacia
quântica,” isto é, usar a computação para resolver rapidamente um certo
problema que demoraria uma eternidade num computador clássico, ainda que este
fosse o mais potente supercomputador [14].
Actualmente existem
vários computadores quânticos, mas eles ainda são relativamente rudimentares. A
IBM colocou um computador quântico acessível na rede por utentes comuns: IBM Q Experience–Quantum Computing project
(criado em 2016, acessível na Internet em 2018). Os seus processadores são dois
5 qubits e um de 16 qubits. Em 2019 a mesma empresa anunciou
o seu primeiro computador quântico comercial.
Um problema actual da computação quântica é a necessidade
de construção de máquinas maiores: são necessárias máquinas com mais de 50 qubits para rivalizar com os computadores
clássicos correntes, para não falar já dos maiores supercomputadores. E está em
boa parte por resolver o já referido problema da correcção de erros
provenientes da interacção com o exterior. Em computação quântica as operações
têm de ser mais rápidas do que os tempos de decoerência.
5- Conclusões
O futuro já começou. O
futuro começa aliás todos os dias… Nos laboratórios de investigação actuais
encontram-se já os protótipos dos computadores do futuro.
Analisaram-se aqui duas
possibilidades que se oferecem como desafios na computação avançada:
desenvolvimentos em hardware no domínio da nanotecnologia, que permitiria
computadores muito mais pequenos, o que significa computadores do tamanho dos actuais,
mas muito mais poderosos: contidos no mesmo espaço teríamos muitos mais
transístores, aproximando-nos do limite dado pela Lei de Moore. Por outro lado,
é possível mudar o paradigma da computação, passando da computação clássica,
com bits, para a computação quântica,
com qubits. Para certos problemas a
velocidade de resposta seria muito maior.
Convém no processo de
desenvolvimento científico-tecnológico não esquecer que nos cabe a nós fazer
com que o nosso futuro, onde os computadores terão decerto ainda maior presença
do que hoje, seja melhor do que o passado. A ética terá, como hoje, um papel
sobre o que se deve ou não deve fazer com as novas tecnologias. Mas isso é um
problema humano e não científico-tecnológico.
Referências:
[2] Stephen J Marshall, The Story of the Computer: A Technical and
Business History CreateSpace Independent Publishing Platform, 2017
[3] Gordon E. Moore,
“Cramming more componentes onto integrated circuits”, Electronics, vol. 38, n.8, 19/Abril/1965. https://newsroom.intel.com/wp-content/uploads/sites/11/2018/05/moores-law-electronics.pdf
[5] Walter Isaacson, Os Inovadores, Porto Editora, 2016.
[7] Freeman J. Dyson, O
Sol, o genoma e a Internet, temas e Debates, 2000.
[8] William J. Kaufmann, Supercomputing and the Transformation of
Science, Scientific American Library, 1993.
[9] B. P. Abbott et al., “Observation of Gravitational Waves
from a Binary Black Hpole Merger”,.Physical Review Letters 116, 061102 (2016) https://physics.aps.org/featured-article-pdf/10.1103/PhysRevLett.116.061102
[10] K. Eric Drexler, Engines of Creation:
The Coming Era of Nanotechnology ,
Doubleday, 1986
[12] Jerry Wu et al., A
Nanotechnology Enhancement of Moore’s law, Applied Computational Intelkligence
and Soft Computing, vol. 2013, 426962, https://core.ac.uk/download/pdf/192453824.pdf
[13] Feynman Simulating Physics with Computers", International Journal of
Theoretical Physics, volume 21, 1982, p. 467-488, at p. 486
Fontes das figuras
Fig. 9
Sem comentários:
Enviar um comentário