Depois desta espantosa exibição de inteligência natural por parte do José Barata‑Moura, o que é que eu posso dizer sobre a outra, a IA - Inteligência Artificial? Parece que há aprendizagem por máquinas, mas também há a aprendizagem por humanos, que foi o que se passou hoje comigo, como «pupilo do senhor Reitor».
Na Universidade de Coimbra normalmente o reitor fala por último, de modo que eu vou dizer umas coisas e depois o senhor reitor terá a possibilidade de ter a última palavra. Vou então apresentar algumas reflexões sobre IA e, mais em geral, sobre a ciência e o futuro. Começo por vos dizer algo que me parece óbvio: não podendo escolher o momento em que nascemos, vivemos hoje numa época da história absolutamente revolucionária. Se me tivessem dado a escolher, eu teria escolhido ou nascer agora ou na época de Gutenberg, quando começou a Idade Moderna. Em ambas houve uma «explosão» do acesso à informação.
Enfim, o José Barata‑Moura uantes de mim, mas todos temos beneficiado de um artefacto que os físicos criaram em 1947, logo após a Segunda Guerra Mundial, o transístor. O primeiro tinha apenas três centímetros de comprimento e hoje, com os mesmos três centímetros existe uma peça, a CPU — Central Processing Unit, contendo milhares de milhões de transístores no interior dessa geringonça — vou chamar‑lhe assim, sem qualquer intenção pejorativa — que é um computador portátil.
Foi o processo de encolhimento dos transístores e o seu consequente maior empacotamento que mudou o mundo nas últimas décadas. O mundo deixou de ser aquela coisa antiquada que era, para ser a coisa moderna que está à vista. Foram os físicos John Bardeen, William Shockley e Walter Brattain, a trabalhar na Bell Labs, que merecidamente ganharam o Prémio Nobel em 1956, ano em que nasci, por causa dessa invenção. O José Barata‑Moura já tinha nascido pouco depois do primeiro transístor e, por isso, talvez se lembre melhor do que eu dos primeiros rádios transístores no início dos anos de 1960.
Há pouco tempo morreu o cientista e empresário norte‑americano Gordon Moore, que ajudou a mudar o mundo fomentando a proliferação de transístores. Em 1965, quando estava à frente da divisão de investigação de uma empresa da Califórnia que fazia circuitos integrados, isto é, placas electrónicas contendo numerosos transístores — toda a história da informática se pode resumir ao fabrico de transístores cada vez mais pequenos — teve a visão de poder fazer muito mais com um computador do mesmo tamanho.
Ele é o autor da chamada «lei de Moore»: em 1965 previu, com base nos poucos dados então disponíveis, que de dois em dois anos o poder de cálculo dos computadores ia passar praticamente para o dobro. Esta é uma lei exponencial, uma coisa assombrosa que nunca antes se tinha visto: o dobro em dois anos; depois o dobro do dois, que é quatro; depois o dobro de quatro, que é oito; a seguir, o dobro de oito, que é 16, etc.
O certo é que a previsão se revelou certeira. De facto, Moore ajudou a que assim fosse, pois esteve durante largos anos à frente da empresa que ele próprio fundou, que é a maior empresa americana de fabrico de transístores, a Intel: foi um profeta que fez o que pôde para cumprir a sua profecia. Num gráfico em que o eixo vertical são sucessivas potências, o crescimento do poder de cálculo dos computadores traduz‑se por uma linha recta. Temos vivido num tempo de aceleração tecnológica. Os computadores, que antes de haver transístores eram uns equipamentos «monstruosos», feitos de válvulas electrónicas, passaram a ser muito pequenos, cabendo hoje no nosso bolso.
Eu lembro‑me de comprar o que deve ter sido o primeiro computador pessoal na Universidade de Coimbra, pouco depois de eles aparecerem no mercado: foi um Olivetti M24, no ano de 1983, que tinha por CPU o Intel 8086 (por isso dizia‑se «IBM‑PC compatível »; o primeiro computador pessoal de massas foi o IBM‑PC, lançado em 1981, que usava o Intel 8088), com 128 kB de memória RAM, um disco duro de 20 MB e um drive de disquetes de 5,25". Lembro‑me também de ter comprado por essa altura o meu primeiro computador pessoal, um Apple IIc. Rapidamente ficaram obsoletos, dada a prodigiosa evolução tecnológica. Lembro‑me, como muitos se lembrarão, que esses computadores funcionavam isolados: só no início dos anos de 1990 os computadores começarem a «falar» uns com os outros em redes informáticas pós a invenção da www — World Wide Web.
Mais uma vez foi uma criação dos físicos: os investigadores dao CERN - Organização Europeia de Investigação Nuclear, em Genebra, na Suíça, que, querendo partilhar ficheiros, a fim de optimizar o seu trabalho colaborativo sobre problemas fundamentais da física, puseram os seus computadores a comunicar uns com os outros. O que fizeram foi dado ao mundo todo. Ninguém podia na altura adivinhar, eles pelo menos não adivinharam, que o mundo ia mudar: na sequência da www veio a Google, a Amazon, o Tinder, e todas essas coisas que hoje nos entusiasmam, a uns evidentemente mais do que a outros. O Google não era mais e não é mais do que uma espécie de «páginas amarelas» que nos ajuda a procurar uma informação na gigantesca rede que cobre o globo.
Hoje dispomos de supercomputadores que, de facto, são assombrosos: o poder económico e político está em quem tem mais poder de cálculo. Por exemplo, o maior supercomputador do mundo está nos EUA, é o Frontier, em Oak Ridge, Tennessee. O segundo está no Japão, o terceiro na Finlândia, mas deve notar‑se que o sexto é o primeiro chinês de um conjunto de 173 na lista dos Top 500: os chineses têm mais supercomputadores nessa lista do que os norte‑americanos (126), o que significa uma supremacia científica e tecnológica, na qual procuram basear a supremacia económica e política. O eixo do mundo científico‑tecnológico está a virar para o lado da Ásia.
No final da Segunda Guerra Mundial, o mais poderoso computador do mundo era norte‑americano: o ENIAC conseguia 5000 = 5 × 10^3 flops (o flop significa operações por segundo). A «programação» era feita por umas senhoras que mudavam fios de um sítio para outro, como as antigas operadoras telefónicas. Agora, o Frontier consegue 10^18 flops, um seguido de 18 zeros. O processo não parou. Amanhã vamos ter computadores ainda mais potentes do que hoje.
Foi este impressionante desenvolvimento tecnológico que permitiu a IA. O objectivo da IA, como o próprio nome indica, é construir sistemas que exibam comportamentos inteligentes. A questão é saber o que é a inteligência. Nós somos inteligentes, uns mais do que outros... Atribuímos ao Homo sapiens uma capacidade a que chamamos inteligência e os sistemas informáticos conseguem imitar algumas das capacidades dos seres humanos. Nalgumas delas a IA bate‑nos sem apelo nem agravo. Com o progresso da IA estamos também a compreender melhor o que significa a inteligência e, portanto, a obedecer ao imperativo grego «conhece‑te a ti mesmo», que estava inscrito no templo de Apolo, em Delfos.
Queria acentuar que a IA, o ramo das ciências da computação que estuda a inteligência das máquinas, não vem aí, está cá há algum tempo. Só para dar alguns exemplos, quando usamos o motor de busca da Google, está a ser utilizada IA porque o sistema sabe quem sou e onde estou, de modo que vai adaptar a sua resposta àquilo que ele julga que, com base no meu histórico, são os meus interesses e necessidades. Quando vamos à Netflix ou ao YouTube, não há propriamente um catálogo para escolher os filmes ou vídeos, mas há uma montra com aquilo que o sistema da empresa entende que são os nossos interesses e necessidades. Quando vamos à Amazon a mesma coisa: aquela empresa sabe espantosamente aquilo que me interessa, até porque se lembra melhor do que eu dos livros que eu comprei há dez ou mais anos. Eu fico satisfeito quando a Amazon me propõe rapidamente algumas obras que me interessam e compro‑as: o sistema de oferta funciona muito bem. A IA ajuda‑nos quando fazemos traduções no Google ou no DeepL, que actualmente fazem traduções muito razoáveis. Quando usamos filtros para eliminar lixo no correio electrónico (vulgo SPAM), são sistemas de IA que nos facilitam a vida: eu recebo muito lixo, mas podia ser mais se não houvesse esses filtros. Portanto, a IA existe, está aí, não é uma coisa que aí vem.
Faço notar que, na IA, o ser humano é sempre a referência. Há uma coisa nova, mas nós somos o modelo de IA. Em 1950, um matemático inglês, Alan Turing, disse que, para ser chamada inteligente, uma máquina tem de dar respostas indistinguíveis das de um ser humano. A pergunta dele foi: «Existirão computadores digitais que funcionem bem neste jogo de imitação?» Turing falou em «imitação», o que significa que não interessa a essência, mas sim a semelhança. Jogo da Imitação é aliás o título de um filme sobre a vida de Turing.
O que é a inteligência? É a capacidade que temos de interagir com o mundo (falar, ver, mover‑nos, manipular objectos, etc., portanto o que estou neste momento aqui a fazer), a capacidade de modelar o mundo e de raciocinar sobre ele (fazemos continuamente representações do mundo e projecções baseadas nelas), e a habilidade para aprender e adaptar‑se (significa que darei respostas diferentes conforme a minha experiência; se eu tiver aprendido, reagirei de maneira diferente, um processo que se desenvolve na escola, a instituição que inventámos para preparar para a vida).
O termo IA surgiu, em 1956, quando um matemático norte‑americano, John McCarthy, organizou um workshop no Dartmouth College, em New Hampshire, para averiguar melhor como é que as máquinas poderiam imitar os humanos (o proponente usou o termo «simular» a inteligência humana). Estiveram lá nomes importantes como Marvin Minsky, Claude Shannon e Herbert Simon, que foi depois Nobel da Economia. Passados três anos, em 1959, aplicando aquelas ideias, um engenheiro norte‑americano, Arthur Samuel, introduziu a palavra machine learning, aprendizagem automática, tendo criado para a demonstrar um programa de computador que jogava — e bem! — o jogo de damas, um jogo relativamente simples. Antes só os humanos jogavam. A partir de então os computadores, feitos por humanos, passaram também a jogar: a IA começou por replicar aquilo que nós fazemos.
Todos nós possuímos um cérebro, que o cérebro é feito de unidades, células chamadas neurónios, com muitas ligações. As neurociências estudam o sistema nervoso, em particular o cérebro, com os seus neurónios, ligados por sinapses. É uma colecção de células que permite o pensamento e a acção. Alguns dos primeiros modelos de IA, que remontam aos anos de 1940, foram feitos exactamente para imitar o conjunto de neurónios, pelo que se chamaram «redes neuronais». De facto, muitas máquinas que hoje dispomos dotadas de IA têm por base essa ideia de redes neuronais. Numa rede neuronal, existem camadas de unidades de processamento que se ligam a outras e em cada camada vai‑se depurando a informação até se chegar a uma camada final. Cada unidade tem várias entradas e várias saídas. As intensidades das ligações vão sendo definidas com a aprendizagem. De certo modo, as redes neuronais fazem aquilo que os nossos neurónios fazem, embora de uma forma algo simplificada. Como os tempos típicos nos processos cerebrais são de microssegundos, enquanto nos computadores são de nanossegundos, os computadores podem ser mais rápidos em certas tarefas. Mas os nossos emaranhados de ligações neuronais podem garantir mais eficiência noutras.
A IA é, hoje em dia, uma disciplina que se liga com muitos ramos do conhecimento: liga‑se com as neurociências, mas também com a matemática, com a física, com a informática, com a psicologia, com a psiquiatria, com a medicina em geral, com a economia, com a filosofia, etc. Enfim, é uma das áreas que conjuga mais disciplinas: ao procurar imitar os seres humanos, estamos a perceber melhor quem somos, uma questão que está na base de toda a ciência, e somos seres extremamente complexos. Queremos saber como é o mundo porque estamos no mundo, somos parte dele, somos, tanto quanto sabemos, a parte mais complexa dele.
Na prática, houve dificuldades de execução do objectivo da IA, que contrariaram o entusiasmo inicial: de início não havia suficientes transístores para imitar os neurónios: os computadores eram lentos e desmemoriados, e os problemas de IA pareciam demasiado grandes e complexos. Mas a lei de Moore seguiu o seu curso. Nos anos de 1970 surgiram os expert systems, sistemas computacionais que simulam a capacidade de decisão de um ser humano, e nos anos de 1980 surgiu a primeira aplicação comercial desses sistemas. Um marco importante, como já se referiu, foi em 1997 a vitória de um computador da IBM, o Deep Blue, sobre o campeão do mundo, o russo Garry Kasparov. Depois disto, dado o tremendo avanço da capacidade de cálculo, uma máquina banal passou a ganhar a qualquer ser humano. Hoje em dia os humanos não podem ser assistidos por máquinas nos campeonatos de xadrez. Não só as máquinas se tornaram campeões mundiais de xadrez, como qualquer um de nós perde se jogar xadrez contra o seu telemóvel. Eu fui jogador de xadrez na minha juventude e sei que o meu telemóvel é melhor do que eu. O xadrez mostra que as máquinas podem analisar mais rapidamente grandes conjuntos de dados e tomar melhores decisões.
Há uma ideia importante que gostaria de realçar. Quando se fala em algoritmos temos a ideia mecanicista de algoritmo: existe uma entrada, um processamento e uma saída. Mas a aprendizagem automática da IA quer dizer o seguinte: o software incorpora os dados, o que significa que não é um programa rígido, as ligações entre as unidades das redes neuronais vão‑se modificando de acordo com modelos probabilísticos. Dizemos que o sistema aprende e a aprendizagem pode ser supervisionada, não supervisionada ou reforçada. É preciso na machine learning um treino, uma aprendizagem inicial, mas o sistema está sempre a aprender. Por outras palavras, nós não podemos saber o que está no programa em cada momento, pois ele está continuamente a ser modificado. Não há distinção nítida entre dados e o programa que os processa. Não é como um programa tradicional, em que o programa é fixo, em que as mesmas entradas dão sempre as mesmas saídas. As mesmas entradas poderão dar saídas diferentes, se o sistema tiver aprendido.
No fundo, é o que se passa connosco: em princípio as pessoas (há casos que são incorrigíveis!) vão aprendendo, vão dando respostas diferentes perante as situações que encontram com base na sua experiência de vida. Portanto, um programa de IA é, e algum modo, uma caixa negra. Se se pedir a alguém que explique o que está dentro dela, a resposta é impossível. O criador da máquina não sabe e não pode dizer fisicamente o que lá está, pois o software é auto‑ajustável.
Os computadores já ganharam não apenas no xadrez mas num jogo muito mais complicado chamado Go, usando um sistema de IA chamado AlphaGo. Havia um campeão sul‑coreano, Lee Sedol, que depois de, em 2016, ter perdido com a máquina, desistiu pura e simplesmente da modalidade, tão frustrado ficou. De facto, a ciência e a tecnologia produziram estes avanços nos jogos, mas estes também se têm revelado úteis na ciência e tecnologia.
Dou um exemplo da ciência: a descoberta do ano para a revista Science, em 2021, foi uma proeza conseguida com a ajuda da IA: saber como é que se enrola uma proteína, um grande problema da biologia que não estava resolvido. As proteínas são as máquinas‑ferramentas que temos dentro de cada uma das nossas células. Trata‑se de conjuntos de compostos químicos, os aminoácidos, cuja «receita» está nos nossos genes e que se vão enrolar nas células de uma certa maneira para cumprirem uma certa função. Nós não sabíamos indicar, a partir do código genético, qual era o enrolamento de cada proteína, mas agora com a IA passámos a saber. A novidade tem consequências não apenas para a compreensão do nosso corpo, mas também, por exemplo, para fazer novos medicamentos. Actualmente os novos medicamentos fazem‑se no computador e já existem alguns produzidos com a ajuda da IA.
O último grito da IA, tenho de falar disso porque está nas bocas do mundo, são os sistemas de linguagem, como o ChatGPT. Os sistemas desse tipo são antigos, tendo sido usados por exemplo para transcrição da voz (uma pessoa fala e o computador escreve), para tradução automática e para conversa (chat) computacional. Há tentativas bem‑sucedidas de transcrição de voz desde 1997. Aliás, porque é que eu tenho de teclar num computador, em vez de simplesmente falar com ele? Já é possível, mas será ainda mais e melhor. A tradução automática já é bastante funcional, sendo usada não só por turistas em terras estranhas como por tradutores profissionais, porque lhes facilita a tarefa (designadamente em traduções técnicas, nas literárias é mais complicado). E modernamente há então a conversa computacional, por exemplo a proporcionada pelo famigerado ChatGPT, que começou por ser baseado num sistema chamado GPT3, mas que agora se serve do GPT4, bastante recente.
A capacidade de processar texto pode ser medida com testes convencionais e desde 2019 que, usando esta métrica, a capacidade humana é excedida nessa área por sistemas de IA. Os computadores já conseguem escrever tão bem ou mesmo melhor do que nós — se o que dizem está certo ou não, isso é uma outra história! Já conseguem escrever de uma maneira indistinguível da de um ser humano, cumprindo as leis lógicas da linguagem. Os sistemas desse tipo chamam‑se Generative Language Systems. Após um treino que se serve de um grande conjunto de textos, esses sistemas conseguem, por enquanto melhor em inglês do que noutras línguas, escrever textos com sentido. O ChatGPT é um assistente virtual para escrita criado em São Francisco pela OpenIA em 2022, que começou por ser um laboratório de investigação e hoje é uma empresa. O Bill Gates disse que é «tão importante como a Internet. Vai mudar o mundo».
(...)
Sem comentários:
Enviar um comentário