Entrevista de Max Tegmark ao El país - Brasil sobre inteligência artificial
Em seu livro Life
3.0, o professor do MIT apresenta argumentos para um debate global
que evite um desastre com a chegada da Inteligência Artificial
que evite um desastre com a chegada da Inteligência Artificial
Quando o rei Midas pediu a Dionísio que transformasse em
ouro tudo o que tocasse, cometeu uma falha de programação. Não pensava que o
deus seria tão literal ao lhe conceder o desejo, e só se tornou consciente de
seu erro quando viu sua filha transformada em uma estátua metálica. Max Tegmark
(Estocolmo, 1967) acredita que a Inteligência Artificial pode apresentar riscos
e oportunidades similares para a humanidade. O professor do MIT e diretor do
Future of Life Institute, em Cambridge (EUA), estima que o advento de uma
Inteligência Artificial geral (IAG) que supere a humana é questão de décadas.
Em sua visão do futuro, poderíamos acabar vivendo numa civilização idílica,
onde robôs superinteligentes fariam nosso trabalho, criariam curas para todas
as nossas doenças e desenvolveriam sistemas para ordenhar a energia descomunal
dos buracos negros. Entretanto, se não formos capazes de lhe transmitir nossos
objetivos com precisão, também é possível que essa nova inteligência dominante
não se interesse por nossa sobrevivência, ou mesmo que assuma um objetivo
absurdo como transformar em clipes metálicos todos os átomos do Universo,
inclusive os que formam nossos corpos.
Para evitar o apocalipse, Tegmark considera que a comunidade
global deve se envolver num debate para orientar o desenvolvimento da
Inteligência Artificial em nosso benefício. Essa discussão deverá encarar
problemas concretos, como a gestão das desigualdades geradas pela automatização
do trabalho, mas também um intenso esforço filosófico que triunfe onde estamos
há séculos fracassando e permita definir de comum acordo o que é bom para toda
a humanidade, para depois inculcar isso nas máquinas.
Estes e outros temas relativos à discussão, que Tegmark
considera ser a mais importante para o futuro da humanidade, são analisados por
ele em seu livro Life 3.0 (“vida 3.0”), que tem por subtítulo “o ser humano na
era da Inteligência Artificial”. Trata-se de um ambicioso ensaio, recomendado
por gurus como Elon Musk, em que o cosmólogo sueco busca se antecipar ao que pode
acontecer durante os próximos milênios.
Pergunta. Os humanos, em particular durante os últimos dois
ou três séculos, tivemos muito sucesso em compreender o mundo físico, graças ao
avanço de disciplinas como a física e a química, mas não parece que tenhamos
sido tão eficazes de entender a nós mesmos, descobrindo como sermos felizes ou
chegando a acordos sobre como fazer um mundo melhor para todos. Como vamos
manejar os objetivos da IAG sem antes alcançar acordos sobre esses assuntos? Se
você olhar as motivações das companhias que estão desenvolvendo a IA, a
principal é ganhar dinheiro
Resposta. Acho que nosso futuro pode ser muito interessante
se ganharmos a corrida entre o poder crescente da tecnologia e a sabedoria com
que se administra essa tecnologia. Para isso, temos que mudar as estratégias.
Nossa estratégia habitual consistia em aprender com nossos erros. Inventamos o
fogo, pisamos na bola umas quantas vezes, e depois inventamos o extintor;
inventamos o carro, voltamos a pisar na bola várias vezes, e inventamos o cinto
de segurança e o airbag. Mas com uma tecnologia tão poderosa como as armas
atômicas e a Inteligência Artificial sobre-humana não vamos poder aprender com
nossos erros. Precisamos ser proativos.
É muito importante que não deixemos as discussões sobre o
futuro da IA para um grupo de freaks da tecnologia, como eu, e sim que
incluamos psicólogos, sociólogos e economistas para que participem do diálogo.
Porque, se o objetivo é a felicidade humana, temos que estudar o que significa
ser feliz. Se não fizermos isso, as decisões sobre o futuro da humanidade serão
tomadas por alguns freaks da tecnologia, algumas companhias tecnológicas e
alguns Governos, que não necessariamente serão os mais bem qualificados para
tomarem essas decisões para toda a humanidade.
P. A ideologia ou a visão de mundo das pessoas que
desenvolverem a Inteligência Artificial geral definirá o comportamento dessa
inteligência?
O Governo espanhol
recusou-se a aderir a outros países na ONU para proibir as armas letais autônomas
R. Muitos dos líderes tecnológicos que estão construindo a
IA são muito idealistas. Querem que isto seja algo bom para toda a humanidade.
Mas se você olhar as motivações das companhias que estão desenvolvendo a IA, a
principal é ganhar dinheiro. Você sempre ganhará mais dinheiro se substituir
humanos por máquinas que possam fazer os mesmos produtos mais baratos. Não
ganha mais dinheiro desenhando uma IA que seja mais bondosa. Há uma grande
pressão econômica para tornar os humanos obsoletos. A segunda grande motivação
entre os cientistas é a curiosidade. Queremos ver como se pode fazer uma
Inteligência Artificial apenas para ver como funciona, às vezes sem pensar
muito nas consequências. Conseguimos construir armas atômicas porque havia
gente com curiosidade por saber como os núcleos atômicos funcionavam. E depois
de inventá-las, muitos daqueles cientistas desejaram não tê-las feito, mas já
era tarde demais, porque àquela altura já havia outros interesses controlando
esse conhecimento.
P. No livro, você parece dar como fato consumado que a IA
facilitará a eliminação da pobreza e do sofrimento. Com a tecnologia e as
condições econômicas atuais, já temos a possibilidade de evitar uma grande
quantidade de sofrimento, mas não o evitamos porque não nos interessa o
suficiente, ou não interessa às pessoas com o poder necessário para tal. Como
podemos evitar que isso aconteça quando tivermos os benefícios da Inteligência
Artificial?
R. Em primeiro lugar, a própria tecnologia pode ser muito
útil de muitas maneiras. A cada ano morre em acidentes de tráfego muita gente
que provavelmente não morreria se andasse em carros autônomos. E há mais gente
na América, dez vezes mais, que morre em acidentes hospitalares. Muitas dessas
pessoas poderiam se salvar se o IA se fosse usada para diagnosticar melhor ou
para criar melhores remédios. Todos os problemas que não fomos capazes de
resolver devido à nossa limitada inteligência são algo que a IA poderia
resolver. Mas isso não é suficiente. Como você diz, temos atualmente muitos problemas
que sabemos exatamente como resolver, como o fato de haver crianças que vivem
em países ricos e não estão bem alimentadas. Não é um problema tecnológico, é
um problema de falta de vontade política. Isto mostra como é importante que as
pessoas participem desta discussão e que selecionemos as prioridades corretas.
Na Espanha, por exemplo, o Governo se recusou a se somar à Áustria e muitos
outros países na ONU num esforço para proibir as armas letais autônomas. A
Espanha apoiou a proibição das armas biológicas, algo que os cientistas dessa
área apoiavam, mas não fez o mesmo para apoiar os especialistas em IA. Isto é
algo que as pessoas podem fazer: incentivar seus políticos a confrontarem estes
assuntos e nos assegurarmos de que guiamos a tecnologia na direção adequada.
Nos próximos três anos começará uma nova corrida armamentista, com armas letais autônomas
P. A conversa que você propõe em Life 3.0 sobre a
Inteligência Artificial no fundo é muito parecida com a que deveríamos ter
sobre política em geral, sobre como convivemos entre nós ou como compartilhamos
os recursos. Como acha que a mudança na situação tecnológica vai alterar o
debate público?
R. Acredito que vai tornar as coisas mais drásticas. As
mudanças produzidas pela ciência estão se acelerando, todo tipo de trabalho
desaparecerá cada vez mais rápido. Muitos riem de quem votou em Trump ou a
favor do Brexit, mas sua raiva é muito real, e os economistas lhe dirão que as
razões pelas quais esta gente está irritada, por serem mais pobres do que eram
seus pais, são reais. E enquanto não se fizer nada para resolver esses
problemas reais seu aborrecimento aumentará.
A Inteligência Artificial pode gerar uma quantidade enorme
de nova riqueza, não se trata de um jogo de soma zero. Se nos convencermos de
que haverá suficientes impostos para proporcionar serviços sociais e uma renda
básica, todo mundo estará feliz ao invés de irritado. Há gente a favor da renda
básica universal, mas é possível que haja melhores formas de resolver o
problema. Se os governos forem dar dinheiro às pessoas só para lhes ajudar,
também pode dá-lo para que as pessoas trabalhem como enfermeiras ou como
professoras, o tipo de trabalho que se sabe que dá um propósito à vida da
gente, conexões sociais...
Não podemos voltar aos critérios de distribuição do Egito
dos faraós, onde tudo estava nas mãos de um punhado de indivíduos, mas se uma
só companhia puder desenvolver uma Inteligência Artificial geral, é só questão
de tempo para que essa companhia possua quase tudo. Se as pessoas que acumularem
esse poder não quiserem compartilhá-lo, o futuro será complicado.
P. Se não fizermos nada, qual seriam as principais ameaça
provocadas pelo desenvolvimento da IA?
R. Nos próximos três anos começaremos uma nova corrida
armamentista com armas letais autônomas. Serão fabricadas de forma maciça pelas
superpotências, e em pouco tempo organizações como o Estado Islâmico poderão
tê-las. Serão as AK-47 do futuro, salvo que neste caso são máquinas perfeitas
para perpetrar assassinatos anônimos. Em 10 anos, se não fizermos nada, veremos
mais desigualdade econômica. E, por último, há muita polêmica sobre o tempo
necessário para criar uma Inteligência Artificial geral, mas mais da metade dos
pesquisadores de IA acredita que isso acontecerá em décadas. Em 40 anos nos
arriscamos a perder completamente o controle do planeta para as mãos de um
pequeno grupo de gente que desenvolver a IA. Esse é o cenário catastrófico.
Para evitá-lo, precisamos que as pessoas participem do diálogo.
Daniel Mediavilla 2018-8-14
https://brasil.elpais.com/brasil/2018/08/07/tecnologia/1533664021_662128.html
Sem comentários:
Enviar um comentário