sábado, 13 de janeiro de 2024

ÉTICA E INTELIGÊNCIA ARTIFICIAL

Capítulo meu e do David Marçal, que saiu recentemente nas Edições Sílabo e Universidade Autónoma, num grande volume sobre Desafios de Ética Contemporânea (coord. António Duarte Santos):

Apesar de a «Inteligência Artificial» (IA) estar, mais do que nunca, na ordem do dia (ver [1-6] uma selecção de literatura recente em português sobre o tema), essa designação está longe de ser nova. Surgiu em 1956 quando o professor de Matemática Aplicada e especialista em Ciências da Computação John McCarthy, que trabalhava no Dartmouth College, em Hanover, New Hampshire, resolveu organizar um workshop intitulado «Dartmouth Summer Research Project on Artificial Intelligence», que reuniu uma dúzia de investigadores interessados em redes neuronais (já havia na época trabalhos no que então se chamava «neurónios artificiais») e máquinas inteligentes. A IA está logo no título da iniciativa. Entre os participantes estavam nomes hoje sonantes como Marvin Minsky, Claude Shannon e Herbert Simon, o primeiro o matemático e cientista cognitivo fundador do Laboratório de IA do Massachusetts Instituto of Technology – MIT, em Boston, o segundo o matemático e engenheiro electrotécnico criador da moderna teoria da informação, e o último o cientista político laureado com o Prémio Nobel da Economia de 1978. A ideia destes pioneiros era simular computacionalmente algumas características da inteligência humana. Pela origem e carreira dos pioneiros da IA depreende-se logo o seu carácter fortemente interdisciplinar.

Foi o começo de uma extraordinária caminhada que se prolongou até à actualidade e que, estando hoje pujante, vai decerto continuar. Os avanços nem sempre foram feitos com a mesma cadência e intensidade: houve períodos de estagnação e outros de rápidos desenvolvimentos. Fazemos aqui um breve resumo. Em 1950, antes do encontro do Dartmouth College, o matemático Alan Turing tinha criado o chamado «teste de Turing»: a questão era a de saber até que ponto uma máquina, pelas respostas que dava, poderia ser confundida com um ser humano [7]. 

Em 1959 o cientista de computação Arthur Lee Samuel construiu um programa para o jogo de damas, que foi talvez o primeiro programa com a capacidade de auto-aprendizagem, exibindo essa capacidade específica da IA: tal como os humanos, os sistemas de IA devem ser capazes de aprender, isto é, mudar o seu comportamento a partir da experiência adquirida. Foi Samuel que introduziu o termo machine learning (aprendizagem automática), que depois se tornou corrente. Apesar de terem sido efectuados numerosos trabalhos no novo domínio ao longo das décadas de 1960 e de 1970, os problemas interessantes de IA revelaram-se demasiado grandes e complexos para poderem ser resolvidos pelos computadores bastante limitados que então estavam disponíveis. Nos anos de 1970 nasceram os expert systems (sistemas especialistas), sistemas computacionais capazes de simular a tomada de decisões humanas: este conceito chegou à indústria nos anos de 1980 com a construção do primeiro expert system comercial, o O R1, internamente chamado XCON (eXpert CONfiguer), usado por companhias telefónicas. 

Com a explosão do poder computacional (o primeiro computador pessoal, o Altair, é de 1974, que foi seguido pelo primeiro computador pessoal da Apple, o Apple I, em 1976, e pelo primeiro computador pessoal da IBM, o IBM-PC, em 1981), começaram a surgir programas capazes de jogar xadrez com enorme sucesso. Um marco notável da IA ocorreu em 1997 quando, numa desforra de um match realizado no ano anterior em que tinha perdido, o Deep Blue, um computador da IBM, ganhou ao campeão do mundo de xadrez, Garry Kasparov. A máquina, que tinha sido especialmente desenhada pelos engenheiros daquela multinacional para jogar xadrez operava por processamento paralelo (possuía 512 processadores), que lhe permitiam analisar 200 milhões de posições de xadrez por segundo, uma capacidade completamente fora do alcance do cérebro humano. A Humanidade ficou, com este evento bastante mediatizado, ciente das vantagens do machine learning: o computador não só procurava padrões em conjuntos de dados que são demasiado grandes para serem passíveis de análise humana, mas também conseguia aprender rapidamente com essa análise.

Hoje, depois de continuados avanços conseguidos quer no software quer no hardware, a IA progrediu nos jogos, e também alcançou um domínio de aplicação muito maior do que o dos jogos. Não se trata apenas de um meio de entretenimento: são numerosos e variados os sistemas de tradução automática, de conversa e de ditados para o computador, de serviços por voz automatizados (como a reserva de bilhetes ou de mesas num restaurante) e de sistemas de visão avançados (como os de reconhecimento facial e de imagiologia médica).

Usamos hoje sistemas de IA de forma rotineira no nosso dia a dia. Por exemplo, quando recorremos a um motor de busca (browser) na Internet – designadamente o do Google, largamente maioritário em todo o mundo, excepto na China – ou quando procuramos produtos que nos interessem na Internet ou na TV por cabo – como livros na Amazon ou filmes no Netflix – estamos a usar programas de IA desenvolvidos por empresas cujos sistemas vão tomando nota das nossas preferências e usam esses registos para nos «facilitarem» futuras escolhas. Não raro ficamos surpreendidos com a adequação ao nosso perfil das sugestões que nos são apresentadas. Outro exemplo de uso da IA é a tradução de um texto usando um sistema automático de entre os vários disponíveis na Internet (o da Google está a ficar cada vez mais sofisticado). Outro ainda é a busca da melhor rota para irmos de um determinado local para outro, com a ajuda de um sistema de GPS alimentado por informação em tempo real sobre o tráfego. E o mesmo se passa quando usamos uma rede social como o Facebook, em que o sistema escolhe os conteúdos que nos apresenta no nosso «mural», ou usamos um «assistente pessoal» num smartphone, como o Siri, da Apple, ou o Google Assistant, da empresa com esse nome.

A IA está, portanto, na base de tecnologias úteis que, para a grande maioria das pessoas, funcionam como «caixas negras»: não sabem como aparecem as respostas aos problemas que colocam. O curioso é que mesmo para os especialistas em IA, apesar de conhecerem os princípios da machine learning (uma modalidade avançada é o deep learning), muitas vezes ainda se trata de «caixas negras» uma vez que os sistemas de IA se modificam sem necessidade de intervenção humana. Eles não conhecem exactamente o programa que está a processar dados e a fornecer resultados num certo momento porque o software se vai adaptando automaticamente. Dito de outro modo: pode acontecer que os sistemas não sejam auditáveis e, portanto, não consigamos explicar humanamente um determinado resultado, que até pode ser bastante preciso e útil. A grande distinção entre o processamento em IA relativamente ao processamento tradicional é que, no primeiro, não existe uma distinção nítida entre dados e programa: os dados vão sendo incorporados no programa, uma vez que este se vai ajustando à medida que os recebe, ficando, por isso, capaz de produzir resultados diferentes. Chamamos a este processo «aprendizagem» pela óbvia semelhança com a aprendizagem realizada nos nossos cérebros: as nossas decisões vão evoluindo à medida que a nossa experiência se acumula.

A criação e o uso de sistemas de IA coloca, evidentemente, problemas éticos [8-9]. A ciência e as suas aplicações tecnológicas sempre colocaram questões éticas, porque a ética, entendida como o conjunto de valores e padrões de comportamento, é imprescindível nas acções humanas. A ética está para além da ciência já que uma coisa é o que podemos fazer, que a ciência pode indicar e a tecnologia facilitar, e outra, muito diferente, é o que devemos fazer de entre tudo aquilo que é possível. As nossas escolhas são, de uma maneira ou de outra, sempre marcadas por convenções que as sociedades humanas estabelecem e, regra geral, respeitam. A nossa vida em comunidade obriga ao respeito para com deveres estabelecidos para as relações com os outros. Desde sempre a Humanidade, em nome daquilo que nos caracteriza como espécie inteligente e social, foi criando princípios de conduta, que são passíveis de actualização à medida que surgem novas circunstâncias, e que apenas parcialmente foram sendo fixadas em normas legais: a ética não pode ser confundida com o direito, embora o direito tenha sempre de ser informado pela ética.

Os cientistas e engenheiros têm obviamente de ser fiéis aos princípios éticos vigentes na sociedade em que vivem para além de terem o dever de agir de acordo com as boas práticas em investigação científica (há, por exemplo, regras para a realização de ensaios clínicos) e respeitar os princípios da integridade científica (por exemplo, não é admissível a fabricação de resultados ou o plágio). Mas o compromisso com a ética não pode ser apenas deles. É a toda a sociedade humana – que eles representam no exercício da sua actividade – que cumpre a assumpção de compromissos éticos, de modo a que tenha um funcionamento regular. A IA, tendo sido desenvolvida por cientistas e engenheiros, é usada por todos nós e tem enormes impactos nas nossas vidas. Somos, portanto, todos nós que devemos estar vigilantes, prevenindo quaisquer desvios da ética, designadamente criações e utilizações que prejudiquem a nossa vida em comum. É necessário que os cidadãos, individualmente e nas suas variadas organizações, tomem conhecimento das dimensões éticas da IA e actuem em conformidade. 

Por sua própria natureza – a sua estreita ligação ao humano – a IA é, entre os vários ramos da ciência e tecnologia, um dos que apresentam uma relação mais próxima com a ética. A IA foi criada pelos seres humanos, mas, tal como no mito de Frankenstein que nasceu em 1818 da pena da jovem escritora inglesa Mary Shelley [10], há o receio de a criatura escapar ao «criador». A ficção científica sempre retratou o que pode ser o nosso futuro moldado pela ciência e tecnologia e também sempre retratou os nossos medos sobre maus usos da ciência. Como os actuais sistemas de IA são capazes de tomar decisões por algoritmos dinâmicos que não podem ser pormenorizadamente explicitados, é natural que os utilizadores alimentem receios a respeito da sua utilização. Que confiança podem ter em algo que nem eles nem ninguém, pela própria natureza das coisas, percebe em pormenor? A história da ciência e da tecnologia ensina, porém, que os utilizadores sempre têm sobrelevado a utilidade à compreensão. Mas estaremos desta vez, em nome da utilidade, a confiar demasiado? Qual será o futuro de um processo de desenvolvimento da IA que já hoje nos oferece robôs com os quais podemos conversar e que nos substituem em muitas tarefas?

Robô é uma palavra introduzida pelo escritor Karel Capel na sua peça teatral de ficção científica «R.U.R.» («Robôs Universais de Rossum») [11], de 1921, a partir da palavra robota, que significa em checo «trabalho forçado». Não tem faltado quem especule sobre um futuro domínio do mundo por robôs. Não se trata apenas da substituição de empregos de humanos por máquinas, que tem estado a ocorrer de forma generalizada, levantando tremendas questões sociais, económicas e políticas [10], mas também da questão de saber que papel estará reservado aos seres humanos num futuro em que as máquinas os possam substituir em praticamente tudo aquilo que eles fazem. Há quem chame a essa transição o ponto de «singularidade» e ao período posterior o «pós-humanismo» [11-12], mas a primeira questão a colocar é: poderão, de facto, as máquinas fazer tudo o que fazem os humanos? Por exemplo, se nós somos capazes de produzir normas éticas, poderão as máquinas fazer o mesmo ou algo semelhante?

Neste artigo, começaremos, na 1.ª secção, por definir melhor IA, dando mais exemplos do modo como ela é usada na nossa vida. Na 2.ª secção, discutiremos o papel da ética no desenvolvimento e na aplicação de sistemas de IA. Embora existam numerosos documentos gerados por várias entidades sobre a ética na IA, daremos realce a um documento sobre ética em IA aprovado em Novembro de 2021 pela UNESCO [13], o organismo das Nações Unidas para a ciência, educação e cultura, que enuncia os princípios da ética na IA. Mas também referiremos propostas recentes da União Europeia.

Escolhendo de entre vários problemas merecedores de consideração, elaboraremos na 3.ª secção sobre um problema ético que se está a colocar na actualidade: o direito à privacidade num mundo em que inúmeros dados sobre nós são recolhidos e processados por sistemas de IA, sendo muitos desses dados usados de uma maneira ou de outra com fins comerciais, que é como quem diz para obtenção de lucros. Noutros casos, a finalidade da manipulação de dados é exercer influências sociais e políticas, moldando o funcionamento da sociedade, incluindo mesmo as instituições da democracia, como as eleições. Numa perspectiva a médio prazo, mas que já hoje se antevê, discutiremos também a incorporação de normas éticas no próprio software (a chamada «ética artificial»), que poderá ser concretizada na vida corrente quando se generalizarem os veículos autónomos. Uma questão que se coloca é a da responsabilidade em caso de acidentes ocorridos com veículos autónomos? É do proprietário, dos fabricantes ou de outras entidades, quaisquer que estas sejam, que não previram e preveniram as situações de sinistro?

Por último, na secção final, contendo as conclusões e perspectivas, falaremos brevemente das questões da «singularidade» e do «transhumanismo», procurando discernir o que poderá haver de real nalgumas previsões mais pessimistas que se ouvem a respeito do «fim da Humanidade», pelo menos do fim da Humanidade tal como a conhecemos [14]. Tais questões são filosoficamente relevantes, até para adquirirmos maior consciência do que significa ser humano. Estando ciente dos riscos que enfrenta no quadro moldado pela IA, a Humanidade pode precavê-los, se for capaz de actuar de modo adequado e atempado. Enfatizaremos a necessidade de uma maior e melhor comunicação de ciência e de tecnologia, para que possamos, em primeiro lugar, tomar consciência das escolhas que temos à nossa disposição e, em segundo lugar, tomar em cada caso as melhores decisões. O futuro comum, que nos deve envolver a todos, só pode ser enfrentado a partir de juízos feitos sobre uma base sólida de conhecimento e permeado por uma sólida consciência do que é melhor para a colectividade.

2 - Inteligência artificial: o que é e para que serve 

Na 41.ª sessão da Conferência Geral da UNESCO, realizada na sua sede em Paris entre 9 e 24 de Novembro de 2021, os 193 países pertencentes a essa organização (que são todos os países do mundo, excepto os Estados Unidos e Israel), fundada em 1945 para contribuir para a paz e segurança no mundo mediante a educação, as ciências, a cultura e a comunicação e informação, aprovaram por unanimidade um documento intitulado «Recomendação sobre Ética da Inteligência Artificial». A directora-geral da UNESCO, Audrey Azoulay, resumiu assim o espírito do documento [15]: 

«O mundo necessita de regras para que a IA beneficie a Humanidade. A Recomendação de Ética da AI é uma resposta maior. Estabelece o primeiro quadro normativo global, ao mesmo tempo que confere aos estados a responsabilidade de o aplicar à sua escala. A UNESCO apoiará os seus 193 Estados Membros na sua implementação e pedir-lhe-á informações regulares sobre o seu progresso e práticas».

Importa, antes do mais, ver como a UNESCO define sistemas de AI. Explicitando que não se pretende dar uma única definição de IA, até porque ela vem evoluindo ao longo do tempo, o documento afirma [13]:

«Esta Recomendação considera sistemas de IA como sistemas que têm a capacidade de processar dados e informação de um modo que se assemelhe a comportamento inteligente, e que tipicamente inclui aspectos do raciocínio, aprendizagem, percepção, previsão, planeamento ou controlo.»

De entre os elementos centrais em IA, o documento explicita [13]:

«Os sistemas de IA são tecnologias de processamento de informação que integram modelos e algoritmos que produzem a capacidade de aprender e realizar tarefas cognitivas que levam a resultados como a previsão e a tomada de decisão em ambientes materiais e virtuais. Os sistemas de IA são projectados para operar com vários graus de autonomia por meio da modelação e representação de conhecimento e pela exploração de dados e cálculo de correlações. Os sistemas de IA podem incluir vários métodos, tais como, mas não apenas: (i) aprendizagem automática, incluindo aprendizagem profunda e aprendizagem por reforço; (ii) raciocínio automático, incluindo planeamento, programação, representação de conhecimento e raciocínio, pesquisa e optimização».

Sobre os variados modos de uso da IA, acrescenta [13]:

«Os sistemas de IA podem ser usados ​​em sistemas ciberfísicos, incluindo a Internet das coisas, sistemas robóticos, robótica social e interfaces homem-computador, que envolvem o controlo, a percepção, o processamento de dados colectados por sensores e a operação de actuadores no ambiente no qual os sistemas de IA funcionam.» 

A Recomendação fala de semelhança com «comportamento inteligente», sem definir este último. Parte, por isso, do princípio da acepção comum de inteligência. A IA partiu, como foi dito na Introdução, da inteligência como uma aptidão do cérebro humano, perseguindo o objectivo de conseguir alguns dos seus resultados – quais deles consegue é uma questão em aberto – usando tecnologias de processamento de informação, para as quais são usadas normalmente as designações de «computadores», «autómatos», «robôs», etc. De um modo geral, podemos definir inteligência como a capacidade de interagir com o mundo (que é concretizada pela visão, escuta e fala, cheiro, manipulação, movimento, etc.), a competência para modelar o mundo, raciocinando a partir dos dados adquiridos, e a aptidão para aprender com base nas interacções havidas e nos raciocínios feitos. 

Este conceito de inteligência não se restringe apenas aos seres humanos, aplicando-se também a outros animais, mas é claro que assume particular expressão no homo sapiens, a espécie que, no longo processo de evolução biológica, adquiriu um cérebro mais desenvolvido e tirou partido dessa circunstância. Somos os seres mais inteligentes da Terra e, embora a procura de inteligência extraterrestre faça parte da actual agenda da investigação científica, o facto é que não conhecemos quaisquer outras formas de vida, inteligente ou não, no Universo para além daquelas que há na Terra.

Um sistema de IA é capaz de recolher dados de modo semelhante ao que fazem os nossos órgãos dos sentidos: para além de recolhas dos símbolos correntes de comunicação que são os números e palavras, as máquinas podem dispor de sensores de luz, som, cheiro e tacto. Pode até recolher mais dados do que os humanos: por exemplo, luzes ou radiações na banda do invisível e sons com frequências não audíveis. Consegue, com base nesses dados, tal como os humanos, produzir conhecimento, isto é, construir representações do mundo que podem ser modificadas – o raciocínio consiste precisamente na reconstrução do conhecimento. E, acima de tudo, deve ter a capacidade, tal como os humanos têm em alto grau (só assim vingaram no processo evolutivo), para aprender com a experiência adquirida. Em última análise, pode-se dizer que o objectivo da IA consiste na imitação e eventualmente na superação das capacidades cognitivas dos seres humanos. Ao procurar fazer isso estamos também a avançar no conhecimento do que é a inteligência humana, percebendo melhor o que ela pode e não pode.

Sendo este o ponto de partida, a consideração de aspectos éticos torna-se inevitável. A IA tem a ver com os seres humanos e, talvez mais do que outros ramos da ciência e tecnologia, pode afectar a nossa vida, tanto positiva como negativamente. Os aspectos negativos terão de ser precavidos e, caso se manifestem, removidos. Por outro lado, mesmo sabendo que a Humanidade pode beneficiar da aplicação de sistemas de IA, até que ponto será lícita a progressiva substituição de seres humanos por autómatos? De que parte do ser humano, se é que alguma, não poderemos abdicar?

As regras computacionais com que funcionam não apenas os sistemas de IA mas todos os sistemas computacionais são os chamados algoritmos, um conjunto de procedimentos de cuja escrita foi pioneira Ada Lovelace, filha do poeta Lord Byron e da matemática Annabella Byron. De facto, Ada escreveu, em 1843, o primeiro programa para a chamada «máquina analítica», um calculador mecânico desenvolvido por Charles Babbage, que nunca chegou a ser concretizado de forma completa [16]. Essa pioneira das ciências da computação percebeu que o processamento automático não tinha que se limitar a operações matemáticas de números. Os cientistas e engenheiros que trabalham em IA desenvolveram algoritmos que permitem, usando um código binário (a informação está contida em séries de zeros e uns), recolher dados, processar conhecimento e exibir aprendizagem. O processo de codificação e processamento de informação é, por vezes, designado «engenharia do conhecimento». Vários tipos de sistemas computacionais, do tipo dos que estão indicados no documento da UNESCO, recolhem hoje dados, desenvolvem conhecimento e mostram em exemplos práticos a sua capacidade de aprendizagem. São capazes de tomar decisões autónomas baseados no conhecimento que adquiriram.

A aprendizagem automática (machine learning), na expressão do seu pioneiro nos anos de 1950 Arthur Samuel, é o «campo de estudos que dá aos computadores a habilidade de aprender sem serem explicitamente programados». Podem, para isso, usar as chamadas «redes neuronais», que são estruturas hierárquicas de camadas de processamento de informação, cada uma delas formada por vários nós, existindo ligações entre elas com «pesos» que se vão ajustando. Como o próprio nome indica, essas redes inspiram-se no funcionamento dos nossos neurónios. Num processo de aprendizagem automática, as redes adaptam-se rapidamente a uma certa finalidade pretendida. Uma das maneiras consiste em «treinar» o sistema com um conjunto inicial de dados que são escolhidos expressamente para o efeito. Chamamos a este processo «aprendizagem supervisionada»: por exemplo, o sistema pode ser «treinado» a identificar faces humanas com certas características, expondo o sistema a faces e indicando expressamente quais têm essas características (por exemplo, um homem com bigode ou uma mulher loira). Mas também é possível haver «aprendizagem não supervisionada», na qual o sistema de AI aprende sozinho: por exemplo, dadas as regras do xadrez, o sistema pode melhorar sozinho a sua capacidade neste jogo por meio da realização de jogos sucessivos, com outra máquina e até consigo próprio, reconhecendo padrões conducentes a um final bem sucedido. Existe ainda uma alternativa, a «aprendizagem de reforço», na qual o sistema, colocado num certo ambiente, recebe, de um modo dinâmico, constante feedback ao seu comportamento, de modo a melhorar continuamente o seu desempenho. Nesta modalidade, não há apenas um treino inicial, mas contínuo. Convém notar que as máquinas automáticas não são apenas «pensantes», podendo ser também «actuantes», como, por exemplo, um braço robótico capaz de jogar ténis de mesa ou robôs para jogar futebol.

A IA está a crescer de modo muito visível em todo o mundo. Constitui um dos principais objectivos de investigação e desenvolvimento de grandes empresas multinacionais como as norte-americanas Google, Amazon, Facebook e Apple (o grupo chamado «GAFA»), todas elas especialistas na gestão de grandes quantidades de dados (big data) a partir das quais sistemas de IA formam padrões, que são extraordinariamente úteis nos seus negócios. Os sistemas disponíveis estão a mudar a nossa vida, não sendo difícil prever que a irão mudar ainda mais. Essas empresas – e outras – estão a usar a IA para potenciar os bens e serviços que colocam à disposição dos inúmeros clientes. Todas elas armazenam e processam dados, que muitas vezes são cedidos pelos próprios clientes, e pode-se perguntar que garantias existem não só de privacidade como, mais em geral, de bom uso dos dados fornecidos [17]. O bom uso dos dados que os sistemas de IA processam é uma questão que suscita hoje sérias preocupações éticas.

Os benefícios da IA são particularmente evidentes na área da saúde, por exemplo em diagnósticos feitos com maiores precisão e rapidez: a análise automática de imagens do interior do corpo permite hoje detectar tumores que antes só um olhar humano muito treinado descobriria e até mesmo alguns que passariam despercebidos a um olhar humano, assim como diagnosticar de um modo muito preciso algumas doenças neurológicas. Certos sistemas de IA de diagnóstico médico conseguem rapidamente atingir a proficiência de um médico que demorou longos anos a adquirir a sua competência específica, até porque podem ser facilmente «treinados» por médicos experientes. Os melhores sistemas são actualmente aqueles que combinam a IA com seres humanos experientes.

Os sistemas de IA na saúde vão, porém, muito além de diagnósticos médicos, ajudando-nos nas nossas decisões pessoais relativas à saúde mesmo antes que a doença sobrevenha. Biossensores, alguns deles adaptáveis a telemóveis, permitem recolher e processar uma miríade de dados, de modo a indicar a probabilidade de desenvolvimento de determinada doença ou mesmo a ocorrência efectiva dela. Tais sistemas podem ajudar-nos a melhorar o nosso estilo de vida ao fornecerem informação adaptada ao nosso caso individual: esse domínio, em franco desenvolvimento, chama-se «medicina personalizada». Neste contexto, deve-se ainda acrescentar a análise de dados do genoma humano que pode fornecer probabilidades de ocorrência de certas doenças, ajudando-nos a preveni-las. Com efeito, a AI, combinada com a genómica, permite descobrir associações entre alterações em locais específicos do genoma humano e certas doenças. Um médico pode cruzar essa informação com a história clínica do doente ou dos seus familiares. Os sistemas de AI podem também pesquisar os volumes cada vez maiores de literatura médica de um modo muito mais rápido do que está ao alcance de qualquer ser humano.

Todas estas possibilidades suscitam preocupações de bioética: de quem são os dados? Onde é que eles são guardados? Quem tem acesso a eles? Como assegurar a privacidade, evitando por exemplo a discriminação por serviços públicos ou privadas, tais como companhias de seguros?

3 - Ética em IA: princípios gerais

A ética não é um ramo da ciência. Embora a ciência deva ter preocupações éticas (já o escritor e médico renascentista François Rabelais dizia que «ciência sem consciência é ruína da alma»), a ética excede largamente a ciência, pois trata do comportamento humano, que, pelo menos em princípio, resulta da vontade dos indivíduos. Esse comportamento está, em geral, moldado por tradições, sendo sempre difícil a alteração comportamental. O termo «ética» vem do gregp ethos, que significa respeito pelos costumes e hábitos dos humanos.

A ética está ou deve estar associada a todas as actividades humanas, não podendo naturalmente a IA escapar-lhe [18]. A «ética da IA» é a parte da ética específica para lidar com os problemas suscitados pelos sistemas de IA. Com a possibilidade de criar máquinas dotadas de inteligência tornou-se imperiosa a preocupação ética para evitar que elas acarretem prejuízos aos seres humanos, aos outros seres vivos ou ao ambiente comum a todos.

Com a IA surgiram novas questões éticas: quem é, por exemplo, o responsável quando respostas dadas automaticamente causam algum dano? Como podemos garantir que as máquinas estão permanentemente alinhadas com os objectivos dos seres humanos? Podemos codificar a ética nas máquinas? Devemos impedir alguns desenvolvimentos da IA? As máquinas superinteligentes poderão mudar radicalmente vida humana a ponto a dar origem a um futuro «transhumano»?

O escritor de ficção científica Isaac Asimov foi premonitório das questões da ética na IA quando enunciou as suas «Leis da Robótica» no seu livro de 1950, Eu Robô [19], uma colectânea de uma dezena de contos que tinha antes publicado em revistas. É muito curioso que, passados mais de 70 anos, esses princípios, escritos num tempo em que ainda não existiam robôs, continuem a ser discutidos, não só na sociedade em geral, mas em conferências sobre a ética da IA. As três leis propostas por Asimov são as seguintes:

1.ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
2.ª Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos excepto nos casos em que tais ordens entrem em conflito com a 1.ª Lei.
3.ª Lei: Um robô deve proteger a sua própria existência desde que tal protecção não entre em conflito com a 1.ª ou a 2.ª Leis.
Estas leis destinam-se a alinhar os robôs com as intenções dos seres humanos, colocando o primado nestes últimos. No entanto, as situações de interacção entre humanos e robôs ou dos robôs entre si não podem ser reguladas de um modo tão simples: há muito mais a dizer.

A acima referida Recomendação sobre Ética da IA aprovada pela UNESCO parte dos direitos humanos consagrados pela Organização das Nações Unidas (ONU) com o intuito de assegurar o respeito por eles no quadro das novas possibilidades criadas pela IA. O documento diz quais são as suas finalidades [13]:

Esta Recomendação visa fornecer uma base para fazer os sistemas de IA funcionarem para o bem da humanidade, dos indivíduos, das sociedades, do meio ambiente e dos ecossistemas, e para prevenir danos. Também visa estimular o uso pacífico dos sistemas de IA».

A Recomendação parte de alguns considerandos, relativos à necessidade de ética da IA, dos quais nomeamos [13]:

«As tecnologias de IA podem ser de grande utilidade para a Humanidade e todos os países podem beneficiar delas, mas também levantam questões éticas fundamentais, por exemplo, em relação aos preconceitos que podem incorporar e exacerbar, resultando potencialmente em discriminação, desigualdade, divisões digitais, exclusão e ameaça à diversidade cultural, social e biológica e às divisões sociais ou económicas».

Acentua a necessidade da promoção da igualdade quer no acesso à IA quer na protecção [13]:

“Também se reconhece que as tecnologias de IA podem aprofundar divisões e desigualdades no mundo, entre países e dentro de países, e que a justiça, a confiança e a equidade têm de ser defendidas de modo a que ninguém fique para trás, tendo acesso justo a tecnologias de IA e desfrutar dos seus benefícios e estando protegido das suas implicações negativas (…)»
E elenca de modo claro as questões éticas levantadas pela IA [13]:

«Os sistemas de IA levantam novos tipos de questões éticas que incluem, entre outros, o seu impacto na tomada de decisões, emprego e trabalho, interacção social, saúde, educação, média, acesso à informação, exclusão digital, dados pessoais e proteção ao consumidor, meio ambiente, democracia, estado de direito, segurança e policiamento, dupla utilização e direitos humanos e liberdades fundamentais, incluindo liberdade de expressão, privacidade e não discriminação. Além disso, novos desafios éticos são criados pelo potencial dos algoritmos de IA ao reproduzir e reforçar os preconceitos existentes e, assim, exacerbar as formas já existentes de discriminação, preconceito e estereotipagem. Algumas dessas questões estão relacionadas com a capacidade de os sistemas de IA realizarem tarefas que antes só os seres vivos podiam efectuar e que, nalguns casos, estavam mesmo limitadas aos seres humanos.»

Mais adiante, enfatiza a necessidade de confiança nos sistemas de IA, o que implica a minimização dos riscos associados à sua utilização [13]:

«A fiabilidade e integridade do ciclo de vida dos sistemas de IA são essenciais para garantir que as tecnologias de IA funcionem para o bem da humanidade, dos indivíduos, das sociedades, do meio ambiente e dos ecossistemas, e incorporem os valores e princípios estabelecidos nesta recomendação. As pessoas devem ter boas razões para confiar que os sistemas de IA podem trazer benefícios individuais e compartilhados, enquanto as medidas adequadas são tomadas para mitigar os riscos.»
A selecção dos métodos de IA deve atender a alguns princípios gerais [13]:

«A escolha de utilizar sistemas de IA e o método de IA a utilizar devem ser justificados das seguintes formas: (a) o método de IA escolhido deve ser adequado e proporcional para atingir um determinado objetivo legítimo; (b) o método de IA escolhido não deve infringir os valores fundamentais captados neste documento, em particular, o seu uso não deve violar ou abusar dos direitos humanos; e (c) o método de IA deve ser adequado ao contexto e deve ser baseado em fundamentos científicos rigorosos. Em cenários onde as decisões são entendidas como tendo um impacto irreversível ou difícil de reverter ou pode envolver decisões de vida ou morte, deve ser aplicada uma determinação final humana. Em particular, os sistemas de IA não devem ser usados ​​para fins de pontuação social ou de vigilância em massa.»

Também as instituições da União Europeia se têm debruçado sobre as questões da IA, com o duplo propósito de conseguir que a Europa se posicione na vanguarda desta área, onde outros blocos económicos, como os Estados Unidos e a China, estão mais adiantados, e consegui-lo de acordo com padrões éticos europeus. Em 2018, no anúncio da criação de um grupo de peritos para aconselhar a Comissão Europeia em IA, Mariya Gabriel, a Comissária responsável pela área da Economia e Sociedade Digitais, afirmou [20]: 

«Para colher todos os benefícios da inteligência artificial, a tecnologia deve ser sempre utilizada no interesse dos cidadãos e respeitar os mais elevados padrões éticos, promover os valores europeus e defender os direitos fundamentais.»

Desde 2018 que instituições europeias, incluindo, para além da Comissão, o Parlamento e o Conselho Europeu, têm vindo a discutir a IA em grupos de trabalho nos quais participam representantes dos Estados Membros. Em Abril de 2021 foi apresentada uma proposta de abordagem ética e regulatória para a AI, que fala de uma regulação diferenciada por níveis de risco [21]. Nessa abordagem europeia o risco é classificado, de acordo com as utilizações da IA, em três níveis: risco inaceitável, risco elevado, e risco baixo ou mínimo. De um modo simples, as aplicações de risco inaceitável estão proibidas, as de risco elevado sujeitas a regulação e as de risco baixo ou mínimo dispensadas de regulação, para além de algumas obrigações de transparência.

A lista de práticas proibidas inclui [21]:

«todos os sistemas de IA cuja utilização seja considerada inaceitável por violar os valores da União, por exemplo, por violar os direitos fundamentais. As proibições abrangem práticas com potencial significativo para manipular as pessoas por meio de técnicas subliminares que lhes passam despercebidas ou explorar as vulnerabilidades de grupos específicos, como as crianças ou as pessoas com deficiência, para distorcer substancialmente o seu comportamento de uma forma que seja susceptível de causar danos psicológicos ou físicos a essa ou a outra pessoa. (…) A proposta também proíbe a classificação social assente na IA para uso geral por parte das autoridades públicas. Por último, é igualmente proibida a utilização de sistemas de identificação biométrica à distância ‘em tempo real’ em espaços acessíveis ao público para efeitos de manutenção da ordem pública, a não ser em determinadas excepções de âmbito limitado.»

Na proposta, os sistemas de IA de risco elevado podem ser autorizados no mercado europeu, mas estão sujeitos ao cumprimento de certos requisitos obrigatórios e a uma avaliação da conformidade ex ante. Entre as aplicações de risco elevado, encontram-se aquelas que envolvem infraestruturas críticas que podem pôr em causa a vida e saúde dos cidadãos (como os sistemas de transporte), a gestão de recursos humanos, serviços públicos e privados essenciais (como a avaliação de crédito), questões legais que possam interferir com os direitos fundamentais (como a avaliação de probabilidade de reincidência), processos de emigração e controlo de fronteiras (como a verificação da autenticidade de documentos) ou a administração da justiça (aplicação da lei a um conjunto de factos).

Antes de serem autorizados no mercado europeu, os sistemas de IA de risco elevado devem cumprir uma série de obrigações que incluem, por exemplo, uma avaliação adequada dos riscos e a criação de correspondentes sistemas de mitigação, garantia da rastreabilidade dos resultados, informação clara aos utilizadores, supervisão humana e alto grau de robustez e segurança.

A proposta também estabelece obrigações de transparência para alguns sistemas de IA, por exemplo [21]:

«As pessoas devem ser informadas quando interagem com um sistema de IA ou as suas emoções ou características são reconhecidas por meios automatizados. Se um sistema de IA for utilizado para gerar ou manipular conteúdos de imagem, áudio ou vídeo consideravelmente semelhantes a conteúdos autênticos, deve ser obrigatório divulgar que os conteúdos são gerados por meios automatizados, sob reserva de excepções para fins legítimos (manutenção da ordem pública, liberdade de expressão). Deste modo, as pessoas podem tomar decisões informadas ou distanciar-se de determinadas situações.»

Os sistemas de risco mínimo, como os videojogos que usam IA ou os filtros de SPAM, podem ser usados livremente. A grande maioria dos sistemas de IA usados hoje enquadram-se nesta categoria, mas tal poderá mudar no futuro.

4 - Exemplos de questões éticas em IA

A Recomendação da UNESCO parte da «necessidade de transparência e compreensibilidade do funcionamento dos algoritmos e dos dados com os quais foram treinados; e o seu impacto potencial sobre a dignidade humana, os direitos humanos e liberdades fundamentais, a igualdade de género, a democracia, os processos sociais, económicos, políticos e culturais, as práticas científicas e de engenharia, o bem-estar animal e o meio ambiente e ecossistemas».

Sobre a magna questão da protecção de dados, a Recomendação diz expressamente [13]:

«A privacidade, um direito essencial para a proteção da dignidade humana, autonomia humana e agência humana, deve ser respeitada, protegida e promovida ao longo do ciclo de vida dos sistemas de IA. É importante que os dados dos sistemas de IA sejam colectados, usados, partilhados, arquivados e excluídos de maneiras que sejam consistentes com o direito internacional e em linha com os valores e princípios estabelecidos nesta Recomendação, respeitando as estruturas jurídicas nacionais, regionais e internacionais relevantes.»

E sobre a transparência, um problema sério colocado, como vimos, pelos sistemas de machine learning [13]:

«As pessoas devem ser totalmente informadas quando uma decisão é informada ou é feita com base em algoritmos de IA, incluindo quando ela afecta a sua segurança ou direitos humanos, e nessas circunstâncias devem poder solicitar informações explicativas do actor de IA relevante ou instituições públicas Além disso, os indivíduos devem ter acesso aos motivos de uma decisão lesiva dos seus direitos e liberdades e ter a opção de fazer as suas observações a um funcionário designado da empresa do sector privado ou instituição do sector público, que seja capaz de rever e corrigir a decisão. Os actores de IA devem informar os utilizadores se um produto ou serviço é fornecido directamente ou com a assistência de sistemas de IA de maneira adequada e oportuna.»

A aplicação destas indicações, a que acrescem outras, tem, diante de si, um longo caminho. Referimos na Secção 2 as empresas que hoje detêm grandes negócios à escala global, nalguns casos mesmo praticamente com carácter de monopólio, em domínios como os motores de busca, as vendas on-line, as redes sociais e outros serviços. Vale a pena pormenorizar.

A Google (empresa que detém, entre outras marcas, o Gmail, o Googlemaps e o Youtube) tem como recurso mais emblemático o ser browser, um algoritmo de pesquisa na World Wide Web que, cada vez, mais é servido por tecnologias de IA: uma pesquisa no Google usando certos termos feita num sítio específico e num determinado momento não dá necessariamente o mesmo resultado que a pesquisa dos mesmos termos feita noutro sítio e noutro momento, porque o algoritmo tem a capacidade de se adaptar à realidade local no espaço e no tempo. Aparentemente o uso do browser da Google é gratuito, mas, de facto, os utilizadores estão a «pagar» o serviço quando, num certo sítio e momento, fornecem dados a respeito da sua identidade e dos seus interesses. E surgem, em geral, em local proeminente da lista de resultados, links para sites de empresas que, pagando à Google, têm assim ampla publicidade. Pode-se dizer – e, em larga medida é verdade – que os utilizadores fornecem voluntariamente os dados em troca dos serviços que recebem. Mas também é verdade que esse consentimento não é, em geral, informado. Não é de modo nenhum claro como a privacidade e a transparência, referidas no documento da UNESCO, são ou poderão ser asseguradas.

A Amazon (empresa que detém a Amazon Video e o Goodreads), que começou por vender livros e hoje vende todo o tipo de produtos pela Internet, dispõe de algoritmos muito eficazes para extrair as preferências de cada utilizador e, conjugando-as com as preferências de outros utilizadores de perfil semelhante, fazer propostas de produtos que vão, com boa probabilidade, ser comprados. De certo modo, é como se a Amazon, ao propormo-nos aquilo que sabe que vamos querer, nos conhecesse melhor do que nós próprios. Mais uma vez a privacidade individual, neste como noutros sistemas de venda electrónica, pode estar em causa. Por exemplo, os clientes não são informados, para usar os termos da Recomendação da UNESCO; «se um produto ou serviço é fornecido directamente ou com a assistência de sistemas de IA de maneira adequada e oportuna».

A empresa Facebook, agora designado por Meta (empresa que detém o Instagram e o Whatsapp), possui algoritmos que, a partir da tipologia dos interesses que declaramos directa ou indirectamente e do rol de pessoas que aceitamos como «amigos», nos propõe, de uma forma que é ou parece ser personalizada, conteúdos informativos ou recreativos, produtos comerciais de todo o tipo (por exemplo, constantes de mensagens patrocinadas) e mesmo novos «amigos». Ficamos, embora sem termos a percepção disso, confinados numa «bolha» que engloba os «amigos», situação que nos dificulta o acesso a conteúdos, produtos e pessoas diferentes das que de algum modo se parecem connosco. Formam-se comunidades, mas elas são, em geral, pouco comunicantes. Por outro lado, a introdução que é feita nessas redes sociais de notícias falsas (fake news) redunda na sua disseminação rápida e maciça, com efeitos indesejáveis. 

Viu-se isso recentemente com a «infodemia» associada à pandemia da COVID-19 [22]: o Facebook demorou a tomar medidas no sentido de obstar ao espalhamento da desinformação nesta questão grave de saúde pública à escala mundial e as medidas tomadas podem não ser satisfatórias. O Facebook tem também sido usado como arma para tentativas de fraude política, neste caso enviando informação falsa ou deturpada num contexto eleitoral. Assistiu-se a processos desse tipo no referendo do Brexit e na eleição norte-americana que deu a vitória a Donald Trump. A fraude mais mediática foi a da empresa Cambridge Analytica, que usou para fins ilícitos dados do Facebook nessas duas votações. A empresa não sobreviveu ao escândalo público. Não admira, por isso, que surjam vozes muito activas contra as redes sociais [23].

Finalmente, a Apple (que é proprietária de marcas como o Mac, IPhone, Ipad, AppleTV e o Applewatch) criou um sistema virtual inteligente (o Siri), que, usando linguagem natural, responde a questões, dá sugestões ou executa acções, adaptando-se docilmente ao utilizador. A Google e a Amazon têm de resto sistemas semelhante, respectivamente o Google Assistant e a Alexa, respectivamente. Estes «assistentes pessoais» aprendem os hábitos e as preferências do utilizador, de modo a poderem oferecer resultados personalizados. É precisamente aí que entra a questão ética, uma vez que o sistema de IA tem que recolher e analisar todo um conjunto de dados sobre o utente a fim de inferir as respostas dar. Os assistentes desse tipo são úteis para automatizar certas tarefas, pelo que não falta quem os use. Mas esses utilizadores estão a sacrificar a privacidade e a segurança dos seus dados para que uma ou mais empresas prosperem nos seus negócios. Por exemplo, o assistente poderá oferecer resultados patrocinados quando se lhes pergunta por um restaurante onde ir jantar. As empresas partem do princípio de que as pessoas se preocupam mais com a comodidade e a facilidade do que com a privacidade e a segurança e, de facto, é isso mesmo o que acontece. Seria útil por partes dos utilizadores uma maior consciência dos perigos.

A ideia muito disseminada de que um cidadão honesto nada tem a temer com a transmissão a outrem, sob qualquer forma, de dados da sua vida pessoal ignora uma das regras éticas da nossa vida: todos nós temos direito a manter secreta a nossa vida pessoal. Basta fazer o seguinte exercício virtual: mesmo sendo um cidadão cumpridor das leis e das regras da vida em sociedade, sentir-se-ia confortável se todos os seus amigos pudessem ter acesso a todo o seu historial de actividade na Internet ou ao registo de todas as comunicações que faz com o seu telemóvel? A proliferação do tratamento dos nossos dados por sistemas de IA, seja por empresas privadas seja por serviços públicos controlados por governos, dever-nos-ia preocupar mais do que hoje nos preocupa. A solução passará por uma maior regulação, que caminhe no sentido de maior transparência e de maior poder dos utilizadores. Será necessária para esse caminho alguma criatividade: proliferam hoje «soluções-placebo», demasiado complicadas, que na prática se traduzem na concordância acrítica dos utilizadores com extensos contratos legais exibidos nos ecrãs, que não é possível ler de modo consistente, pelo tempo que isso exigiria, para já não falar do facto de estarem escritos em linguagem jurídica pouco acessível ao comum dos cidadãos.

Um outro exemplo muito discutido actualmente de aplicação da ética a sistemas de IA refere-se à introdução de normas éticas dentro dos próprios sistemas de IA. Os veículos autónomos fornecem um bom exemplo, embora haja outros (uma outra questão muito discutida é a legitimidade de sistemas militares autónomos). Veículos autónomos são aqueles capazes de transportar pessoas ou bens sem recurso a um condutor humano. Já existem como veículos de quatro rodas na estrada e não apenas para comboios em carris em trajectos curtos: com efeito, estão a ser experimentados não só em pistas exclusivas, mas também em estradas comuns, onde circulam em conjunto com os veículos normais, conduzidos por seres humanos. Embora em número muito diminuto, já ocorrerem alguns acidentes em situações deste último tipo. Tudo leva a crer que, em menos de uma década, esse tipo de veículos se vai generalizar nas estradas, assegurando um serviço de transporte em condições que deverão ser de maior segurança do que as que são proporcionadas por condutores humanos. As máquinas podem, tal como os humanos, falhar, mas a verdade é que os seres humanos falham muito mais do que as máquinas. Para que esses veículos possam circular livremente e se tornem comuns, alguns desafios ainda terão de ser vencidos, como desenvolver melhores sensores que deem conta das condições de tráfego, não apenas a presença de outros veículos, mas também de peões e ciclistas, e rever as leis de trânsito de modo a contemplar novas situações.

Quando guiamos um veículo, temos uma noção, ainda que muitas vezes inconsciente, do que devemos fazer para nos protegermos e protegermos os outros. Usamos os travões e o volante para diminuir os efeitos potencialmente graves de uma colisão. Na iminência de um acidente, escolhemos, ainda que instintivamente, a opção que cause um «mal menor», embora esta expressão seja ambígua. Como se deve comportar um veículo autónomo quando tem de tomar decisões por si só em situações como esta? A que preceitos éticos deve obedecer? Poderão eles ser embutidos no seu software? Ou poderão ser aprendidos com a experiência?

O «dilema da carruagem» é uma experiência conceptual que vem sendo discutida há muitos anos: numa situação de acidente uma pessoa tem de escolher a opção menos má. Não sendo específica para os veículos autónomos, pode ser adaptada para eles. O MIT possui um site (intitulado Moral Machine [24]) onde se pergunta às pessoas que acção tomariam em situações rodoviárias em que haja dilemas de vida ou morte. O objectivo é recolher informações sobre as decisões morais dos seres humanos de modo a incorporá-las nas máquinas, no quadro da chamada «ética artificial». O desafio, nada fácil, consiste em quantificar as escolhas éticas. Na Moral Machine são apresentados vários cenários, como um carro que, sem travões, enfrenta duas ou mais possibilidades: por exemplo, virar para a direita e matar um conjunto de pessoas idosas ou virar para a esquerda e matar uma senhora que empurra um carro de bebé? É natural e legítimo dizer que, em princípio, todas as vidas humanas são igualmente inestimáveis. Mas, neste dilema, pretende-se forçar a pessoa em causa a hierarquizar o valor das vidas humanas, em situações em que a perda de pelo menos uma é inevitável. Valerá mais a vida de uma grávida ou de cinco idosos? Deve-se manter o rumo (matando por inacção) ou fazer um desvio (sendo a morte resultado de uma iniciativa). Um resultado curioso do site do MIT é que as escolhas humanas não são universais, dependendo do contexto social, cultural e religioso.

Caso haja um acidente de um veículo automático que cause dados materiais ou vítimas há ainda que definir a atribuição de responsabilidades legais. De quem é a culpa? Dos autores dos algoritmos? Do fabricante do veículo? Do vendedor? Do proprietário? Da pessoa que ia no veículo, embora não fosse ela a conduzir? De quem «treinou» o sistema, por exemplo um conjunto de condutores experientes? De qualquer outra parte envolvida, por exemplo entidades que deviam ter previsto o assunto e não o fizeram? Nos poucos casos de acidentes com veículos autónomos ocorridos até agora os tribunais têm decidido por uma partilha de responsabilidades precisamente porque a atribuição é complicada.

Os fabricantes de veículos autónomos têm evitado fazer comentários sobre esses dilemas morais, para se colocarem ao abrigo de controvérsias que os poderiam prejudicar. Mas parece claro que colocam o primado na protecção dos utilizadores dos veículos, que são ao fim e ao cabo os seus clientes.

Sobre a questão da segurança, a referida Recomendação da UNESCO diz genericamente [13]:

«Danos indesejados (riscos de segurança), bem como vulnerabilidades a ataques (riscos de segurança), devem ser evitados e devem ser tratados, prevenidos e eliminados ao longo do ciclo de vida dos sistemas de IA para garantir a segurança humana, ambiental e do ecossistema. A IA segura e protegida será possibilitada pelo desenvolvimento de estruturas de acesso a dados sustentáveis ​​e com protecção à privacidade que promovem um melhor treino e validação de modelos de IA que utilizam dados de qualidade.»

5 - Conclusões e perspectivas

Os sistemas de IA têm estado em franco desenvolvimento ao longo das últimas décadas, prevendo-se que essa tendência continue. Estão à vista problemas éticos, que se poderão avolumar se não forem devidamente contemplados. A UNESCO já acordou recomendações sobre a ética da IA. A União Europeia também está a fazer o seu caminho, criando regulamentos para a IA. Outras instituições e organizações estão a envidar esforços semelhantes. Mas vai uma grande distância entre princípios éticos gerais e a sua aplicação concreta por cada país. E, num mundo global, facilitaria que houvesse alguma unificação normativa.

Dado o actual ritmo de desenvolvimento da IA, algumas mentes mais futuristas especulam que em cerca de 30 ou 40 anos, existirá um momento designado por «singularidade tecnológica», em que as máquinas superinteligentes substituiriam os seres humanos, uma vez que os poderiam superar em praticamente todas as tarefas. Tal aconteceria quando o poder computacional ultrapassasse o dos cérebros humanos. Fala-se, neste quadro, de um «futuro pós-humano». O físico Stephen Hawking, o empresário Ellon Musk e vários especialistas em IA chamaram a atenção, numa «Carta Aberta sobre IA», divulgada em Janeiro de 2015, para o perigo maior que a IA representa para a Humanidade [25]. O tom era algo alarmista: «Poderemos um dia perder o controlo dos sistemas de IA através da ascensão de superinteligências que não actuem de acordo com os desejos humanos – e que esses sistemas poderosos ameacem a Humanidade.» Essa visão da «singularidade» enfrenta a oposição de muitos críticos: de facto, não falta quem pense que as máquinas nunca terão algumas das capacidades superiores que os humanos hoje têm, como a consciência, que é fundamental para a ética.

A Recomendação da UNESCO, não falando na «singularidade», refere a possibilidade de alteração do desenvolvimento cognitivo dos humanos e do que significa ser humano [13]:

«As características dos sistemas de IA conferem-lhes um papel novo e profundo nas práticas humanas e na sociedade, bem como na sua relação com o meio ambiente e os ecossistemas, criando um novo contexto para crianças e jovens crescerem, desenvolverem uma compreensão do mundo e de si próprios, compreender criticamente os média e as informações e aprender a tomar decisões. A longo prazo, os sistemas de IA podem desafiar o senso especial de experiência e agência dos humanos, levantando preocupações adicionais sobre, inter alia, autocompreensão humana, interacção social, cultural e ambiental, autonomia, agência, valor e dignidade.»

Estes problemas talvez sejam mais realistas: que visão formam do mundo crianças que crescem num sistema largamente artificial, designadamente se são ensinadas por robôs. O que adquirem de noções tão humanas como o afecto e a compaixão?

É missão dos cientistas e engenheiros apresentar as escolhas que a ciência e a tecnologia proporcionam. Mas cabe aos cidadãos, pelo menos nos regimes democráticos, fazer, em cada situação, as escolhas de modo informado. Tais escolhas devem ser presididas por princípios éticos, com base no melhor conhecimento sobre a matéria que está em causa. Acontece que, apesar de todos avanços na área da IA, os fundamentos dessas novas tecnologias são praticamente desconhecidos do público em geral [26]: quase ninguém sabe o que significam conceitos básicos, como «redes neuronais» ou «aprendizagem automática», para já não falar de outros conceitos mais elaborados, como «aprendizagem profunda» e «ética artificial». Como a IA se está a tornar cada vez mais relevante nas nossas vidas, a sociedade precisa de ter uma compreensão básica das questões científicas e tecnológicas subjacentes para poder tomar decisões informadas e éticas. A educação desempenha aqui um papel. A Recomendação da UNESCO acentua a necessidade de educação e informação [13]:

«Os Estados-Membros devem trabalhar com organizações internacionais, instituições educacionais e entidades privadas e não governamentais para fornecer educação adequada em alfabetização em IA ao público em todos os níveis em todos os países, a fim de capacitar as pessoas e reduzir as divisões digitais e as desigualdades de acesso digital resultantes da ampla adoção de sistemas de IA.»
Os próprios sistemas de IA poderão eles próprios servir para reforçar o acesso à informação, dada a sua grande capacidade de processamento de dados.

Atendendo à natural lentidão do sistema educativo formal a lidar com novas realidades, a IA deveria ser cada vez mais considerada no sistema de educação informal, no qual os jornalistas e os comunicadores de ciência assumem papéis de relevo. A IA deveria tornar-se um tema maior da comunicação científica nas várias formas em que esta tem lugar: em palestras públicas, em programas da rádio e televisão, em exposições montadas em museus ou centros de ciências, etc. Só assim poderemos estar mais bem preparados para enfrentar o futuro.

Carlos Fiolhais e David Marçal

Referências:
[1] Arlindo Oliveira. Mentes Digitais. A Ciência Redefinindo a Humanidade. Lisboa, IST Press, 2017.
[2] Pedro Domingos, A Revolução do Algoritmo Mestre. Como a Aprendizagem Automática Está a Mudar o Mundo, Lisboa, Manuscrito Editora, 2017.
[3] Fry, Hannah, Olá Futuro. Como Ser Humano na Era dos Algoritmos, Lisboa, Planeta, 2019.
[4] Tegmark, Max, Life 3.0. Ser-se Humano na Era da Inteligência Artificial, Lisboa, Dom Quixote, 2019.
[5] Arlindo Oliveira, Inteligência Artificial, Lisboa, Fundação Francisco Manuel dos Santos, 2019.
[6] Henry Kissinger, Eric Schmidt e Daniel Guttenlocher, A Era da Inteligência Artificial. E o nosso futuro humano, Lisboa, Dom Quixote, 2021.
[7] Turing, Alan, «I.-Computing Machinery and Intelligence», Mind, vol. LIX, issue 236, Oct. 1950, 433-460. https://academic.oup.com/mind/article/LIX/236/433/986238 (acedido em 23/11/2022).
[8] José Ignacio Latorre, Ética para Máquinas, Barcelona, Ariel, 2019.
[9] APDSI, No Limiar da Autodeterminação das Máquinas, Lisboa, APSDI, 2019.
[10] Ford, Martin, Robôs, A Ameaça de um Futuro sem Emprego. Lisboa, Bertrand, 2016.
[11] Shelley, Mary, Frankenstein (1.ª versão de 1918), Lisboa, Compasso dos Ventos, 2016.
[12] Capek, Karel, R.U.R., Mineola NY, Dover 2001.
[13] UNESCO, Draft text on the Recommendation on the Ethics of Artificial Intelligence https://unesdoc.unesco.org/ark:/48223/pf0000379920.page=14 (acedido em 23/11/2022)
[14] Jean-Gabriel Ganascia, O Mito da Singularidade. Devemos temer a inteligência artificial , Lisboa, Temas e Debates, 2018.
[15] UNESCO, UNESCO members states adopt the first ever global agreement on the ethics of Artificial Intelligence, https://en.unesco.org/news/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence (acedido em 23/11/2022)
[16] Fiolhais, Carlos, «Ada Lovelace: a ‘feiticeira do número’», Faces de Eva. Estudos sobre a Mulher, 2022, no prelo.
[17] Zuboff, Shoshana, A Era do Capitalismo da Vigilância. A disputa por um futuro humano na nova fronteira do poder, Lisboa, Relógio d´Água, 2020.
[18] Patrão Neves, Maria do Céu e Carvalho, Maria da Graça (ed.) Ética Aplicada. Novas Tecnologias, Lisboa, Edições 70, 2018.
[19] Asimov, Isaac, Eu, Robot, Mem Martins, Publicações Europa-América, 2004.
[20] EU, Artifical intelligence: Commission kicks off work on marrying cutting-edge technology and ethic standards https://ec.europa.eu/commission/presscorner/detail/en/IP_18_1381 (acedido em 23/11/2022)
[21] EU, Proposta de Regulamento do Parlamento e do Conselho que estabelece regras harmomonizadas em matéria de Inteligência Artificial… https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0004.02/DOC_1&format=PDF (acedido em 23/11/2022)
[22] Marçal, David e Fiolhais, Carlos, Apanhados pelo Vírus. Factos e Mitos sobre a COVID-19, Lisboa, Gradiva, 2020.
[23] Lanier, Jaron, Ten Arguments for Deleting your Social Media Accounts Right Now, London, Vintage, 2018.
[24] Moral Machine https://www.moralmachine.net/ (acedido em 23/11/2022)
[25] Fiolhais, Carlos e Marçal, David, in Ethics, Science and Society, Challenges for BioPolitics, Patrão Neves, Maria do Céu (ed.), Lisboa, Glaciar e FLAD, 2019.
[26] An Open Letter Research Priorities for Robust and Beneficial ArtificiaL Intelligence, https://futureoflife.org/2015/10/27/ai-open-letter/ (acedido em 23/11/2022).

Sem comentários:

NOVOS CLÁSSICOS DIGITALIA

Os  Classica Digitalia  têm o gosto de anunciar 2  novas publicações  com chancela editorial da Imprensa da Universidade de Coimbra. Os volu...