segunda-feira, 26 de junho de 2023

VAI-SE REFORMAR? COMO ASSIM!?

Na sequência de outros textos aquiaqui e aqui

Um texto de Luís Pedro Nunes, publicado no Expresso desta semana, levou-me a ver uma entrevista no programa “Fareed Zakaria GPS”, a Geoffrey Hinton, o designado padrinho da inteligência artificial (IA). Ele é o primeiro signatário de uma carta em que cerca de três centenas e meia de pessoas ligadas à ciência e à tecnologia alertam para o perigo de a IA pode "enganar deliberadamente, tornando-se um risco para a Humanidade". Reproduzo uma parte do texto do jornalista:

“E o que vai fazer?”, perguntou Fareed a Geoffrey Hinton, que se demitiu há semanas da Google por causa deste tema. “Vou-me reformar.” (Silêncio.) “Como assim? Não pode deixar-nos à beira do precipício”, disse Fareed, “é uma criação sua”. “Não tenho forças, outros que o façam, talvez os meus alunos, mas o alerta está dado” (...).

Fareed Zakaria perguntava ao “padrinho da IA” (...) como é que se podia acreditar que a IA era uma “ameaça existencial para a Humanidade”. E lá foi ele dizendo que nunca na história da Humanidade houve a arrogância de entes menos inteligentes controlarem outros muito mais inteligentes. “E neste momento, o algoritmo já é melhor do que o cérebro.” Até há pouco tempo, preocupava-se com o desemprego, a maior clivagem entre ricos e pobres, as guerras intermináveis. Há meses, teve uma epifania. 

Temos de colocar em cima da mesa o fim da Humanidade. E já não há uma solução simples. Para as alterações climáticas, basta baixar as emissões de CO2. Para a guerra nuclear, é não premir o botão. Mas o problema da IA é que não foi criada com princípios éticos de base. E, agora, não é possível criar barreiras de segurança que contemplem todas as possibilidades. Os militares quererão que se mate. Os governos que se minta. Nada impede o próprio sistema de enganar os humanos. E acontecerá. Quando? Não é daqui a 50 anos. É muito mais cedo. 

“E que vai fazer?” “Vou-me reformar.” Já ninguém tem paciência para os catastrofistas da IA. Eu sei, sou um deles. Os próprios 350 cientistas que assinaram a petição para controlar a IA dizem que há apenas 10% de hipóteses de a IA levar à extinção da Humanidade. Mas, como refere Yuval Harari, se lhe dissessem que o avião em que ia entrar tinha 10% de hipóteses de cair durante o voo fazia a viagem?"

Sem comentários: