terça-feira, 25 de novembro de 2025

CARTA ABERTA 1: "PARE-SE COM A ADOPÇÃO ACRÍTICA DE TECNOLOGIAS DE IA NO MEIO ACADÉMICO"

Aos professores universitários chegam, com frequência crescente e de diversas fontes e formas, incentivos para que usem a dita "inteligência artificial" no seu ensino. Em geral, esses incentivos redundam no velhíssimo argumento de que é preciso "inovar", guarda-chuva de outros não menos velhos, como urgência de "construir o futuro", "necessidade de redefinir a aprendizagem", "potenciar o pensamento crítico e criativo". E, claro, estribado na potente TINA: "não há alternativa", é "inevitável".

A pressa e a pressão colocada nos professores não tem, contudo, sido impedimento para alguns de ponderarem esse inventivo e tomarem uma posição. Encontrei duas cartas abertas de professores universitários, com as mais variadas formações e interesses de investigação, que concretizam este propósito e que trago aqui a título de exemplo.

Transcrevo abaixo uma delas, reservando a outra para texto posterior. Espero que a tradução que apresento não tenha desvirtuado a letra dos seus signatários. Permiti-me introduzir alguns destaques nas passagens que mais valorizei com base na ideia de educação que entendo dever guiar a Universidade.

A carta, com o título Stop the Uncritical Adoption of AI Technologies in Academia, foi publicada em junho de 2025 e assinada, em primeiro lugar, por Olivia Guest, professora de Computational Cognitive Science, Cognitive Science & Artificial Intelligence do Department and Donders Centre for Cognition, Radboud University Nijmegen

Prezadas Universidades da Holanda, Universidades Holandesas de Ciências Aplicadas e Respetivos Conselhos Executivos,

Com esta carta, assumimos uma posição de princípio contra a proliferação das chamadas tecnologias de «IA» nas universidades. Estando em instituições de ensino, não podemos tolerar o uso acrítico da IA por estudantes, professores ou gestores. Apelamos também à reconsideração de quaisquer relações financeiras diretas entre universidades holandesas e empresas de IA. A introdução irrestrita da tecnologia de IA leva à violação do espírito da lei Al da UE pois compromete os valores pedagógicos básicos e os princípios da integridade científica, impede-nos de manter os padrões de independência e transparência, e o mais preocupante é que o uso da IA tem demonstrado prejudicar a aprendizagem e enfraquecer o pensamento crítico.

Como académicos, e especialmente como educadores, temos a responsabilidade de educar os nossos alunos, não de aprovar diplomas sem qualquer relação com as competências de nível universitário. O nosso dever é cultivar o pensamento crítico e a honestidade intelectual, e não é nosso papel policiar ou promover a fraude, nem normalizar a restrição do pensamento profundo por parte dos nossos alunos e orientandos. 

As universidades têm como objetivo o envolvimento profundo com a matéria. O objetivo da formação académica não é resolver problemas da forma mais eficiente e rápida possível, mas desenvolver competências para identificar e lidar com problemas novos, que nunca foram resolvidos antes. Esperamos que os alunos tenham espaço e tempo para formar as suas próprias opiniões profundamente ponderadas, informadas pela nossa experiência e alimentadas pelos nossos espaços educativos. 

Esses espaços devem ser protegidos da publicidade da indústria, e o nosso financiamento não deve ser mal gasto em empresas com fins lucrativos, que oferecem pouco em troca e desqualificam ativamente os nossos alunos. Até mesmo o próprio termo «Inteligência Artificial» (que cientificamente se refere a um campo de estudo académico) é amplamente mal utilizado, com a falta de clareza conceptual, aproveitada para promover as agendas da indústria e minar as discussões académicas. É nossa tarefa desmistificar e desafiar a «IA» no nosso ensino, investigação e no nosso envolvimento com a sociedade.

Devemos proteger e cultivar o ecossistema do conhecimento humano. Os modelos de IA podem imitar a aparência de trabalhos académicos, mas (por construção) não se preocupam com a verdade — o resultado é uma torrente de «informações» não verificadas, mas que soam convincentes. Na melhor das hipóteses, esses resultados são acidentalmente verdadeiros, mas geralmente sem citações, divorciados do raciocínio humano e da rede académica da qual são roubados. Na pior das hipóteses, são confiantemente errados. Ambos os resultados são perigosos para o ecossistema.

As tecnologias de IA exageradas, como chatbots, grandes modelos de linguagem e produtos relacionados, são apenas isso: produtos que a indústria tecnológica, tal como as indústrias do tabaco e do petróleo, produz para obter lucro e em contradição com os valores da sustentabilidade ecológica, dignidade humana, salvaguarda pedagógica, privacidade de dados, integridade científica e democracia. 

Esses produtos de «IA» são material e psicologicamente prejudiciais à capacidade dos nossos alunos de escrever e pensar por si próprios, beneficiando, em vez disso, investidores e empresas multinacionais. Como estratégia de marketing para introduzir tais ferramentas na sala de aula, as empresas afirmam falsamente que os alunos são preguiçosos ou carecem de competências de escrita. Condenamos essas afirmações e reafirmamos a autonomia dos alunos face ao controlo corporativo.

Já passámos por isso antes com o tabaco, o petróleo e muitas outras indústrias nocivas que não têm os nossos interesses em mente e que são indiferentes ao progresso académico dos nossos alunos e à integridade dos nossos processos académicos.

Apelamos a todos para:

Resistir à introdução da IA, nos nossos próprios sistemas de software, desde a Microsoft à OpenAI e à Apple. Não é do nosso interesse permitir que os nossos processos sejam corrompidos e ceder os nossos dados para serem usados no treino de modelos que não só são inúteis para nós, como também prejudiciais;
Proibir o uso da IA na sala de aula para trabalhos dos alunos, da mesma forma que proibimos fábricas de ensaios e outras formas de plágio. Os alunos devem ser protegidos contra a desqualificação e ter espaço e tempo para realizar as suas tarefas por conta própria;
Deixar de normalizar o hype da IA e as mentiras que prevalecem na forma como a indústria tecnológica enquadra estas tecnologias. As tecnologias não têm as capacidades anunciadas e a sua adoção coloca os alunos e os académicos em risco de violar padrões éticos, legais, académicos e científicos de fiabilidade, sustentabilidade e segurança;
Fortalecer a nossa liberdade académica como profissionais universitários para fazer cumprir estes princípios e padrões nas nossas salas de aula e na nossa investigação, bem como nos sistemas informáticos que somos obrigados a utilizar como parte do nosso trabalho. Nós, como académicos, temos direito aos nossos próprios espaços;
Manter o pensamento crítico sobre a IA e promover o envolvimento crítico com a tecnologia numa base académica sólida. A discussão académica deve estar livre de conflitos de interesses causados pelo financiamento da indústria, e a resistência fundamentada deve ser sempre uma opção.

Atenciosamente,
... 

Sugiro ao leitor que consulte a lista de signatários da carta, bem como a extensa e relevante lista bibliográfica que usaram para a sua redacção (ver aqui).

Sem comentários:

CARTA ABERTA 1: "PARE-SE COM A ADOPÇÃO ACRÍTICA DE TECNOLOGIAS DE IA NO MEIO ACADÉMICO"

Aos professores universitários chegam, com frequência crescente e de diversas fontes e formas, incentivos para que usem a dita "intelig...