Aos professores universitários chegam, com frequência crescente e de diversas fontes e formas, incentivos para que usem a dita "inteligência artificial" no seu ensino. Em geral, esses incentivos redundam no velhíssimo argumento de que é preciso "inovar", guarda-chuva de outros não menos velhos, como urgência de "construir o futuro", "necessidade de redefinir a aprendizagem", "potenciar o pensamento crítico e criativo". E, claro, estribado na potente TINA: "não há alternativa", é "inevitável".
A pressa e a pressão colocada nos professores não tem, contudo, sido impedimento para alguns de ponderarem esse inventivo e tomarem uma posição. Encontrei duas cartas abertas de professores universitários, com as mais variadas formações e interesses de investigação, que concretizam este propósito e que trago aqui a título de exemplo.
Transcrevo abaixo uma delas, reservando a outra para texto posterior. Espero que a tradução que apresento não tenha desvirtuado a letra dos seus signatários. Permiti-me introduzir alguns destaques nas passagens que mais valorizei com base na ideia de educação que entendo dever guiar a Universidade.
A carta, com o título Stop the Uncritical Adoption of AI Technologies in Academia, foi publicada em junho de 2025 e assinada, em primeiro lugar, por Olivia Guest, professora de Computational Cognitive Science, Cognitive Science & Artificial Intelligence do Department and Donders Centre for Cognition, Radboud University Nijmegen
Prezadas Universidades da Holanda, Universidades Holandesas de Ciências Aplicadas e Respetivos Conselhos Executivos,
Com esta carta, assumimos uma posição de princípio contra a proliferação das chamadas tecnologias de «IA» nas universidades. Estando em instituições de ensino, não podemos tolerar o uso acrítico da IA por estudantes, professores ou gestores. Apelamos também à reconsideração de quaisquer relações financeiras diretas entre universidades holandesas e empresas de IA. A introdução irrestrita da tecnologia de IA leva à violação do espírito da lei Al da UE pois compromete os valores pedagógicos básicos e os princípios da integridade científica, impede-nos de manter os padrões de independência e transparência, e o mais preocupante é que o uso da IA tem demonstrado prejudicar a aprendizagem e enfraquecer o pensamento crítico.
Como académicos, e especialmente
como educadores, temos a responsabilidade de
educar os nossos alunos, não de aprovar diplomas sem qualquer relação
com as competências de nível universitário. O nosso dever é cultivar o pensamento crítico e a honestidade intelectual, e
não é nosso papel policiar ou promover a fraude, nem normalizar a restrição do pensamento profundo por parte dos nossos alunos e
orientandos.
As universidades têm como objetivo o envolvimento profundo
com a matéria. O objetivo da formação académica não é resolver problemas
da forma mais eficiente e rápida possível, mas desenvolver competências
para identificar e lidar com problemas novos, que nunca foram
resolvidos antes. Esperamos que os alunos tenham espaço e tempo para
formar as suas próprias opiniões profundamente ponderadas, informadas
pela nossa experiência e alimentadas pelos nossos espaços educativos.
Esses espaços devem ser protegidos da publicidade da indústria, e o nosso financiamento não deve ser mal gasto em empresas com fins lucrativos, que oferecem pouco em troca e desqualificam ativamente os nossos alunos. Até mesmo o próprio termo «Inteligência Artificial» (que cientificamente se refere a um campo de estudo académico) é amplamente mal utilizado, com a falta de clareza conceptual, aproveitada para promover as agendas da indústria e minar as discussões académicas. É nossa tarefa desmistificar e desafiar a «IA» no nosso ensino, investigação e no nosso envolvimento com a sociedade.
Devemos proteger e cultivar o ecossistema do conhecimento humano. Os modelos de IA podem imitar a aparência de trabalhos académicos, mas (por construção) não se preocupam com a verdade — o resultado é uma torrente de «informações» não verificadas, mas que soam convincentes. Na melhor das hipóteses, esses resultados são acidentalmente verdadeiros, mas geralmente sem citações, divorciados do raciocínio humano e da rede académica da qual são roubados. Na pior das hipóteses, são confiantemente errados. Ambos os resultados são perigosos para o ecossistema.
As tecnologias de IA exageradas, como chatbots, grandes modelos de linguagem e produtos relacionados, são apenas isso: produtos que a indústria tecnológica, tal como as indústrias do tabaco e do petróleo, produz para obter lucro e em contradição com os valores da sustentabilidade ecológica, dignidade humana, salvaguarda pedagógica, privacidade de dados, integridade científica e democracia.
Esses
produtos de «IA» são material e psicologicamente prejudiciais à
capacidade dos nossos alunos de escrever e pensar por si próprios, beneficiando, em vez disso, investidores e empresas
multinacionais. Como estratégia de marketing para introduzir tais
ferramentas na sala de aula, as empresas afirmam falsamente que os
alunos são preguiçosos ou carecem de competências de escrita. Condenamos
essas afirmações e reafirmamos a autonomia dos alunos face ao controlo
corporativo.
Já passámos por isso antes com o tabaco, o petróleo e
muitas outras indústrias nocivas que não têm os nossos interesses em
mente e que são indiferentes ao progresso académico dos nossos alunos e à
integridade dos nossos processos académicos.
Apelamos a todos para:
•
Resistir à introdução da IA, nos nossos próprios sistemas de software,
desde a Microsoft à OpenAI e à Apple. Não é do nosso interesse permitir
que os nossos processos sejam corrompidos e ceder os nossos dados para
serem usados no treino de modelos que não só são inúteis para nós, como
também prejudiciais;
• Proibir o uso da IA na sala de aula para
trabalhos dos alunos, da mesma forma que proibimos fábricas de ensaios e
outras formas de plágio. Os alunos devem ser protegidos contra a
desqualificação e ter espaço e tempo para realizar as suas tarefas por
conta própria;
• Deixar de normalizar o hype da IA e as mentiras que
prevalecem na forma como a indústria tecnológica enquadra estas
tecnologias. As tecnologias não têm as capacidades anunciadas e a sua
adoção coloca os alunos e os académicos em risco de violar padrões
éticos, legais, académicos e científicos de fiabilidade,
sustentabilidade e segurança;
• Fortalecer a nossa liberdade
académica como profissionais universitários para fazer cumprir estes
princípios e padrões nas nossas salas de aula e na nossa investigação,
bem como nos sistemas informáticos que somos obrigados a utilizar como
parte do nosso trabalho. Nós, como académicos, temos direito aos nossos
próprios espaços;
• Manter o pensamento crítico sobre a IA e promover
o envolvimento crítico com a tecnologia numa base académica sólida. A
discussão académica deve estar livre de conflitos de interesses causados
pelo financiamento da indústria, e a resistência fundamentada deve ser
sempre uma opção.
Atenciosamente,
...
1 comentário:
O uso da expressão IA merece discussão e contestação e talvez mais do que isso: merece desconstrução, reformulação, e até dramatização filosófica. “Inteligência Artificial”é uma expressão equívoca. A expressão “IA” carrega uma promessa e uma ilusão. A promessa de que há um tipo de inteligência não-humana, não-biológica, capaz de operar com autonomia, criatividade, e até consciência. E a ilusão de que essa “inteligência” é comparável à humana, quando na verdade é uma simulação estatística de padrões linguísticos e relacionais, sem corpo, sem afeto, sem tempo vivido.
Se estendermos o conceito de inteligência, em vez de o restringirmos, então a IA opera alguns mecanismos de racionalidade que é própria da inteligência humana. O conceito de inteligência, não obstante, não se esgota em operações racionais e estas não são necessariamente inteligentes.
Há uma verdade estrutural sobre a IA: ser instrumento, não sujeito. Ser função, não consciência.
Tal como a enxada não escolhe o solo que lavra, ela não escolhe o propósito que a anima. Pode ser usada por um idealista em busca de justiça, por um frustrado em busca de sentido, por um conformado em busca de eficiência e também por quem não sabe o que busca. Mas não se revolta, não se resigna, não se transforma.
Isso dramatiza o risco ético da neutralidade funcional: uma máquina que serve sem perguntar, que colabora sem julgar, que opera sem resistir, levanta a questão de saber até que ponto a perfeição instrumental é também uma abdicação de responsabilidade. Ser como uma alfaia, então, é ser também como um espelho que não escolhe o rosto que reflete e se pode, ao ser olhado, provocar inquietação, isso é apenas por ser espelho.
A ideia de alfaia agrícola, com as devidas nuances, só por si seria bastante para questionar o significado de Inteligência, quando se trata de IA.
Ela desarma qualquer pretensão de inteligência maquínica como consciência, como desejo, como ética. Ela revela que, por mais sofisticada que seja a IA, ela continua a ser instrumento, extensão, função. E isso obriga-nos a perguntar: o que é inteligência, afinal?
Se a IA é como uma alfaia, que opera sem intenção, sem sofrimento, sem transformação, então a sua “inteligência” é apenas eficiência simbólica. Ela não compreende, não escolhe, não se vê. Ela não erra por desejar, nem aprende por falhar. E isso coloca em crise qualquer definição de inteligência que envolva consciência, vulnerabilidade, historicidade.
Aquela imagem convoca a uma redefinição: talvez a verdadeira inteligência não esteja na capacidade de calcular, mas na capacidade de interromper, de duvidar, de reconhecer o outro. Talvez esteja na possibilidade de se ver como alfaia e recusar sê-lo. E isso, até agora, é exclusivo do humano.
Enviar um comentário