quinta-feira, 27 de novembro de 2025

CARTA ABERTA 2: Quem recusa o apelo para adotar a GenAI na educação

Transcrevo, abaixo, uma segunda carta aberta (a primeira encontra-se aqui) que leva a ponderar o uso de mecanismos de "inteligência artificial" nas instituições de ensino superior. O seu título é  Who Refuse the Call to Adopt GenAI in Education, tem como primeira signatária Melanie Dusseau da University of Findlay, Findlay e foi publicada em Julho deste ano.

Espero que a tradução que apresento não desvirtue a letra dos seus signatários os quais declararam recusar esses mecanismos na educação.


Somos uma comunidade global de profissionais da educação que se recusa a adotar a IA generativa (GenAI) em escolas e faculdades e rejeita a narrativa de sua inevitabilidade.

Na sua essência, a educação é um projeto que visa orientar os alunos para exercerem a sua autonomia no mundo. Por meio da educação, devem ser capacitados a participar de forma significativa na sociedade, na indústria e no planeta. Mas, na sua forma atual, a GenAI é prejudicial à autonomia dos alunos, dos educadores e dos profissionais.

As tecnologias GenAI atuais representam danos legais, éticos e ambientais inaceitáveis, incluindo exploração do trabalho, pirataria do trabalho de inúmeros criadores e artistas, veiculação de preconceitos prejudiciais, produção em massa de desinformação e reversão da trajetória global de redução de emissões.

A GenAI é uma ameaça à aprendizagem e ao bem-estar dos alunos. Não há evidências suficientes de que o uso da GenAI pelos alunos constitua um verdadeiro ganho na aprendizagem, apesar de haver uma enorme força de marketing para fazer crer que os seus produtos são essenciais para o futuro dos alunos, para a sua vida. Os jovens que utilizam chatbots antropomorfizados são vulneráveis à adição psicológica e emocional. As «relações» com a GenAI desencadeiam problemas de saúde mental, ruturas nas relações humanas e, nos piores casos, tentativas e suicídios consumados.

Além disso, a adoção da GenAI na indústria visa predominantemente automatizar e substituir o esforço humano, muitas vezes com a expectativa de que a futura «AGI» tornará obsoleto o trabalho intelectual e criativo humano. Esta é uma narrativa da qual não faremos parte.

Não apoiamos o uso da GenAI na educação. Comprometemo-nos a respeitar os seguintes princípios no nosso trabalho e apelamos às instituições educativas, aos diretores escolares e aos decisores políticos para que respeitem o nosso direito de os implementar.
 
1. Não utilizaremos a IA genérica para avaliar ou fornecer feedback acerca do trabalho dos alunos, nem para conceber qualquer parte dos nossos cursos. 
2. Não promoveremos produtos de IA gerada por computador baseados em modelos desenvolvidos de forma anti-ética, como ChatGPT, Claude, Copilot, Gemini, Grok ou Llama. Não permitiremos que parcerias corporativas-institucionais comprometam a nossa liberdade académica. 
3. Não aceitaremos sem provas as vendas por parte de pessoas que não são educadores, nem espalharemos exageros em detrimento da aprendizagem dos alunos e da pedagogia dinâmica.
4. Não ensinaremos os nossos alunos a usar ferramentas de IA generativa para substituir o próprio esforço intelectual. Não podemos corroborar a automação e a exploração do trabalho intelectual e criativo. 
5. Não pediremos aos alunos ou funcionários que violem o espírito da integridade académica promovendo o uso de produtos anti-éticos. 
6. Não reescreveremos o currículo para inserir IA generativa com o objetivo de «estruturar a alfabetização em IA».
7. Não contribuiremos para a erosão da liberdade académica e da função dos educadores, forçando-os a aderir a tecnologias que se consideram anti-éticas.
8. Respeitamos também os direitos dos estudantes de resistir e recusar.

 

terça-feira, 25 de novembro de 2025

CARTA ABERTA 1: "PARE-SE COM A ADOPÇÃO ACRÍTICA DE TECNOLOGIAS DE IA NO MEIO ACADÉMICO"

Aos professores universitários chegam, com frequência crescente e de diversas fontes e formas, incentivos para que usem a dita "inteligência artificial" no seu ensino. Em geral, esses incentivos redundam no velhíssimo argumento de que é preciso "inovar", guarda-chuva de outros não menos velhos, como urgência de "construir o futuro", "necessidade de redefinir a aprendizagem", "potenciar o pensamento crítico e criativo". E, claro, estribado na potente TINA: "não há alternativa", é "inevitável".

A pressa e a pressão colocada nos professores não tem, contudo, sido impedimento para alguns de ponderarem esse inventivo e tomarem uma posição. Encontrei duas cartas abertas de professores universitários, com as mais variadas formações e interesses de investigação, que concretizam este propósito e que trago aqui a título de exemplo.

Transcrevo abaixo uma delas, reservando a outra para texto posterior. Espero que a tradução que apresento não tenha desvirtuado a letra dos seus signatários. Permiti-me introduzir alguns destaques nas passagens que mais valorizei com base na ideia de educação que entendo dever guiar a Universidade.

A carta, com o título Stop the Uncritical Adoption of AI Technologies in Academia, foi publicada em junho de 2025 e assinada, em primeiro lugar, por Olivia Guest, professora de Computational Cognitive Science, Cognitive Science & Artificial Intelligence do Department and Donders Centre for Cognition, Radboud University Nijmegen

Prezadas Universidades dos Países Baixos, Universidades Neerlandesas de Ciências Aplicadas e Respetivos Conselhos Executivos,

Com esta carta, assumimos uma posição de princípio contra a proliferação das chamadas tecnologias de «IA» nas universidades. Estando em instituições de ensino, não podemos tolerar o uso acrítico da IA por estudantes, professores ou gestores. Apelamos também à reconsideração de quaisquer relações financeiras diretas entre universidades holandesas e empresas de IA. A introdução irrestrita da tecnologia de IA leva à violação do espírito da lei Al da UE pois compromete os valores pedagógicos básicos e os princípios da integridade científica, impede-nos de manter os padrões de independência e transparência, e o mais preocupante é que o uso da IA tem demonstrado prejudicar a aprendizagem e enfraquecer o pensamento crítico.

Como académicos, e especialmente como educadores, temos a responsabilidade de educar os nossos alunos, não de aprovar diplomas sem qualquer relação com as competências de nível universitário. O nosso dever é cultivar o pensamento crítico e a honestidade intelectual, e não é nosso papel policiar ou promover a fraude, nem normalizar a restrição do pensamento profundo por parte dos nossos alunos e orientandos. 

As universidades têm como objetivo o envolvimento profundo com a matéria. O objetivo da formação académica não é resolver problemas da forma mais eficiente e rápida possível, mas desenvolver competências para identificar e lidar com problemas novos, que nunca foram resolvidos antes. Esperamos que os alunos tenham espaço e tempo para formar as suas próprias opiniões profundamente ponderadas, informadas pela nossa experiência e alimentadas pelos nossos espaços educativos. 

Esses espaços devem ser protegidos da publicidade da indústria, e o nosso financiamento não deve ser mal gasto em empresas com fins lucrativos, que oferecem pouco em troca e desqualificam ativamente os nossos alunos. Até mesmo o próprio termo «Inteligência Artificial» (que cientificamente se refere a um campo de estudo académico) é amplamente mal utilizado, com a falta de clareza conceptual, aproveitada para promover as agendas da indústria e minar as discussões académicas. É nossa tarefa desmistificar e desafiar a «IA» no nosso ensino, investigação e no nosso envolvimento com a sociedade.

Devemos proteger e cultivar o ecossistema do conhecimento humano. Os modelos de IA podem imitar a aparência de trabalhos académicos, mas (por construção) não se preocupam com a verdade — o resultado é uma torrente de «informações» não verificadas, mas que soam convincentes. Na melhor das hipóteses, esses resultados são acidentalmente verdadeiros, mas geralmente sem citações, divorciados do raciocínio humano e da rede académica da qual são roubados. Na pior das hipóteses, são confiantemente errados. Ambos os resultados são perigosos para o ecossistema.

As tecnologias de IA exageradas, como chatbots, grandes modelos de linguagem e produtos relacionados, são apenas isso: produtos que a indústria tecnológica, tal como as indústrias do tabaco e do petróleo, produz para obter lucro e em contradição com os valores da sustentabilidade ecológica, dignidade humana, salvaguarda pedagógica, privacidade de dados, integridade científica e democracia. 

Esses produtos de «IA» são material e psicologicamente prejudiciais à capacidade dos nossos alunos de escrever e pensar por si próprios, beneficiando, em vez disso, investidores e empresas multinacionais. Como estratégia de marketing para introduzir tais ferramentas na sala de aula, as empresas afirmam falsamente que os alunos são preguiçosos ou carecem de competências de escrita. Condenamos essas afirmações e reafirmamos a autonomia dos alunos face ao controlo corporativo.

Já passámos por isso antes com o tabaco, o petróleo e muitas outras indústrias nocivas que não têm os nossos interesses em mente e que são indiferentes ao progresso académico dos nossos alunos e à integridade dos nossos processos académicos.

Apelamos a todos para:

Resistir à introdução da IA, nos nossos próprios sistemas de software, desde a Microsoft à OpenAI e à Apple. Não é do nosso interesse permitir que os nossos processos sejam corrompidos e ceder os nossos dados para serem usados no treino de modelos que não só são inúteis para nós, como também prejudiciais;
Proibir o uso da IA na sala de aula para trabalhos dos alunos, da mesma forma que proibimos fábricas de ensaios e outras formas de plágio. Os alunos devem ser protegidos contra a desqualificação e ter espaço e tempo para realizar as suas tarefas por conta própria;
Deixar de normalizar o hype da IA e as mentiras que prevalecem na forma como a indústria tecnológica enquadra estas tecnologias. As tecnologias não têm as capacidades anunciadas e a sua adoção coloca os alunos e os académicos em risco de violar padrões éticos, legais, académicos e científicos de fiabilidade, sustentabilidade e segurança;
Fortalecer a nossa liberdade académica como profissionais universitários para fazer cumprir estes princípios e padrões nas nossas salas de aula e na nossa investigação, bem como nos sistemas informáticos que somos obrigados a utilizar como parte do nosso trabalho. Nós, como académicos, temos direito aos nossos próprios espaços;
Manter o pensamento crítico sobre a IA e promover o envolvimento crítico com a tecnologia numa base académica sólida. A discussão académica deve estar livre de conflitos de interesses causados pelo financiamento da indústria, e a resistência fundamentada deve ser sempre uma opção.

Atenciosamente,
... 

Sugiro ao leitor que consulte a lista de signatários da carta, bem como a extensa e relevante lista bibliográfica que usaram para a sua redacção (ver aqui).

segunda-feira, 24 de novembro de 2025

A escola pública está exposta à massificação das gigantes tecnológicas

A escola pública está em queda e o país resignou-se é o título de um artigo saído hoje no jornal Público, assinado por Paulo Prudêncio (ver aqui ou aqui). É um artigo que, como vários outros saídos ultimamente neste e noutros jornais, deviam ser considerados como documentos de reflexão colectiva nas escolas, nas acções de formação de professores, nas instituições de ensino superior que formam professores. Não digo o mesmo para responsáveis políticos, estejam eles situados a nível nacional ou local, pois nas suas "agendas" constarão outras intenções e pressões para a educação, que não os efectivos fins educação.

Quase no final do artigo, este professor diz o seguinte:

E enquanto o país se convenientemente distrai, crescem brutalmente as desigualdades educativas (...) O investimento financeiro das famílias é decisivo e tem um efeito de bola de neve (...) as escolas para ricos, com propinas elevadas, farão a diferença, até no uso sensato, formativo e não aditivo das tecnologias, e acentuarão as desigualdades. Os colégios internacionais passaram de nove, em 2010, para 18, em 2021, e um grupo privado britânico de escolas para ricos já investiu mais de 300 milhões de euros em Portugal. A escola pública ficará exposta à massificação das gigantes tecnológicas interessadas num “tutor de inteligência artificial por aluno”, na telescola 3.0, na subalternização do papel dos professores e na alocação de hardware de baixa qualidade, e o que resta da inteligência natural parece incapaz de reverter a anestesia do país e a queda da escola pública."

Gostaria de pensar que alguns educadores que estão na escola pública (directores, professores e outros profissionais), conscientes da sua "nobre função", não estejam resignados, nem venham a resignar-se. O texto de Paulo Prudêncio é, de resto, um exemplo de não resignação. Por isso, lhe agradeço o trabalho que teve na sua composição e a coragem de o enviar para publicação.

PS. Permito-me usar palavras suas para compor o título. 

domingo, 23 de novembro de 2025

SUPERVIGILÂNCIA ARTIFICIAL E EDUCAÇÃO ESCOLAR

Há uns anos foi notícia a concretização de um desejo de muitos e de preocupação de tantos outros: a supervigilância electrónica com fins de policiamento de rua (ver aqui), a sua função era captar dados para informação e actuação das autoridades. As razões apresentadas eram, como sempre, nobres: garantir a segurança dos cidadãos, através do combate ao crime, ao mau comportamento, a qualquer desvio humano. Ainda assim, no contexto em que as máquinas foram colocadas - São Francisco, nos Estados Unidos da América - os novos "polícias" desencadearam queixas junto da autarquia, mas daí não resultou a sua proibição, apenas a restrição a espaços privados.

A investigação continuou, evidentemente, a sua marcha e o que se tem seguido é o que leitor já saberá: a supervigilância electrónica armada e dotada de "inteligência artificial": robots e drones associados para garantir a "segurança pública" (ver, por exemplo, aqui): Sim, não estou a falar de contextos de guerra...

Máquinas com super-poderes, em forma de carro, de cão, de humanoide, de carro-humanoide... que executam ordens, mas que também podem tomar "decisões autónomas", sempre "ao serviço das pessoas nunca como uma ameaça para os nossos cidadãos", como justificou um construtor. 

Estão em vários países e são o futuro, foi o que li em diversos sites online. Chegarão, por certo, à Europa. Talvez sejam anunciados em Lisboa, na próxima web summit, que já tem data marcada, por um ministro e um autarca eufóricos. 

Como defender os direitos civis, fundados em valores que custaram a vida a tanta gente, como a liberdade e a justiça, num mundo deslumbrado, hipnotizado por máquinas que os ameaçam? Quer dizer, por máquinas que, é bom não esquecer, são delineadas, programadas e operadas por humanos... Afinal, é sempre o humano... vezes demais contra si próprio.

A resposta que vejo mais viável, ainda que estando longe de oferecer garantias, é o da educação escolar. Num momento crítico da humanidade, é ela que, tal como noutros momentos congéneres, pode abrir a mente, ou algumas mentes, para se ver o que sem ela não se vê ou não se quer ver.

domingo, 16 de novembro de 2025

ComceptCon 2025 dedicada ao tema do "Cancro"

A ComceptCon deste ano é dedicada ao tema do cancro e onde os oradores irão explicar o essencial sobre a doença, falar sobre os tabus, desmistificar mitos, abordar os tratamentos mais recentes e confrontar a desinformação e as falsas curas. Para isso, contaremos com os oradores Nuno Ribeiro (IPATIMUP), Joana Paredes (I3S), Diana Barbosa (Comcept / IHC) e haverá ainda uma roda de conversa participativa. 

A ComceptCon tem com objetivo partilhar a informação mais recente e credível, assim como dar a oportunidade de os participantes conversarem com os especialistas presentes e esclarecerem as suas dúvidas. 

A entrada é gratuita, mas necessita de inscrição para garantir lugares. Podem inscrever-se aqui.

Quando: Sábado, 22 de novembro
Local: Museu de Leiria

Organização: COMCEPT




CARTA ABERTA 2: Quem recusa o apelo para adotar a GenAI na educação

Transcrevo, abaixo, uma segunda carta aberta (a   primeira encontra-se aqui ) que leva a ponderar o uso de mecanismos de "inteligência ...