quinta-feira, 8 de dezembro de 2022

"Inteligência artificial e educação. Uma visão crítica a partir dos direitos humanos, da democracia e do direito"

Por Cátia Delgado

Empresas multinacionais estão a moldar alunos, professores, agendas políticas nacionais e a nossa compreensão acerca do ensino e da aprendizagem.

O mais recente relatório do Conselho da Europa sobre a relação entre a Inteligência Artificial e a Educação (IA&ED), ARTIFICIAL INTELLIGENCE AND EDUCATION A critical view through the lens of human rights, democracy and the rule of law, devido à reconhecida e amplamente promovida intrusão da primeira face à segunda, vem requerer vigilância, cautela, apelando ao “superior interesse do aluno”. 

Com o objetivo de “fornecer uma visão holística que ajude a assegurar que a IA empodere e não sobrecarregue educadores e alunos, e que os futuros desenvolvimentos e práticas sejam genuinamente para o bem comum”, apresentam-se os principais desafios desta mudança de paradigma educativo, que enumero de forma breve:
- Falta de provas robustas e independentes que sustentem a eficácia da IA para a aprendizagem ou de apoio aos professores;
- Substituição de professores em zonas com professores pouco experientes ou qualificados, como países em desenvolvimento;
- Resultados potencialmente enviesados em dados e algoritmos, pela criação de conteúdos em países tendencialmente ocidentais, desconhecedores das realidades dos jovens nos países em desenvolvimento;
- Falta de confiança nas ferramentas;
- Destituição do papel dos professores, tornados meros organizadores/ facilitadores de tecnologia de sala de aula, encarregados de gerir o comportamento dos alunos e de assegurar que a tecnologia seja ligada; 
- Ferramentas pouco desenvolvidas, sobretudo focadas no apoio à aprendizagem do aluno (tutoria adaptativa) e pouco dirigidas ao apoio do professor;
- Pouca disponibilidade de recursos
- Na avaliação automática das tarefas dos alunos (para poupar tempo ao professor), a IA revela-se incapaz da profundidade de interpretação ou precisão de análise que um professor humano pode dar. 
Utilizada, sobretudo, para automatização de processos relacionados com as admissões dos alunos, simplificação da comunicação, planificação da afetação de recursos e previsão do abandono escolar, as ferramentas de IA são suportadas na ampla recolha de dados, tornando-se capazes de descrever e moldar a personalidade dos alunos: respostas dos alunos às perguntas, o que dizem, o seu estado afetivo (por exemplo, interessados ou distraídos), onde clicam e como movem o seu rato no ecrã, são algumas situações que concorrem para a definição de um perfil extremamente preciso

Declarando o objetivo de melhorar as aprendizagens, definem-se “traços digitais”, que permitem aumentar a compreensão das partes interessadas sobre os comportamentos dos alunos, resultando, depois, na criação de automatismos (plataformas de aprendizagem adaptativa)

Os principais beneficiários destas estratégias são, ainda, os fornecedores de IA&ED (Inteligência Artificial e Educação), uma vez que utilizam os dados com objetivos de gestão de negócio, correndo-se o risco de os objetivos comerciais se sobreporem aos objetivos de melhoria do processo de ensino-aprendizagem, transformando-se, abusiva e inconscientemente, as crianças de todas as salas de aula em fontes de informação para decisões de negócio

Apela-se, assim, à transparência relativamente às taxas de erro dos produtos desenvolvidos e a provas de eficácia mais robustas, pois é certo: 
as empresas multinacionais e os seus produtos não só estão a moldar alunos e professores individuais, mas também questões de agenda relacionadas com a governação e as políticas nacionais. 
Dessa forma, estão a influenciar, em larga escala, a nossa compreensão acerca do ensino e da aprendizagem. Neste âmbito, voltam a assinalar-se “questões incómodas sobre o envolvimento do setor privado na educação e sobre o impacto nos alunos dos seus imperativos comerciais”. 

Levantando importantes questões éticas, o uso dos recursos de IA influencia diversos domínios, de forma explícita ou implícita, como sejam: 
• A pedagogia, privilegiando uma abordagem instrucional behaviorista do ensino-aprendizagem; 
• A personalização da aprendizagem, permitindo a cada aluno trilhar o seu próprio caminho através dos materiais, conduzindo-o, porém, aos mesmos resultados fixos de aprendizagem de todos os outros; 
• Ao monitorizar o perfil dos alunos, torna-se excessivamente intrusiva, minando a legítima expectativa de privacidade do aluno e da sua família;
• O desenvolvimento da cognição humana pode ser comprometido, especialmente durante períodos críticos de desenvolvimento cerebral;
Falta de capacidade das crianças para concederem o consentimento genuinamente informado, assim como para compreenderem o efeito das recomendações e previsões baseadas em IA sobre a sua aprendizagem e sobre os dados que as suas interações com o sistema produzem;
Diminuta adaptabilidade das aplicações para o trabalho com crianças com deficiência;
Objeção ao acompanhamento parental e envolvimento dos pais num processo partilhado entre o ambiente educativo e a família;
Alto risco identificado em sistemas de IA para avaliação de alunos ou destinados à utilização por crianças quanto ao cumprimento de requisitos obrigatórios em relação a dados e gestão de dados, documentação e manutenção de registos, transparência e fornecimento de informação aos utilizadores, supervisão humana, robustez, exatidão e segurança;
Controlo das emoções, uma vez que, ao identificar o estado emocional de um aluno, para o ajudar a passar de um estado afetivo negativo para um positivo, é reconhecida como uma forma de controlo psicológico e comportamental que ameaça a privacidade e a autonomia do aprendente, podendo igualmente infringir direitos humanos e dignidade humana;
• A criação de perfis encobertos, opacos para crianças e suas famílias permitirá direcionar para outras intervenções, frequentemente sem consentimento informado, a partir de sistemas automatizados que monitorizam tudo o que as crianças escrevem no ecrã em tempo real. 
Neste domínio, o relatório em evidência recomenda:
Orientações éticas robustas, de modo a evitar qualquer "lavagem ética” (ética usada como fachada aceitável para justificar a desregulamentação, a autorregulamentação ou a gestão orientada para o mercado); 
Avaliação ética do impacto do uso da IA na educação;
Supervisão, estudo e regulamentação;
Superior interesse do aluno, obrigando criadores e fornecedores de sistemas da IA&ED a alinhar explicitamente a IA por sistemas e estruturas de governação regulados. 
___________________________
Fontes:
Holmes, W., Persson, J., Chounta, I., Wasson, B. & Dimitrova, V. (2022). ARTIFICIAL INTELLIGENCE AND EDUCATION A critical view through the lens of human rights, democracy and the rule of law. Council of Europe.

Sem comentários:

O BRASIL JUNTA-SE AOS PAÍSES QUE PROÍBEM OU RESTRINGEM OS TELEMÓVEIS NA SALA DE AULA E NA ESCOLA

A notícia é da Agência Lusa. Encontrei-a no jornal Expresso (ver aqui ). É, felizmente, quase igual a outras que temos registado no De Rerum...