sábado, 20 de junho de 2009

Exames e Radicalismos 2

Segunda parte do texto de Filipe Oliveira sobre exames:

Da utilidade dos exames


“Ainda entre as razões que habitualmente são enunciadas para justificar os exames, por vezes aponta-se a necessidade de dar credibilidade ao sistema. Mas será que quem a enuncia quer dizer que os professores são competentes para ensinar, mas não o são para avaliar?”


Este argumento é incompreensível, pois não se trata de saber se os professores são ou não competentes para avaliar os seus alunos. Alguns professores têm critérios muito exigentes na sua avaliação. Outros são mais permissivos, sem que para tanto se possa dizer que fazem um pior trabalho. Uns dão mais importância a certos aspectos em detrimento de outros. Alguns são mesmo incompetentes, como em qualquer profissão. Em rigor, há muito que os especialistas em docimologia recomendam que haja momentos em que os professores que ensinam não avaliem com fins de classificação, pois o contacto que têm com os alunos durante todo o ano, ou no decorrer dos vários anos, pode enviesar o processo e retirar-lhe objectividade.

Por outro lado, é sabido que certas escolas tendem a inflacionar os resultados dos seus alunos, por razões diversas. Desta manta de retalhos de vontades, atitudes e idiossincrasias, obter dados objectivos que permitam estudar correctamente a evolução do Ensino em Portugal e, simultaneamente, seriar com justiça os alunos que concorrem, por exemplo, ao Ensino Superior, parece muito difícil sem exames nacionais. É certo que a seriação não é perfeita, mas esse é o argumento seguinte de LS, como sempre na forma interrogativa sem tomar posição:

“Os exames têm por função seriar. Mas até que ponto é que essa seriação permite ter alguma confiança?”


De facto, existem muitos estudos do início do século XX que mostram que factores externos ao que se pretende medir podem afectar os resultados dos exames. Há quem conclua que por essa razão devem ser postos de parte. Esta lógica nihilista e radical, que muitos “especialistas” em avaliação defendem, baseia-se uma vez mais num erro de lógica. De facto, a negação da afirmação “Os exames são totalmente fiáveis” não é, como se quer dar a crer, “Os exames não têm qualquer fiabilidade”, mas simplesmente “Os exames não são totalmente fiáveis”. E os defeitos podem ser corrigidos, sendo hoje possível construir exames de uma eficácia arrasadora. Na realidade, ignora-se por completo muito trabalho que foi feito a partir dos anos 20 por especialistas em Ensino e que permite melhorar substancialmente a qualidade dos exames. Desistir dos exames é um pouco como desistir de fabricar e melhorar um dado medicamento por este não se mostrar totalmente eficaz no tratamento de alguns doentes.

Do “facilitismo”

À pergunta “Algumas associações de professores acusam o Ministério da Educação de produzir provas cada vez mais fáceis. Concorda?”, responde LS:

“Para dizermos que são mais fáceis ou mais difíceis, temos de recorrer a técnicas que permitem perceber o grau de dificuldade das questões e elaborar provas que possam ser comparáveis.(…)”

Fantástico! Mais uma vez se foge à pergunta. “Temos comparado apenas resultados das provas?”

“Exactamente. Na sociedade portuguesa temos esta tentação: se os resultados são maus, diz-se que os alunos não sabem nada; se os resultados melhoram, é porque as provas se tornaram mais fáceis. Com esta lógica não vamos conseguir progredir.”


Quem lê LS fica convencido que os comentários das associações de professores são feitos depois de os resultados serem divulgados. Nada mais longe da realidade. Por exemplo, todos os pareceres da Sociedade Portuguesa de Matemática (SPM) são redigidos no próprio dia da prova, assim que ela se torna pública. Em 2008, a SPM declarou que o Exame Nacional de Matemática A (12º ano) era anormalmente fácil. Verificou-se a posteriori uma subida da média de 3,5 pontos em 20 relativamente a 2007, atingindo-se o valor recorde de 14 valores. Situação similar aconteceu com o Exame Nacional do 9º ano, em que o número de escolas com média positiva passou de cerca de 200 para mais de 1000. No dia da prova da 2ª fase de Matemática A, a SPM declarou que o nível de dificuldade da prova subiu relativamente à 1ª fase. A média, veio-se a saber, desceu mais de 3 valores, situação inédita se atendermos aos resultados nos últimos anos (as médias das duas fases costumam ser comparáveis). Ou seja, os pareceres das referidas associações de professores têm capacidade de previsão. E a capacidade de previsão é um dos mais importantes critérios que permitem validar uma metodologia científica. A SPM não se limita a comentar resultados: prevê resultados após o estudo técnico das questões.

Prossegue LS:

“O ano passado foi o primeira vez que em Portugal foram construídas provas que pudessem ser comparadas com as do ano anterior. Nunca tal tinha sido feito.(…)”

Nesta curta frase, ficamos a saber duas coisas: que afinal é possível fazer exames fiáveis e que o Ministério da Educação, com o auxílio dos “especialistas” a que habitualmente recorre, não tem feito um trabalho muito sério nos anos anteriores.

LS é então confrontada com a pergunta: “Como é que explica então o crescimento das médias a Matemática entre 2006 e 2008?”

“É natural que os novos programas de Matemática de 2002 estejam agora a produzir resultados(…) Os exames evoluíram mais depressa do que a própria prática e experiência de aprendizagem dos alunos, mas neste momento o trabalho dos professores e dos alunos está muito mais consonante e é natural que havendo maior coerência entre aquilo que se ensina, aprende e testa haja melhores resultados.”

O argumento parece ser o seguinte: os alunos demoraram um pouco a reagir a alterações feitas a partir de 2002. Mas, finalmente, entre 2006 e 2008, alunos e professores “entraram em consonância”, o que explica o salto das médias. Isto é naturalmente falso. Estamos a falar de uma subida de 6 pontos em 20 em dois anos. Só entre 2007 e 2008, a média subiu 3,5 pontos. Não existe nenhum sistema de ensino que possa evoluir a esta velocidade! A única explicação plausível é, obviamente, uma acentuada descida do nível de dificuldade das provas. Aliás, esta descida foi notada por professores e alunos. Como disse acima, vários observadores a denunciaram muito antes dos resultados serem conhecidos.

Precisamos de especialistas em Ensino com posições claras, coerentes, ponderadas e sustentadas. Que não se limitem a discursar na forma interrogativa, atacando de forma desastrada os argumentos que vão de encontro às suas ideologias. Que aceitem analisar objectivamente os vários lados das diferentes polémicas, que aliás são (ou deveriam ser) de natureza científica e não ideológica. Precisamos de bons especialistas que não hesitem em dialogar de maneira franca e aberta com cientistas de outras áreas, em particular daquelas áreas leccionadas no Ensino Básico e Secundário. Só assim se podem gerar consensos que possam vir a melhorar o nosso débil sistema de ensino. Com radicalismo doutrinário e impermeável à razão, dificilmente haverá progressos.

Filipe Oliveira

3 comentários:

Fartinho da Silva disse...

Excelente trabalho!

Anónimo disse...

O Filipe alia uma inteligência clara e rara a uma visão sem falsos academismos sobre o ensino. Faz-nos falta mais gente deste calibre. Não deveria ser ele co-autor deste blog?

Anónimo disse...

Concordo em absoluto com o Filipe Oliveira.

João Moreira

50 ANOS DE CIÊNCIA EM PORTUGAL: UM DEPOIMENTO PESSOAL

 Meu artigo no último As Artes entre as Letras (no foto minha no Verão de 1975 quando participei no Youth Science Fortnight em Londres; esto...