Showing posts with label Exames Nacionais. Show all posts
Showing posts with label Exames Nacionais. Show all posts

Saturday, October 16, 2010

Ranking de Escolas Secundárias: Ilusão vs. Realidade

Como já vem sendo costume de há uns anos para cá, o Expresso publicou um ranking das escolas secundárias portuguesas, ordenado pela média obtida nos exames nacionais. Como é evidente, não se pode assumir que a qualidade de uma escola esteja perfeitamente espelhada nesse ranking, pois este é um valor algo subjectivo. Por exemplo: uma escola com muitos alunos problemáticos e mal preparados, mas que consegue ensinar-lhes o suficiente para que tenham uma prestação aceitável nos exames é certamente uma boa escola, mas que não irá estar num topo de um ranking destes.

Isto não significa, claro, que por causa disso seja impossível retirar quaisquer conclusões quando olhamos para as tabelas disponibilizadas. Um dado muito importante, por exemplo, tem que ver com a diferença entre a média das classificações externas (exames nacionais) e internas (avaliação contínua feita pela própria escola). Pegando apenas nas escolas que realizaram mais de cem provas, pode-se obter o gráfico seguinte, que mostra as classificações internas e externas em função da posição no ranking.

Vamos assumir algo que não é verdade: os exames nacionais representam a exigência desejável, e o esforço que é necessário fazer para se ter sucesso neles espelha o esforço que a dura realidade do mercado de trabalho exige. Mesmo que isto fosse verdade, as escolas já estariam a enganar os alunos: a classificação interna é sempre superior à classificação externa. Isto leva-nos a uma reflexão importante: frequentemente aparecem directores de escola de prestígio na televisão ou nos jornais a dizer que, nas suas escolas, a exigência é maior do que nos testes ou exames facilitistas fornecidos pelo Ministério da Educação. Sem querer retirar qualquer qualidade a essas escolas, esta questão, como se vê, é dúbia, pois nenhuma escola teve classificação interna inferior à externa. A situação agrava-se ainda mais por termos consciência de que o pressuposto assumido no início deste parágrafo é falso.

No entanto, o mais grave de tudo é o facto de, de uma forma geral, uma linha não acompanhar a outra. Face à descida da linha das classificações externas ao longo da posição no ranking, a linha das classificações internas, com oscilações, vai descendo de forma muito mais lenta, e poucas vezes vem abaixo dos 12 valores. Pode-se ter uma noção melhor deste fenómeno observando o gráfico seguinte, que para cada valor de classificação externa mostra a diferença de classificações nas várias escolas.

Isto é muito grave por duas razões. Primeiro, é uma injustiça para quem aprendeu alguma coisa ao longo do ano mas tem uma média interna idêntica a alguém que não aprendeu nada. Segundo, está-se a mentir aos alunos com piores desempenhos nos exames, por se lhes atribuir classificações internas positivas, não lhes dando uma noção real do que os espera nos exames nacionais. Note-se que, na última escola do ranking, esta diferença foi de 6 valores. Se analisarmos os rankings de disciplinas especialmente problemáticas, que o Expresso também disponibiliza, vamos encontrar situações ainda mais chocantes. Cheguei a ver 9 valores de diferença! Como é possível?! O que é que se anda a ensinar e a exigir aos alunos nestas escolas?

Ao contrário do que muitos apregoam, esta situação vai continuar a aumentar as desigualdades sociais, porque está-se a mentir aos alunos em piores condições de aprendizagem. Em vez de se lhes dar um grande apoio para aprenderem, está-se-lhes a dizer que estão a aprender quando, como se vê, não estão. Esta situação é inaceitável: as escolas não podem ser cápsulas de ilusão onde os alunos vivem felizes e contentes por nunca chumbarem; têm, isso sim, que espelhar a realidade. E a realidade é dura. Quando saírem da escola, essa felicidade ilusória vai terminar, numa altura em que provavelmete já vai ser tarde demais para ainda se prepararem para ela.

Para terminar, mais um dado para reflectir: já só há duas escolas públicas nas primeiras vinte...

Friday, September 17, 2010

Incongruências no GAVE


As funções exponenciais são pela primeira vez introduzidas em Matemática no 12º ano. Nos exames da disciplina, é então frequente fazerem-se questões sobre estas funções num contexto realista, o que é muito fácil, visto que as exponenciais descrevem variados fenómenos da Natureza. Por isso, há muitos problemas sobre populações de coelhos, que crescem exponencialmente. Por outro lado, temos também problemas sobre a concentração de medicamentos no sangue, que decresce de forma exponencial.

Mas estes são apenas dois exemplos entre muitos outros que o GAVE tipicamente utiliza nos exames. Um outro exemplo, surpreendentemente, está relacionado com a actividade de uma substância radioactiva, que decresce de forma exponencial. Diz assim o seguinte exercício de exame:
A actividade R, de qualquer substância radioactiva, é dada, numa certa unidade de medida, pela expressão
R(t)=Ae^(-Bt)
em que A e B são constantes reais positivas e t é o tempo em horas.
A taxa com que a actividade decresce é dada, portanto, por R', a derivada de R. Tratando-se R de uma função exponencial, a sua derivada é ainda uma exponencial, pelo que certamente esta taxa não é constante.

Como se vê, este conhecimento de que a actividade de uma substância radioactiva é descrito por uma exponencial é tão básico em ciências que até é apresentado na disciplina de matemática em problemas deste tipo. Isto torna ainda mais grave o facto do GAVE não ter admitido que errou no exame de Biologia e Geologia, ao considerar que a taxa de decaimento radioactivo seria constante.

Um elemento anónimo do GAVE terá dito, quando uma professora demonstrou o erro citando um livro de referência, que esse livro não se encontrava no âmbito da disciplina, de onde se pode inferir que, para esta pessoa, o conhecimento científico não depende de factos, mas do contexto em que é ensinado. Mas, pelos vistos, até dentro do GAVE este contexto vai variando: em Matemática, a taxa de decaimento da actividade de uma substância radioactiva não é constante; em Biologia e Geologia é.

A ciência nunca esteve tão separada como dentro do GAVE.

Tuesday, September 14, 2010

Leitura Indispensável: "OS ERROS NOS EXAMES", por Carlos Fiolhais


Em Julho do ano passado, escrevi um texto sobre a forma como o GAVE estava a lidar com os erros que iam sendo detectados nos exames e com as críticas que saíam na comunicação social. Os casos foram estranhos e preocupantes: respostas directas a jornais em que o autor expressava a sua opinião pessoal quanto ao facilitismo dos exames num editorial; apressarem-se a colocar o título chamativo "A Sociedade Portuguesa de Química Errou" (sobre um parecer que deu), mas ao mesmo tempo corrigirem um erro sem fazerem qualquer comentário, colocando apenas horas depois um esclarecimento em que aproveitam para se auto-elogiar.

Como sempre, este ano voltaram a haver erros. Mas, mais grave que aparecerem erros em exames que têm um ano para serem preparados, é o GAVE não saber lidar com eles. A leitura deste texto de Carlos Fiolhais é indispensável, pois a história que relata é simplesmente chocante. Uma professora de Biologia e Geologia denunciou um erro num exame, a propósito de uma pergunta de escolha múltipla cuja resposta estava claramente errada, recebendo respostas do GAVE que revelam a falta de conhecimento dos seus responsáveis, e que ignoraram o facto da professora estar correcta. Como termina Fiolhais, Pasmem-se:

os alunos que dominavam a matéria e responderam correctamente tiveram uma resposta considerada errada e, se calhar, não puderam entrar no curso que queriam. E os outros, que sabiam pouco (tão pouco como o GAVE) foram premiados com uns pontos e, quiçá, aí estão colocados. Assim vai o ensino em Portugal...

Wednesday, July 14, 2010

Ensino Básico no caminho certo?


A Sociedade Portuguesa de Matemática (SPM) tem vindo a dizer desde há já algum tempo que os exames de matemática não são comparáveis de ano para ano, mudando constantemente de dificuldade. Não sei se foi o ano passado ou se foi há dois ou três anos, o Ministério da Educação reagiu a esta crítica da SPM dizendo que não é nada disso que se passa, e que na verdade as provas têm sempre a mesma dificuldade e que a subida de notas dos alunos que se revelou nos anos anteriores era consequência das alterações nos programas e da melhor preparação dos alunos.

Como é evidente, ninguém acreditou nisso, talvez à excepção de uma suposta "especialista" em exames nacionais entrevistada pelo Público há algum tempo (infelizmente já não consigo encontrar a entrevista original, mas quanto a isso não há melhor do que ler um texto [parte1 - parte 2] de Filipe Oliveira, que também inclui excertos da entrevista original). À parte dessas excepções, todos sabemos que a SPM tem razão quando diz que os exames têm mudado de dificuldade de ano para ano. E a prova de que a SPM está certa é que os comentários que faz sobre a exigência de cada exame estão sempre em conformidade com as notas que passado algumas semanas são lançadas. O exemplo do exame nacional de 9º ano deste ano foi notável, pois a SPM aplaudiu o aumento de exigência e fez inclusivé bastantes elogios à prova. Consequência: as notas baixaram.

Neste artigo que acabo de citar, Miguel Abreu, o novo presidente da SPM que acabou de suceder a Nuno Crato há uns dias, diz algo absolutamente fundamental no que diz respeito a exames nacionais, embora seja uma coisa de que muita gente se esquece: "Não devem ser os exames a adaptar-se aos alunos (...). O que se tem que fazer é trabalhar para que os alunos obtenham positiva em exames com um nível de exigência adequado e isto consegue-se com um melhor ensino". Resta saber se este caso particular do exame nacional do 9º ano de 2010 é apenas uma gota no oceano, ou se o ensino básico vai, de facto, no caminho certo.