Método das ciências médicas ganha força na pesquisa sobre educação nos EUA

Publicado em 12 de setembro de 2013 às 09h33min

Tag(s): Ciência



O que funciona na educação científica e na educação matemática? Até recentemente, havia poucas respostas consistentes para essa pergunta - apenas suposições e palpites, exageros de marketing e extrapolações de estudos-piloto de pequeno porte.

No entanto, agora, uma entidade da Secretaria de Educação dos Estados Unidos está começando a reunir alguns dados concretos, usando um método que transformou a medicina: o ensaio clínico randomizado, no qual grupos de indivíduos são distribuídos aleatoriamente para serem tratados com uma terapia experimental.

Uma das conclusões da nova pesquisa é que a escolha dos materiais instrucionais - manuais, guias curriculares, deveres de casa, testes - pode afetar o desempenho do aluno tão profundamente quanto os próprios professores. Uma má escolha de materiais é pelo menos tão ruim quanto um professor de péssima qualidade, e uma boa escolha pode ajudar a compensar deficiências de um mau professor.

Até o momento, o Instituto de Ciências da Educação apoiou 175 estudos randomizados. Entre as descobertas, há o dado de que um popular livro de matemática se mostrou comprovadamente superior a três concorrentes, e que um programa de matemática altamente elogiado de ensino assistido por computador não surtiu efeito algum sobre a aprendizagem.

Outros estudos estão em andamento. Pesquisadores de psicologia cognitiva, por exemplo, estão avaliando um currículo experimental de matemática em Tampa, na Flórida. O instituto fornece às escolas os dados de que elas necessitam para começar a usar métodos que podem melhorar a aprendizagem.

O método para verificar o que funciona e o que não funciona implica outro obstáculo: a maioria dos educadores, incluindo diretores e superintendentes e supervisores de currículo, não sabe que esses dados existem, e muito menos o que eles significam.

Uma pesquisa realizada pelo órgão do governo norte-americano que administra o orçamento da União descobriu que apenas 42% dos distritos escolares já tinham ouvido falar da auditoria. Além disso, não existe algo equivalente a uma Administração de Alimentos e Medicamentos para aprovar os programas de marketing, e as companhias de seguros de saúde se recusam a pagar por tratamentos que não funcionam.

Também não está claro se os dados obtidos por estudos rigorosos poderão ser traduzidos para o mundo real. Pode haver muitos obstáculos, diz Anthony Kelly, professor de psicologia educacional na Universidade George Mason. Os professores podem não seguir o programa, por exemplo.

Outros países não estão mais à frente do que os Estados Unidos, dizem os pesquisadores. Apenas a Grã-Bretanha começou a fazer o tipo de ensaio clínico randomizado, com a ajuda dos americanos. Como disse Peter Tymms, diretor dos indicadores internacionais de desempenho do centro de escolas primárias na Universidade de Durham, na Inglaterra, em um e-mail: "A chamada de alerta foi a percepção em nível nacional, menos de uma década atrás, de que todo o dinheiro gasto na reforma da educação não teve quase nenhum impacto sobre as habilidades básicas". De repente, os estudiosos que há muito defendiam os estudos randomizados começaram a ser ouvidos.

Nos Estados Unidos, o esforço para tornar mais rigorosa a pesquisa em educação começou em 2002, quando o Instituto de Ciências da Educação foi criado e Whitehurst foi nomeado diretor.

- Ao chegar, descobri a fragilidade das pesquisas na área de educação. Elas eram mais humanistas e qualitativas do que focadas na análise de números e na avaliação do impacto - disse Whitehurst.

É mais complicado realizar ensaios clínicos na educação do que na medicina, disse Joseph F. Merlino, diretor da Parceria para o Século 21 da STEM Education, uma organização independente sem fins lucrativos. Na educação, muito do que de fato é eficiente depende do seu objetivo e de como medi-lo. Além disso, há o problema de conseguir escolas que concordem em ser escolhidas aleatoriamente para utilizar um programa novo.

- Fazer com que as escolas se interessem é uma arte. Nós não costumamos ir até elas e dizer: "Você quer fazer parte de um experimento?" Nós dizemos: "Este é um estudo importante, temos coisas a oferecer para vocês" - disse Merlino.

À medida que os esforços da Secretaria de Educação foram sendo colocados em prática ao longo da última década, um padrão ficou claro, disse Robert Boruch, professor de educação e estatística na Universidade da Pensilvânia. A maioria dos programas que haviam sido vendidos como eficazes não eram sustentados por boas evidências. E quando estudos rigorosos foram desenvolvidos, cerca de 90% dos programas que pareciam promissores em pequenos estudos, não científicos, não mostraram surtir efeito positivo sobre o desempenho dos alunos, chegando, em alguns casos, a refletir negativamente no rendimento dos estudantes.

Por exemplo, Michael Garet, vice-presidente dos Institutos Americanos de Pesquisa, um grupo de pesquisa de ciência comportamental e social, conduziu um estudo que treinou professores de matemática da sétima série de um instituto de verão, ajudando-os a entender a matemática que ensinam - como o porquê, ao dividir frações, optam por inverter e multiplicar.

O conhecimento de matemática dos professores melhorou, mas o desempenho dos alunos não. Os resultados foram adicionados à auditoria. Circulava uma piada sobre ela ser a auditoria do que não funciona, disse John Easton, atual diretor do Instituto de Ciências da Educação. Jon Baron, presidente da Coalizão para a Política Baseada em Evidências, uma organização sem fins lucrativos e não partidária, disse que a auditoria mostra por que é importante fazer avaliações rigorosas. Hoje, porém, com um corpo cada vez maior de evidências do que funciona, os pesquisadores querem saber como fazer com que os educadores e o público prestem atenção.

- Se conversarmos com a pessoa sentada ao nosso lado em um avião, 100% delas nunca ouviram falar da auditoria. Elas invariavelmente vão expressar várias opiniões sobre o que as escolas devem ou não fazer, e ser totalmente inconscientes e desinteressados na ideia de que existem evidências concretas - disse Robert Slavin, diretor do Centro de Pesquisa e Reforma em Educação da Universidade Johns Hopkins.

Os educadores raramente têm se saído muito melhor, disse Slavin. Muitas vezes, eles são influenciados pelo marketing, por anedotas ou pela última moda. E, "sempre que as pessoas tentam vender um programa", acrescentou, "elas dizem haver evidências de que ele funciona". Merlino concorda:

- Um grande número de distritos escolares simplesmente segue o que a maioria faz - disse ele, citando o exemplo de um programa de matemática de Cingapura que está na moda e nunca foi rigorosamente comparado com outros programas para que se identificasse se ele é superior ou não.

Fonte: Zero Hora

ADURN Sindicato
84 3211 9236 [email protected]