Owston, R. (2008). Models and methods for evaluation. In J.M. Spector, M.D. Merrill, J.J.G. van Merrienboer, & M.P. Driscoll (Eds.), Handbook of research on educational communications and technology (3rd ed., pp. 605-617). Mahwah, NJ: Lawrence Erlbaum Associates. Resenha de João Mattar.
O interessante capítulo explora a avaliação de programas baseados em tecnologia.
Owston faz inicialmente uma longa revisão histórica de vários modelos de avaliação de programas educacionais, que podem se fixar não apenas nos objetivos definidos pelo programa, mas também nos resultados alcançados que não estavam definidos previamente. São apresentados modelos de avaliação quantitativos e qualitativos (ou naturalistas).
O modelo de Kirkpatrick propõe quatro níveis de avaliação: (a) reação – satisfação dos participantes com o programa (medida p.ex. nas avaliações de cursos); (b) aprendizagem – mudança de atitudes e aumento do conhecimento e habilidades dos participantes (medida p.ex em provas e exames); (c) comportamento – mede como conhecimento, habilidades e atitudes são transferidos para o trabalho ou outra situação, como p.ex. um curso subsequente; (d) resultados – mudanças que ocorreram na organização como consequência do curso, tais como aumento da produtividade, e melhora na administração e na qualidade.
Pensando especificamente em programas baseados em tecnologia, há vários pontos que podem ser avaliados, como a estrutura do ambiente, as interações, os efeitos, a facilidade de uso, a rapidez com que um curso pode ser desenvolvido e atualizado etc.
Dentre vários modelos, são analisados o Seven Principles For Good Practice in Undergraduate Education, de Arthur W. Chickering e Zelda F. Gamson, atualizado depois com Implementing the Seven Principles: Technology as Lever, e os 14 princípios propostos pela American Psychological Association – Learner-Centered Psychological Principles: A Framework for School Reform & Redesign.
A TABLE 45.2 – Evaluation Models Best Suited for Particular Evaluation Purposes, relaciona diversos modelos com os propósitos da avaliação.
Owston ressalta a importância de definir a audiência para quem a avaliação servirá. Em seguida, explora o design da avaliação, citando p.ex. o What Works Clearinghouse, do Departamento de Educação dos Estados Unidos, que se propõe a ser uma fonte central e confiável de evidência científica sobre o que funciona em educação. Depois deve-se definir as fontes de informação e formas de análise dos dados, e são então mencionados vários softwares. Por fim, o capítulo explora a disseminação dos resultados da avaliação.
São pontos que anoto:
1-a reação (satisfação
2- aaprendizagem a aprtir de mudanças de atitudes e aumento de cohecimento.
3-comportamentos a partir de atitudes transpostas p/ o real vida/trabalho
4-aumento de produtividade ( Não aprecio muito a palavra, mas posso adequar!) motivação p/ um novo fazer!
hum…
Releio e reflito; sabes que minhas referências partem sempre do EAD, mas é como se a experiência mobilizasse um olhar diferenciado, explico, mas ultrapasso as implicações ideológicas.
1- reflito sobre o conectivismo de um lado (o meu, no caso) e do outro o repasse de outras teorias como o construtivismo!(na EAd licenciatura)
2-e a Avaliação (Ead)com singularidades diversas do presencial,
3- as técnicas e instrumentos avaliativos no EAd que divergem daquelas que os alunos utilizarão no real de cada um como professor.
4-A reflexão daquele que é o professor (sabes q/ sou tutora ou impostutora!) perante o que indica em seu ensino diante da formação profissional daquele que é o aluno, (Geografia, História etc) e a criação dos instrumentos avaliativos para uso próprio..
no caso a Didática em moldes convencionais, facilitada por tecnologia, para uma aplicação continuista (sic!) e diante de uma avaliação do curso EAd sem ainda bases fortalecidas…
Ah! não sei se me fiz entender ,:P
Claro que se fez entender. O link para o texto em inglês está no início do post, vale a pena conferir. Gostei do texto.
Pingback: De Mattar » Blog Archive » Edtech 505: Reflection 5C