Boletín informativo de la Sociedad Puertorriqueña de Evaluación úmero 1, Mayo 2009 Box 21380 San Juan, PR 00931 http://www. speval.org Las Leyes de Murphy aplicadas a la Evaluación de Programas Por Ada L. Verdejo Carrión, Ed.D. (2004) 1. Las evaluaciones se dañan en proporción directa a su valor. 2. Nadie puede hacer la evaluación de un programa solo/la. 3. Cuídate el día en que en la evaluación de un programa no tengas nada que corregir. 4. En cualquier recopilación de datos, el resultado que aparenta estar obviamente correcto y que no necesita ser verificado, es precisamente el que está equivocado. 5. Una vez que se hace una evaluación mala, cualquier cosa que se haga para mejorarla, únicamente la va a empeorar. 6. En caso de duda, hágalo parecer convincente. 7. Cualquier plan de evaluación debe poseer un diseño que soporte el peor conjunto de circunstancias. 8. Hacer algo de la manera más difícil es siempre más fácil. 9. Las cosas empeoran cuando están sujetas a presión. 10. En ciertos informes de evaluación, cualquier idea simple será expresada en la forma más complicada. 11. En un informe de evaluación, la explicación sencilla siempre sigue a la solución compleja. 12. En un informe de evaluación, siempre deje espacio para agregar una explicación si algo no funciona. 13.Si parece fácil, en realidad es difícil. Si
parece difícil, es casi imposible. 14. Buscar datos en una evaluación es similar a cuando nos asomamos a un pozo de sacar agua, no podemos asegurar cuán profundo es hasta que no nos metamos dentro de él. 15. Cuando llegue a conclusiones, en caso de dudas, anuncie que la tendencia continuará. 16. Cuando se escoge un modelo de evaluación, una onza de sentido común vale una tonelada de abstracción. 17. La seguridad en la fecha de entrega de un informe de evaluación es totalmente proporcional a la rigidez de su autor/a. 18. Cualquier plan de evaluación hecho a la medida de un programa, siempre se quedará corto. 19. En una evaluación, siempre puede hallar lo que no está buscando. 20. Cuando se toman decisiones, dos monólogos no hacen un diálogo. 21. Nunca especule sobre aquello que puede conocer con certeza. 22. Decidir no decidir, es una decisión. Dejar de decidir es un fracaso. 23. Cuando vaya a diseñar instrumentos para recopilar datos, piense en esta analogía: si lo único que tiene es un martillo, todo lo que vea se parecerá a un clavo. 24. Si su diseño de evaluación no funciona, revise la parte que consideró que era menos importante. 25. El trabajo en equipo en la evaluación es esencial, así se puede dar el lujo de echarle Ia culpa a otro. 26. En una reunión de Comité, hágale una 1
crítica a alguién y automáticamente esto se convertirá en su trabajo. 27. Su informe de evaluación del programa se revisará una semana después de que se haya decidido el futuro del programa.
Periplos y Peripecias de una Evaluadora de Programas Por Ada L. Verdejo Carrión, Ed.D. (2004) 1. Buscando el conocimiento 2. Buscando el intercambio 3. Conociendo a los autores 4. Compartiendo el conocimiento 5. Aplicando lo aprendido, desarrollando y refinando las destrezas 6. Asesorando programas educativos y organizaciones sin fines de lucro de propósitos diversos 7. Buscando a los pares 8. Velando por la calidad de las evaluaciones en Puerto Rico 9. Evaluando mi trabajo de evaluación
Biblioteca selecta en Evaluación de Programas Por María del R. Medina, Ph.D. (2008) 1. Alkin, M.C. (Editor). (2004). Evaluation roots: Tracing theorists’ views and influences. Thosand Oaks, CA: Sage. 2. Aguilar, M.J. & Ander-Egg, E. (1992). Evaluación de servicios y programas sociales. Madrid: Siglo XXI. 3. Joint Committee on Standards for Educational Evaluation (1994). The program evaluation standards (2nd.ed.). Thousands Oaks, CA: Sage. 4. Herman, J., Lyons Morris, L. & FitzGibbon, C. T. (1987). Evaluator’s handbook. Newbury Park, CA: Sage. 5. Madaus, G. F., Scriven, G. F. & Stufflebeam, D. L. (1983). Evaluation models: Viewpoints on educational and human services evaluation. Boston: KluwerNijhoff Publishing. 6. Herman, J. (Editor)(1987). Program evaluation kit. Newbury Park, CA: Sage. [1. Evaluator’s handbook; 2. How to focus evaluation; 3. How to design program
evaluation; 4. How to use qualitative methods in evaluation; 5. How to assess program implementation; 6. How to measure attitutes; 7. How to measure performance and use tests; 8. How to analyze data; 9. How to communicate evaluation] 7. Stufflebeam, D. L., & Shirkfield, A. J. (2007). Evaluation, theory, models & applications. San Francisco, CA: John Wiley & Sons. 8. Patton, M. Q. (2002). Qualitative research and evaluation methods (3rd.ed.). Thosands Oaks, CA:Sage. 9. Weiss, C. H. (1975). Investigación evaluativa: Métodos para determinar la eficiencia de los programas de acción [Traducción al español de Francisco González Aramburo].México, D.F.: Trillas. 10. Worthen, B. R., Sanders, J. R. & Fitzpatrick, J. L (1997), Program evaluation: Alternatives approaches and practical guidelines (2nd. ed.). New York: Longman. Directiva de la Sociedad Puertorriqueña de Evaluación María del R. Medina -- Presidenta Astrid Santiago -- Vice Presidenta Dámaris Matos -- Secretaria Ada L. Verdejo -- Tesorera Richard Román --Vocal Juan Meléndez--Vocal Jeannette Rodríguez -- Vocal Comité de Reglamento Phedra Gelpi Nancy Gómez Brenda Rivera Ada L. Verdejo Haydeé Zayas Comité de Actividades y Capacitación Profesional Cristina Martínez Sandra Torres Astrid Santiago Gloria Rosado Comité de Socios y Socias Richard Román Milagros Martínez Dámaris Matos 2