Stuflebeamyelmodelocipp 130811170149-phpapp01

28
Daniel L. Stufflebeam Seminario de Fundamentos de Evaluación Bogotá D.C. 2013 Ma. Denis Cortes, Milton Rojas, Alexis Monsalve Mery Rocha Cuan, Flor Patricia Pedraza, Rubén D. Hernández, Oscar Benavidez, Gilberto Narváez, José Díaz Henao, Yenny Méndez, Sandra C. Jerez, Julio R. Castro

Transcript of Stuflebeamyelmodelocipp 130811170149-phpapp01

Daniel L. Stufflebeam

Seminario de Fundamentos de Evaluación

Bogotá D.C. 2013

Ma. Denis Cortes, Milton Rojas, Alexis Monsalve

Mery Rocha Cuan, Flor Patricia Pedraza, Rubén D. Hernández,

Oscar Benavidez, Gilberto Narváez, José Díaz Henao,

Yenny Méndez, Sandra C. Jerez, Julio R. Castro

Ma. Denis Cortes

Milton Rojas

Alexis Monsalve

Evaluación orientada al perfeccionamiento

Su modelo CIPP fue

concebido como

respuesta a las

necesidades y vacíos

de la evaluación

educativa en la

decada de los 60’s.

Las limitaciones

encontradas al

enfoque tyleriano de

evaluación educativa

centrada en el diseño

experimental, que se

había aplicado por

más de 30 años.

Principalmente por

Contexto 1965, Estados Unidos

Programa ESEA que asignaba recursos a los

distritos escolares de Estados Unidos con el

propósito de mejorar la educación de los más

atrasados y, por ende, mejorar el nivel de todo el

sistema de educación elemental y secundaria.

este programa requería

docentes que evaluaran

sus proyectos

las instituciones escolares no

podrían recibir los recursos

hasta que presentaran un plan

de evaluación de los proyectos

que estaban adelantando

Utilizando el método tyleriano, estas

escuelas intentaron determinar si los

proyectos habían alcanzado sus objetivos

Algunas Universidades y agencias de servicios crearon

programas para apoyar y asesorar estas evaluaciones

en los distritos

• Supuestos nada realistas: los

docentes no estaban

capacitados para realizar la

evaluación de los proyectos

que habían elaborado.

• Los objetivos de los

proyectos no proporcionaban

datos útiles sobre los

estudiantes

• Los objetivos son elaborados

por personas ajenas al

proceso con los estudiantes

• Las necesidades de los

estudiantes no coinciden con

las identificadas en el

• proyecto

• Las pruebas aplicadas para

evaluar el cumplimiento de los

objetivos no se adaptaban a las

necesidades y estados de los

estudiantes más atrasados

• El desarrollo de estos test no

era viable

• La periodicidad en la entrega

de informes era cada año, por

lo que los resultados eran

inoportunos

• Los proyectos no se estaban

implementando realmente en

• las aulas

Stufflebeam dirigió un Centro para promover la teoría y

práctica de la evaluación y contactó a las escuelas públicas de

Ohio para evaluar los proyectos ESEA que se habían propuesto

y encontró que “la evaluación sufría una grave enfermedad”:

Como consecuencia de este fracaso, Stufflebeam propone, en 1966, la

evaluación como un proceso mediante el cual se proporcionara

información útil para la toma de decisiones. Su propuesta fue apoyada

ampliamente en le sector educativo.

En 1969, Phi Delta Kappa creó un comité de estudio nacional sobre la

evaluación, con Stufflebeam como presidente, para valorar el estado de

la evaluación educacional y crear un plan general para la realización de

evaluaciones solventes.

Durante los siguientes años desarrolló los principios de su enfoque de

evaluación, basándose en su experiencia en Ohio:

• Identificar los tipos de decisiones que deben afrontar

• Genera a partir de estos las estrategias evaluativas

• Introduce el concepto de evaluación de proceso, distinta a la

evaluación de producto de Tyler

• Reconoce la importancia de la selección de las metas

• Ausencia de esfuerzo a la hora de evaluar los programas

• Preocupación sobre la evaluación porque el proceso es ambiguo,

inadecuado, superficial y tendencioso

• Escepticismo sobre las visiones de los expertos en evaluación

• Ausencia de directrices para satisfacer los requerimientos

evaluativos

• Malos sistemas para realizar las evaluaciones en su propio marco

• Síndrome de la diferencia no significativa

• Ausencia de una teoría pertinente

Conclusiones del comité:

• No identificar la evaluación con sus métodos: valoración, juicio

profesional, diseño experimental, objetivos y resultados.

• Aunque todos tienen ventajas, individualmente tienen serias

limitaciones.

• Especificaron cinco problemas que debían ser resueltos con el

perfeccionamiento de la teoría evaluativa del CIPP

El informe fue publicado en 1971, y afirmaba que “la

evaluación era víctima de una grave enfermedad”:

Fue fundador del Centro de Evaluación de la

Universidad Estatal de Ohio en 1965 y fue director del

mismo hasta el 2002.

• Profesor de Educación del Centro de Evaluación de la

Universidad de Michigan occidental y Director,

Kalamazoo, 1973.

• Condecorado con el Premio para el destinatario Paul

Lazersfeld Modelo de evaluación de sociedad de

investigación de evaluación, 1985.

• Miembro American Educational Research Association,

Consejo Nacional sobre evaluación en la educación,

Asociación de evaluación.

• Autor del Modelo de evaluación CIPP (Contexto,

Imput, Proceso, Producto) y se caracteriza por estar

orientado a la toma de decisiones.Stufflebeam es colaborador de

renombre en el campo de la evaluación.

• Nacimiento del evaluador como profesión• Evaluación de metas, prestación del servicio, planes de

perfeccionamiento, utilidad del programa• Ética del evaluador.• Vinculación entre la evaluación y el currículo. • Fondos públicos ayudan con investigación• Evaluación anual del rendimiento• Mejora el sistema educativo• Responsabilidad del docente en el logro de objetivos• Intervención desde la infancia temprana

• Juicio de expertos o profesionales

• Toma de decisiones

• Proceso

• Michael Scriven• Eisner• StuflebeamEntre otros

Fuente:-ESTUDIO DE LA EVALUACIÓN CURRICULAR PARA EL MEJORAMIENTO DE LA FORMACIÓN PROFESIONAL EN POSGRADO. Arenas de Ruiz, Bettys-Evaluación de programas, modelos y procedimientos. Martínez Mediano, Catalina 2007,http://www.xtimeline.com/evt/view.aspx?id=1218541

Época de Expansión – Realismo, 1958-1972

• Características • Enfoque representantes

• Principios de la década de 1950 Punto de vista

de Tyler en evaluación fueadoptado

rápidamente.

• (1956) Se publicó la Taxonomía de la

Educación Objetivos.

• NO había una mejora y ampliación de oferta

educativa, personal e instalaciones.

Bloom, Engelhart, Furst, Hill y

Krathwohl.

Época de la Inocencia desde 1946 hasta 1957

• Evaluación distinta a la investigación• Estudios sobre evaluación y su teoría • Estándares para la evaluación• Sistematización de la meta-evaluación• Debate entre los enfoques

positivistas/cuantitativo y fenomenológico/cualitativo

• Especialización de la evaluación y los evaluadores

• Toma de decisiones• Proceso• Explicación y

comprensión de los hechos

• Scriven• Stufflebeam• Guba• LincolnEntre otros

Fuente:-ESTUDIO DE LA EVALUACIÓN CURRICULAR PARA EL MEJORAMIENTO DE LA FORMACIÓN PROFESIONAL EN POSGRADO. Arenas de Ruiz, Bettys -Evaluación de programas, modelos y procedimientos. Martínez Mediano, Catalina 2007,

Fuente: COMPARTIENDO EXPERIENCIAS DE EVALUACION

Mery Rocha Cuan

Flor Patricia Pedraza

Rubén D. Hernández

El modelo Stufflebeam es conocido como CIPP (Contexto,Input, Proceso y producto y se caracteriza por estar orientadoa la toma de decisiones.

Contexto: Esta dimensión se nutre de losdatos.

Imput: Identifica y valora los recursosdisponibles ANTES del programa.

Proceso: Incluye la interrelación dinámicaentre las estructuras del programa y los diversosactores, generando un SISTEMA vincular.

Producto: Los productos (indicadores) sepueden caracterizados por: eficacia, eficiencia,cobertura, pertinencia, adecuación y coherencia

“Debe actuar de acuerdo a principios

aceptados por la sociedad y a criterios de

profesionalidad, emitir juicios sobre la

calidad y el valor educativo del objeto

evaluado y debe asistir a los implicados en la

interpretación y utilización de su información

y sus juicios. Sin embargo, es también su

deber, y su derecho, estar al margen de la

lucha y la responsabilidad política por la

toma de decisiones y por las decisiones

tomadas”

Para mejorar y no como un proceso sancionador,

calificativo. Así en muchas ocasiones es el

percibido por los alumnos/as sobre este proceso.

En la evaluación el proceso está centrado en el

alumno más que en el profesor.

A nivel amplio se hace para ayudar a un grupo de

clientes a juzgar y/o perfeccionar el valor y/o el

merito de algún objeto:

“En efecto, su meta esencial es determinar el valor de

algo que está siendo enjuiciado. De acuerdo con esta

definición, si un estudio no informa de cuán buena o

mala es una cosa, no se trata de una evaluación”.

Oscar Benavidez

Gilberto Narvaez

José Díaz Henao

1. Dirección participativa y evaluación decentros (1996), junto a otrosinvestigadores.

2. Evaluación sistémica. Guía teórica ypráctica (1993), junto a Shinkfield.

3. Guía profesional para la mejora de lossistemas de evaluación del profesorado(1998), junto a McKenna, Nevo y Thoma.

4. Evaluación de la actuación profesional en lasupervisión educativa. Práctica yorientación (1998), junto a Candolfi yCullen.

5. Estándares de evaluación de personal. Cómoevaluar sistemas de evaluación de educadores(2002), fue coordinador de la publicación.

6. Evaluation Theory, Models and Applications,junto a Shinkfield.

7. International Handbook of educationalevaluation, junto a Kellaghan.

8. Evaluación sistemática – guía teórica ypractica.

9. Son 10 unidades en donde se expone elpanorama de la evaluación. Y 8 modelosescogidos de trabajo evaluativo. Este libro sedirige al perfeccionamiento y calidad de losprogramas ofrecidos por las instituciones.

Sandra Cristina Jerez

Yenny Angélica Méndez

Julio Roberto Castro

Se requería una visión de evaluación mas amplia, que más allá de evaluar el alcance de objetivos y metas, permitiera administrar y perfeccionar los programas: Brindando información útil para la toma de decisiones.

Decisiones de realización

Decisiones de reciclaje

Decisiones de planificación

Decisiones de estructura

“La evaluación es el proceso de identificar, obtener y proporcionar información útil y descriptiva acerca del valor y el merito de las metas, la planificación, la realización y el impacto de un objeto determinado, con el fin de servir de guía para la toma de decisiones, solucionar los problemas de responsabilidad y promover la comprensión de los fenómenos implicados

Es una estructura

integral que cubre:

Contexto,

Insumos,

Procesos y

Productos

con canales de

perfeccionamiento

iterativo.

Además, fue

desarrollada bajo

esta misma

premisa

Operaciones regulares del

sistema (que incluyen

distintas actividades

evaluativas)

Justificación

de un cambio

Evaluaciones

periodicas del

contexto

Si

No

Definición de

problemas y

formulación delos

objetivos

¿Existe una

solución

satisfactoria?

Si

Aplicación de la

solución

No

Evaluación de

entrada

¿Se ha encontrado

una estrategia

prometedora?

¿Necesidad de

desarrollo o

comprobacion?

SiNo

No

Si

Realización de un

proyecto especial

Evaluación de

proceso o de

producto

¿rendimiento

satisfactorio?

¿Merece el proyecto

otro intento?

¿Aun necesita o

desea una solucion?FRACASO

Si

Si

Si

No

No

Orientación• Identificar virtudes o defectos del “objeto”• Proporcionar una guía para su

perfeccionamiento

Objetivos• Valorar el estado global• Identificar deficiencias• Identificar virtudes que permitan subsanar

esas deficiencias• Diagnosticar los problemas cuya solución

pueda mejorar el estado del objeto• Caracterizar el marco en que se

desenvuelve el programa• Validar sí las metas y prioridades están en

consonancia con las necesidades a satisfacer

• Proporcionar una base solida para el ajuste de planes y programas

• Establecer metas y prioridades y designar los cambios requeridos.

Valoraciones Análisis

Entrevistas a clientesdel estudio

Acceder a puntos de vista sobre las virtudes, defectos y problemas

Audiencias y Reuniones de comunidad + entrevistasMuestra cuidadosa de clientes

Generar hipótesis adicionales acerca de los cambios necesariosConstrucción de instrumentos de trabajoProporcionar datos de entrada y realizar la contrastar la respuesta de ambos grupos: comunidad y muestra de clientes

Informes existentes Identificar los modelos de trabajo y la información previa

Test diagnostico especial y Experto

Observe y juzgue el valor y el merito del programa

Comité asesor Brinde claridad sobre los aspectos evaluativos y apoye lainterpretación de resultados

Técnica que tienda alconsenso (Delphi)

Asegurar acuerdos sobre: necesidades prioritarias

Taller con clientes Estudio y aplicación de los resultados

Utilidad• Autoridades educativas comuniquen lo referente al estado de desarrollo de un programa. (virtudes, defectos, necesidades, oportunidades y

necesidades prioritarias)• Convencer sobre la conveniencia de invertir recursos en el programa a desarrollar sobre las necesidades identificadas.• Formular objetivos y metas para el desarrollo del personal o la revisión curricular• Realizar acciones focalizadas sobre centros educativos, programas , estudiantes, padres entre otros que requieran atención en áreas

especificas de desarrollo, valorar lo que se ha conseguido durante el proceso de perfeccionamiento.• Decidir sobre la finalización de un plan, programa o proyecto.• Optimizar el uso de recursos o para fortalecer una institución haciéndola mas pequeña, Juzgar los resultados frente a las necesidades

atendidas. Defender la eficacia de los programas, metas y prioridades entre otros.

Orientación• Ayuda a prescribir un programa

mediante el cual se efectúan loscambios necesarios, identificando yexaminando críticamente losmétodos potencialmente aplicables

Objetivos• Prever el éxito, fracaso y eficacia de

un cambio.• Identifica y valora los meritos y

posibilidades de realización de un proyecto de cambio por parte del equipo planificador.

• Identificar y valorar los métodos aplicables, además de fundamentar las razones de su selección desde el un examen detallado.

• Identificar las limitaciones y recursos potencialmente utilizables para el programa.

• Considerar las estrategias alternativas en el contexto de las necesidades y condiciones ambientales; además de desarrollar un plan que sirva para este propósito.

Etapas Análisis

Revisión de literatura, consulta a expertos, servicios de información, propuestas del personal implicado

Revisión del estado de la practica con relación a la satisfacción de las necesidades

Grupo especial de estudio

Organizar la información de la anterior fase que se somete a una investigación para valorar si existen estrategias de soluciones potencialmente aceptables, los métodos propuestos y su efectividad y aconsejar a los involucrados en la búsqueda de una solución.

Búsqueda de renovación por clientes y evaluador

Definir los criterios que debe cumplir la innovación, Estructurar una solicitud de propuestasObtener diversas propuestas y valorarlas según su efectividad y viabilidad potencial.

Análisis por Evaluadores

Audición

Analizar y evaluar propuestas y sugerir como pueden combinarse las mejores características de cada unaPersonal y administradores expresan sus intereses y estiman recursos y barreras, que han de abordarse en la búsqueda de una solución

Técnica del grupo asesorValoraciones por parte de plantel de expertos o test piloto

Dos o mas grupos de expertos fijan los objetivos que justifican la necesidad de un programa, proporcionan especificaciones para la planificación de las propuestas y orientan hacia los criterios de juicio de las diversas respuestas.

Utilidad• Preparar una propuesta para someterla a su valoración por parte del gobierno, quien la financie o quien promueva su operacionalización.• Valorar un programa ya existente y establecer si se opone a lo que se realiza en otras partes o lo que propone la literatura.• Evaluar la relación costo/ beneficio, proporcionar una estructura y un tribunal que decida en situaciones antagónicas sobre la ejecución de

algún tipo de acción. En si a escoger un tipo de acción entre otras posibilidades

Orientación• Comprobación continua de un plan• Proporcionar una guía para su

perfeccionamiento

Objetivos• Proporcionar continua información sobre el

ritmo de desarrollo de las actividades si se ajustan a lo planeado, y el uso eficiente de los recursos.

• Proporcionar una guía para modificar el plan ya que no siempre es posible definir todos los aspectos de un plan.

• Valorar hasta que punto los participantes aceptan y son capaces de desarrollar sus funciones.

• Proporcionar un extenso informe del programa que se esta desarrollando comparándolo con lo planificado, establecer sus costes, saber como se juzga la calidad del trabajo por parte de observadores y participantes

Valoraciones Análisis

Evaluador del

proceso (eje

central)

Reuniones de

personal y grupo

asesor

Evaluador el

proceso y grupo

asesor

Sesiones

informativas

Proceso interactivo

Realizar observaciones sobre la marcha, y encontrar

información y documentación continua.

Revisar el plan del programa y cualquier evaluación

anterior en la que pueda apoyarse para identificar

aspectos relevantes del programa con fines de control

Identificar problemas y cuestiones que deben

plantearse

Desarrollar un esquema general de la recopilación de

datos.

Trazar un panorama sobre el funcionamiento del

programa

Preparar un informe donde se analice lo que se esta

aprendiendo y evidencie los problemas clave.

Analizar junto con los involucrados sus planes de

recopilación de datos.

En si ayudar al personal a llevar a cabo su programa a

través de un proceso de cualificación

Describir las posibles desviaciones del plan original

Proponer ajustes al plan que se desarrolla.

Documentar las variaciones y el efecto que presentan

Utilidad• Obtener información continua sobre el programa para poder desarrollarlo conforme a lo planeado o decidir si se modifica por

considerarse inadecuado.• Convertirse en medio para mantener al personal alerta y al corriente de sus responsabilidades• Establecer si las inversiones se han realizado como se habían propuesto• Proponer su aplicabilidad en otros contextos o instituciones• Constituirse en fuente de información vital para interpretar los resultados de la evaluación del producto

Orientación• Valorar, interpretar y juzgar

los logros de un programa incluyendo los efectos a largo plazo

Objetivos• Valorar el nivel de alcance de

un programa en cuanto a la satisfacción de necesidades que pretendía atender

• Establecer los efectos y resultados de un programa

• Recoger y analizar juicios acerca procedentes de una amplia gama de personas relacionadas con un programa en relación con su éxito.

• Comparar los resultados de un programa con los de otro alternativo

• Examinar los resultados desde muchos puntos de vista.

Valoraciones Análisis

Combinación de técnicas

Obtener una visión amplia de los efectos y proporcionar comprobaciones de los diversos resultados

Test de rendimiento Valorar el trabajo con relación a unas normas previamente escogidas

Valoraciones del trabajo

Valorar los productos del trabajo y compararlos con los esquemas de las necesidades previamente fijadas por los destinatarios del programa

Audiciones o entrevistas

Búsqueda intensiva de resultados inesperados para generar hipótesis acerca de la gama completa de resultados

Investigaciones clínicas

Destinadas confirmar o desmentir las hipótesis elaboradas en el proceso anterior

Encuesta telefónica o por correo

Obtener opiniones y puntos de vista acerca de los resultados del proyecto o programa, presentando ejemplos concretos.

Grupos de cotejo Examinar el trabajo del programa obteniendo los pros y contras de las contribuciones. Identificar y examinar los resultados con relación a un amplio inventario de resultados observados en programas similares

Juicio con jurado Presentar y examinar todas las evidencias disponibles que reflejan el éxito o fracaso de un programa.

Informe sobre resultados

Los informes intermedios: durante cada ciclo para plantear hasta que punto están siendo satisfechas las necesidades fijadasInforme final de ciclo: presentados al finalizar cada ciclo del programa; resume los resultados alcanzados e interpretarlos a la luz de: necesidades, costes, cumplimiento de tareas, los efectos logrados

Utilidad• Evaluar si un programa merece ser prolongado en el tiempo, repetirse o ampliarse a otros ámbitos.• Implicaciones psicológicas: reforzar el trabajo del personal o de los beneficiarios, puede reducir el entusiasmo si los resultados son

deficientes,• Informe de presupuesto y contabilidad para evitar inversiones infructuosas o decidir sobre la conveniencia de abordar una acción similar

Evaluación de

contexto

Evaluación de

entrada

Evaluación de

proceso

Evaluación de

producto

Toma de

decisiones

(orientación

formativa)

Guía para la elección de

objetivos y asignación de

prioridades

Guía para la elección de la

estrategia del programa

Entrada de datos para la

designación del plan de

procedimientos

Guía para la aplicación Guía para la finalización

, continuación,

modificación o entrega

Responsabilizac

ión

(orientación

sanativa)

Relación de objetivos y

bases para su elección

junto con una relación de

necesidades,

oportunidades y

problemas

Relación de la

planificación y la

estrategia escogidas y las

razones de esa elección

entre otras alternativas

Relación del proceso

real

Relación de los logros y

de las decisiones

recicladas

Evaluación de contexto Evaluación de entrada Evaluación de proceso Evaluación de

producto

Objetivo Definir el contexto institucional,

Identificar y valorar la población

y objeto de estudio y valorar sus

necesidades, identificar las

oportunidades de satisfacer las

necesidades, diagnosticar los

problemas que subyacen en las

necesidades y juzgar si los

objetos propuestos son lo

suficientemente coherentes con

las necesidades valoradas.

Identificar y valorar la

capacidad del sistema, las

estrategias de programa

alternativas, la

planificación de

procedimientos para llevar

a cabo las estrategias, los

presupuestos y los

programas.

Identificar o pronosticar,

durante el proceso, los

defectos de la

planificación de

procedimiento o de su

realización, proporcionar

información para las

decisiones

preprogramadas y

describir y juzgar las

actividades y aspectos del

procedimiento.

Recopilar descripciones

y juicios acerca de los

resultados y

relacionados con los

objetivos y la

información

proporcionada por el

contexto, por la

entrada de datos y por

el proceso, e

interpretar su valor y su

mérito.

Método Utilización de métodos como el análisis de sistemas, la inspección, la revisión de documentos, las audiciones, las entrevistas, los test diagnósticos y la técnica Delphi.

Inventariar y analizar los recursos humanos y materiales disponibles, las estrategias de procedimiento referentes a su aplicabilidad, viabilidad y economía. Y utilizar métodos como búsqueda de bibliografía, las visitas a programas ejemplares, los grupos asesores y ensayos piloto.

Controlar las limitaciones potenciales del procedimiento y permanecer alerta ante las que no se esperaban, mediante la obtención de información específica de las decisiones programadas, la descripción del proceso real, la continua interacción con el personal del proyecto y observación de sus actividades.

Definir operacionalmente y valorar los criterios de los resultados, mediante la recopilación de los juicios de los clientes y la realización de análisis cualitativos y cuantitativos.

Relación

con la

toma de

decisiones

en el

proceso

de cambio

Definir el marco que debe ser abarcado, las metas relacionadas con la satisfacción de las necesidades o la utilización de las oportunidades y los objetivos relacionados con la solución de problemas.por ejemplo, la planificación de los cambios necesarios. Y proporcionar una base para juzgár los resultados.

Seleccionar los recursos de apoyo, las estrategias de solución y las planificaciones de procedimientos, esto es, estructurar las actividades de cambio. Y proporcionar una base para juzgár los resultados.

llevar a cabo y perfeccionar la planificación y los procedimientos del programa, esto es, efectuar un control del proceso. Y proporcionar un esbozo del proceso real para utilizarlo más tarde en la interpretación de resultados.

decidir la continuación, finalización, modificación o readaptación de la actividad del cambio. Y presentar un informe claro de los efectos (deseados y no deseados, positivos y negativos).

Stufflebeam, D.L. y Shinkfield, A.J. (1987). Evaluación

sistemática: Guía teórica y práctica. Madrid: Paidós-M.E.C.

http://evaluacionmaestrias.wikifoundry.com/page/Tabla+

Comparativa+de+Modelos+de+Evaluaci%C3%B3n

http://educacionplanetaria.blogspot.com/2010/10/el-

modelo-de-evaluacion-educativa-cipp.html

http://evaluacionparaelperfeccionamiento.blogspot.com/

http://www.uam.es/personal_pdi/stmaria/jmurillo/Investi

gacionEE/Presentaciones/Curso_10/Inv_evaluativa_trabaaj

o.pdf

Ronald Brandt. On evaluation: An interview with Daniel L.

Stufflebeam. January 1978.