IMPACTO DE LAS POLÍTICAS DE ASEGURAMIENTO DE LA CALIDAD EN ...
Transcript of IMPACTO DE LAS POLÍTICAS DE ASEGURAMIENTO DE LA CALIDAD EN ...
1
IMPACTO DE LAS POLÍTICAS DE ASEGURAMIENTO DE LA CALIDAD EN PROGRAMAS DE EDUCACIÓN SUPERIOR QUE HAN CONCLUIDO SUS
PROCESOS DE ACREDITACIÓN
Judith Scharager G., M. Teresa Aravena R.
.
2
Contenido I. INTRODUCCIÓN .......................................................................................................... 3
II. MARCO CONCEPTUAL ............................................................................................... 6
III. HIPÓTESIS ............................................................................................................... 12
IV. OBJETIVOS .............................................................................................................. 13
Objetivo general ................................................................................................................... 13
Objetivos específicos: ........................................................................................................... 13
V. METODOLOGÍA ......................................................................................................... 13
Etapa 1 .............................................................................................................................. 14
Conformación base de datos ......................................................................................... 14
Construcción del cuestionario, juicio de expertos y ajustes al instrumento .................. 14
Subida de los instrumentos a sitio web y aplicación piloto .......................................... 15
Envío invitación y cuestionario a participantes ............................................................ 16
Población ....................................................................................................................... 17
Muestra .......................................................................................................................... 18
Instrumentos de recolección de datos............................................................................ 18
Seguimiento a encuestados ........................................................................................... 19
Etapa 3 .............................................................................................................................. 20
VI. RESULTADOS ......................................................................................................... 20
Resultados Objetivo n.°1 .................................................................................................. 21
Resultados Objetivo n.°2 .................................................................................................. 26
Resultados Objetivo n.°3 .................................................................................................. 28
Resultados Objetivo n.°4 .................................................................................................. 30
VII. CONCLUSIONES ..................................................................................................... 40
VIII. REFERENCIAS BIBLIOGRÁFICAS ...................................................................... 45
3
I. Introducción
La motivación para desarrollar esta investigación surge en un escenario de incremento de la
oferta educacional terciaria en el mundo. En Chile, que forma parte de este escenario,
también se ha producido una expansión y diversificación de las instituciones de educación
superior y del perfil de los estudiantes, se han incorporado nuevas tecnologías, modelos de
formación por competencias y las instituciones han integrado en sus agendas la discusión
acerca del perfil de sus egresados y la revisión de los planes de estudio. Estos cambios, que
se han desarrollado progresivamente, configuran hoy una realidad instalada, en la que todo
indica que se integrará y permeará el sistema.
Antes de avanzar con la descripción del marco de análisis, conceptos, datos y evidencias
que sustentan este estudio, se ha resuelto incluir una breve reseña acerca de algunos
antecedentes, para situar en contexto las condiciones actuales de la educación superior,
específicamente en lo relativo a la evaluación de la calidad de los programas de formación.
A partir del año 1981 se estableció un marco normativo que reconoció formalmente nuevos
tipos de instituciones de educación superior no universitaria: los institutos profesionales y
los centros de formación técnica, y más adelante también aquellas dependientes de las
Fuerzas Armadas y de Orden y Seguridad, y de la Policía de Investigaciones.
Desde comienzos de los años noventa al 2000, se desarrollaron e implementaron algunas
políticas de desarrollo de la educación superior, en los que destaca la puesta en marcha de
un Programa de Mejoramiento de la Equidad y la Calidad de la Educación Superior
(MECESUP), que contemplaba las siguientes líneas de acción:
-Fondo Competitivo: pregrado, posgrado y formación de técnicos superiores;
-Aseguramiento de calidad;
-Fortalecimiento institucional;
-Revisión del financiamiento universitario; y
-Sistema de información pública (Brunner, 2009).
4
Dentro del mismo periodo, en el año 1990, se establecieron normativas y prácticas de
creación y reconocimiento oficial de las instituciones de educación superior y se
instituyeron mecanismos formales de información y evaluación de la calidad de los
servicios para este nivel de educación en Chile. En este marco, destaca el trabajo que
llevaron a cabo el Consejo Superior de Educación, la Comisión Nacional de Acreditación
de Pregrado (CNAP) y la Comisión Nacional de Acreditación de Postgrado (CONAP). Con
la conducción de procesos de acreditación para instituciones autónomas, que
voluntariamente se sometieron a evaluación, sentaron las bases para la consolidación del
actual Sistema Nacional de Aseguramiento de la Calidad de la Educación Superior que se
formalizó con la promulgación de la Ley 20.119 en noviembre de 2006 y que, en la
actualidad, enmarca las políticas para el mejoramiento de la educación superior en Chile.
La creación de estos organismos y la puesta en marcha de la fase experimental de procesos
de acreditación de carreras e instituciones impulsó un cambio en el sistema. El desarrollo y
aplicación de instrumentos y procedimientos para llevar a cabo procesos de autoevaluación
y evaluación de pares externos y, la experiencia de más de 450 carreras que participaron de
esta etapa, movilizaron a las instituciones y las estimularon a trabajar por el mejoramiento
de sus programas, estableciendo gradualmente una cultura de evaluación en un medio de
creciente competencia.
En este contexto se han implementado diversos mecanismos y políticas de desarrollo de la
educación superior y se han introducido nuevos modelos de gestión académica, en los que
con distintos matices las instituciones de educación superior han incorporado, espacios de
trabajo para llevar a cabo propuestas de mejora de sus planes de estudio, de innovación de
sus recursos para la enseñanza, de incremento en sus indicadores de eficiencia y de
reclutamiento de mejores estudiantes. Algunas optan por privilegiar esquemas de trabajo
con control y gestión centralizados de análisis institucional y de los programas, mientras
que en otras es cada unidad la que desarrolla procesos de autorregulación en forma
relativamente autónoma. A su vez, todas ellas varían en la medida en que privilegian la
acreditación como un fin o, como un medio para el mejoramiento continuo de la calidad de
sus programas de formación y de la organización institucional en su conjunto.
5
Siguiendo el razonamiento de Stensaker (2008), en el escenario actual en que predomina la
fluidez y permeabilidad en el intercambio y difusión de información, la introducción de
mecanismos de acreditación en un marco de aseguramiento de la calidad, promueven la
transparencia y accesibilidad de la información referida a instituciones de educación
superior, la que se ha integrado en el discurso público, lo que facilita que las personas
interesadas (estudiantes y futuros estudiantes, por ejemplo) tomen decisiones más
informadas.
Con todo, pese al creciente número de actividades de difusión y del interés de
representantes tanto del mundo académico como del mundo de la política pública, la
evidencia acerca del impacto de los mecanismos de aseguramiento de la calidad, es aún
muy escasa. Al revisar lo que se ha publicado en nuestro país en este ámbito, se constata
que no ha habido un desarrollo paralelo de estudios empíricos que investiguen acerca de la
calidad de los programas y de las instituciones que los ofrecen. Los datos que se han
publicado provienen de análisis de muestras muy reducidas de actores vinculados a la
educación terciaria o de análisis de experiencias de casos únicos (Navarro, 2007; Fernández
L., 2006; Rivera y cols., 2009; Zurita, 2004; Monetta, y Muñoz, 2004). En esta misma línea
de argumentación, Lemaitre (2005) señala que el impacto se observa principalmente en el
desarrollo de recursos humanos, en aprendizajes institucionales y en la gestión
institucional. Sin embargo, confirma que no existen estudios formales acerca de las
consecuencias de estos mecanismos, por lo cual su reflexión y aseveraciones las hace a
partir de lo que la autora denomina un “análisis informal” (página 62) acerca de las
consecuencias de los mecanismos de aseguramiento de la calidad y, aunque se fundamentan
en una vasta experiencia, no cuentan con el sustento de datos empíricos sistematizados.
Algunos años más tarde, Zapata y Tejeda (2009) hacen un análisis acerca de los problemas
–también centrados en la experiencia de Chile- para el estudio de los impactos de los
procesos de aseguramiento de calidad y acreditación, entre los que destaca la falta de una
definición consensuada del constructo calidad. En la literatura nacional e internacional, las
publicaciones acerca de la calidad de la educación superior desarrollan conceptualizaciones
6
muy diversas (Bellingham, 2008; Lemaitre, 2007; Proyecto ALFA N.° DCI-ALA/2008/42,
2009; Scharager et al., 2008; Stensaker, 2008; Velasco et al, 2006 entre otras), dejando en
evidencia que es un constructo complejo, dinámico, multidimensional, que se suele definir
por aspectos que faltan o son deficitarios, más que por atributos positivos.
II. Marco conceptual
El propósito de este estudio, fue desarrollar una reconstrucción del impacto de los
procesos de evaluación y acreditación de la calidad de la educación superior en carreras
acreditadas entre los años 2001 y 2006 por CNAP, a través de los juicios de los directivos
de las mismas. Para estos efectos, la propuesta metodológica que condujo a estos
resultados, tiene implícitos algunos conceptos que subyacen a todas las actividades
implementadas. Estos son los conceptos de calidad, acreditación y evaluación.
La calidad es definida de muchas maneras diferentes. Kis (2005), distingue dos corrientes o
posturas en la definición de este concepto, en lo relativo a educación superior. La primera
asocia la calidad a un contexto y se define en general por oposición a elementos o
productos, calificados como pobres o débiles (por ejemplo, estrategias de enseñanza-
aprendizaje, planes de estudio o tasas de titulación de una cohorte). Mientras que una
segunda corriente, define calidad de acuerdo con los significados que les asignan los
distintos grupos de interés, por lo cual no es posible concebir una distinción única. En esta
misma línea, Fernández Lamarra (2007) también señala que éste no es un concepto unívoco
y fijo sino que se construye a través de consensos y negociaciones entre los actores. De esta
manera, para los académicos se refiere principalmente a los saberes, para los empleadores a
competencias, para los estudiantes a la empleabilidad, para la sociedad a ciudadanos
respetables y competentes, para el Estado según la concepción que asuma, puede variar
desde aspectos vinculados con el desarrollo social y humano a la eficiencia, a los costos y a
los requerimientos de capital humano.
En medio de estas disparidades conceptuales, la noción de calidad que se asuma
probablemente va a depender de la fuente consultada, de los marcos de referencia y los
7
propósitos para definir o estudiarla. Esta variedad de enfoques y aproximaciones, hace
difícil definir operativamente y medir el impacto de los procesos de aseguramiento de la
calidad sobre los sistemas y las instituciones de educación superior, dificultando la
generación de evidencia que sitúe en un plano común de comparación las experiencias de
aseguramiento de la calidad de las instituciones de educación superior.
En este contexto de diversidad y polisemia, se estimó necesario contar con un enfoque,
aunque fuese reduccionista, con el fin de orientar las acciones que implica la conducción de
un estudio de esta naturaleza. En estas circunstancias, y dado el hecho que los procesos de
acreditación conducidos por CNAP entre los años 2001 y 2006 estaban organizados sobre
la base de una conceptualización particular de calidad, para efectos de este estudio se
asumió como marco la siguiente definición (operacional) de calidad que orientó a la
administración de los procesos de acreditación por dicho organismo, en el periodo de
interés.
“La siguiente definición operativa de calidad (.....) se concentra en dos
aspectos principales: “consistencia externa”, es decir, el ajuste del programa a
las normas y criterios que defina la comunidad disciplinaria o profesional en
un contexto determinado. La consistencia externa debe vincularse con la
“consistencia interna”, es decir la forma en la que un programa adapta estos
criterios y exigencias externas a las prioridades y los principios que se derivan
de la declaración de misión institucional. La consistencia externa corresponde
a la definición más común de ajuste de los propósitos declarados (fitness of
purpose), que se incorpora a los propósitos institucionales y se traduce en la
forma habitual de medir calidad. La combinación de ambos componentes hace
posible garantizar el cumplimiento de las demandas externas por un lado y,
por otro, la especificación necesaria que entregan las características de la
institución que ofrece el programa (Lemaitre, 2009).
Otro concepto que está implícito en los análisis realizados, es el de evaluación, el que
podemos entender como el proceso de establecer juicios de valor basados en la evidencia
sobre un programa o producto (Smith & Glass, 1987). La finalidad de cualquier evaluación
8
es proporcionar información de la cual se deriven criterios útiles para la toma de decisiones
en relación con la administración y desarrollo del programa a evaluar.
Siguiendo estos lineamientos, en este estudio se adoptó una perspectiva compatible con lo
propuesto por Fernández-Ballesteros (1996) que concibe la evaluación de un programa
como una estrategia que tiene la finalidad de: (1) juzgar si se han alcanzado los objetivos
y (2) determinar si las innovaciones introducidas han tenido algún impacto. Un sistema de
evaluación trata de pronunciarse acerca del valor de un programa (en este caso, una
carrera) con el fin de tomar decisiones sobre su ejecución. Por lo tanto, a partir de sus
resultados se puede establecer si el programa debe continuar implementándose, debe
eliminarse o debe experimentar modificaciones. Dentro de esta perspectiva, se
distinguieron los componentes que se indican en el cuadro n.° 1 y se describen a
continuación.
Componentes de la evaluación La determinación de componentes de evaluación se ha hecho sobre la base de distinciones
que provienen de dos ámbitos distintos. Por un lado, se ha tomado como referencia las
conceptualizaciones de evaluación de programas (Stufflebeam & Shinkfield, 1985; Briones
1985), que reconoce la estructura, el funcionamiento y los resultados de un programa, con
el fin de proporcionar información de la cual se deriven criterios útiles para la toma de
decisiones en relación con su administración y desarrollo; y por otro lado, los criterios de
acreditación nacional de programas de educación superior (CNAP, 2002; CNA, 2009). Los
componentes son:
i. Estructura
Se refiere al modo en que el programa o carrera articula sus recursos materiales y humanosi
en actividades dirigidas al logro de los objetivos, inserto en una institución de educación
superior a la que pertenece. Incluye aspectos como coherencia con los propósitos
institucionales; condiciones normativas (reglamentos, sistemas de información,
mecanismos de retroalimentación, etc.) y estructura organizacional académico-
administrativa del programa. Los factores incluidos en este componente contienen
9
principalmente elementos de las dimensiones Condiciones de Operación y Autorregulación,
de acuerdo con la clasificación de Criterios de Acreditación de carreras que aplicaba
CNAP.
ii. Proceso de formación
Se refiere a aspectos como la organización curricular y los métodos pedagógicos; la
dotación académica; los mecanismos de apoyo a los estudiantes y la calidad y cantidad de
instalaciones e infraestructura, apoyo técnico y recursos para la enseñanza, todos ellos
necesarios para satisfacer plenamente los propósitos. Se superpone con las dimensiones de
Perfil de Egreso y Condiciones de Operación, del sistema de criterios de acreditación.
iii. Resultados
Se refiere a los productos (percepción de la calidad de la formación de egresados, tasas de
titulación, tasas de deserción, por ejemplo) y cumplimiento de los propósitos de la carrera,
tomando en consideración los vínculos con el medio local y disciplinario y las
características del perfil de egreso de los profesionales. Asimismo, se incluyen aspectos de
la organización que experimentan transformaciones, a partir de las acciones de
aseguramiento de calidad. Estos comprenden aquellos ámbitos institucionales, como son
los sistemas de gobierno, control y autorregulación, estructuras, procedimientos y
elementos de la cultura institucional. Los factores que se evalúan en este componente se
encuentran en las tres dimensiones de criterios de evaluación para la acreditación de
carreras.
Con el objeto de integrar estas categorías de análisis con las dimensiones empleadas en el
sistema de evaluación para la acreditación en Chile, se construyó una matriz que los
combina (criterios aplicados en la acreditación y componentes de la evaluación, según los
autores citados), como se muestra en el cuadro n.° 1.
De esta manera, el componente Estructura se relaciona con los criterios CNAP incluidos en
la dimensiones Condiciones de Operación y Capacidad de Autorregulación; el componente
Proceso de Formación con los criterios de Perfil de Egreso y Resultados, y Condiciones de
10
Operación; y el componente Resultados e Impacto con las tres dimensiones. Para efectos de
análisis y presentación de resultados, se hará referencia a las distinciones de criterios
utilizados en el ámbito de la acreditación de carreras, precisando el componente de la
matriz de evaluación de programas (estructura, procesos y resultados).
Cuadro 1. Dimensiones de análisis utilizadas en estudio del impacto de la participación en procesos de acreditación durante el periodo 2001-2006 conducidos por la CNAP.
Componentes de evaluación Criterios de acreditación de
carreras Estructura Proceso de formación Resultados e impacto
Cri
teri
os C
NA
Perfil de egreso y resultados 1. Definición del perfil de
egreso. 2. Estructura curricular 3. Efectividad del proceso de
enseñanza aprendizaje 4. Resultados del proceso de
formación: promedio de tiempo de egreso y titulación, encuestas a egresados, seguimiento.
5. Vinculación con el medio
Organización curricular y los métodos pedagógicos mecanismos de apoyo a los estudiantes,
Formación de los propósitos, tomando en consideración vínculos con el medio local y disciplinario
Condiciones de operación 1. Estructura organizacional,
administrativa y financiera. 2. Recursos humanos. 3. Infraestructura, apoyo
técnico y recursos para la enseñanza
Articulación de recursos materiales y humanos estructura organizacional, académico-administrativa
Dotación académica, infraestructura, apoyo técnico y recursos para la enseñanza
Innovaciones en la gestión de recursos materiales y financieros de la carrera
Capacidad de autorregulación 1. Propósitos 2. Integridad 3. Proceso e informe de
autoevaluación
Calidad de la formulación de objetivos, coherencia con los propósitos de Universidad, condiciones normativas
Cumplimiento objetivos del Programa
Finalmente, una breve explicación de lo que entendemos por acreditación, tercer concepto
transversal de este estudio. La acreditación es una evaluación de la calidad de un programa
con el objeto de determinar si alcanza cierto nivel de un estándar predefinido. La obtención
de la acreditación puede tener distintas consecuencias para las carreras e instituciones. En
Chile, en el periodo en estudio, la acreditación se centraba en el análisis del perfil de egreso
de las carreras y en el cumplimiento de criterios organizados en nueve dimensiones, hecha
11
sobre la base de un proceso de autoevaluación y una evaluación externa conducida por
evaluadores (pares) nacionales y extranjeros. Los resultados del proceso no tenían
consecuencias objetivas para las carreras, ya que no existía una norma que lo regulara ni
asociara beneficios o sanciones a los resultados, de acuerdo con la determinación estipulada
en los dictámenes.
Relevancia de este estudio
La escasez de evidencia acerca del efecto de los procesos de acreditación, pone de
manifiesto la dificultad que conlleva conducir este tipo de estudios, lo que se explica por las
complicaciones de orden conceptual mencionadas, y por dificultades metodológicas
producto de la complejidad que implica la tarea de construir indicadores de calidad. Es muy
difícil aislar factores responsables de los cambios en las instituciones de educación
superior, tal como lo afirman Stensaker (2008) y Amaral (2010), especialmente en Chile
por la confluencia en un mismo intervalo de tiempo, de iniciativas orientadas a igual
propósito, una de las cuales eran los procesos de acreditación de carreras.
Probablemente una de las iniciativas más importantes en este medio en lo concerniente al
estudio de impacto de las políticas de aseguramiento de calidad, sea el que lleva a cabo el
Proyecto ALFA n.° DCI-ALA 2008/42, denominado “Aseguramiento de la Calidad:
políticas públicas y gestión universitaria”, liderado por el Centro Interuniversitario de
Desarrollo, CINDA, con sede en Chile. Este proyecto, aún en curso, “involucra a veintitrés
universidades en doce países latinoamericanos y cuatro países europeos, tiene como
objetivo general evaluar el impacto de los mecanismos de aseguramiento de la calidad en la
perspectiva de políticas públicas, y desarrollar capacidades para una mejor gestión de la
calidad de la educación superior”ii.
A la luz de estos antecedentes, es indiscutible la necesidad de sumar esfuerzos y desarrollar
investigaciones que aborden este tema e intenten dimensionar el impacto que han tenido las
políticas y mecanismos de aseguramiento de la calidad, en particular los procesos de
acreditación, en aquellos programas que participaron en ellos. Alineado con este propósito,
12
el estudio que aquí se presenta, financiado por el Consejo Nacional de Educación, se llevó a
cabo entre los meses de agosto de 2009 y abril de 2010.
Hipótesis
A la base de este estudio existían algunas hipótesis, que se sustentaban en los antecedentes
expuestos, y en el supuesto que las instituciones de educación superior no permanecen
inmutables o indiferentes y experimentan cambios en distintos niveles en un medio como el
descrito. En este marco, se esperaba:
1. encontrar diferencias en las percepciones de impacto en las instituciones producto
de su participación en procesos de acreditación y;
2. encontrar diferencias entre carreras clasificadas en torno a un continuo definido (i)
por la cantidad de carreras sometidas a acreditación institución y (ii) por el tiempo
de acreditación (años) en el periodo de estudio, de modo que:
a) aquellas pertenecientes a las categorías integradas por instituciones
que acreditaron más carreras y por un mayor periodo de tiempo,
presentarían impactos de menor magnitud, que aquellas pertenecientes a
instituciones con menor número de carreras acreditadas y,
b) aquellas pertenecientes a las categorías de instituciones que
acreditaron menor número de carreras, informarían de cambios más
evidentes en las estructuras y funciones de la organización, expresadas
principalmente en la formalización de mecanismos y procesos y en la
dotación de recursos humanos, como consecuencia de la experiencia de
la autoevaluación y evaluación externa.
13
III. Objetivos
Objetivo general
Describir el impacto de las políticas de aseguramiento de la calidad, particularmente los
procesos de acreditación, en carreras que concluyeron su proceso de acreditación con la
CNAP, entre los años 2001 y 2007 desde la perspectiva de informantes que representen a
las Instituciones de Educación Superior que participaron de dichos procesos.
Objetivos específicos:
1. Identificar y jerarquizar cambios y focos del impacto según las tres dimensiones que
orientan la evaluación para la acreditación en Chile.
2. Identificar y caracterizar manifestaciones del desarrollo de una cultura de evaluación y
mejoramiento continuo al interior de las unidades académicas.
3. Identificar ámbitos institucionales involucrados en la implementación de políticas de
aseguramiento de la calidad.
4. Generar perfiles de impacto según carrera, área de conocimiento y tipo de institución,
para los distintos focos y ámbitos.
IV. Metodología Para recolectar evidencia que permitiera poner a prueba las hipótesis y cumplir con los
objetivos, se organizó un procedimiento en dos etapas. Este procedimiento se abocó a la
sistematización de datos que constituyen “cuasi-indicadores” de impacto, más que medir
directamente el impacto a través de indicadores objetivos. Estos “cuasi indicadores” están
conformados por los registros de las percepciones y juicios de los informantes de las
instituciones, acerca de los cambios experimentados en sus organizaciones y programas
después de haber realizado un proceso de acreditación con CNAP. A continuación se
describen las etapas, sus objetivos y resultados.
14
Etapa 1
Esta etapa estuvo dirigida a la elaboración de la base de datos y la construcción de la
primera versión del cuestionario, como se describe a continuación.
Conformación base de datos
Se confeccionó una base de datos con todos los programas acreditados por la CNAP entre
los años 2001 y 2007. Para ello, en el mes de agosto de 2009, se extrajo la información
disponible en la página web ‐a saber, nombre de la institución, área de la carrera, carrera,
sede, jornada, años de acreditación de la carrera y acreditación institucional. En total son
460 programas pertenecientes a 39 instituciones.
Adicionalmente, y para efectos de contacto y posterior seguimiento del cuestionario, se
agregaron los siguientes datos: rector de la institución y su asistente administrativo, director
de la carrera en la época de la acreditación por CNAP, director actual de la carrera,
responsable de la unidad de acreditación o análisis institucional. Para todos ellos se
consignaron sus respectivos correos electrónicos y teléfonos. Esta información comenzó a
ser recopilada en septiembre de 2009, a través del sitio web de las distintas instituciones y
carreras, y en el caso de que éstos no estuvieran disponibles en la web, se procedió a
contactarlos telefónicamente. Esta tarea tomó más tiempo del proyectado inicialmente, ya
que se esperaba tener la base de datos lista a fines de agosto de 2009.
Construcción del cuestionario, juicio de expertos y ajustes al instrumento
Para elaborar el instrumento sobre la base de concepciones que manejaban efectivamente
los actores del sistema, se elaboró, en primer lugar, un cuestionario con preguntas abiertas
que permitiera conocer la noción de calidad de educación superior y la opinión de
representantes de universidades, acerca del impacto de los procesos de acreditación
realizados por CNAP. Los resultados de esta indagación permitieron reunir un material de
gran utilidad para orientar la construcción de las preguntas del instrumento definitivo.
15
Este cuestionario (Instrumento 1), de carácter exploratorio y breve en extensión, contenía
cinco preguntas abiertas, como se aprecia en el anexo n.° 1. Fue respondido por 4
representantes de instituciones de educación superior, a quienes se invitó a participar. Las
instituciones representadas tienen las siguientes características:
1 Institución pública del área metropolitana
1 Institución privada del área metropolitana
1 Institución pública regional
1 Institución privada regional
Los datos obtenidos de este primer cuestionario se analizaron cualitativamente y se
generaron categorías de respuestas, agrupando los resultados de acuerdo a los criterios de
acreditación de carreras CNAP. Los resultados que se presentan en el anexo n.° 2, sirvieron
de insumo para diseñar los reactivos de los cuestionarios definitivos, a saber:
‐ Instrumento 2: cuestionario para representantes institucionales, destinado a
autoridades y encargados de unidades de aseguramiento de calidad de IES.
‐ Instrumento 3: cuestionario para representantes carreras, destinado a directores de
carreras en la época de acreditación CNAP y actuales.
La primera versión de estos dos instrumentos fueron sometidos a juicio de expertos para su
validación. A partir de sus opiniones se realizaron los ajustes necesarios a ambos
instrumentos hasta quedar configurados en su versión final, las cuales están disponibles en
los anexos n.º 3 y 4.
Subida de los instrumentos a sitio web y aplicación piloto
Los tres instrumentos descritos anteriormente se subieron a la web a través de una cuenta
de Question_Pro, que permite diseñar y aplicar cuestionarios en línea, de fácil acceso para
los encuestados.
A mediados del mes de octubre de 2009 se subió a la web el Instrumento 1, el cual fue
contestado por los cuatro representantes de IES en un plazo aproximado de dos semanas.
Tal como ya se ha descrito, a partir de estos resultados se elaboraron los Instrumentos 2 y 3;
16
los cuales, luego de ser sometidos a juicio de expertos y a ajustes necesarios, se subieron a
la web a mediados de diciembre de 2009. Para cada uno de estos instrumentos, se realizó
una aplicación piloto a un pequeño grupo de personas familiarizadas con los tópicos del
proyecto, quienes entregaron su retroalimentación en función de criterios de pertinencia y
accesibilidad.
De acuerdo al proyecto inicial, esta etapa debió haber concluido en el mes octubre de 2009.
El atraso respecto de este plan se debe a dos razones. La primera, producto de la inclusión
del Instrumento 1 que no estaba contemplado en lo comprometido inicialmente, pero que se
consideró necesario para la elaboración de los instrumentos 2 y 3. Ello implicó un tiempo
adicional para su construcción, aplicación y procesamiento de las respuestas. La segunda
causa de demora, estuvo relacionada con la conformación de la base de datos. Como ya se
explicó, se enfrentaron mayores dificultades y se ocupó más tiempo de lo previsto, para
conseguir los datos necesarios para enviar la encuesta y realizar su posterior seguimiento.
Etapa 2
Esta etapa, tenía el propósito de llevar a cabo la recolección datos con los instrumentos
definitivos. A continuación se describen sus componentes y sub etapas.
Envío invitación y cuestionario a participantes
A mediados de diciembre de 2009 se enviaron invitaciones a los destinatarios de los
Instrumentos 2 y 3. En el caso del Instrumento 2 (representantes de instituciones), se
enviaron 29 invitaciones correspondientes a 11 rectores y sus respectivos asistentes
administrativos, y 18 personas responsables de la unidad de acreditación de cada
institución. En el caso del Instrumento 3 (representantes de carreras), se enviaron 376
invitaciones correspondientes a 60 de directores a cargo de carreras en la época de la
acreditación con CNAP y 316 de directores actuales de las carreras.
17
Población
La población objetivo de este estudio puede considerarse, en cierta forma, como una
muestra sesgada de la totalidad de las instituciones de educación superior del país, ya que
conforman el universo de aquellas que decidieron voluntariamente presentarse a una
evaluación de pares, luego de un proceso de autoevaluación, con el fin de obtener una
acreditación, que en esos años (2001-2006) no estaba regulada por ninguna ley y no
conducía a beneficios o incentivos adicionales. Esta particular naturaleza de la población,
impone una limitación metodológica que reduce la posibilidad de generalizar los resultados
a programas que no participaron en procesos de acreditación durante ese periodo, condición
que restringe la transferencia de los hallazgos sólo a aquellas unidades académicas que
pertenecen a este universo o comparten sus características.
El marco muestral con el total de carreras, se construyó a partir de una base de datos de los
registros de aquellas que participaron en procesos de acreditación conducidos por CNAP
entre los años 2001 y 2006. Con el fin de asegurar cierta representatividad de la muestra de
participantes, fue necesario definir un procedimiento para generar distinciones entre las
carreras, que reflejaran un grado de diversidad y permitiera jerarquizarlas, de acuerdo al
propósito del estudio. Con esta finalidad, se construyó un sistema de categorías a partir de
la combinación de dos criterios: (i) número promedio de años de acreditación por carrera y
(ii) número de carreras acreditadas por institución. Esta clasificación permite diferenciar 4
grupos de instituciones de educación superior que se ordenan en torno a un continuo
definido por ambas variables. Las 4 categorías generadas de acuerdo a este mecanismo, la
distribución porcentual del universo de carreras y la muestra de participantes, se observan
en el anexo n.° 5. Las que pertenecen a la 1° categoría, son aquellas con menos años de
acreditación (incluyendo las que no fueron acreditadas) y pertenecen a instituciones que
presentaron menor número de programas a acreditación; mientras que las de la categoría 4,
pertenecen a instituciones que acreditaron en promedio 22 programas, por lo cual son las
que acreditaron más carreras y por más tiempo (más de 4 años de acreditación).
18
Muestra
La muestra se obtuvo por un procedimiento no probabilístico. Se invitó a directivos de los
460 programas pertenecientes a 39 instituciones de educación superior a lo largo del país
que conformaban el universo de estudio. Se determinó una cuota de 20% como proporción
mínima de respuestas por categoría. Se implementó un sistema de seguimiento
motivacional a través de correos electrónicos y comunicación telefónica, para que los
participantes respondieran. Se hicieron esfuerzos selectivos privilegiando aquellas
categorías de carreras con baja respuesta, para asegurar el cumplimiento de la proporción
prefijada. Finalmente, el total de respuestas obtenidas fue de 95 (tasa de respuesta final:
20%) (ver tabla n.° 11).
Tabla 1. Distribución de instituciones y carreras participantes del estudio, según muestreo por cuotas para cada categoría de IES (nivel de participación y resultado de acreditación).
Instrumentos de recolección de datos
Los dos cuestionarios que se envió a los participantes se componen de preguntas abiertas y
cerradas (escalas de tipo Likert y de alternativas de respuesta dicotómicas), dirigidas a
recabar las opiniones de los directores de carreras y encargados institucionales de
aseguramiento de la calidad, respectivamente, en el periodo próximo a la acreditación. Los
cuestionarios fueron elaborados especialmente para este estudio y están orientados a
caracterizar las percepciones de cambios producidos en las unidades académicas
participantes y en las instituciones en su conjunto, de acuerdo a una comparación temporal
Categoría IES
N.° total IES por
categoría
N.° de carreras por
categoría
Cuota (20%) esperada de carrera por
categoría
N.° carreras de la muestra por categoría
% respuestas por categoría
1 9 59 12 18 31%
2 12 72 14 15 21%
3 8 100 20 25 25%
4 8 228 46 37 16%
TOTAL 37* 459 92 95 20,7%
*Nota: no se incluyó la Escuela Militar del Libertador General Bernardo O'Higgins porque sólo tenía una carrera
19
antes/después del proceso de acreditación, como consecuencia de la participación en estos
procesos, en el periodo 2001-2006. Ambos instrumentos se estructuraron en cuatro
secciones, las tres primeras identifican un espacio o componente en la organización en el
que se produce el cambio, reconociendo respectivamente el ámbito de ocurrencia, la
importancia atribuida a su ocurrencia y el nivel de la organización en que se localiza la
gestión del cambio y, la cuarta sección identifica y dimensiona la estabilidad de resultados
atribuibles a la participación en acreditación de carreras (ver cuadro n.° 2).
Cuadro 2. Secciones de los cuestionarios para evaluar percepción de cambios atribuibles a la participación en procesos de acreditación periodo 2001-2006.
I. Identificación de cambios percibidos en las carreras en procesos o estamentos. Presenta un listado
de 40 planteamientos que se formulan en forma de pregunta: ¿en mi carrera se han realizado
cambios, ajustes o innovaciones en…?
II. Grado de importancia atribuida a los cambios producidos en cada uno de estos elementos (responde
a la pregunta Presenta el mismo listado de 40 planteamientos en forma de pregunta: ¿qué grado de
importancia le atribuye usted a estos cambios, ajustes o innovaciones realizadas en su carrera?)
III. Localización de la entidad responsable de estos cambios. Presenta el mismo listado de 40
planteamientos y solicita dar respuesta a la pregunta ¿la administración de estos cambios es
responsabilidad del nivel central de la institución o son responsabilidad de la carrera?
IV. Resultados producidos como consecuencia de la acreditación. Presenta un listado de 25 cambios
posibles en distintas dimensiones y pide que se responda a la pregunta Para cada uno de ellos,
señale si ha disminuido, se ha mantenido o ha aumentado desde el año 2001 a la fecha.
Seguimiento a encuestados
Los cuestionarios se localizaron en un sitio web para contestar en una modalidad de
respuesta en línea, de fácil acceso para los encuestados. A mediados de diciembre de 2009
se enviaron invitaciones a los destinatarios y, entre los meses de diciembre y enero se
reiteró –tanto vía correo electrónico como telefónica– la invitación a participar de este
estudio. La tasa de respuestas, respecto de la muestra final, fue la siguiente: 17% en
diciembre 2009, 62% en enero 2010, 2% en febrero 2010 y 19% en marzo de 2010. Luego
del inesperado terremoto ocurrido en Chile el 27 de febrero de 2010, se decidió no insistir
en aquellas carreras ubicadas en universidades de las regiones VII y VIII (las más dañadas
20
por el sismo). Al cabo de 8 reiteraciones en las carreras ubicadas en el resto del país, se
suspendió la recolección de datos la primera semana de abril de 2010, al constatar que la
tasa de respuesta después del 15 de marzo de 2010 no aumentaba, pese al seguimiento
telefónico y electrónico, lográndose una cuota global de 20% y cumpliendo con la cuota
fijada inicialmente para 3 de las 4 categorías (en la categoría 4, se obtuvo sólo un 16% de
respuestas), como se muestra en la tabla n.° 1.
Etapa 3
Esta última etapa estuvo abocada a la recolección de datos complementarios a través de una
consulta a directores de unidades de análisis institucional, con el objeto de obtener
precisiones sobre algunas tendencias observadas en los datos y profundizar en el rol
percibido de estas “oficinas” o “unidades” en las instituciones de educación superior. Este
foco de indagación adicional, se determinó a partir de la abundante evidencia acerca de la
creación de organizaciones internas en las propias instituciones, abocadas a facilitar
procesos de autoevaluación y apoyar otros mecanismos de aseguramiento de la calidad, en
general.
Para estos efectos, se envió una pauta con preguntas abiertas, acompañada de una síntesis
del proyecto con los principales hallazgos, a representantes de estas unidades en 8
universidades. Se recibió respuestas de 7 directores o miembros activos de estas oficinas.
Tres de éstas pertenecen a universidades privadas no pertenecientes que no forman parte
del CRUCH, 2 privadas integrantes del CRUCH y 2 estatales, miembros de CRUCH.
Todas aportaron con ideas muy valiosas, las que se integran en distintas secciones de los
resultados y alimentan las conclusiones y recomendaciones.
VI. Resultados Para una mejor comprensión de los resultados, se ha optado por hacer una presentación
siguiendo el orden de los objetivos. Se expone en primer lugar, una caracterización de los
juicios de los participantes, respecto a focos de impacto y cambios posteriores o
21
concomitantes con los procesos de acreditación por CNAP. Estos se jerarquizan según
frecuencia de mención e importancia asignada, sin distinguir por tipo de institución.
Luego, en un segundo acápite de esta sección, se sistematizan las opiniones que dan cuenta
del desarrollo de una cultura de evaluación y mejoramiento continuo al interior de las
unidades académicas. Para este efecto, se analizan las experiencias de desarrollo de
unidades de aseguramiento de la calidad y de gerencia de los cambios, distinguiendo el
nivel de localización de la administración de los mismos (centralización vs.
descentralización).
En tercer lugar, se describe la percepción de representantes de instituciones que
proporcionan una perspectiva más vinculada al nivel central de la organización,
principalmente desde las unidades de análisis institucional que apoyan los procesos de
evaluación interna y, por lo tanto, están más próximas y son probablemente más sensibles y
atentos a los cambios. Se hará especial mención al rol percibido de estas unidades en las
instituciones.
Por último, se comparan las respuestas de los participantes, distinguiendo por categoría de
institución, de acuerdo al sistema de clasificación descrito en la sección Metodología. Esto
permite configurar perfiles de opinión, respecto del impacto de los procesos de acreditación
y su importancia para las carreras.
Resultados objetivo N.° 1
Identificar y jerarquizar cambios y focos del impacto según las tres dimensiones que
orientan la evaluación para la acreditación en Chile.
Aun cuando no es posible afirmar con certeza que los cambios producidos en las
instituciones de educación superior son atribuibles a la participación en los procesos de
acreditación conducidos por CNAP, la respuesta generalizada de los participantes del
estudio permite constatar que se reconoce que han ocurrido cambios positivos dentro del
periodo de tiempo próximo a estos eventos. A la hora de relacionarlos con la acreditación,
22
hay una opinión dividida; mientras varios de los encuestados comunican la existencia de
cambios asociados a los procesos de acreditación, otros participantes expresan que estos
cambios no se deben a la acreditación y más bien, los atribuyen a la dinámica interna de la
institución, como lo sintetizan las siguientes opiniones: “nosotros vivimos un proceso de
mejoramiento continuo desde mucho antes del 2006, que es el responsable de los cambios
que se introducen permanentemente en nuestra gestión docente”, “algunos de estos cambios
mencionados están desde siempre en la universidad y la carrera y partieron mucho antes de
las acreditaciones...”.
Esta perspectiva, representada por las opiniones citadas, es particularmente atendible, dado
que durante este periodo (comienzo de los años 2000) es cuando convergen una serie de
iniciativas y políticas tendientes a promover la calidad de la educación superior, entre las
cuales están los procesos de acreditación “experimentales” conducidos por CNAP. Por ello,
no es fácil separar el efecto de cada uno de estos factores como causas independientes una
de la otra y por lo tanto es plausible pensar que los cambios observados son el producto de
una convergencia de variables y factores que potencian su efecto, y ejercen su influencia en
forma conjunta.
Aun si se asumiera esta explicación como cierta, la evidencia confirma que de todas
maneras las carreras identifican cambios positivos en el periodo de interés (2001-2007).
Estos están asociados principalmente a la dimensión Perfil de Egreso y Resultados de la
Formación, de acuerdo a los criterios aplicados en el proceso de acreditación. Los cambios
que son declarados con mayor frecuencia y se relacionan con la experiencia de participar en
procesos de acreditación de carreras con CNAP, están vinculados primordialmente con el
perfil de egreso de sus carreras y los resultados derivados del mismo. Los seis más
nombrados son, en primer lugar (91,6%) la revisión de los perfiles de egreso, seguido de la
implementación de mecanismos para seguimiento de egresados (87,4%) -que era un aspecto
generalizadamente deficitario en las carreras en esa época y, actualmente también-; re-
diseño de plan de estudios (84,2%); implementación de sistemas de información para
orientar el proceso de autoevaluación para la acreditación (81,1%); innovación de métodos
pedagógicos (80%) y; desarrollo de mecanismos sistemáticos de vinculación de la carrera
23
con el medio externo (80%). Cinco de estos cambios, están comprendidos en la dimensión
Perfil de Egreso y Resultados, de acuerdo al sistema de criterios de acreditación vigentes.
El detalle de los diez más mencionados, se aprecia en la tabla n.° 2 y el listado jerarquizado
completo con los 40 reactivos en el anexo n.° 6.
Tabla 2. Diez cambios más frecuentes en periodo 2001-2007 en las carreras acreditadas por CNAP.
Ámbitos de Cambios Dimensión % Revisión de perfiles de egreso Perfil de Egreso y Resultados 91,6 Mecanismos para seguimiento de egresados Perfil de Egreso y Resultados 87,4 Re diseño de plan de estudios Perfil de Egreso y Resultados 84,2 Implementación de un sistema de información para orientar el proceso de autoevaluación para la acreditación
Autorregulación 81,1
Innovación de métodos pedagógicos Perfil de Egreso y Resultados 80,0 Desarrollo de mecanismos sistemáticos de vinculación de la carrera con el medio externo
Perfil de Egreso y Resultados 80,0
Cultura de Evaluación Autorregulación 78,9 Comités de Autoevaluación Autorregulación 76,8 Diseño de un sistema para orientar el proceso de autoevaluación
Autorregulación 75,8
Registros de seguimiento de planes de estudio Perfil de Egreso y Resultados 74,7
Son significativamente menos los ajustes que se produjeron en las condiciones de operación
(aspectos estructurales, de organización administrativa y financiera y de infraestructura). Se
podría hipotetizar que las carreras que se presentaron a acreditación en el periodo en
estudio (en el cual no había sanciones o beneficios, ni una ley que regulara estos procesos),
fueron aquellas que exhibían las mejores condiciones internas antes de participar en la
acreditación, por lo cual no experimentaron cambios sustantivos en estos dominios.
Valoración de los cambios
Con todo, independiente del origen que se les atribuya, los cambios observados son
valorados positivamente y en niveles relativamente homogéneos entre carreras e
instituciones. Todas las instituciones consideran que los cambios producidos en la
dimensión Perfil de Egreso son de alta importancia. Los factores de esta dimensión que
promedian más alto en las puntuaciones de valoración de su importancia, son los
mecanismos de apoyo a los estudiantes y los mecanismos para el seguimiento y apoyo a los
procesos formativos.
24
Por otro lado, aunque también se valoran los cambios producidos en ámbitos relacionados
con las condiciones de operación, las puntuaciones que les asignan son significativamente
menores en las escalas correspondientes, lo que indica que se le atribuye menor
importancia. Los dos más reconocidos en esta dimensión, Recursos de apoyo a la docencia
y Desarrollo de instrumentos para evaluar el desempeño docente, si bien forman parte del
conjunto de las condiciones necesarias para el buen funcionamiento de la carrera, están
altamente relacionados con el perfil y los resultados de egreso de los estudiantes.
En lo que se refiere a las capacidades de autorregulación institucional (o de las carreras),
que en cierta forma dan cuenta de la “madurez” institucional en este dominio, la instalación
de una cultura de evaluación, es lo que aparece generalizadamente como lo más apreciado y
valorado. Una síntesis de los tres cambios, separados por dimensión, que tienen mayor
valoración, se presenta en la tabla n.° 3.
Tabla 3. Tres cambios más valorados por dimensión. Orden Perfil de Egreso Condiciones de operación Autorregulación
1° Mecanismos de apoyo a los estudiantes Recursos de apoyo a la docencia Cultura de evaluación
2° Mecanismos para seguimiento y apoyo a los procesos formativos
Desarrollo de instrumentos para evaluar el desempeño docente
Definición de políticas de docencia
3°
Mecanismos para evaluar progreso de planes de estudio en régimen
Sistema de calificación y jerarquización docente
Implementación de un sistema de información para orientar el proceso de autoevaluación para la acreditación
Igualmente, hay bastante acuerdo en las opiniones respecto a cuáles son los cambios
considerados como menos importantes. Así por ejemplo, al examinar la Dimensión Perfil
de Egreso y Resultados, todas las carreras coinciden en otorgar la valoración más baja a un
mismo factor (desarrollo de estrategias de difusión y marketing), y le asignan un grado de
importancia bastante parejo al resto de los criterios de la dimensión.
Además de determinar un nivel de importancia a cada reactivo que representaba un tipo de
cambio, los participantes del estudio tuvieron que precisar (en una pregunta abierta) cuáles
eran los tres cambios más importantes realizados en su carrera, que pudieran atribuirse de
25
una otra forma al proceso de acreditación conducido por CNAP. El primer ejercicio
(asignar una puntuación), implica una selección dentro de un conjunto predeterminado y
acotado de reactivos, mientras que el segundo pretende identificar la respuesta espontánea
del encuestado, y lo lleva a evocar y seleccionar de entre sus propios registros internos, los
que no necesariamente coinciden con las jerarquías de listas predefinidas.
En esta indagación, el 45% de los encuestados señalaron que uno de los cambios más
importantes, atribuible en cierta medida a los procesos de acreditación, es el desarrollo de
una cultura de evaluación al interior de las carreras. Un segundo cambio que destacaron es
la actualización del plan de estudios (39%). Y, un tercer cambio, es el aumento en la
vinculación con el medio (17%). Cabe destacar que, aun cuando un grupo de participantes
planteó que los cambios no se debían a estos procesos de acreditación, en esta pregunta sólo
tres personas respondieron que no percibieron cambios.
Tabla 4. Los cambios más nombrados entre los valorados como los tres más importantes.
Cambios más importantes N % Cultura de autoevaluación 43 45%
Actualización del plan de estudios 37 39%
Aumento en vinculación con el medio 16 17%
Acciones Aseguramiento de la calidad 13 14%
Seguimiento de egresados 11 12%
Revisión perfil de egreso 11 12%
Al examinar la tabla n.° 4, la lista sugiere que la cultura de autoevaluación envuelve las 5
acciones restantes, las que a su vez están bastante interconectadas. Todas éstas dependen de
una u otra forma del compromiso Institucional con el mejoramiento de la calidad y se
potencian mutuamente. Si analizamos, a modo de ejemplo, el caso de la “vinculación con el
medio”, actualmente ésta no representa sólo la tradicional actividad de extensión,
prestación de asistencia técnica o contacto con potenciales empleadores; hoy en día, cuando
las instituciones de educación superior dejaron de ser organizaciones aisladas con una
orientación eminentemente profesionalizante, el contacto con el entorno debe
26
retroalimentar la formación de los estudiantes y la generación de conocimiento y, se espera
que forme parte de un mecanismo estable orientado a cumplir los propósitos institucionales.
Nuevamente acá se debe tener en cuenta que son diversos los factores que han contribuido
a estas condiciones de cambio y de valoración de la importancia de los mismos. Tal como
lo plantea uno de los entrevistados “...el último decenio, la acreditación ha sido ‘una más’
de las intervenciones empujando la mejora de la calidad...”. Un dato relevante que no debe
olvidarse en este contexto, es la tremenda inversión y aportes en dinero (“miles de millones
de pesos...”) que se han destinado para el mejoramiento de la calidad, a través del re-diseño
curricular y modernización de la docencia, desarrollo del recurso humano docente,
infraestructura y equipamiento de apoyo a la docencia. ¿Qué institución se puede mantener
al margen de estos incentivos para mejorar la calidad?
Resultados Objetivo n.° 2
Identificar y caracterizar manifestaciones del desarrollo de una cultura de evaluación y mejoramiento continuo al interior de las unidades académicas.
En primer lugar, es notable la convergencia de opiniones de los distintos encuestados, que
coinciden en su apreciación de la instalación de una cultura de autoevaluación, como
resultado de la experiencia de estos procesos, la que además juzgan como de la mayor
importancia. Profundizando en esta condición, hay varias explicaciones y argumentaciones
que sustentan esta impresión tan generalizada.
Un factor que en algunos casos facilita la construcción de esta cultura es la actuación de
ciertos liderazgos en las instituciones y de equipos de trabajo altamente motivados a la
mejora continua. Hay testimonios que aseveran que existe una estrecha relación entre la
buena capacidad de gestión de los directivos y el impacto positivo de una acreditación.
También se alude a un efecto sinérgico, que se produce cuando varias carreras de una
misma institución participan en procesos de autoevaluación, en un trabajo compartido. Una
de las personas responsable de una unidad de análisis institucional proporciona una
explicación muy ilustrativa de este planteamiento, la que se cita a continuación “...existe
27
una estrecha relación entre una institución que aprendió que el mejoramiento continuo es
imprescindible para estar actualizado en la oferta educativa y, obviamente que la mayor o
menor cantidad de veces que se realizó un proceso de autoevaluación para la acreditación
se hace un factor fundamental y la cantidad de años obtenidos, el incentivo esperado para
hacerlo de nuevo”. Igualmente, otra persona a cargo de una unidad de apoyo a la labor de
autoevaluación de una institución distinta, corrobora esta impresión, señalando que se
produce “un aprendizaje y maduración institucional al realizar varios procesos
simultáneamente...se aprovechan ’economías de escala’, por ejemplo hay debilidades que
son transversales a la universidad y al empezar un plan de mejora en varias carreras esto se
traspasa al resto...”. Contribuyen a esta cultura de autoevaluación, la actitud positiva y de
colaboración entre pares dentro de una misma institución, que comparten sus experiencias,
dificultades y formas de superarlas. Por cierto que hay también un reconocimiento a la
labor que desarrollan estas unidades de evaluación interna, las que prestan un servicio de
apoyo y acompañamiento a las unidades, en su trabajo de evaluación interna y planificación
de acciones con miras a mejorar su desempeño e indicadores de resultados.
Administración del cambio
Con la intención de caracterizar las expresiones de esta cultura de autoevaluación, se
peguntó a los participantes (que respondieron el Instrumento 2), si la administración de los
cambios producidos luego de la acreditación con CNAP era responsabilidad del nivel
central de la institución o de la carrera. Al integrar al análisis la categorización de
instituciones, de acuerdo al sistema adoptado para este estudio, resultó que todas (salvo las
de la categoría 11), perciben que los cambios en la dimensión Perfil de Egreso y Resultados
del Proceso de Formación son principalmente (60,9%) responsabilidad de la carrera;
mientras que aquellas de la categoría 1, consideran que son responsabilidad tanto del nivel
central como de la carrera. Los factores de esta dimensión, en la matriz de evaluación, se
concentran mayoritariamente en el componente de Procesos de Formación. Hay sólo dos
factores que las carreras, independiente de su categoría, consideran que son casi de
1 Categoría que comprende instituciones que presentaron menos carreras a acreditación y obtuvieron como resultado decisiones de acreditación por un número menor de años; esta categoría incluye aquellas cuyas carreras no acreditaron
28
exclusiva responsabilidad de la unidad; éstos son la revisión de perfiles de egreso (93,2%) y
el re diseño de plan de estudios (87,3%).
Estabilidad de los cambios y su relación con los procesos de acreditación
Un apartado del cuestionario preguntaba a los participantes por la estabilidad de una serie
de resultados que podían ser atribuidos al proceso de acreditación conducido por CNAP,
distinguiendo entre disminución, mantención y aumento o mejoría de los mecanismos o
componentes organizacionales que experimentaron modificaciones. Todas las carreras, sin
importar a qué categoría pertenecieran, señalaron que los resultados enunciados (en el
cuestionario) considerados como efectos de la acreditación CNAP en las dimensiones Perfil
de Egreso y Condiciones de Operación, se mantenían o aumentaban en el tiempo. En esta
última dimensión, las carreras destacaron el aumento en dotación de material bibliográfico
(72,2%), mejoría en calidad de la docencia (64,4%) de la infraestructura y recursos para la
docencia (60,3%). Sólo llama la atención que las carreras de la categoría 2 consignaron un
aumento significativo en la proporción profesores/alumnos (56,3%; F=2,727 p<0,05) y en
la dotación de docentes jornada completa equivalentes, adecuado a los propósitos de la
carrera (62,5%; F=3,434 p<0,05), en comparación con las otras categorías, que no destacan
éstos como cambios importantes.
Estos datos ponen en videncia, en la misma línea de lo planteado por las hipótesis, que las
carreras identificaron cambios que ocurrieron concomitantemente o próximos en el tiempo
al proceso de acreditación. Asimismo, se confirma que esto se constata para todas las
carreras en distintas magnitudes.
Resultados Objetivo n.° 3
Identificar ámbitos institucionales involucrados en la implementación de políticas de aseguramiento de la calidad.
La fuente de información que sustentó el análisis y cumplimiento de este objetivo, son los
testimonios de 18 directivos o representantes de Unidades de Aseguramiento de Calidad y/o
Análisis Institucional. Como se indicó en la descripción de la metodología, ellos fueron los
principales destinatarios del Instrumento 3 (con foco en la perspectiva institucional),
29
aunque también se recibieron respuestas de dos directivos superiores (Rector, Vicerrector)
de algunas instituciones. Complementariamente, y pasados unos meses desde la recolección
y procesamiento de los datos del cuestionario, una muestra pequeña de 7 de estos mismos
informantes (no se incluyó a directivos superiores), respondió a algunas interrogantes
adicionales que permitieron aclarar algunos puntos y profundizar en otros. Los juicios y
antecedentes que se exponen en este acápite, son una síntesis de los resultados de las dos
etapas, los que fueron altamente convergentes.
En primer lugar, es importante señalar que los directores o representantes de unidades de
análisis institucional o aseguramiento de la calidad están convencidos del rol que les cabe a
sus unidades en el fomento de la cultura de evaluación y en la implementación de políticas
de aseguramiento de la calidad. Hay quienes piensan que parte de la función de estas
oficinas, consiste en ser “facilitadoras del aprendizaje organizacional...para la generación
de capacidades para la evaluación, la planificación de la mejora, el uso de indicadores, la
reflexión sobre los resultados de gestión...”. La mayoría de ellas orienta, supervisa y hace
seguimiento de los procesos de autoevaluación conducentes a la acreditación y hace la
interlocución con las agencias de acreditación; algunas además proveen a las unidades de
recursos monetarios y humanos para las diversas etapas del proceso de evaluación; y hacen
seguimiento y control de los planes de mejora. En tanto constituyen organizaciones internas
innovadoras y relativamente recientes, algunas han asumido también “un rol de unidades
‘articuladoras’ de la gestión del currículo y la docencia, con la gestión administrativa e
institucional, ámbitos que previamente no contaban con un punto de encuentro...”,
acompañan, asesoran y capacitan a las unidades en procesos de autoevaluación, sean o no
tendientes a una acreditación y; algunas además hacen seguimiento al cumplimiento de los
planes de mejoras de las carreras.
Entre las manifestaciones de esta cultura de autoevaluación se pueden mencionar la
disponibilidad de bases de datos actualizadas permanentemente con toda la información
que las unidades requieren, el diseño de formatos, procedimientos e indicadores para que
los planes de acción de las unidades incorporen planteamientos pertinentes, sustentables y
realistas, asegurando con ello su implementación y mejorando el esquema de negociaciones
30
y acuerdos institucionales sobre los que se sustentan. Otro indicador mencionado por uno
de los entrevistados es la disminución de la carga y tiempos de trabajo asociado a los
procesos de autoevaluación. Asimismo, aunque menos evidente, es el hecho que desarrolla
memoria y aprendizaje institucional, manteniendo registros y depósito de antecedentes que
facilitan el desarrollo de procesos de evaluación interna. Todo ello da garantías de
estabilidad institucional a los acuerdos y compromisos de acción.
Aunque todos comparten las bondades de la incorporación de una unidad de apoyo,
reconocen que hay ciertos riesgos en su conducción. Uno de los entrevistados en la última
etapa del estudio, lo sintetiza claramente “...generar un elevado nivel de dependencia de las
unidades, en términos de procedimientos, generando con ello un riesgo de homogeneidad,
que atenta contra la naturaleza de la autoevaluación, que pretende que las metodologías
sean sensibles a la diferenciación disciplinaria y profesional propia de la universidad.”.
Igualmente, algunos sostienen una mirada crítica y están preocupados por la
implementación de las políticas de aseguramiento de calidad, las que “si bien permiten
estandarizar procesos y focalizar los esfuerzos hacia aquellos aspectos que mayormente
impactan en un mejoramiento continuo, tienen la limitante de que rigidizan ciertos procesos
e inhiben el crecimiento y la innovación...”
Entre los focos de impacto a nivel institucional que se identifican, aparecen mencionadas
distintas expresiones de cambio en los estilos de gestión (valoración de la gestión y
planificación estratégica, adecuación de la estructura orgánica con los objetivos
planificados), cambios en la valoración de los proyectos educativos y su congruencia con
los propósitos y perfiles de egreso, preocupación por resultados del proceso de formación y
por los planes de mejora o desarrollo.
Resultados Objetivo n.° 4
Generar perfiles de impacto según carrera, área de conocimiento e institución, para los distintos focos y ámbitos.
31
Para efectos de la presentación de resultados que apuntan al logro de de este objetivo, se
describen los cambios, juicios y valoraciones de los participantes, distinguiendo la
categoría institucional a la que pertenecen de acuerdo al sistema de clasificación utilizado
en el estudio.
En general, la mayor proporción de respuestas de cambios considerados como un efecto de
los procesos de acreditación de sus carreras, se concentra en las respuestas de aquellas que
fueron clasificadas en las tres primeras categoríasiii. Las carreras de la categoría 4, aunque
reconocen cambios, lo hacen en una proporción menor de acuerdo a los indicadores
contenidos en los reactivos del cuestionario.
Dimensión Perfil de Egreso y Resultados del Proceso de Formación
Al examinar los resultados para cada una de las tres dimensiones por separado, se advierte
que la orientación predominante –que se repite a lo largo de todas las distinciones de
análisis– es que las carreras de la categoría 4 tienden a reportar menos cambios, tal como
ocurre en esta dimensión. Como se aprecia en la tabla n.° 5, el rediseño de los planes de
estudio, es la acción más recurrente a lo largo del continuo de carreras, incluso las de la
cuarta categoría, lo que es reflejo de la instalación de cultura de evaluación y mejoramiento
continuo y preocupación creciente por la calidad de la formación. En un escenario que
cambia con mucha velocidad y de obsolescencia de los conocimientos cada vez más rápido,
es indispensable ajustar los planes de estudio de acuerdo al progreso en cada disciplina.
32
Tabla 5. Distribución de percepciones de cambios producidos después de la acreditación con CNAP: comparación entre carreras por categoría institucional.
Cambios observados en las carreras después de acreditación CNAP: Dimensión Perfil de Egreso
Categoría 1
Categoría 2
Categoría 3
Categoría 4
Mecanismos para seguimiento de egresados 71% 69% 68% 54%Re diseño de plan de estudios 76% 44% 68% 59%
Desarrollo de mecanismos sistemáticos de vinculación de la carrera con el medio externo 35% 69% 72% 57%
Mecanismos para evaluar progreso de planes de estudio en régimen 59% 56% 56% 49%Innovación de métodos pedagógicos 53% 56% 52% 54%Mecanismos para evaluar progreso de innovaciones curriculares 59% 50% 60% 46%Revisión de perfiles de egreso 59% 38% 60% 54%Registros de seguimiento de planes de estudio 47% 50% 64% 49%Mecanismos para seguimiento y apoyo a los procesos formativos 53% 56% 52% 43%Programas de actividades de educación continua 35% 31% 44% 38%Mecanismos de apoyo a los estudiantes 35% 50% 20% 30%Desarrollo de estrategias de difusión y marketing 24% 44% 28% 35%
Otro aspecto particular que concita acuerdo entre las carreras transversalmente a lo largo
del continuo es la preocupación por apoyar a los estudiantes en su formación. Es así como,
a través de los juicios acerca de la importancia que esto tiene, se refleja la relevancia que ha
adquirido la gestión de la docencia y la atención que se presta en la actualidad a los
mecanismos de apoyo a los estudiantes; incluso en aquellas instituciones que reciben los
mejores puntajes de ingreso. El gráfico n.° 1 ilustra con claridad esta tendencia.
,0%
10,0%
20,0%
30,0%
40,0%
50,0%
60,0%
70,0%
80,0%
90,0%
100,0%
Baja importancia Mediana importancia Alta importancia
1
2
3
4
Gráfico 1. Importancia asignada a los mecanismos de apoyo a los estudiantes según Categoría IES.
33
Con la intención de explorar otras asociaciones, se estableció una jerarquía de las carreras
de acuerdo al nivel de acreditación o número de años obtenidos, independiente de la
cantidad de otras carreras de la misma institución que se hubieran acreditado
voluntariamente en el mismo periodo.
Al repetir el análisis, comparando los niveles de acreditación de las carreras en estudio
(número de años de acreditación) se mantiene la misma tendencia. Se observa que,
independiente de los años de acreditación obtenidos, las unidades consideran que los
cambios producidos en la dimensión Perfil de Egreso son, en su mayoría (58,8%),
responsabilidad de la carrera. Al igual que en el caso anterior, la revisión de perfiles de
egreso y el re diseño de plan de estudios, son considerados como de casi exclusiva
responsabilidad de la carrera (89,6% y 85,9%, respectivamente). Este resultado no
sorprende, ya que son precisamente estas acciones las que requieren de la reflexión
específica de cada disciplina y no basta con una buena capacidad de gestión académica para
llevarlas a cabo con éxito, aunque la estructura de gestión sea altamente centralizada en la
institución.
A partir de esta comparación se observa que, si bien todas las carreras consideran que los
cambios producidos en la dimensión Perfil de Egreso son importantes, las carreras con más
alta acreditación (6-7 años) tienden a asignarle menor importancia que aquellas con nivel
de acreditación bajo y medio.
Dimensión Condiciones de Operación
En esta dimensión se observa la mayor dispersión de respuestas, éstas se distribuyen en un
rango de variación promedio que contiene desde un grupo minoritario (18%) que señala
como cambio la creación de cargos de asistente administrativo para la gestión de temas
estudiantiles, hasta el grupo más numeroso (73%) que consigna la implementación de
sistemas de información (registros académicos) de apoyo a la docencia, como cambio
asociado a los procesos de acreditación. En ambos casos, la tendencia es muy homogénea
entre las cuatro categorías.
34
Otros elementos en los que se manifiestan cambios de frecuente nominación, son las
innovaciones en recursos de apoyo a la docencia y la creación de comités curriculares. En
éstos no hay diferencias importantes entre categorías. Por otro lado, hay un conjunto de
cambios que son señalados mayoritariamente por las carreras de las categorías 1 a 3. Los
más nombrados son:
introducción de consejos asesores, desarrollo de instrumentos para evaluar el desempeño docente, desarrollo de criterios de asignación de recursos destinados a renovar o mejorar la dotación de infraestructura y, instalaciones y recursos para la docencia y para la investigación.
Probablemente en las carreras de la categoría 4, éstas eran condiciones preexistentes, de un
buen nivel de calidad y adecuadas a los requerimientos; por lo tanto, no se ven impactadas
por los procesos de evaluación externa, como sí ocurre en las carreras de las tres primeras
categorías (ver tabla n.° 6).
Tabla 6. Porcentaje de carreras por categoría que indican cambios en sus unidades asociados a procesos de acreditación en los factores con más menciones: Dimensión Condiciones de Operación. FACTORES DIMENSIÓN CONDICIONES DE
OPERACIÓN CON MAYORES DENOMINACIONES
Cat. 1 Cat. 2 Cat. 3 Cat. 4 Promedio
Sistemas de información (registros académicos) de apoyo a la docencia
88% 75% 68% 62% 73 %
Comités Curriculares 65% 69% 76% 65% 69 %
Consejos asesores 82% 69% 72% 46% 67 %
Desarrollo de instrumentos para evaluar el desempeño docente
82% 44% 76% 54% 64 %
Recursos de apoyo a la docencia 88% 69% 68% 62% 62 %
Mecanismos para seguimiento y apoyo a la gestión 65% 75% 60% 43% 61 %
Desarrollo de criterios de asignación de recursos destinados a renovar o mejorar la dotación de infraestructura, instalaciones y recursos para la docencia
71% 56% 60% 41% 57 %
Desarrollo de criterios de asignación de recursos destinados a renovar o mejorar la dotación de infraestructura, instalaciones y recursos para la investigación
71% 63% 40% 41% 53 %
PROMEDIO 77% 65% 65% 52%
35
En la dimensión Condiciones de Operación, cuyos reactivos en el cuestionario
corresponden mayoritariamente al componente Estructura según la matriz de evaluación, se
observa que los cambios producidos son considerados de responsabilidad del nivel central,
siendo las carreras de la categoría 1 quienes le atribuyen una mayor responsabilidad
(80,3%) y las de la categoría 4 (49,3%) menos; estas diferencias son estadísticamente
significativas (F=5,342 p<0,005). Asimismo, se identificaron cambios que independiente de
la categoría, las carreras consideran de casi exclusiva responsabilidad del nivel central;
entre ellos destacan: sistemas de información (registros académicos) de apoyo a la docencia
(80,3%), sistema de calificación y jerarquización docente (81%), desarrollo de criterios de
asignación de recursos destinados a renovar o mejorar la dotación de infraestructura,
instalaciones y recursos para la docencia (83,9%) y patrimonio e inversiones (84,4%).
Nuevamente, al reproducir el análisis de estos datos en relación al nivel de acreditación
obtenidos por las carreras, se observa un patrón similar, ya que en su mayoría consideran
que estos cambios son responsabilidad del nivel central, siendo las carreras con un nivel de
acreditación medio (4-5 años) quienes más asignan responsabilidad a este nivel de la
gestión institucional (62,8% de las carreras de estas categorías).
Dimensión Capacidad de Autorregulación
Finalmente, la dimensión en la que se expresa mejor la diferencia entre las carreras de
instituciones de la categoría 4 y las otras, es la Capacidad de Autorregulación. Las dos
innovaciones más reportadas en esta dimensión, tal como ya se ha comentado a lo largo del
texto, son la implementación de un sistema de información para orientar el proceso de
autoevaluación para la acreditación y la creación de una cultura de evaluación, las que se
ubican dentro del componente Procesos de Formación de la matriz de evaluación. Aunque
son reconocidas en cierta medida como indicadores de cambio por un porcentaje importante
de las carreras de la cuarta categoría, en promedio, suman una proporción menor que las
otras tres, como se observa en la tabla n.° 7.
36
Tabla 7. Distribución porcentual de carreras por categoría con cambios en sus unidades asociados a procesos de acreditación en la dimensión Capacidad de Autorregulación.
FACTORES DIMENSIÓN AUTORREGULACIÓN Cat. 1 Cat. 2 Cat. 3 Cat. 4 Promedio
Implementación de un sistema de información para orientar el proceso de autoevaluación para la acreditación
94% 88% 84% 70% 84%
Cultura de evaluación 94% 81% 80% 70% 81%
Diseño de un sistema de información para orientar el proceso de autoevaluación para la acreditación 94% 81% 80% 62% 79%
Mecanismos de difusión de reglamentos de carrera en los distintos estamentos 65% 69% 76% 68% 69%
Actualización de reglamentos generales 88% 38% 72% 62% 65%
Formalización de procesos a través de manuales o guías de procedimientos 76% 50% 52% 46% 56%
Definición de políticas de docencia 59% 44% 56% 54% 53%
PROMEDIO 83,10% 66,40% 73,00% 61,80%
En la dimensión Capacidad de Autorregulación, se dan algunas diferencias entre categorías;
las carreras de las categorías 1-3 consideran que los resultados (todos valorados
positivamente) producto de la acreditación CNAP aumentaron en un 63,8%, mientras que
sólo un 48,6% de las carreras de la categoría 4 comparte esta percepción.
Al analizar los datos según el nivel de acreditación obtenido por las carreras, se observa un
patrón similar al ya descrito. Destaca en la dimensión Capacidad de Autorregulación que
las carreras con niveles bajos y medios de acreditación consideran que los resultados que se
han producido en la carrera producto de la acreditación CNAP, han aumentado (64,9%).
Mientras que menos carreras con un nivel alto de acreditación refieren a cambios que
impliquen un aumento (o mejoría) de ciertas condiciones el funcionamiento organizacional
en sus unidades académicas. (40,6%). Estas diferencias son estadísticamente significativas
(F=3,416 p<0,05).
Las carreras consideran que los cambios producidos en ésta son más bien de
responsabilidad del nivel central (59,5%), observándose una gradiente de mayor a menor
37
responsabilidad en las carreras de categoría 1 (68,4%) a categoría 4 (53,4%). En cambios
tales como definición de políticas de docencia y formalización de procesos a través de
manuales o guías de procedimientos, las carreras de categoría 1 le atribuyan una mayor
responsabilidad al nivel central (94,1% en ambos casos) que las carreras de categoría 4
(54,1% y 45,9%); éstas diferencias son también estadísticamente significativas (F=4,241
p<0,05; F=4,582 p<0,05, respectivamente). De la misma forma, hay cambios en que las
carreras se sienten más responsables, a saber, mecanismos de difusión de reglamentos de
carrera en los distintos estamentos (55,4%) y comités de autoevaluación (64,3%).
Independiente del nivel de acreditación de la carrera, todas consideran que muchos de los
cambios que se producen en esta dimensión son responsabilidad del nivel central (56%).
Algunos factores puntuales en los que se detectan diferencias importantes entre las
categorías de carreras, son aquellos que tienen que ver con la formalización de algunos
procesos, como son los manuales o guías de procedimientos y el desarrollo de instrumentos
para evaluar desempeño docente, en los que una mayor proporción de carreras de la
categoría 1 informa de cambios generados a raíz de la experiencia de acreditación (ver
gráfico n.° 2 y en anexo n.° 7, la serie de gráficos para cada tipo de cambio). Esta diferencia
se asocia también con el nivel de la organización que se hace cargo de la gestión de estos
procesos, que en el caso de las carreras de la primera categoría se dan mayoritariamente en
el nivel de gobierno central de la institución. Estos datos podrían ser indicador de menor
madurez o solidez organizacional o estar determinados por la existencia de diferentes
estilos o culturas de gestión que se expresan en menores niveles de autonomía de estas
carreras, tal como lo sugieren las referencias del estudio de las estructuras de gestión de las
universidades chilenas que pertenecen al Consejo de Rectores (Atria, 2005). Sin embargo,
dado que en este análisis no se controlaron atributos como nivel de complejidad o tamaño
organizacional, no es posible hacer afirmaciones concluyentes al respecto.
38
Al preguntar por percepción de indicadores de cambio, pareció relevante hacer un análisis
comparativo entre las percepciones de representantes de carreras que obtuvieron distintos
niveles de acreditación (expresados en años), la tendencia es muy parecida entre carreras de
distintos niveles y no hay diferencias estadísticamente significativas. La distribución se
aprecia con claridad en el gráfico n.° 3 y en la tabla n.° 8.
,0%
10,0%
20,0%
30,0%
40,0%
50,0%
60,0%
70,0%
80,0%
90,0%
100,0%
Después de acreditación CNAP
1
2
3
4
Gráfico 2 Desarrollo de instrumentos para evaluar desempeño docente según Categoría IES.
39
Gráfico 3. Percepción de cambios en indicadores de resultados (1=baja, 2=se mantiene; 3=mejora): comparación entre carreras diferenciadas por años de acreditación.
Tabla 8. Percepción de cambios en indicadores de resultados (1=baja, 2=se mantiene; 3=mejora): comparación entre carreras diferenciadas por años de acreditación.
Indicador de resultado (nombre)
Años de Acreditación
(ordinal) Bajo Medio Alto
Tasa de retención de estudiantes de primer año (Res1) 2,03 2,39 2,06 Titulación oportuna (Res2) 2,28 2,55 2,06
Tasa de retención de estudiantes de primer año distribuido por quintiles (Res3) 1,86 2,08 2,06
Competencias de egreso (Res4) 2,21 2,39 2,44 Tasa de empleabilidad de egresados (Res5) 2,24 2,16 1,94 Satisfacción empleadores (Res6) 2,24 2,37 1,94
Proyectos adjudicados con fondos concursables externos (Res7) 1,86 2,03 1,50
Números de proyectos de investigación por jornada completa equivalente (Res8) 1,72 2,24 1,56
Número de publicaciones indexadas por docentes jornada completa (Res9) 1,72 2,18 1,50
Impacto en el medio productivo regional, expresado en aumento en N.° de convenios con organizaciones locales (Res10) 1,69 2,00 1,63
Mecanismos de monitoreo evaluar el impacto de la vinculación con el medio, en la institución (Res11) 1,83 1,82 1,69
Actividades de extensión dentro de la institución para promover la calidad (Res18) 2,38 2,32 2,13
Bajo
Medio
Alto
Total
40
Si se compara la atribución de importancia a los cambios que han experimentado las
carreras, se da una tendencia parecida, especialmente en la dimensión Condiciones de
Operación y a la Capacidad de Autorregulación, donde las carreras con bajo nivel de
acreditación (2-3 años) tienden a asignarle una mayor importancia a los cambios, que
aquellas con nivel medio y alto. En general, la valoración (medida en asignación de grados
de importancia a los cambios), reproduce una tendencia parecida a la observada en la
distinción por categoría institucional, en el sentido que las carreras con mayor nivel de
acreditación tienden a percibir un menor número de cambios atribuibles a los procesos de
acreditación. Pero esta tendencia no marca diferencias estadísticamente significativas.
De este modo, en la línea de lo propuesto en la segunda hipótesis, se comprueba una
gradiente en la manifestación y valoración de cambios a lo largo del continuo de categorías,
aunque no con la misma intensidad que lo esperado.
VII. CONCLUSIONES
Al término de este estudio, en que se dio cumplimiento a los objetivos, bien vale hacer
algunos alcances para que los resultados sean considerados con cierta cautela, ya que se
presentaron dificultades durante el procedimiento que afectaron las condiciones
metodológicas del estudio, particularmente en su diseño muestral, como se precisa más
adelante en esta sección.
En lo que se refiere a los resultados, se logró construir un registro de juicios retrospectivos
de representantes de carreras acreditadas por CNAP, relativo al impacto atribuible a su
participación en los procesos de acreditación experimentales, entre los años 2001 y 2006.
Al respecto, lo primero que salta a la vista y que los encuestados precisan con claridad, es
que no es posible separar el efecto de diversos mecanismos y políticas implementadas con
miras a desarrollar la calidad de la educación (Mecesup, AFI, entre otros), los que operaron
en forma casi simultánea en el intervalo de tiempo en estudio. Por lo tanto, aunque los datos
arrojan evidencia de cambios efectivos ocurridos en las carreras (y a nivel central), no se
puede afirmar con certeza que son provocados exclusivamente como consecuencia de los
41
procesos de acreditación. Tampoco es posible aislar el efecto de cada componente que
formaba el sistema en los años en que se llevaron a cabo los procesos de acreditación
analizados.
Pero, estas no son razones que inmovilicen y obliguen a abstenerse de sistematizar juicios y
percepciones acerca de estos cambios, aunque no hayan sido causados por un sólo factor. A
partir de los antecedentes examinados, queda en evidencia que muchos reconocen la
sinergia que se produce por la convergencia de estos eventos, sumado a procesos de
acreditación simultáneos en una misma institución, lo que estimula a participantes y
colaboradores y fomenta el aprendizaje institucional.
Lo que parece indiscutible, es el hecho que en muchas instituciones se ha desarrollado una
cultura de evaluación, que ha enraizado y facilitado la creación de unidades de apoyo en el
análisis institucional y de programas. Estas unidades tienen una función importante y son
muy valoradas por sus coordinadores y carreras beneficiarias. No obstante, se pone una voz
de alerta frente a los riesgos de rutinizar las tareas asociadas a los procesos de evaluación
interna, crear dependencia o rigidizar el quehacer y penalizar las innovaciones.
Por otro lado, si bien se confirma el supuesto que las instituciones superiores cambian y no
permanecen inmutables en un entorno como el de nuestro país en el escenario actual, y se
comprueba parcialmente la hipótesis que existen diferencias en las percepciones de impacto
en las instituciones, la gradiente esperada en las carreras distribuidas en el continuo del
sistema de clasificación, no es tan pronunciada como se esperaba.
En relación con los hallazgos específicos, queda de manifiesto la existencia de una relativa
homogeneidad en las respuestas de los participantes, tanto en la identificación de cambios
como en la importancia que les asignan a los mismos. Estos resultados no sorprenden,
dadas las características de las carreras que conformaban el universo. Todas pertenecen a
un subgrupo de programas que participaron voluntariamente en procesos de acreditación en
un periodo “experimental”, antes que hubiera normas que regularan y condicionaran sus
resultados. Es así como las carreras de la muestra se sometieron a la evaluación de sus
42
pares, sin otra “moneda de cambio” que los beneficios intrínsecos de todo proceso de
autoevaluación y evaluación, con miras al mejoramiento continuo del quehacer académico.
Por otro lado, aunque las carreras presentaron patrones de respuestas bastante homogéneos,
se observaron ciertas divergencias que configuran perfiles diferenciados:
- Las carreras de la categoría 4, aunque reconocen cambios positivos que atribuyen a su
participación en procesos de acreditación, lo hacen en una proporción menor de acuerdo
a los indicadores contenidos en los reactivos del cuestionario.
- Hay condiciones de operación que no son reconocidas por las carreras de la categoría 4,
aunque las otras sí las señalan entre los cambios como consecuencia de la acreditación.
Tal vez, estas carreras (de la categoría 4) presentaban condiciones preexistentes de
mejor nivel y más consolidadas, de manera que no se vieron impactadas por los
procesos de evaluación externa, como sí lo manifiestan las carreras de las tres primeras
categorías.
- Hay factores que convocan mayor acuerdo entre las carreras de distintas categorías y
éstas se relacionan con ciertas tareas que se consideran de gestión exclusiva de las
disciplina –como son las acciones relacionadas con la definición el perfil de egreso y el
plan de estudios– a diferencia de otras que se consideran de responsabilidad del nivel
central de la institución, las que corresponden principalmente a gestiones relacionadas
con la autorregulación de la unidad –definición de políticas de docencia y formalización
de procesos–.
Un resultado no esperado de este estudio, fue la aplicabilidad de la taxonomía elaborada
para clasificar las carreras en este estudio. Las distinciones lograron diferenciar las carreras
y distribuirlas en un continuo, generando algunos perfiles distintivos entre carreras, por
categoría.
Se podría pensar que el continuo sobre el que se distribuyen las carreras en esta taxonomía,
probablemente tiene alguna variable “latente” o subyacente, relacionada con los criterios
que configuraron las categorías. A modo de hipótesis, probablemente ésta se asocie con
procesos de aprendizaje organizacional, los que a su vez dependen de un cierto carácter
43
innovador de las instituciones, que las estimula a aventurar desafíos (Clark, 1998, 2004), en
las que puede haber una distribución en elementos estructurales como la diversificación de
la base de financiamiento y otros, de orden cultural, como es la convicción de la necesidad
de expandir sus actividades, buscar nuevas oportunidades e intervenir en el entorno.
Algunas variables específicas que pueden estar a la base de la capacidad de
emprendimiento son, de acuerdo a Kuratko et al (1990), el apoyo administrativo para el
emprendimiento, la estructura organizacional, el riesgo, la disponibilidad de tiempo y de
recursos. Un análisis más a fondo de las características de las carreras que conformaron la
base muestral del estudio, podría llevarnos a confirmar la presencia de estos factores, los
que eventualmente pudieron actuar como facilitadores y modeladores de su participación en
procesos de mejoramiento de la calidad de la educación que imparten.
Por último, una breve reseña acerca de las limitaciones del estudio. Inicialmente se
determinó una cuota mínima aceptable de respuestas por categoría, pero hubo una baja tasa
de respuesta de las carreras de la categoría 4 (sólo 16%), aunque en términos de número
absolutos esta fue la categoría con más participantes. Hay distintos elementos que podrían
explicar el comportamiento diferencial en la tasa de respuestas a lo largo de las categorías
de las carreras participantes del estudio. Por un lado, hubo varias afectadas por el terremoto
-ocurrido mientras se llevaba a cabo este estudio- en instituciones de regiones que sufrieron
los mayores daños en el país, pero también hubo algunas de la Región Metropolitana, sin
mayores daños por el sismo, que probablemente tienen menos interés por estos temas y
fueron más resistentes a colaborar, pese a las insistencias del equipo de investigación. Estas
circunstancias introducen una limitación, que restringe la generalización de los resultados a
aquellas unidades que comparten los mismos atributos.
En consecuencia, a partir de estos datos, no se puede hacer afirmaciones taxativas acerca de
cambios que se producen en carreras que se acreditan obligatoriamente o las que se
involucran en estos procesos estimulados solamente por motivaciones de mercado u otras
razones que no se vinculan con la búsqueda genuina de la calidad. Quedan abiertas estas
interrogantes para estudios futuros, los que debieran analizar muestras más numerosas y
representativas de toda la diversidad de instituciones de educación superior. Se espera que
44
en el mediano plazo, los estudios de esta línea, puedan aportar al sistema con el desarrollo
de indicadores, que permitan la medición del impacto y superen la evaluación indirecta a
través de “cuasi indicadores”, como son las percepciones y juicios de las partes interesadas.
45
VIII. Referencias bibliográficas Allen, J. y Van der Velden, R. (Eds.) (2007). The flexible professional in the knowledge
society: General results of the REFLEX proyect. Disponible en:
http://www.educpros.fr/uploads/media/reflex_01.pdf
Amaral, A. (2010) Impacto del Aseguramiento de la Calidad en la Eficacia Formativa.
Serie Seminarios Internacionales CNED ISBN 978-956-7434-26-8. Tomo 13°, abril
de 2010.
Aneca (2007). El profesional flexible en la sociedad del conocimiento. Disponible en:
http://www.aneca.es/estudios/docs/InformeejecutivoANECA_jornadasREFLEXV20.p
df.
Bellingham, L. (2008). Quality Assurance and the Use of Subject Level Reference Points in
the UK. Quality in Higher Education, 14 (3), 265-276.
Atria, R. (2006) La gestión de las universidades del consejo de rectores. Revista Calidad en
la Educación n.° 24, pp. 67-116.
Beneitone, P., Esquetini, C., González, J., Marty Maletá, M., Siufi, G., Wagenaar, R. (Eds.)
(2007). Reflexiones y perspectivas de la educación superior en América Latina.
Informe final proyecto Tuning América Latina 2004‐2007. Disponible en:
http://tuning.unideusto.org/tuningal/index.php?option=com_docman&Itemid=191&ta
sk=view_category&catid=22&order=dmdate_published&ascdesc=DESC
Briones, G. (1985). Evaluación de Proyectos Sociales. Santiago: PIIE.
Brunner, J. (2009) Educación Superior en Chile: Instituciones, Mercados y Políticas
Gubernamentales (1967-2007). Ediciones Universidad Diego Portales, Santiago de
Chile.
46
Comisión Nacional de Acreditación de Pregrado (2002). Manual de Pares Evaluadores.
Ministerio de Educación. Chile.
Clark, R (1998) The Entrepreneural University: Demand and Response, Tertiary Education
and Management. Vol 4 n.° 1. 5-16.
Fernández‐Ballesteros, R. (1996). Evaluación de programas. Una guía práctica en ámbitos
sociales, educativos y de salud. Madrid: Editorial Síntesis.
Fernández Lamarra, N. (2004) Evaluación y Acreditación de la Educación Superior en la
Educación Superior Argentina. En: La Evaluación y la Acreditación en la Educación
Superior en América Latina y el Caribe. UNESCO‐IESALC, pp. 15‐30. Disponible
en: http://www.iesalc.unesco.org.ve/estudios/regionales_lat/evalyacredalc.pdf .
Fernández Lamarra, N. (2007). Educación Superior y Calidad en América Latina y
Argentina: los procesos de evaluación y acreditación. EDUNTREF, Buenos Aires.
Kis, V (2005) Quality Assurance in Tertiary Education: Current Practices in OECD
Countries and a Literature Review on Potential Effects. Documento de trabajo OCDE.
Kuratko, D; Montagno, R.; & Hornsby, J. (1990) Developing an Intrapreneurial
Assessment Instrument for an Effective Corporate Entrepreneurial Environment.
Strategic Management Journal, Vol. 11, 49-58.
Lemaitre M.J. (2005) Aseguramiento de la calidad en Chile: impacto y proyecciones. En
Aseguramiento de la calidad: impacto y proyecciones. Santiago de Chile: Serie
Seminarios Internacionales, pp. 55-69.
Lemaitre M.J. (2009) Nuevos enfoques sobre aseguramiento de la calidad en un contexto
de Cambios. Revista Calidad en la Educación n. º 31, pp. 169-189.
47
Mora, J. G. (2004). La necesidad del cambio educativo para la sociedad del conocimiento.
Revista Iberoamericana de educación, (35), 13‐37. Recuperado el 11 de mayo, 2009,
de http://www.rieoei.org/rie35.htm
Monetta, J.C., y Muñoz, R. (2004) Primera carrera técnica acreditada con la Comisión
Nacional de Acreditación de Pregrado. Revista Calidad en la Educación n. º 21. pp.
207-219.
Navarro, G. (2007) Impacto del proceso de acreditación de carreras en el mejoramiento de
la gestión académica. Calidad en la Educación, 26(1), pp. 247-288.
Organización para la Cooperación y el Desarrollo Económico, OECD (2009). La
Educación Superior en Chile. Edición en español del Ministerio de Educación de
Chile.
Perellon, J. (2007). Analysing Quality Assurance in Higher Education: proposals for a
conceptual framework and methodological implications. En Translation and
Transformation, 155–178, Westerheijden et al. (eds.), Quality assurance in higher
education: trends in regulation.
Rivera, F., Astudillo, P., Fernández, E. Información y toma de decisiones: oficinas de
análisis institucional Calidad en la Educación n.° 30, julio 2009.
Scharager, J., Cortés, F. y Bravo, T. (2008). Percepción de la Calidad Actual de los
Titulados y Graduados de la Educación Superior Chilena. Centro de Medición de la
Escuela de Psicología de la Pontificia Universidad Católica de Chile, financiado por
MINEDUC y BID.
Smith, M. and Glass, G. (1987) Research and Evaluation in the Social Sciences. New
Jersey: Prentice Hall.
48
Stensaker, B. (2008). Outcomes of Quality Assurance: a Discussion of Knowledge,
Methodology and Validity. Quality in Higher Education, 14 (1), 3‐13.
Stufflebeam, D. y Shinkfield, A. (1985). Evaluación sistemática. Guía teórica y práctica.
España: Centro de Publicaciones del Ministerio de Educación y Ciencia (M.E.C.) y
Ediciones Piados Ibérica, S.A.
Teichler, U. (2002). Graduate employment and work in Europe: diverse situations and
common perceptions. Tertiary Education and Management, 8, 199‐216.
Teichler, U. (2007). Does higher education matter? Lessons from a comparative graduate
survey. European Journal of Education, 42 (1), 11‐34.
Tuning Project (2006). Una introducción a Tuning Educational Structures in Europe. La
contribución de las universidades al proceso de Bolonia. Disponible en:
http://tuning.unideusto.org/tuningeu/images/stories/template/General_Brochure_Span
ish_version.pdf
Velasco, N., Fernandez, R., & Martínez, Y. (2006). Indicadores y estándares
internacionales de calidad universitaria. Calidad en la Educación n.° 25, 17-29.
Zapata, G. y Tejeda, I (2009) Impactos del aseguramiento de la calidad y acreditación de la
educación superior. Consideraciones y proposiciones. Revista Calidad en la
Educación nº 31, pp. 191-209.
Zurita, R. (2004) La carrera de psicología en la Universidad de La Frontera: una
experiencia de acreditación. Revista Calidad en la Educación n.º 21, pp. 195-205.
49
i Los recursos humanos, en el marco de esta dimensión, se refieren principalmente a aquellos que están a cargo de funciones directivas, académicas y administrativas. ii Se puede acceder a los antecedentes de este proyecto en http://www.cinda.cl/proyecto_alfa/htm/documentos.htm iii La categoría 1 indica menor número de programas ingresados a acreditación y años de acreditación inferior a 3, en comparación con aquellas carreras que pertenecen a instituciones que acreditaron en promedio 22 programas y obtuvieron más de 4 años de acreditación ellos y se clasificaron en la categoría 4.
50
El Consejo Superior de Educación realizó una convocatoria a equipos de centros de investigación y universidades del país, para presentar proyectos en áreas consideradas actualmente prioritarias en el ámbito de la educación superior. El concurso se adjudicó a tres equipos de investigadores de distintas universidades del país. Uno de ellos pertenece a la Escuela de Psicología de la Pontificia Universidad Católica de Chile, y lo conforman Judith Scharager y María Teresa Aravena. El objetivo del estudio es explorar el impacto de las políticas de aseguramiento de la calidad en programas de educación superior, que completaron su proceso de acreditación con CNAP. Los hallazgos de estos estudios se divulgarán a través de la revista del CSE “Calidad en la Educación”, además de la página web del Consejo. En estos momentos estamos elaborando el instrumento de recolección de datos, el que se diseña con el fin de conocer las opiniones de directores de carreras y encargados de aseguramiento de calidad de Instituciones de Educación Superior, que participaron de los procesos “experimentales” de acreditación de careras de pregrado con la Comisión Nacional de Acreditación de Pregrado, CNAP, antes del año 2006. Para estos efectos, hemos invitado a cuatro representantes de universidades que acreditaron carreras con CNAP, antes de la promulgación de la ley 20.129, para pedir su colaboración en esta primera etapa de nuestro estudio. Específicamente, queremos solicitar que respondan 4 preguntas relativas al objeto de nuestra investigación. Sus respuestas nos serán de mucha utilidad para elaborar el instrumento definitivo que aplicaremos a un gran número de instituciones, en la siguiente etapa. Desde ya agradecemos su colaboración.
1. ¿Pensando en las características de su universidad, podría ensayar una definición de calidad de educación superior?
2. ¿A través de qué indicadores considera que se puede evaluar la calidad de una institución de educación superior, como a la que usted pertenece?
3. ¿A través de qué indicadores considera que se puede evaluar la calidad de una
carrera en su universidad?
4. Desde que se puso en marcha el período “experimental” de procesos de acreditación, liderado por la CNAP, ¿qué cambios se han producido en su institución? Por favor refiérase a las siguientes dimensiones: a. Estructura organizacional de la Universidad (Ej. Cambios en el organigrama, creación de oficina de autoevaluación, creación de comités curriculares, etc.) b. Estructura a nivel de las carreras. c. Procesos y procedimientos (reglamentos, seguimientos de egresados, ajustes curriculares, prácticas pedagógicas, etc.), a nivel de las carreras. d. Otra dimensión relevante 5. Por favor indique si tiene alguna sugerencia para este estudio, en cualquier ámbito que le parezca relevante.
51
El Consejo Superior de Educación realizó una convocatoria a equipos de centros de investigación y universidades del país,
para presentar proyectos en áreas consideradas actualmente prioritarias en el ámbito de la educación superior. El concurso se
adjudicó a tres equipos de investigadores de distintas universidades del país. Uno de ellos pertenece a la Escuela de
Psicología de la Pontificia Universidad Católica de Chile, y lo conforman Judith Scharager y María Teresa Aravena. El
objetivo del estudio es explorar el impacto de las políticas de aseguramiento de la calidad en programas de educación
superior, que completaron su proceso de acreditación con CNAP. Los hallazgos de estos estudios se divulgarán a través de la
revista del CSE “Calidad en la Educación”, además de la página web del Consejo. En estos momentos estamos elaborando el
instrumento de recolección de datos, el que se diseña con el fin de conocer las opiniones de directores de carreras y
encargados de aseguramiento de calidad de Instituciones de Educación Superior, que participaron de los procesos
“experimentales” de acreditación de careras de pregrado con la Comisión Nacional de Acreditación de Pregrado, CNAP,
antes del año 2006. Para estos efectos, hemos invitado a cuatro representantes de universidades que acreditaron carreras
con CNAP, antes de la promulgación de la ley 20.129, para pedir su colaboración en esta primera etapa de nuestro estudio.
Específicamente, queremos solicitar que respondan 4 preguntas relativas al objeto de nuestra investigación. Sus respuestas
nos serán de mucha utilidad para elaborar el instrumento definitivo que aplicaremos a un gran número de instituciones, en la
siguiente etapa. Desde ya agradecemos su colaboración.
1. ¿Pensando en las características de su universidad, podría ensayar una definición de calidad de educación superior?
2. ¿A través de qué indicadores considera que se puede evaluar la calidad de una institución de educación superior, como a la que usted
pertenece?
3. ¿A través de qué indicadores considera que se puede evaluar la calidad de una carrera en su universidad?
4. Desde que se puso en marcha el período “experimental” de procesos de acreditación, liderado por la CNAP, ¿qué cambios se han
producido en su institución? Por favor refiérase a las siguientes dimensiones:
a. Estructura organizacional de la Universidad (Ej. Cambios en el organigrama, creación de oficina de autoevaluación, creación de
comités curriculares, etc.)
b. Estructura a nivel de las carreras
c. Procesos y procedimientos (reglamentos, seguimientos de egresados, ajustes curriculares, prácticas pedagógicas, etc.), a nivel de las
carreras.
d. Otra dimensión relevante
5. Por favor indique si tiene alguna sugerencia para este estudio, en cualquier ámbito que le parezca relevante.
Anexo 2: Resultados primer cuestionario (exploratorio)
Pregunta Tipo de
Institución Respuesta
1 Pública RM
El grado en que responde las carreras y programas a las necesidades del sistema educacional y campo laboral.
Privada RM
Cumplir atributos que se identifican y definen como relevantes y que permiten contribuir al desarrollo y bienestar de la sociedad.
Pública regional
Desarrollar procesos de formación creación y gestión que facilitan el logro eficiente y oportuno de los propósitos declarados por la institución, de acuerdo a los estándares nacionales de calidad.
Privada regional
Es la capacidad de un sistema educativo terciario para aportar al desarrollo del país, incrementando sus capacidades tecnológicas, económicas, sociales y culturales, y brindando opciones de equidad e inclusión en esta dinámica.
2 Pública RM
Debe evaluarse como mínimo cuatro áreas: docencia, gestión institucional, extensión e investigación, es decir, las funciones básicas. Aquellas instituciones de educación superior como institutos profesionales y centros de formación, a lo menos docencia y gestión institucional.
Privada RM
Acreditación institucional (años y áreas) Acreditación de carreras (cobertura y años) Ranking de posicionamiento de la Universidad
Pública regional
Evolución de indicadores de eficiencia interna, globales, por programa, y aquellos incluidos en su planificación (indicadores/linea de base/metas)
Privada regional
Dependiendo de las características de la institución de educación superior se deben agregar otras áreas, como: postgrado, infraestructura, productividad académica y tecnológica, vinculación investigación campo laboral - formación, etc. Efectividad docente: - retención de primer y último año - titulación oportuna y tasa de titulación - titulación oportuna y tasa de titulación - retención de primer año distribuido por quintiles
- Indicadores de titulación y retención comparado con industria (normalizados) - Avanzar en indicadores de aprendizaje Efectividad en investigación: - Proyectos externos (del sistema nacional de Ciencia y Tecnología) - Proyectos externos totales - productividad de investigadores (n° Proyectos/JC; n° publicaciones indexadas/JC) - Impacto en el medio productivo regional (seguimiento impacto a proyectos) Indicadores de eficiencia institucional: - margen operacional institucional - distribución de gasto en personal administrativo y académico - endeudamiento (payment destinado a deuda) - patrimonio e inversiones (flujos proyectados) Cumplimiento de propósitos: - Responsabilidad social universitaria - Rol ciudadano de la Universidad (encuesta; posicionamiento, etc.) - crecimiento de matrícula - acreditación de carreras e institucional
3 Pública RM
Acreditación nacional e internacional Prestigio de los profesionales formados en la carrera Ranking en habilitación profesional (pruebas nacionales)
Privada RM
Existen otros indicadores más internos, tales como: tasas de retención, tasas de aprobación, progresión de estudiantes, tasas de titulación, tasas de empleabilidad, tiempo de acceso a primer y segundo empleo.
Pública regional
Tasas de logro académico estudiantil Retención al 1, 3 y 5 año Tasas de titulación oportuna Tasa de empleo en 6 meses La evaluación de la calidad de una carrera de pregrado debería considerar como elementos básicos: perfil de egreso o profesional, desempeño en la práctica profesional y desempeño en el primer año del ejercicio profesional. Además, considerar otros elementos como los que se evalúan hoy día.
Privada regional
Prácticamente los mismos: Retención primer año y final Tasa de aprobación de créditos primer años y total Titulación oportuna Calidad percibida de la docencia Indicadores de asistencia docente Medición de competencias de egreso (algo así como el programa Inicia para todas las carreras) Indicadores de empleabilidad Satisfacción empleadores
4a
Pública RM
La estructura de la universidad se modifica como efecto de modificar sus estatutos y estos se modifican por una ley. Sin embargo se generaron cambios funcionales: comisión de evaluación institucional (es permanente) y se agregó a la secretaria técnica una función de apoyo a estos procesos.
Privada RM
Ajuste de Misión y Plan Estratégico Corporativo. Definición de un Modelo Educativo propio. Estructura organizacional: Creación de dos nuevas vicerrectorías, reestructuración de VR de Desarrollo, creación de Dirección de Aseguramiento de la Calidad, Dir. de Análisis Institutucional. Creación de Comité Gerencial del Proceso de Rediseño Curricular. Constitución Comisión asesora de Aseguramiento de la Calidad.
Pública regional
Unidad de Aseguramiento de Calidad Comités curriculares Explicitación de políticas Mecanismos de seguimiento y apoyo a los procesos formativos y de gestión
Privada regional
- Readecuación de la estructura organizacional de la Universidad (cambio de vicerrectorías a direcciones generales) - Creación de la Dirección de Análisis Institucional y Aseguramiento de la Calidad - Implementación de Modelo Educativo Institucional con base en formación por competencias y centrado en el estudiante - Implementación de un programa de inserción y apoyo en competencias básica a estudiantes de primer año - Unidad de egresados en la Dirección de Desarrollo Estudiantil
- Contratación de sistemas de gestión de información en línea - reestructuración de unidades colegiadas de toma de decisiones - Creación de consejos asesores externos a las carreras para incorporar perspectiva del medio - modelo de competencias directivas para evaluar las funciones y metas de dirección
4b
Pública RM
Creación de los comités de autoevaluación, se agregó la función de evaluación de la formación a los consejos de departamentos y consejos de facultad. Cada carrera y programa generó un procedimiento para seguimiento de egresados.
Privada RM
Nombramiento de Directores y Secretarios de Estudio de Escuelas. Creación de comités de currículum Mayor dotación de académicos adscritos a las Escuelas. Asignación de responsable por relaciones con egresados. Coordinadores de práctica.
Pública regional
Revisión de procesos de gestión con énfasis en la redefinición de funciones, con pocos cambios estructura organizacional.
Privada regional
- cambio de departamentos a Escuela - Descentralización operacional - Decisiones más cerca de la base académica - Creación de los consejos de escuela - cargo de Secretarios académicos - cargo coordinadores de práctica - creación de asistente de escuela (cargo administrativo para la gestión de temas estudiantiles)
4c
Pública RM
Se definieron o se actualizaron procesos y procedimientos, a través de manuales o políticas. Se actualizaron los reglamentos generales y se generalizó el reglamento por carrera. Se diseño e implementó un sistema de información, según las características de la información que solicitaba el organismo acreditador (CNAP). Se formuló un proceso relacionado con el registro de evidencias.
Privada RM
Perfil de docentes, requisitos de ingreso, carrera académica, nueva jerarquización. Empleo de Sistemas de gestión académica curricular. Empleo de TIC en la formación.
Incorporación de prácticas en todas las carreras.
Pública regional
Actualización en la mayoría de ellos
Privada regional
- Implementación de nuevo modelo educativo (progresiva) Innovación curricular concertada - Consejos asesores (apoyo a las decisiones del director de escuela) - desarrollo de prácticas tempranas - Implementación de planes operativos en las Escuelas - desarrollo de actividades de educación continua (con reinversión de excedentes)
4d
Pública RM
Un cambio importante y general de la institución, fue la generación de una cultura de autoevaluación y una mejor disposición al cambio.
Privada RM
Implementación de Infraestructura y Equipamiento para el servicio de la formación
Pública regional
la rendición de cuentas, se integró al quehacer regular, al igual que la gestión planificada como el seguimiento de procesos
Privada regional
No contesta
5
Pública RM
Debería considerarse en el estudio efectos negativos o externalidades negativas que generó este proceso, como por ejemplo: hoy día, el acreditar la carrera es tan importante como los propósitos de formación de ésta.
Privada RM
Debiera incorporarse en el estudio las unidades mayores que soportan a las carreras: Facultades, por cuanto son las que dan sustento a las carreras.
Pública regional
Incorporar la calidad, utilidad y uso regular de las planificaciones como eje de la gestión institucional y la toma de decisiones
Privada regional
Preguntas muy abiertas, desincentivan la respuesta del encuestado. Algunas de estas cosas pueden suponerse y ponerse en un listado para hacer check list
A partir de la experiencia de participar en los primeros procesos de acreditación de carreras conducidos por CNAP, entre los años 2001
y 2006, antes de la promulgación de la ley 20.129, ¿su institución introdujo cambios, ajustes o innovaciones en la organización
atribuibles en alguna medida a estos procesos? Marque los que se hayan producido en su institución y agregue los que no aparezcan en el
siguiente listado. Para cada uno de ellos, indique en qué período se realizaron estos cambios: durante o después de la acreditación de
carreras realizada por CNAP; y señale el grado de importancia que le atribuye en miras a mejorar la calidad de su institución.NOTA:
Marque sólo aquellos cambios que puede atribuir como resultados del proceso de acreditación de carreras por CNAP, aunque se hayan
producido en su institución después del 2006.
Para responder a cada item, hágase la pregunta ¿en mi institución se han realizado cambios, ajustes o innovaciones en… ?
Durante
acreditación
CNAP
Después de
acreditación
CNAP
No aplica
Proyecto Educativo ❏ ❏ ❏ Desarrollo de política institucional de fomento de la investigación ❏ ❏ ❏
Mecanismos de apoyo al re-diseño curricular ❏ ❏ ❏ Desarrollo de estrategias de difusión y marketing ❏ ❏ ❏
Desarrollo de instancias y mecanismos formales y sistemáticos de
vinculación con el medio externo ❏ ❏ ❏ Sistema de gobierno, considerando las diversas instancias de toma de
decisiones ❏ ❏ ❏ Sistemas de información (registros académicos) de apoyo a la
docencia ❏ ❏ ❏ Normas y procedimientos asociados a la gestión de RRHH ❏ ❏ ❏
Sistema de calificación y jerarquización docente ❏ ❏ ❏ Sistema de evaluación del desempeño de los directivos ❏ ❏ ❏
Planificación, ejecución y control de recursos materiales y financieros
de la institución ❏ ❏ ❏ Mecanismos de seguimiento y apoyo a los procesos formativos
❏ ❏ ❏ Mecanismos de seguimiento y apoyo a la gestión ❏ ❏ ❏
Desarrollo de criterios de asignación de recursos destinados a renovar
o mejorar la dotación de infraestructura, instalaciones y recursos para
la docencia
❏ ❏ ❏
Otros (especifique)
¿Qué grado de importancia le atribuye usted a estos cambios, ajustes o innovaciones realizadas en su institución?
Baja
importancia
Mediana
importancia
Alta
importancia
No aplica
Proyecto Educativo ❏ ❏ ❏ ❏ Desarrollo de política institucional de fomento de la
investigación ❏ ❏ ❏ ❏ Mecanismos de apoyo al re-diseño curricular ❏ ❏ ❏ ❏
Desarrollo de estrategias de difusión y marketing ❏ ❏ ❏ ❏ Desarrollo de instancias y mecanismos formales y
sistemáticos de vinculación con el medio externo ❏ ❏ ❏ ❏ Sistema de gobierno, considerando las diversas instancias de
toma de decisiones ❏ ❏ ❏ ❏ Sistemas de información (registros académicos) de apoyo a la
docencia ❏ ❏ ❏ ❏ Normas y procedimientos asociados a la gestión de RRHH ❏ ❏ ❏ ❏
Sistema de calificación y jerarquización docente ❏ ❏ ❏ ❏ Sistema de evaluación del desempeño de los directivos ❏ ❏ ❏ ❏
Planificación, ejecución y control de recursos materiales y
financieros de la institución ❏ ❏ ❏ ❏ Mecanismos de seguimiento y apoyo a los procesos
formativos ❏ ❏ ❏ ❏ Mecanismos de seguimiento y apoyo a la gestión ❏ ❏ ❏ ❏
Desarrollo de criterios de asignación de recursos destinados a
renovar o mejorar la dotación de infraestructura,
instalaciones y recursos para la docencia
❏ ❏ ❏ ❏
A continuación se presentan una serie de resultados que se pueden atribuir a los procesos de acreditación. Por favor marque aquéllos que
se han producido en su institución, y que se puedan atribuir al proceso de acreditación de carreras conducidos por CNAP, entre los años
2001 y 2006, antes de la promulgación de la ley 20.129. Para cada uno de ellos, señale si el indicador ha disminuido, se ha mantenido o
ha aumentado desde el año 2001 a la fecha.
Disminuye Se mantiene Aumenta No aplica
Retención de primer y último año ❏ ❏ ❏ ❏ Titulación oportuna ❏ ❏ ❏ ❏
Retención de primer año distribuido por quintiles ❏ ❏ ❏ ❏ Proyectos con fondos concursables externos ❏ ❏ ❏ ❏
Números de proyectos docentes jornada completa ❏ ❏ ❏ ❏ Nº publicaciones indexadas docentes jornada completa ❏ ❏ ❏ ❏ Impacto en el medio productivo regional, expresado en
aumento en número de convenios con organizaciones locales ❏ ❏ ❏ ❏
gasto en personal administrativo y académico
Endeudamiento (payment destinado a deuda) ❏ ❏ ❏ ❏
Patrimonio e inversiones (flujos proyectados) ❏ ❏ ❏ ❏ Infraestructura, instalaciones y otros recursos para
docencia ❏ ❏ ❏ ❏ Infraestructura, instalaciones y otros recursos para
investigación ❏ ❏ ❏ ❏ Dotación material bibliográfico ❏ ❏ ❏ ❏
Matrículas en primer año ❏ ❏ ❏ ❏ Innovaciones en estrategias pedagógicas
❏ ❏ ❏ ❏ Espacios de participación a distintos estamentos ❏ ❏ ❏ ❏
Cooperación inter-estamental ❏ ❏ ❏ ❏ Desarrollo de criterios de asignación de recursos destinados a
renovar o mejorar la dotación de infraestructura,
instalaciones y recursos para la investigación
❏ ❏ ❏ ❏
Apertura de nuevas sedes ❏ ❏ ❏ ❏ Ajustes de misión institucional ❏ ❏ ❏ ❏
Ajustes al plan estratégico corporativo ❏ ❏ ❏ ❏ Formulación de Políticas de aseguramiento de la calidad ❏ ❏ ❏ ❏
Sistemas de información de apoyo a la gestión ❏ ❏ ❏ ❏ Comités curriculares ❏ ❏ ❏ ❏
Unidades de aseguramiento de calidad ❏ ❏ ❏ ❏ Comités de autoevaluación permanentes o secretaría técnica
de análisis institucional ❏ ❏ ❏ ❏ Formalización de normas (manuales, reglamentos, estatutos,
decretos, etc.) ❏ ❏ ❏ ❏
Indique otros resultados que se han producido en su institución que se relacionen con los procesos de acreditación de carreras conducidos
por CNAP, entre los años 2001 y 2006, antes de la promulgación de la ley 20.129.
¿Cuáles considera usted que son los tres cambios más importantes realizados en su institución, que pueden atribuirse de una u otra forma
a los procesos de acreditación de carreras conducidos por CNAP, entre los años 2001 y 2006?
¿Considera usted que las políticas de aseguramiento de la calidad han generado algún impacto negativo en su institución? Si la respuesta
es afirmativa, por favor refiérase a ellos.
Por favor complete las siguientes preguntas que permitirán dar contexto a sus respuestas
¿Cuál es su edad?
¿En qué institución trabaja?
¿Cuántos años lleva en esta institución?
¿Cuál es su cargo actual en la institución?
¿Cuántos años lleva en este cargo?
¿Cuál era su cargo anterior? Si este cargo lo ejerció en una institución distinta a la actual, por favor indíquenos cuál.
A partir de la experiencia de participar en los primeros procesos de acreditación de carreras conducidos por CNAP, entre los años 2001
y 2006, antes de la promulgación de la ley 20.129, ¿su carrera introdujo cambios, ajustes o innovaciones en la organización atribuibles en
alguna medida a estos procesos? Marque los que se hayan producido en su carrera y agregue los que no aparezcan en el siguiente listado.
Para cada uno de ellos, indique en qué período se realizaron estos cambios: durante o después de la acreditación realizada por CNAP; y
señale el grado de importancia que le atribuye en miras a mejorar la calidad de su carrera.NOTA: Marque sólo aquellos cambios que se
pueden atribuir como resultados del proceso de acreditación por CNAP, aunque se hayan producido en su carrera después del 2006.
Para responder a cada item, hágase la pregunta ¿en mi carrera se han realizado cambios, ajustes o innovaciones en… ?
Durante
acreditación
CNAP
Después de
acreditación
CNAP
No aplica
Comités curriculares ❏ ❏ ❏ Consejos asesores (apoyo a las decisiones del director de escuela) ❏ ❏ ❏
Registros de seguimiento de planes de estudio ❏ ❏ ❏ Incentivos al perfeccionamiento docente ❏ ❏ ❏
Programas de actividades de educación continua ❏ ❏ ❏ Revisión de perfiles de egreso ❏ ❏ ❏ Re diseño de plan de estudios ❏ ❏ ❏
Innovación de métodos pedagógicos ❏ ❏ ❏ Desarrollo de mecanismos sistemáticos de vinculación de la carrera
con el medio externo ❏ ❏ ❏ Desarrollo de instrumentos para evaluar el desempeño docente ❏ ❏ ❏
Desarrollo de estrategias de difusión y marketing ❏ ❏ ❏ Estructura de gobierno de la carrera, considerando las diversas
instancias de toma de decisiones ❏ ❏ ❏ Estructura organizacional de la unidad ❏ ❏ ❏
Sistemas de información (registros académicos) de apoyo a la
docencia ❏ ❏ ❏ Normas y procedimientos asociados a la gestión de RRHH de la
carrera ❏ ❏ ❏ Sistema de calificación y jerarquización docente ❏ ❏ ❏
Sistema de evaluación del desempeño de los directivos ❏ ❏ ❏ Consejos de escuela ❏ ❏ ❏
Creación de cargos de secretarios académicos ❏ ❏ ❏ Creación de cargos de coordinadores de práctica ❏ ❏ ❏
Creación de cargos de asistente de escuela cargo administrativo para
la gestión de temas estudiantiles ❏ ❏ ❏ Mecanismos de apoyo a los estudiantes ❏ ❏ ❏
Recursos de apoyo a la docencia ❏ ❏ ❏ Innovaciones en la gestión de recursos materiales y financieros de la
carrera ❏ ❏ ❏ Mecanismos para seguimiento de egresados ❏ ❏ ❏
Mecanismos para evaluar progreso de innovaciones curriculares ❏ ❏ ❏ Mecanismos para evaluar progreso de planes de estudio en régimen ❏ ❏ ❏ Mecanismos para seguimiento y apoyo a los procesos formativos ❏ ❏ ❏
Mecanismos para seguimiento y apoyo a la gestión ❏ ❏ ❏ Desarrollo de criterios de asignación de recursos destinados a renovar
o mejorar la dotación de infraestructura, instalaciones y recursos para
la docencia
❏ ❏ ❏
Desarrollo de criterios de asignación de recursos destinados a renovar
o mejorar la dotación de infraestructura, instalaciones y recursos para
la investigación
❏ ❏ ❏
Patrimonio e inversiones ❏ ❏ ❏ Definición de políticas de docencia ❏ ❏ ❏
Formalización de procesos a través de manuales o guías de
procedimientos ❏ ❏ ❏ Actualización de reglamentos generales ❏ ❏ ❏
Mecanismos de difusión de reglamentos de carrera en los distintos
estamentos ❏ ❏ ❏ Diseño de un sistema de información para orientar el proceso de
autoevaluación para la acreditación ❏ ❏ ❏ Implementación de un sistema de información para orientar el proceso
de autoevaluación para la acreditación ❏ ❏ ❏ Cultura de evaluación ❏ ❏ ❏
Comités de autoevaluación ❏ ❏ ❏
Otros (especifique):
¿Qué grado de importancia le atribuye usted a estos cambios, ajustes o innovaciones realizadas en su carrera?
Baja
importancia
Mediana
importancia
Alta
importancia
No aplica
Comités curriculares ❏ ❏ ❏ ❏ Consejos asesores (apoyo a las decisiones del director de
escuela) ❏ ❏ ❏ ❏ Registros de seguimiento de planes de estudio ❏ ❏ ❏ ❏
Incentivos al perfeccionamiento docente ❏ ❏ ❏ ❏ Programas de actividades de educación continua ❏ ❏ ❏ ❏
Revisión de perfiles de egreso ❏ ❏ ❏ ❏ Re diseño de plan de estudios
❏ ❏ ❏ ❏ Innovación de métodos pedagógicos ❏ ❏ ❏ ❏
Desarrollo de mecanismos sistemáticos de vinculación de la
carrera con el medio externo ❏ ❏ ❏ ❏ Desarrollo de instrumentos para evaluar el desempeño
docente ❏ ❏ ❏ ❏ Desarrollo de estrategias de difusión y marketing ❏ ❏ ❏ ❏
Estructura de gobierno de la carrera, considerando las
diversas instancias de toma de decisiones ❏ ❏ ❏ ❏ Estructura organizacional de la unidad ❏ ❏ ❏ ❏
Sistemas de información (registros académicos) de apoyo a la
docencia ❏ ❏ ❏ ❏ Normas y procedimientos asociados a la gestión de RRHH de
la carrera ❏ ❏ ❏ ❏ Sistema de calificación y jerarquización docente ❏ ❏ ❏ ❏
Sistema de evaluación del desempeño de los directivos ❏ ❏ ❏ ❏ Consejos de escuela ❏ ❏ ❏ ❏
Creación de cargos de secretarios académicos ❏ ❏ ❏ ❏ Creación de cargos de coordinadores de práctica ❏ ❏ ❏ ❏ Creación de cargos de asistente de escuela cargo
administrativo para la gestión de temas estudiantiles ❏ ❏ ❏ ❏ Mecanismos de apoyo a los estudiantes ❏ ❏ ❏ ❏
Recursos de apoyo a la docencia ❏ ❏ ❏ ❏ Innovaciones en la gestión de recursos materiales y
financieros de la carrera ❏ ❏ ❏ ❏ Mecanismos para seguimiento de egresados ❏ ❏ ❏ ❏
Mecanismos para evaluar progreso de innovaciones
curriculares ❏ ❏ ❏ ❏
Mecanismos para evaluar progreso de planes de estudio en
régimen ❏ ❏ ❏ ❏ Mecanismos para seguimiento y apoyo a los procesos
formativos ❏ ❏ ❏ ❏ Mecanismos para seguimiento y apoyo a la gestión ❏ ❏ ❏ ❏
Desarrollo de criterios de asignación de recursos destinados a
renovar o mejorar la dotación de infraestructura,
instalaciones y recursos para la docencia
❏ ❏ ❏ ❏
Desarrollo de criterios de asignación de recursos destinados a
renovar o mejorar la dotación de infraestructura,
instalaciones y recursos para la investigación
❏ ❏ ❏ ❏
Patrimonio e inversiones ❏ ❏ ❏ ❏ Definición de políticas de docencia ❏ ❏ ❏ ❏
Formalización de procesos a través de manuales o guías de
procedimientos ❏ ❏ ❏ ❏ Actualización de reglamentos generales ❏ ❏ ❏ ❏
Mecanismos de difusión de reglamentos de carrera en los
distintos estamentos ❏ ❏ ❏ ❏ Diseño de un sistema de información para orientar el proceso
de autoevaluación para la acreditación ❏ ❏ ❏ ❏ Implementación de un sistema de información para orientar
el proceso de autoevaluación para la acreditación ❏ ❏ ❏ ❏ Cultura de evaluación ❏ ❏ ❏ ❏
Comités de autoevaluación ❏ ❏ ❏ ❏
¿La administración de estos cambios es responsabilidad del nivel central de la institución o son responsabilidad de la carrera?
Nivel Central Nivel de Carrera No aplica
Comités curriculares ❏ ❏ ❏ Consejos asesores (apoyo a las decisiones del director de escuela) ❏ ❏ ❏
Registros de seguimiento de planes de estudio ❏ ❏ ❏ Incentivos al perfeccionamiento docente ❏ ❏ ❏
Programas de actividades de educación continua ❏ ❏ ❏ Revisión de perfiles de egreso ❏ ❏ ❏ Re diseño de plan de estudios ❏ ❏ ❏
Innovación de métodos pedagógicos ❏ ❏ ❏ Desarrollo de mecanismos sistemáticos de vinculación de la carrera
con el medio externo ❏ ❏ ❏ Desarrollo de instrumentos para evaluar el desempeño docente ❏ ❏ ❏
Desarrollo de estrategias de difusión y marketing ❏ ❏ ❏ Estructura de gobierno de la carrera, considerando las diversas
instancias de toma de decisiones ❏ ❏ ❏ Estructura organizacional de la unidad ❏ ❏ ❏
Sistemas de información (registros académicos) de apoyo a la
docencia ❏ ❏ ❏ Normas y procedimientos asociados a la gestión de RRHH de la
carrera ❏ ❏ ❏ Sistema de calificación y jerarquización docente ❏ ❏ ❏
Sistema de evaluación del desempeño de los directivos ❏ ❏ ❏ Consejos de escuela ❏ ❏ ❏
Creación de cargos de secretarios académicos ❏ ❏ ❏ Creación de cargos de coordinadores de práctica ❏ ❏ ❏
Creación de cargos de asistente de escuela cargo administrativo para
la gestión de temas estudiantiles ❏ ❏ ❏ Mecanismos de apoyo a los estudiantes ❏ ❏ ❏
Recursos de apoyo a la docencia ❏ ❏ ❏ Innovaciones en la gestión de recursos materiales y financieros de la
carrera ❏ ❏ ❏ Mecanismos para seguimiento de egresados ❏ ❏ ❏
Mecanismos para evaluar progreso de innovaciones curriculares ❏ ❏ ❏ Mecanismos para evaluar progreso de planes de estudio en régimen ❏ ❏ ❏ Mecanismos para seguimiento y apoyo a los procesos formativos ❏ ❏ ❏
Mecanismos para seguimiento y apoyo a la gestión ❏ ❏ ❏ Desarrollo de criterios de asignación de recursos destinados a renovar
o mejorar la dotación de infraestructura, instalaciones y recursos para
la docencia
❏ ❏ ❏
Desarrollo de criterios de asignación de recursos destinados a renovar
o mejorar la dotación de infraestructura, instalaciones y recursos para
la investigación
❏ ❏ ❏
Patrimonio e inversiones ❏ ❏ ❏ Definición de políticas de docencia ❏ ❏ ❏
Formalización de procesos a través de manuales o guías de
procedimientos ❏ ❏ ❏ Actualización de reglamentos generales ❏ ❏ ❏
Mecanismos de difusión de reglamentos de carrera en los distintos
estamentos ❏ ❏ ❏ Diseño de un sistema de información para orientar el proceso de
autoevaluación para la acreditación ❏ ❏ ❏ Implementación de un sistema de información para orientar el proceso
de autoevaluación para la acreditación ❏ ❏ ❏
Cultura de evaluación ❏ ❏ ❏ Comités de autoevaluación ❏ ❏ ❏
A continuación se presentan una serie de resultados que se pueden atribuir a los procesos de acreditación. Por favor marque aquéllos que
se han producido en su carrera, y que se puedan atribuir al proceso de acreditación conducido por CNAP, entre los años 2001 y 2006,
antes de la promulgación de la ley 20.129. Para cada uno de ellos, señale si el indicador ha disminuido, se ha mantenido o ha aumentado
desde el año 2001 a la fecha.
Disminuye Se mantiene Aumenta No aplica
Tasa de retención de estudiantes de primer año ❏ ❏ ❏ ❏ Titulación oportuna ❏ ❏ ❏ ❏
Tasa de retención de estudiantes de primer año distribuido
por quintiles ❏ ❏ ❏ ❏ Competencias de egreso ❏ ❏ ❏ ❏
Tasa de empleabilidad de egresados ❏ ❏ ❏ ❏ Satisfacción empleadores
❏ ❏ ❏ ❏ Proyectos adjudicados con fondos concursables externos ❏ ❏ ❏ ❏
Números de proyectos de investigación por jornada
completa equivalente ❏ ❏ ❏ ❏ Número de publicaciones indexadas por docentes jornada
completa ❏ ❏ ❏ ❏ Impacto en el medio productivo regional, expresado en
aumento en número de convenios con organizaciones locales ❏ ❏ ❏ ❏ Mecanismos de monitoreo evaluar el impacto de la
vinculación con el medio, en la institución ❏ ❏ ❏ ❏ Proporción profesores/alumnos
❏ ❏ ❏ ❏ Dotación docentes jornada completa equivalentes adecuada
a propósitos de la carrera ❏ ❏ ❏ ❏ Infraestructura e instalaciones de recursos para la docencia ❏ ❏ ❏ ❏
Infraestructura e instalaciones de recursos para la
investigación ❏ ❏ ❏ ❏ Dotación de material bibliográfico cambiar a categoría
anterior ❏ ❏ ❏ ❏ Participación de miembros de la institución en el sistema de
aseguramiento de la calidad en chile y el extranjero ❏ ❏ ❏ ❏ Actividades de extensión dentro de la institución para
promover la calidad ❏ ❏ ❏ ❏ Actividades de extensión fuera de la institución para
promover la calidad ❏ ❏ ❏ ❏ Matrícula ❏ ❏ ❏ ❏
Acreditación de carreras ❏ ❏ ❏ ❏
Acreditación institucional ❏ ❏ ❏ ❏ Calidad de la docencia ❏ ❏ ❏ ❏
Dotación académica por hora ❏ ❏ ❏ ❏ Personal de apoyo administrativo ❏ ❏ ❏ ❏
Indique otros resultados que se han producido en su carrera que se relacionen con el proceso de acreditación conducido por CNAP, entre
los años 2001 y 2006, antes de la promulgación de la ley 20.129.
¿Cuáles considera usted que son los tres cambios más importantes realizados en su carrera, que pueden atribuirse de una u otra forma al
proceso de acreditación conducido por CNAP, entre los años 2001 y 2006?
¿Considera usted que las políticas de aseguramiento de la calidad han generado algún impacto negativo en su carrera? Si la respuesta es
afirmativa, por favor refiérase a ellos.
Por favor complete las siguientes preguntas que permitirán dar contexto a sus respuestas.
¿Cuál es su edad?
¿En qué institución trabaja?
¿Cuántos años lleva en esta institución?
¿Cuál es su cargo actual en la institución?
¿En qué carrera o unidad de la institución desempeña usted el cargo mencionado anteriormente?
¿Cuántos años lleva en este cargo?
¿Cuál era su cargo anterior? Si este cargo lo ejerció en una institución distinta a la actual, por favor indíquenos cuál.
Categoría U
1 2 3 4
No aplica 5,9% 12,5% 4,0% 10,8%
Durante acreditación CNAP 35,3% 50,0% 36,0% 35,1% 37,9%
91,6%Después de acreditación CNAP 58,8% 37,5% 60,0% 54,1% 53,7%
Categoría U
1 2 3 4
No aplica 5,9% 12,5% 8,0% 18,9%
Durante acreditación CNAP 23,5% 18,8% 24,0% 27,0% 24,2%
87,4%Después de acreditación CNAP 70,6% 68,8% 68,0% 54,1% 63,2%
Categoría U
1 2 3 4
No aplica 11,8% 18,8% 20,0% 13,5%
Durante acreditación CNAP 11,8% 37,5% 12,0% 27,0% 22,1%
84,2%Después de acreditación CNAP 76,5% 43,8% 68,0% 59,5% 62,1%
Categoría U
1 2 3 4
No aplica 5,9% 12,5% 16,0% 29,7%
Durante acreditación CNAP 23,5% 68,8% 36,0% 18,9% 32,6%
81,1%Después de acreditación CNAP 70,6% 18,8% 48,0% 51,4% 48,4%
Cambio 1: Revisión de perfiles de egreso
Cambio 2: Mecanismos para seguimiento de egresados
Cambio 3: Re diseño de plan de estudios
Total
15,8%
Total
8,4%
Total
12,6%
Cambio 4: Implementación de un sistema de información para orientar el
proceso de autoevaluación para la acreditación
Total
18,9%
Categoría U
1 2 3 4
No aplica 11,8% 25,0% 12,0% 27,0%
Durante acreditación CNAP 35,3% 18,8% 36,0% 18,9% 26,3%
80,0%Después de acreditación CNAP 52,9% 56,3% 52,0% 54,1% 53,7%
Categoría U
1 2 3 4
No aplica 23,5% 12,5% 8,0% 29,7%
Durante acreditación CNAP 41,2% 18,8% 20,0% 13,5% 21,1%
80,0%Después de acreditación CNAP 35,3% 68,8% 72,0% 56,8% 58,9%
Categoría U
1 2 3 4
No aplica 5,9% 18,8% 20,0% 29,7%
Durante acreditación CNAP 23,5% 56,3% 12,0% 27,0% 27,4%
78,9%Después de acreditación CNAP 70,6% 25,0% 68,0% 43,2% 51,6%
Categoría U
1 2 3 4
No aplica 5,9% 18,8% 16,0% 37,8%
Durante acreditación CNAP 35,3% 68,8% 24,0% 24,3% 33,7%
76,8%Después de acreditación CNAP 58,8% 12,5% 60,0% 37,8% 43,2%
Cambio 7: Cultura de evaluación
Total
21,1%
Cambio 8: Comités de autoevaluación
Total
23,2%
Total
20,0%
Cambio 5: Innovación de métodos pedagógicos
Total
20,0%
Cambio 6: Desarrollo de mecanismos sistemáticos de vinculación de la carrera
con el medio externo
Categoría U
1 2 3 4
No aplica 5,9% 18,8% 20,0% 37,8%
Durante acreditación CNAP 29,4% 68,8% 28,0% 18,9% 31,6%
75,8%Después de acreditación CNAP 64,7% 12,5% 52,0% 43,2% 44,2%
Categoría U
1 2 3 4
No aplica 23,5% 18,8% 16,0% 35,1%
Durante acreditación CNAP 29,4% 31,3% 20,0% 16,2% 22,1%
74,7%Después de acreditación CNAP 47,1% 50,0% 64,0% 48,6% 52,6%
Categoría U
1 2 3 4
No aplica 11,8% 25,0% 32,0% 37,8%
Durante acreditación CNAP 41,2% 43,8% 40,0% 13,5% 30,5%
70,5%Después de acreditación CNAP 47,1% 31,3% 28,0% 48,6% 40,0%
Categoría U
1 2 3 4
No aplica 11,8% 31,3% 32,0% 37,8%
Durante acreditación CNAP 47,1% 25,0% 40,0% 27,0% 33,7%
69,5%Después de acreditación CNAP 41,2% 43,8% 28,0% 35,1% 35,8%
30,5%
Cambio 11: Sistemas de información (registros académicos) de apoyo a la docencia
Total
29,5%
Cambio 12: Recursos de apoyo a la docencia
Total
Total
25,3%
Cambio 9: Diseño de un sistema de información para orientar el proceso de
autoevaluación para la acreditación
Total
24,2%
Cambio 10: Registros de seguimiento de planes de estudio
Categoría U
1 2 3 4
No aplica 35,3% 31,3% 24,0% 32,4%
Durante acreditación CNAP 29,4% 50,0% 28,0% 29,7% 32,6%
69,5%Después de acreditación CNAP 35,3% 18,8% 48,0% 37,8% 36,8%
Categoría U
1 2 3 4
No aplica 35,3% 31,3% 24,0% 35,1%
Durante acreditación CNAP 41,2% 37,5% 24,0% 24,3% 29,5%
68,4%Después de acreditación CNAP 23,5% 31,3% 52,0% 40,5% 38,9%
Categoría U
1 2 3 4
No aplica 23,5% 18,8% 32,0% 40,5%
Durante acreditación CNAP 17,6% 25,0% 12,0% 10,8% 14,7%
68,4%Después de acreditación CNAP 58,8% 56,3% 56,0% 48,6% 53,7%
Categoría U
1 2 3 4
No aplica 11,8% 25,0% 28,0% 45,9%
Durante acreditación CNAP 35,3% 18,8% 20,0% 10,8% 18,9%
68,4%Después de acreditación CNAP 52,9% 56,3% 52,0% 43,2% 49,5%
Cambio 16: Mecanismos para seguimiento y apoyo a los procesos formativos
Total
31,6%
Total
31,6%
Cambio 15: Mecanismos para evaluar progreso de planes de estudio en régimen
Total
31,6%
Cambio 13: Mecanismos de difusión de reglamentos de carrera en los distintos estamentos
Total
30,5%
Cambio 14: Comités Curriculares
Categoría U
1 2 3 4
No aplica 35,3% 31,3% 24,0% 40,5%
Durante acreditación CNAP 5,9% 18,8% 16,0% 13,5% 13,7%
66,3%Después de acreditación CNAP 58,8% 50,0% 60,0% 45,9% 52,6%
Categoría U
1 2 3 4
No aplica 11,8% 62,5% 28,0% 37,8%
Durante acreditación CNAP 41,2% 12,5% 20,0% 29,7% 26,3%
65,3%Después de acreditación CNAP 47,1% 25,0% 52,0% 32,4% 38,9%
Categoría U
1 2 3 4
No aplica 17,6% 31,3% 28,0% 54,1%
Durante acreditación CNAP 47,1% 43,8% 28,0% 27,0% 33,7%
63,2%Después de acreditación CNAP 35,3% 25,0% 44,0% 18,9% 29,5%
Categoría U
1 2 3 4
No aplica 17,6% 56,3% 24,0% 45,9%
Durante acreditación CNAP 11,8% 25,0% 32,0% 16,2% 21,1%
63,2%Después de acreditación CNAP 70,6% 18,8% 44,0% 37,8% 42,1%
36,8%
Cambio 19: Consejos asesores
Total36,8%
Cambio 20: Desarrollo de instrumentos para evaluar el desempeño docente
Total
33,7%
Cambio 18: Actualización de reglamentos generales
Total
34,7%
Cambio 17: Mecanismos para evaluar progreso de innovaciones curriculares
Total
Categoría U
1 2 3 4
No aplica 23,5% 25,0% 40,0% 45,9%
Durante acreditación CNAP 41,2% 25,0% 40,0% 24,3% 31,6%
63,2%Después de acreditación CNAP 35,3% 50,0% 20,0% 29,7% 31,6%
Categoría U
1 2 3 4
No aplica 47,1% 37,5% 32,0% 48,6%
Durante acreditación CNAP 17,6% 31,3% 24,0% 13,5% 20,0%
57,9%Después de acreditación CNAP 35,3% 31,3% 44,0% 37,8% 37,9%
Categoría U
1 2 3 4
No aplica 35,3% 25,0% 40,0% 56,8%
Durante acreditación CNAP 11,8% 18,8% 20,0% 13,5% 15,8%
56,8%Después de acreditación CNAP 52,9% 56,3% 40,0% 29,7% 41,1%
Categoría U
1 2 3 4
No aplica 29,4% 43,8% 40,0% 59,5%
Durante acreditación CNAP 29,4% 12,5% 32,0% 16,2% 22,1%
53,7%Después de acreditación CNAP 41,2% 43,8% 28,0% 24,3% 31,6%
Cambio 24: Desarrollo de criterios de asignación de recursos destinados a
renovar o mejorar la dotación de infraestructura, instalaciones y recursos para la
Total
46,3%
Total
42,1%
Cambio 23: Mecanismos para seguimiento y apoyo a la gestión
Total
43,2%
Cambio 21: Mecanismos de apoyo a los estudiantes
Total
36,8%
Cambio 22: Programas de actividades de educación continua
Categoría U
1 2 3 4
No aplica 41,2% 56,3% 44,0% 45,9%
Durante acreditación CNAP 17,6% 31,3% 36,0% 21,6% 26,3%
53,7%Después de acreditación CNAP 41,2% 12,5% 20,0% 32,4% 27,4%
Categoría U
1 2 3 4
No aplica 23,5% 50,0% 48,0% 54,1%
Durante acreditación CNAP 17,6% 31,3% 20,0% 21,6% 22,1%
Después de acreditación CNAP 58,8% 18,8% 32,0% 24,3% 31,6%
Categoría U
1 2 3 4
No aplica 41,2% 43,8% 44,0% 56,8%
Durante acreditación CNAP 17,6% 25,0% 32,0% 5,4% 17,9%
51,6%Después de acreditación CNAP 41,2% 31,3% 24,0% 37,8% 33,7%
Categoría U
1 2 3 4
No aplica 29,4% 37,5% 60,0% 59,5%
Durante acreditación CNAP 23,5% 12,5% 20,0% 21,6% 20,0%
49,5%Después de acreditación CNAP 47,1% 50,0% 20,0% 18,9% 29,5%
Total
48,4%
Cambio 28: Desarrollo de criterios de asignación de recursos destinados a
renovar o mejorar la dotación de infraestructura, instalaciones y recursos para la
Total
50,5%
46,3%
Cambio 26: Formalización de procesos a través de manuales o guías de
Total
46,3%
Cambio 27:Incentivos al perfeccionamiento docente
Cambio 25: Definición de políticas de docencia
Total
Categoría U
1 2 3 4
No aplica 58,8% 56,3% 52,0% 51,4%
Durante acreditación CNAP 17,6% ,0% 20,0% 13,5% 13,7%
46,3%Después de acreditación CNAP 23,5% 43,8% 28,0% 35,1% 32,6%
Categoría U
1 2 3 4
No aplica 35,3% 50,0% 60,0% 64,9%
Durante acreditación CNAP 41,2% 18,8% 28,0% 18,9% 25,3%
44,2%Después de acreditación CNAP 23,5% 31,3% 12,0% 16,2% 18,9%
Categoría U
1 2 3 4
No aplica 52,9% 62,5% 48,0% 64,9%
Durante acreditación CNAP 11,8% 25,0% 32,0% 13,5% 20,0%
42,1%Después de acreditación CNAP 35,3% 12,5% 20,0% 21,6% 22,1%
Categoría U
1 2 3 4
No aplica 47,1% 56,3% 56,0% 67,6%
Durante acreditación CNAP 11,8% 18,8% 24,0% 13,5% 16,8%
41,1%Después de acreditación CNAP 41,2% 25,0% 20,0% 18,9% 24,2%
Total
58,9%
55,8%
Cambio 31: Estructura organizacional de la unidad
Total
57,9%
Cambio 32: Estructura de gobierno de la carrera, considerando las diversas
instancias de toma de decisiones
Cambio 29: Desarrollo de estrategias de difusión y marketing
Total
53,7%
Cambio 30: Sistema de calificación y jerarquización docente
Total
Categoría U
1 2 3 4
No aplica 29,4% 62,5% 64,0% 73,0%
Durante acreditación CNAP 29,4% 31,3% 20,0% 13,5% 21,1%
38,9%Después de acreditación CNAP 41,2% 6,3% 16,0% 13,5% 17,9%
Categoría U
1 2 3 4
No aplica 47,1% 50,0% 72,0% 64,9%
Durante acreditación CNAP 11,8% 12,5% 16,0% 13,5% 13,7%
38,9%Después de acreditación CNAP 41,2% 37,5% 12,0% 21,6% 25,3%
Categoría U
1 2 3 4
No aplica 58,8% 43,8% 60,0% 75,7%
Durante acreditación CNAP 11,8% 31,3% 20,0% 10,8% 16,8%
36,8%Después de acreditación CNAP 29,4% 25,0% 20,0% 13,5% 20,0%
Categoría U
1 2 3 4
No aplica 52,9% 62,5% 52,0% 78,4%
Durante acreditación CNAP 23,5% 12,5% 36,0% 5,4% 17,9%
35,8%Después de acreditación CNAP 23,5% 25,0% 12,0% 16,2% 17,9%
63,2%
Cambio 36: Innovaciones en la gestión de recursos materiales y financieros de la carrera
Total
64,2%
Cambio 34: Patrimonio e inversiones
Total
61,1%
Cambio 35: Normas y procedimientos asociados a la gestión de RRHH de la carrera
Total
Cambio 33: Consejos de escuela
Total
61,1%
Categoría U
1 2 3 4
No aplica 64,7% 50,0% 72,0% 67,6%
Durante acreditación CNAP 5,9% 6,3% 12,0% 8,1% 8,4%
34,7%Después de acreditación CNAP 29,4% 43,8% 16,0% 24,3% 26,3%
Categoría U
1 2 3 4
No aplica 58,8% 81,3% 44,0% 75,7%
Durante acreditación CNAP 35,3% 12,5% 40,0% 5,4% 21,1%
34,7%Después de acreditación CNAP 5,9% 6,3% 16,0% 18,9% 13,7%
Categoría U
1 2 3 4
No aplica 58,8% 81,3% 84,0% 81,1%
Durante acreditación CNAP 23,5% 18,8% 12,0% 10,8% 14,7%
22,1%Después de acreditación CNAP 17,6% ,0% 4,0% 8,1% 7,4%
Categoría U
1 2 3 4
No aplica 88,2% 75,0% 84,0% 81,1%
Durante acreditación CNAP 5,9% 6,3% 8,0% 5,4% 6,3%
17,9%Después de acreditación CNAP 5,9% 18,8% 8,0% 13,5% 11,6%
82,1%
Cambio 39: Creación de cargos de secretarios académicos
Total
77,9%
Cambio 40: Creación de cargos de asistente de escuela cargo administrativo para
la gestión de temas estudiantiles
Total
Total
65,3%
Cambio 38: Creación de cargos de coordinadores de práctica
Total
65,3%
Cambio 37: Sistema de evaluación del desempeño de los directivos