Orientaciones básicas para procesamiento y consistencia de información

21
(Manuel Santos-Marco de la Cruz) Lima, enero, 2016 ORIENTACIONES BÁSICAS PARA EL PROCESAMIENTO Y LA CONSISTENCIACIÓN DE INFORMACION CLAVE (CONTROL DE CALIDAD DE LOS PROCESOS Y DE LOS RESULTADOS)

Transcript of Orientaciones básicas para procesamiento y consistencia de información

(Manuel Santos-Marco de la Cruz)

Lima, enero, 2016

ORIENTACIONES BÁSICAS PARA EL

PROCESAMIENTO Y LA CONSISTENCIACIÓN DE

INFORMACION CLAVE

(CONTROL DE CALIDAD DE LOS PROCESOS Y DE LOS RESULTADOS)

Página 1 de 20

Índice

Presentación .................................................................................................................................. 2

Introducción .................................................................................................................................. 3

SECCION I: ASPECTOS GENERALES ........................................................................................ 4

1. ¿Qué es el control de calidad de la información? ................................................................. 5

2. Importancia del control de calidad y la consistencia ............................................................ 5

3. Momentos de la limpieza de datos ....................................................................................... 6

a) Limpieza de datos durante el recojo de la información de campo ................................... 6

b) Limpieza post recojo de la información, verificación de coherencia de respuestas y

codificación de datos ................................................................................................................ 7

c) Digitación de datos ............................................................................................................ 8

d) Limpieza de datos post digitación y consistencia ............................................................. 9

Diagrama del procedimiento de consistencia ......................................................................... 12

SECCION II: ASPECTOS OPERACIONALES ............................................................................. 13

1. Primera etapa: recojo de información ................................................................................ 14

e) Fase preparatoria: ........................................................................................................... 14

f) Fase 1: trabajo de campo ................................................................................................ 15

g) Fase 2: recepción de instrumentos aplicados en sede central ....................................... 15

2. Segunda etapa: procesamiento de datos ............................................................................ 16

a) Fase 3: procesamiento de información cuantitativa-encuestas ..................................... 16

b) Fase 5: generación de descriptivos ................................................................................. 19

Tratamiento en el procesamiento de información cualitativa-entrevistas ............................ 20

Página 2 de 20

Presentación

En los últimos años, como consecuencia de la implementación de la gestión por resultados,

sobre todo para el diseño de programas presupuestales; en el Perú se ha desarrollado una

importante demanda de evidencias científicas que puedan sustentar la estructura lógica de

dichos diseños.

No sólo se trata de evidencia teórica, sino más bien de evidencia fáctica con información

suficiente y de calidad y rigurosidad metodológica que permita identificar un caso exitoso,

analizarlo, estudiarlo y luego del análisis evidenciar sus factores de éxito y sus posibilidades de

réplica o escalamiento.

De esta manera y, con los ajustes y las advertencias pertinentes, se pueden encontrar

soluciones alternativas para situaciones problemáticas.

En esta dinámica, el equipo de ENTRE PARES, integrante del HOLDING EMPRESARIAL SOCIAL

SAN AGUSTIN, ha recogido los aspectos más visibles que dan cuenta de los procesos

desarrollados en dos estudios realizados en el segundo semestre del año 2015.

Los apuntes recogidos en este documento constituye el inicio de un proceso sostenido de

sistematización de las prácticas compartidas por todo el equipo ejecutor liderado por

GESTIONA y APRENDE SAC, con la colaboración de diversas entidades consorciadas1 con la

finalidad de aprender de la experiencia y asegurar la gestión del conocimiento en una apuesta

por la mejora continua.

Como versión preliminar, este intento pretende generar una corriente de generación de ideas

y de planteamiento de alternativas de mejora.

Unidad técnica de Estudios

SAN AGUSTIN-HOLDING EMPRESARIAL SOCIAL

1 El 2015, destacan DESCO, CREA y EDUCA

Página 3 de 20

Introducción

El quehacer de la investigación tiene la exigencia de un sistema de procesos muy bien

definidos que guíen el análisis de datos, así como el procesamiento de los resultados. Sin

embargo, a menudo nos centramos en una capacitación que cubra todas las dudas y los casos

particulares que podrían aparecer en campo y terminamos olvidando uno de los pasos más

importantes: el control de calidad y la consistencia de datos; debido a ello es recurrente

encontrar información valiosa omitida y datos vacíos.

En relación a lo anterior, para Arriaza (2008) el tratamiento que se le dé a la información

recogida definirá el nivel con el que se podrá interpretar los datos, de no existir un camino

determinado, esta labor resultará tediosa y poco productiva por la gran cantidad de

información que maneja cada estudio.

En ese contexto, el presente manual busca establecer y delimitar los pasos más significativos

para el control de calidad de la información y la consistencia de la misma, con el objetivo de

garantizar una data limpia y completa, que permita una adecuada interpretación y lectura de

los resultados.

Para una mejor comprensión, el presente documento está dividido en dos secciones de

la siguiente forma: en la primera sección se resumen algunos aspectos conceptuales

fundamentales, en el primer capítulo se presentan las especificaciones del control de

calidad en el marco de la labor que desarrolla el Consorcio San Agustín, en el segundo

se enfatiza su importancia y en el tercer apartado se presenta las especificaciones de

consistencia básica, incluidos los procedimientos en el tratamiento de las bases de

datos. En la segunda sección se describen los aspectos operacionales aplicables al

ESTUDIO DE MONITOREO 2015 DE SECUNDARIA RURAL MEJORADA.

Se espera que las ORIENTACIONES BÁSICAS PARA EL PROCESAMIENTO Y LA

CONSISTENCIACIÓN DE INFORMACION CLAVE, que se orienta a controlar la calidad de

los procesos pueda ser insumo principal para mejorar la calidad de la información

obtenida, aspira de esta manera a mantener debidamente informadas a las

instituciones, con quienes se resuelven los proyectos e investigación patrocinados o

financiados.

Página 4 de 20

SECCION I: ASPECTOS GENERALES

Página 5 de 20

1. ¿Qué es el control de calidad de la información?

Por control de calidad de datos se entiende como el proceso por el que se organiza, manipula y

verifica la información recolectada a través de los instrumentos de investigación, con la

finalidad de analizar un objeto de estudio, interpretar la realidad y extraer conclusiones

pertinentes. Se puede establecer con un proceso cíclico y fluido, con un ritmo propio, para

identificar los errores potenciales aún antes de la ejecución del instrumento y durante la

recolección de datos.

Para Rodríguez Clemente, Lorenzo Oswaldo et al (2015) existe un orden lógico para la limpieza

y análisis de data, y lo define en tres aspectos: delimitación de datos, disposición y

transformación de los mismos y obtención de resultados-conclusiones. Es importante precisar

que el tratamiento que reciben los datos cuantitativos es diferente al que reciben los datos

cualitativos, pues los últimos sugieren la aplicación de técnicas más puntuales para su

verificación.

Por otro lado, siguiendo las experiencias que emergen en nuestro quehacer, se plantean dos

dimensiones principales para el control de la calidad de la información: la limpieza de datos y

la organización para el análisis. Para efectos pragmáticos el presente manual abordará de

forma más profunda la limpieza de datos.

2. Importancia del control de calidad y la consistencia

Uno de los objetivos más importantes de un control de calidad meticuloso y profundo es lograr

datos válidos que faciliten una mayor aproximación de la realidad del estudio a través de la

lectura estadística en el análisis.

Para algunos autores (García, Gil y Rodríguez, 1994) el control de calidad de la información,

considerando la limpieza de datos como parte de él, es una parte primordial de la investigación

y va a preceder la actividad interpretativa en el análisis.

Es importante reconocerlo como un proceso formal, de esta manera se dará garantías de tener

una información de calidad y confiable. Como mencionábamos líneas arriba, el control de

calidad no es una mera actividad opcional y aislada, sino más bien se integra a todo el proceso

del estudio, puesto que de no existir un adecuado control de calidad se corre el riesgo de

información mal recogida y mal analizada.

Página 6 de 20

Asimismo, al referirnos a la consistencia, no basta con tener una información completa y con

datos válidos; sino también es necesario someter la información al juicio crítico del equipo de

recolección y de revisión para asegurarse que las respuestas mantengan coherencia y un

sentido lógico con el objetivo del estudio.

3. Momentos de la limpieza de datos

En el presente manual se han recogido las experiencias y expectativas de los equipos de

investigación, y se ha contrastado con los procedimientos que se han determinado por el INEI

y otras instituciones; a continuación se detallan los siguientes pasos:

Fig. 1. Momentos y procedimientos para la limpieza de datos

Elaboración: Consorcio San Agustín

a) Limpieza de datos durante el recojo de la información de campo

Antes de hablar de los procedimientos y consideraciones la limpieza de datos, es importante

señalar que este proceso se inicia en la actividad de la recolección de la información, es decir,

cuando encuestadores, aplicadores y/o supervisores comienzan su tarea en campo. Aunque

probablemente sea necesario retroceder hasta el momento de la capacitación donde se

empiezan a identificar errores recurrentes en el llenado, casos potenciales durante la

aplicación de encuestas e interrogantes frecuentes.

Para este momento se pueden distinguir algunas actividades puntuales como: la identificación

correcta y precisa de la muestra, la ubicación exacta de la unidad seleccionada (vivienda,

Limpieza de datos durante el recojo de la información

en campo

Limpieza de datos durante el recojo de la información

en campo

Limpieza post recojo de la información, verificación

de coherencia de respuestas y codificación

de datos

Limpieza post recojo de la información, verificación

de coherencia de respuestas y codificación

de datos

Digitación de datos

Digitación de datos

Limpieza de datos post

digitación y consistencia

Limpieza de datos post

digitación y consistencia

Página 7 de 20

escuela, sector), selección adecuada del informante, formulación de preguntas del

instrumento (de forma honesta, precisa, coherente y sin inducir respuestas) y registro fiel de

las respuestas del informante. Durante esta etapa, el supervisor cumple un rol fundamental,

pues recae sobre él la verificación constante de la aplicación correcta de los instrumentos y la

verificación de los datos durante la recolección; conforme las encuestas van llegando, se debe

revisar dos aspectos más relevantes en el momento: que la encuesta esté completa y que los

datos coincidan con el contexto (fecha, nombres, zonas, etc.).

Este proceso atiende a las responsabilidades de los coordinadores de campo, específicamente

a la de supervisión de todas las actividades del trabajo en campo en particular de los

encuestadores y supervisores. El coordinador de campo conoce el interés de información de

las variables en los instrumentos y las posteriores relaciones entre éstas, por tanto está

habilitado para hacer juicios más precisos y técnicos apoyados en los reportes de campo.

Fig. 2. Pasos para la limpieza de datos durante el recojo

Elaboración: Consorcio San Agustín

b) Limpieza post recojo de la información, verificación de coherencia de

respuestas y codificación de datos

Posterior a la revisión de la información en campo, las encuestas (cuestionarios, formatos, etc.)

irán llegando al equipo de digitación, quienes realizarán la segunda etapa de la limpieza. Para

este momento es importante revisar de forma crítica cada encuesta.

Identificación correcta y precisa

de la muestra

Ubicación exacta de la unidad seleccionada

Identificación apropiada del

informante

Formulación de preguntas y

llenado correcto

Página 8 de 20

Las respuestas que aparezcan en la encuesta deberán mantener un alto grado de coherencia

entre sí, y estar orientadas al objetivo del estudio. Este momento es crucial para detectar

inconsistencias que el supervisor haya podido pasar por alto, así como la alteración y

falsificación de encuestas. Cabe mencionar que de encontrar errores, la encuesta deberá ser

devuelta a campo al responsable de su realización o ser eliminada según el caso lo amerite.

En esta etapa deben haberse definido los criterios con los que se limpiará la información,

deberá existir un consenso sobre las consideraciones generales para la revisión.

Posterior a la revisión, se realizará la codificación de las encuestas para su digitación, esta

tarea está regulada a través de consensos entre las instituciones involucradas en el proyecto

de manera que la tarea de codificación utiliza una guía uniforme que evita incurrir en

inconsistencias de tipo nominal en la presente fase.

c) Digitación de datos

En esta etapa se desarrolla una guía o capacitación específica de digitación, dirigido a las

personas que intervienen en la aplicación y digitación de encuestas, y sus coordinadores de

digitación responsables del ingreso de los datos al computador, ungiendo como base para la

teorización post-hoc y análisis que se realice con los datos. La guía diseñada deberá contener

los siguientes contenidos: objetivos generales y específicos del proyecto de investigación,

requisitos, funciones y eticidad en el proceso de digitación, equipos y materiales disponibles

para el digitador, y el proceso de la digitación.

De acuerdo a la magnitud del estudio, las instituciones involucradas, consensuan el sistema de

entrada de datos de los Instrumentos desarrollados por el equipo técnico del proyecto,

pudiendo ser el Software CSPro (Census and Survey Processing System) o el SPSS Software.

Ambos programas contemplan las verificación de los rangos, saltos automáticos y la secuencia

de las preguntas, según si indican en los instrumentos; adicionales a las tareas de consistencia

de una profundidad de contraste entre data ingresada y cuestionario (Visualizar el tutorial de

CsPRO – Sección 2.4 Definición de Rangos y Categorías de Respuesta para cada Variable; la

Sección 4.1 Programación de Pases o Saltos Automáticos; y, la Sección 4.3 Programar

Chequeos de Consistencia de Datos en las Pantallas).

Es importante considerar que en este proceso, se estableció y socializó previamente el

diccionario de términos, éste último incluye las categorías básicas para facilitar el manejo de

Página 9 de 20

las bases de datos y facilitar la navegación de los digitadores. Asimismo, permitirá al

equipo técnico la verificación de valores válidos y consistencia de datos.

En el programa CSPro, la limpieza de datos continúa su proceso aún después de terminado el

trabajo de digitación de cada segmento. Cuando un digitador termina de entrar los datos de

los instrumentos que pertenecen a un segmento, es necesario pasar por un filtro de chequeo

de inconsistencias adicional, mediante una aplicación “batch” externa al programa de ingreso

de datos, que incluye una serie de controles lógicos de ida y vuelta, cruces de validación de

variables y otros controles que validan y verifican la consistencia de la información a través de

todo el cuestionario. Este proceso se replica en el programa SPSS Software culminada la

jornada diaria de ingreso de datos de los cuestionarios, los coordinadores de digitación

incluyen controles lógicos sobre las variables de salto y cruces de variables para la validación

diaria de los datos ingresados.

d) Limpieza de datos post digitación y consistencia

A pesar de los parámetros sobres la calidad de digitación de la institución, a menudo podemos

encontrar errores en el ingreso de información que es imposible detectar solamente mirando

los datos en bruto es posible detectarlos y corregirlos. Esta consideración sugiere diferentes

niveles de errores posibles antes de realizar el análisis, planteada en la cadena: calidad del

instrumento, trabajo de campo y digitación, por tanto es necesario comprobar la exactitud y

precisión de los archivos recibidos.

La presente tarea se realiza utilizando sintaxis de SPSS Software definidas con el equipo

técnico y las instituciones involucradas, el código de programación de SPSS incluye la revisión

de los descriptivos estadísticos, tales como las frecuencia (absolutas y acumuladas) y rangos de

los datos.

Cuadro 1. Muestra de frecuencias simples

Respecto al proceso de verificación de rangos, este tiene como propósito establecer la validez

individual de respuesta del informante a cada pregunta, eliminando los errores provenientes

FREQUENCIES VARIABLES=A012 B001_M B001_Y B002 B003 B004

B005 B006 B007_G B007_N B008 B009 B010 B011

/ORDER=ANALYSIS

Página 10 de 20

de la utilización de la digitación automatizada y los eventuales errores introducidos durante el

proceso de corrección.

Cuadro 2. Muestra de consistencia de rango

1 V_001

VARDEPEN Between(R03.P01C07,50,5000)

VARINDE R70.PAREA= 1

VARFILTRO R03.P01C01 <> 5

NOMBRE ESTIMACION DEL ÁREA DE PATIO EXTERIOR EN LAS IIEE DE NIVEL PRIMARIA

La siguiente tarea asociada a la consistencia post-digitación es la validación de la coherencia

lineal entre las variables. Esta tarea compromete la validez individual de ambas variables de

relación; para efectos de los estudios realizados por el Consorcio, las variables de agrupación

se realizan en conjunto con las instituciones comprometidas e incluyen las siguientes sub

tareas: el Control de Flujos, el Cuadre de Totales (consideraciones de los datos missings) y la

Revisión Estructural.

El Control de Flujos establece la integridad temática al interior de las variables definidas en los

indicadores del estudio, revisando que se cumplan los universos (sexo y edad) y saltos de los

condicionales que se especifican en los instrumentos. Esta labor exige la verificación de la

información del universo y de los pases temáticos. El Cuadre de Totales refiere a la

consistencia de los totales de las distintas variables y valores de los instrumentos; se verifica

que los valores parciales de las respuestas salto tengan el mismo valores del de sus preguntas

asociadas, además de la suma de los parciales cuadre con los del total. En el caso de la Revisión

Estructural, ésta establece la estructura global de las respuestas individuales al interior de la

variable de agrupación (Hogar, IIEE, Área, Centro Poblado, etc.). Vinculando las respuestas de

un área temática con los de otras áreas temáticas (Infraestructura-Capacidad de Gestión,

Movilidad-Ingresos, etc.). Esta sub tarea exige el establecimiento de las pautas de relación

estructural por parte del equipo encargado del estudio, de unas variables con otras de

diferente área temática.

De manera específica, en este proceso se precisan las búsquedas y saltos para la corrección de

errores usando las sintaxis o la interfaz gráfica; sin embargo, de acuerdo a la magnitud del

estudio, se sugiere utilizar los códigos para el registro de errores y correcciones, así como

mantener el orden del trabajo de limpieza de datos post-digitación. Los códigos frecuentes

para el análisis de los saltos son los siguientes:

Página 11 de 20

Creación de las condiciones de búsqueda:

Establecimiento de la condición de filtro:

Posteriormente, se realiza la Generación de Cifras de Control, donde se presenta el listado de

las variables revisadas que contengan un error (ocurrencia de omisiones y/o duplicaciones). En

la lista se incluye la variable de identificación única de cada registro con la finalidad de realizar

búsquedas en los instrumentos y revisarlos en físico. Es importante destacar que los errores

deben ser corregidos basados en la información del cuestionario y por tanto no pueden

asumirse correcciones. Posteriormente, al procesamiento se realiza un proceso de

tabulaciones para el conjunto de cruces estadísticos básicos de acuerdo a los indicadores del

estudio con el fin de evaluar y difundir los resultados (atienda a los valores muestrales y

expandidos)

Compute Z = 0. (Se define z=0 para no error)

if (a012 > 1) z = 1.

val labels x

1 'Casos con resultado de entrevista no completa'.

execute.

USE ALL.

COMPUTE filter_$=(z > 0).

VARIABLE LABELS filter_$ 'z > 0 (FILTER)'.

VALUE LABELS filter_$ 0 'Not Selected' 1 'Selected'.

FORMATS filter_$ (f1.0).

FILTER BY filter_$.

EXECUTE.

Página 12 de 20

Diagrama del procedimiento de consistencia2

Elaboración: World Bank (2000)

2 La siguiente figura corresponde al diagrama de flujo que elaboró el World Bank (2000) en el marco del

programa MECOVI realizado entre El Gobierno de Guatemala y el Instituto Nacional de Estadística de

Guatemala.

Página 13 de 20

SECCION II: ASPECTOS OPERACIONALES

Página 14 de 20

En esta sección se resume el proceso operativo aplicable a estudios de tipo cuantitativo,

principalmente y consta de etapas que organizan fases. El proceso descrito es de cumplimiento

obligatorio por parte de los aplicadores, supervisores, digitadores, analistas y coordinadores.

1. Primera etapa: recojo de información

e) Fase preparatoria:

En la fase preparatoria, se diseñan, revisan y analizan los instrumentos, incluye una prueba

piloto, a partir de esta prueba piloto se ajustan los instrumentos y se somete a una validación

final en el taller de capacitación de tres días con el equipo central y los coordinadores de zona

(locales, provinciales, distritales o regionales).

En esta fase se afina el cronograma de trabajo de campo, en el Formato 1:

FORMATO 1: CRONOGRAMA DE TRABAJO DE CAMPO REGION: SAN MARTIN Elaborado por: MANUEL SANTOS RESPONSABLES: MANUEL SANTOS Aprobado por: ENMA YEP Fecha: 09/09/2015

ACTIVIDAD L M K J V S D L M K J V S

7 8 9 10 11 12 13 14 15 16 17 18 19

I. Preparación del trabajo de campo

1.1 Coordinación final sedes de aplicación y UGEL X X

1.2 Revisión final de los protocolos e instrumentos

X

1.3 Logística para el trabajo de campo X

1.4 Confirmación de la convocatoria a Investigador de campo

X

II. Trabajo de campo

2.1 Viaje a Tarapoto X

2.2 Capacitación y selección Investigador de campo

2.3 Viaje a zona de aplicación

2.4 Aplicación de instrumentos

Investigador de campo 1 Capacitación

Huánuco X X X X X

Investigador de campo 2 Capacitación

Huánuco X X X X X

2.5 Supervisión de Investigador de campo X X X X

2.6 Revisión y envío de instrumentos X X X X X

X

Jornadas del Investigador de campo

X

Jornadas del responsable regional

Elaboración: Consorcio San Agustín

El equipo central y los coordinadores zonales, dirigen la capacitación a los aplicadores de

campo en Talleres descentralizados, en los cuales se analizan y se simulan aplicaciones a través

de juegos de roles para cada instrumento. El taller con los aplicadores supone un análisis y

validación más real y dura tres días.

Página 15 de 20

Al final del taller se entregan los materiales de aplicación y se organiza el desplazamiento del

equipo de aplicadores a sus zonas de trabajo.

f) Fase 1: trabajo de campo

Para el trabajo en campo se cuenta con un Manual de Aplicación que contiene instrucciones,

recomendaciones y prohibiciones.

De manera complementaria en este manual se proponen protocolos diferenciados por

instrumentos, actores, frecuencias, tipos de preguntas y alertas, a través de un esquema de

instrucciones. (Ver anexos).

En cada zona de trabajo, el coordinador o responsable de la capacitación a los aplicadores,

supervisa el trabajo y recepciona los instrumentos aplicados, en este ejercicio revisa dos

aspectos importantes:

a. Cantidad de instrumentos aplicados en contraste con lo programado, en esto se

asegura que se cumplan las metas y se explique y justifique en caso de no lograr la

meta al 100%. El nivel de análisis es la unidad de estudio y el informante.

b. Calidad de la información recogida, utilizando para ello el protocolo de los

instrumentos que se anexan a este documento. En esta acción se verifican las

respuestas, se constatan los filtros y se analizan a profundidad al menos el 10% de los

instrumentos asignados como meta a cada aplicador

g) Fase 2: recepción de instrumentos aplicados en sede central

La fase dos empieza dos días después que los coordinadores zonales hayan cerrado la fase de

trabajo de campo.

Consiste en la entrega presencial de los instrumentos correspondientes a su zona y el equipo

responsable a nivel de sede central procede a la verificación de metas globales (programado y

ejecutado – Formato 2 Metas).

FORMATO 2: METAS DEL TRABAJO DE CAMPO REGIÓN: SAN MARTIN Elaborado por: MANUEL SANTOS

RESPONSABLES: MANUEL SANTOS Aprobado por: ENMA YEP Fecha: 09/09/2015

P : Programado

E : Ejecutado

Elaboración: Consorcio San Agustín

En el formato de metas se controla la cantidad de IT aplicados y se compara con el total

programado y sirve de sustento del reporte de campo.

P E P E P E P E P E P E

0641 RICARDO PALMA SORIANO TOCACHE UCHIZA EL PORVENIR 0 0 4 6 4 6 8 12 8 12

0463 GUSTAVO RIVERA RIVERA TOCACHE UCHIZA SAN JUAN DE PORONGO 0 0 6 6 6 8 12 14 12 14

00903 SAN JUAN BAUTISTA RIOJA NUEVA CAJAMARCA NUEVO EDEN 0 0 9 9 9 9 18 18 18 18

00788 SAN CARLOS RIOJA AWAJUN SAN CARLOS 1 1 3 3 3 3 3 3 10 10 10 10

Total región 1 1 3 3 22 24 22 26 48 54 48 54

APLICADOR(A): ……… NOMBRE DE LA IIEE

Monica Carmona

Janet Ruiz Flores

Director IIEE

Docentes

(Comunicación o

Matemática)*

EstudiantesCENTRO POBLADO

TOTAL

INSTRUMENTOSPROVINCIA DISTRITO

Padre o

Madres de

Familia

TOTAL

ENCUESTAS

(ITQ)

ENCUESTAS (ITQ)

Página 16 de 20

De forma análoga al procedimiento descrito en la fase anterior, se aplica un protocolo de

control de calidad y se verifican los reportes de ocurrencias tanto de los aplicadores como del

coordinador.

Parte importante de esta fase es el rotulado de los instrumentos generando un código de

identificación que facilite la ubicación, el tipo de instrumento, la unidad de análisis, el

informante y el tipo de estudio.

Este rotulado forma parte del diseño y/o revisión del libro de códigos para el procesamiento,

por ejemplo:

SRM_IT4_01_057

Dónde:

SRM = Tipo de estudio – Secundaria Rural Mejorada

IT4 = Código de instrumento – Encuesta a familias

01 = Código región = Amazonas

057 = Correlativo

2. Segunda etapa: procesamiento de datos

a) Fase 3: procesamiento de información cuantitativa-encuestas

El procesamiento de la información consiste en el traslado de la información recogida en los

instrumentos de manera fidedigna a la base de datos (BD) en archivos electrónicos.

Para este proceso se diseña la plantilla o máscara de códigos tanto para las preguntas como

para las respuestas a fin de construir la base de datos digital. Con la plantilla y con los

protocolos de aplicación, se enfatizan las instrucciones para la digitación y se generan alertas

para las preguntas condicionantes (filtros).

La capacitación a los digitadores se desarrolla en dos días, a cargo del responsable del control

de calidad de la digitación de instrumentos, luego los digitadores entran a un periodo de

prueba donde deben cumplir con estándares de calidad y fidelidad. Los que cumplen con

dichos estándares proceden a digitar.

El control de calidad de digitación se realiza en dos niveles, primero por muestreo, en el caso

que un digitador genere un margen de error superior a 15%, se revisa todo el material

asignado, verificando la información digitada con los Instrumentos en físico, en este caso de

vuelve a digitar los instrumentos con dicho margen de error.

Para las preguntas abiertas y en algunos casos de las alternativas o categorías que contengan

OTROS se procede a elaborar una tabla de códigos considerando las respuesta literales y su

agrupamiento por aproximación conceptual o temática. De esta manera se genera un libro de

códigos complementarios.

Este proceso es iterativo, ya que se va calculando el porcentaje de representación del código

OTROS en las frecuencias de la categoría general hasta alcanzar los límites permisibles y

recomendables por el investigador.

Página 17 de 20

INSTRUMENTO IT-3 ESTUDIANTES

CÓDIGOS PREGUNTA V21, V23, V25 y V27

Para CODIGO 1 en PREGUNTA V20, V22, V24, V26

7 Asuma su responsabilidad

8 Explique motivos del maltrato

9 Soluciones conjuntas

Para CODIGO 2,3,4,5,6,7,8,9,94 en PREGUNTA V20, V22, V24, V26 (Pregunta V20 no aplica CODIGO 2)

1 Para que lo denuncien con las autoridades correspondientes

2 Para que conozcan lo sucedido, investiguen,

3 Para que tomen acciones preventivas

3 Acciones correctivas (hablen con él, le reclamen, lo sancionen, llamen la atención, se encargue de solucionarlo).

4 Buscar Ayuda, apoyo, defensa, protección, concejo.

5 Confío en él/ella, es mi amigo(a).

6 Respeto a los derechos

7 Asuma su responsabilidad

94 OTROS

99 No Sabe/ No Precisa

Se debe cuidar que para las alternativas de respuesta que tenga opciones de OTROS, en lo

posible el porcentaje de esta opción no debe ser mayor que el menor porcentaje de las

categorías de respuestas definidas.

Definidos los códigos, se debe proceder a la codificación de las preguntas abiertas (en el

instrumento) y a continuación se digita las preguntas abiertas recodificadas.

Página 18 de 20

Ejemplo de máscaras:

Código del Cuestionario

Nombre de la IIEE

Código Modular

Región Provincia Distrito Centro

Poblado UGEL

Nombre y Apellidos

del Encuestado

Respondió la encuesta

Nombre y Apellidos del investigador

Código del investigador

Fecha de Aplicación

del cuestionario

Hora de inicio del

cuestionario

Hora de termina del cuestionario

Fecha de revisión del cuestionario

Dirección exacta de la

IIEE (especificar referencia)

COD_IT P_A P_B P_C P_D P_E P_F P_G P_H P_I P_J P_K P_L P_M P_N P_O P31

SRM_IT1_01_001 16729

WAWAS 1385046 AMAZONAS BAGUA IMAZA WAWAS BAGUA

HERIBERTO TIWIJAM SHUWI

1 MARLENY QUIROZ RODAS

14/09/2015 9:21:00 10:22:00 19/09/2015

WAWAS-CARRETERA CUARTO EJE

VIAL Y CRUZAR PUENTE

Teléfono del a IE

Código modular de secundaria

Departamento Provincia

¿La IE cuenta con otros niveles

educativos como: inicial, primaria, etc. Dentro del

mismo local educativo?

¿Qué niveles

adicionales tiene en el

Local Escolar? -

INICIAL

¿Qué niveles

adicionales tiene en el

Local Escolar? - PRIMARIA

¿Qué niveles

adicionales tiene en el

Local Escolar? -

OTROS

Cuál es el código

Modular? - INICIAL

Cuál es el código

Modular? - PRIMARIA

¿Qué niveles adicionales tiene en el

Local Escolar? - OTROS

ESPECIFICAR

¿En su IE existe un Director por local escolar o por nivel

educativo?

¿La IE cuenta con subdirector en el nivel

secundario?

¿Con cuántos subdirectores cuenta la IE en el nivel

secundario?

¿Cuántas secciones

hay en 1er

grado?

¿Cuántas secciones

hay en 2do

grado?

P32 P33 P33A P33B P34 P34A_O1 P34A_O2 P34A_O3 P35A P35B P35_OT P36 P37 P38 P39_1 P39_2

980083027 1385046 AMAZONAS BAGUA 1

2

0270496-INTEGRADO

2

1 1

En forma simultánea y mediante cortes diarios, se hace el control de calidad de la digitación a

nivel de detalle, en este proceso se analiza la consistencia de preguntas cerradas considerando

el protocolo y tomando decisiones respecto a casos atípicos frecuentes (doble marca, vacíos,

ilegibilidad de respuestas, inconsistencias, etc.)

Esta acción de control de calidad se realiza a dos niveles, en la propia base de datos digital y en

forma cruzada con los instrumentos en físico, tanto para las preguntas cerradas como para las

preguntas abiertas.

En este sentido se utiliza un esquema de hitos con alertas tipo semáforo, con 10 hitos, según

las BD que se generaron.

Ejemplo de matriz de control:

Elaboración: Consorcio San Agustín

En caso que todo el proceso descrito anteriormente se haya trabajado en formatos de Excel, se

diseña la ruta y la máscara para su migración a otros programas de estadística (STATA o SPSS),

en este caso también se aplican pruebas de consistencia en la BD migrada, asegurando la

calidad con un muestreo para el cruce de datos con IT físicos.

b) Fase 5: generación de descriptivos

La quinta fase supone la prueba final de la calidad del trabajo realizado en las fases de campo y

digitación ya que en ésta, se generan los estadísticos descriptivos, las tablas de frecuencia, el

cruce de variables y, de ser necesario, los gráficos que sirvan de soporte al análisis del

fenómeno estudiado.

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Proyecto: SRM

SRM BD 1: Directores (IT1) 99,00 Falta sección perfi l del di rector p1 a l p6.100,00 90,00 Falta reti rar datos sucios100,00 0,00 Falta

SRM BD 2: Docentes (IT2) 100,00 100,00 90,00 Falta reti rar datos sucios100,00 0,00 Falta

SRM BD 3: Estudiantes (IT3) 100,00 100,00 100,00 69,23 Faltan las preguntas v4, v15, v31 y t10.0,00 Falta

SRM BD 4: Padres de Fami l ia (IT4) 90,00 Error de digi tadores en preguntas abiertas en 180 IT87,00 0,00 Falta 100,00 0,00 Falta

Digitación Calidad de la digitación

Codificación de las

preguntas abiertas (en

el instrumento)Bases de Datos

Consistencia de la

preguntas cerradas

Hito 1 Hito 2 Hito 3 Hito 4 Hito 5

Libros de codigos de las

preguntas abiertas

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Nivel de

avanceComentarios

Proyecto: SRM

SRM BD 1: Directores (IT1) 100,00 0,00 Falta 0,00 Falta 70,00 Falta preguntas abiertas recoficadas y cons is tenciadas con la cerradas70,00 Falta preguntas abiertas recoficadas

SRM BD 2: Docentes (IT2) 70,00 Falta 2 preguntas de 6.0,00 Falta 0,00 Falta 70,00 Falta preguntas abiertas recoficadas y cons is tenciadas con la cerradas70,00 Falta preguntas abiertas recoficadas

SRM BD 3: Estudiantes (IT3) 0,00 Falta 0,00 Falta 0,00 Falta 70,00 Falta preguntas abiertas recoficadas y cons is tenciadas con la cerradas70,00 Falta preguntas abiertas recoficadas

SRM BD 4: Padres de Fami l ia (IT4) 0,00 Falta 0,00 Falta 0,00 Falta 0,00 Falta 0,00 Falta

Digitación de las

preguntas abiertas

recodificadas

Consistencia de la

preguntas abiertas -

cerradas

Transferir base de datos

de Excel a SPSS (STATA)Bases de Datos

Generación de

estadisticas descriptivas

Control de calidad de la

Consistencia de la BD

Hito 6 Hito 7 Hito 8 Hito 9 Hito 10

Mínimo Máximo

Ninguno <= 10

Bajo 10,01 50

Medio 50,01 90

Completo 90,01 100

Niveles de avanceRango de puntaje

Semáforo

Página 20 de 20

Todas las formas de reporte que se generan, deben responder a los objetivos, las preguntas,

los aspectos y los indicadores previstos en la matriz de investigación, en este nivel corresponde

un control de calidad final, que va a consistir en leer y analizar dichos reportes, donde es

posible identificar inconsistencias o datos espurios.

Tratamiento en el procesamiento de información cualitativa-entrevistas

Para el tratamiento de la información recogida en los instrumentos cualitativos, como las

entrevistas, se cuenta con un protocolo básico que comprende:

i. Preparación:

a. Pautas para la entrevista

b. Guion de entrada

c. Técnica de entrevistador según informante

ii. Aplicación de entrevistas

a. Selección del lugar

b. Guion o pautas

c. Uso de la grabadora

d. Lenguaje y calidad de la grabación.

e. Comprobación de la grabación

iii. Recepción de entrevistas

a. Control de calidad

b. Verificación de audios y formatos

iv. Transcripción y edición

a. Comparación audio y texto

b. Organización de textos

c. Alineamiento con preguntas de investigación

d. Edición

e. Análisis de textos