Medición, Validez y Confiabilidad. UNY

16
Autores: Victor Brito Aridni Figueroa Medición, Validez y Confiabili dad Universidad Yacambú Diseños Cuantitativos de Investigación

Transcript of Medición, Validez y Confiabilidad. UNY

Autores: Victor Brito Aridni Figueroa

Medición, Validez y

Confiabilidad

Universidad Yacambú

Diseños Cuantitativos de Investigación

MediciónDefinición

(en qué consiste)

Validez

• De Contenido• De Criterio• De Constructo

Confiabilidad

• Test-retest• Formas Paralelas• Split-halves• Coeficiente Alfa de Cronbach

• Coeficiente KR-20

CONTENIDO

Medición

Proceso de vincular conceptos abstractos con indicadores empíricos”, el cual se realiza mediante un plan explícito y organizado para clasificar (y con frecuencia cuantificar) los datos disponibles (los indicadores). (Carmines y Zeller, 1991)

Desde el punto de vista empírico, se resume como que el centro de atención es la respuesta observable (sea una alternativa de respuesta, marcada en un cuestionario, una conducta grabada vía observación o una respuesta dada a un entrevistador)

Desde una perspectiva teórica, se refiere a que el interés se sitúa en el concepto subyacente no observable que se representa por medio de la respuesta. Así, los registros del instrumento de medición representan valores visibles de conceptos abstractos

Un instrumento de medición adecuado es aquel que registra datos observables que representan verdaderamente los conceptos o las variables que el investigador tiene en mente (Grinnell, Williams y Unrau, 2009).

El instrumento de medición o de recolección de datos tiene un papel central. Sin él, no hay observaciones clasificadas.

Validez Se refiere al grado en que un instrumento realmente mide la variable que pretende medir. La validez es una cuestión más compleja que debe alcanzarse en todo instrumento de medición que se aplica.

Kerlinger (1979, p. 138) plantea la siguiente pregunta respecto de la validez: ¿está midiendo lo que cree que está midiendo? Si es así, su medida es válida; si no, evidentemente carece de validez

La validez es un concepto del cual pueden tenerse diferentes tipos de evidencia:

1) evidencia relacionada con el contenido

2) evidencia relacionada con el criterio

3) evidencia relacionada con el constructo

La validez de contenido

Es refiere al grado en que un instrumento refleja un dominio específico de contenido de lo que se mide (Sampieri 2012). Es el grado en el que la medición representa al concepto o variable medida (Bohrnstedt, 1976)

La validez de criterio

Establece la validez de un instrumento de medición al comparar sus resultados con los de algún criterio externo que pretende medir lo mismo (Sampieri 2012).Este criterio es un estándar con el que se juzga la validez del instrumento (Wiersma y Jurs, 2008).

La validez de constructo

Es probablemente la más importante, sobre todo desde una perspectiva científica, y se refiere a qué tan exitosamente un instrumento representa y mide un concepto teórico (Grinnell, Williams y Unrau, 2009).

Un instrumento de medición requiere tener representados prácticamente a todos o la mayoría de los componentes del dominio de contenido de las variables a medir. El dominio de contenido de una variable normalmente está definido o establecido por la literatura (teoría y estudios antecedentes).

En estudios exploratorios donde las fuentes previas son escasas, el investigador comienza a adentrarse en el problema de investigación y a sugerir cómo puede estar constituido tal dominio. De cualquier manera en cada estudio uno debe probar que el instrumento utilizado es válido.

Si el dominio de un instrumento es demasiado estrecho con respecto al dominio de la variable, el primero no representará a ésta. La pregunta que se responde con la validez de contenido es: ¿el instrumento mide adecuadamente las principales dimensiones de la variable en cuestión?

Validez de contenido

Cuanto más se relacionen los resultados del instrumento de medición con el criterio, la validez de criterio será mayor. Si el criterio se fija en el presente de manera paralela, se habla de validez concurrente (los resultados del instrumento se correlacionan con el criterio en el mismo momento o punto de tiempo). En cambio si el criterio se fija en el futuro, se habla de validez predictiva.

El principio de ésta, es sencillo: si diferentes instrumentos o criterios miden el mismo concepto o variable, deben arrojar resultados similares. Bostwick y Kyte (2005) lo expresan así: “Si hay validez de criterio, las puntuaciones obtenidas por ciertos individuos en un instrumento deben estar correlacionadas y predecir las puntuaciones de estas mismas personas logradas en otro criterio”

La pregunta que se responde con la validez de criterio es: ¿en qué grado el instrumento comparado con otros criterios externos mide lo mismo?, o ¿qué tan cercanamente las puntuaciones del instrumento se relacionan con otro(s) resultado(s) sobre el mismo concepto?

Validez de criterio

Un constructo es una variable medida y que tiene lugar dentro de una hipótesis, teoría o un esquema teórico. Es un atributo que no existe aislado sino en relación con otros. No se puede ver, sentir, tocar o escuchar; pero debe ser inferido de la evidencia que tenemos en nuestras manos y que proviene de las puntuaciones del instrumento que se utiliza.

Incluye tres etapas (Carmines y Zeller, 1991):1. Se establece y especifica la relación teórica entre los conceptos (revisión de la literatura).2. Se correlacionan los conceptos y se analiza la correlación.3. Se interpreta la evidencia empírica de acuerdo con el nivel en el que clarifica la validez de constructo de una medición en particular.

 Las preguntas que se responden con la validez de constructo son: ¿el concepto teórico está realmente reflejado en el instrumento?, ¿qué significan las puntuaciones del instrumento?, ¿el instrumento mide el constructo y sus dimensiones?, ¿por qué sí o por qué no?, ¿cómo opera el instrumento?

Validez de constructo

CONFIABILIDAD

Se refiere al grado en que el instrumento arroja los mismos resultados cuando se vuelve a medir la característica en situaciones similares, dando por hecho que el evento medido no ha cambiado.

La confiabilidad se refiere a la exactitud de la medición. La confiabilidad como unidad de probabilidad se expresa en unidades que varían de cero a uno, en ningún caso podrá ser negativa. Entre más se aproxime a uno es mas confiable el instrumento, es decir es mas preciso en la medición de lo que se quiere medir

ASPECTOS A CONSIDERAR EN LA CONFIABILIDAD DE

UN INSTRUMENTO

Se deben evitar preguntas ambiguas que puedan inducir respuestas distintas en momentos diferentes.

Tomar en cuenta que la medición puede sufrir inestabilidad temporal.

El contenido del instrumento debe abarcar todas las variables que se quieren medir.

Baja confiabilidad indica interacciones entre variables distintas, información contradictoria.

En cada pregunta debe manejarse sólo un aspecto a la vez.

Se deben aplicar preguntas cerradas preferiblemente.

TÉCNICA TEST RETEST

Se aplica el instrumento al mismo grupo dos veces

Se pueden pasar inmediatamente, o dejando un intervalo de tiempo entre el test y el retest.

Se recomienda que el grupo no sea parte de la muestra.

El grupo debe tener características similares a la muestra.

Si el periodo es largo y la variable susceptible de cambios, ello puede confundir la interpretación del coeficiente de confiabilidad obtenido por este procedimiento . Si el periodo es corto las personas pueden recordar

cómo contestaron en la primera aplicación del instrumento, para aparecer como más consistentes .

TÉCNICA DE FORMAS

PARALELAS

Las versiones son

administradas a un mismo grupo

de personas dentro de un periodo de

tiempo relativamente

corto.

Deben contener el mismo número

de preguntas, con idénticos formatos y

abarcar el mismo tipo de

contenido.

Hay que controlar para su comparabilidad, las instrucciones para la aplicación

y los límites de tiempo para la aplicación de cada forma.

El nivel de dificultad de

cada pregunta debe ser el

mismo.

En este procedimiento no se administra el mismo instrumento de medición, sino dos o más versiones equi valentes de éste. Las formas paralelas de un test deben ser construidas independientes, pero deben satisfacer ciertas especificaciones:

TÉCNICA DE LA DIVISIÓN POR MITADES O SPLIT -

HALVES

La confiabilidad varía de acuerdo al número de ítems que incluya el instrumento de medición. Cuantos más ítems la confiabilidad aumenta

Se forma un test con las preguntas pares y otro con los impares.

Esta técnica es más efectiva a medida que el instrumento es más homogéneo.

De un mismo instrumento, se obtienen 2 dividiéndolo por la mitad.

Como el instrumento real es el doble que los usados en la prueba, el coeficiente de Pearson se corrige aplicando la fórmula de Spearman Brown:

tttn r

rttrt

1

2Donde:

rttn= coeficiente de confiabilidad del instrumento total

rtt = coeficiente de correlación obtenido para las 2 mitades

COEFICIENTE DE CONFIABILIDAD ALFA-CRONBACH

Este método consiste en determinar las varianzas de cada una de las respuestas, determinar la varianza del instrumento y por último determinar el coeficiente alfa (α). Para la obtención del mismo se aplicaran las siguientes fórmulas:

K = número de ítems del instrumento ( número de preguntas)

si² = varianza de cada ítem

st² = varianza del instrumento

Modelo de consistencia interna, que se basa en la correlación inter-elementos promedio, aplicable a los instrumentos cuyos ítems tienen varias alternativas de respuesta (más de dos) por medio de una escala o escalamiento tipo Likert.

La fórmula de si² =(R1 - Xi)² + (R2 - Xi)² + (R3 - Xi)² + . + (Rn - Xi)² / nDonde:

R1 es la respuesta al ítem o pregunta i dada por el encuestado 1, R2 es la respuesta dada al ítem i por el encuestado 2 y así sucesivamente.

n es el número de sujetos o encuestados

Xi es la media del ítem o respuesta

α = ( K / K – 1 ) * ( 1-( Σsi² / st²))

TECNICA DE KUDER RICHARDSON

En este método se calcula el promedio de los coeficientes de confiabilidad obtenidos de todas las divisiones por mitades como el estimado global de confiabilidad. La fórmula para calcular la confiabilidad de un instrumento de n ítems o KR20 será:

Técnica para el cálculo de la confiabilidad de un instrumento aplicable sólo a investigaciones en las que las respuestas a cada ítem sean dicotómicas o binarias, es decir, puedan codificarse como 1 ó 0 (Correcto – incorrecto, presente – ausente, a favor – en contra, etc.)

k = Número de ítems del instrumento.

p = Personas que responden afirmativamente a cada ítem.

q = Personas que responden negativamente a caca ítem.

st2 = Varianza total del instrumento

xi = Puntaje total de cada encuestado.

2

2 .*1 st

qpst

k

krtt

n

xxst

i

2__

2

REFERENCIAS BIBLIOGRÁFICAS

Briones, G (2002). Metodología de la Investigación cuantitativa en las Ciencias Sociales. Instituto colombiano para el fomento de la educación superior, ICFES. Colombia.Hernández S., R (2010). Metodología de la Investigación. Quinta edición. Mc Graw Hill. México. http://www.slideserve.com/Anita/coeficiente-alfa-de-cronbachhttp://www.une.edu.pe/Titulacion/2013/exposicion/SESION-4-Confiabilidad%20y%20Validez%20de%20Instrumentos%20de%20investigacion.pdfhttp://es.slideshare.net/maule/validez-y-confiabilidad-de-instrumentos-en-la-investigacin-cuantitativahttp://www.cca.org.mx/cca/cursos/estadistica/html/m4/medicion_confiabilidad_validez.htm