apuntes metodos

27

Click here to load reader

Transcript of apuntes metodos

Page 1: apuntes metodos

Apuntes: Prof. José Francisco Cabral.

CORRELACIÓN.

MARCO TEORICO.

1. Objetivos de Aprendizaje:

1.1. Entender e interpretar todo lo relacionado con las relaciones entre las variables empleadas en Psicología.

1.2. Identificar los tipos de pruebas estadísticas involucradas para calcular los coeficientes de correlación.

1.3. Comprender y analizar la interrelación entre distintas pruebas de correlación estadística.

INTRODUCCIÓN.

La covarianza está referida a una relación. Las relaciones son la esencia del conocimiento; lo más importante en la ciencia no es el conocimiento de las cosas particulares, sino el conocimiento de las relaciones entre los fenómenos. Se sabe que las cosas grandes lo son, porque son comparadas con las cosas más pequeñas.

En la ciencia las relaciones se dan siempre entre clases o conjuntos de objetos. Un investigador no puede “conocer” la relación entre Clase Social y el Rendimiento Escolar, estudiando a un solo niño. El conocimiento de la relación sólo se logra abstrayendo la relación de conjunto de niños o de manera más específica de un conjunto de características de niños.

Si se aparea cada clase social del individuo con la correspondiente calificación de rendimiento, se define una relación entre clase social y rendimiento. Por lo tanto se consideran a los dos conjuntos de calificaciones o resultados como un conjunto de pares. Por consiguiente se tiene entonces que “conjunto” es una relación.

Si se grafican los dos conjuntos de calificaciones en los ejes X e Y, la relación es fácilmente visible donde cada punto es definido por dos calificaciones.

De acuerdo a lo antes expuesto, ahora es posible definir formalmente “relación”, por tanto, una relación es un conjunto de pares ordenados. Un par ordenado son dos objetos o un conjunto de dos elementos.

Relaciones en la Investigación.

Hay otra forma de definir una relación. Suponga que se tienen los dos conjuntos A y B. Si se aparea cada miembro del conjunto A con los miembros del conjunto B, se tienen todos los pares posibles

Page 2: apuntes metodos

A

a1

a2

a3

B

b1

b2

b3

ALICIA

MIGUEL

ROBERTO

ESTHER

ANA

DOMINIO

0

1

RANGO

entre los dos conjuntos. A esto se le llama “producto cartesiano” de los dos conjuntos y es identificado como AxB. Así una relación se define como un subconjunto AxB esto es, cualquier subconjunto de pares ordenados formados por los miembros de AxB es una relación.

El producto cartesiano anterior, AxB mostrado en la figura genera nueve pares ordenados (a1b1) + (a1b2)_ _ _ _ (a3b3).

Reglas de Correspondencia.

Cualquier tipo de objetos, personas, números, resultados de respuesta, puntos en el espacio, símbolos etc., pueden ser miembros de conjuntos y ser relacionados en términos de pares ordenados.

Se dice que los integrantes de un subconjunto son “mapeados” con los miembros de otro conjunto por medio de una regla de correspondencia. La regla de correspondencia es una prescripción o formula que nos dice como mapear los objetos de un conjunto en los objetos de otro conjunto.

En una relación, los conjuntos cuyos objetos están siendo relacionados se llaman”dominios” y “rangos” o D o R. D es el conjunto de los primeros elementos y R es el conjunto de los segundos. (Véase figura)

En la figura se presenta un mapeo de género (1 y 0), siendo 1 referido a lo masculino y 0 a lo femenino en la raza humana.

Algunas Formas Graficas de Relaciones.

Las relaciones pueden ser expresadas en varias formas entre estas están las graficas.

Una grafica es un dibujo en el cual los dos miembros de cada par ordenado de una relación son colocados en dos ejes X e Y.

Relación Positiva Perfecta.

Page 3: apuntes metodos

En este arreglo se observa que las puntuaciones más altas en el estado “antes” típicamente tiene una puntuación alta en el estado “después”, por consiguiente un sujeto con una puntuación baja en la prueba X típicamente tendrá una puntuación baja en la prueba Y.

5 15 25 3515

20

25

30

35

40

45

Antes

De

sp

s

Estos resultados presentan una relación positiva alta. Cuando dos medidas están altamente relacionadas, los puntos marcados tienden a estar aproximadamente en una línea recta. A pesar de que los puntos no están alineados la recta es patente. En estas condiciones el coeficiente de correlación perfecto es igual a +1.00 y la covarianza es funcional.

Relación negativa perfecta.

La siguiente figura representa una relación negativa alta. En este caso, una persona que califica alto en la prueba X típicamente calificará bajo en la prueba Y.

La figura representa el caso opuesto anterior. Obsérvese que para estos datos a un aumento de dos unidades en la variable X corresponde una disminución de una unidad en la variable Y. Estas características se mantienen en todo el recorrido.Los puntos de la nube, también se encuentran formando una recta, pero su inclinación es tal que desciende de izquierda a derecha en la gráfica. Esto quiere decir, que una relación perfecta del coeficiente negativo tendrá un valor igual a -1.00, siendo la relación funcional.

Otras Relaciones.

En la vida real existen con frecuencia situaciones en las cuales la relación entre variables no es perfecta o funcional. La siguiente figura

Page 4: apuntes metodos

se tiene la representación gráfica donde los puntos aparecen más o menos dispersos en el plano. Se puede apreciar una ligera tendencia, pero no es suficiente.

0 5 10 15 20 250

2

4

6

8

10

12

Relación de coeficiente cero

valores de la variable X

valo

res

de

la

va

riab

le Y

En el caso de la nube de puntos del diagrama, se haya dispersa por igual en todas las direcciones, la ausencia de la relación se hará evidente por lo que la relación será igual a 0.00, mostrándonos que dichas variables independientes.

No obstante siempre habrá una relación por definición; ya que hay un conjunto de pares ordenados. Sin embargo, comúnmente se dice que “no” hay relación. También es más adecuado decir que la relación es nula o cero.Coeficiente de Correlación.

Los científicos sociales por lo general calculan índices de relación, casi siempre llamados coeficientes de correlación, entre conjunto de pares ordenados para obtener estimaciones mas precisas de la dirección y el grado de relación.

En esencia, un coeficiente de correlación expresa el grado de correspondencia entre dos conjunto de puntuaciones. Así un individuo que sea superior en las dos variables que se van a correlacionar, tendrá dos puntuaciones típicas positivas

Los coeficientes que se encuentran generalmente en la práctica figuran entre los extremos y tienen un valor que es superior a cero, pero inferior a 1.00. Las correlaciones entre medidas de aptitudes son casi siempre positivas, aunque frecuentemente bajas.

En la práctica no es necesario convertir cada puntuación directa en típica antes de hallar los productos cruzados, puesto que esta conversión puede hacerse de una vez cuando se hallan sumados dichos productos.

El coeficiente de correlación expresa la cuantía de la relación, la cual no es una medida de causalidad, aunque puede existir una relación causal entre variables.

Page 5: apuntes metodos

Significación Estadística.

Debido a que en la mayoría de la investigación Psicológica suele interesar la generalización, sin embargo lo verdaderamente importante en la correlación consiste en saber si es significativamente mayor a cero.

Los niveles de significación se refieren a los riesgos que estamos dispuestos a afrontar al extraer conclusiones de nuestros datos. La investigación psicológica suele emplear los niveles del 0.01 o del 0.05 respectivamente.

Interpretación del coeficiente de correlación.

En la práctica un coeficiente igual o superior a 0.80 se considera grande, un coeficiente de 0.50 es moderado, y un coeficiente igual o inferior a 0.30 se considera pequeño.

La interpretación estadística debe de ir acompañada del sentido común y de consideraciones Psicológicas prácticas. A continuación se presenta un ejemplo para definir lo anterior:Podemos relacionar “consumo de cigarrillos” contra “enfisema pulmonar”, concluyendo que el consumo de cigarrillos causa enfisema pulmonar, pero no, “número de postes telefónicos” contra “enfisema pulmonar” ¿los postes telefónicos causan enfisema? O “número de ahogados en un día dado en Acapulco” contra “número de helados vendidos en ese día” ¿Qué, los que toman helado están más propicios a ahogarse?, cómo vemos ambos ejemplos resultan irreales.

Coeficiente de Determinación.

Este valor también llamado “Proporción de la Varianza” puede emplearse como estimador de la intensidad de asociación entre dos variables que parecen estar correlacionadas.Supongamos que la correlación entre la Inteligencia y el Conocimiento de las cosas es de r = 0.50, para poder determinar el coeficiente, sólo se eleva al cuadrado dicho coeficiente quedando r² = 0.25, lo que sugiere que el 25% de la variación de una de las dos variables está asociada con la variación de la otra.

Tipos de Coeficientes de Correlación.

Los coeficientes de correlación más empleados en las ciencias sociales para determinar la covarianza entre dos o más variables son los siguientes:

RELACIONES LINEALES.

Page 6: apuntes metodos

1. Coeficiente de Correlación de Pearson.2. Coeficiente de Correlación biserial-puntual.3. Coeficiente de Correlación biserial.4. Coeficiente de Correlación cuádruple coeficiente. 5. Coeficiente de Correlación tetracórico.

RELACIONES NO LINEALES.

1. Coeficiente de Correlación “Nu”.2. Coeficiente de Correlación parcial.3. Correlación múltiple.

MÉTODOS DE CORRELACIÓN POR RANGOS.

1. Coeficiente de Correlación “rho” por rangos ordenados de Spearman.

2. Coeficiente de Correlación “Tau” entre rangos de Kendall.3. Coeficiente de Concordancia “W” de Kendall.

COEFICIENTE DE CORRELACIÓN DE PEARSON.

Consideraciones Teóricas.

El coeficiente de correlación llamado también momento-producto, su objetivo no es utilizar una variable para predecir a otra; sino sólo medir la fuerza de asociación o covarianza entre dos variables. Dicho de otra forma no implica necesariamente que una de las variables sea causa de la otra.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación de Pearson se representa por una “r” minúscula.

Uso: Este coeficiente de correlación se emplea para medir la fuerza de asociación entre dos o más variables. Tiene muchas aplicaciones, en el análisis de los datos psicológicos siendo la más importante, la medida de la confiabilidad del test lo que constituye una característica de estos coeficientes; en síntesis determina la confiabilidad de cualquier instrumento de medición donde la consistencia o reproducibilidad de las puntuaciones es importante. Por otro lado también se emplean en el estudio de la validez de predicción de test.

Variables y Escalas de Medición: Las variables en Correlación como en cualquier otra prueba; parten del proceso de investigación. Que por

Page 7: apuntes metodos

medio del cual, una observación (medición) se registra produciendo resultados numéricos.Cuando se puede demostrar que la variación de una variable está de algún modo asociada con la variación de otra, se puede decir que ambas variables están “correlacionadas”. Las variables X e Y por tanto, son variables aleatorias, ya que el valor que toman no puede predecirse con certeza, es decir, en el análisis de correlación ni X ni Y representan una variable independiente sino ambas son variables aleatorias.

Escala de Medición: Las escalas de medición involucradas en este proceso de correlación son del tipo: “Intervalo” o “de Razón”. La primera establece orden y jerarquía entre las categorías con intervalos iguales de medición y en la segunda puede aplicar operaciones aritméticas básicas partiendo del cero, siento este real y no arbitrario.

Hipótesis a Comprobar: La hipótesis plantea los siguientes elementos lógicos: A mayor X, mayor Y o A menor X, menor Y ; es decir:

H0: alfa = 0 (no hay relación). H0: alfa 0 (hay relación).

Sustituto de: Esta prueba estadística de correlación no es sustituta de ninguna otra prueba sin embargo se puede resolver de varias formas.

Potencia Estadística: Esta prueba tiene alta potencia estadística.

Tipo de Muestras: Las muestras empleadas en este tipo de prueba, pueden ser grandes y pequeñas, pero siempre del mismo tamaño para cada variable o grupo.

FORMULAS APLICADAS.

1. Cálculo del coeficiente de Correlación de Pearson por el método de: “Tipificación de datos”.

r=∑ ZxZy

N …………….. ( 1 )

2. Cálculo del Coeficiente de Correlación de Pearson por el método de: “Las desviaciones respecto a las Medias”.

r=∑ XY

√(∑ X2 )(∑ Y 2 ) ………..( 2 )

Page 8: apuntes metodos

3. Cálculo del Coeficiente de Correlación de Pearson por el método de: “Las puntuaciones en bruto”.

r=N∑ XY−(ΣX )(ΣY )

√ [∑ X 2−(ΣX )2 ][∑Y 2−(ΣY )2 ] …….( 3 )

4. Cálculo del Coeficiente de Correlación de Pearson por el método de: “Las diferencias”.

r=Sx

2+S y2−Sd

2

2√Sx2 √S y

2……………….( 4 )

COEFICIENTE DE CORRELACIÓN BISERIAL-PUNTUAL. Consideraciones Teóricas.

En la práctica a menudo observamos variables que no son continuas y dentro de ellas se presentan numerosas veces variables que admiten dos posibilidades, es decir, una dicotomía. Por ejemplo podríamos preguntarnos si existe una relación de dependencia entre las calificaciones medias que tienen los alumnos y la conducta (buena o mala) de los mismos. O la adaptación al ambiente escolar (mal adaptados, bien adaptados) etc.En la práctica es preciso averiguar en muchos casos la relación de dependencia que existe entre dos variables, una de las cuales es continua y la otra dicotómica.Se trataria en concecuencia de estudiar la relación entre la variable contínua (calificación) y la variable dicotómica (buena o mala conducta), para conocer si existe alguna dependencia entre ambas.Por otro lado, en algunas circunstancias esta prueba se emplea en el campo de la preparación y validación de Test.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación Biserial-Puntual se representa por una “rbp ” minúscula.

Uso: El coeficiente de correlación Biserial-puntual se emplea para medir la fuerza de asociación entre dos variables una continua y la otra discontinua. Así mismo es ampliamente usado en la validación de test.

Variables y Escalas de Medición: Las variables en la correlación Biserial-puntual, son dos, llamando a Y a la variable continua y a la variable X como la variable discontinua que para algunos individuos

Page 9: apuntes metodos

tomara un valor igual a cero y para otros valores iguales a 1. La escala de medición serán en este caso nominal o de razón.

Hipótesis a Comprobar: Ya que el coeficiente de correlación Biserial-puntual es un caso particular del coeficiente de correlación de Pearson, se interpreta de la misma forma que aquel, por lo tanto, la hipótesis plantea los siguientes elementos lógicos: A mayor X, mayor Y o A menor X, menor Y ; es decir:

H0: alfa = 0 (no hay relación). H0: alfa 0 (hay relación).

Sustituto de: Esta prueba estadística de correlación no es sustituta de ninguna otra prueba.

Potencia Estadística: Esta prueba es excelente y tiene una alta potencia estadística.

Tipo de Muestras: Las muestras empleadas en este tipo de prueba, pueden ser grandes y pequeñas, pero siempre del mismo tamaño para cada variable o grupo.

FORMULAS APLICADAS.

1. Cálculo del coeficiente de Correlación Biserial-Puntual, para el caso donde las frecuencias no son muy grandes y los valores son pequeños.

rbp=Nt (∑ fpY )−(Np)(∑ fY )

√NpNw [Nt (∑ fY 2 )−(∑ fY )2 ]

Siendo:Nt o ft = el número de frecuencias totales.Np o fp = el número de personas que responden

correctamente.Nw o fw = el número de personas que responden

incorrectamente.Y = las puntuaciones obtenidas en el test.

2. Cálculo del coeficiente de correlación Biserial–puntual, para el caso de clases y frecuencias y valores son altos.

rbp=

Xp−XtSt √ p

q

donde:

Page 10: apuntes metodos

X p = la puntuación media de los que contestaron correctamente la pregunta.

X t = media total de las puntuaciones del test. St = desviación típica del test. p = fracción del grupo total que contesta correctamente. (probabilidad)

q = probabilidad inversa. (1-p)

COEFICIENTE DE CORRELACIÓN “phi” O CUADRUPLE.

Consideraciones Teóricas.

El coeficiente de correlación Φ (phi) o cuádruple, es igual al coeficiente Biserial-puntual, es un coeficiente del tipo Pearson así mismo Φ (phi) tiene la misma relación con “rt” tetracórico, sin embargo Φ no es comparable con éste para los mismos datos, porque los dos coeficientes no están expresados en términos de una misma escala. Este coeficiente es un coeficiente “r” producto-momento y puede compararse directamente con el coeficiente r obtenido de la misma tabla. Esto hace que sea de suma utilidad tanto en la realización como en el análisis de test. Si los datos estadísticos presentan dicotomías autenticas, no pueden concebirse como representando distribuciones normales subyacentes. Los ítems de test, por ejemplo, se marcan a menudo como verdadero–falso; resuelto–no resuelto, no administrándose respuestas intermedias.La mayor limitación de este estadístico es que la cuantía del coeficiente depende de la forma en que estén repartidas las dos variables. Cuando dichas variables se reparten por igual, los límites máximos del coeficiente de correlación son ± 1. Si los totales marginales no son iguales, los valores máximos varían pero, en cualquier caso, son menores que ± 1.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación se representa por una Φ minúscula.

Uso: El coeficiente de correlación Φ (phi) se utiliza cuando cada una de las variables es dicotómica. También puede utilizarse con variables continuas agrupadas en dos categorías, como por ejemplo, cuando dos test se dividen por la mediana. Así mismo este coeficiente es más útil en el análisis de ítems, cuando deseamos conocer la correlación ítem-ítem.

Variables y Escalas de Medición: Las variables en la correlación Φ son dos, llamando X e Y como variables dicotómicas. La escala de medición serán en este caso nominal o de razón.

Page 11: apuntes metodos

Hipótesis a Comprobar: Ya que el coeficiente de correlación Φ es igual al coeficiente de correlación del tipo Pearson, se puede interpreta como éste. Empero la significación de Φ (phi) puede determinarse en virtud de la relación que este coeficiente tiene con “χ2” Chi cuadrada.

Sustituto de: Aunque este coeficiente puede comparase directamente con el coeficiente r de Pearson, esta prueba estadística de correlación no es sustituta de ninguna prueba y sólo actúa como coeficiente de correlación.

Potencia Estadística:

Tipo de Muestras: Las muestras empleadas en este tipo de prueba, pueden ser grandes y pequeñas, pero siempre de diferente tamaño o igual para cada variable o grupo.

FORMULAS APLICADAS.

Cálculo del coeficiente de Correlación Φ para el caso donde las frecuencias no son muy grandes y los valores son pequeños.

Φ=

(ad−bc )√(k )(l )(m)(n ) --------------- ( 1 )

Siendo:a,b,c,d = letras que representan las distintas frecuencias obtenidas en el estudio y procesadas en la tabla de contingencia. K,L,M y N son las sumas correspondientes a las frecuencias.

Calculo de la significación.

χ2=NΦ2

Grados de Libertad.

gl = (C-1)(r-1)

COEFICIENTE DE CONTINGENCIA “C”.

Consideraciones Teóricas.

Esta prueba estadística es una alternativa adecuada cuando se desea conocer y medir la asociación o correlación y el tipo de escala de las mediciones es nominal. Cabe señalar que la aplicación y el cálculo son muy sencillos, por lo que el coeficiente de contingencia se

Page 12: apuntes metodos

presenta como un modelo ideal; sin embargo, existen algunas limitaciones.El coeficiente de contingencias se rige por las mismas reglas de la correlación y las mediciones de índice correspondiente de + 1 a - 1, pasando por el cero, donde este último significa no correlación entre las variables estudiadas y los dos primeros la correlación máxima. En esta prueba estadística existe el cero, pero no alcanza la unidad, limitante que desfavorece la prueba, pues el máximo de asociación corresponde al número de categorías de las variables.Este coeficiente varía entre 0 y 1, de forma que si hay independencia entre ambos atributos, coincidirán las frecuencias teóricas y las observadas, lo que implica un valor de χ2 y, en consecuencia de C, nulo. C valdría 1 en el hipotético caso de una perfecta asociación entre los atributos.El coeficiente de contingencia “C”, es análogo al coeficiente de correlación phi (Φ) o cuádruple, emplea datos cardinales, es decir, que son susceptibles de categorías.Por otro lado el coeficiente C carece de signo.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación se representa por una “C” mayúscula.

Uso: Cuando los datos están clasificados en más de dos categorías, es recomendable utilizar el coeficiente de contingencia “C” como medida de relación.

Variables y Escalas de Medición: Este coeficiente puede aplicarse a datos normales o asimétricos, continuos o discretos, cardinales u ordinales.El nivel de medición de las variables debe ser del tipo nominal.

Hipótesis a Comprobar: El coeficiente de contingencia “C”, no exige hipótesis alguna acerca de la distribución de la población. La manera más rápida de comprobar la significación C es el contraste de significación de “χ2” Chi cuadrada. Si este es significativo también lo es “C”. A mayor valor de C, se tendrá mayor grado de asociación.

Sustituto de: El coeficiente C no es sustituto de ninguna otra prueba, así mismo no es compatible con r, ρ, o τ, ni con otro coeficiente de correlación o coeficiente C calculado de tablas de otra forma.

Potencia Estadística: Tiene una mediana potencia estadística

Tipo de Muestras: Las muestras empleadas en esta prueba, pueden ser grandes o pequeñas, según el requerimiento del estudio, así como de diferentes tamaños en cada Variable o grupo.

Page 13: apuntes metodos

FORMULAS APLICADAS.El coeficiente de contingencia C de Pearson se obtiene a partir del coeficiente χ2 (chi o Ji Cuadrada), indicando la mayor o menor asociación entre modalidades de dos variables cualitativas.Su fórmula es:

C=√ χ 2

N+ χ2 --------------- ( 1 )

Cálculo del coeficiente de Contingencia “C” para el caso donde las frecuencias no son muy grandes y hay dos o más categorías. Siendo χ² el valor de chi o ji cuadrada.

RELACIONES NO LINEALES.

Ocurre con frecuencia que la relación entre dos variables no es lineal. En estas condiciones el coeficiente “r” de Pearson y las variantes de dicho coeficiente, no son apropiados como medidas de correlación. Dada la dificultad de conocer a simple vista, si los datos obedecen o no a una ley, debe trazarse el diagrama de dispersión o nube de puntos. Siempre que el diagrama presente o sugiera cierta desviación respecto a la ley lineal, no es aconsejable el empleo del coeficiente “r” de Pearson.

COEFICIENTE DE CORRELACIÓN “NU”.

Consideraciones Teóricas.

El coeficiente “η” (nu), generalmente denominado:”razón de correlación” es un coeficiente general o índice de la relación que se usa frecuentemente con datos que no son lineales, cuyo valor varía de 0 a 1.El coeficiente “η” carece de signo, este sólo mide el grado de la relación existente. El coeficiente “η” (nu), depende del número de columnas y de las frecuencias entre columnas. Estas últimas deberán ser lo suficientemente grandes para dar estabilidad a las medias de las distintas columnas.En un coeficiente lineal de correlación, la correlación entre X e Y es la misma que entre Y y X, por lo que sólo se requiere calcular “r”.Sin embargo con “η” no ocurre lo mismo, ya que existen dos coeficientes uno con X e Y y otro con Y y X.La discrepancia entre ambos coeficientes (r, η) depende de la cuantía de la desviación respecto a la linealidad.Por otro lado “η” puede dar una interpretación similar a la dada por “r2”, el cual indica la varianza compartida por dos variables.

Page 14: apuntes metodos

Si “η” se eleva al cuadrado, “η2” indica en esencia la varianza compartida por la variable independiente y la dependiente.Por ejemplo si η2= 0.23, indica que el 23% de la varianza de la variable que se mide explica los diferentes factores usados en el estudio. η2 es un índice de la proporción de la varianza implicada en la muestra. El método más directo para calcular “η” consiste en definir el cuadrado de “η” por la razón de la suma de los cuadrados correspondientes a la variable Y “η” <entre> columnas y la total. PROPIEDADES.

Símbolo: Este coeficiente de correlación no lineal se representa con la letra griega “η” minúscula.

Uso: El coeficiente “η” debe emplearse “η” cuando la relación entre dos conjuntos de datos es curvilínea.

Variables y Escalas de Medición: Este coeficiente indica la magnitud de la relación entre dos variables: la variable independiente y la dependiente que son continuas.

Hipótesis a Comprobar: La hipótesis planteada respeta los elementos de a mayor X, mayor Y o a menor X, mayor Y o viceversa.

Sustituto de: El valor de “η” no es directamente comparable con otros coeficientes. Sin embargo si los datos de una distribución binomial de frecuencias están ligadas a una relación lineal. Los valores de “η” y “r” coincidirán. Si la relación no es lineal el coeficiente “η” será mayor que “r”.

Potencia Estadística:

Tipo de Muestras: Las muestras empleadas por esta prueba pueden ser grandes o menores según los requerimientos del estudio.

FORMULAS APLICADAS.

1. Método directo. Definición del cuadrado de “η” por la razón de la suma de los cuadrados de la variable Y y la total.

ηxy

2 =Σγb

2

Σγ t2

o ηxy=√ Σγb

2

Σγ t2

2. Para obtener la expresión del otro coeficiente “η” sólo hay que sustituir Y por X en la siguiente ecuación.

Page 15: apuntes metodos

η yx

2 =Σ (Σ γ ' )2 / yx−{[Σ(Σ y ' ) ]2/N }

Σ fy 2−[(Σf y ' )2 /N ]

COEFICIENTE DE CORRELACIÓN “PARCIAL”.

Consideraciones Teóricas.

A menudo es importante medir la correlación entre una variable dependiente y una variable independiente determinada, cuando todas las demás variables independientes que intervienen se mantienen constantes, es decir, a veces la relación entre dos variables está condicionada por una tercera.Cuando se eliminan los efectos de todas las variables restantes (indicadas a menudo por la frase “siendo igual todas las demás”). Esto puede obtenerse por la definición de un coeficiente parcial, excepto que se deben considerar las variaciones explicadas y no explicadas que aparecen con y sin la variable independiente considerada.El coeficiente de correlación parcial, permite conocer el valor de la correlación entre dos variables A y B, si la variable C ha permanecido constante para la serie de observaciones consideradas. Dicho de otro modo mediante el coeficiente de correlación parcial, es posible controlar estos efectos, basados en tres coeficientes “r” de orden cero.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación parcial se representa por una “r” minúscula con el subíndice 12,3, es decir, “r12,3”.

Uso: Este coeficiente parcial de segundo orden, permite conocer la relación entre dos variables A y B, eliminando los efectos de una tercera o cuarta variable.

Variables y Escalas de Medición: Las variables que se presentan en esta prueba son variables independientes condicionadas por una tercera. Las escalas de medición en este proceso de correlación es del tipo de intervalo o de razón.

Hipótesis a Comprobar: Este coeficiente aplica de la misma forma el planteamiento de la hipótesis que cualquier otro coeficiente es decir:

H0: β1 = 0 (no hay relación). H0: β2 0 (hay relación).

Sustituto de: Esta prueba no es sustituto de ninguna otro coeficiente de correlación.

Page 16: apuntes metodos

Potencia Estadística:

Tipo de Muestras: Las muestras empleadas en esta prueba pueden ser de distintos tamaños pero siempre del mismo número de datos para cada variable o grupo, para obtener los valores de correlación de orden cero, sin embargo siempre emplea coeficientes de correlación.

FORMULAS APLICADAS.

Si se denota por “r12,3” el coeficiente de correlación parcial entre X1 y X2 considerando a X3 constante, se establece la expresión general del coeficiente de correlación parcial como:

r12 ,3=

r12−(r13)(r23)

√(1−r132 )(1−r23

2 )Siendo: R12,3 = Es la relación entre las variables uno y dos eliminando la influencia de la variable tres.

Nota: De manera análoga es posible escribir la expresión de los coeficientes r13,2 y r23,1, respectivamente.

COEFICIENTE DE CORRELACIÓN “MULTIPLE”.

Consideraciones Teóricas.

El grado de relación existente entre tres o más variables, se llama correlación múltiple. Los principios fundamentales implicados en los problemas de correlación múltiple son análogos a los de la correlación simple.Los coeficientes de correlación lineal entre las variables: X1 y X2; X1 y X3; X2 y X3, se calculan y se denotan respectivamente por r12, r13, y r23,

a veces llamados coeficientes de correlación de orden cero.Cuando se utiliza una ecuación de regresión lineal, el coeficiente de correlación múltiple, se llama coeficiente de correlación múltiple lineal. A menos que se especifique de otro modo, siempre que se refiera a correlación múltiple, se tratará de correlación múltiple lineal.Este método de correlación sólo predice una variable dependiente a partir de múltiples independientes.El coeficiente de correlación múltiple, tal como R1,23, se encuentra entre 0 y 1. Cuanto más se acerca a 1, mejor es la relación lineal entre las variables. Cuanto más cerca se encuentre de cero, la relación es débil o nula. Si el coeficiente de correlación múltiple es uno (1), la correlación se dice es perfecta.Aunque un coeficiente de correlación con un valor indica que no existe relación lineal entre las variables, es posible que exista entre ellas una relación.

Page 17: apuntes metodos

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación múltiple, se representa por una “R” mayúscula con el subíndice 1,23, es decir, “R1,23”.

Uso: Esta prueba es una herramienta estadística, que estudia el comportamiento de tres o más variables al mismo tiempo, se usa principalmente para buscar variables menos representativas para poder eliminarlas.

Variables y Escalas de Medición: Las variables utilizadas en esta prueba, son múltiples variables independientes y una variable dependiente.Las escalas de medición utilizadas son: de intervalo o de razón.

Hipótesis a Comprobar: No aplica en esta prueba.

Sustituto de: Esta prueba no es sustituto de ninguna otro coeficiente no lineal de correlación.

Potencia Estadística:

Tipo de Muestras: Las muestras empleadas en esta prueba pueden ser de distintos tamaños, aunque los pares ordenados deberán ser del mismo número de sujetos.

FORMULAS APLICADAS.

El cálculo del coeficiente de correlación múltiple, se refiere a la relación entre una variable y una combinación lineal de otras dos variables.Dicho coeficiente queda definido por la expresión matemática siguiente:

R1 ,23=√ r12

2 +r132 −(2 r12r13 r23)

1−r232

METODOS DE CORRELACIÓN POR RANGOS.

Con frecuencia los datos de que se dispone aparecen en forma de rangos. En otras ocasiones una de las variables puede estar en esta forma y la otra en datos numéricos resultado de una medición.Es posible, a veces, reducir los datos o medidas a rangos, por ejemplo cuando el tamaño de la muestra es pequeño y no se satisfacen las hipótesis respecto de los parámetros estadísticos.

Page 18: apuntes metodos

En tales circunstancias se pueden aplicar diversos coeficientes, como por ejemplo: El coeficiente rho “ρ” de rangos ordenados de Spearman, “τ” de Kendall y el coeficiente “W” de concordancia de Kendall.

COEFICIENTE DE CORRELACIÓN “ρ” DE SPEARMAN.

Consideraciones Teóricas.

Este coeficiente es el más empleado de los métodos de correlación. La eficacia de esta prueba, cuando se compara con la correlación paramétrica más poderosa la “r” de Pearson; es de cerca de 91%, esto resulta verdadero sólo cuando la distribución tiene una forma normal bivariada y la medición se ha hecho por lo menos en una escala de intervalo para rechazar la hipótesis nula.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación por rangos ordenados, se representa por la letra griega “ρ” (rho) o una “r” minúscula con el subíndice “s” minúscula es decir “rs”.

Uso: Esta prueba es apropiada en situaciones en el que el número de casos está comprendido entre 25 a 30 o menor a estos, es decir, para muestras pequeñas. Así mismo su aplicación es mucho más fácil y rápida de calcular que el coeficiente “r” de Pearson.

Variables y Escalas de Medición: Esta prueba es una medida de asociación por lo que requiere que ambas variables estén medidas por lo menos en una escala nominal, de manera que los objetos o sujetos puedan colocarse en dos series ordenados por rangos (jerarquías). Las variables presentes son aleatorias.

Hipótesis a Comprobar: La hipótesis de no asociación entre las poblaciones implica una asignación aleatoria de “n” rangos en cada muestra.

Sustituto de: Esta prueba es un sustituto no paramétrico del coeficiente lineal “r” de Pearson.

Potencia Estadística:

Tipo de Muestras: Las muestras empleadas en esta prueba son pequeñas menores o iguales a 30 datos.

Page 19: apuntes metodos

FORMULAS APLICADAS.

Para determinar el valor del coeficiente lineal de correlación por rangos ordenados, se establece la siguiente expresión matemática como sigue:

r s= ρ=1− 6 ΣD2

N (N2−1)Siendo: N = número de pares. ρ= Coeficiente de correlación.

Para la significación se tiene la siguiente ecuación donde la t de Student sirve como prueba de apoyo:

t=ρ= N−2

√1− ρ2

Grados de libertad= gl= n-2

COEFICIENTE DE CORRELACIÓN “τ” DE KENDALL.

Consideraciones Teóricas.

El coeficiente “τ” de Kendall, se puede emplear en todos los casos en que aplique el coeficiente “ρ” de correlación por rangos ordenados de Spearman. Como se observa a continuación, “τ” es algo más laborioso de calcular que “ρ”, pero presenta ciertas ventajas sobre éste.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación de rangos se representa por la letra griega “τ” (tao).

Uso: Se puede emplear de igual manera que los otros coeficientes de correlación por rangos.

Variables y Escalas de Medición: Las variables empleadas en esta prueba requieren que ambas medidas estén en una escala ordinal, para colocar los datos en dos series ordenadas por rangos.

Hipótesis a Comprobar:

Sustituto de: Esta prueba puede ser un sustituto no paramétrico del coeficiente lineal “ρ” de Spearman en caso necesario.

Potencia Estadística: N/A

Page 20: apuntes metodos

Tipo de Muestras: Las muestras empleadas deberán ser menores a 30 datos, es decir, para muestras pequeñas.

FORMULAS APLICADAS.

1. Cálculo de la suma de las diferencias.

S = (M-N)1 + (M-N)2 …………………(M-N)n

2. Calculo del coeficiente “τ” (tao), mediante la expresión:

τ= 2S

N (N−1)Siendo: S = suma de las diferencias. N = número de pares ordenados.

COEFICIENTE DE CORRELACIÓN “W” DE KENDALL.

Consideraciones Teóricas.

Kendall desarrollo esta técnica y estableció un estadístico que hace innecesario el proceder de calcular el coeficiente ρ de Spearman repetidas veces, cuando se tienen tres o más conjuntos de rangos.

El coeficiente W de Kendall es una medida de correlación de concordancia, es decir, el acuerdo o desacuerdo para variables en un nivel de medición ordinal, de tal modo que las preferencias u objetos de una muestra puedan ordenarse por rangos.Imaginemos que los miembros de un jurado ordenan por rangos los proyectos de personas para un concurso y se debe de hallar la relación global entre las calificaciones de los miembros.La cuantía del coeficiente de concordancia W indica el grado de acuerdo entre los miembros del jurado respecto a la calificación de los proyectos.El acuerdo total corresponderá al caso W=1, y la carencia de acuerdo W=0. Este coeficiente W varia de 0 a 1, se trata de un estadístico sumamente eficiente.

PROPIEDADES.

Símbolo: El símbolo del coeficiente de correlación de concordancia de Kendall, se representa por la letra “W” mayúscula.

Page 21: apuntes metodos

Uso: Este coeficiente se emplear para hallar la relación entre tres o más conjuntos de rangos.

Variables y Escalas de Medición: Las variables de esta prueba son ordinales del mismo modo es la escala empleada.

Hipótesis a Comprobar: Si no existe relación alguna entre los rangos, deberá esperarse que la suma de los rangos en cada fila sea la misma.

Sustituto de: Es un buen sustituto del coeficiente “ρ” de Spearman, cuando se desea reducir el número de cálculos entre cada conjunto de rangos, cuando hay más de dos.

Potencia Estadística: N/A

Tipo de Muestras: Las muestras empleadas aquí son pequeñas, menores a 30 datos.

FORMULAS APLICADAS.

1. Cálculo para comprobar la suma de los valores de la columna de rangos.

Suma total de rangos = mN(N+1)/2

2. Para calcular W, se aplica la expresión siguiente:

W=12ΣD2

m2 (N )(N2−1)Donde: m = el número de jueces participantes. N = el número de sujetos a estudio. D = los puntos de desviación de la suma de rangos.