NUEVOS MÉTODOS DE ANÁLISIS MULTIVARIANTES

download NUEVOS MÉTODOS DE ANÁLISIS MULTIVARIANTES

of 285

Transcript of NUEVOS MÉTODOS DE ANÁLISIS MULTIVARIANTES

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    1/285

    NUEVOS MTODOS DE ANLISISMULTIVARIANTE

    Carles M. Cuadras

    21 de junio de 2010

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    2/285

    2

    Es propiedad del autor.

    cC. M. CuadrasCMC EditionsManacor 3008023 Barcelona, Spain

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    3/285

    ndice general

    1. DATOS MULTIVARIANTES 111.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    1.2. Matrices de datos . . . . . . . . . . . . . . . . . . . . . . . . . 111.3. La matriz de centrado . . . . . . . . . . . . . . . . . . . . . . 121.4. Medias, covarianzas y correlaciones . . . . . . . . . . . . . . . 131.5. Variables compuestas . . . . . . . . . . . . . . . . . . . . . . . 141.6. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 141.7. Teorema de la dimensin . . . . . . . . . . . . . . . . . . . . . 151.8. Medidas globales de variabilidad y dependencia . . . . . . . . 161.9. Distancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.10. Dos aspectos del clculo matricial . . . . . . . . . . . . . . . . 19

    1.10.1. Descomposicin singular . . . . . . . . . . . . . . . . . 191.10.2. Inversa generalizada . . . . . . . . . . . . . . . . . . . 19

    1.11. Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    2. NORMALIDAD MULTIVARIANTE 232.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.2. Distribucin normal multivariante . . . . . . . . . . . . . . . . 24

    2.2.1. Denicin . . . . . . . . . . . . . . . . . . . . . . . . . 242.2.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . 252.2.3. Caso bivariante . . . . . . . . . . . . . . . . . . . . . . 26

    2.3. Distribucin de Wishart . . . . . . . . . . . . . . . . . . . . . 272.4. Distribucin de Hotelling . . . . . . . . . . . . . . . . . . . . . 28

    2.5. Distribucin de Wilks . . . . . . . . . . . . . . . . . . . . . . . 292.6. Relaciones entre Wilks, Hotelling y F . . . . . . . . . . . . . . 312.7. Distribucin multinomial . . . . . . . . . . . . . . . . . . . . . 322.8. Distribuciones con marginales dadas . . . . . . . . . . . . . . . 322.9. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

    3

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    4/285

    4 NDICE GENERAL

    3. INFERENCIA MULTIVARIANTE 37

    3.1. Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . . . . . 373.2. Estimacin de medias y covarianzas . . . . . . . . . . . . . . . 383.3. Tests multivariantes . . . . . . . . . . . . . . . . . . . . . . . . 39

    3.3.1. Test sobre la media: una poblacin . . . . . . . . . . . 393.3.2. Test sobre la media: dos poblaciones . . . . . . . . . . 403.3.3. Comparacin de medias . . . . . . . . . . . . . . . . . 40

    3.4. Teorema de Cochran . . . . . . . . . . . . . . . . . . . . . . . 413.5. Construccin de tests multivariantes . . . . . . . . . . . . . . 44

    3.5.1. Razn de verosimilitud . . . . . . . . . . . . . . . . . . 443.5.2. Principio de unin-interseccin . . . . . . . . . . . . . . 46

    3.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

    3.7. Anlisis de perles . . . . . . . . . . . . . . . . . . . . . . . . 533.8. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

    4. ANALISIS DE CORRELACION CANONICA 574.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574.2. Correlacin mltiple . . . . . . . . . . . . . . . . . . . . . . . 574.3. Correlacin cannica . . . . . . . . . . . . . . . . . . . . . . . 594.4. Correlacin cannica y descomposicin singular . . . . . . . . 624.5. Signicacin de las correlaciones cannicas . . . . . . . . . . . 634.6. Test de independencia . . . . . . . . . . . . . . . . . . . . . . 63

    4.6.1. Razn de verosimilitud . . . . . . . . . . . . . . . . . . 644.6.2. Principio de unin interseccin . . . . . . . . . . . . . . 64

    4.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654.8. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

    5. ANALISIS DE COMPONENTES PRINCIPALES 695.1. Denicin y obtencin de las componentes principales . . . . . 695.2. Variabilidad explicada por las componentes principales . . . . 715.3. Representacin de una matriz de datos . . . . . . . . . . . . . 725.4. Inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

    5.4.1. Estimacin y distribucin asinttica . . . . . . . . . . . 75

    5.4.2. Tests de hiptesis . . . . . . . . . . . . . . . . . . . . . 765.5. Nmero de componentes principales . . . . . . . . . . . . . . . 785.5.1. Criterio del porcentaje . . . . . . . . . . . . . . . . . . 785.5.2. Criterio de Kaiser . . . . . . . . . . . . . . . . . . . . . 795.5.3. Test de esfericidad . . . . . . . . . . . . . . . . . . . . 79

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    5/285

    NDICE GENERAL 5

    5.5.4. Criterio del bastn roto . . . . . . . . . . . . . . . . . . 79

    5.6. Biplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 805.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 815.8. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

    6. ANLISIS FACTORIAL 876.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 876.2. El modelo unifactorial . . . . . . . . . . . . . . . . . . . . . . 886.3. El modelo multifactorial . . . . . . . . . . . . . . . . . . . . . 90

    6.3.1. El modelo . . . . . . . . . . . . . . . . . . . . . . . . . 906.3.2. La matriz factorial . . . . . . . . . . . . . . . . . . . . 916.3.3. Las comunalidades . . . . . . . . . . . . . . . . . . . . 91

    6.3.4. Nmero mximo de factores comunes . . . . . . . . . . 926.3.5. El caso de Heywood . . . . . . . . . . . . . . . . . . . 936.3.6. Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . 93

    6.4. Teoremas fundamentales . . . . . . . . . . . . . . . . . . . . . 956.5. Mtodo del factor principal . . . . . . . . . . . . . . . . . . . 976.6. Mtodo de la mxima verosimilitud . . . . . . . . . . . . . . . 98

    6.6.1. Estimacin de la matriz factorial . . . . . . . . . . . . 986.6.2. Hiptesis sobre el nmero de factores . . . . . . . . . . 99

    6.7. Rotaciones de factores . . . . . . . . . . . . . . . . . . . . . . 1006.7.1. Rotaciones ortogonales . . . . . . . . . . . . . . . . . . 1006.7.2. Factores oblicuos . . . . . . . . . . . . . . . . . . . . . 1016.7.3. Rotacin oblicua . . . . . . . . . . . . . . . . . . . . . 1026.7.4. Factores de segundo orden . . . . . . . . . . . . . . . . 104

    6.8. Medicin de factores . . . . . . . . . . . . . . . . . . . . . . . 1056.9. Anlisis factorial conrmatorio . . . . . . . . . . . . . . . . . . 1066.10. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

    7. ANALISIS CANONICO DE POBLACIONES 1117.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1117.2. Variables cannicas . . . . . . . . . . . . . . . . . . . . . . . . 1127.3. Distancia de Mahalanobis y transformacin cannica . . . . . 114

    7.4. Representacin cannica . . . . . . . . . . . . . . . . . . . . . 1157.5. Aspectos inferenciales . . . . . . . . . . . . . . . . . . . . . . . 1177.5.1. Comparacin de medias . . . . . . . . . . . . . . . . . 1177.5.2. Comparacin de covarianzas . . . . . . . . . . . . . . . 1177.5.3. Test de dimensionalidad . . . . . . . . . . . . . . . . . 118

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    6/285

    6 NDICE GENERAL

    7.5.4. Regiones condenciales . . . . . . . . . . . . . . . . . . 119

    7.6. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1238. ESCALADO MULTIDIMENSIONAL (MDS) 125

    8.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1258.2. Cuando una distancia es eucldea? . . . . . . . . . . . . . . . . 1268.3. El anlisis de coordenadas principales . . . . . . . . . . . . . . 1288.4. Similaridades . . . . . . . . . . . . . . . . . . . . . . . . . . . 1318.5. Nociones de MDS no mtrico . . . . . . . . . . . . . . . . . . 1338.6. Distancias estadsticas . . . . . . . . . . . . . . . . . . . . . . 136

    8.6.1. Variables cuantitativas . . . . . . . . . . . . . . . . . . 1368.6.2. Variables binarias . . . . . . . . . . . . . . . . . . . . . 137

    8.6.3. Variables categricas . . . . . . . . . . . . . . . . . . . 1388.6.4. Variables mixtas . . . . . . . . . . . . . . . . . . . . . 1388.6.5. Otras distancias . . . . . . . . . . . . . . . . . . . . . . 139

    8.7. Dos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1418.8. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

    9. ANALISIS DE CORRESPONDENCIAS 1479.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1479.2. Cuanticacin de las variables categricas . . . . . . . . . . . 1499.3. Representacin de las y columnas . . . . . . . . . . . . . . . 1509.4. Relacin entre las y columnas y representacin conjunta . . . 1529.5. Soluciones simtrica y asimtrica . . . . . . . . . . . . . . . . 1549.6. Variabilidad geomtrica (inercia) . . . . . . . . . . . . . . . . 1569.7. Analisis de Correspondencias Mltiples . . . . . . . . . . . . . 1599.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1619.9. MDS ponderado . . . . . . . . . . . . . . . . . . . . . . . . . . 1659.10. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

    10.CLASIFICACION 17310.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17310.2. Jerarqua indexada . . . . . . . . . . . . . . . . . . . . . . . . 174

    10.3. Geometra ultramtrica . . . . . . . . . . . . . . . . . . . . . . 17610.4. Algoritmo fundamental de clasicacin . . . . . . . . . . . . . 18010.5. Equivalencia entre jerarqua indexada y ultramtrica . . . . . 18010.6. Algoritmos de clasicacin jerrquica . . . . . . . . . . . . . . 181

    10.6.1. Mtodo del mnimo . . . . . . . . . . . . . . . . . . . . 183

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    7/285

    NDICE GENERAL 7

    10.6.2. Mtodo del mximo . . . . . . . . . . . . . . . . . . . . 184

    10.7. Otras propiedades del mtodo del mnimo . . . . . . . . . . . 18610.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18810.9. Clasicacin no jerrquica . . . . . . . . . . . . . . . . . . . . 19110.10.Nmero de clusters . . . . . . . . . . . . . . . . . . . . . . . . 19210.11.Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

    11.ANALISIS DISCRIMINANTE 19511.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19511.2. Clasicacin en dos poblaciones . . . . . . . . . . . . . . . . . 196

    11.2.1. Discriminador lineal . . . . . . . . . . . . . . . . . . . 19611.2.2. Regla de la mxima verosimilitud . . . . . . . . . . . . 197

    11.2.3. Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 19711.3. Clasicacin en poblaciones normales . . . . . . . . . . . . . . 19811.3.1. Discriminador lineal . . . . . . . . . . . . . . . . . . . 19811.3.2. Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 19911.3.3. Probabilidad de clasicacin errnea . . . . . . . . . . 19911.3.4. Discriminador cuadrtico . . . . . . . . . . . . . . . . . 19911.3.5. Clasicacin cuando los parmetros son estimados . . . 20011.3.6. Un ejemplo . . . . . . . . . . . . . . . . . . . . . . . . 200

    11.4. Discriminacin en el caso de k poblaciones . . . . . . . . . . . 20311.4.1. Discriminadores lineales . . . . . . . . . . . . . . . . . 20311.4.2. Regla de la mxima verosimilitud . . . . . . . . . . . . 20411.4.3. Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 20411.4.4. Un ejemplo clsico . . . . . . . . . . . . . . . . . . . . 205

    12.DISCRIMINACION LOGISTICA Y BASADA EN DISTAN-CIAS 20712.1. Anlisis discriminante logstico . . . . . . . . . . . . . . . . . . 207

    12.1.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . 20712.1.2. Modelo de regresin logstica . . . . . . . . . . . . . . . 20812.1.3. Estimacin de los parmetros . . . . . . . . . . . . . . 20912.1.4. Distribucin asinttica y test de Wald . . . . . . . . . 210

    12.1.5. Ajuste del modelo . . . . . . . . . . . . . . . . . . . . . 21112.1.6. Curva ROC . . . . . . . . . . . . . . . . . . . . . . . . 21212.1.7. Comparacin entre discriminador lineal y logstico . . . 214

    12.2. Anlisis discriminante basado en distancias . . . . . . . . . . . 21712.2.1. La funcin de proximidad . . . . . . . . . . . . . . . . 217

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    8/285

    8 NDICE GENERAL

    12.2.2. La regla discriminante DB . . . . . . . . . . . . . . . . 218

    12.2.3. La regla DB comparada con otras . . . . . . . . . . . . 21912.2.4. La regla DB en el caso de muestras . . . . . . . . . . . 22012.3. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 222

    13.EL MODELO LINEAL 22513.1. El modelo lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 22513.2. Suposiciones bsicas del modelo . . . . . . . . . . . . . . . . . 22613.3. Estimacin de parmetros . . . . . . . . . . . . . . . . . . . . 227

    13.3.1. Parmetros de regresin . . . . . . . . . . . . . . . . . 22713.3.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . 228

    13.4. Algunos modelos lineales . . . . . . . . . . . . . . . . . . . . . 229

    13.4.1. Regresin mltiple . . . . . . . . . . . . . . . . . . . . 22913.4.2. Diseo de un factor . . . . . . . . . . . . . . . . . . . . 23013.4.3. Diseo de dos factores . . . . . . . . . . . . . . . . . . 230

    13.5. Hiptesis lineales . . . . . . . . . . . . . . . . . . . . . . . . . 23113.6. Inferencia en regresin mltiple . . . . . . . . . . . . . . . . . 23413.7. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

    14.ANLISIS DE LA VARIANZA (ANOVA) 23714.1. Diseo de un factor . . . . . . . . . . . . . . . . . . . . . . . . 23714.2. Diseo de dos factores . . . . . . . . . . . . . . . . . . . . . . 23914.3. Diseo de dos factores con interaccin . . . . . . . . . . . . . . 24114.4. Diseos multifactoriales . . . . . . . . . . . . . . . . . . . . . . 24314.5. Modelos log-lineales . . . . . . . . . . . . . . . . . . . . . . . . 244

    14.5.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . 24714.6. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 248

    15.ANLISIS DE LA VARIANZA (MANOVA) 24915.1. Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24915.2. Estimacin de parmetros . . . . . . . . . . . . . . . . . . . . 25015.3. Tests de hiptesis lineales . . . . . . . . . . . . . . . . . . . . 25315.4. Manova de un factor . . . . . . . . . . . . . . . . . . . . . . . 255

    15.5. Manova de dos factores . . . . . . . . . . . . . . . . . . . . . . 25615.6. Manova de dos factores con interaccin . . . . . . . . . . . . . 25715.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25815.8. Otros criterios . . . . . . . . . . . . . . . . . . . . . . . . . . . 26115.9. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 262

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    9/285

    NDICE GENERAL 9

    16.FUNCIONES ESTIMABLES MULTIVARIANTES 263

    16.1. Funciones estimables . . . . . . . . . . . . . . . . . . . . . . . 26316.2. Teorema de Gauss-Markov . . . . . . . . . . . . . . . . . . . . 26416.3. Funciones estimables multivariantes . . . . . . . . . . . . . . . 26516.4. Anlisis cannico de fpem . . . . . . . . . . . . . . . . . . . . 266

    16.4.1. Distancia de Mahalanobis . . . . . . . . . . . . . . . . 26616.4.2. Coordenadas cannicas . . . . . . . . . . . . . . . . . . 26716.4.3. Regiones condenciales . . . . . . . . . . . . . . . . . . 268

    16.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26816.6. Complementos . . . . . . . . . . . . . . . . . . . . . . . . . . . 271

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    10/285

    10 NDICE GENERAL

    P ROLOGO

    El Anlisis Multivariante es un conjunto de mtodos estadsticos y matem-ticos, destinados a describir e interpretar los datos que provienen de la ob-servacin de varias variables estadsticas, estudiadas conjuntamente.

    Este libro es una presentacin convencional de los principales modelos ymtodos del Anlisis Multivariante, con referencias a algunas contribucionesrecientes.

    La exposicin mantiene un cierto rigor matemtico, compensado con una

    clara orientacin aplicada. Todos los mtodos se ilustran con ejemplos, quejustican su aplicabilidad. Para examinar los datos y ver ms ejemplos con-sltese la pgina web

    www:ub:edu=stat=cuadras=cuad:html

    Esta obra tiene como precedentes la monograa Mtodos de Anlisis Fac-torial (Pub. no. 7, Laboratorio de Clculo, Universidad de Barcelona, 1974),y el libro Mtodos de Anlisis Multivariante (EUNIBAR, 1981; PPU, 1991;EUB, 1996, Barcelona).

    El autor se reserva el derecho de ampliar el texto e introducir mejoras.La primera versin apareci en 2007. La segunda versin (2010) contienecorrecciones, ampliaciones y un ndice alfabtico.

    Cmo citar este libro:

    C. M. CuadrasNuevos Mtodos de Anlisis MultivarianteCMC EditionsBarcelona, 2010

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    11/285

    Captulo 1

    DATOS MULTIVARIANTES

    1.1. Introduccin

    El anlisis multivariante (AM) es la parte de la estadstica y del anlisisde datos que estudia, analiza, representa e interpreta los datos que resultende observar un nmerop >1de variables estadsticas sobre una muestra denindividuos. Las variables observables son homogneas y correlacionadas, sinque alguna predomine sobre las dems. La informacin estadstica en AM es

    de carcter multidimensional, por lo tanto la geometra, el clculo matricialy las distribuciones multivariantes juegan un papel fundamental.

    La informacin multivariante es una matriz de datos, pero a menudo, enAM la informacin de entrada consiste en matrices de distancias o similari-dades, que miden el grado de discrepancia entre los individuos. Comenzare-mos con las tcnicas que se basan en matrices de datos.

    1.2. Matrices de datos

    Supongamos n individuos!1; : : : ; !n y p variablesX1; : : : ; X p:Sea xij =Xj(!i)la observacin de la variable Xj sobre el individuo !i:La matriz de

    11

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    12/285

    12 CAPTULO 1. DATOS MULTIVARIANTES

    datos multivariantes es

    X =

    0BBBBB@x11 x1j x1p... . . . ... . . . ...xi1 xij xip...

    . . . ...

    . . . ...

    xn1 xnj xnp

    1CCCCCALas las de Xse identican con los individuos y las columnas de Xcon lasvariables. Indicaremos:

    1. xi la la i-sima de X:

    2. Xj

    la columna j-sima de X:

    3. x = (x1; : : : ; xj; : : : ; xp)0 el vector (la) de las medias de las variables,siendo

    xj = 1

    n

    nXi=1

    xij :

    4. La matriz simtrica p pde covarianzas muestrales

    S =

    0

    BB@s11 s12 s1ps21 s22 s2p

    : : : : : :

    sp1 sp2 spp

    1

    CCA;

    siendo

    sjj 0 = 1

    n

    nXi=1

    (xij xj)(xij0 xj0)

    la covarianza entre las variablesj; j0:Naturalmente,x y Sson medidasmultivariantes de tendencia central y dispersin.

    1.3. La matriz de centrado

    Si 1 =(1; : : : ; 1)0es el vector columna de unos de orden n 1, y J = 110es la matriz n nde unos, ciertas caractersticas multivariantes se expresanmejor a partir de la matriz de centrado H;denida como

    H = I 1n

    J

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    13/285

    1.4. MEDIAS, COVARIANZAS Y CORRELACIONES 13

    Propiedades:

    H0= H:

    H2 = H:

    H1 = 10H = 0:

    rang(H) =n 1:Los valores propios de Hson 0 1:

    X= HX es la matriz de datos centrados (las columnnas de Xsuman0).

    1.4. Medias, covarianzas y correlaciones

    El vector de medias, la matriz de covarianzas, etc., tienen expresionesmatriciales simples.

    1. x0= 1n

    10X:

    2. Matriz de datos centrados:

    X= X 1x0= HX:

    3. Matriz de covarianzas:

    S =1

    nX0X =

    1

    nX0HX:

    4. Matriz de correlaciones:

    El coeciente de correlacin entre las variables j; j0viene dado por

    rjj 0 = sjj 0

    sjsj0;

    siendo sj; sj0 las desviaciones tpicas. Adems de la matriz de covarianzas

    interesa tambin la matriz de correlaciones

    R =

    0BB@1 r12 r1p

    r21 1 r2p: : : : : :

    rp1 rp2 1

    1CCA ;

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    14/285

    14 CAPTULO 1. DATOS MULTIVARIANTES

    donde rij =cor(Xi; Xj) es el coeciente de correlacin (muestral) entre las

    variablesXi; Xj ;que verica:R = D1SD1; S = DRD; (1.1)

    siendo Dla matriz diagonal con las desviaciones tpicas de las variables.

    1.5. Variables compuestas

    Algunos mtodos de AM consisten en obtener e interpretar combina-ciones lineales adecuadas de las variables observables. Una variable compues-ta Yes una combinacin lineal de las variables observables con coecientes

    a = (a1; : : : ; ap)0 Y =a1X1+ + apXp:Si X =[X1; : : : ; X p]es la matriz de datos, tambin podemos escribir

    Y = Xa:

    SiZ=b1X1+ + bpXp = Xbes otra variable compuesta, se verica:1. Y = x0a; Z=x0b:

    2. var(Y) = a0Sa, var(Z) = b0Sb:

    3. cov(Y; Z) = a0Sb:

    Ciertas variables compuestas reciben diferentes nombres segn la tc-nica multivariante: componentes principales, variables cannicas, funcionesdiscriminantes, etc. Uno de los objetivos del Anlisis Multivariante es encon-trar variables compuestas adecuadas que expliquen aspectos relevantes de losdatos.

    1.6. Transformaciones lineales

    SeaTuna matrizp

    q:Una transformacin lineal de la matriz de datos

    esY= XT:

    Las columnasY1; : : : ; Y q de Yson las variables transformadas.

    Propiedades:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    15/285

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    16/285

    16 CAPTULO 1. DATOS MULTIVARIANTES

    Por lo tanto

    Xj rXi=1

    aiXi= c =) Xj =c +rXi=1

    aiXi

    dondec es una constante.

    Corolario 1.7.2 Si todas las variables tienen varianza positiva (es decir,ninguna se reduce a una constante) y r = rang(R) p; hay r variableslinealmente independientes y las otrasp r son combinacin lineal de estasr variables.

    Demost.: De (1.1) deducimos que r = rang(R) =rang(S):

    1.8. Medidas globales de variabilidad y de-pendencia

    Una medida de la variabilidad global de las pvariables debe ser funcinde la matriz de covarianzas S:Sean 1; : : : ; p los valores propios de S:Lassiguientes medidas tienen especial inters en AM.

    a) Varianza generalizada:

    jS

    j=1

    p:

    b) Variacin total:tr(S) =1+ + p

    Una medida de dependencia global debe ser funcin de la matriz de cor-relaciones R:Un coeciente de dependencia es

    2 = 1 jRj;

    que verica:

    1. 0 2 1:2. 2 = 0si y slo si las p variables estan incorrelacionadas.

    3. 2 = 1si y slo si hay relaciones lineales entre las variables.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    17/285

    1.9. DISTANCIAS 17

    Demost.:

    1. Sean 1; : : : ; p los valores propios de R

    . Si g y a son las medias ge-omtrica y aritmtica de p nmeros positivos, se verica g a:Entonces, detr(R) =p

    (jRj)1=p= (1 p)1=p (1+ + p)=p= 1y por lo tanto 0 det(R) 1:

    2. R = I (matriz identidad) si y slo si las p variables estn incorrela-cionadas y entonces1 jIj =0:

    3. Si 2 = 1; es decir,jRj =0; entonces rang(R)

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    18/285

    18 CAPTULO 1. DATOS MULTIVARIANTES

    Observaciones

    Un cambio de escala de una variableXjes una transformacinYj =Xj ;donde es una constante. La distanciadMes muy adecuada en AM debidoa que verica:

    a)dEsupone implcitamente que las variables son incorrelacionadas y no esinvariante por cambios de escala.

    b) dPtambin supone que las variables estn incorrelacionadas pero es in-variante por cambios de escala.

    c)dMtiene en cuenta las correlaciones entre las variables y es invariante portransformaciones lineales no singulares de las variables, en particularcambios de escala.

    Las distanciasdEydPson casos particulares de dMcuando la matriz decovarianzas es la identidad Ipy diag(S), respectivamente. En efecto:

    dE(i; j)2 = (xi xj)0(xi xj);

    dP(i; j)2 = (xi xj)0[diag(S)]1(xi xj):

    La distancia de Mahalanobis (al cuadrado) puede tener otras versiones:

    1. Distancia de una observacin xial vector de medias xde X :

    (xi x)0S1(xi x)

    2. Distancia entre dos poblaciones representadas por dos matrices de datosXn1p; Yn2p :

    (x y)0S1(x y);

    donde x; yson los vectores de medias y

    S = (n1S1+ n2S2)=(n1+ n2)

    es la media ponderada de las correspondientes matrices de covarianzas.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    19/285

    1.10. DOS ASPECTOS DEL CLCULO MATRICIAL 19

    1.10. Dos aspectos del clculo matricial

    1.10.1. Descomposicin singular

    SeaA un matriz de ordenm nconm n:Se llama descomposicin envalores singulares de Aa

    A = UDsV0

    donde Ues matriz m ncuyas columnas son vectores ortonormales, Ds esuna matriz diagonal n ncon los valores singulares

    s1 sr sr+1= =sn = 0;y Ves una matriz n

    nortogonal. Se verica:

    1. El rango de Aes el nmero r de valores singulares positivos.

    2. Ucontiene los vectores propios (unitarios) de AA0;siendo U 0U = In:

    3. V contiene los vectores propios (unitarios) de A0A; siendo V0V =VV0= In:

    4. Si m = n y A es simtrica, entonces U = V y A = UDsU0 es ladesocmposicin espectral de A: Los valores singulares son los valorespropios de A:

    1.10.2. Inversa generalizada

    Si A es una matriz cuadrada de orden nn no singular, es decir, rang(A) =n;existe la matriz inversa A1 tal que

    AA1 = A1A = In:

    Si el rango es rang(A) =r < n;o A no es matriz cuadrada, la inversa noexiste, pero existe la inversa generalizada o g-inversa A:

    Sea A un matriz de orden mncon m n: Se llama inversa generalizadade Ao g-inversa, a una matriz A que verica:

    AAA = A:

    La g-inveresa no es nica, pero si A verica adems:

    AAA= A; (AA)0 = AA (AA)0 = AA;

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    20/285

    20 CAPTULO 1. DATOS MULTIVARIANTES

    entonces la g-inversa A es nica.

    Sea rang(A

    ) =r yA

    =UD

    sV0la descomposicin singular de

    A;con

    Ds = diag(s1; : : : ; sr; 0; : : : ; 0):

    EntoncesDs =diag(s

    11 ; : : : ; s

    1r ; 0; : : : ; 0):

    y la matriz m nA= VDs U

    0

    es una g-inversa de A:En efecto,

    AAA = UDsV0VDs U

    0UDsV0= A:

    1.11. Un ejemplo

    Ejemplo 1.11.1

    La Tabla 1.1 contiene los datos de n = 28alcornoques y p = 4variables,que miden los depsitos de corcho (en centigramos) en cada uno de los cuatropuntos cardinales: N, E, S, W.

    Medias, covarianzas y correlaciones

    Vector de medias

    x0=(50;536; 46;179; 49;679; 45;179)

    Matriz de covarianzas (dividiendo por n)

    S =

    0BB@280 216 278 218

    212 221 165337 250

    218

    1CCAMatriz de correlaciones

    R =

    0BB@1 0;885 0;905 0;883

    1 0;826 0;7691 0;923

    1

    1CCA

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    21/285

    1.11. UN EJEMPLO 21

    N E S W N E S W72 66 76 77 91 79 100 7560 53 66 63 56 68 47 5056 57 64 58 79 65 70 6141 29 36 38 81 80 68 5832 32 35 36 78 55 67 6030 35 34 26 46 38 37 3839 39 31 27 39 35 34 3742 43 31 25 32 30 30 3237 40 31 25 60 50 67 5433 29 27 36 35 37 48 3932 30 34 28 39 36 39 31

    63 45 74 63 50 34 37 4054 46 60 52 43 37 39 5047 51 52 43 48 54 57 43

    Tabla 1.1: Depsitos de corcho (centigramos) de 28 alcornoques en las cuatrodirecciones cardinales.

    Variables compuestas

    Las siguientes variables compuestas explican diferentes aspectos de lavariabilidad de los datos:

    Media VarianzaContraste eje N-S con eje E-W: Y1= N+ S E W 8.857 124.1Contraste N-S: Y2= N S 0.857 61.27Contraste E-W: Y3= E W 1.000 99.5

    Variables normalizadasUna variable compuesta est normalizada si la suma de cuadrados de

    sus coecientes es 1. La normalizacin evita que la varianza tome un valorarbitrario. La normalizacin de Y1; Y2; Y3dar:

    Media Varianza:

    Z1 = (N+ S E W)=2 4.428 31.03Z2 = (N S)=

    p2 0.606 30.63

    Z3 = (E W)=p

    2 0.707 49.75

    Interpretacin

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    22/285

    22 CAPTULO 1. DATOS MULTIVARIANTES

    Figura 1.1: Distribucin de las variables N, E, S, W y relaciones entre cadapar de variables de la Tabla 1.1.

    La normalizacin de las variables consigue que estas tengan varianzasms homogneas. La principal direccin de variabilidad aparece al hacer lacomparacin del eje N-S con el eje E-W.

    Visualizacin de datos

    En los captulos siguientes veremos mtodos y tcnicas de visualizacin dedatos multivariantes. Como norma general es conveniente, antes de realizarel anlisis, examinar y revisar los datos. La Figura 1.1 contiene un grcoque permite visualizar la distribucin de las 4 variables de la Tabla 1.1 y lasrelaciones lineales, o regresin lineal, entre cada par de variables.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    23/285

    Captulo 2

    NORMALIDADMULTIVARIANTE

    2.1. Introduccin

    Los datos en AM suelen provenir de una poblacin caracterizada poruna distribucin multivariante. Sea X =(X1; : : : ; X p)un vector aleatorio condistribucin absolutamente continua y funcin de densidadf(x1; : : : ; xp):Esdecir, fverica:

    1)f(x1; : : : ; xp) 0;para todo (x1; : : : ; xp) 2 Rp:2) RRpf(x1; : : : ; xp)dx1 dxp = 1:Conocidaf(x1; : : : ; xp)podemos encontrar la funcin de densidad de cada

    variable marginal Xj mediante la integral

    fj(xj) =

    Z f(x1; : : : ; xj; : : : ; xp)dx1 dxj1dxj+1 dxp:

    Como en el caso de una matriz de datos, es importante el vector de medias

    = (E(X1); : : : ; E (Xp))0;

    donde E(Xj) es la esperanza de la variable marginal Xj; y la matriz decovarianzas = (ij); siendo ij =cov(Xi; Xj); ii =var(Xi): Teniendo en

    cuenta que los elementos de la matriz (X)(X)0; de orden p p; son(Xi i)(Xj j) y que cov(Xi; Xj) =E(Xi i)(Xj j);la matriz decovarianzas = (ij)es

    = E((X)(X)0):

    23

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    24/285

    24 CAPTULO 2. NORMALIDAD MULTIVARIANTE

    En este captulo introducimos y estudiamos la distribucin normal mul-

    tivariante y tres distribuciones relacionadas con las muestras multivariantes:Wishart, Hotelling y Wilks.

    2.2. Distribucin normal multivariante

    2.2.1. Denicin

    Sea Xuna variable aleatoria con distribucin N(; 2); es decir, con mediay varianza 2:La funcin de densidad de Xes:

    f(x; ;

    2

    ) =

    1

    p2 e1

    2(x

    )2=2

    =

    (2)1=2

    p2 e1

    2(x

    ) 1

    2(x

    )

    (2.1)

    Evidentemente se verica:

    X= + Y donde Y N(0; 1): (2.2)Vamos a introducir la distribucin normal mutivariante Np(; ) como

    una generalizacin de la normal univariante. Por una parte, (2.1) sugieredenir la densidad de X = (X1; : : : ; X p)0 Np(; )segn:

    f(x; ; ) =jj1=2

    (p2)p

    e1

    2(x)01(x); (2.3)

    siendo x = (x1; : : : ; xp)0; = (1; : : : ; n)0 y = (ij) una matriz denida

    positiva, que como veremos, es la matriz de covarianzas. Por otra parte,(2.2) sugiere denir la distribucin X= (X1; : : : ; X p)0 Np(; )como unacombinacin lineal de pvariablesY1; : : : ; Y p independientes con distribucinN(0; 1):

    X1 =1+ a11Y1+ + a1pYp...

    ...Xp =p+ ap1Y1+ + appYp

    (2.4)

    que podemos escribir como X =+AY (2.5)

    donde A = (aij)es una matriz p qque verica AA0= :

    Proposicin 2.2.1 Las dos deniciones (2.3) y (2.4) son equivalentes.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    25/285

    2.2. DISTRIBUCIN NORMAL MULTIVARIANTE 25

    Demost.: Segn la frmula del cambio de variable

    fX(x1; : : : ; xp) =fY(y1(x); : : : ; yp(x))@y@x

    siendo yi = yi(x1; : : : ; xp),i = 1; : : : ; p, el cambio y J= @y@x

    el jacobiano delcambio. De (2.5) tenemos

    y= A1(x ) )@y@x = jA1j

    y como las variables YisonN(0; 1) independientes:

    fX(x1; : : : ; xp) = (1=p2)pe12P

    pi=1 y

    2i jA1j: (2.6)

    Pero1 = (A1)0(A1)y por lo tanto

    y0y= (x )0(A1)0(A1)(x ) = (x )01(x ): (2.7)

    Substituyendo (2.7) en (2.6) y dejA1j2 = jj1 obtenemos (2.3).

    2.2.2. Propiedades

    1. De (2.5) es inmediato que E(X) =y que la matriz de covarianzas es

    E((X)(X)0) =E(AYY0A0) = AIpA0= :

    2. La distribucin de cada variable marginal Xies normal univariante:

    Xi N(i; ii); i= 1; : : : ; p :

    Es consecuencia de la denicin (2.4).

    3. Toda combinacin lineal de las variables X1; : : : ; X p

    Z=b0+ b1X1+ + bpXpes tambin normal univariante. En efecto, de (2.4) resulta que Z escombinacin lineal de N(0; 1) independientes.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    26/285

    26 CAPTULO 2. NORMALIDAD MULTIVARIANTE

    4. Si =diag(11; : : : ; pp) es matriz diagonal, es decir,ij = 0; i 6=j;en-

    tonces las variables(X1; : : : ; X p)son estocsticamente independientes.En efecto, la funcin de densidad conjunta resulta igual al producto delas funciones de densidad marginales:

    f(x1; : : : ; xp; ; ) = f(x1; 1; 11) f(xp; p; pp)

    5. La distribucin de la forma cuadrtica

    U= (x )1(x )0

    es ji-cuadrado conpgrados de libertad. En efecto, de (2.5)U= YY0 =

    Ppi=1 Y

    2i es suma de los cuadrados de p variables N(0; 1) independi-

    entes.

    2.2.3. Caso bivariante

    Cuando p = 2; la funcin de densidad de la normal bivariante se puedeexpresar en funcin de las medias y varianzas 1;

    21; 2;

    22 y del coeciente

    de correlacin =cor(X1; X2) :

    f(x1; x2) =1

    212p

    12exp[1

    21

    12f (x11)2

    21

    2 (x11)1

    (x22)2

    + (x22)2

    22

    ;

    siendo1<

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    27/285

    2.3. DISTRIBUCIN DE WISHART 27

    Figura 2.1: Funcin de densidad de una distribucin normal bivariante de

    medias 1 y 1, desviaciones tpicas 2 y 2, coeciente de correlacin 0.8.

    2.3. Distribucin de Wishart

    La distribucin de Wishart es la que sigue una matriz aleatoria simtricadenida positiva, generaliza la distribucin ji-cuadrado y juega un papel im-portante en inferencia multivariante. Un ejemplo destacado lo constituye ladistribucin de la matriz de covarianzas S;calculada a partir de una matrizde datos donde las las son observaciones normales multivariantes.

    Denicin

    Si las las de la matriz Znpson independientes Np(0; )entonces diremosque la matriz Q = Z0Zes Wishart Wp(; n);con parmetros y ngradosde libertad.

    Textos avanzados prueban que cuando es denida positiva y n p;ladensidad de Qes

    f(Q) =cjQj(np1) exp(12

    tr(1Q));

    siendoc1 = 2np=2p(p1)=4jjn=2

    pQi=1

    (1

    2(n + 1 i):

    Propiedades:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    28/285

    28 CAPTULO 2. NORMALIDAD MULTIVARIANTE

    1. Si Q1; Q2son independientes WishartWp(; m); Wp(; n);entonces la

    sumaQ

    1+Q

    2es tambin Wishart Wp(; m + n):2. Si Qes Wishart Wp(; n);y separamos las variables en dos conjuntos

    y consideramos las particiones correspondientes de las matrices y Q

    =

    11 1221 22

    ; Q =

    Q11 Q12Q21 Q22

    ;

    EntoncesQ11esWp(11; n)y Q22 esWp(22; n):

    3. Si Qes Wishart Wp(; n)y Tes una matriz p qde constantes, en-tonces T0QT esWq(T0T; n):En particular, si t es un vector, entonces

    t0Qttt

    es 2n:

    2.4. Distribucin de Hotelling

    Es una generalizacin multivariante de la distribucin t de Student.

    Denicin

    Si y es Np(0; I); Q es Wishart Wp(I; m)y adems y; Q son independientes,entoncesT2 =my0Q1y

    sigue la distribucin T2 de Hotelling, que se indica por T2(p; m):

    Propiedades:

    1. Si xes Np(;)independiente de Mque esWp(; m), entonces

    T2 =m(x)0M1(x) T2(p; m):

    2. T2 est directamente relacionada con la distribucin de Fisher-Snedecor

    T2(p; m) mpm p + 1 F

    pmp+1:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    29/285

    2.5. DISTRIBUCIN DE WILKS 29

    3. Si x; Sson el vector de medias y la matriz de covarianzas de la matrizXnpcon las independientesNp(; );entonces

    (n 1)(x)0S1(x) T2(p; n 1);

    y por lo tanton p

    p (x)0S1(x) Fpnp:

    4. Si x; S1;y; S2 son el vector de medias y la matriz de covarianzas delas matrices Xn1p; Yn2p; respectivamente, con las independientesNp(; );y consideramos la estimacin conjunta centrada de

    eS= (n1S1+ n2S2)=(n1+ n2 2);entonces

    T2 = n1n2n1+ n2

    (xy)0eS1(x y) T2(p; n1+ n2 2)y por lo tanto

    n1+ n2 1 p(n1+ n2 2)pT

    2 Fpn1+n21p:

    2.5. Distribucin de WilksLa distribucin F con m y n grados de libertad surge considerando elcociente

    F =A=m

    B=n;

    dondeA; Bsn ji-cuadrados estocsticamente independientes conmy ngra-dos de libertad. Si consideramos la distribucin

    = A

    A + B;

    la relacin entre y Fm

    n ;as como la inversa Fn

    m, es

    Fmn = n

    m

    1 ; Fnm=

    m

    n

    1

    :

    La distribucin de Wilks generaliza esta relacin.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    30/285

    30 CAPTULO 2. NORMALIDAD MULTIVARIANTE

    Denicin

    Si las matrices A; B de ordenpp son independientes Wishart Wp(; m); Wp(; n),respectivamente, conm p;la distribucin del cociente de determinantes

    = jAjjA + Bj

    es, por denicin, la distribucin lambda de Wilks, que indicaremos por(p; m; n):Propiedades:

    1. 0 1 y adems no depende de : Por lo tanto, podemosestudiarla suponiendo = I:

    2. Su distribucin es equivalente a la del producto de n variables betaindependientes:

    (p; m; n) nQi=1

    Ui;

    dondeUies betaB(12(m + i p); 12p):(Obsrvese que debe serm p):3. Los parmetros se pueden permutar manteniendo la misma distribu-

    cin. Concretamente:

    (p; m; n) (n; m + n p; p):4. Para valores 1 y 2 de p y n; la distribucin de equivale a laF;segn

    las frmulas1

    mn

    Fnm (p= 1)1

    mp+1p

    Fpmp+1 (n= 1)1

    pp

    m1n

    F2n2(m1) (p= 2)1

    pp

    mp+1p F

    2p2(mp+1) (n= 2)

    (2.8)

    5. En general, una transformacin deequivale, exacta o asintticamente,a la distribucin F:Si(p; nq; q)es Wilks con nrelativamente grande,consideremos

    F =ms 2

    pq

    1 1=s

    1=s (2.9)

    con m=n(p+q+1)=2, = (pq2)=4; s=p

    (p2q2 4)=(p2 + q2 5):EntoncesF sigue asintticamente la distribucin F conpqy (ms2)g. de lib. (Rao, 1973, p.556).

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    31/285

    2.6. RELACIONES ENTRE WILKS, HOTELLING Y F 31

    0.0 0.2 0.4 0.6 0.8 1.00.00

    0.05

    0.10

    0.15

    0.20

    x

    y

    Figura 2.2: Un ejemplo de funcin de densidad lambda de Wilks.

    2.6. Relaciones entre Wilks, Hotelling y F

    A. Probemos la relacin entreyFcuandop= 1:SeanA 2m; B 2nindependientes. Entonces =A=(A + B) (1; m ; n)y F = (n=m)A=B=(n=m)F Fmn : Tenemos que = (A=B)=(A=B+ 1) = F =(1 +F); luegoF = =(1) ) (n=m)=(1) Fmn : Mas si F Fmn entonces1=F Fnm:Hemos demostrado que:

    1 (1;m;n)

    (1; m ; n)

    m

    nFnm: (2.10)

    B. Recordemos que y es un vector columna y por lo tanto yy 0es una matrizp p. Probemos la relacin entre las distribuciones T2 y F: Tenemos T2 =my0Q1y;donde Qes Wp(I;m);y yy0esWp(I;1):Se cumple

    jQ + yy0j = jQjj1+y0Q1yj;

    que implica1+y0Q1y= jQ + yy0j=jQj = 1=;

    donde = jQj=jQ + yy0j (p; m; 1) (1; m+1p; p): Adems y0Q1

    y=1= 1 = (1 )=:De (2.10) tenemos que y0Q1y(m + 1 p)=p Fpm+1py por lo tanto

    T2 =my0Q1y mpm + 1 p F

    pm+1p:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    32/285

    32 CAPTULO 2. NORMALIDAD MULTIVARIANTE

    2.7. Distribucin multinomial

    Supongamos que la poblacin es la reunin disjunta de k sucesos ex-cluyentesA1; : : : ; Ak;

    =A1+ + Ak;con probabilidades positivasP(A1) =p1; : : : ; P (Ak) =pk;vericando

    p1+ +pk = 1:

    Consideremosnobservaciones independientes y sea(f1; : : : ; f k)el vector conlas frecuencias observadas de A1; : : : ; Ak;siendo

    f1+ + fk =n: (2.11)La distribucin multinomial es la distribucin de f= (f1; : : : ; f k)con funcinde densidad discreta

    p(f1; : : : ; f k) = n!

    n1! nk!pf11 pfkk :

    En el casok = 2tenemos la distribucin binomial.Indiquemos p = (p1; : : : ; pk)0:1. El vector de medias de f es = np:2. La matriz de covarianzas de f es C =n[diag(p)

    pp0):Es decir:

    cii =npi(1 pi);cij = npipj sii 6=j:

    Puesto que C1 = 0; la matriz C es singular. La singularidad se debe aque se verica (2.11). Una g-inversa de Ces (vase Seccin 1.10):

    C= diag(p11 ; : : : ; p1k ): (2.12)

    2.8. Distribuciones con marginales dadas

    SeaH(x; y)la funcin de distribucin bivariante de dos variables aleato-rias (X; Y):La funcinHes

    H(x; y) =P(X x; Y y):

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    33/285

    2.8. DISTRIBUCIONES CON MARGINALES DADAS 33

    Consideremos las distribuciones marginales, es decir las distribuciones uni-

    variantes de Xy deY :F(x) =P(X x) =H(x; 1);G(y) =P(Y y) =H(1; y):

    Un procedimiento para la obtencin de modelos de distribuciones bivariantesconsiste en encontrar Ha partir deF; Gy posiblemente algn parmetro.

    Si suponemosX; Yindependientes, una primera distribucin es

    H0(x; y) =F(x)G(y):

    M. Frchet introdujo las distribuciones bivariantes

    H(x; y) = maxf

    F(x) + G(y)

    1; 0g

    ;H+(x; y) = mnfF(x); G(y)g

    y demostr la desigualdad

    H(x; y) H(x; y) H+(x; y):Cuando la distribucin esH;entonces se cumple la relacin funcional entreX; Y

    F(X) + G(Y) = 1:

    y la correlacin (si existe) es mnima. Cuando la distribucin es H+,entonces se cumple la relacin funcional entreX; Y

    F(X) =G(Y)

    y la correlacin (si existe) + es mxima. Previamente W. Hoeding habaprobado la siguiente frmula para la covarianza

    cov(X; Y) =ZR2

    (H(x; y) F(x)G(y))dxdy

    y demostrado la desigualdad

    +;donde ; y + son las correlaciones entre X; Y cuando la distribucin

    bivariante esH; HyH+

    ;respectivamente.Posteriormente, diversos autores han propuesto distribuciones bivariantesparamtricas a partir de las marginales F; G, que en algunos casos contienen aH; H0 yH+:EscribiendoF;G; Hpara indicarF(x); G(y); H(x; y);algunasfamilias son:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    34/285

    34 CAPTULO 2. NORMALIDAD MULTIVARIANTE

    1. Farlie-Gumbel-Morgenstern:

    H =F G[1 + (1 F)(1 G)]; 1 1:

    2. Clayton-Oakes:

    H= [F + G 1]1=; 1 < 1:

    3. Ali-Mikhail-Haq:

    H = F G=[1 (1 F)(1 G)] 1 1:

    4. Cuadras-Aug:

    H = (mnfF; Gg)(F G)1; 0 1:

    5. Familia de correlacin:

    H(x; y) =F(mnfx; yg) + (1 )F(x)J(y); 1 1;

    siendo J(y) = [G(y) F(y))=(1 )una funcin de distribucin uni-variante.

    2.9. Complementos

    La distribucin normal multivariante es, con diferencia, la ms utilizadaen anlisis multivariante. Textos como Anderson (1956), Rao (1973), Rencher(1995, 1998), se basan, casi exclusivamente, en la suposicin de normalidad.Ms recientemente se han estudiado generalizaciones, como las distribucioneselpticas, cuya densidad es de la forma

    f(x) = jj1=2g((x)01(x));

    donde g es una funcin positiva creciente. Otras distribuciones importantesson la multinomial y la Dirichlet.

    Cuando se estudiaron muestras normales multivariantes, pronto se plantela necesidad de encontrar la distribucin de la matriz de covarianzas, y de

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    35/285

    2.9. COMPLEMENTOS 35

    algunos estadsticos apropiados para realizar tests multivariantes. As fue co-

    mo J. Wishart, H. Hotelling y S. S. Wilks propusieron las distribuciones quellevan sus nombres, en los aos 1928, 1931 y 1932, respectivamente.El estudio de las distribuciones con marginales dadas proporciona un

    mtodo de construccin de distribuciones univariantes y multivariantes. Al-gunas referencias son: Hutchinson y Lai (1990), Joe (1997), Nelsen (1999),Cuadras y Aug (1981), Cuadras (1992a, 2006, 2009). La frmula de Hoed-ing admite la siguiente generalizacin (Cuadras, 2002):

    cov((X); (Y)) =ZR2

    (H(x; y) F(x)G(y))d(x)d(y):

    Vase tambin Quesada-Molina (1992).

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    36/285

    36 CAPTULO 2. NORMALIDAD MULTIVARIANTE

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    37/285

    Captulo 3

    INFERENCIAMULTIVARIANTE

    3.1. Conceptos bsicos

    Seaf(x;)un modelo estadstico. La funcin score se dene como

    z(x;) =@

    @log f(x;):

    Una muestra multivariante est formada por las nlas x01; : : : ; x0p indepen-

    dientes de una matriz de datos Xnp:La funcin de verosimilitud es

    L(X;) =nYi=1

    f(xi;):

    La funcin score de la muestra es

    z(X;) =nXi=1

    @

    @log f(xi;):

    La matriz de informacin de Fisher F() es la matriz de covarianzas dez(X;):Cuando un modelo estadstico es regular se verica:

    a)E(z(X;)) = 0:

    b)F() =E(z(X;)z(X;)0):Un estimador t(X) de es insesgado si E(t(X)) = : La desigualdadde Cramr-Rao dice que si cov(t(X)) es la matriz de covarianzas de t(X),entonces

    cov(t(X)) F()1;

    37

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    38/285

    38 CAPTULO 3. INFERENCIA MULTIVARIANTE

    en el sentido de que la diferencia cov(t(X))F()1 es una matriz semi-

    denida positiva.Un estimadorbdel parmetro desconocido es mximo verosmil si max-imiza la funcinL(X;):En condiciones de regularidad, podemos obtenerbresolviendo la ecuacin

    nXi=1

    @

    @log f(xi;) = 0:

    Entonces el estimador mximo verosmilbnobtenido a partir de una muestrade tamaon satisface:

    a) Es asintticamente normal con vector de medias y matriz de covar-ianzas (nF1())

    1;donde F1() es la matriz de informacin de Fisher parauna sola observacin.

    b) Si t(X) es estimador insesgado de tal que cov(t(X)) = (nF1())1;

    entoncesbn = t(X):c)bnconverge en probabilidad a :

    3.2. Estimacin de medias y covarianzas

    Si las nlas x01; : : : ; x0n de Xnp son independientes Np(; ) la funcin

    de verosimilitud es

    L(X;; ) = det(2)n=2 exp(12

    nXi=1

    (xi )1(xi )0)Se vericaPn

    i=1(xi )01(xi ) =Pni=1(xi x)01(xi x) + n(x )01(x )

    =trf1Pni=1(xi x)(xi x)0g+n(x )01(x )

    y por lo tanto el logaritmo de L se puede expresar como

    log L(X;; ) = n2

    log det(2) n2

    tr(1S)n2

    (x )01(x ):

    Derivando matricialmente respecto de y de1 tenemos@@log L =n

    1(x ) = 0;@

    @1log L = n2[ S (x )(x )0] = 0:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    39/285

    3.3. TESTS MULTIVARIANTES 39

    Las estimaciones mximo-verosmiles de; son pues

    b= x; b = S:Si slo es desconocido, la matriz de informacin de Fisher es

    F() =E(n1(x )n1(x )0) =n1

    y como cov(x) = =n;tenemos xque alcanza laa cota de Cramr-Rao.Probaremos ms adelante que:

    1. xes Np(; =n):

    2. xy Sson estocsticamente independientes.

    3. nSsigue la distribucin de Wishart.

    3.3. Tests multivariantes

    Un primer mtodo para construir tests sobre los parmetros de una poblacinnormal, se basa en las propiedades anteriores, que dan lugar a estadsticoscon distribucin conocida (ji-cuadrado, F).

    3.3.1. Test sobre la media: una poblacin

    Supongamos que las las de Xnp son independientes Np(; ): Sea 0un vector de medias conocido. Queremos realizar un test sobre la hiptesis

    H0: = 0

    1. Si es conocida, como x es Np(; =n);el estadstico de contraste es

    n(x0)01(x0) 2p:

    2. Si es desconocida, como (n 1)(x)0S1(x) T2(p; n 1);elestadstico de contraste es

    n pp

    (x0)0S1(x0) Fpnp: (3.1)

    En ambos casos se rechaza H0 para valores grandes signicativos del es-tadstico.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    40/285

    40 CAPTULO 3. INFERENCIA MULTIVARIANTE

    3.3.2. Test sobre la media: dos poblaciones

    Supongamos ahora que tenemos dos matrices de datos independientesXn1p; Yn2p que provienen de distribuciones Np(1; ); Np(2; ):Quere-mos construir un test sobre la hiptesis

    H0: 1= 2:

    1. Si es conocida, como (xy) es Np(1 2; (1=n1 + 1=n2)) el es-tadstico de contraste es

    n1n2n1+ n2

    (xy)01(x y) 2p:

    2. Si es desconocida, el estadstico de contraste es

    n1+ n2 1 p(n1+ n2 2)p

    n1n2n1+ n2

    (xy)0eS1(x y) Fpn1+n21p:3.3.3. Comparacin de medias

    Supongamos que las las de g matrices de datos son independientes, yque provienen de la observacin de g poblaciones normales multivariantes:

    matriz orden medias covarianzas distribucion

    X1 n1 p x1 S1 Np(1; )X2 n2 p x2 S2 Np(2; )...

    ... ...

    ... ...

    Xg ng p xg Sg Np(g; )

    (3.2)

    El vector de medias generales y la estimacin centrada de la matriz decovarianzas comn son

    x = 1

    n

    gXi=1

    nixi; S = 1

    n ggXi=1

    niSi;

    siendo Si = n1i X0iHXi; n=Pgi=1 ni:Deseamos construir un test para decidir si podemos aceptar la hiptesis

    de igualdad de medias

    H0: 1= 2 = =g:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    41/285

    3.4. TEOREMA DE COCHRAN 41

    Introducimos las siguientes matrices , :

    B =Pgi=1 ni(xi x)(xi x)0 (dispersion entre grupos)W =

    Pgi=1

    Pni=1(xi xi)(xi xi)0 (dispersion dentro grupos)

    T =Pgi=1

    Pni=1(xi x)(xi x)0 (dispersion total)

    Se verica que W = (n g)Sy la relacin:T = B + W:

    Si la hiptesis nula es cierta, se verica adems

    B Wp(; g 1); W Wp(; n g); T Wp(; n 1);B; W son estocasticamente independientes;

    por lo tanto, si H0es cierta

    = jWjjW + Bj (p; n g; g 1):

    Rechazaremos H0 si es pequea y signicativa, o si la transformacin aunaFes grande y signicativa.

    3.4. Teorema de Cochran

    Algunos resultados de la seccin anterior son una consecuencia del teore-ma de Cochran.

    Lema 3.4.1 SeaX(n p)una matriz de datosNp(; )yu; v dos vectoresn 1 tales queu0u = v0v=1; u0v=0:

    1. Si= 0 entoncesy0= u0X esNp(0; ):

    2. y0= u0X es independiente dez0= v0X:

    Demost.: Sean x01; : : : ; x0nlas las (independientes) de X:Si u = (u1; : : : ; un)

    0

    entonces y0= u0X =

    Pni=1 uixi es normal multivariante con = 0 y matriz

    de covarianzasE(yy0) =E(

    Pni=1 uixi)(

    Pni=1 uixi)

    0 = E(Pni;j=1 uiujxix

    0j)

    =Pni;j=1 uiujE(xix

    0j) =Pni=1 u

    2iE(xix

    0i)

    =Pni=1 u

    2i = :

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    42/285

    42 CAPTULO 3. INFERENCIA MULTIVARIANTE

    Anlogamente, si v= (v1; : : : ; vn)0; z0= v0Xes tambin normal.

    Las esperanzas de y

    ;z

    son: E(y

    ) = (Pni=1 ui); E(z) = (Pni=1 vi):Lascovarianzas entre yy zson:E[(yE(y))(zE(z))0]=Pni=1 uivjE[(xi )(xj )0]

    =Pni=1 uiviE[(xi )(xj )0] = u0v = 0;

    lo que prueba la independencia estocstica entre y y z:

    Teorema 3.4.2 SeaX(n p)una matriz de datosNp(0; )y seaC(n n)una matriz simtrica.

    1. X0CX tiene la misma distribucin que una suma ponderada de matricesWp(; 1); donde los pesos son valores propios deC:

    2. X0CX es WishartWp(; r)si y slo siC es idempotente y rang(C) =r:

    Demost.: Sea

    C =nXi=1

    iuiu0i

    la descomposicin espectral de C, es decir, Cui = iui:Entonces

    X0CX =Xiy0iyiPor el Lema 3.4.1 anterior, las las y0i de la matriz

    Y=

    0B@ y01

    ...y0n

    1CA =0B@ u

    01X...

    u0nX

    1CA ;son tambin independientesNp(0; )y cada yiy0i esWp(; 1):

    SiC2 = Centonces Cui= iuisiendoi = 0 1:Por lo tanto r =tr(C)y

    X0CX =rXi=1

    yiy0i Wp(; r):

    El siguiente resultado se conoce como teorema de Craig, y junto con elteorema de Cochran, permite construir tests sobre vectores de medias.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    43/285

    3.4. TEOREMA DE COCHRAN 43

    Teorema 3.4.3 SeaX(np)una matriz de datosNp(; )y seanC1(nn);C

    2(nn)matrices simtricas. EntoncesX

    0C

    1X

    es independiente deX

    0C

    2X

    siC1C2 = 0:

    Demost.:C1=Pni=1 i(1)uiu

    0i; X

    0C1X =P

    i(1)yiy0i;

    C2=Pnj=1 j(2)vjv

    0j ; X

    0C2X =P

    j(2)zjz0j;

    siendo y0i = u0iX; z

    0j = v

    0jX:Por otra parte

    C1C2 =X

    i(1)j(2)uiu0ivjv

    0j;

    C1C2 = 0 )i(1)j(2)u0ivj = 0; 8i;j:Si suponemosi(1)j(2)

    6= 0;entonces por el Lema 3.4.1 y 0i(1

    p) = u0iXes

    independiente de z0j(1p) = v0jX:AsX0C1X es independiente de X0C2X:Una primera consecuencia del teorema anterior es la independencia entre

    vectores de medias y matrices de covarianzas muestrales. En el caso univari-ante p = 1es el llamado teorema de Fisher.

    Teorema 3.4.4 SeaX(n p) una matriz de datosNp(; ): Entonces :1. La mediax esNp(; =n):

    2. La matriz de covarianzasS = X0HX=nvericanS Wp(; n 1):3. x yS son estocsticamente independientes.

    Demost.: Consideremos C1= n1110:Tenemos rang(C1) = 1; X0C1X =xx0:Consideremos tambin C2 = H:Como C1C2 = 0 deducimos que xes inde-pendiente de S:

    Por otra parte, como H2 = H; H1 = 0;rang(H) =n 1; H tiene el valorpropio 1 con multiplicidad n 1: As ui; vector propio de valor propio 1;es ortogonal a 1;resultando que y0i = u

    0iXverica E(y

    0i) = (Pn=1 ui) =

    (u0i1)=0= 0:Si uj es otro vector propio,yi; yj son independientes (Lema3.4.1). Tenemos que nS =

    Pn1i=1 yiy

    0i; donde los yiy

    0ison Wp(; 1)independientes.

    Teorema 3.4.5 SeanXi; matrices de datos independientes de ordenni pcon distribucinNp(i; ); i= 1; : : : g; n=P

    gi=1 ni: Si la hiptesis nula

    H0 : 1 = 2= =ges cierta, entoncesB; W son independientes con distribuciones Wishart:

    B Wp(; g 1); W Wp(; n g):

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    44/285

    44 CAPTULO 3. INFERENCIA MULTIVARIANTE

    Demost.: Escribimos las matrices de datos como una nica matriz

    X =

    264 X1...Xg

    375 :Sean

    11 = (1; : : : ; 1; 0; : : : ; 0); : : : ; 1g = (0; : : : 0; 1; : : : 1);1 =Pgi=1 1i= (1; : : : ; 1; : : : ; 1; : : : ; 1);

    donde 11tienen1unos y el resto ceros, etc. Sean tambin

    Ii =diag(1i); I =Pgi=1 Ii;

    Hi = Ii n1

    i 1i10iC1 =

    Pgi=1 Hi; C2=

    Pgi=1 n

    1i 1i1

    0i n1110:

    Entonces

    C21 = C1; C22 = C2; C1C2 = 0;

    rang(C1) =n k; rang(C2) =g 1;W = X0C1X; B = X

    0C2X:

    El resultado es consecuencia de los Teoremas 3.4.4 y 3.4.5.

    3.5. Construccin de tests multivariantes3.5.1. Razn de verosimilitud

    Supongamos que la funcin de densidad de (X1; : : : ; X p)esf(x;);dondex 2Rp y 2 ;siendo una regin paramtrica de dimensin geomtricar:Sea 0 una subregin paramtrica de dimensin s, y planteamos eltest de hiptesis

    H0: 2 0 vs H1: 2 0:

    Sea x1; : : : ; xn una muestra de valores independientes de X , consideremosla funcin de verosimilitud

    L(x1; : : : ; xn; ) =nYi=1

    f(x;)

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    45/285

    3.5. CONSTRUCCIN DE TESTS MULTIVARIANTES 45

    y sea

    b el estimador mximo verosmil de 2 : Consideremos anloga-

    menteb0,el estimador de mxima verosimilitud de 2 0:Tenemos quebmaximizaLsin restricciones yb0maximizaLcuando se impone la condicinde que pertenezca a 0:La razn de verosimilitud es el estadstico

    R =L(x1; : : : ; xn;b0)

    L(x1; : : : ; xn;b) ;que satisface 0 R 1:Aceptamos la hiptesis H0 siRes prxima a 1 yaceptamos la alternativaH1siRes signicativamente prximo a 0.

    El test basado enRtiene muchas aplicaciones en AM, pero en la mayorade los casos su distribucin es desconocida. Existe un importante resultado(atribuido a Wilks), que dice que la distribucin de -2 veces el logaritmo de

    Res ji-cuadrado conr sg.l. cuando el tamao de la muestra nes grande.Teorema 3.5.1 Bajo ciertas condiciones de regularidad, se verica:

    2log R es asintticamente2rs;dondes= dim(0)< r= dim().

    Entonces rechazamos la hiptesis H0 cuando2log R sea grande y sig-nicativo. Veamos dos ejemplos.

    Test de independencia

    Si (X1; : : : ; X p) es N(; );y queremos hacer un test sobre la indepen-dencia estocstica de las variables, entonces

    0 = f(; 0)g; s= 2p; = f(; )g; r= p +p(p + 1)=2;

    donde 0 es diagonal. 0 contiene las p medias de las variables y las pvarianzas. es cualquier matriz denida positiva. Se demuestra (Seccin5.4.2) que

    2log R= n log jRj;donde Res la matriz de correlaciones. El estadsticon log jRj es asintti-camente ji-cuadrado con

    q= p +p(p + 1)=2 2p= p(p 1)=2 g.l.Si las variables son independientes, tendremos que R I;n log jRj 0;yes probable que 2q = n log jRjno sea signicativo.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    46/285

    46 CAPTULO 3. INFERENCIA MULTIVARIANTE

    Test de comparacin de medias

    Consideremos el test de comparacin de medias planteado en la Seccin3.3.3. Ahora

    0 = f(; )g; s=p +p(p + 1)=2; = f(1; : : : ; g); )g; r= gp +p(p + 1)=2;

    donde es matriz denida positiva y (vector) es la media comn cuandoH0es cierta. Hay gp +p(p + 1)=2parmetros bajoH1;y p +p(p + 1)=2bajoH0:Se demuestra la relacin

    R= n=2;

    donde = jWj=jTjes la lambda de Wilks y n = n1+ + ng. Por lo tanton loges asintticamente ji-cuadrado con r s= (g 1)pg.l. cuando lahiptesisH0es cierta.

    3.5.2. Principio de unin-interseccin

    Es un principio general que permite construir tests multivariantes a partirde tests univariantes y se aplica a muchos tests. Como ejemplo, planteemosla hiptesis nula multivariante H0 : =0 como un test univariante. SeaXa = Xauna variable compuesta con media (a) =a:El test univariante

    H0(a) : (a) =0(a) contra la alternativa H1(a) : (a) 6=0(a) se resuelvemediante lat de Student

    t(a) =p

    n 1x(a) 0(a)s(a)

    tn1

    donde x(a) =x0aes la media muestral de Xay s2(a) =a0Sa es la varianza.AceptaremosH0: =0si aceptamos todas las hiptesis univariantesH0(a),y nos decidiremos por la alternativaH1: 6=0si aceptamos una sola de lasalternativasH1(a), es decir, formalmente (principio de unin-interseccin):

    H0 = \aH0(a); H1= [aH1(a):As rechazaremosH0si la mximat(a)resulta signicativa. Pues bien, laT2

    de Hotelling (Seccin 3.3.1) es precisamente el cuadrado de esta mxima tde Student.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    47/285

    3.6. EJEMPLOS 47

    Teorema 3.5.2 En el test sobre el vector de medias, laT2 de Hotelling y la

    t de Student estn relacionadas por

    T2 = maxa

    t2(a):

    Demost.: (x 0)es un vector columna y podemos escribir t2(a)como

    t2(a) = (n 1) a0(x 0)(x 0)0a

    a0Sa

    Sea A= (x 0)(x 0)0matriz de orden p py rango 1:Si v1 satisfaceAv1 = 1Sv1 entonces

    1= maxv

    v0Avv0Sv

    :

    De(x 0)(x 0)0v1 =1Sv1 resulta que S1(x 0)(x 0)0v1 =1v1y de la identidad

    S1(x 0)(x 0)0(S1(x 0)) = (x 0)0S1(x 0)(S1(x 0))

    vemos que1= (x 0)0S1(x 0); v1= S1(x 0):Por lo tanto

    T2 = maxa

    t2(a) = (n 1)(x 0)0S1(x 0):

    3.6. Ejemplos

    Ejemplo 3.6.1

    Se desean comparar dos especies de moscas de agua: Amerohelea fasci-nata, Amerohelea pseudofascinata. En relacin a las variables X1 = long.antena, X2 = long. ala (en mm), para dos muestras de tamaos n1 = 9 yn2 = 6;se han obtenido las matrices de datos de la Tabla 3.1.

    Vectores de medias (valores multiplicados por 100):

    x= (141;33; 180;44); y= (122;67; 192;67):

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    48/285

    48 CAPTULO 3. INFERENCIA MULTIVARIANTE

    Amerohelea fascinata A. pseudofascinatan1= 9 n2= 6

    X1 X21;38 1;641;40 1;701;24 1;721;36 1;741;38 1;821;48 1;821;54 1;821;38 1;901;56 2;08

    X1 X21;14 1;781;20 1;861;18 1;961;30 1;961;26 2;001;28 2;00

    Tabla 3.1:X1= long. antena,X2 = long. ala (en mm), para dos muestras detamao n1 = 9y n2= 6;.

    Matrices de covarianzas:

    S1=

    98;00 80;8380;83 167;78

    S2=

    39;47 43;4743;47 77;87

    :

    Estimacin centrada de la matriz de covarianzas comn:

    bS=113 (8S1+ 5S2) = 75;49 66;4666;46 133;81 :Distancia de Mahalanobis entre las dos muestras:

    D2 = (x y)bS1(x y)0= 15;52:Estadstico T2 :

    T2 =6 96 + 9

    D2 = 55;87

    Estadstico F :9 + 6 1 2

    2(9 + 6 2)T2 = 25;78

    F212

    Decisin: rechazamos la hiptesis de que las dos especies son iguales (Nivelde signicacin=0;001):

    Ejemplo 3.6.2

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    49/285

    3.6. EJEMPLOS 49

    Comparacin de las especies virginica, versicolor, setosa de ores del

    gnero Iris(datos de R. A. Fisher, Tabla 3.2), respecto a las variables quemiden longitud y anchura de spalos y ptalos:

    X1; X2 = long:; anch:(sepalos); X3; X4= long:; anch:(petalos):

    Vectores de medias y tamaos mustrales:

    I. setosa (5;006; 3;428; 1;462; 0;246) n1= 50I. versicolor (5;936; 2;770; 4;260; 1;326) n2= 50I. virginica (6;588; 2;974; 5;550; 2;026) n3= 50

    Matriz dispersin entre grupos:

    B =

    0BB@63;212 19;953 165;17 71;278

    11;345 57;23 22;932436;73 186;69

    80;413

    1CCAMatriz dispersin dentro grupos:

    W=

    0BB@

    38;956 12;630 24;703 5;64516;962 8;148 4;808

    27;322 6;2846;156

    1CCA

    Lambda de Wilks:

    = jWjjW + Bj = 0;02344(4; 147; 2)

    Transformacin a una Faplicando (2.9):

    ! F= 198;95 F8288

    Decisin: las diferencias entre las tres especies son muy signicativas.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    50/285

    50 CAPTULO 3. INFERENCIA MULTIVARIANTE

    X1 X2 X3 X4 X1 X2 X3 X4 X1 X2 X3 X45.1 3.5 1.4 0.2 7.0 3.2 4.7 1.4 6.3 3.3 6.0 2.54.9 3.0 1.4 0.2 6.4 3.2 4.5 1.5 5.8 2.7 5.1 1.94.7 3.2 1.3 0.2 6.9 3.1 4.9 1.5 7.1 3.0 5.9 2.14.6 3.1 1.5 0.2 5.5 2.3 4.0 1.3 6.3 2.9 5.6 1.85.0 3.6 1.4 0.2 6.5 2.8 4.6 1.5 6.5 3.0 5.8 2.25.4 3.9 1.7 0.4 5.7 2.8 4.5 1.3 7.6 3.0 6.6 2.14.6 3.4 1.4 0.3 6.3 3.3 4.7 1.6 4.9 2.5 4.5 1.75.0 3.4 1.5 0.2 4.9 2.4 3.3 1.0 7.3 2.9 6.3 1.84.4 2.9 1.4 0.2 6.6 2.9 4.6 1.3 6.7 2.5 5.8 1.84.9 3.1 1.5 0.1 5.2 2.7 3.9 1.4 7.2 3.6 6.1 2.55.4 3.7 1.5 0.2 5.0 2.0 3.5 1.0 6.5 3.2 5.1 2.04.8 3.4 1.6 0.2 5.9 3.0 4.2 1.5 6.4 2.7 5.3 1.94.8 3.0 1.4 0.1 6.0 2.2 4.0 1.0 6.8 3.0 5.5 2.14.3 3.0 1.1 0.1 6.1 2.9 4.7 1.4 5.7 2.5 5.0 2.05.8 4.0 1.2 0.2 5.6 2.9 3.6 1.3 5.8 2.8 5.1 2.4

    5.7 4.4 1.5 0.4 6.7 3.1 4.4 1.4 6.4 3.2 5.3 2.35.4 3.9 1.3 0.4 5.6 3.0 4.5 1.5 6.5 3.0 5.5 1.85.1 3.5 1.4 0.3 5.8 2.7 4.1 1.0 7.7 3.8 6.7 2.25.7 3.8 1.7 0.3 6.2 2.2 4.5 1.5 7.7 2.6 6.9 2.35.1 3.8 1.5 0.3 5.6 2.5 3.9 1.1 6.0 2.2 5.0 1.55.4 3.4 1.7 0.2 5.9 3.2 4.8 1.8 6.9 3.2 5.7 2.35.1 3.7 1.5 0.4 6.1 2.8 4.0 1.3 5.6 2.8 4.9 2.04.6 3.6 1.0 0.2 6.3 2.5 4.9 1.5 7.7 2.8 6.7 2.05.1 3.3 1.7 0.5 6.1 2.8 4.7 1.2 6.3 2.7 4.9 1.84.8 3.4 1.9 0.2 6.4 2.9 4.3 1.3 6.7 3.3 5.7 2.15.0 3.0 1.6 0.2 6.6 3.0 4.4 1.4 7.2 3.2 6.0 1.85.0 3.4 1.6 0.4 6.8 2.8 4.8 1.4 6.2 2.8 4.8 1.85.2 3.5 1.5 0.2 6.7 3.0 5.0 1.7 6.1 3.0 4.9 1.85.2 3.4 1.4 0.2 6.0 2.9 4.5 1.5 6.4 2.8 5.6 2.14.7 3.2 1.6 0.2 5.7 2.6 3.5 1.0 7.2 3.0 5.8 1.64.8 3.1 1.6 0.2 5.5 2.4 3.8 1.1 7.4 2.8 6.1 1.95.4 3.4 1.5 0.4 5.5 2.4 3.7 1.0 7.9 3.8 6.4 2.05.2 4.1 1.5 0.1 5.8 2.7 3.9 1.2 6.4 2.8 5.6 2.25.5 4.2 1.4 0.2 6.0 2.7 5.1 1.6 6.3 2.8 5.1 1.54.9 3.1 1.5 0.2 5.4 3.0 4.5 1.5 6.1 2.6 5.6 1.4

    5.0 3.2 1.2 0.2 6.0 3.4 4.5 1.6 7.7 3.0 6.1 2.35.5 3.5 1.3 0.2 6.7 3.1 4.7 1.5 6.3 3.4 5.6 2.44.9 3.6 1.4 0.1 6.3 2.3 4.4 1.3 6.4 3.1 5.5 1.84.4 3.0 1.3 0.2 5.6 3.0 4.1 1.3 6.0 3.0 4.8 1.85.1 3.4 1.5 0.2 5.5 2.5 4.0 1.3 6.9 3.1 5.4 2.15.0 3.5 1.3 0.3 5.5 2.6 4.4 1.2 6.7 3.1 5.6 2.44.5 2.3 1.3 0.3 6.1 3.0 4.6 1.4 6.9 3.1 5.1 2.34.4 3.2 1.3 0.2 5.8 2.6 4.0 1.2 5.8 2.7 5.1 1.95.0 3.5 1.6 0.6 5.0 2.3 3.3 1.0 6.8 3.2 5.9 2.35.1 3.8 1.9 0.4 5.6 2.7 4.2 1.3 6.7 3.3 5.7 2.54.8 3.0 1.4 0.3 5.7 3.0 4.2 1.2 6.7 3.0 5.2 2.35.1 3.8 1.6 0.2 5.7 2.9 4.2 1.3 6.3 2.5 5.0 1.94.6 3.2 1.4 0.2 6.2 2.9 4.3 1.3 6.5 3.0 5.2 2.05.3 3.7 1.5 0.2 5.1 2.5 3.0 1.1 6.2 3.4 5.4 2.35.0 3.3 1.4 0.2 5.7 2.8 4.1 1.3 5.9 3.0 5.1 1.8

    Tabla 3.2: Longitud y anchura de spalos y ptalos de 3 especies del gnero

    Iris: Setosa, Versicolor, Virginica.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    51/285

    3.6. EJEMPLOS 51

    Ejemplo 3.6.3

    Consideremos los siguientes datos (tamaos muestrales, medias, desvia-ciones tpicas, matrices de covarianzas) de p = 2 variables X(longitud delfmur), Y (longitud del hmero), obtenidas sobre dos poblaciones (Anglo-indios, Indios) .

    Medias X Yn1= 27 460.4 335.1n2= 20 444.3 323.2Diferencia 16.1 11.9Desv. tpicas 23.7 18.2

    Matriz covarianzasbS = 561;7 374;2374;2 331;24

    Correlacin: r = 0;867

    Suponiendo normalidad, los testst de comparacin de medias para cadavariable por separado son:

    Variable X t= 2;302 (45g.l.) (p= 0;0259);Variable Y t= 2;215 (45g.l.) (p= 0;0318):

    A un nivel de signicacin0; 05se concluye que hay diferencias signicativaspara cada variable por separado.

    Utilicemos ahora las dos variables conjuntamente. La distancia de Maha-lanobis entre las dos poblaciones es d0bS1d =0;4777;siendo d =(16; 1; 11;9):LaT2 de Hotelling es

    T2 =27 2027 + 20

    0;4777 = 5;488

    que convertida en una F da:

    F =27 + 20 1 2

    (27 + 20 2)25;488 = 2;685 (2y 44 g.l.) (p= 0;079):

    Esta F no es signicativa al nivel 0.05. Por lo tanto ambos tests univariantes

    resultan signicativos, pero el test bivariante no, contradiciendo la creenciade que un test multivariante debera proporcionar mayor signicacin que untest univariante.

    Interpretemos geomtricamente esta paradoja (conocida como paradojade Rao). Con nivel de signicacin 0,05, y aplicando el test T2 de Hotelling,

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    52/285

    52 CAPTULO 3. INFERENCIA MULTIVARIANTE

    aceptaremos la hiptesis nula bivariante si el vector diferencia d = (x y)0

    pertenece a la elipsen1n2

    n1+ n2d0

    561; 7 374; 2374; 2 331; 24

    1d 3;2;

    donde 3.2 es el punto crtico para una F con 2 y 44 g. l. As pues no haysignicacin si x; yverican la inecuacin

    0; 040369x2 0; 09121xy+ 0; 06845 6y2 3;2:Anlogamente, en el test univariante y para la primera variable x, la

    diferncia d = x1 x2 debe vericar

    jr n1n2n1+ n2

    (ds1

    )j 2;

    siendo 2 el valor crtico para unatcon 45 g. l. Procederamos de forma similarpara la segunda variable y . Obtenemos as las cuatro rectas

    Variable x : 0; 143x= 2; Variabley : 0; 1862y= 2:En la Figura 3.1 podemos visualizar la paradoja. Los valores de la difer-

    encia que estn a la derecha de la recta vertical rx son signicativos parala variable x: Anlogamente los que estn por encima de la recta horizontalry lo son para la y: Por otra parte, todos los valores que estn fuera de laelipse (reginF)son signicativos para las dos variables. Hay casos en quex; y por separado no son signicativos, pero conjuntamente s. No obstante,existe una pequea regin por encima de ry y a la derecha de rx que caedentro de la elipse. Para los datos del ejemplo, se obtiene el punto sealadocon el signo+, para el cual x e y son signicativas pero no (x; y):Asx e yson signicativas si el punto se encuentra en el cuadrante A. (Una simetracon respecto al origen nos permitira considerar otras dos rectas y la reginB).

    Pues bien, el test con x y el test cony por separado, son tests t distintosdel test T2 empleado con (x; y);equivalente a una F. Tales tests no tienen

    por qu dar resultados compatibles. Las probabilidades de las regiones derechazo son distintas. Adems, la potencia del test con (x; y) es superior,puesto que la probabilidad de la regin F es mayor que las probabilidadessumadas de las regionesA y B.

    Para ver ms ejemplos, consltese Baillo y Gran (2008).

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    53/285

    3.7. ANLISIS DE PERFILES 53

    Figura 3.1: Un test de comparacin de poblaciones bivariante puede resultarmenos signicativo que dos tests univariantes con las variables marginales.

    3.7. Anlisis de perles

    Supongamos que las las de una matriz de datos X(n p)provienen deuna distribucin Np(; ): Estamos interesados en establecer una hiptesis

    lineal sobre = (1; : : : ; p)0:Por ejemplo, que las medias univariantes soniguales:H0 : 1= =p

    Esta hiptesis slo tiene sentido si las variables observables son comparables.Consideremos la matriz de orden(p 1) p

    C =

    0BB@1 1 0 00 1 1 0

    0 9 9 1

    1CCALa hiptesis es equivalente a

    H0: C= 0

    Aceptar H0 es lo mismo que decir que las medias de las p1 variablesX1X2; X2X3; : : : ; X p1Xpson iguales a cero. Por lo tanto aplicaremos

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    54/285

    54 CAPTULO 3. INFERENCIA MULTIVARIANTE

    el test de laT2 de Hotelling a la matriz de datos Y = XC:Bajo la hiptesis

    nulaT2 = (n1)(Cx)0(CSC0)1(Cx) =n(Cx)0(CbSC0)1(Cx) T2(p1; n1);siendobS la matriz de covarianzas con correccin de sesgo. Aplicando (3.1)conp 1variables

    n p + 1p 1 (Cx)

    0(CbSC0)1(Cx) Fp1np+1Rechazaremos la hiptesis nula si el valor F resulta signicativo.

    Consideremos los datos del ejemplo 1.11.1. Queremos estudiar si las me-

    dias poblacionales de N, E, S, W son iguales. En este caso

    C =

    0@ 1 1 0 00 1 1 00 0 1 1

    1Ay laT2 de Hotelling es :

    T2 =n(Cx)0(CbSC0)1Cx = 20;74Bajo la hiptesis nula, sigue una T2(3; 23):Convertida en una F se obtiene

    F(3; 25) = [25=(27 3)]T2

    = 6;40:El valor crtico al nivel 0;05es 2;99:Haydiferencias signicativas a lo largo de las cuatro direcciones cardinales.

    3.8. Complementos

    C. Stein prob que la estimacinb= x de de la distribucin Np(; )puede ser inadmisible si p 3;en el sentido de que no minimiza

    p

    Xi=1(

    bi i)2;

    y propuso una mejora de aquel estimador. B. Efron y C. Morris explicaronesa peculiaridad desde una perspectiva bayesiana. S. M. Stigler di una in-teresante explicacin en trminos de regresin, justicando por qu p 3(consultar Cuadras, 1991).

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    55/285

    3.8. COMPLEMENTOS 55

    El principio es debido a S. N. Roy, pero no siempre es aplicable. El test de

    mxima-verosimilitud es atribuido a S. Wilks y es ms general. Es interesantenotar que 2logse puede interpretar como una distancia de Mahalanobis.Otros tests semejantes fueron propuestos por C. R. Rao y A. Wald. ConsultarCuadras y Fortiana (1993b), Rao (1973).

    En general, es necesario corregir los tests multiplicando por una con-stante a n de conseguir tests insesgados (la potencia del test ser siemprems grande que el nivel de signicacin). Por ejemplo, es necesario hacer lamodicacin de G. E. P. Box sobre el test de Bartlett para comparar matricesde covarianzas (Seccin 7.5.2).

    Para datos de tipo mixto o no normales, se puede plantear la comparacinde dos poblaciones utilizando distancias entre las observaciones, calculando

    coordenadas principales mediante MDS, y a continuacin aplicando el modelode regresin multivariante. Vase Cuadras y Fortiana (2004), Cuadras (2008).

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    56/285

    56 CAPTULO 3. INFERENCIA MULTIVARIANTE

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    57/285

    Captulo 4

    ANALISIS DECORRELACION CANONICA

    4.1. Introduccin

    En este captulo estudiamos la relacin multivariante entre vectores aleato-rios. Introducimos y estudiamos las correlaciones cannicas, que son gener-alizaciones de las correlaciones simple y mltiple.

    Tenemos tres posibilidades para relacionar dos variables:

    La correlacin simple si X; Yson dos v.a.

    La correlacin mltiple siY es una v.a. y X = (X1; : : : ; X p)es un vectoraleatorio.

    La correlacin cannica si X = (X1; : : : ; X p)e Y= (Y1; : : : ; Y q)son dosvectores aleatorios.

    4.2. Correlacin mltiple

    Queremos relacionar una variable respuesta Y conp variables cuantitati-vas explicativas X1; : : : ; X p; que suponemos centradas. El modelo de regresinmltiple consiste en encontrar la combinacin lineal

    bY =1X1+ + pXp57

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    58/285

    58 CAPTULO 4. ANALISIS DE CORRELACION CANONICA

    que mejor se ajuste a la variable Y: Sea la matriz de covarianzas de Xy

    = (1; : : : ; p)0 el vector columna con las covarianzas j =cov(Y; Xj); j =1; : : : ; p :El criterio de ajuste es el de los mnimos cuadrados.

    Teorema 4.2.1 Los coecientesb= (b1; : : : ;bp)que minimizan la cantidadE(YbY)2 verican la ecuacin

    b= 1: (4.1)Demost.:

    () =E(Y

    bY)2

    =E(Y)2 + E(

    bY)2 2E(Y

    bY)

    =var(Y) + 0 20Derivando vectorialmente respecto de e igualando a 0

    @

    @() = 2 2= 0:

    La variable prediccin esbY = Xb=b1X1+ +bpXp:Si ponemosY =bY +eY ;

    entonces

    eYes la variable residual.

    La correlacin mltiple entre Y y X1; : : : ; X p es, por denicin, la cor-relacin simple entreYy la mejor prediccinbY = Xb:Se indica porR=cor(Y;bY):

    Se verica:

    1. 0 R 1:2. R= 1si Yes combinacin lineal deX1; : : : ; X p:

    3. R= 0si Yest incorrelacionada con cada una de las variables Xi:

    Teorema 4.2.2 La variable prediccinbY ;residualeYy la correlacin mlti-pleR cumplen:

    1.bY eeY son variables incorrelacionadas.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    59/285

    4.3. CORRELACIN CANNICA 59

    2. var(Y) =var(

    bY)+var(

    eY):

    3. R2 =var(bY)=var(Y):Demost.: 1) es consecuencia deb = :En efecto,

    cov(bY ; eY) =E(bYeY) =E(b0X0(Yb0X))=b0 b0b= 0:

    2) es consecuencia inmediata de 1). Finalmente, de

    cov(Y;

    bY) =cov(Y; pi=1

    biXi) =

    pi=1

    bii =

    b0=

    b0

    b =var(

    bY);

    obtenemosR2 =

    cov2(Y;bY)var(Y)var(bY) =var(bY)var(Y) : (4.2)

    4.3. Correlacin cannica

    Sean X = (X1; : : : ; X p); Y= (Y1; : : : ; Y q) dos vectores aleatorios de di-mensiones p y q: Planteemos el problema de encontrar dos variables com-puestas

    U= Xa =a1X1+

    + apXp; V = Yb =b1Y1+

    + bpYq;

    siendo a = (a1; : : : ; ap)0; b = (b1; : : : ; bp)0tales que la correlacin entre ambas

    cor(U; V)

    sea mxima. Indicamos porS11; S22las matrices de covarianzas (muestrales)de las variables X; Y; respectivamente, y sea S12 la matriz p q con lascovarianzas de las variables Xcon las variables Y:Es decir:

    X Y

    X S11 S12Y S21 S22

    donde S21 = S012:Podemos suponer

    var(U) = a0S11a =1; var(V) = b0S22b =1:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    60/285

    60 CAPTULO 4. ANALISIS DE CORRELACION CANONICA

    As el problema se reduce a:

    maximizar a0S12b restringido a a0S11a = b0S22b =1:

    Los vectores de coecientes a; bque cumplen esta condicin son los primerosvectores cannicos. La mxima correlacin entre U; V es la primera cor-relacin cannicar1.

    Teorema 4.3.1 Los primeros vectores cannicos satisfacen las ecuaciones

    S12S122 S21a =S11a;

    S21S111 S12b =S22b:

    (4.3)

    Demost.: Consideremos la funcin

    (a; b) = a0S12b2

    (a0S11a1) 2

    (b0S22b1);

    donde; son multiplicadores de Lagrange. Entonces de@=@a =@=@b = 0obtenemos las dos ecuaciones

    S12bS11a = 0; S21aS22b = 0: (4.4)

    Multiplicando la primera por a0y la segunda por b0;tenemos

    a0S12b =a0S11a; b0S21a =b0S22b;

    que implican = : As pues, de la segunda ecuacin en (4.4), b =1S122 S21a;y substituyendo en la primera obtenemos 1S12S122 S21aS11a = 0: Pre-scindiendo de 1; pues es un factor multiplicativo arbitrario, y operandoanlogamente con la otra ecuacin, obtenemos (4.3).

    Teorema 4.3.2 Los vectores cannicos normalizados por a0S11a = b0S22b =

    1; estn relacionados por

    a =1=2

    S1

    11 S12b;b =1=2S122 S21a;

    y la primera correlacin cannica esr1 =p

    1; donde1 es el primer valorpropio deS111 S12S

    122 S21:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    61/285

    4.3. CORRELACIN CANNICA 61

    Demost.: Tenemos de (4.4) que a =S111 S12b; donde es una constante a

    determinar. Partimos de quea0S11

    a=1y para =

    1=2

    resulta que:a0S11a =

    1=2a0S11S111 S12b

    =1=2a0S12b=1=21=2a0S12S

    122 S21a

    =1a0S11a= 1

    La correlacin es r1 = a0S12b y como1 =1=2a0S12b deducimos que r21 =1:

    De hecho, las ecuaciones en valores y vectores propios tienen otras solu-ciones. Concretamente hay m = mn

    fp; q

    g parejas de vectores cannicos

    a1; b1; : : : ; am; bm;que proporcionan las variables y correlaciones cannicas

    U1= Xa1; V1= Yb1; r1= cor(U1; V1);U2= Xa2; ; V2= Yb2; r2= cor(U2; V2);

    ... ...

    ...Um= Xam; Vm= Ybm; rm= cor(Um; Vm):

    Teorema 4.3.3 Supongamosr1 > r2 > > rm: Entonces:

    1. Tanto las variables cannicasU1; : : : ; U m como las variables cannicasV1; : : : ; V m estn incorrelacionadas.

    2. La primera correlacin cannica r1 = cor(U1; V1) es la mxima cor-relacin entre una combinacin lineal de X y una combinacin linealdeY:

    3. La segunda correlacin cannica r2 = cor(U2; V2) es la mxima cor-relacin entre las combinaciones lineales de X incorrelacionadas conU1 y las combinaciones lineales deY incorrelacionadas conV1:

    4. cor(Ui; Vj) = 0 sii 6=j:

    Demost.: Sea i6=j:Expresando (4.3) para ak; k; k = i; j; y multiplicandopor a0j y por a

    0itenemos que

    a0jS12S122 S21ai =ia

    0jS11ai;

    a0iS12S122 S21aj =ja

    0iS11aj:

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    62/285

    62 CAPTULO 4. ANALISIS DE CORRELACION CANONICA

    Restando: (i j)a0iS11aj = 0 ) a0iS11aj = 0 ) cor(Ui; Uj) = 0:

    Por otra parte, expresando (4.3) comoS111 S12S

    122 S21a =iai; S

    122 S21S

    111 S12bj =jbj ;

    y multiplicando por b0jS21 y por a0iS12 llegamos a

    b0jS21S111 S12S

    122 S21ai =ib

    0jS21ai;

    a0iS12S122 S21S

    111 S12bj =ja

    0iS12bj:

    Restando: (i j)a0iS12bj = 0 ) a0iS12bj = 0 ) cor(Ui; Vj) = 0:

    4.4. Correlacin cannica y descomposicin

    singularPodemos formular una expresin conjunta para los vectores cannicos

    utilizando la descomposicin singular de una matriz. Supongamos p q;consideremos la matriz p q

    Q = S1=211 S12S

    1=222

    y hallemosQ = UV0;

    la descomposicin singular de Q, donde U es una matriz p qcon columnasortonormales, V es una matriz q qortogonal, y es una matriz diago-nal con los valores singulares de Q. Es decir, U0U = Ip; V0V= V0V= Iq; =diag(1; : : : ; p):

    Teorema 4.4.1 Los vectores cannicos y correlaciones cannicas son

    ai= S1=211 ui; bi = S

    1=222 vi; ri = i:

    Demost.:QQ0= S1=211 S12S

    1=222 S

    1=222 S21S

    1=211 = U

    2U0

    y por lo tantoS1=211 S12S

    122 S21S

    1=211 ui=

    2iui

    Multiplicando por S1=211

    S111 S12S122 S21(S

    1=211 ui) =

    2i (S

    1=211 ui)

    y comparando con resultados anteriores, queda probado el teorema.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    63/285

    4.5. SIGNIFICACIN DE LAS CORRELACIONES CANNICAS 63

    4.5. Signicacin de las correlaciones canni-

    casHemos encontrado las variables y correlaciones cannicas a partir de las

    matrices de covarianzas y correlaciones muestrales, es decir, a partir de mues-tras de tamaon:Naturalmente, todo lo que hemos dicho vale si sustituimosS11; S12; S22por las versiones poblacionales 11; 12; 22:Sean

    1 2 m

    lasm= mnfp; qg correlaciones cannicas obtenidas a partir de11; 12; 22,soluciones de:

    j1212221 211j = 0:Si queremos decidir cules son signicativas, supongamos normalidad multi-variante, indiquemos0 = 1y planteemos el tests

    Hk0 :k > k+1= =m = 0; (k= 0; 1; : : : ; m);

    que equivale a rang(12221) =k:El test de Bartlett-Lawley demuestra quesiHk0 es cierta, entonces

    Lk = [n 1 k 12

    (p + q+ 1) +kXi=1

    r2i ]log[mY

    i=k+1

    (1 r2i )

    es asintticamente ji-cuadrado con (m k)(p k) g.l. Este test se aplicasecuencialmente: si Li es signicativo para i = 0; 1; : : : ; k 1;peroLk no essignicativo, entonces se aceptaHk0 :

    4.6. Test de independencia

    Suponiendo normalidad, armar que X es independiente de Y consisteen plantear

    H0 : 12 = 0; H1 : 126= 0:Podemos resolver este test de hiptesis de dos maneras.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    64/285

    64 CAPTULO 4. ANALISIS DE CORRELACION CANONICA

    4.6.1. Razn de verosimilitud

    Si la hiptesis es cierta, entonces el test de razn de verosimilitud (Seccin3.5.1) se reduce al estadstico

    = jSjjS11jjS22j =

    jRjjR11jjR22j ;

    que sigue la distribucin lambda de Wilks (p; n 1 q; q); equivalente a(q; n 1 p; q):RechazaremosH0si es pequea y signicativa (Mardiaet al. 1979, Rencher, 1998).

    Es fcil probar que es funcin de las correlaciones cannicas

    = jI S122 S21S111 S12j =mYi=1

    (1 r2i ):

    4.6.2. Principio de unin interseccin

    Consideremos las variablesU=a1X1+ + apXp;V =b1Y1+ + bpYq:La correlacin entre U; V es

    (U; V) = a01212bpa11a

    pb022b

    H0equivale a(U; V) = 0para todo U; V:La correlacin muestral es

    r(U; V) = a0S12bpa0S11a

    pb0S22b

    :

    Aplicando el principio de unin interseccin (Seccin 3.5.2), aceptaremosH0si r(U; V)no es signicativa para todo U; V;y aceptaremosH1 sir(U; V)essignicativa para algn par U; V:Este criterio nos lleva a estudiar la signi-cacin de

    r1= maxU;V

    r(U; V)

    es decir, de la primera correlacin cannica. Por tanto, el test es:

    H0 : 1 = 0; H1: 1 > 0:

    Existen tablas especiales para decidir si r1 es signicativa (Morrison, 1976),pero tambin se puede aplicar el estadstico L0de Bartlett-Lawley.

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    65/285

    4.7. EJEMPLOS 65

    4.7. Ejemplos

    Se considerann = 25familias y las variables:

    X1= long. cabeza primer hijo, X2= ancho cabeza primer hijo,Y1= long. cabeza segundo hijo, Y2 = ancho cabeza segundo hijo,

    La matriz de correlaciones es:

    R =

    0BB@

    1;0000 0;7346 0;7108 0;70400;7346 1;0000 0;6932 0;80860;7108 0;6932 1;0000 0;83920;7040 0;8086 0;8392 1;0000

    1CCAEntonces:

    R11 =

    1;0000 0;73460;7346 1;0000

    ; R12 =

    0;7108 0;70400;6932 0;8086

    ;

    R22 =

    1;0000 0;83920;8392 1;0000

    :

    Las races de la ecuacin:

    jR12R122 R21 R11j = 0;4603632 0;287596 + 0;000830 = 0

    son: 1= 0;6218,2= 0;0029;y por tanto las correlaciones cannicas son:

    r1= 0;7885; r2= 0;0539:

    Los vectores cannicos normalizados son:

    a1= (0;0566; 0;0707)0; a2= (0;1400; 0;1870)0;

    b1 = (0;0502; 0;0802)0; b2= (0;1760; 0;2619)0:

    Las variables cannicas con variaza 1 son:

    U1= 0;0566X1+ 0;0707X2; V1 = 0;0502Y1+ 0;0802Y2; (r1= 0;7885);

    U2= 0;1400X1 0;1870X2; V2 = 0;1760Y1 0;2619Y2; (r2= 0;0539):La dependencia entre (X1; X2) y (Y1; Y2) viene dada principalmente por larelacin entre (U1; V1) con correlacin 0;7885; ms alta que cualquier cor-relacin entre una variable Xi y una variable Yj : Podemos interpretar las

  • 8/13/2019 NUEVOS MTODOS DE ANLISIS MULTIVARIANTES

    66/285

    66 CAPTULO 4. ANALISIS DE CORRELACION CANONICA

    primeras variables cannicas como un factor de tamao de la cabeza y las

    segundas como un factor de forma. Habra entonces una notable relacinen el tamao y una escasa relacin en la forma de la cabeza.El test de independencia entre (X1; X2)y (Y1; Y2)da

    = jRj

    jR11jjR22j = 0;3771 (2; 22; 2)

    que, segn (2.8), transformamos con una F obteniendo 6;60 con 4 y 42 g.l.Rechazamos la hiptesis de independencia.

    La prueba de signicacin de las correlaciones cannicas d:

    H00 :0 = 1> 1= 2 = 0; L0= 22;1 (4 g.l.),

    H1

    0 :1 > 2= 0; L1= 1;22 (2 g.l.).Podemos rechazarH00y aceptarH

    10 :Solamente la primera correlacin canni-

    ca es signicativa.Se consideran los resultados de unas elecciones celebradas en las 41 co-

    marcas catalanas y para cada comarca se tabulan los valores de las siguientesvariables:

    X1= log(porcentaje de votos a CU), X2= log(porcentaje de votos a PSC),X3= log(porcentaje de votos a PP), X4= log(porcentaje de votos a ERC),Y1 = log(cociente Juan/Joan), Y2= log(cociente Juana/Joana),

    donde cociente Juan/Joan signica el resultado de dividir el nmero dehombres que se llaman Juan por el nmero de hombres que se llaman Joan.Valores positivos de las variables Y1; Y2 en una comarca indican predominiode los nombres en castellano sobre los nombres en cataln.

    La matriz de correlaciones es:

    X1 X2 X3