Capitulo Vi Acp

of 19/19
CAPITULO VI. ANÁLISIS DE COMPONENTES PRINCIPALES El análisis de componentes principales (ACP), es una técnica estadística debida a Hottelling (1933), que fue propuesta a principios del siglo XIX por Karl Pearson (1901) en su aporte “Ajustes ortogonales por mínimos cuadrados”, y como parte del análisis Factorial. Sin embargo la complejidad de los cálculos retrasó su desarrollo hasta la aparición de los computadores y su utilización en la segunda mitad del siglo XX. En el análisis estadístico el investigador se encuentra en situaciones en las que el volumen de variables es muy grande, desconoce las relaciones entre las variables, las semejanzas entre los elementos de análisis, requiere establecer jerarquizaciones de sus individuos, y entonces piensa en: reducir la dimensionalidad para tener la posibilidad de comprender mejor la información que posee, identificar grupos de individuos que sean semejantes, detectar relaciones entre las variables que den lugar al establecimiento de tipologías, caracterizar los grupos de individuos según las tipologías de variables encontradas. Ejemplo 1: - el analista financiero está interesado en conocer de la “salud” financiera de las empresas de una industria, a partir de un sin número de variables (tales como costos, precios, tiempo, etc.) que pueden ser usadas para tal propósito. - En control de calidad, se persigue el desarrollo de índices de numerosas piezas, resultantes del proceso de manufactura. - Un investigador de mercados, se interesa por encontrar el modelo de regresión para realizar una serie de pronósticos de ventas. Pero encuentra problemas por la colinealidad de las variables independientes. 1. OBJETIVOS El Análisis de Componentes Principales, ACP (ó PCA Principals Components Analysis), persigue representar adecuadamente un conjunto de p variables algunas de ellas correlacionadas, X, con un número menor de variables, Y, construidas como combinaciones lineales de las originales, pero no correlacionadas. Es decir, ACP pretende: Como técnica de análisis exploratorio descubrir interrelaciones entre los datos, y de acuerdo con los resultados, propone los análisis estadísticos más apropiados. Reducir la dimensionalidad de la matriz de datos con el fin de evitar redundancias y destacar relaciones.
  • date post

    15-Dec-2015
  • Category

    Documents

  • view

    229
  • download

    1

Embed Size (px)

description

acp

Transcript of Capitulo Vi Acp

  • CAPITULO VI. ANLISIS DE COMPONENTES PRINCIPALES

    El anlisis de componentes principales (ACP), es una tcnica estadstica debida a Hottelling (1933), que fue propuesta a principios del siglo XIX por Karl Pearson (1901) en su aporte Ajustes ortogonales por mnimos cuadrados, y como parte del anlisis Factorial. Sin embargo la complejidad de los clculos retras su desarrollo hasta la aparicin de los computadores y su utilizacin en la segunda mitad del siglo XX.

    En el anlisis estadstico el investigador se encuentra en situaciones en las que el volumen de variables es muy grande, desconoce las relaciones entre las variables, las semejanzas entre los elementos de anlisis, requiere establecer jerarquizaciones de sus individuos, y entonces piensa en:

    reducir la dimensionalidad para tener la posibilidad de comprender mejor la informacin que posee,

    identificar grupos de individuos que sean semejantes, detectar relaciones entre las variables que den lugar al establecimiento de tipologas, caracterizar los grupos de individuos segn las tipologas de variables encontradas.

    Ejemplo 1:

    - el analista financiero est interesado en conocer de la salud financiera de las empresas de una industria, a partir de un sin nmero de variables (tales como costos, precios, tiempo, etc.) que pueden ser usadas para tal propsito.

    - En control de calidad, se persigue el desarrollo de ndices de numerosas piezas, resultantes del proceso de manufactura.

    - Un investigador de mercados, se interesa por encontrar el modelo de regresin para realizar una serie de pronsticos de ventas. Pero encuentra problemas por la colinealidad de las variables independientes.

    1. OBJETIVOS

    El Anlisis de Componentes Principales, ACP ( PCA Principals Components Analysis), persigue representar adecuadamente un conjunto de p variables algunas de ellas correlacionadas, X, con un nmero menor de variables, Y, construidas como combinaciones lineales de las originales, pero no correlacionadas. Es decir, ACP pretende:

    Como tcnica de anlisis exploratorio descubrir interrelaciones entre los datos, y de acuerdo con los resultados, propone los anlisis estadsticos ms apropiados.

    Reducir la dimensionalidad de la matriz de datos con el fin de evitar redundancias y destacar relaciones.

  • Una vez realizada la transformacin, se toma como un resultado parcial que se convierte en una entrada para alcanzar una solucin ms precisa. Por ejemplo, en el caso de:

    o regresin mltiple cuando las variables independientes presentan alta colinealidad es preferible hacer la regresin sobre los componentes principales en lugar de usar las variables originales, haciendo ms estable el anlisis y ms eficientes sus estimaciones,

    o MANOVA, para evitar que el nmero de variables de respuesta y el nmero de grados de libertad, sean cercanos,

    o Par verificar supuestos de normalidad, valores atpicos, etc.

    Construir variables no observables, latentes, (Componentes Principales) a partir de variables observables.

    Evaluar la semejanza entre los individuos a travs de los atributos considerados, buscando responder a las preguntas Existen grupos de individuos semejantes...?, Se observa una tipologa de individuos...?

    Evaluar la relacin existente entre las caractersticas consideradas, se contestarn los interrogantes Existen grupos de variables correlacionadas entre ellas...? Se observa una tipologa de variables...?

    Ejemplo 2.

    La inteligencia de una persona no es observable directamente, en cambio, se puede medir distintos aspectos de sta mediante pruebas psicomtricas. Las variables que miden los distintos aspectos de la inteligencia tienden a covariar; esto sugiere que expresan la mismas caractersticas pero de diferente forma y que slo hay un pequeo nmero de rasgos no directamente medibles, que se denominan Indicadores Sintticos y que vienen estimados por los componentes.

    2. Hallazgo de COMPONENTES PRINCIPALES

    La metodologa del anlisis de componentes principales implica transformar el espacio de representacin de p variables, P, en un nuevo espacio, P, tal que las nuevas p variables sean incorrelacionadas, por lo tanto la matriz de covarianza en ese espacio P ser diagonal. Esto requiere, encontrar un nuevo conjunto de ejes ortogonales en el que la varianza de los datos se mantenga sea mxima.

    Las p nuevas variables (Componentes Principales) son: Obtenidas como combinaciones lineales de las variables originales.

  • Los componentes se construyen en funcin del porcentaje de varianza explicada. En este sentido, el primer componente ser el ms importante por ser el que explica mayor porcentaje de la varianza de los datos.

    Son incorrelacionados De ellos, y segn el criterio del investigador, se decide cuntos componentes se elegirn

    para efectuar los restantes anlisis del estudio.

    Supngase la representacin de un conjunto de patrones (observaciones) bidimensionales, X1 y X2, que presentan cierto grado de correlacin est dada aproximadamente por la elipse de la Figura 1. Si se representan estos patrones en un nuevo espacio generado por las variables Y1 e Y2, (Figura 2), que se corresponden con los ejes de la elipse, la proyeccin de los patrones sobre el eje Y1 hace que su dispersin sea mayor que sobre cualquier otro eje (y en particular sobre cualquiera de los originales).

    Figura 1. X1 y X2 estn correladas. Figura 2. Y1 e Y2 estn incorreladas.

    Es fcil comprobar que si los datos estn correlacionados en P la direccin de mxima varianza es la del eje principal de la elipse que los caracteriza. El nuevo eje, C1=Y1, se calcula como una rotacin de magnitud , el ngulo de la rotacin del primer eje, X1 de P. Si el nuevo sistema de coordenadas es ortogonal, el segundo eje, Y2, se establece en base al segundo eje, C2=X2, del sistema original, mediante una rotacin de la misma magnitud, , que la aplicada al primero. En definitiva, los nuevos ejes y los antiguos siguen la relacin lineal:

    Y1= W11Xc1 + W12Xc2 : W1T Xc

    Y2= W21Xc1 + W22Xc2 : W2T Xc

    Con WT W =1, W asume la rotacin de los ejes iniciales. La mayor parte de la informacin del espacio original queda contenida en el eje Y1, el cual es llamado Componente principal, e implica la reduccin del espacio bidimensional a unidimensional. En consecuencia, dependiendo de la relacin entre los ejes originales, la mayor parte de la informacin contenida en el espacio P puede retenerse nicamente en el primer eje

  • principal o componente principal, Y1, lo que implica una reduccin de caractersticas en el espacio transformado P'. Desde una perspectiva geomtrica, se tiene una rotacin de magnitud alrededor del origen y las ecuaciones pueden escribirse como:

    Y1 = (cos )X1 - (sin )X2

    Y2 = (sin )X1 + (cos )X2

    de manera que el problema se reduce a encontrar el ngulo de rotacin . Este problema, no obstante, depende mucho de la muestra observada.

    Las ecuaciones se pueden notar en trminos matriciales como:

    11 11 1222 21 22

    Tc

    c

    XY W W

    XY W W Y = W T Xc = C

    y el objetivo ser encontrar los coeficientes de transformacin Wij con las restricciones:

    1. Los ejes que definen P' son ortogonales, W T W=I.

    2. Los datos en P' no estn correlacionados, Y Diagonal.

    3. Yi representa la direccin de los nuevos ejes con mxima varianza.

    4. La distancia al origen de las nuevas variables es igual.

    1.1 Transformacin a componentes principales de espacios multidimensionales Si se trabaja con datos de dimensionalidad mayor que 2 el procedimiento es similar: los nuevos ejes se obtienen secuencialmente de manera que un nuevo eje se define como aquel que es perpendicular al seleccionado anteriormente y su direccin es la de la mxima varianza, que falta por explicar no lo ha sido en los nuevos ejes previos al que se va a determinar, de entre todos los ejes posibles.

    Para generalizar la solucin al problema, se usaran espacios multidimensionales (p > 2), la bsqueda de una transformacin lineal, W, de los datos originales en P, X, que da lugar a nuevas coordenadas Y en P' tal que

    Y = W T * Xc equivalente a

    11 12 11 1

    21 22 22 2

    1 21

    Td c

    p c

    p cpp p pp

    W W WY XW W WY X

    Y XW W W

  • La trasformacin consiste, bsicamente, en una rotacin rgida de los ejes de P tomando como referencia el origen de coordenadas. La consecuencia es que si los ejes de P' deben ser ortogonales, la distancia Eucldea entre el origen y los puntos se mantiene inalterada con esta transformacin. Para que esto sea cierto, la matriz de transformacin W debe ser ortogonal, esto es, que W -1 = W T, por lo que

    W TW = WW T = I

    1.1.1 Sobre la incorrelacin en P' Si Y se calcula a partir de X mediante la transformacin dada, puede demostrarse que: T T TY XE{Y } = E{W X } = W E{X} = W

    TTY XY YE{(Y - )(Y - ) } = W W

    Si los datos en P' deben estar incorrelados, la matriz de covarianza en P', Y , ser diagonal.

    1.1.2 Obtencin de la matriz de transformacin W El problema puede formularse como un problema de maximizacin de la varianza en P', TY XW W con restricciones, la ortogonalidad de W, W

    TW = I. La tcnica adecuada es la utilizacin de los multiplicadores de Lagrange, la solucin es como sigue:

    Se construye la funcin , tal que

    ( ) T TXW W W W I

    y derivando con respecto a W, se tiene

    ( X -I) W = 0

    y se encuentra la solucin no trivial del sistema de ecuaciones, esto es, hacer

    | X - I| = 0

    ecuacin caracterstica de la matriz X y su expresin es una ecuacin polinmica de .

    Las soluciones a esta ecuacin (los valores de ) son los autovalores valores propios de

    X . Hallados estos, se sustituyen uno por uno, en ( X -I)W = 0 y se obtienen los

    vectores asociados a cada valor de , autovectores vectores propios , los cuales son normalizados, de X tal que

  • 1 2 3, , ,... pW

    Como X es de orden p x p, tendr p autovalores asociados 1 2 3, , ,... p y como X es simtrica, todos los autovalores sern reales.

    El k-simo componente principal se obtiene bajo los criterios:

    - la varianza de Yk debe ser la k-sima ms grande, e inferior a la varianza de orden k-1, - WkTWk=1 - La correlacin de Yk-1 y Yk debe ser igual a cero.

    1.1.3 Conclusiones Como X es simtrica y definida positiva, todos sus autovalores sern reales y sus

    autovalores estn ordenados: 1 2 3 ... p

    La matriz de covarianza Y = WT

    X W ser una matriz diagonal formada por los autovalores de X :

    1

    2

    0 ..... 00 ..... 0

    .... .... ..... ....0 0 .....

    Y j j

    p

    V(Y ) j=1,2,...,p

    Cada autovalor j tiene asociado un autovector j y cada autovector define la

    direccin de un eje en el espacio transformado, P'. Dado que los autovalores estn ordenados y cada uno tiene asociado un autovector, se

    establece un orden entre las variables transformadas de forma que:

    Y1: Primer eje en P' (primera componente principal). La direccin de la mxima varianza de los patrones en P est determinada por este eje.

    Y2: Segundo eje en P' (segunda componente principal). La direccin de la mxima varianza en P entre todos los ejes ortogonales a Y1 est determinada por este eje, segunda varianza ms grande con respecto a P.

    y as sucesivamente:

    Yp: p-simo eje en P' (p-simo componente principal). La direccin de la mxima varianza en P entre todos los ejes ortogonales a Y1 est determinada por este eje, segunda varianza ms grande con respecto a P.

  • Con estas consideraciones, el teorema fundamental del anlisis de componentes principales se enuncia como sigue:

    Dado un conjunto de variables Xj (j = 1, 2,..., p) con matriz de covarianzas X , no singular, siempre se puede derivar a partir de ellos un conjunto de variables incorreladas Yj (j = 1, 2,..., p) mediante un conjunto de transformaciones lineales que corresponden a una rotacin rgida cuya matriz de transformacin W est formada por columnas con los autovectores de X . La matriz de covarianzas del nuevo conjunto de variables, Y , es diagonal, y contiene los autovalores de X .

    La transformacin de componentes principales definida, con la restriccin de diagonalidad, se conoce tambin como transformacin de Karhunen-Lowe o de Hotelling.

    A modo de resumen, y con una interpretacin geomtrica, los autovalores j representan la varianza de las observaciones en el espacio transformado y estn relacionados con el rango de los patrones en cada uno de los ejes de este espacio, mientras que los autovectores json vectores ortogonales que determinan la direccin de estos ejes.

    La transformacin por componentes principales es una transformacin que preserva la varianza total. Si se define la varianza total de un conjunto de datos multidimensionales como la suma de las varianzas asociadas a cada atributo, cada una ubicada en la diagonal de la matriz de covarianzas, el clculo de la varianza global se reduce al clculo de la traza de la matriz de covarianzas. Resulta evidente que si Y es la matriz que contiene en su diagonal los autovalores 1 2 3, , ,... p , de X , entonces,

    ( ) ( ) X Y iitraza traza Los nuevos ejes (CP), sealan la direccin con variabilidad mxima, y proveen una

    descripcin sencilla de la estructura de covarianzas, siendo los ejes de una nube de forma elipsoidal.

    Si algunas de las p variables originales son correlacionadas significativamente se tendrn menos de p componentes principales.

    1.1.4 Algoritmo de clculo de W. El algoritmo de clculo puede plantearse en 4 pasos: i. Calcular la matriz de covarianza global X . ii. Calcular los autovalores de X , 1 2 3, , ,... p .

    iii. Calcular los autovectores 1 2 3, , ,..., p , asociados a 1 2 3, , ,... p ,

    respectivamente.

  • iv. Formar la matriz 1 2 3, , ,..., pW

    v. Expresar Y = WTX=C

    Ejemplo 3: Como ilustracin, se aplica la transformacin de componentes principales a un conjunto de datos que presenta cierta correlacin. En la Figura 3, se observan 6 patrones sobre los cuales se va a efectuar la transformacin. Como se ve, las variables X1 y X2 presentan una correlacin positiva.

    Figura 3: Patrones X en el espacio original P

    i. Calcular X y X

    3.503.50X

    1.9 1.11.1 1.1X

    ii. Calcular los valores propios de X . Como p = 2 habrn dos autovalores asociados a X : 1 2, estos sern las soluciones a la ecuacin | X - I| = 0. En particular,

    1.9 1.1 1 00 3 0.88 0 2.67 0.33

    1.1 1.1 0 1

    21 2 y

    iii. Calcular los vectores propios 1 2, asociados a 1 2,

    El autovector 1 , correspondiente a 1 2 .6 7 se calcula como:

    Considerando la ecuacin, ( X - 1 I )W = 0. Esto es,

    1 1 1 11 2 1 2

    1 .9 1 .1 1 02 .6 7 0 0

    1 .1 1 .1 0 1

    -0 .7 7 1 .1

    1 .1 -1 .5 7

    equivalente a

  • -0.77 1 1 + 1.10 1 2 = 0

    1.10 1 1 - 1.57 1 2 = 0

    Este sistema de ecuaciones tiene una solucin no trivial porque el determinante es cero. Tomando cualquiera de ellas se deduce que

    1 1 = 1.43 1 2

    Como la matriz W debe ser ortogonal (W T = W -1) se requiere que los autovectores estn normalizados, esto es,

    21 1 + 21 2 = 1

    y el sistema de ecuaciones a resolver es: 1 1 = 1.43 1 2

    21 1 + 21 2 = 1

    De donde 1 1 = 0.82 y 1 2 0 . 5 7

    El resultado del primer vector propio, asociado a 1 , es 10.820.57

    El autovector correspondiente a 2 = 0.33 se calcula de manera similar, 20.57

    0.82

    Los autovectores que se acaban de calcular estn normalizados. Esto implica que son de longitud 1. Efectivamente, para ambos autovectores se verifica

    21 1 + 21 2 = 0.82

    2 + 0.572 = 0.67 + 0.33 = 1

    22 1 + 22 2 = - 0.57

    2 + 0.822 = 0.33 + 0.67 = 1

    Las componentes de un autovector indican la direccin de los nuevos ejes respecto al sistema de coordenadas original. La interpretacin geomtrica del nuevo sistema de coordenadas (Y1, Y2) respecto al original (X1, X2) con base en los autovectores 1 y 2 se detalla en la Figura 4.

  • Figura 4: Los autovectores determinan el nuevo sistema de coordenadas

    iv. Formar la matriz de transformacin W La matriz de transformacin es una matriz cuadrada 2 x 2 cuyas columnas son los autovectores 1 y 2 :

    1 20.82 0.57

    ,0.57 0.82

    W

    Finalmente, se procede a la transformacin de coordenadas para expresar los patrones X en las coordenadas del nuevo espacio,

    11

    22

    0.82 0.570.57 0.82

    c

    c

    XYXY

    Si aplicamos esta transformacin a las observaciones originales Xc1, Xc2,..., Xc6, el resultado se muestra en la Figura 5.

    Figura 5: Seis patrones en dos sistemas de coordenadas

  • OBSERVACIONES La matriz de covarianza en Y es diagonal y contiene los autovalores asociados a X .

    En este caso,

    2.67 00 0.33Y

    Este hecho es evidente de manera grfica en la figura anterior. Sea el nuevo sistema de coordenadas (Y1, Y2), al comparar las matrices de covarianza en P y P'

    1.9 1.11.1 1.1X

    2.67 0

    0 0.33Y

    - Las variables Y1 e Y2 no estn correlacionadas ( 1 2 ( ) 0Y ) mientras que las variables X1 y X2 si lo estn.

    12

    11 22

    ( ) 1.112 ( ) ( ) 1.9 * 1.1

    ( ) 0.76 X

    X XX

    - La transformacin aplicada ha tenido el efecto de maximizar la varianza. La varianza en el primer eje principal, Y1, es 2.67, bastante mayor que en X1, 1.9. Adems, no existe ningn otro eje en el que haya una varianza mayor.

    De manera grfica puede verse en la Figura 6, en la que se proyectan los patrones con menor y mayor valor de la variable X1 sobre los ejes X1 e Y1.

    Figure 6: Rango de los patrones en los ejes originales y transformados

    - La transformacin preserva la varianza global:

    tr( X ) = 1.9 + 1.1 = 3 y ( )Y iitraza = 2.67 + 0.33 = 3

  • Y tambin puede calcularse como Y = WT

    X W.

    0.82 0.57 1.9 1.1 0.82 0.57 2.67 00.57 0.82 1.1 1.1 0.57 0.82 0 0.33

    T

    Y

    La matriz de transformacin indicada en W debe ser ortogonal. En este caso,

    0.82 0.57 0.82 0.57 1 00.57 0.82 0.57 0.82 0 1

    TT TW W WW I

    2. ANLISIS DE SEMEJANZA DE INDIVIDUOS Y DE RELACIN DE VARIABLES

    Admitiendo un conjunto de n observaciones de p variables, se puede conformar la matriz X, la cual es posible centrar y reducir (normalizar, estandarizar), es decir, pasar de X a Z, el

    trmino genrico Xij se transforma a ( )/ rij ij j j ijZ X X S X

    La comparacin de los individuos i y h es evaluada con la distancia euclidiana clsica entre i y h:

    2 2

    1( )

    p

    ih k ik hkk

    d m x x

    Si todas las variables pesan igual (tienen igual importancia) 1km En el ACP, la relacin entre las variables k y j es evaluada con el coeficiente de correlacin (excepcionalmente: la covarianza):

    2 21

    ( )( )

    n ij jik kkj i kj

    k ji

    x xx xd m RS S

    2.1 Representacin geomtrica. El proceso de estandarizacin se representa a continuacin para el caso tridimensional, tal proceso equivale a cambiar de base, pasar a la base ortonormal (e1, e2, e3) centrada en G, 1 2 3( , , )X X X , entonces:

    - la variable 1rX le corresponde el eje engendrado por e1=(1,0,0). - el individuo i, est representado por

    1 2 31 2 3

    1 2 3

    ( , , )i i iX X X

    X X X X X XS S S

    - y el individuo medio por el origen G del nuevo espacio. (con wi=Xi)

  • El extremo del vector Wi = Wi, representa la combinacin lineal de los vectores de la base ortonormal

    1 2 31 2 3

    1 2 3

    1

    1 2 3 2

    3

    ( ) ( ) ( )i i iX X X

    iX X X X X X

    ii S S S

    i

    WW e e e W

    W

    2.2 INERCIA TOTAL (VARIANZA TOTAL) DE LA NUBE DE INDIVIDUOS

    En el espacio original se define la inercia total como:

    ( ) ( )

    2 2 210 1 10 0

    ( )n p kikn i ki iI d = traza( ) con d X X tambin es igual, en el nuevo espacio con las variables estandarizadas, a

    2 211 1( )

    kik

    k

    2n p X XG i in Si kI W = traza( )= p con W

    Siendo la matriz TZ DZ , donde Z es la matriz centrada y reducida de las variables

    originales X(S) y D una matriz diagonal de pesos, para el caso de idntica importancia de las

    X(S) tales pesos toman el valor 1n .

    La inercia total en el espacio original es igual a la inercia total en el nuevo espacio, Io = IG

  • 2.2.1 Contribucin de los individuos a la inercia total

    Cada individuo i contribuye a la variabilidad total en la cantidad 2 21

    1( )2p

    i ij jci cin jI X con X X X

    lo cual en trminos porcentuales es

    21. ( ) * 100 *100

    X ci I iI Io o

    nC ontr I i

    2.2.2 Proyeccin ortogonal de la nube de individuos sobre un eje Al proyectar los n puntos sobre un eje, por ejemplo el primero, se genera una inercia equivalente a:

    1 21 1 10 11 1( ) 2n n 2

    icin ni i X1I X = X X =S

    2.2.3 Proyeccin ortogonal de la nube de individuos sobre un plano factorial Siguiendo el caso anterior, pero considerando un plano factorial, por ejemplo el formado por el primero y el segundo eje se tiene:

    2 221,2 21 10 1 1 1 1( )

    n n 2 2kikcin ni k i k X X1 2

    I X = X X =S +S

    NOTA En trminos de la solucin del problema: - El subespacio ms cercano a la nube de puntos es aquel que genera la inercia ms

    cercana a la inercia total ( la inercia mxima de todos los posibles subespacios), equivalente a considerar la mnima distancia entre la nube de puntos y el subespacio

    20( , ) sd Nube Subespacio I I

    - Las direcciones principales de alargamiento de la nube de puntos, dos a dos, definen los planos principales sobre los cuales se proyecta ortogonalmente la nube de puntos. Lo que implica que: Cada direccin principal de la serie debe ser ortogonal a las direcciones definidas

    precedentemente. Cada direccin principal debe maximizar la inercia con respecto al origen de la

    proyeccin de la nube a lo largo de cada eje principal. El primer plano engendrado maximiza la inercia con respecto al origen de la

    proyeccin de la nube sobre ese plano.

  • El subespacio engendrado por los tres primeros componentes maximiza la inercia con respecto al origen de la proyeccin de la nube sobre ese subespacio.

    3. REPRESENTACIN DE LOS INDIVIDUOS PROYECTADOS EN EL PRIMER

    PLANO PRINCIPAL Suponiendo el individuo i centrado y proyectado como ciw en

    p , con p=2, entonces las coordenadas sobre los nuevos ejes son (Ci1, Ci2), de donde

    2 2 21 2 ( ) ( )ci i iw C C

    Entonces la inercia proyectada 2 2 21

    1 2 1 2 1 21 1 1 ( ) ( ) ( ) ( )n n nci i in i i iI w C C V C V C

    La calidad global de la representacin es dada por

    1 2( )o

    II traza

    La calidad de representacin del individuo i centrado y proyectado en el nuevo espacio es 2

    2 2

    2 2 2

    ( ) ( )2 2 21 21 2cos ( , ) cos ( , ) cos ( , )

    w C Cci i ici ci ci ci

    w w wci ci ci

    w w w w

    4. LA NUBE DE PUNTOS-VARIABLES

    Una variable es representada con un vector en Rn. El conjunto de extremidades de los vectores que representan las variables constituyen la nube de puntos Np.

    221 1,1 , ( ) ( )1 1;

    n nX X X Y Y Y V Xj ij j j j j ij jn ni i Y con

    ( ) ij ij jY X X

    1, * ,1 ( , ) k j

    nY Y Y Yk j ik ij k j X Xn i Cov X X

    ,,

    ( , )cos( , )X Xk j k j

    k jk jj

    Y Yk j X X

    Y Yk

    Y Y

    - Las k variables centradas-reducidas, forman la nube Nk, son vectores cuyas

    extremidades se ubican sobre la esfera de radio 1, tal que para la variable j

  • ( ) , 1 , 1 1 j j jX X Y rj jX Yj j

    = < X , 1 > = V ( Z ) =

    - La coordenada de la proyeccin de una variable sobre otra es igual al coeficiente de

    correlacin entre las variables. 3.1 Calidad de representacin de las variables

    Las componentes principales, Yk = Ck, forman una base ortogonal del subespacio en Rn de dimensin p dadas las variables originales. Entonces si se hace

    con k=1,2,..,pkkk

    Yf

    se logra una base ortonormal del subespacio (equivalente a los componentes principales estandarizados) y se obtiene:

    ( , )1

    1,2,...,

    p

    j X Y kj kk

    Z f j p

    Constituyendo vectores cuyas extremidades se ubican en una esfera de radio 1.

    La proyeccin de Zj sobre el primer plano principal es:

    2( , )

    1 1,2,...,

    j X Y kj k

    kZ f j p

    3.1.1 Calidad de representacin de las variables sobre el primer plano

  • Teniendo dibujado el crculo unidad, en el primer plano, visualmente se puede observar la

    calidad de representacin de la variable Zj mediante jZ , puesto que =1jZ y si la extremidad de jZ se ubica cerca de la unidad tambin ocurre que 1jZ , entonces se obtiene una buena calidad de representacin.

    En la esfera de la figura, iz se encuentra mejor representada que jz y kz .

    OBSERVACIN:

    1rj jx z

    3.1.2 Correlaciones de las variables con las componentes principales Las coordenadas de las variables centradas y reducidas sobre el primer plano principal y los valores originales de las variables estn correlacionadas segn la medida

    ( , )X Cj k Las correlaciones altas determinan la formacin del componente por las correspondientes variables. Cuando sobre el mismo componente tales correlaciones son positivas se dice que el eje determina la forma de la distribucin, mientras que si son una mezcla de positivas y negativas se habla de la determinacin de la escala. Las coordenadas de las variables centradas y reducidas sobre el primer plano principal son las correlaciones de las variables con las direcciones principales; calculando jz se obtiene

    la representacin aproximada de la variable j sobre el plano. 3.1.3 Variables en el espacio de representacin de los individuos

  • Las variables estn representadas por vectores y los individuos lo son por puntos. Valores similares de las distancias entre individuos hacen las semejanzas entre ellos y su buena representacin en el espacio, mientras las correlaciones altas de las variables determinan la dependencia entre las variables y su buena representacin en el espacio.

    Proyectando las direcciones de los vectores variables en el espacio de los puntos-individuos, se puede explicar la configuracin de distancias inter-individuales. Si la k-sima variable est bien representada en un subespacio, la direccin asociada a ese vector puede ser considerada como una buena representacin de la k-sima variable en el espacio de representacin de los individuos.

    Sobre el espacio de los individuos, se hace la representacin de los ejes generados por los vectores que representan a las variables iniciales de la base cannica (e1, e2, .., ep ).

    1 1Para k=1,2,,p u con e

    p pk jk j j jk k

    j ju e u U

    El vector ej proyectado sobre el espacio principal S engendrado por (u1, u2, .., up ) es

    1e

    pj jk k

    ju U

    Si ste vector est bien representado, el eje engendrado por ste vector se considera una buena representacin de la variable original centrada Xcj en el espacio de los individuos.

  • 4. ANALISIS NORMADO Si las variables originales son medidas en escalas diferentes (rangos muy distintos) si las unidades de medida no son comparables, las dos cosas, por ejemplo, ventas anuales de un negocio, entre 10.000 y 35.000 dlares; la razn del ingreso anual neto con respecto a los activos totales, cuyos valores oscilan entre 0.01 y 0.6; entonces la variacin de la primera variable tendr un peso muy grande frente a la variacin de la segunda, lo cual sesga el hallazgo de los CP, puesto que se encuentran en funcin de la mxima varianza. Para eliminar este fenmeno, se estandarizan las variables originales antes de proceder a calcular los CP.

    El trabajo realizado anteriormente se har sobre la matriz de de correlacin, los vectores y valores propios se obtienen sobre .

    5. SELECCIN DEL NMERO DE COMPONENTES PRINCIPALES A INTERPRETAR

    Existen las siguientes reglas.

    o Dibujar un polgono de frecuencias un histograma a partir de las parejas (i, i). Empezar seleccionando componentes hasta cuando los valores restantes i sean semejantes se estabilice su valor. Equivale a buscar un codo, el punto de inflexin donde los valores propios tienden a ser semejantes.

    o Seleccionar CP hasta cumplir con un porcentaje de varianza determinada por el investigador.

    o Tomar los CP, cuyos valores propios sean superiores iguales al valor propio medio. (En caso del anlisis normado ese valor propio es 1).