Gujarati - Econometría - Apéndice A

73
UNIVERSIDAD CATÓLICA DE ASUNCIÓN ECONOMETRÍA UNIDAD I – REPASO DE ESTADÍSTICAS

description

apendice a del libro de gujarati

Transcript of Gujarati - Econometría - Apéndice A

  • UNIVERSIDAD CATLICA DE ASUNCIN

    ECONOMETRA

    UNIDAD I REPASO DE ESTADSTICAS

  • A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO

    Para la suma empleamos la letra mayscula griega (sigma)

    n

    n

    ii xxxxx ++++=

    =321

    1

    Propiedades del operador de sumatoria : 1. , donde ==

    nki nkk k es una constante = == 4 1 12343i

    2. , donde == =ni i

    ni i xkkx 11 k es una constante

    3. , donde y son constantes y donde se hace uso de las propiedades 1 y 2 anteriores

    ( )

    ( ) == +=+ ni ini i xbnabxa 11 a b

    4. === +=+ni i

    ni i

    ni ii yxyx 111

    1

  • A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO

    El operador de sumatoria puede ampliarse a sumas mltiples. El operador de doble sumatoria se define como:

    ( )

    ( ) ( )( )nmmmm

    nn

    n

    iimiii

    n

    i

    m

    jij

    xxxxxxxxxxxx

    xxxxx

    +++++++++++++++=

    ++++= == =

    321

    23222121312111

    1321

    1 1

    Algunas de las propiedades del operador de doble sumatoria :

    1. , es decir, se puede intercambiar la suma = == =

    =m

    j

    n

    iij

    n

    i

    m

    jij xx

    1 11 1

    2. === =

    =m

    jj

    n

    ii

    n

    i

    m

    jji yxyx

    111 1

    3. ( )1 1 1 1 1 1

    n m n m n m

    ij ij ij iji j i j i j

    x y x y= = = = = =

    + = +

    4. [ ]

  • A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO

    El operador de producto es definido como:

    n

    n

    ii xxxxx =

    =321

    1

    Por tanto,

    321

    3

    1xxxx

    ii =

    =

    3

  • A.2 ESPACIO MUESTRAL, PUNTOS MUESTRALES Y EVENTOS

    Poblacin (o Espacio Muestral): Es el conjunto de todos los resultados posibles de un experimento aleatorio, o del azar.

    Punto Muestral: Cada miembro de este espacio muestral. Por ej., al lanzar dos monedas, el espacio muestral consta de cuatro resultados posibles: CC, CS, SC, SS. Cada uno de los eventos anteriores constituye un espacio muestral.

    Evento: Subconjunto del espacio muestral. Si A denota la ocurrencia de una cara y un sello, entonces, de los posibles resultados anteriores solamente dos pertenecen a A, CS y SC. En este caso decimos que A constituye un evento.

    Eventos mutuamente excluyentes: Dos eventos son m.e. si la ocurrencia de uno impide la ocurrencia del otro. Si en el ejemplo anterior ocurre CC, la ocurrencia del evento CS al mismo tiempo no es posible.

    Eventos exhaustivos (colectivamente): Si todos los resultados posibles de un experimento se agotan. En el ejemplo, los eventos (a) dos caras, (b) dos sellos y (c) un sello y una cara, agotan todos los resultados posibles.

    4

  • A.3 PROBABILIDAD Y VARIABLES ALEATORIAS

    Probabilidad: Sea A un evento en un espacio muestral. Sea P(A) la probabilidad del evento A, es decir, la proporcin de veces que el evento A ocurrir en ensayos repetidos de un experimento.

    En forma alterna, en un total de n posibles resultados igualmente probables de un experimento, si m de ellos son favorables a la ocurrencia del evento A, se define la razn m/n como la frecuencia relativa de A. Para los valores grandes de n, esta frecuencia relativa constituir una muy buena aproximacin de la probabilidad de A. Propiedades de la probabilidad. P(A) es una funcin de valor real.

    ( )1. AAP ,10 2. Si A, B, C, constituyen un conjunto de eventos exhaustivos, entonces

    ( ) 1=++ CBAP , donde CBA ++ significa A o B o C y as sucesivamente 3. Si A, B, C, son eventos mutuamente excluyentes, entonces

    ( ) ( ) ( ) ( ) +++=+++ CPBPAPCBAP

    5

  • A.3 PROBABILIDAD Y VARIABLES ALEATORIAS

    EJEMPLO 1 Considrese el experimento de lanzar un dado numerado del 1 al 6. El espacio muestral consta de los resultados 1, 2, 3, 4, 5, y 6. Por consiguiente, estos seis eventos agotan la totalidad del espacio muestral, la probabilidad de obtener cualquiera de estos nmeros es 1/6 puesto que son seis resultados igualmente probables y cada uno de ellos tiene igual probabilidad de aparecer. Puesto que 1, 2, 3, 4, 5, y 6 forman un conjunto exhaustivo de eventos, ( ) 1654321P =+++++ donde 1, 2, 3, significa la probabilidad del nmero 1 o

    del nmero 2 o del nmero 3, etc. Dado que 1, 2,,6 son eventos mutuamente excluyentes, en donde dos nmeros no pueden obtenerse simultneamente, ( ) ( ) ( ) ( ) 162P1654321P =+++=+++++ PP

    6

  • A.3 PROBABILIDAD Y VARIABLES ALEATORIAS

    VARIABLES ALEATORIAS (va): Son aquellas variables cuyo valor est determinado por el resultado de un experimento de azar.

    Las va se denotan usualmente por las letras maysculas X, Y, Z y as sucesivamente, y los valores que ellas toman estn denotadas por las letras minsculas, x, y, z, etc. Las va pueden ser discretas o continuas. Las va discretas son aquellas que adquieren un nmero finito de valores. Por ej., al lanzar dos dados, cada uno numerado del 1 al 6, si se define la va X como la suma de los nmeros que aparecen en los dados, entonces X tomar uno de los siguientes valores: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11 o 12. Las va continuas son aquellas que pueden tomar cualquier valor dentro de un intervalo de valores. As, la estatura de un individuo es una variable continua. Se debe tener en cuenta que en el agregado al tomar promedios de la va, se puede tener un valor continuo, cuando la va es discreta.

    7

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    FDP de una va discreta Sea X una va discreta que toma valores diferentes . Entonces, la funcin

    nxxx ,,, 21

    ( )( )

    ==

    =i

    i

    xxparanixXP

    xf,0

    ,,2,1,

    se denomina la FDP discreta de X, donde ( )ixXP = significa la probabilidad de que la va discreta X tome el valor de x . iEJEMPLO 2 En un lanzamiento de dos dados, la va X, o sea la suma de los nmeros que aparecen en dos dados, puede tomar uno de los 11 valores mostrados. La FDP de esta variable puede aparecer como sigue:

    X = 2 3 4 5 6 7 8 9 10 11 12f (x) = 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36

    Estas probabilidades pueden verificarse fcilmente. En total, hay 36 resultados posibles, de los cuales uno es favorable al nmero 2, dos son favorables al nmero 3 y as sucesivamente.

    8

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    F u nc i n d e de n sid a d d e la v a d isc r e ta d e l eje m plo 2

    0

    1 /5 0

    1 /2 5

    3 /5 0

    2 /2 5

    1 /1 0

    3 /2 5

    7 /5 0

    4 /2 5

    9 /5 0

    0 2 4 6 8 10 1 2 1 4

    X

    f(x)

    9

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    FDP de una va continua Sea X una va continua. Entonces, se dice que ( )xf es la FDP de X si se satisfacen las siguientes condiciones:

    ( )( )( ) ( )bxaPdxxf

    dxxf

    xf

    ba =

    =

    1

    0

    donde ( )dxxf es conocido como el elemento probabilstico (la probabilidad asociada con un pequeo intervalo de una va continua) y donde ( )bxaP significa la probabilidad de que X se encuentre en el intervalo . Grficamente tenemos:

    a o b

    ( )bXaP

    0 a b

    10

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    EJEMPLO 3 Considrese la siguiente funcin de densidad:

    ( ) 3091 2 = xxxf

    Puede verificarse con facilidad que ( ) 0xf para toda en el intervalo 0 a 3 y xque . Si se desea evaluar la FDP anterior entre 0 y 1, se obtiene 19/130

    2 = dxx

    27/127/19/11

    0

    310

    2 =

    = xdxx ; es decir, la probabilidad de que se encuentre x

    entre 0 y 1 es 1/27.

    1. FDP conjunta FDP conjunta discreta. Sean X y Y dos va discretas. Entonces la funcin

    ( ) ( )

    ==

    =yYyyXcuando

    yYxXPyxf

    0,

    ,

    se conoce como la FDP conjunta discreta y da la probabilidad (conjunta) de que X tome el valor de x y Y tome el valor de y.

    11

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    EJEMPLO 4 La siguiente tabla presenta la FDP conjunta de las va X y Y.

    -2 0 2 33 0,27 0,08 0,16 06 0 0,04 0,10 0,35

    X

    Y

    Esta tabla muestra que las probabilidad de que X tome el valor de -2 mientras simultneamente Y toma el valor de 3 es de 0,27, y que la probabilidad de que X tome el valor de 3 mientras Y toma el valor de 6 es 0,35 y as sucesivamente.

    2. FDP marginal En relacin con ( ) ( ) ( )yfxfyxf ,,, se denominan FDP individuales o marginales. Estas FDP marginales se obtienen de la siguiente manera:

    ( ) ( ) ( ) ( ) ==xy

    yxfxfyxfxf ,,

    El primero es la FDP marginal de X y la ltima la FDP marginal de Y. significa la suma sobre todos los valores de Y y y x significa la suma sobre todos los valores de X.

    12

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    EJEMPLO 5 Considrese la informacin dada en el ejemplo 4. La FDP marginal de X se obtiene de la siguiente manera:

    ( ) ( )( ) ( )( ) ( )( ) ( ) 35,035,00,3

    26,010,016,0,2

    12,004,008,0,0

    27,0027,0,2

    =+===

    =+===

    =+===

    =+===

    y

    y

    y

    y

    yxfxf

    yxfxf

    yxfxf

    yxfxf

    Asimismo, la FDP marginal de Y se obtiene as: ( ) ( )( ) ( ) 49,035,010,004,00,6

    51,0016,008,027,0,3=+++===

    =+++===

    x

    x

    yxfyfyxfyf

    Para obtener la FDP marginal de X, se suma la columna de nmeros, y para obtener la FDP marginal de Y, se suma la fila de nmeros. Obsrvese que

    ( )x xf sobre todos los valores de X es 1, como lo es ( ) y yf sobre todos los valores de Y. Podemos completar la tabla del ejemplo 4 agregando una nueva columna y una nueva fila indicando la FDP marginal de X y la FDP marginal de Y respectivamente.

    13

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    -2 0 2 33 0,27 0,08 0,16 0 0,516 0 0,04 0,10 0,35 0,49

    0,27 0,12 0,26 0,35 1

    X

    Y

    FDP MARG Y

    FDP MARG X

    3. FDP condicional

    En el anlisis de regresin, el inters se centra, con frecuencia, en estudiar el comportamiento de una variable condicional respecto a los valores de otra u otras variables. Esto puede hacerse considerando la FDP condicional. La funcin

    ( ) ( )yYxXPyxf === || se conoce como la FDP condicional de X; sta da la probabilidad de que X tome el valor de x dado que Y ha asumido el valor de y. En forma similar,

    ( ) ( )xXyYPxyf === || lo cual da la FDP condicional de Y. Las FDP condicionales pueden obtenerse de la siguiente manera:

    14

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    ( ) ( )( )

    ( ) ( )( ) )(

    )()(,,x|,,y|MARGFDPCONJFDPCONDFDP

    xfyxfyf

    yfyxfxf ===

    Son las FDP condicionales de X y Y respectivamente.

    Como lo muestran las expresiones anteriores, la FDP condicional de una variable puede expresarse como la razn de la FDP conjunta con respecto a la FDP marginal de otra variable (condicionalmente).

    EJEMPLO 6 Continuando con los ejemplos 4 y 5, se calculan las siguientes probabilidades condicionales, as:

    ( ) ( )( ) 53,051,0/27,033,23|2 ==

    ===

    ===Yf

    YXfYXf

    La probabilidad incondicional ( )2=xf es 0,27, pero si Y ha asumido el valor de 3, la probabilidad de que X tome el valor de -2 es 0,53.

    ( ) ( )( ) 20,049,0/10,066,26|2 ==

    ===

    ===Yf

    YXfYXf

    15

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    De nuevo, la probabilidad incondicional de que X tome el valor de 2 es 0,26, la cual es diferente de 0,20, que es su valor si Y asume el valor de 6. Completando el ejemplo 4, tenemos:

    -2 0 2 33 0,53 0,16 0,31 0,006 0,00 0,08 0,20 0,71

    X

    Y

    Independencia estadstica

    Dos va X y Y son estadsticamente independientes ssi ( ) ( ) ( )yfxfyxf =,

    es decir, si la FDP conjunta puede expresarse como el producto de las FDP marginales. EJEMPLO 7 Una bolsa contiene tres bolas numeradas 1,2 y 3. Se seleccionan de la bolsa dos bolas al azar, con reemplazamiento. Sea X el nmero de la primera bola sacada y Y el nmero de la segunda. La siguiente tabla muestra la FDP conjunta de X y Y.

    16

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    1 2 31 1/9 1/9 1/92 1/9 1/9 1/93 1/9 1/9 1/9

    X

    Y

    ( ) ( ) 3/11,9/11,1 ===== XfYXf (obtenido mediante la suma de los elementos de la primera columna) y ( ) 3/11 ==Yf (obtenido mediante la suma de los elementos de la primera fila). Puesto que ( ) ( ) ( )yfxfyxf =, , en este ejemplo, se puede decir que las variables son estadsticamente independientes. Puede verificarse que para cualquier otra combinacin de los valores X y Y dados en la verificarse que para cualquier otra combinacin de los valores X y Y dados en la tabla anterior, las FDP conjuntas se factorizan en FDP individuales. En el ejemplo 4, las variables X y Y no son estadsticamente independientes puesto que el producto de las dos FDP marginales no es igual a la FDP conjunta.

    -2 0 2 33 0,14 0,06 0,13 0,186 0,13 0,06 0,13 0,17

    X

    Y

    17

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    FDP conjunta continua ( )yxf , de dos variables continuas X y Y es tal que:

    ( )La FDP conjunta de

    ( )( ) ( )dycbxaPdxdyyxf

    dydxyxf

    yxf

    dc

    bz =

    =

    ,,

    1,

    0,

    EJEMPLO 8 Considrese la siguiente FDP:

    ( ) 10;102, = yxyxyxf

    ( )( )

    121 1 1 1

    0 0 0 00

    12

    0

    32 22 2

    , 1 03 12 2

    yx y dx dy y xy dy y dy

    f x yyy

    = = =

    = =

    La FDP marginal de X y de Y pueden obtenerse respectivamente como

    ( ) ( ) == dxyxfyfdyyxfxf ,)(,)(

    18

  • A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)

    EJEMPLO 9 Las dos FDP marginales de la FDP conjunta dada en el ejemplo 8 son las siguientes:

    ( ) ( )( )

    ( ) ( ) ( )

    121 1

    0 00

    121 1

    0 00

    3, 2 2 ; 0 12 2

    3, 2 2 ; 0 12 2

    yf x f x y dy f x y dy y xy x x

    xf y f x y dx f x y dx x xy y y

    = = = =

    = = = =

    Son estadsticamente independientes las va X y Y? Comprobmoslo ( ) ( ) ( )yfxfyxf =,

    ( )

    yxyx

    23

    232 Por lo tanto, no son estadsticamente independientes.

    19

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    Momentos: Caracterstica de una distribucin de probabilidad Los momentos ms conocidos son: la media o valor esperado, y la varianza.

    Valor esperado El valor esperado de una va discreta X, denotado por ( )XE , se define de la siguiente manera:

    ( ) ( )=x

    xxfXE

    donde significa la suma sobre todos los valores de X y donde x ( )xf es la FDP (discreta) de X. EJEMPLO 10 Considrese la distribucin de probabilidad de la suma de dos nmeros en el lanzamiento de dos dados analizada en el ejemplo 2. Multiplicando los diversos valores de X dados all por sus correspondientes probabilidades y sumando sobre todas las observaciones, se obtiene:

    ( ) ( ) ( ) ( ) ( ) 736/11236/3436/2336/12 =++++= XE que es el valor promedio de la suma de los nmeros observada en un lanzamiento de dos dados.

    20

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    EJEMPLO 11 ( )XE y ( )YE para la informacin dada en el ejemplo 4. Estmese

    -2 0 2 33 0,27 0,08 0,16 0 0,516 0 0,04 0,10 0,35 0,49

    0,27 0,12 0,26 0,35 1

    X

    Y

    FDP MARG Y

    FDP MARG X

    ( ) ( ) ( )( ) ( )( ) ( )( ) ( )( )( ) ( ) ( )( ) ( )( ) 47,449,0651,03

    03,135,0326,0212,0027,02=+==

    =+++==

    y

    x

    yyfYExxfXE

    El valor esperado de una va continua est definido como:

    ( ) ( )= dxxsfXE La nica diferencia entre esta caso y el valor esperado de una va discreta es que el smbolo de sumatoria se reemplaza por el smbolo de integral.

    21

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    EJEMPLO 12 El valor esperado de la FDP del ejemplo 3 puede obtenerse as:

    ( ) ( ) 25,24/94

    x91

    3

    0

    430 9

    2==

    == dxxXE x

    Propiedades del valor esperado

    ( )1. bbE = , el valor de una constante es la constante misma ( ) ( )2. bXaEbaXE +=+ , si y son constantes a b

    Esto se puede generalizar: ( ) ( ) ( ) ( ) bXEaXEaXEaXaXaXaE NNNN ++++=+++ 22112211

    3. Si X y Y son va independientes, entonces ( ) ( ) ( )YEXEXYE = ( ) ( )xf y si xg es cualquier funcin de X, entonces 4. Si X es una va con FDP

    ( )[ ]( ) ( )( ) ( )

    = dxxfXg

    xfXgXgE x

    En el primer caso si X es discreta, y en el ltimo si X es continua.

    22

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    Por ejemplo, si ( ) 2XXg =

    [ ] ( )( )

    = dxXfx

    XfxXE x 2

    22

    En el primer caso, X es discreta y en el ltimo es continua. EJEMPLO 13 Considrese la siguiente FDP

    ( ) 8/28/18/5212

    xfx

    Entonces, ( ) ( )( ) ( )( ) ( )( ) 8/58/228/118/52 =++=XE

    y

    ( ) ( )( ) ( )( ) ( )( ) 8/298/248/118/542 =++=XE

    23

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    Varianza Sea X una va y sea ( ) =XE . La distribucin o dispersin de los valores de X alrededor del valor esperado puede ser medida por la varianza.

    ( ) ( )22var == XEX x Desviacin estndar

    Es la raz cuadrada positiva x , de la varianza . 2x

    Tanto la varianza como la desviacin estndar indican cuan cercanos o dispersos estn los valores individuales de X con respecto a su valor esperado. Clculo de la varianza

    ( ) ( ) ( )( ) ( )

    = dxxfX

    xfxX x 2

    2

    var

    En el primer caso se refiere a X si es una va discreta, en el ltimo si X es una va continua. Tambin se puede expresar como:

    24

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    ( ) ( )

    ( )( ) ( )[ ]22

    22

    22var

    XEXE

    XE

    XEX x

    =

    =

    ==

    Aplicando la frmula, puede verse que la varianza de la va dada en el ejemplo 13

    es ( ) ( ) ( ) ( )2 22 2var 29 / 8 5 / 8 207 / 64 3, 23438XX E X E X= = = = = EJEMPLO 14 Para determinar la varianza de una va (continua) dada en el ejemplo 3, se procede as:

    ( ) ( ) ( ) 22 2var XX E X E X= =

    ( ) 5/2745/24359

    199

    3

    0

    30

    5430

    222 ==

    ==

    =

    xdxxdxxxXE

    Del ejemplo 12, sabemos que ( ) 25,24/9 ==XE . Entonces ( ) ( ) 3375,080/27720/2434/95/27var 2 ====X

    25

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    Propiedades de la varianza

    1. ( ) ( ) 222 = XEXE 2. ( ) 0var =b , si es una constante b3. ( ) ( )XabaX varvar 2=+ , si y son constantes a b4. Si X y Y son va independientes, entonces

    ( ) ( ) ( )( ) ( ) ( )YXYX

    YXYXvarvarvarvarvarvar

    +=+=+

    5. Si X y Y son va independientes y y son constantes, entonces a b

    ( ) ( ) ( )YbXabYaX varvarvar 22 +=+

    Covarianza Sean X y Y dos va con medias, x y y , respectivamente. Entonces la covarianza entre las dos va se define como

    ( ) ( )( )[ ] ( ) yxyx XYEYXEYX ==,cov La varianza de una variable es la covarianza de dicha variable con ella misma.

    26

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    Clculo de la covarianza: ( ) ( )( ) ( )

    ( )

    =

    =

    y xyx

    y xyx

    yxXYf

    yxfYXYX

    ,

    ,,cov

    si X y Y son va discretas, y:

    ( ) ( )( ) ( )( )

    =

    =

    yx

    yx

    dxdyyxXYf

    dxdyyxfYXYX

    ,

    ,,cov

    si X y Y son va continuas.

    Propiedades de la varianza 1. Si X y Y son independientes, su covarianza es cero, puesto que

    ( ) ( )

    0

    ,cov

    =

    =

    =

    yxyx

    yxXYEYX

    2. ( ) ( )YXbddYcbXa ,cov,cov =++ , donde y son constantes ,,, cba d

    27

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    EJEMPLO 15 Para el clculo de la covarianza entre las va discretas X y Y cuyas FDP conjuntas son iguales a las ejemplo 4, se procede as: del ejemplo 11, sabemos que ( ) 03,1== XEx y ( ) 47,4== YEy .

    ( ) ( )

    ( )( )( ) ( )( )( ) ( )( )( ) ( )( )( )( )( )( ) ( )( )( ) ( )( )( ) ( )( )( )

    84,635,06310,06204,06006203316,03208,03027,032

    ,

    =+++++++=

    = y x

    yxXYfXYE

    Por consiguiente, ( ) ( )

    ( )( )24,2

    47,403,184,6

    ,cov

    ==

    = yxXYEYX

    Coeficiente de correlacin

    El coeficiente de correlacin poblacional (rho) se define como:

    28

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    ( )( ) ( )[ ]

    ( ) 11;,covvarvar,cov

    ==

    yx

    YXYX

    YX

    , es una medida de asociacin lineal entre dos variables y se encuentra entre -1 y +1. +1 indica una perfecta asociacin positiva.

    ( ) yxYX =,cov EJEMPLO 16 Estmese el coeficiente de correlacin para la informacin del ejemplo 4. De las FDP dadas en el ejemplo 11, sabemos que: ( ) ( ) 47,4;03,1 ==== yx YEXE

    ( )

    ( )( ) ( )( ) ( )( ) ( )( )( ) 27,5

    35,0926,0412,0027,04940435,026,012,027,03202

    22

    2

    2

    ==

    x fxxXE

    fxxx

    xfx

    29

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    EJEMPLO 16 (continuacin)

    ( )

    ( ) ( )( ) ( )( )

    ( ) ( ) 23,2249,0651,09

    36949,051,063

    22

    2

    2

    == y yfyYE

    yfyy

    yfy

    ( ) ( ) ( )( ) ( ) ( ) 50,12491,247,423,22var

    05,22091,403,127,5var222

    222

    ====

    ====

    xy

    xx

    YEY

    XEX

    ( )

    ( )( )73,0

    50,105,224,2,cov

    ===yx

    YX

    30

  • A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD

    Varianza de variables correlacionadas Sean X y Y dos va. Entonces: ( ) ( ) ( ) ( )

    ( ) ( )( ) ( ) ( ) ( )

    ( ) ( ) yx

    yx

    YXYXYXYX

    YXYXYXYX

    2varvar,cov2varvarvar

    2varvar,cov2varvarvar

    +=+=

    ++=++=+

    Si X y Y son independientes, ( ) 0,cov =YX . En forma general.

    ( ) ( )

    ( )

    es una hiptesis compuesta porque el valor de no est especificado. Estadstico de Prueba. Para probar la 0H (validez), se utiliza la informacin muestral con el fin de obtener el estadstico de prueba, que con frecuencia resulta ser el estimador puntual del parmetro desconocido. Se trata de averiguar la distribucin muestral o probabilstica del estadstico de prueba y utilizar el mtodo de intervalos de confianza o de prueba de significancia para probar la 0H . Del ejemplo 23 se dice que

    ( ) ( )22 5,2;,~ NNX = 10067 == nX

    Supngase que

    69:69*:

    1

    0

    ==

    HH

    64

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Puede la muestra con 67=X , el estadstico de prueba, haber provenido de la poblacin con el valor de la media de 69? No puede rechazarse la 0H si X est lo suficientemente cerca de * ; de lo contrario, sta se puede rechazar a favor de una hiptesis alterna. Pero, cmo se decide que X est lo suficientemente cerca de * ? Dos mtodos: 1) Intervalo de confianza y 2) prueba de significancia, ambos conducen a conclusiones en cualquier aplicacin especfica.

    1. Mtodo del intervalo de confianza ( )Puesto que 2,~ NXi , se sabe que el estadstico de prueba X est

    distribuido como ( )nNX 2,~

    Si se conoce la distribucin de probabilidad de X , por qu no establecer, por ejemplo, un intervalo de confianza de ( )1100 para basada en X y ver si este intervalo incluye * = ? Si es as, no puede rechazarse la 0H ; si no lo es, sta se puede rechazar.

    65

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS As, si 05,0= , se tendr un intervalo de confianza al 95%, y si este intervalo de confianza incluye * , no se puede rechazar la 0H -es probable que 95 de 100 intervalos as construidos incluyan a * . Procedimiento. Puesto que ( )nNX 2,~ , se cumple que

    ( )1,0~/

    Nn

    XZ i

    =

    Entonces, de la tabla de distribucin normal, se sabe que ( )

    95,096,1/

    96,1Pr

    95,096,196,1Pr

    =

    =

    nX

    Zi

    Reordenando trminos tenemos

    95,096,196,1Pr =

    +

    nX

    nX

    ste es un intervalo de confianza al 95% para .

    66

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Luego, la 0H es simple. Se tiene que ver si * = se encuentra en ese intervalo. Si se encuentra, no se puede rechazar la ; si no se encuentra, 0H se puede rechazar. En el ejemplo anterior se tiene se construye el intervalo de confianza al 95% para , que es

    49,6751,66 Como este intervalo no incluye 69= se puede rechazar la 0H de que el verdadero valor de es 69 con un coeficiente de confianza del 95%.

    69=

    49,6710

    5,296,1

    +X

    51,6610

    5,296,1

    X

    67

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Regin de aceptacin. Es el intervalo de confianza que se ha construido. Regin(es) crtica(s) o Regin(es) de rechazo(s). El (los) rea(s) por fuera de la regin de aceptacin. Valores crticos. Los lmites inferior y superior de la regin de aceptacin. Si el valor bajo la hiptesis se encuentra dentro de la regin de aceptacin, no se puede rechazar la hiptesis nula; de lo contrario, se puede rechazar. Tipos de errores Error tipo I. Se rechaza la 0H cuando sta es, en realidad, cierta. Error tipo II. Se puede no rechazar 0H cuando, en realidad, es falsa.

    Una prueba de hiptesis no establece el valor de la verdadera ; simplemente proporciona un medio para decidir si se puede actuar como si

    * = .

    68

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS

    ERRORES TIPO I Y TIPO II Esquemticamente, se tiene Estado de la naturaleza Decisin 0H es verdadera 0H es falsa

    Rechazar Error tipo I No hay error No rechazar No hay error Error tipo II La idea es maximizar los errores del tipo I y II, pero para cualquier tamao de muestra dado, no es posible minimizar los errores de manera simultanea. Neyman y Pearson. Suponen que es probable que un error tipo I sea ms grave en la prctica que un error tipo II a un nivel relativamente bajo, tal como 0,01 o 0,05, y luego, tratar de minimizar al mximo la probabilidad de incurrir en un error tipo II. Nivel de significancia. , prob. de cometer un error tipo I. Potencia de la prueba. 1 , prob. de no cometer un error tipo II. Es la capacidad de una prueba para rechazar la 0H falsa.

    69

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS El mtodo clsico: Fijar y luego tratar de minimizar .

    2. Mtodo de la prueba de significancia Recurdese que

    ( )1,0~/

    Nn

    XZ i

    =

    X y n se conocen (pueden ser estimados), pero los verdaderos y no se conocen. Sin embargo, si es especificado y se supone (bajo 0H ) que * = , un valor numrico especfico, entonces iZ puede ser directamente calculado. Si la probabilidad es baja, se puede rechazar la 0H -si la hiptesis fuera cierta, la posibilidad de obtener el valor Z particular debe ser muy alta-. Prueba Z. Se emplea el valor normal estandarizado de Z.

    8100/5,26967

    /*

    =

    =

    =n

    XZ i

    Se observa la tabla de valores, luego, la probabilidad de obtener ese valor de Z es extremadamente baja, p=0,0001.

    70

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Por consiguiente, se puede rechazar la 0H de que 69= . As, se duda de que la muestra hubiera venido de una poblacin con un valor medio de 69.

    Cuando se dice que un estadstico de prueba es significativo, generalmente se dice que se puede rechazar la . 0HEl estadstico de prueba se considera como significativo si l probabilidad de obtenerlo es igual o menor que , o sea la probabilidad de cometer el error tipo I. En el ejemplo, la probabilidad el valor calculado de Z = -8 es estadsticamente significativo; es decir, se rechaza la 0H de que la verdadera * es 69.

    71

  • A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS

    Resumen de los pasos de las pruebas de hiptesis estadsticas Paso 1. Postular la 0H y la hiptesis alterna 1H . Paso 2. Seleccionar el estadstico de prueba (por ejemplo, X ). Paso 3. Determinar la distribucin de probabilidad del estadstico de prueba [por ejemplo, ( )nNX 2,~ ]. Paso 4. Seleccionar el nivel de significancia ( , la probabilidad de cometer el error tipo I). Paso 5. Utilizando la distribucin de probabilidad del estadstico de prueba, construir un intervalo de confianza al ( )%1100 . Si el valor del parmetro bajo la 0H (por ejemplo, 69* == se encuentra en esta regin de confianza (regin de aceptacin), no debe rechazarse la 0H . Pero si sta se encuentra por fuera de este intervalo (regin de rechazo), se debe rechazar la 0H .

    Al no rechazar o al rechazar la 0H , se corre el riesgo de estar equivocado por ciento de las veces.

    72

    EJEMPLO 1 EJEMPLO 3