7-Estimacion

8
Cátedra: Probabilidad y Estadística Estimación de parámetros 1 ESTIMACIÓN DE PARÁMETROS Estimación puntual Para estimar los parámetros de una población, es necesario disponer de algunos datos que provengan de dicha población. Cualquier muestra de observaciones proporciona cierto conocimiento acerca de la población de la cual proviene. Para medir el error muestral es necesario que dicha muestra sea ALEATORIA . Desde el punto de vista algebraico, el estimador de un parámetro es una función de las observaciones muestrales t x x x n ( , , ........ ) 1 2 , que puede ser lineal, cuadrática, etc. Ejemplos: ( ) X n x X S n x X S i i = = = = 1 1 2 2 2 2 funcion lineal de las observaciones funcion cuadratica de las observaciones µ σ El resultado numérico que se obtiene es la estimación del parámetro, en tanto que la expresión matemática (o algebraica) es el estimador del parámetro . Puede haber varios estimadores del mismo parámetro, de los cuales se pretende elegir el mejor , en base a las características o propiedades que se requiera del mismo. Propiedades de los estimadores 1.- Insesgado o no viciado : Un estimador se dice insesgado si su esperanza es igual al parámetro. Es decir : θ θ θ = ) ˆ ( ˆ E insesgado es Por el contrario, el estimador se dice viciado si su esperanza es distinta al parámetro. viciado es E θ θ θ ˆ ) ˆ ( 2.- Consistente : Un estimador se dice consistente si converge al parámetro, es decir, si su distribución se concentra alrededor del parámetro a medida que aumenta el tamaño de la muestra, de forma tal que el error de muestreo tiende a desaparecer. Es decir : { } pequeño mente arbitraria n para P si de e consistent estimador un es + < ε ε θ θ θ θ , , 1 ˆ : ˆ Si un estimador es insesgado (o asintóticamente insesgado), será consistente si su variancia tiende a cero. Es decir : e consistent es V E θ θ θ θ ˆ 0 ) ˆ ( ) ˆ ( = o bien : e consistent es V E θ θ θ θ ˆ 0 ) ˆ ( ) ˆ ( 3.- Eficiente : Decimos que un estimador no viciado es eficiente si es de mínima variancia. O sea, el estimador se dice eficiente si su variancia es menor que la de cualquier otro estimador del mismo parámetro. Es decir: Si θ ˆ es un estimador no viciado de θ , entonces θ ˆ es eficiente si * ˆ θ : 1 ) ˆ ( ) ˆ ( , , ) ˆ ( ) ˆ ( * * < < θ θ θ θ V V sea o V V Eficiencia relativa: Dados dos estimadores no viciados del mismo parámetro, se dice que es más eficiente aquél que tiene menor variancia. Es decir : Sean θ θ 1 2 y dos estimadores de θ , decimos que ; ( ) ( ) ( ) ( ) θ θ θ θ θ θ 1 2 1 2 1 2 1 es mas eficiente que si V V V V < < 4.- Suficiente :

description

estadistica

Transcript of 7-Estimacion

  • Ctedra: Probabilidad y Estadstica

    Estimacin de parmetros 1

    ESTIMACIN DE PARMETROS Estimacin puntual

    Para estimar los parmetros de una poblacin, es necesario disponer de algunos datos que provengan de dicha poblacin. Cualquier muestra de observaciones proporciona cierto conocimiento acerca de la poblacin de la cual proviene. Para medir el error muestral es necesario que dicha muestra sea ALEATORIA . Desde el punto de vista algebraico, el estimador de un parmetro es una funcin de las observaciones muestrales t x x xn( , ,........ )1 2 , que puede ser lineal, cuadrtica, etc.

    Ejemplos:

    ( )X

    nx X

    Sn

    x X S

    i

    i

    = =

    = =

    1

    12 2 2 2

    funcion lineal de las observaciones

    funcion cuadratica de las observaciones

    El resultado numrico que se obtiene es la estimacin del parmetro, en tanto que la expresin matemtica (o algebraica) es el estimador del parmetro . Puede haber varios estimadores del mismo parmetro, de los cuales se pretende elegir el mejor , en base a las caractersticas o propiedades que se requiera del mismo.

    Propiedades de los estimadores

    1.- Insesgado o no viciado : Un estimador se dice insesgado si su esperanza es igual al parmetro. Es decir :

    = )( Einsesgadoes Por el contrario, el estimador se dice viciado si su esperanza es distinta al parmetro.

    viciadoesE )(

    2.- Consistente : Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de forma tal que el error de muestreo tiende a desaparecer. Es decir :

    { } pequeomentearbitrarianparaP sideeconsistentestimadorunes +

  • Ctedra: Probabilidad y Estadstica

    Estimacin de parmetros 2

    Un estimador se dice suficiente si contiene (o absorbe) toda la informacin proporcionada por la muestra , en lo que respecta al parmetro.

    5.- Invariancia : Un estimador se dice invariante cuando una funcin del mismo es un buen estimador de la funcin del parmetro . Es decir : es invariante ( ) =g g( )

    Mtodos de estimacin puntual

    1.-Mtodo de los momentos: Consiste en estimar los momentos poblacionales a travs de los momentos muestrales .

    2.-Mtodo de los Mnimos Cuadrados: Consiste en encontrar estimadores de los parmetros de forma tal que minimicen la suma de los cuadrados de los desvos . Con este mtodo se obtienen estimadores no viciados y consistentes, pues el mismo garantiza mnima variancia y suma de desvos igual a cero .

    3.-Mtodo de Mxima Verosimilitud: Consiste en encontrar estimadores de los parmetros de forma tal que maximicen la funcin de probabilidad de la muestra. Para ello, es imprescindible conocer la distribucin de la variable en la poblacin. Este mtodo proporciona los mejores estimadores, que gozan excelentes propiedades: Insesgado (o bien, asintticamente insesgado) ,Consistente , Eficiente, Suficiente, Invariantes y de distribucin asintticamente Normal .

    Pasos a seguir para obtener los estimadores de mxima verosimilitud

    Primero se obtiene la funcin de probabilidad de la muestra ( ) ( )=

    = ni

    in xfxxxf1

    21 ,....., , tambin

    llamada funcin de verosimilitud y su expresin est dada en trminos de los parmetros y de las observaciones. Comnmente se la simboliza con ( ),XL , donde X es el vector aleatorio que representa a la muestra (o valores observados) y es el parmetro que se quiere estimar . Luego se pretende hallar el valor de que maximice a ( ),XL valor que tambin maximiza al logaritmo de la funcin : ln ( ),XL , (ya que el logaritmo es una funcin montona creciente). Por lo tanto, el segundo paso es aplicarle logaritmo a la funcin de probabilidad de la muestra ( o de verosimilitud) con el fin de simplificar la derivada.

    Se sabe que una funcin continua y derivable alcanza su valor mximo en un punto para el cual se anula su derivada. Si la funcin de probabilidad de la muestra satisface este requisito, entonces el tercer paso es derivar la funcin obtenida ln ( ),XL respecto del parmetro , y luego hallar el valor de (o la expresin de ) para el cual se satisface: ( ) 0, =

    XL.

    Inconvenientes :

    El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los de mnima variancia , pero no indica cual sea esta variancia.

    El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los que asignan mxima probabilidad a la muestra, pero obviamente se admite que dicha muestra sea posible de obtener an con diferentes valores del parmetro.

    Estas son razones por las cuales la estimacin puntual se torna impracticable (sin inters prctico), y se prefiere la estimacin por intervalos, ya que provee de ms informacin .

    Estimacin por Intervalos

    Consiste en encontrar un conjunto de nmeros reales que conforman posibles valores del parmetro.

  • Ctedra: Probabilidad y Estadstica

    Estimacin de parmetros 3

    La estimacin por intervalo se realiza utilizando un nivel de confianza , que simbolizamos con 1- y que representa la probabilidad de que dicho intervalo contenga al verdadero valor del parmetro .

    La construccin del intervalo de confianza consiste en hallar los lmites inferior y superior en funcin de la muestra obtenida. Para su obtencin es necesario conocer la distribucin del estimador del parmetro ( distribucin que obviamente depender del parmetro .). Generalmente se construye una nueva variable en la cual intervienen el estimador y el parmetro , dicha variable recibe el nombre de estadstica de prueba y la simbolizamos g( , ) .

    Su ventaja reside en que la distribucin de la estadstica de prueba ya no depende del parmetro , siendo una distribucin standard con los valores de probabilidad tabulados correspondientes a un gran nmero de valores posibles de la variable.

    Construccin de los intervalos de confianza

    Intervalo de Confianza para la media en poblaciones normales Sea ( X1 , X2 , ... , Xn ) una muestra aleatoria extrada de una poblacin normal, luego, i = 1 .. n : X ~ N( , ) . Por lo tanto tenemos que:

    X1 , X2 , ... , Xn iid N( , ). Xn

    Xi N n= 1 ~ ( , ) y ( )X

    n

    N

    ~ ,0 1

    a) Si 2 es conocido, entonces el intervalo para se obtiene

    =

  • Ctedra: Probabilidad y Estadstica

    Estimacin de parmetros 4

    Para n suficientemente grande, la variable binomial se distribuye aproximadamente normal ,

    aproximadamente : X ~ ( )npqnpN , y

    =

    npqpNX

    nh i ,~

    1

    donde hnpq = es un valor desconocido puesto que no se conoce el valor del parmetro p, por lo

    tanto se utiliza el estimador del desvo sh h

    nh h= =

    ( ) 1 , obteniendo la siguiente distribucin, que es

    aproximadamente normal: ( )h ph h

    n

    N( ) ~ ,1 0 1

    Dicha aproximacin es buena para muestras de tamao suficientemente grandes, y el mnimo tamao de muestra depende del valor de h. W.G. Cochran da una regla prctica para ser utilizada en la bsqueda de intervalos de confianza del 95%, correspondientes a la proporcin poblacional p.

    Proporcin emprica h Tamao mnimo de muestra n

    0.5 30 0.4 o 0.6 50 0.3 o 0.7 80 0.2 0 0.8 200 0.1 o 0.9 600

    0.05 o 0.95 1400 Para estos valores de n se obtiene una buena aproximacin Normal vlida para la construccin de intervalos del 95% de confianza.

    nhhzhp

    nhhzh )1()1( 22

    +

  • Ctedra: Probabilidad y Estadstica

    Estimacin de parmetros 5

    a) Si x y y2 2 son conocidos, el intervalo de confianza para yx se obtiene de la siguiente manera:

    mnzYX

    mnzYX yxyx

    yx22

    2

    22

    2

    ++

  • Ctedra: Probabilidad y Estadstica

    Estimacin de parmetros 6

    obteniendo la siguiente distribucin aproximadamente normal h h p p

    h h

    n

    h h

    m

    N1 2 1 2

    1 1 2 21 10 1

    +

    ( )

    ( ) ( )~ ( , )

    vlida para muestras suficientemente grandes. Los intervalos de confianza para p p1 2 sern de la forma: ( ) ( )h h z S p p h h z Sh h h h1 2 2 1 2 1 2 21 2 1 2 < < + con el (1-).100% de confianza

    Intervalo de Confianza para la variancia en poblaciones normales

    Sean X1 , X2 , ... , Xn iid N( , ). Entonces X N i ni = ~ ( , ) ,....0 1 1

    =

    Xii

    nn

    1

    22~ y X Xi

    i

    nn

    = 12

    12~

    Como ( ) ( )X X n Si

    i

    n x

    =

    = 1

    2 2

    2

    1 tenemos que:

    ( ).~

    ( )n S xn

    1 2

    2 12

    Basado en esta informacin, sabemos que:

    =

  • Ctedra: Probabilidad y Estadstica

    Estimacin de parmetros 7

    Por ser independientes resulta que :

    ( )

    ( )

    ( )

    ( )

    ( ). ~

    ( )

    ,

    n S

    n

    m S y

    m

    S

    S

    y

    xF

    x

    x

    y

    x

    yn m

    =

    1

    1

    1

    1

    2

    2

    2

    2

    2

    2

    2

    2 1 1

    y anlogamente se deduce que: ( )

    S yS y

    Fx

    xm n

    ( ). ~ ,

    2

    2

    2

    2 1 1

    Basado en esta informacin, sabemos que: ( )

    P FS y

    S yFm n

    x

    xm n