ÉSTIMACIÓN-PUNTUAL-v4

74
1 ESTADÍSTICA APLICADA

description

estimacion puntual- estadistica aplicada

Transcript of ÉSTIMACIÓN-PUNTUAL-v4

1

ESTADÍSTICA APLICADA

2

Mapa conceptual

ESTADÍSTICA Conceptos

Básicos Estadística Descriptiva

Población Muestra

PROBABILIDAD Conceptos Básicos

Distribuciones de Probabilidad

Distribuciones en el Muestreo

Desigualdad de Tchebysheff, Ley de los grandes Números,

Teorema Central del Limite.

INFERENCIA

Estimación Prueba de Hipótesis para una y dos

poblaciones

Parámetro Estimador

Discretas, Binomial, otras

Continuas, Normal, ji-cuadrado, t de

Student

Puntual Por intervalos

3

4

Particularmente

En General:

5

1. Conocer la población, la distribución que sigue la variable poblacional y el parámetro p a estimarLa población es el universo compuesto por M elementos o individuos del quese desea conocer el valor de determinado parámetro p

Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá unnuevo producto?Si la variable aleatoria X se define como “disposición a consumir el nuevoproducto”, su distribución será Bernoulli de parámetro p desconocido

2. Determinar la aproximación que se va a utilizar para la determinación del parámetro poblacional a partir de la información muestralLa muestra es la parte de la población compuesta por n elementos, n<M, de la que se pretende extraer conclusiones generalizables para la población, con un margen de error

Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá unnuevo producto?Aproximación: % de los n individuos dispuestos a consumir el producto

PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA

Pasos:

6

3. Extracción de la muestra aleatoriaUna m.a. está compuesta por v.a. i.i.d.: a) las v.a. están idénticamente distribuidas, lo que no implica que midan lo mismoni que tomen lo mismos valores: b) las v.a son independientes, lo que implica que el valor que toma una variable esindependiente del que tome otra

{ }1 nX ,...,X

iX XF F (t)=

4. Obtener la muestra o datos { }1 nx ,..., x

5. Elegir el estadístico muestralDefinición de estadístico muestral: cualquier función de los elementos de lamuestra (por tanto variable aleatoria) que informa sobre el parámetro a determinar

Ejemplo: ¿Qué porcentaje de una población de M individuos consumirá unnuevo producto?

Estadístico muestral: El parámetro poblacional p es la media de la variablealeatoia poblacional X. El estadístico muestral apropiado será la media muestral

PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA

[ ] pXE =

7

6. Obtención del valor para el parámetro desconocido

Teoría de la estimaciónEstimación puntual

Estimación por intervalos

7. Realizar afirmaciones sobre el valor del parámetro o sobre la distribuciónpoblacional susceptibles de ser refutadas

Contrastaste de hipótesisParamétricas

Simples

Compuestas

No Paramétricas

PROCEDIMIENTO DE LA INFERENCIA ESTADÍSTICA

8

ESTADÍSTICOS Y DISTRIBUCIONES MUESTRALESDe la extracción de la muestra (método de muestreo) y de la elección delestadístico muestral dependerá la calidad de los resultados respecto a laaproximación al parámetro poblacional

PROPIEDADES DEL ESTADÍSTICO MUESTRAL

1. Es una variable aleatoria y, como tal, susceptible de cualquier medida estadística

2. Proviene de la muestra, con lo que sólo sirve para extraer aproximaciones al verdadero valor del parámetro poblacional desconocido

3. A mayor tamaño muestral, menor incertidumbre en la aproximación

9

10

Notación

MUESTRAALEATORIA

Momentos muestrales: desconocidos, no constantesn

kk i

i 1

1M Xn =

= ∑ 2 2n nX, , SΣ

POBLACIÓNMomentos poblacionales: desconocidos, constantes

kkm E X =

2, µ σ

MUESTRA

Valor estimado del momento muestral: conocidos,constantes

nk

k ii 1

1m̂ xn =

= ∑ 2 2n n

ˆˆx, , SΣ

Relación entre momentos muestrales y momentos poblacionales 2

kVar Mnσ

=

k kE M m =

Se espera que el k-ésimo momento muestral coincida con el k-ésimo momento poblacional La varianza del k-ésimo momento muestral es la varianza poblacional dividida por n

11

Ejemplo

12

Ejercicio

13

TEORÍA DE LA ESTIMACIÓNSea X una v.a.

¿Cómo se determina el valor de γ?

Conjunto paramétrico: Γ

Restringir el conjunto paramétrico

Definición de estimador(estadístico muestral) Muestra

Cálculo de la estimación

Estimaciónpuntual

Estimaciónpor intervalos

Γ̂

γ̂

14

MÉTODOS DE OBTENCIÓN DE ESTIMADORES

MÉTODO DE LA MÁXIMA VEROSIMILTUD (MV)

El estimador se obtiene maximizando la función de verosimilitud L (probabilidad

de observar la muestra observada para cada valor asignado al parámetro)

a) Caso unidimensional (un parámetro a estimar). Ya sea el caso discreto o continuo, se deberá derivar la función L respecto al parámetro desconocido.

( )( )

( )

n

ii 1n

X ii 1

P X x , caso discretoL

f x , caso continuo

=

=

=γ =

El valor que maximice esta función (la estimación) coincidirá con aquel para el que la probabilidad de observar la muestra realmente observada sea máxima

Los estimadores MV son los más usados porque basan la estimación en la información muestral (función de verosimilitud) y porque cumplen algunas propiedades deseables

b) Caso bidimensional (dos parámetros a estimar). Ya sea el caso discreto o continuo, se deberá derivar la función L respecto a los dos parámetros desconocidos.

15

Procedimiento

Sea X una variable aleatoria cuya distribución de probabilidaddepende del parámetro desconocido θ. Sea la función dedensidad de probabilidad de la población f(x,θ).

1. Se toma una muestra aleatoria x1, x2, ..., xn de observacionesindependientes y se calcula la densidad conjunta de la muestra:la función de verosimilitud y se expresa como:

( )∏=

=

⋅⋅⋅=n

iin

nn

xf, θ,...,xL(x

, θf(x... , θ f(x, θf(x, θ,...,xL(x

11

211

,)

))))

θ

16

MVθ̂

L

θ̂

Si de una población cualquiera hemos obtenido una muestra particular, es razonable pensar que la muestra obtenida era la que mayor probabilidad tenía de ser escogida.

Valor del estimador máxima verosimilitud

Funciónmáxima verosimilitud

17

Si los valores posibles de θ son discretos, el procedimientoes evaluar L(x,θ) para cada valor posible y elegir el valor deθ para el cual L alcanza su máximo.

Por otro lado, si L(x,θ) es diferenciable se puede maximizarL sobre el rango de valores posibles de θ obteniéndosecondiciones de primer y segundo orden.

2. En la práctica es más fácil maximizar el logaritmo de lafunción de verosimilitud. Como la función logaritmo es unatransformación monótona, maximizar L(x,θ) es equivalente amaximizar Ln(L(x,θ)).

18

3. Derivamos respecto al parámetro-objetivo.

4. Igualamos a cero para encontrar el máximo de la función

5. Verificamos la condición de máximo

19

EjercicioSupongamos que los tiempos de fallos de ciertascomponentes electrónicas, X, provienen de unadistribución exponencial de parámetro θ. Dada unamuestra de n componentes, obtenga el E.M.V. de θ.

20

SoluciónLa función de densidad es:

Y se dispone de los tiempos de fallo de ncomponentes elegidas al azar x1, x2,…, xn.

La función de verosimilitud está dada por:

21

Resolviendo la ecuación de verosimilitud

se concluye que el EMV para θ por esteprocedimiento viene dado por

22

Ejercicio

23

Solución

24

25

Ejercicio

26

Solución

27

28

29

EL MÉTODO DE LOS MOMENTOS

Fue introducido por K. Pearson y es el método general más antiguo y sencillopara la obtención de estimadores de parámetros poblacionales. En algunasocasiones se suele utilizar para obtener una primera aproximación de losestimadores. Este método consiste en igualar tantos momentos muestralescomo parámetros haya que estimar, a los correspondientes momentospoblacionales, que son funciones de los parámetros desconocidos, yresolviendo el sistema de ecuaciones resultante tendríamos los estimadores delos parámetros.

Procedimiento

30

31

32

Ejemplo

Solución:

33

Luego igualando

34

35

Ejemplo

Solución:

36

37

38

39

Realizada la estimación de un parámetro cabepreguntarse:

• ¿ Es exacta la estimación?

• ¿Es probable que la estimación sea alta o baja?

• ¿Con otra muestra se obtendría el mismo resultado, obastante diferente?

• ¿La calidad de un procedimiento de estimación mejorabastante si la estadística de la muestra es menos variable einsesgada a la vez?

40

El estimador es un estadístico muestra, y, como tal, es cualquier función de la muestra. Portanto, y aunque los derivados de alguno de los métodos de estimación sean siempre másapropiados, dependiendo del parámetro desconocido, la elección del estimador generará unamejor o peor aproximación al verdadero valor del parámetro. De ahí, la importancia dedefinir propiedades de los estimadores que permitan realizar la elección del estimador deforma más adecuada. Un estimador será mejor cuantas más propiedades cumpla.

1. Insesgadez

n n

ˆ ˆDefinición : es insesgado si E

ˆ ˆ ˆ ˆSi E : b( ) E (sesgo de )

ˆ ˆ ˆSi lím b( ) 0 lím E es asintóticamente insesgado→∞ →∞

Γ Γ = γ Γ ≠ γ Γ = Γ − γ Γ

Γ = ⇔ Γ = γ ⇒ Γ

Propiedades de los estimadores

Estima exactamente

41

42

2. Eficiencia y Preferibilidad

43

[ ] θγ

γ ˆ),(lnˆ12

∂=Γ

yfnEVar

Nota:

a) Si es eficiente

b) Sean dos estimadores de . Se llama

eficiencia relativa de a:

21 θθ ~ˆ y θ

12 θθ ˆ/~ rc

( ) ( )( )1

212 θ

θθθ ˆ

~ˆ,~

ECMECMef =

44

Ejemplo

45

Solución

46

47

48

EjemploDemostrar que dada una población N(µ, σ2) se verifica que la mediamuestral es un estimador eficiente de la media poblacional µ

SoluciónEn efecto

X

2

2)(21

ln2

1ln);(ln σµ

πσµ

−−

+=x

exf

2

2)(21

21ln

σµ

πσ−

−=x

2);(ln(

σµ

µµ −

=∂

∂ xxf

49

=

∂ 2

2

2);(ln(

σµ

µµ XnExfnE

( )[ ]24 µ

σ−= XEn

22

44 )(σ

σσσ

nnXVarn===

nxfnE

XVarVar2

2);(ln(

1)()ˆ( σ

µµ

µ =

∂==

Luego

50

Ejemplo

Solución

51

´´´´´´´´´´´´´´´´´´´´´´´´´´´

52

53

54

3. Consistencia

( )

( )( )

( )

P

n

m.c P

2 nm.c n

n

n

ˆ ˆ ˆDefinición : es un estimador consistente de 0 : lím P 0

ˆ ˆ ˆSi es consistenteˆlím Var ˆ es un eˆ ˆSi lím E 0 ECM 0

ˆlím b

→∞

→∞→∞

→∞

→∞

Γ γ ⇔ ∀ε > Γ − γ > ε = ⇔ Γ→γ

Γ→γ ⇒ Γ→γ ⇒ Γ

Γ Γ Γ→γ ⇔ Γ − γ = ⇒ → ⇔ ⇒ Γ

stimador

fuertementeconsistente

55

56

Ejemplo

Solución

57

58

Estimador = Tiro al blanco

Resumen práctico

59

60

PROPIEDADES DE LOS ESTIMADORES OBTENIDOSPOR EL MÉTODO DE LOS MOMENTOS

61

Ejercicio 1

EJERCICIOS RESUELTOS

62

Solución

63

Ejercicio 2

64

Solución

65

Ejercicio 3

si

Obtener el valor esperado y la varianza de S2. ¿Es consistente?

66

Solución

como

tenemos

67

Luego

Por tanto, S2 es un estimador consistente para σ2

68

Ejercicio 4

69

Solución

70

Ejercicio 5

71

Solución

72

73

74

Ejercicio 6La v. a. X sigue distribución U(0, θ), donde θ es unvalor positivo y desconocido. Se extrae una m. a. s.de tamaño n (n>2). ¿Dado los estimadores siguientesde θ, ¿Cuáles de los siguientes errores cuadráticosmedios son correctos?