Método de Máxima Verosimilitud Aplicado a Los Estimadores de La Normal

4
111Equation Chapter 1 Section 1 INSTITUTO TECNOLÓGICO DE ORIZABA Estadística Presenta: Arellano Hernández Luis Eduardo Catedrático: Dr. Mario Leoncio Arrioja Rodríguez Fecha de entrega: 15 de Marzo de 2015

description

Expliacación del método de Máxima Verosimilitud aplicado a los estimadores de la normal

Transcript of Método de Máxima Verosimilitud Aplicado a Los Estimadores de La Normal

Page 1: Método de Máxima Verosimilitud Aplicado a Los Estimadores de La Normal

111Equation Chapter 1 Section 1INSTITUTO TECNOLÓGICO DE ORIZABA

Estadística

Presenta:

Arellano Hernández Luis Eduardo

Catedrático:

Dr. Mario Leoncio Arrioja Rodríguez

Fecha de entrega:

15 de Marzo de 2015

Page 2: Método de Máxima Verosimilitud Aplicado a Los Estimadores de La Normal

Método de Máxima Verosimilitud aplicado a los estimadores de

la Normal

El método de estimación de máxima verosimilitud permite, en el caso de un parámetro o n vector de parámetros poblacionales desconocidos, determinar el estimador o vector de estimadores que maximizan la función de probabilidad conjunta de una muestra de n v.a. seleccionadas de la población en estudio. (Evans & Rosenthal, 2005)

Sea f (x,θ ) la fdp de una población en la cual queremos determinarθ .

Sea x1,x2,….,xn una muestra de v.a. iid seleccionadas de dicha población, a la función de

probabilidad conjunta L(θ ) de las n v.a. de la muestra la llamaremos función de verosimilitud maestral, es decir:

L (θ )=L(x1,x2,….,xn; θ )

Pero como las v.a. son independientes tenemos: L(θ ) = f(x1,θ ) f(x2,θ )….f (xn,θ ). Es decir:

L (θ )=∏i=1

n

f ( x i ,θ)

Estimador de máxima verosimilitud

El Estimador de máxima verosimilitud del parámetro θ es θ̂ siempre que L(θ̂ ) sea el valor de máxima probabilidad de la función de verosimilitud L es decir:

θ̂ es el Estimador de máxima verosimilitud de θ si y solo si L(θ̂ ) es máximo.

En la expresión L(θ )=∏i=1

n

f ( x i ,θ) la función de verosimilitud varia con el parámetro θ y

para el proceso de optimización se considera que las x i son constantes luego de haber determinado la muestra aleatoria.

Observe que como la función logaritmo natural es siempre creciente el EMV de L(θ )

también optimiza a Ln (L(θ )) y podemos definir:

l(θ )=Ln (L(θ ))= Ln (∏i=1

n

f ( x i ,θ))=∑i=1

n

ln f (x i ,θ)

Page 3: Método de Máxima Verosimilitud Aplicado a Los Estimadores de La Normal

y optimizar así: l' (θ )=∑

i=1

n f ' ( x i ,θ)f ( xi ,θ )

=0. Si θ=θ̂ maximiza a l(θ ) es claro que l

' ( θ̂)=0 y

l' '( θ̂ )<0.

Ejemplo para una distribución normal

Vamos a calcular el Estimador de máxima verosimilitud. del parámetro de una

N( ).

La verosimilitud de la muestra (x1,... ..., Xn) es:

Su logaritmo es:

Las derivadas parciales con respecto a los parámetros µ,σ 2 son:

Que se anulan en:

Evans, M., & Rosenthal, J. (2005). Probabilidad y estadistica: La ciencia de la incertidumbre. Barcelona: Reverté.