COLEGIO DE POSTGRADUADOS INSTITUCIÓN DE ENSEÑANZA E INVESTIGACIÓN EN CIENCIAS AGRÍCOLAS
CAMPUS MONTECILLO
SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA ESTADÍSTICA
PRUEBA DE BONDAD DE AJUSTE PARA LA DISTRIBUCIÓN GUMBEL, BASADA EN LA
DIVERGENCIA DE KULLBACK-LEIBLER
PAULINO PÉREZ RODRÍGUEZ T E S I S
PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER EL GRADO DE:
M A E S T R O EN C I E N C I A S
MONTECILLO, TEXCOCO, EDO. DE MÉXICO 2005
ii
La presente tesis titulada: PRUEBA DE BONDAD DE AJUSTE PARA LA
DISTRIBUCIÓN GUMBEL, BASADA EN LA DIVERGENCIA DE
KULLBACK-LEIBLER, realizada por el alumno: Paulino Pérez Rodríguez, bajo
la dirección del Consejo Particular indicado, ha sido aprobada por el mismo y
aceptada como requisito parcial para obtener el grado de:
MAESTRO EN CIENCIAS
SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA ESTADÍSTICA
CONSEJO PARTICULAR
CONSEJERO
Dr. Humberto Vaquera Huerta
ASESOR
Dr. José A. Villaseñor Alva
ASESOR
Dr. Barry C. Arnold
MONTECILLO, TEXCOCO, EDO. DE MÉXICO; DICIEMBRE DEL 2005
iii
AGRADECIMIENTOS
Al Consejo Nacional de Ciencia y Tecnología (CONACYT) por el apoyo económico
brindado durante la realización de mis estudios.
Al Colegio de Postgraduados, por haberme brindado la oportunidad de seguir mi
formación académica en sus aulas.
A los integrantes de mi Consejo Particular:
Al Dr. Humberto Vaquera Huerta mi más sincero agradecimiento, por sus atinadas
indicaciones y consejos mismos que me fueron de gran utilidad en la realización del
presente trabajo de tesis.
Al Dr. José Villaseñor Alva por su orientación, apoyo y colaboración desinteresada en el
presente trabajo.
Al Dr. Barry C. Arnold, por sus consejos tan atinados y por dedicar parte de su tiempo en
la revisión de este trabajo de tesis.
A mis profesores, compañeros de clase y todas aquellas personas que de alguna manera
fueron coparticipes de esta tarea, a todos gracias.
iv
DEDICATORIA
A mis padres y hermanos… y
A mi esposa e hija.
v
CONTENIDO
1. INTRODUCCIÓN................................................................................................................................... 1
2. OBJETIVOS............................................................................................................................................ 2
3. MARCO TEÓRICO ............................................................................................................................... 3
3.1. LA DISTRIBUCIÓN DE VALORES EXTREMOS TIPO GUMBEL........................................................................ 3
3.2. PRUEBAS DE BONDAD DE AJUSTE ............................................................................................................. 5
3.3. ENTROPÍA DE UNA FUNCIÓN DE DENSIDAD DE PROBABILIDADES PARA EL CASO CONTINUO .................... 6
3.4. DIVERGENCIA DE KULLBACK-LEIBLER .................................................................................................... 7
3.5. ENTROPÍA Y DIVERGENCIA DE KULLBACK-LEIBLER EN LAS PRUEBAS DE BONDAD DE AJUSTE ................. 8
4. PRUEBA DE BONDAD DE AJUSTE PARA LA DISTRIBUCIÓN GUMBEL, BASADA EN LA
DIVERGENCIA DE KULLBACK-LEIBLER ............................................................................................ 10
4.1. PLANTEAMIENTO DEL PROBLEMA .......................................................................................................... 10
4.2. CONSTRUCCIÓN DE LA PRUEBA .............................................................................................................. 10
4.3. IMPLEMENTACIÓN DE LA PRUEBA .......................................................................................................... 13
5. ESTUDIO DE SIMULACIÓN MONTE CARLO PARA ESTIMAR LA POTENCIA DE LA
PRUEBA CONTRA ALGUNAS ALTERNATIVAS Y EL TAMAÑO DE LA MISMA. ........................ 21
5.1. POTENCIA DE LA PRUEBA ....................................................................................................................... 21
5.2. TAMAÑO DE LA PRUEBA ......................................................................................................................... 31
6. EJEMPLOS DE APLICACIÓN DE LA PRUEBA PROPUESTA................................................... 33
7. CONCLUSIONES Y RECOMENDACIONES .................................................................................. 38
8. REFERENCIAS .................................................................................................................................... 39
ANEXOS.......................................................................................................................................................... 41
ANEXO A.................................................................................................................................................... 41
ANEXO B .................................................................................................................................................... 42
ANEXO C .................................................................................................................................................... 46
ANEXO D.................................................................................................................................................... 51
ANEXO E .................................................................................................................................................... 68
vi
RESUMEN
En el presente trabajo se propone y desarrolla una prueba de bondad de ajuste para la
distribución Gumbel, basada en la divergencia de Kullback-Leibler. El procedimiento es
aplicable cuando se especifican o no los parámetros de localidad y escala, bajo la hipótesis
nula. La prueba utiliza el estimador de la entropía propuesto por Vasicek, lo cual requiere
que se fije primero el valor del parámetro m. Para escoger el valor de m se utiliza la
metodología propuesta por Sheng (2002). Los valores críticos de la prueba se obtienen
utilizando simulación Monte-Carlo para varios tamaños de muestras y niveles de
significancia. La potencia de la prueba propuesta es comparada con la de la prueba de
Kolmogorov desarrollada por Chandra et al (1981) y la del coeficiente de Correlación de
Kinnison (1989) para varios tamaños de muestras, niveles de significancia y considerando
diversas alternativas. La potencia de la prueba propuesta es muy similar a la del
Coeficiente de Correlación y la de Kolmogorov, sin embargo, en el caso de alternativas
como la Weibull, Normal, Gamma y Fréchet estándar es superior.
Palabras clave: Prueba de Coeficiente de Correlación, Prueba de Kolmogorov, Entropía.
ABSTRACT
In this paper, a test of goodness of fit for the Gumbel distribution is proposed and
developed, based on the estimated Kullback-Leibler divergence. The procedure is
applicable whether the locality and scale parameters are or are not specified under the null
hypotheses. The test uses the Vasicek entropy estimate, which requires that the value of the
parameter m be specified first. To choose the value of m, the test uses the methodology
proposed by Sheng (2002). The critical values of the test were computed for various sample
sizes and significance levels by Monte Carlo simulations. The power of the proposed test is
compared with that of the Kolmogorov test developed by Chandra et al (1981) and the
Correlation Coefficient test proposed by Kinnison (1989), considering various sample sizes
and significance levels and considering some alternatives. The power of the proposed test is
very similar to that of the Correlation Coefficient’s and Kolmogorov’s and in the case of
alternatives such that Weibull, Normal, Gamma and Standard Frechét it is superior.
Key words: Correlation Coefficient Test, Kolmogorov’s Test, Entropy.
1
1. INTRODUCCIÓN Las pruebas de bondad de ajuste son importantes en cualquier análisis de datos. Estas
pruebas permiten saber si los datos que se están manejando satisfacen los supuestos
distribucionales requeridos en los métodos estadísticos, que se utilizarán para hacer el
proceso de inferencia con los mismos.
En el caso de la distribución Gumbel, que es ampliamente utilizada en análisis de datos
extremos en áreas como la hidrología, finanzas, ciencias ambientales, entre otras; existen
ya diversas pruebas de bondad de ajuste, pero ninguna de ellas es la mejor en forma
absoluta. Mann, Shafer y Singpurwalla (1974) crearon un método basado en las diferencias
de las estadísticas de orden adyacentes divididas por sus esperanzas. Tsujitani, Ohta y Kase
(1980) presentaron un método basado en la entropía muestral. Chandra, Singpurwalla y
Stephens (1981) desarrollaron una estadística parecida a la de Kolmogorov, permitiendo
además la estimación de los parámetros desconocidos, por el método de máxima
verosimilitud. Kinnison (1989) obtuvo una tabla por medio de simulación Monte Carlo para
hacer la prueba de bondad de ajuste para esta distribución, utilizando como estadística de
prueba el coeficiente de correlación.
Las pruebas de bondad de ajuste basadas en la divergencia de Kullback-Leibler o bien en la
entropía muestral son consistentes y tienen propiedades deseables de potencia, lo cual las
hace muy atractivas para los investigadores en el campo de la Estadística.
En el presente trabajo se desarrolla una prueba de bondad de ajuste para la distribución
Gumbel, utilizando la metodología propuesta por Sheng (2002) la cual se basa en
estimaciones de la divergencia de Kullback-Leibler (1951). También se generan las tablas
de valores críticos para diferentes tamaños de muestra y niveles de significancia. La
potencia de la prueba propuesta es comparada con la de otros procedimientos que se
utilizan con la misma finalidad.
2
2. OBJETIVOS 2.1. Objetivos Generales
• Desarrollar una prueba de bondad de ajuste para la distribución de valores extremos
tipo Gumbel, utilizando la divergencia de Kullback-Leibler
2.2. Objetivos particulares
• Obtener la tabla de valores críticos para la prueba de bondad de ajuste de la
distribución antes mencionada para diferentes niveles de significancia.
• Estudiar el comportamiento de la prueba respecto a su tamaño.
• Comparar la potencia de la prueba con la del Coeficiente de Correlación y la de
Kolmogorov bajo las distribuciones alternativas siguientes: Weibull, Log-Normal,
Normal, Logística, Cauchy estándar, t, Gamma y Fréchet estándar.
3
3. MARCO TEÓRICO 3.1. La distribución de valores extremos tipo Gumbel
La distribución de valores extremos Tipo I, o también denominada Gumbel, es el modelo
tradicional en el análisis de datos extremos, y en este campo juega un papel similar al de la
distribución normal en otras aplicaciones. La mayor ventaja del modelo Gumbel es que su
distribución puede ser especificada por sus parámetros de localidad y escala, como en el
caso Gaussiano (Reiss y Thomas, 2001).
Si X es una variable aleatoria con distribución Gumbel su función de densidad está dada
por:
( , )
1exp exp ( ), , 0
( )
0 de otro modoX
x xI x
f x
ξ ξξ θ
θ θ θ −∞ ∞
− − − − − ∈ > =
ℝ (1.1)
y la función de distribución de X es:
( , )( ) exp ( )X
xF x I x
ξθ −∞ ∞
− = −
(1.2)
Si en (1.1) 0ξ = y 1θ = , o de forma equivalente, si se define la variable aleatoria
( ) /Y X ξ θ= − , entonces se obtiene la forma estándar de la densidad (Johnson y Kotz
1995), dada por:
{ }{ } ( , )( ) exp exp ( )Yf y y y I y−∞ ∞= − − − (1.3)
Si se define la variable aleatoria { }exp ( ) / exp{ }Z X Yξ θ= − − = − , entonces Z tiene la
distribución exponencial estándar dada por:
(0, )( ) exp{ } ( )Zf z z I z∞= − (1.4)
La función generatriz de momentos de Y es:
4
{ } { }( )
( ) (1 ) para 1X
ttY t
Ym t E e E e E Z t t
ξθ−
− = = = = Γ − <
(1.5)
Al reemplazar t , por tθ , entonces se puede observar que la función generatriz de
momentos de X está dada por:
{ }( ) exp (1 ) para 1Xm t t t tξ θ θ= Γ − < (1.6)
A partir de la función generatriz de momentos se pueden obtener la media y la varianza de
la distribución dados por:
{ }E Xµ ξ θγ= = + (1.7)
Donde 0.577216...es la denominada constante de Eulerγ ≈
2 2
2 2{( ) }6
E Xπ θ
σ µ= − = (1.8)
En la figura 1 se muestra la gráfica de la densidad de valores extremos Tipo Gumbel en su
forma estándar:
-2 0 2 4 6y
0.05
0.1
0.15
0.2
0.25
0.3
0.35
fYHyL
fyHyL=exp8-y-exp8-y<<IH-¶,¶LHyL
Figura 1. Forma estándar de la distribución de valores extremos Tipo Gumbel
5
3.2. Pruebas de bondad de ajuste
Sean 1,..., nx x observaciones independientes de una variable aleatoria con función de
distribución ( )F x la cual es desconocida. Supóngase que se desea probar:
0 0: ( ) ( )H F x F x= (1.9)
donde 0 ( )F x es una distribución particular, la cual puede ser continua o discreta. El
problema de probar (1.9) es denominado el problema de la “prueba de bondad de ajuste”
(Kendall y Stuart, 1973). Es decir, el problema consiste en verificar si un conjunto de datos
vienen de una distribución en particular, para lo cual se observa los mismos y
posteriormente se decide si se rechaza o no se rechaza 0H .
En el caso de la distribución de valores extremos Tipo Gumbel, existen varios
procedimientos para verificar si un conjunto de datos vienen de esta distribución (Reiss y
Thomas, 2001), entre los más usados destacan los siguientes:
• Las pruebas basadas en espacios (Diferencias entre las estadísticas de orden)
• La prueba de 2χ
• La prueba de Kolmogorov-Smirnov
Además de los procedimientos mostrados arriba, en la literatura se pueden encontrar
referencias a otras pruebas de bondad de ajuste. Stephens (1977) propuso una prueba de
bondad de ajuste para la distribución de valores extremos, basada en la distribución
empírica de las estadísticas W2, U2 y A2:
22 1 1
²2 12i
i
iW z
n n
− = − +
∑ (1.10)
2 2 2( 1/ 2)U W n z= − − (1.11)
6
( ){ }21
12 1 log log(1 )i n i
i
A n i z zn
+ −= − − − + −∑ (1.12)
Donde n es el tamaño de muestra, 1/ ii
z n z= ∑ , ( )i iz F x= , 1 2 nx x x≤ ≤ ≤⋯ , ( )F ⋅ está
dada por (1.2), si los parámetros son desconocidos entonces son substituidos por sus
correspondientes estimadores de máxima verosimilitud.
Stephens obtuvo los puntos críticos en los tres casos, cuando uno o ambos de los
parámetros deben ser estimados a partir de la muestra. Tsujitani, Ohta y Kase (1980)
presentaron un método basado en la entropía muestral. Chandra, Singpurwalla y Stephens
(1981) obtuvieron los puntos porcentuales para la estadística de Kolmogorov-Smirnov D+,
D- y D para probar si un conjunto de datos se ajusta a la distribución de valores extremos.
Öztürk, A (1986) obtuvo una prueba de bondad de ajuste para la misma distribución basado
en la estadística W de Shapiro-Wilk. Los valores críticos para la prueba fueron obtenidos
utilizando simulación Monte Carlo. Kinisson, R. (1989), propuso una prueba de bondad de
ajuste para la distribución Gumbel basada en el coeficiente de correlación, obteniendo los
puntos críticos por medio de simulación Monte Carlo.
3.3. Entropía de una función de densidad de probabilidades para el caso continuo
La entropía de una variable aleatoria X, con función de distribución ( ; )F x θ y función de
densidad continúa ( ; )f x θ y soporte en [ , ]a b , fue definida por Shannon (1948), por medio
de la expresión siguiente:
( ) ( ) log ( )b
a
H f f x f x dx= −∫ (1.13)
a puede tomar el valor de −∞ y b el valor de +∞ Para conocer la entropía de una función de densidad de probabilidades su distribución tiene
que ser completamente especificada, pero muchos investigadores han desarrollado métodos
no paramétricos para estimarla, entre los que destaca el propuesto por Vasicek(1976). Para
motivar el desarrollo del estimador, se expresa ( )H f como:
7
1
1
0
( ) log ( )d
H f F p dpdp
− =
⌠⌡
(1.14)
usando el hecho de que la pendiente 1( )d
dpF p− se puede expresar en la forma:
11
1( )
( ( ))
dF p
dp f F p
−−= (1.15)
De este modo para tener una idea del valor de la pendiente hay que estimar F con la
función de distribución empírica Fn y reemplazar el operador de diferenciación por una
diferencia entre dos cantidades. Esto conduce a un estimador muy simple de la pendiente
que se obtiene como el producto de 2nm y la diferencia entre dos cuantiles muestrales, con
lo cual el estimador de la entropía está dado por:
( )( ) ( )1
1log
2
n
mn i m i m
i
nH X X
n m+ −
=
= −
∑ (1.16)
Donde m es un entero positivo más pequeño que n/2, ( ) (1)jX X=
si ( ) ( )1, j nj X X< = si j n> y )()1( ... nXX ≤≤ son las correspondientes estadísticas de
orden, basadas en una muestra aleatoria de tamaño n.
3.4. Divergencia de Kullback-Leibler
La divergencia de Kullback-Leibler o entropía relativa es una cantidad que mide la
diferencia entre dos funciones de densidad de probabilidad
La entropía relativa entre dos funciones de densidad de probabilidades yf g
respectivamente se define de la manera siguiente:
( )( , ) ( ) log
( )
f xKL f g f x dx
g x
∞
−∞
=
⌠⌡
(1.17)
8
Donde ( , ) 0KL f g ≥ , con igualdad estricta si y solo si ( ) ( )f x g x= .
3.5. Entropía y divergencia de Kullback-Leibler en las pruebas de bondad de ajuste
Las pruebas de bondad de ajuste basadas en la entropía muestral o bien en divergencia de
Kullback-Leibler son consistentes y presentan un buen desempeño. Vasicek (1976) propuso
una prueba de normalidad, basada en el hecho de que la entropía de esta distribución
excede a la de cualquier otra distribución que tenga la misma varianza. Este autor
demuestra por medio de simulación Monte Carlo que la prueba que él propone es
consistente y su potencia es comparable a la de otras pruebas que se utilizan para probar
normalidad.
Arizono y Otha (1976) desarrollaron otra prueba para normalidad, pero basada en la
divergencia de Kullback-Leibler, que puede ser aplicada para hipótesis simples y
compuestas. Estos autores obtuvieron los valores críticos de la prueba por medio de
simulación e hicieron un estudio comparativo de la potencia de la prueba propuesta con la
de la prueba de Kolmogorov-Smirnov, Crámer von-Mises, Crámer von-Mises ponderado,
2χ y la prueba de Kolmogorov Smirnov modificada por Durbin. La prueba propuesta fue
la más potente bajo las alternativas no normales consideradas.
Ebrahimi et al (1992) desarrollaron una prueba de exponencialidad basada en la
divergencia de Kullback-Leibler. El procedimiento de prueba es aplicable cuando se
especifica o no el parámetro de la distribución exponencial. Los valores críticos de la
prueba fueron calculados utilizando simulación Monte Carlo. La potencia de la prueba fue
estudiada considerado diversas alternativas y comparada con la de pruebas que se utilizan
frecuentemente para probar exponencialidad. Los resultados obtenidos muestran que la
prueba propuesta casi siempre es superior a la de las otras pruebas.
9
Sheng (2002) presentó una metodología general para desarrollar pruebas de bondad de
ajuste con distribución libre asintótica basada en la divergencia de Kullback-Leibler. El
procedimiento puede ser aplicado a una gama amplia de distribuciones, entre las que
destacan las distribuciones siguientes: Normal, log-normal, logística, Gumbel, exponencial,
entre otras.
10
4. PRUEBA DE BONDAD DE AJUSTE PARA LA DISTRIBUCIÓN GUMBEL, BASADA EN LA DIVERGENCIA DE KULLBACK-LEIBLER
4.1. Planteamiento del problema
Sea { }nii
X 1= una muestra aleatoria de una distribución F , con función de densidad ( ; )f x ⋅
con soporte en ℝ y media finita. Se tiene interés en probar el siguiente juego de hipótesis:
0 0 ( , )
1: ( ; ) ( ; , ) exp exp ( ), , 0
x xH f x f x I x
ξ ξξ θ ξ θ
θ θ θ −∞ ∞
− − ⋅ = = − − − ∈ >
ℝ (4.1)
La hipótesis alternativa es:
1 0: ( ; ) ( ; , )H f x f x ξ θ⋅ ≠ (4.2) 4.2. Construcción de la prueba
Para discriminar entre 0H y 1H se propone utilizar la divergencia de Kullback-Leibler,
para dos distribuciones dada por (1.17), y para el caso de interés se puede escribir como:
00
( )( , ) ( ) log
( )
f xKL f f f x dx
f x
∞
−∞
=
⌠⌡
(4.3)
Es bien conocido que 0( , ) 0KL f f ≥ y 0( , ) 0KL f f = si y solo si )()(0 xfxf = .
Bajo 0H 0( , ) 0KL f f = y valores grandes del mismo favorecen H1.
Para evaluar 0( , )KL f f se requiere del completo conocimiento de f y 0f , por lo que es
necesario proponer un estimador de estas cantidades basadas en la información muestral y
considerando la hipótesis de interés, para lo cual se utiliza el procedimiento propuesto por
Sheng (2002), el cual se desarrolla a continuación.
11
De (4.3) se tiene que por propiedades de los logaritmos:
0 0( , ) ( ) log ( ) ( ) log ( )KL f f f x f x dx f x f x dx
∞ ∞
−∞ −∞
= −∫ ∫ (4.4)
Al sustituir (1.13) en (4.4) se obtiene:
0 0( , ) ( ) ( ) log ( )KL f f H f f x f x dx
∞
−∞
= − − ∫ (4.5)
Para estimar ( )H f en (4.5) se utiliza la expresión propuesta por Vasiceck (1976), dada en
(1.16) .
Para estimar 0( ) log ( )f x f x dx
∞
−∞∫ en (4.5) se utiliza la expresión propuesta por Sheng
(2002), dada por:
01
1 ˆ ˆlog ( , , )n
i
i
f Xn
ξ θ=∑ (4.6)
Donde ˆ ˆyξ θ son los estimadores máximo verosímiles de yξ θ respectivamente. Si
yξ θ son parcial o completamente especificados, simplemente se sustituyen sus
correspondientes valores en (4.6).
Al sustituir (4.1) en (4.6):
01
1 ˆ ˆlog ( , , )n
i
i
f Xn
ξ θ=∑ =
1
ˆ ˆ1 1log exp exp
ˆ ˆ ˆ
ni i
i
X X
n
ξ ξθ θ θ=
− − − − −
∑
1
ˆ ˆ1 1log exp
ˆ ˆ ˆ
ni i
i
X X
n
ξ ξθ θ θ=
− − = − − −
∑
1
ˆˆ 1ˆlog expˆ ˆ ˆ
ni
i
XX
n
ξξθ
θ θ θ=
− = − − + − −
∑
Es decir:
12
01 1
ˆˆ1 1ˆ ˆ ˆlog ( , , ) log expˆ ˆ ˆ
n ni
i
i i
XXf X
n n
ξξξ θ θ
θ θ θ= =
− = − − + − −
∑ ∑ (4.7)
Por lo tanto un estimador mnKL de 0( , )KL f f se obtiene al sustituir (1.16) y (4.7) en (4.5),
es decir:
1
ˆˆ 1ˆlog expˆ ˆ ˆ
ni
mn mn
i
XXKL H
n
ξξθ
θ θ θ=
− = − + + − + −
∑ (4.8)
Se rechaza 0H si mnKL es grande, es decir *
,mn m nKL C≥ para algún valor crítico *,m nC
Una vez que se tiene el tamaño de muestra n, se tiene que especificar el parámetro m.
Sheng (2002) sugiere un procedimiento para escoger m en (1.16), basados en el hecho de
que 0( , ) 0KL f f ≥ y 0( , ) 0KL f f = si y solo si )()(0 xfxf = , en otras palabras bajo 0H
0( , ) 0KL f f = y valores grandes de 0( , )KL f f favorecen la hipótesis alternativa.
Dadas las observaciones 1{ }ni ix = se estima 0( , )KL f f con mnKL , la idea básica es tomar el
valor de m que minimiza mnKL . Esto es equivalente a maximizar la entropía muestral mnH ,
ya que el logaritmo de la verosimilitud en (4.6) no depende de m (lo cual no significa que
no juegue ningún papel en su selección). Dado que no existe garantía de que 0mnKL ≥
para todo valor de m entonces se excluyen aquellos mnKL con valores negativos, es decir se
selecciona m tal que:
01
1 ˆ ˆˆ mín *: * argmáx : log ( , , )n
mn mn im i
m m m H H f Xn
ξ θ=
= = ≤ −
∑ (4.9)
m̂ se define como el valor más pequeño de *m que maximiza la entropía muestral mnH
considerando la restricción del logaritmo de la verosimilitud de la muestra.
13
4.3. Implementación de la prueba
El cálculo de mnKL en (4.8) es relativamente fácil de hacer, pero la distribución de la
misma es intratable en forma analítica, para n grande es sencillo demostrar que su
distribución no depende de nideθ ξ , como se indica en el resultado que se presenta a
continuación.
Prueba: La ecuación (4.8) puede escribirse de la forma siguiente, utilizando nuevamente (1.16) :
( )( ) ( )1 1
ˆˆ1 1ˆlog log expˆ ˆ ˆ2
n ni
mn i m i m
i i
Xn XKL X X
n m n
ξξθ
θ θ θ+ −= =
− = − − + + − + −
∑ ∑ (4.10)
Para n grande ( ),n→ ∞ los estimadores de máxima verosimilitud son consistentes, es decir:
n̂θ θ≈ (4.11)
n̂ξ ξ≈ (4.12)
Resultado:
Sea { }nii
X 1= una muestra aleatoria de la distribución Gumbel cuya función de densidad
está dada por (1.1), sean ˆ ˆy ξ θ los estimadores máximos verosímiles de los parámetros de localidad y escala respectivamente, y defínase:
( )( ) ( )1 1
ˆˆ1 1ˆlog log expˆ ˆ ˆ2
n ni
mn i m i m
i i
Xn XKL X X
n m n
ξξθ
θ θ θ+ −= =
− = − − + + − + −
∑ ∑
Donde � �/ 2m n< , njsiXXjsiXX njj >=<= )()()1()( ,1 y )()1( ... nXX ≤≤ son las
correspondientes estadísticas de orden, basadas en una muestra aleatoria de tamaño n.
Sean { } 1
n
i iY
= una muestra aleatoria de la distribución Gumbel estándar, cuya función de
densidad está dada por (1.3), para muestras grandes se cumple lo siguiente:
{ }( ) ( )1 1 1
1 1 1log ( ) exp
2
n n n
mn i m i m i i
i i i
nKL Y Y Y Y
n m n n+ −
= = =
≈ − − + + −
∑ ∑ ∑
14
Si { } 1
n
i iY
= son variables aleatorias independientes e idénticamente distribuidas con la
función de densidad (1.3) y se definen las siguientes transformaciones:
, 1,2,...,i iX Y i nξ θ= + = (4.13)
con , 0ξ θ−∞ < < ∞ > , entonces las 'iX s son variables aleatorias independientes e
idénticamente distribuidas con función de densidad dada por (1.1), lo cual puede
comprobarse fácilmente utilizando la técnica de la función generatriz de momentos:
{ } { }{ } { }
( )( ) e
e
exp( ) ( )
i i
i
i i
i
tX t Y
X
t Y t Yt t
Y
m t E E e
E e e E e
t m t
ξ θ
θ θξ ξ
ξ θ
+= =
= =
=
De donde por la ecuación (1.5), ( ) (1 )iY
m t tθ θ= Γ − , y por lo tanto ( ) exp( ) (1 )iX
m t t tξ θ= Γ −
para 1tθ < , entonces se reconoce a ( )iX
m t como la función generatriz de momentos de una
distribución Gumbel con parámetro de localidad ξ y parámetro de escala θ .
Al sustituir (4.13) en (4.10) y considerando (4.11) y (4.12) se tiene:
( )( ) ( )1 1
1
1 1ˆlog log ( )ˆ2
ˆˆ 1exp
ˆ ˆ
n n
mn i m i m i
i i
ni
i
nKL Y Y Y
n m n
Y
n
ξ θ ξ θ θ ξ θθ
ξ θ ξξθ θ
+ −= =
=
= − + − − + + +
+ − − + −
∑ ∑
∑
( ) { }( ) ( )1 1 1
ˆ1 1 1ˆlog ( ) log expˆ ˆ2
n n n
i m i m i i
i i i
nY Y n Y Y
n m nn
ξθ θ ξ θ
θ θ+ −= = =
= − − + + + − + − ∑ ∑ ∑
( ) { }( ) ( )1 1 1
ˆ1 1 1ˆlog ( ) log expˆ ˆ2
n n n
i m i m i i
i i i
nY Y n Y Y
n m nn
ξθ θ ξ θ
θ θ+ −= = =
= − − + + + − + − ∑ ∑ ∑
( ) { }( ) ( )1 1 1 1
ˆ1 1 1ˆlog log ( ) log expˆ ˆ ˆ2
n n n n
i m i m i i
i i i i
nY Y Y Y
n m n nn
ξ θ ξθ θ
θ θ θ+ −= = = =
= − − − + + + − + −∑ ∑ ∑ ∑
{ }( ) ( )1 1 1 1 1
1 1 1 1 1ˆlog log log( ) log exp2
n n n n n
i m i m i i
i i i i i
nY Y Y Y
n m n n n nθ θ+ −
= = = = =
≈ − − − − + + + −∑ ∑ ∑ ∑ ∑
15
{ }( ) ( )1 1 1 1
1 1 1 1log log( ) exp
2
n n n n
i m i m i i
i i i i
nY Y Y Y
n m n n n+ −
= = = =
≈ − − − + + −∑ ∑ ∑ ∑
{ }( ) ( )1 1 1
1 1 1log ( ) exp
2
n n n
i m i m i i
i i i
nY Y Y Y
n m n n+ −
= = =
≈ − − + + −
∑ ∑ ∑
Es decir, para muestras grandes:
{ }( ) ( )1 1 1
1 1 1log ( ) exp
2
n n n
mn i m i m i i
i i i
nKL Y Y Y Y
n m n n+ −
= = =
≈ − − + + −
∑ ∑ ∑ (4.14)
▀
Si en lugar de los estimadores de máxima verosimilitud de yθ ξ en (4.10) se utilizan
los estimadores de momentos de estos parámetros entonces la distribución de mnKL es
independiente del valor de los parámetros para cualquier tamaño de muestra. La
demostración de este hecho es similar a la anterior y se encuentra en el anexo C. El
presente trabajo se desarrolla siguiendo la metodología propuesta por Sheng (2002),
razón por la cual se utilizan los estimadores de máxima verosimilitud de los
parámetros.
Para obtener la distribución empírica de mnKL dada por (4.10) se procede como sigue: Para
m y n fijo se generan B muestras aleatorias de tamaño n de Gumbel ( , )ξ θ , cuya densidad
está dada por (1.1) y se calcula el valor del estadístico de prueba mnKL , con lo cual se
tendrán B realizaciones de mnKL . Para B grande una idea aproximada de la forma de la
distribución puede ser obtenida al hacer un histograma de las B realizaciones de mnKL , o
bien utilizando la técnica de “Estimación no paramétrica de densidades”.
En seguida se presentan algunas gráficas en la que se muestra la forma de la distribución
de mnKL para m y n fijos para diversos valores de los parámetros de localidad y escala
generadas mediante simulación Monte-Carlo, utilizando el programa 2 del anexo D. Lo más
importante que sugiere el estudio es que la distribución de mnKL no depende ni de ξ ni de
θ aún para muestras pequeñas (n=10, 15).
16
0.2 0.4 0.6 0.8 1.0
01
23
45
Density
KLmn con Gumbel( 0 , 1 )
KLmn con Gumbel( -10 , 1 )
KLmn con Gumbel( -10 , 10 )
KLmn con Gumbel( -100 , 1 )
KLmn con Gumbel( -1000 , 100 )
KLmn con Gumbel( -1000 , 1000 )
Figura 2. Distribuciones empíricas estimadas de mnKL generadas con 40,000 réplicas
de tamaño n=15, m=4 de la distribución Gumbel para diversos valores del parámetro de localidad y escala
Las distribuciones empíricas de mnKL fueron generadas con 40, 000 réplicas de tamaño
n=15 y m=4, para los parámetros de localidad y escala anotados en las leyendas. En la
gráfica anterior se observa que la distribución de mnKL es muy parecida aún con cambios
drásticos en los parámetros del modelo que genera las muestras. En el caso de la gráfica
siguiente se puede concluir algo similar.
17
0.2 0.4 0.6 0.8 1.0 1.2
01
23
4
Density
KLmn con Gumbel( 0 , 1 )
KLmn con Gumbel( 0 , 2 )
KLmn con Gumbel( 0 , 10 )
KLmn con Gumbel( -10 , 1 )
KLmn con Gumbel( -10 , 100 )
KLmn con Gumbel( -10 , 50 )
Figura 3. Distribuciones empíricas estimadas de mnKL generadas con 40,000 réplicas
de tamaño n=10, m=4 de la distribución Gumbel para diversos valores del parámetro de localidad y escala
Para probar el juego de hipótesis planteado en (4.1) y (4.2) se emplea la regla de decisión
siguiente:
Rechazar 0H al nivel de significancia α si y solo si *,mn m nKL C≥
Donde el valor de *
,m nC debe ser tal que:
0 0
*,
(Rechazar H |H )
= ( )mn m n
P
P KL C
α =
≥
Para determinar las constantes críticas *,m nC de mnKL y bajo el supuesto de que su
distribución no depende del parámetro de localidad ni del de escala, se utiliza simulación
Monte Carlo para los niveles de significanciaα = 0.01, 0.025, 0.05, 0.10. Para 225n ≤ se
18
generaron 50,000 muestras aleatorias de la distribución Gumbel (0,1) de tamaño n, se
determinó el valor de la constante crítica , ( )m nC α para cada m y n con el cuantil
1 )x100α( − de la distribución empírica de mnKL , los cálculos fueron realizados utilizando
el programa 3 del anexo D.
En seguida se muestra la tabla de valores críticos obtenida del proceso de simulación para
el valor de m obtenido con el procedimiento propuesto por Sheng (2002). Las tablas que
incluyen otros valores de m se pueden ver en el anexo D.
Tabla 1. Valores críticos , ( )m nC α de la estadística mnKL , obtenida mediante simulación Monte-Carlo
Cmn m Cmn m Cmn m Cmn m
5 1.10278 2 0.9873 2 0.8938 2 0.8002 2
10 0.74345 4 0.6777 3 0.6246 3 0.5678 3
15 0.58256 4 0.5239 3 0.4795 3 0.4303 3
20 0.48129 4 0.4344 4 0.3971 3 0.3557 3
25 0.40711 4 0.3646 4 0.3351 4 0.3030 4
30 0.35552 5 0.3218 4 0.2941 4 0.2654 4
35 0.31778 4 0.2876 4 0.2639 4 0.2390 4
40 0.28907 5 0.2606 5 0.2399 5 0.2178 5
45 0.26528 5 0.2403 5 0.2206 5 0.1999 5
50 0.24306 6 0.2223 6 0.2052 5 0.1858 5
60 0.21257 6 0.1939 6 0.1793 6 0.1631 6
70 0.19100 7 0.1737 7 0.1604 6 0.1459 6
80 0.17181 7 0.1575 7 0.1452 7 0.1326 7
90 0.15780 7 0.1436 7 0.1329 7 0.1213 7
100 0.14646 7 0.1339 8 0.1232 8 0.1122 8
110 0.13571 8 0.1242 8 0.1149 8 0.1045 8
120 0.12761 9 0.1166 9 0.1078 9 0.0982 9
130 0.11989 10 0.1099 10 0.1014 10 0.0921 10
140 0.11323 9 0.1039 11 0.0961 11 0.0874 11
150 0.10786 10 0.0990 11 0.0914 11 0.0829 11
160 0.10286 10 0.0942 11 0.0870 10 0.0789 12
170 0.09826 12 0.0899 10 0.0833 12 0.0754 12
180 0.09336 12 0.0857 12 0.0790 12 0.0718 12
190 0.09011 11 0.0826 13 0.0761 13 0.0690 13
200 0.08657 12 0.0791 12 0.0731 13 0.0662 13
225 0.079177 14 0.072459 14 0.066919 14 0.06031 16
n
Nivel de significancia(αααα)0.01 0.025 0.05 0.1
La misma información en forma gráfica se presenta en seguida.
19
0.0
0.2
0.4
0.6
0.8
1.0
1.2
0 50 100 150 200 250
Tamaño de muestra(n)
Cmn( αα αα)
0.01
0.025
0.05
0.1
Figura 4. Valores críticos de la estadística KLmn para varios tamaños de muestra y niveles de significancia
Los valores críticos también pueden ser aproximados utilizando un modelo empírico del
tipo siguiente:
, ( ) a( ) nm nC βα α=
Es decir, un modelo de tipo potencial, donde a( ) α es un parámetro cuyo valor depende del
nivel de significancia, β es un parámetro a estimar, n es el tamaño de la muestra.
El valor los parámetros fue determinado utilizando mínimos cuadrados ordinarios,
obteniendo R2>0.99 en todos los casos, los resultados se muestran en seguida:
-0.70, ( ) a( ) nm nC α α≈
Donde:
a(0.01) =3.9175, a(0.025) =3.4724, a(0.05) =3.1437
20
En el caso de m, de la Tabla 1, se observa que existe una relación más o menos lineal entre
este parámetro y el tamaño de muestra (n). Al igual que en el caso anterior se propone un
modelo empírico para calcular m en función de n:
( )m a n cα= +
Los valores de los parámetros del modelo fueron calculados utilizando mínimos cuadrados
ordinarios, el R2 obtenido en todos los casos fue superior a 0.95, los resultados son los
siguientes:
a(0.01) =0.0466, a(0.025) =0.0519, a(0.05) =0.0554 y a(0.10) =0.057
2.50c =
21
5. ESTUDIO DE SIMULACIÓN MONTE CARLO PARA ESTIMAR LA POTENCIA DE LA PRUEBA CONTRA ALGUNAS ALTERNATIVAS Y EL TAMAÑO DE LA MISMA.
5.1. Potencia de la prueba
En esta sección se estudia la potencia de la prueba propuesta en la sección 4 contra algunas
alternativas para diversos tamaños de muestra y varios niveles de significación. Así mismo
se presenta un estudio comparativo de potencia de la prueba propuesta, la prueba del
Coeficiente de Correlación y la de Kolmogorov.
a) La prueba de Kolmogorov propuesta por Chandra et al (1981)
Sea 1{ }ni iX = una muestra aleatoria de una distribución desconocida ( )F x , y se desea probar
el siguiente juego de hipótesis:
0 : ( ) *( )H F x F x= (5.1)
1 : ( ) *( )H F x F x≠ (5.2)
Donde:
*( ) exp expx
F x xξ
θ − = − − −∞ < < ∞
(5.3)
Supóngase que tanto ξ como θ son desconocidos, y entonces habrá que estimarlos a partir
de la muestra.
Esta prueba de bondad de ajuste se basa en las estadísticas D+, D-, D, y se realiza siguiendo
los pasos que a continuación se indican:
• Ordenar las ix en forma ascendente (A partir de este momento se asume que los datos
están ordenados, aunque la notación siga siendo la misma).
22
• Calcular *( ), 1, 2,...,i iz F x i n= = , donde ξ y θ se sustituyen por sus respectivos
estimadores de máxima verosimilitud.
• Calcular:
{ }
{ }{ }
1 i n
( 1)
1 i n
1
máx
máx
máx ,
iin
i
i n
i n
D z
D z
D D D
+
≤ ≤
−−
≤ ≤
+ −
≤ ≤
= −
= −
=
• Finalmente, para completar la prueba, comparar la estadística apropiada multiplicando
por n , con los valores que se muestran en la tabla siguiente, rechazando 0H al nivel
de significancia deseado si la estadística excede el valor crítico.
Tabla 2. Valores críticos para diversos niveles de significancia de la prueba, para las
estadísticas nD+ , nD− y nD
Nivel de significancia(αααα) Estadística n 0.10 0.05 0.025 0.01
10 0.6850 0.7550 0.8420 0.8970 20 0.7100 0.7800 0.8590 0.9260 50 0.7270 0.7960 0.8700 0.9400
nD+
∞ 0.7330 0.8080 0.8770 0.9570
10 0.7000 0.7660 0.8140 0.8920 20 0.7150 0.7850 0.8430 0.9260 50 0.7240 0.7960 0.8600 0.9440
nD−
∞ 0.7330 0.8080 0.8770 0.9570
10 0.7600 0.8190 0.8800 0.9440 20 0.7790 0.8430 0.9070 0.9730 50 0.7900 0.8560 0.9220 0.9880
nD
∞ 0.8030 0.8740 0.9390 1.0070 b) La prueba basada en el Coeficiente de Correlación propuesta por Kinnison (1989) Al igual que en el caso anterior supóngase que se tiene una muestra aleatoria de tamaño n
de una distribución desconocida ( )F x , y se desea probar el mismo juego de hipótesis que
se anota en (5.1) y (5.2).
23
La prueba propuesta por Kinnison consiste calcular la correlación entre los datos y sus
valores esperados. Los valores esperados (EV) son calculados sustituyendo el rango
porcentual (RP) de los datos en la función de distribución inversa de la distribución de
valores extremos en su forma estándar, es decir:
log( log( ))EV RP= − − (5.4)
Los rangos porcentuales se calculan asignando rangos a los datos dividiéndolo por el
tamaño de muestra más uno, es decir R/(n+1).
Se rechaza 0H al nivel de significancia α si la correlación entre los datos y los valores
esperados es menor al valor dado en la tabla siguiente:
Tabla 3.Valores críticos para la prueba de bondad de ajuste de la distribución
Gumbel basada en el Coeficiente de Correlación
Tamaño de Puntos porcentuales
muestra 0.01 0.03 0.05 0.10 0.25 0.50 0.75 0.95
5 0.8212 0.8514 0.8744 0.8991 0.9330 0.9597 0.9778 0.9924
10 0.8575 0.8852 0.9062 0.9267 0.9521 0.9700 0.9814 0.9910
15 0.8766 0.9021 0.9213 0.9394 0.9607 0.9751 0.9839 0.9914
20 0.8893 0.9132 0.9309 0.9473 0.9661 0.9783 0.9857 0.9920
25 0.8987 0.9213 0.9379 0.9530 0.9699 0.9807 0.9871 0.9926
30 0.9061 0.9276 0.9433 0.9573 0.9728 0.9826 0.9883 0.9931
40 0.9174 0.9372 0.9513 0.9637 0.9771 0.9854 0.9901 0.9940
50 0.9259 0.9443 0.9572 0.9684 0.9803 0.9874 0.9914 0.9948
60 0.9326 0.9499 0.9618 0.9720 0.9827 0.9890 0.9926 0.9955
70 0.9381 0.9545 0.9655 0.9749 0.9847 0.9904 0.9935 0.9961
80 0.9428 0.9584 0.9687 0.9774 0.9863 0.9915 0.9943 0.9966
90 0.9469 0.9618 0.9714 0.9795 0.9877 0.9924 0.9950 0.9970
100 0.9504 0.9647 0.9738 0.9814 0.9889 0.9933 0.9956 0.9974
150 0.9603 0.9716 0.9788 0.9849 0.9910 0.9945 0.9964 0.9979
200 0.9702 0.9785 0.9838 0.9883 0.9930 0.9957 0.9972 0.9983
Se consideran las siguientes alternativas:
• Distribución Weibull,
{ }1(0, )( ; , ) exp ( ) ( ), 0, 1f x x x I xβ β βλ β βλ λ β λ−
∞= − > > (5.5)
24
• Distribución log-normal
2 2(0, )2
1 1( ; , ) exp (log ) ( ), , 0
22f x x I x
xµ σ µ µ σ
σσ π ∞ = − − ∈ >
ℝ (5.6)
• Distribución normal
2( , )2
1 1( ; , ) exp ( ) ( ), , 0
22f x x I xµ σ µ µ σ
σσ π −∞ ∞ = − − ∈ >
ℝ (5.7)
• Distribución Logística
{ }{ }
( , )2
exp ( ) /1( ; , ) ( ), , 0
1 exp ( ) /
xf x I x
x
µ σµ σ µ β
β µ σ−∞ ∞
− −= ∈ >
+ − − ℝ (5.8)
• Distribución Cauchy estándar
( , )2
1( ) ( )
(1 )f x I x
xπ −∞ ∞=+
(5.9)
• Distribución t
( , )12 2
12
( ; ) ( ), 1,2,3,...
12
v
v
f x v I x v
v xv
vπ
−∞ ∞+
+ Γ = = Γ +
(5.10)
25
• Distribución Gamma
1( , )
1( ; , ) exp ( ), , 0
( )
xf x x I xα
αα β α βα β β
−−∞ ∞
= − >
Γ (5.11)
• Distribución Fréchet
0, ,
( ; , , )exp ,
k
x
F x k xx
ξ
ξ θ ξξ
θ
−
<
= − − ≥
(5.12)
Donde 0, 0kθ > >
En el caso de las distribuciones Weibull, Log-Normal y Gamma se fijan los parámetros de
tal manera que { } 1E X = , es decir:
( )1 1λ β= Γ + para la distribución Weibull
2 / 2µ σ= − para la distribución Log-Normal
1/α β= para la distribución Gamma
Para las distribuciones Normal y Logística los parámetros se fijan de modo tal que
{ } 0E X = , es decir se fija 0µ = en ambas distribuciones.
Para la distribución Fréchet solo se considera el caso estándar, con lo cual
0, 1 y 1kξ θ= = = .
Para calcular la potencia de una prueba en forma analítica es necesario conocer la
distribución del estadístico de prueba bajo 0H . Para el caso de las pruebas consideradas no
se conoce de la distribución de sus estadísticos de prueba, pero utilizando simulación es
26
posible obtener estimadores de la potencia, haciendo uso de su definición, misma que se
presenta en seguida.
La función de potencia de una prueba de hipótesis estadística 0H contra la alternativa H1
está dada por:
0
1
( ) para valores de bajo H( )
1 ( )para valores de bajo H
α θ θβ θ
π θ θ
= −
(5.13)
En la que:
0 0( ) Pr{Error I}=Pr{Rechazar H | H es verdadera}α θ =
0 0( ) Pr{Error II}=Pr{No rechazar H | H es falsa}π θ =
De (5.13) se obtiene:
1( ) 1 ( )para valores de bajo Hβ θ π θ θ= − , es decir:
0 1( ) Pr{Rechazar H | H es verdadera}β θ = (5.14)
Debe observarse que (5.14) mide la capacidad de discriminación de el estadístico de
prueba empleado para discriminar entre 0H y H1.
El juego de hipótesis que se emplea para la simulación es:
0
1
H : La muestra aleatoria viene del modelo Gumbel
vs
H : La muestra aleatoria no viene del modelo Gumbel
(5.15)
La potencia de la prueba de Kullback-Leibler fue investigada haciendo uso de (5.14), es
decir, reemplazando el generador de números aleatorios de la distribución Gumbel en el
programa de simulación con los generadores de las distribuciones alternativas, en el caso de
27
la distribución Fréchet se utilizó la librería evd de Stephenson (2004) para generar los
números aleatorios en el programa R. El programa 6 del anexo D fue utilizado para generar
10, 000 muestras de tamaño n para los parámetros dados de cada distribución y calcular la
estadística mnKL para posteriormente decidir si se rechaza o no se rechaza la hipótesis nula
planteada en (5.15). La potencia de la prueba se estimó al dividir el número de veces que se
rechaza la hipótesis nula entre el número de muestras de tamaño n generadas para los
parámetros de la distribución dada.
En el caso de la prueba de Kolmogorov y la del Coeficiente de Correlación se procedió de
manera similar. Los programas 4 y 5 del anexo D fueron utilizados para estimar la potencia
de estas pruebas.
Las tablas 4-11 muestran los resultados obtenidos para las alternativas dadas.
Tabla 4. Estimación de la potencia mediante simulación Monte Carlo para las
pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-Leibler, considerando como alternativa la distribución Weibull
0.01 0.0111 0.0048 0.0146 0.01 0.0317 0.0001 0.0802
0.05 0.0485 0.0301 0.0613 0.05 0.1193 0.0112 0.2466
0.10 0.0991 0.0754 0.1219 0.10 0.2107 0.0556 0.3807
0.01 0.0180 0.0085 0.0352 0.01 0.2132 0.0077 0.3409
0.05 0.0822 0.0597 0.0983 0.05 0.4397 0.2749 0.6096
0.10 0.1395 0.1218 0.1830 0.10 0.5934 0.5617 0.7365
0.01 0.0267 0.0199 0.0566 0.01 0.4776 0.0964 0.7022
0.05 0.1096 0.0951 0.1392 0.05 0.7373 0.6987 0.8872
0.10 0.1730 0.1718 0.2471 0.10 0.8512 0.8979 0.9375
0.01 0.0107 0.0011 0.0188 0.01 0.0522 0.0000 0.1344
0.05 0.0593 0.0144 0.0813 0.05 0.1581 0.0113 0.3531
0.10 0.1140 0.0444 0.1479 0.10 0.2716 0.0681 0.4858
0.01 0.0291 0.0035 0.0408 0.01 0.3639 0.0194 0.5549
0.05 0.1172 0.0492 0.1376 0.05 0.6423 0.4476 0.7807
0.10 0.2054 0.1260 0.2354 0.10 0.7592 0.7521 0.8618
0.01 0.0631 0.0150 0.0798 0.01 0.7258 0.2562 0.8974
0.05 0.1854 0.1184 0.2178 0.05 0.9097 0.8972 0.9701
0.10 0.2734 0.2368 0.3489 0.10 0.9561 0.9813 0.9860
0.01 0.0226 0.0002 0.0416 0.01 0.0730 0.0003 0.2056
0.05 0.0856 0.0057 0.1299 0.05 0.2133 0.0318 0.4421
0.10 0.1504 0.0297 0.2344 0.10 0.3373 0.1269 0.5833
0.01 0.0983 0.0027 0.1410 0.01 0.5260 0.1092 0.7167
0.05 0.2483 0.0783 0.3307 0.05 0.7797 0.7338 0.8687
0.10 0.3703 0.2181 0.4745 0.10 0.8728 0.9185 0.9346
0.01 0.2010 0.0194 0.3460 0.01 0.8817 0.6500 0.9714
0.05 0.4328 0.2643 0.5770 0.05 0.9738 0.9877 0.9917
0.10 0.5694 0.5076 0.7034 0.10 0.9910 0.9990 0.9965
C. Correlación Kullback-Leiblern ββββ αααα KolmogorovC. Correlación Kullback-Leibler
200
2
3
4
150
2
3
4
100
2
3
4
50
2
3
4
20
2
3
4
10
2
3
4
n ββββ αααα Kolmogorov
28
Tabla 5. Estimación de la potencia mediante simulación Monte Carlo para las pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-Leibler,
considerando como alternativa la distribución Log-Normal
0.01 0.0519 0.0736 0.0135 0.01 0.6172 0.4586 0.7723
0.05 0.1453 0.1828 0.1056 0.05 0.8149 0.7713 0.8876
0.10 0.2258 0.2683 0.1809 0.10 0.8926 0.8794 0.9255
0.01 0.0247 0.0436 0.0077 0.01 0.2601 0.2114 0.3040
0.05 0.0962 0.1233 0.0688 0.05 0.4821 0.4829 0.5040
0.10 0.1569 0.1890 0.1260 0.10 0.6153 0.6462 0.6268
0.01 0.0132 0.0184 0.0067 0.01 0.0308 0.0354 0.0262
0.05 0.0605 0.0680 0.0515 0.05 0.1086 0.1386 0.0979
0.10 0.1111 0.1272 0.1037 0.10 0.1834 0.2269 0.1721
0.01 0.1039 0.1423 0.0906 0.01 0.8326 0.5938 0.9104
0.05 0.2385 0.2936 0.2593 0.05 0.9413 0.8743 0.9582
0.10 0.3436 0.3997 0.3649 0.10 0.9728 0.9488 0.9796
0.01 0.0480 0.0775 0.0341 0.01 0.4340 0.2791 0.4508
0.05 0.1415 0.1784 0.1246 0.05 0.6672 0.5743 0.6384
0.10 0.2177 0.2766 0.2037 0.10 0.7723 0.7382 0.7395
0.01 0.0153 0.0232 0.0121 0.01 0.0456 0.0410 0.0334
0.05 0.0643 0.0798 0.0584 0.05 0.1256 0.1431 0.1169
0.10 0.1199 0.1391 0.1125 0.10 0.2258 0.2362 0.1906
0.01 0.3053 0.2732 0.3728 0.01 0.9420 0.7612 0.9714
0.05 0.5275 0.5153 0.6109 0.05 0.9840 0.9546 0.9887
0.10 0.6493 0.6509 0.7099 0.10 0.9958 0.9850 0.9943
0.01 0.1228 0.1353 0.1174 0.01 0.5800 0.3962 0.5952
0.05 0.2830 0.3001 0.2872 0.05 0.8012 0.7084 0.7455
0.10 0.4048 0.4370 0.4076 0.10 0.8774 0.8433 0.8310
0.01 0.0212 0.0314 0.0167 0.01 0.0593 0.0572 0.0409
0.05 0.0817 0.1022 0.0755 0.05 0.1662 0.1799 0.1304
0.10 0.1465 0.1641 0.1376 0.10 0.2609 0.2913 0.2096
n µµµµ αααα Kolmogorov
10
-0.3
-0.2
-0.1
20
-0.3
-0.2
-0.1
50
-0.3
-0.2
-0.1
100
-0.3
-0.2
-0.1
150
-0.3
-0.2
-0.1
200
-0.3
-0.2
-0.1
C. Correlación Kullback-Leiblern ββββ αααα KolmogorovC. Correlación Kullback-Leibler
Tabla 6. Estimación de la potencia mediante simulación Monte Carlo para las pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-Leibler,
considerando como alternativa la distribución Normal
0.01 0.0262 0.0199 0.0520 0.01 0.4254 0.0561 0.5673
0.05 0.1000 0.0891 0.1184 0.05 0.6616 0.5271 0.7762
0.10 0.1681 0.1622 0.2264 0.10 0.7830 0.7790 0.8516
0.01 0.0263 0.0189 0.0445 0.01 0.4172 0.0599 0.5722
0.05 0.1034 0.0895 0.1236 0.05 0.6668 0.5191 0.7776
0.10 0.1710 0.1605 0.2106 0.10 0.7810 0.7870 0.8653
0.01 0.0293 0.0205 0.0454 0.01 0.4201 0.0604 0.5711
0.05 0.1017 0.0926 0.1181 0.05 0.6691 0.5320 0.7734
0.10 0.1640 0.1654 0.2106 0.10 0.7818 0.7876 0.8584
0.01 0.0516 0.0145 0.0621 0.01 0.6534 0.1291 0.7829
0.05 0.1663 0.1045 0.1782 0.05 0.8476 0.7367 0.9040
0.10 0.2581 0.2114 0.2898 0.10 0.9162 0.9120 0.9474
0.01 0.0528 0.0145 0.0672 0.01 0.6446 0.1333 0.7789
0.05 0.1698 0.1083 0.1779 0.05 0.8510 0.7402 0.9031
0.10 0.2662 0.2077 0.2922 0.10 0.9232 0.9187 0.9438
0.01 0.0531 0.0161 0.0673 0.01 0.6522 0.1369 0.7801
0.05 0.1682 0.1064 0.1882 0.05 0.8476 0.7387 0.8989
0.10 0.2577 0.2087 0.2944 0.10 0.9250 0.9147 0.9418
0.01 0.1831 0.0154 0.2528 0.01 0.8132 0.4029 0.9011
0.05 0.3870 0.1974 0.4655 0.05 0.9416 0.9155 0.9573
0.10 0.5193 0.3977 0.6143 0.10 0.9743 0.9840 0.9786
0.01 0.1790 0.0173 0.2635 0.01 0.8085 0.3961 0.8887
0.05 0.3860 0.2051 0.4657 0.05 0.9427 0.9233 0.9589
0.10 0.5187 0.4009 0.6011 0.10 0.9731 0.9836 0.9781
0.01 0.1865 0.0183 0.2482 0.01 0.8139 0.3945 0.8945
0.05 0.3854 0.1986 0.4786 0.05 0.9437 0.9214 0.9598
0.10 0.5116 0.3967 0.6098 0.10 0.9743 0.9837 0.9805
C. Correlación Kullback-Leiblern σσσσ² αααα KolmogorovC. Correlación Kullback-Leibler
200
1
2
3
150
1
2
3
100
1
2
3
50
1
2
3
20
1
2
3
10
1
2
3
n σσσσ² αααα Kolmogorov
29
Tabla 7. Estimación de la potencia mediante simulación Monte Carlo para las pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-Leibler,
considerando como alternativa la distribución Logística
0.01 0.0405 0.0378 0.0699 0.01 0.6611 0.1607 0.6665
0.05 0.1270 0.1260 0.1405 0.05 0.8342 0.5990 0.7920
0.10 0.1980 0.2159 0.2254 0.10 0.8969 0.7973 0.8494
0.01 0.0386 0.0382 0.0679 0.01 0.6705 0.1593 0.6658
0.05 0.1339 0.1284 0.1391 0.05 0.8298 0.6034 0.7898
0.10 0.1988 0.2104 0.2221 0.10 0.8993 0.7926 0.8511
0.01 0.0350 0.0436 0.0672 0.01 0.6681 0.1622 0.6595
0.05 0.1307 0.1215 0.1427 0.05 0.8294 0.5970 0.7882
0.10 0.2055 0.2134 0.2175 0.10 0.8989 0.7981 0.8496
0.01 0.1092 0.0456 0.0960 0.01 0.8607 0.2625 0.8321
0.05 0.2359 0.1731 0.2092 0.05 0.9490 0.7586 0.8988
0.10 0.3298 0.2910 0.3070 0.10 0.9752 0.9011 0.9361
0.01 0.1027 0.0473 0.1022 0.01 0.8689 0.2602 0.8374
0.05 0.2391 0.1704 0.2139 0.05 0.9482 0.7504 0.9031
0.10 0.3429 0.2878 0.3173 0.10 0.9718 0.9023 0.9311
0.01 0.0982 0.0524 0.0914 0.01 0.8700 0.2548 0.8349
0.05 0.2448 0.1742 0.2117 0.05 0.9471 0.7555 0.9021
0.10 0.3297 0.2849 0.3099 0.10 0.9748 0.8973 0.9338
0.01 0.3371 0.0784 0.3320 0.01 0.9518 0.4867 0.9184
0.05 0.5432 0.3037 0.5153 0.05 0.9876 0.9004 0.9583
0.10 0.6578 0.4975 0.6115 0.10 0.9938 0.9716 0.9681
0.01 0.3380 0.0738 0.3281 0.01 0.9519 0.4887 0.9229
0.05 0.5458 0.3109 0.5159 0.05 0.9860 0.9051 0.9562
0.10 0.6587 0.4961 0.6168 0.10 0.9945 0.9725 0.9724
0.01 0.3443 0.0758 0.3342 0.01 0.9548 0.4801 0.9186
0.05 0.5459 0.3115 0.5149 0.05 0.9850 0.9072 0.9571
0.10 0.6575 0.4868 0.6196 0.10 0.9939 0.9707 0.9715
n ββββ αααα Kolmogorov
10
0.7
1.4
2.1
20
0.7
1.4
2.1
50
0.7
1.4
2.1
100
0.7
1.4
2.1
150
0.7
1.4
2.1
200
0.7
1.4
2.1
C. Correlación Kullback-Leiblern ββββ αααα KolmogorovC. Correlación Kullback-Leibler
Tabla 8. Estimación de la potencia mediante simulación Monte Carlo para las pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-Leibler,
considerando como alternativa la distribución t
0.01 0.0683 0.0740 0.1014 0.01 0.8275 0.4196 0.7588
0.05 0.1638 0.1846 0.1769 0.05 0.9149 0.7704 0.8292
0.10 0.2376 0.2737 0.2438 0.10 0.9520 0.8886 0.8665
0.01 0.0355 0.0399 0.0676 0.01 0.6310 0.1766 0.6402
0.05 0.1198 0.1245 0.1380 0.05 0.8200 0.6090 0.7727
0.10 0.2026 0.2111 0.2267 0.10 0.8832 0.7903 0.8308
0.01 0.0329 0.0316 0.0553 0.01 0.5582 0.1146 0.6118
0.05 0.1134 0.1112 0.1321 0.05 0.7701 0.5720 0.7626
0.10 0.1801 0.1884 0.2227 0.10 0.8516 0.7732 0.8403
0.01 0.1723 0.1220 0.1552 0.01 0.9529 0.5616 0.8825
0.05 0.3157 0.2782 0.2776 0.05 0.9828 0.8808 0.9224
0.10 0.4130 0.3976 0.3654 0.10 0.9921 0.9546 0.9408
0.01 0.1006 0.0483 0.0963 0.01 0.8440 0.2741 0.8150
0.05 0.2420 0.1785 0.2113 0.05 0.9389 0.7527 0.8879
0.10 0.3343 0.2889 0.3160 0.10 0.9701 0.9019 0.9184
0.01 0.0792 0.0318 0.0822 0.01 0.7830 0.2088 0.7903
0.05 0.2136 0.1471 0.1980 0.05 0.9127 0.7297 0.8769
0.10 0.3017 0.2607 0.3033 0.10 0.9549 0.8972 0.9190
0.01 0.5098 0.2257 0.4443 0.01 0.9885 0.7546 0.9488
0.05 0.6782 0.4876 0.5909 0.05 0.9974 0.9604 0.9636
0.10 0.7591 0.6409 0.6551 0.10 0.9988 0.9896 0.9760
0.01 0.3291 0.0830 0.3271 0.01 0.9427 0.4944 0.9004
0.05 0.5191 0.3185 0.5022 0.05 0.9801 0.9032 0.9367
0.10 0.6353 0.5012 0.6058 0.10 0.9925 0.9715 0.9594
0.01 0.2616 0.0530 0.3032 0.01 0.9022 0.4439 0.8849
0.05 0.4795 0.2683 0.4917 0.05 0.9733 0.8956 0.9400
0.10 0.5919 0.4616 0.5947 0.10 0.9886 0.9723 0.9623
C. Correlación Kullback-Leiblern νννν αααα KolmogorovC. Correlación Kullback-Leibler
200
4
8
12
150
4
8
12
100
4
8
12
50
4
8
12
20
4
8
12
10
4
8
12
n νννν αααα Kolmogorov
30
Tabla 9. Estimación de la potencia mediante simulación Monte Carlo para las pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-Leibler,
considerando como alternativa la distribución Gamma
0.01 0.0460 0.0436 0.0150 0.01 0.6915 0.1543 0.9847
0.05 0.1331 0.1361 0.1371 0.05 0.8834 0.5380 0.9959
0.10 0.2122 0.2205 0.2375 0.10 0.9462 0.7728 0.9981
0.01 0.0138 0.0142 0.0061 0.01 0.0897 0.0167 0.1891
0.05 0.0657 0.0633 0.0554 0.05 0.2444 0.0997 0.4285
0.10 0.1242 0.1194 0.1137 0.10 0.3713 0.2116 0.5697
0.01 0.0088 0.0096 0.0073 0.01 0.0211 0.0051 0.0414
0.05 0.0466 0.0473 0.0487 0.05 0.0851 0.0355 0.1549
0.10 0.1066 0.0932 0.1103 0.10 0.1595 0.0862 0.2570
0.01 0.0988 0.0629 0.1556 0.01 0.9085 0.2126 0.9995
0.05 0.2380 0.1939 0.3907 0.05 0.9795 0.6763 0.9999
0.10 0.3656 0.3101 0.5144 0.10 0.9931 0.8897 0.9999
0.01 0.0208 0.0200 0.0218 0.01 0.1647 0.0172 0.3389
0.05 0.0776 0.0695 0.0996 0.05 0.3663 0.1013 0.5849
0.10 0.1466 0.1269 0.1787 0.10 0.5147 0.2089 0.7178
0.01 0.0094 0.0093 0.0126 0.01 0.0333 0.0030 0.0672
0.05 0.0565 0.0430 0.0675 0.05 0.1169 0.0280 0.2049
0.10 0.1084 0.0857 0.1195 0.10 0.2053 0.0681 0.3207
0.01 0.3356 0.0911 0.6856 0.01 0.9801 0.3637 1.0000
0.05 0.5960 0.3180 0.8722 0.05 0.9974 0.8559 1.0000
0.10 0.7086 0.4952 0.9295 0.10 0.9997 0.9704 1.0000
0.01 0.0471 0.0157 0.0737 0.01 0.2514 0.0229 0.4929
0.05 0.1458 0.0782 0.2162 0.05 0.4800 0.1299 0.7196
0.10 0.2404 0.1515 0.3367 0.10 0.6391 0.2561 0.8204
0.01 0.0140 0.0059 0.0255 0.01 0.0443 0.0049 0.0947
0.05 0.0760 0.0334 0.0999 0.05 0.1436 0.0341 0.2575
0.10 0.1367 0.0756 0.1793 0.10 0.2410 0.0712 0.3817
n ββββ αααα Kolmogorov
10
1
1/2
1/3
20
1
1/2
1/3
50
1
1/2
1/3
100
1
1/2
1/3
150
1
1/2
1/3
200
1
1/2
1/3
C. Correlación Kullback-Leiblern ββββ αααα KolmogorovC. Correlación Kullback-Leibler
Tabla 10. Estimación de la potencia mediante simulación Monte Carlo para las pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-
Leibler, considerando como alternativa la distribución Cauchy
0.01 0.4394 0.4532 0.3378 0.01 1.0000 0.9990 0.9999
0.05 0.5658 0.6078 0.4297 0.05 1.0000 1.0000 1.0000
0.10 0.6360 0.6884 0.4761 0.10 1.0000 1.0000 0.9997
0.01 0.7623 0.7205 0.6057 0.01 1.0000 0.9999 1.0000
0.05 0.8507 0.8450 0.7478 0.05 1.0000 1.0000 1.0000
0.10 0.8868 0.8960 0.7898 0.10 1.0000 1.0000 1.0000
0.01 0.9892 0.9616 0.9611 0.01 1.0000 1.0000 1.0000
0.05 0.9944 0.9879 0.9874 0.05 1.0000 1.0000 1.0000
0.10 0.9979 0.9960 0.9910 0.10 1.0000 1.0000 1.0000
50
20
10
C. Correlaciónαααα Kolmogorov
200
150
100
Kullback-Leiblern αααα KolmogorovC. Correlación Kullback-Leiblern
31
Tabla 11. Estimación de la potencia mediante simulación Monte Carlo para las pruebas de bondad de ajuste de Kolmogorov, Coeficiente de Correlación y Kullback-
Leibler, considerando como alternativa la distribución Fréchet estándar
0.01 0.4469 0.4382 0.3755 0.01 1.0000 0.9997 1.0000
0.05 0.5879 0.6137 0.6075 0.05 1.0000 1.0000 1.0000
0.10 0.6674 0.6946 0.6821 0.10 1.0000 1.0000 1.0000
0.01 0.7744 0.7338 0.8283 0.01 1.0000 1.0000 1.0000
0.05 0.8683 0.8731 0.9280 0.05 1.0000 1.0000 1.0000
0.10 0.9102 0.9204 0.9516 0.10 1.0000 1.0000 1.0000
0.01 0.9909 0.9733 0.9990 0.01 1.0000 1.0000 1.0000
0.05 0.9986 0.9953 0.9995 0.05 1.0000 1.0000 1.0000
0.10 0.9991 0.9987 0.9999 0.10 1.0000 1.0000 1.0000
Kullback-Leiblern αααα KolmogorovC. Correlación Kullback-Leiblern
50
20
10
C. Correlaciónαααα Kolmogorov
200
150
100
5.2. Tamaño de la prueba
Se dice que una prueba φ es de tamaño α si Pr{Error I usando }φ α≤ , con lo cual es
necesario estudiar nuevamente la función de potencia de la prueba como se define en (5.13)
El tamaño de la prueba está dado por:
0 0( )=Pr{Rechazar H | H es verdadera}β θ (5.16)
El tamaño de la prueba mide la capacidad de discriminación de una estadística de prueba
cuando 0H es verdadera. El juego de hipótesis que se utiliza en la simulación es el
planteado en (5.15).
Para estimar el tamaño de la prueba utilizando simulación Monte Carlo se procede como
sigue:
Para , ym n α fijos se generan B muestras aleatorias de tamaño n de la distribución Gumbel
estándar, para cada muestra de tamaño n se calcula el valor del estadístico mnKL para
posteriormente decidir se rechaza o no se rechaza la hipótesis nula planteada en (5.15)
considerando los valores críticos de la prueba de Kullback-Leibler mostrados en la tabla 1.
Un estimador del tamaño de la prueba se obtiene al dividir el número de veces que se
32
rechaza la hipótesis nula entre B. El programa 6 del anexo D, considerando como
alternativa la distribución Gumbel fue utilizado para generar 10, 000 muestras de tamaño n
para de la distribución estándar para diversos valores de , ym n α . En seguida se presentan
los resultados de dichas simulaciones.
Tabla 12. Estimaciones del tamaño de la prueba de bondad de ajuste de Kullback-
Leibler para varios tamaños de muestras y niveles de significancia
Nivel de significancia n
0.01 0.025 0.05 0.1
10 0.0103 0.0247 0.0502 0.0953
20 0.0088 0.0236 0.0503 0.0958
50 0.0103 0.0243 0.0463 0.0936
100 0.0108 0.0237 0.0477 0.1078
150 0.0093 0.0271 0.0480 0.1009
200 0.0116 0.0249 0.0515 0.1038
33
6. EJEMPLOS DE APLICACIÓN DE LA PRUEBA PROPUESTA En esta sección se presentan dos ejemplos en los que se ilustran los pasos que hay que
seguir para aplicar la prueba de bondad de ajuste descrita en la sección 4.
a) Niveles máximos anuales del océano, observados en Fremantle, Australia
El conjunto de datos que se estudia en este ejemplo corresponde a los niveles máximos
anuales del océano, observados en el periodo de 1897 – 1989 en Fremantle en el oeste de
Australia. Los datos se encuentran reportados en Coles (2001) y se muestran en seguida:
Tabla 13. Niveles máximos del océano en Fremantle, Australia en el período 1897-1989
Año Nivel del Mar (m)
Año Nivel del mar (m)
Año Nivel del mar(m)
Año Nivel del Mar(m)
1897 1.58 1924 1.46 1948 1.52 1970 1.71
1898 1.71 1925 1.34 1949 1.58 1971 1.46
1899 1.40 1927 1.74 1950 1.65 1972 1.60
1900 1.34 1928 1.62 1951 1.49 1973 1.50
1901 1.43 1929 1.46 1952 1.52 1974 1.60
1903 1.19 1930 1.71 1953 1.52 1975 1.90
1904 1.55 1931 1.74 1954 1.49 1976 1.70
1905 1.34 1932 1.55 1955 1.62 1977 1.40
1906 1.37 1933 1.43 1956 1.86 1978 1.80
1908 1.46 1934 1.62 1957 1.58 1979 1.37
1909 1.92 1935 1.49 1958 1.62 1980 1.46
1912 1.37 1936 1.58 1959 1.46 1981 1.61
1914 1.19 1937 1.34 1960 1.43 1982 1.43
1915 1.40 1938 1.37 1961 1.46 1983 1.67
1916 1.28 1939 1.62 1962 1.62 1984 1.62
1917 1.52 1940 1.31 1963 1.68 1985 1.57
1918 1.52 1941 1.43 1964 1.83 1986 1.56
1919 1.58 1943 1.49 1965 1.62 1987 1.46
1920 1.49 1944 1.55 1966 1.46 1988 1.70
1921 1.65 1945 1.71 1967 1.58 1989 1.51
1922 1.37 1946 1.49 1968 1.77
1923 1.49 1947 1.46 1969 1.62
Fuente: Coles (2001)
34
Ahora, hay que verificar que no exista ningún tipo de auto correlación en la serie de datos,
lo cual se puede ver al estudiar la gráfica siguiente:
0 5 10 15
Lag
-0.2
-0.1
0.0
0.1
0.2
Partial ACF
Figura 5. Auto correlación parcial para los datos del nivel máximo del océano en Fremantle, Australia
En la figura 5 se observa que existe una baja auto correlación entre los datos (es menor en
valor absoluto a 0.2), por lo que se continúa con el análisis de los mismos.
Al graficar las parejas 1:( , ), 1,...i i nF q x i n− = , en donde 1F − es la función de cuantiles de la
distribución Gumbel estándar, /( 1)iq i n= + y :i nx son las correspondientes estadísticas de
de orden de la muestra, se obtiene lo siguiente:
35
-1 0 1 2 3 4
1.2
1.4
1.6
1.8
F−1
(qi)
Nivel del océano
Figura 6. Gráfica Q-Q para los datos de nivel máximo del océano en Fremantle, Australia
La figura 6 proporciona fuerte evidencia de que los datos pueden ser ajustados a una
distribución Gumbel, ya que se observa una relación lineal entre :yi i nq x ,
Ahora se procede de manera rigurosa a verificar si los datos vienen de una distribución
Gumbel, utilizando la prueba de bondad de ajuste basada en la divergencia de Kullback-
Leibler, donde el juego de hipótesis de interés es el planteado en (4.1) y (4.2).
El tamaño de muestra n= 86, para un nivel de significancia α = 0.025, de la tabla 1 se
toma m=7, y el valor de la constante crítica 7,86 (0.025) 0.1491C = , solo resta calcular el
valor de mnKL en (4.10), para lo cual se utilizan los estimadores de máxima verosimilitud
de los parámetros de localidad y escala, ˆ ˆ1.4662, 0.1394ξ θ= = , obteniéndose mnKL =
0.1477, como 0.1477<0.1491 no se rechaza 0H y se concluye que los datos no contradicen
la hipótesis nula.
36
b) Lluvias máximas consecutivas para 1 día en Álamo, Veracruz
El conjunto de datos de este ejemplo corresponden a lluvias máximas consecutivas para 1
día, en el periodo 1967-2001 en la estación meteorológica, obtenido de las bases de datos
del Servicio Meteorológico Nacional con la ayuda del ERIC (Extractor Rápido de
Información Climática) del Instituto Mexicano de Tecnología del Agua (IMTA). Este tipo
de datos se utiliza en el diseño de drenaje agrícola superficial.
Tabla 14.Lluvias máximas consecutivas para 1 día en Álamo, Ver.
Precipitación Precipitación Precipitación Precipitación Precipitación Año
(mm)
Año
(mm)
Año
(mm)
Año
(mm)
Año
(mm)
1967 86.8 1975 161.6 1982 188.3 1989 100.0 1996 39.7
1968 78.5 1976 187.6 1983 113.9 1990 64.3 1997 80.3
1969 93.1 1977 89.9 1984 42.5 1991 98.0 1998 116.4
1970 95.5 1978 73.4 1985 80.0 1992 30.7 1999 120.0
1971 78.1 1979 78.1 1986 142.6 1993 37.9 2000 160.0
1973 89.9 1980 73.3 1987 42.9 1994 60.7 2001 129.0
1974 109.5 1981 130.1 1988 60.2 1995 48.7 2002 80.0
Fuente: ERIC
Ahora, hay que verificar que no exista ningún tipo de auto correlación en la serie de datos,
lo cual se puede ver claramente en la gráfica siguiente:
0 5 10 15
Lag
-0.2
0.0
0.2
Partial ACF
Figura 7.Auto correlación parcial para los datos de lluvias máximas consecutivas para 1 día en Álamo, Veracruz.
37
En la figura 7 se observa que existe una baja auto correlación entre los datos (es menor en
valor absoluto a 0.25), por lo que se continúa con el análisis de los mismos.
Al graficar las parejas 1:( , ), 1,...i i nF q x i n− = , se obtiene:
-1 0 1 2 3
50
100
150
F−1
(qi)
Lluvia m
áxima(m
m)
Figura 8. Gráfica Q-Q para los datos de lluvias máximas consecutivas para 1 día en
Álamo, Veracruz En la figura 8 se observa que existe una fuerte relación lineal entre :yi i nq x , en seguida se
prueba si los datos vienen de una distribución Gumbel, utilizando la prueba de bondad de
ajuste descrita en la sección 4. El juego de hipótesis de interés nuevamente es el planteado
en (4.1) y (4.2).
El tamaño de muestra n=35, para un nivel de significancia α = 0.05, de la tabla 1 se toma
m=4, y el valor de la constante crítica 4,35 (0.05) 0.2639C = , solo resta calcular el valor de
mnKL en (4.10), para lo cual se utilizan los estimadores de máxima verosimilitud de los
parámetros de localidad y escala, ˆ ˆ74.5432, 32.4328ξ θ= = , obteniéndose mnKL =0.1956,
como 0.1956<0.2639 no se rechaza 0H y se concluye que los datos se ajustan bien a un
modelo Gumbel.
38
7. CONCLUSIONES Y RECOMENDACIONES De los resultados obtenidos en esta investigación se puede concluir lo siguiente:
• Para las alternativas consideradas, la potencia de la prueba de bondad de ajuste para la
distribución Gumbel utilizando la divergencia de Kullback-Leibler aumenta a medida
que se incrementa el tamaño de la muestra.
• En el caso de la alternativas Weibull, Normal, Gamma y Fréchet estándar la potencia de
la prueba de Kullback-Leibler, fue mayor que la de la prueba del Coeficiente de
Correlación y la de Kolmogorov para la mayoría de los tamaños de muestra y los
niveles de significancia considerados, lo cual puede ser apreciado en las tablas 4, 6, 9 y
11.
• Para las alternativas Log-Normal, Logística, t y Cauchy, si bien la potencia de la
prueba de Kullback-Leibler no fue la más alta para la mayoría de los casos
considerados sus valores son muy similares a las potencias de la prueba del coeficiente
de Correlación y la de Kolmogorov, lo cual puede ser observado en las tablas 5, 7, 8 y
10.
• En lo que respecta al tamaño de la prueba, en la tabla 12, puede verse que los tamaños
estimados utilizando simulación son muy similares a los valores de α considerados, lo
cual significa que la prueba trabaja adecuadamente, rechazando cuando debe rechazar y
no rechazando cuando no debe rechazar.
• Para estudios futuros sería útil conocer el comportamiento de la prueba cuando existe
algún tipo de dependencia en las observaciones.
39
8. REFERENCIAS
Arizono, I. and Ohta, H. (1989). A test for normality based on Kullback-Leibler
information. Am. Statistn, 34, 20-23.
Chandra, M., Singpurwalla, N.D. and Stephens, M.A. (1981). Kolmogorov Statistics for
Tests of fit for the Extreme Value and Weibull Distributions. Journal of the American
Statistical Association. 74, 729-735.
Coles, S. G. (2001). An Introduction to Statistical Modelling of Extreme Values. London:
Springer.
Ebrahimi, N. and Habibullah M. (1992) Testing Exponentiality Based on Kullback-Leibler
Information. J.R. Statist. Soc. 54, 739-748.
Johnson, N., Kotz, S. and Balakrishnan, N. (1995). Continuos Univariate Distributions.
Vol 2. Second Edition. John Wiley & Sons, Inc. 719 pp.
Kendall, M. and Stuart A. (1973). The Advanced Theory of Statistics. Volumen 2, Third
Edition. Butler & Tanner Ltd.
Kinnison, R. (1989). Correlation Coefficient Goodness of Fit Test for the Extreme Value
Distribution. Am. Statistn. 43, 98-100.
Kullback, S. and Leibler, R. A.(1951). On information and sufficiency, Annals of
Mathematical Statistics, 4, 49-70
Mann, N. R., Schafer, R. E., and Singpurwalla, N.D. (1974), Methods for Statistical
Analysis of Reliability and Life Data, New York: John Wiley.
40
Öztürk, A. (1986). On the W test for the extreme value distribution, Biometrika, 73, 738-
740.
Reiss, R.-D. and Thomas, M. (2001). Statistical Analysis of Extreme Values with
Applications to Insurance, Finance, Hydrology and Other Fields. Second Edition. Basel,
Germany: Birkhäuser. 440 pp.
R Development Core Team (2004). R: A language and environment for statistical
computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0,
URL http://www.R-project.org.
Shannon, C. (1948). A mathematical theory of communication. Bell.Syst.Tech. J., 27, 379-423, 623-656.
Sheng S. K. (2002). Goodness-of – Fit Tests Based on Kullback-Leibler Discrimination
Information, IEEE Transactions On Information Theory, 48 1103-1117.
Stephens, M.A. (1977). Goodness of fit for the Extreme Value Distribution, Biometrika, 64,
583-588.
Stephenson, A. (2004). evd: Functions for extreme value distributions. R package version
2.1-6.
Tsujitani, M., Ohta, H. and Kase S. (1980). Goodness of Fit for the Extreme Value
Distribution. IEEE Transactions on Reliability, 29, 151-153.
Vasicek, O. (1976). A Test for Normality Based on Sample Entropy, Journal of the Royal
Statistical Society, Ser. B, 38, 54-59.
41
ANEXOS
ANEXO A
Propiedades de la distribución de valores extremos Tipo Gumbel
• Función de densidad
( , )
1exp exp ( ), , 0
( )
0 deotromodoX
x xI x
f x
ξ ξξ θ
θ θ θ −∞ ∞
− − − − − ∈ > =
ℝ
• Función de distribución
( , )( ) exp exp ( )X
xF x I x
ξθ −∞ ∞
− = − −
• Función generatriz de momentos
{ }( ) exp (1 ) para 1Xm t t t tξ θ θ= Γ − <
• Media
{ } , 0.577216...es la denominada constante de EulerE Xµ ξ θγ γ= = + ≈
• Varianza 2 2
2 2{( ) }6
E Xπ θ
σ µ= − =
• Estimadores de momentos
6s
x
θπ
ξ γθ
=
= −
ɶ
ɶ ɶ
Donde yx s son la media muestral y la desviación estándar muestral respectivamente.
42
ANEXO B
Estimadores máximo verosímiles de la distribución Gumbel
Sea { }nii
X 1= una muestra aleatoria de la distribución Gumbel, cuya función de densidad de
probabilidades está dada por (1.1), para estimar ξ y θ se maximiza la verosimilitud:
1 1
1( ; , ) ( ; , ) exp exp
n ni i
i
i i
x xL x f x
ξ ξξ θ ξ θ
θ θ θ= =
− − = = − − −
∏ ∏
1 1
1( ; , ) exp exp exp
n ni i
ni i
x xL x
ξ ξξ θ
θ θ θ= =
− − = − − −
∑ ∑ (B.1)
Se pretende encontrar los valores de yξ θ que maximizan ( ; , )L x ξ θ , pero esto es
equivalente a maximizar una función monótona de la verosimilitud, por lo tanto al tomar el
logaritmo natural de ( ; , )L x ξ θ en (B.1) se obtiene:
{ }1 1
1( ; , ) log ( ; , ) log exp exp exp
n ni i
ni i
x xl x L x
ξ ξξ θ ξ θ
θ θ θ= =
− − = = − − −
∑ ∑
1
( ; , ) log expn
i
i
xn nl x n x
ξξξ θ θ
θ θ θ=
− =− − + − −
∑ (B.2)
Al derivar (B.2) con respecto de ξ e igualar a cero se obtiene:
1
( ; , ) 1exp 0
ni
i
xl x n ξξ θξ θ θ θ=
−∂ = − − = ∂
∑ (B.3)
Resolviendo para ξ (B.3):
1
expn
i
i
xn
ξθ=
− = −
∑
{ }1
exp / expn
i
i
xn ξ θ
θ=
= −
∑
{ } 1
expexp /
ni
i
xn
ξ θ θ=
= −
∑
1
1 1exp
exp{ / }
ni
i
x
nξ θ θ=
= −
∑
1
1exp{ / } exp
ni
i
x
nξ θ
θ=
− = −
∑
43
Al tomar el logaritmo natural:
{ }( )1
1log exp / log exp
ni
i
x
nξ θ
θ=
− = − ∑
1
1log exp log exp
ni
i
x
n
ξθ θ=
− = − ∑
1
1log exp
ni
i
x
n
ξθ θ=
− = − ∑
1
1log exp
ni
i
x
nξ θ
θ=
= − − ∑ (B.4)
Al derivar (B.2) con respecto de θ e igualar a cero se obtiene:
2 2 21 1
( ; , ) 1 1exp { } 0
n ni
i i
i i
xl x n nx x
ξξ θ ξξ
θ θ θ θ θ θ= =
−∂ = − + − − − − = ∂
∑ ∑ (B.5)
Multiplicando por 2θ (B.5) y simplificando:
( )1 1
exp 0n n
ii i
i i
xn x n x
ξθ ξ ξ
θ= =
− − + − − − − =
∑ ∑
( )1 1
expn n
ii i
i i
xn x n x
ξθ ξ ξ
θ= =
− = − − − −
∑ ∑
( ) ( )1 1
expn n
ii i
i i
xx x
ξξ ξ
θ= =
− = − − − −
∑ ∑
( )1
1 expn
ii
i
xx
ξξ
θ=
− = − − −
∑
( )1
1 expn
ii
i
xn x
ξθ ξ
θ=
− = − − −
∑ (B.6)
Sustituyendo (B.4) en (B.6) y simplificando:
1 1 1
1 1log exp 1 exp exp log exp
n n ni i i
i
i i i
x x xn x
n n
θθ θ
θ θ θ θ= = =
= + − − − − −
∑ ∑ ∑
1 1 1
1 1log exp 1 exp exp log exp
n n ni i i
i
i i i
x x xx
n nθ
θ θ θ= = =
= + − − − − −
∑ ∑ ∑
44
1 1
1
1 1log exp 1 exp exp log
1exp
n ni i
i ni i i
i
x xx
xn
n
θθ θ
θ= =
=
= + − − − −
∑ ∑∑
1 1
1
exp1
log exp 1
exp
i
n ni
i ni i i
i
xn
xx
xn
θθθ
θ= =
=
− = + − − −
∑ ∑∑
1 1 1 1
1
exp1 1
log exp log expexp
i
n n n ni i
i i ni i i i i
i
xn
x xx n x
xn n
θθ θθ θ
θ= = = =
=
− = + − − + − −
∑ ∑ ∑ ∑∑
1 11
1 1
1 1
1exp log expexp
1log exp
exp exp
n nni ii
in ni iii
i n ni i i i
i i
x xxnn x
nxx n
x xn
θθ θθθ
θθ θ
= ==
= =
= =
− −− = + − − − − −
∑ ∑∑∑ ∑
∑ ∑
1
1 1 1
1
exp1 1
log exp logexp
ni
in n nii i
i ni i ii
i
xn x
x xx n n
xn n
θθ θθ θ
θ
=
= = =
=
− = + − − − − −
∑∑ ∑ ∑
∑
1
1
1
exp
exp
ni
ini
i ni i
i
xn x
n xx
θθ
θ
=
=
=
− = −
−
∑∑
∑
1
1
exp
exp
ni
i
i
ni
i
xx
xx
θθ
θ
=
=
− = −
−
∑
∑ (B.7)
Se observa que (B.7) depende solamente de θ , definiendo ( )f θ e igualando a cero:
45
( ) 1
1
exp0
exp
ni
i
i
ni
i
xx
f xx
θθ θ
θ
=
=
− = − + =
−
∑
∑ (B.8)
Al derivar (B.8) con respecto de θ :
( )
2
22 2
1 12
11
1 1exp exp1
expexp
n ni i
i ii i
nn
ii
ii
x xx x
fxx
θ θ θ θθ
θθ
= =
==
− − ′ = − +
− −
∑ ∑
∑∑ (B.9)
Empleando el método de Newton Raphson (B.9) se resuelve para θ ; para la cual se arranca
con una semilla inicial y se utiliza la relación:
( )( )1
ˆ ˆ i
i i
i
f
f
θθ θ
θ+ = −′
(B.10)
Hasta que 1
1
ˆ ˆ100
ˆi i
i
θ θθ+
+
− sea tan pequeño como se quiera.
Como valor inicial de θ se puede utilizar el estimador de momentos, es decir, 6 /sθ π=ɶ ,
en la que s la desviación estándar muestral.
Una vez que se ha calculado θ̂ se sustituye su valor en (B.4) para obtener ξ̂ .
46
ANEXO C
Independencia de la distribución de mnKL de los parámetros yθ ξ para cualquier
tamaño de muestra utilizando los estimadores de momentos de los mismos.
Si en lugar de utilizar los estimadores de máxima verosimilitud de yθ ξ en (4.10) se
utilizan los estimadores de momentos de los mismos: yθ ξɶ ɶ respectivamente, entonces
dicha ecuación puede escribirse de la manera siguiente:
( )( ) ( )1 1
1 1log log exp
2
n ni
mn i m i m
i i
Xn XKL X X
n m n
ξξθ
θ θ θ+ −= =
− = − − + + − + −
∑ ∑ɶɶ
ɶɶ ɶ ɶ
(C.1)
Donde:
, 1...iX i n= tienen función de densidad de probabilidades dada por (1.1).
Si , 1...iY i n= tienen función de densidad de probabilidades dada por (1.3) y
, 0ξ θ−∞ < < ∞ > , entonces:
para i=1...nd
i iX Yθ ξ= + (C.2)
lo cual se demostró con detalle en la sección 4.3.
Los estimadores de momentos de los parámetros de localidad y escala yξ θɶ ɶ
respectivamente para la distribución Gumbel, cuya función de densidad de probabilidades
dada por (1.1) pueden escribirse de la manera siguiente en términos de variables aleatorias:
6Sθ
π=ɶ (C.3)
Xξ γθ= −ɶ ɶ (C.4) Donde γ es la llamada constante de Euler, cuyo valor se pude consultar en el Anexo A
47
1/ 2
2
1
1( )
1
n
i
i
S X Xn =
= −
− ∑ (C.5)
1
1 n
i
i
X Xn =
= ∑ (C.6)
Sustituyendo (C.2) en (C.1):
( ) ( )1 1
1 1log ( ) log exp
2
n ni
mn i m i m
i i
Xn XKL Y Y
n m n
ξξθ ξ θ ξ θ
θ θ θ+ += =
− = − + − − + + − + −
∑ ∑ɶɶ
ɶɶ ɶ ɶ
( ) ( )1 1
1 1log ( ) log exp
2
n ni
i m i m
i i
Xn XY Y
n m n
ξξθ θ θ
θ θ θ+ −= =
− = − − + + − + −
∑ ∑ɶɶ
ɶɶ ɶ ɶ
( ) ( )1 1
1 1log log log( ) log exp
2
n ni
i m i m
i i
Xn XY Y
n m n
ξξθ θ
θ θ θ+ −= =
− = − + + − + + − + −
∑ ∑ɶɶ
ɶɶ ɶ ɶ
( ) ( )
1 1 1
1
1 1 1log log ( ) log
2
1exp
n n n
i m i m
i i i
ni
i
n XY Y
n m n n
X
n
ξθ θ
θ θ
ξθ
+ −= = =
=
= − − − − + + − +
−−
∑ ∑ ∑
∑
ɶɶɶ ɶ
ɶ
ɶ
( ) ( )1 1
1 1log ( ) log log exp
2
n ni
i m i m
i i
Xn XY Y
n m n
ξξθ θ
θ θ θ+ −= =
− = − − − + + − + −
∑ ∑ɶɶ
ɶɶ ɶ ɶ
(C.7)
Sustituyendo en (C.5) la ecuación (C.2):
1/ 2
2
1 1
1 1( ( ))
1
n n
i i
i i
S Y Yn n
ξ θ ξ θ= =
= + − +
− ∑ ∑
1/ 21/ 2 2
2 2
1 1
1( ) ( )
1 1
n n
i i
i i
Y Y Y Yn n
θξ θ ξ θ
= =
= + − − = −
− − ∑ ∑ (C.8)
Sustituyendo (C.8) en (C.3):
1/ 222
1
( )1 6
n
i
i
Y
Y Yn
S
θ
θ θπ π
=
−
− = =∑
ɶ (C.9)
Donde 1/ 2
2
1
1( )
1
n
Y i
i
S Y Yn =
= −
− ∑
48
Sustituyendo (C.2) en (C.3):
1
1 6( )
n
i Y
i
Y Sn
ξ ξ θ γ θπ=
= + −∑ɶ
6YY Sθ ξ γ θ
π= + − (C.10)
Sustituyendo (C.2), (C.9) y (C.10) en (C.7):
1( ) ( )
1
1
1( )
1 6log ( ) log log
2 6
661
exp6 6
n
ini
mn i m i m Y
i
Y
i YnY
i
Y Y
Yn n
KL Y Y Sn m
S
Y Y SY S
nS S
θ ξθ θ
πθ
π
θ ξ θ ξ γ θθ ξ γ θ ππ
θ θπ π
=+ −
=
=
+ = − − − + +
+ − + − + − − + −
∑∑
∑
( ) ( )1
1
1 6log ( ) log log
2 6
6 61
exp6 6
n
i m i m Y
i
Y
nY i Y
i
Y Y
n YY Y S
n mS
Y S Y Y S
nS S
θ ξθ θ
πθ
π
θ ξ γ θ θ ξ θ ξ γ θπ π
θ θπ π
+ −=
=
+ = − − − + +
+ − + − − + − + −
∑
∑
( ) ( )1
1
1 6log ( ) log log log log
2 6
6 61
exp6 6
n
i m i m Y
i
Y
nY i Y
i
Y Y
n YY Y S
n mS
Y S Y Y S
nS S
θ ξθ θ
πθ
π
θ ξ γ θ θ θ γ θπ π
θ θπ π
+ −=
=
+ = − − − + + + +
+ − − + − + −
∑
∑
49
( ) ( )1
1
6
1 6log ( ) log log
2 6
6
1exp
6
Yn
i m i m Y
i
Y
i Yn
i
Y
Y Y SnY Y S
n mS
Y Y S
nS
θ ξ θ ξ γ θπ
πθ
π
θ γπ
θπ
+ −=
=
+ − + −
= − − + + +
− +
+ −
∑
∑
( ) ( )1
1
61 6
log ( ) log log2 6
61
exp6
n Y
i m i m Y
i
Y
n i Y
i
Y
Y Y SnY Y S
n mS
Y Y S
nS
θ ξ θ ξ γ θπ
πθ
π
γπ
π
+ −=
=
+ − − + = − − + + +
− + + −
∑
∑
( ) ( )1
1
61 6
log ( ) log log2 6
61
exp6
n Y
i m i m Y
i
Y
n i Y
i
Y
SnY Y S
n mS
Y Y S
nS
γ θπ
πθ
π
γπ
π
+ −=
=
= − − + + +
− + + −
∑
∑
( ) ( )1 1
61 6 1
log ( ) log log exp2 6
n n i Y
i m i m Y
i i
Y
Y Y SnY Y S
n m nS
γπγ
ππ
+ −= =
− + = − − + + + + −
∑ ∑
( ) ( )1 1
61 6 1
log ( ) log exp2 6
n n i Y
mn i m i m Y
i i
Y
Y Y Sn
KL Y Y Sn m n
S
γπγ
ππ
+ −= =
− + = − − + + + −
∑ ∑
50
De esta última ecuación se concluye que la distribución de mnKL es independiente del los
parámetros yθ ξ para cualquier tamaño de muestra n si en (4.10) se utilizan los
estimadores de momentos de los mismos.
▀
51
ANEXO D
Programa 1: Rutinas en C/C++ para la obtención de los estimadores de máxima
verosimilitud de ξ y θ para la distribución Gumbel
Se desarrollaron algunas rutinas en el lenguaje de programación C/C++ para obtener los
estimadores de máxima verosimilitud de los parámetros de la distribución de valores
extremos tipo Gumbel, así como para realizar algunos otros cálculos. Las rutinas
programadas fueron compiladas en una dll (dinamic link library, por sus siglas en inglés)
para poder acceder a ellas desde R con la rutina dyn.load().
A continuación se presentan las rutinas desarrolladas en C/C++
Archivo: AjustaGumbel.c
#include <math.h>
#include <iostream.h>
//Función para ordenar los datos en forma ascendente
void ordenaasc(double *x, long n)
{
double tempo;
long pass;
long i;
for(pass=0; pass<n-1; pass++)
{
for(i=0; i<n-1; i++)
{
if(x[i]>x[i+1])
{
tempo=x[i];
x[i]=x[i+1];
x[i+1]=tempo;
}
}
}
}
//Función para calcular Hmn
void Hmn(double *x, long *n, long *m, double *suma)
{
double ximasm=0;
double ximenosm=0;
long i;
*suma=0;
52
ordenaasc(x,*n);
for(i=0; i<*n; i++)
{
if((i+*m+1)>(*n-1)) {ximasm=x[*n-1];}
else{ ximasm=x[i+*m];}
if((i-*m)<0){ximenosm=x[0];}
else{ximenosm=x[i-*m];}
*suma=*suma+log(*n/(2.0**m)*(ximasm-ximenosm));
}
*suma=*suma/(*n);
}
//Calcula la media muestral
double media(double *x, long n)
{
double suma=0;
long i;
for(i=0; i<n;i++)
{
suma=suma+x[i];
}
return(suma/n);
}
//Newton Raphson unidimensional
//define la función f, cuyas raíces se desean encontrar
double f(double *x, double theta, long n)
{
long i;
double num=0;
double den=0;
for(i=0; i<n;i++)
{
num=num+x[i]*exp(-x[i]/theta);
den=den + exp(-x[i]/theta);
}
return (theta-media(x,n)+num/den);
}
//defina la función fprima, la derivada de f
double fprima(double *x, double theta, long n)
{
long i;
double s1=0;
double s2=0;
double s3=0;
for(i=0; i<n;i++)
{
s1=s1+exp(-x[i]/theta);
s2=s2+x[i]*x[i]*exp(-x[i]/theta);
s3=s3+x[i]*exp(-x[i]/theta);
}
return((theta*theta*s1*s1+s2*s1-s3*s3)/(theta*theta*s1*s1));
53
}
//Calcula el parámetro de localidad de la distribución Gumbel,
//una vez que se conoce el parámetro de escala
double jiest(double *x, long n, double theta)
{
double suma=0;
long i;
for(i=0;i<n;i++)
{
suma=suma+exp(-x[i]/theta);
}
return(-theta*log(suma/n));
}
//Se define la función que realiza el trabajo de encontrar la raíz de la
//ecuación, theta0 es semilla (mayor que cero), x es el vector de datos
//epsilón es el error permisible, maxieter es el número máximo
//de iteraciones, solución es donde se guarda la solución, si no la
//encuentra regresa 0's
void AjustaGumbel(double *x,long *n,double *theta0, double *epsilon,
long *maxiter, double *solucion)
{
double theta1; //Parámetro de escala
double ji=0; //Parámetro de localidad
double error;
long i;
//Comienza el procesamiento
theta1=*theta0-f(x,*theta0,*n)/fprima(x,*theta0,*n);
error=fabs(*theta0-theta1);
*theta0=theta1;
i=1;
while(error>*epsilon && i<=*maxiter)
{
theta1=*theta0-f(x,*theta0,*n)/fprima(x,*theta0,*n);
error=fabs(*theta0-theta1);
*theta0=theta1;
i=i+1;
}
if(i-1<=*maxiter && error<*epsilon)
{
solucion[0]=jiest(x,*n,theta1);
solucion[1]=theta1;
}
else
{
solucion[0]=0;
solucion[1]=0;
}
}
54
Archivo: AjustaGumbel.def ;*******************************************
;AjustaGumbel.def module definition file
;*******************************************
LIBRARY AjustaGumbel
EXPORTS
Hmn
AjustaGumbel
A partir de los listados AjustaGumbel.c, AjustaGumbel.def se puede crear la dll
AjustaGumbel.dll utilizando algún lenguaje de programación con capacidades para crear
este tipo de librerías, en el caso de este trabajo se utilizó Microsoft Visual C++ 6.0.
55
Programa 2: Rutinas en R 2.0.1 para obtener la gráfica distribución empírica de mnKL
#Carga la dll para accesar la función Hmn y la función Ajusta Gumbel
dyn.load("D:\\Debug\\AjustaGumbel.dll",c("Hmn","AjustaGumbel"),"cdecl")
#Genera números aleatorios de la distribución Gumbel, por el método de
#inversión
rgumbel<-function(n,ji=0,theta=1)
{
z<-runif(n)
return(ji-theta*log(-log(z)))
}
#Obtiene los estimadores de mv de ji y de theta de la
#distribución Gumbel
AjGumbel.C<-function(x,semilla,epsilon=0.0001,maxiter=30)
{
.C("AjustaGumbel",as.double(x),length(x),as.double(semilla),
as.double(epsilon),as.integer(maxiter),double(2))[[6]]
}
#Calcula el estimador de H(m), de la divergencia de Kullback-Leibler
Hmn.Compilado<-function(x,m)
{
.C("Hmn",as.double(x),length(x),as.integer(m),double(1))[[4]]
}
#Calcula el estimador de KLmn(f,f0) de la divergencia de Kullback-Leibler
KLmn<-function(x,m,jiest,thetaest)
{
return(log(thetaest)-Hmn.Compilado(x,m)+mean(x)/thetaest
-jiest/thetaest+sum(exp(-(x-jiest)/thetaest))/length(x))
}
#Distribución empírica de KLmn, para diversos tamaños de muestra(n)
#y diferentes m, el parámetro B indica el número de muestras a generar
DistrKLmn<-function(n=50,m=10,B=100,params)
{
aleatorios<-rep(0,B)
i<-1
while(i<=B)
{
aleatoriosaextremos<-rgumbel(n,params[1],params[2])
solucion<-AjGumbel.C(aleatoriosaextremos,params[2])
if(!is.na(solucion[2])&& solucion[2]>0)
{
aleatorios[i]<-
KLmn(aleatoriosaextremos,m,solucion[1],solucion[2]);
i<-i+1;
}
}
return(aleatorios)
}
56
grafica<-function(tmuestras,m=4,B=10000,params)
{
cuantas<-length(tmuestras)
plot(density(DistrKLmn(tmuestras[1],m,B,c(params[1],params[2]))),
main="",xlab="",bty="l",lty=1)
legpos<-locator(1)
legend(legpos,paste("KLmn con Gumbel(",params[1],",",params[2],")"),
bty="n",lty=1)
for(i in 2:cuantas)
{
lines(density(DistrKLmn(tmuestras[i],m,B,
c(params[2*i-1],params[2*i]))),bty="l",lty=i)
legend(legpos$x,legpos$y-(i-1)*0.25,
paste("KLmn con Gumbel(",params[2*i-1],",",
params[2*i],")"),bty="n",lty=i)
}
}
grafica(rep(15,6),4,40000,c(0,1,-10,1,-10,10,-100,1,-1000,100,-1000,1000))
grafica(rep(10,6),4,40000,c(0,1,0,2,0,10,-10,1,-10,100,-10,50))
dyn.unload("D:\\Debug\\AjustaGumbel.dll")
57
Programa 3: Rutinas en R 2.0.1 para obtener las tablas de valores críticos de la
prueba de bondad de ajuste de K-L para diferentes niveles de la prueba y varios
tamaños de muestra.
#Carga la dll donde para accesar la función Hmn y la función Ajusta
#Gumbel
dyn.load("D:\\Debug\\AjustaGumbel.dll",c("Hmn","AjustaGumbel"),"cdecl")
#Genera números aleatorios de la distribución Gumbel
#por el método de inversión de la función de distribución.
rgumbel<-function(n,ji=0,theta=1)
{
z<-runif(n)
return(ji-theta*log(-log(z)))
}
#Obtiene los estimadores de mv de ji y de theta de la
#distribución Gumbel
AjGumbel.C<-function(x,semilla,epsilon=0.0001,maxiter=30)
{
.C("AjustaGumbel",as.double(x),length(x),as.double(semilla),
as.double(epsilon),as.integer(maxiter),double(2))[[6]]
}
#Calcula el estimador de H(m), de la divergencia de Kullback-Leibler
Hmn.Compilado<-function(x,m)
{
.C("Hmn",as.double(x),length(x),as.integer(m),double(1))[[4]]
}
#Calcula el estimador de KLmn(f,f0) de la divergencia de Kullback-Leibler
KLmn<-function(x,m,jiest,thetaest)
{
return(log(thetaest)-Hmn.Compilado(x,m)+mean(x)/thetaest
-jiest/thetaest+sum(exp(-(x-jiest)/thetaest))/length(x))
}
#Función para calcular los puntos críticos para diversos tamaños de
#muestra(n) y diferentes m, el parámetro B indica el numero de muestras a
#generar, el parámetro alpha es el nivel de significancia de la prueba
Cmnalpha<-function(n=50,m=10,B=100, alpha=c(0.01,0.025,0.05,0.10))
{
aleatorios<-rep(0,B)
i<-1
while(i<=B)
{
aleatoriosaextremos<-rgumbel(n,0,1)
solucion<-AjGumbel.C(aleatoriosaextremos,1)
if(!is.na(solucion[2])&& solucion[2]>0)
{
aleatorios[i]<-KLmn(aleatoriosaextremos,
m,solucion[1],solucion[2]);
i<-i+1;
58
}
}
return(quantile(aleatorios,1-alpha))
}
#Función para generar la tabla de valores críticos
#tmuestras es un vector que indica el tamaño de las muestras del
#cual se calculan los valores críticos, B es en numero de muestras de
#tamaño n a generar para calcular el punto crítico para alpha dado
TPCKLmn<-function(tmuestras,B=100,alpha=0.01)
{
nmax<-max(tmuestras) #Calcula el tamaño de muestra máximo
#calcula el numero de columnas de la tabla de valores críticos
if(nmax%%2==0)
{
#nmax es par
mmax<-(nmax/2)-1
}
else
{
#nmax es impar
mmax<-as.integer(nmax/2.0)
}
#Creación de la tabla para contener los valores críticos
Tabla<-matrix(nrow=length(tmuestras),ncol=mmax)
cat("\nTrabajando...")
cat("\nAl 100% ")
for(i in 1:length(tmuestras))
{
cat("#")
}
cat("\nActual ")
for(i in 1:length(tmuestras))
{
if(tmuestras[i]%%2==0)
{
#i es par
mmaxj<-(tmuestras[i]/2)-1
}
else
{
#i es impar
mmaxj<-as.integer(tmuestras[i]/2.0)
}
for(j in 1:mmaxj)
{
Tabla[i,j]<-Cmnalpha(tmuestras[i],j,B,alpha)
}
cat("#")
}
cat("\n")
dimnames(Tabla)<-list(tmuestras,c(1:mmax))
return(Tabla)
59
}
a<-TPCKLmn(c(5,10,15,20,25,30,40,50,60,70,80,90,100,200),50000,0.01)
b<-TPCKLmn(c(5,10,15,20,25,30,40,50,60,70,80,90,100,200),50000,0.025)
c<-TPCKLmn(c(5,10,15,20,25,30,40,50,60,70,80,90,100,200),50000,0.05)
d<-TPCKLmn(c(5,10,15,20,25,30,40,50,60,70,80,90,100,200),50000,0.1)
dyn.unload("D:\\Debug\\AjustaGumbel.dll")
60
Programa 4: Conjunto de rutinas en R 2.0.1 para estimar la potencia de la prueba de
Kolmogorov para la distribución Gumbel cuando no se especifican los parámetros,
considerando diferentes alternativas
dyn.load("D:\\Debug\\AjustaGumbel.dll",c("Hmn","AjustaGumbel"),"cdecl")
#librería para generar números aleatorios de la distribución Fréchet
library(evd)
AjGumbel.C<-function(x,semilla,epsilon=0.0001,maxiter=100)
{
.C("AjustaGumbel",as.double(x),length(x),as.double(semilla),
as.double(epsilon),as.integer(maxiter),double(2))[[6]]
}
#Genera números aleatorios de la distribución Weibull
aweibull<-function(n,lambda,beta)
{
return(((-log(1-runif(n)))^(1/beta))/lambda)
}
#Define la función de distribución de la distribución de valores extremos
Fdistr<-function(x,alfa,beta)
{
return(exp(-exp(-(x-alfa)/beta)))
}
#Función para calcular la estadística D, como indica Chandra et al (1981)
#x es el vector de datos y b0 es la semilla inicial para encontrar los
#estimadores máximo verosimiles de los parámetros de localidad y escala.
Dstat<-function(x)
{
x<-sort(x) #Ordena el vector de datos en
#forma ascendente
theta0<-sqrt(6*var(x))/3.1416 #Estimador de momentos de theta
emv<-AjGumbel.C(x,theta0)
if(!is.na(emv[2])&& emv[2]>0)
{
z<-Fdistr(x,emv[1],emv[2]) #Evalua F de Gumbel
Dmas<-max(c(1:length(x))/length(x)-z) #Calcula D+
Dmenos<-max(z-c(0:(length(x)-1))/length(x)) #Calcula D-
return(max(Dmas,Dmenos))
}
else return(-1)
}
CriticoKolmogorov<-function(n,alpha)
{
#La tabla 2 de puntos críticos de Chandra
#columna 1(alpha=0.10), columna 2(alpha=0.05),
#columna 3(alpha=0.025), columna 4(alpha=0.01)
Criticos<-matrix(nrow=4, ncol=4)
Criticos[1,]<-c(0.760,0.819,0.880,0.944) #Tamaño de muestra 10
Criticos[2,]<-c(0.779,0.843,0.907,0.973) #Tamaño de muestra 20
61
Criticos[3,]<-c(0.790,0.856,0.922,0.988) #Tamaño de muestra 50
Criticos[4,]<-c(0.803,0.874,0.939,1.007) #Tamaño de muestra infinito
i<-c(10,20,50,NA) #índice de fila
j<-c(0.10,0.05,0.025,0.01) #índice de columna
if(n<=50)
{
return(Criticos[match(n,i),match(alpha,j)])
}
else
{
return(Criticos[4,match(alpha,j)])
}
}
#Función que indica si se rechaza o no se rechaza la Hipótesis nula
#Ho:F(x) = Gumbel, Ha:F(x)<> Gumbel
#Si se rechaza regresa un 1, caso contrario un 0
#D es el valor de la estadística D, alpha es el nivel de significancia
#de la prueba, n es el tamaño de la muestra
Phix<-function(D,n,alpha)
{
pcritico<-CriticoKolmogorov(n,alpha)
if(sqrt(n)*D>pcritico) return(1)
else return(0)
}
#Obtiene la potencia de la prueba de Kolmogorov para la distribución
#Gumbel, n es el tamaño de muestra, alpha es en nivel de significia de
#la prueba, B es el número de veces que se repite el proceso para estimar
#la potencia alternativa es el modelo distribucional que genera las
#muestras params, es un vector de parámetros para generar muestras
PotKolmogorov<-
function(n=10,alpha=0.05,B=10000,alternativa="lognormal",params)
{
rechazos<-rep(0,B) #Crea un vector para contar el numero de
#veces que se rechaza Ho
i<-1
while(i<=B)
{
x<-switch(alternativa,weibull=aweibull(n,params[1],params[2]),
lognormal=rlnorm(n,params[1],params[2]),
gamma=rgamma(n,shape=params[1],scale=params[2]),
normal=rnorm(n,params[1],params[2]),
logistica=rlogis(n,params[1],params[2]),
cauchy=rcauchy(n,params[1],params[2]),
tstudent=rt(n,params),
rfrechet(n,params[1],params[2],params[3]))
D<-Dstat(x)
if(D!=-1)
{
rechazos[i]<-Phix(D,n,alpha)
i<-i+1
}
}
return(sum(rechazos)/B) #Regresa la potencia calculada por M-C
}
62
#Ejemplo de llamada, calcula la potencia para muestras de tamaño 10,
#alpha=0.05, considerando como alternativa la distribución N(0,1),
#el estimador obtenido se basa en 10,000 muestras de tamaño 10
PotKolmogorov(10,0.05,10000, "normal",c(0,1))
dyn.unload("D:\\Debug\\AjustaGumbel.dll")
63
Programa 5: Rutinas en R 2.0.1 para estimar la potencia de la prueba de bondad de
ajuste para la distribución Gumbel basada en el coeficiente de correlación,
considerando varias alternativas.
#librería para generar números aleatorios de distribución Fréchet
library(evd)
#Genera números aleatorios de la distribución Weibull
aweibull<-function(n,lambda,beta)
{
return(((-log(1-runif(n)))^(1/beta))/lambda)
}
#Calcula la correlación entre los datos y los valores esperados
#n es el tamaño de la muestra
Correlacion<-function(datos)
{
RP<-rank(datos)/(length(datos)+1) #Calcula los rangos porcentuales
EV<--log(-log(RP)) #Calcula los valores esperados
return(cor(datos,EV)) #Regresa el coeficiente de
#correlación
}
#Calcula el punto crítico basada en el coeficiente de correlación para
#el tamaño de muestra dado, y porc que es el punto porcentual,
#considerando la tabla 2 de Kinnison(1989), sin hacer simulación, es una
#opción mucho más rápida siempre y cuando
#el tamaño de muestra y el punto porcentual se encuentren en la tabla, si
#n o el porc requerido no están en la tabla regresa NA
CriticoKinnison<-function(n,porc)
{
#Crea la tabla de valores críticos
Tabla<-matrix(nrow=15,ncol=8)
Tabla[1,]<-c(0.8212,0.8514,0.8744,0.8991,0.933,0.9597,0.9778,0.9924)
Tabla[2,]<-c(0.8575,0.8852,0.9062,0.9267,0.9521,0.97,0.9814,0.991)
Tabla[3,]<-c(0.8766,0.9021,0.9213,0.9394,0.9607,0.9751,0.9839,0.9914)
Tabla[4,]<-c(0.8893,0.9132,0.9309,0.9473,0.9661,0.9783,0.9857,0.992)
Tabla[5,]<-c(0.8987,0.9213,0.9379,0.953,0.9699,0.9807,0.9871,0.9926)
Tabla[6,]<-c(0.9061,0.9276,0.9433,0.9573,0.9728,0.9826,0.9883,0.9931)
Tabla[7,]<-c(0.9174,0.9372,0.9513,0.9637,0.9771,0.9854,0.9901,0.994)
Tabla[8,]<-c(0.9259,0.9443,0.9572,0.9684,0.9803,0.9874,0.9914,0.9948)
Tabla[9,]<-c(0.9326,0.9499,0.9618,0.972,0.9827,0.989,0.9926,0.9955)
Tabla[10,]<-c(0.9381,0.9545,0.9655,0.9749,0.9847,0.9904,0.9935,0.9961)
Tabla[11,]<-c(0.9428,0.9584,0.9687,0.9774,0.9863,0.9915,0.9943,0.9966)
Tabla[12,]<-c(0.9469,0.9618,0.9714,0.9795,0.9877,0.9924,0.995,0.997)
Tabla[13,]<-c(0.9504,0.9647,0.9738,0.9814,0.9889,0.9933,0.9956,0.9974)
Tabla[14,]<-c(0.9603,0.9716,0.9788,0.98485,0.99095,0.9945,0.9964,0.9978)
Tabla[15,]<-c(0.9702,0.9785,0.9838,0.9883,0.993,0.9957,0.9972,0.9983)
i<-c(5,10,15,20,25,30,40,50,60,70,80,90,100,150,200) #índice de fila
j<-c(0.01,0.025,0.05,0.10,0.25,0.50,0.75,0.95) #índice de columna
return(Tabla[match(n,i),match(porc,j)])
}
#Función que indica si se rechaza o no se rechaza la Hipótesis nula
64
#Ho:F(x) = Gumbel, Ha:F(x)<> Gumbel
#Si se rechaza regresa un 1, caso contrario un 0
#datos es el vector de datos,alpha es el nivel de significancia de la
#prueba
Phix<-function(datos,alpha)
{
cmuestral<-Correlacion(datos)
if(cmuestral<CriticoKinnison(length(datos),alpha)) return(1)
else return(0)
}
#Obtiene la potencia de la prueba de Kinnison para la distribución
#Gumbel, n es el tamaño de muestra, alpha es en nivel de significia de la
#prueba B es el número de veces que se repite el proceso para estimar la
#potencia alternativa es el modelo distribucional que genera las muestras
#params, es un vector de parámetros del vector que genera las muestras
PotKinnison<-
function(n=30,alpha=0.10,B=10000,alternativa="lognormal",params=c(0,1))
{
rechazos<-rep(0,B) #Crea un vector para contar el número de
#veces que se rechaza Ho
for(i in 1:B)
{
x<-switch(alternativa,weibull=aweibull(n,params[1],params[2]),
lognormal=rlnorm(n,params[1],params[2]),
gamma=rgamma(n,shape=params[1],scale=params[2]),
normal=rnorm(n,params[1],params[2]),
logistica=rlogis(n,params[1],params[2]),
cauchy=rcauchy(n,params[1],params[2]),
tstudent=rt(n,params),
rfrechet(n,params[2],params[2],params[3]))
rechazos[i]<-Phix(x,alpha)
}
return(sum(rechazos)/B) #Regresa la potencia de la prueba
#calculada por Monte-Carlo
}
#Ejemplo de llamada, calcula la potencia para muestras de tamaño 10,
#alpha=0.05, considerando como alternativa la distribución N(0,1),
#el estimador obtenido se basa en 10,000 muestras de tamaño 10
PotKinnison(10,0.05,10000, "normal",c(0,1))
65
Programa 6: Conjunto de rutinas en R 2.0.1 para estimar la potencia de la prueba de
bondad de ajuste para la distribución Gumbel basada en el la divergencia de
Kullback-Leibler
#carga librería para accesar funciones AjustaGumbel y Hmn
dyn.load("D:\\Debug\\AjustaGumbel.dll",c("Hmn","AjustaGumbel"),"cdecl")
#librería para generar números aleatorios de distribución Fréchet
library(evd)
#Obtiene los estimadores de mv de ji y de theta de la
#distribución Gumbel
AjGumbel.C<-function(x,semilla,epsilon=0.0001,maxiter=30)
{
.C("AjustaGumbel",as.double(x),length(x),as.double(semilla),
as.double(epsilon),as.integer(maxiter),double(2))[[6]]
}
#Calcula el estimador de H(m), de la divergencia de Kullback-Leibler
Hmn.Compilado<-function(x,m)
{
.C("Hmn",as.double(x),length(x),as.integer(m),double(1))[[4]]
}
#Calcula el estimador de KLmn(f,f0) de la divergencia de Kullback-Leibler
KLmn<-function(x,m,jiest,thetaest)
{
return(log(thetaest)-Hmn.Compilado(x,m)+mean(x)/thetaest
-jiest/thetaest+sum(exp(-(x-jiest)/thetaest))/length(x))
}
#Función para obtener el punto critico de la prueba basada en K-L,
#n es el tamaño de muestra, y alpha es el nivel de significancia,
#si n o alpha no están en la tabla regresa NA NA
CriticoKL<-function(n,alpha)
{
#Crea la tabla de valores crítricos
Tabla<-matrix(nrow=25,ncol=8)
Tabla[1,]<-c(1.10278029,2,0.98730976,2,0.89378988,2,0.80015695,2)
Tabla[2,]<-c(0.7434514,4,0.67765221,3,0.62459301,3,0.56781467,3)
Tabla[3,]<-c(0.5825561,4,0.52388792,3,0.47953341,3,0.43027335,3)
Tabla[4,]<-c(0.48128827,4,0.43436104,4,0.39706349,3,0.3557188,3)
Tabla[5,]<-c(0.4071127,4,0.36460962,4,0.33511532,4,0.30303939,4)
Tabla[6,]<-c(0.35551602,5,0.32184408,4,0.29406321,4,0.26535625,4)
Tabla[7,]<-c(0.3177766,4,0.28764983,4,0.26387195,4,0.23899618,4)
Tabla[8,]<-c(0.28907295,5,0.26055063,5,0.23992439,5,0.21775285,5)
Tabla[9,]<-c(0.26527602,5,0.24027168,5,0.2205871,5,0.19985146,5)
Tabla[10,]<-c(0.24305825,6,0.2222502,6,0.20519257,5,0.1857765,5)
Tabla[11,]<-c(0.21257202,6,0.1939067,6,0.17933424,6,0.16312412,6)
Tabla[12,]<-c(0.19100498,7,0.173691,7,0.16043415,6,0.14589023,6)
Tabla[13,]<-c(0.1718123,7,0.1574654,7,0.14517222,7,0.13261467,7)
Tabla[14,]<-c(0.15780129,7,0.1436081,7,0.1329393,7,0.12127788,7)
Tabla[15,]<-c(0.14646304,7,0.13385778,8,0.12320416,8,0.11222464,8)
Tabla[16,]<-c(0.13571169,8,0.12417583,8,0.11492875,8,0.10450558,8)
Tabla[17,]<-c(0.12761192,9,0.11664802,9,0.10777725,9,0.09820639,9)
66
Tabla[18,]<-c(0.11988969,10,0.1099213,10,0.10144863,10,0.09211075,10)
Tabla[19,]<-c(0.1132316,9,0.10393108,11,0.0961322,11,0.087357,11)
Tabla[20,]<-c(0.10786139,10,0.09896338,11,0.09140724,11,0.08294759,11)
Tabla[21,]<-c(0.10286278,10,0.09418113,11,0.08699665,10,0.07890556,12)
Tabla[22,]<-c(0.09825546,12,0.08994195,10,0.08330718,12,0.07542217,12)
Tabla[23,]<-c(0.09336238,12,0.08571669,12,0.07901214,12,0.07175176,12)
Tabla[24,]<-c(0.09010782,11,0.08258958,13,0.07610944,13,0.06897623,13)
Tabla[25,]<-c(0.08657255,12,0.07911392,12,0.07314195,13,0.06622725,13)
i<-(5,10,15,20,25,30,35,40,45,50,60,70,80,90,100,110,
120,130,140,150,160,170,180,190,200)
j<-c(0.01,NA,0.025,NA,0.05,NA,0.10,NA)
critico<-Tabla[match(n,i),match(alpha,j)]
m<-Tabla[match(n,i),match(alpha,j)+1]
return(c(critico,m))
}
#Función que indica si se rechaza o no se rechaza la Hipótesis nula
#Ho:F(x) = Gumbel, Ha:F(x)<> Gumbel
#Si se rechaza regresa un 1, caso contrario un 0, -1 si el método
#numérico para estar alfa y beta de Gumbel no converge
#datos es el vector de datos,alpha es el nivel de significancia de la
#prueba
Phix<-function(datos,alpha)
{
n<-length(datos) #Tamaño de la muestra
theta0<-sqrt(6*var(datos))/3.1416 #Estimador de momentos de theta
solucion<-AjGumbel.C(datos,theta0)
if(!is.na(solucion[2])&& solucion[2]>0)
{
Constantes<-CriticoKL(n,alpha) #Obtiene la constante critica
ImnCritico<-Constantes[1] #Valor critico Imn*
m<-Constantes[2] #Window size asociado
if(KLmn(datos,m,solucion[1],solucion[2])>ImnCritico) return(1)
else return(0)
}
else
{
return(-1)
}
}
#Genera números aleatorios de la distribución Weibull
aweibull<-function(n,lambda,beta)
{
return(((-log(1-runif(n)))^(1/beta))/lambda)
}
#Obtiene la potencia de la prueba de K-L para la distribución
#Gumbel, n es el tamaño de muestra, alpha es en nivel de significia de la
#prueba, B es el número de veces que se repite el proceso para estimar la
#potencia
#alternativa es el modelo distribucional que genera las muestras
#params, es un vector de parámetros del vector que genera las muestras
PotKL<-
function(n=30,alpha=0.05,B=10000,alternativa="weibull",params=c(1,2))
{
67
rechazos<-rep(0,B) #Crea un vector para contar el numero
#de veces que se rechaza Ho
i<-1
while(i<=B)
{
x<-switch(alternativa,weibull=aweibull(n,params[1],params[2]),
lognormal=rlnorm(n,params[1],params[2]),
gamma=rgamma(n,shape=params[1],scale=params[2]),
normal=rnorm(n,params[1],params[2]),
logistica=rlogis(n,params[1],params[2]),
cauchy=rcauchy(n,params[1],params[2]),
tstudent=rt(n,params),
rfrechet(n,params[1],params[2],params[3]),
rgumbel(n,params[2],params[2]))
bandera<-Phix(x,alpha)
if(bandera!=-1)
{
rechazos[i]<-bandera
i<-i+1
}
}
return(sum(rechazos)/B) #Regresa la potencia de la prueba
#calculada por Monte-Carlo
}
#Ejemplo de llamada, calcula la potencia para muestras de tamaño 10,
#alpha=0.05, considerando como alternativa la distribución N(0,1),
#el estimador obtenido se basa en 10,000 muestras de tamaño 10
PotKL(10,0.05,10000, "normal",c(0,1))
dyn.unload("D:\\Debug\\AjustaGumbel.dll")
68
ANEXO E
Tablas de valores críticos para diferentes tamaños de muestra y diferentes niveles de significancia de la prueba.
Tabla E.1. Valores críticos de la estadística mnKL para el nivel de significancia 0.01α =
m n
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
5 1.6612 1.1028
10 1.0932 0.8156 0.7448 0.7435
15 0.8634 0.6286 0.5886 0.5826 0.5903 0.6164 0.6492
20 0.7411 0.5239 0.4919 0.4813 0.4834 0.5040 0.5208 0.5465 0.5771
25 0.6666 0.4581 0.4152 0.4071 0.4141 0.4262 0.4457 0.4590 0.4799 0.5039 0.5302 0.5536
30 0.6199 0.4181 0.3674 0.3570 0.3555 0.3681 0.3822 0.3979 0.4153 0.4326 0.4510 0.4734 0.4919 0.5142
35 0.5822 0.3819 0.3329 0.3178 0.3183 0.3254 0.3368 0.3486 0.3635 0.3768 0.3965 0.4128 0.4286 0.4458 0.4664
40 0.5513 0.3589 0.3059 0.2912 0.2891 0.2913 0.2996 0.3094 0.3229 0.3393 0.3510 0.3662 0.3793 0.3948 0.4108
45 0.5294 0.3385 0.2845 0.2680 0.2653 0.2685 0.2707 0.2800 0.2895 0.3009 0.3136 0.3275 0.3401 0.3524 0.3666
50 0.5133 0.3231 0.2689 0.2497 0.2436 0.2431 0.2472 0.2557 0.2634 0.2739 0.2858 0.2957 0.3078 0.3186 0.3310
60 0.4830 0.2968 0.2454 0.2248 0.2146 0.2126 0.2139 0.2203 0.2259 0.2305 0.2393 0.2479 0.2563 0.2665 0.2753
70 0.4613 0.2792 0.2254 0.2035 0.1938 0.1914 0.1910 0.1919 0.1970 0.2020 0.2077 0.2146 0.2221 0.2269 0.2353
80 0.4442 0.2652 0.2117 0.1893 0.1788 0.1731 0.1718 0.1735 0.1752 0.1804 0.1835 0.1884 0.1946 0.2006 0.2057
90 0.4327 0.2561 0.2030 0.1773 0.1655 0.1599 0.1578 0.1587 0.1600 0.1617 0.1665 0.1698 0.1744 0.1796 0.1826
100 0.4200 0.2448 0.1917 0.1686 0.1563 0.1491 0.1465 0.1467 0.1466 0.1484 0.1523 0.1542 0.1579 0.1603 0.1645
110 0.4118 0.2388 0.1848 0.1600 0.1477 0.1410 0.1376 0.1357 0.1360 0.1377 0.1391 0.1424 0.1443 0.1473 0.1508
120 0.4041 0.2309 0.1789 0.1543 0.1420 0.1333 0.1313 0.1278 0.1276 0.1277 0.1293 0.1309 0.1344 0.1365 0.1388
130 0.3974 0.2260 0.1729 0.1487 0.1344 0.1268 0.1228 0.1217 0.1206 0.1199 0.1218 0.1229 0.1242 0.1261 0.1287
140 0.3917 0.2219 0.1685 0.1442 0.1301 0.1226 0.1181 0.1153 0.1132 0.1141 0.1138 0.1156 0.1168 0.1183 0.1199
150 0.3862 0.2187 0.1645 0.1394 0.1254 0.1174 0.1120 0.1099 0.1083 0.1079 0.1088 0.1085 0.1102 0.1099 0.1133
160 0.3835 0.2127 0.1607 0.1359 0.1225 0.1130 0.1093 0.1054 0.1033 0.1029 0.1030 0.1029 0.1044 0.1055 0.1054
170 0.3783 0.2096 0.1576 0.1317 0.1194 0.1107 0.1047 0.1021 0.0999 0.0984 0.0986 0.0983 0.0994 0.0997 0.1008
180 0.3735 0.2069 0.1543 0.1300 0.1159 0.1071 0.1015 0.0981 0.0961 0.0945 0.0944 0.0934 0.0940 0.0954 0.0957
190 0.3713 0.2058 0.1529 0.1271 0.1126 0.1043 0.0993 0.0944 0.0927 0.0913 0.0901 0.0907 0.0904 0.0902 0.0924
200 0.3668 0.2013 0.1489 0.1250 0.1102 0.1012 0.0961 0.0911 0.0891 0.0889 0.0875 0.0866 0.0873 0.0877 0.0883
225 0.3608 0.1959 0.1451 0.1193 0.1049 0.0959 0.0900 0.0864 0.0837 0.0816 0.0803 0.0800 0.0797 0.0792 0.0798
69
Tabla E.2. Valores críticos de la estadística mnKL para el nivel de significancia 0.025α =
m
n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
5 1.42881 0.98731
10 0.95639 0.72414 0.67765 0.68170
15 0.77285 0.55776 0.52389 0.53132 0.54782 0.57370 0.60937
20 0.66504 0.47092 0.43771 0.43436 0.44358 0.46687 0.48787 0.51355 0.54518
25 0.60994 0.41077 0.37302 0.36461 0.37692 0.39207 0.41060 0.43000 0.45041 0.47600 0.50163 0.52468
30 0.56343 0.37662 0.33215 0.32184 0.32416 0.33711 0.35230 0.36796 0.38754 0.40513 0.42479 0.44675 0.46570 0.48814
35 0.53303 0.34606 0.30233 0.28765 0.28766 0.29603 0.30776 0.32228 0.33704 0.35225 0.36864 0.38702 0.40451 0.42098 0.44090
40 0.50852 0.32588 0.27781 0.26317 0.26055 0.26487 0.27424 0.28394 0.29770 0.31241 0.32601 0.34110 0.35507 0.37101 0.38682
45 0.48924 0.30819 0.26002 0.24412 0.24027 0.24403 0.24752 0.25647 0.26695 0.27817 0.29027 0.30437 0.31740 0.32843 0.34277
50 0.47488 0.29500 0.24445 0.22696 0.22293 0.22225 0.22636 0.23464 0.24224 0.25176 0.26370 0.27330 0.28600 0.29643 0.30927
60 0.44962 0.27306 0.22450 0.20441 0.19575 0.19391 0.19544 0.20094 0.20691 0.21198 0.22051 0.22915 0.23739 0.24591 0.25488
70 0.43075 0.25813 0.20724 0.18596 0.17613 0.17414 0.17369 0.17621 0.17981 0.18586 0.19045 0.19705 0.20435 0.20940 0.21731
80 0.41738 0.24592 0.19468 0.17311 0.16272 0.15838 0.15747 0.15849 0.16082 0.16484 0.16851 0.17358 0.17759 0.18503 0.18900
90 0.40749 0.23788 0.18666 0.16277 0.15213 0.14622 0.14361 0.14539 0.14613 0.14876 0.15163 0.15531 0.15930 0.16408 0.16779
100 0.39686 0.22842 0.17733 0.15454 0.14332 0.13657 0.13386 0.13386 0.13400 0.13577 0.13880 0.14125 0.14416 0.14743 0.15093
110 0.39056 0.22264 0.17104 0.14742 0.13574 0.12958 0.12518 0.12418 0.12468 0.12556 0.12740 0.12999 0.13223 0.13508 0.13805
120 0.38274 0.21697 0.16613 0.14277 0.13003 0.12342 0.11983 0.11697 0.11665 0.11742 0.11812 0.12002 0.12243 0.12496 0.12688
130 0.37797 0.21205 0.16102 0.13739 0.12429 0.11697 0.11302 0.11113 0.11006 0.10992 0.11123 0.11210 0.11366 0.11510 0.11762
140 0.37295 0.20824 0.15709 0.13330 0.12016 0.11247 0.10791 0.10585 0.10402 0.10441 0.10393 0.10546 0.10669 0.10750 0.10966
150 0.36798 0.20485 0.15382 0.12962 0.11614 0.10837 0.10318 0.10060 0.09933 0.09899 0.09896 0.09914 0.10070 0.10069 0.10327
160 0.36562 0.20140 0.15042 0.12629 0.11341 0.10450 0.09994 0.09686 0.09481 0.09428 0.09418 0.09478 0.09544 0.09603 0.09654
170 0.36127 0.19823 0.14789 0.12337 0.11001 0.10153 0.09668 0.09317 0.09143 0.08994 0.09035 0.09012 0.09073 0.09124 0.09249
180 0.35713 0.19604 0.14484 0.12090 0.10783 0.09882 0.09341 0.09013 0.08806 0.08661 0.08633 0.08572 0.08612 0.08692 0.08762
190 0.35484 0.19416 0.14314 0.11858 0.10441 0.09655 0.09123 0.08720 0.08542 0.08378 0.08277 0.08263 0.08259 0.08275 0.08388
200 0.35203 0.19074 0.14052 0.11663 0.10300 0.09367 0.08914 0.08440 0.08231 0.08133 0.08043 0.07911 0.07943 0.08017 0.08044
225 0.34726 0.18637 0.13661 0.11204 0.09806 0.08904 0.08335 0.07988 0.07699 0.07479 0.07391 0.07327 0.07271 0.07246 0.07320
70
Tabla E.3. Valores críticos de la estadística mnKL para el nivel de significancia 0.05α =
m n
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
5 1.24962 0.89379
10 0.85330 0.65078 0.62459 0.63640
15 0.69434 0.50495 0.47953 0.49150 0.51300 0.54207 0.57902
20 0.60732 0.42650 0.39706 0.39853 0.41339 0.43766 0.46110 0.48836 0.51947
25 0.55915 0.37558 0.34021 0.33512 0.34770 0.36373 0.38478 0.40438 0.42746 0.45240 0.47770 0.50126
30 0.52004 0.34485 0.30255 0.29406 0.29839 0.31201 0.32707 0.34416 0.36397 0.38233 0.40250 0.42389 0.44319 0.46483
35 0.49429 0.31711 0.27684 0.26387 0.26523 0.27296 0.28537 0.29929 0.31478 0.33074 0.34674 0.36501 0.38335 0.39971 0.41872
40 0.47277 0.29952 0.25521 0.24178 0.23992 0.24475 0.25321 0.26326 0.27699 0.29145 0.30602 0.32063 0.33410 0.34983 0.36596
45 0.45732 0.28375 0.23852 0.22355 0.22059 0.22338 0.22870 0.23830 0.24835 0.25892 0.27125 0.28374 0.29678 0.30899 0.32222
50 0.44353 0.27249 0.22532 0.20890 0.20519 0.20525 0.20932 0.21693 0.22577 0.23468 0.24493 0.25461 0.26655 0.27795 0.28957
60 0.42278 0.25369 0.20736 0.18709 0.18028 0.17933 0.18043 0.18507 0.19162 0.19718 0.20436 0.21218 0.22074 0.22931 0.23819
70 0.40634 0.24042 0.19176 0.17214 0.16336 0.16043 0.16056 0.16283 0.16681 0.17151 0.17670 0.18336 0.18970 0.19487 0.20224
80 0.39484 0.23041 0.18078 0.16088 0.15054 0.14624 0.14517 0.14624 0.14876 0.15170 0.15583 0.16023 0.16459 0.17145 0.17482
90 0.38615 0.22319 0.17353 0.15118 0.14066 0.13521 0.13294 0.13394 0.13472 0.13732 0.14053 0.14336 0.14734 0.15141 0.15532
100 0.37768 0.21522 0.16558 0.14343 0.13253 0.12665 0.12375 0.12320 0.12357 0.12523 0.12836 0.13055 0.13311 0.13644 0.13969
110 0.37187 0.20964 0.15957 0.13761 0.12616 0.12003 0.11613 0.11493 0.11502 0.11596 0.11723 0.11966 0.12183 0.12477 0.12737
120 0.36639 0.20440 0.15554 0.13285 0.12099 0.11414 0.11033 0.10833 0.10778 0.10826 0.10927 0.11063 0.11265 0.11494 0.11702
130 0.36198 0.20045 0.15134 0.12861 0.11579 0.10865 0.10477 0.10278 0.10172 0.10145 0.10268 0.10366 0.10492 0.10601 0.10844
140 0.35740 0.19704 0.14753 0.12478 0.11191 0.10446 0.10014 0.09814 0.09637 0.09625 0.09613 0.09713 0.09814 0.09916 0.10104
150 0.35383 0.19425 0.14467 0.12159 0.10868 0.10085 0.09610 0.09380 0.09171 0.09159 0.09141 0.09165 0.09277 0.09293 0.09483
160 0.35028 0.19142 0.14196 0.11866 0.10550 0.09744 0.09312 0.08959 0.08821 0.08700 0.08703 0.08701 0.08765 0.08853 0.08932
170 0.34747 0.18826 0.13983 0.11563 0.10245 0.09509 0.08974 0.08655 0.08462 0.08339 0.08335 0.08331 0.08358 0.08380 0.08493
180 0.34405 0.18639 0.13695 0.11363 0.10097 0.09241 0.08716 0.08364 0.08158 0.08027 0.08001 0.07901 0.07979 0.08001 0.08044
190 0.34184 0.18494 0.13530 0.11157 0.09812 0.09021 0.08479 0.08119 0.07909 0.07751 0.07655 0.07633 0.07611 0.07640 0.07688
200 0.33966 0.18235 0.13310 0.10979 0.09661 0.08775 0.08292 0.07868 0.07620 0.07536 0.07441 0.07355 0.07314 0.07357 0.07373
225 0.33537 0.17838 0.12956 0.10583 0.09215 0.08353 0.07814 0.07415 0.07126 0.06941 0.06837 0.06741 0.06726 0.06692 0.06718
71
Tabla E.4. Valores críticos de la estadística mnKL para el nivel de significancia 0.10α =
m
n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
5 1.06455 0.80016
10 0.74522 0.57450 0.56781 0.59266
15 0.61674 0.44800 0.43027 0.44889 0.47688 0.51044 0.54827
20 0.54569 0.38068 0.35572 0.36080 0.37891 0.40567 0.43176 0.46046 0.49049
25 0.50335 0.33789 0.30426 0.30304 0.31560 0.33427 0.35531 0.37617 0.40058 0.42608 0.45069 0.47343
30 0.47317 0.31007 0.27245 0.26536 0.27140 0.28438 0.30032 0.31817 0.33725 0.35612 0.37684 0.39730 0.41717 0.43754
35 0.45217 0.28770 0.24978 0.23900 0.24047 0.24931 0.26048 0.27473 0.29002 0.30641 0.32285 0.34009 0.35773 0.37457 0.39247
40 0.43333 0.27260 0.23107 0.21838 0.21775 0.22344 0.23136 0.24201 0.25415 0.26811 0.28272 0.29605 0.31036 0.32536 0.34160
45 0.42028 0.25772 0.21661 0.20250 0.19985 0.20277 0.20876 0.21781 0.22734 0.23748 0.24962 0.26161 0.27402 0.28609 0.29845
50 0.40962 0.24934 0.20458 0.18911 0.18578 0.18707 0.19079 0.19801 0.20662 0.21484 0.22456 0.23363 0.24503 0.25545 0.26710
60 0.39295 0.23348 0.18889 0.17041 0.16405 0.16312 0.16431 0.16863 0.17480 0.18000 0.18690 0.19420 0.20186 0.20978 0.21810
70 0.38104 0.22189 0.17569 0.15719 0.14940 0.14589 0.14657 0.14823 0.15171 0.15615 0.16097 0.16682 0.17247 0.17824 0.18472
80 0.37055 0.21276 0.16614 0.14679 0.13724 0.13299 0.13261 0.13319 0.13505 0.13807 0.14182 0.14562 0.15025 0.15573 0.15926
90 0.36293 0.20652 0.15929 0.13849 0.12863 0.12301 0.12128 0.12171 0.12275 0.12497 0.12764 0.13040 0.13364 0.13764 0.14106
100 0.35719 0.20002 0.15297 0.13183 0.12117 0.11565 0.11301 0.11222 0.11228 0.11402 0.11602 0.11858 0.12060 0.12389 0.12684
110 0.35227 0.19590 0.14761 0.12683 0.11560 0.10967 0.10618 0.10451 0.10474 0.10539 0.10671 0.10836 0.11060 0.11278 0.11540
120 0.34723 0.19107 0.14363 0.12259 0.11088 0.10449 0.10068 0.09884 0.09821 0.09872 0.09905 0.10050 0.10186 0.10408 0.10556
130 0.34372 0.18807 0.14051 0.11870 0.10665 0.09983 0.09604 0.09354 0.09280 0.09211 0.09330 0.09366 0.09498 0.09627 0.09807
140 0.34038 0.18474 0.13757 0.11538 0.10322 0.09610 0.09162 0.08963 0.08793 0.08767 0.08736 0.08811 0.08871 0.08976 0.09116
150 0.33729 0.18228 0.13488 0.11256 0.10032 0.09269 0.08803 0.08555 0.08382 0.08317 0.08295 0.08310 0.08394 0.08413 0.08563
160 0.33437 0.18041 0.13252 0.10986 0.09750 0.08974 0.08515 0.08205 0.08057 0.07919 0.07926 0.07891 0.07936 0.07988 0.08061
170 0.33203 0.17795 0.13037 0.10745 0.09487 0.08736 0.08260 0.07922 0.07737 0.07626 0.07552 0.07542 0.07565 0.07548 0.07622
180 0.32936 0.17596 0.12826 0.10585 0.09312 0.08510 0.08003 0.07651 0.07467 0.07327 0.07292 0.07175 0.07227 0.07236 0.07245
190 0.32787 0.17473 0.12672 0.10402 0.09118 0.08340 0.07806 0.07453 0.07236 0.07059 0.06958 0.06913 0.06898 0.06918 0.06941
200 0.32579 0.17297 0.12500 0.10237 0.08960 0.08119 0.07611 0.07228 0.06990 0.06866 0.06757 0.06671 0.06623 0.06656 0.06654
225 0.32220 0.16946 0.12201 0.09902 0.08583 0.07751 0.07208 0.06807 0.06534 0.06355 0.06231 0.06123 0.06085 0.06032 0.06055
Top Related