Variables Aleatorias

39
Método Alias (Walter 1977) Permite generar de manera eficiente v.a.d. Con soporte finito. Supongamos que se desea generar la v.a.d. X con función de cuantía P = { p i : i = 1,2,...,n } donde Q (k) es una distribución concentrada en a lo sumo dos puntos {1,2,...,n}. La demostración de esta descomposición se basa en: 1 1 ) ( 1 1 n k k Q n P Método de Composición Caso Especial

description

Variables aleatorias

Transcript of Variables Aleatorias

  • Mtodo Alias (Walter 1977)Permite generar de manera eficiente v.a.d. Con soporte finito. Supongamos que se desea generar la v.a.d. X con funcin de cuanta P = { pi : i = 1,2,...,n }

    donde Q(k) es una distribucin concentrada en a lo sumo dos puntos {1,2,...,n}. La demostracin de esta descomposicin se basa en:Mtodo de ComposicinCaso Especial

  • Lema1: Sea P = { pi : i=1,2,...,n} funcin de cuantaEntonces:a) Existe i {1,2,...,n} tal que pi < b) Para tal i, existe j con i j tal que pi + pj

    Dem : Reduccin al absurdoTransformaciones

  • Distribucin BinomialPara generar una v.a.d. X ~ B(n,p)independientesAlgoritmoP1 : Hacer X = 0P2 : Efectuar n rplicas- Generar U ~ U(0,1)Si U < p , Hacer X = X + 1Si U p , Hacer X = X + 0P3 : Generar salida XObservacin: Mtodo propuesto requiere de generar n nmeros aleatorios y n comparacionesMtodos Especficos

  • Un mtodo alternativo es el mtodo de inversin basado en la relacin recursiva siguiente [Frmula recursiva]Sea

    Mtodos Especficos

  • AlgoritmoP1 : Genera U ~ U(0,1)P2 : Hacer i = 0 , P = F = (1-p)n Hasta que U < F Hacer P = P , F = F + P i = i + 1P3 : Generar salida X = iMtodos Especficos

  • Distribucin Poisson

    Para generar la distribucin de Poisson P() con pequeo, utilizando el mtodo de inversin.P(X = i + 1) =usando P = P(X = i) , F = P(X i)Mtodos Especficos

  • AlgoritmoP1 : Genera U ~ U(0,1)P2 : Hacer i = 0 F = P = Exp(-) Hasta que U < F Hacer P = P , F = F + P i = i + 1P3 : Generar salida X = iMtodos Especficos

  • Distribucin GeomtricaPara generar una v.a.d. X ~ G(p), es posible discretizar Y ~ exp(). Sea X = [y]Entonces P[x = r] =P(r Y < r +1), r=0,1,2,.. = es la funcin de cuanta de una Geo(p=1-exp(-))Tomando = -ln(1-p) X =~ Geo(p)

    Mtodos Especficos

  • Distribucin HipergeomtricaPara generar una distribucin Hipergeomtrica H(m,n,p) se efectan n extracciones sin reposicin de un conjunto de m elementos de dos clases {p m C1 y m(1-p) C2 }AlgoritmoP1 : Hacer X = 0, C1 = mp C2 = m-C1 P2 : Repetir n veces Generar U ~ U(0,1) Si U C1/m hacer X = X+1 , C1 = C1 - 1 sino , C2 = C2 - 1 Hacer m = m - 1P3 : Generar salida X Mtodos Especficos

  • Distribuciones Multivariadas

    Distribuciones IndependientesEl caso ms simple lo constituye el de distribuciones marginales independientes

    con x = (x1, x2,...,xp) Basta con generar cada componente Xi, como distribucin univarianda y salir con X = (X1, X2, ..., Xp)Mtodos Especficos

  • Distribuciones DependientesDistribuciones Dependientes con condicionadas disponibles. Utilizando la descomposicin F(x) = F1(x1) F2(x2 / x1)... F(xp / x1,x2,...,xp-1)Si disponemos de las distribuciones Xi / X1, ..., Xi-1 i = 1,2,...,pAlgoritmoP1 : Desde i=1,2,...,p Generar Xi ~ Xi / x1, ..., xi-1P2 : Generar salida x = (x1,x2,...,xp) Mtodos Especficos

  • Estadsticos de OrdenPara muestrear (X(1), X(2),...,X(p)), el estadstico de orden asociado a m.a.s. X1,X2,...,Xp de X. La forma obvia de muestrear es hacerlo de (X1,X2,...,Xp). Alternativamente, podemos generar la muestra de orden. Por ejemplo, si conocemos la inversa generalizada F, podemos generar nmeros aleatorios (U(1), U(2),...,U(p)) y salir X(i) = F(U(i)). Para ello es necesario generar una muestra ordenada de nmeros aleatorios (U(1), U(2),...,U(p)) . Mtodos Especficos

  • AlgoritmoP1 : Generar U(1), U(2),...,U(p) ~ U(0,1)P2 : Hacer U(p) = (Up)1/p U(k) = U(k+1) Uk1/kMtodos Especficos

  • Distribuciones DiscretasLas distribuciones discretas multivariadas no difieren de las univariadas. El soporte puede ser grande, pero los mtodos, inversin, alias, etc. funcionan bien.Ejemplo : Distribucin bivariada (X,Y) con soporte {1,2,...,L}x{1,2,...,M} tenemos Pxy = P(X x) + P(X=x, Y=y)indexado en x.Mtodos Especficos

  • Mtodos EspecficosPara generar X = (X1, X2,...,Xp) ~ N(, ) se usa el mtodo de descomposicin de Cholesky.Sea = L Lt, para alguna matriz L.Entonces si Z = (Z1, Z2,...,Zp) ~ N(0, Ip) la variable X = (, LZ) ~ N(, )Mtodos Especficos

  • Distribucin de WishartPara generar una v.a.c. W ~ W(n,,) para = 0, si = LLt y V = Zi Zit ; Zi normales p-variantes N(0, Ip) , i = 1,2,...,nEntonces:W = L V Lt ~ W (n,,0)Mtodos Especficos

  • AlgoritmoP1 : Generar Zij ~ N(0,1) i = 1,2,...,n j=1,2,...,nP2 : Hacer V = Zi Zit P3 : Hacer W = L V Lt P4 : Salida W Mtodos Especficos

  • El algoritmo implica generar np normales estndar. Una reduccin del esfuerzo de clculo se obtiene utilizando la descomposicin de Bartlett.En el caso no centrado ( 0), es una matriz simtrica definida no negativa. Sea = t su descomposicin de Cholesky y u1, u2, ..., up las filas de . Entonces, podemos escribir :

    donde se genera W, similar al caso = 0 usando np normales estndares.Mtodos Especficos

  • Distribucin Multinomial (p-dimensional).Para generar la Distribucin Multinomial de parmetros q1, q2, ..., qp X = (X1, X2, ..., Xp) ~ M(n, q1,...,qp) con :

    Como Xi ~ B(n, qi) i = 1,2,...,pXi / X1=x1,..., Xi-1=xi-1, ~ B(n-x1...-xi-1, wi)

    i = 2,3,...,p con wi =

    Mtodos Especficos

  • Entonces resulta el AlgoritmoP1 : Hacer mientras m=n i=1, w=1, Xi = 0, i=1,...,p Mientras m 0Generar Xi ~ B(m, qi/w)Hacer m = m-Xi , w =1 - qi , i = i+1Mtodos Especficos

  • Generacin de Procesos EstocsticosGeneracin de Familias de v.a. {Xt}t TComenzaremos con las cadenas de Markov homogneas.Cadena de Markov en Tiempo DiscretoPara generar una cadena de Markov con espacio de estado S y matriz de transicin P = [pij] donde pij = P(Xn+1=j / X = i). La forma ms simple de simular la transicin (n+1)-sima, conocida Xn, es generar Xn+1~{pxnj : j S}Mtodos Especficos

  • Alternativamente se puede simular Tn, el tiempo hasta el siguiente cambio de estado y, despus el nuevo estado Xn+Tn. Si Xn = s, Tn ~ G(pss) y Xn+Tn tiene una distribucin discreta con cuanta {psj / (1 - pss) : j S \ {s}}.Para muestrear N transiciones de la cadena suponiendo Xo = ioAlgoritmoHacer t=0, Xo = ioMientras t < NGenerar h ~ G(pxtxt)Generar Xt+h ~ {pxtj / (1 - pxtxt) : j S \ {s}}.Hacer t=t+hMtodos Especficos

  • OBS. 1) La primera forma de simular una cadena de Markov, que corresponde a una estrategia sincrnica, es decir en la que el tiempo de simulacin avanza a instantes iguales.2) La estrategia asincrnica es ms complicada de simular [Ver. B. Ripley 1996]Mtodos Especficos

  • Cadenas de Markov en Tiempo ContinuoLa simulacin asincrnica de cadenas de Markov en tiempo continuo es sencilla de implantar.- Las cadenas de Markov de Tiempo Continuo vienen caracterizadas por los parmetros vi de las distribuciones exponenciales de tiempo de permanencia en el estado i y la matriz de transicin P; con pii = 0; pij = 1- Sea Pi la distribucin de la fila i-sima. Entonces si Xo= io, para simular hasta T se tiene :Mtodos Especficos

  • Algoritmo

    Hacer t = 0, Xo = io , j = 0Mientras t < N Generar tj ~ exp(vxj) Hacer t = t + tj Hacer j = j + 1 Generar Xj ~ Pxj-1

    Mtodos Especficos

  • Proceso de PoissonEn el Proceso de Poisson P(), el nmero de eventos NT en un intervalo (0,T) es P(T) y los NT ~ U(0,T)Algoritmo- Generar NT ~ P(T) - Generar U1, ..., UT ~ U(0,T)Mtodos Especficos

  • OBS : 1) Para procesos de Poisson no homogneos, con intensidad (t) y u(t) = (s) ds . Entonces - Generar NT ~ P(u(t)) - Generar T1, T2 ,..., TNT ~

    2) Los procesos de Poisson son un caso particular de los procesos de renovacin. La forma de generar los primeros se extiende a los procesos de renovacin.Mtodos Especficos

  • - Sean S0 = 0, S1, S2, ... Los tiempos de ocurrencia- Ti = Si - Si-1 los tiempos entre sucesos.- Para un proceso de renovacin, los Ti son v.a.i.i.d. segn cierta distribucin .- Simular hasta el instante T.Hacer S0 = 0Mientras Si < TGenerar Ti ~ Hacer Si = Ti + Si-1Hacer i = i + 1Mtodos Especficos

  • Procesos no Puntuales (Movimiento Browniano)- La simulacin de procesos (no puntuales) en tiempo continuo es ms complicada que la simulacin de procesos puntuales.0- Una solucin es generar procesos en suficientes instantes discretos y aproximar la trayectoria por interpolacin.Mtodos Especficos

  • Como ejemplo, consideremos el movimiento Browniano con parmetro 2- X0 = 0- Para s1 t1 s2 t2 ..... sn tn las v.a. Xt1 - Xs1, ..., Xtn - Xsn son independientes- Para s < t, Xt - Xs ~ N(0, (t-s) 2)- Las trayectorias son continuasMtodos Especficos

  • Entonces para t fijo, Hacer X0 = 0 Desde i = 1 hasta n Generar Yi ~ N(0, (t-s) 2) Hacer Xit = X(i-1)t + Yi Interpolar la trayectoria en {(it, Xit)}Otros ejemplos de Simulacin de Procesos continuos [Ver B. Ripley 1987]Mtodos Especficos

  • El Proceso de GibbsEl creciente inters en los mtodos de cadenas de Markov, se debe al uso en Inferencia Bayesiana del Muestrador de Gibbs. [Geman (1984)] Ejemplo: Sean (X,Y) v.a.d. Bernoulli con distribucin x y P(X,Y)0 0 p11 0 p2 pi = 10 1 p3pi > 01 1 p4Mtodos Especficos

  • P(X=1) = p2 + p4 (Marginal)P(X/Y=1) = P(X=1/Y=1) = Las Distribuciones condicionales

    Mtodos Especficos

  • AlgoritmoEscoger Y0 = y0 , j =1Repetir Generar Xj ~ X/Y = yj-1 Generar Yj ~ Y/X = xj j=j+1Entonces {Xn} define una cadena de Markov con matriz de transicinA = Ayx AxyMtodos Especficos

  • Como las probabilidades pi > 0, la cadena es ergdica y tiene distribucin lmite, que es la marginal de XXn X ; Yn Y ; (Xn, Yn) (X,Y)OBS: 1) El procedimiento descrito se llama muestrador de Gibbs [Gibbs Sampler] y nos proporciona una cadena de Markov, con distribucin lmite deseada y se puede generalizar.Para muestrear un vector aleatorio p-variante X = (X1, X2, ..., Xp) con distribucin , conociendo las distribuciones condicionadas Xs/Xr, r sMtodos Especficos

  • Sea (xs/xr, r s) Dist. CondicionadaEl [Gibbs Sampler] en este caso es - Escoger X10, X20,..., Xp0 ; j = 1 RepetirGenerar X1j ~ X1/ X2j-1,..., Xpj-1 Generar X2j ~ X2/ X1j, X3j-1,..., Xpj-1 ....Generar Xpj ~ Xp/ X1j, X2j,..., Xp-1jj = j+1Mtodos Especficos

  • Se puede verificar que Xn = (X1n, X2n,..., Xpn) define una cadena de Markov con Matriz de transicin Pg(Xn, Xn+1) = Bajo condiciones suficientemente generales [Ver Roberts Smith (1994)]Mtodos Especficos

  • Ejemplo : Muestrear la densidad (x1/x2) = siendo D = R+ R (x1/x2) = (x2/x1) =

    x1/x2 ~ x2/x1 ~ N(0, 2=(1/2x1))Mtodos Especficos

  • El muestreador GibbsEscoger x20 ; j = 1RepetirGenerar X1j ~ exp[1+(x2j-1)2]Generar X2j ~ N(0, 1/2x1j)OBS: Las secuencias podran efectuarse en forma aleatoria en lugar de usar la secuenciacin naturalEstudiar el Algoritmo de Metropolis-Hastings.Mtodos Especficos