Variable aleatoria: definiciones básicasdelta.cs.cinvestav.mx/~francisco/prope/v_aleatoria.pdf ·...

63
Introducción a la Probabilidad Francisco Rodríguez Henríquez Variable aleatoria: definiciones básicas

Transcript of Variable aleatoria: definiciones básicasdelta.cs.cinvestav.mx/~francisco/prope/v_aleatoria.pdf ·...

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable aleatoria: definicionesbásicas

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria

• Hasta ahora hemos discutido eventos elementales y susprobabilidades asociadas [eventos discretos]

• Considere ahora la idea de asignarle un valor al resultadode un evento

Ejemplo: Considere una vez más el evento de tirar dos dados.Entonces la suma de los resultados de ambos dados, elcual es un valor k tal que k Є [2, 12] puede definirse comouna variable aleatoria S. Utilizaremos la siguientenotación:

Pr{S=k}

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria

• Se entiende que S es una variable aleatoria que puede

tomar valores entre 2 y 12 con diversas probabilidades.

• Más técnicamente S es visto como una función sobre los

subconjuntos del espacio de muestreo y Pr{S=k}

representa la suma de las probabilidades de todos los

resultados a los que les corresponde la suma k.

Nota: No se preocupe si la idea es un poco difusa al principio,

quedara más clara con los ejemplos.

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria

• Normalmente, estaremos interesados en conocer la

distribución que la variable aleatoria S, la cual toma

valores enteros k = 0, 1, …, n con probabilidades

P(k) = Pr(K = k)

• Generalmente, necesitaremos definir un conjunto de

atributos que sumaricen las descripciones de la

distribución de la variable aleatoria.

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Valor esperado

• El primer valor que sumariza el comportamiento de una

variable aleatoria es el valor esperado, definido como:

• Intuitivamente, el promedio mide la posición del “centro

de la distribución”

• También se conoce al promedio como el valor esperado

de la variable aleatoria, o de la distribución de ésta.

( )!=

=++++=n

k

nnppppkkp0

)()2(2)1(1)0(0 µL

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Valor esperado

Ejemplo: Promedio de tirar un dado.

• Tirar un dado puede resultar en obtener cualquiera de los

6 valores 1, 2, 3, 4, 5, 6 cada uno con probabilidad 1/6.

• Entonces el promedio está dado por:

• Note que el promedio no es ninguno de los resultados

legales de un dado

[ ] [ ] 5.32/766

1654321

6

1=!=+++++=µ

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Valor esperado

[ ]2

101

2

1=+=µ

Ejemplo: Promedio de un volado.

• Si se le asigna los valores, águila = 0, sol = 1, entonces el

valor esperado de tirar un dado (con probabilidad p=1/2)

es:

Sin embargo si asignamos águila = -1, sol = 1, el valor

esperado sería[ ] 0112

1=+!=µ

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Valor esperado: definición formal

Dada una variable X, cuyos resultados tienen probabilidades

p(i) para los valores xi (i=1, 2,…, n), entonces el valor

esperado de la variable aleatorio X se define como:

El valor esperado toma cada posible valor xi y lo pesa por su

probabilidad p(i).

El valor esperado es un operador lineal

{ } ( )!=

=n

i

i ipxXE1

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Valor esperado: definición formal

{ } ( )!=

=n

i

i ipxXE1

Muchas veces conviene ordenar los pares (xi, f(xi)) en forma

tabular,

f(xn)…f(x3)f(x2)f(x1)f(x)

xn….x3x2x1x

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Promedio: producto de dos variables

• Valor esperado del producto de dos variables aleatorias

independientes X, Y.

{ } ( )

( ) ( ) { } { }!!

!!!

=

====

j

Yj

i

Xi

i j

YXji

k

YEXEjpyipx

jpipyxkXYkpXYE )()(

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Promedio: suma de dos variables

{ } ( ) ( ) ( ) ( )

( ) ( ) { } { }!!

!!!!!

+=+

=+=+=+

j

Yj

i

Xi

ij

j

ji

iii

YEXEjpyipx

jipyjipxjipyxYXE ,,,

• Valor esperado de la suma de dos variables aleatorias

independientes X, Y.

• Lo cual implica que:

• En general, el valor esperado es un operador lineal, esto

es,

{ } { } { }YEXEYXE +=+

{ } { } { }YbEXaEbYaXE +=+

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Promedio

{ } { }!! =iiiiXEcXcE

• Suma de variables aleatorias Xi.

• Producto de variables aleatorias independientes

[ ] { }[ ]!! ="#$

%&'

i

i

i

iXEXE

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Varianza

{ } { } ( ) ( ) 22

!µ ="== # ipxXVXVarianzai

i

• Si el promedio nos indica dónde está el centro de nuestra

distribución, la varianza explica cuál es la dispersión de

una determinada distribución probabilística.

• Es fácil demostrar que:

{} { } { }XVccXVcV2

;0 ==

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Varianza de un dado

• Recuerde que el valor esperado de un dado es E{X}=7/2.

Para los 6 valores del dado, las diferencias de Xi con µ son:

-5/2, -3/2, -1/2, ½, 3/2, 5/2

• Debemos elevar al cuadrado las diferencias, multiplicarlas

por las probabilidades pi y sumarlas:

V{dado} = (1/6)[25+9+1+1+9+25]/4=70/24=35/12

• Note que un método alternativo es:

{ } 12/354/496/912

7

6

126

1

2 =!="#

$%&

'!= (

=i

idadoV

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Ejemplo de valor esperado y varianza

Ejemplo: Sean X, Y dos variables aleatorias del espacio de

muestreo formado por los posibles resultados de tirar dos

dados, de tal manera que siendo a, b tales resultados

entonces: X(a, b) = max(a, b) y Y(a, b) = a + b.

Note que si f es la distribución de probabilidad de X, entonces,

f(1) = 1/36 (La unica posibilidad que el máximo sea 1 es que

los dados hayan caído en (1,1). Similarmente, los tres

resultados (1,2), (2,1), (2,2) hacen que f(2) = 3/36.

Introducción a la Probabilidad Francisco Rodríguez Henríquez

9/365

11/367/365/363/361/36f(x)64321x

En general, se tiene que

( ) 47.4)( ==!i

xxfXE

( ) ( )! ==i

xfxXE 97.2122

( ) ( ) 99.1222 =!==XX

XExVar µ"

4.1=X

!

Ejemplo de valor esperado y varianza

Introducción a la Probabilidad Francisco Rodríguez Henríquez

La distribución g de la variable aleatoria Y sería como sigue:

1/362/363/364/365/366/365/364/363/362/361/36g(y)

12111098765432y

( ) 7)( ==!i

yygYE

( ) ( )! ==i

iygyYE 83.5422

( ) ( ) 83.5222 =!== YY YEyVar µ"

4.2=Y

!

Ejemplo de valor esperado y varianza

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable aleatoria en el dominiocontinuo

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria continua

( ) ( ) !<<!"#= xxXPxFX

,

Definición: La función de distribución acumulativa (cdf) de Xse define como:

Con las siguientes propiedades:

1.

2.

3.

4.

5.

( ) 10 !! xFX

( ) ( )2121

if xxxFxFXX

<!

( ) ( ) 1lim =!=!"

XXx

FxF

( ) ( ) 0lim =!"="!#

XXx

FxF

( ) ( ) ( ) !!

+==="<

++

"+

aaFaFxFXXX

ax 00

lima lim

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria continua

( ) ( )aFaXPX

!=> 1

equivalentemente, podemos determinar la probabilidad de

ciertos eventos en función de la cdf.

1.

2.

3.

( ) ( ) ( )aFbFbXaPXX

!="<

( ) ( ) !!

"==<#<

"bP

00

-

Xlimb bF bX

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria

Definición: Sea X una variable aleatoria con cdf FX(x). SiFX(x) es continua y si tiene existe su derivada dFX(x)/dxcomo una función continua para toda x, excepto quizáspor un número finito de puntos, entonces se dice que X esuna variable aleatoria continua.

De esta manera, si X es una variable aleatoria continua,entonces,

P(X = x) = 0

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria: función de densidadde probabilidad

( )( )dx

xdFxf X

X =Definición: Sea

La función fX(x) es conocida como la función de densidad deprobabilidad de la variable aleatoria continua X.

Con las siguientes propiedades:

1.

2.

3. fX(x) es una función continua bien comportada

4.

5.

( ) 0!xfX

( )!"

"#=1dxxfX

( ) ( )!="<b

aX dxxfbXaP

( ) ( ) ( ) !! dfxXPxFx

XX " #$=%=

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Variable Aleatoria: Promedio y variancia

( )( )

( )!"

!#

$==

%

&'

'(continua:

discreta:

Xdxxxf

Xxpx

XE

X

k

KXk

Definición: El valor esperado (promedio) de una variable aleatoriaestá dado como:

Definición: La varianza de una variable aleatoria se define como:

( ) ( )

( ) ( )!"

!#

$

%

%=

&

'(

(%continua:

discreta:

2

2

2

Xdxxfx

Xxpx

XX

k

KXXk

X

µ

µ

)

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Varianza

{ } { } { } { } { }XEXEXEXEXV2222

2 !=+!= µµ

• Note también que:

• Es fácil probar que en el caso de la suma de variables

aleatorias independientes Xi, la varianza es lineal:

{ } { }!! =iiXVXV

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribuciones de Probabilidadfamosas

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Uniforme

( )!"

!#$

<<%=

manera otra de0

1bxa

abxfX

Una variable aleatoria X es llamada variable aleatoria uniforme sobreel rango (a, b), si su pdf está dado por:

( )2

baXE

X

+==µ

( )12

2

2 ab

X

!="

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Uniforme

( )!"

!#$

<<%=

manera otra de0

1bxa

abxfX

Una variable aleatoria X es llamada variable aleatoria uniforme sobreel rango (a, b), si su pdf está dado por:

( )2

baXE

X

+==µ

( )12

2

2 ab

X

!="

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Uniforme

( )!"

!#$

<<%=

manera otra de0

1bxa

abxfX

Una variable aleatoria X es llamada variable aleatoria uniforme sobreel rango (a, b), si su pdf está dado por:

( )2

baXE

X

+==µ

( )12

2

2 ab

X

!="

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Bernoulli

( ) ( ) 0,1k ,)1( 1 =!=== !kk

X ppkXPkp

Una variable aleatoria X es llamada variable aleatoria Bernoulli conparámetro p si,

La distribución Bernoulli modela experimentos en que el resultadosólo puede ser éxito o fracaso. El ejemplo tradicional es tirarvolados.

( ) pXEX ==µ

( )ppX

!= 12"

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Binomial

Una variable aleatoria X es llamada variable aleatoria binomialcon parámetros (n, p) si,

La distribución binomial modela el número total de exitos trasvarios intentos hechos sobre una población infinita bajo lossiguientes supuestos:

• Únicamente dos resultados puede ocurrir en cada intento.• La probabilidad de éxito en cada intento es constante e

independiente de otros intentos.James Bernoulli derivó la distribución binomial en 1713 (Ars

Conjectandi).

( ) ( ) ( ) nkppk

nkXPkp

knk

X ,,1,0 1 K=!""#

$%%&

'===

!

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Binomial

( ) npXEX ==µ

( )pnpX

!= 12"

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución binomial Bernoulli

knkknk qpk

nqpknCpnkb !!

""#

$%%&

'== ),(),;(

N = 10;P= 2/3.

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución binomial Bernoulli

knkknk qpk

nqpknCpnkb !!

""#

$%%&

'== ),(),;(

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Comportamiento asintótico de laley binomial

Suponga que en la función binomial b(k;n, p), n >>1, p << 1, perode tal manera que np permanece constante, digamos, np = a.Dado que q = 1-p, se tiene que:

Donde si n es suficientemente grande y si k estáfijo. De aquí que en el límite cuando se tiene,!

n

k

"

# $ %

& ' p

k1( p( )

n(k)1

k!ak1(

a

n

"

# $

%

& '

n(k

!

n n "1( )L n " k +1( ) # nk

!

n"#, p" 0,k << n

!

b k;n, p( ) "1

k!ak1#

a

n

$

% &

'

( )

n#k

*ak

k!e#a

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Binomial asintótica = Poisson

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Poisson

La distribución de Poisson es una distribución de probabilidaddiscreta. Expresa la probabilidad que un número deeventos ocurra en un tiempo fijo suponiendo que:

a. Los eventos ocurren a una razón [velocidad]conocida.

b. La ocurrencia de eventos es independiente decuándo ocurrió el último evento.

Poissonfrancés = pescadoPoisoninglés = Veneno

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Poisson λ = 1,3, 5, 10

!

P[x = k] ="ke#"

k!

( ) !µ == XEX

!" =2

X

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Poisson λ = 1,3, 5, 10

!

P[x = k] ="ke#"

k!

( ) !µ == XEX

!" =2

X

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Poisson asintótica = Gaussiana

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Exponencial

Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,

• La distribución exponencial es especial porque modela eventosque ocurren aleatoriamente en el tiempo.

• La principal aplicación es en el estudio de tiempos de vida útilde componentes

• Quizás la propiedad más interesante de la distribuciónexponencial es su característica de “amnesia”. Por ejemplo, siun componente tiene un tiempo de vida útil distribuidoexponencialmente, entonces un item que ha funcionado porhoras es tan bueno como un item nuevo

( )!"#

<

>=

$

00

0

x

xexf

x

X

%%

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Exponencial

Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,

( )!

µ1

== XEX

2

2 1

!" =

X

( )!"#

<

>=

$

00

0

x

xexf

x

X

%%

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Exponencial

( )!"#

<

>=

$

00

0

x

xexf

x

X

%%

Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,

( )!

µ1

== XEX

2

2 1

!" =

X

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Exponencial

( )!"#

<

>=

$

00

0

x

xexf

x

X

%%

Una variable aleatoria X es llamada variable aleatoria exponencialcon parámetro λ>0 si,

( )!

µ1

== XEX

2

2 1

!" =

X

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Normal o Gaussiana

Una variable aleatoria X es llamada variable aleatoria normal(guassiana) si su pdf está dado por,

• La distribución gaussiana es la reina de las distribuciones. Eneste universo, la naturaleza se comporta gaussianamente.

• El teorema del límite central garantiza que cualquier otradistribución se comporta como una gaussiana cuando se hacenun número suficiente de experimentos: “la suma de muestrasindependientes para cualquier distribución con valor esperadoy varianzas finitos converge a la distribución normal conformeel tamaño de muestras tiende a infinito”.

• El primer uso de la distribución normal fue la de hacer unaaproximación continua a la distribución binomial.

( ) ( ) ( )222/

2

1 !µ

"!

##= x

X exf

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Normal o Gaussiana

( ) ( ) ( )222/

2

1 !µ

"!

##= x

X exf

Una variable aleatoria X es llamada variable aleatoria normal(guassiana) si su pdf está dado por,

( ) µµ == XEX

22 !! =X

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Normal o Gaussiana

( ) ( ) ( )222/

2

1 !µ

"!

##= x

X exf

Una variable aleatoria X es llamada variable aleatoria normal(guassiana) si su pdf está dado por,

( ) µµ == XEX

22 !! =X

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Distribución Normal o Gaussiana

• Se usa la notación N(µ; σ2) para denotar que la variable aleatoriaX es normal con promedio µ y varianza σ2.

• A una variable aleatoria normal Z con promedio cero y varianza1 se le llama variable aleatoria normal estándar:

• Como se ha mencionado, la distribución normal es la másutilizada en el estudio de fenómenos aleatorios, pues ocurre conharta frecuencia en una amplísima variedad de fenómenos de lanaturaleza

( ) ( ) )1;0(2

1 2/2

Nexf x

X != "

#

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Ruido Gaussiano

( ) ( ) ( )222/

2

1 !µ

"!

##= x

X exf

( ) µµ == XEX

22 !! =X

Introducción a la Probabilidad Francisco Rodríguez Henríquez

La ley débil de números grandes

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Ley débil de números grandes

• La ley débil de números grandes es uno de los resultadosmás importantes de la probabilidad, además de ser elfundamento teórico de la estadística.

• Contesta la pregunta: “¿Cuál es el valor esperado delpromedio de n muestras independientes de la mismavariable X?”

• Se conoce como la ley débil debido a que existe una versiónfuerte, conforme el número n de muestras tiende a infinito.

• Antes de revisar este importante resultado es necesarioestudiar la desigualdad de Chebyshev.

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Desigualdad de Chebyshev

{ } ( )!=i

i ipxXE22

• Dada una variable aleatoria X con promedio cero cuyosvalores, positivos o negativos, son xi con probabilidadesp(i), considere la suma:

• Ahora de esa suma, excluya aquellos valores que están auna distancia ε del promedio (origen).

{ } ( ) ( ) { }!!!!!

"="" ##""

i

xx

i xPipipxXE

ii

2222

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Desigualdad de Chebyshev

{ } [ ] 22 )/(!"!" XExPi

#$

• Por lo que,

• Razonando de la misma manera se puede demostrar que:

• Tomando en cuenta que el promedio es cero se llega alresultado conocido como la desigualdad de Chebyshev,

{ } [ ] 22/!! XExP

i"#

{ }2

1

!"! #$

ixP

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Ley débil de números grandes

• Regresando a la pregunta inicial: “¿Cuál es el valoresperado del promedio de n muestras independientes de lamisma variable X?”, considere el experimento el el cual sehan tomado n muestras independientes de una variablealeatoria X, obteniendo valores xi.

• Suponga que las n muestras corresponden a n variablesaleatorias Xi, (i=1,2,…,n). Definimos la función promedioS(n)/n tal que, S(n) = [X1 +X2 +…+Xn]/n.

Pregunta: ¿Cuál es el valor esperado y variancia del promedio?

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Ley débil de números grandes

( ){ } { } { }[ ] µµµµµ =++++=++= nnXEXEnnSEn

/][// 1 LL

Pregunta: ¿Cuál es el valor esperado y variancia del promediode n muestras?

Es decir que el valor esperado del promedio de n muestras esexactamente el valor esperado de la variable aleatoriaoriginal X.

Para hallar la varianza del promedio de n muestras conpromedio cero, se tiene,

( ){ } { } { }[ ] nnnnXVXVnnSVn

////2222

1!! ==++= L

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Ley débil de números grandes

{ } [ ] 2222//)/)((/)( !"!!µ nnnSEnnSP ##$%

Utilizando el resultado anterior y la desigualdad de Chebyshevse tiene que:

Este es el resultado buscado. La probabilidad que el promediode n independientes muestras de una variable aleatoria Xdifiera de su valor µ esperado por más que una constantearbitraria prefijada ε es controlada por la función de laderecha.

Equivalentemente escribimos, { } 2/11/ kknSP !"<! #µ

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Ley débil de números grandes

Tres mitos de la ley débil de números grandes:

1. Esta ley no dice que una mala (o buena) racha de valores quesignificativamente se desvían del valor esperado serácompensada con futuros experimentos: esta ley NO tienememoria, asume independencia en las muestras.

2. La ley no dice que el valor esperado estará cerca del promediopara un número suficiente de muestras. La ley dice queprobablemente estaremos cerca.

3. La ley es una desigualdad no una aproximación. Puede ocurrirque la estimación sea de pobre calidad (considere el caso k = 1en la última ecuación).

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Teorema del límite Central

n

X

n

nXXZ

nn

n

/

1

!

µ

!

µ "=

"++=

L

Acaso el teorema del límite central sea el resultado más famoso, elmás celebrado de la teoría de la probabilidad. En su formamás simple, puede ser formulado como sigue:

“Sea X1,…,Xn una secuencia de variables aleatoriasindependientes, idénticamente distribuidas, cada una conpromedio µ y varianza σ2. Defina entonces

Donde,

Entonces

( )n

n

i

inXX

nX

nX ++== !

=

L1

1

11

( )1;0Nlímn

=!"

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Métodos de Montecarlo

Experimento: Sean X1, X2,…,Xn una muestra de variable aleatoriaBernoulli X con promedio µ y varianza σ2. ¿Cuántasmuestras de X deben ser tomadas si se quiere que laprobabilidad que el valor esperado del promedio de lasmuestras no se desvíe de su valor teórico µ por más de σ/10?

En una variable aleatoria Bernoulli, se tiene que: µ = p;

σ2 =(0- µ)2(1-p)+(1- µ)2p=p2(1-p)+(1-p)2p=p-p2=p(1-p). Sihacemos,

µ = p=1/2; implica σ2 =1/4.

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Métodos de Montecarlo

{ } 22 //)( !"!µ nnnSP #$%

Utilizando la ley débil de números grandes se tiene:

Sustituyendo los valores pedidos se llega a:

{ }( ) nn

nnSP100

10/10/2/1/)(

2

2

=!"#$

$$

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Métodos de Montecarlo

Experimento: Utilizandoun generador denúmeros aleatorios,se asigna a losvalores por encimade ½ el valor de 1 ya los otros el valorde 0.

0.050.0520000.0710.0514000.0830.051200

0.10.0510000.1250.058000.250.050.071734000.50.050.0310620010.05-0.0545100

100/nσ/10desvexp 1n

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Problema del Chevalier de Mere

Problema: Se dice que el Chevalier de Mere retó porcorrespondencia a sus buenos amigos y mejores matemáticos,Pierre de Fermat y Blas Pascal a mediados del ancestral sigloXVII. El reto consistía en calcular cuál probabilidad de éxitoera más alta entre los siguientes dos experimentos:

1. La probabilidad de obtener al menos un 6 tras tirar 4veces un solo dado o;

2. La probabilidad de obtener un doble seis tras tirar 24veces dos dados.

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Problema del Chevalier de Mere

La probabilidad de no obtener un seis en 4 intentos es (1-1/6)4, porlo que la probabilidad de obtener al menos un seis es, 1- (1-1/6)4 =0.517.

La probabilidad de obtener al menos un doble seis en 24 intentos es,

1-(1-1/36)24 = 1-(35/36)24 =0.49140 [¿Cómo se compara esteresultado con la distribución binomial?]

Se sabe que el chevalier de mere conocía la respuesta correcta.Suponiendo que no sabía nada de probabilidad, ¿cuántos dadostuvieron que ver rodar los cansados ojos del chevalier de merepara penosamente obtener ese resultado de manera empírica?

Introducción a la Probabilidad Francisco Rodríguez Henríquez

Problema del Chevalier de Mere

{ }( ) nn

ExpExpP100

10/10/]21[

2

2

=!"##$

$$µ

Considere la diferencia del promedio de ambos experimentos, estoes, Δ=0.51775-0.49140=0.02635. Suponga que permitimos unatolerancia de la mitad de ese valor, esto es, ε=0.0132.

Por lo que se tiene que:

Lo cual implica que se necesitan

[¡Note que un experimento consiste en tirar 4 veces un dado y 24veces dos dados!]

osexperiment 7576100

!="

n