Teoría elemental de probabilidad CAPÍTULO 6 - ivanacal · Teoría elemental de probabilidad...

7
Teoría elemental de probabilidad CAPÍTULO 6 DEFINICIONES DE PROBABILIDAD Definición clásica Supóngase que un evento E puede suceder de h maneras, de un total de n posibles formas igualmente probables. Entonces, la probabilidad de ocurrencia de dicho evento (llamado éxito) se denota por p = Pr{E}=- n La probabilidad de no ocurrencia del evento (llamado/racaso) se denota por q = Pr {noE}=?-^- = 1 - = 1 -p= 1 - Pr{£} Por lo tanto, p + q - l o Pr{£} + Pr{no £} = 1. El evento "no £ " en ocasiones se denota por E,E o ~E. EJEMPLO 1 Sea ¿sel evento en que al lanzar un dado una vez se obtenga un 3 o un 4. Existen seis formas en que el dado puede caer, siendo éstas las caras 1,2, 3,4, 5 o 6; si el dado es bueno (es decir, no está cargado), se supone que las 6 caras tienen la misma probabilidad de ocurrir. Puesto que E puede ocurrir en dos de estas maneras, entonces p = Pr{£} =1 = 3. La probabilidad de no obtener un 3 o un 4 (es decir, obtener 1, 2, 5 o 6) es q = Pr{£) = 1 - i = f. Obsérvese que la probabilidad de un evento es un número entre 0 y 1. Si el evento no llega a suceder, su probabilidad es 0. Si debe ocurrir (es decir, si su ocurrencia es una certeza), su probabilidad es 1. Si p es la probabilidad de que un evento ocurra, las probabilidades a favor de su ocu- rrencia son p : q (léase "p a q"); las probabilidades en contra de su ocurrencia son q : p. Así. las probabilidades en contra de la ocurrencia de un 3 o un 4 en un solo lanzamiento de un dado bueno son q : p = § : 3 = 2 : 1 (es decir, de 2 a 1). Definición como frecuencia relativa La definición clásica de probabilidad cuenta con la desventaja de que el término "patata- te posible" es vago. De hecho, ya que el término parece sinónimo de "igualnme f ble", la definición es circular debido a que la probabilidad se está definiendo.

Transcript of Teoría elemental de probabilidad CAPÍTULO 6 - ivanacal · Teoría elemental de probabilidad...

Teoría elemental de probabilidad

CAPÍTULO 6 DEFINICIONES DE PROBABILIDAD

Definición clásica Supóngase que un evento E puede suceder de h maneras, de un total de n posibles formas igualmente probables. Entonces, la probabilidad de ocurrencia de dicho evento (llamado éxito) se denota por

p = Pr{E}=-n

La probabilidad de no ocurrencia del evento (llamado/racaso) se denota por

q = Pr {noE}=?-^- = 1 — - = 1 -p= 1 - P r { £ }

Por lo tanto, p + q - l o P r { £ } + Pr{no £ } = 1. El evento "no £ " en ocasiones se denota por E,E o ~E.

E J E M P L O 1 Sea ¿sel evento en que al lanzar un dado una vez se obtenga un 3 o un 4. Existen seis formas en que el dado puede caer, siendo éstas las caras 1,2, 3,4, 5 o 6; si el dado es bueno (es decir, no está cargado), se supone que las 6 caras tienen la misma probabilidad de ocurrir. Puesto que E puede ocurrir en dos de estas maneras, entonces p = Pr{£} =1 = 3.

La probabilidad de no obtener un 3 o un 4 (es decir, obtener 1, 2, 5 o 6) es q = Pr{£) = 1 - i = f.

Obsérvese que la probabilidad de un evento es un número entre 0 y 1. Si el evento no llega a suceder, su probabilidad es 0. Si debe ocurrir (es decir, si su ocurrencia es una certeza), su probabilidad es 1.

Si p es la probabilidad de que un evento ocurra, las probabilidades a favor de su ocu­rrencia son p : q ( léase "p a q"); las probabilidades en contra de su ocurrencia son q : p. Así. las probabilidades en contra de la ocurrencia de un 3 o un 4 en un solo lanzamiento de un dado bueno son q : p = § : 3 = 2 : 1 (es decir, de 2 a 1).

Definición como frecuencia relativa La definición clásica de probabilidad cuenta con la desventaja de que el té rmino "pata ta-te posible" es vago. De hecho, ya que el término parece s inónimo de "igualnme f ble", la definición es circular debido a que la probabilidad se está definiendo.

. : _ _2 t • "ecr/a elemental de probabilidad

te, con sus propios términos . Por esto, algunas personas han propuesto una definición es dística de probabilidad. Para ellos, la probabilidad estimada o probabilidad empírica de evento es la frecuencia relativa de ocurrencia del evento cuando el n ú m e r o de observac: nes es muy grande. La probabilidad es el límite de la frecuencia relativa, conforme el núrr ro de observaciones crece en forma indefinida.

E J E M P L O 2 Si l OOO lanzamientos de una moneda dan como resultado 529 caras, entonces la frecuencia relati de caras es de 529/1 000 = 0.529. Si en otros 1 000 lanzamientos resultan 493 caras, tenemos que frecuencia relativa de los 2 000 lanzamientos totales es de (529 + 493)/2 000 = 0.511. De acuerdo c la definición estadística, si se continuara de esta manera, se acercaría cada vez más a un número q representa la probabilidad de obtener una cara en un solo lanzamiento de la moneda. De los resultad presentados hasta ahora, éste debe ser 0.5, con un solo dígito. Para obtener más dígitos habrá q realizar más observaciones.

La definición estadística, aunque útil en la práctica, implica dificultades desde el pun de vista matemát ico , ya que quizá no exista un número límite real. Por esto, la moder teoría de la probabilidad es axiomática; es decir, la teoría deja el concepto de probabilid; sin definir, de la misma manera en que punto y línea no tienen una definición en geometri

"••^ PROBABILIDAD CONDICIONAL: EVENTOS INDEPENDIENTES Y DEPENDIENTES Si E¡ y E2 son dos eventos, la probabilidad de que E2 ocurra, dado que ¿s, haya ocurrido. I denota por Pr{E2\Ex) o P r { £ 2 d a d o £ , } , y se denomina probabilidad condicional de í puesto que E¡ ha ocurrido.

Si la ocurrencia o no ocurrencia de £", no afecta la probabilidad de ocurrencia de £ entonces Pr[E2lE¡} = Pr{E2}. Por ello se dice que Ex y E2 son eventos independientes; e caso contrar ío , son eventos dependientes.

Si se denota mediante EXE2 al evento en el cual "ambos, E] y E2, ocurren", llamado e ocasiones evento compuesto, entonces

PT{E¡E2}=PT{E¡}PT{E2\E¡} (j

En particular,

Pv{E\E2] = P r { £ , } P r { £ 2 } para eventos independientes (2

Para tres eventos Ex,E2y E¡:

P r { £ , £ 2 £ 3 } = Pr{£-,} P r { £ 2 l £ , } P r { £ 3 l £ : i £ 2 } (J

Esta es la probabilidad de ocurrencia de Et!E2y £ 3 , y es igual a (la probabilidad de £ , ) X (1; probabilidad de E2, dado queis, ha ocurrido) 3 (la probabilidad de E^njado que £ , y E2 hai ocurrido). En particular,

P T { E ¡ E 2 E } } = Pi{E¡} Pr{E2} P r { £ 3 } para eventos independientes (4

En general, si £ „ E2, £3,..., E„ son n eventos independientes, con sus probabilidade: respectivas p¡, p2,p3,..., pn, luego la probabilidad de ocurrencia de E¡ y E2 y E} y • • • En e: P\PiPi-P„-

E J E M P L O 3 Sean E] y EJ los eventos "cara en el quinto lanzamiento" y "cara en el sexto lanzamiento" de uní moneda, respectivamente. Entonces Et yE2 son eventos independientes; por lo tanto, la probabilidac de obtener caras en el quinto y sexto lanzamientos es (suponiendo que la moneda no está cargada)

Pr{£ ,£ 2 -} = P r { £ , } Pr{E2} = Q Q = I

Distribuciones de probabilidad • 1 2 9

E J E M P L O 4 Si la probabilidad de que A esté vivo dentro de 20 años es de 0.7 y la probabilidad de que B esté vivo dentro de 20 años es de 0.5, entonces la probabilidad de que ambos estén vivos dentro de 20 años es (0.7)(0.5) = 0.35.

E J E M P L O 5 Supóngase que una caja contiene 3 bolas blancas y 2 bolas negras. Sea Z?, el evento "la primera bola extraída es negra" y el evento E2 "la segunda bola extraída es negra"; considere que las bolas extraídas no se regresan a la caja. Aquí, E¡ y E2 son eventos independientes.

La probabilidad de que la primera bola extraída sea negra es Pr{£,} = 2/(3 + 2) = §. La probabi­lidad de que la segunda bola extraída sea negra, dado que la primera bola fue negra, es Pr{£y¿s,} = 1/ (3 + 1) = \. Por lo tanto, la probabilidad de que las dos bolas extraídas sean negras es:

P r { £ , £ 2 } = P r { £ , } Pr{E2\E,} = 1 • I = ±

EVENTOS MUTUAMENTE EXCLUYENTES Se dice que dos o m á s eventos son mutuamente excluyentes si la ocurrencia de uno de ellos excluye la ocurrencia de los otros. Así , si £ , y E2 son eventos mutuamente excluyentes, entonces ~Pr{EXE2} - 0.

Si E¡ + E2 denota el evento "ocurre £ , o E2 o ambos", luego

Pr{£- 1 + £ 2 } = P r { £ 1 } + P r { £ 2 } - P r { £ 1 £ 2 } (5)

En particular,

Prfi?! + E2) - Pr{2?,} + P r { £ 2 } para eventos mutuamente excluyentes (6)

Como extensión de esto, si Eu E2,..., En son n eventos mutuamente excluyentes con las respectivas probabilidades de ocur renc iap { ,p 2 , . . . ,p n , entonces la probabilidad de ocurren­cia de E¡ o E2 o • • • En es p , + p2 + • • • + pn,

El resultado (5) también puede generalizarse a tres o m á s eventos mutuamente exclu­yentes (véase el problema 6.38).

E J E M P L O 6 Si £ , es el evento "extraer un as de una baraja" y E2 es el evento "extraer un rey", entonces Pr{£,} = 5̂ = ¿ y Pr{E2) = A = fs- La probabilidad de extraer un as o un rey en un solo evento es

Pr{2-, + E2} = P r { £ , } + P r { £ 2 } = 1 + 1 = 1

dado que un as y un rey no pueden obtenerse en una sola extracción; por lo tanto, son eventos mutua­mente excluyentes.

E J E M P L O 7 Si E¡ es el evento "extraer un as" de una baraja y E2 es el evento "extraer una espada", entonces £, y E2 no son mutuamente excluyentes, puesto que se puede obtener el as de espadas. Por consiguiente, la probabilidad de extraer un as o una espada o ambas es

P r { £ ! + E2} = P r { £ , } + P r { £ 2 } - Vr{ExE2} _4_ 13 _ J _ 52 + 52 52 :

16 52 ;

_4_ 13

DISTRIBUCIONES DE PROBABILIDAD

Discretas Si una variable X llega a tomar un conjunto discreto de valores Xt. X- XK. con tivas probabi l idadesp x ,p 2 , . . . ,p K , donde/?,+ p2 + • • • + pK- 1, se dice que se ha distribución de probabilidad discreta para X. La función p{X). que tiene los tivos: p , , p2 pK paraX = Jf„ X2,..., XK, se denomina como la función

• ~eona elemental de probabilidad

función de frecuencia de X. Debido a que X puede tomar ciertos valores con probabilidades dadas, con frecuencia se le llama variable aleatoria discreta. Una variable aleatoria tam­bién se conoce como variable azarosa o variable estocástica.

E J E M P L O 8 Sea que se lance un par de dados y que X denote la suma de los puntos obtenidos, entonces la distribu­ción de probabilidad es igual a la que se presenta en la tabla 6-1. Por ejemplo, la probabilidad de obtener la suma 5 es ^ = 5; así, en 900 lanzamientos de los dados, se esperaría que en 100 de ellos la suma fuera 5.

Nótese que esto es análogo a una distr ibución de frecuencias relativas, donde las proba­bilidades reemplazan a las frecuencias relativas. Por lo tanto, se puede considerar a las distribuciones de probabilidad como formas teóricas o ideales del l ímite de distribuciones de frecuencia relativa cuando el número de observaciones realizadas es muy grande. Por esto, se pensar ía que las distribuciones de probabilidad son distribuciones de poblaciones, mientras que las distribuciones de frecuencia relativa son distribuciones de muestras obte­nidas de dicha población.

Tabla 6-1

X 2 3 4 5 6 7 8 9 10 11 12

P(X) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

La distr ibución de probabilidad puede representarse gráf icamente dibujando p(X) con­tra X, igual que en las distribuciones de frecuencia relativa (véase el problema 6.11).

Por medio de la acumulac ión de probabilidades, se obtienen distribuciones de probabi­lidad acumulada, que son análogas a las distribuciones de frecuencia relativa acumulada. La función asociada con esta distr ibución se denomina función de distribución.

F I G U R A 6-1

Continuas Las ideas anteriores llegan a extenderse al caso en el que la variable X puede tomar un conjunto continuo de valores. E l pol ígono de frecuencia relativa de una muestra se convier­te, en el caso teórico o l ímite de una población, en una curva continua (como la de la figura 6-1), cuya ecuación es Y = p(X). E l área total bajo esta curva, y sobre el eje X, es igual a 1, en tanto que el área baj o la curva entre las líneas X = a y X = b (sombreada en la figura 6-1) da la probabilidad de que X esté entre a y b, que puede denotarse Pr{a < X < b}.

P(X)

a b

Se llama a p(X) una función de densidad de probabilidad o, de forma breve, función de densidad; cuando dicha función está dada, se dice que se ha definido una distribución de probabilidad continua para X. Entonces, la variable X se denomina variable aleatoria con­tinua.

Igual que en el caso discreto, es posible definir las distribuciones de probabilidad acu­mulada y las funciones de distr ibución asociadas.

Análisis combinatorio • 1 3 1

• • • ESPERANZA MATEMÁTICA Si p es la probabilidad de que una persona reciba una suma de dinero S, entonces la espe­ranza matemática (o simplemente la esperanza) se define como pS.

E J E M P L O 9 Si la probabilidad de que un hombre gane un premio de $10 es 5, su esperanza es de s($10) = $2.

El concepto de esperanza es fácil de extender. Si X denota una variable aleatoria discre­ta que puede tomar los valores Xl,X2,...,XKcon sus respectivas probabilidadesP\,p 2 ,---,p K i donde px + p2 + • • • +pK = 1, la esperanza matemática de X (o simplemente la esperanza de X), denotada por E(X), se define como

K

E{X) = PlXx +p2X2 -H • • • + pKXK = PjXj = (7) M

Si las probabilidades p¡ de tal esperanza se reemplazan con las frecuencias relativas^/ /V, donde Y.fp la esperanza se reduce a(Y.fX)/N, que es la media ar i tmética X de una mues­tra de t amaño N, en la cual XUX2,...,XK aparecen con estas frecuencias relativas. Conforme N se hace más y más grande, las frecuencias relativas/¡/N se aproximan a las probabilidades Pj. Por lo tanto, esto conduce a interpretar que E(X) representa la media de la población de donde se obtuvo la muestra. Si llama m a la media de la muestra, puede denotar la media poblacional con la letra griega correspondiente fi (mu).

También es posible definir la esperanza para variables aleatorias continuas, aunque esta definición requiere el empleo del cálculo.

RELACIÓN ENTRE POBLACIÓN, MEDIA MUESTRAL Y VARIANZA Si se selecciona aleatoriamente una muestra de t amaño /V de una población (es decir, se asume que todas las muestras son igualmente probables), entonces es posible mostrar que el valor esperado de la media muestral m es la media poblacional ¡X.

Sin embargo, no se concluye que el valor esperado para cualquier cantidad calculada, a partir de una muestra, sea la cantidad poblacional correspondiente. Por ejemplo, el valor esperado de la varianza muestral, como se ha definido, no es la varianza poblacional, sino (N - \)IN veces dicha varianza. Por esta razón algunos estadís t icos prefieren definir la va­rianza muestral como la varianza multiplicada por N(N - 1).

ANÁLISIS COMBINATORIO

Para obtener probabilidades de eventos complejos, frecuentemente la enumerac ión de casos es difícil, tediosa o ambas. Para facilitar el trabajo se utilizan principios básicos estudiados en un tema llamado análisis combinatorio.

Principio fundamental

Si un evento puede ocurrir en cualquiera de rc, maneras y si, cuando esto ha ocurrido, c*re evento llega a ocurrir en cualquiera de n2 maneras, entonces el número de maneras em ambos eventos sucederían en el orden especificado es nxn2.

E J E M P L O 10 Si existen 3 candidatos para gobernador y 5 para alcalde, los dos cargos pueden ocapaaeár: maneras.

,.Z : • ~e : - a e ementa ! de probabilidad

Factorial de n

El factorial de n, denotado por n\, se define como

n\ =n(n- l ) ( n - 2 ) • • • 1 (5)

Por lo tanto, 5! = 5 • 4 • 3 • 2 • 1 = 120 y 4!3! = (4 • 3 • 2 • 1)(3 • 2 • 1) = 144. Es conveniente definir 0! = 1.

Permutaciones Una permutac ión de n objetos diferentes, tomados de r a la vez, es una ordenación de r objetos tomados de entre n objetos dados, con especial a tención prestada al orden de la elección. El número de permutaciones de n objetos, tomando r a la vez, se denota por nPr, P(n,r) o Pnr, y está dada por

nPr = n(n-\)(n-2)---{n-r+\)=j^-^ (9)

En particular, el número de permutaciones de n objetos, tomados n a la vez, es

"„P = n{n- l ) ( n - 2 ) - - - l = n!

E J E M P L O 11 El número de permutaciones de las letras a,byc, tomando dos a la vez, es }P2 = 3-2 = 6. Éstas son ab, ba, ac, ca, be y cb.

El número de permutaciones de n objetos, que consisten de grupos en los que n¡ son iguales, n2 son iguales, • • • es

— ¡ — ; — donde n = nx + n2 H (70) « 1 ! « 2 - • •

E J E M P L O 12 El número de permutaciones de letras en la palabra "estadísticas" es

12! = 9 979 200

1!3!2!2!1!2!1!

dado que tiene una letra "e", 3 letras "s", 2 letras "t", 2 letras "a", una letra "d", 2 letras " i " y una letra "c".

COMBINACIONES Una combinac ión de n objetos diferentes, tomando r a la vez, es una selección de r objetos de los n objetos, sin prestar atención al orden de elección. El número de combinaciones de n objetos, tomando r a la vez, se denota con el s ímbolo ©

n\ . n(n - 1) • • • (n - r + 1) n\ 0 r\(n - r)\ (11)

E J E M P L O 13 El número de combinaciones de las letras a, b y c, tomando dos a la vez, es

' 3 \ 3-2 2J 2! 3

Éstas son ab, ac y be. Observe que ab es la misma combinación que ba, pero no la misma permutación.

Relación de Id probabilidad con la teoría de conjuntos • 1 3 3

APROXIMACION DE STIRLING PARA n! Cuando n es grande, una evaluación directa de n! es poco práct ica. En tal caso, se utiliza fórmula aproximada desarrollada por James Stirling:

n\ PS \Í2minn e~n

donde e = 2.71828 • • • es la base natural de logaritmos (véase el problema 6.31).

(12)

F I G U R A 6-2

RELACION DE LA PROBABILIDAD CON LA TEORÍA DE CONJUNTOS En la teoría de probabilidad moderna se piensa en todos los resultados posibles de un expe­rimento, juego, etcétera, como puntos en un espacio (que pueden ser de una, dos, tres, etcétera, dimensiones), llamado espacio muestral S. Si S contiene sólo un número finito de puntos, entonces a cada punto se le llega a asociar un número no negativo, denominado probabilidad, tal que la suma de todos los números correspondientes a todos los puntos en S sea 1. U n evento es un conjunto (o colección) de puntos en S, como E¡ y E2 en la figura 6-2; esta figura es un diagrama de Euler o un diagrama de Venn.

El evento E X + E 2 es el conjunto de puntos que se encuentran ya sea en E X o en E 2 , o en ambos, mientras que el evento E X E 2 es el conjunto de puntos comunes a Exy a E 2 . Así , la probabilidad de un evento como E X es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E X . De forma similar, la probabilidad de E X + E 2 , simboli­zada por Pr{EX + E 2 ] , es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E X + E 2 . Si E X y E 2 no comparten puntos en común (es decir, los eventos son mutuamente excluyentes), entonces P r ^ + E 2 ] = Pr{EX] + Pr{E2}. Si hay puntos comunes, entonces P r { £ , + E 2 ] = Pr{¿s,} + Pr{E2} - P T { E X E 2 } .

E l conjunto E X + E 2 se denota como E X U E 2 y se denomina la unión de dos conjuntos. El conjunto E X E 2 se denota por E X (~1 E 2 y se denomina la intersección de los dos conjun­tos. Se puede extender a m á s de dos conjuntos; así, en lugar de E X + E 2 + £ 3 y E X E 2 E } , se pueden usar las notaciones E X U E 2 U E¿ y E X (1 E 2 D E 3 , respectivamente.

El s ímbolo <f> (letra griega phi) se utiliza para indicar un conjunto sin puntos llamado conjunto vacío. La probabilidad asociada con un evento correspondiente a este conjunte a cero (es decir, Pr{ <p] = 0). Si en E ¡ y E 2 no hay puntos en común , se puede escribir E E - c que significa que los eventos correspondientes son mutuamente excluyentes. de donde Pr{ExE2) = 0.

Con este enfoque moderno, una variable aleatoria es una función definida en cada pas­to del espacio muestral. Por ejemplo, en el problema 6.37 la variable aleatoria es la s*«at» ae las coordenadas de cada punto.

En el caso en que S tenga un número infinito de puntos, las ideas anienarc* se amern-den utilizando conceptos de cálculo.