TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO
description
Transcript of TEORIA DE LA PROBABILIDAD. AUTOR: ELI ANGULO
REPUBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR PARA LA EDUCACION SUPERIOR
INSTITUTO UNIVERSITARIO POLITECNICO
SANTIAGO MARIÑO
MARACIBO, EDO. ZULIA
CATEDRA: ESTADISTICA I
TEORIA DE LA PROBABILIDAD
REALIZADO POR:
ANGULO ANGULO, ELI JOSE
C.I. 20.686.001
CARRERA: ING. ELECTRICA (43)
CONTENIDO
INTRODUCCION
-LA PROBABILIDAD
-CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD
-DEFINICION DE PROBABILIDAD TEORIA DE LA PROBABILIDAD
-ENFOQUES DE LA TEORIA DE LA PROBABILIDAD
-METODOS PARA CALCULAR LA PROBABILIDAD
-APLICACIONES DE LA PROBABILIDAD
-EL VALOR DE LA PROBABILIDAD
-DISTRIBUCION DE LA PROBABILIDAD
-EJEMPLOS DE LA TEORIA DE PROBABILIDAD
-DEFINIR LOS CONCEPTOS DE ESPACIO MUESTRAL, EVENTOS,
RELACIONES ENTRE EVENTOS Y FAMILIA DE EVENTOS.
CONCLUSION
BIBLIOGRAFIA
INTRODUCCION
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un
experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas
como la estadística, la física, la matemática, la ciencia y la filosofía para sacar
conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de
sistemas complejos.
La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos
aleatorios. Estos deben contraponerse a los fenómenos determinanticos, los cuales son
resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones
determinadas. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen
como resultado de experimentos realizados, otra vez, bajo las mismas condiciones
determinadas pero como resultado posible poseen un conjunto de alternativas, por
ejemplo, el lanzamiento de un dado o de un dardo.
Los procesos reales que se modelizan como procesos aleatorios pueden no serlo
realmente; cómo tirar una moneda o un dado no son procesos de aleación en sentido
estricto, ya que no se reproducen exactamente las mismas condiciones iníciales que lo
determinan, sino sólo unas pocas. En los procesos reales que se modelizan mediante
distribuciones de probabilidad corresponden a modelos complejos donde no se conocen
todos los parámetros que intervienen; ésta es una de las razones por las cuales la
estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la
teoría de la probabilidad en sí.
En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para
la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida,
desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual
obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la
rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera
de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en
las más variadas ramas del conocimiento, como puede ser la física, o las finanzas.
LA PROBABILIDAD
La probabilidad es la característica de un evento, que existen razones para creer
que éste se realizará.
La probabilidad p de que suceda un evento S de un total de n casos posibles
igualmente probables es igual a la razón entre el número de ocurrencias h de
dicho evento (casos favorables) y el número total de casos posibles n.
La probabilidad es un número (valor) que varía entre 0 y 1. Cuando el evento es
imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene
que ocurrir su probabilidad es 1.
La probabilidad de no ocurrencia de un evento está dada por q, donde:
Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad
de que no ocurra, entonces p + q = 1. Simbólicamente el espacio de resultados,
que normalmente se denota por Ω, es el espacio que consiste en todos los
resultados que son posibles. Los resultados, que se denota por ω1, ω2, etc. son
elementos del espacio Ω.
CRONOLOGIA DE LOS AVANCES DE LA PROBABILIDAD
1657-- Christiaan Huygens le dio el tratamiento científico conocido más temprano
al concepto.
1713-- Ars Conjectandi, de Jakob Bernoulli y Doctrine of Chances de Abraham de
Moivre trataron el tema como una rama de las matemáticas.
1722-- La teoría de errores puede trazarse atrás en el tiempo hasta Opera
Miscellanea de Roger Cotes.
1755--Thomas Simpson preparo una memoria impresa en 1756 donde aplicó por
primera vez la teoría para la discusión de errores de observación
1757-- La reimpresión de esta memoria expone los axiomas de que los errores
positivos y negativos son igualmente probables, y que hay ciertos límites
asignables dentro de los cuales se supone que caen todos los errores; se discuten
los errores continuos y se da una curva de la probabilidad.
1774--Pierre-Simon Laplace hizo el primer intento para deducir una regla para la
combinación de observaciones a partir de los principios de la teoría de las
probabilidades. Representó la ley de la probabilidad de error con una curva y =
φ(x), siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de
esta curva:
1. es simétrica al eje y;
2. el eje x es una asíntota, siendo la probabilidad del error igual a 0;
3. la superficie cerrada es 1, haciendo cierta la existencia de un error.
1778--Daniel Bernoulli introdujo el principio del máximo producto de las
probabilidades de un sistema deerrores concurrentes.
1781-- Se obtuvo una fórmula para la ley de facilidad de error (un término debido a
Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables.
1805--El método de mínimos cuadrados se debe a Adrien-Marie Legendre, que lo
introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes
(Nuevos métodos para la determinación de las órbitas de los cometas).
1808--Ignorando la contribución de Legendre, un escritor irlandés estadounidense,
Robert Adrain, editor de "The Analyst" , dedujo por primera vez la ley de facilidad
de error, Siendo c y h constantes que dependen de la precisión de la observación.
Expuso dos demostraciones, siendo la segunda esencialmente la misma de John
Herschel
1809--Gauss expuso la primera demostración que parece que se conoció en
Europa.
Otras demostraciones adicionales también fueron expuestas, en:
1810--Laplace
1816--Sylvestre Lacroix
1823--Gauss
1825--James Ivory
1833--Littrow
1837--Hagen
1838--Friedrich Bessel
1844--W. F. Donkin
1845—Ellis
1853--Adolphe Quetelet
1856-- La fórmula de Peters para r, el error probable de una única observación, es
bien conocida
1860--Richard Dedekind
1864--De Morgan
1870--Morgan Crofton
1872—Helmert
1873—Glaisher
1874--Hermann Laurent
1875--Giovanni Schiaparelli
1930-- Andréi Kolmogorov desarrolló la base axiomática de la probabilidad
utilizando teoría de la medida.
En la parte geométrica los colaboradores de The Educational Times fueron
influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y ArtemasMartin).
DEFINICION DE LA PROBABILIDAD
Según La Frecuencia Relativa:
La autodefinición axiomática de la probabilidad se define con base a sí misma, la
probabilidad estimada o honírica basada en la frecuencia relativa de aparición de
un suceso S cuando Ω es muy grande. La probabilidad de un suceso es una
medida que se escribe como, Y mide con qué frecuencia ocurre algún suceso si se
hace algún experimento indefinidamente.
Según La Definición Axiomática:
La definición anterior es complicada de representar matemáticamente ya que Ω
debiera ser infinito. Otra manera de definir la probabilidad es de forma axiomática
esto estableciendo las relaciones o propiedades que existen entre los conceptos y
operaciones que la componen.
TIPOS DE PROBABILIDAD
Probabilidad Discreta:
Este tipo de probabilidad, es aquel que puede tomar sólo ciertos valores diferentes
que son el resultado de la cuenta de alguna característica de interés.
Probabilidad Continúa:
Una variable aleatoria es una función medible:
Y: Ω—R
Que da un valor numérico a cada suceso en Ω.
TEORIA DE LA PROBABILIDAD
La probabilidad constituye un importante parámetro en la determinación de las
diversas casualidades obtenidas tras una serie de eventos esperados dentro de un
rango estadístico. El concepto de probabilidad nace con el deseo del hombre de
conocer con certeza los eventos futuros. Es por ello que el estudio de
probabilidades surge como una herramienta utilizada por los nobles para ganar en
los juegos y pasatiempos de la época. El desarrollo de estas herramientas fue
asignado a los matemáticos de la corte. Con el tiempo estas técnicas matemáticas
se perfeccionaron y encontraron otros usos muy diferentes para la que fueron
creadas. Actualmente se continúo con el estudio de nuevas metodologías que
permitan maximizar el uso de la computación en el estudio de las probabilidades
disminuyendo, de este modo, los márgenes de error en los cálculos.
A través de la historia se han desarrollado tres enfoques conceptuales diferentes
para definir la probabilidad y determinar los valores de probabilidad:
El Enfoque Clásico:
Dice que si hay x posibles resultados favorables a la ocurrencia de un evento A y z
posibles resultados desfavorables a la ocurrencia de A, y todos los resultados son
igualmente posibles y mutuamente excluyente (no pueden ocurrir los dos al mismo
tiempo), entonces la probabilidad de que ocurra A es:
El enfoque clásico de la probabilidad se basa en la suposición de que cada
resultado sea igualmente posible. Este enfoque es llamado enfoque a priori porque
permite, (en caso de que pueda aplicarse) calcular el valor de probabilidad antes
de observar cualquier evento de muestra.
Ejemplo:
Si tenemos en una caja 15 piedras verdes y 9 piedras rojas. La probabilidad de
sacar una piedra roja en un intento es:
FUNCION DE DENSIDAD
La función de densidad, o densidad de probabilidad de una variable aleatoria, es
una función a partir de la cual se obtiene la probabilidad de cada valor que toma la
variable. Su integral en el caso de variables aleatorias continuas es ladistribución
de probabilidad. En el caso de variables aleatorias discretas la distribución de
probabilidad se obtiene a través del sumatorio de la función de densidad.
ENFOQUES DE LA TEORIA DE PROBABILIDAD
El Enfoque de frecuencia relativa:
También llamado Enfoque Empírico, determina la probabilidad sobre la base de la
proporción de veces que ocurre un evento favorable en un número de
observaciones. En este enfoque no ese utiliza la suposición previa de
aleatoriedad. Porque la determinación de los valores de probabilidad se basa en la
observación y recopilación de datos.
Ejemplo:
Se ha observado que 9 de cada 50 vehículos que pasan por una esquina no
tienen cinturón de seguridad. Si un vigilante de transito se para en esa misma
esquina un ida cualquiera ¿Cuál será la probabilidad de que detenga un vehículo
sin cinturón de seguridad?
Tanto el enfoque clásico como el enfoque empírico conducen a valores objetivos
de probabilidad, en el sentido de que los valores de probabilidad indican al largo
plazo la tasa relativa de ocurrencia del evento.
El Enfoque Subjetivo:
Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por
parte de un individuo de que un evento ocurra, basado en toda la evidencia a su
disposición. Bajo esta premisa se puede decir que este enfoque es adecuado
cuando solo hay una oportunidad de ocurrencia del evento. Es decir, que el evento
ocurrirá o no ocurrirá esa sola vez. El valor de probabilidad bajo este enfoque es
un juicio personal.
Se define como cálculo de probabilidad alconjunto de reglas que permiten
determinar si un fenómeno ha de producirse, fundando la suposición en el cálculo,
las estadísticas o la teoría. Existen diversas formas como método abstracto, como
la teoría Dempster-Shafer y la numérica, esta última con un alto grado de
aceptación si se toma en cuenta que disminuye considerablemente las
posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a
una simple ley de relatividad.
La probabilidad de un evento se denota con la letra p y se expresa en términos de
una fracción y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra
parte, la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de
p y se denota con la letra q:
METODOS PARA CALCUAR LA PROBABILIDAD
Regla de la Adición:
La regla de la adición o regla de la suma establece que la probabilidad de
ocurrencia de cualquier evento en particular es igual a la suma de las
probabilidades individuales, si es que los eventos son mutuamente excluyentes, es
decir, que dos no pueden ocurrir al mismo tiempo.
La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos
sucesos A y B es igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
Regla de la Multiplicación:
La regla de la multiplicaciónestablece que la probabilidad de ocurrencia de dos o
más eventos estadísticamente independientes es igual al producto de sus
probabilidades individuales.
Se relacionan con la determinación de la ocurrencia de conjunta de dos o más
eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y
los valores de B, esto quiere decir que la probabilidad de que ocurran
conjuntamente los eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(B|A) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(A|B) si A y B son dependientes
Distribución Binomial:
La probabilidad de ocurrencia de una combinación específica de eventos
independientes y mutuamente excluyentes se determina con la distribución
binomial, que es aquella donde hay solo dos posibilidades, tales como
masculino/femenino o si/no.
APLICACIONES DE LA PROBABILIDAD
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en
el análisis de riesgo y en el comercio de los mercados de materias primas. Los
gobiernos normalmente aplican métodos probabilísticos en regulación ambiental
donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar
usando métodos que son estocásticos por naturaleza, y escogen qué proyectos
emprender basándose en análisis estadísticos de su probable efecto en la
población como un conjunto.
No es correcto decir que la estadística está incluida en el propio modelado, ya que
típicamente los análisis de riesgo son para una única vez y por lotanto requieren
más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S".
Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y
percepciones del efecto de estas elecciones, lo que hace de las medidas
probabilísticas un tema político. Un buen ejemplo es el efecto de la probabilidad
percibida de cualquier conflicto generalizado sobre los precios del petróleo en
Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un
cálculo por un mercado de materias primas en que la guerra es más probable en
contra de menos probable probablemente envía los precios hacia arriba o hacia
abajo e indica a otros comerciantes esa opinión. Por consiguiente, las
probabilidades no se calculan independientemente y tampoco son necesariamente
muy racionales. La teoría de las finanzas conductuales surgió para describir el
efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en
los conflictos. Se puede decir razonablemente que el descubrimiento de métodos
rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un
profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna
importancia para la mayoría de los ciudadanos entender cómo se calculan los
pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las
decisiones, especialmente en una democracia. Otra aplicación significativa de la
teoría de la probabilidad en el día a día es en la fiabilidad. Muchos bienes de
consumo, como los automóviles y la electrónica deconsumo, utilizan la teoría de la
fiabilidad en el diseño del producto para reducir la probabilidad de avería. La
probabilidad de avería también está estrechamente relacionada con la garantía del
producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto
es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede
haber una probabilidad de 1 entre 52 de que la primera carta en una baraja sea la
J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza,
entonces la probabilidad es o bien 100% ó 0%, y la elección correcta puede ser
hecha con precisión por el que ve la carta. La física moderna proporciona
ejemplos importantes de situaciones determinísticas donde sólo la descripción
probabilística es factible debido a información incompleta y la complejidad de un
sistema así como ejemplos de fenómenos realmente aleatorios. En un universo
determinista, basado en los conceptos newtonianos, no hay probabilidad si se
conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y
el periodo de esta fuerza es conocida, entonces el número donde la bola parará
será seguro.
Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la
ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la
mano durante el movimiento y así sucesivamente. Una descripción probabilística
puede entonces ser más práctica que la mecánica newtoniana paraanalizar el
modelo de las salidas de lanzamientos repetidos de la ruleta.
Los físicos se encuentran con la misma situación en la teoría cinética de los
gases, donde el sistema determinístico en principio, es tan complejo (con el
número de moléculas típicamente del orden de magnitud de la constante de
Avogadro ) que sólo la descripción estadística de sus propiedades es viable.
La mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo
puede ser descrita actualmente a través de distribuciones de probabilidad, lo que
le da una gran importancia a las descripciones probabilísticas. Algunos científicos
hablan de la expulsión del paraíso.
Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó
estupendamente en una carta a Max Born: Jedenfalls bin ich überzeugt, daß der
Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado).
No obstante hoy en día no existe un medio mejor para describir la física cuántica si
no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el
hecho de que la mecánica cuántica se describe a través de distribuciones de
probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la
mecánica cuántica es probabilística no por el hecho de que siga procesos
aleatorios sino por el hecho de no poder determinar con precisión sus parámetros
fundamentales, lo que imposibilita la creación de un sistema de ecuaciones
determinista.
Investigación Biomédica:
La mayoría de las investigaciones biomédicas utilizan muestras deprobabilidad, es
decir, aquellas que el investigador pueda especificar la probabilidad de cualquier
elemento en la población que investiga. Las muestras de probabilidad permiten
usar estadísticas inferenciales, aquellas que permiten hacer inferencias a partir de
datos. Por otra parte, las muestras no probabilísticas solo permiten usarse
estadísticas descriptivas, aquellas que solo permiten describir, organizar y resumir
datos. Se utilizan cuatro tipos de muestras probabilísticas: muestras aleatorias
simples, muestras aleatorias estratificadas, muestra por conglomerados y
muestras sistemáticas.
EL VALOR DE LA PROBABILIDAD
El valor más pequeño que puede tener la probabilidad de ocurrencia de un evento
es igual a 0, el cual indica que el evento es imposible, y el valor mayor es 1, que
indica que el evento ciertamente ocurrirá. Entonces si decimos que P(A) es la
probabilidad de ocurrencia de un evento A y P(A´ ) la probabilidad de no-
ocurrencia de A, tenemos que:
Eventos mutuamente excluyentes y eventos no excluyentes
Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir
simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la
ocurrencia del otro evento (o eventos).Ejemplo 1:
Al lanzar una moneda solo puede ocurrir que salga cara o cruz pero no los dos a
la vez, esto quiere decir que estos eventos son excluyentes. Dos o más eventos
son no excluyentes, o conjuntos, cuando es posible que ocurran ambos. Esto no
indica que necesariamente deban ocurrir estos eventos en forma simultánea.
Ejemplo 2:
Si consideramos en un juego de domino sacar al menos un blanco y un seis, estos
eventos son no excluyentes porque puede ocurrir que salga el seis blanco.
Eventos Independientes:
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de
un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o
eventos). Un caso típico de eventos independiente es el muestreo con reposición,
es decir, una vez tomada la muestra se regresa de nuevo a la población donde se
obtuvo.
Ejemplo:
Lanzar al aire dos veces una moneda son eventos independientes por que el
resultado del primer evento no afecta sobre las probabilidades efectivas de que
ocurra cara o sello, en el segundo lanzamiento.
Eventos Dependientes:
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de
uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando
tenemos este caso, empleamos entonces, el concepto de probabilidad condicional
para denominar la probabilidad del evento relacionado. La expresión P(A|B) indica
la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que A|B no es una fracción.
P(A|B) = P(A y B)/P(B) o P(B|A) = P(A y B)/P(A)
DISTRIBUCION DE LA PROBABILIDAD
Distribución de Probabilidad Normal:
Es una distribución de probabilidad continua que es tanto simétrica como
mesocurtica. La curva que representa la distribución de probabilidad normal se
describe generalmente como en forma de campana. Esta distribución es
importante eninferencia estadística por tres razones diferentes:
1. Se sabe que las medidas producidas en muchos procesos aleatorios siguen
esta distribución.
2. Las probabilidades normales pueden utilizarse generalmente para aproximar
otras distribuciones de probabilidad, tales como las distribuciones binomial y de
Poisson.
3. Las distribuciones estadísticas tales como la media de la muestra y la
proporción de la muestra, siguen a menudo la distribución normal, sin tener en
cuenta la distribución de la población. Los valores de los parámetros de la
distribución de probabilidad normal son = 0 y = 1. Cualquier conjunto de valores X
normalmente distribuido pueden convertirse en valores normales estándar z por
medio de la formula:
Haciendo posible el uso de la tabla de proporciones de área y hace innecesario el
uso de la ecuación de la función de densidad de cualquier distribución normal
dada.
Para aproximar las distribuciones discretas binomial y de Poisson se debe hacer:
BINOMINIAL | np | np(1-p) | Si n > 30.np > 5 n(1-p) > 5 |
POISSON | | | > 10 |
Distribución de Probabilidad Exponencial
Si en el contexto de un proceso de Poisson ocurren eventos o éxitos en un
espectro continuo de tiempo y espacio. Entonces la longitud del espacio o tiempo
entre eventos sucesivos sigue una distribución de probabilidad exponencial.
Puesto que el tiempo y el espacio son un espectro continuo, esta es una
distribución continua.
En caso de este tipo de distribución no vale la pena preguntarse ¿cuál es la
probabilidad de que elprimer pedido de servicio se haga exactamente de aquí a un
minuto? Más bien debemos asignar un intervalo dentro del cual el evento puede
ocurrir, preguntándonos, ¿cuál es la probabilidad de que el primer pedido se
produzca en el próximo minuto?
Dado que el proceso de Poisson es estacionario, la distribución exponencial se
aplica ya sea cuando estamos interesados en el tiempo (o espacio) hasta el primer
evento, el tiempo entre dos eventos sucesivos, o el tiempo hasta que ocurra el
primer evento después de cualquier punto aleatoriamente seleccionado.
Donde es la cifra media de ocurrencias para el intervalo de interés, la probabilidad
exponencial de que el primer evento ocurra dentro del intervalo designado de
tiempo o espacio es.
P (T < t) = 1 - e –
De manera que la probabilidad exponencial de que el primer evento no ocurra
dentro del intervalo designado de tiempo o espacio es:
P (T > t) = e –
Ejemplo:
Un departamento de mantenimiento recibe un promedio de 5 llamadas por hora.
Comenzando en un momento aleatoriamente seleccionado, la probabilidad de que
una llamada llegue dentro de media hora es:
Promedio 5 por hora, como el intervalo es media hora tenemos que = 2,5/media
hora.
P (T < 30 min.) = 1- e -5 = 1 - 0,08208 = 0,91792
EJEMPLOS DE LA TEORIA DE PROBABILIDAD
Si analizamos detalladamente el ejemplo, podemos apreciar:
Un experimento aleatorio, lanzar una moneda al aire. Unos resultados puntuales,
sale cara o sale cruz y no podemos tener la certeza de antemano de que sea cara
o sea cruz.
Unas asignaciones deprobabilidad a cada uno de los resultados, que se basan en
el sentido común y en nuestra experiencia previa. Vamos a definir de manera más
precisa cada uno de los elementos que intervienen:
Experimento aleatorio: Es el experimento que se caracteriza porque su desarrollo
no es previsible con certidumbre.
Espacio muestral: Asociado a un experimento aleatorio es el conjunto de todos los
resultados que se pueden obtener al realizar el experimento. Lo designamos con
la letra E y colocamos sus elementos entre llaves y separados por comas.
Suceso: De un experimento aleatorio es cada uno de los subconjuntos del espacio
muestral E. Los designamos por letras mayúsculas: A,B,C,..., ponemos sus
elementos entre llaves y separados por comas.
Observación: Un resultado concreto de un experimento es un elemento del
espacio muestral asociado al experimento, conceptualmente suceso y resultado
son dos cosas distintas. Los resultados de un experimento aleatorio se suelen
representar con letras minúsculas, los sucesos con letras mayúsculas.
En el ejemplo anterior, el suceso A ocurre siempre que el resultado del
experimento sea el elemento 2, el elemento 4 o el elemento 6.
La confusión entre suceso y resultado se debe a que cuando el suceso es: " que al
lanzar un dado salga 2" y el resultado:"sale un dos al lanzar el dado", sólo ocurre
el suceso cuando el resultado es 2.
Suceso: "Sale un dos" es el subconjunto {2} del espacio muestral
Resultado: "Sale un dos" es el elemento 2 del espacio muestral
Funciones de distribución: El paso siguientees asignar (distribuir) probabilidades.
Las definiciones que siguen están motivadas por el ejemplo del lanzamiento de
una moneda, recordamos que en ese ejemplo a cada resultado del espacio
muestral le asignábamos un número no negativo tal que la suma de todos los
números asignados a cada resultado deberá ser 1.
Definición: Sea X una variable que representa a los posibles resultados de un
experimento aleatorio, en principio vamos a asumir que este experimento tiene
sólo un número finito de posibles resultados. Sea E, el espacio muestral del
experimento. Una función de distribución para X es una función real f cuyo dominio
es E y que satisface:
Ejemplo:
Sean tres equipos de futbol, a, b y c que se presentan a un torneo de verano, sólo
uno ganará el torneo. El espacio muestral es el conjunto de tres elementos,
E={a,b,c}, donde cada elemento corresponde al triunfo de cada uno de los
equipos. Suponemos que a y b tienen las mismas posibilidades de ganar y c tiene
solamente la mitad de las posibilidades de ganar que a. Debemos asignar
probabilidades de modo que :
Sea el suceso A, "gana el trofeo el equipo a‖; el suceso B, "gana el trofeo el
equipo b" y el suceso C, "gana el trofeo el equipo c". En el lenguaje de la teoría de
conjuntos:
En este último caso se puede apreciar como un suceso se puede describir en
términos de otros sucesos utilizando las construcciones estándar de la teoría de
conjuntos.
Las representaciones gráficas de las construcciones de la teoría de conjuntos se
llaman diagramas de Venn. En ocasiones es muyconveniente para resolver un
problema de probabilidad hacer la representación gráfica del espacio muestral y
de los sucesos (subconjuntos del espacio muestral) que intervienen en el
problema
Operaciones Con Sucesos:
Sucesos Compatibles e Incompatibles
Suceso Contrario
Dado un suceso A, se llama suceso contrario de A a un suceso que se verifica
cuando no se verifica A.
Diferencia de Sucesos
Leyes de De Morgan
Se pueden comprobar gráficamente.
Teorema 1. Propiedades Básicas
Las probabilidades asignadas a cada suceso por una función de distribución
definida sobre un espacio muestral E de un experimento aleatorio, verifican las
siguientes propiedades:
Teorema 2.
Si A y B son subconjuntos de E, entonces:
Sistema completo de sucesos.
Regla de Laplace.
Si en un experimento aleatorio todos los sucesos elementales son equiprobables,
la probabilidad de un suceso A se obtiene dividiendo el número de resultados que
forman el suceso A entre el número de resultados posibles.
Si llamamos casos favorables a los resultados que forman el suceso A y casos
posibles a los resultados posibles del experimento, tenemos:
Probabilidad Condicionada
En un concurso de televisión, se dispone de 20 coches, para premiar al
concursante, de las marcas y colores que se indican en la siguiente tabla:
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
Los coches están colocados aleatoriamente, tras 20 puertas, de forma que el
concursante no ve el coche que hay detrás de cada puerta.El concursante elige un
número, entre 1 y 20, y si acierta la marca y el color del coche que hay en la
puerta elegida, gana, en caso contrario pierde.
El concurso lo podemos considerar como un experimento aleatorio. Cada
resultado es el coche elegido.
Para describir fácilmente todo el proceso vamos a considerar:
Suceso P : | El coche es un Seat Panda |
Suceso T : | El coche es un Seat Toledo |
Suceso R : | El coche es de color rojo |
Suceso A : | El coche es de color azul |
Así el suceso: "Seat Toledo de color rojo" lo representamos por : T ∩ R y la
probabilidad de este suceso, sigue de la tabla :
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T ∩ R) = 7/20
La probabilidad de que el coche sea un Seat Toledo es:
| Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T)=10/20 = ½
¿Qué ocurre si, una vez que el concursante ha elegido puerta, el presentador, le
da la pista de que el coche que hay tras la puerta es rojo?. Tendremos que
cambiar la probabilidad al suceso T y al suceso P. A la probabilidad del suceso T
cuando se sabe que ha ocurrido R, le llamamos probabilidad condicionada de T,
sabiendo que ha ocurrido R y escribimos (T/R)
Para asignar las nuevas probabilidades hemos de ser consecuentes con las
propiedades que debe cumplir toda asignación de probabilidades. El nuevo
espacio muestral es el señalado en rojo en la tabla siguiente. Por tanto asignamos
así las probabilidades:
|Rojo | Azul | Totales |
SeatPanda | 2 | 8 | 10 |
SeatToledo | 7 | 3 | 10 |
Totales | 9 | 11 | 20 |
P (T/R) = 7/9 ; P(P/R) = 2/9
De la tabla anterior, siguen fácilmente las siguientes relaciones:
Consideremos ahora el siguiente experimento : Dos urnas, A y B ,la urna A,
contiene 3 bolas verdes y 2 bolas rojas, la urna B contiene 2 bolas verdes y 3
bolas rojas.
Se realiza el experimento en dos tiempos, primero se selecciona urna por un
procedimiento aleatorio y posteriormente de la urna elegida se extrae una bola.
Para representar, de forma muy adecuada, este tipo de experimentos, se realiza
un esquema, llamado: árbol de probabilidades.
Cada flecha del diagrama se denomina rama del árbol; a cada rama, asignamos la
probabilidad que le corresponde. Un recorrido, desde el comienzo del experimento
hasta el final, se llama un camino. Si sabemos que ha ocurrido el suceso A,
tenemos que volver a asignar probabilidades a los distintos caminos; todos los
caminos que comienzan por el suceso B, tendrán probabilidad 0 y los que
empiezan por el suceso A:
Hay que aceptar por tanto las mismas relaciones entre probabilidades a las que
habíamos llegado en el experimento anterior:
Para concretar tenemos que admitir la siguiente definición:
Definición 1. Probabilidad condicionada
De un suceso R sabiendo que ha ocurrido otro A
Y dos teoremas:
Teorema 1. Regla del Producto
De la definición 1, despejando, sigue que:
Si A y B forman un sistema completo de sucesos, la probabilidad de cualquier otro
Teorema 2.Probabilidad Total
Sucesos Dependientes
Dos sucesos son dependientes si el resultado de uno influye en el otro. Los
sucesos A y B son dependientes si y sólo si P(A) es distinto de P(A/B) y P(B) es
distinto de P(B/A
Sucesos Independientes
Dos sucesos son independientes si el resultado de uno no influye en el resultado
del otro. Los sucesos A y B son independientes si y sólo si P(A)=P(A/B) y
P(B)=P(B/A).
Probabilidades a posteriori. Teorema de Bayes.
Vamos a considerar de nuevo, el experimento de las urnas A y B, que contienen
bolas verdes y rojas:
Si sabemos que ha salido una bola roja, los caminos posibles en el árbol de
probabilidades, quedan reducidos a dos, los señalados en rojo en la imagen
anterior; tenemos que reasignar probabilidades, todos los caminos que terminan
en bola verde, deberán tener probabilidad 0. ¿Cómo asignamos probabilidades a
los caminos que conducen a bola roja?
En resumen podemos enunciar el siguiente resultado:
Teorema de Bayes o de las probabilidades a posteriori.
DEFINIR LOS CONCEPTOS DE ESPACIO MUESTRAL, EVENTOS,
RELACIONES ENTRE EVENTOS Y FAMILIA DE EVENTOS.
Espacio Muestral: Es el conjunto de todos los resultados posibles de un
experimento aleatorio. El conjunto de todos los resultados posibles pueden ser
finito, infinito numerable o infinito no numerables. Espacio muestral Discreto y
continuo.
Eventos: Son subconjuntos del espacio muestral
Relaciones entre eventos y familia de eventos: AUB = ― Suceso A o el Suceso B o ambos
AB) = ― El suceso A y B ―
AB = Ф ― Son Sucesos excluyentes mutuamente, es decir no tienen elementos comunes‖ A = ― El Suceso no A ― A –B = Todos los elementos de A siempre y cuando no estén en B
CONCLUSION
La probabilidad mide la frecuencia con la que se obtiene un resultado al llevar a cabo un
experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas
como la estadística, la física, la matemática, la ciencia y la filosofía para sacar
conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de
sistemas complejos.
La probabilidad constituye un importante parámetro en ladeterminación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango
estadístico. Dos aplicaciones principales de la teoría de la probabilidad en el día a día son
en el análisis de riesgo y en el comercio de los mercados de materias primas.
Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental
donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando
métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender
basándose en análisis estadísticos de su probable efecto en la población como un
conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya
que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más
modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de
números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del
efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la
fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo,
utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de
avería. La probabilidad de avería también está estrechamente relacionada con la garantía
del producto.
BIBLIOGRAFIA
www.wikipedia.com
www.rincondelvago.com
www.metodosestadisticos.com
http://eadsaia.uft.edu.ve/psm/file.php/1868/Teoria_de_la_Probabilidad.pdf
www.buenastareas.com