Post on 31-Dec-2016
Indice
3 Variables aleatorias. Funcion de distribucion y caracterısticas asociadas 3.1
3.1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1
3.2 Concepto de variable aleatoria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1
3.3 Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3
3.4 Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5
3.5 Caracterısticas asociadas a una variable aleatoria . . . . . . . . . . . . . . . . . . . . 3.9
3.6 Variables aleatorias bidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.14
3.6.1 Variable aleatoria bidimensional discreta . . . . . . . . . . . . . . . . . . . . . . 3.15
3.6.2 Variable aleatoria bidimensional continua. . . . . . . . . . . . . . . . . . . . . . 3.17
3.6.3 Caracterısticas de variables aleatorias bidimensionales. . . . . . . . . . . . . . . 3.18
3.7 Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.20
2.0
Tema 3
Variables aleatorias. Funcion de
distribucion y caracterısticas asociadas
3.1 Introduccion
En este tema pasamos a representar los resultados de un experimento aleatorio por numeros. Intro-
ducimos ası el concepto de variable aleatoria, y las herramientas para trabajar con ellas. Distinguimos
entre variables aleatorias discretas y variables aleatorias continuas. Los conceptos que se presentan
son fundamentales para temas posteriores, especialmente en el tema 4 en que se estudian los modelos
de distribuciones mas relevantes.
Ası mismo para finalizar el tema se realiza una breve introduccion al estudio de las variables
aleatorias bidimensionales (y multidimensionales). Destacando el caso particular en que las variables
implicadas son independientes.
3.2 Concepto de variable aleatoria.
En numerosas ocasiones estaremos interesados en un resumen numerico asociado al experimento
aleatorio que estemos estudiando mas que en la estructura probabilıstica asociada al espacio muestral
de dicho experimento. Por ejemplo, consideremos un estudio de mercado en que se pregunta a 50
individuos si poseen lınea ADSL en casa. Representamos por “1” que el individuo en cuestion la tenga,
y por “0” que no. El espacio muestral asociado a este experimento estarıa formado por 250 sucesos
elementales, siendo cada uno de ellos un vector de ceros y unos con 50 componentes. Evidentemente
hay que reducir el problema de forma que sea tratable y se capture la informacion que nos interesa. En
este ejemplo, si anotamos el numero de personas que poseen ADSL de las 50 encuestadas estarıamos
recogiendo la informacion relevante. Este proceso es el que vamos a realizar con el concepto de variable
aleatoria, pero mas aun, la estructura probabilıstica que se ha introducido en el tema anterior al tratar
con sucesos, va a poder trasladarse al conjunto de valores que tengamos como resumen del experimento
aleatorio.
Ası el objetivo en este tema va a ser introducir una herramienta para cuantificar los resultados
de un experimento aleatorio. Para ello definimos una funcion del espacio muestral Ω en R .
3.1
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Definicion 3.1 Una variable aleatoria X es una funcion del espacio muestral asociado a un expe-
rimento aleatorio Ω en R , es decir
X : Ω → R .
Ejemplo 3.1 Consideremos el experimento aleatorio de lanzar dos monedas. Definimos la variable
aleatoria X :“ numero de caras obtenidas en los dos lanzamientos”. En la siguiente tabla se recogen
los sucesos elementales y los valores que les asociamos por la variable aleatoria X:
wi ++ C+ +C CC
X(wi) 0 1 1 2
En primer lugar, comenzaremos especificando el conjunto de valores que toma la variable aleatoria,
a este conjunto lo denominaremos rango de X, y se denotara por rg(X) . En el Ejemplo 3.1 el rango
de X es rg(X) = 0, 1, 2 .
Ejemplo 3.2 Consideremos el experimento aleatorio de preguntar en 50 hogares de Sevilla elegidos
al azar si poseen lınea ADSL. Para la variable aleatoria X :“ numero de hogares con lınea ADSL”, el
rango de X es:
rg(X) = 0, 1, 2, . . . , 50 .
Ejemplo 3.3 ( Sobre un mismo espacio muestral Ω se pueden definir distintas variables aleatorias).
Consideremos el experimento aleatorio de lanzar un dado dos veces, podemos definir las siguientes
variables aleatorias:
1. X: “suma de los puntos obtenidos en los dos lanzamientos”, es decir X(i, j) = i+j , ∀(i, j) ∈ Ω .
El rango de X es rg(X) = 2, 3, 4, . . . , 12 .
2. Y : “diferencia en valor absoluto entre las puntuaciones obtenidas”, es decir Y (i, j) = |i − j| ,
∀(i, j) ∈ Ω . El rango de Y es rg(Y ) = 0, 1, 2, . . . , 5 .
Basicamente podemos distinguir los siguientes tipos de variables aleatorias:
• Variable aleatoria discreta: toma un conjunto numerable de valores (puede ser finito o infinito
numerable).
• Variable aleatoria continua: toma valores en un conjunto no numerable (lo mas usual en un
intervalo de R).
Ejemplo 3.4 Las variables aleatorias consideradas en los ejemplos anteriores son todas ellas discre-
tas.
Ejemplos de variables aleatorias continuas serıan: peso de una persona, longitud de las piezas produ-
cidas por una maquina, tiempo de funcionamiento de un dispositivo electronico,..
Proposicion 3.1 (Igualdad de variables aleatorias) Sean X e Y variables aleatorias definidas sobre
un mismo espacio muestral Ω. Entonces
X = Y ⇔ X(w) = Y (w) , ∀w ∈ Ω .
3.2 2o Ing. Informatica
3.3. Variable aleatoria discreta
Proposicion 3.2 (Operaciones con variables aleatorias)
Sean X e Y variables aleatorias definidas sobre un mismo espacio muestral Ω. Teniendo en cuenta
que son funciones se tienen las siguientes operaciones que a su vez nos proporcionan nuevas variables
aleatorias:
• Suma : (X + Y )(w) = X(w) + Y (w) , ∀w ∈ Ω .
Resta: (X − Y )(w) = X(w) − Y (w) , ∀w ∈ Ω .
• Producto: (XY )(w) = X(w)Y (w) , ∀w ∈ Ω .
• Cociente: (X/Y )(w) = X(w)/Y (w) , siempre que Y (w) 6= 0, ∀w ∈ Ω .
• Si X es una variable aleatoria definida en Ω, y g es una funcion real entonces g(X) es tambien
una variable aleatoria
3.3 Variable aleatoria discreta
Definicion 3.2 Sea X : Ω → R diremos que X es una variable aleatoria discreta si toma un
conjunto numerable de valores, es decir rg(X) = x1 . . . , xn, ...
Definicion 3.3 Para una variable aleatoria discreta X con rg(X) = x1 . . . , xn, ... se define la
funcion de probabilidad (fdp) de X como
P [X = xi] = P [w ∈ Ω tal que X(w) = xi] , i ≥ 1 . (3.1)
Ejemplo 3.5 En el Ejemplo 3.1 se definio la variable aleatoria X : numero de caras obtenidas en dos
lanzamientos de una moneda. La funcion de probabilidad de X es:
xi 0 1 2
P [X = xi] 1/4 1/2 1/4
Teorema 3.1 La funcion de probabilidad asociada a una variable aleatoria discreta X definida
en (3.1) queda caracterizada por las siguientes propiedades:
1. P [X = xi] > 0 si xi ∈ rg(X) .
2.∑
xi∈rg(X)
P [X = xi] = 1 .
Observamos que P [X = x] = 0 si x no pertenece a rg(X) = x1 . . . , xn, .. .
Proposicion 3.3 (Calculo de probabilidades)
Sea B ⊆ R. la probabilidad de que la variable aleatoria discreta X tome valores en B viene dada por
P [X ∈ B] =∑
xi∈B
P [X = xi] .
Ejemplo 3.6 Para la v.a. definida en el Ejemplo 3.1 hallamos P [X ∈ B] con B = (−∞, 1), B =
(0.5, 2), B = (0.5, 2]
Solucion:
Estadıstica 3.3
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
• P [X ∈ (−∞, 1)] = P [X = 0] = 1/4 .
• P [X ∈ (0.5, 2)] = P [X = 1] = 1/2 .
• P [X ∈ (0.5, 2]] = P [X = 1] + P [X = 2] = 3/4 .
Definicion 3.4 Sea X una variable aleatoria discreta con rg(X) = x1, . . . , xn, .... Se define la
Funcion de Distribucion (FdD) de X como
F (x) = P [X ≤ x] =∑
xi≤x
P [X = xi] , para todo x ∈ R .
Observamos que 0 ≤ F (x) ≤ 1 pues F (x) = P [X ≤ x] = P [X ∈ (−∞, x] ].
Ejemplo 3.7 La variable aleatoria definida en el Ejemplo 3.1 tenıa como funcion de probabilidad:
xi 0 1 2
P [X = xi] 1/4 1/2 1/4 1
Por tanto
• F (0) = P [X = 0] = 1/4 .
• F (1) = P [X = 0] + P [X = 1] = 3/4 .
• F (2) = P [X = 0] + P [X = 1] + P [X = 2] = 1 .
Tengase en cuenta que la FdD se definio como F (x) = P [X ≤ x] para todo x ∈ R , de aquı que
F (x) =
0, si x < 0 ,
1/4, si 0 ≤ x < 1 ,
3/4, si 1 ≤ x < 2 ,
1, si 2 ≤ x .
La representamos graficamente:
bc
b
b
bc
bc
0 1 2
1/4
3/4
1
F (x)
x
3.4 2o Ing. Informatica
3.4. Variable aleatoria continua
(Notese la similitud con la curva acumulativa que se tenıa para el caso discreto en Descriptiva).
Teorema 3.2 La funcion de distribucion (FdD) F de una variable aleatoria discreta verifica las si-
guientes propiedades:
1. F (−∞) = 0, F (+∞) = 1.
2. F es no decreciente: es decir si x < y ⇒ F (x) ≤ F (y) .
3. F es continua por la derecha: es decir, para todo x ∈ R, F (x) = limh→0+ F (x + h) .
Ademas observamos que, si X es una variable aleatoria discreta su FdD es una funcion
escalonada, los puntos en que se producen las discontinuidades de salto son los valores que toma la
variable aleatoria, xi, y la medida del salto es igual a P [X = xi], es decir
P [X = xi] = F (xi) − F (x−i ) ,
donde por F (x−i ) se ha denotado el valor de la FdD a la izquierda de xi.
Corolario 3.1 Las siguientes probabilidades se pueden calcular de forma inmediata en terminos de
la FdD:
1. P [a < X ≤ b] = P [X ≤ b] − P [X ≤ a] = F (b) − F (a)
2. P [X > a] = 1 − P [X ≤ a] = 1 − F (a)
3.4 Variable aleatoria continua
Una variable aleatoria continua es aquella que toma valores en un conjunto no numerable, que sera
generalmente un intervalo de R. A continuacion definimos este concepto un poco mas formalmente a
partir de la Funcion de Distribucion.
Definicion 3.5 Consideremos la Funcion de Distribucion, (FdD), de una variable aleatoria definida
como
F (x) = P [X ≤ x], ∀x ∈ R .
Diremos que una variable aleatoria es continua si su FdD es una funcion continua, y derivable
en casi todos los puntos.
Un ejemplo de grafico que corresponderıa a la funcion de distribucion de una variable aleatoria
continua serıa el siguiente:
bc1
F (x)
x
Estadıstica 3.5
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Proposicion 3.4 Propiedades de la FdD de una variable aleatoria continua:
1. F (−∞) = 0, F (+∞) = 1.
2. F es no decreciente.
3. F es continua.
Nota 3.1 Observese que la FdD de una variable aleatoria continua verifica las mismas propiedades
que vimos para variables aleatorias discretas, solo que ademas es continua. Esta propiedad es la que
distingue a variables aleatorias discretas y continuas, para variables discretas la FdD era solo continua
por la derecha.
Corolario 3.2 Si X es una variable aleatoria continua, entonces
P [X = x] = 0, ∀x ∈ R . (3.2)
Demostracion:
Sea h > 0 y consideremos,
P [x − h < X ≤ x] = F (x) − F (x − h) .
Si h → 0,
P [X = x] = F (x) − limh→0
F (x − h) = 0 ,
pues al ser F continua, limh→0 F (x − h) = F (x) .
Para trabajar con variables aleatorias continuas introducimos una herramienta denominada funcion
de densidad, que nos permite calcular la probabilidad de cualquier subintervalo contenido en el rango
de valores de la variable aleatoria.
Definicion 3.6 Dada X una variable aleatoria continua, existe una funcion no negativa, f(x), a la
que se denomina funcion de densidad (fdd) de modo que
F (x) =
∫ x
−∞f(t) dt . (3.3)
Observese que (3.3) nos dice que el area encerrada por la funcion de densidad hasta un punto x0,
coincide con el valor de la FdD en dicho punto, F (x0).
bc1
F (x)
x
f(x)
x0
f(x)
F (x0)
x
3.6 2o Ing. Informatica
3.4. Variable aleatoria continua
Proposicion 3.5 Las siguientes propiedades caracterizan la funcion de densidad:
(a) f(x) ≥ 0, ∀x.
(b)
∫ +∞
−∞f(x)dx = 1 .
Proposicion 3.6 ( Calculo de probabilidades en el caso continuo)
1. Dados a, b ∈ R , con a < b se verifica
P [a < X ≤ b] = F (b) − F (a) =
∫ b
af(t) dt.
2. En general dado B un subconjunto de R,
P [X ∈ B] =
∫
Bf(t) dt .
Nota 3.2 Observese que, a groso modo, podrıamos decir que del caso discreto al continuo hemos
cambiado∑
por∫, fdp por fdd.
Teorema 3.3 En los puntos donde la funcion de distribucion, F sea derivable, se verifica
F ′(x) = f(x).
Nota 3.3 Hemos visto que si X es una variable aleatoria continua, entonces P [X = x] = 0 , ∀x ∈ R.
Como consecuencias observar que
(a) P [a < X < b] = P [a < X ≤ b] = P [a ≤ X ≤ b] = P [a ≤ X < b] .
(b) P [X > x] = P [X ≥ x] .
Pues estos conjuntos solo difieren en un punto.
En resumen, hemos visto que una variable aleatoria continua queda caracterizada por su fdd y
su FdD. Conocer una de ellas, nos permite conocer la otra gracias a las dos relaciones siguientes:
• F (x) =∫ x−∞ f(t) dt .
• F ′(x) = f(x).
Ejemplo 3.8 Sea X una variable aleatoria con FdD
F (x) =
0, x < 0
x2, 0 ≤ x < 1
1, x ≥ 1 .
(a) Representar graficamente F (x). ¿De que tipo es la v.a.?
(b) Hallar la funcion de densidad o la funcion de probabilidad segun convenga.
Estadıstica 3.7
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
(c) Calcular P [0.5 ≤ X ≤ 0.7].
Solucion:
(a) El grafico de F (x) es:
0
0.2
0.4
0.6
0.8
1
–0.4 –0.2 0.2 0.4 0.6 0.8 1 1.2 1.4x
Observamos que F (x) es una funcion continua, por tanto X es una variable aleatoria continua.
(b) La funcion de densidad es: f(x) = F ′(x) .
Por tanto:
f(x) =
0, x < 0
2x, 0 < x < 1
0, x < 1 .
=
2x, 0 < x < 1
0, en caso contrario (c.c.)
(c) Por ser una variable aleatoria continua
P [0.5 ≤ X ≤ 0.7] = P [0.5 < X ≤ 0.7] .
Por tanto
P [0.5 ≤ X ≤ 0.7] = P [0.5 < X ≤ 0.7] = F (0.7) − F (0.5) = (0.7)2 − (0.5)2 = 0.24 .
Ejemplo 3.9 Supongamos que el tiempo de funcionamiento de un dispositivo electronico (en horas)
puede modelarse por una variable aleatoria X continua con funcion de densidad
f(x) =
ke−x/2, si x > 0 .
0, en caso contrario (c.c.) .
Hallar:
(a) k.
(b) La FdD.
(c) La probabilidad de que el dispositivo funcione mas de dos horas.
3.8 2o Ing. Informatica
3.5. Caracterısticas asociadas a una variable aleatoria
(d) La probabilidad de que el dispositivo funcione mas de 6 horas si se sabe que lleva funcionado
mas de 2.
Solucion:
(a) Nos basamos en que∫ +∞
−∞f(x)dx = 1 .
Ası ∫ +∞
−∞f(x)dx =
∫ +∞
0ke−x/2dx =
= k[
−2e−x/2]x=∞
x=0= k
(
−2 limx→∞
e−x/2 + 2)
.
Puesto que limx→∞ e−x/2 = 0 ,
∫ +∞
−∞f(x)dx = k × 2 = 1 ,
y por tanto k = 1/2.
(b)
F (x) =
∫ x
−∞f(t)dt =
0, si x ≤ 0
∫ x
0
1
2e−t/2dt =
[
−e−t/2]t=x
t=0= 1 − e−x/2, si x > 0 .
(c) P [“el dispositivo funciones mas de 2 horas” ] =
P [X > 2] = 1 − F (2) = 1 −
1 − e−2/2
= e−2/2 = e−1 = 0.368 .
(d) P [“el dispositivo funcione mas de 6 horas si se sabe que lleva funcionado mas de 2” ] =
= P [X > 6 | X > 2] =P [X > 6
⋂X > 2]
P [X > 2]=
=P [X > 6]
P [X > 2]=
e−6/2
e−2/2= e−4/2 = e−2 = 0.135 .
3.5 Caracterısticas asociadas a una variable aleatoria
Definicion 3.7 Se define la esperanza matematica, media o valor esperado de una variable alea-
toria X como
µ = E [X] =
∑
xi∈rg(X)
xi P [X = xi] , si X es discreta
∫ ∞
−∞xf(x)dx, si X es continua
(3.4)
Estadıstica 3.9
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Nota 3.4 La definicion dada en (3.4) tiene sentido supuesto que la correspondiente suma o integral
converge, en caso contrario, (es decir si E[X] = +∞), se dice que no existe E[X]. Este comentario
seguira siendo valido siempre que se utilice el operador esperanza aunque no se indique explıcitamente.
Nota 3.5 La media o valor esperado de una variable aleatoria tiene la misma interpretacion que en
distribuciones de frecuencias.
Ejemplo 3.10 (Caso discreto) Para la variable aleatoria definida en el Ejemplo 3.1 calculamos el
valor esperado de X:
E[X] =∑
xi∈rg(X)
xi P [X = xi] = 0 × 1
4+ 1 × 1
2+ 2 × 1
4= 1
Ejemplo 3.11 (Caso continuo) Para la variable aleatoria definida en el Ejemplo 3.9 calculamos el
valor esperado de X:
E[X] =
∫ ∞
−∞xf(x)dx =
∫ ∞
0x
1
2e−x/2dx = [por partes] =
= −xe−x/2]x=∞
x=0+
∫ ∞
0e−x/2dx =
∫ ∞
0e−x/2dx = 2 ,
(tengase en cuenta que limx→∞
xe−x/2 = 0).
Interpretacion: “el tiempo medio o esperado de funcionamiento del dispositivo es de dos horas”.
Definicion 3.8 Si X es una variable aleatoria y g : R → R, una funcion real se define
E [g(X)] =
∑
xi∈rg(X)
g(xi) P [X = xi] , si X es discreta
∫ ∞
−∞g(x)f(x)dx, si X es continua
(3.5)
El operador esperanza, que se ha introducido en esta seccion, tiene muchas propiedades que pueden
deducirse facilmente a partir de las propiedades de las sumas en el caso discreto y de las integrales en
el caso continuo. En el siguiente teorema recogemos algunas de ellas que nos seran de gran utilidad
en este curso.
Teorema 3.4 Propiedades de la esperanza:
1. E[c] = c, con c ∈ R.
2. Linealidad de la esperanza
E[aX + b] = aE[X] + b , con a, b ∈ R. (3.6)
Demostracion:
1. En este caso se tiene una variable aleatoria que solo toma un valor, c, con probabilidad uno:
X = c con P [X = c] = 1 .
Por tanto E[c] = E[X] = c × P [X = c] = c × 1 = c .
3.10 2o Ing. Informatica
3.5. Caracterısticas asociadas a una variable aleatoria
2. Hacemos la demostracion para el caso discreto:
E[aX + b] = por (3.5) =∑
xi∈rg(X)
(axi + b)P [X = xi]
= a
∑
xi∈rg(X)
xiP [X = xi]
︸ ︷︷ ︸
=E[X]
+b
∑
xi∈rg(X)
P [X = xi]
︸ ︷︷ ︸
=1
= aE[X] + b .
Se propone hacer como ejercicio la demostracion de este resultado para el caso continuo.
Teorema 3.5 Otras propiedades de la esperanza:
1. E[cg(X)] = cE[g(X)], con c ∈ R.
2. E[c1g1(X) + c2g2(X)] = c1E[g1(X)] + c2E[g2(X)], con ci ∈ R, ci = 1, 2 .
3. Si g1(x) ≤ g2(x), ∀x ∈ R entonces E[g1(X)] ≤ E[g2(X)].
Demostracion:
Las demostraciones son sencillas. Como ilustracion se recoge la de 2. en el caso discreto
E[c1g1(X) + c2g2(X)] =∑
xi
(c1g1(xi) + c2g2(xi)) P [X = xi]
= c1
(∑
xi
g1(xi)P [X = xi]
)
+ c2
(∑
xi
g2(xi)P [X = xi]
)
= c1E[g1(X)] + c2E[g2(X)] .
Se propone probar 3. en el caso discreto.
Definicion 3.9 (Momentos) Se define el momento (no centrado) de orden k de la variable aleatoria
X como
αk = E[
Xk]
, k ≥ 0 .
Se define el momento centrado de orden k de la variable aleatoria X como
βk = E[
(X − µ)k]
, k ≥ 0 , µ = E[X] .
Observese que la media es el momento (no centrado) de orden uno: α1 = E[X]. De los momentos
centrados, el mas importante es el de orden dos, β2, mas conocido como varianza, V ar[X], el cual
pasamos a estudiar con detalle a continuacion.
Estadıstica 3.11
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Definicion 3.10 Se define la varianza de una variable aleatoria X como
σ2 = V ar[X] = E[
(X − µ)2]
.
Proposicion 3.7 Propiedades de la varianza:
1. V ar [X] ≥ 0.
2. V ar [X] = 0 ⇔ ∃a ∈ R/ P [X = a] = 1 .
Se dice en este caso que X es una variable aleatoria degenerada.
3. V ar [a X + b] = a2 V ar (X) , con a, b ∈ R.
4. En la practica suele ser util la siguiente expresion para calcular la V ar[X],
V ar [X] = E[X2]− µ2 = E
[X2]− (E[X])2.
Demostracion:
1. Se tiene de forma inmediata de la definicion pues
V ar[X] = E[(X − µ)2
]=
∑
xi∈rg(X)
(xi − µ)2 P [X = xi] , si X es discreta
∫ ∞
−∞(x − µ)2f(x)dx, si X es continua
(3.7)
(se ha denotado por µ = E[X]).
3. V ar[aX + b] = definicion de varianza = E[
(aX + b − E[aX + b])2]
=
= puesto que E[aX + b] = aE[X] + b = aµ + b = E[
a2 (X − µ)2]
=
= por Teorema 3.5, relacion 1. = a2E[
(X − µ)2]
= a2V ar[X] .
Se propone la demostracion de las otras propiedades como ejercicio.
La varianza es una medida de la dispersion de una variable aleatoria en torno a su media. Al
interpretarla presenta el problema que las unidades en que viene medida son las de la variable original
al cuadrado. Para solucionar este inconveniente se introduce la desviacion tıpica, cuya interpretacion
como medida de dispersion nos puede parecer mas sencilla porque viene expresada en las mismas
unidades de medida que la variable original.
Definicion 3.11 Se define la desviacion tıpica de una variable aleatoria X como
σ = +√
V ar[X].
La media de una variable aleatoria es la medida de centralizacion mas usada en la practica.
Otras medidas de centralizacion interesantes son la moda y mediana.
3.12 2o Ing. Informatica
3.5. Caracterısticas asociadas a una variable aleatoria
Definicion 3.12 Dada X una variable aleatoria se define la moda como aquel valor de la variable
que tiene mayor probabilidad en el caso discreto, y como aquel valor en que la funcion de densidad
alcanza un maximo en el caso continuo. (No tiene por que ser unica).
Definicion 3.13 Dada X una variable aleatoria discreta se define la mediana como aquel valor de
la variable aleatoria en que la funcion de distribucion vale 1/2.
Nota 3.6 Para el calculo de la mediana en el caso discreto se presenta la misma casuıstica que se
tenıa en el caso discreto de Descriptiva.
Ejemplo 3.12 En el Ejemplo 3.1 calculamos las medidas que se han introducido en este apartado:
•(E[X] = 0 × 1
4 + 1 × 12 + 2 × 1
4 = 1)
.
• E[X2] =∑
xi∈rg(X)
x2i P [X = xi] = 02 × 1
4+ 12 × 1
2+ 22 × 1
4= 3/2
• σ2 = V ar[X] = E[X2] − (E[X])2 = 32 − 12 = 1/2
• σ =√
1/2
• moda= 1 porque es el valor mas probable.
• mediana= 1 (ver el grafico de la FdD correspondiente a este ejemplo y tengase en cuenta la Nota
3.6.)
Ejemplo 3.13 (Esperanza y varianza de Y = aX + b, con a, b ∈ R .)
Sea X : numero de hijos por familia en una cierta ciudad.
xi 0 1 2 3 4 5 6
P [X = xi] 0.47 0.30 0.10 0.06 0.04 0.02 0.01
(a) Hallar la media o esperanza de X. ¿Que significa?
(b) Varianza y desviacion tıpica de X.
(c) El Ayuntamiento concede una ayuda anual a las familias de 2000 euros por hijo. Hallar la media,
varianza y desviacion tıpica de la variable aleatoria Y :“ayuda (en euros) que recibe anualmente
cada familia”.
Solucion:
(a)
E[X] =7∑
i=1
xiP [X = xi] = 0 × 0.47 + 1 × 0.30 + . . . + 6 × 0.01 = 1
Si tomamos al azar una familia de la poblacion, el numero medio o esperado de hijos es uno.
(b)
σ2X = V ar[X] = 1.74
σX =√
V ar[X] =√
1.74 = 1.32 .
Estadıstica 3.13
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
(c) La variable aleatoria Y : “ ayuda (en euros) que recibe anualmente cada familia” viene dada
por Y = 2000X. Por tanto
E[Y ] = E[2000 × X] = 2000 × E[X] = 2000
σ2Y = V ar[Y ] = V ar[2000 × X] = (2000)2 × V ar[X] = 6.96 × 106
σY =√
V ar[Y ] = |2000|√
V ar[X] = 2000 × 1.32 = 2638 .
Observese que σY puede calcularse como σY =√
V ar[Y ] o como σY = |a|σX .
Ejemplo 3.14 Se propone calcular la varianza y desviacion tıpica para la variable aleatoria continua
considerada en el Ejemplo 3.8.
3.6 Variables aleatorias bidimensionales
En esta seccion se pretende dar una introduccion al estudio de la distribuciones bidimensiona-
les (y multidimensionales), por lo que solo se recogen algunos aspectos relevantes de ellas. Puede
profundizarse en las obras recogidas en la bibliografıa, por ejemplo en D. Pena (2001).
Definicion 3.14 Sea Ω el espacio muestral asociado a un experimento aleatorio. (X, Y ) : Ω → R2
es una variable aleatoria bidimensional.
Es decir, se tiene una variable aleatoria bidimensional cuando cuantificamos dos aspectos, X e
Y , de un experimento aleatorio. A continuacion se recogen algunos ejemplos de variables aleatorias
bidimensionales.
Ejemplo 3.15
1. Consideremos el experimento aleatorio de tirar dos dados. Sean X : suma de los puntos obteni-
dos, Y : diferencia en valor absoluto entre los puntos obtenidos. (X, Y ) es una variable aleatoria
bidimensional, en este caso las dos componentes son discretas.
2. Sobre un grupo de individuos medir, X : altura, Y : peso. (X, Y ) es una variable aleatoria
bidimensional, en este caso las dos componentes son continuas.
3. Sobre un grupo de individuos estudiar, X : sexo (0: hombre, 1: mujer), Y : peso. (X, Y ) es una
variable aleatoria bidimensional, en este caso la componente X es discreta e Y es continua.
Observese que podrıamos decir que (X, Y ) : Ω → R2 es una variable aleatoria bidimensional si y solo
si X e Y son variables aleatorias unidimensionales.
A continuacion destacamos los casos en que ambas componentes sean discretas o ambas sean
continuas.
3.14 2o Ing. Informatica
3.6. Variables aleatorias bidimensionales
3.6.1 Variable aleatoria bidimensional discreta
Definicion 3.15 Sea (X, Y ) : Ω → R2 . (X, Y ) es una variable aleatoria bidimensional discreta si y
solo si X e Y son variables aleatorias unidimensionales discretas.
Una variable aleatoria bidimensional discreta queda caracterizada conociendo el conjunto de pares
de valores que toma, rg(X, Y ) = (xi, yj)i,j , y su funcion de probabilidad conjunta definida de forma
analoga al caso univariante:
P [X = xi, Y = yj ] = P [w ∈ Ω : (X(w) = xi, Y (w) = yj)] , ∀(xi, yj) ∈ rg(X, Y ) .
Proposicion 3.8 Las siguientes propiedades caracterizan la funcion de probabilidad conjunta:
• P [X = xi, Y = yj ] ≥ 0, ∀(xi, yj) ∈ rg(X, Y ).
•∑
xi
∑
yj
P [X = xi, Y = yj ] = 1 .
A partir de la funcion de probabilidad conjunta se pueden calcular probabilidades, obtener las
distribuciones de cada componente (distribuciones marginales), y las caracterısticas mas relevantes.
Por ejemplo, la funcion de distribucion (FdD) conjunta, F , serıa una funcion F : R2 → [0, 1]
definida como
F (x, y) = P [X ≤ x, Y ≤ y] =∑
xi≤x, yj≤y
P [X = xi, Y = yj ] , ∀(x, y) ∈ R2 .
Definicion 3.16 Sea (X, Y ) una variable aleatoria bidimensional discreta con funcion de probabilidad
conjunta P [X = xi, Y = yj ]i,j.
La funcion de probabilidad marginal de X viene dada por
P [X = xi] =∑
yj∈rg(Y )
P [X = xi, Y = yj ] . (3.8)
La funcion de probabilidad marginal de Y viene dada por
P [Y = yj ] =∑
xi∈rg(X)
P [X = xi, Y = yj ] . (3.9)
Ejemplo 3.16 Se dispone de una caja con 3 piezas aptas y 2 defectuosas, U = 3A , 2D. Se extraen
2 piezas sin reemplazamiento, y se definen las variables aleatorias:
X =
1, si la 1a pieza es apta
0, si la 1a pieza es defectuosa .Y =
1, si la 2a pieza es apta
0, si la 2a pieza es defectuosa .
1. Hallar la funcion de probabilidad conjunta
2. Hallar las funciones de probabilidad marginales.
Estadıstica 3.15
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Solucion:
Para i = 1, 2, definamos los sucesos:
Ai : “la i-esima pieza extraıda es apta”, Di : “la i-esima pieza extraıda es defectuosa”.
- El espacio muestral asociado a este experimento aleatorio es:
Ω = A1 ∩ A2, A1 ∩ D2, D1 ∩ A2, D1 ∩ D2 .
1. La funcion de probabilidad conjunta de (X, Y ) viene dada por:
P [X = 0, Y = 0] = P [D1 ∩ D2] = P [D1]P [D2|D1] =2
5× 1
4=
2
20
P [X = 0, Y = 1] = P [D1 ∩ A2] = P [D1]P [A2|D1] =2
5× 3
4=
6
20
P [X = 1, Y = 0] = P [A1 ∩ D2] = P [A1]P [D2|A1] =3
5× 2
4=
6
20
P [X = 1, Y = 1] = P [A1 ∩ A2] = P [A1]P [A2|A1] =3
5× 2
4=
6
20
Se suele recoger en una tabla de doble entrada:
X \ Y 0 1 P [X = xi]
0 2/20 6/20 8/20
1 6/20 6/20 12/20
P [Y = yj ] 8/20 12/20 1
2. Distribuciones marginales:
La funcion de probabilidad marginal de X viene dada por
P [X = xi] =∑
yj
P [X = xi, Y = yj ] .
La funcion de probabilidad marginal de Y viene dada por
P [Y = yj ] =∑
xi
P [X = xi, Y = yj ] .
Ambas se han recogido en la anterior tabla de doble entrada.
Definicion 3.17 Sea (X, Y ) una variable aleatoria bidimensional discreta con funcion de probabilidad
conjunta P [X = xi, Y = yj ]. Si P [Y = yj ] > 0 se define la funcion de probabilidad de X
condicionada a Y = yj, X|Y = yj, como
P [X = xi|Y = yj ] =P [X = xi, Y = yj ]
P [Y = yj ]. (3.10)
3.16 2o Ing. Informatica
3.6. Variables aleatorias bidimensionales
Recuerdese que dados dos sucesos A, B, si P [B] > 0,
P [A|B] =P [A ∩ B]
P [B].
En (3.10) se ha considerado
A = X = xi = X = xi, Y ∈ R,B = Y = yj = X ∈ R, Y = yj,por lo que A ∩ B = X = xi, Y = yj .
Se puede comprobar que para yj fijo, (3.10) define una funcion de probabilidad.
De forma analoga se definirıa la funcion de probabilidad de Y condicionada a X = xi con xi fijo
(supuesto que P [X = xi] > 0).
3.6.2 Variable aleatoria bidimensional continua.
En este apartado se define y estudian algunas propiedades de las variables aleatorias bidimensio-
nales continuas a partir de la funcion de densidad conjunta.
Definicion 3.18 Sea (X, Y ) : Ω → R2 . (X, Y ) es una variable aleatoria bidimensional continua si
y solo si X e Y son variables aleatorias unidimensionales continuas.
Una variable aleatoria bidimensional continua queda caracterizada conociendo el conjunto de R2
en que toma valores y su funcion de densidad conjunta, f(x, y), la cual verifica propiedades
analogas al caso univariante:
• f(x, y) ≥ 0
•∫ ∞
−∞
∫ ∞
−∞f(x, y)dxdy = 1 .
A partir de la funcion de densidad conjunta se pueden calcular probabilidades, obtener las distri-
buciones de cada componente (distribuciones marginales), y las caracterısticas mas relevantes.
Ası, la funcion de distribucion conjunta (FdD) conjunta serıa una funcion F : R2 → [0, 1]
definida como
F (x, y) = P [X ≤ x, Y ≤ y] =
∫ x
−∞
∫ y
−∞f(s, t)dsdt , ∀(x, y) ∈ R
2 .
Definicion 3.19 Dada f(x, y) la fdd conjunta de una variable aleatoria bidimensional continua (X, Y ):
La funcion de densidad marginal de X viene dada por
fX(x) =
∫ ∞
−∞f(x, y)dy .
La funcion de densidad marginal de Y viene dada por
fY (y) =
∫ ∞
−∞f(x, y)dx .
Estadıstica 3.17
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Definicion 3.20 Sean f(x, y), la fdd conjunta de una variable aleatoria bidimensional continua (X, Y ),
y fY (y) la fdd marginal de Y . En todo punto (x, y) en que f es continua y fY (y) > 0, la funcion de
densidad de X condicionada a Y = y existe y viene dada por
fX|Y =y(x) =f(x, y)
fY (y).
Nota 3.7 Puede comprobarse que fX|Y =y(·) es una funcion de densidad.
3.6.3 Caracterısticas de variables aleatorias bidimensionales.
En esta seccion destacamos como calcular E[g(X, Y )] siendo g : R2 −→ R .
Definicion 3.21 (Calculo de E[g(X, Y )])
Caso discreto:
E[g(X, Y )] =∑
xi
∑
yj
g(xi, yj)P [X = xi , Y = yj ] .
Caso continuo:
E[g(X, Y )] =
∫ ∞
−∞
∫ ∞
−∞g(x, y)f(x, y)dxdy .
Aplicamos las expresiones anteriores al calculo de E[XY ] en el siguiente ejemplo.
Ejemplo 3.17 La E[XY ] para la variable aleatoria del Ejemplo 3.16 es:
E[XY ] =∑
xi
∑
yj
xiyjP [X = xi , Y = yj ] =6
20= 0.3 ,
(se esta considerando g(x, y) = xy ).
Proposicion 3.9
(a) E[X + Y ] = E[X] + E[Y ] .
(b) E[X − Y ] = E[X] − E[Y ] .
Demostracion:
(a). La hacemos en el caso discreto (se esta considerando g(x, y) = x + y ):
E[X + Y ] =∑
xi
∑
yj
(xi + yj)P [X = xi , Y = yj ]
=∑
xi
xi
∑
yj
P [X = xi , Y = yj ]
+∑
yj
yj
(∑
xi
P [X = xi , Y = yj ]
)
=∑
xi
xiP [X = xi] +∑
yj
yjP [Y = yj ]
= E[X] + E[Y ] .
En el caso continuo serıa similar, solo que utilizando notacion integral.
(b) Analoga a la anterior.
3.18 2o Ing. Informatica
3.6. Variables aleatorias bidimensionales
Definicion 3.22 La covarianza de (X, Y ) se define como
Cov[X, Y ] = E[(X − E[X])(Y − E[Y ])] .
La siguiente expresion equivalente de la covarianza simplifica su calculo en las aplicaciones practicas.
Proposicion 3.10
Cov[X, Y ] = E[XY ] − E[X]E[Y ] .
Demostracion:
Propuesta como ejercicio
Ejemplo 3.18 Calculemos la Cov[X, Y ] para la variable aleatoria del Ejemplo 3.16. Utilizamos para
ello
Cov[X, Y ] = E[XY ] − E[X]E[Y ]
E[XY ] =∑
xi
∑
yj
xiyjP [X = xi, Y = yj ] = 6/20 .
E[X] =∑
xi
xiP [X = xi] = 12/20 .
E[Y ] =∑
yj
yjP [Y = yj ] = 12/20 .
Por tanto
Cov[X, Y ] = E[XY ] − E[X]E[Y ] = −3/50 .
(El signo negativo de la covarianza nos indica que la relacion entre las variables es inversa: al
aumentar una variable la otra disminuye).
Proposicion 3.11 (Varianza de la suma y diferencia de variables aleatorias)
(a) V ar[X + Y ] = V ar[X] + V ar[Y ] + 2Cov[X, Y ]
(b) V ar[X − Y ] = V ar[X] + V ar[Y ] − 2Cov[X, Y ]
Demostracion:
(a) Utilizaremos que E[X + Y ] = E[X] + E[Y ], y denotaremos por µX = E[X], µY = E[Y ].
V ar[X + Y ] = E[
(X + Y − E[X + Y ])2]
= E[
((X − µX) + (Y − µY ))2]
=
= E[(X − µX)2 + (Y − µY )2 + 2(X − µX)(Y − µY )
]= linealidad de la esperanza =
= E[(X − µX)2] + E[(Y − µY )2] + 2E[(X − µX)(Y − µY )] = V ar[X] + V ar[Y ] + 2Cov[X, Y ]
(b) Similar a la anterior.
Estadıstica 3.19
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Ejercicio 3.1 Sea (X, Y ) una variable aleatoria bidimensional. Demostrar que
Cov[aX + b, cY + d] = ac Cov[X, Y ] , a, b, c, d,∈ R .
Definicion 3.23 Coeficiente de correlacion lineal
ρ =Cov[X, Y ]
√
V ar[X]√
V ar[Y ].
El coeficiente de correlacion lineal es una medida de la relacion lineal entre dos variables (su
interpretacion es analoga a la que se vio en Descriptiva). Observese que signo(ρ)=signo(Cov[X, Y ]).
Definicion 3.24 X e Y son variables aleatorias incorreladas si y solo si Cov[X, Y ] = 0 . (Equiva-
lentemente ρX,Y = 0).
Ejemplo 3.19 Consideremos la variable aleatoria bidimensional (X, Y ) con Y : el tiempo de espera
en cola y X : el tiempo total que un cliente permanece en una oficina bancaria, ambos en minutos,
(X es el tiempo de espera en cola mas el tiempo que se invierte en atender al individuo). De estas
variables se conocen las siguientes caracterısticas:
marginal de X marginal de Y
E[X] = 12 E[Y ] = 6
V ar[X] = 72 V ar[Y ] = 36
Cov[X, Y ] = 36 .
Consideremos la variable aleatoria T = X−Y , el tiempo que se tarda en atender a un cliente. Gracias
a las Proposiciones 3.9 y 3.11 podemos calcular:
E[T ] = E[X − Y ] = E[X] − E[Y ] = 6
V ar[T ] = V ar[X − Y ] = V ar[X] + V ar[Y ] − 2Cov[X, Y ] = 72 + 36 − (2 × 36) = 36 .
3.7 Independencia
Hemos visto que a partir de la distribucion conjunta se puede hallar la distribucion de cada
componente (estas eran las distribuciones marginales). Cabe preguntarse si a partir de la distribuciones
marginales es posible determinar la distribucion conjunta. En general esto no es cierto, solo en el caso
particular en que las variables sean independientes. En esta seccion estudiamos este caso particular
comenzando con el caso bivariante.
Definicion 3.25 Dadas dos variables X e Y son independientes si y solo si
• Caso discreto:
P [X = xi , Y = yj ] = P [X = xi] × P [Y = yj ] , ∀(xi, yj) ∈ rg(X, Y ) .
• Caso continuo:
f(x, y) = fX(x) × fY (y) , ∀(x, y) ∈ R2 ,
con f la funcion de densidad conjunta de (X, Y ), fX y fY las funciones de densidad marginales
de X e Y respectivamente.
3.20 2o Ing. Informatica
3.7. Independencia
Proposicion 3.12 La definicion de independencia dada es equivalente a que para cualesquiera con-
juntos B1, B2 ⊆ R
P [X ∈ B1 , Y ∈ B2] = P [X ∈ B1] × P [Y ∈ B2] .
Nota 3.8 Destacamos que en el caso particular en que las variables sean independientes es posible
calcular la funcion de probabilidad (o fdd) conjunta a partir de las marginales. Esto en general no es
posible.
Proposicion 3.13 (Propiedades de variables independientes)
• Si X e Y son independientes entonces E[XY ] = E[X] × E[Y ], es decir Cov[X, Y ] = 0 .
• Si X e Y son independientes entonces V ar[X + Y ] = V ar[X] + V ar[Y ] .
Ejemplo 3.20 Consideremos la variable aleatoria bidimensional definida en el Ejemplo 3.16, las
variables aleatorias X e Y no son independientes.
Podrıamos justificarlo porque no se verifica que
P [X = xi, Y = yj ] = P [X = xi] × P [Y = yj ], para todo (xi, yj) .
Por ejemplo observar que P [X = 0, Y = 0] 6= P [X = 0]P [Y = 0]
Tambien podrıa justificarse porque al ser Cov[X, Y ] 6= 0 entonces las variables aleatorias no pueden
ser independientes (vease la Proposicion 3.13).
Ejemplo 3.21 Repetir los calculos realizados con las variables aleatorias definidas en el Ejemplo 3.16
si las extracciones se realizan con reemplazamiento.
Solucion:
Damos solo algunos resultados como indicaciones.
La funcion de probabilidad conjunta es:
X \ Y 0 1 P [X = xi]
0 4/25 6/25 10/25
1 6/25 9/25 15/25
P [Y = yj ] 10/25 15/25 1
Las variables aleatorias X e Y son independientes, puesto que
P [X = xi, Y = yj ] = P [X = xi] × P [Y = yj ], para todo (xi, yj) .
Por tanto Cov[X, Y ] = 0 (Proposicion 3.13).
Los resultados anteriores se pueden generalizar a n variables independientes como se indica a
continuacion.
Estadıstica 3.21
Tema 3. Variables aleatorias. Funcion de distribucion y caracterısticas asociadas
Definicion 3.26
Caso discreto: X1, . . . , Xn son independientes si y solo si
P [X1 = x1, . . . , Xn = xn] = P [X1 = x1] × . . . × P [Xn = xn] , ∀(x1, . . . , xn) ∈ rg(X1, . . . , Xn) .
Caso continuo: X1, . . . , Xn son independientes si y solo si
f(x1, . . . , xn) = fX1(x1) × . . . × fXn
(xn) , ∀(x1, . . . , xn) ∈ Rn
siendo f la funcion de densidad conjunta del vector (X1, . . . , Xn), y fXilas funciones de densidad
marginales de Xi para i = 1, . . . , n .
Proposicion 3.14 (Propiedades de n variables independientes.) Si X1, . . . , Xn son variables aleato-
rias independientes entonces
• Para cualesquiera conjuntos B1, B2, . . . , Bn ⊆ R
P [X1 ∈ B1 , X2 ∈ B2 , . . . Xn ∈ Bn ] = P [X1 ∈ B1] × P [X2 ∈ B2] × . . . × P [Xn ∈ Bn] .
• V ar[X1 + . . . + Xn] =n∑
i=1
V ar[Xi] .
Para finalizar recogemos algunos ejemplos en los que se pretende destacar la aplicabilidad de los
resultados recogidos en esta seccion.
Ejemplo 3.22 Tres baterıas tienen probabilidad de hacer blanco p1 = 0.2 , p2 = 0.3 , p3 = 0.4 ,
respectivamente. Encontrar la probabilidad de que se obtengan 3 blancos al disparar las tres baterıas.
Solucion:
Para i = 1, 2, 3 podemos definir las siguientes variables aleatorias que nos indican si se hace blanco
o no al disparar cada baterıa
Ii =
1, si la baterıa i hace blanco
0, si falla .
La funcion de probabilidad de Ii es
P [Ii = 1] = pi, P [Ii = 0] = 1 − pi .
Podemos suponer que las variables aleatorias Ii son independientes (el resultado de cada disparo
no influye en el resultado que se obtenga al disparar las restantes baterıas), y por tanto calcular
P [“obtener 3 blancos al disparar las tres baterıas”] = P [I1 = 1, I2 = 1, I3 = 1] = Ii independientes =
= P [I1 = 1] × P [I2 = 1] × P [I3 = 1] = 0.024 .
3.22 2o Ing. Informatica
3.7. Independencia
Ejemplo 3.23 Se prueban tres elementos que trabajan independientemente entre sı. La duracion del
tiempo de funcionamiento (en horas) de cada elemento se distribuye segun las siguientes funciones de
distribucion:
para el primer elemento F1(t) = 1 − e−0.1t para t > 0
para el segundo F2(t) = 1 − e−0.2t para t > 0
para el tercer elemento F3(t) = 1 − e−0.3t para t > 0
Hallar la probabilidad de que en el intervalo de tiempo (0, 5] horas fallen los tres elementos.
Solucion:
Definamos las variables aleatorias Ti : “tiempo de funcionamiento del elemento i”, para i = 1, 2, 3 .
P [“en el intervalo de tiempo (0, 5] fallen los tres elementos” ] =
= P [ T1 ≤ 5, T2 ≤ 5, T3 ≤ 5 ] = Ti independientes =
= P [T1 ≤ 5] × P [T2 ≤ 5] × P [T2 ≤ 5] = F1(5) × F2(5) × F3(5)
= (1 − e−0.5) × (1 − e−1) × (1 − e−1.5) = 0.3935 × 0.6321 × 0.7769 = 0.1932 .
Estadıstica 3.23