Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la...

91
Integración Técnicas de Integración Sustitución Integración por Partes Aplicaciones a Probabilidad Variables Discretas Variables Continuas Valores Esperados Momentos Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la Integración Joaquín Ortega Sánchez Centro de Investigación en Matemáticas, CIMAT Guanajuato, Gto., Mexico

Transcript of Curso Propedéutico de Cálculo Sesión 6: Aplicaciones de la...

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Curso Propedéutico de CálculoSesión 6:

Aplicaciones de la Integración

Joaquín Ortega Sánchez

Centro de Investigación en Matemáticas, CIMATGuanajuato, Gto., Mexico

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Esquema

1 Técnicas de IntegraciónSustituciónIntegración por Partes

2 Aplicaciones a ProbabilidadVariables DiscretasVariables ContinuasValores EsperadosMomentos

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Esquema

1 Técnicas de IntegraciónSustituciónIntegración por Partes

2 Aplicaciones a ProbabilidadVariables DiscretasVariables ContinuasValores EsperadosMomentos

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Técnicas de Integración

Al contrario de lo que ocurre con las derivadas, no hayalgoritmos que permitan calcular cualquier integral quepodamos plantear.

Hay una serie de métodos que permiten calcular integralesen ciertos casos. Estos métodos son bastante generales ypermiten calcular muchas de las integrales que nosencontramos en la práctica. A continuación revisaremosalgunos de ellos.

Es importante recalcar, sin embargo, que no todas lasfunciones continuas definidas en un intervalo cerrado tienenuna primitiva que se pueda escribir en términos de lasfunciones elementales.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

Método de SustituciónA partir de la regla de la cadena para las derivadaspodemos introducir un primer método de integración que seconoce como el método de sustitución o de cambio devariable

Comenzamos considerando el caso de la integral indefinida.

Sea g una función derivable y sea F una primitiva de f ,entonces ∫

f (g(x)) g′(x) dx = F (g(x)) + C.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

La manera de utilizar el resultado anterior es la siguiente.En una integral del tipo∫

f (g(x)) g′(x) dx

hacemos el cambio de variable u = g(x), de modo que

du/dx = g′(x) y du = g′(x)dx .

La integral inicial se transforma en∫f (g(x)) g′(x)dx =

∫f (u) du = F (u) + C = F (g(x)) + C.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

EjemploCalcule

∫x sen(x2) dx .

Usamos la sustitución u = x2 y entonces du = 2x dx

∫x sen(x2) dx =

∫12

sen(x2) 2x dx

=12

∫sen u du = −1

2cos u + C

= −12

cos(x2) + C.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

EjemploCalcule

∫x sen(x2) dx .

Usamos la sustitución u = x2 y entonces du = 2x dx

∫x sen(x2) dx =

∫12

sen(x2) 2x dx

=12

∫sen u du = −1

2cos u + C

= −12

cos(x2) + C.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

En el caso de las integrales definidas tenemos la siguienteversión del método de sustitución.

Sea g una función con derivada continua en [a,b] y sea funa función continua en el rango de g, entonces∫ b

af (g(x)) g′(x) dx =

∫ g(b)

g(a)f (u) du

donde u = g(x).

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

Ejemplo

Calcule∫ 1

0

x + 1(x2 + 2x + 6)2 dx .

Hacemos el cambio de variable u = x2 + 2x + 6, de modoque du = (2x + 2)dx = 2(x + 1)dx y vemos que cuandox = 0, u = 6 y cuando x = 1, u = 9. Por lo tanto∫ 1

0

x + 1(x2 + 2x + 6)2 dx =

12

∫ 1

0

2(x + 1)

(x2 + 2x + 6)2 dx

=12

∫ 9

6u−2du =

(− 1

2u

∣∣∣96

= − 118−( 1

12

)=

136

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

Ejemplo

Calcule∫ 1

0

x + 1(x2 + 2x + 6)2 dx .

Hacemos el cambio de variable u = x2 + 2x + 6, de modoque du = (2x + 2)dx = 2(x + 1)dx y vemos que cuandox = 0, u = 6 y cuando x = 1, u = 9. Por lo tanto∫ 1

0

x + 1(x2 + 2x + 6)2 dx =

12

∫ 1

0

2(x + 1)

(x2 + 2x + 6)2 dx

=12

∫ 9

6u−2du =

(− 1

2u

∣∣∣96

= − 118−( 1

12

)=

136

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

Ejemplo

Calcule∫ π2/4

π2/9

cos√

x√x

dx .

Hacemos el cambio de variable u =√

x , de modo quedu = dx/(2

√x) y vemos que cuando x = π2/9,

u =√π2/9 = π/3 y cuando x = π2/4, u = π/2. Por lo tanto∫ π2/4

π2/9

cos√

x√x

dx = 2∫ π2/4

π2/9cos√

x1

2√

xdx

= 2∫ π/2

π/3cos u du =

(2 sen u

∣∣∣π/2

π/3

= 2−√

3.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Sustitución

Ejemplo

Calcule∫ π2/4

π2/9

cos√

x√x

dx .

Hacemos el cambio de variable u =√

x , de modo quedu = dx/(2

√x) y vemos que cuando x = π2/9,

u =√π2/9 = π/3 y cuando x = π2/4, u = π/2. Por lo tanto∫ π2/4

π2/9

cos√

x√x

dx = 2∫ π2/4

π2/9cos√

x1

2√

xdx

= 2∫ π/2

π/3cos u du =

(2 sen u

∣∣∣π/2

π/3

= 2−√

3.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

Método de Integración por PartesEste método se basa en la regla de derivación paraproductos de funciones: Si f ,g son funciones diferenciables

Dx (fg) = g(x)Dx (f ) + f (x)Dx (g).

A partir de esta ecuación obtenemos

f (x)Dxg = Dx (fg)− g(x)Dx f .

Si integramos ahora obtenemos∫f (x)

dgdx

dx = f (x)g(x)−∫

g(x)dfdx

dx .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

Si ponemos u = f (x) y v = g(x) podemos escribir lafórmula anterior como∫

u dv = uv −∫

v du

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

EjemploHalle la integral

∫log x dx .

Ponemos u = log x y v = x . Entonces du = (1/x)dx ydv = dx . Por lo tanto∫

log x dx =

∫u dv = uv −

∫v du

= x log x −∫

1 dx = x log x − x .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

EjemploHalle la integral

∫log x dx .

Ponemos u = log x y v = x . Entonces du = (1/x)dx ydv = dx . Por lo tanto∫

log x dx =

∫u dv = uv −

∫v du

= x log x −∫

1 dx = x log x − x .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

EjemploHalle

∫ex sen x dx .

Ponemos u = ex y dv = sen x dx . Entonces

du = ex dx y v = − cos x

Si llamamos I a la integral que queremos calcular tenemos

I = −ex cos x −∫−ex cos x dx

= −ex cos x +

∫ex cos x dx .

La integral en el segundo sumando es similar a la integralcon la que iniciamos, así que parece que no hemosavanzado mucho.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

EjemploHalle

∫ex sen x dx .

Ponemos u = ex y dv = sen x dx . Entonces

du = ex dx y v = − cos x

Si llamamos I a la integral que queremos calcular tenemos

I = −ex cos x −∫−ex cos x dx

= −ex cos x +

∫ex cos x dx .

La integral en el segundo sumando es similar a la integralcon la que iniciamos, así que parece que no hemosavanzado mucho.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

Volvemos a usar integración por partes para calcular lasegunda integral.

Ponemos t = ex dx y dz = cos x dx . Entonces

dt = ex dx y z = sen x .

La segunda integral es∫t dz = ex sen x −

∫ex sen x dx

y vuelve a aparecer la integral inicial I pero con un signomenos. Por lo tanto

I = ex sen x − ex cos x − I

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Integración por Partes

En consecuencia

2I = ex sen x − ex cos x

y

I =12

ex (sen x − cos x).

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

Esquema

1 Técnicas de IntegraciónSustituciónIntegración por Partes

2 Aplicaciones a ProbabilidadVariables DiscretasVariables ContinuasValores EsperadosMomentos

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Un espacio de probabilidad es un trío de objetosmatemáticos que tienen como objetivo modelar unexperimento aleatorio, es decir, un experimento en el cual elresultado no puede predecirse.

El primer objeto de este trío es el espacio muestral, que esun conjunto que contiene todos los resultados posibles delexperimento.

La notación usual para este espacio es Ω. Sus elementosse conocen como los eventos elementales y los denotamospor ω.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

El segundo elemento es una colección de subconjuntos deΩ, que se conocen como eventos, y que satisfacen las doscondiciones siguientes:

1 Si A ⊂ Ω es un evento, entonces su complementoAc = Ω− A también es un evento.

2 Si A1,A2, . . . es una colección numerable de eventos,entonces su unión ∪n≥1An también es un evento.

La colección de eventos la denotaremos por F .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

El tercer elemento para el modelo es la probabilidad.Esta es una función que a cada evento A ∈ F le asocia unnúmero entre 0 y 1 y satisface las siguientes condiciones:

1 0 ≤ P(A) ≤ 1, P(Ω) = 1.

2 Si An,n ≥ 1 es una colección de eventos disjuntosentonces

P(∪n≥1An) =∑n≥1

P(An).

A la colección (Ω,F ,P) la llamamos Espacio deProbabilidad.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

EjemploSi lanzamos una moneda al aire tenemos dos resultadosposibles, Aguila (A) y Sol (S). Podemos tomar comoespacio muestral al conjunto que contiene estas dos letras:

Ω = A,S.

Si no tenemos razón para suponer que la moneda no esbalanceada, asignamos a cada uno de estos resultados lamisma probabilidad. Por lo tanto

P(A) = P(S) =12

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Una variable aleatoria es una función definida sobre unespacio de probabilidad que toma valores reales.

Es usual denotar las variables aleatorias por letrasmayúsculas, como X ,Y o Z y a sus valores por letrasminúsculas, como x , y o z.

En el ejemplo del lanzamiento de una moneda al aire,podemos asignar a Sol el valor 1 y a Aguila el valor 0,por ejemplo:

X (S) = 1, X (A) = 0.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

A los valores de una variable aleatoria les podemos asociaruna probabilidad, que se conoce como la distribución de lavariable aleatoria, y que denotaremos por PX .

Si I es un intervalo de números reales, la probabilidadasociada a este intervalo es la probabilidad de que lavariable aleatoria X tome valores en él:

PX (I) = P(X ∈ I) = P(ω : X (ω) ∈ I)

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Una variable aleatoria es discreta si toma una cantidadfinita o numerable de valores.

La distribución de una variable aleatoria discreta sedescribe a través de su función de probabilidad : Si losvalores de la variable son x1, x2, . . . , la función deprobabilidad es una colección de números reales p1,p2, . . .que satisfacen pi ≥ 0,

p1 + p2 + · · · = 1

yP(X = xi) = pi .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

EjemploLanzamos un dado y llamamos X al resultado dellanzamiento.

X toma valores 1,2,3,4,5,6 con probabilidad 1/6 paracada valor.

La probabilidad de que el resultado sea par es

P(X ∈ 2,4,6) =36

=12

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

EjemploSi consideramos un experimento con dos resultadosposibles, como en el caso del lanzamiento de una moneda,siempre podemos asociarle una variable aleatoria que tomavalores 0 y 1.En este caso existe un número p ∈ [0,1] tal que

P(X = 1) = p, P(X = 0) = q = 1− p.

El valor 1 lo identificamos con un éxito en el experimentomientras que el valor 0 es un fracaso.Decimos que X es una variable aleatoria de Bernoulli conprobabilidad de éxito p.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Supongamos que realizamos n veces el experimento demanera independiente, es decir, que el resultado decualquiera de las realizaciones no afecta el resultado delresto, y llamamos Sn a número total de éxitos en los nensayos.Si Xi es el resultado del i-ésimo ensayo, entonces

Sn = X1 + X2 + · · ·+ Xn.

¿Cuál es la distribución de Sn?

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Para hallar P(Sn = k) tenemos que ver de cuántasmaneras se pueden obtener k éxitos en n ensayos y luegomultiplicar este número por la probabilidad de obtener kéxitos en n ensayos, en un orden particular.

Para ver de cuantas maneras podemos obtener k éxitosobservamos que tenemos n lugares para escoger dóndecolocar los k éxitos. Esto lo podemos hacer de(

nk

)maneras distintas.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Por otro lado la probabilidad de tener k éxitos y luego n − kfracasos es pkqn−k . Esta es la misma probabilidad decualquier orden particular. Así

P(Sn = k) =

(nk

)pk (1− p)n−k

Esta distribución se conoce como la distribución binomialcon parámetros n y p.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Antes de entrar a considerar variables continuas debemosintroducir dos conceptos. El primero de ellos es el de lafunción de distribución.

La función de distribución asociada a la variable aleatoriaX , que denotamos por FX (x), se define como

FX (x) = P(X ≤ x)

FX (x) es una función definida sobre los números reales quetoma valores en [0,1].

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Propiedades de las Funciones de Distribución.

1 Las funciones de distribución son crecientes (ensentido débil):

x < y ⇒ FX (x) ≤ FX (y).

2 Las funciones de distribución son continuas por laderecha y tienen límites por la izquierda.

3 limx→+∞

FX (x) = 1, limx→−∞

FX (x) = 0.

Es posible demostrar que si una función F tiene estas trespropiedades entonces es la función de distribución de unavariable aleatoria X .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Propiedades de las Funciones de Distribución.

1 Las funciones de distribución son crecientes (ensentido débil):

x < y ⇒ FX (x) ≤ FX (y).

2 Las funciones de distribución son continuas por laderecha y tienen límites por la izquierda.

3 limx→+∞

FX (x) = 1, limx→−∞

FX (x) = 0.

Es posible demostrar que si una función F tiene estas trespropiedades entonces es la función de distribución de unavariable aleatoria X .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

El otro concepto fundamental que necesitamos es el devalor esperado o esperanza de una variable aleatoria, quecorresponde al concepto empírico de promedio.

Si una variable aleatoria X toma valores x1, x2, . . . conprobabilidades respectivas p1,p2, . . . , definimos su valoresperado E(X ) como

E(X ) = p1x1 + p2x2 + · · ·+ xnpn + · · · =∞∑

n=1

xnpn

En el caso finito esto es simplemente el promedio de losvalores pesados por su probabilidad respectiva.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplos• En el caso de una variable X de Bernoulli conprobabilidad de éxito p tenemos

E(X ) = 1 · p + 0 · (1− p) = p.

• En el caso de un dado, los valores posibles son1,2,3,4,5,6 cada uno con l probabilidad 1/6. Por lo tanto

E(X ) =16

(1 + 2 + 3 + 4 + 5 + 6) =216

= 3.5

Observamos en ambos casos que el valor esperado de lasvariables no es un valor que la variable puede tomar.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Hasta ahora hemos supuesto que los valores que puedetomar una variable aleatoria están en un conjunto finito onumerable, pero en muchas ocasiones este no es el caso.

Por ejemplo, si medimos el tiempo de vida de uncomponente electrónico, la velocidad de un cometa, ladirección del viento o el voltaje de un circuito, el resultadopuede estar en un conjunto que no es numerable.

Así como las distribuciones de probabilidad de las variablesdiscretas se describen a través de una función deprobabilidad, en el caso de una variable continuanecesitamos función de densidad.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Una (función de) densidad es una función f definida sobreel conjunto de valores de X que satisface dos condiciones:

1 f (x) ≥ 0 para todo x .

2

∫ ∞−∞

f (x) dx = 1.

Si tenemos un intervalo [a,b] ⊂ R

P(X ∈ [a,b]) =

∫ b

af (x) dx .

La función de distribución de la variable X es

FX (x) = P(X ≤ x) =

∫ x

−∞f (t) dt

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: La Distribución UniformeConsideremos una variable que toma valores en el intervalo[0,1] con densidad constante f (x) = k .

Como la integral de la densidad debe valer 1 y la integralcorresponde al área bajo la densidad, que es el área de unrectángulo de base 1, la altura también debe ser igual a 1.

Por lo tanto la densidad es la función

f (x) =

1 si 0 ≤ x ≤ 10 en otro caso.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Si 0 < a < b < 1, la probabilidad de obtener un valor de lavariable en [a,b] está dada por

P(X ∈ [a,b]) =

∫ b

af (x) dx = b − a,

es decir, es igual a la longitud del intervalo.

La función de distribución de esta variable está dada por

FX (x) = P(X ≤ x) =

∫ x

−∞f (t) dt

=

0 si x ≤ 0,x si 0 ≤ x ≤ 1,1 si x ≥ 1.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Si 0 < a < b < 1, la probabilidad de obtener un valor de lavariable en [a,b] está dada por

P(X ∈ [a,b]) =

∫ b

af (x) dx = b − a,

es decir, es igual a la longitud del intervalo.

La función de distribución de esta variable está dada por

FX (x) = P(X ≤ x) =

∫ x

−∞f (t) dt

=

0 si x ≤ 0,x si 0 ≤ x ≤ 1,1 si x ≥ 1.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

−0.5 0.0 0.5 1.0 1.50.

00.

40.

8

Densidad Uniforme

x

−0.5 0.0 0.5 1.0 1.5

0.0

0.4

0.8

Distribucion Uniforme

x

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Una variable aleatoria tiene distribución uniforme en elintervalo [a,b] si su densidad está dada por

f (x) =

1

b−a si a ≤ x ≤ b,0 en otro caso.

La función de distribución es, en este caso

FX (x) =

0 si x ≤ a,x−ab−a si a ≤ x ≤ b,1 si x ≥ b.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Una variable aleatoria tiene distribución uniforme en elintervalo [a,b] si su densidad está dada por

f (x) =

1

b−a si a ≤ x ≤ b,0 en otro caso.

La función de distribución es, en este caso

FX (x) =

0 si x ≤ a,x−ab−a si a ≤ x ≤ b,1 si x ≥ b.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: La Distribución ExponencialUna variable X tiene distribución exponencial si tomavalores en [0,∞) y tiene densidad

f (x) =

λe−λx si x ≥ 0,0 en otro caso,

donde λ > 0 es el parámetro de la distribución.

La función de distribución de esta variable está dada por

FX (x) = P(X ≤ x) =

∫ x

−∞f (t) dt

=

0 si x ≤ 0,1− e−λx si x ≥ 0.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: La Distribución ExponencialUna variable X tiene distribución exponencial si tomavalores en [0,∞) y tiene densidad

f (x) =

λe−λx si x ≥ 0,0 en otro caso,

donde λ > 0 es el parámetro de la distribución.

La función de distribución de esta variable está dada por

FX (x) = P(X ≤ x) =

∫ x

−∞f (t) dt

=

0 si x ≤ 0,1− e−λx si x ≥ 0.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

0 2 4 6 8 100.

00.

40.

8

Densidad Exponencial

x

f(x)

0 2 4 6 8 10

0.0

0.4

0.8

Distribucion Exponencial

x

f(x)

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: La Distribución de CauchyDemuestre que

f (x) =1

π(1 + x2)para x ∈ R

es una densidad de probabilidad.

Tenemos que verificar dos condiciones: que la función espositiva y que su integral vale 1.

La primera es sencilla. Para la segunda recordamos que

Dx arctan x =1

1 + x2

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: La Distribución de CauchyDemuestre que

f (x) =1

π(1 + x2)para x ∈ R

es una densidad de probabilidad.

Tenemos que verificar dos condiciones: que la función espositiva y que su integral vale 1.

La primera es sencilla. Para la segunda recordamos que

Dx arctan x =1

1 + x2

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Por lo tanto∫ b

a

1π(1 + x2)

dx =1π

(arctan b − arctan a)

y si hacemos ahora a→ −∞ y b → +∞ obtenemos que

(lim

b→∞arctan b − lim

a→−∞arctan a

)=

(π2

2

)= 1.

−10 −5 0 5 10

−1.

5−

0.5

0.5

1.5

x

arct

an(x

)

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

−10 −5 0 5 100.

000.

100.

200.

30

Densidad de Cauchy

x

f(x)

−10 −5 0 5 10

0.0

0.4

0.8

Distribucion de Cauchy

x

f(x)

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Si f es una función no negativa en R que tiene integral finita,podemos usarla para definir una densidad de probabilidad.

LlamemosK =

∫ ∞−∞

f (x) dx <∞

entonces la función

g(x) =1K

f (x)

es una densidad de probabilidad porque es no-negativa ysu integral vale 1.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: La Distribución Normal o GaussianaVeamos que

f (x) = e−x2/2, para x ∈ R

es una función no-negativa e integrable, que por lo tantopuede ’normalizarse’ para definir una densidad deprobabilidad.

En lugar de calcular esta integral sólo demostraremos quees convergente. Esto es suficiente para saber que existeuna constante que ’normaliza’ esta función para que seauna densidad.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

En primer lugar observamos que la función f es simétricaporque

f (−x) = e−(−x)2/2 = e−x2/2 = f (x)

y en consecuencia basta demostrar que la integral∫ ∞0

e−x2/2 dx

existe.

Observamos inicialmente que e−x2/2 en [0,∞) es unafunción decreciente que alcanza su máximo en x = 0.El máximo valor de la función es 1.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

−4 −2 0 2 4

0.0

0.4

0.8

x

f(x)

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Tenemos∫ ∞0

e−x2/2 dx =

∫ 1

0e−x2/2 dx +

∫ ∞1

e−x2/2 dx

< 1 +

∫ ∞1

e−x/2 dx

= 1 +(− 2e−x/2∣∣∞

1 = 1 + 2√

e

Por lo tanto ∫ ∞−∞

e−x2/2 dx

existe.Es posible demostrar que el valor de esta integral es

√2π.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

La densidad

ϕ(x) =1√2π

e−x2/2, para x ∈ R

se conoce como la densidad normal o Gaussiana típica oestándar.

Su función de distribución es

Φ(x) =

∫ x

−∞ϕ(t) dt

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

−4 −2 0 2 40.

00.

10.

20.

30.

4

Densidad Normal

x

f(x)

−4 −2 0 2 4

0.0

0.4

0.8

Distribucion Normal

x

f(x)

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: La Distribución GammaVeamos que la función

f (x) = Cλαxα−1e−λx , para x > 0,

define una densidad de probabilidad si escogemos laconstante C adecuadamente.

La primera condición es que la función f sea positiva, locual es cierto. Falta ver que f es integrable.

De nuevo, no vamos a calcular la integral sino a demostrarque la integral existe.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Veamos primero que

limx→∞

xα−1e−λx = 0.

Si α ≤ 1 entonces tanto xα−1 como e−λx van a 0 cuandox →∞ .Si α > 1 tenemos que xα−1 →∞ y e−λx → 0 por lo que ellímite es una indeterminación. Para usar L’Hôpitalescribimos

limx→∞

xα−1e−λx = limx→∞

xα−1

eλx

Ahora tenemos una indeterminación de tipo∞/∞ ypodemos derivar numerador y denominador para hallar elvalor del límite.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Observamos que al derivar el numerador, la potencia α− 1desciende una unidad y aparece un factor igual a lapotencia.

Dnx xα−1 = (α− 1)(α− 2) · · · (α− n)xα−1−n

En cambio, cada vez que derivamos el denominadoraparece un factor igual a λ que multiplica la exponencialinicial.

Dnx eλx = λneλx

Por lo tanto, para hallar el límite derivamos numerador ydenominador tantas veces como sea necesario paraobtener una potencia negativa en el numerador.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Si k = [α] es el mayor entero menor o igual que α,derivando k veces obtenemos

limx→∞

Dkx xα−1

Dkx eλx

= limx→∞

(α− 1)(α− 2) · · · (α− k)xα−1−k

λkeλx

y ahora el numerador va a 0 mientras que el denominadorva a infinito, y el cociente converge a 0.

Por lo tantolim

x→∞xα−1e−λx = 0.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Cambiando λ por λ/2 obtenemos

xα−1e−λx/2 → 0 cuando x →∞.

Por el límite anterior existe m <∞ tal que para x > mxα−1eλx/2 < 1. Por lo tanto, para b > m,∫ b

0xα−1e−λx dx =

∫ m

0xα−1e−λx dx +

∫ b

mxα−1e−λx/2e−λx/2dx

<

∫ m

0xα−1e−λx dx +

∫ b

me−λx/2 dx

=

∫ m

0xα−1e−λx dx + (2/λ)e−λm/2

= C1

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Por lo tanto la integral∫ ∞0

λαxα−1e−λx dx

existe y tiene un valor finito que llamaremos A. Si ponemosC = 1/A entonces

f (x) = Cλαxα−1e−λx , para x > 0,

define una densidad de probabilidad, que corresponde a ladistribución Gamma con parámetros α y λ.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Definimos la función Gamma por

Γ(α) =

∫ ∞0

λαxα−1e−λxdx =

∫ ∞0

uα−1e−u du.

La densidad de la distribución Gamma es ahora

f (x) =1

Γ(α)λαxα−1e−λx , para x > 0,

Si α es un entero positivo, integrando por partes se obtieneque Γ(n) = (n − 1)!.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

En el caso particular λ = 1/2 y α = n/2 para n ∈ N,

f (x) =1

2n/2Γ(n/2)x

n2−1e−x/2

que se conoce como la densidad Ji-cuadrado con n gradosde libertad y se denota χ2

n.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

DefiniciónSea X una variable aleatoria con densidad f . Si∫ ∞

−∞|x |f (x) dx <∞

entonces X tiene esperanza o valor esperado E(X ) definidopor

E(X ) =

∫ ∞−∞

xf (x) dx

También se usa la notación µ o µX para el valor esperadode X .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: Distribución UniformeSea X una v.a. con distribución uniforme en (a,b), condensidad

f (x) =1

b − apara a < x < b

y f (x) = 0 en otro caso. Entonces

E(X ) =

∫ ∞−∞

xf (x) dx =

∫ b

a

1b − a

x dx

=1

b − a

[x2

2

∣∣∣ba

=b2 − a2

2(b − a)

=b + a

2.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: Distribución ExponencialSea X una v.a. con distribución exponencial de parámetroλ, con densidad

f (x) = λe−λx para x > 0

y f (x) = 0 en otro caso. Entonces, integrando por partes

E(X ) =

∫ ∞−∞

xf (x) dx =

∫ ∞0

λxe−λx dx

=[− xe−λx

∣∣∣∞0

+

∫ ∞0

e−λx

=[− λ−1e−λx

∣∣∣∞0

= 1/λ.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: Distribución NormalSea X una v.a. con distribución normal típica, con densidad

f (x) =1√2π

e−x2/2 para x ∈ R.

Entonces

E(X ) =

∫ ∞−∞

xf (x) dx =

∫ ∞−∞

1√2π

xe−x2/2 dx

Antes de calcular esta integral vamos a demostrar unresultado general sobre integración de funciones pares eimpares.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Recordemos la definición. Una función es par sif (−x) = f (x) y es impar si f (−x) = −f (x), para todo x ∈ R.

Teorema(a) Si f es una función par, para cualquier a > 0,∫ 0

−af (x) dx =

∫ a

0f (x) dx .

En consecuencia∫ a

−af (x) dx = 2

∫ a

0f (x) dx .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

(b) Si f es una función impar, para cualquier a > 0,∫ 0

−af (x) dx = −

∫ a

0f (x) dx .

En consecuencia ∫ a

−af (x) dx = 0.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Demostración.En la integral ∫ 0

−af (x) dx

hacemos el cambio de variable y = −x , dy = −dx yobtenemos ∫ 0

−af (x) dx = −

∫ 0

−af (−y) dy

=

∫ a

0f (−y) dy .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Si f es par, tenemos∫ a

0f (−y) dy =

∫ a

0f (y) dy .

Si, en cambio, f es impar,∫ a

0f (−y) dy = −

∫ a

0f (y) dy .

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ahora podemos usar este resultado para calcular laesperanza de una v.a. Gaussiana típica.

Observamos que la densidad

ϕ(x) =1√2π

e−x2/2

es una función par, y si la multiplicamos por x obtenemosuna función impar. Por lo tanto, para cualquier a > 0∫ 0

−a

1√2π

xe−x2/2 dx = −∫ a

0

1√2π

xe−x2/2 dx

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Si hacemos a→∞ obtenemos∫ 0

−∞

1√2π

xe−x2/2 dx = −∫ ∞

0

1√2π

xe−x2/2 dx

y en consecuencia∫ ∞−∞

xϕ(x) dx =

∫ 0

−∞xϕ(x) dx +

∫ ∞0

xϕ(x) dx = 0

Es decir,

E(X ) = 0

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: Distribución de CauchyLa densidad de Cauchy es

f (x) =1

π(1 + x2), para x ∈ R

que también es una densidad par. Por lo tanto, podríamosesperar que, al igual que en el caso Gaussiano, el valoresperado sea 0, pero en este caso el valor esperado noexiste, porque la integral∫ ∞

0

xπ(1 + x2)

dx

no converge.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Como el integrando es positivo en (0,∞),∫ ∞0

xπ(1 + x2)

dx ≥∫ ∞

1

xπ(1 + x2)

dx

Para x ∈ [1,∞), 1 ≤ x2 y en consecuencia∫ ∞1

xπ(1 + x2)

dx ≥∫ ∞

1

xπ(x2 + x2)

dx

=

∫ ∞1

x2πx2 dx =

12π

∫ ∞1

1x

dx

=1

2πlim

b→∞log(b) =∞.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

DefiniciónSi X es una variable aleatoria con densidad f , y k ∈ N, elmomento de orden k de X es

E(X k ) =

∫ ∞−∞

xk f (x) dx ,

siempre que la integral exista.

El momento centrado de orden k de X es

E((X − E(X ))k ) =

∫ ∞−∞

(x − µX )k f (x) dx

siempre que la integral exista.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Si k = 1, el momento de orden k no es más que el valoresperado.

En momento centrado de orden 2 se conoce como lavarianza de la variable aleatoria X , y es una medida de ladispersión o concentración de la densidad alrededor de lamedia. Usamos la notación σ2 = σ2

X = Var(X ).

La raíz cuadrada de la varianza se conoce como ladesviación típica.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

La siguiente fórmula resulta muy útil para el cálculo de lavarianza.

Var(X ) = E((X − µX )2) = E(X 2 − 2µX X + µ2X )

= E(X 2)− 2µX E(X ) + µ2X

= E(X 2)− µ2X

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: Distribución UniformeSi X tiene distribución uniforme en (a,b) sabemos queµX = (a + b)/2. Hallemos el segundo momento:

E(X 2) =

∫ ∞−∞

x2f (x) dx =1

b − a

∫ b

ax2 dx

=1

b − a

[x3

3

∣∣∣ba

=13

b3 − a3

b − a

=a2 + ab + b2

3y la varianza es

Var(X ) = E(X 2)− (E(X ))2 =a2 + ab + b2

3− (a + b)2

4

=(b − a)2

12.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: Distribución ExponencialSi X tiene distribución exponencial de parámetro λ > 0sabemos que µX = 1/λ. Hallemos el segundo momentointegrando por partes dos veces:

E(X 2) =

∫ ∞−∞

x2f (x) dx =

∫ ∞0

x2λe−λx dx

=[− x2e−λx

∣∣∣∞0

+

∫ ∞0

2xλe−λx dx

=[− 2λ

xe−λx∣∣∣∞0

+2λ

∫ ∞0

e−λx dx

=2λ2

y la varianza es

Var(X ) = E(X 2)− (E(X ))2 =2λ2 −

1λ2 =

1λ2

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Ejemplo: Distribución NormalSi X tiene distribución normal típica sabemos que µX = 0.Por lo tanto la varianza es igual al segundo momento:

E(X 2) =

∫ ∞−∞

x2f (x) dx =

∫ ∞−∞

x2 1√2π

e−x2/2 dx

=2√2π

∫ ∞0

x2e−x2/2 dx =2√2π

∫ ∞0

x(xe−x2/2) dx

=[− 2√

2πxe−x2/2

∣∣∣∞0

+2√2π

∫ ∞0

e−x2/2 dx

=

∫ ∞−∞

1√2π

e−x2/2 dx = 1

y la varianza es

Var(X ) = E(X 2)− (E(X ))2 = 1.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Supongamos que X es una v.a. con media µ y varianza σ2.Veamos cuales son la media y varianza de la funciónY = aX + b:

E(Y ) = E(aX + b) =

∫ ∞−∞

(ax + b)f (x) dx

= a∫ ∞−∞

xf (x) dx +

∫ ∞−∞

bf (x) dx

= a E(X ) + b.

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Var(Y ) = Var(aX + b) = E((aX + b − E(aX − b))2)

= E((aX + b − a E(X )− b)2)

= E(a2(X − E(X ))2)

=

∫ ∞−∞

a2(x − µX )2f (x) dx

= a2∫ ∞−∞

(x − µX )2f (x) dx

= a2 Var(X ).

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

La Distribución NormalSea X una v.a. con distribución normal típica y ponemosY = σX + µ. Entonces es posible demostrar que Y tienedensidad

ϕ(x ;µ, σ2) =1√2πσ

exp(−(x − µ)2/(2σ2))

Por el resultado anterior tenemos que

E(Y ) = µ, Var(Y ) = σ2

Integración

Técnicas deIntegraciónSustitución

Integración porPartes

Aplicaciones aProbabilidadVariables Discretas

Variables Continuas

Valores Esperados

Momentos

AplicacionesProbabilidad

Decimos que Y tiene una distribución normal o Gaussianacon parámetros µ y σ2.

Usando transformaciones lineales podemos pasar de unadistribución Gaussiana a otra.

Por ejemplo, si Z tiene distribución normal de media µ yvarianza σ2, la variable X definida por

X =Z − µσ

tiene distribución normal típica.