Introducción al Cálculo Estocástico con aplicaciones Juan ...

33
............................................................ ................................................ ............................................. ......................................................... ............................................................ ............................................................ ...............................................................

Transcript of Introducción al Cálculo Estocástico con aplicaciones Juan ...

Page 1: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Introducción al Cálculo Estocástico con aplicaciones

Juan Manuel Paiba Amaya

Contenido

Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21. Procesos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32. Cálculo estocástico de ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17Conclusiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .23Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24Apéndice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1

Page 2: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Introducción

Como el titulo ya muy bien lo menciona, este documento puede considerarseuna buena herramienta para el estudio del cálculo estocástico. Los temas a re-visar abarcan teoría de probabilidad, procesos estocásticos, cálculo estocásticoy cálculo diferencial de Itô. De manera precisa se revisan deniciones clásicascomo la formula de Itô y el movimiento Browniano con algunas de sus prin-cipales aplicaciones. Como parte adicional del texto la teoría de probabilidadpreliminar a los procesos estocásticos se encuentra al nal de este documentoen el apéndice.

La estructura del texto bien podría dividirse en dos secciones, una primera sec-ción donde se estudia el cálculo estocástico, y una segunda donde se exponenalgunas aplicaciones importantes de lo estudiado anteriormente. Esta últimaparte presenta dos de los modelos utilizados en la valoración de opciones, elmodelo de Black-Scholes (Mov. Browniano Geométrico) y el modelo de volatil-idad variable de Heston, planteamiento nuevo en este asunto que se encuentramuy ligado al cálculo multivariable de Itô.

2

Page 3: Introducción al Cálculo Estocástico con aplicaciones Juan ...

1.procesos estocáticos

Denición 1.1 . Un proceso estocástico (p.e) es una colección de vari-ables aleatorias Xt : tε [0, T ] denidas en un espacio de probabilidad común(Ω,=,P) con valores en R y un intervalo de tiempo [0, T ]. El conjunto for-mado por los valores que toma este proceso se denota como S , importanteaclarar que el conjunto S y los intervalos de tiempo sobre los cuales se dene elproceso pueden ser continuos o discretos. Los procesos estocásticos con incre-mentos estacionarios o independientes son algunos de los elemntos comunes enla teoría de procesos estocásticos. Se llaman p.e de incrementos estacionariossi Xt2+τ − Xt1+τ tiene la misma distribución que Xt2−t1 para todos los val-ores de t1, t2 y τ > 0. Y p.e de incrementos independientes si Xt+τ − Xτ esindependiente de Xs para todo s ≤ τ.

La aplicación denida sobre cada elemento ωεΩ

X (ω) : T −→ S

t 7→ Xt(ω)

es llamada camino simple del proceso sobre el tiempo de realización.

Denición 1.2 Sea Xt : tεT un proceso estocástico denido sobre (Ω,F ,P)con valores en (R,B), éste se llama proceso de Markov si para cualquier

0 ≤ t1 < t2 < ... < tn y para cada BεB se tiene que

P (XtnεB|Xt1 , ..., Xtn−1) = P (XtnεB|Xtn−1).

Denición 1.3 Considere el espacio de probabilidad (Ω,=,P), sea G ⊆ Buna sub σ-álgebra, y sea X una variable aleatoria medible e integrable. Se denela esperanza condicional de X respecto de G como una función E (X |G) tal que

1. E(X|G) es G-medible e integrable,

2. Para todo GεG se satisfaceˆG

XdP =

ˆG

E(X|G)dP.

Importante recordar que para ésta función se cumple la Desigualdad deJensen[.8. Zastawniak Tomas,Pág 31]. Otras propiedades, igualmente impor-tantes se tienen a partir de la denición y las propiedades de la integral deprobabilidad.

Una ltración =nnεNde B es una sucesión de sub σ- álgebras de B tales que=1 ⊆ ... ⊆ =n⊆ B. Se dice que una secuencia Xn : n ≥ 0 es adaptada a éstaltración si Xn es =n -medible para cada nεN , es decir ωεΩ : Xn(ω) ≤ a ε=n ,para cada aεR.

3

Page 4: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Denición 1.4. Un proceso Xn es una martingala respecto de la l-tración =nnεN , si se tiene que el proceso es adaptado a la ltración y sesatisface que

E (|Xn |) <∞ para todo n, E (Xn |=m) = Xm ,∀m < n.

Denición 1.5. Un Movimiento Browniano unidimensional, ó WienerProcess es un proceso estocástico Wt : t ≥ 0 con valores en R que cumple lassiguientes condiciones:

1. W0 = 0 c.s.2. Las trayectorias t 7→Wt son continuas c.s.3. W tiene incrementos estacionarios e independientes.4. Para cualesquiera tiempos 0 < t1 < ... < tn; y para cualesquiera conjuntos

de Borel A1 , ...,An de R , se cumple que

P (Wt1εA1, ...,WtnεAn) =

ˆA1

...

ˆAn

p(t1, 0, x1)·

·p(t2 − t1, x1, x2)...p(tn − tn−1, xn−1, xn)dxn...dx1

en donde

p(t, x, y) =1√2πt

e−(x−y)2/2t

denido para todo x, y ε R y t > 0.Esta última propiedad nos conrma que un movimiento Browniano están-

dar se ditribuye normalmente con media 0 y varianza t (lema 2.1 ), y que losincrementos Wt −Ws ∼Wt−s también lo hacen, pero en este caso con media 0y varianza t− s para todo 0 ≤ s ≤ t.

Ejemplo. Un movimiento Browniano Wt es una martingala respecto de lasσ-álgebras =t generadas por Ws; s ≤ t

E [|Wt|]2 ≤ E[|Wt|2

]= 0 + t <∞,

para todo t en [0, T ]. Además para s ≤ t

E(Wt|=s) = E((Wt −Ws +Ws)|=s) =

= E((Wt −Ws)|=s) + E(Ws|=s) = 0 +Ws = Ws,

donde se tiene que E((Wt − Ws)|=s) = E((Wt−s)|=s) = E(Wt−s) = 0,por propiedades de las esperanza condicional y del movimiento Browniano.E(Ws|=s) = Ws se tiene dado que Wt es =t-medible.

4

Page 5: Introducción al Cálculo Estocástico con aplicaciones Juan ...

2.Cálculo Estocástico de Itô

Considere el Espacio de probabilidad (Ω,=,P). En él, un movimiento Brow-niano estándar unidimensional, o Wiener Process Wt , junto con su ltración

natural =t . Asumiremos a partir de ahora que cada proceso estocásticoXttε[0,T ] visto como una función X : Ω × [0 ,T ]→ R es =T ⊗ B[0,T] medible,de modo que para cada tε[0 ,T ], tendremos que Xt es =t -medible.

Denición 2.1. L2 (P) es el espacio formado por el conjunto de Variables

aleatorias tales que ‖X‖L2(P ) =(E|X|2

)1/2<∞ .

De lo anterior se puede armar que(E|X|2

)1/2dene una norma en dicho

espacio, y que L2 (P) es completo bajo esta norma. .

Lema 2.1. Sea Wt un movimiento browniano, se tiene entonces que sufunción de densidad es

fWt(x) =1√2πt

e

−x2

2t

Wt ∼ N (0, t), y E ((Wt)2 ) = t .

Demostración. De la denición 1.5 se tiene que fWt(x) = p(t, 0, x) y

E((Wt)2) =

ˆ +∞

−∞x2p(t, 0, x)dx

=1√2πt

ˆ +∞

−∞x2e−

x2

2t dx

= − t√2πt

xe−x2

2t |+∞−∞ +t√2πt

ˆ +∞

−∞e−

x2

2t dx

= 0 +t√2πt

ˆ +∞

−∞e−

x2

2t dx = t.

Corolario 2.1 Para cada tε[0 , t ],WtεL2(P ). Su demostración se tiene di-

rectamente del lema anterior.Denición 2.2 L2 (P × dt) es el espacio lineal de los procesos X = Xt : 0 ≤ t ≤ T

que cumplen la condición

‖X‖L2(P×dt) = (E(

ˆ T

0

|Xt|2dt))12 <∞.

Tenemos entoces que para todo W proceso de Wiener, WεL2(P × dt)

5

Page 6: Introducción al Cálculo Estocástico con aplicaciones Juan ...

‖W‖L2(P×dt) = (E(

ˆ T

0

|Wt|2dt))12 = ((

ˆ T

0

E|Wt|2dt))12 = (

ˆ T

0

tdt)12 <∞.

Es válido recordar que L2 (P × dt) es completo bajo dicha norma.

2.2 Integral de ItôÉste capítulo plantea la integral de Itô para procesos estocásticos, de manera

similar a la forma como se construye la integral en el apéndice. Pero ésta vez,nuestra medida esta constituida por movimientos brownianos. En este caso, elproceso a seguir toma como punto de referencia los procesos estocásticos simples.

Denición 2.2.1 . Sea X εL2 (P × dt), X se llama proceso simple si paraéste existen una partición P de [0 ,T ] , y Xin−1

i=0 una colección de variablesaleatorias adaptadas a la ltración Ftk

n−1k=0 tal que XiεL

2(P ) ∀iεI y

Xt =

n−1∑k=0

XkI[tk,tk+1)(t).

El conjunto H20 de todos los procesos simples es un espacio vectorial, y se

establece que la integral ∀XεH20 respecto de un Browniano W , denotada por

I (X ) está denida como la siguiente Variable Aleatoria

I(X) =

ˆ T

0

XsdWs =

n−1∑k=0

Xk(Wtk+1−Wtk).

Lema 2.2.1. Los procesos simples cumplen la Isometría de Itô, propiedadque arma que tanto el proceso simple X como la variable aleatoria I (X ) tienenla misma norma en sus respectivos espacios.

Demostración.

‖I(X)‖2L2(P ) = E|n−1∑k=0

Xk(Wtk+1−Wtk)|2

= E

n−1∑j,k=0

|XkXj4Wtk4Wtj |

=

n−1∑k=0

E|Xk|2E|4Wtk |2

6

Page 7: Introducción al Cálculo Estocástico con aplicaciones Juan ...

=

n−1∑k=0

E|Xk|24tk

=

ˆ T

0

E|Xt|2dt = E

ˆ T

0

|Xt|2dt = ‖X‖2L2(P×dt).

Lema 2.2.2. Sea H2 el espacio de todos los procesos X , medibles, talesque E

´ T0|Xt|2dt <∞ y sea X εH2 tal que X : Ω× [0, T ]→ R+. Entonces existe

una sucesión XnnεN de procesos simples medibles tales que

1. Xn : Ω× [0, T ]→ R+ ∀nεN,∀tε[0 ,T ],

2. Xn(t)−Xn−1(t) ≥ 0 ∀nεN,∀tε[0 ,T ],

3. X (t) = lim n→∞Xn(t) ∀tε[0, T ].

Demostración.

∀nεN, y ∀k = 1, 2, .., n2n−1, sea An,k = tε[0, T ] : (k − 1)/2n ≤ X(t) < k/2n .La medibilidad de cada An,k se tiene por la medibilidad de X , Dena las

secuencias Xn de procesos simples restringiendo cada Xn a tener el valor(k − 1 )/2n para cada punto en An,k (∀k = 1, 2, .., n2n−1) y n para cada puntoen [0 ,T ] r ∪kAn,k . Los procesos simples denidos de ésta forma son mediblesy es fácil ver que cumplen las condiciones 1.,2., y 3. .

Lo anterior nos dice que H20 es denso en H2 y que para cualquier proceso

en H2 existe una sucesion de procesos simples Xn ⊆ H20 tal que

lim n→∞‖X −Xn‖L2(P×dt) = 0.

Denición 2.2.2. Sea X un proceso en H2 , y sea una sucesión de procesossimples Xn ⊆ H2

0 tal que Xn −→ X cuando n → ∞. La integral estocásticaI(X) está denida como

I(X) = lim n→∞I(Xn)

Es válido anotar que las propiedades que se cumplen para los procesos enH2

0 se cumplen tambien para lo elementos de H2 .

Denición 2.2.3. Para cada tε[0 ,T ] y para X en H2 se dene el proceso

7

Page 8: Introducción al Cálculo Estocástico con aplicaciones Juan ...

It(X) =

ˆ T

0

XsI[0,t)(s)dWs =

ˆ t

0

XsdWs.

Esta nueva denición nos permite ver la integral como un proceso estocásticoy no como una variable aleatoria.

Lema 2.2.3. Para cada proceso simple en H20 se tiene que It(X) =´ t

0XsdWs es una martingala.Demostración. Debemos vericar que It(X) es una martingala respecto

de la ltración =s . Sea s en [0, t), suponga que X puede ser escrito de la forma∑n−1k=0 Xk(Wtk+1

−Wtk) =∑n−1k=0 Xk4Wtk donde

0 = t0 < t1 < ... < tj = s < tj+1 < ... < tn = t

entonces E (It(X )|=s) =∑n−1

k=0 E (Xk4Wtk |=s). Si k < j , se tiene que losXk,4Wtk son =s -medibles y E(Xk4Wtk |=s) = Xk4Wtk , si k ≥ j , entonces=s ⊂ =tk y

E(Xk4Wtk |=s) = E(E(Xk4Wtk |=tk )|=s)

= E(XkE(4Wtk |=tk )|=s) = E(Xk|=s)E(4Wtk) = 0.

Como Xk es =tk -medible y 4Wtkes independiente de =tk se tiene que

E (It(X )|=s) =

j∑k=0

Xk4Wtk = Is(X).

Lema 2.2.4. Sea P una partición de [0, T ] donde ti = iT/n, para W unmovimiento browniano

limn→∞

n−1∑i=0

(4iW )2 = T en L2, (4iW = Wti+1−Wti) ∀iεI.

Desmostración. Puesto que los incrementos 4iW son independientes y

E(4iW ) = 0, E[(4iW )

2]

=T

n, E

[(4iW )

4]

=3T 2

n

tenemos que

E

[n−1∑i=0

(4iW )2 − T

]2 = E

[n−1∑i=0

((4iW )2 − T

n

)]2

8

Page 9: Introducción al Cálculo Estocástico con aplicaciones Juan ...

=

n−1∑i=0

E

[((4iW )2 − T

n

)2]

=

n−1∑i=0

[E((4iW )4

)− 2T

nE((4iW )2

)+T 2

n2

]

=

n−1∑i=0

[3T 2

n2− 2T 2

n2+T 2

n2

]=

2T 2

n→ 0

cuando n→∞.Ejemplo. Considere la integral estocástica It(W ) =

´ t0

WsdWs donde Wes un movimiento Browniano. Si tini=0 es una partición de [0 , t ] de la deniciónse tiene que

ˆ t

0

WsdWs = lim n→∞

n−1∑i=0

Wsi(Wsi+1−Wsi) =

=1

2lim n→∞

n−1∑i=0

(W 2si+1−W 2

si)−1

2lim n→∞

n−1∑i=0

(Wsi+1−Wsi)

2

=1

2W 2t −

1

2t,

la primera suma es el resultado de una serie telescópica, la segunda se tienedirectamente del lema anterior.

Las siguientes son algunas de las propiedades más importantes para cualquierX ,SεH2 , α, βεR, y ∀tε[0, T ]

1.´ t

0(αXs + βSs)dWs = α

´ t0XsdWs + β

´ t0SsdWs,

2. E[(´

XsdWs

)]= 0,

3. isometría de Itô, E[(´

XsdWs

)2]= E

(´ t0X2ds

)4. para s ≤ t, se tiene que E(

´ t0XudWu|=s) =

´ s0XudWu, la integral es

=t-adaptada y se cumple la propiedad de la martingala.

Demostración. 1.) , 2.) y 3.) se siguen de tomar sucesiones de proce-sos Xn , Sn ⊆ H2

0 tales que X = limnXn ,S = limnSn y aplicar denición2.2.2., vericar las propiedades mencionadas para procesos simples a partir dela denición 2.2.1. y lema 2.2.1.

3.) Se sigue de tomar Xn una sucesión de procesos enH20 tal que X = lim nXn

y aplicar el lema 2.2.3.

9

Page 10: Introducción al Cálculo Estocástico con aplicaciones Juan ...

2.3. Fórmula de Itô y Cálculo diferencial EstocásticoDenición 2.3.1 Sea Ntt≥0 una familia creciente de σ−álgebras ssobre

Ω. Una función g(t, ω) : [0,∞) × Ω −→ R es Nt−adaptada si para cada t ≥ 0la función

ω 7→ g(t, ω)

es Nt−medible.

Denición 2.3.2 Sea V = V(0 ,T ) la clase de funciones

f(t, ω) : [0,∞)× Ω −→ R

tal que

1. (t, ω) 7→ f(t, ω) es B (R)×= medible,

2. f(t, ω) es =t−adaptada,

3. E[´ Tsf(t, ω)2dt

]<∞.

Denición 2.3.3 Sea Wt un movimiento browniano en (Ω,F ,P), un pro-ceso de Itô es un proceso estocástico Xt en (Ω,=, P ) de la forma

Xt = X0 +

ˆ t

0

u(s, ω)ds+

ˆ t

0

v(s, ω)dWs

donde vεV, y u cumple las condiciones 1., 2. de la denición anterior y

P

[ˆ t

0

|u(s, ω)|ds <∞ para todo t ≥ 0

]= 1.

El proceso de Itô tambien puede ser escrito en su forma diferencial

dXt = udt+ vdWt

Ejemplo la ecuación´ T

0WsdWs = 1

2W2− 1

2T puede ser representada como

d(1

2W 2t ) =

1

2dt+WtdWt.

Se dice que una función f es de clase C1 cuando ésta es continuamente difer-enciable, y es de clase Cr si sus primeras derivadas con de clase Cr−1.

10

Page 11: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Teorema 2.3.1 (Fórmula de Itô)Sea Xt un proceso de Itô dado como

dXt = udt+ vdWt

Sea g(t , x )εC 2 ([0 ,∞)× R) (g es dos veces continuamente diferenciable en[0 ,∞)× R). Entonces

Yt = g(t,Xt)

es nuevamente un proceso de Itô, y

dYt =∂g

∂t(t,Xt)dt+

∂g

∂x(t,Xt)dXt +

1

2

∂2g

∂x2(t,Xt) · (dXt)

2

Donde (dXt)2 = (dXt) · (dXt) es formulado de la siguiente forma

dt · dt = dt · dWt = dWt · dt = 0, dWt · dWt = dt

Demostración. [7. Oksendal, B.] En primer lugar vamos a mostrar queYt = g(t,Xt) es nuevamente un proceso de Itô, esto se hará sustituyendo laecuación dXt = udt+ vdWt en

dYt =∂g

∂t(t,Xt)dt+

∂g

∂x(t,Xt)dXt +

1

2

∂2g

∂x2(t,Xt) · (dXt)

2

donde es claro que

dg(t,Xt) =∂g

∂t(t,Xt)dt+

∂g

∂x(t,Xt)(udt+ vdWt) +

1

2

∂2g

∂x2(t,Xt) · (udt+ vdWt)

2

y usando el hecho de que

dt · dt = dt · dWt = dWt · dt = 0, dWt · dWt = dt.

se tiene entonces que

dg(t,Xt) =∂g

∂t(t,Xt)dt+u

∂g

∂x(t,Xt)dt+ v

∂g

∂x(t,Xt)dWt +

1

2v2 ∂

2g

∂x2(t,Xt) · dW 2

t

ahora integrando

g(t,Xt) = g(0, X0)+

ˆ t

0

(∂g

∂s(s,Xs)+u

∂g

∂x(s,Xs)+

1

2v2 ∂

2g

∂x2(s,Xs))ds+

ˆ t

0

v∂g

∂x(s,Xs)dWs

el cual es un proceso de Itô según la denición 2.3.3.

11

Page 12: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Es necesario asumir ahora que g, ∂g∂t ,∂g∂x ,

∂2g∂x2 son funciones acotadas y la

prueba del caso general se hara aproximandose por funciones gn,∂gn∂t ,

∂gn∂x ,

∂2gn∂x2

en C2 acotadas para cada n que convergen uniformemente sobre compactos en[0,∞)×R a g, ∂g∂t ,

∂g∂x ,

∂2g∂x2 respectivamente. Considere ahora u, vεV dos funciones

elementales, usando el Teorema de Taylor tenemos

g(t,Xt) = g(0, X0) +∑j

4g(tj , Xj) = g(0, X0) +∑j

∂g

∂t4tj +

∑j

∂g

∂x4Xj

+1

2

∑j

∂2g

∂t2(4tj)2 +

1

2

∑j

∂2g

∂t∂x(4tj)(4Xj) +

1

2

∑j

∂2g

∂x2(4Xj)

2 +∑j

Rj

Donde ∂g∂t ,

∂g∂x , etc... estan evaluadas en los puntos (tj , Xtj ),

4tj = tj+1 − tj ,4Xj = Xtj+1−Xtj ,4g(tj , Xtj ) = g(tj+1, Xtj+1

)− g(tj , Xtj ),

y Rj = O(|4tj |2 + |4Xj |2) para todo j.

Si 4tj → 0 entonces

∑j

∂g

∂t4tj =

∑j

∂g

∂t(tj , Xtj )4tj →

ˆ t

0

∂g

∂t(s,Xs)ds

∑j

∂g

∂x4Xj =

∑j

∂g

∂x(tj , Xtj )4Xj →

ˆ t

0

∂g

∂x(s,Xs)dXs

y dado que u, v son elementales tenemos que

∑j

∂2g

∂x2(4Xj)

2 =∑j

∂2g

∂x2u2j (4tj)2 + 2

∑j

∂2g

∂x2ujvj(4tj)(4Wj)

+∑j

∂2g

∂x2v2j · (4Wj)

2, donde uj = u(tj , w), vj = v(tj , w).

Donde los dos primeros términos de la ecuación claramente se van a 0 cuando4tj → 0 , y el último término tiende a

ˆ t

0

v2 ∂2g

∂x2(s,Xs)ds

12

Page 13: Introducción al Cálculo Estocástico con aplicaciones Juan ...

en L2(P ) cuando 4tj → 0.

Hecho que podemos mostrar tomando a(t) = ∂2g∂x2 (t,Xt)v

2(t, w), aj = a(tj)y considerando

E[(∑j

aj(4Wj)2 −

∑j

aj4tj)2] =∑i,j

E[aiaj((4Wi)2 −4ti)(4Wj)

2 −4tj))]

Si i < j entonces aiaj((4Wi)2−4ti) y ((4Wj)

2−4tj) son independientespor lo que estos términos desaparecen de la sumatoria, de la misma forma sij < i. Por lo que solamente nos quedan los términos

∑j

E[a2j ((4Wj)

2 −4tj)2) =∑j

E[a2j ] · E[(4Wj)

4 − 2(4Wj)24tj + (4tj)2)]

=∑j

E[a2j ] · (3(4tj)2 − 2(4tj)2 + (4tj)2) = 2

∑j

E[a2j ] · (4tj)2

términos que se van a 0 cuando 4tj → 0.

En otras palabras hemos establecido que

∑j

aj(4Wj)2 →

ˆ t

0

a(s)ds, en L2(P ) cuando 4tj →0

o simplemente

(dWt)2 = dt

El argumento anterior tambien prueba que∑Rj → 0 cuando 4tj → 0,

culminando entonces la prueba de la formula de Itô.

Ejemplo. Retomemos la integral

It(W ) =

ˆ t

0

WsdWs .

Considere ahora Xt = Wt y g(t, x) = 12x

2. Se tiene entonces que Yt =g(t,Xt) = 1

2W2t y por la fórmula de Itô

dYt =∂g

∂tdt+

∂g

∂xdWt +

1

2

∂2g

∂x2(dWt)

2 = WtdWt +1

2dt,

donde

13

Page 14: Introducción al Cálculo Estocástico con aplicaciones Juan ...

d(1

2W 2t ) = WtdWt +

1

2dt

ó, en su forma diferencial estocástica

1

2W 2t =

ˆ t

0

WsdWS +1

2t.

como ya se mostró anteriormente.

Ejemplo. Considere la variable aleatoria Xt = eWte−t2 , g(t, x) = exe−

t2 ,

en ese orden de ideas la fórmula de Itô sugiere que

dXt =∂g

∂t(t,Wt)dt+

∂g

∂x(t,Wt)dWt +

1

2

∂2g

∂x2(t,Wt)(dWt)

2

= (−1

2Xt +

1

2Xt)dt+XtdWt = XtdWt.

Ejemplo. Sea Wt; t ≥ 0 un movimiento Browniano. Vamos a considerarahora un proceso de Itô cuyas funciones u, v se denen como u(t,Xt) = µXt yv(t,Xt) = σXt donde µ, σ ε R, se tiene entonces que

dXt = µXtdt+ σXtdWt

dXt

Xt= µdt+ σdWt

Tomando g(t, x) = lnx ; x > 0, se tiene por la formula de Itô que

d(lnXt) =1

Xt· dXt +

1

2(− 1

X2t

)(dXt)2

=1

Xt· dXt −

1

2X2t

· σ2X2t dt =

dXt

Xt− 1

2σ2dt.

ó

d(lnXt) = µdt+ σdWt −1

2σ2dt

d(lnXt) =

(µ− 1

2σ2

)dt+ σdWt

además el teorema anterior tambien nos sugiere que g sigue siendo un procesode Itô, el cual se ve como

14

Page 15: Introducción al Cálculo Estocástico con aplicaciones Juan ...

g(t,Xt) = g(0, X0)+

ˆ t

0

(∂g

∂s(s,Xs)+u

∂g

∂x(s,Xs)+

1

2v2 ∂

2g

∂x2(s,Xs))ds+

ˆ t

0

v∂g

∂x(s,Xs)dWs

lnXt

X0= (µ− 1

2σ2)t+ σWt

Xt = X0 exp((µ−1

2σ2)t+ σWt)

Los procesos Xt descritos de ésta forma se llaman movimientos Brownianosgeométricos.

La trayectoria típica o camino simple de un Movimiento Browniano se veclaramente en la gráca 2.1., la de un Movimiento Browniano geométrico en lagráca 2.2.

grafica 2.1 Camino simple de un Movimiento Browniano.

grafica 2.2 Movimiento Browniano Geométrico X0 = 1, µ = 0.5, σ2 = 0.4.

El código implementado en Matlab de las dos grácas anteriores se encuentraen el apéndice del documento.

15

Page 16: Introducción al Cálculo Estocástico con aplicaciones Juan ...

2.4 Cálculo multivariable de ItôAl igual que en el cálculo vectorial, el cálculo multivariable de Itô es una

versión del cálculo estocástico de Itô que involucra movimientos brownianos condos o más variables. Dentro de la teoría que estudiaremos no se produciránresultados nuevos, simplemente se revisará lo planteado anteriormente en másdimensiones y se plantearán algunas nuevas deniciones.

Denición 2.4.1 (Movimiento Browniano n - dimensional)Un Movimiento Browniano en el espacio Rn, o movimento browniano n-

dimensional, se dene como un proceso estocástico (Wt)t≥0 cuyo valor en eltiempo t es un vector de n movimientos brownianos independientes evaluadosen dicho valor

Wt = (W1,t, ...,Wn,t)

donde cada Wi,t representa un movimiento browniano unidimensional, ycada una de las diferentes componentes Wi,t,Wj,t′ (i 6= j) son independientespara todos los tiempos t, t′ ≥ 0.

Denición 2.4.2 (Proceso de Itô m - dimensional)Esta nueva formulación es una representación en dimensiones mas grandes

del proceso de Itô. SeaWt = (W1,t, ...,Wm,t) un movimiento Brownianom−dimensional.Si cada una de las funciones ui(t, ω) y vij(t, ω) satisfacen las condiciones de ladenición 2.3.2. para (1 ≤ i ≤ n, 1 ≤ j ≤ m) entonces podemos denir elsiguiente proceso de Itô

dX1,t = u1,tdt+ v11,tdW1,t + · · ·+ v1m,tdWm,t

......

dXn,t = un,tdt+ vn1,tdWn,t + · · ·+ vnm,tdWm,t

o, en notación matricial

dXt = utdt+ vtdWt,

donde

X =

X1

...Xn

, u =

u1

...un

, v =

v11 · · · v1m

......

vn1 · · · vnm

, dW =

dW1

...dWm

,

tal proceso es llamado Proceso de Itô n−dimensional.

16

Page 17: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Aparecen entonces, algunas reglas sencillas para las componentes Wi,t,Wj,t

de un movimiento browniano estandar (Wt)t≥0

dWi,tdWj,t = δijdt (1)

donde δij es el delta de Kronecker (estas propiedades se derivan de la inde-pendencia de los movimientos brownianos).

Teorema 2.4.1 (Lema de Itô para procesos vectoriales)Sea

dXt = utdt+ vtdWt,

un proceso n−dimensional de Itô (denición 2.4.2 ). Sea g(t, ω) = (g1(t, ω), ..., gl(t, ω))una función de clase C2 de [0,∞)× Rn en Rl , entonces

Y (t, ω) = g(t,Xt)

es nuevamente un proceso de Itô y

dg(t,Xt) =∂g

∂tdt+

∑j

∂g

∂xjdXj,t +

1

2

∑j,k

∂2g

∂xj∂xkdXj,tdXk,t

que tambien puede ser escrito como

∂g∂tdt+

∑j

uj,t∂g

∂xj+

1

2

∑j,k,p

vjp,tvkp,t∂2g

∂xj∂xk

dt+∑j

∑p

vjp,t∂g

∂xjdWp,t

todos las derivadas de g son evaluadas en (t,Xt).Demostración . El resultado de éste teorema se sigue de aplicar el teorema

de Taylor a funciones con mayor numero de variables, repetir el procedimientollevado a cabo en la prueba del Teorema 2.3.1. y aplicar las identidades men-ciondas en (1).

3. APLICACIONESEste capítulo presenta algunos modelos estocásticos utilizados en la teoría

de nanzas, Método de Black-Scholes y Modelo de volatilidad estocástica deHeston.

17

Page 18: Introducción al Cálculo Estocástico con aplicaciones Juan ...

3.1 Black-scholesEste método arma que el compartamiento del precio de un bien St en

función del tiempo, es un movimiento browniano geométrico

dSt = µStdt+ σStdWt

del cual hasta el momento podemos armar que

d(lnSt) =

(µ− 1

2σ2

)dt+ σdWt

lnSt ∼ N[lnS0 + (µ− 1

2σ2)t, σ2t

]de tal forma que la expresión explícita para el precio en función del tiempo

es

St = S0 exp((µ−1

2σ2)t+ σWt)

Ejemplo. De igual manera podemos implementar un movimiento Browni-ano geométrico mediante la función gbm(), la cual recibe como parámetros lamedia, varianza y un valor inicial. Veremos entonces, que para las siguientescondiciones sobre una opción:

1. Valor inicial del bien es 105,

2. La volatilidad del bien es de un 30% anual,

3. La taza de cambio es constante y tiene un valor del 5% anual

4. Precio sugerido de la opción es 100, con frontera 120

5. La opción expira en 3 meses.

El modelo estocástico mas adecuado para la implementación es

dXt = 0.05Xtdt+ 0.3XtdWt

con valor inicial X0 = 105.

Ahora, usando el método simBysolution() de la función denida anterior-mente, se aproximarán varias soluciones para la variable precio, teniendo encuenta que la cantidad de caminos depende de un parámetro de entrada. En lasiguiente gura la cantidad de caminos simples es igual a 6.

18

Page 19: Introducción al Cálculo Estocástico con aplicaciones Juan ...

grafica 2.3 Simulaciones de un Movimiento Browniano geométrico.

Finalmente, trabajando con las condiciones denidas anteriormente y tomandon = 200, mediante las funciones optionPrice() y standarError() podemos aprox-imar el valor con el cual se puede ejercer una opción europea con un intervalode conanza del 95%.

Y de esta forma, se ve claramente como uno de los métodos de la valoraciónde opciones está fundamentado en los procesos estocásticos. De igual manera elcódigo utilizado para la simulación de la ecuación y la aproximación del intervalose encuentran en el apéndice del documento.

En el modelo de Black-Scholes la cobertura de la opción está determinadasolamente por un proceso de Itô, este proceso ocurre para el precio del bien, elcual se puede negociar libremente. Aquellos modelos estocásticos que acudena una volatilidad variable arman que la cobertura viene determinada por loscambios de precio y los cambios asociados con la volatilidad de este precio;volatilidad que ahora se comporta como un nuevo proceso de Itô y que ademásno es negociable dentro del mercado.

3.2 Modelo de Volatilidad estocástica de Heston( Heston 1993 ) Propone el siguiente modelo para la valoración de opciones

en el cual se ve claramente que los cambios en el precio del bien St se determinanpor una ecuación estocástica bidimensional.

dSt = µStdt+√VtStdW

1t (2)

dVt = κ(θ − Vt)dt+ σ√VtdW

2t (3)

19

Page 20: Introducción al Cálculo Estocástico con aplicaciones Juan ...

dW 1t dW

2t = ρdt

En el modelo anterior Stt≥0 y Vtt≥0 son los procesos estocásticos del

precio y la volatilidad instantánea, respectivamente.W it

i=1,2

t≥0son movimien-

tos Brownianos con coeciente de correlación ρ, y µ, θ, σ, κ, ρ son parámetrosdados. Puesto que dicho modelo se apoya sobre dos procesos estocásticos; el delprecio y el de la volatilidad, y nuestra función U(St, Vt, t) que modela el compor-tamiento está en funcion de estas dos variables, es necesario aplicar el modelo2-dimensional de Itô para encontrar dU(St, Vt, t) a partir de dichos procesos.

Del Teorema 2.3.2 es claro que si se tiene una función continua f(X1, X2, t)aplicada a dos procesos estócasticos se obtiene la siguiente ecuación diferencial

df =∂f

∂tdt+

∂f

∂x1dX1+

∂f

∂x2dX2+

1

2

∂2f

∂x21

(dX1)2+1

2

∂2f

∂x22

(dX2)2+∂2f

∂x1∂x2dX1dX2

la cual aplicada al modelo de Heston arma que

dU =∂U

∂tdt+

∂U

∂sdS +

∂U

∂vdV +

1

2

∂2U

∂s2(dS)2 +

1

2

∂2U

∂v2(dV )2 +

∂2U

∂s∂vdSdV

donde

dt · dt = dt · dWt = dWt · dt = 0, dW 1t · dW 2

t = ρdt.

y los términos (dS)2, (dV )2, dSdV corresponden a

(dSt)2 = (µStdt+

√VtStdW

1t )2 = VtS

2t dt

(dVt)2 = (κ(θ − Vt)dt+ σ

√VtdW

2t )2 = σ2Vtdt

dStdVt = (µStdt+√VtStdW

1t )(κ(θ − Vt)dt+ σ

√VtdW

2t ) = ρσStVtdt,

nalmente despejando en la ecuación inicial tenemos que

dU =∂U

∂sdS +

∂U

∂vdV +

(1

2

∂2U

∂s2V S2 +

1

2

∂2U

∂v2σ2V +

∂U

∂t

)dt+ ρσSV

∂2U

∂s∂vdt.

(4)Como se mencionó anteriormente, la volatilidad no es negociable en el mer-

cado, pero de alguna forma debe cubrirse el riesgo que existe para ésta nuevavariable. Por lo anterior, el portafolio π que replica nuestra opción a cubrir es

π = U −41U1 −4S, (5)

20

Page 21: Introducción al Cálculo Estocástico con aplicaciones Juan ...

y suponiendo que éste sea autonanciable; es decir los cambios en el valordel portafolio dependan únicamente del cambio de sus componentes, obtenemos

dπ = dU −41dU1 −4ds (6)

donde U es la función que aproxima la opción, 4 una cantidad del bien, 41

es una cantidad de otra opción que representa la volatilidad y que a su vez esaproximada por la función U1. Podemos entonces reemplazar (4) en (6)

dπ =∂U

∂sdS +

∂U

∂vdV +

(1

2

∂2U

∂s2V S2 +

1

2

∂2U

∂v2σ2V +

∂U

∂t

)dt+ ρσSV

∂2U

∂s∂vdt

−[41

∂U1

∂sdS +

∂U1

∂vdV +

(1

2

∂2U1

∂s2V S2 +

1

2

∂2U1

∂v2σ2V +

∂U1

∂t

)dt+ ρσSV

∂2U1

∂s∂vdt

]−4dS

reagrupando

dπ =

(∂U

∂t+

1

2

∂2U

∂s2V S2 +

1

2

∂2U

∂v2σ2V + ρσSV

∂2U

∂s∂v

)dt−

41

(∂U1

∂t+

1

2

∂2U1

∂s2V S2 +

1

2

∂2U1

∂v2σ2V + ρσSV

∂2U1

∂s∂v

)dt

+

(∂U

∂v−41

∂U1

∂v

)dV +

(∂U

∂S−41

∂U1

∂S−4

)dS (7)

nuevamente podemos reemplazar (2) y (3) en (7) y reagrupar

dπ =

(∂U

∂t+

1

2

∂2U

∂s2V S2 +

1

2

∂2U

∂v2σ2V + ρσSV

∂2U

∂s∂v+ µS

(∂U

∂s−4

)+ κ(θ − V )

∂U

∂v

)dt

+41

(∂U1

∂t+

1

2

∂2U1

∂s2V S2 +

1

2

∂2U1

∂v2σ2V + ρσSV

∂2U1

∂s∂v+ µS

(∂U1

∂s

)+ κ(θ − V )

∂U1

∂v

)dt

+

(∂U

∂v−41

∂U1

∂v

)σ√V dW 2 +

(∂U

∂S−41

∂U1

∂S−4

)S√V dW 1 (8)

entonces, con el n de elminar la incertidumbre del portafolio, se estable-cen las siguientes condiciones sobre 4 y 41, para que tanto dW 1 como dW 2

desaparescan de nuestra ecuación

∂U

∂v−41

∂U1

∂v= 0

∂U

∂S−41

∂U1

∂S−4 = 0,

21

Page 22: Introducción al Cálculo Estocástico con aplicaciones Juan ...

y nalmente, si se quiere ganar dinero a una taza r libre de riesgo en funcióndel tiempo con nuestro portafolio π se tiene que

dπ = rπdt = r(U −41U1 −4S)dt. (9)

Al despejar (8) en (9) bajo las condiciones que se denieron anteriormentepara 4 y 41, se tiene que bajo el modelo de Heston, el valor de una opción,U(St, Vt, t), debe cumplir la siguiente ecuación diferencial

1

2V S2 ∂

2U

∂S2+ ρσV S

∂2U

∂S∂V+

1

2σ2V

∂2U

∂V 2+ rS

∂U

∂S

+κ(θ − Vt)− Λ(S, V, t)σ

√V ∂U∂V− rU +

∂U

∂t= 0

para más detalles vease [2. Gatheral, J]. De modo que ahora se podrá aprox-imar nuestra función teniendo en cuenta algunas condiciones de frontera.

22

Page 23: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Conclusiones

Finalmente fue posible entender el comportamiento de un movimiento Brown-iano, el de un movimiento Browniano geométrico y de otras deniciones igual-mente importantes en la teoría del cálculo estocástico. Fue posible familiarizarsecon el comportamiento de una nueva medida y estudiar los métodos de solu-ción de una nueva ecuación diferencial. Por último, es posible armar que secumplió el objetivo principal, conocer el cálculo estocástico y algunas de sustantas aplicaciones.

23

Page 24: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Referencias

1. Donald, L.Cohn. (1980): Measure Theory.

2. Gatheral, J. (2003): Lecture 1: Stochastic Volatility and Local Volatility.

3. Moodley, N. (2005): The Heston Model: A Practical Approach. Facultyof Science, University of the Witwatersrand, Johannesburg, South Africa.

4. Rincón, L. (2011): Introducción a los Procesos Estocásticos; Cálculo Es-tocástico (Cap. 9).

5. Steele J. M. Stochastic calculus and nancial applications. SpringerVerlag,2001.

6. Shreve, S. (1996): Stochastic Calculus and Finance.

7. Oksendal, B. (1992): Stochastic Dierential Equations: an Introductionwith application, Itô Integral and the Itô Formula (Chapter 3&4).

8. Viswanathan Arunachalam and Selvamuthu Dharmaraja (2012): Intro-duction to Sthocastic Process with Applications, First Edition.

9. Zastawniak, T. (2002): Basic Stochastic Processes; Stochastic Processesin Continuos time (Chapter 6).

24

Page 25: Introducción al Cálculo Estocástico con aplicaciones Juan ...

Apéndice La teoría de probabilidad es fundamental en nuestro tópico de es-tudio. Nos será muy útil entonces, repasar algunas deniciones. Sobre Ω unconjunto arbitrario, se dene una colección = de subconjuntos en Ω como unaσ-álgebra de Ω si

1. φε=,

2. para cada conjunto A en = se tiene que el conjunto Ac tambien está en =,

3. para cada secuencia Ai∞i=1 de conjuntos en = se tiene que el conjunto∪∞i=1Ai también está en =.

Sea Ω un conjunto arbitrario y = una σ- álgebra sobre dicho conjunto. Unafunción P con dominio la σ-álgebra = y valores en el intervalo [0, 1] es unamedida de probabilidad si satisface

1. P(φ) = 0 ,P (Ω) = 1,

2. para cada secuencia Ai∞i=1 de conjuntos disjuntos en =

P (∪∞i=1Ai) =

∞∑i=1

P (Ai).

La terna (Ω,=, P ) se llama espacio de probabilidad.

Ciertas propiedades de los elementos en = que se tienen a partir de la medidade probabilidad nos serán muy útiles más adelante, como por ejemplo, laindepencia de dos conjuntos en Ω, la cual precisa que para A,Bε= conP(B) 6= 0 , la probabilidad de A dado B se dene como

P (A|B) =P (A ∩B)

P (B)

donde dos conjuntos A,B medibles son llamados independientes siP (A ∩B) = P (A)P (B). En general podremos armar que una familia demedibles Aiiεn es independiente si

P (Ai1 ∩Ai2 ∩ ... ∩Aik) = P (Ai1)P (Ai2)...P (Aik)

para cualesquiera índices 1 ≤ i1 < i2 < ... < ik ≤ n.

Para = una σ- álgebra de Ω, decimos que una función X : Ω −→ R es=-medible si para todo Boreliano BεB (R)

25

Page 26: Introducción al Cálculo Estocástico con aplicaciones Juan ...

ωεΩ : X(ω)εB ε=.

Si (Ω,=, P ) es un espacio de probabilidad, entonces X es una variablealeatoria. Y es llamada simple si su rango es nito

X =

n∑i=1

aiIAi,

donde Aini=1 es una colección de subconjuntos disjuntos de = y los a1, .., amson valores de R, ó R+, como en el caso de las variables aleatorias simplespositivas (v.a.s.p).

Es importante aclarar también, que para toda variable aleatoria X se tienenasociadas, una medida de probabilidad PX sobre (R,B(R)) denida como

PX(B) = P ωεΩ : X(ω)εB , ∀BεB(R),

y una función de distribución FX : R −→[0, 1] denida de la siguiente manera

FX(x) = P ωεΩ : X(ω) ≤ x .

De manera que si existe una función fX : R −→ R boreliana (preimagen deboreliano es boreliano) tal que para todo BεB (R)

PX(B) =

ˆB

fX(x)dx

entonces se dice que X es una variable aleatoria con distribución aboslu-tamente continua y fX es llamada la densidad de X. Además, si X tiene unafunción de densidad fX , entonces su distribución se puede ver como FX(x) =P X ≤ x =

´ x−∞ fX(y)dy. Por lo tanto si fX es continua en x, entonces FX

es diferenciable en x y

d

dxFX(y) = fX(y), yεR.

Ejemplo. Una variable aleatoria X ∼ N (µ, σ), tiene una distribución normalde parámetros µ y σ, donde µ es un número real y σ un real positivo, si sufunción de densidad se dene como

26

Page 27: Introducción al Cálculo Estocástico con aplicaciones Juan ...

fX(x) =1

σ√

2πexp[−1

2(x− µσ

)2] ; xεR.

La integral de probabilidad

Veremos entonces, que sobre el conjunto de elementos anteriores se podrádenir una integral de probabilidad, dicha integral será construida sobre lamedida que tenemos. Considere (Ω ,=,P) un espacio de probabilidad, y X unavariable aleatoria simple positiva en éste espacio, denimos

´ΩXdP , la integral

de X con respecto a P , como∑mi=1 aiP (Ai) (éste valor puede ser un real

positivo o +∞). De todas formas, nuestra integral está bien denida, losvalores que pueda tomar esta función solo dependen de X.

Sea (Ω ,=,P) un espacio de Probabilidad,sean X y Y v.a.s.p de Ω y sea α unvalor en los reales. Entonces

1.´

ΩαXdP = α

´ΩXdP ,

2.´

Ω(X + Y ) dP =

´ΩXdP +

´ΩY dP,

3. si X (ω) ≤ Y (ω) para casi todo ωεΩ, entonces´

ΩXdP ≤

´ΩY dP,

4. para A,B subconjuntos disjuntos de Ω

ˆA∪B

XdP =

ˆA

XdP +

ˆB

XdP.

propiedades que se entienden cómodamente a partir de la denición.

Si X es una función positiva (rango en los reales positivos) se dene suintegral como

ˆΩ

XdP = sup

ˆΩ

Y dP : Y es simple y Y (ω) ≤ X(ω)para todo ωεΩ

.

Y como parte nal de la construcción de nuestra integral, sobre cualquiervariable aleatoria X se dene

ˆΩ

XdP =

ˆΩ

X+dP −ˆ

Ω

X−dP,

donde

X+(ω) = max X(ω), 0 , X−(ω) = max −X(ω), 0 .

Luego X es integrable si

27

Page 28: Introducción al Cálculo Estocástico con aplicaciones Juan ...

E(X) =

ˆΩ

XdP <∞.

E(X) se llama la esperanza de X .Por Teoría de medida es posible armar que las propiedades mencionadas

anteriomente para las v.a.s.p de igual forma se cumplen para cualquier variablealeatoria integrable [1.Donald L.Cohn].

Los siguientes 3 resultados son una aplicación general de la teoría de lamedida en la probabilidad.

Teorema de la convergencia monótona. Sea (Ω ,=,P) un espacio de proba-bilidad, y sean X y XnnεN variables aleatorias positivas en este espacio. Silas siguientes relaciones

0 ≤ X1(ω) ≤ X2(ω) ≤ ...

y

X(ω) = limn→∞

Xn(ω)

se cumplen para casi todo ω en Ω. Entoncesˆ

Ω

XdP = limn→∞

ˆΩ

XndP

ó

E(X) = limn→∞

E(Xn).

Lema de Fatou. Sea (Ω ,=,P) un espacio de probabilidad, y sea XnnεNuna suceión de variables aleatorias positivas en este espacio. Entonces

ˆΩ

lim infn

XdP ≤ lim infn

ˆΩ

XndP,

ó

E(X) ≤ lim infn

E(Xn).

Teorema de la convergencia dominada. Sea (Ω ,=,P) un espacio de prob-abilidad, Y una variable aleatoria tal que E(Y ) < ∞, y sean X y XnnεNvariables aleatorias positivas en este espacio. Si se tiene que la sucesión anteriorconverge casi siempre a X y

|Xn(ω)| ≤ Y (ω) c.s para n = 1 , 2 , ...

Entonces X y XnnεN son variables aleatorias integrables y

28

Page 29: Introducción al Cálculo Estocástico con aplicaciones Juan ...

ˆΩ

XdP = limn→∞

ˆΩ

XndP.

ó

E(X) = limn→∞

E(Xn).

A continuación el cod en Matlab para la implementación de la gráca 2.1 y lagráca 2.2.randn('state',100)T=3; N=350; h=T/N; xcero=0;W=zeros(1,N);

% se genera el movimiento BrownianoW(1)=sqrt(h)*randn;for j=2:NW(j)=W(j-1)+sqrt(h)*randnendsubplot(1,2,1)plot([0:h:T],[xcero,W],'r-')title('Movimiento Browniano')

% se plantea la función exponencial para el Browniano denido anteriormentemu=1;sigma2=0.4;y0=1;in=[0:h:T];y=y0*exp(((mu-(sigma2/2))*in)+(sqrt(sigma2)*[xcero,W]));subplot(1,2,2)plot([0:h:T],y)title('Movimiento Browniano geométrico')

Código para la implementación de la gráca 2.3barrier = 120;%barrier strike = 100;%exercise price rate = 0.05;%annualized risk-free rate sigma = 0.3; %annualized volatility nPeriods = 63; % 63 trading daysdt = 1 / 252; % time increment = 252 days

29

Page 30: Introducción al Cálculo Estocástico con aplicaciones Juan ...

T = nPeriods * dt; %expiration time = 0.25 years

% Denición de la ecuación estocástica con los parámetros anterioresobj = gbm(rate, sigma, 'StartState', 105);

% implementación de la grácarng('default') % make output reproducible[X, T] = obj.simBySolution(nPeriods, 'DeltaTime', dt, ... 'nTrials', 6, 'An-

tithetic', true);plot(T, X(:,:,1), 'blue', T, X(:,:,2), 'red',T, X(:,:,3), 'blue', T, X(:,:,4), 'red',T,

X(:,:,5), 'blue', T, X(:,:,6), 'red')xlabel('Time (Years)'), ylabel('Stock Price'), ... title('Antithetic Sampling')

legend('Primary Path' 'Antithetic Path', 'Location', 'Best')

La aproximación del intervalo cuando n=200,nPaths = 200; % # of paths = 100 sets of pairsf = Example_BarrierOption(nPeriods, nPaths)obj.simBySolution(nPeriods, 'DeltaTime' , dt, ... 'nTrials', nPaths, 'Anti-

thetic', true, ... 'Processes', f.SaveMaxLast);

con un intervalo de conanza del 95%optionPrice = f.OptionPrice (strike, rate, barrier);standardError = f.StandardError(strike, rate, barrier, true);lowerBound = optionPrice - 1.96 * standardError;upperBound = optionPrice + 1.96 * standardError;fprintf(' Up-and-In Barrier Option Price: %8.4f\n', ... optionPrice)fprintf(' Standard Error of Price: %8.4f\n', ... standardError)fprintf(' Condence Interval Lower Bound: %8.4f\n', ... lowerBound)fprintf(' Condence Interval Upper Bound: %8.4f\n', ... upperBound)

30

Page 31: Introducción al Cálculo Estocástico con aplicaciones Juan ...
Page 32: Introducción al Cálculo Estocástico con aplicaciones Juan ...
Page 33: Introducción al Cálculo Estocástico con aplicaciones Juan ...