procesos estocasticos discretos

download procesos estocasticos discretos

of 13

Transcript of procesos estocasticos discretos

  • 7/22/2019 procesos estocasticos discretos

    1/13

    DEPARTAMENTO DE ELCTRICA Y ELECTRNICA

    CARRERA DE INGENIERA ELECTRNICA

    ASIGNATURA: PROCESOS ESTOCASTICOS

    NRC:

    EXPOSICION:

    Procesos Estocsticos Discretos

    INTEGRANTES

    Ballagn Dayana

    Crdenas AndreaSegovia Edison

    Tamayo Santiago

    16/Diciembre/2013

  • 7/22/2019 procesos estocasticos discretos

    2/13

    INDICE

  • 7/22/2019 procesos estocasticos discretos

    3/13

    1. TEMA:Procesos Estocsticos en tiempo discreto

    2. OBJETIVOS:General:

    Determinar en qu consisten los procesos Estocsticos en tiempo discreto

    Especficos:

    Reconocer un proceso estocstico en tiempo discreto

    Obtener habilidades para la resolver ejercicios

    Determinar las aplicaciones ligadas a sistemas de comunicacin

    3. MARCO TEORICO3.1. Procesos estocsticosSe denomina proceso estocstico a toda variable que evoluciona a lo largo del tiempo de

    forma total o parcialmente aleatoria.

    Por ejemplo, el nmero de personas que espera ante una ventanilla de un banco en un instante

    t de tiempo; el precio de las acciones de una empresa a lo largo de un ao; el nmero de

    parados en el sector de Hostelera a lo largo de un ao

    La primera idea bsica es identificar un proceso estocstico con una sucesin de v.a. {Xn, n N} donde el subndice indica el instante de tiempo (o espacio) correspondiente.

    Esta idea inicial se puede generalizar fcilmente, permitiendo que los instantes de tiempo en

    los que se definen las v.a.sean continuos.

    3.1.1 Definicin (Proceso Estocstico)

    Un proceso estocstico es una coleccin o familia de variables aleatorias {Xt, con t T},ordenadas segn el subndice t que en general se suele identificar con el tiempo.

    Por tanto para cada instante t tendremos una variable aleatoria distinta representada por Xt,

    con lo que un proceso estocstico puede interpretarse como una sucesin de variables

    aleatorias cuyas caractersticas pueden variar a lo largo del tiempo. Por ejemplo, si

    observamos solo unos pocos valores de t, tendramos una imagen similar a la de la figura

    siguiente:

  • 7/22/2019 procesos estocasticos discretos

    4/13

    Ilustracin 1 Grafica de un Proceso estocstico

    En la que se representa para cada t la funcin de densidad correspondiente a Xt. Aunque en la

    figura se han representado unas funciones de densidad variables, un proceso estocstico no

    tiene por qu presentar esas diferencias en la funcin de densidad a lo largo del tiempo.

    A los posibles valores que puede tomar la variable aleatoria se le denominaran estados, por lo

    que se puede tener un espacio de estados discreto y un espacio de estados contino.

    3.1.2. Clasificacin de Procesos Estocsticos

    Dependiendo de cmo sea el conjunto de subndices T y el tipo de variable aleatoria dado por

    Xt se puede establecer la siguiente clasificacin de los procesos estocsticos:

    Si el conjunto T es continuo, diremos que Xt es un proceso estocstico de parmetrocontinuo.

    S por el contrario T es discreto, diremos que nos encontramos frente a un proceso

    estocstico de parmetro discreto. Si para cada instante t la variable aleatoria Xt es de tipo continuo, diremos que el

    proceso estocstico es de estado continuo.

    Si para cada instante t la variable aleatoria Xt es de tipo discreto, diremos que el

    proceso estocstico es de estado discreto.

    Ilustracin 2 clasificacin de los procesos estocsticos

    Una cadena es un proceso estocstico en el cual el tiempo se mueve en forma discreta y la

    variable aleatoria solo toma valores discretos en el espacio de estados. Un Proceso de Saltos

    Puros es un proceso estocstico en el cual los cambios de estados ocurren en forma aislada yaleatoria pero la variable aleatoria solo toma valores discretos en el espacio de estados. En un

  • 7/22/2019 procesos estocasticos discretos

    5/13

    Proceso Continuo los cambios de estado se producen en cualquier instante y hacia cualquier

    estado de un espacio continuo de estados.

    Como un ejemple de una Cadena, considere una maquina dentro de una fbrica. Los posibles

    estados para la maquina son que est operando o que este fuera de funcionamiento y la

    verificacin de esta caracterstica se realizara al principio de cada da de trabajo.

    Ilustracin 3 grafica de estados en tiempo discreto

    Para el caso de los Procesos de Saltos Puros se puede considerar como un ejemplo una sealtelegrfica. Solo hay dos posibles estados (1 y -1) pero la oportunidad de cambio de estado se

    da en cualquier instante en el tiempo, es decir, el instante del cambio de estado es aleatorio.

    La siguiente figura muestra una seal telegrfica.

    Ilustracin 4 grafica de estados de v.a. discreta

    Como un ejemplo de un Proceso Continuo se puede mencionar la seal de voz vista en la

    pantalla de un osciloscopio. Esta seal acstica es transformada en una seal elctricaanalgica que puede tomar cualquier calor en un intervalo continuo de estados.

  • 7/22/2019 procesos estocasticos discretos

    6/13

    Ilustracin 5 Grafica de un proceso continuo en el tiempo

    3.2. PROCESOS DE ESTADO DISCRETO

    En el caso de procesos estocsticos con espacio de estados discreto, una secuencia de

    variables que indique el valor del proceso en instantes sucesivos suele representarse de la

    siguiente manera:

    en la que cada variable Xi, i = 0, ..., n, tiene una distribucin de probabilidades que, en

    general, es distinta de las otras variables aunque podran tener caractersticas comunes.

    El principal inters del estudio a realizar en el caso discreto es el clculo de probabilidades de

    ocupacin de cada estado a partir de las probabilidades de cambio de estado. Si en el instante

    n1 se est en el estado xn1, con qu probabilidad se estar en el estado xn en el instante

    siguiente n?. Esta probabilidad de denotar como:

    A este tipo de probabilidad condicionada se le denomina probabilidad de transicin o de

    cambio de estado. A las probabilidades del tipo P (Xn = xn) se les denomina probabilidades

    de ocupacin de estado.

    Otro tipo de probabilidad de inters es la de ocupar un cierto estado en un instante n, dado que

    en todos los instantes anteriores, desde n = 0 hasta n1, se conoce en qu estados estuvo el

    proceso. Esto se puede escribir como:

  • 7/22/2019 procesos estocasticos discretos

    7/13

    Ntese que esta probabilidad depende de toda la historia pasada del proceso, mientras que la

    probabilidad de transicin depende nicamente del estado actual que ocupe el proceso.

    Propiedad de Markov: Se dice que un proceso cumple la propiedad de Markov cuando toda la

    historia pasada del proceso se puede resumir en la posicin actual que ocupa el proceso para

    poder calcular la probabilidad de cambiar a otro estado, es decir, se cumple la propiedad

    siguiente:

    Aquellas Cadenas que cumplen la propiedad de Markov se llaman Cadenas de Markov.

    Otra manera de denotar a las probabilidades de transicin es de la forma siguiente:

    Una propiedad interesante que puede tener una Cadena es que los valores no dependendel valor de n. Es decir, las probabilidades de cambiar de estado son las mismas en cualquier

    instante. Esta propiedad indica que las probabilidades de transmisin son estacionarias

    3.2.1. CADENAS DE MARKOV

    Las distribuciones discretas son en las que la solucin tiene un nmero determinado de

    valores.

    Discreto es aquel en el que las variables de estado cambian instantneamente en puntos

    distintos en el tiempo. Se rigen por ecuaciones lgicas que expresan condiciones para que un

    evento ocurra. La simulacin discreta, consiste en seguir los cambios en el estado del sistema

    resultando de cada uno de los eventos que se realizan. Por regla general este tipo de la

    simulacin se realiza siguiendo la secuencia de ocurrencia de eventos, es decir avanzamos el

    tiempo de la simulacin al tiempo de la ocurrencia del siguiente evento.

    En los sistemas discretos, el flujo es tratado como un cierto nmero de enteros.

    Ejemplos:

    El lanzamiento de una moneda al aire puede salir sol o cara, o si se lanza un dado podemosobtener un nmero del 1 al 6, si nace un bebe puede ser nio o nia, etc.

    3.2.2. FUNCIONES DE MOMENTOLas llamadas funciones de momento, obtenidas a partir de los momentos de las variables

    involucradas en un proceso estocstico, juegan un papel muy importante a la hora de conocer

    su comportamiento y en las aplicaciones del mismo. Las ms relevantes son las siguientes:

    Funcin media.-Se define como

  • 7/22/2019 procesos estocasticos discretos

    8/13

    Para su obtencin tendremos en cuenta el tipo de variables que conforman el proceso. En el

    caso discreto,

    Funcin de auto correlacin.- Se define a partir del momento conjunto de dosvariables aso-ciadas a dos tiempos cualesquiera, t1 y t2,

    Para el caso discreto se obtiene mediante

    Funcin de auto covarianza.- Se define a partir del momento central conjunto de dos

    variables asociadas a dos tiempos cualesquiera, t1 y t2,

    con sus correspondientes versiones discreta y continua. Se deduce fcilmente la siguiente

    relacin entre R (t1, t2) y R (t1, t2),

    El caso particular t1 = t2 = t recibe el nombre de funcin varianza, (t) = C (t , t). Por ltimo,la funcin de correlacin se obtiene mediante

    4. APLICACIONESLos procesos estocsticos discretos estn estrechamente relacionados a las cadenas de Markov

    en tiempo discreto las cuales se clasifican en sistemas y para ello se consideran las

    transiciones de estado en instantes de tiempo determinado o indefinido que conducen a definir

    los sistemas como de tiempo discreto o continuo.

    Las seales de reloj de los sistemas digitales son una aplicacin de las cadenas de Markov en

    tiempo discreto.

    4.1. Aplicacin en los sistemas de comunicaciones:

  • 7/22/2019 procesos estocasticos discretos

    9/13

    Consideremos un sistema de comunicaciones que transmite dgitos 0 y 1. Cada dgito debe

    pasar por varias fases, en cada una de las cuales hay una probabilidad p de que el dgito que

    entra coincida con el que sale. Las fases son independientes entre s.

    4.2. Aplicacin al estudio de la movilidad geogrfica.La aplicacin de la cadena de Markov en la movilidad geogrfica es un tema muy extenso y

    debido a que estamos tratando los procesos estocsticos orientados a la ingeniera electrnica

    solamente daremos un resumen del tema.

    La movilidad social es un fenmeno multidisciplinar y de marcadas connotaciones

    sociolgicas, cuyo conocimiento ha creado una enorme expectacin en el campo de la

    investigacin.

    La formulacin ms divulgada de cadenas de Markov discretas es aquella que se apoya sobretres hiptesis fundamentales: la dependencia markoviana de orden 1, la homogeneidad de la

    poblacin y la homogeneidad temporal. La dependencia markoviana de orden 1 supone que la

    posicin del sistema en un instante depende solamente de su posicin en un instante de tiempo

    anterior y, adems, que el tiempo de ocupacin en la localizacin actual, al igual que

    cualquier otra variable, posee un efecto nulo en la probabilidad de transicin a otro estado.

    5. CONCLUSIONES

    Se comprob que los procesos estocsticos discretos estn estrechamente relacionados

    con la cadena de Markov.

    Las probabilidades de transicin entre estado estn descritas por una cadena de

    Markov.

    El clculo de las funciones de momentos se realizan mediante una sumatoria debido a

    que los valores no son continuos en el tiempo.

    6. RECOMENDACIONES

    Para la realizacin de ejercicios tomar en cuenta la distribucin inicial.

  • 7/22/2019 procesos estocasticos discretos

    10/13

    Antes de empezar la resolucin de un ejercicio identificar qu tipo de proceso

    estocstico es el que se est utilizando.

    En el clculo de las funciones de momentos solo existen si la correspondiente serie es

    finita.

    7. BIBLIOGRAFIA

    Procesos estocasticos discretos. Extrado el 13 de diciembre del 2013 desde

    http://www.dmae.upct.es/~mcruiz/Telem06/Teoria/apuntes_procesos.pdf

    Clasificacion de los procesos estocasticos. Extrado desde pgina web el 15 de

    diciembre del 2013 desdehttp://pendientedemigracion.ucm.es/info/jmas/mon/27.pdf

    Referencias textuales del proyecto. Extrado el 15 de diciembre del 2013 desdehttp://www.comunidadelectronicos.com/proyectos/proyectos.htm

    Cadenas de Markov. Extrado el 14 de diceimbre del 2013 desde

    http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema2pe.pdf

    8. ANEXOS8.1. EJERCICIOS

    8.2. Un individuo posee 2 paraguas los cuales emplea para ir de su casa al trabajo yviceversa (llevando uno a la vez). Si est en su casa u oficina, al comienzo o final del

    da y est lloviendo toma un paraguas, si lo hay para ir de su casa a la oficina y

    viceversa. Asuma que independiente si llueve al comienzo o final del da la

    probabilidad p varia de (0

  • 7/22/2019 procesos estocasticos discretos

    11/13

    P(0,0)Representa la probabilidad de que un da el individuo no tenga paraguas en su casa (por

    tanto los 2 paraguas estn en la oficina) y que al inicio del da siguiente siga en la misma

    situacin. Los escenarios que permiten esta situacin son que llueva en la maana (con

    probabilidad p) y que no llueva en la tarde (con probabilidad 1-p). Adicionalmente si no

    llueve en la maana (con probabilidad 1-p) y no llueve en la tarde (con probabilidad 1-p)

    el individuo al inicio del da siguiente no tendr paraguas en la casa. En consecuencia se

    puede notar que para este caso lo relevante es que no llueva en la tarde (sin importar si

    llueve o no en la maana) para que de esta forma el individuo no se lleve un paragua

    desde la oficina a la casa.

    P(2,2)

    Que considera la probabilidad de tener los 2 paraguas en la casa al inicio de un da (y por

    tanto ninguno en la oficina) y al inicio del da siguiente tambin tener 2 paraguas en la

    casa. Para ello se debe cumplir alguno de los siguientes escenarios: que llueva en la

    maana y en la tarde, que no llueva ni en la maana ni en la tarde o que no llueva en la

    maana pero si llueva en la tarde.

    Una vez identificadas todas las probabilidades de transicin en una etapa entre estados,

    stas se pueden resumen en la matriz de probabilidades de transicin (conocida tambin

    como matriz P). Notar que la suma de las probabilidades de cada una de las filas de la

    matriz es (y debe ser) un 100%.

    La informacin anterior se puede representar a travs de un grafo donde cada nodo

    representa un estado y las flechas muestran si es posible pasar de un estado a otro al cabo

    de una etapa y cul es la probabilidad asociada en dicho caso:

  • 7/22/2019 procesos estocasticos discretos

    12/13

    Adicionalmente se puede identificar (si se cuenta con dicha informacin) la distribucin

    inicialde estados que permite identificar cul es la probabilidad que al inicio de la

    planificacin el proceso se encuentre en alguno de los n estados posibles. En este ejemplo

    sabemos que se comienza con 2 paraguas en la casa:

    8.3. Suponga que en un juego existen 2 jugadores, cada uno de los cuales disponeinicialmente de 2 monedas. En cada jugada se gana una moneda con probabilidad

    o se pierde una moneda con probabilidad . El juego termina cuando un jugador

    tiene 4 monedas o se queda con ninguna. Modele como una Cadena de Markov la

    situacin descrita.

    Desarrollo:

    El primer caso consiste en identificar la variable aleatoria la cul debe representar el

    problema planteado, en este caso la evolucin del juego al cabo de cada etapa o jugada.Se define la variable aleatoria en tiempo discreto Xn: Cantidad de monedas que tiene uno

    de los jugadores (digamos el jugador A) al cabo de la ensima jugada.

    Luego se debe identificar los posibles valores o estados que puede tomar esta variable

    aleatoria para una etapa n cualquiera. Sabemos que el jugador A comienza el juego con 2

    monedas y el juego termina cuando pierde todo (y por tanto el jugador B gana) o cuando

    gana todo (y por tanto el jugador B pierde). En consecuencia, los valores posibles para

    Xn son {0, 1, 2, 3,4}.

    A continuacin se debe determinar las probabilidades de transicin (en una etapa).

    Por ejemplo, si actualmente el jugador A tiene 2 monedas, la probabilidad que tenga 3

    monedas al cabo de una jugada es (probabilidad de ganar) y la probabilidad de que

    tenga 1 moneda es (probabilidad de perder). De esta forma se identifican las distintas

    combinaciones o probabilidades de que comenzando en un estado "i" se pueda pasar a un

    estado "j" al cabo de una etapa. Notar que si el jugador A tiene 0 monedas la probabilidad

    que contine en ese estado es 1 (o 100%) dado que no tiene monedas para seguir jugando.

    De la misma forma si el jugador A tiene 4 monedas el jugador B tiene 0 y por tanto la

    probabilidad de que el jugador A se mantenga en ese estado es de 1 (o 100%).

    Las probabilidades de transicin en una etapa se pueden representar haciendo uso de un

    grafo o en forma resumida a travs de la matriz de transicin de probabilidades.

    http://www.gestiondeoperaciones.net/wp-content/uploads/2013/09/distribucion-inicial-f0-cad.gifhttp://www.gestiondeoperaciones.net/wp-content/uploads/2013/09/distribucion-inicial-f0-cad.gif
  • 7/22/2019 procesos estocasticos discretos

    13/13

    Cabe destacar que la suma de las probabilidades para cada fila en la matriz de transicin

    P es de un 100%.

    Podemos responder preguntas adicionales como por ejemplo Cul es la probabilidad deque el jugador A tenga 2 monedas al cabo de 2 jugadas?

    Haciendo uso del grafo y dado que actualmente el jugador A tiene 2 monedas, se busca

    identificar las combinaciones que permitan a este jugador mantener esta cantidad de

    monedas al cabo de 2 etapas. Esto se logra ganando la prxima jugada (con probabilidad

    ) y perdiendo la jugada que sigue (con probabilidad ). Tambin se llega al mismo

    resultado perdiendo la prxima jugada pero luego ganando en la jugada que sigue. Por

    tanto la probabilidad de tener 2 monedas al cabo de 2 etapas es:

    P(X2=2/X0=2) = * + * = .