Deb.1 Consulta Entropía

2
CONSULTA SOBRE EL TÉRMINO ENTROPÍA DE LA INFORMACIÓN H ( X) ˙ ¿ i=1 M pX ( x i ) log 2 1 pX ( x i ) =−¿ i=1 M pX ( x i ) log 2 pX ( x i ) ¿ La entropía puede interpretarse desde dos puntos de vista distintos. Desde el punto de vista del modelo de sistema de comunicación digital o, en general, desde el punto de vista de un observador que espera a que la variable aleatoria B tome un valor determinado, la entropía representa la incertidumbre sobre el valor concreto que tomará X. Si X tomase siempre el mismo valor (un valor de pX ( x i ) igual a 1 y el resto 0) no tenemos ninguna incertidumbre sobre el valor que tomará X, y podemos comprobar que la entropía en ese caso es igual a 0. Si X deja de tomar siempre el mismo valor, la incertidumbre aumenta y, con ella, la entropía. Desde el punto de vista de una fuente que genere el símbolo X, la entropía representa el valor medio de la información que contiene el símbolo 1 . Por tanto según lo entendido en todas las búsquedas conceptuales el término entropía se refiere al número medio de bits necesarios para representar un símbolo de una fuente con una probabilidad dada, como también ayuda a 1 Disponible en http://iie.fing.edu.uy/ense/asign/codif/material/transparen cias/01_teoria_de_la_informacion.pdf

description

concepto fundamental sobre la entropia. teoria de la informacion

Transcript of Deb.1 Consulta Entropía

CONSULTA SOBRE EL TRMINO ENTROPA DE LA INFORMACIN

La entropa puede interpretarse desde dos puntos de vista distintos. Desde el punto de vista del modelo de sistema de comunicacin digital o, en general, desde el punto de vista de un observador que espera a que la variable aleatoria B tome un valor determinado, la entropa representa la incertidumbre sobre el valor concreto que tomar X. Si X tomase siempre el mismo valor (un valor de igual a 1 y el resto 0) no tenemos ninguna incertidumbre sobre el valor que tomar X, y podemos comprobar que la entropa en ese caso es igual a 0. Si X deja de tomar siempre el mismo valor, la incertidumbre aumenta y, con ella, la entropa.Desde el punto de vista de una fuente que genere el smbolo X, la entropa representa el valor medio de la informacin que contiene el smbolo[footnoteRef:1]. [1: Disponible en http://iie.fing.edu.uy/ense/asign/codif/material/transparencias/01_teoria_de_la_informacion.pdf]

Por tanto segn lo entendido en todas las bsquedas conceptuales el trmino entropa se refiere al nmero medio de bits necesarios para representar un smbolo de una fuente con una probabilidad dada, como tambin ayuda a determinar que datos aportan con mayor informacin al receptor y que puedan ser entendibles para el mismo.