entropia

12
Etimológicamente “entropía”, asociada a la termodinámica, surgió como palabra acuñada del griego, de em (en: en, sobre, cerca de...) y sqopg (tropêe: mudanza, giro, alternativa, cambio, evolución). entropia001 Rudolf Emanuel Clausius. La termodinámica, por definirla de una manera muy simple, fija su atención en el interior de los sistemas físicos, en los intercambios de energía en forma de calor que se llevan a cabo entre un sistema y otro y tiene sus propias leyes. Uno de los soportes fundamentales de la Segunda Ley de la Termodinámica es la función denominada entropía que sirve para medir el grado de desorden dentro de un proceso y permite distinguir la energía útil, que es la que se convierte en su totalidad en trabajo, de la inútil, que se pierde en el medio ambiente. La segunda ley de la termodinámica fue enunciada por S. Carnot en 1824. Se puede enunciar de muchas formas, pero una sencilla y precisa es la siguiente: “La evolución espontánea de un sistema aislado se traduce siempre en un aumento de su entropía.” La palabra entropía fue utilizada por Clausius en 1850 para calificar el grado de desorden de un sistema. Por tanto la segunda ley de la termodinámica está diciendo que los sistemas aislados tienden al desorden, a la entropía.

description

entropia es nuestro negocio

Transcript of entropia

Etimolgicamente entropa, asociada a la termodinmica, surgi como palabra acuada del griego, de em (en: en, sobre, cerca de...) y sqopg (trope: mudanza, giro, alternativa, cambio, evolucin).

entropia001Rudolf Emanuel Clausius.La termodinmica, por definirla de una manera muy simple, fija su atencin en el interior de los sistemas fsicos, en los intercambios de energa en forma de calor que se llevan a cabo entre un sistema y otro y tiene sus propias leyes.

Uno de los soportes fundamentales de la Segunda Ley de la Termodinmica es la funcin denominada entropa que sirve para medir el grado de desorden dentro de un proceso y permite distinguir la energa til, que es la que se convierte en su totalidad en trabajo, de la intil, que se pierde en el medio ambiente.

La segunda ley de la termodinmica fue enunciada por S. Carnot en 1824. Se puede enunciar de muchas formas, pero una sencilla y precisa es la siguiente:

La evolucin espontnea de un sistema aislado se traduce siempre en un aumento de su entropa.

La palabra entropa fue utilizada por Clausius en 1850 para calificar el grado de desorden de un sistema. Por tanto la segunda ley de la termodinmica est diciendo que los sistemas aislados tienden al desorden, a la entropa.

entropia005Abajo, aumenta la entropa.Este desorden se grafica en la mayor o menor produccin de energa disponible o no disponible, y sobre esta base, tambin podemos definir la entropa como el ndice de la cantidad de energa no disponible en un sistema termodinmico dado en un momento de su evolucin.

Segn esta definicin, en termodinmica hay que distinguir entre energa disponible o libre, que puede ser transformada en trabajo y energa no disponible o limitada, que no puede ser transformada en l.

Para comprender conceptualmente lo dicho, analicemos el ejemplo de un reloj de arena, que es un sistema cerrado en el que no entra ni sale arena.

La cantidad de arena en el reloj es constante; la arena ni se crea ni se destruye en ese reloj. Esta es la analoga de la primera ley de la termodinmica: no hay creacin ni destruccin de la materia-energa.

Aunque la cantidad de arena en el reloj es constante, su distribucin cualitativa est constantemente cambiando: la cavidad inferior se va llenando, mientras la cavidad superior se vaca. Esta es la analoga de la segunda ley de la termodinmica, en la que la entropa (que es la arena de la cavidad inferior) aumenta constantemente.

La arena de la cavidad superior (la menor entropa) es capaz de hacer un trabajo mientras cae, como el agua en la parte superior de una catarata. La arena en la cavidad inferior (alta entropa) ha agotado su capacidad de realizar un trabajo. El reloj de arena no puede darse la vuelta: la energa gastada no puede reciclarse, a menos que se emplee ms energa en ese reciclaje que la que ser desarrollada por la cantidad reciclada.

Tambin podemos hacer el anlisis tomando como ejemplo una cadena trfica.

entropia003La entropa acabar con el Universo.En las cadenas trficas al ir subiendo de nivel (de productores a consumidores) se va perdiendo energa qumica potencial. A medida que subimos en los niveles de la cadena, el contenido total de este tipo de energa es menor pero va aumentando la liberacin de otro tipo de energa: El calor. Este ltimo es un tipo de energa con menor probabilidad de aprovecharse ya que podemos generar menos trabajo con este tipo de energa que con la energa qumica potencial.

Al proceso por el cual la energa pierde su capacidad de generar trabajo til o, mejor dicho, se transforma en otra energa que es menos aprovechable, se le llama entropa.

Mirado desde otro punto de vista, y para una comprensin y aplicacin ms general del concepto, la entropa se entiende como el grado de desorden de un sistema, as, por ejemplo, en la medida en que vamos subiendo niveles en la cadena trfica, cada vez tenemos menos control sobre la energa qumica potencial que sirve para generar trabajo ya que sta se ha ido transformando en calor y nosotros podemos aprovechar (controlar) menos este tipo de energa, es decir va aumentando el grado de descontrol (desorden) que tenemos sobre la cadena trfica.

Por eso se dice que todo sistema biolgico tiende a la entropa; es decir, al desorden.

Como podemos apreciar, la entropa es el elemento esencial que aporta la termodinmica, ciencia de los procesos irreversibles, es decir orientados en el tiempo.

entropia004Fragmentos de plato con alta entropa.Ejemplos de procesos irreversibles pueden ser: la descomposicin radioactiva, la friccin o la viscosidad que modera el movimiento de un fluido. Todos estos procesos poseen una direccin privilegiada en el tiempo, en contraste con los procesos reversibles.

Precisamente, la distincin entre procesos reversibles e irreversibles la introduce en termodinmica el concepto de entropa, que Clausius asocia ya en 1865 al segundo principio de la termodinmica.

Todos hemos visto alguna vez un plato que se cae desde una mesa y se hace aicos contra el suelo. Lo que antes estaba ordenado en una nica pieza de porcelana, se convierte en una multitud de fragmentos desordenados. Pero la situacin contraria, la recomposicin de un plato a partir de sus fragmentos de manera espontnea, al menos que se sepa, no la ha visto nadie.

La ruptura del plato es un suceso natural e irreversible, una secuencia temporal adecuada; su recomposicin, en cambio, no lo es. Es la evolucin natural del orden al desorden o, en trminos cientficos, la natural tendencia del Universo a aumentar su entropa.

Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden, pero desconocemos que el paso de una situacin a la otra implica, de forma indefectible, el final de todo movimiento, la muerte del Universo.

Fuente Internet:

EntropaPara otros usos de este trmino, vase Entropa (desambiguacin).En termodinmica, la entropa (simbolizada como S) es una magnitud fsica que, mediante clculo, permite determinar la parte de la energa que no puede utilizarse para producir trabajo. Es una funcin de estado de carcter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se d de forma natural. La entropa describe lo irreversible de los sistemas termodinmicos. La palabra entropa procede del griego () y significa evolucin o transformacin. Fue Rudolf Clausius quien le dio nombre y la desarroll durante la dcada de 1850;1 2 y Ludwig Boltzmann, quien encontr en 1877 la manera de expresar matemticamente este concepto, desde el punto de vista de la probabilidad.3

ndice [ocultar] 1 Introduccin2 Entropa y termodinmica2.1 Significado2.2 Cero absoluto2.3 Entropa y reversibilidad3 Historia de la entropa4 Interpretacin estadstica de la entropa4.1 Entropa y desorden4.2 Entropa como creadora de orden4.3 Relacin de la entropa con la teora de la informacin4.4 La entropa como flecha del tiempo5 Vase tambin6 Referencias7 Enlaces externosIntroduccin[editar]Cuando se plantea la pregunta: Por qu ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?, se busca una respuesta que indique cul es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriar, y el trozo fro se calentar, finalizando en equilibrio trmico. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo fro es muy improbable que se presente, a pesar de conservar la energa. El universo tiende a distribuir la energa uniformemente; es decir, a maximizar la entropa.

La funcin termodinmica entropa es central para la segunda Ley de la Termodinmica. La entropa puede interpretarse como una medida de la distribucin aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropa. Un sistema en una condicin improbable tendr una tendencia natural a reorganizarse a una condicin ms probable (similar a una distribucin al azar), reorganizacin que dar como resultado un aumento de la entropa. La entropa alcanzar un mximo cuando el sistema se acerque al equilibrio, y entonces se alcanzar la configuracin de mayor probabilidad.

Una magnitud es una funcin de estado si, y slo si, su cambio de valor entre dos estados es independiente del proceso seguido para llegar de un estado a otro. Esa caracterizacin de funcin de estado es fundamental a la hora de definir la variacin de entropa.

La variacin de entropa nos muestra la variacin del orden molecular ocurrido en una reaccin qumica. Si el incremento de entropa es positivo, los productos presentan un mayor desorden molecular (mayor entropa) que los reactivos. En cambio, cuando el incremento es negativo, los productos son ms ordenados. Hay una relacin entre la entropa y la espontaneidad de una reaccin qumica, que viene dada por la energa de Gibbs.

Entropa y termodinmica[editar]Esta idea de desorden termodinmico fue plasmada mediante una funcin ideada por Rudolf Clausius a partir de un proceso cclico reversible. En todo proceso reversible la integral curvilnea de

\frac{\delta Q}{T}

slo depende de los estados inicial y final, con independencia del camino seguido (Q es la cantidad de calor absorbida en el proceso en cuestin y T es la temperatura absoluta). Por tanto, ha de existir una funcin del estado del sistema, S=f(P,V,T), denominada entropa, cuya variacin en un proceso reversible entre los estados 1 y 2 es:

\Delta S = S_2 - S_1 = \int_1^2 \frac {\delta Q} {T} .Tngase en cuenta que, como el calor no es una funcin de estado, se usa Q, en lugar de dQ. La entropa fsica, en su forma clsica, est definida por la ecuacin siguiente:

dS = \frac{\delta Q}{T}

o, ms simplemente, cuando no se produce variacin de temperatura (proceso isotrmico):

S_2 - S_1 = \begin{matrix} \cfrac{Q_{1 \to 2}}{T} \end{matrix}

donde S es la entropa, Q_{1 \to 2} la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin.

Unidades: S=[cal/K]

Los nmeros 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinmico.

Significado[editar]El significado de esta ecuacin es el siguiente:

Cuando un sistema termodinmico pasa, en un proceso reversible e isotrmico, del estado 1 al estado 2, el cambio en su entropa es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta.De acuerdo con la ecuacin, si el calor se transfiere al sistema, tambin lo har la entropa, en la misma direccin. Cuando la temperatura es ms alta, el flujo de calor que entra produce un aumento de entropa menor. Y viceversa.

Las unidades de la entropa, en el Sistema Internacional, son el J/K (o Clausius), definido como la variacin de entropa que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.

Cuando el sistema evoluciona irreversiblemente, la ecuacin de Clausius se convierte en una inecuacin:

dS \ge \sum_{i=1}^n \frac{\delta Q_{TF_i}}{T_{FT_i}}Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. No obstante, sumando un trmino positivo al segundo miembro, podemos transformar de nuevo la expresin en una ecuacin:

dS = {\delta \sigma}_p + \sum_{i=1}^n \frac{\delta Q_{TF_i}}{T_{FT_i}}Al trmino {\sigma}_p, siempre positivo, se le denomina produccin de entropa, y es nulo cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. En el caso de darse un proceso reversible y adiabtico, segn la ecuacin, dS=0, es decir, el valor de la entropa es constante y adems constituye un proceso isoentrpico.

Entropa (informacin)Para otros usos de este trmino, vase Entropa (desambiguacin).En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de informacin.

La entropa tambin se puede considerar como la cantidad de informacin promedio que contienen los smbolos usados. Los smbolos con menor probabilidad son los que aportan mayor informacin; por ejemplo, si se considera como sistema de smbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca informacin, mientras que palabras menos frecuentes como "corren", "nio", "perro" aportan ms informacin. Si de un texto dado borramos un "que", seguramente no afectar a la comprensin y se sobreentender, no siendo as si borramos la palabra "nio" del mismo texto original. Cuando todos los smbolos son igualmente probables (distribucin de probabilidad plana), todos aportan informacin relevante y la entropa es mxima.

El concepto entropa es usado en termodinmica, mecnica estadstica y teora de la informacin. En todos los casos la entropa se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La entropa puede ser considerada como una medida de la incertidumbre y de la informacin necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de informacin y el de entropa estn bsicamente relacionados entre s, aunque se necesitaron aos de desarrollo de la mecnica estadstica y de la teora de la informacin antes de que esto fuera percibido.

ndice [ocultar] 1 Relacin con la entropa termodinmica2 Concepto intuitivo3 Definicin formal3.1 Ejemplos3.2 Informacin mutua4 Propiedades5 Codificador ptimo5.1 Ejemplo6 Entropa condicional6.1 Aplicacin en criptoanlisis6.2 Ejemplo7 Entropa de un proceso estocstico7.1 Ratio de entropa8 Referencias8.1 Bibliografa9 Vase tambin10 Enlaces externosRelacin con la entropa termodinmica[editar]La entropa de la teora de la informacin est estrechamente relacionada con la entropa termodinmica. En la termodinmica se estudia un sistema de partculas cuyos estados X (usualmente posicin y velocidad) tienen una cierta distribucin de probabilidad, pudiendo ocupar varios microestados posibles (equivalentes a los smbolos en la teora de la informacin). La entropa termodinmica es igual a la entropa de la teora de la informacin de esa distribucin (medida usando el logaritmo neperiano) multiplicada por la constante de Boltzmann k, la cual permite pasar de nats (unidad semejante al bit) a J/K. Cuando todos los microestados son igualmente probables, la entropa termodinmica toma la forma k log(N). En un sistema aislado, la interaccin entre las partculas tiende a aumentar su dispersin, afectando sus posiciones y sus velocidades, lo que causa que la entropa de la distribucin aumente con el tiempo hasta llegar a un cierto mximo (cuando el mismo sistema es lo ms homogneo y desorganizado posible); lo que es denominado segunda ley de la termodinmica. La diferencia entre la cantidad de entropa que tiene un sistema y el mximo que puede llegar a tener se denomina neguentropa, y representa la cantidad de organizacin interna que tiene el sistema. A partir de esta ltima se puede definir la energa libre de Gibbs, que indica la energa que puede liberar el sistema al aumentar la entropa hasta su mximo y puede ser transformada en trabajo (energa mecnica til) usando una mquina ideal de Carnot. Cuando un sistema recibe un flujo de calor, las velocidades de las partculas aumentan, lo que dispersa la distribucin y hace aumentar la entropa. As, el flujo de calor produce un flujo de entropa en la misma direccin.