ENTROPIA 3

20
CONCEPTO GENERAL DE ENTROPIA El segundo principio de la termodinámica establece el crecimiento de la entropía, es decir, la máxima probabilidad de los sistemas es su progresiva desorganización y, finalmente, su homogeneización con el ambiente. Los sistemas cerrados están irremediablemente condenados a la desorganización. No obstante hay sistemas que, al menos temporalmente, revierten esta tendencia al aumentar sus estados de organización. ENTROPÍA - INCERTIDUMBRE - INFORMACIÓN La entropía es una medida de desorden tomada de la termodinámica, en donde ésta se relaciona con la probabilidad de ocurrencia de un arreglo molecular particular en un gas. Cuando se traspone a la cibernética y a la teoría general de sistemas, la entropía se refiere a la cantidad de variedad en un sistema, donde la variedad puede interpretarse como la cantidad de incertidumbre que prevalece en una situación de elección con muchas alternativas distinguibles. La entropía, incertidumbre y desorden, son conceptos relacionados. Utilizamos el término dualismo o dualidad, para referirnos a los valores significativos que adquieren estas variables en los dos extremos de sus espectros respectivos. Un sistema muestra una alta o baja entropía (variedad, incertidumbre, desorden). Reducir la entropía de un sistema,

Transcript of ENTROPIA 3

Page 1: ENTROPIA 3

CONCEPTO GENERAL DE ENTROPIA

El segundo principio de la termodinámica establece el crecimiento de la

entropía, es decir, la máxima probabilidad de los sistemas es su progresiva

desorganización y, finalmente, su homogeneización con el ambiente. Los sistemas

cerrados están irremediablemente condenados a la desorganización. No obstante

hay sistemas que, al menos temporalmente, revierten esta tendencia al aumentar

sus estados de organización.

ENTROPÍA - INCERTIDUMBRE - INFORMACIÓN

La entropía es una medida de desorden tomada de la termodinámica, en

donde ésta se relaciona con la probabilidad de ocurrencia de un arreglo molecular

particular en un gas. Cuando se traspone a la cibernética y a la teoría general de

sistemas, la entropía se refiere a la cantidad de variedad en un sistema, donde la

variedad puede interpretarse como la cantidad de incertidumbre que prevalece en

una situación de elección con muchas alternativas distinguibles.

La entropía, incertidumbre y desorden, son conceptos relacionados.

Utilizamos el término dualismo o dualidad, para referirnos a los valores

significativos que adquieren estas variables en los dos extremos de sus espectros

respectivos.

Un sistema muestra una alta o baja entropía (variedad, incertidumbre,

desorden). Reducir la entropía de un sistema, es reducir la cantidad de

incertidumbre que prevalece. La incertidumbre se disminuye al obtenerse

información. La información, en el sentido de la teoría sobre la información, posee

un significado especial que está ligado al número de alternativas en el sistema. Un

ejemplo simple aclarará el punto. Si uno se enfrenta a elegir entre ocho

alternativas, un cálculo simple mostrará que la entropía de la incertidumbre que

existe es de tres dígitos binarios. Cuatro elecciones entre las ocho alternativas,

reducirán la incertidumbre a dos dígitos binarios. Otras dos elecciones estrecharán

la incertidumbre a dos alternativas y la entropía a un dígito binario. Con sólo dos

Page 2: ENTROPIA 3

alternativas restantes, una elección final elimina la incertidumbre y la entropía se

reduce a cero.

La cantidad de información proporcionada es la negativa de la entropía que

se ha reducido. Se requieren tres dígitos binarios de información para eliminar la

incertidumbre de ocho alternativas. Wiener y Shannon influyeron en el

establecimiento de la equivalencia de la entropía (incertidumbre) con la cantidad

de información, en el sentido de la teoría sobre la información. Estos conceptos

sostienen un punto central en la teoría general de sistemas, similar al que

sustentan los conceptos de fuerza y energía en la física clásica.

Estos conceptos pueden utilizarse para caracterizar los sistemas vivientes y

no vivientes. Los sistemas no vivientes (considerados generalmente como

cerrados), tienden a moverse hacia condiciones de mayor desorden y entropía.

Los sistemas vivientes (y por tanto abiertos), se caracterizan como resistentes a la

tendencia hacia el desorden y se dirigen hacia mayores niveles de orden. La teoría

general de sistemas explica estas tendencias por medio de a) el procesamiento de

información que causa una reducción correspondiente en la entropía positiva, y b)

derivar energía del medio (un incremento de entropía negativa), que contradice las

tendencias declinantes de procesos naturales irreversibles (un incremento en la

entropía positiva). La especulación es la información a medias.

Por consiguiente, cuando los datos reducen su entropía, pasan a ser

información, reduciendo los niveles de incertidumbre.

CARACTERÍSTICAS ASOCIADAS A LA ENTROPÍA.

o La entropía se define solamente para estados de equilibrio.

o Solamente pueden calcularse variaciones de entropía. En muchos

problemas prácticos como el diseño de una maquina de vapor,

consideramos únicamente diferencias de entropía. Por conveniencia

se considera nula la entropía de una sustancia en algún estado de

referencia conveniente. Así se calculan las tablas de vapor, en donde

Page 3: ENTROPIA 3

se supone cero la entropia del agua cuando se encuentra en fase

liquida a 0'C y presión de 1 atm.

o La entropia de un sistema en estado se equilibrio es únicamente

función del estado del sistema, y es independiente de su historia

pasada. La entropia puede calcularse como una función de las

variables termodinámicas del sistema, tales como la presión y la

temperatura o la presión y el volumen.

o La entropia en un sistema aislado aumenta cuando el sistema

experimenta un cambio irreversible.

o Considérese un sistema aislado que contenga 2 secciones

separadas con gases a diferentes presiones. Al quitar la separación

ocurre un cambio altamente irreversible en el sistema al equilibrarse

las dos presiones. Pero el medio no ha sufrido cambio durante este

proceso, así que su energía y su estado permanecen constantes, y

como el cambio es irreversible la entropia del sistema ha aumentado.

TRANSFERENCIA DE ENTROPIA.

La entropia esta relacionada con la aleatoriedad del movimiento molecular

(energía térmica), por esto, la entropia de un sistema no decrece si no hay cierta

interacción externa. Ocurre que la única manera que el hombre conoce de reducir

la energía térmica es transferirla en forma de calor a otro cuerpo, aumentando así

la energía térmica del segundo cuerpo y por ende su entropia.

Por otro lado transfiriendo energía térmica es posible reducir la entropia de

un cuerpo. Si esta transferencia de energía es reversible, la energía total

permanece constante, y si es irreversible la entropia aumenta.

De lo anterior se concluye que el calor es un flujo de entropia. En el caso de

la transferencia de energía mecánica no hay un flujo directo de entropia.

Si la transferencia de energía mecánica en un sistema se realiza con

irreversibilidad se producen aumentos de entropia en el sistema, es decir se

Page 4: ENTROPIA 3

generan entropia. Esta generación de entropia trae consigo una perdida de trabajo

utilizable debido a la degradación de la energía mecánica producido por las

irreversibilidades presentes como lo es el roce.

ENTROPIA E IRREVERSIBILIDAD

Con pocos conocimientos termodinámicos sabemos que en los procesos

irreversibles aumenta la entropía del sistema. Y viceversa, si un sistema

experimenta un aumento de entropía tras un proceso, éste es irreversible.

Ejemplo: Vamos a demostrarle a tu madre que una vez que tú desordenas

el cuarto, es casi imposible volver a dejarlo con el orden inicial. Y es una cuestión

de probabilidad.

Tu madre parte de una situación inicial en la que cada cosa sólo puede

estar en un lugar: su sitio. Luego, a tu habitación sólo la podemos encontrar en un

estado (pocos estados permitidos, mucho orden, poca entropía); séanse, por

ejemplo, los pantalones en cuestión colgaditos de su percha dentro del armario.

Tú los usas y luego los dejas en un sitio que ya no es el suyo, mismamente sobre

la cama como que los podrías haber dejado en la silla. Es decir, ahora podemos

encontrar a tu habitación en tres estados diferentes: con los pantalones en el

armario, en la cama o en la silla.

 

Page 5: ENTROPIA 3

Has realizado una transformación en la que la situación final tiene más

estados que la inicial (situación inicial: sólo un estado, cada cosa en su sitio;

situación final: tres estados, cada cosa en su sitio, o cada cosa en su sitio pero los

pantalones en la cama, o cada cosa en su sitio y los pantalones en la silla.)

(gráfico 1).

Entonces, este proceso en el que ha habido un aumento de estados, de

desorden, de entropía ¿es reversible? Pues sí pero no. Si tú vuelves a coger los

pantalones y los dejas otra vez, mientras sigas pudiéndolos dejar en cualquier

sitio, seguro que no se te ocurre dejarlos justo donde los habías cogido la primera

vez (de la percha del armario). La probabilidad de que el sitio que tu elijas al azar

sea su sitio del armario no es la unidad, sino menor. Luego, existe una baja

probabilidad de que justamente vuelvas a dejar las cosas donde estaban al

principio.

Para tu madre, que sólo permite un estado al sistema, la probabilidad de

dejar al cuarto en ese estado es la unidad. Mientras que para tí, existe

Page 6: ENTROPIA 3

probabilidad 1/3 de dejar el cuarto ordenado (situación final 1ª)

probabilidad 2/3 de dejar el cuarto desordenado(situación final 2ª y 3ª)

Es decir, tu tienes más probabilidad de dejarlo desordenado porque existen

más estados posibles así, y sólo uno en el que intuitivamente lo llamamos

ordenado.

La solución pues es muy sencilla, no permitir a tus cosas más que un estado

posible: el lugar que tu madre les asigne.

ENTROPIA Y ESPONTANEIDAD

Todos sabemos viendo el mundo que nos rodea que la espontaneidad

implica irreversibilidad. Es decir, que si un proceso ocurre espontáneamente, sin

aporte energético, no tiende a volver a la situación inicial, el proceso es

irreversible. Lógico, ya que si ocurre espontáneamente es porque va a una

situación más "cómoda" o más probable, y la Naturaleza no es tonta, y no va a

volver a una situación inicial más "incómoda" o menos probable por las buenas.

Y acabamos de ver también que los procesos irreversibles implican un

aumento de la entropía del sistema.

Luego, si espontaneidad implica irreversibilidad, y ésta aumento de

entropía: los procesos espontáneos conllevan un aumento de entropía.

Tú madre se pregunta cómo es que tu habitación siempre está tan

desordenada, siendo que incluso ella a veces la ordenada y coloca cada cosa en

su sitio: los pantalones en su percha, y los zapatos en su armario, y los apuntes en

su carpeta, y los bolígrafos en su bote. Sin embargo, tú cada vez que coges algo

de tu habitación, lo dejas desordenado, aumentas la entropía de tu habitación.

¿Por qué? Fácil, porque tú cuando dejas algo en tu cuarto siguiendo la ley

de la Naturaleza del mínimo consumo de energía, no te paras a pensar y para tí

cualquier sitio está permitido para dejar tus cosas. Realizas un proceso

Page 7: ENTROPIA 3

espontáneo (sin aporte energético) que es dejar un objeto de tu habitación, y como

lo puedes dejar en cualquier sitio, pues tu habitación la podemos encontrar de

muchas maneras distintas; luego, más estados, más desorden, más entropía.

ENTROPIA E INFORMACIÓN

Siguiendo con el ejemplo, Lo que tu madre no entiende es el que tu dejes

tus cosas en otro sitio que no es el suyo, a tu hermana le sirve de mucho. Tú dejas

a tus pantalones más de un estado posible (en el armario, o encima de la cama, o

en la silla, o detrás de la puerta colgados) y esto le permite a tu hermana saber

cual es tu estado de ánimo; según dónde dejas tus pantalones, ella sabe si vienes

enfadado, risueño, melancólico, etc.. Si sólo permitieras un estado a tus

pantalones (su sitio, séase el que decide tu madre, o cualquier otro) tu hermana

perdería mucha información porque siempre pensaría que estás del mismo humor,

el correspondiente al lugar asignado a tus pantalones. Pero, al menos, tu madre

no se enfadaría.

Es decir, cuantos más estados permitidos tiene un sistema, mayor es la

información que puede almacenar y proporcionar.

Para terminar, recordar que las analogías son útiles en tanto en cuanto las

limites a su semejanza con la realidad. Es decir, una analogía no explica todo de

aquello con lo que la comparamos. E insisto en mi agradecimiento a las posibles

correcciones de esta analogía.

PRODUCCIÓN DE ENTROPÍA

La desigualdad de Clausius en términos de la entropía

puede convertirse en una igualdad introduciendo un nuevo término

Page 8: ENTROPIA 3

donde Sgen es la producción de entropía. Representa la cantidad de entropía

producida en el sistema como consecuencia de las irreversibilidades internas. La

desigualdad de Clausius establece, por tanto, el criterio

Escrita la desigualdad de esta forma podemos entender la variación de

entropía como suma de dos términos: lo que entra por las paredes debido al calor

intercambiado con el ambiente más lo que se produce en el propio sistema.

Otra forma de interpretarlo es escribiendo la igualdad anterior como

Como se ve más abajo, la variación de entropía de un foco es Q / T, siendo

Q el calor que entra en el foco. En la integral anterior − dQ es la cantidad de calor

que sale del sistema y por tanto entra en el foco a temperatura T. Al sumar para

todos los focos estamos calculando la variación total de entropía del ambiente,

Nos queda entonces

con lo que la entropía generada en el sistema y la variación de entropía del

universo son cantidades equivalentes.

Page 9: ENTROPIA 3

ENTROPÍA Y TRABAJO PERDIDO

CASO DE UNA MÁQUINA TÉRMICA

Si tenemos una máquina que toma un calor | Qc | de un foco caliente a

temperatura Tc y entrega un calor | Qf | a uno a Tf, el Pirmer Pincipio de la

termodinámica nos dice que

Por lo lado, la producción de entropía, según acabamos de ver es

De aquí podemos despejar el calor entregado al foco frío

Esta ecuación nos dice que

Existe siempre un calor entregado al foco frío, esto es, se verifica el

enunciado de Kelvin-Planck.

Page 10: ENTROPIA 3

Para una cantidad fija que se toma del foco caliente, si se genera entropía,

es decir, si la máquina es irreversible, la cantidad de calor de desecho es

mayor que si no se generara. Dicho en otras palabras, se desperdicia más

energía, pues una vez que va a parar al foco frío (normalmente el ambiente

que nos rodea) ya no es útil para producir trabajo adicional.

Sustituyendo este calor en la expresión del trabajo obtenemos la relación

La cantidad entre paréntesis es el rendimiento de una máquina reversible que

opere entre las temperaturas Tc y Tc. Por ello, esta ecuación se puede escribir

que nos dice que una máquina irreversible produce menos trabajo que una

reversible, porque una parte del calor se desperdicia de forma irrecuperable. Este

trabajo perdido es proporcional a la entropía creada

Cuanto más entropía estemos generando, más trabajo potencial se pierde y

menos produce la máquina.

En términos del rendimiento, podemos escribir la ecuación anterior como

lo que nos expresa el teorema de Carnot: el máximo rendimiento lo obtenemos

con una máquina reversible, y a partir de ahí empezamos a perder eficiencia,

proporcionalmente a la entropía generada (para una entrada de calor siempre la

misma).

Page 11: ENTROPIA 3

También pueden expresarse estos resultados en términos del trabajo que

queremos obtener de la máquina

        

que nos dice que, si queremos obtener un trabajo dado, cuanto más

irreversible sea la máquina más calor necesitamos tomar del foco caliente y más

calor de desecho arrojamos al foco frío.

Page 12: ENTROPIA 3

INTRODUCCIÓN

La entropía surgió en una primera instancia en el campo de la física, pero

en la actualidad es aplicable a muchas otras áreas, como por ejemplo la

administración y la economía.

Éstos últimos en el sentido de un flujo de energías, siendo la entropía una

energía negativa que entorpece la ejecución del trabajo; la entropía en un sistema

representa la tendencia al desorden o desorganización propia del trabajo. Por el

contrario a la entropía, se encuentra la neguentropía que se refiere a la energía

positiva del sistema, es decir, le da mayor fluidez a las energías circundantes.

Este concepto la comunidad científica lo considera relativamente reciente.

Fue introducido por el ingeniero francés R. J. Clausius a mediados del siglo XIX.

Se basó en la segunda ley de la termodinámica para elaborar el concepto de la

entropía; no hay proceso cuyo único resultado sea la transferencia de calor desde

un cuerpo frío a otro de mayor temperatura.

Page 13: ENTROPIA 3

BIBLIOGRAFÍA

Callen, H.B., "Thermodynamics and an introduction to thermostatistics".

John Wiley & Sons, USA (1985)

Zemansky, M.W., "Calor y Termodinámica", McGraw-Hill, México (1990)

De Teresa, J.M., Lumen, 6, 32 (1993)

http://www.moebio.uchile.cl/03/frprinci.htm#informacion

http://www.cec.uchile.cl/~roroman/pag_2/ENTROPIA.HTM

CONCLUSIÓN

Page 14: ENTROPIA 3

La palabra entropía procede del griego (ἐντροπία) y significa “evolución o

transformación”. La formulación matemática de la variación de entropía de un

sistema, luego de una transformación o evolución entre los estados inicial y final

del mismo, se corresponde con la integral definida entre el instante inicial y final de

los incrementos o diferenciales del componente o sistema en evolución, divididos

por la cantidad de elementos que van integrando al componente o sistema en

cada instante. Así:

La resolución matemática de la integral planteada para la determinación de

la variación de la entropía de un sistema entre los estados inicial y final, resulta ser

el logaritmo natural de uno (1) (cantidad de componentes o sistemas resultantes

en el instante final), dividido por la cantidad de elementos que fueron integrados al

componente o sistema resultante entre los instantes inicial y final de la evolución.

Page 15: ENTROPIA 3

REPÙBLICA BOLIVARIANA DE VENEZUELAMINISTERIO DEL PODER POPULAR PARA LA

EDUCACIÓN UNIVERSITARIOINSTITUTO UNIVERSITARIO POLITECNICO

SANTIAGO MARIÑOCABIMAS EDO ZULIA

 

REALIZADO POR:HERMES GUTIERREZ 21.430.996

LUIS BOSCAN 23.463.763JAVIER MONTES DE OCA 22.261.015

CABIMAS ENERO 2013.