Entropia y neguentropia

13
ENTROPIA Y NEGUENTROPIA ALUMNO : USHIÑAHUA GAMA RUSSEL DOCENTE : SNYDERS QUINTE ARAUJO CARRERA : ING. DE SISTEMAS

Transcript of Entropia y neguentropia

Page 1: Entropia y neguentropia

ENTROPIA Y NEGUENTROPIA

ALUMNO : USHIÑAHUA GAMA RUSSEL

DOCENTE : SNYDERS QUINTE ARAUJO

CARRERA : ING. DE SISTEMAS

Page 2: Entropia y neguentropia

ENTROPIA

• la entropía es una magnitud física que, mediante cálculo, permite determinar la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La entropía describe lo irreversible de los sistemas termodinámicos. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850; y Ludwig Boltzmann, quien encontró la manera de expresar matemáticamente este concepto, desde el punto de vista de la probabilidad.

Page 3: Entropia y neguentropia

FUNCION TERMODINAMICA• La función termodinámica entropía es

central para la segunda Ley de la Termodinámica. La entropía puede interpretarse como una medida de la distribución aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), reorganización que dará como resultado un aumento de la entropía.

• Una magnitud es una propiedad si, y sólo si, su cambio de valor entre dos estados es independiente del proceso. Esta proposición puede ser fundamental a la hora de definir la variación de entropía

Page 4: Entropia y neguentropia

ECUACIONES• Ecuaciones• Esta idea de desorden termodinámico fue plasmada mediante una

función ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la integral curvilínea de \frac{\delta Q}{T} sólo depende de los estados inicial y final, con independencia del camino seguido (δQ es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura absoluta). Por tanto, ha de existir una función del estado del sistema, S=f(P,V,T), denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2 es:

• \Delta S = S_2 - S_1 = \int_1^2 \frac {\delta Q} {T} .• Téngase en cuenta que, como el calor no es una función de estado,

se usa δQ, en lugar de dQ.• La entropía física, en su forma clásica, está definida por la ecuación

siguiente:• dS = \frac{\delta Q}{T}• o, más simplemente, cuando no se produce variación de

temperatura (proceso isotérmico):• S_2 - S_1 = \begin{matrix} \cfrac{Q_{1 \to 2}}{T} \end{matrix}• donde S es la entropía, Q_{1 \to 2} la cantidad de calor

intercambiado entre el sistema y el entorno y T la temperatura absoluta en kelvin.

Page 5: Entropia y neguentropia

CERO ABSOLUTO• Cero absoluto• Solo se pueden calcular variaciones de

entropía. Para calcular la entropía de un sistema, es necesario fijar la entropía del mismo en un estado determinado. La tercera ley de la termodinámica fija un estado estándar: para sistemas químicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es nula en el cero absoluto (0 K) o (-273.16°C)

• Esta magnitud permite definir la segunda ley de la termodinámica, de la cual se deduce que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontánea, aún cuando siga cumpliéndose la condición de conservación de la energía del sistema (la primera ley de la termodinámica).

Page 6: Entropia y neguentropia

ENTROPIA Y REVERSIBILIDAD• Entropía y reversibilidad• La entropía global del sistema es la entropía del sistema

considerado más la entropía de los alrededores. También se puede decir que la variación de entropía del universo, para un proceso dado, es igual a su variación en el sistema más la de los alrededores:

• \Delta S_{\rm universo} = \Delta S_{\rm sistema} + \Delta S_{\rmentorno} \,

• Si se trata de un proceso reversible, ΔS (universo) es cero, pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza.

• Para llevar al sistema nuevamente a su estado original, hay que aplicarle un trabajo mayor que el producido por el gas, lo que da como resultado una transferencia de calor hacia el entorno, con un aumento de la entropía global.

• Cuando la entropía sea máxima en el Universo, esto es, cuando exista un equilibrio entre todas las temperaturas y presiones, llegará la muerte térmica del Universo (enunciada por Clausius).

• En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las moléculas, la diferencia entre calor y trabajo desaparece y, por tanto, parámetros termodinámicos como la entropía, la temperatura y otros no tienen significado.

Page 7: Entropia y neguentropia

HISTORIA DE LA ENTROPIA

Historia de la entropía• El concepto de entropía desarrollado en respuesta a la

observación de que una cierta cantidad de energía liberada de funcionales reacciones de combustión siempre se pierde debido a la disipación o la fricción y por lo tanto no se transforma en trabajo útil. Los primeros motores de calor como Thomas Savery (1698), el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos de dos por ciento de la energía de entrada en producción de trabajo útil; una gran cantidad de energía útil se disipa.

• En la década de 1850, Rudolf Clausius estableció el concepto de sistema termodinámico y postula la tesis de que en cualquier proceso irreversible una pequeña cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el término "entropía". Durante el próximo medio siglo se llevó a cabo un mayor desarrollo, y más recientemente el concepto de entropía ha encontrado aplicación en el campo análogo de pérdida de datos en los sistemas de transmisión de información.

Page 8: Entropia y neguentropia

ENTROPIA Y DESORDEN• Entropía y desorden• Cuando la energía es degradada, dijo

Boltzmann, se debe a que los átomos asumen un estado más desordenado. Y la entropía es un parámetro del desorden: ésa es la concepción profunda que se desprende de la nueva interpretación de Boltzmann. Por extraño que parezca, se puede crear una medida para el desorden; es la probabilidad de un estado particular, definido aquí como el número de formas en que se puede armar a partir de sus átomos.

• No obstante, considerar que la entropía es el desorden de un sistema sin tener en cuenta la naturaleza del mismo es una falacia. Y es que hay sistemas en los que la entropía no es directamente proporcional al desorden, sino al orden.

Page 9: Entropia y neguentropia

NEGUENTROPIA• La neguentropía o negantropía, también llamada

entropía negativa o sintropía, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida. Para compensar el proceso de degradación sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen compensar su entropía natural con aportaciones de subsistemas con los que se relacionan. Si en un sistema cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema abierto, la neguentropía sería una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entrópico.

• La neguentropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el método de neguentropía.

Page 10: Entropia y neguentropia

ENTROPIA NEGATIVA• El concepto de “entropía negativa” fue introducido por

Erwin Schrödinger (físico teórico, y uno de los padres de la mecánica cuántica) en su libro de ciencia popular whatis life?, publicado en 1943. Más tarde, Léon Brillouincambió la palabra por "neguentropía", para expresarla en una forma mucho más “positiva”, diciendo que un sistema vivo importa neguentropía y la almacena. En 1974, Albert Szent-Györgyi (Nobel de Fisiología Médica en 1937) propuso cambiar el término de neguentropía a sintropía, aunque este último ya había sido usado por el matemático Luigi Fantappiè, quien lo utilizó con el fin de construir una teoría unificando la física y la biología. Buckminster Fuller, ingeniero, arquitecto y diseñador del siglo XX, trató de hacer popular este término, pero la palabra neguentropía siempre permaneció como la más común.

• En el año 2009, Mahulikar & Herwig redefinieron la neguentropía de un sub-sistema ordenado dinámicamente como el déficit de entropía relacionado al caos que rodea al sub-sistema ordenado. De esta forma, las unidades de la neguentropía son [J/kg-K] cuando se define con base en la entropía por unidad de masa, mientras que cuando se define con base en la entropía por unidad de energía las unidades son [K-1].

Page 11: Entropia y neguentropia

TEORIA DE LA INFORMACION

En la teoría de la información y la estadística, la neguentropía se usa como medida de distancia de normalidad. Si se considera una señal con una cierta distribución, y la señal es gausiana, ésta tendrá una distribución normal. La neguentropía es siempre positiva, invariante a cambios de coordenadas lineales, y se desvanece si y sólo si la señal es gausiana.• La neguentropía se define por:• J(p_x) = S(\phi_x) - S(p_x)\,• Donde S(Φχ) es el diferencial de entropía de

la densidad gausiana con la misma media y varianza, mientras que pχ y S(pχ) es la entropía diferencial de pχ:

• S(p_x) = - \int p_x(u) \log p_x(u) du• La neguentropía se usa en estadística y

procesamiento de señales.

Page 12: Entropia y neguentropia

ENERGIA DE GIBBS• Existe una magnitud física estrechamente vinculada a

la energía libre (entalpia libre), con una unidad de entropía isomórfica a la neguentropía, conocida en estadística y en teoría de la información. En 1873 Willard Gibbs creó un diagrama ilustrando del concepto de energía libre correspondiente a entalpia libre. En el diagrama se puede ver la cantidad llamada capacidad de la entropía. Dicha cantidad es la entropía que se puede incrementar sin cambiar la energía interna o aumentar el volumen. En otras palabras, se trata de una diferencia entre el máximo posible, en condiciones de asumir, la entropía y la entropía real. Esto corresponde exactamente a la definición de neguentropía adoptada por la estadística y la teoría de la información.

• J = S_\max - S = -\Phi = -k \ln Z\,• Donde:• J - (“Capacidad para entropía” de Gibbs)• \Phi – Potencial de Massieu• Z - Función de partición• k - Constante de Boltzman

Page 13: Entropia y neguentropia

TEORIA DE LA INFORMACION

• En 1988, basándose en la definición de entropía estadística de Shannon, Mario Ludovico dio una definición formal al término sintropía, como una medida del grado de organización interna de cualquier sistema formado por componentes que interactúan entre sí. De acuerdo a esta definición, la sintropía es una cantidad complementaria a la entropía. La suma de dos cantidades define un valor constante, específicas del sistema en el que ese valor constante identifica el potencial de transformación.

• La organización como sistema (abierto) esta constituido por los elementos básicos de este (entradas, medio, salidas y retroalimentación) y es en las entradas donde la información juega un papel clave como medio regulador, medio neguentrópico, ya que a través de ella se puede disminuir la cantidad de incertidumbre (entropía).

• En la gestión de riesgos, neguentropía es la fuerza que tiene por objeto lograr un comportamiento organizacional eficaz y conducir a un estado estacionario predecible.