You are on page 1of 21

“AÑO DEL BUEN SERVICIO AL CIUDADANO”

UNIVERSIDAD NACIONAL DE INGENIERÍA

FACULTAD DE INGENIERÍA MECÁNICA


CURSO: FÍSICA II
PROFESOR: Pachas Salhuana, Jose Teodoro
TEMA: Entropía
SECCIÓN: D

ÍNDICE
INTRODUCCIÓN 1

CAPÍTULO I. CONCEPTO DE ENTROPÍA 2

1.1. Acerca de la entropía 2

1.2. Definición de Entropía 3

1.3. La entropía caos y desorden 4

CAPÍTULO II. CARACTERÍSTICAS BÁSICAS DE LA ENTROPÍA 10

2.1. Características de la entropía 10

2.2. La ley cero 12

2.3. La primera ley de la termodinámica 12

2.4. La segunda ley de la termodinámica 13

2.5. Para qué sirve la entropía 18

CONCLUSIONES 18

REFERENCIAS BIBLIOGRÁFICAS 19
INTRODUCCIÓN

El siguiente trabajo es una síntesis de las distintas formas en la que podemos

abordar el concepto de entropía y posteriormente llegar a una definición clara y

precisa de éste concepto. La entropía es una de las magnitudes más importantes

de la termodinámica. Su definición y propiedades poseen importancia en mecánica

estadística, matemáticas, teoría de la información, etc. No obstante, por el objetivo

de presente trabajo, aquí describiremos sólo su concepto, definición e

interpretación en el marco de la Termodinámica clásica y la mecánica estadística.

1
CAPITULO I. CONCEPTO DE ENTROPÍA

El concepto de entropía es equivalente al de “desorden”. Así, cuando decimos que

aumento la entropía de un sistema, significa que creció el desorden en ese

sistema. Y a la inversa: si en un sistema disminuyo la entropía, significa que

disminuyo su desorden.

La medida de la entropía permite establecer el “orden” que posee un sistema en

determinada instancia, respecto al que poseía o pudo haber poseído en otra.

Así, podría determinarse la diferencia de “entropía” para formación o constitución

de un sistema a partir de sus componentes desagregados, y también para

cualquier proceso que queda ocurrir en un sistema ya constituido.

1.1. Acerca de la entropía

Antes de desarrollar técnicas analíticas para aplicar las leyes de la

Termodinámica a sistemas físicos y químicos de interés vamos a estudiar

algunas de las propiedades de la entropía, para familiarizarnos con ese

concepto. Esto no fue necesario para el caso de la energía interna gracias a

su analogía con la energía mecánica. Para dar una interpretación mecánica de

la entropía es necesario introducir nociones de Mecánica Estadística; eso se

verá más adelante y mostraremos que la entropía se relaciona con las ideas

de orden y de probabilidad de los estados a nivel microscópico. Pero por ahora

procuraremos adquirir más familiaridad con la entropía sin introducir modelos

mecánicos.

2
1.2. Definición de Entropía.

La entropía tiene precisas definiciones matemáticas y estadísticas, y se define

como la tendencia natural y universal a la pérdida de orden en un sistema

cerrado, o la incertidumbre en un sistema, es decir, es una variable que de

algún modo cuantifica cuán homogéneo o heterogéneo es un sistema

considerado. Originalmente, y de forma estricta, es un concepto de la

termodinámica, por lo tanto la entropía es función de estado (presión,

temperatura, volumen, cantidad de materia); una magnitud que mide la parte

de energía que no puede utilizarse para realizar un trabajo. El concepto de

entropía fue usado por Rudolf Clausius, el año 1854 y la denominación fue

dada también por Clausius en 1865 en orden de hacer más claro el significado

de la segunda ley de la termodinámica, y con el fin de caracterizar

matemáticamente la irreversibilidad de procesos físicos tales como una

transformación de trabajo en calor ,. En otras palabras, la entropía es una

propiedad extensiva de un sistema y algunas veces se le conoce como la

entropía total. La entropía por unidad de masa, denominada S, es una

propiedad intensiva y se mide con la unidad kJ/ (kg ºk). Por otro lado la entropía

existe en todos los sistemas, no vivientes y vivos, que poseen la energía libre

para hacer el trabajo. A medida que disminuye la energía del sistema, aumenta

la entropía. Si un sistema está aislado o separado de todas las entradas de

materia y energía, tenderá hacia un máximo, de acuerdo con la Segunda Ley

de la Termodinámica.

3
1.3 La entropía caos y desorden.

La entropía es el grado de desorden y de caos que existe en la naturaleza. Es el

segundo principio de la termodinámica que puede definirse esquemáticamente

como el “progreso para la destrucción” o “desorden inherente a un sistema”.

Este principio establece que a cada instante el

Universo se hace más desordenado. Hay un deterioro general pero inexorable

hacia el caos.

El azar, el destino, la suerte y el caos son los elementos principales que estudia

la entropía. Uno de los patrones fundamentales de comportamiento que

encontramos en el mundo físico es la tendencia de las cosas a desgastarse y

agotarse. Los edificios se derrumban, la gente envejece, las montañas y las

costas se erosionan, los recursos naturales se agotan, y todo sin retorno.

Originalmente la palabra entropía viene del griego en que significa sobre, en y

cerca de; y smog que significa giro, alternativa, cambio y evolución. Este término

fue usado por primera vez en 1850 por el físico alemán Rudolf Julius Emmanuel

Clausius.

La energía del universo tiende a distribuirse en todo el espacio en busca del

equilibrio, de la mayor estabilidad, de la mayor dispersión y probabilidad posibles;

lo que da lugar al gran desorden, a la mayor redistribución, al caos y a la entropía

máxima. Las catástrofes que ocasionalmente interrumpen la aparente quietud del

cosmos, como los terremotos, los derrumbes, los aludes, las erupciones

volcánicas, las tormentas, la erosión del suelo, los inviernos que se prolongan y

las nieves eternas, no son más que pequeñas manifestaciones esporádicas, en

4
este planeta, de la impaciencia que tiene la naturaleza por alcanzar su estado

de máximo equilibrio, de mayor desorden, de completa estabilidad y de entropía

absoluta.

Existen, sin embargo, sistemas que se oponen a este fluir de la naturaleza,

estos sistemas son los organismo compuestos por materia viva, que constituyen

sólo una ínfima parte de la materia y energía del cosmos y que, hasta donde se

sabe, sólo existen en el planeta Tierra. Estos sistemas compuestos por materia

viva: desde el virus más elemental, hasta los seres humanos incorporados en

el sistema-sociedad, existen para luchar y luchan para existir, diferenciándose

del resto del universo.

La vida es el conflicto de lo singular contra lo universal; del desequilibrio de

cada sistema contra el equilibrio máximo; del esfuerzo de mantenerse inestable en

relación con la máxima estabilidad a que tiende la naturaleza y del orden contra

el caos.

La materia y la energía se mueven simultáneamente a favor y en contra de la

vida. Por su gran diferenciación, los sistemas compuestos por materia viva, son

inestables y frágiles y cada uno de ellos, como unidad individual, llega

necesariamente al momento de su desaparición, de su incorporación al equilibrio

y a la estabilidad: a la muerte que es la máxima entropía del sistema. Para seguir

siendo la materia viva necesita consumir y degradar energía continuamente;

energía que los sistemas transforman en trabajo que a su vez, este trabajo, es

utilizado en las funciones necesarias para la obtención de energía, para el

crecimiento y el desarrollo; así como los seres gastamos energía y la reponemos

5
mediante la comida.

La muerte del sistema compuesto por materia viva significa la integración de

dicho sistema al medio ambiente, el logro de su máxima entropía al incorporarse

y alcanzar el equilibrio y la estabilidad a que tiende el resto del universo. Esta

fuerza entrópica del cosmos hace que sea más probable estar muerto que estar

vivo”. (Cesarman: 1982)

La falta de energía en el sistema significa la desintegración, el caos y el equilibrio.

La energía es el único enlace que existe entre la realidad de la naturaleza y

el hombre. La información que recibimos es gracias a la energía, por tanto sin

energía no hay imagen y mucho menos conocimiento.

Entonces pues podemos decir que la entropía es, en pocas palabras, el grado de

desorden, el equilibrio máximo en el cual ya no puede haber más cambios físicos

y químicos, ni se puede desarrollar ningún trabajo y donde la presión, la

temperatura, y la concentración son uniformes en todo el sistema.

La disminución de la entropía de un sistema compuesto por materia viva depende

de la integridad del medio que lo rodea y del correcto funcionamiento de los

mecanismos que consumen energía para mantenerlos diferenciados y en

desequilibrio con dicho medio.

En el universo todo tiende al caos: hacia la destrucción de los sistemas, a la

dispersión de la energía en sus formas más degradadas y al aumento de la

entropía, se trata de un proceso natural. Las sociedades son los únicos sistemas

capaces de oponerse a esta tendencia, se defienden del caos y son capaces de

oponerse, en contra de la entropía, toda vez que cuenten con un aporte suficiente

6
de energía y con la estructura que les permita utilizarla.

La entropía hacia la que tiende la naturaleza es el camino al caos y la redistribución

máxima de la energía, o sea prácticamente hacia la nada, pues la máxima entropía

es la “casi-nada”. Ya que es la energía degradada y uniformemente distribuida en

el universo. Por tanto podemos decir que la entropía es la medida del grado de

desorden (caos) de un sistema y sin desorden no hay entropía.

El caos (desorden) es todo aquello que existía en un estado completamente

indiferenciado, estuvo asociado con lo informe, lo impensado, lo vacío y lo

desordenado. El caos es la ausencia de forma y también el medio donde tiene

lugar la creación de la forma. Es el motor que impulsa a un sistema hacia un tipo

de orden más complejo. El caos hace posible el orden siendo su precursor y socio,

y no su opuesto. El caos posee dentro de sí profundas estructuras de orden donde

las zonas de simetría se mezclan con las de asimetría, recorriendo todas las

escalas de magnitud creando así formas cada vez más complejas. El orden es

una condición necesaria de todo lo que la mente humana desea comprender.

El orden es una condición necesaria para cualquier cosa que ha de entender la

mente humana… Un mecanismo físico, ya sea un equipo de trabajadores, el

cuerpo de un animal, o una máquina, solamente puede trabajar si está en

orden físico” (Arnheim: 1980), o como dice Wallace Stevens: “Un orden

violento es el desorden. Un gran desorden es orden. Ambas cosas son una”.

7
El orden hace posible distinguir lo que es igual y lo que es diferente, lo que va junto

y lo que está segregado. El orden externo representa el orden interno, una falta

de correspondencia entre estos produce un conflicto de órdenes, es decir,

introduce un elemento de desorden.

El orden y el caos están interrelacionados. Las teorías que describen la rotación

de los planetas, la elevación del agua en un tubo, la trayectoria de una pelota,

contienen una regularidad y un orden, concepto que se asocia con las leyes de la

naturaleza.

Se pensaba que el caos era resultado de una complejidad que se podía desnudar

hasta sus ordenados orígenes. Sin embargo, se ha descubierto que el caos y la

irregularidad son elementos que tienen leyes propias. Así pues el orden se

desintegra en caos y el caos constituye el orden, pues el caos surge de los

sistemas ordenados. Se creía que las fuerzas del caos y el orden formaban parte

de una tensión inestable, que era algo inmenso y creativo.

La entropía define el orden sencillamente como un ordenamiento improbable de

elementos, independientemente de que la macro forma de este ordenamiento se

halle bellamente estructurada o esté arbitrariamente deformada; y llama desorden

a la disolución de tal ordenamiento improbable”. (Cesarman: 1982)

Cuando nos enfrentamos con el caos, nunca podemos predecir qué ocurrirá

después. El desorden total proporciona el máximo de información y puesto que la

información se mide con el orden, el máximo desorden transmite el máximo orden.

El término orden puede usarse para describir una sucesión o un ordenamiento de

elementos que es improbable que surja por mero azar. James

8
K. Feibleman dice que: “el desorden depende de la dispersión al azar de órdenes

limitados”. Por ejemplo: Observemos crecer una línea recta, el trazo de un artista,

es un mundo de puro azar pues la probabilidad de que la línea continúe en la

misma dirección es mínima. Mientras que en un mundo estructurado, hay cierta

probabilidad de que la línea continúe siendo recta.

La teoría de la entropía no se ocupa de la probabilidad de sucesión en una

serie de elementos, sino de la distribución global de “tipos” elementos en un

ordenamiento dado. Cuanto más alejado está el ordenamiento de una distribución

al azar, tanto menor será su entropía y mayor su nivel de orden. La entropía da

origen a la noción de desorden.

Algunas pinturas de Jackson Pollock muestran una distribución al azar de

pigmentos salpicados y rociados, regidos por el sentido del orden visual del

artista, habiendo un orden y caos. Este vigila para que la textura global sea

pareja y equilibrada, y para que los elementos de forma y color se dejen

mutuamente suficiente libertad.

9
CAPITULO II. CARACTERÍSTICAS BÁSICAS DE LA ENTROPÍA

2.1. Características de la entropía.

2.1.1 ¿Qué es entropía?

Entropía es el grado de desorden que tiene un sistema.

La entropía es un patrón de medida. En física esto se aplica a la segunda

ley de la termodinámica, la cual dice que los sistemas aislados tienden al

desorden, es decir, las cosas tienden al caos a medida que pasa el tiempo.

ECUACIONES

Esta idea de desorden termodinámico fue plasmada mediante una función

ideada por Rudolf Clausius a partir de un proceso cíclico reversible. En todo

proceso reversible la integral curvilínea de sólo depende de los

estados inicial y final, con independencia del camino seguido (δQ es la

cantidad de calor absorbida en el proceso en cuestión y Tes la temperatura

absoluta). Por tanto, ha de existir una función del estado del sistema,

S=f(P,V,T), denominada entropía, cuya variación en un proceso reversible

entre los estados 1 y 2 es:

Téngase en cuenta que, como el calor no es una función de estado, se usa δQ,

en lugar de dQ.

10
La entropía física, en su forma clásica, está definida por la ecuación siguiente:

.O, más simplemente, cuando no se produce variación de

temperatura (proceso isotérmico):

Unidades: S= [cal/K]

Donde S es la entropía, la cantidad de calor intercambiado entre el

sistema y el entorno y T la temperatura absoluta en kelvin.

Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema

termodinámico.

El significado de esta ecuación es el siguiente:

Cuando un sistema termodinámico pasa, en un proceso reversible e

isotérmico, del estado 1 al estado 2, el cambio en su entropía es igual a la

cantidad de calor intercambiado entre el sistema y el medio dividido por su

temperatura absoluta.

2.1.2. Cero absoluto

Solo se pueden calcular variaciones de entropía. Para calcular la entropía de

un sistema, es necesario fijar la entropía del mismo en un estado

determinado. La tercera ley de la termodinámica fija un estado estándar: para

sistemas químicamente puros, sin defectos estructurales en la red cristalina,

de densidad finita, la entropía es nula en el cero absoluto (0 K) o (-273.16°C).

11
Esta magnitud permite definir la segunda ley de la termodinámica, de la cual

se deduce que un proceso tiende a darse de forma espontánea en un cierto

sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un

extremo y a congelarse por el otro de forma espontánea, aún cuando siga

cumpliéndose la condición de conservación de la energía del sistema (la

primera ley de la termodinámica).

2.2. La ley cero.

La Ley cero de la termodinámica nos dice que si tenemos dos cuerpos

llamados A y B, con diferente temperatura uno de otro, y los ponemos

en contacto, en un tiempo determinado t, estos alcanzarán la misma

temperatura, es decir, tendrán ambos la misma temperatura. Si luego un

tercer cuerpo, que llamaremos C se pone en contacto con A y B, también

alcanzará la misma temperatura y, por lo tanto, A, B y C tendrán la misma

temperatura mientras estén en contacto

2.3. La primera ley de la termodinámica.

La Primera ley de la termodinámica se refiere al concepto de energía

interna, trabajo y calor. Nos dice que si sobre un sistema con una determinada

energía interna, se realiza un trabajo mediante un proceso, la energía interna

del sistema variará. A la diferencia de la energía interna del sistema y a la

cantidad de trabajo le denominamos calor. El calor es la energía transferida

al sistema por medios no mecánicos. Pensemos que nuestro sistema es un

recipiente metálico con agua; podemos elevar la temperatura del agua por

fricción con una cuchara o por calentamiento directo en un mechero; en el

12
primer caso, estamos haciendo un trabajo sobre el sistema y en el segundo

le transmitimos calor.

La ecuación que describe este enunciado es la siguiente:

𝑄 = 𝑊 + ∆𝑈

Donde:

Q: Cantidad de calor aportado al sistema.

W: Trabajo realizado por el sistema.

∆𝑈: Energía interna del sistema (aislado).

Criterio de signos termodinámico

Uno de los criterios que se suele utilizar en termodinámica para evaluar la

dirección de los intercambios de energía entre un sistema y su entorno, en

forma de calor y trabajo. Dicho criterio según la IUPAC (International Union

of Pure and Applied Chemistry) es el siguiente:

 Positivo (+), para el trabajo y el calor que entran al sistema e

incrementan la energía interna.

 Negativo (-), para el trabajo y el calor que salen del sistema y

disminuyen la energía interna.

2.4. La segunda ley de la termodinámica.

Por último, vamos a ver el contenido de la segunda ley de la termodinámica.

En términos más o menos sencillos diría lo siguiente: "No existe un proceso

cuyo único resultado sea la absorción de calor de una fuente y la conversión

íntegra de este calor en trabajo". Este principio (Principio de Kelvin-Planck)

nació del estudio del rendimiento de máquinas y mejoramiento tecnológico

13
de las mismas. Si este principio no fuera cierto, se podría hacer funcionar

una central térmica tomando el calor del medio ambiente; aparentemente no

habría ninguna contradicción, pues el medio ambiente contiene una cierta

cantidad de energía interna, pero debemos señalar dos cosas: primero, la

segunda ley de la termodinámica no es una consecuencia de la primera, sino

una ley independiente; segundo, la segunda ley nos habla de las

restricciones que existen al utilizar la energía en diferentes procesos, en

nuestro caso, en una central térmica. No existe una máquina que utilice

energía interna de una sola fuente de calor.

El concepto de entropía fue introducido por primera vez por R. J. Clausius

a mediados del siglo XIX. Clausius, ingeniero francés, también formuló un

principio para la Segunda ley: "No es posible proceso alguno cuyo

único resultado sea la transferencia de calor desde un cuerpo frío a otro más

caliente"

En base a este principio, Clausius introdujo el concepto de entropía, la cual

es una medición de la cantidad de restricciones que existen para que un

proceso se lleve a cabo y nos determina también la dirección de dicho

proceso. Vamos ahora a hablar de las tres acepciones más importantes de

la palabra entropía.

 La entropía, el desorden y el grado de organización.

Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja

y en cada división se encuentran tres tipos diferentes de canicas: azules,

amarillas y rojas, respectivamente. Las divisiones son movibles así que me

14
decido a quitar la primera de ellas, la que separa a las canicas azules de las

amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es

quitar un grado o índice de restricción a mi sistema; antes de que yo quitara

la primera división, las canicas se encontraban separadas y ordenadas en

colores: en la primera división las azules, en la segunda las amarillas y en la

tercera las rojas, estaban restringidas a un cierto orden.

Al quitar la segunda división, estoy quitando también otro grado de restricción.

Las canicas se han mezclados unas con otras de tal manera que ahora no

las puedo tener ordenas pues las barreras que les restringían han sido

quitadas.

La entropía de este sistema ha aumentado al ir quitando las restricciones

pues inicialmente había un orden establecido y al final del proceso (el proceso

es en este caso el quitar las divisiones de la caja) no existe orden alguno

dentro de la caja.

La entropía es en este caso una medida del orden (o desorden) de un sistema

o de la falta de grados de restricción; la manera de utilizarla es medirla en

nuestro sistema inicial, es decir, antes de remover alguna restricción, y

volverla a medir al final del proceso que sufrió el sistema.

Es importante señalar que la entropía no está definida como una cantidad

absoluta S (símbolo de la entropía), sino lo que se puede medir es la

diferencia entre la entropía inicial de un sistema Si y la entropía final del

mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio

en las condiciones de un sistema.

15
 Entropia, procesos reversibles y procesos irreversibles.

Volviendo al ejemplo anterior de la caja con separaciones y canicas, vamos

a explicar qué es un proceso reversible y qué un proceso no reversible.

Llamamos proceso reversible al que se puede invertir y dejar a nuestro

sistema en las mismas condiciones iniciales. Teniendo en cuenta nuestra caja

ya sin las separaciones, tenemos a las canicas revueltas unas con otras, es

decir, sin un orden. Si el proceso que efectuamos de quitar las divisiones

fuera reversible, las canicas tendrían que ordenarse espontáneamente en

azules, amarillas y rojas, según el orden de las divisiones. Esto no ocurrirá.

El proceso que efectuamos con nuestra caja de canicas fue un proceso no

reversible, en donde una vez terminado, el orden que había en las

condiciones iniciales del sistema ya nunca volverá a establecerse. El estudio

de este tipo de procesos es importante porque en la naturaleza todos los

procesos son irreversibles.

 La entropía y la energía "gastada".

A diferencia de la energía, la entropía no se conserva, a pesar de ser también

una función de estado. En Mecánica se suele designar sistema conservativo

aquél en el cual la cantidad de trabajo necesaria para desplazar un cuerpo

de una posición a otra es independiente del camino. La analogía con la

Mecánica puede llevar a pensar que todas las funciones de estado se

conservan, cosa que no es cierta. Que la energía interna sea una función de

estado que se conserva, mientras que la entropía no se conserva, nos enseña

16
que la analogía entre sistemas mecánicos y sistemas termodinámicos no es

completa. Ya dijimos antes que para apreciar mejor los alcances de dicha

analogía hace falta recurrir a los métodos de la Mecánica Estadística.

2.5. ¿Para qué sirve la entropía?

La entropía, como medida del grado de restricción o como medida del

desorden de un sistema, o bien en ingeniería, como concepto auxiliar en

los problemas del rendimiento energético de las máquinas, es una de las

variables termodinámicas más importantes. Su relación con la teoría del caos

le abre un nuevo campo de estudio e investigación a este tan "manoseado"

concepto.

17
CONCLUSIONES

 La entropía es un concepto fundamental que se da en cualquier

organismo o sistema termodinámicos. De todas las propiedades

termodinámicas la entropía es la más importante ya que determina uno

de los procesos termodinámicos más importantes, ya que es punto de

partida para el diseño de dispositivos que manejan procesos

termodinámicos como las maquinas térmicas partiendo de la eficiencia

de una maquina ideal y acercando estos diseños al deber ser de un

equipo térmico. La entropía tiene una particularidad que es que se

genera por las irreversibilidades como la fricción y la expansión

irrestricta como también la transferencia de calor al entorno, pero

digamos más bien que la entropía es simplemente el aumento o

disminución de energía en un proceso irreversible que son tan

cotidianos en la vida diaria.

18
REFERENCIAS BIBLIOGRÁFICAS

 Serway, R. y Beitchner, R. (2002). Física para ciencias e ingeniería: Tomo I.

(4a. ed.). México: Mc Graw-Hill.

 Hugh, Y. y Freedman, R. (2010). Física universitaria volumen 1 (12a. ed.).

México: PEARSON EDUCACIÓN.

 Física, Fluidos y Termodinámica (s.f.). Recuperado el 09 de diciembre del

2017 de https://athanieto.wordpress.com/tematicas/tercer-principio-de-la-

termodinamica/entropia/

 José Martin Casado Márquez. Física I para Estudiantes de Ciencias e

Ingeniería. Editorial Universitaria de la Universidad Nacional de Ingeniería

(EDUNI), Lima, Perú, 2008

19

You might also like