La entropía se define como la medida cuantitativa del desorden o aleatoriedad en un sistema. El concepto proviene de la termodinámica, que se ocupa de la transferencia de energía térmica dentro de un sistema. En lugar de hablar sobre alguna forma de "entropía absoluta", los físicos generalmente discuten el cambio en la entropía que tiene lugar en un proceso termodinámico específico.
En un proceso isotérmico, el cambio en la entropía (delta-S) es el cambio de calor (Q) dividido por la temperatura absoluta (T):
delta-S = Q/ /T
En cualquier proceso termodinámico reversible, puede representarse en cálculo como la integral desde el estado inicial de un proceso hasta su estado final de dQ/ /T. En un sentido más general, la entropía es una medida de probabilidad y el desorden molecular de un sistema macroscópico. En un sistema que puede ser descrito por variables, esas variables pueden asumir un cierto número de configuraciones. Si cada configuración es igualmente probable, entonces la entropía es el logaritmo natural del número de configuraciones, multiplicado por la constante de Boltzmann:
S = ksi En W
donde S es entropía, ksi es la constante de Boltzmann, ln es el logaritmo natural y W representa el número de estados posibles. La constante de Boltzmann es igual a 1.38065 × 10−23 J / K.
La entropía se considera una propiedad extensa de la materia que se expresa en términos de energía dividida por la temperatura. Las unidades SI de entropía son J / K (julios / grados Kelvin).
Una forma de establecer la segunda ley de la termodinámica es la siguiente: en cualquier sistema cerrado, la entropía del sistema permanecerá constante o aumentará.
Puede ver esto de la siguiente manera: agregar calor a un sistema hace que las moléculas y los átomos se aceleren. Puede ser posible (aunque complicado) revertir el proceso en un sistema cerrado sin extraer energía o liberar energía en otro lugar para alcanzar el estado inicial. Nunca puede obtener todo el sistema "menos enérgico" que cuando comenzó. La energía no tiene a dónde ir. Para procesos irreversibles, la entropía combinada del sistema y su entorno siempre aumenta.
Este punto de vista de la segunda ley de la termodinámica es muy popular y se ha utilizado de manera incorrecta. Algunos sostienen que la segunda ley de la termodinámica significa que un sistema nunca puede ser más ordenado. Esto no es cierto. Simplemente significa que para ser más ordenado (para que disminuya la entropía), debe transferir energía desde algún lugar fuera del sistema, como cuando una mujer embarazada extrae energía de los alimentos para hacer que el óvulo fertilizado se forme en un bebé. Esto está completamente en línea con las disposiciones de la segunda ley..
La entropía también se conoce como desorden, caos y aleatoriedad, aunque los tres sinónimos son imprecisos.
Un término relacionado es "entropía absoluta", que se denota por S más bien que ΔS. La entropía absoluta se define de acuerdo con la tercera ley de la termodinámica. Aquí se aplica una constante que hace que la entropía en cero absoluto se defina como cero.