La entropía es un concepto importante en física y química, además se puede aplicar a otras disciplinas, incluidas la cosmología y la economía. En física, es parte de la termodinámica. En química, es un concepto central en química física.
La entropía es la medida del desorden de un sistema. Es una propiedad extensa de un sistema termodinámico, lo que significa que su valor cambia dependiendo de la cantidad de materia presente. En las ecuaciones, la entropía generalmente se denota con la letra S y tiene unidades de julios por kelvin (J⋅K−1) o kg⋅m2⋅s−2⋅K−1. Un sistema altamente ordenado tiene baja entropía.
Existen múltiples formas de calcular la entropía, pero las dos ecuaciones más comunes son para procesos termodinámicos reversibles y procesos isotérmicos (temperatura constante).
Entropía de un proceso reversible
Se hacen ciertas suposiciones al calcular la entropía de un proceso reversible. Probablemente, la suposición más importante es que cada configuración dentro del proceso es igualmente probable (que en realidad no lo es). Dada la misma probabilidad de resultados, la entropía es igual a la constante de Boltzmann (ksi) multiplicado por el logaritmo natural del número de estados posibles (W):
S = ksi En W
La constante de Boltzmann es 1.38065 × 10−23 J / K.
Entropía de un proceso isotérmico
El cálculo puede usarse para encontrar la integral de dQ/ /T del estado inicial al estado final, donde Q es calor y T es la temperatura absoluta (Kelvin) de un sistema.
Otra forma de decir esto es que el cambio en la entropía (ΔS) es igual al cambio de calor (ΔQ) dividido por la temperatura absoluta (T):
ΔS = ΔQ / / T
Entropía y Energía Interna
En química física y termodinámica, una de las ecuaciones más útiles relaciona la entropía con la energía interna (U) de un sistema:
dU = T dS - p dV
Aquí, el cambio en la energía interna dU es igual a la temperatura absoluta T multiplicado por el cambio en la entropía menos la presión externa pag y el cambio de volumen V.