Na termodinâmica, o sentido de “desordem” é bem mais amplo e rico do que o de “desarrumação”. A entropia (S) é uma medida da desordem de um sistema. Entropia baixa quer dizer pouca desordem e entropia alta quer dizer muita desordem. A entropia de um sistema isolado aumenta no decorrer de mudanças espontâneas.
De acordo com a Segunda Lei da Termodinâmica, a direção natural do universo é ir da ordem para a desordem, da menor para a maior entropia.
Para medir quantitativamente a entropia e predizer com precisão a desordem de um sistema onde ocorre uma transformação isotérmica, podemos relacionar a variação de entropia (ΔS) com a quantidade de calor (Q) que o sistema troca e a temperatura do sistema durante a transformação reversível, através da seguinte expressão:
$$ΔS= {Q \over T}.$$
O calor é medido em Joules (J) e a temperatura em Kelvin (K). Logo, a unidade de medida da variação de entropia é Joules por Kelvin (J/K).
A partir da fórmula acima, pode-se concluir que ΔS é diretamente proporcional a Q e que, para uma determinada transferência de energia, espera-se maior variação na desordem a baixas temperaturas. Em outras palavras, a energia que entra no sistema afeta mais visivelmente as moléculas de um sistema frio, que apresentam pouco movimento térmico.
A entropia é uma função de estado. Isso significa que a variação de entropia de um sistema independe do caminho entre os estados inicial e final. Isso permite que calculemos a variação de entropia entre dois estados ligados por um caminho irreversível utilizando o caminho reversível entre esses mesmos dois estados.