Entropía

La entropía es una medida de desorden

Entras en una habitación y ves una mesa con monedas.

tabla con monedas

Se das cuenta de que todas muestran Cara:

CCCCCC

"Vaya, eso parece poco probable", piensas. Pero agradable y ordenado, ¿verdad?

Mueves la mesa y la vibración hace que una moneda se convierta en Sol (S):

CCCCSC

"¿Eh, me pregunto si puedo hacer que se mueva hacia atrás de nuevo?", Así que mueves la mesa un poco más y obtienes esto:

CSSCSC

Hmmm ... más desordenado. Cambias la mesa un poco más y aún obtienes caras y soles al azar.

Al principio eran muy ordenados, pero ahora están desordenados una y otra vez.

Podemos ver que son desordenados, pero ¿podemos llegar a una medida de cuán desordenados son?

Primero, ¿en cuántos estados posibles pueden estar?

Se duplican cada vez, por lo que 6 monedas pueden tener 26 = 64 estados

Cada estado tiene exactamente la misma oportunidad, pero vamos a agruparlos de acuerdo al número de soles:

Soles Estados Cuántos estados
0 CCCCCC 1
1 CCCCCS CCCCSC CCCSCC CCSCCC CSCCCC SCCCCC 6
2 CCCCSS CCCSCS CCCSSC CCSCCS CCSCSC CCSSCC CSCCCS CSCCSC CSCSCC CSSCCC SCCCCS SCCCSC SCCSCC SCSCCC SSCCCC 15
3 CCCSSS CCSCSS CCSSCS CCSSSC CSCCSS CSCSCS CSCSSC CSSCCS CSSCSC CSSSCC SCCCSS SCCSCS SCCSSC SCSCCS SCSCSC SCSSCC SSCCCS SSCCSC SSCSCC SSSCCC 20
4 CCSSSS CSCSSS CSSCSS CSSSCS CSSSSC SCCSSS SCSCSS SCSSCS SCSSSC SSCCSS SSCSCS SSCSSC SSSCCS SSSCSC SSSSCC 15
5 CSSSSS SCSSSS SSCSSS SSSCSS SSSSCS SSSSSC 6
6 SSSSSS 1

Solo 1 de las 64 posibilidades es CCCCCC.

Es mucho más probable una combinación de C y S

Los recuentos (1, 6, 15, 20, 15, 6, 1) dan una idea aproximada del desorden, ¡pero podemos hacerlo mejor!

Resulta que un logaritmo del número de estados es perfecto para el desorden.

Aquí usamos el logaritmo natural "ln" con 2 decimales:

Soles Estados ln(Estados)
0 1
0
1 6
1.79
2 15
2.71
3 20
3.00
4 15
2.71
5 6
1.79
6 1
0

¡Y eso es Entropía! Agregamos una "k" constante y obtenemos:

Entropía = k ln(Estados)

Juega con esto aquí. Cada vez que se elige un lugar al azar para voltearlo. ¿Hay líneas más comunes? ¿Hay totales más comunes?

images/entropy.js

Este concepto ayuda a explicar muchas cosas en el mundo: mezcla de leche en el café, movimiento de calor, contaminación, dispersión de gases y más.

En el mundo real hay muchas más partículas y cada partícula puede tener más de dos estados, pero se aplica la misma idea.

Gas

Aquí hay un globo de gas en una caja de plástico:

gas en un globo dentro de una caja

Las moléculas de gas rebotan dentro del globo en diferentes direcciones a diferentes velocidades.

Hay muchos estados diferentes en los que puede estar el gas.

Por "muchos" nos referimos a un número muy, muy grande.

El globo estalla y el gas se esparce dentro de la caja.

gas dentro de un globo

Ahora hay muchos más estados posibles:

Así que los nuevos estados incluyen a los antiguos y muchos más.

El valor de ln (Estados) ahora es mayor, por lo que la entropía ha aumentado .

Como regla general, la entropía aumenta.

Pero seamos claros aquí:

Cualquier estado individual (imagina que detuviéramos el tiempo) es tan probable como cualquier otro estado.

Pero la entropía se trata de un grupo o clase de estados.

Similar al ejemplo al principio:

En forma de imagen:

gas en una caja
1 estado
    gas en una caja
1 estado
Cualquier estado individual es igualmente probable


gas en un globo
Muchos estados
    gas en una caja
  Muchos muchos estados
Pero los grupos pueden tener un número muy diferente de estados.
Cualquier estado individual se denomina "microestado". Todos son igualmente probables, sin importar lo raros que parezcan.

Los grupos se denominan "macroestados" y, debido a que pueden contener diferentes números de microestados, no son igualmente probables.

Aumenta la entropía

Con solo 6 monedas, vimos que la entropía aumentaba naturalmente, pero con alguna posibilidad de obtener una entropía más baja (CCCCCC tiene una probabilidad de 1/64)

Ahora imagina 100 monedas: la probabilidad de que salgan todas las caras es menos de 0.000 000 000 000 000 000 000 000 000 001, lo que sería extraño.

Ahora imagina una gota de agua con más de 5 x 1021 átomos (y un átomo es más complejo que cara o sol). La posibilidad de obtener aleatoriamente una entropía reducida es tan ridículamente pequeña que solo decimos que la entropía aumenta.

Y esta es la idea principal detrás de la Segunda Ley de la Termodinámica.

Disminuye la entropía

Ah, pero nosotros podemos disminuir la entropía en una región, pero a costa de aumentar la entropía en otro lugar.

Ejemplos:

Física

La entropía se comporta de forma predecible.

En Física, la definición básica es:

S = kB log(Ω)

Donde:

Otra fórmula importante es:

ΔS = QS

Dónde:

Pero hay más detalles más allá de esta página introductoria.


Nota al pie: Bases de logaritmos

Usamos el logaritmo natural porque nos encanta. Otras personas prefieren logaritmos en base 2 o base 10. Cualquier base está bien porque podemos convertir entre ellas usando constantes como ln (2) o ln (10) así: