Entropía
La entropía es una medida de desorden
Entras en una habitación y ves una mesa con monedas.
Se das cuenta de que todas muestran Cara:
CCCCCC
"Vaya, eso parece poco probable", piensas. Pero agradable y ordenado, ¿verdad?
Mueves la mesa y la vibración hace que una moneda se convierta en Sol (S):
CCCCSC
"¿Eh, me pregunto si puedo hacer que se mueva hacia atrás de nuevo?", Así que mueves la mesa un poco más y obtienes esto:
CSSCSC
Hmmm ... más desordenado. Cambias la mesa un poco más y aún obtienes caras y soles al azar.
Al principio eran muy ordenados, pero ahora están desordenados una y otra vez.
Podemos ver que son desordenados, pero ¿podemos llegar a una medida de cuán desordenados son?
Primero, ¿en cuántos estados posibles pueden estar?
- 1 moneda puede tener 2 estados: {C, S}
- 2 monedas pueden tener 4 estados: {CC, CS, SC, SS}
- 3 monedas pueden tener 8 estados: {CCC, CCS, CSC, CSS, SCC, SCS, SSC, SSS}
Se duplican cada vez, por lo que 6 monedas pueden tener 26 = 64 estados
Cada estado tiene exactamente la misma oportunidad, pero vamos a agruparlos de acuerdo al número de soles:
Soles | Estados | Cuántos estados |
---|---|---|
0 | CCCCCC | 1 |
1 | CCCCCS CCCCSC CCCSCC CCSCCC CSCCCC SCCCCC | 6 |
2 | CCCCSS CCCSCS CCCSSC CCSCCS CCSCSC CCSSCC CSCCCS CSCCSC CSCSCC CSSCCC SCCCCS SCCCSC SCCSCC SCSCCC SSCCCC | 15 |
3 | CCCSSS CCSCSS CCSSCS CCSSSC CSCCSS CSCSCS CSCSSC CSSCCS CSSCSC CSSSCC SCCCSS SCCSCS SCCSSC SCSCCS SCSCSC SCSSCC SSCCCS SSCCSC SSCSCC SSSCCC | 20 |
4 | CCSSSS CSCSSS CSSCSS CSSSCS CSSSSC SCCSSS SCSCSS SCSSCS SCSSSC SSCCSS SSCSCS SSCSSC SSSCCS SSSCSC SSSSCC | 15 |
5 | CSSSSS SCSSSS SSCSSS SSSCSS SSSSCS SSSSSC | 6 |
6 | SSSSSS | 1 |
Solo 1 de las 64 posibilidades es CCCCCC.
Es mucho más probable una combinación de C y S
Los recuentos (1, 6, 15, 20, 15, 6, 1) dan una idea aproximada del desorden, ¡pero podemos hacerlo mejor!
Resulta que un logaritmo del número de estados es perfecto para el desorden.
Aquí usamos el logaritmo natural "ln" con 2 decimales:
Soles | Estados | ln(Estados) |
---|---|---|
0 | 1 |
0 |
1 | 6 |
1.79 |
2 | 15 |
2.71 |
3 | 20 |
3.00 |
4 | 15 |
2.71 |
5 | 6 |
1.79 |
6 | 1 |
0 |
¡Y eso es Entropía! Agregamos una "k" constante y obtenemos:
Entropía = k ln(Estados)
Juega con esto aquí. Cada vez que se elige un lugar al azar para voltearlo. ¿Hay líneas más comunes? ¿Hay totales más comunes?
Este concepto ayuda a explicar muchas cosas en el mundo: mezcla de leche en el café, movimiento de calor, contaminación, dispersión de gases y más.
En el mundo real hay muchas más partículas y cada partícula puede tener más de dos estados, pero se aplica la misma idea.
Gas
Aquí hay un globo de gas en una caja de plástico:
Las moléculas de gas rebotan dentro del globo en diferentes direcciones a diferentes velocidades.
Hay muchos estados diferentes en los que puede estar el gas.
Por "muchos" nos referimos a un número muy, muy grande.
El globo estalla y el gas se esparce dentro de la caja.
Ahora hay muchos más estados posibles:
- algunos de esos estados tienen el gas de regreso a la forma del globo nuevamente (¡no es probable!)
- otros estados pueden formar la palabra "HI" (¡no es probable!)
- pero la mayoría de los nuevos estados estarán bien distribuidos en el espacio disponible.
Así que los nuevos estados incluyen a los antiguos y muchos más.
El valor de ln (Estados) ahora es mayor, por lo que la entropía ha aumentado .
Como regla general, la entropía aumenta.
Pero seamos claros aquí:
Cualquier estado individual (imagina que detuviéramos el tiempo) es tan probable como cualquier otro estado.
Pero la entropía se trata de un grupo o clase de estados.
- "Todos los estados dentro del globo"
- "Todos los estados dentro del cuadro completo"
Similar al ejemplo al principio:
- "Solo 1 cara"
- "2 caras"
- "3 caras"
- etc...
En forma de imagen:
1 estado |
1 estado |
|
Cualquier estado individual es igualmente probable |
Muchos estados |
Muchos muchos estados |
|
Pero los grupos pueden tener un número muy diferente de estados. |
Los grupos se denominan "macroestados" y, debido a que pueden contener diferentes números de microestados, no son igualmente probables.
Aumenta la entropía
Con solo 6 monedas, vimos que la entropía aumentaba naturalmente, pero con alguna posibilidad de obtener una entropía más baja (CCCCCC tiene una probabilidad de 1/64)Ahora imagina 100 monedas: la probabilidad de que salgan todas las caras es menos de 0.000 000 000 000 000 000 000 000 000 001, lo que sería extraño.
Ahora imagina una gota de agua con más de 5 x 1021 átomos (y un átomo es más complejo que cara o sol). La posibilidad de obtener aleatoriamente una entropía reducida es tan ridículamente pequeña que solo decimos que la entropía aumenta.
Y esta es la idea principal detrás de la Segunda Ley de la Termodinámica.
Disminuye la entropía
Ah, pero nosotros podemos disminuir la entropía en una región, pero a costa de aumentar la entropía en otro lugar.
Ejemplos:
- Una fábrica que hace pilas de papel ordenado. El papel está ordenado pero la fábrica crea mucho desorden para hacerlos.
- Un edificio nuevo está limpio y ordenado, pero al hacerlo creó mucho desorden (canteras, aserraderos, producción de acero, electricidad, combustible, etc.)
Física
La entropía se comporta de forma predecible.
En Física, la definición básica es:
S = kB log(Ω)
Donde:
- S es entropía
- kB es la constante de Boltzmann
- Ω es el número de "microestados"
Otra fórmula importante es:
ΔS = QS
Dónde:
- ΔS es el cambio en la entropía
- Q es el flujo de energía térmica dentro o fuera del sistema
- T es la temperatura
Pero hay más detalles más allá de esta página introductoria.
Nota al pie: Bases de logaritmos
Usamos el logaritmo natural porque nos encanta. Otras personas prefieren logaritmos en base 2 o base 10. Cualquier base está bien porque podemos convertir entre ellas usando constantes como ln (2) o ln (10) así:
- log2(15) = ln(15)/ln(2)
- log10(15) = ln(15)/ln(10)