sábado, 1 de septiembre de 2012

Entropía

La "entropía" es uno de los conceptos más difíciles de la física y de la química. Es un concepto matemático muy complejo, pero en este tema voy a explicarlo de manera simplificada.

Pero antes de explicar qué es la entropía, es necesario aclarar que este concepto sólo se puede referir a un conjunto de cosas, no a una cosa individual. Por ejemplo, se puede hablar de la entropía de un conglomerado de partículas, pero no es posible hablar de la entropía de una sola partícula; se puede hablar de la entropía de un conjunto de insectos, pero no de la entropía de un solo insecto; se puede hablar de la entropía de una baraja, pero no de la entropía de una sola carta, etc. En la física y la química, a un conjunto de cosas que se toman como objeto de estudio se le denomina “sistema”. En adelante, cuando use el término “sistema” me estaré refiriendo a un conjunto de cosas.

En lugar de dar una definición de entropía, prefiero explicar a continuación este concepto desde diversos enfoques, todos relacionados entre sí.

Orden-desorden

La entropía está relacionada con el desorden de un sistema. A mayor desorden, mayor entropía. A mayor orden, menor entropía. Por ejemplo, una lista de nombres escritos al azar tiene más entropía que una lista de nombres ordenados alfabéticamente. Las piezas sueltas de un rompecabezas tienen más entropía que el rompecabezas armado. Las partículas que forman un gas (que se mueven rápidamente al azar en todas direcciones) tienen más entropía que las partículas que forman un sólido (que están fijas formando una estructura regular).

Probable-improbable

La entropía está relacionada con la probabilidad de que un sistema adquiera una configuración determinada. Las configuraciones de mayor entropía son las más probables. Las configuraciones de menor entropía son las menos probables. Por ejemplo, si arrojamos granos de arroz al suelo, es mucho más probable que caigan en desorden (mayor entropía) a que caigan formando figuras geométricas regulares (menor entropía). Cuando jugamos póker es más probable que nos toquen cartas diversas (mayor entropía) a que nos toquen todos los ases (menor entropía). Cuando se expele el humo de un cigarrillo (conjunto de partículas) es más probable que se disperse irregularmente por el aire (mayor entropía) a que se concentre en un espacio determinado formando una esfera (menor entropía). Lo más probable es siempre lo más desordenado, es decir, la entropía mayor.

Complejo-rudimentario

La entropía está relacionada con la complejidad de un sistema. Los sistemas más complejos (organizados) tienen menor entropía. Los sistemas más rudimentarios (burdos, toscos) tienen mayor entropía. Por ejemplo, si acomodamos las cartas de una baraja formando un castillo (complejo), este sistema tiene menor entropía que las mismas cartas desparramadas en el piso (burdo). Un organismo vivo (conjunto de células) es mucho más complejo que un objeto sin vida, una roca por ejemplo (conjunto de partículas); por lo tanto, un ser vivo (complejo) tiene menor entropía que cualquier objeto inerte (tosco). El conjunto de componentes de una computadora moderna (compleja) tiene menor entropía que el conjunto de componentes de las primeras computadoras construidas en el siglo pasado (rudimentarias).

Diferenciación-uniformidad

La entropía está relacionada con la diferenciación dentro de un sistema. A mayor diferenciación, menor entropía. A mayor uniformidad, mayor entropía. Por ejemplo, un reloj electrónico tiene menor entropía que un reloj de arena, ya que el reloj electrónico está formado por muchas piezas diferenciadas, en tanto que el reloj de arena tiene una constitución interna mucho más simple, más uniforme. Un conjunto de archivos de texto separados (diferenciados) en carpetas por temas, tiene menor entropía que los mismos archivos mezclados sin carpetas. Una célula de un ser vivo, constituida por numerosos organelos especializados (diferenciados), tiene menor entropía que un grano de sal, formado por partículas similares en una estructura homogénea.

Certeza-incertidumbre

La entropía está relacionada con la incertidumbre de nuestro conocimiento de un sistema. A mayor entropía, mayor incertidumbre. A menor entropía, mayor certeza. Por ejemplo, si tenemos una baraja ordenada (menor entropía) sabremos con seguridad cuál carta va a salir enseguida. En cambio, si la baraja está desordenada (mayor entropía), no podemos estar seguros de cuál carta va a salir en cada turno. Si tenemos un archivero con facturas ordenadas por fechas (menor entropía) podremos encontrar una factura determinada con mayor certeza que en un archivero en desorden (mayor entropía). Se puede predecir con mayor seguridad el movimiento de un grupo de soldados en un desfile militar (menor entropía) que el movimiento de una turba violenta en una manifestación callejera (mayor entropía).

Restricciones-anarquía

La entropía está relacionada con las restricciones que se imponen a un sistema. A mayor número de restricciones, menor entropía. A mayor anarquía, mayor entropía. Por ejemplo, cuando se restringe la posición de un conjunto de libros acomodándolos en los anaqueles de un librero, tienen menor entropía que si los dejamos desparramados en una mesa, sin restricciones. Un conjunto de prendas ordenadas en diferentes compartimentos de un ropero (restringidas) tienen menor entropía que las prendas revueltas en un solo cajón (sin restricciones). Un gas (conjunto de partículas) encerrado en un recipiente de paredes rígidas (restringido) tiene menor entropía que un gas libre (no restringido).

Desarrollo-degradación

La entropía está relacionada con el desarrollo de un sistema. A mayor desarrollo, menor entropía. A mayor degradación, mayor entropía. Por ejemplo, un niño (conjunto de células) en pleno crecimiento, tiene menor entropía que un ancianito (conjunto de células) que está en decadencia. Un automóvil nuevo (conjunto de piezas electromecánicas) tiene menor entropía que un automóvil viejo. Un castillo de arena (conjunto de granos) recién construido, tiene menor entropía que el mismo castillo de arena derruido por las olas del mar.

Espontaneidad-esfuerzo

La entropía está relacionada con el esfuerzo necesario para dar a un sistema una configuración determinada. Las configuraciones de menor entropía requieren mayor esfuerzo. Las configuraciones de mayor entropía ocurren espontáneamente (sin esfuerzo). Por ejemplo, para ordenar los objetos de una habitación (menor entropía) se requiere esfuerzo; las cosas no se ordenan espontáneamente. Para crear y armar un aparato complejo, un automóvil, un teléfono, una computadora, etc. (menor entropía) se requiere esfuerzo; los aparatos no se arman espontáneamente. Para que un niño se desarrolle (menor entropía) se requiere esfuerzo, para aportarle nutrientes, calor, cuidados, etc., necesarios para su crecimiento.

Todos los sistemas tienden espontáneamente a aumentar su entropía; a este hecho se le denomina “Segunda ley de la termodinámica”. Con esfuerzo se puede luchar temporalmente contra la entropía, pero al final la entropía siempre gana.

En conclusión, la entropía es desorden, rudimentariedad, uniformidad, incertidumbre, anarquía y degradación. La entropía es lo más probable y por lo tanto no requiere esfuerzo, es espontáneo. La entropía es el triste destino final de todos los sistemas, incluidos nosotros los humanos. Nuestra entropía final es la muerte.