Author Avatar

Yordan Arango

Hace algún tiempo comencé a leer el libro "En defensa de la Ilustración: Por la Razón, la ciencia, el humanismo y el progreso", de Steven Pinker. Es una defensa basada en datos de la Ilustración y sus ideales (razón, ciencia, humanismo y progreso), enseñando todos los beneficios que nos están proporcionando. Realmente disfruté el libro hasta que el autor introdujo un capítulo en el que expresó su optimismo sobre el dilema ambiental que enfrentamos como humanidad. Según su argumento, la ciencia debería ser la solución, algo con lo que estoy de acuerdo. Sin embargo, creo que la ciencia no es una panacea, contrario a la opinión del autor. Respecto al cambio climático, el Acuerdo de París estableció en 2015 que necesitábamos reducir las emisiones en aproximadamente un 50% para 2030, y así mantenernos por debajo de los 1.5°C. Sugerencias similares ya se habían advertido por la ciencia décadas antes del Acuerdo de París de 2015. Hoy, en pleno 2024, estamos alcanzando el umbral de 1.5°C, seis años antes del plazo en que se suponía debíamos haber reducido nuestras emisiones a la mitad, porque esa ciencia no fue escuchada. ¡No! La ciencia hizo lo que se suponía debía hacer. Ahora es tiempo de tomar decisiones, y serán decisiones difíciles. Es tiempo de la política.

Decidí no continuar leyendo el libro de Pinker, porque ese es mi carácter. Esperaba que un escritor tan reputado tuviera un papel más comprometido en un dilema de proporciones apocalípticas como este. Sin embargo, decidió soslayar su responsabilidad ética, algo bastante común en nuestros líderes actuales. Y lo peor de todo es que decidió tomar tal posición ya que deacuerdo a su argumentación, "...nuestros estándares de vida (el de la humanidad) lo justifican". Realmente decepcionante y espero que ustedes entiendan por qué. Pero este post no se trata sobre la postura de Pinker respecto a este dilema, sino sobre un capítulo de su libro que disfruté mucho y a partir del cual hice consciente muchas cosas. Entre ellas, la entropía, o porqué todo puede salir mal.

A pesar de odiar la posición de Pinker sobre el cambio climático, debo ser honesto y aceptar que su capítulo sobre la entropía me introdujo a una nueva forma de entender muchas cosas a mi alrededor. Soy alguien que ama las nuevas maneras de ver nuestra realidad (por supuesto, cosas con sentido; lo cuál no incluye la astrología, la homeopatía, o ese tipo de mitos). Probablemente por eso me encantan las metáforas, las alegorías, los proverbios, los dichos y las parábolas. Sé que han oído hablar de la entropía, y es posible que incluso conozcan una de sus muchas definiciones. Una de las más conocidas dice que la entropía es una medida del desorden: cuanto más desorden, más entropía. De hecho, hay muchas definiciones de entropía, algunas desde la mecánica estadística, otras de la termodinámica, y otras de la teoría de la información. Este post es solo una reflexión, no sobre las definiciones de entropía, sino sobre sus implicaciones en diferentes temas. Es una manera de discutir algo que, más adelante, voy a llamar una lógica entrópica.

El mono en su máquina de escribir, y la intuición detrás de la entropía

Uno de los motivos por los que me involucré profundamente con la explicación de la entropía de Pinker fue que era una abstracción intuitiva y sencilla. Utilizaré el mismo ejemplo para capturar la intuición detrás de la entropía. Imagina que un mono frente a una máquina de escribir empieza a teclear. ¿Qué esperarías de ese experimento? ¿Esperarías un poema? ¿O un diario? ¿O al menos un recuento de cuántos piojos ha comido en la última semana? Todos sabemos que lo que el mono está escribiendo son solo letras al azar: caos, desorden, nada informativo, nada importante para leer; es decir, algo realmente entrópico.

El resultado anterior destaca una de las ideas fundamentales de la entropía: este tiende a aumentar. Por simplicidad, supongamos que al mono se le permite elegir al azar solo 40 letras y que el experimento se realiza miles de millones de veces (solo supongamos que es posible); ciertamente, se puede escribir una frase con significado con 40 letras. Pero todos estamos de acuerdo en que, a pesar de que algunas frases con sentido pueden formarse por casualidad, la gran mayoría de los miles de millones de intentos no dirá absolutamente nada. Esta analogía muestra por qué la entropía tiende a aumentar. No es porque exista alguna ley divina que diga que todo tiene que estar desordenado. Es simplemente estadística. Solo hay más posibilidades de desorden. Dado un número relativamente grande de frases de 40 caracteres sin sentido (en relación con las que tienen sentido), es muy probable que, si se selecciona una frase al azar, sea una sin significado. Pero incluso en un caso muy raro, supongamos que el mono escribe una frase que tiene sentido. Esperaríamos que la siguiente frase sea una sin sentido, lo que estaría de acuerdo con la propiedad del aumento de la entropía.

El concepto de entropía fue acuñado por el físico prusiano Rudolf Clausius. Su conceptualización de la entropía estaba incrustada en la termodinámica, una disciplina de la física que estudia fenómenos relacionados con la materia, el calor, la energía, las transiciones de fase, entre otros. Su trabajo es más recordado por el establecimiento de la segunda y la tercer leyes de la termodinámica, de las cuales ya conocemos la segunda: la entropía tiende a aumentar. Sin embargo, este importante axioma no explicaba el porqué, ya que solo enunciaba un hecho macroscópico. Más específicamente, era una consecuencia directa de la observación empírica de cómo se transfiere el calor de un cuerpo más caliente a uno más frío.

Pero el principio era el mismo. Les muestro. Algunos años después de que Clausius enunciara su famosa segunda ley de la termodinámica, en la década de 1860, el físico Ludwig Boltzmann desarrolló el trabajo previo en un área de la física que más tarde se llamaría mecánica estadística. Introdujo el teorema H, que explicóaba el razonamiento detrás del concepto de entropía de Clausius. ¿Y adivina qué? "Un mono escribiendo a máquina". Quiero decir, el principio era el mismo que el de la parábola del mono. En resumen, explicó que la entropía en un gas tiende a aumentar porque la gran mayoría de las configuraciones posibles que las moléculas de gas pueden adoptar son caóticas. Así, si el gas no es perturbado por un agente externo, la probabilidad de que el gas adopte una estructura organizada, por ejemplo, con los hidrógenos separados de los nitrógenos, es muy baja; o lo que es lo mismo: el gas probablemente tendrá un estado desordenado y con alta entropía.

Image taken from hydrogen.wsu.edu
Tumba de Boltzmann. Note el epitafio en la lápida: \(S = k \cdot log(W)\). Establece la entropía, \(S\), como función de todos los microestados, \(W\), que un gas puede adquirir. Foto tomada de hydrogen.wsu.edu.

Entropía e Información

Hablar de entropía es como hablar de estadística básica y probabilidades. Tiene sentido el nombre del nuevo campo de estudio que fundó Boltzmann (mecánica estadística). La naturaleza probabilística detrás del concepto de entropía lo hace fácilmente extrapolable a otros campos, incluso fuera de la física. La Teoría de la Información es una de esas áreas, en el campo de las matemáticas, donde la entropía está altamente relacionada con la información, y trata de resolver cuestiones sobre la redundancia de la información, el almacenamiento de información, las comunicaciones, etc.

Estas palabras están estrechamente relacionadas. Imagina que tu vecino se acerca a ti durante un apacible domingo mientras estás leyendo un buen libro de ciencia ficción en el balcón. Te habla sobre su semana y su trabajo rutinario, y se queja de su tirano jefe. Eres un vecino muy amable y, naturalmente, escuchas lo que está diciendo. Sin embargo, piensas: ¡aburrido! Lo mismo que la semana anterior; nada de información nueva. Tu vecino es un economista que trabaja en el banco central de tu país. En algún momento, cambia de tema y comienza a hablar sobre algunas proyecciones que el banco ha hecho en la industria de la construcción para los próximos dos años. Le pides a tu vecino que repita los números. Luego, rápidamente haces algunas proyecciones con esos números para tu empresa de arquitectura: ¡Eureka! Si esos números, proporcionados por tu vecino, son precisos, con suerte podrían hacer crecer a tu empresa de formas que nunca esperaste.

¿Cuál era la probabilidad de que alguien viniera a ti con ese tipo de comentarios sobre la economía? Al menos, podemos estar de acuerdo en que era mucho más probable que fuera un comentario sobre el aburrido trabajo de tu vecino. Al final del día, lo hacía todos los domingos mientras tú te relajabas en el balcón. ¿Ves? Estamos hablando de nuevo sobre probabilidades. El primer comentario sobre el trabajo de tu vecino era ciertamente esperado, muy probable; pero no era informativo, nada nuevo. En cambio, el segundo comentario sobre la economía fue más sorprendente y tal vez, por eso, más interesante, más informativo.

Sorpresa. Información. Incertidumbre. Lo que espero que quede claro aquí es que, cuanto menos entrópico es un evento, más raro es y más información aporta cuando aparece; o viceversa. Dado el paralelismo entre orden y organización, y la entropía, también podemos decir: cuanto más organizado (poco entrópico) es un evento, más información proporciona. ¿Has visto esas escenas en películas donde un agente está investigando un homicidio, y la escena del crimen está demasiado desordenada? Bueno, esa escena del crimen es un evento de alta entropía, y no proporciona mucha información sobre el asesino. Sin embargo, una vez que el investigador organiza todas las pistas, nueva y valiosa información surgirá para resolver el caso. Eso ilustra una lógica entrópica de pensar sobre los problemas del mundo.

De hecho, la vida puede pensarse como uno de esos eventos de baja entropía con mucha información inherente. Piénsalo un momento. La humanidad ha gastado quizás décadas y miles de millones de dólares en satélites, investigaciones y misiones espaciales tratando de encontrar vida fuera de la Tierra. Y lo que hemos obtenido son teorías de conspiración y algunas series de televisión y películas que explotan nuestra curiosidad por hechos de baja entropía y alta información, como Hombres de negro y Los expedientes secretos X. Aunque algunos cálculos en astrobiología dicen que hay altas probabilidades de que exista vida en otros planetas, además de la Tierra, también es cierto que es un evento raro en todo el vasto conjunto de hechos del universo. ¿Alguna vez te has preguntado por qué? Sí, sabemos que es por la entropía. Pero, como en las teorías de Boltzmann en la mecánica estadística, la tendencia a una mayor entropía en el universo es solo un síntoma general de la aleatoriedad del movimiento atómico en el espacio. Sé honesto. ¿Era de esperarse que algunos átomos se unieran para formar la primera cadena de ADN, para luego dar forma a la primera célula arquea? Definitivamente no. Dado todas las configuraciones posibles de átomos en el universo, fue bastante difícil que uno de ellos diera origen a la vida en la Tierra.

Image taken from phdcomics.com
Analogía de la entropía como el nivel de desorden del escritorio de un estudiante de doctorado. Foto tomada de phdcomics.com

Edificios, tecnología, conocimiento, filosofía, ciencia, vida, democracia, artes... Todos ellos son entidades organizadas con mucha información en su base. ¿No lo crees? Solo piensa que ninguno de ellos ha sido creado por casualidad. Hay algo más. Volvamos al ejemplo de la vida tratando de encontrar vida. Imagina que aterrizamos en un planeta a varios años luz de la Tierra. No encontramos nada más que agua, lo que aumenta las posibilidades de vida, y algunos otros elementos metálicos. ¿Información? Nada relevante; lo mismo que en los otros mil planetas que hemos visitado. Pero en el \(1002^{vo}\) planeta que visitamos, encontramos algunas estructuras sobresaliendo del agua, con ciertas simetrías, algunos objetos volando en línea recta, tal vez algunas luces, y también algunos caracteres en pantallas grandes. Esas cosas no se han visto en los otros 1001 planetas y no están ahí por casualidad; ese tipo de organización no es aleatorio. Esa es nueva información, que probablemente nos está hablando de un nuevo tipo de vida. Definitivamente, averiguaríamos los detalles sobre la gestión de energía de esta civilización, las fuentes de energía, el significado de sus símbolos, su nueva tecnología y su historia. Pero eso solo sería posible gracias a la información contenida en la organización que representan todos sus avances.

Vida: un error en la matrix?

Por qué si la vida es tan poco probable, fue capáz de abrirse paso, incluso en contra de la segunda ley de la termodinámica? Es la pregunta que trataremos de abordar, que no responder, en la siguiente entrada de este blog... Los espero!