¿Estamos solos en la galaxia?

C. Menor-Salván. Agosto 2023

*ver The Conversation para una versión divulgativa corta más actual.


«»A veces creo que hay vida en otros planetas, y a veces creo que no. En cualquiera de los dos casos la conclusión es asombrosa.»»

— Carl Sagan


Esta cuestión lleva resonando en nuestra mente colectiva desde que los humanos comenzaron a observar el Cosmos desde un punto de vista científico, sin invocar dioses ni mitos. Descubrir que no estamos solos en nuestra galaxia o en el Universo sería el mayor y más relevante hallazgo de la Historia humana. Pero, por el momento, solo podemos especular, con más o menos fundamento, acerca de ello.

Esta cuestión ha vuelto a ponerse de moda a raíz de la reciente declaración de unos ex-militares estadounidenses encabezados por el oficial de la USAF David Grusch, que aseguran que la fuerza aérea de los EEUU oculta en secreto naves extraterrestres y ‘restos biológicos no humanos’ (¿plantas? ¿animales? ¿alienígenas?). Para contextualizar, aquí me entrevistaron sobre ello.

No vamos a hacer una discusión académica sobre la posible vida extraterrestre y la paradoja de Fermi, sino tan sólo delimitar la cuestión (u organizar nuestra ignorancia), hacer algunas reflexiones sencillas al alcance de cualquier lector y dar mi opinión como astrobiólogo de estas ‘nuevas’ (veremos que de nuevas nada) declaraciones. En las referencias se encuentra la bibliografía que he usado y que permitirá al lector interesado profundizar en el tema.

En este artículo, vamos a seguir esta línea de razonamiento:

  • Acotando la terminología: ‘vida’ vs ‘vida inteligente’
  • La vida terrestre como modelo, el único que tenemos: cuando surge la vida y cuando surge la ‘vida inteligente’.
  • La vida puede ser común, pero la inteligencia no tiene por qué surgir siempre.
  • ¿cómo buscamos vida extraterrestre?: Sistema Solar y exoplanetas.
  • ¿cómo buscamos vida inteligente? escuchando señales. Una estrategia condenada al fracaso: la galaxia (no ya el universo) es muy vasta. Si están puede que no los escuchemos nunca ni ellos a nosotros.
  • La tecnología, ¿podrá resolverlo en el futuro o nos acercamos al final del desarrollo tecnológico?
  • ¿nos han visitado alienígenas?. ¿hay evidencias? ¿es posible una galaxia tipo ‘Star Trek’?
  • Conclusiones

A qué nos referimos cuando decimos ‘solos en el universo’

Cuando los científicos hablamos de vida extraterrestre no nos estamos refiriendo a ‘vida inteligente’ sino a cualquier forma de vida. Nos interesa descubrir cómo se origina la vida, cómo evoluciona en un planeta, si la vida se originó en otro lugar además de en la Tierra, o si hay lugares que reúnen las condiciones para que surja vida o que se encuentran en la fase de evolución química (lo llamamos ‘habitabilidad’). Todos ellos son parte de los objetivos de la ciencia de la Astrobiología.

Esquema general de la evolución de la vida terrestre y de las aproximaciones para entender su origen.

Si usamos nuestro planeta como referencia, calculamos que la vida se originó aquí hace unos 4200 millones de años. Se calcula que la vida pudo surgir en unos 40 a 120 millones de años desde que comenzó a ser habitable, lo cual es bastante rápido en términos geológicos. Probablemente, una vez dados los primeros pasos, el proceso debió ser muy rápido.

Durante siguientes 2500-3000 millones de años, la vida terrestre estuvo dominada por organismos unicelulares o pluricelulares muy simples (antecesores de las algas actuales). Los animales habitan la Tierra desde hace unos 500 a 600 millones de años. Es decir, los animales han ocupado el planeta durante el último 14% del tiempo desde que existe la vida en éste. Prácticamente somos unos recién llegados.

Durante los primeros 2000 millones de años de vida en la Tierra la situación era mas o menos así: cianobacterias. Si encontrásemos vida extraterrestre, lo más probable es que se parezca más a esto que a ET o Predator.

Dado que el concepto de inteligencia, como el de vida, es algo difuso, definiremos como ‘vida inteligente’ a aquella con la capacidad de observar el cosmos. ¿cuando surgió en la Tierra una forma de vida que comenzó a poner sus ojos en el firmamento y a andar el camino hacia su exploración?.

Si ponemos la Edad de Bronce como el inicio de las primeras observaciones astronómicas sistemáticas, digamos que tenemos vida inteligente en la Tierra capaz de observar el Cosmos durante el último 0.00000012% del tiempo de existencia de vida. Los científicos también hablan de vida inteligente con tecnología de comunicación, es decir, capaz de mandar señales fuera del planeta. Los humanos somos capaces de ello desde la invención de la radio, es decir, desde hace poco más de un siglo.

Cálculos recientes, basados en el análisis bayesiano de los datos de la vida que conocemos, sugieren que hay aproximadamente un 60% de probabilidades de que nunca surja vida inteligente en un planeta con vida. Es decir, la evolución de la vida no necesariamente va a conducir a que emerja vida inteligente. Si la vida es una consecuencia de la evolución del cosmos, no tenemos razones para pensar que la inteligencia también lo sea.

Con estos datos, es fácil asumir que, si encontramos evidencias de vida extraterrestre, seguramente serán de vida simple (unicelular o pluricelular) o, en general, vida no inteligente. Como es lógico, no necesariamente tiene que ser así, pues no conocemos cuánto tiempo puede tardar en emerger vida inteligente en un planeta; en la Tierra puede que haya tardado mucho, dada la cantidad de eventos de extinción que han ocurrido.

O bien, al contrario, puede que el impulso evolutivo que dan las crisis biológicas haya hecho que surja más pronto. No hay forma de saberlo aún. Pero, con lo que conocemos, no es descabellado asumir que, probablemente, la vida sea frecuente en la galaxia, pero que la vida inteligente sea bastante poco común o incluso única. De hecho, otros cálculos recientes sugieren que, en nuestra galaxia, podría haber entre 1 y 10 planetas con vida inteligente capaz de explorar el cosmos, incluyendo el nuestro.

Los últimos 500 millones de años de vida en la Tierra son los más animados desde el punto de vista biológico. La barra está a escala; obsérvese cuando surgen los humanos.

En este sentido, hay que aclarar que la ecuación de Drake (formulada a partir de una famosa pregunta de Fermi a sus estudiantes: ¿cuantos pianos hay en Chicago?) no pretende ser una estimación precisa, sino una aproximación mental y una delimitación de nuestra ignorancia. El propio Drake solía responder que el número de civilizaciones está «entre una y mil millones».

Entonces, ¿no tenemos evidencias de vida extraterrestre?

No, no tenemos ninguna evidencia. Buscamos evidencias de vida, es decir, biofirmas, de varias formas:

Huellas moleculares, geoquímicas o físicas. Estas pueden ser biomarcadores orgánicos o inorgánicos, es decir, compuestos químicos que estén ligados a la vida. Pueden ser huellas geoquímicas o geológicas, tales como determinados minerales o huellas isotópicas.

También pueden ser señales espectroscópicas o biofirmas basadas en fenómenos químico-físicos, tales como desequilibrios químicos, estructuras termodinámicas lejos del equilibrio.

O, simplemente, pueden ser indicios de habitabilidad tales como presencia de agua líquida o temperaturas en el rango de estabilidad de moléculas orgánicas

Buscamos todas estas biofirmas, bien de vida o bien de evolución química, e indicios de habitabilidad en otros lugares de nuestro Sistema Solar que pudieron ser habitables (Marte) y en los exoplanetas, planetas descubiertos en otros sistemas planetarios.

La búsqueda de biofirmas en exoplanetas aún es un campo en el que hay mucho que desarrollar y se basará fundamentalmente en la búsqueda de señales espectroscópicas que indiquen habitabilidad o vida y que nos permitan conocer la composición atmosférica en cierto detalle.

Los astrónomos están investigando exhaustivamente las estrellas que nos rodean, nuestro vecindario cósmico, buscando nuevos planetas. El catálogo de exoplanetas de la ESA y el catálogo de la NASA indican que, mientras escribo estas líneas, se han identificado nada menos que 5483 planetas en 4220 sistemas planetarios, todos en nuestra vecindad galáctica. Esta lista incluye planetas desde tamaños mucho mayores que Júpiter a tamaños similares e incluso menores a la Tierra. Algunos eran prometedores candidatos a ser planeta habitable.

Sin embargo, al profundizar en su observación, todavía no hemos encontrado ningún planeta que sea un serio candidato a reunir condiciones de habitabilidad o vida. En los planetas cuya temperatura han podido estimar los científicos, todos salvo uno son demasiado calientes para sostener vida orgánica. Y el único con temperatura moderada, es un gigante gaseoso mayor que Júpiter.

Scatter plot de los exoplanetas cuya temperatura ha podido determinarse hasta la fecha de hoy. La temperatura mas baja, 84K, se corresponde al planeta Qatar-3b, situado en el sistema Qatar-3, una estrella similar a nuestro Sol situada a más de 2300 años luz. El planeta es un enorme ‘Júpiter caliente’ y la estrella es demasiado joven (0.3 Ga), así que la vida está prácticamente descartada en ese sistema. Hemos ubicado el lugar donde estaría la Tierra en este gráfico y la región donde esperamos planetas con posible vida (circulo). Trappist-1b y 1c, a 40 años luz de la Tierra, fueron muy prometedores cuando se descubrieron; la medida de su temperatura da un valor medio de 503K, demasiado cálido para sostener vida orgánica, además de estar en bloqueo de marea y la proximidad a su estrella, lo que sugiere alta irradiación. Trappist-1b tiene una atmósfera densa rica en agua, lo que sugiere que en el pasado pudo tener océanos y ahora es demasiado caliente (efecto invernadero desbocado).

La mayor parte de los exoplanetas identificados son demasiado calientes, sometidos a intensa radiación, están en acoplamiento de marea o, en general, tienen características que descartan su habitabilidad; pero, la mayoría de los sistemas planetarios tienen edades comparables al nuestro y muchos tienen múltiples planetas. La presencia de planetas habitables (y no digamos habitados) no parece demasiado común, al menos de momento y en nuestro vecindario cósmico, pero no perdemos la esperanza y, posiblemente, con la mejora de la tecnología de observación tengamos sorpresas pronto.

El sistema Trappist-1, a tan sólo 41 años luz de nosotros, contiene 7 planetas, varios de ellos rocosos y de tamaños comparables a la Tierra. Su descubrimiento causó gran agitación: ¿se encontró un sistema planetario con posible vida?. Varios de sus planetas están en la región de habitabilidad. Sin embargo, su estudio detallado sugiere que ninguno de los planetas es habitable, aunque todavía no hay nada concluyente. Se ha sugerido que la estrella tiene una edad avanzada y que varios de sus planetas, como el 1b y 1c, pudieron ser habitables en el pasado. Actualmente, 1f podría ser un mundo helado similar a Europa o Encelado. No obstante, no hay nada cerrado y futuras observaciones pueden darnos sorpresas.

Pero, por el momento, no hay evidencias de vida extraterrestre y ni siquiera podemos confirmar que ninguno de los planetas observados sea habitable en el sentido astrobiológico. Ya podemos ir haciendo números con lo que sabemos: se han observado unos 1800 planetas rocosos (tipo terrestre o ‘supertierras); aunque hayan surgido sospechosos, no podemos confirmar que haya vida o condiciones de habitabilidad en ninguno de ellos.

Ello implica que, de momento, hay una probabilidad de un 99.94% de que un planeta rocoso tipo terrestre recién encontrado no tenga vida. Encontrar un planeta habitable es algo parecido a que te toque la lotería. La diferencia es que nuestra galaxia juega muchos números.

Pero, no sólo debemos tener en cuenta los planetas. Se han observado 849 planetas con masa mayor que la de júpiter. Estos planetas pueden tener lunas con posibilidades de habitabilidad, como, en nuestro sistema solar, es el caso de Europa o Encelado. Aún no hay capacidad tecnológica para observar las exolunas, aunque ya hay algún candidato a exoplaneta con sistema de lunas. Ello multiplica las posibilidades de que exista vida en nuestro entorno planetario.

Impresión de cómo podría ser la exoluna Kepler-1625b-i, que orbita el planeta Kepler-1625b, un ‘superjúpiter’ de aproximadamente el tamaño de nuestro júpiter pero mucho más denso. Confirmar la existencia de exolunas es muy difícil por el momento.

Por ello, debemos seguir investigando, pues queda mucho espacio por observar y aún tienen que mejorar mucho las observaciones. Puede que en un futuro próximo alguno de los observados, o uno nuevo, pueda confirmarse adecuado para el origen o presencia de la vida.

Mapa en 3D de los sistemas con planetas de tipo terrestre (rocosos y tamaños similares a la Tierra) descubiertos por ahora en nuestro vecindario galáctico, en el precioso catálogo de exoplanetas de la NASA. De todos los planetas identificados, 198 son de tipo terrestre pero ninguno de ellos parece ser habitable. De momento no hay vulcanos ni klingons ahí fuera.

¿la vida podría ser frecuente en la galaxia o no?

Pensamos que la formación de vida puede ser relativamente común por varias razones: la universalidad de la química prebiótica, que da lugar a la formación de un set similar de compuestos orgánicos en muchas condiciones y que hemos observado en asteroides, por ejemplo. Es decir, la formación de los precursores orgánicos simples de la vida es un proceso que se integra dentro de la geoquímica de modo normal y, seguramente, es muy corriente en la galaxia.

Por tanto, el primer paso hacia la vida orgánica debe ser común. Tal vez el siguiente paso, el proceso de evolución química, sea menos común. Pero no tenemos motivos para pensar que sea una rareza, ya que es un proceso que se integra en la geoquímica planetaria.

Por otro lado, la evolución de la vida desde un punto de vista termodinámico parece una consecuencia de la propia evolución de los sistemas planetarios. La vida es un eficiente sistema de generación y disipación de entropía. La entropía del universo aumenta, la energía de las estrellas se disipa y, en el proceso, surgen estructuras que podrían maximizar la producción de entropía. La vida surgiría, entonces, como una estructura dinámica en el conjunto de fluctuaciones generadas por los procesos de disipación de energía y aumento de entropía del universo, es decir, una consecuencia del segundo principio de la termodinámica.

Pero, si la evolución y vida parece un imperativo de la propia termodinámica del universo, entonces, ¿por qué todavía no hemos visto ningún planeta habitable o con pistas de vida?.

Por varias razones: aunque la vida sea probable, hemos observado sólo una muestra mínima de planetas. Se calcula que solo en nuestra galaxia hay unos 100.000 millones de planetas. En nuestro vecindario, hasta 50 años luz de distancia, hay unos 1500 planetas; se han observado aproximadamente el 10% de ellos. Es muy probable que la vida sea frecuente en números absolutos, aunque la probabilidad de encontrar un planeta con vida o habitable sea baja; tan sólo hemos observado el 0.000005% de los planetas de nuestra galaxia.

No puede decirse ni que tengamos mala suerte buscando, pues ni siquiera conocemos al 90% de los vecinos de nuestra propia manzana.

Si nosotros no los vemos, ¿pueden vernos ellos?

Si hay un planeta con vida inteligente en un radio de unos 3000 años luz, con una tecnología de observación similar o superior a la nuestra, cabría la posibilidad de que hubieran encontrado nuestro Sistema Solar y catalogado nuestro planeta como habitable o con vida, en base a las huellas espectroscópicas, distancia del Sol, masa, movimiento y otras características.

Esto podría ocurrir ahora (lo cual es extremadamente improbable), o haber ocurrido en algún momento durante los últimos cientos o miles de millones de años. O podría ocurrir en un futuro. No hay nada que descarte que nuestro planeta ha sido ya observado.

En cuanto a detectar nuestras emisiones de radio y determinar que provienen de seres inteligentes, es mucho menos probable. Teniendo en cuenta que llevamos emitiendo señales al espacio unos pocos años, estas serían detectables en una pequeña burbuja de unos 200 años luz de diámetro. A través del proyecto SETI, los humanos llevan varios años buscando débiles señales que sugieran vida inteligente. Nunca se recibió ninguna. Una vez hubo un susto, la famosa señal wow, pero no hubo suerte.

No obstante, llevamos poco tiempo escuchando. Sería como encender la radio durante un segundo, justo cuando no se oye a nadie hablando, y pensar que no hay nadie ahí. O, como nos ocurre a nosotros, la extensión de la burbuja de emisiones de una civilización extraterrestre quizá quede demasiado lejos.

Extensión de nuestras emisiones de señales: el pequeño punto azul, insignificante en la galaxia. Imagen de Adam Grossman y Nick Risinger, que puede verse en alta resolución, aqui en The Planetary Society.
Detalle de la burbuja azul de nuestras emisiones de radio. Detectar emisiones de seres extraterrestres implicaría que su burbuja nos ha alcanzado. Esto es muy poco probable, aunque hayan estado emitiendo.

Además hay que tener en cuenta que las señales electromagnéticas (radio, luz,…) disminuyen su intensidad de modo proporcional a 1/d2, con lo que necesitan instrumentación sensible. La probabilidad de que haya una civilización o inteligencia extraterrestre buscando señales extraterrestres (para ellos) con instrumentación sensible, en un área conteniendo unos 6000 planetas, es ínfima, máxime cuando los cálculos más optimistas sugieren que, en este momento, la galaxia puede contener unos 10 planetas con vida inteligente capaz de explorar el cosmos.

Así que, quizá estén ahí fuera y, ni nos oigan, ni les oigamos jamás. O quizá surja en el futuro una civilización que detecte una débil señal procedente de nuestro planeta, donde una civilización desapareció miles de años antes.

Quizá sea una cuestión de limitación tecnológica: el gran filtro

Tal vez. Aquí la imaginación es el límite: podemos imaginar que una inteligencia extraterrestre ha encontrado formas de escuchar señales lejanas o viajar a otros puntos de la galaxia. Pero lo que podamos imaginar no nos sirve si no lo podemos sustanciar en una aproximación científica.

Podemos afirmar que quién sabe qué tecnologías desarrollaremos. Este pensamiento es muy común: «hace 100 años apenas éramos capaces de volar, y ahora salimos al espacio. ¡Quién sabe qué haremos en 100 años más!»

Esta idea presupone una extrapolación lineal en el desarrollo de la tecnología. La mente humana tiende a pensar de modo lineal: si en 100 años hemos conseguido tal cosa, en otros 100 extrapolamos esto linealmente y llegamos al mundo de Star Trek.

El problema es que la Naturaleza no suele seguir funciones lineales. El desarrollo tecnológico humano, como tantos procesos de desarrollo o crecimiento, sigue una función sigmoidal. Voy a usar como analogía el crecimiento de la colza:

El conocimiento y la tecnología siguen un patrón similar. Tras una fase inicial lenta, se llega a una fase de aceleración exponencial, seguida de una fase de meseta, en la que el rápido incremento en el conocimiento y la tecnología se frena. Aquí pueden ocurrir dos cosas: que termine declinando la civilización y se pierda el conocimiento y la tecnología, o que haya un ‘salto evolutivo’, una nueva tecnología o cambios de paradigmas que permitan un nuevo periodo de crecimiento. ¿Dónde estamos nosotros ahora?. ¿llegando a un punto de inflexión? ¿entrando en un periodo frío? No se si alguien lo habrá estudiado, pero no he encontrado referencias. Así que, teniendo en cuenta las funciones sigmoidales, dado que hemos tenido un rápido crecimiento tecnológico y en conocimientos, en algún momento se llegará a una meseta, si no estamos llegando ya.

Teniendo en cuenta que todos los fenómenos de crecimiento y poblacionales siguen una función sigmoidal (ya sea el crecimiento de una colonia de bacterias, de un bosque, de la capacidad de computación, de una población, de una pandemia, de la economía….), la idea del ‘gran filtro de Hanson‘ es consistente con un modelo sigmoidal simple: podemos sugerir que toda civilización inteligente llega, tras un periodo de rápido crecimiento tecnológico, a una meseta, seguida de decaimiento y, eventualmente, desaparición de esa civilización. Dado que es una ley natural de los procesos de desarrollo poblacionales, con seguridad una civilización extraterrestre basada en poblaciones de individuos va a seguir ecuaciones sigmoidales.

Todo crecimiento en un sistema cerrado (ya sean bacterias en un cultivo o una civilización) siguen una curva sigmoidal que llega a una meseta y decaimiento (extinción). Este modelo es consistente con la idea del ‘gran filtro’

La idea del gran filtro implicaría que, en un planeta, como sistema semiabierto (como es por ejemplo un cultivo bacteriano), toda civilización llegaría a la fase de extinción antes de que tengamos la posibilidad de encontrarnos. La única forma de evitarla (como en un cultivo bacteriano) es contactar con el exterior y ‘pasar’ parte de la población a un nuevo sistema (pasando bacterias a un nuevo cultivo). Entonces, si no existe la posibilidad física de sortear la distancia o de encontrar ninguna otra de esas civilizaciones o inteligencias potenciales, no nos queda otra que extinguirnos en silencio. Un mundo como el de Star Trek resolvería el problema del gran filtro; implicaría que hay un salto tecnológico, de conocimiento o evolutivo que no podemos imaginar y que nos llevaría a un nuevo periodo de crecimiento exponencial, hasta el siguiente punto de inflexión.

En Star Trek: First Contact, el hallazgo del imaginario ‘motor de curvatura’ y la llegada de los vulcanos salva a los humanos de caer en el gran filtro.

Entonces, ¿nos ha visitado una inteligencia o inteligencias extraterrestres? ¿qué hay de los recientes testimonios sobre alienígenas en el Congreso de los EEUU?

Las noticias y testimonios sobre el fenómeno OVNI y visitas extraterrestres han existido desde el siglo XIX. Periódicamente, el mito de los misteriosos hangares y centros de investigación estadounidenses con naves extraterrestres y restos de alienígenas se reaviva. Surgen oscuros testimonios, vagas explicaciones, imágenes borrosas que sirven, sobre todo, para hacer películas de ciencia ficción sobre el tema.

Pero, no hay ni una sola prueba.

Los científicos no trabajamos con anécdotas ni testimonios. Trabajamos con evidencias. Usamos la ‘Navaja de Hitchens’:

una afirmación sin evidencias se puede descartar sin evidencias»

Los científicos (los periodistas, en teoría, también. Christopher Hitchens era periodista) simplemente descartamos los testimonios que no se sustentan en pruebas, datos y evidencias. Y en afirmaciones como esta se requieren datos sólidos. Como dijo Carl Sagan, afirmaciones extraordinarias requieren pruebas extraordinarias.

David Grusch, uno de los declarantes en el Congreso sobre los UAP y la supuesta tenencia de tecnología y restos biológicos extraterrestres. Una declaración ridícula, hueca y, desde el punto de vista científico, totalmente descartable. Personalmente, me pareció todo una broma.

Estas recientes declaraciones en el congreso de EEUU han sido un compendio de los clásicos testimonios sobre fenómenos OVNI que hemos visto en otras ocasiones: nada concreto, ninguna prueba, evasivas e incluso afirmaciones, digamos, interesantes, como que el declarante sugiere que los extraterrestres estaban muy interesados en la tecnología nuclear. ¿una inteligencia con tecnología tan avanzada como para cruzar cientos o miles de años luz, interesada en una tecnología seguramente obsoleta? ¿tal vez quiere decir que la energía nuclear es muy importante y en su planeta se quedaron sin uranio?.

El testimonio era incluso ridículo cuando le preguntan al declarante si había visto personalmente esos restos de naves alienígenas y restos biológicos ‘no humanos’ y dice que no personalmente, que se lo han contado. No sólo declaran sin aportar pruebas, sino en base a rumores.

El ‘black mailbox’, en Nevada. En la ruta de los entusiastas del ‘fenómeno OVNI’, próxima al área 51. Aquí esperan ver o recibir alguna comunicación de los extraterrestres.

Estas declaraciones ni siquiera pueden considerarse ciencia ficción, sino meras elucubraciones y rumores. Además, estas cosas no tienen en cuenta algo elemental sobre la naturaleza humana: no sabemos guardar secretos. ¿un centro de investigación con naves extraterrestres capturadas, lo que sería el hallazgo más importante de la Historia de la Humanidad, por el que habrían pasado miles de trabajadores, científicos y militares, oculto y secreto desde los años 1930?.

Este nuevo episodio de declaraciones sobre supuestas tecnologías extraterrestres me recuerda al caso de Bob Lazar. Este curiosísimo personaje afirmó haber trabajado en el ‘área 51’ y en un lugar secreto llamado S-4, donde se realiza ingeniería reversa de naves extraterrestres, y realizó declaraciones muy similares a las que se han escuchado estos días en el Congreso de los EEUU. Afirmó que unos seres extraterrestres provenientes de Zeta-Reticuli, un sistema estelar situado a unos 39 años luz, utilizaban en sus naves el ‘elemento 115’, de propiedades muy inusuales. Bob Lazar llegó a ser muy popular en el colectivo de los conspiranoicos y fans del fenómeno OVNI. Sin embargo, el descubrimiento de que zeta-reticuli carece de planetas en su sistema y la síntesis del elemento 115 en 2003 demostraron que las afirmaciones de Bob Lazar no eran más que o delirios, o bien un plan para ganar notoriedad y hacer su negocio en torno al mundo OVNI.

Bob Lazar con uno de sus esquemas de naves extraterrestres. ¿embaucador, perturbado o visionario?

Bob Lazar es un personaje curioso no obstante. Siempre me preguntaré de dónde obtuvo muestras de plutonio (cantidad ínfima, obviamente), de las cuales estuve a punto de adquirir una para mi colección cuando fue detenido por el FBI.

Los científicos debemos mantener la mente abierta. Debemos investigar. Pero investigamos siguiendo una serie de metodologías que evitan que caigamos en las trampas cognitivas comunes o terminemos cayendo en las redes de embaucadores como Lazar o David Grusch. Richard Feynman decía que la persona más fácil de engañar era uno mismo. La Ciencia evita que caigamos en nuestras propias trampas mentales. Hasta que no haya pruebas, este tipo de declaraciones no son más que ruido.

¿Debemos investigar los fenómenos anómalos?

Por supuesto. No hay que confundir los reportes de UAP con las declaraciones sobre objetos extraterrestres en oscuras instalaciones militares. Los reportes de fenómenos anómalos están recogidos por instrumentos y radares de aeronaves y son datos objetivos. Otra cosa es si podemos averiguar la causa o no.

¿por qué somos científicos? movidos por la curiosidad, la necesidad de explorar lo que no conocemos, de responder a cuestiones fundamentales que ya nos hacíamos de niños: ¿por qué la hierba es verde, por qué podemos respirar?. Cuando voy a museos o ferias de minerales, siempre hay niños llenos de curiosidad. Pocos niños hay a quienes no les encanten los minerales. Suelen hacer observaciones muy interesantes: ven los aspectos en común que tienen minerales con composición similar, o reconocen las formas cristalográficas. Esa misma curiosidad es la del científico. Lamentablemente, la sociedad tiende a desanimar a esos niños, a destruir su curiosidad. Un científico es alguien que mantuvo esa faceta infantil. De hecho, la curiosidad es el principal, pero el menos valorado activo que posee un científico. Así que, ¿cómo nos resistiríamos a investigar y explorar cualquier fenómeno extraño o anómalo?. No seríamos científicos entonces.

Pero no investigamos de cualquier forma, ni nos dejamos arrastrar por vagos testimonios. Ni afirmamos, ni descartamos nada, sino que planificamos cómo abordar una cuestión o problema. Adoptamos la postura escéptica en el sentido clásico del término, la epojé de Sexto Empírico: suspensión de juicio u opinión durante la observación y experimentación. Por lo que hemos visto anteriormente, es muy poco probable que coincidamos en el tiempo y en la vecindad galáctica con otra forma de vida inteligente. Es poco probable que ésta haya alcanzado un nivel tecnológico suficiente y es poco probable que las propias leyes de la Física permitan tales viajes. Pero no lo descartamos. Simplemente, seguimos trabajando y seguimos las evidencias.

En 2022 la NASA creó una comisión para el estudio de los UAP o ‘fenómenos anómalos no identificados’ (unidentified anomalous phenomena). Este es el nombre correcto, no ‘fenómenos aéreos no identificados’, como indicaron algunos medios, denominación incorrecta que se abandonó.

Estos fenómenos UAP engloban supuestos avistamientos OVNIS (hay cientos de relatos de pilotos en torno a ellos) así como cualquier fenómeno, atmosférico o espacial, no identificado.

La comisión independiente para el estudio de los UAP

Los astrobiólogos debemos estudiar todo fenómeno no explicado o anómalo. No se trata de dar oídos a testimonios, mitos o conspiraciones, sino investigar seriamente qué hay. La mayor parte de los UAP tienen explicaciones sencillas. En muchos casos se han cotejado con tráfico aéreo comercial y se corresponden con detecciones de aviones lejanos.

Aun así, hay fenómenos que, por falta de evidencias o datos, no pueden no ya explicarse, sino ni siquiera estudiarse. Ello no implica que existan inteligencias extraterrestres. Que algo no tenga explicación no implica que sea válida cualquier explicación por extravagante que sea. Por ejemplo, que no pueda explicar el Origen de la Vida no implica que el Origen de la Vida sea obra de Dios. Del mismo modo, que no pueda explicar un borroso objeto que un piloto vio una vez en el aire, no implica que fuera una nave extraterrestre.

La falta de datos, simplemente, implica que, o bien hay que seguir estudiando y obteniendo datos, o, si no podemos tener más datos, quedando la cuestión o hipótesis fuera de toda posibilidad de verificación y de falsación (otra de las herramientas del trabajo científico), la tenemos que dejar archivada. Pero, en la práctica, como decía Sherlock Holmes «en general, cuanto más extravagante es una cosa, menos misteriosa suele resultar»

¿Es posible el mundo de Star Trek?

Como científico debo razonar y usar datos y evidencias. Pero no dejamos de soñar. Desde pequeño, cuando pasaba noches enteras mirando el firmamento, primero con los ojos desnudos, luego con mi pequeño telescopio, siempre soñaba con que alguien más habría en algún planeta ahí arriba. Deseaba que vinieran. Eso implicaría que es posible viajar por el espacio y a otros sistemas planetarios. Si realmente hubiera extraterrestres, ello indicaría que nuestro pequeño mundo podría hacerse mucho más grande. Es una gran esperanza. Pero ello queda fuera del ámbito de la Ciencia.

Que triste sería que no hubiera nadie más en nuestra galaxia. Alguien dijo una vez que somos el Universo contemplándose a sí mismo. Resulta difícil aceptar la idea de que, en 100.000 millones de planetas en nuestra galaxia, no haya otras inteligencias planteándose las mismas preguntas. Pero, más difícil aún es aceptar que, habiendo otras inteligencias, estamos aislados en esta isla planetaria. Así que, como todos los que crecimos con Star Trek (yo lo hice con TNG), soñábamos en cada capítulo que podríamos explorar la galaxia en busca de nuevos mundos y nuevas civilizaciones y que igual, por fin, esa noche se iban a presentar visitantes extraterrestres a resolver nuestras dudas.

Siempre podemos soñar que es posible explorar otros mundos como en Star Trek

Pero, ¿es posible el mundo de Star Trek?. Ello tiene varios problemas: el problema de la probabilidad de vida inteligente, el problema de la tecnología y el problema de la coincidencia de civilizaciones en la misma región del universo que hemos revisado anteriormente.

Pero tiene otro problema: un mundo como el de Star Trek presupone que la evolución no es un fenómeno de caos determinista, sino que es teleológica y que termina en seres humanoides que, incluso, pueden cruzarse formando híbridos. Naturalmente, esta trampa teleológica no tiene sentido desde el punto de vista biológico. En cierto modo, Star Trek implica una profunda aceptación del principio del Diseño Inteligente de origen divino, que culmina en seres a imagen y semejanza de Dios. Dentro de la lógica de Star Trek, es casi un imperativo llegar al conocimiento del viaje interestelar. Pero, desde el punto de vista científico, no hay ninguna razón que sugiera que tales viajes serían tecnológicamente posibles.

Si hay vida en otros planetas, es muy posible que sea similar a nivel molecular, teniendo en cuenta que partimos del mismo espacio químico y las reglas de la química imponen cierto determinismo molecular. Pero, igual que en nuestro planeta, donde el mismo patrón molecular y células similares han dado lugar a innumerables morfologías y posibilidades, no podemos ni imaginar cómo sería una inteligencia extraterrestre. No siquiera sabemos si podríamos identificarla con las herramientas de que disponemos actualmente.

La fauna de Ediacara, que desapareció hace unos 540 millones de años, estaba formada por organismos extraños, como este Hallucigenia. Si la misma biología molecular daba lugar a organismos como éstos, ¿cómo serán los organismos extraterrestres? ¿serán molecularmente similares, aunque morfológicamente inimaginables?

Personalmente, desearía que las declaraciones de David Grusch en el congreso fueran reales. Ojalá haya naves alienígenas, lo que implicaría que es posible encontrarnos y explorar los exoplanetas. Pero no tenemos ni una sola prueba o evidencia. Aquí, tras todo lo dicho, sólo veo dos posibilidades: o nos espera un futuro apasionante o una soledad desoladora.

Conclusiones

  • La vida es probablemente bastante común en nuestra galaxia, pero la vida inteligente es, probablemente, muy rara o incluso única (nosotros) en este momento.
  • Por ‘común’ queremos decir en números absolutos. Con lo que conocemos a través de la observación de exoplanetas, la probabilidad de hallar un planeta habitable o con vida es muy baja. Es una situación comparable a la lotería: En todo el país va a tocar el gordo de la lotería seguro en algún sitio, pero la probabilidad de que te toque a tí, en tu barrio o en tu ciudad es baja. Con lo que sabemos por el momento, hay un 99.94% de probabilidad de que un planeta terrestre no tenga vida. Lo que pasa es que la galaxia tiene miles de millones de planetas.
  • Es extremadamente improbable que exista vida inteligente en nuestro vecindario cósmico o nuestra galaxia, y aún más improbable que dispongan de capacidad para realizar viajes interestelares
  • Las declaraciones sobre OVNIS y UPA no están respaldadas con ninguna evidencia, solo son rumores. La mayoría de los avistamientos documentados por pilotos y registrados por radares, o bien han sido explicados, o bien no hay datos suficientes como para poder estudiarlos. Los científicos no trabajan con testimonios, sin datos suficientes o incompletos. Esto no quiere decir que no se estudie. Hay que revisar objetivamente todos los datos y documentos.
  • Aun así, todos nuestros cálculos se basan en la vida terrestre como modelo. Esto podría cambiar, por lo que seguimos estudiando e investigando y nos mantenemos alertas.

Referencias

Ćirković, M. M. (2013) ‘Who are the SETI sceptics?’, Acta Astronautica, 89, pp. 38–45. doi: 10.1016/j.actaastro.2013.03.012.

Dick, S. J. (2012) ‘Critical Issues in the History, Philosophy, and Sociology of Astrobiology’, Astrobiology, 12(10), pp. 906–927. doi: 10.1089/ast.2011.0786.

Haqq-Misra, J., Kopparapu, R. K. & Schwieterman, E. (2020) ‘Observational Constraints on the Great Filter’, Astrobiology, 20(5), pp. 572–579. doi: 10.1089/ast.2019.2154.

Kipping, D. (2020) ‘An objective Bayesian analysis of life’s early start and our late arrival’, Proceedings of the National Academy of Sciences, 117(22), pp. 11995–12003. doi: 10.1073/pnas.1921655117.

Schmidt, G. A. and Frank, A. (2019) ‘The Silurian hypothesis: would it be possible to detect an industrial civilization in the geological record?’, International Journal of Astrobiology, 18(2), pp. 142–150. doi: 10.1017/S1473550418000095.

Seckbach, J. (2012) Genesis – In The Beginning, Cellular Origin, Life in Extreme Habitats and Astrobiology, Vol. 22. Edited by J. Seckbach. Dordrecht: Springer Netherlands (Cellular Origin, Life in Extreme Habitats and Astrobiology). doi: 10.1007/978-94-007-2941-4.

Spada, G. and Melini, D. (2020) ‘Evolution of the number of communicative civilizations in the Galaxy: implications on Fermi paradox’, International Journal of Astrobiology, 19(4), pp. 314–319. doi: 10.1017/S1473550420000063.

Webb, S. (2015) If the Universe Is Teeming with Aliens … WHERE IS EVERYBODY?, If the Universe is Teeming with Aliens… Where is Everybody? Cham: Springer International Publishing (Science and Fiction). doi: 10.1007/978-3-319-13236-5.




¿Por qué el número de la suerte es el 7?. Sobre dados, entropía, vida y orden.

C. Menor-Salván. UAH. Actualizado Octubre 2023

El concepto de entropía y su relación con la Bioquímica es uno de los más complicados de entender por parte de los estudiantes. En este artículo, vamos a tratar, sin entrar en formalismos matemáticos, de aclarar el concepto de entropía, el significado del Segundo Principio de la Termodinámica y la relación con la vida y el metabolismo.

Introducción: Entropía NO es desorden

El concepto de entropía, una de las funciones de estado termodinámicas (es decir, una función que describe las características térmicas y energéticas de un sistema), es uno de los que más dificultades presenta para su comprensión. En mi enfoque de la enseñanza de la Bioquímica, la entropía tiene un papel esencial, pues es una de las claves que explican la propia vida y sus estructuras. La entropía es esencial para entender el funcionamiento de las enzimas y para entender por qué el metabolismo no es una colección de reacciones diseñada para fastidiar a los estudiantes, sino que tiene una lógica comprensible.

Una de las razones por las que los estudiantes tienen dificultades con el concepto de entropía es debido a una simplificación confusa que se transmite constantemente en la enseñanza: que la entropía es una medida del desorden. Mayor desorden=mayor entropía. En un texto de 2º de Bachillerato he podido leer:

La entropía S es una magnitud que mide el grado de desorden de un sistema físico o químico

Esta definición es errónea. Además suele acompañarse con imágenes como esta:

Ilustrando la supuesta relación entre entropía y desorden. Este tipo de imágenes DEBEN EVITARSE al introducir la entropía (en esta imagen, podríamos decir que la imagen de la derecha tiene mayor entropía, pero no por la razón que imaginas)

¿cómo puedo explicar a los estudiantes que la entropía es generadora de orden, y que el orden o estructura biológica es resultado del incremento de entropía, si previamente les hemos engañado con una simplificación errónea?.

Tratando de hacerlo lo más simple y conceptual posible y sin entrar en las matemáticas de la Termodinámica formal, vamos a buscar alternativas que nos permitan acercarnos al significado de la entropía y a entender por qué la entropía genera el orden biológico. Ello es necesario para entender, a su vez, por qué el metabolismo es tal como es.

Dados y estados: buscando otras analogías para entender la entropía

¿sabes por qué el 7 es considerado un número de suerte?. ¿si lanzas DOS dados, crees que hay la misma probabilidad de que salga cualquiera de los resultados posibles (la suma de lo que sale en cada dado)?. Hagamos el experimento: si lanzamos dos dados, el resultado puede ser desde 2 hasta 12. Si los lanzamos muchas veces (he estado una tarde de sábado haciéndolo), obtendremos una distribución como esta:

Distribución de frecuencias en el lanzamiento de dos dados de seis caras. Resultado experimental

Según esta distribución, el 7 es el número mas probable. La razón de la preferencia por el 7 en el lanzamiento de dos dados es, en realidad, bastante obvia. Podemos usarla como una analogía del concepto de entropía: la probabilidad de obtener el número 7 es la mayor, por lo que el número 7 es el estado de mayor entropía. 2 y 12 representan los estados de mínima entropía, razón por la cual son las apuestas mas arriesgadas. Antes de explicar por qué es así, vamos a dejarnos enseñar por el físico aleman Arnold Sommerfeld.

La definición (algo más) formal de entropía.

Sommerfeld explicaba en 1938 lo siguiente:

¿por qué encendemos una estufa en invierno [igual este invierno lo vamos a tener difícil…]. Una persona común dirá: para que la habitación esté mas caliente; un físico se expresará hablando de suministrar energía. En este caso, tendrá razón el profano y no el físico

Según Sommerfeld, este ejemplo lo proponía el físico suizo Robert Emden. El caso es que, en efecto, encendemos la estufa para que la habitación esté caliente. Este calor se disipa constantemente a través de las ventanas y las paredes; por ello si apagamos la estufa, la temperatura comienza a disminuir. Aquí no os estoy descubriendo nada nuevo.

Como la habitación es mayoritariamente aire, sabemos que la energía contenida va a depender de la temperatura. Esto se expresa a través de esta ecuación:

Esta ecuación nos dice que la energía U contenida en la habitación es proporcional al número de átomos que hay en la habitación, N, y a la temperatura de la habitación, T. Parece lógico: cuanta más temperatura, más energía.

También sabemos que, si calentamos un gas, va a sufrir o un aumento de presión o una expansión. Como en la habitación la presión va a ser constante, mantener la temperatura constante implica que vamos a mantener constante la energía contenida en la habitación. Pero, mientras la estamos calentando, el aire se va a expandir, saliendo por las rendijas e intercambiándose con el exterior.

¿qué ocurriría si la habitación estuviera perfectamente aislada? Lógicamente, al no poder expandirse, aumentaría la presión y la temperatura. Pero, una habitación normal es un sistema abierto, es decir, puede intercambiar energía con el exterior, y también materia, pues hay intercambio de aire a través de rendijas. Por lo que el aislamiento perfecto no va a existir.

Rudolf Clausius nos explicó que la variación de entropía de un sistema es el cociente entre el calor suministrado dividido entre la temperatura. Es decir, la entropía no es una medida de desorden, sino una medida de la relación entre energía suministrada y temperatura.

Como queremos mantener nuestra habitación a temperatura y presión constante (no queremos morir, y hay rendijas, por lo que el aire puede expandirse), hemos deducido, a partir de la ecuación anterior y de las propiedades de los gases, que a presión constante, la variación de entropía en nuestra habitación es:

Es decir, que la variación de entropía que tenemos en la habitación es proporcional al incremento de la temperatura desde A a B, y al incremento de volumen del aire desde A a B. Si aumentamos la temperatura, entonces, aumentamos la entropía. n es el número de moles de aire, y cv es el calor específico. Idealmente, una vez que hemos alcanzado una temperatura constante, ya no hay aumento de entropía. Y por tanto, no sería necesario suministrar más calor. Observad que no hablo de orden. El incremento de entropía va asociado al incremento de temperatura y/o volumen. Las moléculas del aire ¿están igual de ordenadas o más ordenadas?. No lo se. Pero si sabemos que, si aumentamos el volumen, por ejemplo, al calentar, les estamos dando a nuestras moléculas más libertad para moverse. Vamos a volver a esta idea de ‘libertad’ más adelante.

Pero, en nuestra habitación ocurre un proceso irreversible: el calor se disipa al exterior de dos formas: irradiándose a través de los materiales y las ventanas, y mediante intercambio de aire caliente del interior con aire frío del exterior.

El famoso dibujo de I. Prigogine, que ilustra la el Segundo Principio de la Termodinámica aplicado a sistemas abiertos. El sistema (habitación), produce entropía y ésta siempre va a ser positiva. O, como mucho, va a ser cero. Pero, hay un proceso de disipación a través de las paredes, y asociado a ese proceso hay una variación de entropía también.

El intercambio de materia y energía de la habitación (nuestro sistema) con sus alrededores, implica que tenemos que descomponer la entropía en dos términos: ΔiS es la entropía generada en el interior de la habitación, que es siempre cero o positiva; ΔeS es la entropía del proceso de intercambio con el exterior y puede ser negativa, cero o positiva. Como la entropía es el cociente entre calor y temperatura, y queremos mantener la temperatura y presión constante en la habitación, entonces:

La temperatura del exterior de la habitación Te es menor que la temperatura del interior Ti. Por tanto, si perdemos todo el calor, o sea, Qi=Qe, entonces el término de entropía de intercambio con el exterior es mayor en valor absoluto. Como el intercambio con el exterior está sacando calor de la habitación, entonces, el término es negativo. Por tanto, la variación global ΔS=ΔiSΔeS<0. Hemos visto antes que la entropía depende de la temperatura, por lo que si sacamos el mismo calor que metemos, la habitación se enfría hasta que Ti=Te. Esto es lo que ocurre en una habitación cualquiera: en el momento que apagamos la calefacción, la habitación se enfría. Al final, Qi se igualará con Qe. La clave para mantener la habitación caliente es suministrar energía constantemente y llegar a un estado estacionario en el que Qi>Qe durante un lapso de tiempo.

Total, que para mantener la temperatura constante, y, por tanto, ΔS=0, necesitamos que Qi>Qe, es decir, suministramos más energía de la que perdemos durante el tiempo que queremos estar calientes. Lógico, ¿no?. Por ello nos interesa minimizar Qe, utilizando aislamientos, de modo que podamos minimizar Qi, y reducir la factura de la luz. Aquí voy a añadir una nota: estamos simplificando mucho la discusión, pues nos estamos centrando en el aire, un gas, y además lo consideramos un gas ideal. Cuando hablemos de reacciones químicas, cambios de fase, etc. la discusión se complica, y hablaremos de energía libre, entalpía y entropía.

El término ΔeS negativo lo denominó Schrödinger entropía negativa o neguentropía: la entropía asociada al proceso de disipación. Es decir, estamos neutralizando la acumulación de entropía en la habitación al calentarla, sacándola fuera y aumentando la entropía del exterior.

Pérdidas de calor de una casa. Estas pérdidas representan la entropía negativa: aumentan la entropía del exterior, disminuyendo la entropía del interior.

Esto es lo que define el SEGUNDO PRINCIPIO DE LA TERMODINÁMICA: la entropía total del universo (nuestra habitación + el exterior) siempre aumenta. Por ello, para poder mantener la entropía de la habitación constante (que mantenga su temperatura y presión constantes) necesitamos estar constantemente generando calor en ella y aumentar la entropía del universo.

Nuestra habitación (sistema, puede ser el salon de casa o una célula) y el exterior. Dentro de la habitación aumentamos la entropía (enciendiendo el radiador por ejemplo). Las condiciones de contorno controlan el flujo de entropía con el exterior. Si ambos se igualan, la presión y temperatura de la habitación se mantendrán constantes. Eso requiere un gasto de energía.

Con esto hemos explicado físicamente lo que todos sabemos por experiencia: que si apago el radiador, la habitación se enfría. Por este principio, los ingenieros han hecho enormes esfuerzos en reducir los procesos irreversibles en máquinas y edificios, tales como reducir la disipación de calor mediante aislamiento, disminuir el rozamiento y desgaste en los motores, etc. En la vida real, como vamos a tener procesos irreversibles, siempre tenemos que consumir energía para ‘pagar’ esta especie de impuesto entrópico. Esta es la razón por la que no existe el móvil perpetuo y por la que, hagamos lo que hagamos, siempre se va a enfriar la casa al apagar la calefacción.

Aplicación en la bioquímica

La discusión anterior se puede aplicar exactamente igual a un organismo vivo, ya sea una célula o un animal.

En 1992 se publicó un interesante experimento: los investigadores midieron, usando un calorímetro, la producción de entropía de cerditos en una granja y observaron que la producción de entropía iba creciendo durante el periodo infantil, hasta alcanzar un máximo. Cuando el cerdito entraba en edad adulta y cesaba su desarrollo, la producción de entropía disminuía, e iba disminuyendo gradualmente hasta la vejez.

Es decir, mientras estaba en proceso de morfogénesis activa, generando estructura biológica, la disipación de entropía crecía. En la edad adulta entra en estado estacionario.

La ecuación que vimos antes:

la podemos expresar así:

En la que la velocidad o la variación de la producción de entropía es el balance entre la producción de entropía interna del sistema (es decir, debida al metabolismo y procesos vivos del cerdito) y la disipación de energía al entorno en forma de calor (Q) que es una función que varía con el tiempo (estamos en un sistema dinámico), en relación con la temperatura del sistema. Aquí, el calor Q no hay que confundirlo con temperatura. El calor engloba la irradiación de energía y la disipación de energía transportada por moléculas, como el agua, CO2 y otras moléculas emitidas por el organismo, que ‘esparcen’ o ‘dispersan’ la energía. En estado estacionario, ambos términos se igualan.

Por el contrario, si la tasa de producción interna de entropía es menor que la disipación de calor, la variación de entropía es negativa. Tenemos la ‘neguentropía’ y, en el proceso, es cuando se produce la auto-organización de las estructuras de los organismos vivos.

Ilya Prigogine entra en escena: explicando la vida con el teorema de mínima entropía, sistemas no lineales y estructuras disipativas.

Resulta que estamos disminuyendo la entropía de nuestro sistema, mediante la disipación de energía y el aumento de entropía del exterior del sistema. Hay varios tipos de este sistema peculiar que, espontáneamente, se ha alejado del equilibrio.

Uno de estos sistemas es el metabolismo.

El metabolismo es un conjunto conectado y coordinado de reacciones químicas que permite, según el teorema de mínima entropía de Prigogine, minimizar la entropía producida durante la disipación de energía libre, maximizando la negentropía. Ello lleva a la reducción de entropía interna del sistema y la aparición de estructuras emergentes. Este tipo de sistemas se denominan estructuras disipativas (mas adelante volveremos a este concepto).

El metabolismo permite que los organismos vivos se ‘alimenten de entropía negativa‘ (como expresó Schrödinger). Este concepto aún está en discusión y también se ha sugerido que la evolución marca un camino hacia la maximización de la producción de entropía, provocando un aumento de complejidad que aumente la neguentropía para mantener la estabilidad dinámica. En fin, aquí entramos en un área muy compleja. Tanto que lo llamamos la Ciencia de la Complejidad. Pero como sumario, podemos decir que hay una diferencia fundamental entre un sistema vivo y una máquina: en las máquinas, los ingenieros quieren reducir los procesos irreversibles para aumentar su eficiencia disminuyendo la entropía. En la vida, en cambio, DEPENDE de los procesos irreversibles y la producción de entropía es la que hace que funcione. ¿por qué depende de ellos? porque la vida surge a costa de alejarse del equilibrio y de aumentar la disipación de entropía (el segundo término en la última ecuación)

Un ejemplo relativamente simple de estructura disipativa, muy similar al metabolismo, es la reaccion de Belousov-Zhabotinsky:

La aparición espontánea de patrones durante la reacción, como los de la imagen, que son zonas con diferentes parámetros físicos y químicos, es resultado de la disminución de entropía, mediante la transformación de la energía contenida en el ‘combustible’ de la reacción y el aumento de entropía del exterior. Es una estructura disipativa que depende del aumento de entropía del exterior. Por ello, una estructura disipativa, tal como el metabolismo, sólo puede producirse en un sistema abierto. En un sistema cerrado en el que no pueda intercambiar materia y energía con el exterior, el sistema ‘muere’ rápidamente.

¿qué tienen en común la reacción de Belousov con el metabolismo? Para que un sistema químico tenga estas propiedades, deben establecerse una serie de ciclos y reacciones encadenadas, en los que se alternen reacciones químicas reversibles e irreversibles y se produzca un fenómeno de autocatálisis o de catálisis recíproca. Aquí ya entramos en una complejidad excesiva (alguien pillará el chiste), por lo que lo dejamos en éste punto. Pero, la idea es que para que se de la vida tal como la conocemos, el metabolismo tiene que ser tal como es, y debe contener un sistema de reacciones como la glucólisis, que hacen posible que la disipación de entropía permita formar las estructuras biológicas.

Alguien podría preguntar: entonces, termodinámicamente, ¿la reacción de Belousov es vida?. No. La diferencia fundamental es que un organismo vivo es capaz de regular internamente su comportamiento estructural. La estructura en la reacción de Belousov es resultado de los cambios e influencia de su entorno, sin control interno. Este control estructural y regulación interno, que está relacionado con la información biológica, es lo que llamamos biología molecular. Así, podemos establecer un criterio de demarcación entre la biología molecular y la bioquímica, si queremos.

Reacción de Belousov-Zhabotinsky: un modelo del metabolismo.

Vamos a ver de nuevo el ejemplo de la reacción de Belousov:

Belousov descubrió, en 1951, su famosa reacción tratando de encontrar un modelo de laboratorio para el metabolismo central (glucolisis+ciclo de Krebs). Lo que encontró fué fascinante: una reacción que no era ni un equilibrio ni irreversible, sino que oscilaba entre el estado inicial y el final. Si la reacción se lleva a cabo sin agitación y en una capa fina, tiene lugar la formación de bellas estructuras llamadas patrones de Turing.

Belousov estudió exhaustivamente la reacción y propuso un esbozo de su mecanismo (que tardaría décadas en resolverse); envió sus resultados y los detalles experimentales para ser publicados en una importante revista científica, en 1951. Los revisores recomendaron contra su publicación y el editor respondió a Belousov que su “supuesto descubrimiento” era “imposible”. Seguramente, la idea de que una mezcla química se comportase como un péndulo, o que en un líquido homogéneo surgieran estructuras de composición química diferenciada, violando en apariencia el Segundo Principio de la Termodinámica, pesaba más que el repetir la simple receta de la reacción y verlo con sus propios ojos. El editor dijo a Belousov que tenía que aportar más pruebas. Boris entonces volvió al laboratorio y tras otros seis años de trabajo (la Ciencia requiere tiempo…), envió un nuevo artículo, más elaborado y con un estudio profundo del mecanismo. La respuesta que recibió fue de rechazo y un escepticismo aún mayor. Ni los revisores ni los editores se molestaron en repetir por ellos mismos una reacción extremadamente sencilla de reproducir. Simplemente se dejaron llevar por sus prejuicios. Belousov, que ya tenía 64 años, estaba tan enfurecido y decepcionado que decidió no volver a publicar ningún artículo jamás ni relacionarse con otros científicos. Publicó su receta de la reacción en un simposium, quedando solo un oscuro resumen en ruso en el fondo de algunas bibliotecas.

Cuando Zhabotinsky tomó el testigo, la receta de la reacción de Belousov era conocida en diversos centros en la URSS, aunque se desconocía su autor y origen. Zhabotinsky comenzó, como tema de tesis, a estudiar esa curiosa reacción que circulaba por ahí. En los años 60, ya había realizado un extenso estudio y había descubierto al autor de la reacción original: Boris Belousov. Informó a éste de su trabajo y
progresos y Boris le remitió, muy agradecido por recuperar su vieja receta, su manuscrito rechazado original y otro material. Cuando la reacción empezó a ser conocida fuera de la URSS, a finales de los 60 y principios de los 70, aún era conocida como la “reacción de Zhabotinsky”, aunque por el
esfuerzo de éste, el crédito para Belousov fué finalmente reconocido. Zhabotinsky mantenía informado de sus progresos a Belousov, pero éste siempre rechazó un encuentro personal, así como asistir al simposio sobre reacciones oscilantes que se había organizado en Praga en 1968. Así, Zhabotinsky y Belousov nunca se conocieron personalmente. Belousov murió en 1970, sin llegar a conocer las implicaciones que tendría su trabajo ni disfrutar del reconocimiento que actualmente se le brinda.

Desde el punto de vista de la termodinámica, podemos usar la reacción de Belousov para entender cómo funciona un sistema metabólico:

En primer lugar no es una sola reacción, sino que se genera un sistema multicomponente, abierto y genera una red o ciclos de reacciones. Uno de estos ciclos es un ciclo autocatalítico en el que los productos son, a su vez, reactivos. Estas características las comparten tanto un sistema metabólico como la reacción de Belousov.

Los patrones de Turing son impredecibles, jamás son exactamente iguales y su estructura depende de pequeñas diferencias en las condiciones iniciales. Son el resultado del acoplamiento entre las reacciones químicas y los procesos de difusión. Esta relación es no lineal y da lugar a múltiples estados estacionarios, igualmente probables. La formación de las estructuras, que manifiestan los estados estacionarios, depende de las fluctuaciones microscópicas. Prigogine lo llamaba «orden a través de la fluctuación». En un sistema biológico, las fluctuaciones son cambios ambientales, epigenética o variaciones genéticas, y las estructuras son el fenotipo.

El sistema (ya sea la reacción de Belousov o el metabolismo) alcanza un estado alejado del equilibrio, en el que maximiza la disipación de energía libre de los reactivos, minimiza la producción de entropía y maximiza la disipación de entropía fuera del sistema, de modo que el sistema se sostiene con la neguentropía y, aunque la entropía global aumenta, dentro del sistema se produce una reducción temporal de entropía. En el vídeo podéis ver uno de los modos de disipación de entropía: las burbujas de CO2, el residuo que produce la reacción, y que se eliminan. Este es el principio de mínima producción de entropía de Prigogine. El sistema evoluciona reduciendo su producción interna de entropía y maximizando la disipación. Pero, la reacción de Belousov no es un buen sistema abierto, y termina acumulando demasiada entropía y «muriendo»

Estado final de la reacción de Belousov: se ha disipado la energía libre, la variación de entropía es cero (está en equilibrio) y se destruyen las estructuras. La composición es homogénea y la energía libre final es inferior a la inicial.

Otro modelo, el modelo de máxima disipación de entropía, sugiere el sistema tenderá al estado estacionario en el que la producción de entropía sea máxima. Es decir, la evolución tiende a maximizar el aumento de entropía del entorno, lo cual puede hacerse mediante el balance entre la producción interna de entropía (que siempre aumenta) y el intercambio con el exterior.

La reacción de Belousov o la vida misma no son más que disipadores de energía libre y generadores de entropía. Esto permite la evolución compleja de estructuras durante el proceso de disipación de la energía libre (nutrientes) hacia los resíduos (CO2). Prigogine las llamó estructuras disipativas.

Esto nos lleva al concepto de línea del tiempo: el proceso no se puede revertir. Percibimos el tiempo en cuanto partimos de un estado inicial de baja entropía y/o alta energía libre, para terminar en un estado que ha maximizado la entropía y ha disipado la energía libre en forma de calor. Esta es la razón por la que no se puede viajar al pasado, pues ello violaría el segundo principio de la Termodinámica; viajar al pasado implicaría moverse hacia una reducción de entropía del universo.

La vida surge, como una perturbación temporal, en el proceso de disipación de la energía y del aumento de la entropía del universo. Por ello, la vida y estructuras complejas no surgen en los estados de mínima entropía o de máxima entropía, sino de modo dinámico durante el proceso de disipación de energía y aumento de la entropía del universo.

Otro aspecto interesante de estos sistemas es la adaptación y auto-reparación. Las estructuras disipativas son estables a perturbaciones y pueden absorber éstas y ‘auto-sanarse’. La capacidad de autoreparación se puede observar en la reacción de Belousov si se introducen perturbaciones:

Vida y disipación de entropía en el planeta Tierra

Hay una idea interesante al considerar la vida globalmente: la vida surge en la Tierra como una consecuencia del teorema de la maximización de la entropía. La Tierra recibe energía del Sol y debe disiparla. Si no se disipase, el planeta se habría calentado hasta fundirse. En el proceso de disipación, surge la vida como una estructura que contribuye a mejorar esa disipación (es decir, el segundo término de la última ecuación que escribimos).

La Tierra, globalmente, constituye una gran estructura disipativa en la que:

donde T1 es la temperatura de la superficie del Sol (aproximadamente 6000 K) y T2 es la temperatura de equilibrio del planeta, que es a grosso modo la temperatura a la que la Tierra irradia energía, y que es aproximadamente 300 K. Dado que la energía no se acumula en la Tierra (si así fuera, el planeta se calentaría gradualmente), el segundo término de la ecuación es aproximadamente 3×1024/300 cal/grad g

La Tierra recibe mucha energía y poca entropía, es decir, energía de alta ‘calidad’, y se disipa al espacio con un flujo de entropía mucho más elevado. Ello es lo que asegura que se sostenga la vida en la Tierra. Sin embargo, esta cuenta global no es suficiente para entender cómo surgió y cómo funciona la autoorganización molecular que da la vida.

Pero, en términos globales, la biosfera funciona como ciclos de Morowitz (ver más adelante) en los que los organismos fotosintéticos capturan energía solar, la convierten en hidrógeno y genera un gradiente de potencial, que se disipa, impulsando la generación de biomasa. La energía del hidrógeno se almacena y transporta en forma de azúcares, que son utilizados por otros organismos para reconvertirlos en hidrógeno y generar un gradiente, que impulsa a su vez la generación de biomasa o la producción de entropía en estado estacionario. En cada paso, la energía solar se ‘degrada’, o se ‘esparce’, creando un eficiente flujo de entropía hacia el exterior.

La vida en el planeta no es más que otra estructura asociada al principio de máxima producción de entropía. En un planeta como la Tierra, los flujos de fluidos y energía (Sol, calor interno del planeta) han provocado la autoorganización de estructuras (incluyendo la vida) que maximizan el flujo de entropía. Esto no ocurre en todos los planetas. En el Sistema Solar, el principio de máxima producción de entropía se aplica además en Marte, Titán, Europa o Encelado. Por ello, son lugares de interés astrobiológico.

Ludwig Boltzmann, probabilidad y distribución de energía.

Obsérvese que en ningún momento hemos relacionado la entropía con una medida del orden a pesar de haber estado un rato hablando de entropía. Hemos hablado de la aparición de estructuras (como es la estructura celular), y del macroestado, es decir, el balance global de calor y la temperatura de la habitación, pero no hemos hablado de ‘orden’. Ahora ha llegado el momento de volver a los dados de nuestro juego.

Si lanzamos dos dados, la apuesta más segura es el 7. ¿Por que?. Podemos considerar el resultado de la tirada como el macroestado del sistema, que es el resultado de una serie de microestados, que definimos como el resultado de cada dado en particular (es decir, el estado termodinámico de cada componente del sistema). Al final, el estado global del sistema es el resultado de los estados particulares de cada uno de sus componentes. Por ello, en la primera ecuación hablábamos que la energía del sistema (macroestado) dependía de N, el número de átomos, cada uno de ellos en un ‘microestado’ determinado.

El número 7 es el que resulta del mayor número de combinaciones de los dos dados, por ello es el que más frecuencia presenta en la distribución.

Cuantos más microestados posibles tenga un macroestado, más probabilidad tenemos de tener el macroestado resultante. Esto se llama probabilidad termodinamica. En el caso del número 7, es el macroestado resultante de seis microestados posibles. Y, lo que nos descubrió Boltzmann es que la mayor entropía tiene lugar en el macroestado al cual conducen el mayor número posible de microestados.

Ecuación de Boltzmann, que, en realidad, fue formulada por Planck.

La ecuación de Boltzmann dice que la entropía es igual al producto de una constante (la constante de Boltzmann, determinada por Planck) por el logaritmo de la probabilidad de ese estado. El principio de Boltzmann nos dice entonces que el aumento de entropía en un proceso es la consecuencia de la transición del sistema del estado menos probable al más probable. En nuestro juego de dados, el estado más probable, el de mayor entropía, es el número 7, y por ello el sistema de dos dados tiene la máxima frecuencia en 7 en su distribución de estados.

Veamos otro ejemplo para ilustrar el principio de Boltzmann:

Si pregunto a los estudiantes, a los que se ha engañado con la idea intuitiva de que la entropía mide el grado de desorden, la mayoría responden que la imagen de la derecha se corresponde con el estado de mayor entropía. Pero NO. La probabilidad de que en una distribución de puntos en la cuadrícula (es decir los microestados) no haya ningún punto al lado de otro es MÍNIMA, y, de hecho, esta distribución no se ha generado al azar. Si distrubimos puntos al azar, siempre va a haber alguno pegado a otro.

El estado de la imagen de la izquierda es, por tanto, más probable, no importa cómo estén ordenados los puntos. Y es más probable, porque por azar resultan mas combinaciones de puntos (microestados) con el mismo número de contactos de unos puntos con otros. Por tanto, la imagen de la izquierda sería el estado de mayor entropía.

La entropía: una medida de la ‘degradación’ y ‘dispersión’ de la energía

Podemos ilustrar esta idea usando una analogía: billetes y moneda fraccionaria

Si tomo un billete de 20 euros y lo cambio en 40 monedas de 50 céntimos, voy a tener el mismo valor monetario (es decir, la energía se conserva). Sin embargo, estoy «esparciendo» o «dispersando» ese valor: he aumentado la entropía (ΔiS>0). Si yo ahora doy una moneda a cada persona que pasa por la calle, ese valor (esa energía) la he «esparcido» y la he expulsado del sistema: he aumentado la entropía del entorno, y he reducido la entropía de mi sistema (ΔeS<0), pero a costa de pagar 20 euros. Cada persona que se ha llevado 50 céntimos, realmente poco puede hacer con ellos. Habría hecho más con los 20 euros, ¿verdad?. Es decir, con el aumento de entropía, al repartir y «esparcir» la energía, ésta se ‘degrada’.

Este proceso, en el que, globalmente, me he quedado igual que antes, pero con 20 euros menos, es un proceso cercano al equilibrio. Ahora imaginad que yo hago lo mismo, pero le pido a cada persona a la que doy una moneda que me suba una cosa que he comprado en el súper y la coloque correctamente en la cocina. Estoy estableciendo unos ciclos y la disipación de los 20 euros lleva a que surja una estructura ordenada en mi sistema. Entonces estaríamos hablando de una estructura disipativa: El empleo de energía y la disipación de entropía, generan la estructura. Imaginad que cada moneda es el CO2 que expulso en cada ‘ciclo’ metabólico, y que el billete original era la glucosa que he consumido en el proceso y tendremos una analogía para relacionar la entropía con el metabolismo. Como con las monedas, el CO2 tiene escaso valor (es una molécula muy estable y con un sobrepotencial muy elevado, que la hace poco reactiva, de ahí la dificultad para convertirla en otros materiales), comparado con la glucosa original, de la que se puede extraer bastante energía. Ahora necesitamos un sistema que recopile las monedas y las convierta de nuevo en billetes de 20 euros. Este sistema son los organismos autótrofos, que, utilizando la luz o la energía química de los minerales, fijan el CO2, convirtiéndolo de nuevo en ‘billetes’ de alto valor: los azúcares, que a su vez se transforman en otros muchos productos.

Esta idea de los ciclos la expresó Harold Morowitz en su Teorema de los Ciclos de Morowitz:

Esto nos permite definir la entropía de un modo intuitivo: es una medida de la dispersión de la energía: cuanto más dispersa, es decir, cuantas más formas tengamos de distribuir la energía entre los componentes del sistema, mayor es la entropía. Lógicamente, si en los productos de la reacción tengo mucho CO2, tengo muchas formas de distribuir la energía entre cada una de las moléculas de CO2; por tanto, tengo más microestados que se manifiestan como el macroestado, y eso aumenta la probabilidad y la entropía.

También decimos que al aumentr la entropía, aumentamos los grados de libertad del sistema. Cuantos más grados de libertad, mayor entropía. Veámoslo con un ejemplo clásico de Lehninger:

¿cual de los tres casos, a, b o c, tiene mayor entropía?. ¿puedes definirlo según el concepto de «estado ordenado» que te contaron? En el caso (a) tenemos dos reactivos separados. Podemos distribuir energía entre las dos moléculas y todas las posibles vibraciones entre sus enlaces. Tened en cuenta que, en la molécula, la energía se distribuye haciendo vibrar y rotar los enlaces, y en el caso (a) hay muchas más formas de hacerlo que en los otros (tenemos más microestados). En el caso (b) tenemos una sóla molécula, pero esta molécula tiene tres enlaces capaces de rotar completamente, con lo que tenemos más grados de libertad, es decir, más formas de distribuir la energía, es decir, más microestados, que en caso (c), en el que tenemos una molécula rígida, por lo que las posibilidades de rotaciones y vibraciones disminuyen. Así, el caso (c) es el de menor entropía y el caso (a) el de máxima entropía. Esto hace que la reacción (a) sea mas lenta que la (c). Mucho más lenta. Y aquí entramos en cómo la entropía gobierna la velocidad de las reacciones y la acción de las enzimas, lo cual es contenido para otro tema.

Intuitivamente, podemos expresar que en el caso (a), podemos ‘esparcir’ la energía mucho mejor que en el caso (c). Entonces, una habitación desordenada no tiene por qué ser el estado más probable, y por tanto, el de mayor entropía. Depende de cómo se distribuya la energía entre sus componentes y del número de microestados que den lugar a ese estado desordenado. Jaque mate, amigos que usais la entropía como excusa para no ordenar la habitación.

Veamos otro ejemplo intuitivo, el de una tostada con mantequilla:

Yico…

Mientras la temperatura se mantenga baja y no proporcionemos calor, estaremos en un estado de baja entropía y el trozo de mantequilla se mantendrá sólido sobre la tostada. Al calentar, ¿qué es lo más probable? que la mantequilla se ‘esparza’ por la tostada. Este será un estado de mayor entropía: las moléculas de la mantequilla se separan (tiene mas ‘libertad’) y distribuyen por la tostada y la energía se reparte, ‘esparciéndose’. Aquí no hay sorpresas: tenemos un proceso irreversible (una vez esparcida la mantequilla, no podemos revertir el proceso), que se mueve, tal como nos decía Boltzmann, hacia su estado de mayor probabilidad. La mantequilla no se ‘desordena’, eso es nuestra percepción de orden y desorden, ya que antes de calentar la mantequilla no estaba formando una estructura cristalina, por ejemplo. Solo era más viscosa, dando la apariencia de ser sólida. Simplemente, la energía se ‘reparte’ siguiendo el camino más probable, aumentando los grados de libertad moleculares, o aumentando el número de microestados. Como la mantequilla es un fluido no compresible, entonces la variación de entropía sólo depende de la temperatura. Al calentarla de A a B, la entropía se incrementa según:

En la ecuación, n es el número de moles y Cp el calor específico. En la tostada siempre estamos cerca del equilibrio termodinámico, por lo que aquí no vamos a tener un fenómeno de estructura disipativa, que resulta de la combinación de reacciones reversibles e irreversibles interconectadas.

Estos conceptos intuitivos que relacionan la entropía no con el orden, sino con la probabilidad y con la distribución de la energía entre componentes del sistema e intercambio con el exterior, son útiles para entender la relación entre entropía, orden biólogico o para entender cómo funcionan las enzimas o la ribozima esencial que da vida a todos los organismos vivos de la Tierra: la peptidil transferasa.

Así, finalmente, la vida, como una estructura ordenada, depende de la generación de entropía y del aumento de entropía del entorno. Consumimos moléculas de alta energía para mantener nuestra estructura y, la entropía del entorno es el precio que hay que pagar por la estructura. Como dijo Schrödinger:

Cuanto más suntuoso es un palacio, mayor es el montón de basura que genera

La emisión de CO2, orina y desechos es esencial para ‘dispersar’ o ‘esparcir’ energía, aumentando la entropía del exterior. Por ello, toda organización basada en el consumo de energía siempre, por definición, es un orden temporal, cambiante y destinado a desaparecer, altamente dependiente de cual es el mecanismo por el que disipa la energía de sus fuentes de energía y del balance entre producción y disipación de entropía. Ya sea una célula, un organismo vivo o una sociedad, todas son estructuras disipativas, temporales y dependientes de la producción de entropía. Debemos estar preparados para ello.

Referencias

Cassani, A., Monteverde, A. & Piumetti, M. (2021) ‘Belousov-Zhabotinsky type reactions: the non-linear behavior of chemical systems’, Journal of Mathematical Chemistry, 59(3), pp. 792–826. doi: 10.1007/s10910-021-01223-9.

De Castro, C. & McShea, D. W. (2022) ‘Applying the Prigogine view of dissipative systems to the major transitions in evolution’, Paleobiology, 48(4), pp. 711–728. doi: 10.1017/pab.2022.7.

Harisch, K. (no date) ‘How the mind comes to life : The physics and metaphysics of dissipative structures’, pp. 1–18.

Hooker, C. (2011) ‘Introduction to Philosophy of Complex Systems: A’, in Philosophy of Complex Systems. Elsevier, pp. 3–90. doi: 10.1016/B978-0-444-52076-0.50001-8.

Howell, L., Osborne, E., Franklin, A. & Hébrard, E. (2021) ‘Pattern recognition of chemical waves: Finding the activation energy of the autocatalytic step in the Belousov-Zhabotinsky reaction’, Journal of Physical Chemistry B, 125(6), pp. 1667–1673. doi: 10.1021/acs.jpcb.0c11079.

Kondepudi, D. K., De Bari, B. & Dixon, J. A. (2020) ‘Dissipative structures, organisms and evolution’, Entropy, 22(11), pp. 1–19. doi: 10.3390/e22111305.

Naderi, M. (2020) ‘On the evidence of thermodynamic self-organization during fatigue: A review’, Entropy, 22(3), pp. 1–32. doi: 10.3390/E22030372.

Ota, K., Mitsushima, S., Matsuzawa, K. & Ishihara, A. (2014) ‘Assessing the environmental impact of hydrogen energy production’, in Advances in Hydrogen Production, Storage and Distribution. Elsevier, pp. 32–42. doi: 10.1533/9780857097736.1.32.

Shanks, N. (2001) ‘Modeling Biological Systems: The Belousov–Zhabotinsky Reaction’, Foundations of Chemistry, 3, pp. 33–53.

Tsuda, I., Yamaguti, Y. & Watanabe, H. (2016) ‘Self-organization with constraints-A mathematical model for functional differentiation’, Entropy, 18(3), pp. 1–13. doi: 10.3390/e18030074.