Un péptido está formado por una secuencia de aminoácidos, normalmente 20, que forman una cadena. Esta cadena se pliega, dando lugar a una estructura tridimensional que llamamos proteína. Es decir, que un péptido contiene información usando un código de 20 letras, cada una de las cuales representa una aminoácido. Este código es:
Podría enviar un mensaje usando estas 20 letras, en forma de un péptido. El receptor del mensaje sólo tendría que ‘leer’ el péptido (usando secuenciación por espectrometría de masas, por ejemplo). En mi mensaje de navidad, he escrito la felicitación en forma de péptido. Si lo sintetizamos, ¿qué estructura tendría?
Utilizando la inteligencia artificial Alphafold 2, podemos hacer una predicción de la estructura tridimensional del péptido, es decir, la pequeña proteína que podría formar.
Análisis de la estructura del péptido
La predicción de la estructura nos dice que formaría un motivo con dos hélices alfa cruzadas:
En verde, las partes de la secuencia que forman la hélice
La estructura predicha es relativamente estable y, para ello, hay tres claves.
Las cisteínas.
Interacción hidrófoba en el punto de cruce de las hélices (similar a motivos de leucine zipper)
Las prolinas.
Cisteína:
Las dos cisteínas de la cadena estan en la posición ideal para formar un puente disulfuro que va a estabilizar la estructura. Esta es la razón por la que añadí el «fckitall», además de dejar el par de prolinas en «happy» centradas en la secuencia.
Prolina:
Las dos prolinas en HAPPY son claves. La prolina es un aminoácido bastante peculiar, ya que es una amina secundaria que forma un anillo. La prolina rompe las hélices, creando una torsión que da punto de giro. Esta parte de la estructura es fundamental para «enfrentar» las dos hélices, y la torsión se asemeja a la cadena simple de colágeno.
Interacción hidrófoba
Aqui juega a favor y en contra. Por un lado, la interacción hidrófoba dirige la orientación de las hélices y estabiliza el plegamiento, con una interacción intensa en la región central (en rojo):
Por otro lado, hay aminoácidos hidrófobos (isoleucina, leucina, alanina) en posiciones terminales y expuestas, que podrían dar lugar a interacciones intermoleculares que generen una estructura distinta. Lo discutiremos un poco más adelante.
¿Podría existir esta estructura en realidad?
La predicción nos dice que es posible, con una probabilidad relativamente elevada (70%) de que forme esta estructura en realidad, aunque las posiciones de aminoácidos hidrófobos en los extremos de la cadena y el pequeño tamaño del péptido hacen probable que, si lo sintetizamos en realidad, forme un precipitado de agregados amorfos o bien amiloides.
Para evaluar posibles estructuras reales, tenemos la IA Alphafold 3, capaz de predecir estructuras resultantes de la interacción de varias moléculas de proteína o proteína con otros ligandos. Esto nos da perspectivas interesantes. Si evaluamos la estructura resultante de unir varias moléculas del péptido, obtenemos esto:
Esta estructura es un amiloide: láminas beta que se agrupan, hasta terminar formando agregados y fibras, llamadas fibras amiloides. Esta estructura está estabilizada por interacciones hidrofóbicas y electrostáticas, que favorecen el agregado.
Ligandos y estabilización de la estructura
Diversos ligandos, tales como cofactores (desde iones metálicos a moléculas como las coenzimas) y grupos prostéticos, como el grupo Hemo, son esenciales en la estabilización estructural. De hecho, es posible que el primer papel bioquímico de moléculas como los nucleótidos, fuera puramente estructural.
¿estabilizarán los ligandos nuestro péptido de navidad?
Si mezclamos el péptido con uno de los cofactores posiblemente más antiguos en la evolución, el AMP (adenosina monofosfato) ocurre algo maravilloso:
Molécula de AMP interaccionando (líneas punteadas) con el péptido de navidad. Puentes de hidrógeno e interacciones electrostáticas dan lugar a una interacción altamente probable.
La molécula de AMP interacciona con el péptido, estabilizándolo y esta estructura alcanza una ¡probabilidad del 80%! de que se produzca en la realidad. Posiblemente, el primer papel bioquímico de los nucleótidos de adenina no fue ser parte del RNA, sino ser moléculas que interaccionaban con péptidos primordiales, dirigiendo su plegamiento y creando una fuerza selectiva hacia estructuras funcionales. Es posible que el RNA (o sus hipotéticos precursores similares, preRNA) surgieran en pasos posteriores de la evolución química.
Hablando de RNA: ¿que ocurrirá si estudiamos la interacción del péptido de navidad con un hairpin, uno de los plegamientos más simples de RNA?
La predicción nos dice que es posible, aunque con una probabilidad más baja (60%). La estructura resultante estabiliza las hélices del péptido de navidad y muestra muchos contactos con la molécula de RNA:
Aquí la vemos sin los contactos representados:
Las moléculas de ácidos nucleicos, como el RNA, tienen una gran capacidad para interaccionar con péptidos y proteínas. Esto fue y es clave en la evolución.
Los cofactores pueden dirigir el plegamiento. Es el caso del grupo hemo, un grupo prostético esencial en el plegamiento y función de proteínas como la hemoglobina y la mioglobina. En nuestro péptido de navidad, la interacción con hemo le conduce a un motivo completamente distinto, formando láminas beta:
La interacción con hemo crea una estructura distinta, relativamente estable (probabilidad 70%). Un problema de esta estructura es que el átomo de hierro tiene libres las posiciones de coordinación encima y debajo del plano de hemo.
¿podrían darse estas estructuras en la realidad? Matemáticamente es posible, pero dada la complejidad de las interacciones reales, si la probabilidad de la predicción no es la más alta (>90%) lo más seguro es que un péptido generado al azar o sin tener en cuenta las reglas de los plegamientos, termine formando precipitados de agregados amorfos o amiloides. Pero, la única forma de saberlo es sintetizar el péptido y realizar los experimentos.
No obstante, para proteínas reales, es impresionante la capacidad de predicción de una IA como Alphafold. Es capaz de predecir las estructuras e interacciones y acertar plenamente, lo que la convierte en una valiosa ayuda para la investigación y la enseñanza.
Para las predicciones he usado Alphafold 2 y Alphafold 3 y para las representaciones he utilizado el software ChimeraX.
No seas el reviewer 2: guía para el revisor científico
escrito por C. Menor-Salvan | 26 diciembre, 2025
Justo antes de comenzar a escribir esto, leí la historia de un post-doc muy dolido tras haber recibido comentarios inapropiados, subjetivos, no sujetos a un razonamiento científico e incluso racistas por parte de un reviewer sobre el manuscrito que habían enviado para su publicación en una revista científica.
Es algo por lo que todos hemos pasado alguna vez. En mi caso puedo decir que he tenido suerte: la gran mayoría de revisiones de mis artículos científicos (no así las revisiones de proyectos) han sido constructivas, agradables, positivas, y, en muchos casos, han ayudado a mejorar el trabajo final. De eso trata el trabajo del revisor.
En una ocasión, sin embargo, perdí una publicación en una revista «top» por un revisor. El trabajo fue aceptado con minor revisions inicialmente, y en la ronda de revisión, uno de los revisores solicitaba que se corrigiera una cosa. Yo le expliqué que lo habíamos hecho tal como se describía, por lo que no había nada que corregir, y traté de explicarle por qué. Tal vez hubo algo, que ignoro, que le ofendió, pero su respuesta fue ofensiva, inapropiada, totalmente acientífica, y torpedeó la publicación del artículo. Ante mis quejas, el editor simplemente se lavó las manos. Aquello no sólo me dolió, sino que dañó las carreras de los coautores. Desde entonces no sólo insisto en cuidar mucho el tono a la hora de responder a una revisión, pues hay muchos científicos con ego frágil, sino que me prometí a mi mismo que no dificultaría la carrera de alguien, un compañero, un joven científico o la financiación de una tesis doctoral, por lo que siempre que tengo una tarea de revisión pienso que hay una persona detrás que, igual, está dependiendo de mí para su beca o contrato.
Los revisores tienen casi el poder absoluto sobre la carrera de los jóvenes científicos. Revisores anónimos que, sin cobrar (revistas) o por un módico precio (revisiones de proyectos) van a decidir sobre tu futuro.
Sobre tu vida.
Una revisión subjetiva, sujeta a intereses no científicos, o con tono dañino o hiriente puede retrasar, desmoralizar o destruir la autoestima de una persona o dificultar injustamente una carrera. Cuando tenemos una tarea de revisión, ya sea de un artículo o un proyecto de investigación, debemos tener en mente que no son papeles, sino que estamos jugando con la carrera de personas.
Afortunadamente la mayoría lo asumen con responsabilidad y empatía, ciñéndose a criterios científicos y, en muchísimos casos, ayudando sinceramente a que un artículo sea publicado, aportando críticas constructivas; pero siempre hay un porcentaje que no lo hacen así.
Todos hemos hecho daño injustamente a alguien alguna vez porque hemos tenido unos dias difíciles, estamos atravesando alguna cosa o simplemente nos hemos equivocado. Todos somos el villano en la película de alguien. Hasta Buda tuvo enemigos.
Pero también hay un porcentaje objetivo de malas personas. Observad que absolutamente nadie se reconoce a sí mismo como mala persona. Da igual la magnitud del daño que haya hecho, siempre encuentra justificación y se considera una buena persona, pero que hubo que hacer lo que tenía que hacer, o lo que le ordenaron etc. Pero hay malas personas.
Eso incluye a un porcentaje de los que estáis leyendo esto. Alguno de vosotros es una mala persona y hará daño a alguien en algún momento por arrogancia, ambición, competencia, egoísmo, falta de empatía, intereses, o por el simple placer de estar una posición de poder (y un revisor está en una posición de poder mientras ejerce esa tarea), sobrepasando la legítima crítica científica en tono constructivo. Por favor, no lo hagáis.
A Einstein no le gustó que le revisaran un manuscrito. Pero, finalmente, la revisión funcionó.
Guía para la revisión científica
He actuado como revisor en un número muy considerable de artículos científicos (incluyendo revistas «top») y en muchos proyectos de investigación. He estado en paneles de revisión y suelo actuar como revisor para proyectos de NASA. En todos los casos sigo estas líneas generales. No es exhaustivo, seguramente me deje alguna cosa por comentar, pero espero que sirva a quien comienza a enfrentarse a esa tarea, algo cada vez más difícil, pues estamos asistiendo a una crisis del sistema de revisión por pares, debido, entre otras cosas, a los intereses económicos de las editoriales (el trabajo de revisor no es trivial, requiere echarle horas y no está ni pagado ni reconocido y mucha gente no está dispuesta a seguir regalando su esfuerzo al lobby editorial) y la estafa de las open access, pero eso es otro tema.
La misión del revisor es asegurar que el trabajo científico se publique cumpliendo una serie de criterios mínimo de validez científica. Esta tarea beneficia a la Ciencia y beneficia, en primer lugar, a los propios autores. Un buen revisor científico contribuye a mejorar la calidad del trabajo. Forma parte del equipo. No es (no debe ser) una confrontación ni un juicio.
A la hora de revisar el trabajo pregúntate:
¿las conclusiones están soportadas por los resultados experimentales?
¿la metodología es correcta y, sobre todo, está suficientemente bien descrita para asegurar que otros puedan reproducir el trabajo? Esto es sumamente importante. Mucha gente, por intereses varios, falsea o describe insuficientemente los métodos. Imagina que vas a hacer el experimento en tu laboratorio: con lo que cuentan los autores, ¿puedes montar un protocolo completo o te falta algo? Si te falta algo, reclámalo a los autores en la revisión. Si el protocolo está falseado, no puedes hacer nada, salvo que sea muy descarado o te pongas a reproducir el experimento, algo usualmente complicado de hacer.
¿los resultados experimentales se interpretan correctamente? ¿falta algo o se ha «sobreinterpretado» algo? ¿se ha asumido algo que los resultados no dicen? ¿hay alguna confusión evidente? un ejemplo real: los autores tomaron un contaminante habitual en un reactivo como un componente real de una muestra analizada. ¿hay artefactos que se han tomado como un efecto real?. Toda esta parte es crítica y a veces laboriosa para revisar.
¿la discusión de los resultados es completa y recoge las citas relevantes?¿se ha dejado de reconocer el trabajo de alguien que es relevante para lo que se está discutiendo? ¿qué falta que sea objetivamente relevante, no que sea tu opinión. El trabajo que estás revisando no tiene por qué seguir tus ideas. Debes mantenerte en el campo de la objetividad.
¿la introducción es suficiente para justificar el trabajo?
¿se muestran en figuras y datos todos los resultados necesarios para entender el trabajo y sus conclusiones, o falta alguna figura/resultado?
¿hay errores técnicos que deban ser corregidos? En trabajos donde es necesaria, ¿la estadísitica está bien aplicada e interpretada?
Lamentablemente, sobre todo en trabajos de ciertas procedencias, hay mucho fraude, ¿hay alguna evidencia de fraude? tales como: imágenes con photoshop, figuras que parecen «creadas» o «amañadas», cosas «demasiado buenas para ser verdad», datos numéricos que no cumplen la ley de Benford, figuras de espectroscopía que parecen fabricadas (por ejemplo, no tienen ruido o es «raro»). A veces es muy difícil cazar un trabajo fraudulento, pero otras es muy obvio y no te explicas cómo ha podido pasar la ronda de revisión. Las malas personas cometen fraudes y dañan a otros en su trabajo ya sea como autores o como revisores.
Como revisor, debes evitar esto.
Cosas que no debe hacer un revisor:
Asumir la tarea del editor o del corrector literario. La misión de una revisión científica no es corregir el estilo o editar el texto. ¿que no te gusta como lo han redactado? pues muy bien, cuando redactes tu lo tuyo, lo haces como a tí te guste. Lo único que debes hacer es indicar los errores que hayas visto y señalar si alguna frase o párrafo no se entiende o aconsejar que la relean a ver si realmente la pueden mejorar. Esto lo aplico también como tutor en trabajos como TFG o TFM: no soy un editor de textos. No voy a hacer «corrección de textos» en ningún caso, ni tampoco soy un crítico literario, así que no voy a opinar sobre el estilo del texto. Sólo señalar errores o puntos que no he entendido.
Emitir opiniones subjetivas. Una vez un revisor me dijo en una revisión que no se «había sentido excitado» por el trabajo. Si quieres sentirte excitado, hay muchas páginas en internet para ello. La misión de un trabajo científico no es excitar, es transmitir unos resultados, observaciones e ideas. Tu misión como revisor es asegurarte de que cumplen lo que hemos explicado más arriba.
Solicitar que citen tus trabajos. Muchos revisores hacen eso, aunque la cita no sea relevante para lo que están contando. Es una conducta impropia.
Emitir críticas destructivas y juicios de valor. ¿que el trabajo te parece poco relevante? igual a otros no. Tu misión es que cumpla unos criterios de validez científica. Solo el tiempo y los lectores determina la relevancia del trabajo. Igualmente, ridiculizar, reirse o poner comentarios hirientes a los autores, por muy justificados que te parezcan debido a la calidad del trabajo, es algo totalmente inadecuado. Y ocurre. No hay ninguna justificación válida para que un revisor haga bullying a los autores.
Seguir prejuicios. La nacionalidad u origen étnico de los autores no deberían tenerse en cuenta y, mucho menos, hacer comentarios del tipo «oh, este texto no parece escrito por un italiano» (comentario real en una revisión). Cualquier referencia a la nacionalidad de los autores está totalmente fuera de lugar. Os sorprendería ver cuantos científicos, sobre todo anglosajones, son tremendamente racistas.
Asumir que es tu trabajo. ¿que tu harías esto o lo otro? perfecto. Pero no es tu trabajo, ¿el trabajo cumple los criterios mínimos para ser publicado? pues ya está. No tienes que machacar a los autores con mil pijadas, análisis o experimentos adicionales que, realmente, sólo van a complicar la vida y no van a mejorar las conclusiones.
Anteponer tus intereses o ambiciones. ¿que es un trabajo que afecta al tuyo? mala suerte. Es totalmente reprobable retrasar la revisión a propósito, para retrasar la publicación del trabajo porque te interesa para publicar el tuyo, porque uno de los autores te cae mal o por lo que sea. Igualmente, y esto ocurre, es de muy mala persona el promover que el trabajo sea rechazado, y robar las ideas para tu propio trabajo. Si crees que puede haber un conflicto de intereses, declina formar parte de la revisión de ese trabajo.
Anteponer agendas. Esto pasa más con revisiones de proyectos que de artículos, pero ocurre. Anteponer intereses de otros, agendas políticas (por ejemplo, seguir ciertas políticas a la hora de qué hay que financiar preferentemente y qué no, favorecer a unos centros y fastidiar a otros, o bloquear la publicación de artículos que puedan usarse en contra de determinados intereses políticos) o intereses/ambiciones personales es una conducta dañina en las revisiones de artículos y proyectos científicos.
Asumir el papel del editor o del burócrata. Yo considero que mi misión como revisor no es decidir si un trabajo debe publicarse o no en una determinada revista, o si un proyecto debe ser financiado o no. El editor tiene sus tareas, que muchas veces no asumen, limitándose a ejercer de mensajeros. Pero yo considero que, en cuanto un editor me envía una invitación para revisar un trabajo, es que ya ha decidido que este trabajo puede publicarse en la revista. Comentarios del tipo «este trabajo no debería publicarse en esta revista» deben evitarse. Es un jucio de valor totalmente subjetivo. Es el editor el que debe decidir eso. Hay muchas revistas que tienen un formulario de revisión en el que te dicen cosas como «indica si este trabajo está en el top 5%, el top 10%, top 50%». Me parece absurdo. ¿me he leído acaso todos los trabajos que publica esa revista? yo no debo decidir eso. Así que, en ese formulario, siempre pongo el máximo. Igualmente, cuando me preguntan si considero que debe publicarse en esa revista, siempre digo que sí. Que decida el editor. Mira como en las revistas «top» se da mucho el ‘desk reject’: el editor decide que no es para la revista y no lo envía a revisión. Pues yo no asumo el papel de editor. Igualmente, en proyectos, en los formularios de revisión yo siempre recomiendo que el proyecto sea financiado. Que sea el burócrata de turno el que decida a quién le dan el dinero, yo no voy a contribuir a que alguien se quede sin financiación para su tesis.
Pretender que el artículo que revisas siga un determinado paradigma, enfoque, idea o que refleje tu propia opinión. No importa si estás de acuerdo o no con la idea general del trabajo, con la teoría en la que se enmarca o lo que sea. Tu trabajo es hacer una revisión objetiva. Es inapropiado que un revisor haga a los autores modificar ideas u opiniones para alinearse con lo que el revisor piensa, o con lo que tu consideres «el consenso». Mientras que el trabajo sea válido, sus conclusiones soportadas por los resultados y la metodología correcta, tu opinión personal está fuera de lugar.
Por supuesto es inmoral recomendar el rechazo de un artículo porque sustenta una teoría o investiga una hipótesis alternativa a aquella en la que estás trabajando, si no hay una razón científica objetiva (es decir, el trabajo es válido, las conclusiones se soportan por los resultados y la metodología es correcta). Igualmente inapropiado esrecomendar la publicación de un artículo, sólo porque va en línea con tus ideas, teorías o hipótesis, porque sus autores son amigostuyos o tienen prestigio. El proceso de revisión debe ser equivalente para todos, independientemente del prestigio o fama de alguno de sus autores.
Espero que estas pautas generales puedan ser de utilidad a quienes comienzan su carrera como científicos.
La evolución es un hecho, no un relato. Y las moléculas nos hablan de ello.
escrito por C. Menor-Salvan | 26 diciembre, 2025
C. Menor-Salván 12/2024
Creacionismo y evolucionismo no son creencias o hipótesis alternativas; ni siquiera son conceptos establecidos con las mismas reglas. Son los magisterios no solapados tal como explicaba Stephen Jay-Gould. Así, un supuesto debate o confrontación entre supuestos «científicos» creacionistas y «creyentes en la teoría de la evolución» no tiene sentido.
En primer lugar, ¿de qué hablamos cuando hablamos de «teoría»? La evolución es un fenómeno natural. Por lo tanto, es observable. Sobre un fenómeno natural, los científicos construimos un marco teórico que permite explicar las observaciones y realizar predicciones; éste se actualiza al ir afinando nuestra capacidad para realizar observaciones y experimentos. Pero el hecho ocurre estemos nosotros o no para observarlo y construir hipótesis, modelos o teorías para explicarnoslo.
En todas las teorías hay puntos de especial dificultad. En el marco teórico sobre la evolución tenemos, por ejemplo, la cuestión del origen de la vida, donde observamos que las moléculas de la vida, y sus antecesoras, también siguen reglas de selección, adaptación y supervivencia que aún estamos entendiendo.
No creemos en la evolución; la evolución es un hecho observable
Usando un ejemplo quizá mas fácil de entender: la teoría que explica el funcionamiento de las enzimas también tiene puntos oscuros y aún hay discusión científica en torno a ello. Pero nadie pone en duda que las enzimas existen y su acción es un hecho, sea cual sea la teoría que construyamos para explicarlo. Este marco teórico ha ido cambiando, desde el obsoleto modelo de llave-cerradura hasta modelos como Circe o el de estabilización del estado de transición.
Los científicos no «creemos» en la evolución, del mismo modo que no «creemos» en la enzimas. Son fenómenos reales que tratamos de comprender y explicar. Decir «creo en la evolución» es, simplemente, absurdo.
Como tal hecho observable, las ideas en torno a la evolución no son algo nuevo. Según el historiador romano Diógenes Laercio, Anaxágoras de Clazomene enseñaba que
«los seres vivos se formaron de la humedad, el calor y sustancias terrosas; despues, se propagaron por generación unos de otros».
Esta idea evolutiva rudimentaria, lanzada por Anaximandro de Mileto, el maestro-abuelo de Anaxágoras, hace 2500 años, creaba una disonancia cognitiva con el creacionismo, lo que llevó a San Hipólito de Roma a recogerla en sus «Refutaciones de todas la Herejías«. Gracias a ello, tenemos testimonio de las ideas de la escuela de Anaximandro.
Aún hoy, la evolución es considerada pecaminosa por muchos grupos religiosos. Yo mismo he sido testigo de alguna manifestación en contra de la evolución en EEUU, recibida con bastante humor por parte de los científicos y estudiantes que estábamos en el campus, hay que decir.
Observando la evolución sin salir de tu barrio
La evolución no sólo es observable, sino que la llevamos utilizando siglos en nuestro beneficio. Basta comparar las variedades de lechuga cultivada que podemos encontrar en el supermercado, con su pariente silvestre más cercano y, posiblemente, su ancestro: la amarga e indigesta, aunque comestible lechuga silvestre (Lactuca serriola).
La lechuga silvestre. Antepasado de la lechuga cultivada. Foto: Olga Pokotilo/PlantNet
Todo el proceso de domesticación de plantas y animales llevado a cabo por los humanos durante milenios debería probar, en sí mismo, que la evolución es un hecho. Y no es exclusivo de los humanos. En la evolución de la vida terrestre, unas especies han ejercido presión selectiva sobre otras, condicionando su evolución en una compleja red.
El perro original, que surgió de un ancestro común con el lobo gris actual, se ha diversificado un complejísimo arbol filogenético con todas las razas de perro doméstico. Un ejemplo de evolución divergente impulsada por la presión de selección ejercida por humanos. ¿cual es la frontera entre raza y nueva especie?
Tenemos un hecho evolutivo aún mas reciente: la pandemia de SARS-CoV-2. Nunca antes se había seguido la evolución de una especie viral tan de cerca y en tiempo real. Desde el inicio de la pandemia, gracias a la velocidad de replicación de los virus, fueron surgiendo variantes, creándose un complejo árbol filogenético. Durante el proceso, muchas variantes se extinguieron y otras han sobrevivido. Actualmente, tanto el virus como la enfermedad COVID son diferentes a los que existían en marzo de 2020. Este proceso de diversificación se basa en pequeños cambios en las estructuras moleculares que ocurren, inevitablemente, durante la replicación. Estos cambios, a veces, son silenciosos, si se mantiene la funcionalidad estructural; pero, a veces, llevan a las variantes a su desaparición, si la funcionalidad de las estructuras disminuye en las condiciones de ese momento, o a su prevalencia, si le aportan una funcionalidad ventajosa en las condiciones del momento. Con el tiempo, puede llegar a surgir una nueva especie.
Arbol filogenético del SARS-CoV-2. Evolución en vivo. Fuente: DOI 10.1016/j.chom.2024.01.001Dinámica de poblaciones de variantes virales. Estas curvas guardan una gran semejanza con las curvas de poblaciones de moléculas en procesos químicos como reacciones metabólicas o evolución química.
Ante todas las evidencias en torno a la evolución de la vida terrestre, la idea del creacionismo y el diseño inteligente se adaptan y, lejos de ser la herejía que añadía San Hipólito, la evolución se vuelve compatible con la idea religiosa de la creación. Así, en el diálogo público, el creacionismo se muestra con frecuencia como un _Deus Ex Machina_ que rellena convenientemente puntos oscuros en nuestra comprensión sobre la vida y el universo, dejando resueltas cuestiones espinosas, como el origen de la vida o del universo. Ello se combina a veces con una visión incorrecta sobre la evolución, cayendo en la trampa teleológica de que conduce hacia la inteligencia como máxima expresión de un proceso perfeccionador, puesto en marcha a partir de unas constantes físicas ajustadas cuidadosamente por un «diseñador» divino con este fin (el principio antrópico fuerte).
Sin embargo, la evolución biológica no es un proceso de mejora dirigido hacia un destino final. Su base es la preservación de estructuras supramoleculares funcionales, que sostienen la continuidad de la vida y que surgieron también mediante un proceso de evolución prebiótica.
La biología molecular es un tratado sobre la evolución
La biología molecular nos ofrece muchos ejemplos para ilustrar la evolución. Dos de los más interesantes son el ribosoma, cuya estructura relata la evolución de la vida desde su origen, y las polimerasas de DNA y RNA, que conectan todos los organismos y cuentan la historia evolutiva de los virus. El problema es que explicar brevemente para el público los complejos detalles moleculares de la evolución no es trivial. Voy a intentarlo, sin embargo, con un ejemplo sencillo (y simplificado), relacionado con un suceso que, desgraciadamente, se repite todos los inviernos: la toxicidad del monóxido de carbono.
Estructuras de la protoglobina de arqueobacterias y la mioglobina de cerdo, mostrando el grupo hemo en su posición. Ambas proteínas, conectadas evolutivamente, tienen alta similitud estructural y gran afinidad por el monóxido de carbono.
Cuando la vida estaba en sus inicios y la atmósfera no contenía oxígeno, unas arqueobacterias productoras de metano ya estaban dotadas de la proteína protoglobina. Hoy día podemos encontrarlas en lugares tales como sistemas hidrotermales, aguas residuales, algunas minas, donde forman ecosistemas con otros procariotas que usan minerales (sulfuros metálicos) para obtener energía, o en fondos de lagos y mares, donde contribuyen a generar metano atmosférico.
Estas arqueas usan un sistema ancestral para metabolizar monóxido de carbono y usarlo como fuente de energía y carbono. En los inicios de la vida, posiblemente la protoglobina era un sensor de monóxido de carbono y, tal vez, de cianuro, otro componente quizá presente en aquel ambiente. Ambos gases se unen fuertemente al grupo hemo de la protoglobina.
Nosotros tenemos mioglobina y hemoglobina, que almacenan y transportan oxígeno. Estas proteínas evolucionaron a partir de aquellas globinas ancestrales de las arqueas, de quienes heredamos muchas estructuras moleculares, pues somos el resultado de una unión entre arqueas y bacterias que ocurrió hace unos 2000 millones de años.
Hace unos 600 millones de años, comenzó la evolución de la hemoglobina, que posibilitó el transporte de oxígeno desde el ambiente a los órganos, favoreciendo la evolución de los animales. Una consecuencia de este proceso de evolución es que el monóxido de carbono es muy tóxico para nosotros.
Esta toxicidad se debe a que nuestras mioglobina y hemoglobina tienen mucha afinidad por el monóxido de carbono, como la protoglobina arqueal; quizá, es un recuerdo de aquel lejano ancestro, que vivía en un ambiente sin oxígeno, alimentándose del monóxido de carbono. La mioglobina y hemoglobina no son el resultado de un «diseño inteligente», sino que resultan de la evolución de algo que surgió en un ambiente sin oxígeno y cuya función original se convirtió en un problema millones de años después.
Y no es el único problema. La vida nació en un ambiente sin oxígeno; cuando este empezó a aumentar en la atmósfera, tuvo lugar una de las primeras grandes extinciones. Los supervivientes desarrollaron adaptaciones moleculares que «parcheaban» los problemas que surgieron. En un ambiente sin oxígeno, el hierro reducido de la protoglobina era estable; en el ambiente con oxígeno, el hierro de la mioglobina y hemoglobina se oxida, por lo que tuvo que evolucionar un sistema antioxidante.
Otro de estos parches es una modificación en nuestras globinas que reduce ligeramente su afinidad por el monóxido de carbono. Ello reduce lo suficiente la toxicidad del gas como para que los fumadores puedan dar las gracias por ello. Sin esa modificación, los animales no soportaríamos un poco de humo.
La histidina 64, presente en la hemoglobina pero no en la protoglobina, estabiliza la unión del oxígeno al grupo hemo de la hemoglobina, que se produce formando un ángulo, mientras que obstaculiza ligeramente la unión del monóxido de carbono. Aunque el CO sigue teniendo mucha más afinidad por la hemoglobina que el O2, este pequeño cambio aportó una ligera ventaja a los animales.
Este ejemplo ilustra una característica básica de la evolución: el mantenimiento y adaptación de estructuras funcionales, no la mejora hacia un diseño óptimo. La mioglobina de mamífero y la protoglobina de arqueas sólo tienen en común un 13% de la secuencia de sus genes. Ese pequeño porcentaje permite que sus estructuras y función básica (la unión de estos gases) se hayan preservado y guardan una gran similitud estructural.
Las moléculas biológicas nos conectan a todos los organismos en un gran árbol cuya raíz está en el origen de la vida, hace más de 4000 millones de años. Y esto es un hecho, no un relato.
Ultimos hallazgos en Marte. No, de momento no hay vida.
escrito por C. Menor-Salvan | 26 diciembre, 2025
C. Menor Salván. Agosto 2024
Para los astrobiólogos que trabajamos en el laboratorio, la exploración del espacio es esencial. Los datos obtenidos de la exploración planetaria, análisis de meteoritos y asteroides y observación de objetos celestes son claves, tanto en el diseño de experimentos como en la validación de los modelos de laboratorio. Así, la exploración de Marte puede darnos importantes datos para contextualizar todo lo que hacemos y entender mejor cómo se originó la vida en la Tierra.
En esta exploración, el ya venerable rover Curiosity, que cumple este mes 12 años de exploración en Marte, y el más reciente rover Perseverance, no han dejado de enviar innumerables imágenes, análisis e interesantes hallazgos en aquel planeta.
El rover Perseverance observando su entorno: terrenos desérticos, bloques de basalto con erosión eólica, arena y montañas lejanas. A pesar de la familiaridad del paisaje, Marte es inhóspito: frio (temperatura media por debajo de -50ºC), seco, asolado por radiación y con una tenue atmósfera irrespirable a presión muy inferior a la terrestre.
Ninguno de esos hallazgos, hasta el momento, es una prueba directa o indirecta de vida presente o pasada de vida en el planeta.
Aunque ello pudiera parecer una mala noticia, debido al enfoque usual en medios de la exploración de Marte, para los científicos es igualmente interesante. No hay duda de que Marte reunió condiciones de habitabilidad (en el sentido astrobiológico: las condiciones para que se diera el origen y evolución de la vida), tales como agua líquida formando ríos y lagos, y minerales resultado de la alteración de rocas por el agua. Pero habitabilidad no implica vida.
Con vida o sin ella, Marte nos ayuda a comprender las condiciones necesarias para su origen. Mas aún, un planeta en el que hubo habitabilidad, pero en el que la vida nunca llegó a originarse o ir mas allá de sus primeros pasos, nos ofrece un escenario geológico prístino en el que la vida no ha transformado e impregnado con sus huellas (biofirmas) toda la superficie del planeta. En cierto modo, es como si comparamos una casa que se terminó hace 30 años, pero en la que no llegó a vivir nadie, con una casa habitada durante todo ese tiempo.
No sólo la vida motiva la investigación de Marte. Intentamos entender su historia geológica, sus minerales y su medio ambiente. Al final, el origen y evolución de la vida no se puede entender sin Geología. Por ello, los rovers son ‘robots geólogos’ preparados para observar su geomorfología, analizar rocas y minerales, obtener datos medioambientales y tomar muestras. En esta gesta, hay hallazgos curiosos, como los que nos han ofrecido recientemente estos exploradores.
Azufre nativo
El rover Curiosity ha encontrado las primeras muestras de azufre nativo cristalizado fuera de la Tierra. El azufre es abundante en la superficie de Marte, mayoritariamente en forma de sulfato, pero no se había encontrado hasta ahora en forma nativa. Este hallazgo es importante para entender la geoquímica de Marte y añade más complejidad a nuestro vecino cósmico.
Fragmentos de azufre cristalizado hallados en Marte por el rover Curiosity. Obsérvese la textura escoriácea. Foto NASA/JPL
El azufre nativo es frecuente en la Tierra y se encuentra en numerosos ambientes: volcanes, desiertos salados, fondos lacustres o formaciones sedimentarias. En nuestro planeta, gran parte del azufre nativo tiene un origen biológico. Muchas bacterias utilizan el sulfato para respirar, como nosotros usamos el oxígeno. Como deshecho de la respiración, ellas generan especies reducidas de azufre, como sulfuros o azufre. En ocasiones, el azufre biogénico se ha formado en tal cantidad, que ha podido ser explotado en minas, como las de La Serrata de Lorca (Murcia, España) o Agrigento (Sicilia, Italia).
Azufre formado por reducción biológica de sulfato, junto con carbonato (calcita). Serrata de Lorca (Murcia) Azufre biogénico, junto con sulfato y carbonato, de Agrigento (Sicilia)
Esto no quiere decir que el azufre nativo en Marte sea biológico. En la Tierra, el azufre es frecuente en volcanes, en los que se forma químicamente a partir de las emanaciones de gases, generándose depósitos en los que abundantes sulfatos acompañan al azufre. Este podría ser el caso de Marte, ya que el azufre nativo se ha hallado en una zona muy rica en sulfato.
Azufre formado en una fumarola del volcán Námajfall, en Islandia. El azufre se deposita a temperatura elevada en forma de agujas monoclínicas de azufre beta, que se transforma lentamente en azufre alfa ortorrómbico, estable por debajo de 95ºC, al bajar la temperatura. Está rodeado de abundantes sulfatos. En ocasiones, las emisiones de azufre son tan abundantes, que éste forma masas fundidas.
Algunos científicos piensan que, por las reacciones químicas que implica, en algunas de las cuales interviene el oxígeno del aire, el azufre nativo no debería haberse encontrado en Marte. Otros pensamos que su hallazgo era esperable, pues hay varias reacciones que podrían producirlo durante el rico vulcanismo marciano, sin necesidad de bacterias ni oxígeno atmosférico. Hay varias rutas por las que puede generarse azufre elemental no biológico. Por ejemplo, la reducción termogénica de sulfatos por metano, hidrógeno o materia orgánica:
Otro proceso fundamental en entornos volcánicos es la dismutación del SO2 emitido por la actividad volcánica, que, en presencia de agua, forma ácido sulfúrico, que corroe los materiales circundantes generando mezclas de sulfatos, tales como alunita y yeso:
3SO2 + 2H2O = 2H2SO4 + S
Es fascinante ver en vivo este proceso, en un volcán activo. Algunos científicos piensan que para producirse SO2 es necesario un ambiente oxidante, lo que crea dificultad para explicar el azufre marciano. El sulfuro de hidrógeno, también producido en cantidad importante en emanaciones volcánicas o por reducción biológica de sulfato, puede experimentar estas reacciones:
2SH2 + SO2 -> 3S + 2H2O
CaSO4 + CO2 + 3SH2 -> CaCO3 + 4S + H2O
Otra fuente de azufre son los sulfuros metálicos. Aunque la pirita debe ser muy rara en Marte, si pueden ser, o haber sido, frecuentes otros sulfuros, como la pirrotita, la troilita u otras formas de sulfuro de hierro. Un sulfuro de hierro, en presencia de agua, puede dar lugar a hematites o goethita y sulfuro de hidrógeno, que se incorpora en las reacciones anteriores. Para esta alteración acuosa no es necesaria una atmósfera oxidante.
En cualquier caso, sólo con una imagen es muy difícil decir algo sólido o definitivo sobre el origen de éste azufre nativo marciano. Habrá que esperar a próximas misiones. Lamentablemente, el azufre ha sido localizado por Curiosity, que no tiene implementado el sistema de preparación de muestras para enviar a la Tierra.
«Manchas de Leopardo»
Otro extraño hallazgo reciente en Marte lo ha protagonizado el rover Perseverance, en una peculiar roca, que han llamado Cheyava Falls.
En ella se observan unas pequeñas manchas, que han llamado leopard spots, formadas por un centro claro, rodeado de una banda oscura en la que hay hierro y fosfato. También se observa un mineral rojo formando bandas y costras, que podría ser hematites y que es uno de los componentes importantes. La roca está atravesada por venas blancas de sulfato de calcio (probablemente no es yeso, sino una fase menos hidratada, pero no sabemos cual) que parecen rellenar fracturas en la roca. Se observan además muchos cristales redondeados de olivino.
Las «manchas de leopardo», en una matriz de roca rica en óxidos de hierro y atravesada por numerosas venas de sulfato de calcio (anhidrita?). Abundantes cristales de olivino rico en hierro posiblemente detrítico, de ahí que formen cantos redondeados libres, completan la escena. Sugerente de meteorización y alteración por agua, la naturaleza de las manchas es un misterio.
No hay mucha información pública aún y habrá que esperar a que los científicos tengan todos los datos y los reporten en forma de artículo científico. De momento, esta roca lo que sugiere es lo que ya sabíamos: que en Marte hubo agua líquida y diversos procesos de alteración.
Lo que aún no nos dice esta roca es nada sólido sobre la vida. Ni siquiera la NASA lo dice en su comunicación pública inicial. Lo que dicen es, literalmente, que «las reacciones químicas que dieron lugar a estas manchas podrían haber servido como fuente de energía para la vida microbiana en Marte, en caso de que hubiera existido». O sea, tenemos varias especulaciones: quizá los procesos geoquímicos que dieron lugar a estas pequeñas manchas podrían haber servido para sostener vida microbiana en Marte (llamados quimiolitótrofos: organismos que obtienen energía mediante las transformaciones de minerales), caso de que existieran. No se puede descartar tampoco que estas manchas puedan haber sido producto de actividad biológica; pero, por el momento no son evidencias de un pasado con vida en Marte.
Estos hallazgos subrayan las limitaciones de la exploración robótica. Ya es un éxito tener un robot de exploración con instrumentación en otro planeta. Pero todo tiene un límite. Por ejemplo, el rover Perseverance está equipado con un espectrómetro Raman. Pero esta técnica es muy difícil y puedo imaginar que, en muestras en bruto y en las condiciones de medida, no está siendo nada fácil obtener buenos espectros.
Es necesario traer muestras a la Tierra, para analizarlas adecuadamente. Este hito es uno de los objetivos de la próxima misión Mars Sample Return, una ambiciosa gesta en la que se enviarán a la Tierra las muestras preparadas por el rover Perseverance, incluyendo la roca en la que se encontraron las ‘manchas de leopardo’.
La misión Mars Sample Return será la más ambiciosa hasta ahora en Marte y nos permitirá resolver muchas cuestiones abiertas por los rovers.
Respecto a las evidencias de vida en Marte, los medios, en ocasiones, transmiten noticias con titulares entusiastas, exagerados o incorrectos, creando confusión en el público. Hay saturación de noticias con titulares haciendo clickbait con los resultados científicos, o confundiendo especulaciones con hechos. A veces, los propios científicos inducen cierta confusión, pues no son inmunes a la competición por el impacto y la atención, ni a la necesidad de transmitir éxito en sus proyectos. Ello da una imagen errónea acerca de cómo y por qué se hace la Ciencia, dificultando la educación científica del público y estudiantes. Debemos enseñar a valorar las noticias científicas en su contexto real. Para ello, es importante una divulgación honesta que cuente con científicos activos y cuidar la enseñanza de la ciencia y de su epistemología.
Verano, piscina y desinfección con sal: una introducción a la electrolisis y las leyes de Faraday
escrito por C. Menor-Salvan | 26 diciembre, 2025
Una piscina puede ser un sitio excelente para aprender química. En este experimento sencillo podéis ver como funciona la cloración de piscinas con sal y cómo nos enseña conceptos como la electrolisis y la química del cloro
El mantenimiento de la calidad del agua de una piscina es un interesante problema de química, y no es tan sencillo como parece. Uno de los aspectos claves del agua de la piscina es la desinfección por cloración, que requiere el uso de cloro (Cl2) o hipoclorito (ClO−), poderosos oxidantes y desinfectantes. Un sistema actual efectivo para conseguir la cloración del agua es la “cloración por sal”, en la que se añade a la piscina una determinada cantidad de sal común (cloruro sódico, NaCl) y, aprovechando la química inorgánica del cloro, conseguimos la cloración. Este sistema tiene una serie de ventajas y de inconvenientes, pero para nosotros nos resulta útil como un contexto de interés para enseñar algunos conceptos químicos. En el sencillo experimento que os muestro, veremos cómo funciona la cloración por sal. Esto puede ser útil para la enseñanza de la química a nivel Bachillerato. Como tal, vamos a abordarlo sencillamente y sin tener en cuenta posibles reacciones secundarias más complejas.
Electrolisis
Disolvemos 2-2.5 gramos de NaCl en medio litro de agua, en un vaso grande que usaremos a modo de celda electrolítica:
Esta cantidad de sal supone aproximadamente un 0.5%, algo más baja que la concentración de sal en el suero fisiológico, que es 0.9%. Por ello, esta cantidad en la piscina no produce ni escozor ni molestias, pero es suficiente para desinfectar el agua.
Una vez disuelta la sal, montamos un pH-metro para controlar el pH, así como dos electrodos de grafito para realizar la electrolisis. El pH del agua con sal en nuestro caso es prácticamente neutro (introducimos el concepto de pH).
Una vez sumergidos los electrodos en la disolución de agua con sal, los conectamos a la fuente de alimentación y hacemos pasar una corriente de 100 mA. Los iones de la sal se desplazarán en el campo eléctrico generado por los electrodos, y, en ellos, tendrán lugar unas reacciones químicas. Lo primero que le ocurre a la sal al disolverse en agua, es que se disocia (concepto: compuestos y enlace iónico):
NaCl + nH2O–> Na+(H2O)n + Cl−(H2O)n
El agua hidrata los iones, que se estabilizan en solución. Los iones positivos son atraídos hacia el electrodo negativo (que llamaremos cátodo: el electrodo hacia el que van los cationes o iones positivos) y los iones negativos irán hacia el ánodo (electrodo positivo; nótese que en las pilas la denominación es al revés). Así, tendremos dos situaciones distintas:
Anodo
En él se verifica la reacción (prescindiendo del agua de hidratación de los iones) en la que un anión cloruro libera un electrón, que constituye la corriente eléctrica que fluirá por el electrodo; el átomo de cloro resultante queda adsorbido en la superficie de grafito (concepto: adsorción):
Cl− —> Cl (ad) + e−(reacción de Volmer)
Pero los átomos de cloro son muy inestables y reactivos, por lo que rápidamente tenemos dos posibles reacciones: un átomo reacciona con otro, formándose una molécula de cloro elemental, o bien un átomo reacciona con un ión cloruro, formándose cloro elemental también:
Cl (ad) + Cl (ad)—> Cl2 (reacción de Tafel)
Cl− + Cl (ad) —> Cl2+ e− (reacción de Heyrovsky)
Este mecanismo de formación de cloro se conoce como mecanismo de Tafel-Heyrovsky. En él, la porosidad del electrodo juega un papel clave. El cloro en este mecanismo es muy reactivo, por lo que también reacciona con el carbono del electrodo, formando compuestos clorados que se descomponen después en carbón, cloro y óxidos de carbono. Esto hace que el electrodo sufra corrosión (otro concepto químico implicado), que se manifiesta en desgaste del electrodo y formación de carbón finamente dividido en el agua. Si tenéis un sistema de cloración por sal en la piscina, hay que tener ésto en cuenta para el desgaste de los electrodos.
Cátodo
Aquí no podemos esperar la formación de sodio elemental (Na+ + e− –> Na), debido a que es un metal muy activo. Mientras haya agua, no puede formarse sodio metálico, debido a que su potencial de reducción es negativo, considerando el del hidrógeno como potencial cero. Todos los metales que tengan un potencial de reducción negativo, no pueden formar el metal libre en la electrólisis, y, al revés, los metales con potencial de reducción positivo pueden formar metal en la electrolisis (caso del cobre o la plata). Esto nos permite introducir el concepto de la serie electroquímica. Como el hidrógeno tiene “preferencia” respecto del sodio, la reacción en el electrodo negativo será:
2H2O + 2e− –> H2 + 2 OH−
El hidrógeno es un gas, por lo que se desprenderá en forma de burbujitas, formado gracias a los electrones proporcionados por la corriente eléctrica que estamos suministrando. El cloro también es un gas, pero veremos muchas menos burbujas debido a su solubilidad en agua. Como veis, en la reacción se forma un anión, el hidroxilo o OH−. Para conservar la carga tenemos los cationes Na+ . Globalmente, la reacción que estamos llevando a cabo es:
2 H2O + 2 NaCl —> H2 + Cl2 + 2 NaOH
Y así, con ayuda de la corriente eléctrica, estamos convirtiendo la sal común en cloro, que nos desinfectará el agua. Vamos a verlo:
Llevamos a cabo la electrolisis durante tan sólo un minuto. Veis cómo en el electrodo negativo o cátodo se desprenden abundantes burbujas de hidrógeno, mientras que en el ánodo, a simple vista, no parece pasar mucho. Pero…¿que hay del pH?. Tras un minuto de electrolisis, el pH ha subido hasta 9, haciéndose alcalino. Esto es debido al hidróxido sódico, o NaOH, que se ha formado en la reacción catódica. Este compuesto (también llamado sosa caústica y que podéis encontrar en el súper) aumenta el pH del agua. Un pH alto haría el agua no usable para el baño, por lo que en un sistema de cloración debe controlarse estrictamente. El aumento de pH tiene otra desventaja: puede favorecer la precipitación de carbonato de calcio si el agua de la piscina es muy calcárea. Esto se traduce en turbidez blanca en el agua o formación de depósitos de “cal” en el sistema, algo que hay que tener en cuenta en el mantenimiento de sistemas de cloración por sal. Si agitamos bien y dejamos reposar unos momentos, vemos cómo el pH baja rápidamente, aunque sigue manteniéndose por encima de la neutralidad:
¿por qué al cabo de un poco de tiempo y al agitar se reduce el pH final?. Esto es debido a que el cloro elemental, que hemos generado en el ánodo, se disuelve en el agua y reacciona con el hidróxido sódico que hemos generado en el otro electrodo, por lo que tenemos:
Cl2 + 2NaOH —> NaClO + NaCl + H2O
El NaClO es el hipoclorito sódico o lejía común. La formación de hipoclorito estabiliza el cloro “activo” en el agua y es un gran desinfectante. A pesar de ésta reacción, el agua queda alcalina debido a que el hipoclorito es una sal de ácido débil y base fuerte, otro concepto químico que se puede introducir. No podemos bañarnos en agua con un pH elevado, pues podría producir irritaciones en la piel; por ello, debemos añadir a la piscina un corrector de pH. En éste caso, el corrector de pH adecuado es el ácido clorhídrico (HCl), que neutraliza el exceso de pH y regenera la sal. Así, teóricamente, una vez añadida la carga inicial de sal, no es necesario añadir más; bastaría con, simplemente, ir neutralizando con ácido clorhídrico para mantener los niveles de sal constantes, gracias a la reacción:
HCl + NaOH —> NaCl + H2O
2HCl + NaClO —> NaCl + Cl2 + H2O
Detección de cloro con o-tolidina
¿como verificamos la formación del cloro y su concentración en el agua de nuestra “piscina”? Pues simplemente con el reactivo usual que se utiliza para medir el cloro en piscinas, y que constituye una prueba colorimétrica del contenido en cloro. Con ello introducimos el concepto químico de la colorimetría, en la que un reactivo produce una reacción coloreada con la sustancia que queremos analizar, y el color resultante es proporcional a la concentración de dicha sustancia. En nuestro caso, utilizaremos un reactivo bien conocido por quien se ocupe de mantener una piscina, llamado O-tolidina (también orto-tolidina. No confundir con la orto-toluidina, que es un compuesto distinto). Basta con añadir un par de gotas de una solución del reactivo en el agua que queremos analizar, para revelar la presencia y estimar la concentración de cloro o hipoclorito. Cuanto más intenso es el color amarillo, mayor será la concentración.
¿que ha ocurrido?. El reactivo o-tolidina, que es incoloro, reacciona con el cloro contenido en el agua para formar un colorante de color naranja o amarillo intenso, dependiendo de la concentración:
Esto es debido a la oxidación del reactivo por el cloro, que forma una molécula intensamente conjugada y, por tanto, fuertemente coloreada (el concepto químico de la conjugación es algo más complejo, por lo que no se si se introduce a nivel bachillerato). Esta reacción es muy sensible y nos permite detectar tan sólo 0.14 ppm de cloro en agua.
La utilidad de la o-tolidina en la determinación de cloro en agua se descubrió en 1913. Un siglo después, sigue siendo un método sencillo, rápido y útil para estimar la concentración de cloro. Es importante tomar la medida del nivel de cloro, pues un nivel demasiado bajo puede poner en riesgo nuestra salud, así como un nivel demasiado alto puede provocar irritaciones molestas, dermatitis y molestias en ojos y garganta, además de formar una concentración más alta de cloraminas, responsables del olor “a piscina” y que son irritantes.
Calculando cuánto cloro se va a liberar: leyes de Faraday
¿podemos calcular la cantidad de cloro que vamos a generar?. Si, gracias a otro importante concepto químico: las leyes de Faraday. Un gran genio y uno de los héroes científicos de la Historia, el químico inglés Michael Faraday, estudió la electrólisis y, en 1833, enunció sus leyes fundamentales:
El peso de un elemento liberado en un electrodo es directamente proporcional a la cantidad de electricidad (carga total) que pasa a traves de la celda electrolítica, es decir, es proporcional a la intensidad eléctrica multiplicada por el tiempo. En nuestro ejemplo, hemos hecho pasar una carga de 0.1A x 60 segundos = 6 culombios.
El peso de un elemento liberado por una cantidad dada de electricidad es proporcional al peso equivalente, o equivalente gramo (peso atómico / carga) del elemento.
La cantidad necesaria de electricidad para que se libere un peso equivalente de un elemento es de 96494 culombios. Este valor es lo que conocemos como constante de Faraday.
Siguiendo las leyes de Faraday, entonces, si en nuestro experimento hubieran pasado 96494 culombios de electricidad, se habían liberado 35.5 gramos de cloro (o sea, un peso equivalente de cloro). Dado que han pasado 6 culombios, se habrán liberado 2,2 miligramos de cloro. Como teníamos medio litro de agua, esto nos da una concentración esperada de 4.4 ppm. ¡Muy próxima al valor que medimos con la o-tolidina!. ¡Gracias, profesor Faraday!. Si hacemos el experimento cuidadosamente (midiendo tiempo e intensidad, y haciendo la colorimetría con un colorímetro) veríamos que la ley de Faraday se cumple con gran precisión. Este entonces es un magnífico experimento para enseñar, de modo práctico, las leyes de Faraday de la electrólisis.
Como las leyes de Faraday predicen, si aumentamos el tiempo de electrólisis, aumentamos la intensidad eléctrica, o, manteniendo el mismo voltaje de celda, aumentamos la concentración de sal, aumentaremos la concentración final resultante de cloro. Por ello es importante, en las piscinas, mantener la concentración de sal dentro de las especificaciones de la instalación.
Indicador de pH
En los videos anteriores hicimos la reacción en nuestra celda electrolítica midiendo el pH con un pH-metro electrónico. Una modificación vistosa del experimento con fines didácticos y que nos permite introducir el concepto de indicador de pH consiste simplemente en añadir fenolftaleína al agua del vaso. La fenolftaleína es incolora a pH inferior a 8.2, tomando un color rosa a púrpura a pH más alto, hasta volverse de nuevo incolora a pH mayor de 10. La reacción de la fenolftaleína es:
La fenolftaleína nos va a revelar la formación de OH− en el cátodo de un modo sencillo:
Como veis, usando la piscina como marco y aplicación, podemos hacer un experimento muy simple y que nos permite abordar, de modo práctico, una serie muy amplia de conceptos químicos:
Electrolisis y leyes de Faraday
Compuestos iónicos: disolución y conductividad
Química del cloro: síntesis del elemento y reacciones
Colorimetría
pH e indicadores de pH. Acidos, bases y neutralización.
Otros conceptos anejos, como adsorción, corrosión, formación de cal en agua corriente, conjugación y el color de los colorantes…
Y esto, mas o menos, es lo que tiene en la cabeza un químico (bueno, al menos yo) cuando va a bañarse a la piscina. ¿la piscina en la que estáis ahora usa cloración con sal o cloración clásica?
Tengo intolerancia a la lactosa: ¿debo comprar «mantequilla sin lactosa»?
escrito por C. Menor-Salvan | 26 diciembre, 2025
C. Menor-Salván. Mayo 2024.
La lactosa es un azúcar natural presente en la leche de los mamíferos en una cantidad considerable. La leche humana contiene aproximadamente un 7-8 % de lactosa, y la leche de vaca comercial tiene una proporción variable entre el 3 y el 5 %.
Es un disacárido, es decir, un azúcar formado por la unión química de otros dos azúcares más simples (monosacáridos). En este caso, esos dos azúcares son glucosa y galactosa. Todos estamos muy familiarizados con el aspecto de los disacáridos: el azúcar común o sacarosa es un disacárido formado por glucosa y fructosa. En los disacáridos es muy importante, tanto la composición como la geometría con la que se unen los dos azúcares simples. Esto cambia sus propiedades; por ejemplo, la lactosa tiene aproximadamente un 20% del dulzor de la sacarosa, debido a que, por su estructura, no interacciona tan bien con los receptores de la lengua. De ahí que la leche no nos sepa tan dulce.
La lactosa es fundamental en las primeras fases del desarrollo, durante la lactancia, debido a que es una fuente de galactosa, necesaria, entre otras cosas, para el correcto desarrollo del sistema nervioso e inmunológico del niño, debido a que se incorpora estructuralmente en moléculas esenciales como los cerebrósidos y es necesaria para formar la mielina. Es importante también como prebiótico, y ayuda a crear y mantener un ecosistema microbiológico sano en el intestino, además de ayudar a la absorción de calcio y oligoelementos.
La lactosa requiere, para su absorción, una enzima, la lactasa, que rompe la molécula en sus dos componentes, para que puedan ser absorbidos:
La lactasa, presente en el intestino delgado, rompe la molécula de lactosa, permitiendo la asimilación de la glucosa y la galactosa.
Y aquí tenemos el problema: los bebés lactantes tienen una actividad lactasa elevada, pero ésta disminuye al terminar la lactancia, reduciéndose la absorción de lactosa. Gran parte de los humanos mantienen un cierto nivel de lactasa durante toda su vida, gracias a una mutación que hizo posible que podamos seguir tomando leche y productos lácteos durante la edad adulta. Pero muchos humanos tienen una actividad lactasa muy baja, lo que provoca intolerancia a la lactosa: ésta no se rompe y absorbe, quedándose en el tracto intestinal y produciendo malestar, hinchazón y gases, al llegar al intestino grueso, donde se convierte en un festín para las bacterias, e incluso diarreas, debido al desequilibrio osmótico que provoca. Aproximadamente el 30% de la población en España tiene intolerancia a la lactosa, con efectos que pueden ser desde casi inapreciables o leves, hasta moderados o intensos, haciendo imposible para la persona en este caso tomar leche. Es importante no confundir la intolerancia a la lactosa con la alergia o la intolerancia a las proteínas de la leche, algo completamente distinto.
¿Tiene lactosa la mantequilla?. Tests de lactosa
Vamos a realizar ahora un ensayo químico muy sencillo para detectar y determinar aproximadamente la lactosa en una muestra de leche y otra de mantequilla. Este test, en una versión un poco mas compleja, se ha utilizado para la determinación colorimétrica de la lactosa. Es el test del ácido pícrico. Se basa en la reacción entre la lactosa (u otros azúcares reductores) y el ácido pícrico, de color amarillo, en un medio alcalino. Según la cantidad de azúcar presente, el ácido pícrico se reduce a ácido picrámico, de color rojo, dando una coloración desde anaranjada a rojo intensa.
El primer paso es eliminar las proteínas de la leche. En este caso, hemos usado un poco de leche desnatada, y precipitamos las proteínas añadiendo la misma cantidad de una solución de ácido tricloroacético al 24%.
Izquierda, leche tras precipitar las proteínas. Derecha, muestra sin precipitar. Para el ensayo de azúcar tomamos el líquido claro tras centrifugar las proteínas.
Tomamos 1 ml del líquido claro sin proteínas que vemos en la foto, añadimos 1 ml de solución saturada de ácido pícrico y 1 ml de NaOH al 5%. Se calienta durante 2 minutos a 100º. En el caso de la mantequilla, el proceso es mas laborioso: extraemos una porción de mantequilla con agua, separamos la materia grasa y hacemos el ensayo con el extracto acuoso, una vez concentrado por liofilización, pues los azúcares están en baja proporción y son solubles en agua. Aquí tenéis el resultado:
En el tubo 1, la muestra de leche tiene un contenido alto de lactosa, como se ve comparado con el tubo 2. En el tubo 3 vemos el resultado con mantequilla de un conocido supermercado (segun etiqueta, sus azúcares totales son 0.4%) y en el 4 con agua. Como se ve, la mantequilla apenas contiene azúcar. El contenido de esta muestra, una vez calculado, nos sale en torno a 0.5%, por lo que, salvo que se tenga una intolerancia realmente severa, se puede consumir mantequilla y productos conteniendo mantequilla sin problema. Es lógico: la mantequilla se prepara con la fracción grasa; la lactosa es una molécula polar que no se disuelve en la grasa y se separa en la fracción acuosa durante la preparación de la mantequilla. Pero, ¿realmente contiene lactosa?
Etiqueta nutricional de la mantequilla que hemos usado en el ensayo. Según ella, los azúcares totales son el 0.4%, comparable al resultado de nuestro ensayo.
Azúcar bajo el microscopio
El test del ácido pícrico es muy sencillo y eficaz para detectar lactosa, pero no es específico, por lo que estamos viendo realmente los azúcares reductores totales. Otros azúcares y sustancias reductoras tienen capacidad para reducir el ácido pícrico, como la glucosa o la fructosa. ¿podemos comprobar, de modo simple, que la muestra que hemos usado tenga realmente lactosa?. Hay un test que, con ayuda de un microscopio biológico normal, puede resolverlo: los azúcares reaccionan con la fenilhidracina, dando lugar a un compuesto insoluble llamado fenilosazona. Las fenilosazonas son diferentes para cada azúcar y cristalizan, formando agregados cristalinos distintos, que pueden diferenciarse fácilmente con el microscopio (si se han hecho en las mismas condiciones), excepto en el caso de azúcares que forman la misma fenilosazona, como el caso de la glucosa y la fructosa.
Si hacemos el test con nuestra muestra de leche vemos este resultado:
¿A qué azúcar diríais que corresponde?. Correcto, es lactosa. Si hacemos el test despues de extraer y concentrar las trazas de azúcar que contiene la mantequilla y la analizamos observamos esto:
La proporción de azúcar es bajísima y formada principalmente por glucosa/fructosa y otras. De hecho, no hemos podido detectar lactosa y la proporción de azúcar real es incluso inferior a la que observamos con el test del ácido pícrico, que podemos considerar nuestro máximo, ya que da una proporción aparente algo mayor de la real en concentraciones muy bajas. También depende de la marca, pero, en general, las mantequillas tienen una proporción real de azúcares reductoresusualmente inferior al 0.1%. Durante la elaboración de la mantequilla se incorporan, además, microorganismos como bacterias lácticas, que metabolizan la poca lactosa que llevaba durante la elaboración, y fermentan las grasas; es el proceso de maduración, que proporciona el olor y sabor característico de la mantequilla. El escaso contenido en azúcares totales depende de cómo se ha preparado cada mantequilla en particular (en muchos casos, por ejemplo, se bate con leche para rebajar el contenido graso), pero casi siempre va a ser inferior al 0.5%.
Mantequilla ‘sin lactosa’, ¿un producto innecesario fruto del temor o rechazo a los lácteos con lactosa? ¿para que los intolerantes a la lactosa que no saben bioquímica puedan usar mantequilla con tranquilidad? Mantequilla tradicional de Soria. «contiene cantidades insignificantes de azúcares». De hecho, la lactosa es indetectable aquí.
En conclusión: La mantequilla contiene una proporción muy baja de azúcares (de 10 a 100 veces inferior a la leche entera) y un contenido en lactosa usualmente inferior al 0.1%, comparable a la de la leche ‘sin lactosa’. Un vaso de leche de 200 cc nos va a proporcionar aproximadamente entre 10 y 15 gramos de lactosa, lo cual es una cantidad considerable para una persona con intolerancia a la lactosa; pero, suponiendo el improbable caso de que la mantequilla llegara a contenter un 0.4% de lactosa, la típica pastilla de mantequilla de 10 gramos con la que suelen acompañar la tostada en el desayuno, nos proporcionaría tan solo 40 miligramos de lactosa. Por ello y dada la cantidad de mantequilla que se suele consumir, no es necesario comprar mantequilla «sin lactosa», ni es necesario pedirle al camarero que nos cambie la pastillita o tarrinita de mantequilla por una ‘sin lactosa’.
El Experimento de Miller
escrito por C. Menor-Salvan | 26 diciembre, 2025
C. Menor-Salván. Mayo 2024
Tal dia como hoy, un 15 de mayo de 1953, la revista Science publicó un artículo científico histórico: el experimento de Stanley Miller, en aquel entonces un joven estudiante de doctorado bajo la dirección de Harold Urey. En el experimento realizó por primera vez una simulación de supuestas condiciones de la Tierra primitiva y en el que se demostraba que componentes químicos de la vida, los aminoácidos, pueden generarse fácilmente en condiciones naturales a partir de gases atmosféricos.
El experimento de Miller inauguró todo un campo de estudio científico, la Química Prebiótica y la Evolución Química, y es una de las piedras angulares de la Astrobiología. Un experimento sencillo y elegante que ha inspirado a muchos científicos durante décadas y hoy se reproduce innumerables veces desde institutos de enseñanza secundaria hasta laboratorios de investigación.
Primera página del artículo histórico de Stanley Miller. Aunque era un estudiante en el laboratorio de Harold Urey, este, en un gesto de generosidad, rechazó firmar el artículo como coautor para evitar que su fama hiciera sombra al joven Miller, a quien pertenece el mérito del experimento.
El artículo de Miller, de tan solo dos páginas, en una época en la que los trabajos científicos eran mucho más concisos y directos, tuvo un impacto inmediato en el mundo científico y en el público. Su validez se mantiene hoy dia, pues es una demostración de que, posiblemente, los componentes básicos que están en el inicio del proceso de origen de la vida, son universales y equivalentes en cualquier lugar de la galaxia.
Los amigos de Biophylia, una magnífica iniciativa de divulgación rigurosa de la ciencia que están llevando a cabo en México, me invitaron a dar una clase magistral sobre el experimento de Miller y los inicios de la experimentación sobre el origen de la vida. Es un tema amplio, con muchas implicaciones y derivadas, incluso religiosas y políticas. Aquí lo tenéis, para que os sirva al menos de punto de partida para conocerlo un poco y entender sus resultados y su contexto:
Una mutación en la glucosa-6-fosfato dehidrogenasa y su influencia en la constante de Michaelis-Menten y la eficiencia catalítica de la enzima.
escrito por C. Menor-Salvan | 26 diciembre, 2025
La glucosa-6-fosfato dehidrogenasa (G6PDH) es una enzima fundamental en el metabolismo central. Conecta la glucolisis con el metabolismo de los azúcares en el ciclo de las pentosas fosfato, a través de la oxidación de glucosa-6-fosfato a 6-fosfogluconolactona por NADP+. La reacción es una fuente de NADPH, que es un cofactor crucial en algunos procesos bioquímicos, como la recuperación del glutation, un pequeño péptido esencial para evitar daños por estrés oxidativo.
Esquema simplificado del metabolismo central. La reacción de la G6PDH (arriba, izquierda) conecta la glucolisis con el ciclo de las pentosas fosfato
La recuperación de glutation es especialmente significativa en los glóbulos rojos, en los que esta reacción es su única fuente de NADPH. Si sus niveles se ven comprometidos, los glóbulos rojos se ven afectados por daño oxidativo y puede producirse anemia hemolítica
Esto puede tener lugar por deficiencia de la enzima G6PDH, que es, precisamente, una de las enzimopatías más comunes, afectando a casi 500 millones de personas en todo el mundo, principalmente en Africa, Peninsula Arábica y Sudeste Asiático. Se han descrito 230 mutaciones con relevancia clínica, principalmente hombres, al estar ligadas al cromosoma X. Las más graves producen anemia hemolítica y las menos severas producen hemolisis asociadas a tóxicos que producen estrés oxidativo o algunas toxinas, como las lectinas presentes en las judías.
La razón de esa distribución es que, curiosamente, la deficiencia de esta enzima confiere resistencia contra la malaria producida por el parásito Plasmodium falciparum. Entonces, en las zonas donde la enfermedad es endémica, las mutaciones de G6PDH proporcionan una ventaja evolutiva, prevaleciendo gradualmente sobra la enzima más activa, ya que el parásito requiere de ésta para su ciclo vital.
Mutación en la arginina 219
En el trabajo publicado en Nature Communications por Zgheib et al., se describe un caso muy interesante desde el punto de vista de la bioquímica estructural. Un joven paciente de 15 años sufrió hemolisis y pancitopenia tras una infección viral. Los autores estudiaron el caso y, tras ver en su historia que un tío suyo tenía deficiencia de G6PDH, llevaron a cabo el estudio bioquímico de la enzima.
Descubrieron una nueva mutación en la enzima, en la que una arginina en la posición 219 se había sustituido por una glicina. Esta mutación puede estar asociada a un cambio de un simple nucleótido, pues los codones de glicina y arginina sólo se diferencian en su primer nucleótido, siendo G para arginina y C para glicina.
El problema es que el cambio de un aminoácido con carga como la arginina por un aminoácido neutro de pequeño tamaño como la glicina puede tener importantes implicaciones en la estructura de la proteína. En efecto, la arginina 219 estabiliza la estructura proteica, que es un dímero, a través de un puente de hidrógeno y de la carga positiva, por interacción electrostática. Al cambiar por la glicina, se pierden esas interacciones electrostáticas en una posición clave, desestabilizándose la estructura de la enzima y dificultando su acción catalítica. Los autores comprueban que, en efecto, la enzima mutante es mucho más sensible a la desnaturalización, debido a la desestabilización estructural. La enzima mutante pierde actividad a temperatura superior a 44ºC, mientras que la enzima WT (wild type, la enzima funcional normal) pierde actividad a temperaturas superiores a 50ºC.
Estructura de la glucosa-6-fosfato dehidrogenasa. Arriba, superficie electrostática de la molécula, un dímero estabilizado por la carga positiva de la arginina 219. Abajo, modelo de cintas que muestra la posición de la arginina y su puente de hidrógeno con la otra subunidad, y la posición del centro activo de la enzima. Figura realizada con ChimeraX.
Es interesante que la arginina 219 no está en el centro activo de la enzima. Así, podemos explicar los datos experimentales de la actividad de la enzima que obtienen los autores:
Km=49.5 µM para el sustrato (glucosa 6 fosfato) en la enzima WT
Km=46.1 µM para el sustrato en la enzima con la mutación
Kcat=326 s-1 para la enzima WT
Kcat=6 s-1 para la enzima mutante.
¿que nos dicen estos resultados?. Que la enzima mutante muestra una constante de Michaelis-Menten similar a la WT para el sustrato glucosa-6-fosfato, por lo que no ha perdido afinidad por el sustrato; no es sorprendente, pues la mutación no afecta al centro activo y la unión sustrato-enzima no se ha visto afectada. Sin embargo, la enzima mutante ha perdido eficiencia catalítica. Recordemos que el Kcat o numero de turnover son los moles de sustrato que son transformados por mol de enzima y por segundo. Así, su actividad se ve enormemente reducida: la enzima WT es 54 veces más activa.
Detalle de los ‘anclajes’ electrostáticos mediante las argininas 219 de las dos cadenas del homodímero de G6PDH. La mutación a glicina hace que se pierdan las uniones electrostáticas, desestabilizando la estructura.
Este caso ilustra bien la diferencia de significado entre las dos constantes fundamentales de la actividad enzimática y cómo la discusión teórica que realizamos en la clase de Bioquímica Estructural tiene gran relevancia práctica.
¿Qué está ocurriendo a nivel termodinámico?
El hecho clave es que la mutación R219G varía poco la Km, pero reduuce drásticamente la Kcat. ¿hay una relación con la ΔG‡, variación de energía libre hacia el estado de transición?.
Podemos aproximar Km a la afinidad por el sustrato, es decir, a la estabilidad del complejo ES, mientras que Kcat se relaciona directamente con la barrera de activación que tiene que superar el sistema para alcanzar el estado de transición. Sabemos, según la teoría de Eyring, que ΔG‡ es inversamente proporcional a la velocidad de la reacción. Es decir, cuanta más alta sea la energía libre de transición, menor será la velocidad y la eficacia de la enzima:
donde k es la constante de velocidad. Esta ecuación la podemos separar en sus componentes entrópica y entálpica:
En las reacciones enzimáticas, la enzima acelera la reacción al disminuir la energía libre de activación necesaria para alcanzar dicho estado de transición, lo que consigue, bien por control entrópico, logrando que el paso del complejo ES al estado de transición sea favorable, ΔS‡>0 o próximo a cero, o bien por control entálpico, logrando que ΔH‡ se reduzca o sea negativo.
En este contexto, sabemos que kcat WT/kcat mut es 54.3, es decir, que la enzima mutante es 54 veces más «lenta». Para evaluar la diferencia entre las energías libres de activación, podemos simplificar a:
dado que
ΔΔG‡ = ΔGmut‡ − ΔGWT‡
y que podemos sustituir k por kcat si ésta refleja el paso limitante asociado a cruzar la barrera de activación.
De los datos, obtenemos que ΔΔG‡ = 2.4 kcal/mol. Es decir, que la mutación eleva la barrera impuesta por la energía de activación respecto a la enzima silvestre. Esto implica que el estado de transición es menos accesible, provocando la caída de velocidad. Como se ve, un cambio pequeño en la energía de activación tiene una consecuencia importante en la actividad de la enzima.
Haciendo un cálculo similar para la energía libre de unión obtenemos que ΔΔGB es -0.04 kcal/mol, un valor muy pequeño. La unión de sustrato es algo más favorable en el mutante, pero muy pequeño y no sabemos si esta diferencia puede ser simple error experimental, así que vamos a considerar que la mutación R219G no altera apreciablemente la energía libre de unión del sustrato o la estabilidad del complejo ES.
La reducción de Kcat sugiere que la Arg219 desempeña un papel clave en la estabilización del estado de transición. Dada la posición de la mutación, critica para la estabilidad del dímero de G6PD, podemos explicar el efecto de dos maneras:
Arg219 es esencial para estabilizar el dímero, y es éste la forma activa de la proteína. Ello favorece que la enzima mutante esté como una mezcla de monómero y dímero, mientras que la WT es sólo el dímero activo. Sabemos que la Kcat son los moles de sustrato convertidos en producto por mol de enzima y unidad de tiempo. Si disminuimos la concentración de enzima activa, aunque la concentración de enzima total se mantenga, tendremos que
Kcat aparente = factiva x Kcat
Es decir, que la enzima mutante tendrá una Kcat aparente que es la fracción de enzima activa por la Kcat de la enzima activa. Si despejamos obtenemos que factiva = 1.8%. ¡la mayor parte de la enzima estaría desactivada!
De ahí que su eficiencia baje: aunque la enzima total es constante y tiene capacidad para unir el sustrato (y por ello Km se mantiene igual), la mayor parte de la enzima es incapaz de llevar a cabo la reacción.
Por otro lado, la mutación puede haber alterado la organización estructural. Al perderse el puente salino que forma la arginina, aumenta la entropía conformacional (aumenta la flexibilidad y la «libertad» de la enzima para adoptar diversas conformaciones), penalizando el término TΔS‡. Con la mutación, el «salto» al estado de transición implica que tiene que restringir más la «libertad» de la estructura, lo que hace que ΔS‡, que antes era favorable, se haga más pequeño, o incluso negativo, elevando la energía libre de activación. Esto encaja con la pérdida de actividad a temperatura más baja en la enzima mutante.
Curiosamente, este caso también nos explica por qué el modelo llave-cerradura no es posible, ya que implica una alta estabilización del complejo ES unida a un alto coste entrópico para obtener el estado de transición.
Como se ve, pequeños cambios, como una mutación en un aminoácido o una pequeña variación en las energías del proceso tienen importantes consecuencias fisiológicas y médicas.
Referencias
Zgheib, O. et al. (2023) ‘Substitution of arginine 219 by glycine compromises stability, dimerization, and catalytic activity in a G6PD mutant’, Communications Biology. Springer US, 6(1), p. 1245. doi: 10.1038/s42003-023-05599-z.
El poder de Magneto y la sorprendente relación entre el magnetismo y la respiración
escrito por C. Menor-Salvan | 26 diciembre, 2025
Por C. Menor-Salván. Nov. 2023
En una de las películas de Marvel sobre la ‘Patrulla X’ (no recuerdo cual), el gran antagonista, Magneto, escapa de una prisión usando sus poderes magnéticos con el hierro de la sangre de su víctima.
Pero, ¿podría Magneto haber hecho esto realmente? (asumiendo que es capaz de generar un campo magnético tan grande).
Un cuerpo humano promedio contiene unos 4 a 6 gramos de hierro. La mayor parte (2 a 4 gramos) se encuentra en la sangre, en forma del complejo hierro-protoporfirina IX, el grupo hemo, unido a hemoglobina. El resto se distribuye en forma de varias proteínas, como mioglobina, ferritina, hemosiderina y complejos de hierro con múltiples proteínas. En cualquier caso, es poca cantidad. Teniendo en cuenta la densidad del hierro, Magneto no podría haber obtenido las esferas de metal que se ven en la escena, que suponen al menos 10 veces más masa. Aparte de eso, ¿podría haber atraído el hierro contenido en el cuerpo de la víctima de esa forma? Spoiler: no.
Propiedades magnéticas de la materia
La materia tiene varias clases de magnetismo, esto es, el modo en que responden a la presencia de un campo magnético. Las principales (no las únicas) son:
Paramagnetismo: Son atraídas por un campo magnético con una fuerza proporcional al campo, pero esta fuerza es, generalmente, débil y sólo puede medirse usando instrumentación o detectarse usando algunos «trucos» (lo veremos en un experimento). El paramagnetismo se presenta cuando una molécula presenta un momento magnético permanente, producido por al menos un electrón desapareado, que actúa como si fuera un pequeño ‘imán’. Cuando la sustancia paramagnética se somete al campo magnético, los momentos magnéticos del material se orientan. Un sustancia paramagnética tiene una susceptibilidad magnética positiva.
Diamagnetismo: En sustancias que no tienen un momento magnético permanente, al no tener electrones desapareados. Tienen una susceptibilidad magnética negativa. Al someterse al campo, se produce un momento magnético inducido y opuesto al campo, resultando en una repulsión entre débil y muy débil. Tan solo algunas sustancias diamagnéticas manifiestan un efecto más intenso, como el bismuto o el grafito, lo que tiene aplicaciones tecnológicas importantes.
Ferromagnetismo: Es la propiedad que observamos cuando un imán atrae un objeto de hierro. Es, también, la propiedad que se observa en Magneto en las películas de la Patrulla-X. Este tercer fenómeno se caracteriza por una susceptibilidad magnética positiva muy elevada. Cuando estas sustancias se someten a un campo magnético, los momentos magnéticos tienden a alinearse y orientarse en dominios, lo que incrementa la fuerza de atracción. Estas fuerzas son, desde comparables a la de los materiales paramagnéticos hasta ¡8 órdenes de magnitud superiores!. Los dominios y la magnetización de la sustancia depende de la estructura cristalina. Por ello el ferromagnetismo se da en materiales sólidos cristalinos como el hierro metálico o la magnetita. El ferromagnetismo depende de las estructuras cristalinas de los sólidos, por lo que, controlándolas, podemos fabricar aleaciones de hierro o aceros con ferromagnetismo débil. Entonces, la famosa escena en la que Magneto fabrica una bola de hierro usando el cuerpo de un guardia, es de todo punto imposible, sea cual sea el campo, ya que la mayor parte del hierro en el cuerpo humano se encuentra en forma de complejos diamagnéticos. Pero no todo. Por ejemplo, en la sangre, parte de la hemoglobina es paramagnética y parte diamagnética. Y ahí esta la clave de la respiración.
Magnetismo y hemoglobina: El experimento
En 1845, Michael Faraday se llevó una curiosa sorpresa: contrariamente a lo que él esperaba, la hemoglobina, que fue aislada en 1840 y se descubrió que contenía hierro, no era magnética, al contrario que el hierro metálico y otros compuestos de hierro.
Un siglo después, en 1936, el gran químico Linus Pauling y su colaborador Charles Coryell realizaron un experimento fundamental, que abrió todo un nuevo campo de investigación: la química bioinorgánica. Este experimento y todo el trabajo posterior, en especial los trabajos de Max Perutz, J. Lynn Hoard y J.J. Weiss, permitieron entender el origen del alosterismo de la hemoglobina y su relación con las propiedades magnéticas del grupo hemo.
Gracias a los modernos y potentes imanes de neodimio, podemos reproducir de modo muy sencillo los experimentos de Pauling y Coryell, simplemente usando un imán y una balanza analítica. Con este montaje, podemos detectar las débiles fuerzas atractivas o repulsivas provocadas por el paramagnetismo o diagmagnetismo de diferentes compuestos químicos.
Experimento simple para detectar paramagnetismo
A diferencia del ferromagnetismo, para detectar un material paramagnético, necesitamos un campo magnético potente, como el creado por un imán de neodimio. El imán se pone sobre un soporte (en este caso, totalmente improvisado) en la balanza. Lo hemos ubicado a cierta distancia, para que el campo magnético no perturbe el circuito de la balanza. Este montaje es una versión muy sencilla de la balanza de Gouy e incluso nos podría permitir medir la susceptibilidad magnética del material.
Al acercar (sin tocar) la muestra al imán, si la sustancia es paramagnética, la débil fuerza de atracción reducirá el peso aparente del imán, apareciendo una medida negativa. Si la sustancia es diamagnética, el momento magnético inducido por el imán creará una débil repulsión que aumentará levemente el peso aparente del imán. El efecto a veces es muy débil, por ello usamos una balanza que pueda medir hasta décimas de miligramo.
El resultado del video es que:
La oxihemoglobina es diamagnética. Si elimináramos el oxígeno de la hemoglobina, esta cambiaría a paramagnética.
La metahemoglobina (el hierro se ha oxidado) o la hemina, el complejo hemo-Fe(III), es paramagnética
El complejo ferricianuro, que contiene electrones desapareados, es un control de paramagnetismo
El complejo ferrocianuro, que no contiene electrones desapareados, es un control de diamagnetismo
Este experimento tiene una profunda relación con el papel de la hemoglobina como transportador de oxígeno.
El magnetismo de la hemoglobina, alosterismo y transporte de oxígeno
Tras los experimentos de Pauling y Coryell se necesitaron 80 años para entender cómo se une el oxígeno al grupo hemo, las características electrónicas de los complejos hemo con diversos ligandos, y la influencia en el alosterismo de la proteína. Aún sigue siendo un problema objeto de estudio por los químicos inorgánicos, pero podemos dar unas notas simplificadas.
La idea es que al aproximarse la molécula al complejo hemo, se producen una serie de transiciones de spin de los electrones:
En el estado desoxihemoglobina (arriba a la izquierda), el hierro se encuentra formando un complejo hemo-Fe(II) de alto spin, con dos electrones desapareados (sz=2), paramagnético. En este estado se encuentra cuando la molécula de oxígeno está a mas de 7.21 angstroms. Al acercarse el oxígeno, se producen una serie de inversiones de spin y acoplamientos magnéticos entre el hierro y el oxígeno, que dan lugar a varios estados intermedios. Finalmente (abajo), cuando el oxígeno se ha unido al hierro, tenemos el estado de oxihemoglobina; se forma un complejo de transferencia de carga, el electrón siguado en el orbital dxy invierte su spin y se desplaza al orbital dyz de menor energía, pasando a una configuración de bajo spin. Los orbitales resultantes tienen dos electrones desapareados, con spines antiparalelos, lo que resulta en un momento magnético nulo, y el complejo pasa a ser diamagnético.
Este cambio de spines tiene una consecuencia fundamental en las distancias de la molécula.
El cambio en los orbitales y el spin del complejo, con el cambio de sus características magnéticas de para a diamagnético, induce un cambio estructural en la proteína.
Primero, el átomo de hierro se desplaza al centro del plano de la porfirina. Ello, junto con la salida del agua y la pérdida de puentes de hidrógeno que formaba ésta, provoca un cambio de conformación en el grupo hemo.
Segundo, el cambio conformacional en el hemo provoca un desplazamiento de la histidina por el acortamiento del enlace entre el imidazol de la histidina y el átomo de hierro.
El desplazamiento de la histidina y los cambios en las interacciones del grupo hemo con las hélices del péptido, inducidos por el cambio de conformación de éste, provocan el movimiento de toda la estructura de la subunidad proteica.
Este movimiento modifica las subunidades proteicas que están en contacto con ella, pues la hemoglobina es una proteína tetramérica. Este movimiento induce un incremento de la afinidad del oxígeno tras la unión del primer oxígeno a la estructura. Este fenómeno de unión cooperativa, en la que la unión del primer ligando favorece la unión del siguiente debido al cambio estructural inducido, es una de las formas de alosterismo.
¿y en el caso de la metahemoglobina?
En el experimento veíamos el paramagnetismo de la hemina, un complejo de porfirina férrica obtenido a partir de hemoglobina. El hierro de la hemoglobina puede ser oxidado por diversos agentes oxidantes, que la convierten en metahemoglobina. Esto puede ocurrir en vivo, produciéndose metahemoglobinemia.
Cristales de hemina
Como explico en clase, el hierro ferroso, Fe(II), tiende a oxidarse a Fe(III). Nosotros tenemos toda una batería de sistemas antioxidantes que mantienen el hierro en estado ferroso, que es el biológicamente funcional. En el caso de los eritrocitos, tenemos la enzima citocromo b5 reductasa, que se encarga de mantener la hemoglobina reducida y minimizar el contenido de metahemoglobina.
Algunos oxidantes, como los nitritos o el ferricianuro, pueden oxidar el hierro de la hemoglobina y transformarlo en metahemoglobina. La oxidación cambia la configuración electrónica y el spin del hierro. En la oxidación se pierde un electron, y el resto se reconfigura en la capa 3d, resultando que la metahemoglobina, el hierro tiene tres electrones desapareados y un comportamiento paramagnético. Este cambio induce también un cambio estructural en la proteína, que se vuelve incapaz de transportar oxígeno.
Así, aquel primer experimento de Pauling y Coryell en 1936 sentó las bases para entender cómo la hemoglobina transporta el oxígeno a los tejidos. Y, dado que la oxihemoglobina es diamagnética, Magneto no tiene ninguna posibilidad para capturar el hierro que contiene con sus poderes ferromagnéticos. ¡Si los guionistas hubieran estudiado bioquímica, el guardia de la película se habría salvado!
Lo sentimos, señor Magneto: Un cuerpo humano no tiene tanto hierro, y, además, una gran parte se encuentra como complejos diamagnéticos. Tus poderes no sirven con la hemoglobina.
Referencias
Bren, K. L., Eisenberg, R. & Gray, H. B. (2015) ‘Discovery of the magnetic behavior of hemoglobin: A beginning of bioinorganic chemistry’, Proceedings of the National Academy of Sciences, 112(43), pp. 13123–13127. doi: 10.1073/pnas.1515704112.
Hensley, P., Edelstein, S. J., Wharton, D. C. & Gibson, Q. H. (1975) ‘Conformation and spin state in methemoglobin’, Journal of Biological Chemistry, 250(3), pp. 952–960.
Jensen, K. P. & Ryde, U. (2004) ‘How O2 binds to heme. Reasons for rapid binding and spin inversion’, Journal of Biological Chemistry, 279(15), pp. 14561–14569. doi: 10.1074/jbc.M314007200.
Kurokawa, D., Gueriba, J. S. & Diño, W. A. (2018) ‘Spin-Dependent O 2 Binding to Hemoglobin’, ACS Omega, 3(8), pp. 9241–9245. doi: 10.1021/acsomega.8b00879.
Scheidt, W. R. & Reed, C. A. (1981) ‘Spin-State/Stereochemical Relationships in Iron Porphyrins: Implications for the Hemoproteins’, Chemical Reviews, 81(6), pp. 543–555. doi: 10.1021/cr00046a002.
Cambiando la perspectiva: la glucolisis como ciclo autocatalítico y la entropía de la vida.
escrito por C. Menor-Salvan | 26 diciembre, 2025
C. Menor-Salván. Octubre 2023
«The best that most of us can hope to achieve in Science is simply to misunderstand at a deeper level»
Wolfgang Pauli
En los cursos introductorios y de bioquímica general, se suele explicar el metabolismo central como una complicada serie de reacciones químicas, que los estudiantes, en ocasiones, son casi forzados a memorizar. En esta exposición del metabolismo, la glucólisis se muestra como una ruta lineal, desde la glucosa al piruvato, que conecta con el ciclo de Krebs y con la ruta de las pentosas-fosfato.
Glucolisis y ciclo de Krebs, junto con parte de la rama oxidativa del ciclo de las pentosas fosfato. En esta representación tradicional, la glucolisis aparece como ruta lineal.
El problema de esta representación es que no da una visión sintética u holística de la glucolisis en el metabolismo. Desglosa sus reacciones y muestra su papel mecánico, pero ignora un aspecto esencial para la organización de un organismo vivo. El desglose de las reacciones, no obstante, ya nos da una pista: la glucolisis es una serie de reacciones reversibles e irreversibles. Y el relato de su auto-regulación nos muestra la importancia del control de sus pasos irreversibles. Si simplificamos la representación y la cambiamos ligeramente de perspectiva, podemos ver el metabolismo central así:
Vista muy simplificada del metabolismo. Las líneas punteadas indican rutas conectadas. Los componentes de la ruta glucolítica también tienen conexión con diversas rutas, pero no se muestran para no aumentar la complejidad de la imagen. Mas adelante hablaremos de la importancia de las ramas fermentativa y respiratoria, en relación con la variación del flujo de entropía en el cáncer.
¿Qué vemos en esta representación? Primero, resaltamos el papel del ciclo de Krebs: es la «M40 del metabolismo». Como una carretera de circunvalación en una ciudad muy poblada, distribuye el tráfico de carbono entre diversas rutas. También, impulsa la transformación de la energía del azúcar en hidrógeno, en pasos oxidativos claves. Este hidrógeno (en forma de cofactores NADH y FADH2), a su vez, mantendrá un gradiente, cuya disipación mueve la ATPasa, la dinamo del metabolismo.
Segundo, la glucolisis no aparece como una ruta lineal, sino como un ciclo de reacciones. Además, es un ciclo peculiar, en el que los productos del ciclo son, a su vez, reactivos. Una reacción, o ciclo de reacciones que representa una reacción global, en la que los productos son reactivos de la reacción se denomina reacción autocatalítica o ciclo autocatalítico.
Podemos resumir la glucolisis en una reacción global:
Glucosa + 2 NAD+ + 2 ADP + 2 ATP + 2 Pi –> 2 piruvato + 2 NADH + 4 ATP + 2 H+ + 2 H2O
Los ciclos autocatalíticos tienen unas propiedades peculiares. Estas propiedades surgen como consecuencia de que estos sistemas se alejan del equilibrio. En el ciclo, gradualmente acelerado, se producen dos fenómenos superpuestos: las etapas formadas por reacciones irreversibles y que constituyen puntos de control, y los fenónenos no lineales de transporte de los componentes (difusión de ADP y ATP y disponibilidad de glucosa por ejemplo). La reacción pasa un umbral de inestabilidad tras el cual, surgen comportamientos complejos: oscilaciones periódicas, caos en la formación de los productos, ruptura de la homogeneidad, creación de ondas de diferente composición, cooperación molecular a nivel macroscópico y morfogénesis. La glucolisis y su regulación entonces se convierte en el control crucial de la formación de toda la estructura metabólica.
Control de la glucolisis por la PFK-1 y 2. La concentración de Fructosa-1,6-bifosfato controla la oscilación de la glucolisis, y el régimen caótico o periódico en la producción de ATP. Es interesante que la reacción de la PFK-1 es la que mayor entropía genera en la ruta.
La vida se sostiene sobre este alejamiento del equilibrio, y las células manifiestan varios ciclos autocatalíticos esenciales y sistemas alejados del equilibrio: la autoorganización de membranas impulsada por las propias membranas, o la síntesis de ácidos nucleicos, la señalización celular, los impulsos nerviosos… etc.
Estos comportamientos complejos alejados del equilibrio pueden dar lugar a la creación de estructuras organizadas, pero no siempre tiene que ser así. Cuando un sistema autocatalítico sobrepasa el umbral de inestabilidad, se bifurca en dos posibles estados: uno de los estados puede ser caótico, y el otro estado puede conducir a oscilaciones periódicas y cooperación molecular, y ambas pueden sucederse una a otra en sucesivas bifurcaciones.
Bioanálogos
Hay dos modelos de reacciones autocatalíticas que ilustran ambos comportamientos. El primero es la reacción de la formosa, una reacción autocatalítica de síntesis de azúcares a partir de formaldehído que entra en régimen caótico y conduce a una explosión combinatorial, resultando en una mezcla desorganizada de centenares de componentes. Podemos ilustrarlo con una analogía física: si acoplamos un micrófono y un altavoz, aunque la sala esté en silencio, las pequeñas perturbaciones que generan ruido en el altavoz, son amplificadas autocatalíticamente hasta producir un ruido ensordecedor.
El segundo es una de las reacciones químicas más importantes del siglo XX: la reacción de Belousov-Zhabotinsky. Esta reacción es una ‘maqueta’ del metabolismo sostenida por una reacción autocatalítica. Hablamos de ella algo más en nuestra entrada sobre entropía.
Reacción de Belousov-Zhabotinsky. En realidad, la reacción tiene varias versiones, pero el mismo fundamento: un sistema de reacciones autocatalítico, que conecta una red de unas 40 a 80 reacciones químicas. Esta reacción es un bioanálogo, un sistema que funciona de modo similar a la vida y que nos ayuda a entenderla.
Esta reacción es una buena forma de visualizar qué ocurre cuando un sistema se aleja del equilibrio y se produce una ruptura de simetría. Esto es, cómo, desde una mezcla homogénea original, se produce espontáneamente una compartimentalización con diferentes especies y reacciones. En definitiva, cómo un sistema de reacciones impulsa que surjan estructuras organizadas. Estas estructuras se llaman patrones de Turing.
Al igual que en la reacción de Belousov, la glucolisis genera patrones de Turing en la concentración celular de ATP, que actúa como señal intracelular y controla toda la estructura. Un sistema caótico, como son estas reacciones, dependen en gran medida de las condiciones iniciales. Si se arranca una serie temporal con la glucolisis a dos concentraciones distintas de fructosa-1,6-bifosfato, el patrón de producción de ATP es muy diferente:
El incremento de la concentración inicial de F-1,6-BP cambia el patrón temporal de la glucolisis desde (a) oscilaciones caóticas a (b), picos de alta producción de ATP, seguidos de periodo de caos de pequeña amplitud. Figura de Baier, G., Müller, M. & Ørsnes, H. (2002) ‘Excitable Spatio-Temporal Chaos in a Model of Glycolysis’, The Journal of Physical Chemistry B, 106(12), pp. 3275–3282. doi: 10.1021/jp0138173.
Entropía, glucolisis y cáncer
Durante procesos patolóticos como el cáncer, los patrones de la glucolisis cambian completamente (efecto Warburg). Esto tiene un profundo efecto en el sistema celular. La glucolisis nos permite conectar la idea de autocatálisis y control de la estructura con la entropía. La ruta glucolítica genera entropía y, globalmente, el metabolismo disipa energía y bombea entropía al exterior. La entropía vertida al exterior supera la incorporada al interior (en forma de nutrientes y calor) y la generada por el sistema, resultando en una disminución temporal de la entropía interna. Esto se denomina principio de mínima producción de entropía de Prigogine: el sistema metabolico tiende a minimizar la producción de entropía y maximizar el vertido de entropía al exterior, de modo que el balance favorezca el crecimiento o mantenimiento estacionario de la estructura biológica. Otros científicos piensan mas bien que las células siguen el teorema de máxima producción de entropía. Esto es, la vida evoluciona maximizando el flujo de entropía hacia el exterior. En cualquier caso, la glucolisis es un sistema esencial para la vida, pues es el impulsor, mediante la generación de entropía, del sostenimiento de toda la organización biológica.
En el cáncer se produce un cambio muy profundo en los balances energéticos de las células. La glucolisis cambia durante el desarrollo de tumor. Se ha sugerido que las células tumorales, que, debido a las condiciones ambientales dentro del tumor (menor disponibilidad de oxígeno y competición por la glucosa), favorecen la via de fermentación frente a la respiración, lo que implica una reducción en la producción de entropía. Ello mejora su adaptación a un entorno competitivo mejorando su proliferación y favoreciendo la extensión del tumor. El desarrollo tumoral entonces sería una muestra del funcionamiento del principio de mínima producción de entropía: el tumor evoluciona minimizando su producción de entropía en respuesta a la presión del entorno.
El hidrógeno, el combustible de las células
La vida es una estructura que surge durante el proceso de disipación de energía con un bajo flujo de entropía a un alto flujo de entropía. En el proceso es el hidrógeno el que juega el papel energético fundamental. El gran impulso evolutivo en la vida terrestre lo dió la fotosíntesis oxigénica. Los organismos fotosintéticos escinden el agua en oxígeno e hidrógeno, que es una fuente de energía valiosa. La energía del hidrógeno se maneja en forma de cofactores NADH y NADPH.
La fotosíntesis. Los organismos fotosintéticos almacenan energía solar en forma de productos con baja entropía. Ello gracias al hidrógeno, que generan por la ruptura del agua. La biomasa generada alimenta los organismos heterótrofos, que la transforman en hidrógeno de nuevo, que se quema, disipando la energía y aumentando la entropía. Globalmente, se disipa la energía solar con un flujo de entropía neto al exterior que favorece el mantenimiento de la biosfera.
Esta energía se utiliza en la generación de biomasa, que almacena la energía del hidrógeno en forma de productos con baja entropía. La biomasa (particularmente los azúcares) son una buena forma de transportar la energía de unos organismos a otros. Los organismos heterótrofos disiparán la energía, alimentandose de moléculas con baja entropía y generando un flujo de entropía más elevado al exterior. Gracias al metabolismo central, vuelven a recuperar la energía en forma de hidrógeno (NADH y NADPH), que se utiliza para mantener un gradiente electroquímico que se disipa (el hidrógeno se combina con el oxígeno formando agua) y mueve una ‘dinamo’ que produce ATP que, a su vez, controla el mantenimiento de toda la estructura metabólica y molecular. Toda la estructura es temporal y depende del flujo de entropía hacia dentro y fuera del sistema, y de la disipación de la energía. En el momento en el que cambia el balance de entropía, la estructura desaparece: extinción o muerte.
Una vez alguien me preguntaba qué diferencia hay entre un cristal, una estructura de baja entropía, y la vida, una estructura que requiere a su vez baja entropía. La diferencia es que la vida es un proceso. Es una estructura temporal que surge durante la disipación de energía, desde una fuente de baja entropía a un estado de alta entropía.
Como las ondas y formas que surgen durante el proceso de mezclar leche con café, en el que pasamos de un estado de baja entropía (café y leche por separado) a uno de mayor entropía (una mezcla homogénea), así la vida surge temporalmente en el proceso de disipación de un estado de baja entropía (la Tierra primitiva y la energía del Sol) a un estado de alta entropía, en el que esas energías se han ‘esparcido’ en el universo.
Referencias
Bar-Even, A. et al. (2012) ‘Rethinking glycolysis: On the biochemical logic of metabolic pathways’, Nature Chemical Biology. Nature Publishing Group, 8(6), pp. 509–517. doi: 10.1038/nchembio.971.
Baier, G., Müller, M. and Ørsnes, H. (2002) ‘Excitable Spatio-Temporal Chaos in a Model of Glycolysis’, The Journal of Physical Chemistry B, 106(12), pp. 3275–3282. doi: 10.1021/jp0138173.
Kleidon, A. (2009) ‘Nonequilibrium thermodynamics and maximum entropy production in the Earth system’, Naturwissenschaften, 96(6), pp. 653–677. doi: 10.1007/s00114-009-0509-x.
Nielsen, K., SØrensen, P. G. and Hynne, F. (1997) ‘Chaos in glycolysis’, Journal of Theoretical Biology, 186(3), pp. 303–306. doi: 10.1006/jtbi.1996.0366.
Sabater, B. (2022) ‘Entropy Perspectives of Molecular and Evolutionary Biology’, International Journal of Molecular Sciences, 23(8), p. 4098. doi: 10.3390/ijms23084098.