El plegamiento de proteínas y las mutaciones del código genético
escrito por C. Menor-Salvan | 20 octubre, 2022
C. Menor-Salván ,oct 2022. V2 Nov 2023
En el año 1969 ya se conocía mucho sobre la estructura de las proteínas y hacía 10 años que había nacido la Biología Molecular moderna. Ya se entendía la relación entre el código genético, la secuencia de aminoácidos de un péptido y la proteína final. Poco tiempo antes, el bioquímico Christian Anfinsen había descubierto que una proteína desnaturalizada podía recuperar su estructura y actividad en cuestión de milisegundos, por lo que quedaba demostrado que la estructura estaba, de alguna manera, codificada en su secuencia.
Para Cyrus Levinthal esto era paradógico: una secuencia de aminoácidos tiene un número enorme de posibilidades estructurales, por lo que las diferentes conformaciones posibles no pueden tener la misma probabilidad y el plegamiento no es resultado de la búsqueda de la conformación nativa, sino que debía ser dirigido por un camino específico y predeterminado. La resolución de la paradoja de Levinthal, es decir, entender cómo se pliegan las proteínas, es uno de los problemas más complejos de la Bioquímica y la Biofísica, y sólo ahora, gracias a la inteligencia artificial y a los métodos computacionales modernos, estamos en condiciones de resolverla completamente.
El plegamiento proteico es un problema muy complejo, incluso para las células que generan las proteínas: los fallos o, simplemente, las diferentes soluciones al plegamiento estable de un péptido están detrás de enfermedades como el Alzheimer ,las enfermedades por priones o las amiloidosis. Pero, aunque sea tan complejo, podemos señalar algun aspecto interesante, como es el papel esencial de los aminoácidos hidrofóbicos y su relación con la evolución del código genético.
El colapso hidrofóbico
El proceso de plegamiento proteico es gradual, formándose regiones, llamadas foldones, que van adquiriendo conformaciones similares a la forma nativa final. Estos foldones son cooperativos y, cuando empiezan a formarse, favorecen el plegamiento del resto de la proteína. Esto se denomina la hipótesis del foldón.
En la formación de las regiones plegadas es esencial la estabilización energética que proporciona el efecto hidrofóbico, es decir, la expulsión del agua y el secuestro de los grupos R de los aminoácidos hidrofóbicos en el interior de la estructura plegada, dejando los grupos polares y cargados expuestos al solvente. Este efecto es uno de los responsables de la extraordinaria capacidad de las enzimas como catalizadores: al tener un núcleo hidrofóbico, la exclusión del agua y la desolvatación de los sustratos de las enzimas promueven la actividad enzimática.
Esta fase de plegamiento de la proteína, en la que adquiere su estructura nativa en regiones y se ha producido el colapso hidrofóbico, es muy dinámica: la estructura se mueve, los foldones se forman y reconvierten de un modo fluido. Este estado se denomina glóbulo fundido. Finalmente, la proteína alcanza un estado similar a un sólido tridimensional y se estabiliza, formando el estado nativo de la proteína. En este estado, aparecen otras interacciones, como los puentes disulfuro, el stacking de residuos de aminoácidos aromáticos y la unión de cofactores, que terminan de ‘fijar’ la estructura nativa.
En estas condiciones, tenemos la proteína plegada y funcional. Así puede cristalizar, lo cual es muy importante para conocer la estructura. Pero el estado nativo no es totalmente sólido: la proteína puede desnaturalizarse, o volver al estado de glóbulo fundido y cambiar sus conformaciones en respuesta a algún estímulo.
La idea del colapso hidrofóbico puede parecer contraintuitiva: como es posible que una fuerza débil, como la fuerza de Van der Waals entre grupos apolares, sea lo que dirige el plegamiento de la proteína. ¿cual es el papel de los enlaces de hidrógeno?. Al principio se pensaba que los enlaces de hidrógeno, mucho mas fuertes, eran esenciales en la estabilización de la estructura proteica. Actualmente sabemos que los enlaces de hidrógeno juegan un papel director durante el proceso de plegamiento, ya que dirigen la formación de diversas estructuras secundarias, que se agrupan en motivos y van dando lugar al proceso cooperativo de plegamiento. Sin embargo, no sólo no son esenciales en la estabilización de la estructura nativa, sino que, en ocasiones, son desestabilizadores que favorecen los cambios de conformación. La clave no es la fuerza de las interacciones hidrofóbicas per se, sino el efecto termodinámico, como la variación de entropía asociada al efecto hidrofóbico, que favorece el proceso.
Dada la importancia del colapso hidrofóbico, está claro que los aminoácidos hidrofóbicos van a ser claves en la evolución de las estructuras. Ello ha condicionado la evolución del código genético.
Código genético, mutaciones y la preservación de la estructura proteica
La secuencia de bases del ADN sufre constantes cambios: mutaciones que cambian bases en la secuencia y que se traducen en cambios en la secuencia de una proteína. Estos cambios pueden ser deletéreos, pero también silenciosos o incluso beneficiosos, dando lugar a nuevas funciones. El código genético ha evolucionado de tal forma que las mutaciones mas comunes, llamadas mutaciones missense, en las que un par de bases sustituye a otro, limiten sus efectos sobre las proteínas resultantes. Afortunadamente, el código genético, que se compone de unas ‘palabras’ de tres letras, llamadas codones, esta degenerado. Esto quiere decir que los 64 posibles codones (‘palabras’ de tres letras formadas con las bases A, G, C y U, es decir 43) van a codificar para tan solo 20 aminoácidos distintos. Ello implica que algunos aminoácidos van a tener hasta 6 codones sinónimos. Esto es posible gracias al balanceo o wobble del RNA de transferencia: la tercera posición del anticodon puede reconocer diferentes bases en el codón, gracias a la formación de pares de bases no Watson-Crick, o la presencia de bases no canónicas en esa posición.
Gracias al balanceo, hay tan solo 32 diferentes tRNA para todos los codones, y estos transportan sólo 20 aminoácidos (es decir, hay más de un tRNA por aminoácido en algunos casos). Por ejemplo, un tRNAarg de las levaduras tiene el anticodón GCI (donde I es inosina, una base que usualmente no está presente en el DNA ni el RNA). La posición I es de balanceo y puede unirse a los codones CGA, CGU y CGC. Ahora, imagina que hay una mutación y un codón CGU se transforma en un codón CGC. Esta sería una mutación silenciosa, pues, al traducirse el gen, seguiría codificando para una arginina y no se producirían cambios en la proteína. La degeneración del código genético hace posible que cambie el aminoácido sólo en un 25% de las mutaciones de este tipo. Ello aporta estabilidad al genoma: durante la evolución, solo perduraron los genomas capaces de mantener sus estructuras funcionales en un ambiente con muchos cambios. Así, la degeneración del código genético y la limitación del número de aminoácidos pudo aportar una ventaja selectiva a los organismos, reduciendo los efectos de las mutaciones. Un potencial organismo con otro código que implicara más aminoácidos debió ser inviable con las mismas tasas de mutación.
Aun así, el efecto del wobble no es suficiente; es necesario proteger la función de las proteínas, y, para ello, es clave mantener su estructura. Así, los aminoácidos hidrofóbicos están especialmente protegidos, debido a su paper fundamental en el plegamiento proteico. Cuando se produce una mutación en la primera posición del codón, se va a producir un cambio de aminoácido. Pero, en general, el cambio da lugar a la sustitución de un aminoácido por otro de propiedades similares. Por ejemplo, la valina, un aminoácido hidrófobo, esta codificada por un codón GUU. Si hay una mutación en la tercera posición y se transforma en GUC, sigue codificando para valina, y estamos ante una mutación silenciosa. Pero si hay una mutación en la primera posición y se convierte en AUU, el aminoácido cambia a isoleucina, que también es hidrófobo y tiene propiedades similares. Si la mutación lo convierte en CUU, el aminoácido cambia a leucina, que, de nuevo, es hidrófobo y tiene propiedades similares. Estos cambios no alteran significativamente el plegamiento proteico, ya que el colapso hidrófobo va a seguir sucediendo, por lo que, a pesar de las mutaciones, el plegamiento (y por tanto, la función) se va a mantener.
El problema surge cuando se produce un cambio de un aminoácido a otro de un tipo diferente. Esto puede provocar un cambio más o menos drástico en la estructura o propiedades de la proteína. Es el caso, por ejemplo, de la anemia falciforme, en la que hay una mutación de una base en el gen de la cadena beta de la hemoglobina. El aminoácido mutado cambia el codón para un ácido glutámico CTC por el codón para la valina CAC.
El cambio elimina un aminoácido cargado, el glutámico, por un aminoácido hidrófobo, la valina. Al desaparecer la carga, desaparece la repulsión electrostática entre unidades de hemoglobina, y se sustituye por un aminoácido hidrófobo superficial, que provoca una interacción hidrófoba entre cadenas. Como resultado, la hemoglobina precipita en forma de fibras. De nuevo, los aminoácidos hidrófobos son claves en la estructura. Aquí, la introducción del aminoácido hidrófobo valina tiene consecuencias relevantes, provocando la enfermedad de la anemia falciforme.
Aunque un cambio de aminoácido no tenga gran efecto estructural, influyen en la variabilidad genética y pueden tener importancia. Los SNP o polimorfismos de nucleótido único, son cambios en la secuencia de genes que se traducen en modificaciones de algún aminoácido en las proteínas. Estos SNP crean muchas variaciones entre individuos de la misma especie, y, normalmente, no tienen ningún efecto.
Sin embargo, en algunos casos, los cambios afectan a aminoácidos que alteran ligeramente la función de la proteína (haciendo una enzima mas activa o menos activa, o modificando la afinidad de una proteína por un sustrato). Aunque un cambio de afinidad sea pequeño, tienen una gran importancia farmacológica, explicando la diferente respuesta a algunos fármacos entre individuos. Entre diversas especies, los cambios son mayores para la misma proteína (o para la proteína ortóloga: proteína que ejerce la misma función en otro organismo y proviene del mismo ancestro común, y que normalmente son estructuralmente equivalentes). Esto permite trazar la evolución de las especies y de las propias proteínas.
Referencias
Alas-Guardado, S. de J., Rojo, A. and Merino, G. (2011) ‘La paradoja de Levinthal: cuando una contradicción se vuelve lógica’, Educación Química, 22(1), pp. 51–54. doi: 10.1016/S0187-893X(18)30114-9.
Baldwin, R. L. & Rose, G. D. (2013) ‘Molten globules, entropy-driven conformational change and protein folding’, Current Opinion in Structural Biology, 23(1), pp. 4–10. doi: 10.1016/j.sbi.2012.11.004.
Braakman, R. & Smith, E. (2013) ‘The compositional and evolutionary logic of metabolism’, Physical Biology, 10(1). doi: 10.1088/1478-3975/10/1/011001.
Englander, S. W. & Mayne, L. (2014) ‘The nature of protein folding pathways’, Proceedings of the National Academy of Sciences of the United States of America, 111(45), pp. 15873–15880. doi: 10.1073/pnas.1411798111.
Francoeur, E. (2002). Cyrus Levinthal, the Kluge and the origins of interactive molecular graphics. Endeavour, 26(4), 127–131. doi:10.1016/s0160-9327(02)01468-0
Honig, B. (1999) ‘Protein folding: From the levinthal paradox to structure prediction’, Journal of Molecular Biology, 293(2), pp. 283–293. doi: 10.1006/jmbi.1999.3006.
Karplus, M. (1997) ‘The Levinthal paradox: yesterday and today’, Folding and Design, 2, pp. S69–S75. doi: 10.1016/S1359-0278(97)00067-9.
Kurata, S., Weixlbaumer, A., Ohtsuki, T., Shimazaki, T., Wada, T., Kirino, Y., Takai, K., Watanabe, K., Ramakrishnan, V. & Suzuki, T. (2008) ‘Modified uridines with C5-methylene substituents at the first position of the tRNA anticodon stabilize U·G wobble pairing during decoding’, Journal of Biological Chemistry, 283(27), pp. 18801–18811. doi: 10.1074/jbc.M800233200.
Pak, D., Root-Bernstein, R. & Burton, Z. F. (2017) ‘tRNA structure and evolution and standardization to the three nucleotide genetic code’, Transcription, 8(4), pp. 205–219. doi: 10.1080/21541264.2017.1318811.
Root-Bernstein, R., Kim, Y., Sanjay, A. & Burton, Z. F. (2016) ‘tRNA evolution from the proto-tRNA minihelix world’, Transcription, 7(5), pp. 153–163. doi: 10.1080/21541264.2016.1235527.
¿Por qué el número de la suerte es el 7?. Sobre dados, entropía, vida y orden.
escrito por C. Menor-Salvan | 20 octubre, 2022
C. Menor-Salván. UAH. Actualizado Octubre 2023
El concepto de entropía y su relación con la Bioquímica es uno de los más complicados de entender por parte de los estudiantes. En este artículo, vamos a tratar, sin entrar en formalismos matemáticos, de aclarar el concepto de entropía, el significado del Segundo Principio de la Termodinámica y la relación con la vida y el metabolismo.
Introducción: Entropía NO es desorden
El concepto de entropía, una de las funciones de estado termodinámicas (es decir, una función que describe las características térmicas y energéticas de un sistema), es uno de los que más dificultades presenta para su comprensión. En mi enfoque de la enseñanza de la Bioquímica, la entropía tiene un papel esencial, pues es una de las claves que explican la propia vida y sus estructuras. La entropía es esencial para entender el funcionamiento de las enzimas y para entender por qué el metabolismo no es una colección de reacciones diseñada para fastidiar a los estudiantes, sino que tiene una lógica comprensible.
Una de las razones por las que los estudiantes tienen dificultades con el concepto de entropía es debido a una simplificación confusa que se transmite constantemente en la enseñanza: que la entropía es una medida del desorden. Mayor desorden=mayor entropía. En un texto de 2º de Bachillerato he podido leer:
La entropía S es una magnitud que mide el grado de desorden de un sistema físico o químico
Esta definición es errónea. Además suele acompañarse con imágenes como esta:
¿cómo puedo explicar a los estudiantes que la entropía es generadora de orden, y que el orden o estructura biológica es resultado del incremento de entropía, si previamente les hemos engañado con una simplificación errónea?.
Tratando de hacerlo lo más simple y conceptual posible y sin entrar en las matemáticas de la Termodinámica formal, vamos a buscar alternativas que nos permitan acercarnos al significado de la entropía y a entender por qué la entropía genera el orden biológico. Ello es necesario para entender, a su vez, por qué el metabolismo es tal como es.
Dados y estados: buscando otras analogías para entender la entropía
¿sabes por qué el 7 es considerado un número de suerte?. ¿si lanzas DOS dados, crees que hay la misma probabilidad de que salga cualquiera de los resultados posibles (la suma de lo que sale en cada dado)?. Hagamos el experimento: si lanzamos dos dados, el resultado puede ser desde 2 hasta 12. Si los lanzamos muchas veces (he estado una tarde de sábado haciéndolo), obtendremos una distribución como esta:
Según esta distribución, el 7 es el número mas probable. La razón de la preferencia por el 7 en el lanzamiento de dos dados es, en realidad, bastante obvia. Podemos usarla como una analogía del concepto de entropía: la probabilidad de obtener el número 7 es la mayor, por lo que el número 7 es el estado de mayor entropía. 2 y 12 representan los estados de mínima entropía, razón por la cual son las apuestas mas arriesgadas. Antes de explicar por qué es así, vamos a dejarnos enseñar por el físico aleman Arnold Sommerfeld.
¿por qué encendemos una estufa en invierno [igual este invierno lo vamos a tener difícil…]. Una persona común dirá: para que la habitación esté mas caliente; un físico se expresará hablando de suministrar energía. En este caso, tendrá razón el profano y no el físico
Según Sommerfeld, este ejemplo lo proponía el físico suizo Robert Emden. El caso es que, en efecto, encendemos la estufa para que la habitación esté caliente. Este calor se disipa constantemente a través de las ventanas y las paredes; por ello si apagamos la estufa, la temperatura comienza a disminuir. Aquí no os estoy descubriendo nada nuevo.
Como la habitación es mayoritariamente aire, sabemos que la energía contenida va a depender de la temperatura. Esto se expresa a través de esta ecuación:
Esta ecuación nos dice que la energía U contenida en la habitación es proporcional al número de átomos que hay en la habitación, N, y a la temperatura de la habitación, T. Parece lógico: cuanta más temperatura, más energía.
También sabemos que, si calentamos un gas, va a sufrir o un aumento de presión o una expansión. Como en la habitación la presión va a ser constante, mantener la temperatura constante implica que vamos a mantener constante la energía contenida en la habitación. Pero, mientras la estamos calentando, el aire se va a expandir, saliendo por las rendijas e intercambiándose con el exterior.
¿qué ocurriría si la habitación estuviera perfectamente aislada? Lógicamente, al no poder expandirse, aumentaría la presión y la temperatura. Pero, una habitación normal es un sistemaabierto, es decir, puede intercambiar energía con el exterior, y también materia, pues hay intercambio de aire a través de rendijas. Por lo que el aislamiento perfecto no va a existir.
Rudolf Clausius nos explicó que la variación de entropía de un sistema es el cociente entre el calor suministrado dividido entre la temperatura. Es decir, la entropía no es una medida de desorden, sino una medida de la relación entre energía suministrada y temperatura.
Como queremos mantener nuestra habitación a temperatura y presión constante (no queremos morir, y hay rendijas, por lo que el aire puede expandirse), hemos deducido, a partir de la ecuación anterior y de las propiedades de los gases, que a presión constante, la variación de entropía en nuestra habitación es:
Es decir, que la variación de entropía que tenemos en la habitación es proporcional al incremento de la temperatura desde A a B, y al incremento de volumen del aire desde A a B. Si aumentamos la temperatura, entonces, aumentamos la entropía. n es el número de moles de aire, y cv es el calor específico. Idealmente, una vez que hemos alcanzado una temperatura constante, ya no hay aumento de entropía. Y por tanto, no sería necesario suministrar más calor. Observad que no hablo de orden. El incremento de entropía va asociado al incremento de temperatura y/o volumen. Las moléculas del aire ¿están igual de ordenadas o más ordenadas?. No lo se. Pero si sabemos que, si aumentamos el volumen, por ejemplo, al calentar, les estamos dando a nuestras moléculas más libertad para moverse. Vamos a volver a esta idea de ‘libertad’ más adelante.
Pero, en nuestra habitación ocurre un proceso irreversible: el calor se disipa al exterior de dos formas: irradiándose a través de los materiales y las ventanas, y mediante intercambio de aire caliente del interior con aire frío del exterior.
El intercambio de materia y energía de la habitación (nuestro sistema) con sus alrededores, implica que tenemos que descomponer la entropía en dos términos: ΔiS es la entropía generada en el interior de la habitación, que es siempre cero o positiva; ΔeS es la entropía del proceso de intercambio con el exterior y puede ser negativa, cero o positiva. Como la entropía es el cociente entre calor y temperatura, y queremos mantener la temperatura y presión constante en la habitación, entonces:
La temperatura del exterior de la habitación Te es menor que la temperatura del interior Ti. Por tanto, si perdemos todo el calor, o sea, Qi=Qe, entonces el término de entropía de intercambio con el exterior es mayor en valor absoluto. Como el intercambio con el exterior está sacando calor de la habitación, entonces, el término es negativo. Por tanto, la variación global ΔS=ΔiS–ΔeS<0. Hemos visto antes que la entropía depende de la temperatura, por lo que si sacamos el mismo calor que metemos, la habitación se enfría hasta que Ti=Te. Esto es lo que ocurre en una habitación cualquiera: en el momento que apagamos la calefacción, la habitación se enfría. Al final, Qi se igualará con Qe. La clave para mantener la habitación caliente es suministrar energía constantemente y llegar a un estado estacionario en el que Qi>Qe durante un lapso de tiempo.
Total, que para mantener la temperatura constante, y, por tanto, ΔS=0, necesitamos que Qi>Qe, es decir, suministramos más energía de la que perdemos durante el tiempo que queremos estar calientes. Lógico, ¿no?. Por ello nos interesa minimizar Qe, utilizando aislamientos, de modo que podamos minimizar Qi, y reducir la factura de la luz. Aquí voy a añadir una nota: estamos simplificando mucho la discusión, pues nos estamos centrando en el aire, un gas, y además lo consideramos un gas ideal. Cuando hablemos de reacciones químicas, cambios de fase, etc. la discusión se complica, y hablaremos de energía libre, entalpía y entropía.
El término ΔeS negativo lo denominó Schrödingerentropía negativa o neguentropía: la entropía asociada al proceso de disipación. Es decir, estamos neutralizando la acumulación de entropía en la habitación al calentarla, sacándola fuera y aumentando la entropía del exterior.
Esto es lo que define el SEGUNDO PRINCIPIO DE LA TERMODINÁMICA: la entropía total del universo (nuestra habitación + el exterior) siempre aumenta. Por ello, para poder mantener la entropía de la habitación constante (que mantenga su temperatura y presión constantes) necesitamos estar constantemente generando calor en ella y aumentar la entropía del universo.
Con esto hemos explicado físicamente lo que todos sabemos por experiencia: que si apago el radiador, la habitación se enfría. Por este principio, los ingenieros han hecho enormes esfuerzos en reducir los procesos irreversibles en máquinas y edificios, tales como reducir la disipación de calor mediante aislamiento, disminuir el rozamiento y desgaste en los motores, etc. En la vida real, como vamos a tener procesos irreversibles, siempre tenemos que consumir energía para ‘pagar’ esta especie de impuesto entrópico. Esta es la razón por la que no existe el móvil perpetuo y por la que, hagamos lo que hagamos, siempre se va a enfriar la casa al apagar la calefacción.
Aplicación en la bioquímica
La discusión anterior se puede aplicar exactamente igual a un organismo vivo, ya sea una célula o un animal.
En 1992 se publicó un interesante experimento: los investigadores midieron, usando un calorímetro, la producción de entropía de cerditos en una granja y observaron que la producción de entropía iba creciendo durante el periodo infantil, hasta alcanzar un máximo. Cuando el cerdito entraba en edad adulta y cesaba su desarrollo, la producción de entropía disminuía, e iba disminuyendo gradualmente hasta la vejez.
Es decir, mientras estaba en proceso de morfogénesis activa, generando estructura biológica, la disipación de entropía crecía. En la edad adulta entra en estado estacionario.
La ecuación que vimos antes:
la podemos expresar así:
En la que la velocidad o la variación de la producción de entropía es el balance entre la producción de entropía interna del sistema (es decir, debida al metabolismo y procesos vivos del cerdito) y la disipación de energía al entorno en forma de calor (Q) que es una función que varía con el tiempo (estamos en un sistema dinámico), en relación con la temperatura del sistema. Aquí, el calor Q no hay que confundirlo con temperatura. El calor engloba la irradiación de energía y la disipación de energía transportada por moléculas, como el agua, CO2 y otras moléculas emitidas por el organismo, que ‘esparcen’ o ‘dispersan’ la energía. En estado estacionario, ambos términos se igualan.
Por el contrario, si la tasa de producción interna de entropía es menor que la disipación de calor, la variación de entropía es negativa. Tenemos la ‘neguentropía’ y, en el proceso, es cuando se produce la auto-organización de las estructuras de los organismos vivos.
Ilya Prigogine entra en escena: explicando la vida con el teorema de mínima entropía, sistemas no lineales y estructuras disipativas.
Resulta que estamos disminuyendo la entropía de nuestro sistema, mediante la disipación de energía y el aumento de entropía del exterior del sistema. Hay varios tipos de este sistema peculiar que, espontáneamente, se ha alejado del equilibrio.
Uno de estos sistemas es el metabolismo.
El metabolismo es un conjunto conectado y coordinado de reacciones químicas que permite, según el teorema de mínima entropía de Prigogine, minimizar la entropía producida durante la disipación de energía libre, maximizando la negentropía. Ello lleva a la reducción de entropía interna del sistema y la aparición de estructuras emergentes. Este tipo de sistemas se denominan estructuras disipativas (mas adelante volveremos a este concepto).
El metabolismo permite que los organismos vivos se ‘alimenten de entropía negativa‘ (como expresó Schrödinger). Este concepto aún está en discusión y también se ha sugerido que la evolución marca un camino hacia la maximización de la producción de entropía, provocando un aumento de complejidad que aumente la neguentropía para mantener la estabilidad dinámica. En fin, aquí entramos en un área muy compleja. Tanto que lo llamamos la Ciencia de la Complejidad. Pero como sumario, podemos decir que hay una diferencia fundamental entre un sistema vivo y una máquina: en las máquinas, los ingenieros quieren reducir los procesos irreversibles para aumentar su eficiencia disminuyendo la entropía. En la vida, en cambio, DEPENDE de los procesos irreversibles y la producción de entropía es la que hace que funcione. ¿por qué depende de ellos? porque la vida surge a costa de alejarse del equilibrio y de aumentar la disipación de entropía (el segundo término en la última ecuación)
Un ejemplo relativamente simple de estructura disipativa, muy similar al metabolismo, es la reaccion de Belousov-Zhabotinsky:
La aparición espontánea de patrones durante la reacción, como los de la imagen, que son zonas con diferentes parámetros físicos y químicos, es resultado de la disminución de entropía, mediante la transformación de la energía contenida en el ‘combustible’ de la reacción y el aumento de entropía del exterior. Es una estructura disipativa que depende del aumento de entropía del exterior. Por ello, una estructura disipativa, tal como el metabolismo, sólo puede producirse en un sistema abierto. En un sistema cerrado en el que no pueda intercambiar materia y energía con el exterior, el sistema ‘muere’ rápidamente.
¿qué tienen en común la reacción de Belousov con el metabolismo? Para que un sistema químico tenga estas propiedades, deben establecerse una serie de ciclos y reacciones encadenadas, en los que se alternen reacciones químicas reversibles e irreversibles y se produzca un fenómeno de autocatálisis o de catálisis recíproca. Aquí ya entramos en una complejidad excesiva (alguien pillará el chiste), por lo que lo dejamos en éste punto. Pero, la idea es que para que se de la vida tal como la conocemos, el metabolismo tiene que ser tal como es, y debe contener un sistema de reacciones como la glucólisis, que hacen posible que la disipación de entropía permita formar las estructuras biológicas.
Alguien podría preguntar: entonces, termodinámicamente, ¿la reacción de Belousov es vida?. No. La diferencia fundamental es que un organismo vivo es capaz de regular internamente su comportamiento estructural. La estructura en la reacción de Belousov es resultado de los cambios e influencia de su entorno, sin control interno. Este control estructural y regulación interno, que está relacionado con la información biológica, es lo que llamamos biología molecular. Así, podemos establecer un criterio de demarcación entre la biología molecular y la bioquímica, si queremos.
Reacción de Belousov-Zhabotinsky: un modelo del metabolismo.
Vamos a ver de nuevo el ejemplo de la reacción de Belousov:
Belousov descubrió, en 1951, su famosa reacción tratando de encontrar un modelo de laboratorio para el metabolismo central (glucolisis+ciclo de Krebs). Lo que encontró fué fascinante: una reacción que no era ni un equilibrio ni irreversible, sino que oscilaba entre el estado inicial y el final. Si la reacción se lleva a cabo sin agitación y en una capa fina, tiene lugar la formación de bellas estructuras llamadas patrones de Turing.
Belousov estudió exhaustivamente la reacción y propuso un esbozo de su mecanismo (que tardaría décadas en resolverse); envió sus resultados y los detalles experimentales para ser publicados en una importante revista científica, en 1951. Los revisores recomendaron contra su publicación y el editor respondió a Belousov que su “supuesto descubrimiento” era “imposible”. Seguramente, la idea de que una mezcla química se comportase como un péndulo, o que en un líquido homogéneo surgieran estructuras de composición química diferenciada, violando en apariencia el Segundo Principio de la Termodinámica, pesaba más que el repetir la simple receta de la reacción y verlo con sus propios ojos. El editor dijo a Belousov que tenía que aportar más pruebas. Boris entonces volvió al laboratorio y tras otros seis años de trabajo (la Ciencia requiere tiempo…), envió un nuevo artículo, más elaborado y con un estudio profundo del mecanismo. La respuesta que recibió fue de rechazo y un escepticismo aún mayor. Ni los revisores ni los editores se molestaron en repetir por ellos mismos una reacción extremadamente sencilla de reproducir. Simplemente se dejaron llevar por sus prejuicios. Belousov, que ya tenía 64 años, estaba tan enfurecido y decepcionado que decidió no volver a publicar ningún artículo jamás ni relacionarse con otros científicos. Publicó su receta de la reacción en un simposium, quedando solo un oscuro resumen en ruso en el fondo de algunas bibliotecas.
Cuando Zhabotinsky tomó el testigo, la receta de la reacción de Belousov era conocida en diversos centros en la URSS, aunque se desconocía su autor y origen. Zhabotinsky comenzó, como tema de tesis, a estudiar esa curiosa reacción que circulaba por ahí. En los años 60, ya había realizado un extenso estudio y había descubierto al autor de la reacción original: Boris Belousov. Informó a éste de su trabajo y progresos y Boris le remitió, muy agradecido por recuperar su vieja receta, su manuscrito rechazado original y otro material. Cuando la reacción empezó a ser conocida fuera de la URSS, a finales de los 60 y principios de los 70, aún era conocida como la “reacción de Zhabotinsky”, aunque por el esfuerzo de éste, el crédito para Belousov fué finalmente reconocido. Zhabotinsky mantenía informado de sus progresos a Belousov, pero éste siempre rechazó un encuentro personal, así como asistir al simposio sobre reacciones oscilantes que se había organizado en Praga en 1968. Así, Zhabotinsky y Belousov nunca se conocieron personalmente. Belousov murió en 1970, sin llegar a conocer las implicaciones que tendría su trabajo ni disfrutar del reconocimiento que actualmente se le brinda.
Desde el punto de vista de la termodinámica, podemos usar la reacción de Belousov para entender cómo funciona un sistema metabólico:
En primer lugar no es una sola reacción, sino que se genera un sistema multicomponente, abierto y genera una red o ciclos de reacciones. Uno de estos ciclos es un ciclo autocatalítico en el que los productos son, a su vez, reactivos. Estas características las comparten tanto un sistema metabólico como la reacción de Belousov.
Los patrones de Turing son impredecibles, jamás son exactamente iguales y su estructura depende de pequeñas diferencias en las condiciones iniciales. Son el resultado del acoplamiento entre las reacciones químicas y los procesos de difusión. Esta relación es no lineal y da lugar a múltiples estados estacionarios, igualmente probables. La formación de las estructuras, que manifiestan los estados estacionarios, depende de las fluctuaciones microscópicas. Prigogine lo llamaba «orden a través de la fluctuación». En un sistema biológico, las fluctuaciones son cambios ambientales, epigenética o variaciones genéticas, y las estructuras son el fenotipo.
El sistema (ya sea la reacción de Belousov o el metabolismo) alcanza un estado alejado del equilibrio, en el que maximiza la disipación de energía libre de los reactivos, minimiza la producción de entropía y maximiza la disipación de entropía fuera del sistema, de modo que el sistema se sostiene con la neguentropía y, aunque la entropía global aumenta, dentro del sistema se produce una reducción temporal de entropía. En el vídeo podéis ver uno de los modos de disipación de entropía: las burbujas de CO2, el residuo que produce la reacción, y que se eliminan. Este es el principio de mínima producción de entropía de Prigogine. El sistema evoluciona reduciendo su producción interna de entropía y maximizando la disipación. Pero, la reacción de Belousov no es un buen sistema abierto, y termina acumulando demasiada entropía y «muriendo»
Otro modelo, el modelo de máxima disipación de entropía, sugiere el sistema tenderá al estado estacionario en el que la producción de entropía sea máxima. Es decir, la evolución tiende a maximizar el aumento de entropía del entorno, lo cual puede hacerse mediante el balance entre la producción interna de entropía (que siempre aumenta) y el intercambio con el exterior.
La reacción de Belousov o la vida misma no son más que disipadores de energía libre ygeneradores de entropía. Esto permite la evolución compleja de estructuras durante el proceso de disipación de la energía libre (nutrientes) hacia los resíduos (CO2). Prigogine las llamó estructuras disipativas.
Esto nos lleva al concepto de línea del tiempo: el proceso no se puede revertir. Percibimos el tiempo en cuanto partimos de un estado inicial de baja entropía y/o alta energía libre, para terminar en un estado que ha maximizado la entropía y ha disipado la energía libre en forma de calor. Esta es la razón por la que no se puede viajar al pasado, pues ello violaría el segundo principio de la Termodinámica; viajar al pasado implicaría moverse hacia una reducción de entropía del universo.
La vida surge, como una perturbación temporal, en el proceso de disipación de la energía y del aumento de la entropía del universo. Por ello, la vida y estructuras complejas no surgen en los estados de mínima entropía o de máxima entropía, sino de modo dinámico durante el proceso de disipación de energía y aumento de la entropía del universo.
Otro aspecto interesante de estos sistemas es la adaptación y auto-reparación. Las estructuras disipativas son estables a perturbaciones y pueden absorber éstas y ‘auto-sanarse’. La capacidad de autoreparación se puede observar en la reacción de Belousov si se introducen perturbaciones:
Vida y disipación de entropía en el planeta Tierra
Hay una idea interesante al considerar la vida globalmente: la vida surge en la Tierra como una consecuencia del teorema de la maximización de la entropía. La Tierra recibe energía del Sol y debe disiparla. Si no se disipase, el planeta se habría calentado hasta fundirse. En el proceso de disipación, surge la vida como una estructura que contribuye a mejorar esa disipación (es decir, el segundo término de la última ecuación que escribimos).
La Tierra, globalmente, constituye una gran estructura disipativa en la que:
donde T1 es la temperatura de la superficie del Sol (aproximadamente 6000 K) y T2 es la temperatura de equilibrio del planeta, que es a grosso modo la temperatura a la que la Tierra irradia energía, y que es aproximadamente 300 K. Dado que la energía no se acumula en la Tierra (si así fuera, el planeta se calentaría gradualmente), el segundo término de la ecuación es aproximadamente 3×1024/300 cal/grad g
La Tierra recibe mucha energía y poca entropía, es decir, energía de alta ‘calidad’, y se disipa al espacio con un flujo de entropía mucho más elevado. Ello es lo que asegura que se sostenga la vida en la Tierra. Sin embargo, esta cuenta global no es suficiente para entender cómo surgió y cómo funciona la autoorganización molecular que da la vida.
Pero, en términos globales, la biosfera funciona como ciclos de Morowitz (ver más adelante) en los que los organismos fotosintéticos capturan energía solar, la convierten en hidrógeno y genera un gradiente de potencial, que se disipa, impulsando la generación de biomasa. La energía del hidrógeno se almacena y transporta en forma de azúcares, que son utilizados por otros organismos para reconvertirlos en hidrógeno y generar un gradiente, que impulsa a su vez la generación de biomasa o la producción de entropía en estado estacionario. En cada paso, la energía solar se ‘degrada’, o se ‘esparce’, creando un eficiente flujo de entropía hacia el exterior.
La vida en el planeta no es más que otra estructura asociada al principio de máxima producción de entropía. En un planeta como la Tierra, los flujos de fluidos y energía (Sol, calor interno del planeta) han provocado la autoorganización de estructuras (incluyendo la vida) que maximizan el flujo de entropía. Esto no ocurre en todos los planetas. En el Sistema Solar, el principio de máxima producción de entropía se aplica además en Marte, Titán, Europa o Encelado. Por ello, son lugares de interés astrobiológico.
Obsérvese que en ningún momento hemos relacionado la entropía con una medida del orden a pesar de haber estado un rato hablando de entropía. Hemos hablado de la aparición de estructuras (como es la estructura celular), y del macroestado, es decir, el balance global de calor y la temperatura de la habitación, pero no hemos hablado de ‘orden’. Ahora ha llegado el momento de volver a los dados de nuestro juego.
Si lanzamos dos dados, la apuesta más segura es el 7. ¿Por que?. Podemos considerar el resultado de la tirada como el macroestado del sistema, que es el resultado de una serie de microestados, que definimos como el resultado de cada dado en particular (es decir, el estado termodinámico de cada componente del sistema). Al final, el estado global del sistema es el resultado de los estados particulares de cada uno de sus componentes. Por ello, en la primera ecuación hablábamos que la energía del sistema (macroestado) dependía de N, el número de átomos, cada uno de ellos en un ‘microestado’ determinado.
Cuantos más microestados posibles tenga un macroestado, más probabilidad tenemos de tener el macroestado resultante. Esto se llama probabilidad termodinamica. En el caso del número 7, es el macroestado resultante de seis microestados posibles. Y, lo que nos descubrió Boltzmann es que la mayor entropía tiene lugar en el macroestado al cual conducen el mayor número posible de microestados.
La ecuación de Boltzmann dice que la entropía es igual al producto de una constante (la constante de Boltzmann, determinada por Planck) por el logaritmo de la probabilidad de ese estado. El principio de Boltzmann nos dice entonces que el aumento de entropía en un proceso es la consecuencia de la transición del sistema del estado menos probable al más probable. En nuestro juego de dados, el estado más probable, el de mayor entropía, es el número 7, y por ello el sistema de dos dados tiene la máxima frecuencia en 7 en su distribución de estados.
Veamos otro ejemplo para ilustrar el principio de Boltzmann:
Si pregunto a los estudiantes, a los que se ha engañado con la idea intuitiva de que la entropía mide el grado de desorden, la mayoría responden que la imagen de la derecha se corresponde con el estado de mayor entropía. Pero NO. La probabilidad de que en una distribución de puntos en la cuadrícula (es decir los microestados) no haya ningún punto al lado de otro es MÍNIMA, y, de hecho, esta distribución no se ha generado al azar. Si distrubimos puntos al azar, siempre va a haber alguno pegado a otro.
El estado de la imagen de la izquierda es, por tanto, más probable, no importa cómo estén ordenados los puntos. Y es más probable, porque por azar resultan mas combinaciones de puntos (microestados) con el mismo número de contactos de unos puntos con otros. Por tanto, la imagen de la izquierda sería el estado de mayor entropía.
Entropía: una medida de la ‘utilidad’ de la energía y la burocracia como análogo
En todo proceso, hay un intercambio energético. Esta energía se invierte en hacer ‘algo’, como mover un motor, o hacer una transformación química. Esta energía que invertimos e intercambiamos la llamamos energía libre.
Pero claro, para que se produzca el proceso, hay que pagar una especie de impuesto: No toda la energía se invierte en hacer algo útil (como mover el motor o transformar moléculas), sino que una parte se «disipa» sin que haga nada de utilidad. Es el término entrópico de la energía libre.
Esta idea de ‘utilidad’ de la energía la podemos ilustrar con una analogía con la burocracia.
Todos odiamos la burocracia. En mi trabajo como profesor, la burocracia requiere una cantidad considerable de esfuerzo y dedicación. Podríamos definir la burocracia como el trabajo que no se invierte en nada productivo, pero se disipa para mantener la estructura. Como veis, volvemos a la idea de entropía como generadora de orden.
La burocracia es entropía que se genera y se disipa. En la disipación de esta entropía reside el mantenimiento de toda una estructura organizativa. Es decir, cuanto más grande y compleja es una organización, más estructura requiere mantener y más burocracia, es decir, disipación de entropía requiere. ¿como aplicamos aquí el principio de mínima producción de entropía de Prigogine?. Muy sencillo: intentamos minimizar el tiempo que dedicamos a la burocracia, maximizando la disipación de ésta. Un sistema biológico funciona de modo parecido, manteniendo así su estructura. El problema es que un sistema disipativo, ya sea un organismo, una estructura o un estado, va a depender de este proceso de generación y disipación de entropía. Ello lleva a que la complejidad vaya aumentando hasta que el sistema no es capaz de disipar más entropía de la que produce, teniendo lugar el envejecimiento y degradación de la organización.
En un estado o empresa es igual: si los requerimientos burocráticos aumentan en exceso, el sistema pierde eficiencia en la disipación de entropía que se acumula, dando lugar a la degradación de la estructura y su muerte. Todos conocemos este proceso cuando estamos sometidos a burocracia paralizante, que hace que sea muy dificil llevar a cabo tareas útiles y todas las estructuras se degradan.
La entropía: una medida de la ‘degradación’ y ‘dispersión’ de la energía
Podemos ilustrar esta idea de degradación de la energía usando una analogía: billetes y moneda fraccionaria
Si tomo un billete de 20 euros y lo cambio en 40 monedas de 50 céntimos, voy a tener el mismo valor monetario (es decir, la energía se conserva). Sin embargo, estoy «esparciendo» o «dispersando» ese valor: he aumentado la entropía (ΔiS>0). Si yo ahora doy una moneda a cada persona que pasa por la calle, ese valor (esa energía) la he «esparcido» y la he expulsado del sistema: he aumentado la entropía del entorno, y he reducido la entropía de mi sistema (ΔeS<0), pero a costa de pagar 20 euros. Cada persona que se ha llevado 50 céntimos, realmente poco puede hacer con ellos. Habría hecho más con los 20 euros, ¿verdad?. Es decir, con el aumento de entropía, al repartir y «esparcir» la energía, ésta se ‘degrada’.
Este proceso, en el que, globalmente, me he quedado igual que antes, pero con 20 euros menos, es un proceso cercano al equilibrio. Ahora imaginad que yo hago lo mismo, pero le pido a cada persona a la que doy una moneda que me suba una cosa que he comprado en el súper y la coloque correctamente en la cocina. Estoy estableciendo unos ciclos y la disipación de los 20 euros lleva a que surja una estructura ordenada en mi sistema. Entonces estaríamos hablando de una estructura disipativa: El empleo de energía y la disipación de entropía, generan la estructura. Imaginad que cada moneda es el CO2 que expulso en cada ‘ciclo’ metabólico, y que el billete original era la glucosa que he consumido en el proceso y tendremos una analogía para relacionar la entropía con el metabolismo. Como con las monedas, el CO2 tiene escaso valor (es una molécula muy estable y con un sobrepotencial muy elevado, que la hace poco reactiva, de ahí la dificultad para convertirla en otros materiales), comparado con la glucosa original, de la que se puede extraer bastante energía. Ahora necesitamos un sistema que recopile las monedas y las convierta de nuevo en billetes de 20 euros. Este sistema son los organismos autótrofos, que, utilizando la luz o la energía química de los minerales, fijan el CO2, convirtiéndolo de nuevo en ‘billetes’ de alto valor: los azúcares, que a su vez se transforman en otros muchos productos.
Esta idea de los ciclos la expresó Harold Morowitz en su Teorema de los Ciclos de Morowitz:
Esto nos permite definir la entropía de un modo intuitivo: es una medida de la dispersión de la energía: cuanto más dispersa, es decir, cuantas más formas tengamos de distribuir la energía entre los componentes del sistema, mayor es la entropía. Lógicamente, si en los productos de la reacción tengo mucho CO2, tengo muchas formas de distribuir la energía entre cada una de las moléculas de CO2; por tanto, tengo más microestados que se manifiestan como el macroestado, y eso aumenta la probabilidad y la entropía.
También decimos que al aumentr la entropía, aumentamos los grados de libertad del sistema. Cuantos más grados de libertad, mayor entropía. Veámoslo con un ejemplo clásico de Lehninger:
¿cual de los tres casos, a, b o c, tiene mayor entropía?. ¿puedes definirlo según el concepto de «estado ordenado» que te contaron? En el caso (a) tenemos dos reactivos separados. Podemos distribuir energía entre las dos moléculas y todas las posibles vibraciones entre sus enlaces. Tened en cuenta que, en la molécula, la energía se distribuye haciendo vibrar y rotar los enlaces, y en el caso (a) hay muchas más formas de hacerlo que en los otros (tenemos más microestados). En el caso (b) tenemos una sóla molécula, pero esta molécula tiene tres enlaces capaces de rotar completamente, con lo que tenemos más grados de libertad, es decir, más formas de distribuir la energía, es decir, más microestados, que en caso (c), en el que tenemos una molécula rígida, por lo que las posibilidades de rotaciones y vibraciones disminuyen. Así, el caso (c) es el de menor entropía y el caso (a) el de máxima entropía. Esto hace que la reacción (a) sea mas lenta que la (c). Mucho más lenta. Y aquí entramos en cómo la entropía gobierna la velocidad de las reacciones y la acción de las enzimas, lo cual es contenido para otro tema.
Intuitivamente, podemos expresar que en el caso (a), podemos ‘esparcir’ la energía mucho mejor que en el caso (c). Entonces, una habitación desordenada no tiene por qué ser el estado más probable, y por tanto, el de mayor entropía. Depende de cómo se distribuya la energía entre sus componentes y del número de microestados que den lugar a ese estado desordenado. Jaque mate, amigos que usais la entropía como excusa para no ordenar la habitación.
Veamos otro ejemplo intuitivo, el de una tostada con mantequilla:
Mientras la temperatura se mantenga baja y no proporcionemos calor, estaremos en un estado de baja entropía y el trozo de mantequilla se mantendrá sólido sobre la tostada. Al calentar, ¿qué es lo más probable? que la mantequilla se ‘esparza’ por la tostada. Este será un estado de mayor entropía: las moléculas de la mantequilla se separan (tiene mas ‘libertad’) y distribuyen por la tostada y la energía se reparte, ‘esparciéndose’. Aquí no hay sorpresas: tenemos un proceso irreversible (una vez esparcida la mantequilla, no podemos revertir el proceso), que se mueve, tal como nos decía Boltzmann, hacia su estado de mayor probabilidad. La mantequilla no se ‘desordena’, eso es nuestra percepción de orden y desorden, ya que antes de calentar la mantequilla no estaba formando una estructura cristalina, por ejemplo. Solo era más viscosa, dando la apariencia de ser sólida. Simplemente, la energía se ‘reparte’ siguiendo el camino más probable, aumentando los grados de libertad moleculares, o aumentando el número de microestados. Como la mantequilla es un fluido no compresible, entonces la variación de entropía sólo depende de la temperatura. Al calentarla de A a B, la entropía se incrementa según:
En la ecuación, n es el número de moles y Cp el calor específico. En la tostada siempre estamos cerca del equilibrio termodinámico, por lo que aquí no vamos a tener un fenómeno de estructura disipativa, que resulta de la combinación de reacciones reversibles e irreversibles interconectadas.
Estos conceptos intuitivos que relacionan la entropía no con el orden, sino con la probabilidad y con la distribución de la energía entre componentes del sistema e intercambio con el exterior, son útiles para entender la relación entre entropía, orden biólogico o para entender cómo funcionan las enzimas o la ribozima esencial que da vida a todos los organismos vivos de la Tierra: la peptidil transferasa.
Así, finalmente, la vida, como una estructura ordenada, depende de la generación de entropía y del aumento de entropía del entorno. Consumimos moléculas de alta energía para mantener nuestra estructura y, la entropía del entorno es el precio que hay que pagar por la estructura. Como dijo Schrödinger:
Cuanto más suntuoso es un palacio, mayor es el montón de basura que genera
La emisión de CO2, orina y desechos es esencial para ‘dispersar’ o ‘esparcir’ energía, aumentando la entropía del exterior. Por ello, toda organización basada en el consumo de energía siempre, por definición, es un orden temporal, cambiante y destinado a desaparecer, altamente dependiente de cual es el mecanismo por el que disipa la energía de sus fuentes de energía y del balance entre producción y disipación de entropía. Ya sea una célula, un organismo vivo o una sociedad, todas son estructuras disipativas, temporales y dependientes de la producción de entropía. Debemos estar preparados para ello.
Referencias
Cassani, A., Monteverde, A. & Piumetti, M. (2021) ‘Belousov-Zhabotinsky type reactions: the non-linear behavior of chemical systems’, Journal of Mathematical Chemistry, 59(3), pp. 792–826. doi: 10.1007/s10910-021-01223-9.
De Castro, C. & McShea, D. W. (2022) ‘Applying the Prigogine view of dissipative systems to the major transitions in evolution’, Paleobiology, 48(4), pp. 711–728. doi: 10.1017/pab.2022.7.
Harisch, K. (no date) ‘How the mind comes to life : The physics and metaphysics of dissipative structures’, pp. 1–18.
Hooker, C. (2011) ‘Introduction to Philosophy of Complex Systems: A’, in Philosophy of Complex Systems. Elsevier, pp. 3–90. doi: 10.1016/B978-0-444-52076-0.50001-8.
Howell, L., Osborne, E., Franklin, A. & Hébrard, E. (2021) ‘Pattern recognition of chemical waves: Finding the activation energy of the autocatalytic step in the Belousov-Zhabotinsky reaction’, Journal of Physical Chemistry B, 125(6), pp. 1667–1673. doi: 10.1021/acs.jpcb.0c11079.
Kondepudi, D. K., De Bari, B. & Dixon, J. A. (2020) ‘Dissipative structures, organisms and evolution’, Entropy, 22(11), pp. 1–19. doi: 10.3390/e22111305.
Naderi, M. (2020) ‘On the evidence of thermodynamic self-organization during fatigue: A review’, Entropy, 22(3), pp. 1–32. doi: 10.3390/E22030372.
Ota, K., Mitsushima, S., Matsuzawa, K. & Ishihara, A. (2014) ‘Assessing the environmental impact of hydrogen energy production’, in Advances in Hydrogen Production, Storage and Distribution. Elsevier, pp. 32–42. doi: 10.1533/9780857097736.1.32.
Shanks, N. (2001) ‘Modeling Biological Systems: The Belousov–Zhabotinsky Reaction’, Foundations of Chemistry, 3, pp. 33–53.
Tsuda, I., Yamaguti, Y. & Watanabe, H. (2016) ‘Self-organization with constraints-A mathematical model for functional differentiation’, Entropy, 18(3), pp. 1–13. doi: 10.3390/e18030074.
Científicos e investigadores. Una reflexión contra la excelencia.
escrito por C. Menor-Salvan | 20 octubre, 2022
Alguna vez me han preguntado por qué siempre distingo entre investigador y científico, y cual es la diferencia.
Hay una respuesta corta y rápida: Ser científico es una condición, una forma de vida. El científico lo es por cómo piensa, qué se pregunta y cómo interroga a la realidad. La Ciencia es una forma de gobernar el pensamiento, junto con una gran cantidad de conocimiento. Investigador hace referencia a la aplicación, a la parte práctica. A la acción de investigar. El investigador no tiene por qué ser un científico.
Entonces yo hago la siguiente reflexión, que espero sirva a los nuevos científicos que llegan a mi clase y comienzan en este mundo: Actualmente, a lo largo de la carrera nos educan en la competición y nos inundan con el mito del talento, la excelencia y con la «orientación al logro» (digo actualmente, porque cuando yo estudié no había nada de eso: los profesores, salvo alguna excepción, eran meros autómatas que transmitían una información desde unos papeles amarillos por el uso curso tras curso y con quienes teníamos mínima interacción).
Constantemente estamos sometidos a lo que J. Krishnamurti llamaba la «violencia de la comparación«: el fracaso del otro como medida de mi propio logro. Hay que sacar mejor nota que el otro, hay que conseguir la beca antes que el otro, hay que publicar más artículos que el otro, hay que conseguir el contrato compitiendo con el otro; ser el primero en la clase, la oposición, el primero en publicar algo, etc.
Todos los seres humanos desean poder, riqueza, posición social. El deseo de poder se expresa de muchos modos: está en el profesor, la pareja, en un estudiante respecto de otro. Este deseo de posición dominante es una de las formas de agresividad del hombre. La agresividad y el sometimiento a ella pervierten toda relación a lo largo de la vida. El hombre ha aceptado esto como natural, con todos los conflictos y desdichas que conlleva. Básicamente, en ello se encuentra involucrada la medida -el más, el menos, lo mayor y lo menor- que en esencia implican comparación […]. Ello comienza casi al nacer y continúa a lo largo de la vida-este constante medir el poder, prestigio, riqueza. Esto se fomenta en las escuelas y universidades. Todo su sistema de calificar consiste en una evaluación comparativa. Cuando A es comparado con B, que es brillante, agresivo, inteligente, esa comparación misma destruye a A. Esta destrucción toma la forma de la competencia, la imitación y la conformación a los patrones establecidos por B. Ello engendra antagonismo, celos, ansiedad, miedo, y termina por volverse la condición en la que A vive el resto de su vida, siempre midiendo, siempre comparándose. Esta comparación es uno de los muchos aspectos de la violencia.
– Jiddu Krishnamurti. Cartas a las Escuelas.
El concepto de «excelencia» es distinto en el ámbito científico-académico a como entendemos la palabra en el lenguaje normal. Alguien «excelente» mostraba un conjunto de características mas o menos relativas. Cuando decimos «es una excelente persona», es obvio que es algo relativo al resto de personas. Si decimos que alguien es un «excelente fontanero», claramente, en su profesión, muestra un conjunto de capacidades que nos hace preferirle a otros fontaneros. Pero, pensemos en alguien que es una «excelente persona». ¿cómo cuantificamos eso? ¿haríamos un ranking? ¿cual es la persona más excelente que conoces?. ¿Cómo cuantificamos la excelencia de un fontanero? ¿por el número de obras al año? ¿por las buenas referencias? ¿por la relación calidad-precio?. Seguramente sea difícil medir esa excelencia, incluso para algo aparentemente objetivo, que es cómo trabaja un profesional. Al final es un conjunto de factores muchas veces subjetivos o relativos. Si esto es difícil, ¿vamos un paso más allá y, después de implementar una medida de la excelencia, impedimos que los fontaneros que no la alcancen puedan trabajar?
Nos educan no sólo para cuantificar y valorar el «logro» o el «éxito», la «consecución de objetivos y la excelencia» y en «ser el primero» por encima de todo, sino en la aceptación del sacrificio como algo deseable. Vivimos en una especie de culto al sufrimiento. Se asocia el sufrimiento con ese logro y el disfrute con culpabilidad o pérdida de tiempo. Los investigadores aceptan el sacrificio como parte del trabajo y lo imponen a los más jóvenes. «tienes que ir al extranjero (no por que desees aprender allí, sino como imposición de carrera o para ser mejor que el otro)», «es muy difícil ser investigador y tener familia» «tienes que sacrificar relaciones personales» «tienes que dedicar todo tu tiempo a tu trabajo sin descanso» «si eres investigador, prepárate para pasar penurias económicas y precariedad» «no tengas hijos hasta los 45» «como yo lo pasé mal/trabajé gratis/tuve que exiliarme, tu también debes pasarlo mal/etc.». Hemos llegado a la aberrante asociación «ser investigador» = «sufrir» que aceptamos como algo normal, como parte de la profesión.
Como quien va al gimnasio y asocia el dolor, las agujetas y el cansancio con el avance en sus objetivos. «Cómo me he machacado» dicen. En todo momento se usa una terminología bélica: «hay que luchar por…». Muchas veces pienso en éste perverso pensamiento y recuerdo a mi maestro de Aikido, que no toleraba en el Dojo ninguna expresión de agresividad, dominio, superioridad y ego. Disciplinas como el Aikido o el Yoga nos muestran que la asociación tóxica de dolor y sufrimiento con logro debe terminar: a través de ellas fortalecemos el cuerpo y la mente, mantenemos un cuerpo saludable y mejoramos en el estudio, sin necesidad de competir, ni de sufrir, y llevando una práctica vibrante y agradable con, esencialmente, buenas sensaciones.
En el momento en que te intereses por cuales son «buenos» y cuales «malos» entre tus compañeros, estas abriendo una apertura en tu corazón por donde entrará la malicia. Poner a prueba, competir y criticar a otros te debilita y finalmente te derrota
O-Sensei Morihei Ueshiba
Nos intentan hacer creer que vivimos en una confrontación constante con nuestros compañeros y con nosotros mismos, como seres imperfectos en constante test y prueba, intentando mejorarse y ser mejores que otros. Sea lo que sea que signifique eso. Nos presionan para ser «primero», para ser «antes que», en definitiva, para valorar nuestro éxito en la medida del fracaso que perciben los que están en la lista o el ranking tras nosotros. Durante todo el tiempo nos lavan el cerebro con términos como «resiliencia», «talento» y «excelencia». Estas tres palabras, indicadores claros de que estamos ante un idiota postmoderno, deberían hacernos saltar las alarmas: «resiliencia» es la capacidad para recuperarse de una agresión o perturbación. ¿debemos prepararnos entonces para ser maltratados?. Si alguien os pide «resiliencia» como cualidad para un trabajo, tened por seguro que os van a tratar mal.
Pero vamos a revelar una parte importante del engaño: «talento» y «excelencia» son los términos usados por burócratas y políticos para justificar la explotación, la competición, la falta de oportunidades y financiación y la falta de derechos. «Sólo concedemos X contratos o proyectos, porque estamos fomentando la excelencia y el talento», cuando en realidad quieren decir «Sólo concedemos X contratos porque no queremos invertir más en Ciencia, os haremos creer que nos basamos en la excelencia, sea lo que sea eso, pero solo vamos a financiar lo que queremos/creemos conveniente/a quien hemos financiado ya previamente y ha tenido resultados (el efecto Mateo)». Cuando en una convocatoria de proyectos o contratos incluyen la palabra «excelencia», sólo os están diciendo que hay un pedazo de pastel muy pequeño y esperan que los comensales peleen como perros rabiosos por él. Son un engaño, como toda la cultura del talento. Palabrería que crea un ambiente tóxico, lleva a la infelicidad, la frustración y la decepción. Y la frustración o la aceptación del propio fracaso lleva a la desmotivación y a acumular más fracaso según los parámetros de quienes nos están aplicando sus medidas de excelencia. En el momento en el que aceptamos el fracaso, dejamos de esforzarnos. «¿para qué?» es una pregunta habitual, «si no voy a conseguir esa plaza o proyecto».
Estos sentimientos negativos abundan en los jóvenes científicos y son contrarios a los que deben tenerse al hacer Ciencia: el ambiente en un laboratorio debe ser relajado y motivador. La exploración de la Naturaleza es y debe ser gozosa, no debe ser una fuente de sufrimiento o estrés. Un científico no está interesado en competir, en lograr, en el «talento». Hacemos ciencia porque con ella aprendemos cosas, tenemos experiencias interesantes, vemos la Naturaleza bajo otros ojos y, en definitiva, tenemos una vivencia. No importa lo inteligente que seas, ni tu talento, sea lo que sea eso. La Ciencia es una forma de manejar nuestro pensamiento y enfrentarnos a la realidad. La Ciencia es un modo de relacionarnos con el mundo. Es exploración, aprender y enseñar. Descubrir y transmitir. Parafraseando a Karl Popper,la Ciencia nos interesa porque queremos saber algo del enigma del mundo en que vivimos y del otro enigma del conocimiento humano de este mundo.
Un científico intenta dominar el arte de aprender y, los que tienen la suerte de ser al mismo tiempo científicos y profesores de ciencias, tienen la doble tarea de practicar el arte de aprender y el arte de enseñar.
Pero daré a conocer lo poco que he aprendido para que alguien mejor que yo pueda atisbar la verdad y, en su obra, pueda probar y criticar mi error. Así, me regocijaré a pesar de todo de haber sido un medio a través del cual salga a la luz la verdad.
Alberto Durero
Un investigador os hablará de cuantos «papers» publica y sus cuartiles, cuantos fondos y proyectos consigue, de sus logros, de su talento, de líderes y liderar (otra palabreja postmoderna de moda), de la cantidad de charlas que da y de los sitios y colegas prestigiosos con los que se codea. Vivirá observando baremos, índices de impacto, métricas y rankings. Un investigador no desea el error, porque, durante toda nuestra enseñanza, se nos enseña a temer y odiar el error. A ridiculizar o castigar a quien se equivoca. Un investigador buscará destacar sobre el otro, y aprovechará cualquier posibilidad de promocionarse. Es a lo que nos han enseñado y forma parte del trabajo del investigador científico actual.
Durante la celebración del sexagesimo aniversario de Max Planck, en 1918, Einstein dijo que en el templo de la ciencia hay tres tipos de personas. Muchas se dedican a la ciencia en razón del goce de su poder intelectual superior; para ellos, la investigación es una especie de deporte que satisface su ambición personal. Una segunda clase de investigadores se dedica a la ciencia para conseguir fines exclusivamente utilitarios. Pero, en lo que respecta a la tercera: si el ángel del Señor viniera y sacara del templo a todas las personas que pertenecen a esas dos categorías, quedarían unas pocas personas, entre ellas Planck, y ésta es la razón por la que lo queremos.
Edward O. Wilson. Consiliencia o la unidad del conocimiento
Un científico mas bien os hablará de las cosas que ha visto y aprendido; cuando habla de publicaciones, explica lo que ha publicado, no de dónde lo ha hecho o cuanto ha publicado, o de su impacto; habla de lo que ha experimentado, lo que observa, sus ideas, lo que le ha fascinado en su exploración de la vida y la naturaleza. No le interesará dónde has publicado o con quién trabajas, o si has estado en un centro extranjero de nombre sonoro, sino qué te apasiona, qué preguntas e ideas tienes y qué opinas. Un científico abraza el error, porque el error, que puede saber amargo, madura en el delicioso fruto de la Ciencia y el aprendizaje.
La Ciencia se ha construido sobre la refutación de ideas previas. En el momento en el que el investigador trabaja en la Ciencia en un ambiente de violencia y confrontación, como ocurre en cualquier batalla, un error puede ser fatal. Así, es fácil ver que la construcción y el trabajo de la Ciencia no es compatible con los sentimientos de estrés, competitividad, frustración y miedo al fracaso a los que se someten a los científicos. En el momento en que eres científico (no investigador), no existe el fracaso; existen, mas bien, resultados negativos, refutación de tus ideas previas, resultados que no puedes interpretar y limitaciones, falacias y paradojas cognitivas. Todos estos factores son tan importantes o más para la Ciencia que la verificación de una conjetura o teoría. Es importante por ello, que el científico deje de lado el orgullo y acepte con humildad su verdadera posición de observador y transmisor de conocimiento. Naturalmente, «científico» e «investigador» no son dos categorías absolutas y separadas. Podríamos decir, si acaso, que «investigador» es el trabajo y «científico» una condición, una forma de vida. Todos navegamos entre las dos aguas, salvo excepciones (investigadores que son meros trabajadores y tienen poco de científico y, mas raramente, científicos idealistas empeñados en alejarse de la realidad). A mi me parece, a veces, complicado encontrar el equilibrio.
Quienes os digan que hay que competir, que todo esto que digo es incompatible con tener objetivos, con el esfuerzo, con tener resultados y eso que llaman «éxito», sólo os están engañando o manipulando. Se puede ser un científico y tener disciplina, marcarse objetivos o realizar un gran esfuerzo. La diferencia es que éste esfuerzo no estará motivado por la competitividad, por el miedo al fracaso o por la búsqueda del logro, sea cual se este (ya sea salvar a la humanidad, publicar con alto índice de impacto o satisfacer el placer de recibir elogios), sino motivado por la búsqueda del aprendizaje, por comprender un poquito más un pequeño aspecto de la realidad, por responder y/o plantear preguntas; y también, por qué no, realiza un gran esfuerzo por el pundonor del trabajo bien hecho, por el arte, digamos. Para el científico no hay ciencia pequeña o irrelevante. El investigador desea el impacto, porque le aportará fama y prestigio. Para el científico, toda la ciencia es necesaria e importante. Un dato que aportas puede que no cambie ningún paradigma, pero dentro de 5, 10 o 20 años puede ser el factor clave de un gran descubrimiento. Hay muchos ejemplos de ello, y los profesores deberían hacer hincapié en esa «ciencia pequeña» tan importante. La calidad de la ciencia no se mide con su impacto o según dónde se publica, sino según el modo en que ha sido realizada, según su técnica y discusión y según la veracidad y honestidad de su resultado, da igual si es un «pequeño resultado» o no. Es la velocidad y el simplismo de la sociedad moderna lo que lleva a juzgar la calidad de un resultado científico por el título de la revista en que se publica o según cuanto se cite en los medios.
Según todos estos factores, un investigador quizá pueda ser mejor que otro. No lo se. Quizá podamos inventar métricas y rankings para decidir artificialmente quien es absolutamente mejor o peor investigador en base a una métrica relativa. Igual que las notas de clase: ¿será mejor biólogo molecular quien haya sacado matrícula en la asignatura de biología molecular?. Igual, simplemente, en esa métrica particular obtuvo un valor mas alto, pero, ¿es mejor o peor? ¿en qué y en base a qué? Igual fue pura casualidad. Igual es un desastre en el laboratorio. O igual no. Tratar de decidir quién es mejor o peor científico es tan ridículo como observar un parque en el que juegan grupos de niños y tratar de hacer un ranking de los que mejor juegan. «Juanito ha subido al tobogán un 20% más que Carlitos». «Anita sube más arriba en el columpio que el 75% restante de los niños». ¿no os suena ridículo?.
Podemos intentarlo, claro, pero ellos estarán ajenos a ello, y, si intentamos que entren en nuestro juego de rankings (dando de merendar o un juguete, o permitiendo jugar en el parque sólo al primer cuartil en el número de veces que suban a lo más alto de determinado columpio), solo lograremos arruinar su tiempo de juegos, desmoralizarles y convertir el parque en un campo de batalla. He visto, a lo largo de mi carrera, personas moralmente deshechas por su trabajo como investigadores. Personas inteligentes y con muchas ideas y pasión abandonando la Ciencia. He visto agresiones e intentos de asesinato. Suicidios. Yo mismo he sufrido estrés y depresión causada por mi trabajo. Esto es lo que provocan aquellos que hablan de «talento», «excelencia», «resiliencia», «competitividad», etc. ¿es esto lo que queremos para nosotros, nuestros alumnos y compañeros? ¿donde queda, en éste ambiente de «competitividad por la excelencia» la amabilidad y la bondad?
La bondad solo florece en libertad. No puede hacerlo en el suelo de la coacción bajo ninguna de sus formas, ni bajo compulsión, ni es el resultado de la búsqueda de recompensas. No puede existir cuando hay temor.
Jiddu Krishnamurti
Alguien podría decirnos, «es el sistema». Que no os mientan: el sistema lo hacen personas como vosotros y yo. En nuestra mano está cómo queremos que sea. Podéis enfocar vuestra carrera de dos formas: como un investigador que quiere ser el primero o como un científico que quiere descubrir. En ambos casos haréis básicamente lo mismo (mucho trabajo, burocracia, participar en concursos por plazas y proyectos, intentar publicar papers lo mejor posible…etc.) La diferencia es que, en el primer caso, es muy probable que viváis una vida de frustración, de estar pendientes de rankings y baremos, de lo que hacen otros, de alimentar el ego, de sufrir y hacer infelices a otros. En el segundo caso es posible que lo paséis mal a veces, que sea difícil, que os disgustéis. Pero siempre encontraréis gozo, motivaciones y alegrías. En el primer caso viviréis pensando en el fracaso, en el segundo caso no hay fracaso ni éxito, simplemente viviréis una vida gozosa como científicos, independientemente de dónde estéis en el ranking. Y, recordad algo muy importante: en el mundo de la Ciencia casi todo el mundo es inteligente, y «excelente». Si queréis marcar la diferencia, sed amables, humildes y generosos. Sed científicos, no investigadores.
Los actores se ponen maquillaje y representan la belleza y la fealdad; pero cuando se termina la obra, ¿Dónde están la belleza y fealdad?. Los jugadores de ajedrez compiten por ser los primeros e intentan aventajarse unos a otros en sus movimientos; pero cuando se acaba el juego y se retiran las piezas, ¿Dónde queda entonces la competición?
¿Por qué aumenta la infectividad del coronavirus?: Un sencillo experimento virtual con la ‘variante británica’ del SARS-CoV-2
escrito por C. Menor-Salvan | 20 octubre, 2022
por C. Menor-Salván
En los medios y redes sociales ha causado una gran alarma la aparición, reportada en diciembre de 2020 en Gran Bretaña, de una nueva variante del virus SARS-CoV-2. Esta variante, denominada B.1.1.7, contiene varias mutaciones puntuales respecto de la variante original que se extendió en febrero-marzo de 2020. Según los datos clínicos disponibles, la variante B.1.1.7 tiene mayor infectividad y velocidades de transmisión. Desde diciembre, según el COVID-19 UK Genomics Consortium, más del 50% de los nuevos contagios son de ésta variante, que presenta una transmisibilidad incrementada entre un 50 y un 70% respecto de la variante original que llamaremos WT (por ‘wild type’). Como es lógico, la aparición de variantes con mayor transmisibilidad crean alarma, pero son perfectamente esperables, dado que estamos forzando el proceso de evolución viral: mediante confinamientos y medidas anticontagio, creamos una selección artificial de las variantes más infectivas, que prevalecen sobre las variantes originales.
La infectividad viral es una consecuencia de varios aspectos moleculares del virus; uno de ellos es la afinidad por el receptor celular, que una proteína del virus reconoce, y al que se une, iniciando el proceso de infección. La proteína viral que reconoce el receptor en la célula que va a infectar es la proteína de la espícula. Como si de un puzzle molecular se tratara, la espícula viral ‘encaja’ en el receptor. Os remito a la Noticia Nº 59 para una introducción general al SARS-CoV-2
Como es lógico, si modificamos la proteína de la espícula de modo que mejore la estabilidad de su interacción con el receptor, aumentará la infectividad. ¿como?. Para entenderlo, hay que tener en cuenta que un virus es un agregado supramolecular. Digamos que es una gran molécula heterogénea. No es un ser vivo. Si el virus tiene mayor afinidad por su receptor, quiere decir que la infección se producirá a una concentración menor. Dicho de otra manera, si aumentamos la afinidad del virus modificado por el receptor, se producirá una infección con una cantidad de virus menor que los necesarios con el virus sin modificar. Y, posiblemente, este proceso está detras del efecto de la variante UK B.1.1.7: una de sus mutaciones se encuentra precisamente en la región de la espícula que interacciona con el receptor de la célula a infectar.
En ésta entrada voy a mostraros como nosotros mismos podemos ver éste efecto: voy a tomar los datos de la estructura PDB 60MJ y, a partir de ellos, voy a:
Calcular las interacciones por puentes de hidrógeno entre la espícula y el receptor. Estas interacciones determinan la estabilidad el complejo espícula-receptor, y, como es lógico, cuando más puentes y más fuertes, mayor estabilidad = mayor afinidad =mayor infectividad. También observaremos otras interacciones evidentes, como el stacking pi: un tipo de enlace que se produce entre aminoácidos aromáticos.
Voy a introducir la mutación N501Y de la ‘variante británica’, que implica el cambio de la asparagina 501 de la espícula por una tirosina, justamente en la región de interacción entre la espícula y el receptor.
Después, usando el software, el ordenador calculará la estructura más estable resultante de ése cambio y veremos si la mutación introduce la aparición de nuevas interacciones. Si la mutación implica la aparición de nuevos enlaces, esto explica fácilmente el aumento de infectividad de la ‘variante británica’.
Este procedimiento lo voy a llevar a cabo usando los softwares UCSF Chimera, Pymol y Chem3D.
La mutación N501Y de la ‘variante británica’ del SARS-CoV-2 introduce nuevas interacciones y podría aumentar la afinidad por el receptor y la infectividad
Como hemos comentado, la unión entre la espícula viral y el receptor desencadena el proceso infectivo. Esta unión se lleva cabo gracias a que se establecen una serie de interacciones no covalentes entre las dos proteínas: puentes de hidrógeno e interacciones tipo apilamiento entre anillos aromáticos. Cuanto más fuerte sea la unión, mayor estabilidad tendrá el complejo y, por tanto, mayor afinidad tendrá el virus por el receptor. Al aumentar la afinidad, aumenta la infectividad del virus, dado que se requiere una inoculación de menor cantidad de virus para producir una infección efectiva. Si, por ejemplo, el virus WT necesita (número arbitrario) introducir 1000 unidades de virus en el hospedador para producir una infección, al aumentar la afinidad por el receptor ese número se puede reducir a 500-300.
Centrándonos en las estructuras del dominio RBD de la espícula y de la proteína ACE2 (recuadrados en la figura anterior), vamos a ver el resultado que obtenemos usando los datos de la variante original del virus:
Vemos la estructura molecular del dominio RBD, en azul. Este dominio es la parte de la espícula que se une al receptor celular, la proteína ACE2. Las líneas azules representan los puentes de hidrógeno entre aminoácidos. Aquí tienen especial protagonismo el Gln 493 y la lisina 417, que forman puentes con el receptor. La fenilalanina 486 da lugar a un apilamiento pi con una tirosina del receptor. Esta interacción no existía en el SARS de 2003, y es una de las que explica la mayor afinidad (e infectividad) del SARS-CoV-2. En amarillo veis la Asn (asparagina) 501, que ya en su momento se señalaba como un aminoácido potencialmente interesante en la estructura. Vamos a ver qué ocurre cuando introducimos la mutación:
La introducción de la mutación, con la nueva tirosina en la posición 501, tiene consecuencias que son sutiles pero de gran importancia. Primero, aparecen nuevas interacciones entre el nuevo aminoácido y el receptor: nuevos puentes de hidrógeno y un enlace por stacking pi entre la tirosina 501 y una tirosina del receptor. Por otro lado, interacciones que ya existían previamente disminuyen su distancia. Los puentes de hidrógeno entre las lisina 417 y la glutamina 493 se hacen más cortos (y por tanto mas fuertes, ya que es una interacción electrostática). Como resultado la proteína mutante se une con mayor estabilidad al receptor, ya que aumentan el número de puntos de atracción electrostática y disminuye la distancia de las que ya existían. Esto da lugar a una unión más estable, y, por tanto, a un aumento de la afinidad. Esto se traduce en la práctica en un aumento de la infectividad de la variante.
Las representaciones de proteínas son algo abstractas. Para que el lector pueda ver más intuitivamente cómo se produce la unión, vamos a ver las superficies de las moléculas de proteína. Estas interaccionan ‘encajando’ y uniéndose por las interacciones electrostáticas, de modo similar a como si uniéramos unas piezas con imanes.
En cierto modo, el virus y su receptor interaccionan de modo similar a las piezas de un conector magnético, pero con una interacción electrostática en lugar de magnética.
La fuerza y geometría de las interacciones electrostáticas determina la estabilidad de la unión entre el virus y su receptor, y, por tanto, su afinidad e infectividad. La acción de los anticuerpos se basa en un principio similar. Una pregunta habitual es si ésta nueva variante supondrá una pérdida de eficacia de las vacunas o mejorará la evasión inmune del virus. Todavía queda mucho trabajo para los científicos, pero los primeros datos indican que ésta variante no alterará la eficacia de la vacuna ni la respuesta inmune, al ser mutaciones puntuales que no afectan al reconocimiento de los anticuerpos.
Por otro lado, las modificaciones en el dominio de reconocimiento de receptor en la espícula viral, tampoco implican un aumento de la agresividad del virus, por lo que el aumento de infectividad no va asociado a un aumento de gravedad de las infecciones. Como digo, aún queda mucho que investigar y que aprender y todo puede ir cambiando, pues la pandemia evoluciona más rápido que la capacidad de los científicos para obtener resultados y avances.
Estos sencillos resultados que he mostrado, obtenidos mediante un no menos sencillo análisis computacional de datos de estructuras de proteínas, no son mas que una aproximación muy sencilla. Un estudio mas complejo y riguroso requeriría muchos mas medios y tiempo de los que dispongo, pero espero que sirva para entender la mecánica molecular que hay tras la infección del coronavirus.
Referencias
Kupferschmidt, K. Fast-spreading UK virus variant raises alarms. Science (New York, NY), 371(6524), 9-10.
Lauring, A. S., & Hodcroft, E. B. Genetic Variants of SARS-CoV-2—What Do They Mean?. JAMA.
Rynkiewicz, P., Babbitt, G. A., Cui, F., Hudson, A. O., & Lynch, M. L. A comparative survey of Betacoronavirus binding dynamics relevant to the functional evolution of the highly transmissible SARS-CoV-2 variant N501Y. bioRxiv, 2021: https://doi.org/10.1101/2020.09.11.293258
Tang, J. W., Tambyah, P. A., & Hui, D. S. (2020). Emergence of a new SARS-CoV-2 variant in the UK. Journal of Infection.
Volz, E., Mishra, S., Chand, M., Barrett, J. C., Johnson, R., Geidelberg, L., … & Ferguson, N. M. (2021). Transmission of SARS-CoV-2 Lineage B. 1.1. 7 in England: Insights from linking epidemiological and genetic data. medRxiv, 2020-12.
Venenos, el arma bioquímica: El caso de la avispa esmeralda
escrito por C. Menor-Salvan | 20 octubre, 2022
La avispa usa la Bioquímica para atrapar a su presa sin violencia ni dolor
No hay víspera del día de difuntos sin cuento de miedo. Y no hacen falta fantasmas ni fenómenos paranormales para ello, ya que la Naturaleza nos provee de historias que podrían inspirar muchas películas truculentas. Es el caso de la relación mortal entre la avispa esmeralda (Ampulex compressa) y las cucarachas.
La avispa parasitoide
Las avispas-joya o avispas esmeralda (género Ampulex) son un caso único desde el punto de vista del comportamiento y de la Bioquímica. Viven en una amplia distribución, fundamentalmente en África, Sur y Sudeste asiático, América e islas del Pacífico; aunque en Europa también se encuentran, son poco abundantes.
Estas avispas son parasitoides, insectos que viven su vida adulta independientemente, pero que durante su estado larval parasitan y destruyen otro insecto hospedador. Normalmente, el adulto captura, ataca o inmoviliza al hospedador, sobre el que deposita un huevo. El hospedador servirá de refugio y alimento a la larva hasta su transformación en adulto, implicando la muerte del hospedador, normalmente lenta y macabra. Un ejemplo de comportamiento parasitoide lo tenemos en el cine: las películas Alien (Ridley Scott, 1979) y Aliens (James Cameron, 1986).
La avispa esmeralda se aproxima cuidadosamente a su víctima, una cucaracha de tamaño y fuerza muy superior a ella. Cuando localiza la posición de ataque adecuada, la avispa se lanza sobre la víctima, clavando su aguijón justo en una zona específica de su tórax, paralizando un par de las patas de la cucaracha. Esta parálisis dura un par de minutos, suficiente para la avispa, que se agarra fuertemente a lo que podríamos llamar el cuello de la víctima e inyecta veneno de nuevo, esta vez con gran precisión, directamente en el cerebro de la cucaracha. La cucaracha entonces entra en un estado placentero, que dura unos 20 minutos, similar a un post-coito o el que se produce tras una comida abundante, en el que se dedica a limpiarse cuidadosamente, mientras la avispa espera. Tras ese tiempo, el veneno ha ido haciendo su efecto completo y la cucaracha pierde toda voluntad para realizar cualquier movimiento, reflejo de huida o defensa. Entonces, la avispa se acerca y mordisquea las antenas de la víctima (se cree que es un test para comprobar que el veneno inyectado haya hecho efecto, pero no sea tanto como para matar a la cucaracha). La víctima, a partir de ese momento, solo se moverá si la avispa, a la que ha dejado de ver como una amenaza, tira de ella. Dócilmente y en un estado cerebral inducido por unos niveles muy altos de dopamina (similar a los que tienen los enamorados o los individuos muy motivados), la cucaracha irá donde la avispa la lleve. Una vez en la guarida de la avispa, ésta coloca un huevo justo debajo de una de las patas y en una zona con acceso a tejidos blandos.
Avispas esmeraldas picando su aguijón en el cerebro de cucarachas (arriba) y avispa conduciendo a su víctima al nido, donde colocará el huevo del que saldrá la larva que consumirá los tejidos de la cucaracha aún viva (imágenes del naturalista italiano Emanuele Biggi)
En unos tres días, la larva eclosionará del huevo y empezará a succionar la hemolinfa de la cucaracha mientras segrega un cóctel de compuestos antimicrobianos, hasta que, en la siguiente fase, una vez desarrolladas las mandíbulas, entrará dentro de su cuerpo y devorará lentamente sus tejidos internos, de modo selectivo para mantener viva a la cucaracha el mayor tiempo posible en una tortura que puede durar 8 días. Tras ese tiempo, tiene lugar la fase de pupación, y en cuatro semanas una nueva avispa adulta saldrá de los restos secos de la cucaracha. Es interesante que el efecto del veneno en el cerebro de la cucaracha dura unos 8 días (suficiente para cubrir el proceso). En experimentos en los que se retira el huevo de una cucaracha atacada, el animal se recupera y vuelve a la normalidad en ese periodo.
Avispa adulta emergiendo de los restos de una cucaracha muerta. Foto: Emanuele Biggi.
El veneno: un arma bioquímica perfecta
Este mismo año (2018), gracias a dos extraordinarios trabajos científicos se ha encontrado y caracterizado uno de los componentes únicos y esenciales del veneno de la avispa esmeralda: el péptido ampulexina. Además de estos nuevos compuestos, el veneno de la avispa contiene otra sustancia característica, que es la dopamina, neurotransmisor que, entre otras funciones, activa los circuitos cerebrales de placer y recompensa y tiene un efecto excitante que ayudará a mantener a la cucaracha con vida. El cóctel de ampulexinas y dopamina, inyectado directamente en el cerebro de la cucaracha, anula totalmente su voluntad, convirtiéndola en un dócil, amigable y enamorado sirviente de la avispa, que la seguirá ciegamente hacia un destino mortal: ser alimento de su carnívora descendencia.
Ampulexina 1 (izquierda) y ampulexina 2 (derecha), un pequeño péptido que forma una alfa-hélice y es el componente esencial y único del veneno de la avispa esmeralda. La ampulexina provoca hipocinesia (pérdida de la capacidad de moverse a voluntad) y hace que la cucaracha sólo se mueva cuando la avispa la dirige. Imagen tomada de Moore et al., Biochemistry, 2018, 57 (12), pp 1907–1916 DOI: 10.1021/acs.biochem.7b00916
El análisis mediante proteómica ha revelado que el veneno de la avispa contiene la ampulexina como uno de los componentes esenciales y únicos, característico de esta avispa. Además contiene otros péptidos no identificados (posiblemente relacionados en función, pero que pueden dar sorpresas) y otros componentes, comunes en venenos de insectos, arañas, escorpiones y serpientes. Los venenos de éstos animales, a pesar de su distancia evolutiva, tienen sorprendentes características comunes.
Proteínas del veneno de la avispa esmeralda. Imagen tomada de Arvidson, R., Kaiser, M., Lee, S. S., Urenda, J. P., Dail, C. J., Mohammed, H., … & Adams, M. E. (2018). Parasitoid Jewel Wasp Mounts Multi-Pronged Neurochemical Attack to Hijack a Host Brain. Molecular & Cellular Proteomics, mcp-RA118.
Un componente habitual, muy abundante en el veneno, es la hialuronidasa. Esta enzima, componente importante en los venenos de abejas, avispas, arañas, serpientes y otros animales venenosos, tiene como función destruir el ácido hialurónico, degradando la matriz extracelular de los tejidos. En la abeja esmeralda, la hialuronidasa facilita la penetración en el cerebro de la ampulexina, haciendo que ésta tenga efecto. La hialuronidasa, inyectada en gran cantidad en el veneno de arácnidos, contribuye a licuar los tejidos de la víctima, que luego son succionados por la araña. Las células cancerosas humanas también liberan hialuronidasa, que facilita la invasión de los tejidos por los tumores malignos. Es curioso que la hialuronidasa humana es extremadamente similar a la hialuronidasa del veneno de abejas:
Superposición de las estructuras PDB 1FCV y PDB 2PE4 (hialuronidasa de abeja y de tumores humanos) mostrando la gran similitud de las estructuras. Las líneas gruesas coloreadas indican las partes homólogas de la proteína. El análisis estructural a partir del Protein Data Bank indica que son similares con alta significatividad e idénticas en un 30% de la secuencia. (Imagen C. Menor-Salván-Protein Data Bank)
La similitud estructural y de secuencia de la hialuronidasa de los humanos y el veneno de abejas y avispas es sorprendente e indica que provienen del mismo ancestro común. En cierto modo, los humanos conservamos la «programación genética» para generar un veneno similar al de insectos, arañas y serpientes.
Otro componente importante del veneno de nuestra protagonista (y de todos los insectos que pican) es la PLA2 o fosfolipasa A2. Esta enzima destruye los fosfolípidos y uno de sus efectos es provocar una respuesta inflamatoria y dolorosa, al liberarse ácido araquidónico de las membranas celulares atacadas por el veneno. La PLA2 es una de las responsables del dolor asociado a la picadura de una avispa. Curiosamente, las abejas y avispas tienen una pequeña proteína llamada melitina, que acentúa la acción de la PLA2 y provoca un dolor intenso; esta proteína, al parecer, no se ha encontrado en el veneno de la avispa esmeralda (al menos no figura en los análisis más recientes). Es posible que esto contribuya a que la picadura sea menos dolorosa, lo cual ayudaría a que su víctima no se revuelva contra ella y a que el veneno ejerza su efecto hipnótico.
Esto que ha mostrado tan sólo es la punta del iceberg. En realidad, la composición de los venenos de insectos es muy compleja, contiene cientos de sustancias, muchas de ellas desconocidas, de modo que la acción del veneno es el resultado de todos ellos juntos. Muchas de éstas sustancias desconocidas podrían ser, algún dia, parte de tratamientos farmacológicos, lo que nos lleva a preguntarnos:
¿podría tener alguna utilidad éste veneno?
Alguien podría preguntarse: ¿esta mezcla de ampulexina y dopamina podría utilizarse para «zombificar» a los humanos, anular su voluntad y llevarlos donde uno quiera?.
Es cierto que algunos componentes del veneno de avispa y abeja tienen potencial farmacológico. Por ejemplo el mastoparán, péptido que se encuentra en el veneno de avispas comunes, puede tener uso terapéutico como antiviral, antitumoral o en el tratamiento de la enfermedad de Chagas, gracias a su efecto tripanocida. La melitina, que provoca el dolor de la picadura de avispas y abejas, tiene efectos antitumorales muy prometedores. Poco a poco se van viendo más péptidos derivados del veneno de las avispas con actividad farmacológica, un campo de investigación reciente y que aún tiene que superar bastantes barreras.
Las temidas avispas, que no suelen despertar mucha simpatía, podrían ser una valiosa fuente de nuevos fármacos. Los venenos de las avispas ya tienen aplicaciones terapéuticas.
En el caso de las nuevas ampulexinas, es difícil que alguien pudiera usarlas de modo maligno para anular la voluntad en humanos. Hay que tener en cuenta que la avispa esmeralda inyecta el veneno directamente en el cerebro de la víctima, en una maniobra de precisión. La anatomía y fisiología del cerebro humano posiblemente no permita que las ampulexinas actúen de esa forma y, si lo hicieran, para conseguir convertir a un humano en zombi, el cóctel ampulexina-dopamina y todas las proteínas necesarias para que funcione bien, no puede ser inyectado o ingerido, sino que debería ser liberado en una zona específica del cerebro con precisión. De momento, la televisión, la política y la religión consiguen un efecto similar en humanos al que produce la avispa esmeralda en su víctima, y sin necesidad de complejos cócteles bioquímicos.
Robin Williams y el plegamiento de proteínas.
escrito por C. Menor-Salvan | 20 octubre, 2022
El suicidio del actor Robin Williams en 2014 conmocionó al mundo del cine y a todos los que nos gustaba como actor y disfrutamos muchas de sus películas. A mi me gustó especialmente en El Club de los Poetas Muertos, El Indomable Will Hunting y Despertares, donde dió vida al neurólogo, gran amante de la Química y divulgador de la Ciencia que fué Oliver Sacks.
Robin Williams, encarnando a Oliver Sacks, hablando sobre la Tabla Periódica a Robert de Niro en Despertares
Algún tiempo después, su familia reveló que Robin Williams padecía un tipo de demencia, asociada a la enfermedad de Parkinson, llamada demencia con cuerpos de Lewy. Según cuentan, esta enfermedad degenerativa pudo estar detras del suicidio de Williams. Es muy complejo hablar sobre la demencia con cuerpos de Lewy en una entrada de blog, por lo que solo voy a dar unas pinceladas, centrándome en un aspecto fundamental: la importancia de la estructura de las proteínas.
Fijate en ésta imagen:
La gran mancha redonda oscura es un cuerpo de Lewy incluido en una célula de una parte del cerebro de un paciente con demencia con cuerpos de Lewy. Estos cuerpos son masas de proteínas agregadas. Estas masas de proteínas forman en primer lugar unas estructuras que se denominan agresomas (de agresión). La formación de éstos cuerpos es una consecuencia de las propiedades de las proteínas y aquí entramos en el meollo de la cuestión: las proteínas, para realizar su función tienen que plegarse dando lugar a unas estructuras tridimensionales características. Estas estructuras tridimensionales son las que dan sentido y funcionamiento a las proteínas. Lo malo es que muchas proteínas tienden, de modo natural, a plegarse «mal», siguiendo su tendencia natural. Al fin y al cabo una proteína es un tipo de poliamida, como el nylon de las fibras de tejidos sintéticos. Y, como esas fibras, las proteínas tienden a formar fibras insolubles y resistentes. Cuando una proteína en la célula se pliega mal, la célula la marca como defectuosa, para eliminarla antes de que pueda provocar daños. Este marcaje se hace con una pequeña proteína llamada ubiquitina. Las proteínas marcadas se dirigen hacia un sistema de eliminación llamado proteasoma.
Una vista simplificada del sistema de eliminación de proteínas defectuosas. Las proteínas mal dobladas pueden formar agregados insolubles, que se almacenan en el IPOD, o bien se marcan (ubiquitina) y se ponen en «cuarentena» para su revisión o eliminación en el JUNQ. Si las proteinas marcadas se agregan, se «tiran al punto limpio», llamado agresoma. Cuando las células tienen defectos para procesar el «punto limpio» agresoma, éste crece y se convierte en un cuerpo de Lewy, produciéndose la enfermedad. Imagen tomada de M Takalo, A Salminen, H Soininen, M Hiltunen, A Haapasalo, Am J Neurodegener Dis 2013;2(1):1-14.
Cuando las proteínas marcadas como defectuosas se agregan, la célula las amontona en una especie de contenedor, o «punto limpio», que es el agresoma, para evitar que provoquen daños en la célula. La célula entonces elimina la basura de éste punto limpio en un proceso llamado autofagocitosis.
Si falla el proceso de limpieza del «punto limpio» por un defecto, la basura se acumula, forma una masa intratable y el agresoma se convierte en cuerpos de Lewy.
Como vengo diciendo, todo este proceso depende de cómo se doblen las proteínas y de la costumbre natural de las proteínas para formar agregados insolubles de fibras (como las poliamidas que se usan en tejidos). En el caso de la enfermedad que padecía Robin Williams, una de las proteínas responsables de la formación de los cuerpos de Lewy y de la demencia es la alfa-sinucleína. En condiciones normales, la alfa-sinucleína es una pequeña proteína esencial para el desarrollo del cerebro, ya que tiene una función fundamental en algunos procesos celulares de las neuronas. En condiciones patológicas, la alfa-sinucleína es una de las responsables de la neurodegeneración y la demencia asociada a la enfermedad de Parkinson y las demencias por cuerpos de Lewy. Y todo se debe a la física de la estructura de la proteína y su tendencia a plegarse mal. Voy a visualizarla para enseñartela, con ayuda del software Chimera y los datos del Protein Data Bank.
alfa-sinucleína normal:
Es una proteína sencilla, formada por una cadena en la que se ve, en rojo, una de las formas estructurales fundamentales que forman las proteínas: la alfa-hélice. Dos alfa-hélices se conectan por una cadena simple (un motivo muy básico en las proteíans que se llama hélice-giro-hélice) y queda otra larga cadena simple. En ésta forma, la alfa-sinucleína puede hacer su función fisiológica y es soluble (las alfa-hélices dan lugar a proteínas solubles).
Pero cuando la alfa-sinucleina se pliega mal, algo a lo que esta proteína tiene tendencia debido a su gran simplicidad, tiende a formar otro motivo estructural diferente: la lámina beta. La lámina beta forma estructuras agregadas e insolubles y está favorecida termodinámicamente en estas cadenas cortas de proteína. Las cadenas cortas y simples de proteínas tienden de modo natural a formar fibrillas insolubles. Es decir, el esfuerzo energético para formar la sinucleína funcional de arriba es mucho mayor y, si se la deja a su aire, el fallo en el plegamiento conduce a la:
alfa-sinucleína agregada:
Este es un agregado o fibrilla de alfa-sinucleína. En morado están las láminas beta, que se organizan paralelamente unas con otras, precipitando una masa de proteínas. Forma como «pelusillas» que se van acumulando, agregándose unas a otras, ya que las láminas beta son «pegajosas» y tienden a pegarse unas a otras. La célula marca estas «pelusillas» y las guarda en el agresoma para eliminarlas. Si la célula tiene un defecto para limpiar el agresoma, es cuando se produce la enfermedad.
Cuerpos de Lewy en células de pacientes. B: imagen por microscopía electrónica de un cuerpo de Lewy en el que se observan las masas de «pelusa» de las proteínas agregadas. Mirad la imagen de la estructura anterior e imaginad cómo esas masas se van acumulando hasta formar la «pelusa» de la imagen. La imagen está tomada de éste artículo de Lancet.
¿cómo provocan los cuerpos de Lewy los problemas neurodegenerativos y la demencia?. Pues parece ser que la masa de proteína precipitada interfiere con las funciones celulares, acumula iones de hierro que provocan un fuerte estrés oxidativo que termina matando la célula, dando lugar a la pérdida de las funciones de la zona afectada (motoras, cognitivas) y dando lugar a los síntomas típicos de estas enfermedades.
Al final la demencia por cuerpos de Lewy es una consecuencia natural de la propia Física de las proteínas: la termodinámica nos dice que las cadenas de proteínas, en especial las pequeñas, tienden a formar fibras de láminas beta (como la seda o el nylon). Las células invierten mucha energía y complejos mecanismos para plegar correctamente las proteínas y, cuando el plegamiento falla (por razones termodinámicas o por mutaciones en la cadena que alteran la estructura funcional) hay todo un sistema de control de calidad y eliminación. La enfermedad es el resultado de una cadena de fallos en todo este complejo sistema de construcción, control de calidad y limpieza de las proteínas. Y es el resultado de las propiedades naturales de las cadenas de proteínas, por eso es tan difícil de prevenir y tratar. Resulta extraño pensar que Robin Williams murió por culpa de una pequeña proteína que simplemente se plegó siguiendo su tendencia natural. Si ésto no te hace sentir frágil e indefenso, sometido a las leyes de la Naturaleza, no se que mas podría hacerlo.
Esto nos lleva a otra de las grandes preguntas de la Ciencia: si las cadenas de proteína tienden naturalmente a formar «pelusas» de fibrillas, ¿como se originó, al principio de la evolución, el sistema de estructuras que dió lugar a las proteínas funcionales?