Historia de la ciencia

La primera familia

La primera familia

Cuando Don me enseñó la primera articulación de rodilla le dije que volviera allí y me encontrara el animal entero. Respondió a mis deseos con Lucy. Por lo tanto, le dije que volviera otra vez y me consiguiera algunas variedades. Al año siguiente encontró a Papi, Mami y los niños.

(Johanson y Edey 1987)

Reconstruir lo que realmente sucedió, conocer cómo vivieron nuestros antepasados no es tan fácil.

La ciencia necesita que contemos historias, como una forma de acercarnos al pasado, pero también para despertar la curiosidad en las mentes de las personas.

Vamos a hablar de maravillosos descubrimientos y de casualidades, serendipias.

«La primera familia»

La primera parte de nuestro viaje nos lleva a Hadar, una zona situada en el triángulo de Afar.

Se trata de una extensa región desértica alrededor del río Awash, situada a unos 300 kilómetros al nordeste de Addis Abeba, la capital de Etiopía.

Los protagonistas son Donald Johanson –un paleoantropólogo norteamericano– y los fósiles que descubrió aquí, y que le valieron fama y reconocimiento mundiales.

Su primer descubrimiento de un homínido fue en 1973: una articulación de rodilla de más de 3 millones de años (Ma.) de antigüedad.

Este hallazgo fue importante, en primer lugar, porque permitía comprender mejor el bipedismo de nuestros ancestros; pero también porque supuso la renovación automática de las subvenciones necesarias para continuar sus trabajos. También significó que el gobierno etíope el apoyara sin reservas.

Así, al año siguiente, se produjo el descubrimiento que ha marcado toda su carrera y por el que, seguramente, todos lo conocéis hoy. El 30 de noviembre de 1974, Donald Johanson y Tom Gray estaban explorando la localidad 162 de Hadar, cuando tropezaron con numerosos fragmentos de huesos (debemos recordar que la inmensa mayoría de los hallazgos se hacían en superficie, es decir, los fósiles se localizaban directamente sobre el suelo).

El hecho de que estuvieran juntos les hizo pensar que podían corresponder a un único individuo, cosa que se confirmó más tarde. Los fósiles fueron catalogados como A.L. 288-1, pero todos los conocemos como «Lucy». Datación: 3,2 Ma. Especie: nueva, Australopithecus afarensis.

La historia del nombre es bien conocida: esa misma noche, durante la celebración del hallazgo en el campamento, hubo bebidas, bailes y canciones. El magnetófono tocaba una y otra vez la canción de los Beatles «Lucy in the sky with diamonds» y, sin que nadie recuerde cuándo ni a propuesta de quién, el esqueleto quedó bautizado con el mundialmente famoso nombre del que goza desde entonces.

Al año siguiente, en la campaña de 1975, se produjo un nuevo y sorprendente hallazgo. Johanson estaba explorando en el campo con Mike Bush, un médico interesado en la arqueología, cuando le llamó porque pensaba que había encontrado algo. Ese «algo» eran dos premolares de hominino que sobresalían de un bloque de piedra.

Rápidamente llamaron a David Brill, el fotógrafo enviado por National Geographic para documentar los hallazgos. Sin embargo, éste se quejó de que se les había ocurrido encontrar un fósil a una hora muy mala para tomar buenas fotografías (era plena mañana), así que decidieron posponer la extracción de los fósiles hasta las ocho de la mañana siguiente, cuando la luz sería mejor.

Al día siguiente, con las condiciones «ideales» y una vez que Brill hubo montado las cámaras, comenzaron los trabajos para extraer los fósiles. También les acompañaban una pareja francesa amiga de Brill que iban a documentar en vídeo el momento.

Pero claro, extraer fósiles es un trabajo muy lento y el calor comenzaba a pegar fuerte, así que Michèle, la mujer del cámara, se sentó a la sombra de un matorral. Notó que algo le molestaba y, pensando que era una simple piedra, lo cogió para lanzarlo lejos. Sin embargo, se levantó del suelo con un fémur en una mano, y un calcáneo (el hueso del talón) en la otra.

Esta fue la primera vez que fotógrafos profesionales pudieron captar el momento exacto, «real», en que se habían descubierto unos fósiles. Hasta ese momento, todas las ilustraciones y fotografías que mostraban el hallazgo de un fósil no eran más que meras «repeticiones» (como la que ellos mismos estaban haciendo con los premolares de Bush).

Este yacimiento quedó registrado con el número 333.

El resto de la campaña –y casi todo el año siguiente– se dedicó a recuperar los fósiles localizados. Eran muchísimos. A día de hoy suman más de 250 fósiles entre dientes y fragmentos de huesos.

La duplicidad de partes del esqueleto ha permitido constatar que se hallan representados por lo menos 17 individuos: 9 adultos, 3 adolescentes y 5 juveniles (el menor de unos dos años); tanto masculinos como femeninos. Todos los restos se han asignado a la misma especie que Lucy: Australopithecus afarensis.

El hecho de recuperar esa cantidad de fósiles juntos, de edades y sexos diferentes, llevó a los investigadores a llamarlos «la primera familia».

Y claro, la pregunta que había que responder era evidente: ¿cómo murieron todos esos individuos?

Uno de los primeros pasos era averiguar cuántos había, una tarea nada sencilla. Las estimaciones de su número han fluctuado desde 5 hasta 22 individuos, debido a que no tenemos esqueletos siquiera parciales: sólo contamos con pequeños fragmentos. Aunque se acepta de forma general como número mínimo de individuos el de 17, en realidad, el número exacto es imposible de saber con seguridad.

Respecto a la causa de la muerte, los primeros análisis sugirieron que habían sido víctimas de una repentina inundación. Los sedimentos del yacimiento apuntaban a que los homininos vivían (o deambulaban) por un hábitat de bosque seco cerca de un río. Una tromba de agua pudo matarlos, los cuerpos descomponerse y sus huesos quedar esparcidos (lo que explicaría por qué no había esqueletos articulados ni marcas de carroñeo por animales). En cuestión de semanas o meses otra inundación enterraría los restos hasta que fueron descubiertos 3 Ma después.

Esta posibilidad era tan llamativa, que algunos autores plantearon la dramática escena de una familia de Afarensis ahogados mientras dormían a la orilla de un río.

Sin embargo, estudios más recientes rechazan este planteamiento. Varios fósiles muestran signos de haber estado expuestos al clima, por lo que es probable que los homínidos murieran en el lugar por una causa desconocida, estuvieran expuestos en la superficie durante un período relativamente corto, y posteriormente quedaran agrupados y enterrados por una corriente de agua de poca fuerza. Además, es probable que fueran objeto de carroñeo por la propia fragmentación de los fósiles recuperados.

Las huellas de Laetoli

Ahora terminaremos nuestro viaje en Laetoli (Tanzania) un enclave de gran valor paleontológico, aunque quizás conozcas el lugar por las huellas encontradas allí.

De nuevo, situémonos en esta región hace unos 3,5 Ma.

El ambiente en el pasado se podría comparar con la parte oriental del Serengueti: una sabana semiárida con una extensa temporada seca cada año y unas temperaturas tan cálidas al menos como las de hoy en día.

Y nuestros protagonistas son Mary Leakey y su equipo, y unas huellas sorprendentes.

Un tarde, durante la campaña de excavación de 1976, Jonah Western, Kaye Behrensmayer y Andrew Hill volvían al campamento después de una larga caminata. Se estaban lanzando boñigas de elefante –cada uno pasa el rato como quiere– cuando Hill se tiró al suelo para esquivar una. Al mirar dónde había caído, se dio cuenta de había huellas de animales «grabadas» en el suelo. De nuevo la serendipia…

En esta zona, llamada «yacimiento A», se han recuperado más de 18000 huellas individuales.

Pero la sorpresa llegó dos años después, en 1978, cuando Paul Abell localizó la impresión de un talón de hominino. La excavación del nuevo yacimiento –identificado como «G»– mostró dos rastros paralelos de huellas de hominino de más de 27 metros de largo.

Hace 3,6 millones de años, tres Au. afarensis iban caminando por esta zona, justo después de que las cenizas de un volcán cercano se asentaran, y tras la caída de una lluvia ligera que las convirtió en algo parecido a cemento húmedo.

Cuando el volcán entró de nuevo en erupción, las nuevas capas de ceniza cubrieron y conservaron las huellas hasta hoy.

Se ha considerado que tres individuos produjeron dos senderos muy juntos:

  • Una de las series (G1) corresponde a las pisadas de un afarensis pequeño (un metro veinte de estatura) que en un momento parece que se detiene y da la vuelta, antes de seguir.
  • Otro de mayor tamaño (G2) habría dejado un rastro sobre cuyas huellas iría pisando, a su vez, otro mediano (G3) (un metro cuarenta centímetros) que le sigue los pasos.

¿Estamos ante un juego tan propio de los niños humanos como es el de ir saltando sobre las pisadas que deja otro?

Además, las dos series G1 y G2 están separadas por unos 25 cm; demasiado juntas para que los dos afarensis hubiesen caminado uno al lado del otro sin tocarse. O bien no andaban juntos a la misma altura, sino uno por delante del otro, o lo hacían agarrados.

Esta imagen —el macho lleva del hombro a su compañera mientras caminan, un tanto perplejos, por la sabana— es la que aparece en la portada del libro de Ian Tattersall, The Fossil Trail.

Conclusiones

No sabemos si AL 333 eran una familia que murieron juntos; tampoco sabemos si quienes dejaron sus huellas sobre cenizas volcánicas tenían una relación de parentesco o si se comportaban como lo haría un grupo de humanos hoy en día; lo que es seguro es que tenemos que seguir buscando respuestas, es esencial que comprendamos nuestro pasado; porque es la forma de estar preparados para lo que nos depara el futuro.

Muchas gracias

Bibliografía

BEHRENSMEYER, Anna K., 2008. Paleoenvironmental context of the Pliocene A.L. 333 “First Family” hominin locality, Hadar Formation, Ethiopia. Geological Society of America Special Papers, 446, pp. 203-214.

CELA-CONDE, Camilo José y AYALA, Francisco J., 2013. Evolución humana. El camino de nuestra especie. Madrid: Alianza Editorial. ISBN: 978-84-206-7848-1.

JOHANSON, Donald C. y EDEY, Maitland Amstrong, 1987. El primer antepasado del hombre. 3ª ed. Barcelona: Planeta. ISBN: 84-320-4729-5.

MASAO, Fidelis T., et al., 2016. New footprints from Laetoli (Tanzania) provide evidence for marked body size variation in early hominins. eLife, vol. 5, pp. e19568. ISSN: 2050-084X.

Publicado por José Luis Moreno en ANTROPOLOGÍA, CIENCIA, Historia de la ciencia, VÍDEO, 0 comentarios
Optogenética: arrojando luz sobre la neurociencia

Optogenética: arrojando luz sobre la neurociencia

     Última actualizacón: 7 diciembre 2016 a las 13:35

Esta entrada participa en la II edición del Carnaval de Neurociencias

La segunda edición del carnaval de neurociencias nos plantea a los participantes hablar acerca del descubrimiento más importante en la historia de la neurociencia. Estarán de acuerdo conmigo en que elegir el “descubrimiento” más importante de cualquier disciplina científica es un reto abrumador, mayor aún si tenemos en cuenta el campo de la ciencia que estamos tratando. En cualquier caso, aún a riesgo de dejar de lado acontecimientos muy relevantes, he optado por centrar la presente aportación en una técnica relativamente reciente que ha experimentado un avance acelerado y se ha convertido en parte fundamental del trabajo diario en cientos de laboratorios de todo el mundo. Voy a hablar de la optogenética.

Desde que D. Santiago Ramón y Cajal revolucionara la neurociencia con sus trabajos de tinción de neuronas, demostrando que el tejido cerebral está compuesto por células individuales —lo que ha venido a llamarse “doctrina de la neurona”—, los investigadores han asumido que para entender la forma en la que nuestro cerebro procesa la información que recibe de los sentidos, es capaz de pensar o memorizar, es preciso conocer a fondo los circuitos neuronales. Hoy en día somos capaces de visualizar poblaciones enteras de células y las conexiones sinápticas que se forman entre ellas, pero la dificultad reside en saber cómo se transmite la información a través de las sinapsis individuales, y la forma en la que los diferentes tipos de neuronas y sus conexiones dan lugar a las redes funcionales que llevan a cabo tareas como recordar dónde hemos dejado el coche, saber si un café está demasiado caliente o comprender que alguien nos está gastando una broma.

La forma habitual de afrontar este problema ha partido de identificar qué neuronas se activan al mostrar al sujeto de estudio una imagen, un sonido o un aroma. A continuación se determina el trayecto que sigue la señal y se miden las señales eléctricas detectadas en esas posiciones. Conocidos estos datos podemos concluir que esas neuronas están directamente implicadas en el procesamiento de la información percibida.

Pero ahora sabemos que las señales sensoriales sufren importantes cambios mientras se alejan de los ojos, oídos o nariz, lo que aumenta la dificultad para saber qué señales corresponden a las respuestas de tales órganos.

Por otro lado, nuestra capacidad para comprender los circuitos neuronales ha mejorado de forma notable gracias a la resonancia magnética funcional (RMf). Esta técnica proporciona mapas detallados de la actividad neuronal en respuesta a diversos estímulos, aunque en realidad solo muestra los cambios en los niveles de oxígeno de la sangre de diferentes regiones del cerebro, cambios que representan sólo de forma aproximada la verdadera actividad neuronal…

Francis Crick hizo esta afirmación en un artículo publicado en 1979 1. Para él, la mayor dificultad a la que se enfrentaba la neurociencia era poder ejercer el control sobre un cierto tipo de neuronas sin afectar a otras para comprender su funcionamiento. Los métodos disponibles hasta el momento no permitían ni de lejos ese tipo de detalle. Por ejemplo, los estímulos eléctricos (mediante electrodos implantados en el cerebro) actúan sobre todas las neuronas sin distinguir entre tipos celulares. La idea que planteó Crick hace más de 30 años ya es una realidad.

Karl Deisseroth  2, uno de los inventores de esta técnica, explica que la optogenética combina los conocimientos en genética y óptica para controlar sucesos específicos en el interior de determinadas células de un tejido vivo (no solo de las neuronas) mediante la inserción de unos genes concretos que las convierten en fotosensibles. La optogenética comprende además las técnicas que permiten suministrar luz al cerebro, dirigir el efecto de la luz hacia los genes y células de interés y la evaluación de los resultados.

Los principales investigadores en este campo han sido galardonados con importantes premios, y en 2010 la propia técnica fue elegida método del año por la prestigiosa revista Nature Methods, y uno de los principales descubrimientos de la década.

¿Qué es la optogenética?

El funcionamiento del cerebro (y con él, del sistema nervioso central) depende de la conectividad de las neuronas operada a través de mensajes bioquímicos o eléctricos: la transmisión eléctrica se basa en la generación de potenciales de acción; mientras que la transmisión bioquímica descansa en la liberación de neurotransmisores.

No profundizaremos mucho en este mecanismo pero para entender la utilidad de la optogenética es necesario conocer, al menos de forma elemental, cómo se produce esa transmisión de información. Su propagación se debe a la diferencia de potencial que se genera por las distintas concentraciones de iones a ambos lados de la membrana celular (principalmente iones de Sodio (Na+) Potasio (K+), Calcio (Ca2+), Magnesio (Mg2+) y Cloro (Cl-). De esta forma, se origina una diferencia de carga eléctrica de unos -70 mV (denominado potencial de reposo).

Cuando se aplica un estímulo sobre una neurona se produce una entrada masiva de cationes de Sodio y Calcio en la neurona, mientras que el Potasio sale de ella. Esto se traduce en un cambio muy rápido en la polaridad de la membrana de negativo a positivo y vuelta a negativo, en un ciclo que dura unos milisegundos. La diferencia entre ambos estados es aproximadamente de 120 mV y ello genera (o dispara) un potencial de acción que se transmite a lo largo del axón neuronal (para hacernos una idea, este voltaje es menos de la décima parte del que posee una pila LR06 de las que tenemos en casa).

Cuando ese potencial de acción alcanza la terminación del axón provoca que las vesículas cargadas con neurotransmisores (los mensajeros bioquímicos) liberen su contenido al espacio extracelular.

El inconveniente a la hora de estudiar este complicado proceso surge porque el tejido neuronal está formado por células de varios tipos. Dado que las interacciones entre los tipos concretos de neuronas es la base del procesamiento de la información nerviosa, si queremos comprender el funcionamiento de un circuito específico tendremos que ser capaces de identificar y observar cada participación individual y señalar en qué momento se activan (generan un potencial de acción) y se desactivan. Lograr esto con las técnicas anteriores era imposible.

Pero ¿y si fuera posible ver esa comunicación neuronal individualizada? La optogenética nació cuando se cayó en la cuenta de que la manipulación genética podía ser la clave para resolver el problema que planteaba la tinción o estimulación indiscriminada de neuronas. Aunque todas las células de un individuo tienen los mismos genes, su activación o desactivación sigue unas pautas concretas en función de la ubicación y función de cada célula.

Con estas palabras definió el equipo del doctor Karl Deisseroth el término “optogenética” cuando lo utilizó por primera vez en un artículo publicado en el año 2006 en el Journal of neuroscience 3.

Y lo cierto es que el mecanismo parece sencillo. Lo primero que necesitamos es hacer que nuestras neuronas objetivo sean sensibles a la luz. Desde hace unos cuarenta años se sabe que algunos microorganismos producen proteínas que regulan el flujo de cargas eléctricas (los famosos iones de los que hemos hablado) a través de sus membranas en respuesta a la luz visible. Estas proteínas, cuya síntesis depende de un conjunto de genes de opsinas, ayudan al microorganismo a extraer energía e información de la luz del entorno, y ahora nos ayudan a nosotros a desentrañar los misterios de nuestro sistema nervioso. Los distintos tipos de opsinas se diferencian en cuanto a la fotosensibilidad y al comportamiento.

Adaptado de Zhang, F., et al. (2010) y Deisseroth, K. (2011).

Chlamydomonas reinharatii es un alga unicelular móvil, dotada de un par de flagelos que le permiten nadar en agua dulce. Volvox carteri es un alga estrechamente relacionada con Chlamydomonas y posee cientos de células que adoptan la forma de una colonia globular. Por último, Natronomonas pharaonis es una arqueobacteria que vive solo en aguas hipersalinas.

En la imagen superior vemos como la canalorrodopsina ChR2 permite el paso de los iones de sodio en respuesta a la luz azul. La canalorrodopsina VChR1 responde a algunas longitudes de onda de la luz amarilla y verde, mientras que la halorrodopsina NpHR regula el flujo de iones de cloro en respuesta a la luz amarilla.

Una vez que disponemos de los genes de opsinas y conocemos su funcionalidad, el siguiente paso es insertarlos en las neuronas diana con la ayuda de virus modificados que actúan como vectores. Primero se combina un gen de opsina con un promotor (el elemento que hará que el gen se active únicamente en un tipo de célula específico). En segundo lugar se introduce el gen modificado en un virus que a su vez se inyecta en el cerebro, por ejemplo, de un ratón de laboratorio. El virus infectará un gran número de neuronas, pero gracias al promotor (que se convierte así en una especie de guía laser), sólo un tipo de ellas sintetizará la proteína opsina. No tenemos más que desencadenar la actividad neuronal mediante destellos de luz y observar los efectos en el comportamiento de los animales de experimentación.

Adaptado de Hausser, M. (2014).

La optogenética se puede aplicar en todos los niveles de la función cerebral. Una variedad de aplicaciones utilizan sondas optogenéticas tanto para leer como manipular la actividad, lo que proporciona una poderosa herramienta para establecer vínculos causales entre estos niveles.

Además, las ventajas de usar la luz como desencadenante son evidentes: no es invasiva, se puede dirigir con gran precisión espacial y temporal, y se puede utilizar de forma simultánea en diferentes localizaciones y longitudes de onda. De hecho, se han identificado un grupo de proteínas que permiten la activación o inactivación de distintas neuronas con milisegundos de precisión.

Por ello, gracias a este “interruptor genético” accionado por la luz podemos encontrar todas las neuronas que nos interesen (las que producen dopamina, por ejemplo) y controlarlas sin necesidad de saber de antemano dónde están.

Su importancia para la sociedad

La optogenética se ha empleado en diversos modelos animales para cartografiar las proyecciones neuronales, examinar la plasticidad neuronal y llevar a cabo simulaciones en los circuitos relacionados con diferentes enfermedades.

Esta técnica ha traído consigo por ejemplo una importante mejora de nuestro conocimiento sobre la enfermedad de Parkinson. Algunos pacientes con Parkinson han experimentado cierto alivio de los síntomas gracias a la estimulación cerebral profunda, una técnica que aplica una estimulación eléctrica leve de alta frecuencia en una zona específica del tálamo —el globo pálido o el núcleo subtalámico— por medio de un electrodo implantado en el encéfalo.  Su función es enviar una señal eléctrica a estas áreas específicas del cerebro que controlan el movimiento, bloqueando de esta forma las señales nerviosas anormales.

Sin embargo, se ha comprobado que las ventajas de esta técnica son limitadas porque los electrodos estimulan también las neuronas colindantes de forma no selectiva incluso cuando los electrodos se colocan con precisión milimétrica. Esta electroestimulación puede modular células mucho más distantes al actuar sobre las fibras de paso, y desconocemos los efectos que esto puede tener a largo plazo.

La optogenética ha permitido comprender (aunque todavía en modelos animales) que la estimulación cerebral profunda resulta más efectiva cuando no va dirigida a las células sino a las conexiones entre ellas, lo que modifica el flujo de actividad entre las regiones del cerebro. Gracias a la precisión que ofrece ha sido posible realizar una cartografía funcional de dos rutas diferentes en los circuitos cerebrales vinculados al movimiento: una que ralentiza los movimientos y otra que los acelera. Este conocimiento podría contrarrestar los síntomas de la enfermedad de forma más efectiva y duradera.

Conclusiones

Como sucede siempre que se abre un nuevo campo de investigación, la mejora pareja de la tecnología amplía enormemente su potencial. Por ejemplo, se han desarrollado instrumentos para medir las señales eléctricas obtenidas mediante optogenética —con una precisión de milisegundos— en los que se han integrado fibra óptica y electrodos (llamados “optodos”). Del mismo modo, el uso conjunto de la optogenética y la RMf permite cartografiar circuitos neuronales funcionales con una precisión y una integridad imposibles de conseguir mediante electrodos o medicamentos.

Así, al conocer la forma de actuación de los circuitos neuronales sanos, se podrá aplicar ingeniería inversa para identificar las propiedades alteradas en las enfermedades psiquiátricas y neurológicas, con lo que se facilitará el desarrollo de tratamientos que restablezcan la normalidad en esos circuitos.

En definitiva, como sostiene Deisseroth, la optogenética está contribuyendo a que la psiquiatría adopte un enfoque próximo a la ingeniería de redes, en el que las funciones complejas del cerebro (y los comportamientos que generan) se interpretan como propiedades del sistema que surgen de la dinámica electroquímica de las células y de los circuitos que lo componen. Ahora podemos comprender de forma más completa los mecanismos subyacentes a trastornos como la ansiedad o el autismo, lo que sin duda facilitará la búsqueda de soluciones terapéuticas.

Referencias

Brain Research through Advancing Innovative Neurotechnologies (BRAIN) Working Group Report to the Advisory Committee to the Director, NIH

Crick, F. H. (1979), «Thinking about the brain». Scientific American, vol. 3, núm. 241, p. 219-232.

Deisseroth, K., et al. (2006), «Next-generation optical technologies for illuminating genetically targeted brain circuits«. The Journal of neuroscience: the official journal of the Society for Neuroscience, vol. 26, núm. 41, p. 10380-10386.

Deisseroth, K. (2011), «Control del cerebro por medio de la luz». Investigación y Ciencia, núm. 412, p. 22-29.

Ferrús, A. (2007), Viaje al universo neuronal: unidad didáctica. Madrid: Fundación Española para la Ciencia y la Tecnologia, 276 p.

Hausser, M. (2014), «Optogenetics: the age of light«. Nat Meth, vol. 11, núm. 10, p. 1012-1014.

Nan, L. y  Peng, M. (2014), «Let there be light: a tutorial on optogenetics«. Pulse, IEEE, vol. 5, núm. 4, p. 55-59.

Reiner, A. y Isacoff, E. Y. (2013), «The Brain Prize 2013: the optogenetics revolution». Trends in Neurosciences, vol. 36, núm. 10, p. 557-560.

Zhang, F., et al. (2010), «Optogenetic interrogation of neural circuits: technology for probing mammalian brain structures«. Nature protocols, vol. 5, núm. 3, p. 439-456.

Notas

  1. Crick, F. H. (1979), «Thinking about the brain». Scientific American, vol. 3, núm. 241, p. 219-232.
  2. Deisseroth, K. (2011), «Control del cerebro por medio de la luz». Investigación y Ciencia, núm. 412, p. 22-29.
  3. Deisseroth, K., et al. (2006), «Next-generation optical technologies for illuminating genetically targeted brain circuits«. The Journal of neuroscience: the official journal of the Society for Neuroscience, vol. 26, núm. 41, p. 10380-10386.
Publicado por José Luis Moreno en CIENCIA, Historia de la ciencia, MEDICINA, 7 comentarios
La deuda de la genética con Thomas D. Brock

La deuda de la genética con Thomas D. Brock

     Última actualizacón: 14 marzo 2018 a las 09:49

Quien más quien menos ha experimentado alguna vez un momento “eureka”, ese instante de lucidez que, a modo de fogonazo, nos revela la solución a un problema cuando ya nos habíamos dado por vencidos. Para algunos científicos, desconectar y dejar vagar los pensamientos libremente puede considerarse poco productivo y perjudicial, sin embargo, la realidad es que Arquímedes —si tomamos como verídica su historia— no fue el único que se aprovechó de estos momentos de relajación.

El primer protagonista de nuestra historia experimentó uno de estos destellos de lucidez un viernes por la noche en abril de 1983 1. Kary Mullis, biólogo molecular que trabajaba para Cetus Corporation, tenía una cabaña en el valle de Anderson (en el condado californiano de Mendocino) donde había decidido pasar el fin de semana con una amiga. Todo sucedió mientras se aferraba al volante de su coche que serpenteaba a la luz de la luna por una carretera de montaña que atraviesa un bosque de secuoyas (la famosa ruta 101). La noche estaba saturada de humedad y del aroma de la floración de los castaños.

En ese momento de relajación, propio de la conducción nocturna por carreteras desiertas, fue cuando le llegó la inspiración (aunque algunos afirman, con indudable mala intención, que el LSD también jugó su papel). Mullis llevaba tiempo buscando la forma de evitar el tedioso trabajo de laboratorio necesario para hacer múltiples copias de una secuencia particular de ADN por lo que, intuyendo que había dado con algo importante, paró el coche, cogió papel y lápiz y comenzó a hacer cálculos (la parada repentina molestó tanto a su acompañante que, refunfuñado, se pasó al asiento trasero del coche sin prestar atención al momento de revelación de su compañero). Por fin había dado con un proceso que permitía fabricar un número ilimitado de copias de cualquier gen: la reacción en cadena de la polimerasa (más conocido como PCR, por las siglas en inglés de polymerase chain reaction).

Al principio nadie creyó en su idea, aunque con perseverancia consiguió que el proceso funcionase, recibiendo por ello el Premio Nobel de Química en 1993. Desde ese momento, Mullis se volvió cada vez más excéntrico —por emplear un término suave— convirtiéndose, por ejemplo, en un firme defensor de la teoría de que el VIH no causa el SIDA, una postura que ha dañado tanto su credibilidad como los esfuerzos de la comunidad científica por hacer frente a la enfermedad.

Bien, pero, ¿qué es la PCR?

Esta técnica supuso una auténtica revolución en un campo que a mediados de los ochenta del siglo pasado comenzaba a despegar: la biología molecular. Si queremos saber qué es lo que hace un gen, o cuando necesitamos determinadas proteínas para el tratamiento de una enfermedad genética, o fabricar determinadas vacunas, se emplea una técnica llamada del ADN recombinante. Consiste en tomar una molécula de ADN de un organismo (ya sea un virus, una planta o una bacteria) para manipularla en el laboratorio e introducirla de nuevo en otro organismo para que produzca, por ejemplo, una proteína que le sea totalmente extraña. Es lo que venimos haciendo con la insulina que requieren los diabéticos 2. Pues bien, un requisito previo para aplicar esta técnica es contar con grandes cantidades de un segmento específico de ADN. Y eso es lo que hace precisamente la PCR.

Antes del perfeccionamiento de esta técnica solo podían obtenerse cantidades mínimas de un gen concreto, pero tras su invención, incluso un único gen puede amplificarse hasta obtener 100 billones de moléculas similares en una tarde. De esta forma se evita la clonación y permite emplear la PCR en fragmentos de ADN que estén presentes, inicialmente, en cantidades infinitesimalmente pequeñas.

Aunque parece algo sencillo a primera vista —podemos pensar que no es más que de una mera “fotocopia” de una molécula existente— lo cierto es que resulta bastante complicado de por sí obtener una molécula bien definida de ADN natural de cualquier organismo (con la excepción de algunos virus extremadamente sencillos). La doble cadena de ADN está rodeada y enrollada, dentro de la célula, por muchas proteínas. Cuando los biólogos tratan de aislar una cadena desnuda de ADN, ésta es tan larga y delgada que incluso las suaves fuerzas de corte empleadas la rompen en puntos aleatorios. De esta forma, si tomamos ADN de 1000 células idénticas, habrá 1000 copias de un gen concreto, pero cada copia estará en un fragmento de ADN de diferente longitud. Este proceso es en cualquier caso lento y costoso.

En realidad, lo que hace la PCR es simular lo que sucede en una célula cuando se sintetiza el ADN, aunque en nuestro caso mezclamos todos los ingredientes necesarios en un tubo Eppendorf: una ADN polimerasa, el tramo ADN del organismo que queremos estudiar, los oligonucleótidos (también llamados primers, iniciadores, cebadores, “oligos”, etc.) necesarios para que se inicie la transcripción, y los desoxirribonucleótidos trifosfato (dNTPs, con las cuatro bases nitrogenadas: adenina, timina, guanina y citosina); todo ello en las condiciones precisas para que la ADN polimerasa trabaje adecuadamente (cierto pH, determinadas cantidades de magnesio en forma de MgCl2, KCl, y algunas otras sales o reactivos, en función de cada polimerasa).

¿Cómo funciona?

El método consiste en realizar ciclos repetitivos que comienzan calentando el ADN para lograr que las dos hebras que lo conforman se separen y, al enfriarse, unos cebadores se acoplen en los extremos. La reacción de copia se lleva a cabo en presencia de ADN polimerasa y de los cuatro nucleótidos (A, T, G y C), donde cada hebra hace de plantilla para la síntesis de la nueva cadena. La función de la ADN polimerasa es añadir los nucleótidos libres a los de la cadena original. Una vez concluida la síntesis de las hebras complementarias se acaba el primer ciclo (que puede repetirse cuantas veces sea necesario). Por lo tanto, la cantidad de ADN que podemos obtener sólo está limitada, en teoría, por el número de veces que se repitan estos pasos. Analicémoslos con un poco más de detalle:

En primer lugar, se toma un fragmento de ADN y se calienta a unos 95ºC hasta que se disocia en dos cadenas sencillas (este proceso se denomina desnaturalización y dura normalmente 5 minutos).

Por métodos químicos se han sintetizado e incluido en la “mezcla primaria” dos cebadores 3 —tramos cortos de ADN de una sola cadena, por lo general de una longitud de alrededor de veinte pares de bases—, cuyas secuencias encajan en las regiones que flanquean el fragmento de ADN que nos interesa (por eso es indispensable conocer los dos extremos de la región del ADN que se quiere amplificar para que los cebadores hibriden con cada extremo, es decir, se combinen entre sí las dos cadenas de ácidos nucleicos). De esta forma, los cebadores delimitan nuestro tramo de ADN o gen diana. Se necesitan dos cebadores diferentes, uno para cada una de las cadenas disociadas: uno es idéntico al extremo terminal 5’ de la hebra codificante y el otro idéntico al extremo 3’ de la hebra no codificante. Este paso, conocido como alineamiento o hibridación, es el de menor temperatura de la PCR y el que marca la especificidad de la reacción.

Por último, en el último paso, de extensión, interviene la ADN polimerasa, la enzima que facilita el proceso de replicación del ADN mediante el emparejamiento de los desoxirribonucleótidos trifosfato (dNTP) libres con los desoxirribonucleótidos complementarios del ADN molde. Aquí la temperatura sube a 72ºC porque esa es la temperatura en la cual la polimerasa alcanza su máxima actividad. Debemos tener presente que esta replicación sólo comienza donde el ADN ya es de doble cadena, es decir, en el lugar donde el cebador se ha hibridado en el paso anterior. La polimerasa hace una copia complementaria de la plantilla de ADN a partir de cada cebador, y por lo tanto, copia la región diana. Las ADN polimerasas pueden añadir hasta 1000 nucleótidos por segundo, y el producto final es una molécula de ADN de doble cadena.

Cada grupo de tres pasos (desnaturalización, alineamiento y extensión) se denomina ciclo; y la sucesión de una serie de ciclos en los que tiene lugar la desnaturalización del molde, la hibridación con los cebadores y la extensión de la síntesis por acción de la ADN polimerasa produce un aumento de forma geométrica del ADN resultante. Es decir, partiendo de cantidades mínimas (del orden de femtogramos), tras 30 ciclos se pueden obtener cantidades enormes (microgramos). Esto es así porque los productos de un ciclo se emplean como moldes del ciclo siguiente.

Hoy en día todos estos pasos se llevan a cabo en una máquina llamada termociclador, que calienta o enfría los tubos que contienen todos los “ingredientes” de forma precisa.

¿Qué pinta un microbiólogo en todo esto?

Nuestro segundo protagonista, y parte esencial en esta historia, es el microbiólogo Thomas Dale Brock, conocido por sus trabajos pioneros con bacterias extremófilas, los microorganismos que son capaces de prosperar en condiciones extremas (ya sean de temperatura, acidez, radiación o anoxia). Ha publicado más de 250 artículos y 20 libros, además de haber obtenido numerosos premios científicos 4.

Cuando comenzó a utilizarse la PCR surgió un problema importante con la ADN polimerasa, la enzima que hace el trabajo de copia. El método original empleaba la polimerasa de la bacteria Escherichia coli, pero su temperatura óptima de funcionamiento (37ºC) queda muy por debajo de los 95ºC necesarios para la desnaturalización del ADN, con lo que se destruía en el proceso. Por ese motivo era necesario añadir más enzima a la reacción tras cada ciclo. Si tenemos presente que la polimerasa es cara, comprenderemos que se viera que la PCR, a pesar de su enorme potencial, no era una herramienta económicamente práctica.

Entonces la madre naturaleza, la serendipia y nuestro microbiólogo vinieron al rescate.

Debemos situarnos a comienzos del verano de 1964 y, de nuevo, con un largo trayecto por carretera como telón de fondo. Brock tenía que viajar desde Indiana (donde residía) a los laboratorios Friday Harbor de la Universidad de Washington en Seattle, donde tenía previsto pasar unas semanas llevando a cabo estudios de microbiología marina. Este trayecto, de unos 3.700 kilómetros por carretera, atraviesa Montana, Idaho y Wyoming, estados por donde se extiende el famosísimo Parque Nacional Yellowstone. Al igual que otros muchos norteamericanos, Brock había oído hablar maravillas de este prodigio de la naturaleza pero nunca había tenido ocasión de visitarlo así que esta vez no dejó pasar la oportunidad: el día que tomó ese desvío cambió el rumbo de la biología molecular.

Su primera parada fue en la West Thumb Geyser Basin, una de las cuencas de géiseres más pequeñas de Yellowstone aunque una de las más pintorescas. Allí experimentó un súbito impacto al ver las alfombras de algas de fuertes colores naranja, rojo y verde que tapizaban los manantiales que había por doquier.

A pesar de ser plenamente consciente de que las algas vivían en ambientes termales no estaba preparado para lo que vio. Continuó su viaje a la costa oeste donde pasó el verano en los laboratorios Friday Harbor, aunque no se pudo quitar Yellowstone de la cabeza. En el viaje de regreso a Indiana recaló allí de nuevo, esta vez con un poco más de tiempo, y tomó varias muestras.

En el verano siguiente decidió pasar allí dos semanas intensivas de investigación junto a su mujer antes de un viaje que tenía previsto realizar a Islandia. En Mushroom Spring fue donde se fijó por primera vez en unas masas de bacterias filamentosas rosadas, a partir de cuyas muestras (y gracias a la ayuda de Hudson Freeze) lograron aislar un organismo al que llamaron Thermus aquaticus 5.

Lo cierto es que dos años antes de la publicación de este descubrimiento, Brock ya había llamado la atención de la comunidad científica acerca de la importancia de investigar a fondo las fuentes termales del Parque Nacional Yellowstone. Lo hizo en un artículo que apareció como artículo principal de la revista Science 6, tras cuya publicación un buen número de bioquímicos de diferentes Universidades y de la industria se interesaron por estos microorganismos. Nuestro microbiólogo señaló entonces que una buena vía de investigación sería centrarse en las enzimas que actúan sobre el ADN, como las polimerasas. Su trabajo, sin embargo, continuó por otros derroteros.

Cuando muchos años más tarde se descubrió la reacción en cadena de la polimerasa, el valor de la enzima de Thermus aquaticus se puso de relieve.

La ADN polimerasa de este organismo (Polimerasa Taq) se caracterizó en 1976 en la Universidad de Cincinnati por Alice Chien, David Edgar, y John Trela; pero no fue hasta 1987 cuando se produjo el hito final: en diciembre de ese año se aceptó para la publicación en Science el artículo escrito por Kary Mullis y otros colegas 7 donde se explicaba la trascendencia de utilizar la ADN polimerasa de Thermus aquaticus para la reacción en cadena de la polimerasa 8.

El hecho clave es que esta enzima es activa y estable a altas temperaturas, lo que significa que no pierde su función tras el primer paso de la desnaturalización del ADN, y sólo tiene que añadirse al comienzo de la reacción: su temperatura óptima de funcionamiento se sitúa entre los 70ºC y 80ºC, momento en que la bacteria sintetiza ADN a la velocidad de 35–100 nucleótidos por segundo.

El primer termociclador para la PCR salió al mercado en 1987 y supuso la automatización de todo el proceso. La revista Science eligió la PCR como el desarrollo científico más importante de 1989, y otorgó a la Taq el premio a la molécula del año.

Conclusión

Esta historia nos sirve para traer a colación la importancia de la investigación básica —que la mayoría de las veces se lleva a cabo por científicos individuales o pequeños grupos de científicos en las universidades—. En estos casos es muy difícil predecir cuándo, dónde y a quién beneficiarán los eventuales rendimientos de las diferentes líneas de investigación pero, como hemos visto, incluso un trabajo que puede parecer tedioso o demasiado teórico puede tener un impacto decisivo en el avance de la ciencia.

Artículos principales

Brock, T. D. y Freeze, H. (1969), «Thermus aquaticus gen. n. and sp. n., a nonsporulating extreme thermophile«. Journal of Bacteriology, vol. 98, núm. 1, p. 289-297.

Mullis, K., et al. (1986), «Specific enzymatic amplification of DNA in vitro: The polymerase chain reaction«. Cold Spring Harbor Symposia on Quantitative Biology, vol. 51, p. 263-273.

Saiki, R. K., et al. (1985), «Enzymatic amplification of beta-globin genomic sequences and restriction site analysis for diagnosis of sickle cell anemia». Science, vol. 230, núm. 4732, p. 1350-1354.

Saiki, R. K., et al. (1988), «Primer-directed enzymatic amplification of DNA with a thermostable DNA polymerase«. Science, vol. 239, núm. 4839, p. 487-491.

Más información

Brock, T. D. (1967), «Life at high temperatures». Science, vol. 158, núm. 3804, p. 1012-1019.

─── (1978), Thermophilic microorganisms and life at high temperatures. New York: Springer-Verlag, xi, 465 p.

Brock, T. D. (1997), «The value of basic research: discovery of Thermus aquaticus and other extreme thermophiles». Genetics, vol. 146, núm. 4, p. 1207-1210.

Celada, A. (1994), Inmunología básica. Barcelona: Labor, 654 p.

Eguiarte, L., et al. (2007), Ecología molecular. México D.F.: Instituto Nacional de Ecología, 594 p.

Elliott, W. H., et al. (2002), Bioquímica y biología molecular. Barcelona: Ariel, XXVII, 788 p.

Izquierdo Rojo, M. (1999), Ingeniería genética y transferencia genética. Madrid: Pirámide, 335 p.

Klug, W. S. y Cummings, M. R. (1999), Conceptos de genética. Madrid: Prentice Hall, 840 p.

Mullis, K. B. (1990), «The unusual origin of the polymerase chain reaction». Scientific American, vol. 262, núm. 4, p. 56-65.

Watson, J. D. y Berry, A. (2003), DNA: the secret of life. New York: Alfred A. Knopf, xiv, 446 p.

Notas

  1.  Al menos es lo que ha explicado hasta la saciedad cada vez que le han dado una oportunidad para ello. La versión que se ofrece aquí proviene del artículo escrito por él mismo para Scientific American titulado The unusual origin of the polymerase chain reaction.
  2. Algo que es bueno recordar a quienes rechazan de plano cualquier organismo genéticamente modificado.
  3. También llamados primers.
  4. Pero, sorprendentemente, no el Nobel.
  5. Que fue descrito en un artículo publicado en el Journal of Bacteriology titulado Thermus aquaticus gen. n. and sp. n., a nonsporulating extreme thermophile.
  6.  Life at high temperatures. Este artículo se ha convertido en uno de los más citados en su campo.
  7. El artículo vio la luz en enero de 1988 bajo el título Primer-directed enzymatic amplification of DNA with a thermostable DNA polymerase.
  8. La idea de usar una bacteria termófila como fuente de la ADN polimerasa fue de David Gelfand, coautor de este artículo, aunque John Trela había realizado un trabajo similar en 1975, lo que derivó en una batalla legal entre ambos al discutirse la validez de la patente de la “Taq” presentada por Gelfand.
Publicado por José Luis Moreno en CIENCIA, Historia de la ciencia, 3 comentarios
Tres visiones para el origen de la vida y una misma idea: panspermia

Tres visiones para el origen de la vida y una misma idea: panspermia

     Última actualizacón: 13 marzo 2018 a las 22:25

Comencemos diciendo que la panspermia, en términos generales, es la hipótesis que sostiene la posibilidad de que compuestos orgánicos complejos (bacterias, virus, moléculas de ADN o ARN, aminoácidos etc.) viajen a través del espacio (por diferentes medios) y cuya posterior caída en la Tierra (o en cualquier otro planeta) haya dado origen a la vida.

Son numerosos los mecanismos que, a lo largo del tiempo, se han barajado para dar cuenta de la posibilidad de que compuestos orgánicos o microorganismos viajen por el espacio aunque podemos agruparlos en tres principales: viajan integrados en cometas o asteroides, en partículas de polvo aceleradas por la radiación estelar, o en sondas o naves espaciales.

Hemos de señalar que la transferencia de material interplanetario es un hecho científico bien documentado como han puesto de manifiesto los meteoritos de origen marciano o lunar que se han encontrado en la Tierra. Del mismo modo, las sondas espaciales también pueden ser un mecanismo viable de transporte de organismos para la colonización biológica (por este motivo, la NASA cuenta con la Oficina de Protección Planetaria, encargada de dictar las normas de esterilización de los vehículos espaciales que estudian los cuerpos del Sistema Solar potencialmente habitables como nos explica Daniel Marín en su blog Eureka).

Veamos con más detalle los tres principales mecanismos ya expuestos y que nos servirán de hilo conductor para conocer el desarrollo histórico de la hipótesis de panspermia:

La litopanspermia es una versión según la cual las rocas expulsadas de la superficie de un planeta pueden servir como vehículos de transferencia de material biológico hacia otro planeta del mismo sistema solar o de otro diferente.  Como podrán imaginar, para que el mecanismo funcione es necesario que se den tres circunstancias: primero, los microorganismos deben sobrevivir al impacto que supone el proceso de extracción del planeta de origen; en segundo término, deben ser capaces de soportar el viaje a través del espacio y, por último, tienen que sobrevivir de nuevo la entrada en el planeta receptor.

Durante la década de 1830, el químico sueco Jöns Jacob Berzelius confirmó (en su artículo Analysis of the Alais meteorite and implications about life in other worlds) que se habían encontrado compuestos de carbono en ciertos meteoritos «caídos del cielo». Estos descubrimientos contribuyeron a las teorías propugnadas por pensadores posteriores como el médico alemán Hermann E. Richter (para los interesados, Richter explicó su teoría en un artículo titulado Zur Darwinschen lehre publicado en 1865 en el Schmidt’s Jahrbücher der in-und ausländischen gesammten Medicin, volumen 126, páginas 243-249) y Lord Kelvin (Sir William Thomson) de quien hablaremos en profundidad más adelante.

Por su parte, Svante Arrhenius publicó en 1903 un artículo, The distribution of life in space, donde exponía la hipótesis ahora llamada radiopanspermia, según la cual los microorganismos pueden propagarse por el espacio en granos de polvo impulsados por la presión de la radiación de las estrellas.  Arrhenius sostuvo que las partículas de un tamaño crítico por debajo de 1,5 μm (0,0015 mm) se propagan a gran velocidad por presión de la radiación del Sol, aunque, debido a que su eficacia disminuye con el aumento del tamaño de las partículas, este mecanismo serviría únicamente para transportar partículas muy pequeñas, como las esporas bacterianas.

Por último, la panspermia dirigida se refiere al transporte intencionado de microorganismos a través del espacio y enviados a la Tierra para iniciar la vida aquí, o enviados desde la Tierra para sembrar otros sistemas solares.  Esta idea fue defendida por primera vez en 1973 por Francis Crick, quien junto con Leslie Orgel, sostuvieron que la Tierra podía haber sido “infectada” deliberadamente por una civilización extraterrestre avanzada.

Antes de entrar sobre el fondo de la materia, debo mencionar los trabajos de Benoît de Maillet quien, en 1743, escribió que pensaba que la vida en la Tierra fue “sembrada” por gérmenes provenientes del espacio que cayeron en los océanos, rechazando de esta forma la teoría de la abiogénesis; o los de Sales-Guyon de Montlivault que describió en 1821 cómo unas semillas que habían caído de la Luna llevaron por primera vez la vida a la Tierra.  Al igual que me ha ocurrido con los escritos de Berzelius y Richter, no he podido acceder a su contenido por lo que no los incluiré en estas reflexiones aunque, en cualquier caso, trataron el tema de forma tangencial.  Mi intención en este artículo no es defender o cuestionar la validez de estas ideas, ni tampoco hacer un análisis de las últimas aportaciones a la cuestión del origen de la vida en la Tierra, sino exponer el camino seguido por los primeros científicos que plantearon estas hipótesis siguiendo un íter lógico e histórico para comprender mejor el trasfondo y los puntos comunes que poseen entre sí.  Si alguien quiere profundizar en algún aspecto será un debate interesante que podremos sostener en los comentarios y quizás en futuras entradas de este blog.

Introducción etimológica y filosófica: Anaxágoras

Juntas estaban todas las cosas, infinitas en número y pequeñez; ya que también lo pequeño era infinito.  Y mientras todas estaban juntas, nada era visible a causa de su pequeñez; pues el aire y el éter las tenían sujetas a todas, siendo ambos infinitos; puesto que éstos son los máximos ingredientes en la mezcla de todas las cosas, tanto en número como en tamaño.

Pero antes de que estas cosas fueran separadas, mientras todas estaban juntas, no era visible ningún color tampoco; pues se lo impedía la mezcla de todos los colores, de lo húmedo y lo seco, de lo cálido y lo frío, de lo brillante y lo tenebroso, de la mucha tierra dentro de la mezcla y de las semillas innumerables, desemejantes entre sí.  Tampoco ninguna de las demás cosas son parecidas unas a otras.  En este caso debemos suponer que todas las cosas están dentro de todo.

Los griegos no juzgan rectamente cuando admiten el nacimiento y la destrucción; pues ninguna cosa nace ni perece, sino que se compone y se disuelve a partir de las existentes.  Y, en consecuencia, deberían llamar, con toda justeza, al nacer composición y al perecer disolución.

Anaxágoras de Clazomene (fragmentos conservados gracias a la obra Física de Simplicio).

El término panspermia procede del griego παν- pan, «todo» y σπερμα sperma, «semilla». Hasta donde tenemos constancia, la primera vez que se emplea el término sperma es en una obra de Anaxágoras (es posible que el término «panspermatic» apareciera por primera vez en una obra de William Leybourn publicada en 1690: Cursus Mathematicus, aunque no he podido contrastarlo).  Anaxágoras fue un filósofo presocrático perteneciente a la escuela jónica.  Se interesaba por la ciencia y gozó en su época de gran reputación como físico, matemático y astrónomo.  A pesar de que se le atribuye un tratado “Sobre los escenarios”, un libro sobre la “cuadratura del círculo”, y una obra en tres libros “Sobre la naturaleza”, en realidad lo más probable es que escribiera un único libro ―”Sobre la naturaleza”― que ha llegado hasta nosotros en su mayor parte gracias a la recopilación de varios de sus fragmentos por parte de Simplicio.  Estos fragmentos en conjunto abarcan unas mil palabras.

No nos interesa tanto hacer un análisis etimológico del término como explicar el principio fundamental que adoptó Anaxágoras de Parménides y de todos los presocráticos: “De la nada nada sale.  Todo sale del ser”.  Es decir, lo vivo no puede nacer de lo inerte.  Esta afirmación y sus consecuencias filosóficas serán el catalizador para el desarrollo de la hipótesis de la panspermia por los pensadores posteriores.

La solución que ofreció Anaxágoras a esta cuestión fue que “Todo está en todo”.  Para él la materia es divisible hasta el infinito y cada cosa está constituida por partes de todas las cosas “infinitas por su multitud y por su pequeñez”.  Los elementos no son cuatro, como afirma Empédocles (aire, fuego, agua y tierra), sino que hay tantos elementos como especies distintas de cosas: son las «semillas» de todas las cosas.

Los animales proceden de semillas caídas del cielo.  Todo vive, siente y tiene inteligencia [una concepción del mundo conocida como hilozoísmo].

El problema principal a la hora de interpretar los escritos de Anaxágoras es que debemos tener clara la relación entre dos términos: las “spermata” (σπέρματα «semillas») y las «porciones» (μοϊραι).  Para comprender la posible incongruencia de que Anaxágoras crea en la infinita divisibilidad de la materia a pesar de que sostenga que hay «semillas» presentes en la mezcla original, debemos tener presente que emplea el término «porciones» en el sentido de una “participación” más que en el de un “trozo” o “partícula”. Por mucho que se subdivida la materia y por muy infinitesimal que sea el trozo que se obtenga, Anaxágoras replicará siempre, que, lejos de ser irreductible, sigue conteniendo un número infinito de «porciones».

Podemos entender según la cita que abre esta introducción que, a nivel microscópico, la mezcla original de la que surge toda la materia no es uniforme.  Ésta, a pesar de ser infinitamente divisible, estaba coagulada desde el principio en partículas o «semillas» y, por tanto, hay una unidad natural a partir de la cual puede comenzar la cosmogonía (de aquí proviene, tal vez, el uso de la palabra «semilla», ya que de una semilla se desarrollan cosas mayores).

Siendo estas cosas así, debemos suponer que hay muchas cosas de todo tipo en cada cosa que se está uniendo, semillas de todas las cosas bajo toda clase de formas, colores y gustos…

¿Pues como podría nacer el pelo de lo que no es pelo y la carne de lo que no es carne?

Sir William Thomson, primer barón Kelvin

Nacido el 26 de junio de 1894 en Belfast, William Thomson fue un físico y matemático británico que destacó por sus importantes trabajos en el campo de la termodinámica y la electricidad.  Es especialmente conocido por haber desarrollado la escala de temperatura que lleva su nombre.  En 1866, sobre todo en reconocimiento a los servicios prestados a la telegrafía transatlántica por medio de cables, Kelvin recibió el título de caballero y en 1892 fue elevado a la dignidad de par en calidad de «Baron Kelvin of Largs».

En lo que a nosotros interesa en este momento, debemos destacar el discurso que pronunció en 1871 en la reunión anual de la Asociación británica para el avance de la ciencia en su calidad de presidente.  En su larga alocución, entre otros muchos temas habló de la generación espontánea: la antigua especulación de que bajo determinadas condiciones meteorológicas, la materia inerte podía dar lugar a la vida.  Afirmó con rotundidad que la ciencia había aportado una enorme cantidad de pruebas contra dicha hipótesis sosteniendo:

Dead matter cannot become living without coming under the influence of matter previously alive. This seems to me as sure a teaching of Science as the law of gravitation” (la materia inerte no puede llegar a estar viva sin la influencia de materia previamente viva. Me parece una enseñanza tan clara de la ciencia como la Ley de la Gravitación Universal).

A continuación expuso su hipótesis del origen de la vida en la Tierra:

Si rastreamos la historia física de la Tierra hacia atrás, siguiendo estrictos principios dinámicos, llegaremos a un mundo fundido y al rojo vivo en el que no podía existir la vida.  Por lo tanto, cuando la Tierra estuvo preparada para albergar vida, no había ninguna cosa viviente en ella.  Había rocas sólidas y desintegradas, agua, y aire alrededor, una Tierra calentada e iluminada por un Sol brillante, lista para convertirse en un jardín.  ¿Brotaron la hierba, los árboles y las flores, en toda la plenitud de su belleza, por la orden de un Poder Creativo? ¿O la vegetación, creciendo a partir de una semilla sembrada, se propagó y multiplicó por toda la Tierra? La ciencia está obligada, por la eterna ley del honor, a afrontar sin temor cada problema que se le presente razonablemente.  Si se puede encontrar una posible solución, en consonancia con el curso ordinario de la naturaleza, no debemos invocar el acto anormal de un Poder Creativo.

Texto del discurso ofrecido por Lord Kelvin

Para comprender cómo surge la vida utiliza el ejemplo de las islas volcánicas que, al poco tiempo de surgir del mar, se cubren de vegetación y vida.  Hoy no nos sorprende en absoluto la afirmación de que la vida no surgió en esas islas de la nada sino debido al transporte de las semillas por el aire y gracias a la migración de los animales.

Cada año, miles, quizás millones, de fragmentos de materia sólida caen sobre la Tierra ― ¿de dónde han venido estos fragmentos? ¿Cuál es la historia de cada alguno de ellos? ¿Se creó en el principio de los tiempos una masa amorfa?― Esta idea es tan inaceptable que, implícita o explícitamente, todos la descartan.  A menudo se da por sentado que todas las rocas meteoríticas, aunque es cierto que algunas, son fragmentos que se han desprendido de masas más grandes y han sido lanzadas al espacio.  Es seguro que se deben producir colisiones entre grandes masas que se mueven a través del espacio como sucedería con los buques que, si fueran pilotados sin control para evitar la colisión, no podrían ir y venir a través del Atlántico durante miles de años inmunes a las colisiones.  Cuando dos grandes masas colisionan en el espacio es cierto que la mayor parte de cada uno de ellas se funde, pero parece bastante seguro que, en muchos casos, deben salir disparados en todas direcciones una gran cantidad de residuos, muchos de los cuales no habrán experimentado una violencia mayor que la que sufren las rocas en un deslizamiento de tierra o en explosiones con pólvora.  Si la Tierra colisionara con otro cuerpo, comparable en dimensiones a sí misma, y la colisión se produjera cuando estuviera cubierta de vegetación como en la actualidad, muchos fragmentos grandes y pequeños podrían, sin duda alguna, haber sido diseminados por el espacio llevando semillas, plantas y animales vivos.  Por lo tanto, y porque todos creemos con confianza que en la actualidad existen, y que ha sido así desde tiempo inmemorial, muchos mundos llenos de vida además del nuestro, debemos considerar como muy probable que haya innumerables rocas meteoríticas portando semillas desplazándose a través del espacio. Si en la actualidad no existiera vida sobre la Tierra, una de esas rocas podría, a lo que llamaríamos sin dudar causas naturales, hacer que se cubriera de vegetación.  Soy consciente de las muchas objeciones científicas que se pueden plantear en contra de esta hipótesis; pero creo que todas tienen respuestas.  Ya he puesto a prueba su paciencia demasiado como para pensar discutir cualquiera de ellas en esta ocasión.  La hipótesis de que la vida se originó en la Tierra por fragmentos cubiertos de musgo de las ruinas de otro mundo puede parecer descabellada e idealista; todo lo que digo es que no es acientífica.

Como expusimos al comenzar este relato, Kelvin plantea en su discurso la hipótesis que hoy llamamos litopanspermia y, aunque no es este el momento de un análisis más exhaustivo, podemos comprobar que la idea que subyace en su planteamiento es la misma que guía la concepción del mundo de Anaxágoras y el resto de filósofos presocráticos: “De la nada nada sale.  Todo sale del ser”.  Su solución a este dilema fue que la vida tuvo que llegar a la Tierra desde otro lugar del espacio.

Svante Arrhenius

 Svante Arrhenius nació en Suecia el 19 de febrero de 1859.  Destacó como científico (originalmente físico y más tarde químico) y profesor.  Obtuvo el Premio Nobel de Química de 1903 gracias a sus experimentos en el campo de la disociación electrolítica.

Arrhenius, firme defensor de la hipótesis de panspermia, expuso sus ideas en un artículo publicado en 1903 y, años después, en la revista Scientific American (1907).  Dado el interés que despertó esta cuestión, incluyó un último capítulo en un libro que estaba terminando (publicado en 1908) donde, de forma más extensa, pudo desarrollar esta hipótesis: Worlds in the making: the evolution of the universe.

Sostiene que desarrolló esta teoría, como hizo el propio Kelvin, por los reiterados y fallidos intentos de eminentes biólogos en descubrir un único caso de generación espontánea de la vida.  Como hemos indicado al inicio, su idea era que los microorganismos podían propagarse por el espacio en granos de polvo impulsados por la presión de la radiación de las estrellas.

Reconoce que la mayor dificultad de la teoría estriba en la aparente imposibilidad del transporte de microorganismos, incluso de un planeta a otro de nuestro propio sistema solar, debido a que la duración del viaje podría ser excesiva y la mayoría de los microorganismos pueden permanecer vivos solo unos años (aunque algunos ―añade― incluidas algunas esporas y semillas de leguminosas, conservan el poder de germinación durante décadas).

Para salvar este obstáculo introduce la presión de la radiación como energía para el movimiento, de forma que el intervalo de tiempo que el microorganismo pase en el espacio se reduzca considerablemente.  Sostuvo que organismos muy pequeños, como las esporas bacterianas, de un tamaño de entre 0,0003 y 0,0002 mm., podían ser impulsadas al espacio gracias a la presión de la radiación solar.  Considerando que la gravedad específica (densidad relativa) de estas esporas sea la misma que la del agua, llega a realizar unos cálculos acerca del tiempo que tardarían en cruzar la órbita de Marte (20 días), la de Júpiter (80 días) y la de Neptuno en 14 meses (alcanzar la estrella más cercana, Alpha Centauri, llevaría 9000 años).

Worlds in the making.

El mecanismo de escape de la atmósfera lo describe de la siguiente forma: unos corpúsculos tan pequeños podrían alcanzar una gran altitud gracias a las corrientes de aire, aunque estas corrientes nunca podrían expulsarlas de nuestra atmósfera.  Por ello recurre a la fuerza de la electricidad, concretamente al fenómeno de las auroras.  Opina que las auroras se producen por la colisión con la atmósfera de enormes cantidades de polvo cargado negativamente proveniente del Sol.  Por lo tanto, si la espora en cuestión absorbiera la carga negativa del polvo solar durante una descarga eléctrica, podría ser expulsada en el mar de éter de las cargas repelentes de las otras partículas.

Muchas de esas esporas saldrán de la atmósfera y, aunque la mayoría no alcancen su objetivo, unas pocas caerán en otros mundos donde puede que sean capaces de diseminar la vida si encuentran las condiciones para ello.  Puede que pasen un millón o varios millones de años desde el momento en que un planeta sea capaz de albergar vida hasta que la primera semilla caiga y germine, pero este periodo de tiempo es insignificante en comparación con el tiempo durante el que la vida florecerá en ese planeta.

De esta manera la vida puede haber sido trasplantada desde tiempos inmemoriales de sistema solar en sistema solar y de planeta en planeta del mismo sistema. De la misma manera que entre los miles de millones de granos de polen que el viento aleja de un gran árbol sólo uno por término medio origina un árbol nuevo, así, de los miles de millones, o quizás billones, de los microorganismos que la presión de la radiación estelar expulsa al espacio, sólo uno podría llevar vida a un planeta en que la vida aún no haya surgido, y ser el iniciador de los seres vivos en ese planeta.

Francis H. C. Crick y Leslie E. Orgel

Francis Crick, físico, biólogo molecular y neurocientífico británico, es conocido sobre todo por ser uno de los descubridores de la estructura molecular del ADN en 1953. Leslie Orgel, químico británico, comenzó su carrera como químico teórico inorgánico y fue uno de los cinco principales investigadores de la NASA patrocinando el programa NSCORT de exobiología.

Estos destacados científicos publicaron un artículo conjunto en la revista Icarus en 1973 donde sostenían que era poco probable que organismos extraterrestres vivos hubieran llegado a la Tierra, ya fuera como esporas mediante la presión de la radiación de otra estrella, o bien como organismos vivos en un meteorito (en clara alusión a los planteamientos de Lord Kelvin y Arrhenius, reconocían que ni la teoría de la radiopanspermia ni la litopanspermia eran absurdas pero que ambas estaban sujetas a importantes críticas).  Como una alternativa para esos mecanismos del siglo XIX, los autores proponían la panspermia dirigida, afirmando que los microorganismos fueron enviados deliberadamente a la Tierra por seres inteligentes de otro planeta.

Reconocen que la posibilidad de que la vida terrestre provenga de la actividad deliberada de una sociedad extraterrestre es más un tema de ciencia-ficción, aunque se ha tratado más o menos con desenfado en algunos artículos científicos.  Sin embargo, para demostrar que esta teoría no es imposible, los autores emplean lo que denominan “theorem of detailed cosmic reversibility”, esto es, el argumento de que si nosotros somos capaces de “infectar” un planeta extrasolar carente de vida, entonces, teniendo en cuenta que se dispone del tiempo necesario, otra sociedad tecnológica puede haber infectado nuestro planeta cuando todavía no existía vida.

Reconocen que, en el momento de escribir el artículo (1973), la humanidad no disponía de la tecnología necesaria para construir una nave espacial para cumplir la tarea, aunque el verdadero escoyo es el larguísimo tiempo de vuelo, puesto que no está claro si seremos capaces de construir componentes que sobrevivan en el espacio durante miles o millones de años.  En cualquier caso, habría que idear algún tipo de protección frente a la radiación, así como un empaquetamiento que permitiera una distribución uniforme de los microorganismos (aunque ―sostienen― según estudios previos se podría preservar la vida de algunos microorganismos durante millones de años si se protegen y mantienen a temperaturas cercanas al cero absoluto).

Panspermia dirigida. Icarus. 1973.

Aunque no me detendré en este aspecto, sí quería señalar que en el artículo analizan tanto nuestra posible motivación como la de estas sociedades extraterrestres para querer diseminar la vida por el universo (si la psicología humana no se conoce lo suficiente, no digamos la extraterrestre).

A pesar de que no hay ninguna prueba que apoye la panspermia dirigida, exponen dos hechos (que califican como “débiles”) que pueden ser relevantes a la hora de explicar algunos aspectos de nuestra biología y bioquímica que son difíciles de entender.  En primer lugar, la composición química de los organismos.  La presencia en organismos vivos de elementos químicos extremadamente raros en la Tierra debería indicar que la vida tiene un origen extraterrestre.  El molibdeno es un elemento esencial  que juega un importante papel en muchas reacciones enzimáticas, mientras que el cromo y el níquel son relativamente poco importantes.  La abundancia de cromo, níquel y molibdeno en la Tierra es de 0,20%, 3,16% y 0,02% respectivamente.  No se puede extraer ninguna conclusión de un ejemplo tan simple pero, si fuera posible demostrar que los elementos representados en los organismos vivos de la Tierra tienen una correlación con aquellos que son abundantes en algunos tipos de estrella, veríamos con mejores ojos las teorías de la infección.

El segundo ejemplo es el código genético.  Se pueden ofrecer muchas explicaciones ortodoxas acerca de la universalidad del código genético, de porqué todos los seres vivos del planeta comparten el mismo código, aunque ninguna se acepta totalmente.  Es sorprendente que no coexistan organismos con códigos diferentes.  Para Crick y Orgel, la universalidad del código corroboraría la teoría “infecciosa” de los orígenes de la vida. En definitiva, concluyen que la teoría de la panspermia dirigida no se puede rechazar.

Contamos con dos teorías drásticamente diferentes acerca del surgimiento de la vida en la Tierra ¿podemos escoger entre ellas?  En estos momentos parece que las pruebas experimentales son demasiado débiles para hacer la discriminación.

 

Referencias

Arrhenius, S. (1907), «Panspermy: the transmission of life from star to star». Scientific American, vol. XCVI, núm. 9, p. 196.

Arrhenius, S. (1908), Worlds in the making: the evolution of the universe. New York: Harper & Brothers, xiii, 229 p.

Crick, F. H. C. y  Orgel, L. E. (1973), «Directed panspermia». Icarus, vol. 19, núm. 3, p. 341-346.

Fraile, G. (2010), Historia de la filosofía. I, Grecia y Roma. Madrid: Biblioteca de Autores Cristianos, xviii, 852 p.

Gribbin, J. (1999), «Panspermia revisited». The Observatory, vol. 119, p. 284-285.

Kirk, C. S., et al. (1987), Los filósofos presocráticos: historia crítica con selección de textos. Madrid: Gredos, 702 p.

Thomson (Lord Kelvin), W. (1872), «Adress by the President». En: British Association for the Advancement of Science (ed.). Report of the British Association for the Advancement of Science. London: John Murray, lxxxiv-cv.

Wesson, P. S. (2010), «Panspermia, past and present: astrophysical and biophysical conditions for the dissemination of life in space». Space Science Reviews, vol. 156, núm. 1-4, p. 239-252.

http://plato.stanford.edu/entries/anaxagoras/#IngSee

http://www.panspermia.org/index.htm

http://en.wikipedia.org/wiki/Panspermia

http://www.panspermia-theory.com

Esta entrada participa en la XXIV Edición del Carnaval de Biología organizado en en blog Pero esa es otra historia y debe ser contada en otra ocasión.

Publicado por José Luis Moreno en CIENCIA, Historia de la ciencia, UNIVERSO, 9 comentarios
¿Einstein creía en Dios?

¿Einstein creía en Dios?

     Última actualizacón: 21 septiembre 2017 a las 15:36

La pregunta encierra dificultades. Una respuesta simplista sería sí, Albert Einstein creía en Dios y era religioso. Sin embargo, para ofrecer una respuesta más ajustada a la realidad tenemos a nuestra disposición un buen número de testimonios escritos donde detalla su postura al respecto. Pasemos a analizarlos brevemente.

Sucedió que, estando Einstein celebrando una reunión en una casa de Berlín en 1927, el crítico teatral Alfred Kerr se extrañó de haber oído que era profundamente religioso, tomándoselo a broma. Einstein respondió con calma:

Sí, lo soy. Al intentar llegar con nuestros medios limitados a los secretos de la naturaleza, encontramos que tras las relaciones causales discernibles queda algo sutil, intangible e inexplicable. Mi religión es venerar esa fuerza, que está más allá de lo que podemos comprender. En ese sentido soy de hecho religioso.

Podemos atisbar por tanto que Einstein no compartía la concepción cristiana ni judía de la deidad. En varias ocasiones expuso esta idea, y en una carta escrita en 1929 sostuvo que creía en el Dios de Baruch Spinoza, que se revela en la armonía del mundo, no en un Dios que se ocupa del destino y los actos de los seres humanos. Esta explicación le valió la crítica de algunos medios religiosos conservadores, al tiempo que era empleada por algunos ateos para defender su punto de vista. Esta es otra manipulación simplista.

Dado el interés que despertaba cualquier comentario del científico vivo más famoso del mundo, escribió un artículo para el New York Times Magazine titulado Religion and Science donde ofreció su idea acerca del origen de la religión: en el hombre primitivo, es sobre todo el miedo el que produce las ideas religiosas: miedo al hambre, a los animales salvajes, a la enfermedad, a la muerte. Como en esta etapa de la existencia suele estar escasamente desarrollada la comprensión de las conexiones causales, el pensamiento humano crea seres ilusorios más o menos análogos a sí mismo de cuya voluntad y acciones dependen esos acontecimientos sobrecogedores.

Se refiere por tanto a la mitología, que surgió como un mecanismo para explicar los fenómenos naturales y los males que aquejaban a los hombres, otorgando a los dioses el control de su destino.

Continúa afirmando que en una segunda etapa, el deseo de guía, de amor y de apoyo empuja a los hombres a crear el concepto social o moral de Dios. Este es el Dios de la Providencia, que protege, dispone, recompensa y castiga; el Dios que, según las limitaciones de enfoque del creyente, ama y protege la vida de la tribu o de la especie humana e incluso la misma vida; es el que consuela de la aflicción y del anhelo insatisfecho; el que custodia las almas de los muertos.

Por último, aduce la existencia de un tercer estadio de experiencia religiosa común a todas ellas, y que denomina “sentimiento religioso cósmico”. Quien posee este sentimiento siente la inutilidad de los deseos y los objetivos humanos, mientras que se maravilla del orden sublime que revela la naturaleza y el mundo de las ideas. La existencia individual le parece una especie de cárcel y desea experimentar el universo como un todo único y significativo. Podemos ver en esta explicación algunos de los aspectos que caracterizan la religión budista.

En otro ensayo publicado en 1930 (Forum and Century, vol. 84, p. 193-194) expone claramente su visión de la religión:

La experiencia más hermosa que tenemos a nuestro alcance es el misterio. Es la emoción fundamental que está en la cuna del verdadero arte y de la verdadera ciencia. El que no la conozca y no pueda ya admirarse, y no pueda ya asombrarse ni maravillarse, está como muerto y tiene los ojos nublados. Fue la experiencia del misterio (aunque mezclada con el  miedo) la que engendró la religión. La certeza de que existe algo que no podemos alcanzar, nuestra percepción de la razón más profunda y la belleza más deslumbradora, a las que nuestras mentes sólo pueden acceder en sus formas más toscas… son esta certeza y esta emoción las que constituyen la  auténtica religiosidad. En este sentido, y sólo en éste, es en el que soy un hombre profundamente religioso. No puedo imaginar a un dios que recompense y castigue a sus criaturas, o que tenga una voluntad parecida a la que experimentamos dentro de nosotros mismos. Ni puedo ni querría imaginar que el individuo sobreviva a su muerte física; dejemos que las almas débiles, por miedo o por absurdo egoísmo, se complazcan en estas ideas. Yo me doy por satisfecho con el misterio de la eternidad de la vida y con la conciencia de un vislumbre de la estructura maravillosa del mundo real, junto con el esfuerzo decidido por abarcar una parte, aunque sea muy pequeña, de la Razón que se manifiesta en la naturaleza.

Por lo tanto, deja a las claras que no cree en un dios personal, idea ésta ajena a las religiones monoteístas. Para él, el sentimiento religioso cósmico es el motivo más fuerte y más noble de la investigación científica. Podríamos decir que Einstein tenía fe en la racionalidad, en la capacidad del hombre de buscar una explicación causal al mundo que le rodea, en su búsqueda por desentrañar los secretos de la naturaleza para, una vez logrado el objetivo, darse cuenta de que siempre hay algo que queda oculto, inaccesible. Más allá de la comprensión humana:

¡Qué profundos debieron ser la fe en la racionalidad del universo y el anhelo de comprender, débil reflejo de la razón que se revela en este mundo, que hicieron consagrar a un Kepler y a un Newton años de trabajo en solitario a desentrañar los principios de la mecánica celeste!

Sólo quien ha dedicado su vida a fines similares puede tener idea clara de lo que inspiró a esos hombres y les dio la fuerza necesaria para mantenerse fieles a su objetivo a pesar de innumerables fracasos. Es el sentimiento religioso cósmico lo que proporciona esa fuerza al hombre. Un contemporáneo ha dicho, con sobradas razones, que en estos tiempos materialistas que vivimos la única gente profundamente religiosa son los investigadores científicos serios.

Para el científico, el sentimiento religioso adquiere la forma de un asombro extasiado ante la armonía de la ley natural, que revela una inteligencia de tal superioridad que, comparados con ella, todo el pensamiento y todas las acciones de los seres humanos no son más que un reflejo insignificante. Este sentimiento es el principio rector de su vida y de su obra, en la medida en que logre liberarse de los grilletes del deseo egoísta. Es sin lugar a dudas algo estrechamente emparentado con lo que poseyó a los genios religiosos de todas las épocas.

Para Einstein, la ciencia sólo pueden crearla los que están profundamente imbuidos de un deseo profundo de alcanzar la verdad y de comprender las cosas. Es la curiosidad que todo lo puede, esa necesidad de saber, de conocer, de desentrañar todos los misterios. Para él, este sentimiento brota, precisamente, de la esfera de la religión.

No puedo imaginar que haya un verdadero científico sin esta fe profunda. La situación puede expresarse con una imagen: la ciencia sin religión está coja, la religión sin ciencia ciega.

 

Bibliografía


Publicado por José Luis Moreno en Historia de la ciencia, 2 comentarios