Se describe un importante yacimiento del Pleistoceno en Guipúzcoa
El pasado año 2012 se localizó un importante yacimiento del Pleistoceno en una cantera de Arrasate (Guipúzcoa), que se ha denominado Artazu VII. Alberga una enorme abundancia de especies, tanto de micro como macrovertebrados, y en un estado de preservación excepcional.
Última actualizacón: 21 septiembre 2017 a las 09:59
La segunda sección del volumen Orígenes que estamos comentando lleva por título “La vida” y ha sido escrito por Carlos Briones (aka @brionesci). Como nos explica en la introducción que voy a resumir, el objetivo de esta parte de la obra consiste en:
Exponer lo que la ciencia sabe (y lo mucho que ignora) sobre los acontecimientos que pudieron producirse y combinarse durante [el] lapso de tiempo, de no más de 400 Ma, que cambió para siempre el devenir de nuestro planeta. También mostraremos, más brevemente, los procesos y transiciones fundamentales que se han sucedido durante la evolución de los seres vivos.
Podríamos en suma resumir la finalidad de este bloque en la búsqueda de respuesta a una, aparentemente, sencilla pregunta: ¿Cómo a partir de la química, emergió la biología?
¿Cómo surgió la vida?
En la tarea de obtener respuestas para esta pregunta tan crucial para comprender cómo hemos llegado hasta aquí, los científicos emplean dos estrategias complementarias. La primera línea de trabajo es la que se denomina del pasado hacia el presente o de abajo hacia arriba. Consiste en proponer modelos y realizar experimentos para intentar llegar a la biología a partir de una química que sea progresivamente más compleja e inter-relacionada. Lo más complicado desde este punto de vista es establecer la frontera entre lo vivo y lo inanimado, es decir, a partir de qué momento puede empezar a considerarse como vivo un sistema químico.
La segunda aproximación se conoce como del presente hacia el pasado o de arriba hacia abajo y está basada en la comparación de los organismos actuales entre sí, y de éstos con las especies extintas que conocemos a través de sus fósiles. En la década de los ochenta del siglo pasado, y gracias al análisis de la información de un mismo gen, se demostró que todos los organismos provenimos de un mismo antepasado común: LUCA (del inglés Last Universal Common Ancestor). No sabemos cómo pudo ser LUCA, pero sí que sus características eran las mismas que tenemos en común todos sus descendientes.
A pesar de todos los esfuerzos, quizás nunca sepamos cómo ocurrió el origen de la vida, ya que éste fue un hecho histórico y por tanto irrepetible, pero cada vez tenemos más claro lo que pudo ocurrir.
Fumarolas negras
¿Dónde se produjo el origen de la vida?
Se plantean dos posibilidades: pudo ser endógeno, es decir, haberse iniciado en entornos tan distintos como pequeños charcos, la superficie del mar, las emanaciones hidrotermales submarinas o la atmósfera. Pero también pudo ser exógeno, lo que implicaría que la vida (o alguno de sus constituyentes moleculares) se formó en otros planetas o satélites. Es lo que conocemos como panspermia. Lo más probable que haya un poco de los dos aspectos, y parte de los ingredientes se formaran en la Tierra, y otros llegaran con los meteoritos o cometas. En cualquier caso, la discusión sobre si el origen de la vida se produjo en nuestro planeta o fuera de él no resuelve ningún problema; simplemente lo cambia de lugar.
El azar
Cuando tratamos de comprender un suceso tan complejo, es imposible no pensar en el posible papel que haya podido tener la necesidad y el azar en el surgimiento de la vida. En este sentido, tenemos que hablar de Jaques Monod, un biólogo francés que sostuvo que “la estructura actual de la biosfera no excluye, sino que al contrario apoya, la hipótesis de que el acontecimiento decisivo sólo haya ocurrido una vez. Esto significaría que su probabilidad a priori era casi nula. […] Nuestro número ha salido en el juego de la ruleta del casino de Montecarlo”.
Frente a esta posición, Robert Shapiro (químico) mantiene que “si la vida hubiese surgido en nuestro planeta como resultado del puro azar, la aplicación de la teoría de probabilidades indica que se habría requerido para ello un tiempo mucho mayor que la edad del Universo”.
Por su parte, el también biólogo Christian de Duve afirmó “En mi opinión, la forma en que la vida se originó en la Tierra es, visto con suficiente amplitud, un fenómeno determinista. Por tanto, si se dan las mismas condiciones en otro planeta, debemos esperar que la vida surja en formas químicamente similares a las de la Tierra”.
La conclusión de nuestro autor es que “la vida sería el resultado de las opciones que tiene la materia para, sin dejar de obedecer las leyes de la física y la química, incrementar progresivamente la complejidad de los procesos en los que participa hasta generar una dinámica auto-replicativa que le permite mantenerse alejada del equilibrio termodinámico gracias a un consumo constante de energía. Los intentos frustrados de originar la vida fueron probablemente numerosos, de forma que LUCA y sus descendientes seríamos el resultado de muchas jornadas de suerte en la ruleta de la Tierra primitiva”.
Pero, ¿qué es la vida?
Como sucede en cualquier campo de investigación, tratar de comprender el origen de la vida implica llegar a un cierto consenso sobre cuál es su objeto de estudio.
La primera definición racional la encontramos en las obras de Aristóteles quien afirmó que “Vida es aquello por lo cual un ser vivo se nutre, crece y perece por sí mismo”. A partir de aquí, nuestro autor realiza un recorrido histórico a través de las obras de Engels, Oparin, Schrödinger (y su famoso libro “¿Qué es la vida?”) y a los “autómatas auto-reproductores” como definía a los seres vivos el matemático John von Neumann.
Durante el último medio siglo también se han propuesto varias definiciones más cercanas a la química y la biología, como la de John D. Bernal en 1965: “La vida es un sistema de reacciones orgánicas acopladas potencialmente capaces de perpetuarse, catalizadas por etapas y de forma casi isoterma por catalizadores orgánicos específicos y complejos, que son producidos por el propio sistema”.
John Maynard Smith, Christian de Duve y Lynn Margulis ofrecieron cada uno también su punto de vista sobre tan escurridizo concepto, tal y como hicieron ya en España, Ricard Solé, Juan Pérez-Mercader y de forma conjunta, Kepa Ruiz-Mirazo, Juli Peretó y Álvaro Moreno.
Sin embargo, todas estas aproximaciones no han hecho sino mostrar lo complicado de la tarea, ya que hasta qué punto podemos preguntarnos qué es la vida antes de que encontremos otro ejemplo de vida fuera de la Tierra, con el cual podamos comparar las características de los seres vivos que conocemos. Robert Shapiro lo ha expuesto con maestría: “¿Cómo definiríamos lo que es un mamífero si el único mamífero que hemos visto es una cebra?”.
Por lo tanto, una opción alternativa a tratar de ofrecer una definición de este concepto consiste en estudiar las características fundamentales que diferencian a los seres vivos de los inanimados. Y así encontramos tres propiedades comunes a todos los seres vivos: poseen información heredable que transmiten a su progenie, están compartimentados de forma que el ser vivo se diferencia de su entorno, y desarrollan un metabolismo gracias al cual intercambian materia y energía con dicho entorno.
Tenemos que destacar que la replicación de la información genética de los seres vivos no produce copias idénticas del original. Esto es muy importante porque de ahí surgen errores o mutaciones que son la fuente de cierto grado de diversidad. Esta característica es clave para que opere la evolución por selección natural: los individuos que estén mejor preparados para soportar las condiciones del ambiente (mejor adaptados) mostrarán una mayor eficiencia biológica y dejarán más descendientes que los demás.
Por lo tanto, con estos conceptos en mente, podemos tomar como una definición operativa válida la adoptada por el Instituto de Astrobiología de la NASA: “Un ser vivo es un sistema químico auto-mantenido que evoluciona como consecuencia de su interacción con el medio”.
La química de los seres vivos.
En la parte final de la introducción vamos a conocer (aún de forma somera) algunos de los conceptos clave que vamos a necesitar para seguir el desarrollo de la sección.
Si analizamos la composición de los seres vivos al nivel más básico, es decir, estudiando los elementos de los que estamos hechos, tenemos que saber que el 99% de toda la materia viva está constituida únicamente por oxígeno, carbono, hidrógeno, nitrógeno, fósforo y azufre. El 1% restante se reparte entre otros elementos de la tabla periódica (minoritarios pero imprescindibles). En definitiva, el análisis de la composición elemental de la vida pone de manifiesto que somos fundamentalmente agua y carbono.
Aunque nada impediría que exista algún tipo de vida no basada en agua y/o carbono (y de hecho en ninguna de las definiciones que se manejan se pone como condición dicha composición), resulta evidente que la bioquímica que conocemos utiliza la mejor base química posible.
Por último, no podemos dejar de hablar de las biomoléculas orgánicas: los glúcidos, los lípidos, los aminoácidos y proteínas, los nucleótidos y ácidos nucleicos y distintos tipos de metabolitos.
Los glúcidos: actúan como almacenadores de energía.
Los lípidos: son las principales moléculas que forman las membranas biológicas, y también pueden funcionar como compuestos de reserva energética y como moléculas reguladoras.
Los aminoácidos: son los constituyentes de los péptidos y proteínas, y desempeñan un papel fundamental en el metabolismo.
Los nucleótidos: son los monómeros que constituyen los ácidos nucleicos (ácido ribonucleico o ARN; y ácido desoxirribonucleico o ADN). Por otra parte, algunos ribonucleótidos como el ATP o el GTP son moléculas fundamentales como intercambiadoras de energía en el metabolismo. Se denomina genoma al conjunto de la información genética que posee una célula o un virus. En los organismos celulares, los genomas son de ADN y se estructuran en uno o más cromosomas. Por su parte los genes son regiones del genoma que poseen la información para ser transcritos en forma de ARN mensajero y otros tipos de ARN.
Las proteínas están formadas por cadenas de aminoácidos (generalmente de entre 100 y 600 monómeros) y son las principales responsables de las estructuras y funciones de las células.
Este rápido repaso por la composición química de la vida nos ha llevado desde el agua hasta, por ejemplo, el sistema nervioso central de un ser humano. Con ello se ponen de manifiesto los distintos niveles de complejidad que puede llegar a adquirir la química cuando se organiza en forma de sistemas vivos. Las características químicas y bioquímicas fundamentales de los organismos no han variado desde LUCA hasta hoy, lo que plantea un gran reto: intentar averiguar cómo se produjo la transición o el salto entre la química y la biología hace más de 3500 Ma.
PARTICIPA EN EL DEBATE SOBRE ESTE CAPÍTULO EN EL BLOG DE LAS
Tienen 1,8 millones de antigüedad y constituyen los restos de homínidos más antiguos encontrados fuera de África. Se trata de un cráneo y una mandíbula en excelente estado de conservación que han sido desenterrados en el rico yacimiento de de Dmanisi, en Georgia. Un espectacular hallazgo que se realizó en 2000 (la mandíbula) y en 2005 (el cráneo) y del que ahora se publican todos los detalles en la revista ‘Science‘. Se trata del quinto cráneo que se encuentra en Dmanisi.
El descubrimiento de este fósil (denominado D4500 o cráneo 5) ha reabierto el viejo debate sobre la clasificación de especies del género Homo, al que pertenecemos.
Hasta ahora, los restos de homínidos más antiguos fuera de África se hallaron en Indonesia (de 1,7 millones de antigüedad), mientras que en Europa los restos más tempranos de homínidos están en la Sima del Elefante de Atapuerca y tienen 1,3 millones de años.
Los científicos de esta investigación subrayan que este individuo al que pertenece el cráneo 5 comparte características morfológicas con los primeros fósiles del género Homo encontrados en África, y que tienen una antigüedad de 2,4 millones de años.
El individuo tenía un cerebro pequeño (546 centímetros cúbicos), con un tamaño equivalente a menos de la mitad del que tenemos los ‘Homo sapiens’ (que ronda los 1.400). Su cara era alargada y los dientes grandes. Según los cálculos de los científicos, era un varón que medía entre 1,40 y 1,60 metros y pesaba alrededor de 50 kilogramos. Cuando murió debía tener unos 30 años.
Los paleontólogos que firman este estudio realizan una provocadora propuesta: que los fósiles tempranos del género Homo (aquellos que tradicionalmente han sido clasificados como ‘Homo habilis’, ‘Homo rudolfensis’ o ‘Homo erectus’) pasen a ser considerados miembros de una única especie. Aunque admiten que tienen características físicas diversas, creen que la variación no es tan pronunciada como para considerar que pertenecen a líneas evolutivas distintas.
Es decir, propondrían englobar bajo la definición de ‘Homo erectus’ los restos fósiles descubiertos en África hace 2,4 millones de años así como los desenterrados posteriormente en Asia y Europa hace entre 1,7 y 1,2 millones de años.
«Es una osadía muy grande»
La pequeña «bomba» en el campo de la paleontología que supone borrar de un plumazo las primeras especies del género Homo para convertirlas en una sola no se ha quedado, como era de esperar, sin detractores. Consultados por Ann Gibbons para una artículo adjunto a la investigación en la revista «Science», el paleoantropólogo Ron Clarke, de la Universidad de Witwatersrand en Johannesburgo cree que el Cráneo 5 se asemeja más a un Homo habilis, mientras que Fred Spoor, del Max Planck, argumenta que sería más «sensato» denominarlo erectus.
José María Bermúdez de Castro, codirector del yacimiento burgalés de Atapuerca, conoce bien los restos del yacimiento Dmanisi, que ha estudiado in situ, y se muestra muy escéptico con las conclusiones del nuevo estudio. «Tengo serias dudas al respecto. Es una osadía muy grande extenderlas a todo el continente africano y decir que solo existe un linaje Homo», explica por teléfono a ABC. El científico ha examinado las mandíbulas de ese yacimiento «extraordinario» y cree que existen «grandes diferencias» entre la del Cráneo 5 y las demás.
Bermúdez de Castro tampoco considera concluyente que todos los individuos pertenecieran a la misma época, ya que «los geólogos no acaban de ponerse de acuerdo sobre la antigüedad de los estratos». En caso de que efectivamente fueran coetáneos, «podrían haber convivido dos especies o subespecies sin problemas» si cada una de ellas tenía su propio nicho ecológico, es decir, no se molestaban entre ellas a la hora de buscarse la vida. «Muchos colegas no estarán felices con estas conclusiones y se escribirán artículos no favorables», predice. Eso sí, el descubrimiento «no afecta en absoluto a Atapuerca, hay 600.000 años de diferencia». Con todo, «el debate está servido».
Investigadores de la Universidad de Lund (Suecia) han realizado un experimento para comprobar si los chimpancés tienen la capacidad de bostezar o sonarse la nariz repitiendo los gestos humanos. Para ello, los científicos examinaron dos factores para ver en qué medida les afecta: su edad y su cercanía emocional a la persona. En el ensayo incluyeron a 33 chimpancés huérfanos, 12 crías de uno a cuatro años de edad y 21 de entre cinco y ocho años.
Cada chimpancé observaba por separado a una persona desconocida y a otra conocida. Además, se les realizaron distintas sesiones de ensayos con humanos bostezando o sonándose la nariz. El bostezo humano provocó 24 bostezos de los chimpancés jóvenes y cero de las crías: “Los bostezos fueron contagiosos para los chimpancés de cinco a ocho años, pero el acto de sonarse la nariz no. En contraste, las crías de uno a cuatro años no encuentran contagioso ni el bostezo ni sonarse la nariz”, señala el trabajo. La cercanía emocional con el ser humano que bostezaba no afectó en su repetición.
«Nuestros resultados reflejan un patrón de desarrollo compartido por seres humanos y otros animales. Dado que el bostezo contagioso puede ser una respuesta empática, también podemos concluir que la empatía se desarrolla lentamente durante los primeros años de vida de los chimpancés», argumenta Elainie Madsen, coautora del estudio en la Universidad de Lund.
Cuanto mejor le va a los humanos, peor lo tiene la naturaleza. Un estudio relaciona la esperanza de vida humana con la extinción de especies. Los países más desarrollados son también los que tienen un mayor número de especies invasoras.
La extinción del tigre de Tasmania, el confinamiento de los últimos bisontes americanos en reservas o las dificultades para sacar adelante al lince ibérico son manifestaciones del impacto del ser humano sobre la naturaleza. Pero ¿cuáles son los factores que convierten a un depredador en exterminador? Biólogos estadounidenses acaban de mostrar que existe una correlación entre el desarrollo humano y el incremento de la ratio de las extinciones de mamíferos y aves.
Con datos de 100 países donde vive el 87% de la población, y ocupan el 74% de la tierra del planeta, investigadores de la Universidad de California en Davis analizaron el papel de 15 variables sociales y ecológicas para desentrañar las complejas relaciones entre sociedades humanas y naturaleza. Buscaban los factores que predicen mejor la extinción de unas especies o la invasión de otras en ecosistemas que no eran los suyos en origen.
Sus resultados muestran un doble patrón que se repite en casi todos los países: las naciones más desarrolladas son las que sufren la mayor presencia de especies invasoras. A medida que aumenta el PIB per cápita, se eleva la presencia de aves y mamíferos ajenos. La lista la encabezan Nueva Zelanda, Estados Unidos y el Reino Unido.
Los denisovanos, unos misteriosos ancestros humanos de Siberia, atravesaron la Línea de Wallace, una de las barreras marinas más importantes del mundo, en Indonesia, para hibridarse con el Homo sapiens.
En marzo de 2010, el mundo conoció un extraño fósil, un fragmento de un meñique infantil de unos 50.000 años de antigüedad, descubierto en la cueva siberiana de Denisova, en los montes Altai. Dos años después, científicos del Instituto Max Planck de Antropología Evolutiva llevaron a cabo la secuenciación del genoma de esos restos y llegaron a la conclusión de que se trataba de una especie completamente nueva, «hermana» de los neandertales: los denisovanos. Ahora, investigadores de la Universidad de Adelaide, en Australia, sugieren que estos ancestros lograron de alguna manera atravesar una de las barreras marinas más importantes del mundo, en Indonesia, y más tarde se cruzaron con los humanos modernos que se movían por la zona de camino a Australia y Nueva Guinea. En concreto, varones de esa especie tuvieron sexo con mujeres de la nuestra.
Desde que los investigadores obtuvieran el análisis genético de los denisovanos, se ha detectado evidencia genética que apunta a su hibridación con poblaciones humanas modernas, pero solo con poblaciones indígenas de Australia, Nueva Guinea y áreas circundantes. Por el contrario, el ADN del homínido de Denisova parece estar ausente o en niveles muy bajos en las poblaciones actuales en el continente asiático, a pesar de que éste es el lugar donde se encontró el fósil.
Los autores del estudio, publicado este jueves en la revista Science, Alan Cooper, profesor de la Universidad de Adelaida, y Chris Stringer, profesor del Museo de Historia Natural de Reino Unido, creen que este patrón se puede explicar si los denisovanos lograron cruzar la famosa línea de Wallace, una de las mayores barreras biogeográficas del mundo que está formada por una poderosa corriente a lo largo de la costa este de Borneo. La línea de Wallace marca la división entre los mamíferos de Europa y Asia.
Científicos estadounidenses han utilizado células madre de la piel de personas con esclerosis lateral amiotrófica para averiguar el mecanismo genético por el cual se van matando células cerebrales. Así, averiguaron que la mutación de un gen provoca la producción excesiva de ARN, que impide la correcta fabricación de las proteínas que regulan las funciones vitales de la célula, que se vuelve más sensible al estrés, y muere más rápido. Los investigadores diseñaron un compuesto que se adhiere al ADN mutado e impide la producción excesiva de ARN.
Según anteriores trabajos, alrededor del 40% de los pacientes con una variedad heredada de este tipo de esclerosis y al menos el 10% de los que la desarrollan espontáneamente tienen una mutación en el gen C9ORF72, la misma que aparece frecuentemente en personas con demencia frontotemporal, la segunda forma más común de esta enfermedad después del alzheimer.
Los científicos seleccionaron dentro de un banco de células madre las de los pacientes con el trastorno degenerativo que además poseían esta alteración responsable de la repetición anómala de una secuencia de ADN contenida en dicho gen y, en consecuencia, de la producción de un exceso de ARN.
A continuación, los investigadores analizaron la evolución de los cultivos para identificar el mecanismo por el cual estas cadenas sobrantes provocan la muerte de las células cerebrales. “Hay múltiples teorías acerca de por qué se produce el daño neuronal”, señala Rothstein. “Nuestro ensayo demuestra que la verdadera causa es la toxicidad causada por el ARN”, indica.
Los resultados del estudio revelan que la acumulación de estas moléculas impide la correcta fabricación de las proteínas encargadas de la regulación de las funciones vitales de la célula y la vuelve más sensible al estrés.
Hace ya unos años, Francisco Rubia impartió una conferencia sobre «Recientes avances en las funciones mentales del cerebro» en la que hablaba de revolución científica en las neurociencias. La conferencia se basa en cuatro grandes temas: realidad exterior, el yo, la libertad y la espiritualidad. La realidad está en nuestro cerebro, las impresiones subjetivas son proyecciones de nuestro cerebro. El yo en otras culturas no es tan egocéntrico, como las orientales. El libre albedrío ha sido estudiado por numerosos neurólogos al igual que las experiencias místicas y espirituales.
La conferencia se desarrolló en el ciclo Maratones científicos 2005-2006, Museo Nacional de Ciencia y Tecnología, y ahora podemos acceder a su contenido, que reproducimos por su indudable interés.
Francisco J. Rubia Vila es Catedrático de la Facultad de Medicina de la Universidad Complutense de Madrid, y también lo fue de la Universidad Ludwig Maximillian de Munich, así como Consejero Científico de dicha Universidad. Estudió Medicina en las Universidades Complutense y Düsseldorf de Alemania. Ha sido Subdirector del Hospital Ramón y Cajal y Director de su Departamento de Investigación, Vicerrector de Investigación de la Universidad Complutense de Madrid y Director General de Investigación de la Comunidad de Madrid. Durante varios años fue miembro del Comité Ejecutivo del European Medical Research Council. Su especialidad es la Fisiología del Sistema Nervioso, campo en el que ha trabajado durante más de 40 años, y en el que tiene más de doscientas publicaciones. Es Director del Instituto Pluridisciplinar de la Universidad Complutense de Madrid. Es miembro numerario de la Real Academia Nacional de Medicina (sillón nº 2), Vicepresidente de la Academia Europea de Ciencias y Artes con Sede en Salzburgo, así como de su Delegación Española. Ha participado en numerosas ponencias y comunicaciones científicas, y es autor de los libros: “Manual de Neurociencia”, “El Cerebro nos Engaña”, “Percepción Social de la Ciencia”, “La Conexión Divina”, “¿Qué sabes de tu cerebro? 60 respuestas a 60 preguntas” y “El sexo del cerebro. La diferencia fundamental entre hombres y mujeres”.
___
Una investigación de la Universidad de Chicago podría haber sentado las bases para el diseño de futuras prótesis sensibles al tacto capaces de transmitir la información sensorial en tiempo real a personas que han sufrido una amputación a través de una interfaz conectada directamente con el cerebro. Las nuevas prótesis ‘sensoriales’ aumentarían la destreza y la viabilidad clínica de las prótesis robóticas actuales.
El estudio presenta una hoja de ruta para utilizar la estimulación eléctrica con el fin de restaurar el sentido del tacto a través de prótesis. De momento, el equipo de Sliman Bensmaia, de la Universidad de Chicago, ya ha probado la técnica en animales -monos rhesus- y ha visto que es capaz de transmitir información «crítica» para la manipulación de objetos gracias a la estimulación directa de la corteza somatosensorial primaria del cerebro, área en donde se procesan las sensaciones táctiles.
«Para restaurar la función motora sensorial de un brazo, no sólo se tienen que sustituir las señales motoras que el cerebro envía al miembro para moverlo, sino también hay que sustituir las señales sensoriales que el brazo envía de vuelta al cerebro», explica Bensmaia. Su aproximación se basa en «invocar» lo que ya sabemos sobre cómo el cerebro intacto procesa la información sensorial y, a continuación, «intentar reproducir dichos patrones de actividad neuronal a través de la estimulación del cerebro».
Descubren el fósil de un mosquito repleto de sangre de hace 46 millones de años. Desde la aparición en los cines de «Parque Jurásico», muchos han fantaseado con las posibilidades de clonar diferentes especies de dinosaurios a partir de la sangre encontrada en antiguos mosquitos atrapados en ámbar. Algunos científicos afirmaron haber encontrado insectos fosilizados con su última cena en su abdomen, pero estos descubrimientos resultaron ser erróneos o estar contaminados. Hasta ahora, porque un grupo de investigadores del Museo Smithsonian de Historia Natural (Washington), ha encontrado por fin un mosquito repleto de sangre preservada en una roca de pizarra de 46 millones de años en el noroeste de Montana.
Según los investigadores, estos resultados sirven como evidencia definitiva de que la sangre se conservó en el interior del insecto. Pero, ¿a quién pertenecía esa sangre? Por el momento, los científicos no tienen forma de saber cuál era la criatura cuya sangre llenó el abdomen del mosquito. Eso es porque el ADN se degrada demasiado rápido para sobrevivir posiblemente 46 millones de años atrapado en piedra (o en ámbar). Una reciente investigación indica que tiene una vida media de aproximadamente 521 años, incluso bajo condiciones ideales.
En Suiza, en la autopista A1, a la altura de Vidy, cerca de Lausana, se ha abierto una zanja bajo el asfalto. Los arqueólogos realizan excavaciones en unas antiguas ruinas galloromanas.
Olivier Feihl realiza una cartografía en 3D del sitio arqueológico utilizando una cámara instalada en un vehículo aéreo no tripulado: “Disparo una fotografía cada dos metros o dos metros y medio, para cubrir totalmente el terreno. Es decir, que con las fotografías superpuestas vamos a poder medir esta excavación en 3D.”
Una pequeña revolución para los arqueólogos y sobre todo una forma de ganar tiempo. Desde días a semanas en función del tamaño del yacimiento según explica Sébastien Freudiger, de la empresa suiza Archeodunum: “Antes de que llegara este tipo de tecnología se hacía todo a mano, es decir que cada muro y cada estrato se dibujaban a mano. Ahora, con esta tecnología podemos tener un soporte con un tratamiento informático.”
Tras 10 minutos de vuelo, ya están hechas las fotos y solo queda tratarlas en el ordenador y transformarlas en imágenes tridimensionales de alta resolución.
“Hemos integrado todas esas fotos en un programa de fotogrametría. Con ese programa vamos a poder unir todas esas fotos. Aquí vemos todas las posiciones. Cada pequeño rectángulo azul corresponde a la posición de una fotografía tomada en el sitio. Después, con el GPS vamos a poder dar una escala métrica y una referencia de horizonte a este modelo en 3D.”
Un excelente instrumento no solo para los arqueólogos, pues las imágenes también podrían estar a disposición del gran público.
En 1958, en el simposio de la Sociedad de Biología Experimental, Francis Crick 1 (descubridor junto con James Watson de la estructura molecular del ADN, la famosa “doble hélice”) propuso el dogma central de la biología molecular basado en el flujo unidireccional de información del ADN a la proteína: del ADN la información pasa por transcripción al ARN, y de éste, por traducción, a la proteína, elemento que realiza la acción celular. Si bien fue reformulado más tarde en la revista Nature2, no debemos olvidar que la ciencia no es amiga de los dogmas por muy claros que parezcan algunos procesos.
La ciencia ya ha conocido un intento de estudiar a fondo nuestro código genético. El objetivo del Proyecto Genoma Humano era conocer en profundidad nuestros genes ya que cuando se decidió acometer la empresa, se pensaba que sobre ellos gravitaba la esencia de lo que somos: conociendo los genes ―se afirmaba―, las funciones que desempeña cada uno, se sabría todo lo que se precisa para entender la vida humana o, al menos, sus patologías.
De esta forma, en el año 2000 se presentó con gran bombo político y mediático por el entonces Presidente de los EE.UU. Bill Clinton y el Primer Ministro británico Tony Blair, un borrador de resultados que se completó en 2003 con la secuenciación completa del genoma humano.
Sin embargo, como sucede a menudo, las expectativas fueron más allá de unos hechos que suelen ser muy tozudos una vez se estudian en profundidad. Cuando se analizaron los resultados, los científicos se toparon con un número inferior de genes de lo previsto: tenemos alrededor de 20.000 genes codificadores de proteínas, una suma muy pequeña para la gran cantidad de información que se les atribuía. Además de esta circunstancia, nos percatamos de que no hay una relación lineal entre el número de genes y la complejidad del organismo: es cierto que las bacterias tienen alrededor de 5.000 genes, pero el ser humano tiene más o menos el mismo número de genes que los erizos de mar, y una cantidad notablemente inferior que una salamandra, el arroz (que posee 57.000 genes) u otros vegetales. Para complicar aún más el panorama, estos genes codificadores de proteínas representan únicamente el 1% de los 30.000 millones de nucleótidos que encontramos en el ADN humano.
Introducción. Genética
Para comprender en su justa medida los avances que ha supuesto el Proyecto ENCODE, se hace necesario contar con unos conocimientos genéticos básicos. Para todos aquellos que ya los posean, pueden continuar leyendo el siguiente bloque.
Para nuestros propósitos, definimos un gen desde el punto de vista molecular como una secuencia de ADN que influye en la función y forma de un organismo al codificar y dirigir la síntesis de una proteína. Por otro lado, una proteína es una molécula formada por aminoácidos (una proteína de tamaño medio puede tener 150 aminoácidos) con funciones muy variadas y que resultan esenciales para la vida. A modo de ejemplo, entre ellas se incluyen las enzimas (que actúan como catalizadores), los componentes estructurales de las células, de los tejidos (como las que forman parte de los músculos, del cartílago, el pelo etc.) así como factores controladores de la expresión del gen.
¿Cómo se forma una proteína? Para sintetizar una proteína se hace necesario contar con unas instrucciones: el código genético. Un gen está constituido por una sucesión de nucleótidos. El lenguaje genético se distingue de cualquier idioma moderno en que las letras no son nucleótidos únicos, sino combinaciones de tres de ellos. Ya que el ADN posee cuatro tipos de nucleótidos (A, C, G y T por adenina, citosina, guanina y timina) existen 64 combinaciones distintas de tripletes (que llamamos codones porque codifican aminoácidos). Estas 64 combinaciones o tripletes forman las 21 letras del alfabeto genético entre las que se incluyen los signos de puntuación (hay algunos tripletes que son redundantes, es decir, sinónimos): 61 tripletes codifican los 20 aminoácidos existentes necesarios para formar una proteína, mientras que los tripletes restantes son señales que indican cuando termina la secuencia.
Como hemos dicho, existen un total de veinte aminoácidos, diez de los cuales se denominan “esenciales” porque el ser humano no los puede sintetizar: debemos obtenerlos a través de la alimentación ya que su ausencia provoca daños graves en el organismo.
Pues bien, Crick definió el mecanismo básico a través del cual la información contenida en la secuencia de un gen pasa a sintetizar una proteína concreta: primero la “transcripción” y luego la “traducción”. La transcripción es un proceso por el que la información contenida en la secuencia de bases (A, C, G y T) se transforma en una secuencia de ARN complementaria (llamada ARN mensajero). Acto seguido entra en juego la traducción, que es el proceso por el que una vez formados los ARN mensajeros, éstos se encargan de tomar los aminoácidos que constituirán la proteína (esto sucede así porque el ADN no sale nunca del núcleo celular: las “fábricas” de las proteínas, los ribosomas, se encuentran fuera de él de modo que el ARN mensajero debe llevar ese “mensaje” al exterior).
En resumen, la secuencia de nucleótidos (a través de los codones o grupo de tres nucleótidos) determina el orden de los aminoácidos que formarán la proteína. El ARN mensajero se encarga de trasladar esa secuencia a los ribosomas que fabricarán la proteína con esa sucesión concreta de aminoácidos.
Para que nos hagamos una idea de lo complejo que resulta nuestro código genético, las alrededor de 30.000 proteínas diferentes del cuerpo humano están constituidas por 20 aminoácidos, y es la molécula de ADN la que debe especificar el orden concreto en que unen esos aminoácidos.
Una vez comprendido el mecanismo básico de síntesis de proteínas, ahondemos un poco más en nuestro genoma. En los seres humanos, como en otros animales y plantas, solo una fracción del ADN (aproximadamente un 1% en humanos) codifica la síntesis de proteínas: son los llamados genes estructurales. El resto está implicado en tareas como regular la expresión del ADN, separar unos genes de otros y otras funciones: se trata de los genes reguladores, que determinan en qué tejidos, en qué momento o en qué cantidad se ha de sintetizar una proteína determinada. Sin embargo, los investigadores observaron que la mayor parte del ADN parecía no tener función ninguna: de ahí que recibiera el nombre de “ADN basura” (“junk DNA” en inglés).
Fue el genetista japonés Susumu Ohno quien acuñó este término en 1972 3. El llamado ADN basura o ADN no codificante, representa secuencias de nucleótidos que no parecen contener genes o tener ninguna función. Porqué la evolución había mantenido una gran cantidad de ADN “inútil” era un misterio (llamado enigma o paradoja del valor de C), y parecía un despilfarro, algo que se ha desvelado en parte gracias a este proyecto de investigación que aún sigue en curso.
Proyecto ENCODE
El Proyecto ENCODE (enciclopedia de los elementos del ADN) ha sido diseñado para continuar los trabajos donde terminó el Proyecto Genoma Humano. Aunque este proyecto reveló el diseño de la biología humana, quedó claro que el manual de instrucciones para leer ese diseño era, en el mejor de los casos, impreciso. Los investigadores pudieron identificar en sus treinta mil millones de letras muchas de las regiones que codificaban proteínas, aunque éstas constituyen, como hemos señalado, poco más del 1% del genoma en alrededor de 20.000 genes.
Ya antes de acometerse el proyecto, muchos biólogos sospechaban que la información responsable de la maravillosa complejidad de los humanos estaba en algún lugar de los “desiertos” entre los genes:
Aún hoy, mucho después del descubrimiento de secuencias repetitivas y los intrones, señalar que el 25 por ciento de nuestro genoma consiste en millones de copias de una secuencia aburrida no causa ninguna conmoción. Todos encuentran convincente el argumento de que si este ADN fuera totalmente inútil, la selección natural ya lo habría eliminado. En consecuencia, debe de tener una función aún por descubrir. Algunos incluso piensan que podría estar ahí en previsión de una evolución futura (esto es, para permitir la creación de nuevos genes). Si así se hizo en el pasado, argumentan ¿por qué no en el futuro?
Brenner, S. (1998), «Refuge of spandrels». Current Biology, vol. 8, núm. 19, p. R669.
Además de para la biología molecular, la especial configuración de nuestro genoma ha supuesto y sigue siendo un reto para la antropología evolutiva:
De los tres mil millones de letras que componen el genoma humano, sólo quince millones, menos de un 1%, han sufrido algún cambio desde que el linaje de los chimpancés y el de los humanos divergieron hace unos seis millones de años. La teoría evolutiva sostiene que el efecto de la inmensa mayoría de estos cambios es pequeño o nulo en nuestra biología. Sin embargo, entre estos 15 millones de bases se encuentran las diferencias que nos hacen humanos. La evolución desde un ancestro de humanos y chimpancés hasta un ser humano no resulta de que se acelere el tic-tac del reloj molecular en su conjunto; el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo.
Pollard, K. S. (2009), «¿Qué nos hace humanos?». Investigación y Ciencia, núm. 394, p. 24-29.
Por ello, tras una fase piloto entre los años 2003 y 2007, el estudio, financiado con 80 millones de dólares por EE.UU., se propuso como meta cartografiar este terreno que se creía baldío. El objetivo es catalogar las secuencias funcionales de ADN que están escondidas ahí, enterarse de cuándo y en qué células están activas, y rastrear sus efectos en la forma de empaquetar, regular y leer el genoma.
El proyecto ha combinado los esfuerzos de 442 científicos de 32 laboratorios en Reino Unido, EE.UU., Singapur, Japón, Suiza y España (se incluyen el Centro de Regulación Genómica en Barcelona y el Centro Nacional de Investigaciones Oncológicas (CNIO, en Madrid). Los investigadores se han centrado en 24 tipos de experimentos estándar y aunque el genoma es el mismo en la mayoría de las células humanas, la forma en que este actúa no (el ADN contenido en las células de nuestros ojos por ejemplo, no necesita formar pelos o uñas). Por este motivo, se han llevado a cabo estos experimentos en múltiples tipos celulares ―al menos 147― dando lugar a los 1.648 experimentos que ENCODE ha hecho públicos.
Por este motivo, precisamente porque el ADN se comporta de forma distinta en diferentes tipos de células, el proyecto de investigación continúa en marcha: faltan por estudiar muchas más células y tejidos para conocer mejor cómo funciona nuestro ADN y qué hace para producir unos órganos u otros.
Los resultados obtenidos hasta ahora son, en cualquier caso, sorprendentes: el 80% del genoma contiene elementos vinculados a funciones bioquímicas, dando al traste con la visión generalmente aceptada de que el genoma humano era en su mayor parte “ADN basura”. Se han detectado más de 70.000 regiones promotoras ―los lugares donde las proteínas se unen para controlar la expresión de los genes― y cerca de 400.000 regiones potenciadoras ―que regulan la expresión de genes distantes (se trata de controladores que no tienen porqué estar localizados cerca de los genes sobre los que actúan, ni siquiera en el mismo cromosoma. La estructura tridimensional de nuestro genoma está formada de un modo que, aunque el controlador esté lejos de los genes si leemos la secuencia linealmente, geométricamente está próximo al promotor y al gen ya que se encuentran envueltos alrededor para contactar con ellos).
Hemos encontrado que una gran parte del genoma ―de hecho, una cantidad sorprendente― está implicada en controlar cuándo y dónde se producen las proteínas más allá de su simple fabricación.
Ewan Birney, coordinador de análisis del proyecto.
La imagen de un interruptor es perfectamente válida para comprender estos mecanismos. Determinadas secuencias dicen cuándo y dónde deben encenderse o apagarse determinados genes, así como la intensidad del funcionamiento.
Los elementos reguladores son responsables de garantizar que las proteínas del cristalino estén en las lentes de tus ojos y que la hemoglobina esté en tu sangre, y no en cualquier otro lugar. Es muy complejo. El procesamiento de la información y la inteligencia del genoma reside en los elementos reguladores. Con este proyecto, probablemente hemos podido pasar de comprender menos del 5% a cerca del 75% de ellos.
Jim Kent, director del Centro de Coordinación de los Datos (UCSC) de ENCODE.
Con estos datos en la mano comenzamos a entender cómo los relativamente pocos genes que codifican proteínas bastan para proporcionar la complejidad biológica necesaria para hacer crecer y funcionar un ser humano. Como propugnaba Katherine Pollard, «el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo».
Gracias a esta visión más completa del funcionamiento de nuestro código genético, se ha creado la oportunidad para comprender cómo afectan las variaciones genéticas a los distintos rasgos humanos y las enfermedades. Características como la altura y la inteligencia, o enfermedades como el Alzheimer van a poder ser analizadas desde un nuevo paradigma. Desde 2005, los estudios a gran escala del genoma humano (GWAS, genome-wide association studies) que asocian variaciones en la secuencia del ADN con rasgos específicos y enfermedades han mostrado miles de puntos del genoma donde la diferencia en un simple nucleótido parece estar asociada con el riesgo de padecer una enfermedad. Pero dado que casi el 90% de estas variaciones caen fuera de los genes que codifican proteínas, hasta ahora los investigadores tenían pocas pistas en la forma en que podían causar o afectar a una enfermedad o rasgo fenotípico.
Pero asociación no es causalidad, y la identificación de estas variantes y la comprensión de la forma en que ejercen esa influencia ha sido difícil.
Por ejemplo, las variantes de ADN asociadas a la diabetes se producen en la parte del genoma ahora estudiada, pero no en cualquier punto, sino en la zona que regula los genes que controlan aspectos del metabolismo del azúcar o de la secreción de insulina. Otro ejemplo son las variantes que se dan en las zonas que regulan en sistema inmunológico y que han podido vincular a enfermedades como la esclerosis múltiple, el asma o el lupus.
El proyecto Genoma Humano fue como viajar a la Luna, se hizo con una tecnología primitiva y a base de mucha fuerza bruta. Encode, sin embargo, es como un viaje a Marte.
Alfonso Valencia, investigador del Centro Nacional de Investigaciones Oncológicas (CNIO).
Del mismo modo, la exploración del gran número de elementos reguladores revelados por el proyecto y la comparación de sus secuencias con las de otros mamíferos promete cambiar la forma de pensar de los científicos acerca de la evolución del ser humano.
Esto es así porque uno de los grandes desafíos de la biología evolutiva es comprender cómo las diferencias en la secuencia del ADN entre especies determinan las diferencias en sus fenotipos. El cambio evolutivo puede tener lugar tanto a través de cambios en las secuencias de codificación de proteínas como por cambios en la secuencia que alteran la regulación genética.
Se ha argumentado que los potenciales cambios adaptativos en las secuencias que codifican proteínas pueden ser impedidos por la selección natural porque, aun cuando pueden ser beneficiosas para un tipo celular u órgano, pueden ser perjudiciales en algún otro lugar del organismo. Por el contrario, dado que las secuencias reguladoras de genes frecuentemente se hayan asociadas con patrones temporal y espacialmente específicos de expresión, los cambios en estas regiones pueden modificar la función sólo de determinados tipos celulares en momentos concretos, haciendo que sea más probable que confieran una ventaja evolutiva.
En definitiva, costará un gran trabajo identificar los cambios críticos en la secuencia de los nuevos elementos reguladores que han sido identificados y que suponen las diferencias entre los humanos y otras especies.
A pesar de la gran cantidad de información ofrecida por ENCODE, aún estamos lejos del objetivo final: comprender el funcionamiento del genoma en cada célula de cada persona, así como a través del tiempo en esa misma persona. Serán necesarios muchos años más de investigación para completar el nuevo cuadro que se ha abierto ante nosotros.
Referencias
Maher, B. (2012). ENCODE: The human encyclopaedia Nature, 489 (7414), 46-48 DOI: 10.1038/489046a
Ecker, J., Bickmore, W., Barroso, I., Pritchard, J., Gilad, Y., & Segal, E. (2012). Genomics: ENCODE explained. Nature, 489 (7414), 52-55 DOI: 10.1038/489052a
Frazer, K. (2012). Decoding the human genome. Genome Research, 22 (9), 1599-1601 DOI: 10.1101/gr.146175.112
Para facilitar la labor de los investigadores, la revista Nature ha creado un portal específico para explorar los 30 artículos publicados mediante un sistema que complementa los documentos al poner de relieve los temas que son tratados sólo en las subsecciones de los trabajos individuales. Cada hilo o trama (thread en inglés) consta de los párrafos pertinentes, las figuras y las tablas de todos los artículos, unidos en torno a un tema específico.
Por mi parte, os dejo un listado de los artículos publicados con accesos directos para leer su contenido (su acceso es libre).
Notas
Crick, F. H. (1958), «On protein synthesis». Symposia of the Society for Experimental Biology, vol. 12, p. 138-163. ↩
Crick, F. H. (1970), «Central dogma of molecular biology». Nature, vol. 227, núm. 5258, p. 561-563. ↩
Ohno, S. (1972), «So much «junk» DNA in our genome». Brookhaven Symposia in Biology, vol. 23, p. 366-370. ↩