nucleótido

Siete días … 5 a 11 de mayo (recuerdos)

Siete días … 5 a 11 de mayo (recuerdos)

     Última actualizacón: 24 septiembre 2017 a las 13:03

BIOQUÍMICA

Al igual que el lenguaje se basa en una secuencia de letras cuyo orden da forma a las palabras, la vida también tiene su propio alfabeto genético. El alfabeto del ADN y de todas las formas de vida conocidas se escribe solo con cuatro «letras» (A, T, G, C) combinadas en dos pares de bases (A-T y C-G) y su secuencia o combinación determina su significado, es decir la función de las proteínas y los genes.

Los organismos vivos que pueblan la Tierra (humanos, plantas, bacterias, hongos, animales….) tienen en su material genético solo esas cuatro letras o dos pares de bases escritas a lo largo de la evolución. Ahora, por primera vez, científicos del Instituto de Investigación Scripps de California (EE.UU.) han reescrito el genoma de un ser vivo al añadir a su ADN un par de «letras» adicionales que no se encuentran en la Naturaleza.

Ese nuevo par de bases artificial han sido bautizadas por el Instituto Scripps como d5SICSTP-dNaMPT, una combinación de letras casi imposible de recordar. Una vez generadas se incorporaron a una pequeña parte del genoma de una bacteria y esta la aceptó sin problema, sin reconocerlo como una anomalía. Es decir la bacteria con seis «letras» en su código genético funcionó con normalidad. Así demostraron los investigadores que podía ampliarse el alfabeto de la vida.

El resultado de este experimento es un organismo semi-sintético que nunca había existido antes. «Contiene de manera estable tres pares de bases. Esto demuestra que hay otras soluciones posibles para almacenar la información genética y nos acerca a emocionantes aplicaciones, entre ellas el desarrollo de nuevos y más potentes medicamentos», augura el director de la investigación, Floyd Romesberg.

El avance, al que la revista «Nature» dedica su portada, es una prueba de concepto, un ejercicio experimental pero también supone un salto vertiginoso hacia la creación en el laboratorio de nuevos seres vivos, con genomas a la carta.

Este nuevo paso que se acaba de dar es «un avance fantástico» para Rafael Giraldo, del Centro de Investigaciones Biológicas del CSIC. Además de las potenciales aplicaciones prácticas, este experto en biología sintética resalta el avance conceptual que supone. «Por primera vez se ha demostrado que un código genético alternativo funciona “in vivo”. En un futuro podremos diseñar códigos genéticos a la carta».

El catedrático de Microbiología César Nombela valora el «virtuosismo» que ha demostrado el equipo de Romesberg, aunque rebaja el entusiasmo. «La biología sintética todavía ha de recorrer caminos basados en el diseño de nuevos organismos combinando los genes existentes, de ahí se han de derivar los resultados y aplicaciones novedosas que aún estamos esperando».

• Noticia ABC

• Artículo: A semi-synthetic organism with an expanded genetic alphabet

BIOLOGÍA

Científicos de la Universidad de California han hallado el fósil de un organismo recientemente descubierto que pertenece a ‘Ediacara Biota’, un grupo de organismos que se produjo en el período Ediacaran de tiempo geológico. Según han apuntado los autores del trabajo, que ha sido publicado en ‘Paleontology’, no se parece a ningún ser que esté vivo hoy en día.

Nombrado ‘Ricei Plexus’, se asemejaba a un tubo curvado y residía en el fondo marino. Estos individuos variaron en tamaño de 5 a 80 centímetros de largo y de 5 a 20 milímetros de ancho. Junto con el resto de ‘Ediacara Biota’, se desarrollaron hace unos 575 millones de años y desaparecieron del registro fósil hace 540 millones de años, justo en la época en que la explosión cámbrica se estaba poniendo en marcha.

«Plexus es diferente a cualquier otro fósil que conocemos desde el Precámbrico», ha señalado una de las autoras del hallazgo, Mary L. Droser, quien ha añadido que son sus características únicas lo que lo hacen «desconcertante». Además, ha indicado que, durante el Ediacaran, no había vida en la tierra. Toda «estaba en los océanos».

En este sentido, ha señalado que había una completa falta de bioturbación en los océanos en ese momento, lo que significa que había pocos organismos marinos que combatían por los sedimentos marinos en busca de comida». «Fue comenzado el período Cámbrico cuando los organismos comenzaron a producir y mezclar el sedimento», ha apuntado.

Según los investigadores, la falta de bioturbadores durante el Ediacaran permitió que se formaran películas gruesas de algas fotosintéticas que se acumulaban en los fondos oceánicos, un ambiente que sería muy raro en la actualidad. Tal ambiente allanó el camino para muchos estilos de vida relacionados con el proceso de evolución. Unos organismos que se convierten prácticamente ausentes en el mundo post-Ediacaran.

• Noticia Europa Press

• Artículo: A New Enigmatic, Tubular Organism from the Ediacara Member, Rawnsley Quartzite, South Australia

NEUROCIENCIA

Para crear nuevos recuerdos, las neuronas se encuentran en un proceso de formación constante en el hipocampo del cerebro. Este hecho ha llevado a un grupo de científicos del Hospital para Niños Enfermos de Toronto (Canadá) y del Instituto Integral Ciencias Médicas de Toyoake (Japón) a preguntarse si la integración de nuevas neuronas también puede desestabilizar viejos recuerdos.

“Sabemos que existe una limpieza de memoria ya que, mientras nos acordamos muy bien de lo que hemos hecho en el último par de horas, es muy difícil recordar con el mismo detalle lo que estábamos haciendo hace una semana o un mes. Aunque no todos los recuerdos son olvidados; los más importantes se consolidan en el córtex”, explica a Sinc Paul Frankland, coautor del trabajo e investigador de la institución canadiense.

Hasta la segunda mitad del siglo XX se negaba la creación de neuronas después del nacimiento. Pero hoy en día se sabe que se siguen produciendo durante toda la vida debido a la diferenciación de las células madre. Estudios previos ya habían mostrado que las neuronas nuevas se integran en las redes neuronales preexistentes para participar en el procesamiento de información. En la última década se ha reforzado la hipótesis de que la neurogénesis –la generación de nuevas neuronas– es necesaria para el aprendizaje y la recuperación de la memoria.

Sin embargo, el nuevo trabajo, realizado en ratones, cobayas y otros pequeños roedores y publicado en el último número de la revista Science, apunta que al reorganizar las conexiones cerebrales también se promueve el olvido.

Durante el experimento, los investigadores utilizaron leves descargas eléctricas para provocar que dichos roedores temiesen un determinado entorno. A continuación dejaron que algunos animales usaran la rueda para hacer ejercicio, ya que anteriores investigaciones ya demostraron que el ejercicio físico aumenta de manera natural los niveles de neurogénesis.

Los científicos comprobaron que los ratones que se habían ejercitado con la rueda habían olvidado en gran medida el temor que se les había inducido, mientras que los ratones que no corrieron parecían recordar vivamente las descargas eléctricas con las que habían sido aleccionados.

Para los autores, los resultados revelan claramente que existe una correlación sustancial entre neurogénesis y olvido. La codificación de nuevos recuerdos implica la remodelación de la red sináptica preexistente, lo que implica la pérdida de información ya almacenada.

“Las conclusiones de nuestro trabajo también son relevantes para los humanos”, afirma Frankland. “Sin duda, los niños pueden formar recuerdos de eventos particulares, pero simplemente no pueden mantener esta información y la olvidan”.

• Noticia Agencia SINC

• Artículo: Hippocampal Neurogenesis Regulates Forgetting During Adulthood and Infancy

___

Una investigación liderada por la Universidad Johann Wolfgang Goethe en Frankfurt (Alemania) revela que las ondas gamma estimulan la aparición de los sueños lúcidos, aquellos en los que se adquiere consciencia de lo que se sueña e incluso se controla el desarrollo de los acontecimientos. Estos sueños pueden ser una diversión, pero también ayudar a los pacientes postraumáticos.

El estudio, que se publica hoy en la revista Nature Neuroscience, revela que la estimulación por corrientes eléctricas inocuas de tipo gamma en las zonas del cerebro temporal y frontal aviva la aparición de este tipo de sueños.

“El sueño lúcido es un estado híbrido en el que estas partes fronto-temporales se comportan de manera similar a su estado en vigilia, mientras que las partes posteriores permanecen en fase REM (una etapa de sueño con movimientos oculares rápidos)”, aclara a Sinc Ursula Voss, una de las autoras del trabajo.

La investigadora destaca que en los pacientes postraumáticos que sufren pesadillas este tipo de sueños es bueno porque les permite mantenerse en estado REM, lo que es beneficioso para su recuperación. “Pero para el resto de personas son solo una diversión”, añade. Los científicos ya sabían que durante el tiempo que dura el sueño lúcido, la consciencia del soñador se despierta y se adquiere la capacidad de controlar voluntariamente la trama del sueño.

Estudios anteriores ya habían demostrado a nivel neurofisiológico que durante los sueños lúcidos se produce un incremento de las ondas gamma en el cerebro –a una frecuencia de unos 40 Hz–, precisamente en las regiones temporales y frontales.

Ahora, la pregunta que se hacían los expertos era ver si la actividad gamma es la causa o el efecto de estos sueños peculiares. Para ello, los autores evaluaron la actividad neural y la experiencia de 27 participantes mientras dormían. Ninguno de ellos había experimentado sueños lúcidos en las últimas noches.

Los resultados del trabajo revelan que sólo las frecuencias gamma de 40 Hz, y en menor medida las de 25 Hz, potencian la aparición de este tipo de sueños. “Los 40 Hz reflejaron resultados más fuertes con respecto a la visión lúcida y la disociación –dice Voss–. En cambio, a 25 Hz los voluntarios controlaron, aparentemente, la trama del sueño”.

Los expertos aseguran que estos sueños son un subproducto de la maduración del cerebro. Suelen ser más frecuentes en niños de 6 a 7 años, pero su incidencia disminuye a partir de los 17. Después de esa edad, es cuestión de entrenamiento.

• Noticia Agencia SINC

• Artículo: Induction of self awareness in dreams through frontal low current stimulation of gamma activity

BOTÁNICA

Un equipo de investigadores del Consejo Superior de Investigaciones científicas (CSIC) ha analizado 101 retablos barrocos ubicados en 54 iglesias de Galicia y Asturias y ha logrado identificar seis variedades de vid cultivadas en esta zona peninsular. Los resultados de este trabajo, publicado en la revista Economic Botany, demuestran, según sus autores, el valor del arte como instrumento para estudiar la evolución histórica de los cultivos de vid y la antigüedad de algunas variedades.

“El estudio se basa en la comparación de las hojas y los racimos de variedades de vid reales, con las que aparecen representadas en las columnas salomónicas de los retablos barrocos. En algunos casos hemos encontrado un alto nivel de realismo, precisión y fidelidad en las representaciones. Esto nos ha permitido identificar algunas variedades reales y confirmar en algunos casos su posible carácter autóctono y la antigüedad de su cultivo en la zonas vitícolas en las que se ubican las iglesias cuyos retablos han sido estudiados”, explica la investigadora del CSIC Carmen Martínez, de la Misión Biológica de Galicia.

Para alcanzar estos resultados, los investigadores visitaron cada una de las 54 iglesias y tomaron imágenes de las hojas y racimos de vid representadas en las columnas salomónicas de los retablos. Este elemento arquitectónico, típico del arte barroco, se caracteriza por su forma helicoidal y su decoración vegetal, generalmente con hojas y racimos de vid. Después, en el laboratorio, los investigadores midieron numerosos detalles botánicos en las imágenes con los mismos métodos y técnicas utilizadas para medir las hojas y los racimos reales.

En la bibliografía antigua hay nombres de variedades de vid muy concretas y ligadas a determinadas zonas, pero solo en algunos casos van acompañados de brevísimas descripciones. En el siglo XIX empiezan a aparecer algunas descripciones puntuales más amplias que incorporan, en casos muy excepcionales, ilustraciones, que permiten identificar correctamente las variedades. Salvo esas excepciones, en el resto de los casos todavía hoy continúa el debate en torno a los orígenes de muchas variedades, la antigüedad de su cultivo en zonas determinadas, o los problemas de sinonimias y homonimias. El hecho de haber sido capaces de identificar una variedad real en un retablo, demuestra que en el siglo XVII esa variedad se cultivaba en esa zona concreta”, añade la investigadora.

• Artículo: Works of Art and Crop History: Grapevine Varieties and the Baroque Altarpieces

• Vídeo:

ASTRONOMÍA

Un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT) y la Universidad de Maryland (EE.UU.) ha asumido la tarea inconmensurable de resumir la evolución del Universo, prácticamente desde el Big Bang -el momento de su creación- hasta nuestros días en una fiel simulación que, aseguran, supera con creces en precisión a cualquier otra creada hasta ahora. El vídeo, que ha dado a conocer la revista Nature y el lector puede contemplar sobre estas líneas, reproduce la distribución del gas, las estrellas y la materia oscura con todo detalle.

La simulación, llamada Illustris, comienza 12 millones de años después de la gran explosión que dio origen a todo y traza 13.000 millones de años de evolución cósmica. Para cubrir una porción representativa del Universo, los cosmólogos deben estudiar dimensiones cósmicas de al menos 100 millones de pársecs (pc), unos 326 millones de años luz. En comparación, la escala natural de una estrella en formación es de un pársec y la acreción de gas por un agujero negro supermasivo ocurre en escalas aún más pequeñas.

Según los autores de este universo virtual, las poblaciones de galaxias y la predicción del contenido de gas y metal que reproducen casan correctamente con las características descritas en los estudios observacionales. Michael Boylan-Kolchin, de la Universidad de Maryland, asegura que la simulación es muy similar a la imagen del campo ultraprofundo captada por el Hubble, la fotografía más penetrante jamás tomada del Universo con luz visible, y podría pasar por la real si las dos se ven una junto a otra.

El equipo atribuye el éxito de la nueva simulación a los rápidos avances en la potencia de cálculo, mejores algoritmos numéricos y modelos más fieles de la física. Estos factores les permiten modelar simultáneamente la evolución de los distintos componentes de la formación de las galaxias, incluyendo la de los bariones (la materia visible, aquello de lo que estamos compuestos nosotros mismos) y la materia oscura. Los efectos previstos de la materia visible en la distribución de la oscura podrían tener implicaciones para futuros estudios de la evolución del Universo.

• Noticia ABC

• Página del proyecto

• Artículo: Properties of galaxies reproduced by a hydrodynamic simulation (descarga directa en formato PDF)

• Vídeo:

• Vídeo:

ARQUEOLOGÍA

Investigadores del Instituto Cotsen de Arqueología de la Universidad de California publican un estudio en la revista PNAS sobre el hallazgo de 71 líneas de geoglifos en un grupo de cinco montículos que han datado en la época de Paracas tardío (de 800 a 100 años a. C.) en el valle peruano de Chincha. Esto supondría que serían tres siglos más antiguas que las líneas Nazca, trazos que vistos desde el aire componen diseños zoomorfos, fitomorfos y geométricos.

“Las líneas chinchas son más tempranas, al  menos 300 años. Son distintas de las Nazca también porque las de Chincha convergen hacia los lugares ceremoniales. Además, no hay diseños de animales”, declara a Sinc Charles Stanish, el científico que lidera el estudio.

El complejo consiste en geoglifos lineales, figuras circulares hechas con rocas, montículos ceremoniales y asentamientos que se extienden sobre un área de 40 kilómetros cuadrados. Según los investigadores, estas líneas chinchas se habrían usado para marcar el solsticio de verano y otras actividades culturales.

“Creemos que este era un lugar para celebrar ferias en un sentido amplio. Serían similares a las ferias medievales en Europa, Asia y África. La gente se reuniría para el trueque, para celebrar las estaciones e interaccionar por razones políticas, económicas y sociales”, añade el experto.

Para datarlas, utilizaron la técnica del carbono 14 en los materiales de construcción de los montículos ceremoniales, ya que estos se asocian arquitectónicamente con las líneas. Además, en estas colinas encontraron cerámica y textiles del período Paracas.

“La cultura Inca, unos 1.700 años más tardía, usa torres para marcar el solsticio. Creemos que la gente en Chincha marcó períodos de tiempo para sus fiestas y ferias. En vez de torres, utilizaron líneas y montículos. Es similar al Chankillo en el norte del Peru”, concluye Stanish. Asimismo, la ubicación de los geoglifos, en el desierto entre la sierra y la costa, pudieron servir para integrar a las poblaciones culturalmente costeras y de montaña, según los autores.

• Noticia Agencia SINC

• Artículo: A 2,300-year-old architectural and astronomical complex in the Chincha Valley (descarga directa en formato PDF)

PSICOLOGÍA

Cooperar consiste en sacrificar parte del beneficio propio en aras del bien común. Lejos de ser exclusivo de los humanos, dicho comportamiento se observa en todo tipo de seres vivos, desde las bacterias hasta los simios. Sin embargo, aunque su utilidad resulta clara a posteriori (revierte en el bien del grupo y, por ende, en el del individuo), el mecanismo por el que se establece una conducta altruista no se entiende bien en términos evolutivos. Cuando un macaco despioja a otro, invierte en esa actividad un tiempo y una energía que podría aprovechar para buscar alimento o pareja. ¿No debería una criba darwinista seleccionar los comportamientos que reportan el máximo beneficio para el individuo?

Los humanos somos la especie más cooperativa que existe. Desde hace años, son varios los mecanismos que se han propuesto para explicar la emergencia de la cooperación; entre ellos, corresponder a (o traicionar) quienes antes nos han ayudado (o no), o imitar las acciones de aquellos individuos que vemos que obtienen un mayor provecho. Aunque estos y otros mecanismos resultan satisfactorios desde un punto de vista teórico, hasta hace poco su validez no había sido puesta a prueba mediante experimentos con humanos.

Ahora, Giulio Cimini y Anxo Sánchez, del Grupo Interdisciplinar de Sistemas Complejos de la Universidad Carlos III, han referido el primer modelo matemático que reproduce con acierto ese comportamiento. Los resultados fueron publicados hace unas semanas en la revista Journal of the Royal Society Interface.

Los autores simularon numéricamente el dilema del prisionero en redes de jugadores con varias topologías. Tras programar en los agentes un gran número de estrategias plausibles, comprobaron que la única que reproducía el comportamiento observado experimentalmente en humanos era la que denominaron «aprendizaje por refuerzo». En ella, cada agente partía con ciertas aspiraciones sobre el beneficio que esperaba obtener; tras actuar, comparaba el resultado de sus acciones con dichas expectativas y actualizaba su estrategia en consecuencia.

«La cooperación condicional [colaborar o no dependiendo de cuánta ayuda hayamos recibido con anterioridad] parece un intento de que se establezca la cooperación, pero poniendo un límite de hasta dónde está uno dispuesto a que lo exploten», explica Sánchez. «Lo realmente sorprendente es que la disposición a cooperar dependa de haberlo hecho antes. La estrategia debería ser siempre la misma, y no tener ese aspecto de «enfado», de «vaya, como ya me habéis fastidiado, ahora os voy a traicionar un buen rato». No encuentro ninguna intuición clara que justifique esa estrategia, más allá del —por otra parte muy humano— deseo de vengarse.»

• Noticia Investigación y ciencia

• Artículo: Learning dynamics explains human behaviour in Prisoner’s Dilemma on networks (descarga directa en formato PDF)

___

¿Ha tenido alguna vez la sensación de que al hablar en voz alta va generando ideas nuevas? Y en ocasiones muy interesantes, por cierto. El psiquiatra Luis Rojas Marcos sostiene que hablar solo y en voz alta, dentro de unos límites razonables, es una forma muy saludable de procesar información. Poner palabras a nuestros pensamientos, viene más o menos a decir, ayuda a aclarar las ideas y también a tomar consciencia de las propias ideas.

En esa línea está una investigación publicada en Psychological Science que sostiene que cuando hablamos no siempre tenemos totalmente decidido lo que vamos a decir, y que en realidad lo vamos elaborando sobre la marcha. Y no se trata de las palabras que vamos a emplear. Sino del significado que le damos a lo que decimos. Esto a más de uno le resultará bastante familiar, en especial en momento de campaña electoral.

En general, en Psicología se acepta que lo que hablamos, nuestro discurso, se planea con antelación y que al empezar a hablar se tiene ya una idea consciente bastante precisa del mensaje. Sin embargo, algunos investigadores creen que no hay tal planificación en el discurso, y que más bien somos conscientes de lo que estamos diciendo cuando nos escuchamos a nosotros mismos.

Investigadores de las universidades de Lund y Upsala liderados por Petter Johansson se propusieron comprobar esta curiosa hipótesis. Y lo hicieron de una forma ingeniosa. Si no tenemos una idea muy precisa de lo que vamos a decir, un “ligero” cambio en las palabras que pronunciamos no nos sonará muy raro, incluso nos pasara inadvertido.

Andreas Lind, autor principal de la investigación y sus colegas de la Universidad de Lund en Suecia, querían ver lo que pasa cuando alguien dice una palabra, pero se escucha a sí mismo diciendo otra: «Si usamos la retroalimentación auditiva para comparar lo que decimos con una posible intención bien especificada, entonces cualquier discrepancia entre lo dicho y lo oído debe ser detectado rápidamente», razona. «Pero si escuchar nuestras propias palabras es una parte importante en la elaboración del discurso, si se trata de un proceso dinámico, la manipulación de lo que decimos podría pasar desapercibida», explica.

Cuando la palabra se cambiaba inmediatamente de empezar a hablar, entre 5 y 20 milisengundos, dos tercios de los participantes no se dieron cuenta de que lo que habían escuchado no era lo que ellos habían dicho. Y eso que cada vez que los investigadores sustituían una palabra por otra, aparecía en la pantalla del ordenador un mensaje que les preguntaba: ¿qué acaba de decir?

Y hay más: en el 85 por ciento de los casos de las sustituciones que no habían detectado, los participantes asumieron como suyas las palabras que no habían pronunciado. Para los investigadores esto es una prueba clara de que necesitamos oir lo que estamos diciendo para ayudarnos a darle significado.

• Noticia ABC

• Artículo: Speakers’ Acceptance of Real-Time Speech Exchange Indicates That We Use Auditory Feedback to Specify the Meaning of What We Say (descarga directa en formato PDF)

Publicado por José Luis Moreno en SIETE DÍAS, 1 comentario
ENCODE – Enciclopedia de los elementos del ADN

ENCODE – Enciclopedia de los elementos del ADN

     Última actualizacón: 19 marzo 2018 a las 11:00

En 1958, en el simposio de la Sociedad de Biología Experimental, Francis Crick 1 (descubridor junto con James Watson de la estructura molecular del ADN, la famosa “doble hélice”) propuso el dogma central de la biología molecular basado en el flujo unidireccional de información del ADN a la proteína: del ADN la información pasa por transcripción al ARN, y de éste, por traducción, a la proteína, elemento que realiza la acción celular.  Si bien fue reformulado más tarde en la revista Nature 2, no debemos olvidar que la ciencia no es amiga de los dogmas por muy claros que parezcan algunos procesos.

La ciencia ya ha conocido un intento de estudiar a fondo nuestro código genético.  El objetivo del Proyecto Genoma Humano era conocer en profundidad nuestros genes ya que cuando se decidió acometer la empresa, se pensaba que sobre ellos gravitaba la esencia de lo que somos: conociendo los genes ―se afirmaba―, las funciones que desempeña cada uno, se sabría todo lo que se precisa para entender la vida humana o, al menos, sus patologías.

De esta forma, en el año 2000 se presentó con gran bombo político y mediático por el entonces Presidente de los EE.UU. Bill Clinton y el Primer Ministro británico Tony Blair, un borrador de resultados que se completó en 2003 con la secuenciación completa del genoma humano.

Sin embargo, como sucede a menudo, las expectativas fueron más allá de unos hechos que suelen ser muy tozudos una vez se estudian en profundidad.  Cuando se analizaron los resultados, los científicos se toparon con un número inferior de genes de lo previsto: tenemos alrededor de 20.000 genes codificadores de proteínas, una suma muy pequeña para la gran cantidad de información que se les atribuía.  Además de esta circunstancia, nos percatamos de que no hay una relación lineal entre el número de genes y la complejidad del organismo: es cierto que las bacterias tienen alrededor de 5.000 genes, pero el ser humano tiene más o menos el mismo número de genes que los erizos de mar, y una cantidad notablemente inferior que una salamandra, el arroz (que posee 57.000 genes) u otros vegetales.  Para complicar aún más el panorama, estos genes codificadores de proteínas representan únicamente el 1% de los 30.000 millones de nucleótidos que encontramos en el ADN humano.

Introducción. Genética

Para comprender en su justa medida los avances que ha supuesto el Proyecto ENCODE, se hace necesario contar con unos conocimientos genéticos básicos.  Para todos aquellos que ya los posean, pueden continuar leyendo el siguiente bloque.

Para nuestros propósitos, definimos un gen desde el punto de vista molecular como una secuencia de ADN que influye en la función y forma de un organismo al codificar y dirigir la síntesis de una proteína.  Por otro lado, una proteína es una molécula formada por aminoácidos (una proteína de tamaño medio puede tener 150 aminoácidos) con funciones muy variadas y que resultan esenciales para la vida.  A modo de ejemplo, entre ellas se incluyen las enzimas (que actúan como catalizadores), los componentes estructurales de las células, de los tejidos (como las que forman parte de los músculos, del cartílago, el pelo etc.) así como factores controladores de la expresión del gen.

¿Cómo se forma una proteína? Para sintetizar una proteína se hace necesario contar con unas instrucciones: el código genético.  Un gen está constituido por una sucesión de nucleótidos.  El lenguaje genético se distingue de cualquier idioma moderno en que las letras no son nucleótidos únicos, sino combinaciones de tres de ellos.  Ya que el ADN posee cuatro tipos de nucleótidos (A, C, G y T por adenina, citosina, guanina y timina) existen 64 combinaciones distintas de tripletes (que llamamos codones porque codifican aminoácidos).  Estas 64 combinaciones o tripletes forman las 21 letras del alfabeto genético entre las que se incluyen los signos de puntuación (hay algunos tripletes que son redundantes, es decir, sinónimos): 61 tripletes codifican los 20 aminoácidos existentes necesarios para formar una proteína, mientras que los tripletes restantes son señales que indican cuando termina la secuencia.

Como hemos dicho, existen un total de veinte aminoácidos, diez de los cuales se denominan “esenciales” porque el ser humano no los puede sintetizar: debemos obtenerlos a través de la alimentación ya que su ausencia provoca daños graves en el organismo.

Pues bien, Crick definió el mecanismo básico a través del cual la información contenida en la secuencia de un gen pasa a sintetizar una proteína concreta: primero la “transcripción” y luego la “traducción”.  La transcripción es un proceso por el que la información contenida en la secuencia de bases (A, C, G y T) se transforma en una secuencia de ARN complementaria (llamada ARN mensajero).  Acto seguido entra en juego la traducción, que es el proceso por el que una vez formados los ARN mensajeros, éstos se encargan de tomar los aminoácidos que constituirán la proteína (esto sucede así porque el ADN no sale nunca del núcleo celular: las “fábricas” de las proteínas, los ribosomas, se encuentran fuera de él de modo que el ARN mensajero debe llevar ese “mensaje” al exterior).

En resumen, la secuencia de nucleótidos (a través de los codones o grupo de tres nucleótidos) determina el orden de los aminoácidos que formarán la proteína.  El ARN mensajero se encarga de trasladar esa secuencia a los ribosomas que fabricarán la proteína con esa sucesión concreta de aminoácidos.

Para que nos hagamos una idea de lo complejo que resulta nuestro código genético, las alrededor de 30.000 proteínas diferentes del cuerpo humano están constituidas por 20 aminoácidos, y es la molécula de ADN la que debe especificar el orden concreto en que unen esos aminoácidos.

Una vez comprendido el mecanismo básico de síntesis de proteínas, ahondemos un poco más en nuestro genoma.  En los seres humanos, como en otros animales y plantas, solo una fracción del ADN (aproximadamente un 1% en humanos) codifica la síntesis de proteínas: son los llamados genes estructurales.  El resto está implicado en tareas como regular la expresión del ADN, separar unos genes de otros y otras funciones: se trata de los genes reguladores, que determinan en qué tejidos, en qué momento o en qué cantidad se ha de sintetizar una proteína determinada.  Sin embargo, los investigadores observaron que la mayor parte del ADN parecía no tener función ninguna: de ahí que recibiera el nombre de “ADN basura” (“junk DNA” en inglés).

Fue el genetista japonés Susumu Ohno quien acuñó este término en 1972 3.  El llamado ADN basura o ADN no codificante, representa secuencias de nucleótidos que no parecen contener genes o tener ninguna función.  Porqué la evolución había mantenido una gran cantidad de ADN “inútil” era un misterio (llamado enigma o paradoja del valor de C), y parecía un despilfarro, algo que se ha desvelado en parte gracias a este proyecto de investigación que aún sigue en curso.

Proyecto ENCODE

El Proyecto ENCODE (enciclopedia de los elementos del ADN) ha sido diseñado para continuar los trabajos donde terminó el Proyecto Genoma Humano.  Aunque este proyecto reveló el diseño de la biología humana, quedó claro que el manual de instrucciones para leer ese diseño era, en el mejor de los casos,  impreciso.  Los investigadores pudieron identificar en sus treinta mil millones de letras muchas de las regiones que codificaban proteínas, aunque éstas constituyen, como hemos señalado, poco más del 1% del genoma en alrededor de 20.000 genes.

Ya antes de acometerse el proyecto, muchos biólogos sospechaban que la información responsable de la maravillosa complejidad de los humanos estaba en algún lugar de los “desiertos” entre los genes:

Aún hoy, mucho después del descubrimiento de secuencias repetitivas y los intrones, señalar que el 25 por ciento de nuestro genoma consiste en millones de copias de una secuencia aburrida no causa ninguna conmoción.  Todos encuentran convincente el argumento de que si este ADN fuera totalmente inútil, la selección natural ya lo habría eliminado.  En consecuencia, debe de tener una función aún por descubrir.  Algunos incluso piensan que podría estar ahí en previsión de una evolución futura (esto es, para permitir la creación de nuevos genes).  Si así se hizo en el pasado, argumentan ¿por qué no en el futuro?

Brenner, S. (1998), «Refuge of spandrels». Current Biology, vol. 8, núm. 19, p. R669.

Además de para la biología molecular, la especial configuración de nuestro genoma ha supuesto y sigue siendo un reto para la antropología evolutiva:

De los tres mil millones de letras que componen el genoma humano, sólo quince millones, menos de un 1%, han sufrido algún cambio desde que el linaje de los chimpancés y el de los humanos divergieron hace unos seis millones de años.  La teoría evolutiva sostiene que el efecto de la inmensa mayoría de estos cambios es pequeño o nulo en nuestra biología.  Sin embargo, entre estos 15 millones de bases se encuentran las diferencias que nos hacen humanos.  La evolución desde un ancestro de humanos y chimpancés hasta un ser humano no resulta de que se acelere el tic-tac del reloj molecular en su conjunto; el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo.

Pollard, K. S. (2009), «¿Qué nos hace humanos?». Investigación y Ciencia, núm. 394, p. 24-29.

Por ello, tras una fase piloto entre los años 2003 y 2007, el estudio, financiado con 80 millones de dólares por EE.UU., se propuso como meta cartografiar este terreno que se creía baldío.  El objetivo es catalogar las secuencias funcionales de ADN que están escondidas ahí, enterarse de cuándo y en qué células están activas, y rastrear sus efectos en la forma de empaquetar, regular y leer el genoma.

El proyecto ha combinado los esfuerzos de 442 científicos de 32 laboratorios en Reino Unido, EE.UU., Singapur, Japón, Suiza y España (se incluyen el Centro de Regulación Genómica en Barcelona y el Centro Nacional de Investigaciones Oncológicas (CNIO, en Madrid).  Los investigadores se han centrado en 24 tipos de experimentos estándar y aunque el genoma es el mismo en la mayoría de las células humanas, la forma en que este actúa no (el ADN contenido en las células de nuestros ojos por ejemplo, no necesita formar pelos o uñas).  Por este motivo, se han llevado a cabo estos experimentos en múltiples tipos celulares ―al menos 147― dando lugar a los 1.648 experimentos que ENCODE ha hecho públicos.

Por este motivo, precisamente porque el ADN se comporta de forma distinta en diferentes tipos de células, el proyecto de investigación continúa en marcha: faltan por estudiar muchas más células y tejidos para conocer mejor cómo funciona nuestro ADN y qué hace para producir unos órganos u otros.

Los resultados obtenidos hasta ahora son, en cualquier caso, sorprendentes: el 80% del genoma contiene elementos vinculados a funciones bioquímicas, dando al traste con la visión generalmente aceptada de que el genoma humano era en su mayor parte “ADN basura”.  Se han detectado más de 70.000 regiones promotoras ―los lugares donde las proteínas se unen para controlar la expresión de los genes― y cerca de 400.000 regiones potenciadoras ―que regulan la expresión de genes distantes (se trata de controladores que no tienen porqué estar localizados cerca de los genes sobre los que actúan, ni siquiera en el mismo cromosoma. La estructura tridimensional de nuestro genoma está formada de un modo que, aunque el controlador esté lejos de los genes si leemos la secuencia linealmente, geométricamente está próximo al promotor y al gen ya que se encuentran envueltos alrededor para contactar con ellos).

Hemos encontrado que una gran parte del genoma ―de hecho, una cantidad sorprendente― está implicada en controlar cuándo y dónde se producen las proteínas más allá de su simple fabricación.

Ewan Birney, coordinador de análisis del proyecto.

La imagen de un interruptor es perfectamente válida para comprender estos mecanismos.  Determinadas secuencias dicen cuándo y dónde deben encenderse o apagarse determinados genes, así como la intensidad del funcionamiento.

Los elementos reguladores son responsables de garantizar que las proteínas del cristalino estén en las lentes de tus ojos y que la hemoglobina esté en tu sangre, y no en cualquier otro lugar. Es muy complejo. El procesamiento de la información y la inteligencia del genoma reside en los elementos reguladores. Con este proyecto, probablemente hemos podido pasar de comprender menos del 5% a cerca del 75% de ellos.

Jim Kent, director del Centro de Coordinación de los Datos (UCSC) de ENCODE.

Con estos datos en la mano comenzamos a entender cómo los relativamente pocos genes que codifican proteínas bastan para proporcionar la complejidad biológica necesaria para hacer crecer y funcionar un ser humano.  Como propugnaba Katherine Pollard, «el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo».

Gracias a esta visión más completa del funcionamiento de nuestro código genético, se ha creado la oportunidad para comprender cómo afectan las variaciones genéticas a los distintos rasgos humanos y las enfermedades.  Características como la altura y la inteligencia, o enfermedades como el Alzheimer van a poder ser analizadas desde un nuevo paradigma.  Desde 2005, los estudios a gran escala del genoma humano (GWAS, genome-wide association studies) que asocian variaciones en la secuencia del ADN con rasgos específicos y enfermedades han mostrado miles de puntos del genoma donde la diferencia en un simple nucleótido parece estar asociada con el riesgo de padecer una enfermedad.  Pero dado que casi el 90% de estas variaciones caen fuera de los genes que codifican proteínas, hasta ahora los investigadores tenían pocas pistas en la forma en que podían causar o afectar a una enfermedad o rasgo fenotípico.

Pero asociación no es causalidad, y la identificación de estas variantes y la comprensión de la forma en que ejercen esa influencia ha sido difícil.

Por ejemplo, las variantes de ADN asociadas a la diabetes se producen en la parte del genoma ahora estudiada, pero no en cualquier punto, sino en la zona que regula los genes que controlan aspectos del metabolismo del azúcar o de la secreción de insulina. Otro ejemplo son las variantes que se dan en las zonas que regulan en sistema inmunológico y que han podido vincular a enfermedades como la esclerosis múltiple, el asma o el lupus.

El proyecto Genoma Humano fue como viajar a la Luna, se hizo con una tecnología primitiva y a base de mucha fuerza bruta.  Encode, sin embargo, es como un viaje a Marte.

Alfonso Valencia, investigador del Centro Nacional de Investigaciones Oncológicas (CNIO).

Del mismo modo, la exploración del gran número de elementos reguladores revelados por el proyecto y la comparación de sus secuencias con las de otros mamíferos promete cambiar la forma de pensar de los científicos acerca de la evolución del ser humano.

Esto es así porque uno de los grandes desafíos de la biología evolutiva es comprender cómo las diferencias en la secuencia del ADN entre especies determinan las diferencias en sus fenotipos.  El cambio evolutivo puede tener lugar tanto a través de cambios en las secuencias de codificación de proteínas como por cambios en la secuencia que alteran la regulación genética.

Se ha argumentado que los potenciales cambios adaptativos en las secuencias que codifican proteínas pueden ser impedidos por la selección natural porque, aun cuando pueden ser beneficiosas para un tipo celular u órgano, pueden ser perjudiciales en algún otro lugar del organismo.  Por el contrario, dado que las secuencias reguladoras de genes frecuentemente se hayan asociadas con patrones temporal y espacialmente específicos de expresión, los cambios en estas regiones pueden modificar la función sólo de determinados tipos celulares en momentos concretos, haciendo que sea más probable que confieran una ventaja evolutiva.

En definitiva, costará un gran trabajo identificar los cambios críticos en la secuencia de los nuevos elementos reguladores que han sido identificados y que suponen las diferencias entre los humanos y otras especies.

A pesar de la gran cantidad de información ofrecida por ENCODE, aún estamos lejos del objetivo final: comprender el funcionamiento del genoma en cada célula de cada persona, así como a través del tiempo en esa misma persona.  Serán necesarios muchos años más de investigación para completar el nuevo cuadro que se ha abierto ante nosotros.

Referencias

Maher, B. (2012). ENCODE: The human encyclopaedia Nature, 489 (7414), 46-48 DOI: 10.1038/489046a

Ecker, J., Bickmore, W., Barroso, I., Pritchard, J., Gilad, Y., & Segal, E. (2012). Genomics: ENCODE explained. Nature, 489 (7414), 52-55 DOI: 10.1038/489052a

Frazer, K. (2012). Decoding the human genome. Genome Research, 22 (9), 1599-1601 DOI: 10.1101/gr.146175.112

Para facilitar la labor de los investigadores, la revista Nature ha creado un portal específico para explorar los 30 artículos publicados mediante un sistema que complementa los documentos al poner de relieve los temas que son tratados sólo en las subsecciones de los trabajos individuales. Cada hilo o trama (thread en inglés) consta de los párrafos pertinentes, las figuras y las tablas de todos los artículos, unidos en torno a un tema específico.

Por mi parte, os dejo un listado de los artículos publicados con accesos directos para leer su contenido (su acceso es libre).

Notas

  1. Crick, F. H. (1958), «On protein synthesis». Symposia of the Society for Experimental Biology, vol. 12, p. 138-163.
  2.  Crick, F. H. (1970), «Central dogma of molecular biology». Nature, vol. 227, núm. 5258, p. 561-563.
  3. Ohno, S. (1972), «So much «junk» DNA in our genome». Brookhaven Symposia in Biology, vol. 23, p. 366-370.
Publicado por José Luis Moreno en CIENCIA, 8 comentarios