biología molecular

La deuda de la genética con Thomas D. Brock

La deuda de la genética con Thomas D. Brock

     Última actualizacón: 14 marzo 2018 a las 09:49

Quien más quien menos ha experimentado alguna vez un momento “eureka”, ese instante de lucidez que, a modo de fogonazo, nos revela la solución a un problema cuando ya nos habíamos dado por vencidos. Para algunos científicos, desconectar y dejar vagar los pensamientos libremente puede considerarse poco productivo y perjudicial, sin embargo, la realidad es que Arquímedes —si tomamos como verídica su historia— no fue el único que se aprovechó de estos momentos de relajación.

El primer protagonista de nuestra historia experimentó uno de estos destellos de lucidez un viernes por la noche en abril de 1983 1. Kary Mullis, biólogo molecular que trabajaba para Cetus Corporation, tenía una cabaña en el valle de Anderson (en el condado californiano de Mendocino) donde había decidido pasar el fin de semana con una amiga. Todo sucedió mientras se aferraba al volante de su coche que serpenteaba a la luz de la luna por una carretera de montaña que atraviesa un bosque de secuoyas (la famosa ruta 101). La noche estaba saturada de humedad y del aroma de la floración de los castaños.

En ese momento de relajación, propio de la conducción nocturna por carreteras desiertas, fue cuando le llegó la inspiración (aunque algunos afirman, con indudable mala intención, que el LSD también jugó su papel). Mullis llevaba tiempo buscando la forma de evitar el tedioso trabajo de laboratorio necesario para hacer múltiples copias de una secuencia particular de ADN por lo que, intuyendo que había dado con algo importante, paró el coche, cogió papel y lápiz y comenzó a hacer cálculos (la parada repentina molestó tanto a su acompañante que, refunfuñado, se pasó al asiento trasero del coche sin prestar atención al momento de revelación de su compañero). Por fin había dado con un proceso que permitía fabricar un número ilimitado de copias de cualquier gen: la reacción en cadena de la polimerasa (más conocido como PCR, por las siglas en inglés de polymerase chain reaction).

Al principio nadie creyó en su idea, aunque con perseverancia consiguió que el proceso funcionase, recibiendo por ello el Premio Nobel de Química en 1993. Desde ese momento, Mullis se volvió cada vez más excéntrico —por emplear un término suave— convirtiéndose, por ejemplo, en un firme defensor de la teoría de que el VIH no causa el SIDA, una postura que ha dañado tanto su credibilidad como los esfuerzos de la comunidad científica por hacer frente a la enfermedad.

Bien, pero, ¿qué es la PCR?

Esta técnica supuso una auténtica revolución en un campo que a mediados de los ochenta del siglo pasado comenzaba a despegar: la biología molecular. Si queremos saber qué es lo que hace un gen, o cuando necesitamos determinadas proteínas para el tratamiento de una enfermedad genética, o fabricar determinadas vacunas, se emplea una técnica llamada del ADN recombinante. Consiste en tomar una molécula de ADN de un organismo (ya sea un virus, una planta o una bacteria) para manipularla en el laboratorio e introducirla de nuevo en otro organismo para que produzca, por ejemplo, una proteína que le sea totalmente extraña. Es lo que venimos haciendo con la insulina que requieren los diabéticos 2. Pues bien, un requisito previo para aplicar esta técnica es contar con grandes cantidades de un segmento específico de ADN. Y eso es lo que hace precisamente la PCR.

Antes del perfeccionamiento de esta técnica solo podían obtenerse cantidades mínimas de un gen concreto, pero tras su invención, incluso un único gen puede amplificarse hasta obtener 100 billones de moléculas similares en una tarde. De esta forma se evita la clonación y permite emplear la PCR en fragmentos de ADN que estén presentes, inicialmente, en cantidades infinitesimalmente pequeñas.

Aunque parece algo sencillo a primera vista —podemos pensar que no es más que de una mera “fotocopia” de una molécula existente— lo cierto es que resulta bastante complicado de por sí obtener una molécula bien definida de ADN natural de cualquier organismo (con la excepción de algunos virus extremadamente sencillos). La doble cadena de ADN está rodeada y enrollada, dentro de la célula, por muchas proteínas. Cuando los biólogos tratan de aislar una cadena desnuda de ADN, ésta es tan larga y delgada que incluso las suaves fuerzas de corte empleadas la rompen en puntos aleatorios. De esta forma, si tomamos ADN de 1000 células idénticas, habrá 1000 copias de un gen concreto, pero cada copia estará en un fragmento de ADN de diferente longitud. Este proceso es en cualquier caso lento y costoso.

En realidad, lo que hace la PCR es simular lo que sucede en una célula cuando se sintetiza el ADN, aunque en nuestro caso mezclamos todos los ingredientes necesarios en un tubo Eppendorf: una ADN polimerasa, el tramo ADN del organismo que queremos estudiar, los oligonucleótidos (también llamados primers, iniciadores, cebadores, “oligos”, etc.) necesarios para que se inicie la transcripción, y los desoxirribonucleótidos trifosfato (dNTPs, con las cuatro bases nitrogenadas: adenina, timina, guanina y citosina); todo ello en las condiciones precisas para que la ADN polimerasa trabaje adecuadamente (cierto pH, determinadas cantidades de magnesio en forma de MgCl2, KCl, y algunas otras sales o reactivos, en función de cada polimerasa).

¿Cómo funciona?

El método consiste en realizar ciclos repetitivos que comienzan calentando el ADN para lograr que las dos hebras que lo conforman se separen y, al enfriarse, unos cebadores se acoplen en los extremos. La reacción de copia se lleva a cabo en presencia de ADN polimerasa y de los cuatro nucleótidos (A, T, G y C), donde cada hebra hace de plantilla para la síntesis de la nueva cadena. La función de la ADN polimerasa es añadir los nucleótidos libres a los de la cadena original. Una vez concluida la síntesis de las hebras complementarias se acaba el primer ciclo (que puede repetirse cuantas veces sea necesario). Por lo tanto, la cantidad de ADN que podemos obtener sólo está limitada, en teoría, por el número de veces que se repitan estos pasos. Analicémoslos con un poco más de detalle:

En primer lugar, se toma un fragmento de ADN y se calienta a unos 95ºC hasta que se disocia en dos cadenas sencillas (este proceso se denomina desnaturalización y dura normalmente 5 minutos).

Por métodos químicos se han sintetizado e incluido en la “mezcla primaria” dos cebadores 3 —tramos cortos de ADN de una sola cadena, por lo general de una longitud de alrededor de veinte pares de bases—, cuyas secuencias encajan en las regiones que flanquean el fragmento de ADN que nos interesa (por eso es indispensable conocer los dos extremos de la región del ADN que se quiere amplificar para que los cebadores hibriden con cada extremo, es decir, se combinen entre sí las dos cadenas de ácidos nucleicos). De esta forma, los cebadores delimitan nuestro tramo de ADN o gen diana. Se necesitan dos cebadores diferentes, uno para cada una de las cadenas disociadas: uno es idéntico al extremo terminal 5’ de la hebra codificante y el otro idéntico al extremo 3’ de la hebra no codificante. Este paso, conocido como alineamiento o hibridación, es el de menor temperatura de la PCR y el que marca la especificidad de la reacción.

Por último, en el último paso, de extensión, interviene la ADN polimerasa, la enzima que facilita el proceso de replicación del ADN mediante el emparejamiento de los desoxirribonucleótidos trifosfato (dNTP) libres con los desoxirribonucleótidos complementarios del ADN molde. Aquí la temperatura sube a 72ºC porque esa es la temperatura en la cual la polimerasa alcanza su máxima actividad. Debemos tener presente que esta replicación sólo comienza donde el ADN ya es de doble cadena, es decir, en el lugar donde el cebador se ha hibridado en el paso anterior. La polimerasa hace una copia complementaria de la plantilla de ADN a partir de cada cebador, y por lo tanto, copia la región diana. Las ADN polimerasas pueden añadir hasta 1000 nucleótidos por segundo, y el producto final es una molécula de ADN de doble cadena.

Cada grupo de tres pasos (desnaturalización, alineamiento y extensión) se denomina ciclo; y la sucesión de una serie de ciclos en los que tiene lugar la desnaturalización del molde, la hibridación con los cebadores y la extensión de la síntesis por acción de la ADN polimerasa produce un aumento de forma geométrica del ADN resultante. Es decir, partiendo de cantidades mínimas (del orden de femtogramos), tras 30 ciclos se pueden obtener cantidades enormes (microgramos). Esto es así porque los productos de un ciclo se emplean como moldes del ciclo siguiente.

Hoy en día todos estos pasos se llevan a cabo en una máquina llamada termociclador, que calienta o enfría los tubos que contienen todos los “ingredientes” de forma precisa.

¿Qué pinta un microbiólogo en todo esto?

Nuestro segundo protagonista, y parte esencial en esta historia, es el microbiólogo Thomas Dale Brock, conocido por sus trabajos pioneros con bacterias extremófilas, los microorganismos que son capaces de prosperar en condiciones extremas (ya sean de temperatura, acidez, radiación o anoxia). Ha publicado más de 250 artículos y 20 libros, además de haber obtenido numerosos premios científicos 4.

Cuando comenzó a utilizarse la PCR surgió un problema importante con la ADN polimerasa, la enzima que hace el trabajo de copia. El método original empleaba la polimerasa de la bacteria Escherichia coli, pero su temperatura óptima de funcionamiento (37ºC) queda muy por debajo de los 95ºC necesarios para la desnaturalización del ADN, con lo que se destruía en el proceso. Por ese motivo era necesario añadir más enzima a la reacción tras cada ciclo. Si tenemos presente que la polimerasa es cara, comprenderemos que se viera que la PCR, a pesar de su enorme potencial, no era una herramienta económicamente práctica.

Entonces la madre naturaleza, la serendipia y nuestro microbiólogo vinieron al rescate.

Debemos situarnos a comienzos del verano de 1964 y, de nuevo, con un largo trayecto por carretera como telón de fondo. Brock tenía que viajar desde Indiana (donde residía) a los laboratorios Friday Harbor de la Universidad de Washington en Seattle, donde tenía previsto pasar unas semanas llevando a cabo estudios de microbiología marina. Este trayecto, de unos 3.700 kilómetros por carretera, atraviesa Montana, Idaho y Wyoming, estados por donde se extiende el famosísimo Parque Nacional Yellowstone. Al igual que otros muchos norteamericanos, Brock había oído hablar maravillas de este prodigio de la naturaleza pero nunca había tenido ocasión de visitarlo así que esta vez no dejó pasar la oportunidad: el día que tomó ese desvío cambió el rumbo de la biología molecular.

Su primera parada fue en la West Thumb Geyser Basin, una de las cuencas de géiseres más pequeñas de Yellowstone aunque una de las más pintorescas. Allí experimentó un súbito impacto al ver las alfombras de algas de fuertes colores naranja, rojo y verde que tapizaban los manantiales que había por doquier.

A pesar de ser plenamente consciente de que las algas vivían en ambientes termales no estaba preparado para lo que vio. Continuó su viaje a la costa oeste donde pasó el verano en los laboratorios Friday Harbor, aunque no se pudo quitar Yellowstone de la cabeza. En el viaje de regreso a Indiana recaló allí de nuevo, esta vez con un poco más de tiempo, y tomó varias muestras.

En el verano siguiente decidió pasar allí dos semanas intensivas de investigación junto a su mujer antes de un viaje que tenía previsto realizar a Islandia. En Mushroom Spring fue donde se fijó por primera vez en unas masas de bacterias filamentosas rosadas, a partir de cuyas muestras (y gracias a la ayuda de Hudson Freeze) lograron aislar un organismo al que llamaron Thermus aquaticus 5.

Lo cierto es que dos años antes de la publicación de este descubrimiento, Brock ya había llamado la atención de la comunidad científica acerca de la importancia de investigar a fondo las fuentes termales del Parque Nacional Yellowstone. Lo hizo en un artículo que apareció como artículo principal de la revista Science 6, tras cuya publicación un buen número de bioquímicos de diferentes Universidades y de la industria se interesaron por estos microorganismos. Nuestro microbiólogo señaló entonces que una buena vía de investigación sería centrarse en las enzimas que actúan sobre el ADN, como las polimerasas. Su trabajo, sin embargo, continuó por otros derroteros.

Cuando muchos años más tarde se descubrió la reacción en cadena de la polimerasa, el valor de la enzima de Thermus aquaticus se puso de relieve.

La ADN polimerasa de este organismo (Polimerasa Taq) se caracterizó en 1976 en la Universidad de Cincinnati por Alice Chien, David Edgar, y John Trela; pero no fue hasta 1987 cuando se produjo el hito final: en diciembre de ese año se aceptó para la publicación en Science el artículo escrito por Kary Mullis y otros colegas 7 donde se explicaba la trascendencia de utilizar la ADN polimerasa de Thermus aquaticus para la reacción en cadena de la polimerasa 8.

El hecho clave es que esta enzima es activa y estable a altas temperaturas, lo que significa que no pierde su función tras el primer paso de la desnaturalización del ADN, y sólo tiene que añadirse al comienzo de la reacción: su temperatura óptima de funcionamiento se sitúa entre los 70ºC y 80ºC, momento en que la bacteria sintetiza ADN a la velocidad de 35–100 nucleótidos por segundo.

El primer termociclador para la PCR salió al mercado en 1987 y supuso la automatización de todo el proceso. La revista Science eligió la PCR como el desarrollo científico más importante de 1989, y otorgó a la Taq el premio a la molécula del año.

Conclusión

Esta historia nos sirve para traer a colación la importancia de la investigación básica —que la mayoría de las veces se lleva a cabo por científicos individuales o pequeños grupos de científicos en las universidades—. En estos casos es muy difícil predecir cuándo, dónde y a quién beneficiarán los eventuales rendimientos de las diferentes líneas de investigación pero, como hemos visto, incluso un trabajo que puede parecer tedioso o demasiado teórico puede tener un impacto decisivo en el avance de la ciencia.

Artículos principales

Brock, T. D. y Freeze, H. (1969), «Thermus aquaticus gen. n. and sp. n., a nonsporulating extreme thermophile«. Journal of Bacteriology, vol. 98, núm. 1, p. 289-297.

Mullis, K., et al. (1986), «Specific enzymatic amplification of DNA in vitro: The polymerase chain reaction«. Cold Spring Harbor Symposia on Quantitative Biology, vol. 51, p. 263-273.

Saiki, R. K., et al. (1985), «Enzymatic amplification of beta-globin genomic sequences and restriction site analysis for diagnosis of sickle cell anemia». Science, vol. 230, núm. 4732, p. 1350-1354.

Saiki, R. K., et al. (1988), «Primer-directed enzymatic amplification of DNA with a thermostable DNA polymerase«. Science, vol. 239, núm. 4839, p. 487-491.

Más información

Brock, T. D. (1967), «Life at high temperatures». Science, vol. 158, núm. 3804, p. 1012-1019.

─── (1978), Thermophilic microorganisms and life at high temperatures. New York: Springer-Verlag, xi, 465 p.

Brock, T. D. (1997), «The value of basic research: discovery of Thermus aquaticus and other extreme thermophiles». Genetics, vol. 146, núm. 4, p. 1207-1210.

Celada, A. (1994), Inmunología básica. Barcelona: Labor, 654 p.

Eguiarte, L., et al. (2007), Ecología molecular. México D.F.: Instituto Nacional de Ecología, 594 p.

Elliott, W. H., et al. (2002), Bioquímica y biología molecular. Barcelona: Ariel, XXVII, 788 p.

Izquierdo Rojo, M. (1999), Ingeniería genética y transferencia genética. Madrid: Pirámide, 335 p.

Klug, W. S. y Cummings, M. R. (1999), Conceptos de genética. Madrid: Prentice Hall, 840 p.

Mullis, K. B. (1990), «The unusual origin of the polymerase chain reaction». Scientific American, vol. 262, núm. 4, p. 56-65.

Watson, J. D. y Berry, A. (2003), DNA: the secret of life. New York: Alfred A. Knopf, xiv, 446 p.

Notas

  1.  Al menos es lo que ha explicado hasta la saciedad cada vez que le han dado una oportunidad para ello. La versión que se ofrece aquí proviene del artículo escrito por él mismo para Scientific American titulado The unusual origin of the polymerase chain reaction.
  2. Algo que es bueno recordar a quienes rechazan de plano cualquier organismo genéticamente modificado.
  3. También llamados primers.
  4. Pero, sorprendentemente, no el Nobel.
  5. Que fue descrito en un artículo publicado en el Journal of Bacteriology titulado Thermus aquaticus gen. n. and sp. n., a nonsporulating extreme thermophile.
  6.  Life at high temperatures. Este artículo se ha convertido en uno de los más citados en su campo.
  7. El artículo vio la luz en enero de 1988 bajo el título Primer-directed enzymatic amplification of DNA with a thermostable DNA polymerase.
  8. La idea de usar una bacteria termófila como fuente de la ADN polimerasa fue de David Gelfand, coautor de este artículo, aunque John Trela había realizado un trabajo similar en 1975, lo que derivó en una batalla legal entre ambos al discutirse la validez de la patente de la “Taq” presentada por Gelfand.
Publicado por José Luis Moreno en CIENCIA, Historia de la ciencia, 3 comentarios
ENCODE – Enciclopedia de los elementos del ADN

ENCODE – Enciclopedia de los elementos del ADN

     Última actualizacón: 19 marzo 2018 a las 11:00

En 1958, en el simposio de la Sociedad de Biología Experimental, Francis Crick 1 (descubridor junto con James Watson de la estructura molecular del ADN, la famosa “doble hélice”) propuso el dogma central de la biología molecular basado en el flujo unidireccional de información del ADN a la proteína: del ADN la información pasa por transcripción al ARN, y de éste, por traducción, a la proteína, elemento que realiza la acción celular.  Si bien fue reformulado más tarde en la revista Nature 2, no debemos olvidar que la ciencia no es amiga de los dogmas por muy claros que parezcan algunos procesos.

La ciencia ya ha conocido un intento de estudiar a fondo nuestro código genético.  El objetivo del Proyecto Genoma Humano era conocer en profundidad nuestros genes ya que cuando se decidió acometer la empresa, se pensaba que sobre ellos gravitaba la esencia de lo que somos: conociendo los genes ―se afirmaba―, las funciones que desempeña cada uno, se sabría todo lo que se precisa para entender la vida humana o, al menos, sus patologías.

De esta forma, en el año 2000 se presentó con gran bombo político y mediático por el entonces Presidente de los EE.UU. Bill Clinton y el Primer Ministro británico Tony Blair, un borrador de resultados que se completó en 2003 con la secuenciación completa del genoma humano.

Sin embargo, como sucede a menudo, las expectativas fueron más allá de unos hechos que suelen ser muy tozudos una vez se estudian en profundidad.  Cuando se analizaron los resultados, los científicos se toparon con un número inferior de genes de lo previsto: tenemos alrededor de 20.000 genes codificadores de proteínas, una suma muy pequeña para la gran cantidad de información que se les atribuía.  Además de esta circunstancia, nos percatamos de que no hay una relación lineal entre el número de genes y la complejidad del organismo: es cierto que las bacterias tienen alrededor de 5.000 genes, pero el ser humano tiene más o menos el mismo número de genes que los erizos de mar, y una cantidad notablemente inferior que una salamandra, el arroz (que posee 57.000 genes) u otros vegetales.  Para complicar aún más el panorama, estos genes codificadores de proteínas representan únicamente el 1% de los 30.000 millones de nucleótidos que encontramos en el ADN humano.

Introducción. Genética

Para comprender en su justa medida los avances que ha supuesto el Proyecto ENCODE, se hace necesario contar con unos conocimientos genéticos básicos.  Para todos aquellos que ya los posean, pueden continuar leyendo el siguiente bloque.

Para nuestros propósitos, definimos un gen desde el punto de vista molecular como una secuencia de ADN que influye en la función y forma de un organismo al codificar y dirigir la síntesis de una proteína.  Por otro lado, una proteína es una molécula formada por aminoácidos (una proteína de tamaño medio puede tener 150 aminoácidos) con funciones muy variadas y que resultan esenciales para la vida.  A modo de ejemplo, entre ellas se incluyen las enzimas (que actúan como catalizadores), los componentes estructurales de las células, de los tejidos (como las que forman parte de los músculos, del cartílago, el pelo etc.) así como factores controladores de la expresión del gen.

¿Cómo se forma una proteína? Para sintetizar una proteína se hace necesario contar con unas instrucciones: el código genético.  Un gen está constituido por una sucesión de nucleótidos.  El lenguaje genético se distingue de cualquier idioma moderno en que las letras no son nucleótidos únicos, sino combinaciones de tres de ellos.  Ya que el ADN posee cuatro tipos de nucleótidos (A, C, G y T por adenina, citosina, guanina y timina) existen 64 combinaciones distintas de tripletes (que llamamos codones porque codifican aminoácidos).  Estas 64 combinaciones o tripletes forman las 21 letras del alfabeto genético entre las que se incluyen los signos de puntuación (hay algunos tripletes que son redundantes, es decir, sinónimos): 61 tripletes codifican los 20 aminoácidos existentes necesarios para formar una proteína, mientras que los tripletes restantes son señales que indican cuando termina la secuencia.

Como hemos dicho, existen un total de veinte aminoácidos, diez de los cuales se denominan “esenciales” porque el ser humano no los puede sintetizar: debemos obtenerlos a través de la alimentación ya que su ausencia provoca daños graves en el organismo.

Pues bien, Crick definió el mecanismo básico a través del cual la información contenida en la secuencia de un gen pasa a sintetizar una proteína concreta: primero la “transcripción” y luego la “traducción”.  La transcripción es un proceso por el que la información contenida en la secuencia de bases (A, C, G y T) se transforma en una secuencia de ARN complementaria (llamada ARN mensajero).  Acto seguido entra en juego la traducción, que es el proceso por el que una vez formados los ARN mensajeros, éstos se encargan de tomar los aminoácidos que constituirán la proteína (esto sucede así porque el ADN no sale nunca del núcleo celular: las “fábricas” de las proteínas, los ribosomas, se encuentran fuera de él de modo que el ARN mensajero debe llevar ese “mensaje” al exterior).

En resumen, la secuencia de nucleótidos (a través de los codones o grupo de tres nucleótidos) determina el orden de los aminoácidos que formarán la proteína.  El ARN mensajero se encarga de trasladar esa secuencia a los ribosomas que fabricarán la proteína con esa sucesión concreta de aminoácidos.

Para que nos hagamos una idea de lo complejo que resulta nuestro código genético, las alrededor de 30.000 proteínas diferentes del cuerpo humano están constituidas por 20 aminoácidos, y es la molécula de ADN la que debe especificar el orden concreto en que unen esos aminoácidos.

Una vez comprendido el mecanismo básico de síntesis de proteínas, ahondemos un poco más en nuestro genoma.  En los seres humanos, como en otros animales y plantas, solo una fracción del ADN (aproximadamente un 1% en humanos) codifica la síntesis de proteínas: son los llamados genes estructurales.  El resto está implicado en tareas como regular la expresión del ADN, separar unos genes de otros y otras funciones: se trata de los genes reguladores, que determinan en qué tejidos, en qué momento o en qué cantidad se ha de sintetizar una proteína determinada.  Sin embargo, los investigadores observaron que la mayor parte del ADN parecía no tener función ninguna: de ahí que recibiera el nombre de “ADN basura” (“junk DNA” en inglés).

Fue el genetista japonés Susumu Ohno quien acuñó este término en 1972 3.  El llamado ADN basura o ADN no codificante, representa secuencias de nucleótidos que no parecen contener genes o tener ninguna función.  Porqué la evolución había mantenido una gran cantidad de ADN “inútil” era un misterio (llamado enigma o paradoja del valor de C), y parecía un despilfarro, algo que se ha desvelado en parte gracias a este proyecto de investigación que aún sigue en curso.

Proyecto ENCODE

El Proyecto ENCODE (enciclopedia de los elementos del ADN) ha sido diseñado para continuar los trabajos donde terminó el Proyecto Genoma Humano.  Aunque este proyecto reveló el diseño de la biología humana, quedó claro que el manual de instrucciones para leer ese diseño era, en el mejor de los casos,  impreciso.  Los investigadores pudieron identificar en sus treinta mil millones de letras muchas de las regiones que codificaban proteínas, aunque éstas constituyen, como hemos señalado, poco más del 1% del genoma en alrededor de 20.000 genes.

Ya antes de acometerse el proyecto, muchos biólogos sospechaban que la información responsable de la maravillosa complejidad de los humanos estaba en algún lugar de los “desiertos” entre los genes:

Aún hoy, mucho después del descubrimiento de secuencias repetitivas y los intrones, señalar que el 25 por ciento de nuestro genoma consiste en millones de copias de una secuencia aburrida no causa ninguna conmoción.  Todos encuentran convincente el argumento de que si este ADN fuera totalmente inútil, la selección natural ya lo habría eliminado.  En consecuencia, debe de tener una función aún por descubrir.  Algunos incluso piensan que podría estar ahí en previsión de una evolución futura (esto es, para permitir la creación de nuevos genes).  Si así se hizo en el pasado, argumentan ¿por qué no en el futuro?

Brenner, S. (1998), «Refuge of spandrels». Current Biology, vol. 8, núm. 19, p. R669.

Además de para la biología molecular, la especial configuración de nuestro genoma ha supuesto y sigue siendo un reto para la antropología evolutiva:

De los tres mil millones de letras que componen el genoma humano, sólo quince millones, menos de un 1%, han sufrido algún cambio desde que el linaje de los chimpancés y el de los humanos divergieron hace unos seis millones de años.  La teoría evolutiva sostiene que el efecto de la inmensa mayoría de estos cambios es pequeño o nulo en nuestra biología.  Sin embargo, entre estos 15 millones de bases se encuentran las diferencias que nos hacen humanos.  La evolución desde un ancestro de humanos y chimpancés hasta un ser humano no resulta de que se acelere el tic-tac del reloj molecular en su conjunto; el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo.

Pollard, K. S. (2009), «¿Qué nos hace humanos?». Investigación y Ciencia, núm. 394, p. 24-29.

Por ello, tras una fase piloto entre los años 2003 y 2007, el estudio, financiado con 80 millones de dólares por EE.UU., se propuso como meta cartografiar este terreno que se creía baldío.  El objetivo es catalogar las secuencias funcionales de ADN que están escondidas ahí, enterarse de cuándo y en qué células están activas, y rastrear sus efectos en la forma de empaquetar, regular y leer el genoma.

El proyecto ha combinado los esfuerzos de 442 científicos de 32 laboratorios en Reino Unido, EE.UU., Singapur, Japón, Suiza y España (se incluyen el Centro de Regulación Genómica en Barcelona y el Centro Nacional de Investigaciones Oncológicas (CNIO, en Madrid).  Los investigadores se han centrado en 24 tipos de experimentos estándar y aunque el genoma es el mismo en la mayoría de las células humanas, la forma en que este actúa no (el ADN contenido en las células de nuestros ojos por ejemplo, no necesita formar pelos o uñas).  Por este motivo, se han llevado a cabo estos experimentos en múltiples tipos celulares ―al menos 147― dando lugar a los 1.648 experimentos que ENCODE ha hecho públicos.

Por este motivo, precisamente porque el ADN se comporta de forma distinta en diferentes tipos de células, el proyecto de investigación continúa en marcha: faltan por estudiar muchas más células y tejidos para conocer mejor cómo funciona nuestro ADN y qué hace para producir unos órganos u otros.

Los resultados obtenidos hasta ahora son, en cualquier caso, sorprendentes: el 80% del genoma contiene elementos vinculados a funciones bioquímicas, dando al traste con la visión generalmente aceptada de que el genoma humano era en su mayor parte “ADN basura”.  Se han detectado más de 70.000 regiones promotoras ―los lugares donde las proteínas se unen para controlar la expresión de los genes― y cerca de 400.000 regiones potenciadoras ―que regulan la expresión de genes distantes (se trata de controladores que no tienen porqué estar localizados cerca de los genes sobre los que actúan, ni siquiera en el mismo cromosoma. La estructura tridimensional de nuestro genoma está formada de un modo que, aunque el controlador esté lejos de los genes si leemos la secuencia linealmente, geométricamente está próximo al promotor y al gen ya que se encuentran envueltos alrededor para contactar con ellos).

Hemos encontrado que una gran parte del genoma ―de hecho, una cantidad sorprendente― está implicada en controlar cuándo y dónde se producen las proteínas más allá de su simple fabricación.

Ewan Birney, coordinador de análisis del proyecto.

La imagen de un interruptor es perfectamente válida para comprender estos mecanismos.  Determinadas secuencias dicen cuándo y dónde deben encenderse o apagarse determinados genes, así como la intensidad del funcionamiento.

Los elementos reguladores son responsables de garantizar que las proteínas del cristalino estén en las lentes de tus ojos y que la hemoglobina esté en tu sangre, y no en cualquier otro lugar. Es muy complejo. El procesamiento de la información y la inteligencia del genoma reside en los elementos reguladores. Con este proyecto, probablemente hemos podido pasar de comprender menos del 5% a cerca del 75% de ellos.

Jim Kent, director del Centro de Coordinación de los Datos (UCSC) de ENCODE.

Con estos datos en la mano comenzamos a entender cómo los relativamente pocos genes que codifican proteínas bastan para proporcionar la complejidad biológica necesaria para hacer crecer y funcionar un ser humano.  Como propugnaba Katherine Pollard, «el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo».

Gracias a esta visión más completa del funcionamiento de nuestro código genético, se ha creado la oportunidad para comprender cómo afectan las variaciones genéticas a los distintos rasgos humanos y las enfermedades.  Características como la altura y la inteligencia, o enfermedades como el Alzheimer van a poder ser analizadas desde un nuevo paradigma.  Desde 2005, los estudios a gran escala del genoma humano (GWAS, genome-wide association studies) que asocian variaciones en la secuencia del ADN con rasgos específicos y enfermedades han mostrado miles de puntos del genoma donde la diferencia en un simple nucleótido parece estar asociada con el riesgo de padecer una enfermedad.  Pero dado que casi el 90% de estas variaciones caen fuera de los genes que codifican proteínas, hasta ahora los investigadores tenían pocas pistas en la forma en que podían causar o afectar a una enfermedad o rasgo fenotípico.

Pero asociación no es causalidad, y la identificación de estas variantes y la comprensión de la forma en que ejercen esa influencia ha sido difícil.

Por ejemplo, las variantes de ADN asociadas a la diabetes se producen en la parte del genoma ahora estudiada, pero no en cualquier punto, sino en la zona que regula los genes que controlan aspectos del metabolismo del azúcar o de la secreción de insulina. Otro ejemplo son las variantes que se dan en las zonas que regulan en sistema inmunológico y que han podido vincular a enfermedades como la esclerosis múltiple, el asma o el lupus.

El proyecto Genoma Humano fue como viajar a la Luna, se hizo con una tecnología primitiva y a base de mucha fuerza bruta.  Encode, sin embargo, es como un viaje a Marte.

Alfonso Valencia, investigador del Centro Nacional de Investigaciones Oncológicas (CNIO).

Del mismo modo, la exploración del gran número de elementos reguladores revelados por el proyecto y la comparación de sus secuencias con las de otros mamíferos promete cambiar la forma de pensar de los científicos acerca de la evolución del ser humano.

Esto es así porque uno de los grandes desafíos de la biología evolutiva es comprender cómo las diferencias en la secuencia del ADN entre especies determinan las diferencias en sus fenotipos.  El cambio evolutivo puede tener lugar tanto a través de cambios en las secuencias de codificación de proteínas como por cambios en la secuencia que alteran la regulación genética.

Se ha argumentado que los potenciales cambios adaptativos en las secuencias que codifican proteínas pueden ser impedidos por la selección natural porque, aun cuando pueden ser beneficiosas para un tipo celular u órgano, pueden ser perjudiciales en algún otro lugar del organismo.  Por el contrario, dado que las secuencias reguladoras de genes frecuentemente se hayan asociadas con patrones temporal y espacialmente específicos de expresión, los cambios en estas regiones pueden modificar la función sólo de determinados tipos celulares en momentos concretos, haciendo que sea más probable que confieran una ventaja evolutiva.

En definitiva, costará un gran trabajo identificar los cambios críticos en la secuencia de los nuevos elementos reguladores que han sido identificados y que suponen las diferencias entre los humanos y otras especies.

A pesar de la gran cantidad de información ofrecida por ENCODE, aún estamos lejos del objetivo final: comprender el funcionamiento del genoma en cada célula de cada persona, así como a través del tiempo en esa misma persona.  Serán necesarios muchos años más de investigación para completar el nuevo cuadro que se ha abierto ante nosotros.

Referencias

Maher, B. (2012). ENCODE: The human encyclopaedia Nature, 489 (7414), 46-48 DOI: 10.1038/489046a

Ecker, J., Bickmore, W., Barroso, I., Pritchard, J., Gilad, Y., & Segal, E. (2012). Genomics: ENCODE explained. Nature, 489 (7414), 52-55 DOI: 10.1038/489052a

Frazer, K. (2012). Decoding the human genome. Genome Research, 22 (9), 1599-1601 DOI: 10.1101/gr.146175.112

Para facilitar la labor de los investigadores, la revista Nature ha creado un portal específico para explorar los 30 artículos publicados mediante un sistema que complementa los documentos al poner de relieve los temas que son tratados sólo en las subsecciones de los trabajos individuales. Cada hilo o trama (thread en inglés) consta de los párrafos pertinentes, las figuras y las tablas de todos los artículos, unidos en torno a un tema específico.

Por mi parte, os dejo un listado de los artículos publicados con accesos directos para leer su contenido (su acceso es libre).

Notas

  1. Crick, F. H. (1958), «On protein synthesis». Symposia of the Society for Experimental Biology, vol. 12, p. 138-163.
  2.  Crick, F. H. (1970), «Central dogma of molecular biology». Nature, vol. 227, núm. 5258, p. 561-563.
  3. Ohno, S. (1972), «So much «junk» DNA in our genome». Brookhaven Symposia in Biology, vol. 23, p. 366-370.
Publicado por José Luis Moreno en CIENCIA, 8 comentarios