proteína

Últimos y esperanzadores avances frente a la enfermedad de Alzheimer

Últimos y esperanzadores avances frente a la enfermedad de Alzheimer

     Última actualizacón: 15 marzo 2018 a las 22:09

La enfermedad de Alzheimer es la causa más frecuente de demencia (entre un 60% y un 70% de los casos), entendiendo por demencia el deterioro persistente y progresivo de las funciones cerebrales superiores (memoria, lenguaje, orientación, cálculo o percepción espacial y atención entre otras). También afecta a las capacidades emocionales y de conducta tales como la motivación, el ánimo, la percepción de la realidad y el sueño. En pocas palabras, se trata de una enfermedad que limita gravemente la capacidad de la persona para llevar a cabo las actividades cotidianas.

Actualmente la demencia afecta a más de 35 millones de personas en todo el mundo, y se estima que la cifra de afectados de Alzheimer alcanzará los 115 millones en el año 2050 1. En España, y según datos de la Sociedad Española de Neurología (SEN), el Alzheimer afecta en la actualidad a unas 600.000 personas y está presente en uno de cada diez hogares.

Estas cifras muestran a las claras la importancia que tiene la investigación médica en este campo no sólo para quienes ya padecen esta terrible enfermedad, sino para la sociedad en su conjunto, máxime si tenemos en cuenta el preocupante envejecimiento de la población mundial.

Por lo que sabemos hasta ahora, los síntomas se desarrollan de manera gradual y progresiva, con mayor incidencia a partir de los 65 años (se ha constatado una prevalencia en personas con antecedentes familiares). Primero afecta las partes del cerebro que controlan el pensamiento, la memoria y el lenguaje. En esta primera fase, los enfermos presentan dificultades para recordar cosas que han hecho poco tiempo antes o los nombres de sus familiares y conocidos.

Sin embargo, con el avance progresivo de la enfermedad los síntomas empeoran. A los fallos de memoria, se une un cambio de carácter predominando la apatía, y otros síntomas como desorientación en el tiempo, una incapacidad para nombrar objetos comunes, delirios, alucinaciones y agitación. Los enfermos dejan de reconocer a sus familiares (incluso pueden verlos como amenazas directas) o tener dificultades para hablar, leer o escribir; olvidan cómo realizar tareas sencillas y cotidianas como lavarse los dientes o peinarse. En muchos casos la situación de estrés continuado puede hacer que se vuelvan agresivos, llegando a la paranoia y a experiencias alucinatorias. Finalmente, en los estadios más avanzados, los enfermos precisan cuidados permanentes ya que son incapaces de realizar por sí mismos las necesidades básicas.

Este proceso evolutivo de síntomas se suele ir sumando de manera gradual en una media que se estima entre 5 a 15 años.

Hasta el momento no se ha descubierto ningún tratamiento eficaz para detener el avance imparable del Alzheimer que lleva a la muerte masiva de las neuronas, aunque algunos fármacos pueden ayudar a retrasar el empeoramiento de algunos de los síntomas. Según los expertos, la dificultad para obtener resultados positivos en el tratamiento de esta enfermedad tiene mucho que ver con que seamos incapaces de detectarla antes de que haya progresado lo suficiente como para producir una pérdida de memoria irreversible y una disminución funcional grave.

Las causas

No se sabe con exactitud qué produce la enfermedad. Lo que si saben los especialistas es que al estudiar los cerebros de personas afectadas por el Alzheimer se han hallado varias masas anormales (llamadas placas seniles o de amiloide) y bultos retorcidos de fibras (llamados ovillos o nudos neurofibrilares 2). Estos depósitos anormales están constituidos por dos proteínas: beta-amiloide y proteína tau.

Imagen histopatológica del córtex cerebral de un paciente con Alzheimer (wikimedia commons).

Los ovillos empiezan a desarrollarse en la parte profunda del cerebro, en una zona llamada corteza entorrinal, mientras que las placas se forman en otras zonas fuera de las células. A medida que se van formando más placas y ovillos, las neuronas sanas empiezan a funcionar con menos eficacia. Acto seguido pierden su habilidad de comunicarse entre sí y finalmente mueren. Las placas y los ovillos en el cerebro son dos de las características principales de esta enfermedad y uno de las principales vías de diagnóstico. La tercera característica es responsable de la pérdida de memoria y la limitación del pensamiento: la ruptura de las sinapsis (vía por la que unas neuronas se comunican con otras).

Con la muerte progresiva de las neuronas, las regiones afectadas del cerebro empiezan a encogerse, por lo que cuando se alcanza la fase final de la enfermedad los daños se han extendido ampliamente y el volumen de los tejidos del cerebro ha disminuido considerablemente.

Como hemos apuntado, la proteína beta-amiloide se desnaturaliza y se apelmaza, formando agregados insolubles entre las células cerebrales (lo que hemos llamado placas seniles o placas de amiloide) que las dañan de forma irreversible. La desnaturalización de una proteína significa que se pliega mal, que pierde su estructura tridimensional y queda reducida a la cadena polipeptídica, un proceso que aumenta su viscosidad (facilitando su agrupamiento) y disminuye su solubilidad (lo que dificulta su eliminación). Esto es similar a lo que ocurre cuando cocinamos un huevo. La clara del huevo está formada básicamente por una proteína denominada ovoalbúmina que en condiciones naturales es incolora y soluble en agua. Sin embargo, al calentarla se vuelve opaca y se transforma en una masa blanca insoluble.

Proteína beta-amiloide (wikimedia commons).

Por otro lado, la proteína tau forma parte de una familia de proteínas que se expresa principalmente en las neuronas, participando en el mantenimiento de la forma celular y actuando como vía de transporte a través de los axones. Un mal plegamiento de esta proteína provoca la degeneración de las neuronas.

Los científicos no saben aún que provoca la desnaturalización de estas proteínas. Lo que sí se sabe es que el  proceso tarda más de 10 años en acumular la cantidad de proteína suficiente para provocar demencia a una persona.

Sobre este particular se están llevando a cabo importantes avances. Por ejemplo, se ha demostrado que ciertos individuos, por presentar una proteína ligeramente distinta a la habitual, tienen mayor riesgo de contraer la enfermedad 3. Se trata de la apolipoproteína de tipo E (ApoE-ε4) que participa, entre otras funciones, en la regulación de los niveles de colesterol en el cerebro. Esta proteína presenta tres formas ligeramente distintas (ApoE2, ApoE3 y ApoE4) pero solo la última guarda una relación estrecha con la aparición de la enfermedad de Alzheimer. En presencia del péptido beta-amiloide, la ApoE-ε4 pierde su estructura funcional, se desnaturaliza, lo que impide la correcta eliminación del beta-amiloide (que también sufre una modificación estructural) y favorece su acumulación en forma de placas que desemboca, como hemos visto, en las manifestaciones posteriores de la enfermedad. Para este caso concreto, los científicos han desarrollado una simulación computacional para establecer una primera aproximación sobre los mecanismos moleculares del reconocimiento entre las formas de ApoE y el beta-amiloide, logrando establecer por primera vez una base molecular del fenómeno. Actualmente están tratando de validar de forma experimental los fenómenos moleculares observados en las simulaciones.

La detección precoz

Podemos decir que hay dos problemas principales a la hora de enfrentarse a la enfermedad de Alzheimer. El primero es que no somos capaces de detectar con la suficiente antelación la formación de esas placas seniles que terminan por matar las neuronas. Dado el largo proceso de formación de estos agregados de proteínas y que los síntomas clínicos no se manifiestan hasta que el daño cerebral ya está muy avanzado, una prometedora vía para poner coto al  Alzheimer parte de encontrar mecanismos que permitan la detección precoz de la enfermedad.

En este sentido es posible hacer un seguimiento del proceso que desemboca en la enfermedad mediante técnicas que identifican los biomarcadores relacionados con ella. Un biomarcador es un indicador que se puede medir ―como la concentración de una proteína― y que varía en función del avance o regresión de una enfermedad.

TEP donde se muestra un cerebro sano (arriba) y otro con la enfermedad de Alzheimer (las placas seniles aparecen gracias al empleo del compuesto B de Pittsburgh).

Una forma de emplear los biomarcadores para la detección temprana de la enfermedad consiste en suministrar un trazador radioactivo, como el compuesto B de Pittsburgh, que se une al amiloide en el cerebro del paciente. Posteriormente se obtienen imágenes mediante tomografía de emisión de positrones (TEP) y se mide la concentración proteica.

Por otro lado, la acumulación de la proteína tau se puede detectar mediante un análisis del líquido cefalorraquídeo. Este análisis también permite identificar una disminución de los niveles de beta-amiloide en el líquido a medida que los péptidos van desapareciendo del mismo para acumularse en el cerebro. La observación simultánea de una disminución de los niveles de beta-amiloide y un aumento de tau en el líquido cefalorraquídeo indican claramente el avance de la enfermedad.

Ahora, dos nuevos estudios vienen a clarificar esta situación y arrojar un poco de esperanza con miras a lograr una mejor detección temprana de la enfermedad:

Biomarcadores lipídicos

En el trabajo publicado en la revista Nature medicine 4 el pasado mes de marzo, el equipo del Dr. Federoff plantea un novedoso enfoque que consiste en analizar un grupo de diez fosfolípidos para la detección de la enfermedad de Alzheimer antes de la manifestación clínica de los síntomas.

Para la realización del estudio los científicos contaron con la participación de un total de 525 personas mayores de 70 años, a quienes tomaron muestras de sangre y realizaron pruebas para analizar las habilidades cognitivas y de memoria una vez al año durante los cinco años que duró la investigación. La forma de proceder con los datos consistió en realizar análisis metabolómicos sin un objetivo específico 5 (lo que significa que no sabían qué estaban buscando) en muestras de plasma sanguíneo de 53 participantes con deficiencia cognitiva leve o enfermedad de Alzheimer ―incluyendo a 18 que habían desarrollado síntomas durante el estudio― y 53 que permanecían bien cognitivamente hablando como grupo de control.

La sorpresa llegó cuando constataron que había diez fosfolípidos 6 en niveles sistemáticamente bajos en la mayoría de los participantes que sufrían un deterioro cognitivo. La conclusión a la que han llegado es que ese panel de biomarcadores “predice” la aparición de un deterioro cognitivo leve amnésico o la enfermedad de Alzheimer, logrando anticiparse a la manifestación clínica de los síntomas en 2 o 3 años con más de un 90% de precisión.

Hemos de tener presente que, como exponen con cautela en su trabajo, la relación que han encontrado es puramente estadística y son necesarios nuevos ensayos con una muestra demográfica mayor. No se conoce la procedencia de estas moléculas aunque se sabe que están presentes en las membranas celulares. El punto de partida con el que abordarán nuevas investigaciones es que estos niveles reflejan la ruptura de las neuronas.

¿Qué papel desempeñan los lípidos en el cerebro? En palabras de Guojun Bu 7, profesor de neurociencia en la Clínica Mayo (EE.UU.) existen datos sólidos que apuntan a que el metabolismo de los lípidos cerebrales es esencial para mantener la integridad y las funciones de las sinapsis neuronales. En este sentido, se ha constatado (en modelos con ratones) que  la alteración del metabolismo de los lípidos cerebrales ocasiona un deterioro de las dendritas y de las sinapsis, así como neurodegeneración. No olvidemos que la mielina, la capa que envuelve los axones neuronales que permite la transmisión de los impulsos nerviosos está constituida, en términos generales, en un 40% por agua y, en seco, por un 70-85% de lípidos y un 15-30% de proteínas.

Por su parte, los fosfolípidos son la forma principal de lípidos que hay en las membranas celulares (incluidas las neuronas obviamente), donde juega un papel esencial la apolipoproteína E (ApoE) que analizamos más arriba. Esta proteína es uno de los principales transportadores de lípidos en el cerebro: su función es suministrar colesterol y otros lípidos a las neuronas para que mantengan las funciones sinápticas y puedan reparar los daños que se producen. En las personas que poseen la forma ApoE-ε4 se crea un fallo en esta cadena.

Biomarcadores proteicos

Otro hito importante para la detección temprana de esta enfermedad lo ha conseguido el equipo del Dr. Claudio Soto de la Universidad de Texas. Su trabajo ha demostrado que son capaces de detectar pequeños fragmentos de proteínas mal plegadas, los precursores de las placas seniles.

Las investigaciones más recientes han demostrado que el plegamiento erróneo de la proteína beta-amiloide y la formación de los nudos neurofibrilares siguen un mecanismo concreto: cuando se mezclan con la proteína equivalente, normal, los fragmentos mal plegados actúan como semillas para la formación de grupos más grandes. Este proceso genera varios productos intermedios, incluyendo oligómeros solubles y protofibrillas, antes de agruparse en placas. De hecho, se ha apuntado que los oligómeros beta-amiloide 8, en lugar de las grandes fibrillas amiloides, podrían ser los culpables de la neurodegeneración en la enfermedad de Alzheimer.

La proteína beta-amiloide comienza su vida como una molécula solitaria pero tiende a amontonarse en un proceso que comienza en pequeños grupos que siguen siendo solubles y pueden viajar libremente por el cerebro antes de formar finalmente las placas características de la enfermedad. En un artículo publicado hace unos meses 9, se comprobó por primera vez que en esta forma precursora, la proteína beta-amiloide puede unirse a un receptor en las células nerviosas, poniendo en marcha un proceso que erosiona sus sinapsis con otras células nerviosas. Esto implicaría que un fragmento de la proteína beta-amiloide comienza a destruir las sinapsis antes de que se formen las placas seniles que conducen a la muerte de esas neuronas.

Por este motivo, el equipo del Dr. Soto se ha centrado en estos precursores de las placas de amiloide, los oligómeros beta-amiloide, que pueden estar circulando por nuestro cuerpo durante años o décadas antes de que surjan los primeros síntomas.

La técnica, que analiza muestras del líquido cefalorraquídeo, se ha llamado amplificación cíclica de proteínas mal plegadas (PMCA por sus siglas en inglés) 10 y funciona por medio de ultrasonidos, rompiendo estos agregados en fragmentos más pequeños que transforman las proteínas normales en anómalas, logrando imitar lo que ocurre in vivo a lo largo de décadas en un corto espacio de tiempo. El proceso se repite cíclicamente hasta obtener la cantidad de proteínas necesaria para ser detectada por técnicas convencionales.

Los investigadores destacan que con esta técnica son capaces de distinguir los pacientes con enfermedad de Alzheimer de otros pacientes del grupo control afectados por una variedad de otros desórdenes neurodegenerativos con una sensibilidad del 90% y una especificidad del 92%.

Dado que lo que se analiza es el líquido cefalorraquídeo, un proceso caro y muy molesto para los pacientes, el equipo está embarcado ya en el siguiente paso que será adaptar la tecnología para su detección en sangre u orina.

 

El tratamiento

Paradójicamente, todavía se desconoce si la modificación de los niveles de beta-amiloide en el cerebro evitará la demencia, a pesar del conjunto importante de datos que indican la contribución de este péptido en la manifestación de la enfermedad.

Como hemos dicho, no existe aún ningún fármaco para el tratamiento del Alzheimer, por lo que cualquier medicamento que retrase la aparición de los síntomas o detenga su progresión es un buen objetivo mientras continúan las investigaciones para responder la ingente cantidad de preguntas pendientes. En la actualidad hay distintos fármacos en fase de investigación y desarrollo:

  • Inhibidores de las enzimas que producen beta-amiloides: la función de estos medicamentos es impedir o modificar la actividad de las enzimas que fragmentan una proteína de gran tamaño (la proteína precursora del amiloide) para convertirla en los péptidos beta-amiloides.
  • Vacunas o antibióticos que disuelven los beta-amiloides: inducen en el organismo la síntesis de anticuerpos que se unen al amiloide, que luego se eliminarán del cerebro. En los ensayos clínicos tanto las vacunas como los antibióticos han provocado efectos secundarios de diversa gravedad en algunos pacientes.
  • Inhibidores de la agregación de beta-amiloides: podrían evitar el daño en las neuronas al bloquear su unión.
  • Compuestos antitau: aunque menos numerosos que los dirigidos contra la ruta de los amiloides, estos fármacos adoptan diversas estrategias, como inhibir la producción de la forma tóxica de la proteína tau, o impedir que ésta forme ovillos de fibras.
  • Agentes neuroprotectores: diversas estrategias tratan de estimular ciertos compuestos naturales del cerebro que mejoran la salud de las neuronas. En una de ellas, se introduce un gen en el cerebro que da lugar a la síntesis de una sustancia protectora.

Queda mucho camino por recorrer, y serán necesarios grandes esfuerzos y recursos, pero está claro que el objetivo final lo merece.

Artículos principales

Mapstone M, Cheema AK, Fiandaca MS, Zhong X, Mhyre TR, Macarthur LH, Hall WJ, Fisher SG, Peterson DR, Haley JM, Nazar MD, Rich SA, Berlau DJ, Peltz CB, Tan MT, Kawas CH, & Federoff HJ (2014). Plasma phospholipids identify antecedent memory impairment in older adults. Nature medicine, 20 (4), 415-8 PMID: 24608097

Acceda directamente al artículo aquí.

Salvadores N, Shahnawaz M, Scarpini E, Tagliavini F, & Soto C (2014). Detection of misfolded aβ oligomers for sensitive biochemical diagnosis of Alzheimer’s disease. Cell reports, 7 (1), 261-8 PMID: 24656814

Acceda directamente al artículo aquí.

Más información

  • Alzforum (Alzforum es un lugar de encuentro para el intercambio de ideas, un depósito de artículos científicos y, quizás, la colección más completa de artículos periodísticos sobre la investigación del Alzheimer).

Notas

  1. Cada año se registran 7,7 millones de nuevos casos según la OMS.
  2. Fragmentos enrollados de proteína dentro de las neuronas que obstruyen la célula.
  3. Ver “In Silico Analysis of the Apolipoprotein E and the Amyloid β Peptide Interaction: Misfolding Induced by Frustration of the Salt Bridge Network” publicado en febrero de 2010 en PLoS Computational Biology.
  4. Plasma phospholipids identify antecedent memory impairment in older adults.
  5. Es decir, un análisis del conjunto de moléculas que constituyen los intermediarios metabólicos,  como los metabolitos, las hormonas y otras moléculas señal.
  6. Un fosfolípido es cualquier lípido que contiene fósforo. Los fosfolípidos son la forma principal de lípidos en las membranas celulares.
  7. Ver “Nuevos horizontes en el manejo de la enfermedad de Alzheimer leve”.
  8. Los oligómeros son polímeros formados por la combinación de relativamente pocos monómeros. En este caso hablamos de agregados solubles del péptido beta-amiloide.
  9. Ver “Human LilrB2 Is a β-Amyloid Receptor and Its Murine Homolog PirB Regulates Synaptic Plasticity in an Alzheimer’s Model”.
  10. Una técnica semejante a la PCR para el análisis genético pero aplicado a las proteínas.
Publicado por José Luis Moreno en MEDICINA, 9 comentarios
Siete días … 25 de noviembre a 1 de diciembre (Stonehenge)

Siete días … 25 de noviembre a 1 de diciembre (Stonehenge)

     Última actualizacón: 27 octubre 2017 a las 13:49

BIOQUÍMICA

Un grupo internacional de investigadores consigue descifrar desde cero la estructura de una proteína y prueba las posibilidades de una tecnología para conocer las piezas que componen el rompecabezas de la vida.

Un grupo internacional de investigadores ha logrado por primera vez generar con láseres de rayos X un modelo 3D de la lisozima, una proteína que abunda en la clara del huevo, sin tener conocimiento previo de su estructura. Eso ha sido posible gracias al láser de rayos X LCLS del Laboratorio Nacional de Aceleradores SLAC y a un sistema de análisis de datos por ordenador que ha dado sentido a la información obtenida con el láser.

Esta tecnología puede superar algunas de las limitaciones de la cristalografía de rayos X tradicional. Normalmente, los rayos X, cuando se proyectan sobre los compuestos orgánicos que se pretende estudiar, pueden descolocar los átomos y sacarlos de su posición natural dentro de la estructura de la molécula. Además, para conocer esa estructura es necesario exponer a las moléculas que se quieren analizar a dosis importantes de radiación que dañan la información que contienen. Este problema se puede resolver en moléculas que forman grandes cristales bien ordenados, pero ese no es el caso de la mayor parte de las moléculas orgánicas. El sistema de cristalografía de láseres de rayos X somete a las estructuras que quiere estudiar a intensos bombardeos de rayos X, pero en un periodo extremadamente breve, del orden de los femtosegundos (en un segundo hay mil billones de femtosegundos). De esta manera, es posible obtener la información necesaria para reconstruir la estructura natural de la molécula antes de destruirla.

Los autores del artículo quieren pulir su técnica para poder estudiar proteínas aún más complejas, como las proteínas de la membrana que cubre las células, que son la diana a la que van dirigidos más de la mitad de los nuevos fármacos en desarrollo. Hasta ahora, solo se conoce en detalle la estructura de unas pocas de esas proteínas de membrana y el diseño de los medicamentos que funcionan porque se vinculan a ellas podría ser mucho más preciso, mejorando un sistema que tiene mucho de ensayo y error.

• Noticia Materia

• Artículo: De novo protein crystal structure determination from X-ray free-electron laser data

GENÉTICA

Exigen la retirada del estudio que vinculaba transgénicos con tumores.

Ratas alimentadas con maíz transgénico que desarrollaban en una proporción alarmante unos tumores del tamaño de una pelota de ping-pong. El estudio que el año pasado publicó la revista Food and Chemical Toxicology parecía mostrar el vínculo entre los alimentos modificados genéticamente y el cáncer. De hecho, se trataba, aparentemente, de la primera prueba científica de esta relación. El artículo, firmado por el biólogo molecular Gilles-Eric Séralini, fue recibido con escepticismo por la comunidad científica desde el primer día. Ahora, un año después, el director de la revista ha hecho pública una carta dirigida a Séralini en la que le pide que se retracte del artículo. Si no lo hace, le dice, será la publicación la que lo retire.

El editor jefe de la revista, A. Wallace Hayes, explica que un comité de expertos lleva meses revisando los datos proporcionados por los investigadores después de haber recibido cartas al editor posteriores a la publicación del artículo. «El comité expresó muchas dudas sobre la calidad de los datos y finalmente recomendó la retirada del artículo. He intentado contactar con usted para hablar de las razones de esta recomendación. Si no está de acuerdo con retractarse del artículo, este será retirado», le dice a Séralini.

El equipo de la Universidad de Caen, liderado por Séralini, investigó durante dos años a 200 ratas de laboratorio a las que dividió en tres grupos: las que alimentaron con el maíz transgénico NK603 (producido por Monsanto) en distintas proporciones (11%, 22% y 33% de su dieta); aquellas a las que además le suministraron Roundup, el herbicida al que la modificación genética las hace resistentes; y los roedores que crecieron tan solo con maíz no transgénico. Resultó que, pasados 17 meses desde el comienzo del estudio, habían muerto cinco veces más animales masculinos alimentados con el maíz modificado genéticamente.

“Por primera vez en el mundo, se ha evaluado un transgénico y un pesticida por su impacto en la salud de una forma más amplia que la realizada hasta ahora por los Gobiernos y la industria. Los resultados son alarmantes”, declaró entonces Séralini. Pero otros científicos enseguida pusieron en tela de juicio dos cuestiones: el reducido número de animales estudiados y la elección de un tipo de rata, llamado Dawley, que es muy sensible a las mutaciones y a los tumores.

• Noticia El País

NEUROCIENCIA

Investigadores del Centro de Regulación Genómica (CRG) de Barcelona han hallado un gen responsable de la susceptibilidad a padecer un trastorno de pánico, una patología que afecta a un 5 % de la población y que se encuentra incluida entre las enfermedades relacionadas con la ansiedad.

Cinco de cada cien personas en España sufren un trastorno de pánico, una enfermedad incluida dentro de los trastornos de la ansiedad, y padecen ataques de miedo frecuentes y repentinos que pueden acabar influyendo en su vida cotidiana y, en ocasiones, incluso incapacitarlas para realizar acciones cotidianas, han señalado fuentes del CRG.

Aunque se sabía que esta enfermedad tenía una base neurobiológica y genética y se intentaban hallar los genes implicados en el desarrollo de la enfermedad, hasta ahora no se conocía la contribución fisiopatológica de los genes.

Esta investigación ha descrito por primer vez que el gen ‘ntrk3′, responsable de codificar una proteína esencial para la formación del cerebro, es un factor para desarrollar el pánico.

“Hemos visto que la desregulación de ‘ntrk3′ produce cambios en el desarrollo cerebral que conllevan que la memoria relacionada con el miedo no funcione correctamente”, ha explicado la investigadora Mara Dierssen, líder del grupo de Neurobiología celular y de sistemas del CRG.

• Noticia EFE

• Artículo: Hippocampal hyperexcitability underlies enhanced fear memories in TgNTRK3, a panic disorder mouse model

CIENCIAS PLANETARIAS

Un equipo de astrofísicos del Centro Aeroespacial Alemán (DLR) ha descubierto a 2.500 años luz de la Tierra el sistema planetario más extenso hasta la fecha, con la excepción del nuestro propio. Siete planetas giran alrededor de la estrella KOI-351, dispuestos en una manera similar a los ocho mundos del Sistema Solar, con pequeños planetas rocosos cerca de la estrella madre y los gaseosos gigantes a distancias mayores. Estos mundos se mueven más cerca unos de otros que los de nuestro hogar cósmico, pero proporcionan una interesante comparación, afirman sus descubridores.

«Ningún otro sistema planetario muestra una “arquitectura” tan similar a la de nuestra casa cósmica como lo hace el sistema planetario alrededor de KOI -351», dice Cabrera, uno de los investigadores.

• Artículo: The planetary system to KIC 11442793: A compact analogue to the Solar System (descarga directa en formato PDF)

INGENIERÍA

Hasta ahora tenían forma de avión de juguete caro, pero no es extraño que dentro de poco aparezcan con forma de pájaros, insectos…o de medusas. La revista “The American Physical Society” ha publicado un estudio de la Universidad de Nueva York sobre el diseño de un robot aéreo inspirado en el mecanismo de locomoción de este animal marino.

Este prototipo pesa tan sólo dos gramos y tiene únicamente ocho centímetros de envergadura. Vuela con cuatro alas, que asemejan los tentáculos de las medusas o los pétalos de una flor. De momento, es capaz de mantenerse suspendido en el aire, de ascender y de volar hacia una dirección concreta.

Su sistema de locomoción se basa en una fuente de energía externa a la que está unida, pero con la que no puede ni volar automáticamente ni a través de control remoto. Para sus creadores, estas limitaciones no son importantes porque su objetivo era ser capaz de reducir el tamaño de los robots aéreos de modo que puedan infiltrarse fácilmente sin ser detectados. «Cuanto más sencillo, mejor. Y nuestro modelo es uno de los más sencillos, puesto que sólo utiliza alas desplegables», explica Leif Ristroph, uno de los componentes del grupo de investigación.

Otro aspecto del que sus autores se muestran especialmente satisfechos es que han conseguido que el aparato sea estable. «Para mantenerse y maniobrar, una mosca debe estar constantemente controlando su ambiente, ajustando sus movimientos en fracciones de segundo», continúa Ristroph. Es este complejo mecanismo de vuelo el que dificulta recrear un robot-insecto y uno de los motivos por los que Ristroph y su equipo cambiaron de ‘musa’.

• Noticia El Mundo

• Artículo: A simple computational model of a jellyfish-like flying machine

ARQUEOLOGÍA

El origen de las piedras de Stonehenge no está donde se creía. Durante casi un siglo los arqueólogos que han trabajado para resolver uno de los misterios que envuelven el anillo de Stonehenge, el origen de las piedras, habrían estado buscando en el lugar incorrecto. Los enormes bloques que se necesitaron para construir el conjunto del Neolítico, uno de los mayores quebraderos de cabeza para los expertos, se habían situado hasta ahora en las Colinas Preseli en Pembrokshire.

Sin embargo, el responsable de Geología del Museo Nacional de Gales, Richard Bevins, ha llevado a cabo un estudio geoquímico comparativo de las piedras de Stonehenge y de las que hay en el supuesto lugar de su origen, Carn Meini, en Preseli cuyo resultado evidencia que tienen perfiles distintos.

Bevins y su equipo han utilizado muestras del célebre anillo del Neolítico, uno de los monumentos más emblemáticos de la humanidad, envuelto en todo tipo de cábalas y teorías y han concluido que  en realidad las piedras se corresponden con una cantera situada en las mismas colinas Preseli, pero en Carn Goedog, a casi dos kilómetros de distancia.

Preseli, y concretamente Carn Meini, fue el lugar identificado en 1923 por el renombrado geólogo Herbert Henry Thomas que estableció que el tipo de piedra conocido como “Bluestone” fue el utilizado por los habitantes prehistóricos de Gran Bretaña para erigir Stonehenge. Desde entonces, numerosos equipos de arqueólogos y geólogos han trabajado en lugar con el objetivo de averiguar más datos sobre el mítico conjunto.

Las revelaciones de Richard Bevins siguen sin responder el verdadero enigma de las piedras de Stonehenge, la forma en la que fueron trasportadas desde Preseli, ya fuera Carn Meini o Carn Goedog, como apunta el nuevo estudio, ya que ambas se encuentran a una distancia de más de 300 km de Wiltshire, cerca de Salisbury, en el corazón del Sur de Inglaterra, donde se erige desde hace unos 4.500 años Stonehenge.

• Noticia La Aventura de la Historia

• Artículo: Carn Alw as a source of the rhyolitic component of the Stonehenge bluestones: a critical re-appraisal of the petrographical account of H.H. Thomas

PSICOLOGÍA

Los sentimientos automáticos, viscerales y más bien inconscientes que tenemos hacia nuestras nuevas parejas tienden a ser acertados, según se puede comprobar en la vida real cuatro años después. De hecho, son siempre más acertados que esos otros sentimientos, los que albergamos con plena consciencia y admitimos abiertamente a la mínima ocasión. Son los resultados de una investigación de psicología experimental que tres universidades estadounidenses han estado haciendo con 135 parejas durante los últimos cuatro años, y lo bastante sólido como para presentarlo en la revista Science.

El responsable de la investigación, el psicólogo James McNulty de la Universidad Estatal de Florida, tal vez sea el primer científico que ha titulado un artículo técnico con un twit: “Aunque lo desconozcan, los recién casados conocen de forma implícita si su matrimonio será grato”. Directo, al punto y claro como el cristal.

Una tradición de la psicología social ha sostenido durante décadas que los procesos automáticos de la mente producen efectos sociales, pero la teoría carecía hasta ahora de soporte empírico y había empezado a ser cuestionada. El experimento de McNulty y sus colegas aporta exactamente esa clase de evidencia que se echaba de menos.

Los psicólogos han estudiado a 135 parejas heterosexuales desde que estaban recién casadas hasta cuatro años después, haciéndoles un examen cada seis meses durante ese periodo. Cada vez les han preguntado —por supuesto, a cada miembro de la pareja por separado— sus sentimientos explícitos sobre el cónyuge. Pero también han medido, con los trucos enrevesados típicos de la psicología experimental, sus sensaciones viscerales sobre su pareja, la clase de sentimiento que no se revela filtrada ni metabolizada por la razón, sino que surge virgen y brutal de las capas más oscuras de nuestro cerebro profundo o reptiliano.

• Noticia El País

• Artículo: Though they may be unaware, newlyweds implicitly know whether their marriage will be satisfying

PUBLICACIONES CIENTÍFICAS

Una investigación del departamento de prensa de Science revela un mercado negro en auge de las publicaciones científicas en China, donde los investigadores están dispuestos a pagar decenas de miles de yuanes para que añadan sus nombres al trabajo de otra persona. Añadir dos nombres costaría unos 26.300 dólares.

Mara Hvistendahl, editora colaboradora de Science, publica un artículo en la última edición de la revista sobre la investigación a 27 empresas chinas para comprobar si venden la autoría de los artículos científicos al mejor postor. Según la autora del texto, esta práctica “sin escrúpulos” ha ido en aumento.

“Muchos artículos de revistas científicas chinas los venden las empresas, de acuerdo con los editores. Así que los investigadores que ponen sus nombres a los documentos no son necesariamente las personas que lo escribieron”, declara a SINC Hvistendahl.

Para llevar a cabo esta investigación encubierta que duró cinco meses, el personal del departamento de prensa de Science se hizo pasar por estudiantes de posgrado y científicos que querían comprar la autoría de un artículo o pagar a la empresa por escribir un estudio para ellos.

Solo cinco de las 27 empresas contactadas declararon que se negarían a hacer una de estas prácticas.

“El científico encubierto accedía a los teléfonos que aparecen en sus webs y a las ventanas de chats que se abren en sus páginas para contactar. Este es uno de los muchos ejemplos: http://sciedit.cn/”, indica Hvistendahl.

La investigación recalca que no hay víctimas obvias de esta práctica ilegítima ya que tanto los científicos como las empresas y las editoras se benefician de ella.

• Noticia Agencia SINC

• Artículo: China’s publication bazaar

Publicado por José Luis Moreno en SIETE DÍAS, 1 comentario
ENCODE – Enciclopedia de los elementos del ADN

ENCODE – Enciclopedia de los elementos del ADN

     Última actualizacón: 19 marzo 2018 a las 11:00

En 1958, en el simposio de la Sociedad de Biología Experimental, Francis Crick 1 (descubridor junto con James Watson de la estructura molecular del ADN, la famosa “doble hélice”) propuso el dogma central de la biología molecular basado en el flujo unidireccional de información del ADN a la proteína: del ADN la información pasa por transcripción al ARN, y de éste, por traducción, a la proteína, elemento que realiza la acción celular.  Si bien fue reformulado más tarde en la revista Nature 2, no debemos olvidar que la ciencia no es amiga de los dogmas por muy claros que parezcan algunos procesos.

La ciencia ya ha conocido un intento de estudiar a fondo nuestro código genético.  El objetivo del Proyecto Genoma Humano era conocer en profundidad nuestros genes ya que cuando se decidió acometer la empresa, se pensaba que sobre ellos gravitaba la esencia de lo que somos: conociendo los genes ―se afirmaba―, las funciones que desempeña cada uno, se sabría todo lo que se precisa para entender la vida humana o, al menos, sus patologías.

De esta forma, en el año 2000 se presentó con gran bombo político y mediático por el entonces Presidente de los EE.UU. Bill Clinton y el Primer Ministro británico Tony Blair, un borrador de resultados que se completó en 2003 con la secuenciación completa del genoma humano.

Sin embargo, como sucede a menudo, las expectativas fueron más allá de unos hechos que suelen ser muy tozudos una vez se estudian en profundidad.  Cuando se analizaron los resultados, los científicos se toparon con un número inferior de genes de lo previsto: tenemos alrededor de 20.000 genes codificadores de proteínas, una suma muy pequeña para la gran cantidad de información que se les atribuía.  Además de esta circunstancia, nos percatamos de que no hay una relación lineal entre el número de genes y la complejidad del organismo: es cierto que las bacterias tienen alrededor de 5.000 genes, pero el ser humano tiene más o menos el mismo número de genes que los erizos de mar, y una cantidad notablemente inferior que una salamandra, el arroz (que posee 57.000 genes) u otros vegetales.  Para complicar aún más el panorama, estos genes codificadores de proteínas representan únicamente el 1% de los 30.000 millones de nucleótidos que encontramos en el ADN humano.

Introducción. Genética

Para comprender en su justa medida los avances que ha supuesto el Proyecto ENCODE, se hace necesario contar con unos conocimientos genéticos básicos.  Para todos aquellos que ya los posean, pueden continuar leyendo el siguiente bloque.

Para nuestros propósitos, definimos un gen desde el punto de vista molecular como una secuencia de ADN que influye en la función y forma de un organismo al codificar y dirigir la síntesis de una proteína.  Por otro lado, una proteína es una molécula formada por aminoácidos (una proteína de tamaño medio puede tener 150 aminoácidos) con funciones muy variadas y que resultan esenciales para la vida.  A modo de ejemplo, entre ellas se incluyen las enzimas (que actúan como catalizadores), los componentes estructurales de las células, de los tejidos (como las que forman parte de los músculos, del cartílago, el pelo etc.) así como factores controladores de la expresión del gen.

¿Cómo se forma una proteína? Para sintetizar una proteína se hace necesario contar con unas instrucciones: el código genético.  Un gen está constituido por una sucesión de nucleótidos.  El lenguaje genético se distingue de cualquier idioma moderno en que las letras no son nucleótidos únicos, sino combinaciones de tres de ellos.  Ya que el ADN posee cuatro tipos de nucleótidos (A, C, G y T por adenina, citosina, guanina y timina) existen 64 combinaciones distintas de tripletes (que llamamos codones porque codifican aminoácidos).  Estas 64 combinaciones o tripletes forman las 21 letras del alfabeto genético entre las que se incluyen los signos de puntuación (hay algunos tripletes que son redundantes, es decir, sinónimos): 61 tripletes codifican los 20 aminoácidos existentes necesarios para formar una proteína, mientras que los tripletes restantes son señales que indican cuando termina la secuencia.

Como hemos dicho, existen un total de veinte aminoácidos, diez de los cuales se denominan “esenciales” porque el ser humano no los puede sintetizar: debemos obtenerlos a través de la alimentación ya que su ausencia provoca daños graves en el organismo.

Pues bien, Crick definió el mecanismo básico a través del cual la información contenida en la secuencia de un gen pasa a sintetizar una proteína concreta: primero la “transcripción” y luego la “traducción”.  La transcripción es un proceso por el que la información contenida en la secuencia de bases (A, C, G y T) se transforma en una secuencia de ARN complementaria (llamada ARN mensajero).  Acto seguido entra en juego la traducción, que es el proceso por el que una vez formados los ARN mensajeros, éstos se encargan de tomar los aminoácidos que constituirán la proteína (esto sucede así porque el ADN no sale nunca del núcleo celular: las “fábricas” de las proteínas, los ribosomas, se encuentran fuera de él de modo que el ARN mensajero debe llevar ese “mensaje” al exterior).

En resumen, la secuencia de nucleótidos (a través de los codones o grupo de tres nucleótidos) determina el orden de los aminoácidos que formarán la proteína.  El ARN mensajero se encarga de trasladar esa secuencia a los ribosomas que fabricarán la proteína con esa sucesión concreta de aminoácidos.

Para que nos hagamos una idea de lo complejo que resulta nuestro código genético, las alrededor de 30.000 proteínas diferentes del cuerpo humano están constituidas por 20 aminoácidos, y es la molécula de ADN la que debe especificar el orden concreto en que unen esos aminoácidos.

Una vez comprendido el mecanismo básico de síntesis de proteínas, ahondemos un poco más en nuestro genoma.  En los seres humanos, como en otros animales y plantas, solo una fracción del ADN (aproximadamente un 1% en humanos) codifica la síntesis de proteínas: son los llamados genes estructurales.  El resto está implicado en tareas como regular la expresión del ADN, separar unos genes de otros y otras funciones: se trata de los genes reguladores, que determinan en qué tejidos, en qué momento o en qué cantidad se ha de sintetizar una proteína determinada.  Sin embargo, los investigadores observaron que la mayor parte del ADN parecía no tener función ninguna: de ahí que recibiera el nombre de “ADN basura” (“junk DNA” en inglés).

Fue el genetista japonés Susumu Ohno quien acuñó este término en 1972 3.  El llamado ADN basura o ADN no codificante, representa secuencias de nucleótidos que no parecen contener genes o tener ninguna función.  Porqué la evolución había mantenido una gran cantidad de ADN “inútil” era un misterio (llamado enigma o paradoja del valor de C), y parecía un despilfarro, algo que se ha desvelado en parte gracias a este proyecto de investigación que aún sigue en curso.

Proyecto ENCODE

El Proyecto ENCODE (enciclopedia de los elementos del ADN) ha sido diseñado para continuar los trabajos donde terminó el Proyecto Genoma Humano.  Aunque este proyecto reveló el diseño de la biología humana, quedó claro que el manual de instrucciones para leer ese diseño era, en el mejor de los casos,  impreciso.  Los investigadores pudieron identificar en sus treinta mil millones de letras muchas de las regiones que codificaban proteínas, aunque éstas constituyen, como hemos señalado, poco más del 1% del genoma en alrededor de 20.000 genes.

Ya antes de acometerse el proyecto, muchos biólogos sospechaban que la información responsable de la maravillosa complejidad de los humanos estaba en algún lugar de los “desiertos” entre los genes:

Aún hoy, mucho después del descubrimiento de secuencias repetitivas y los intrones, señalar que el 25 por ciento de nuestro genoma consiste en millones de copias de una secuencia aburrida no causa ninguna conmoción.  Todos encuentran convincente el argumento de que si este ADN fuera totalmente inútil, la selección natural ya lo habría eliminado.  En consecuencia, debe de tener una función aún por descubrir.  Algunos incluso piensan que podría estar ahí en previsión de una evolución futura (esto es, para permitir la creación de nuevos genes).  Si así se hizo en el pasado, argumentan ¿por qué no en el futuro?

Brenner, S. (1998), «Refuge of spandrels». Current Biology, vol. 8, núm. 19, p. R669.

Además de para la biología molecular, la especial configuración de nuestro genoma ha supuesto y sigue siendo un reto para la antropología evolutiva:

De los tres mil millones de letras que componen el genoma humano, sólo quince millones, menos de un 1%, han sufrido algún cambio desde que el linaje de los chimpancés y el de los humanos divergieron hace unos seis millones de años.  La teoría evolutiva sostiene que el efecto de la inmensa mayoría de estos cambios es pequeño o nulo en nuestra biología.  Sin embargo, entre estos 15 millones de bases se encuentran las diferencias que nos hacen humanos.  La evolución desde un ancestro de humanos y chimpancés hasta un ser humano no resulta de que se acelere el tic-tac del reloj molecular en su conjunto; el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo.

Pollard, K. S. (2009), «¿Qué nos hace humanos?». Investigación y Ciencia, núm. 394, p. 24-29.

Por ello, tras una fase piloto entre los años 2003 y 2007, el estudio, financiado con 80 millones de dólares por EE.UU., se propuso como meta cartografiar este terreno que se creía baldío.  El objetivo es catalogar las secuencias funcionales de ADN que están escondidas ahí, enterarse de cuándo y en qué células están activas, y rastrear sus efectos en la forma de empaquetar, regular y leer el genoma.

El proyecto ha combinado los esfuerzos de 442 científicos de 32 laboratorios en Reino Unido, EE.UU., Singapur, Japón, Suiza y España (se incluyen el Centro de Regulación Genómica en Barcelona y el Centro Nacional de Investigaciones Oncológicas (CNIO, en Madrid).  Los investigadores se han centrado en 24 tipos de experimentos estándar y aunque el genoma es el mismo en la mayoría de las células humanas, la forma en que este actúa no (el ADN contenido en las células de nuestros ojos por ejemplo, no necesita formar pelos o uñas).  Por este motivo, se han llevado a cabo estos experimentos en múltiples tipos celulares ―al menos 147― dando lugar a los 1.648 experimentos que ENCODE ha hecho públicos.

Por este motivo, precisamente porque el ADN se comporta de forma distinta en diferentes tipos de células, el proyecto de investigación continúa en marcha: faltan por estudiar muchas más células y tejidos para conocer mejor cómo funciona nuestro ADN y qué hace para producir unos órganos u otros.

Los resultados obtenidos hasta ahora son, en cualquier caso, sorprendentes: el 80% del genoma contiene elementos vinculados a funciones bioquímicas, dando al traste con la visión generalmente aceptada de que el genoma humano era en su mayor parte “ADN basura”.  Se han detectado más de 70.000 regiones promotoras ―los lugares donde las proteínas se unen para controlar la expresión de los genes― y cerca de 400.000 regiones potenciadoras ―que regulan la expresión de genes distantes (se trata de controladores que no tienen porqué estar localizados cerca de los genes sobre los que actúan, ni siquiera en el mismo cromosoma. La estructura tridimensional de nuestro genoma está formada de un modo que, aunque el controlador esté lejos de los genes si leemos la secuencia linealmente, geométricamente está próximo al promotor y al gen ya que se encuentran envueltos alrededor para contactar con ellos).

Hemos encontrado que una gran parte del genoma ―de hecho, una cantidad sorprendente― está implicada en controlar cuándo y dónde se producen las proteínas más allá de su simple fabricación.

Ewan Birney, coordinador de análisis del proyecto.

La imagen de un interruptor es perfectamente válida para comprender estos mecanismos.  Determinadas secuencias dicen cuándo y dónde deben encenderse o apagarse determinados genes, así como la intensidad del funcionamiento.

Los elementos reguladores son responsables de garantizar que las proteínas del cristalino estén en las lentes de tus ojos y que la hemoglobina esté en tu sangre, y no en cualquier otro lugar. Es muy complejo. El procesamiento de la información y la inteligencia del genoma reside en los elementos reguladores. Con este proyecto, probablemente hemos podido pasar de comprender menos del 5% a cerca del 75% de ellos.

Jim Kent, director del Centro de Coordinación de los Datos (UCSC) de ENCODE.

Con estos datos en la mano comenzamos a entender cómo los relativamente pocos genes que codifican proteínas bastan para proporcionar la complejidad biológica necesaria para hacer crecer y funcionar un ser humano.  Como propugnaba Katherine Pollard, «el secreto radica en que se den cambios rápidos en lugares donde se producen cambios sustanciales en el funcionamiento del organismo».

Gracias a esta visión más completa del funcionamiento de nuestro código genético, se ha creado la oportunidad para comprender cómo afectan las variaciones genéticas a los distintos rasgos humanos y las enfermedades.  Características como la altura y la inteligencia, o enfermedades como el Alzheimer van a poder ser analizadas desde un nuevo paradigma.  Desde 2005, los estudios a gran escala del genoma humano (GWAS, genome-wide association studies) que asocian variaciones en la secuencia del ADN con rasgos específicos y enfermedades han mostrado miles de puntos del genoma donde la diferencia en un simple nucleótido parece estar asociada con el riesgo de padecer una enfermedad.  Pero dado que casi el 90% de estas variaciones caen fuera de los genes que codifican proteínas, hasta ahora los investigadores tenían pocas pistas en la forma en que podían causar o afectar a una enfermedad o rasgo fenotípico.

Pero asociación no es causalidad, y la identificación de estas variantes y la comprensión de la forma en que ejercen esa influencia ha sido difícil.

Por ejemplo, las variantes de ADN asociadas a la diabetes se producen en la parte del genoma ahora estudiada, pero no en cualquier punto, sino en la zona que regula los genes que controlan aspectos del metabolismo del azúcar o de la secreción de insulina. Otro ejemplo son las variantes que se dan en las zonas que regulan en sistema inmunológico y que han podido vincular a enfermedades como la esclerosis múltiple, el asma o el lupus.

El proyecto Genoma Humano fue como viajar a la Luna, se hizo con una tecnología primitiva y a base de mucha fuerza bruta.  Encode, sin embargo, es como un viaje a Marte.

Alfonso Valencia, investigador del Centro Nacional de Investigaciones Oncológicas (CNIO).

Del mismo modo, la exploración del gran número de elementos reguladores revelados por el proyecto y la comparación de sus secuencias con las de otros mamíferos promete cambiar la forma de pensar de los científicos acerca de la evolución del ser humano.

Esto es así porque uno de los grandes desafíos de la biología evolutiva es comprender cómo las diferencias en la secuencia del ADN entre especies determinan las diferencias en sus fenotipos.  El cambio evolutivo puede tener lugar tanto a través de cambios en las secuencias de codificación de proteínas como por cambios en la secuencia que alteran la regulación genética.

Se ha argumentado que los potenciales cambios adaptativos en las secuencias que codifican proteínas pueden ser impedidos por la selección natural porque, aun cuando pueden ser beneficiosas para un tipo celular u órgano, pueden ser perjudiciales en algún otro lugar del organismo.  Por el contrario, dado que las secuencias reguladoras de genes frecuentemente se hayan asociadas con patrones temporal y espacialmente específicos de expresión, los cambios en estas regiones pueden modificar la función sólo de determinados tipos celulares en momentos concretos, haciendo que sea más probable que confieran una ventaja evolutiva.

En definitiva, costará un gran trabajo identificar los cambios críticos en la secuencia de los nuevos elementos reguladores que han sido identificados y que suponen las diferencias entre los humanos y otras especies.

A pesar de la gran cantidad de información ofrecida por ENCODE, aún estamos lejos del objetivo final: comprender el funcionamiento del genoma en cada célula de cada persona, así como a través del tiempo en esa misma persona.  Serán necesarios muchos años más de investigación para completar el nuevo cuadro que se ha abierto ante nosotros.

Referencias

Maher, B. (2012). ENCODE: The human encyclopaedia Nature, 489 (7414), 46-48 DOI: 10.1038/489046a

Ecker, J., Bickmore, W., Barroso, I., Pritchard, J., Gilad, Y., & Segal, E. (2012). Genomics: ENCODE explained. Nature, 489 (7414), 52-55 DOI: 10.1038/489052a

Frazer, K. (2012). Decoding the human genome. Genome Research, 22 (9), 1599-1601 DOI: 10.1101/gr.146175.112

Para facilitar la labor de los investigadores, la revista Nature ha creado un portal específico para explorar los 30 artículos publicados mediante un sistema que complementa los documentos al poner de relieve los temas que son tratados sólo en las subsecciones de los trabajos individuales. Cada hilo o trama (thread en inglés) consta de los párrafos pertinentes, las figuras y las tablas de todos los artículos, unidos en torno a un tema específico.

Por mi parte, os dejo un listado de los artículos publicados con accesos directos para leer su contenido (su acceso es libre).

Notas

  1. Crick, F. H. (1958), «On protein synthesis». Symposia of the Society for Experimental Biology, vol. 12, p. 138-163.
  2.  Crick, F. H. (1970), «Central dogma of molecular biology». Nature, vol. 227, núm. 5258, p. 561-563.
  3. Ohno, S. (1972), «So much «junk» DNA in our genome». Brookhaven Symposia in Biology, vol. 23, p. 366-370.
Publicado por José Luis Moreno en CIENCIA, 8 comentarios