José Luis Moreno

Doctor en Derecho. Jurista amante de la ciencia y bibliofrénico. Curioso por naturaleza.
Doctor en Derecho. Jurista amante de la ciencia y bibliofrénico. Curioso por naturaleza.
Para entender la paleoantropología. 4ª parte: el arbusto evolutivo

Para entender la paleoantropología. 4ª parte: el arbusto evolutivo

     Última actualizacón: 26 febrero 2018 a las 18:56

Cuando nos enfrentamos al estudio de la evolución humana desde una posición no académica, es habitual sentirse perdido ante una maraña de nombres extraños que va creciendo y complicándose cada cierto tiempo. Los intentos de hacer más comprensible el panorama han tenido un éxito relativo para los «no iniciados», pero en cualquier caso me gustaría aportar mi pequeño grano de arena a la cuestión.

Ya hemos comentado la importancia de contar con suficientes fósiles para el estudio de la evolución humana, así como los esfuerzos llevados a cabo por distintos especialistas para arrojar luz en la complicada tarea de poner orden en lo que, en principio, no parece más que un conjunto de restos de huesos desperdigados por todo el planeta. Me propongo abordar ambas cuestiones juntas y ver qué podemos sacar en claro.

El primer concepto que tenemos que comprender es el de «hominino». En algún momento de la historia evolutiva de los hominoideos 1 se abrió un camino que condujo al ser humano de aspecto moderno: un hominino es un prehumano, un ser previo a nuestra especie (aunque nosotros, los seres humanos modernos, también somos homininos). La cuestión clave en este tema es que estos antepasados prehumanos deben parecerse más a nosotros que a los chimpancés (de quienes nos separamos hace aproximadamente 7 Ma). Son homininos, por tanto, los humanos actuales y nuestros antecesores tanto directos como colaterales ya desaparecidos que no lo son a su vez de los chimpancés.

Otros dos conceptos clave son el de género y especie. La paleoantropología sigue –en términos generales 2– una definición de «especie» basada en criterios morfológicos: dos o más poblaciones representan diferentes especies paleontológicas si la variación (morfológica) entre ellas es claramente mayor que la variación dentro de cada una. Por lo tanto, el ver en las muestras fósiles una o varias especies dependerá de dos factores. El primero es cuánta variabilidad morfológica debe permitirse dentro de una única especie (los esqueletos de dos seres humanos modernos de idéntica edad y sexo no tienen exactamente el mismo tamaño ni forma); y el segundo, cuánta de esta diferencia morfológica puede explicarse a causa de los dimorfismos sexuales (los esqueletos de machos y hembras de una misma especie presentan tamaños diferentes).

En cuanto al «género», seguiremos la tesis propuesta por Ernst Mayr. Mayr consideraba el género como indicativo de un tipo de ser adaptado a unas condiciones particulares. Todas las especies incluidas dentro de un género son aquellas que se adaptan a su ecosistema de una manera diferente a como lo pueden hacer las que pertenecen a otros géneros próximos. En el caso de los miembros de la tribu Hominini, vemos que éstos pueden encuadrarse dentro de las siguientes estrategias adaptativas:

  1. Los primeros seres que adoptan la postura bípeda cuando se desplazan por el suelo. Mantienen buena parte de los rasgos primitivos en la masticación.
  2. Los homininos que aprovechan la locomoción erguida para ir ocupando áreas de sabana abierta a medida que el clima africano se enfría y los bosques disminuyen de tamaño. Adaptan su dentición a las nuevas condiciones ambientales.
  3. Los homininos que, hace alrededor de 2,5–3,5 Ma, se especializan en una alimentación vegetal de sabana y desarrollan grandes aparatos masticatorios.
  4. Por último, los homininos que, en fechas cercanas a esos 2,5–3,5 Ma, mantienen aparatos masticatorios relativamente gráciles. En este género se incluyen también los sucesores dentro del linaje que, con el tiempo, desarrollaron grandes cerebros y fabricaron instrumentos de gran precisión.

Estas cuatro estrategias adaptativas permiten identificar cuatro géneros dentro de nuestro linaje. Pueden parecer pocos, pero se corresponden con los distintos procesos de diversificación que podemos establecer con pocas dudas: Ardipithecus, Australopithecus, Paranthropus y Homo. Dentro de ellos vamos a mencionar diferentes especies, las más aceptadas en términos generales, aunque algunas de ellas son objeto de discusión.

Resumiendo, dado que estamos tratando con restos fósiles –que son siempre fragmentarios– en la búsqueda de nuestros antepasados, debemos tratar de identificar al menos un carácter apomorfo, un carácter compartido por todos los miembros de un grupo (en nuestro caso la tribu Hominini) que haya sido heredado de su especie ancestral. Lo que buscamos son los rasgos derivados, aquellos rasgos compartidos por todos los homininos que hayan existido alguna vez. ¿Existe un rasgo así, un carácter que, si lo encontráramos en un fósil nos permitiera decir que ese ejemplar es un hominino?

La respuesta a esta pregunta también está sujeta a interpretaciones. Muchos especialistas consideran la lista de apomorfias recogidas por Sean Carroll 3 como una buena aproximación:

  • Forma del cuerpo y tórax.
  • Propiedades craneales (caja craneal y cara).
  • Tamaño relativo del cerebro.
  • Longitud relativa de las extremidades.
  • Larga ontogenia y tiempo de vida.
  • Caninos pequeños.
  • Cráneo equilibrado en lo alto de la columna vertebral.
  • Vello corporal reducido.
  • Pulgar alargado y dedos acortados.
  • Dimensiones de la pelvis.
  • Presencia de una barbilla.
  • Espina dorsal en forma de S.
  • Lenguaje
  • Construcción avanzada de herramientas.
  • Topología del cerebro.

El problema para la paleoantropología es que parte de estos caracteres son funcionales, como el lenguaje. Otros son anatómicos pero no dejan constancia en el registro fósil, como la ausencia de vello corporal o la topología del cerebro. Por lo tanto, la forma del cuerpo, el tamaño del cráneo, la longitud relativa de las extremidades o la situación del cráneo en posición vertical sobre la columna vertebral son rasgos que, en los humanos, alcanzan un tipo de expresión no conocida en ningún simio y que sí pueden ser analizadas en el registro fósil.

Los grados

En su momento hablamos de la cladística. Lo que hace la cladística es agrupar a las especies en «clados», que vienen a ser «un grupo, una rama del árbol filogenético», esto es, el grupo o taxón formado por una sola especie y todos sus descendientes. Bien, junto al de «clado», es necesario introducir un nuevo concepto: el «grado». Si los clados reflejan el «proceso» de la historia evolutiva, el concepto de grado se basa en tener en cuenta el «resultado» de esa historia evolutiva.

En este sentido, el concepto de «grado» es sinónimo de la idea de una «zona adaptativa». Los taxones que se incluyen en un mismo grado comen el mismo tipo de comida y comparten la misma postura o medio de locomoción; su inclusión en ellos no se hace en función de cómo llegaron a poseer estos comportamientos (el «proceso» de la historia evolutiva). Hay que señalar que establecer cómo tienen que ser de diferentes dos tipos de dietas o medios de locomoción para asignar un espécimen a un grado u otro aún es una decisión subjetiva (y de nuevo una fuente de controversia), pero hasta que podamos estar seguros de que estamos generando hipótesis fiables acerca de las relaciones entre los taxones de homininos, el concepto de grado ayuda a clasificar los clados en categorías funcionales más amplias.

Aceptaremos en este aspecto los grados propuestos por Bernard Wood: «ser humano anatómicamente moderno», «humano premoderno», «homininos de transición», «homininos arcaicos», «homininos arcaicos de dientes grandes» y «posibles homininos».

En las siguientes anotaciones vamos a analizar cada uno de estos grados y las especies habitualmente asociadas a los mismos. No vamos a extendernos en demasiados detalles porque lo que pretendemos es ofrecer una visión clara de esas especies. Así, para cada taxón incluiremos información sobre el nombre científico, el artículo especializado donde se describe por primera vez (con posibilidad de descarga en formato pdf en la mayoría de los casos), cuál es el holotipo, esto es, el fósil empleado para la descripción y designación de una nueva especie y por último, cuáles son sus características principales.

Empecemos a destejer el arbusto evolutivo:

Notas

  1. Un hominoideo pertenece a la superfamilia Hominoidea, compuesta por los simios menores, los grandes simios y los humanos. Sus miembros actuales se clasifican en dos familias: Hylobatidae (gibones) y Hominidae, constituida por la subfamilias Ponginae (que incluye el género Pongo, los orangutanes) y Homininae. Esta última está constituida por tres tribus: Gorillini (los gorilas), Panini (chimpancés y bonobos) y Hominini (Homo).
  2. Ya analizaremos otras perspectivas de este asunto más adelante.
  3. Carroll, S. B. (2003), «Genetics and the making of Homo sapiens«. Nature, vol. 422, núm. 6934, p. 849-857.
Publicado por José Luis Moreno en ANTROPOLOGÍA, 0 comentarios
Reseña: ¿Qué sabemos de la epigenética?

Reseña: ¿Qué sabemos de la epigenética?

     Última actualizacón: 31 agosto 2018 a las 12:56

Ficha Técnica

Título: La epigenética
Autor: Carlos Romá Mateo
Edita: Los libros de la catarata. Madrid, 2016
Colección: ¿Qué sabemos de?
Encuadernación: Tapa blanda con solapas
Número de páginas: 126
ISBN: 9788490971543
Precio: 12 €

Reseña del editor

Investigar los principios básicos por los que se rige la vida es el primer paso hacia la comprensión, y posible cura, de las enfermedades que amenazan nuestra especie. Existe un código por encima de la secuencia del ADN, un conjunto de modificaciones químicas que deciden qué genes funcionan en cada momento y en cada lugar. Esta modificación del destino de las células se conoce como epigenética y ha cambiado nuestra manera de entender el desarrollo de la vida y de avanzar en la comprensión del genoma. Los mecanismos epigenéticos consiguen añadir una pieza al intrincado puzle de las relaciones entre genes y condicionantes externos (lo que conocemos como ambiente) y logran explicar algunas características finales del individuo (el fenotipo) de resultas de su conjunto de genes particular (el genotipo). En este libro descenderemos hasta las entrañas del ADN para poder comprobar la importancia de todo lo que hay por encima y alrededor de la más famosa e importante molécula para los seres vivos.

Reseña

Como su título indica, estamos ante un trabajo donde encontraremos la respuesta a la complicada pregunta de qué sabemos de la epigenética. Esta palabra, que cada vez oímos con más asiduidad en los medios de comunicación, encierra cuestiones de trascendental importancia tanto para nuestra salud como para nuestra comprensión de cómo funcionamos los seres vivos. Por este motivo, la epigenética es, desde hace años, un campo de investigación en plena ebullición.

A la hora de escribir el texto, Carlos Romá se ha enfrentado a un difícil reto por dos motivos: tiene que hablarnos de un tema que los científicos aún están empezando a comprender y, en segundo lugar, debe hacerlo en un lenguaje que permita la comprensión del contenido por el mayor número de personas posible —y aquí deberíamos añadir la limitación de espacio impuesto con seguridad para evitar la desbandada de los lectores antes siquiera de abrir la cubierta del volumen. Mi opinión es que ha superado el reto con creces.

El texto se divide en seis capítulos (1. La genética celular y la lista de la compra; 2. Organizando la lista; 3. Tres maneras de cambiar el destino (celular); 4. La importancia de un buen ambiente; 5. La epigenética nos pone malos; 6. Lo que no es epigenética) y un epílogo que lleva por título “La auténtica revolución epigenética”. Debemos insistir en que a pesar de que la extensión del libro no permite profundizar demasiado en algunos aspectos (lo que sin duda agradecerán algunos lectores), realiza un recorrido bastante completo por el tema, abriendo la puerta a que podamos profundizar en aquellos aspectos que nos resulten más interesantes (la bibliografía está perfectamente escogida para lograr esta tarea).

Los dos primeros capítulos actúan a modo de introducción acerca del código genético y su funcionamiento. En el primero de ellos introduce una metáfora que nos acompañará a lo largo del texto y nos servirá para asimilar mejor los difíciles conceptos que por fuerza nos vamos a encontrar, y es la de que nuestro código genético es como una lista de la compra: si nos dan un libro de instrucciones para construir un organismo, “la casa sería el organismo y las distintas habitaciones y elementos los diferentes tipos celulares, formados y regulados por las proteínas derivadas de sus listas de genes particulares. Y la epigenética sería lo que explicaría cómo se tachan determinadas piezas de cada lista, por qué y en qué momento concreto”. Por lo tanto, estamos ante “un nivel de regulación extra llevado a cabo por moléculas concretas que señalan o esconden los genes, marcándolos para que se activen o no. Este nivel de regulación se encuentra por encima de la propia presencia o ausencia de los genes, y de ahí el nombre de “epigenética”, que literalmente significa “por encima de la genética”.

Acto seguido pasamos a la definición de los cromosomas y cómo actúa la regulación génica: “los genes, las instrucciones, están ahí siempre, pero solo se leerán, solo se llegará a construir lo que sus páginas contienen en determinado momento”. Y es que tenemos que comprender qué son y cómo funcionan los ribosomas, las histonas etc. para poder pasar al siguiente nivel.

En el tercer capítulo aprenderemos qué es lo que hace a un organismo “ser como es, en función de lo que hace que sus células sean como son”. Es decir, una vez que hemos entendido qué es la información genética y cómo se presenta en los seres vivos, tenemos que saber que existen distintos mecanismos de regulación que hacen que esa información adquiera su enorme potencial. Veremos que la metilación del ADN es “un mecanismo que sirve para tachar algunas páginas del libro de instrucciones del genoma, incluso capítulos enteros, pero sin la necesidad de arrancarlos”; que las histonas tienen su propio código, donde “las instrucciones no se alteran en absoluto, sólo se abren los capítulos requeridos en cada momento, al tiempo que se cierran y grapan los que no se deben tocar, puesto que entorpecerían la lectura del resto”; y que los ácidos ribonucleicos pueden destruir de forma específica la copia de un gen evitando que se fabrique la proteína cuyas instrucciones contiene. Algunos ejemplos perfectamente escogidos sirven como perfecto colofón para asentar los conceptos.

El cuarto capítulo nos permite subir otro nivel más: ¿Cómo se traslada ese tipo de efectos a un organismo completo? Es relativamente sencillo estudiar el funcionamiento de una célula concreta, pero lo realmente complicado es saber interpretar el funcionamiento de estos mecanismos en todo el organismo.

En el quinto capítulo hacemos un recorrido por los esfuerzos que realizan a diario cientos de investigadores en todo el mundo para utilizar y mejorar nuestro conocimiento de la epigenética con el objetivo de tratar y (algún día) poder curar determinadas enfermedades: cáncer, enfermedades neurodegenerativas etc. Proyectos como ENCODE tratan de arrojar luz en todo este complejo desarrollo.

Por último, el sexto capítulo es un apartado muy necesario ya que, ante la dificultad de comprender en todos sus términos algo tan complejo como la epigenética, siempre es de agradecer una aclaración sobre aquello que no es epigenética.

Os dejo una cita que sirve de broche de oro del libro:

Que no podamos responder aún a todo esto no hace sino empujarnos a seguir analizando todas estas cuestiones, no solo para responder estas preguntas, sino para llegar a formular otras nuevas, más impactantes, más sugerentes, más cruciales. Esa es la única y auténtica revolución.

Mi recomendación es que si tenéis un mínimo de curiosidad, compréis este libro porque no os va a defraudar.

Publicado por José Luis Moreno en RESEÑAS, 0 comentarios
La transparencia en los ensayos clínicos: una auditoría necesaria

La transparencia en los ensayos clínicos: una auditoría necesaria

     Última actualizacón: 26 febrero 2018 a las 22:56

Necesitamos medicamentos. La medicina progresa gracias a la continua investigación en nuevos tratamientos para los cientos de enfermedades que nos aquejan, investigación que obliga en un momento dado a realizar estudios en seres humanos para demostrar su validez y eficacia. Necesitamos comprender las causas, la evolución y los efectos de las enfermedades para mejorar nuestra forma de prevenir, diagnosticar y tratar a los pacientes. Incluso los mejores tratamientos ya autorizados, los que se han demostrado eficaces, deben ser evaluados continuamente a través de más investigación para comprobar que son seguros, eficaces, efectivos, accesibles y de calidad. Al mismo tiempo, la demanda de mejores servicios sanitarios hace necesaria una evaluación de las intervenciones disponibles (profilácticas o terapéuticas) para centrarse en las que han demostrado su efectividad, evitando usos inadecuados y reduciendo riesgos y costes innecesarios.

La herramienta necesaria para realizar estas tareas es el ensayo clínico.

¿Qué es un ensayo clínico?

Hay literalmente decenas de definiciones de ensayo clínico. Entre todas prefiero la que da Curtis Meinert 1 –quizás el mayor experto mundial en el tema– ya que pese a haberse publicado en 1985, es la más completa. Así, para Meinert, un ensayo clínico es un:

«Experimento planificado para evaluar la eficacia de un tratamiento en el ser humano, mediante la comparación de los resultados obtenidos en un grupo de pacientes tratados con un tratamiento de control, en el cual el reclutamiento, el tratamiento y el seguimiento de los pacientes de los dos grupos se llevan a cabo en el mismo periodo de tiempo. Los grupos pueden determinarse por asignación aleatoria o de otro tipo. El criterio de evaluación puede ser la muerte, un acontecimiento clínico que no cause la muerte o un análisis de laboratorio. El periodo de observación puede ser corto o largo, dependiendo del criterio de evaluación».

Para poder realizar un ensayo clínico es necesario presentar una solicitud a los organismos reguladores de cada país 2. Un Comité Ético de Investigación Clínica revisa el protocolo del ensayo y da su opinión negativa o positiva. El propósito de este Comité es asegurarse de que la investigación respeta la dignidad, los derechos, la seguridad y el bienestar de los participantes. Con esta finalidad, la mayoría de los protocolos de ensayos clínicos se redactan de acuerdo con la «Declaración de Helsinki», un conjunto de normas éticas para la investigación con seres humanos, material humano o datos de identificación personal, emitida en 1964 por la Asociación Médica Mundial y revisada en varias ocasiones (la última en 2013, que es la versión enlazada más arriba).

Una vez aprobado el protocolo se da luz verde para realizar el ensayo según sus pautas hasta su conclusión, momento en el que se recopilan los resultados. La Academia Europea de Pacientes define los resultados de un ensayo clínico como todos los datos, mediciones y análisis estadísticos generados durante el mismo y que incluyen los siguientes elementos:

  • Descripción de la población del estudio:número de participantes por grupo de tratamiento que han iniciado, completado o abandonado el estudio.
  • Datos iniciales: los efectos de un medicamento pueden variar considerablemente entre distintos grupos de pacientes. Por ese motivo es tan importante conocer los datos de todos los pacientes del ensayo –datos médicos no personales– como por ejemplo las características demográficas (edad y sexo), características físicas (peso, altura, tensión arterial, etc.) y mediciones específicas para el estudio (por ejemplo, características de la enfermedad o tratamientos anteriores).
  • Mediciones para determinar el efecto del tratamiento en los participantes: por ejemplo, la actividad del fármaco en un ensayo de fase II, la supervivencia de los pacientes o la calidad de vida en los ensayos de fase III 3.
  • Acontecimientos adversos experimentados por los participantes del estudio: por ejemplo, dolor, náuseas y otros efectos secundarios.

Toda esta información se recoge en un documento llamado «informe del ensayo clínico» (IEC, o CSR por las siglas en inglés de clinical study report) donde se describen los resultados del ensayo y se aportan pruebas para el uso en seres humanos del medicamento o intervención concreta. Por lo tanto, la información que generan los ensayos clínicos sobre la eficacia y la seguridad de los medicamentos es importante para que tanto los médicos como los pacientes puedan tomar decisiones fundamentadas con respecto a cuál es el más adecuado.

Llegados a este punto, creo que a nadie se le escapa la importancia de poder acceder a la información generada tras la realización de un ensayo clínico. En primer lugar, si disponemos de esta información podemos aumentar considerablemente la eficacia de la investigación médica evitando la duplicación o la repetición de trabajos. En segundo lugar, la transparencia de la información obtenida tras los ensayos clínicos es importante para garantizar la confianza en los resultados que se describen. Además –y no menos importante– el acceso a esos datos permite una revisión crítica de la información publicada y una toma de decisiones más fundamentada.

La legislación europea

Antes de 2001, cada estado miembro de la Unión Europea tenía sus propias normas y sistemas de aprobación de ensayos clínicos. Esto complicaba enormemente la investigación clínica en diferentes países al mismo tiempo debido sobre todo a las trabas burocráticas. En un intento de normalizar y armonizar estos criterios, la Comisión Europea introdujo la primera Directiva europea de ensayos clínicos (la Directiva 2001/20/CE).

Ha llovido mucho desde entonces y esta legislación ya ha sido sustituida por el reglamento sobre ensayos clínicos (Reglamento (UE) No 536/2014) cuya entrada en vigor plena se produjo el pasado 28 de mayo de 2016. Este nuevo reglamento garantiza que las reglas para realizar ensayos clínicos son idénticas en toda la UE. Las principales características del nuevo reglamento son:

  • Un procedimiento de solicitud simplificado a través de un único punto de entrada, el portal de la UE.
  • Un único conjunto de documentos que preparar y presentar para la solicitud.
  • Un procedimiento armonizado para la evaluación de las solicitudes de ensayos clínicos.
  • Definición de plazos estrictos para la evaluación de las solicitudes de ensayos clínicos.
  • La participación de los comités de ética en el procedimiento de evaluación de acuerdo con la ley nacional del estado miembro en cuestión pero dentro de los plazos generales definidos por el reglamento.
  • Procedimientos de informes simplificados, que evitarán que los promotores deban presentar información prácticamente idéntica por separado a distintos organismos y diferentes estados miembro.
  • Mayor transparencia para los ensayos clínicos y sus resultados. [énfasis añadido]
  • Control dentro de los estados miembros y en otros países para garantizar que las reglas de los ensayos clínicos se están supervisando y aplicando correctamente.

El registro de los ensayos clínicos

Ya hemos apuntado lo importante que es el poder acceder a la información sobre los ensayos clínicos y sus resultados. En este sentido, diversas organizaciones participan en iniciativas para promover o requerir el registro y la publicación en línea de esa información.

En Europa, la base de datos europea de ensayos clínicos (EudraCT) de la Agencia Europea de Medicamentos incluye información sobre todos los ensayos clínicos realizados en Europa. Desde julio de 2014, esta base datos incluye además resúmenes de los resultados de los ensayos a disposición del público general. En el caso de los ensayos realizados en la UE después del 1 de enero de 2015, todos estos resultados se deben publicar con independencia de las implicaciones positivas o negativas del ensayo.

Por su parte, la Organización Mundial de la Salud (OMS), mediante su plataforma de registros de ensayos clínicos (ICTRP), establece normas internacionales para el registro y la publicación de todos los ensayos clínicos. Por último, en Estados Unidos, el registro ClinicalTrials.gov funciona de forma similar.

En la actualidad, cualquier entidad (empresa pública o privada) que retenga sin hacer públicos los informes de los ensayos clínicos infringe múltiples códigos y regulaciones, incluida la Declaración de Helsinki que hemos indicado, el Reglamento de la UE y la Ley de Enmienda de la Administración de Alimentos y Medicamentos de EE.UU. (FDA, por sus siglas en inglés) de 2007. Sin embargo, una cosa es el incumplimiento, y otra muy diferente que se imponga un castigo por ello (de hecho, un estudio reciente ha demostrado que más de la mitad de los ensayos registrados en ClinicalTrials.gov no incluían los resultados, y aunque la FDA tiene capacidad para imponer multas de 10.000 dólares al día por ese incumplimiento, aún no se han impuesto).

La labor de +AllTrials

Para remediar esta situación se creó +AllTrials. Uno de los fundadores y cabeza visible de esta iniciativa es Ben Goldacre, médico y afamado escritor y divulgador. El objetivo de +AllTrials es conseguir que se registren y se hagan públicos los resultados de todos los ensayos clínicos (hay que señalar que con los ensayos no solo se prueban medicamentos sino también técnicas quirúrgicas, instrumental etc.) porque la situación actual es realmente grave. Por ejemplo, los ensayos clínicos con resultados negativos tienen el doble de posibilidades de no ser publicados en comparación a los que obtienen resultados positivos. Esto implica que quienes tienen que tomar decisiones cruciales para la salud pública no tienen a su disposición toda la información sobre los riesgos y beneficios de los tratamientos que usamos cada día. Además, los pacientes que se presentan voluntarios a esos ensayos esperan que los resultados sean útiles para los médicos y también para los investigadores que están estudiando la enfermedad.

Pues bien, hace unos días se ha publicado en la revista British Medical Journal la primera auditoría sobre transparencia realizada a 42 compañías farmacéuticas. El objetivo de este trabajo ha sido identificar las «Políticas de transparencia» de las principales compañías en relación a los ensayos clínicos, obtener datos estructurados de los compromisos de cada una de ellas y valorar su concordancia con las guías éticas y profesionales de la propia industria impuestas por los diferentes reguladores 4.

Este estudio ha sido posible porque las compañías han adoptado unos compromisos –en muchas ocasiones tras multas millonarias impuestas por los tribunales– en relación con el registro y posterior publicación de los ensayos clínicos que realizan, dando así cumplimiento a la legislación internacional que, de forma somera, hemos expuesto más arriba.

Para facilitar la compresión de tanta información y hacerla más accesible, los autores han creado una página web donde se pueden examinar todos los datos tanto en bruto como de forma estructurada. Al mismo tiempo, han realizado una clasificación para cada compañía según una puntuación obtenida en función del cumplimiento de todos esos compromisos (explicaremos esto con más detalle más abajo).

Los investigadores quisieron incluir 50 compañías: las 25 principales compañías por ventas globales y una selección arbitraria de 25 compañías más pequeñas. De la lista se excluyó a Baxter porque ya no fabrica productos farmacéuticos, y a Teva porque se dedica principalmente a fabricar genéricos. Además, durante el periodo que duró la auditoría, 6 compañías pequeñas dejaron de existir –debido principalmente a fusiones– lo que deja el total de empresas auditadas en 42 (veintidós con sede en la Unión Europea, trece en EE.UU., seis en Japón y una en Canadá). De todas ellas, cuarenta compañías (95%) tenían una Política de transparencia accesible de forma pública a través de sus páginas web.

Para poder realizar una clasificación, los autores fijaron un estándar de referencia –el máximo de transparencia que una compañía debería cumplir– referido a cuatro aspectos:

  1. Todos los ensayos clínicos deben registrarse cumpliendo los requisitos del Comité Internacional de Directores de Revistas Médicas (ICMJE), de la Organización Mundial de la Salud y los incluidos en la legislación internacional. El registro es el nivel básico de transparencia: la inscripción en un registro o base de datos accesible por el público permite saber que el ensayo existe además de ofrecer otra información importante como el tipo de intervención y la población de pacientes. Es cierto que registrar un ensayo no garantiza que se divulguen los resultados más tarde, pero sí permite a los investigadores identificar los ensayos que se han completado como un paso previo a saber si finalmente los resultados se hacen públicos.
  1. Los apartados de métodos y resultados de los ensayos clínicos deben publicarse –al menos en forma resumida– en el plazo de 12 meses tras la conclusión del ensayo. La publicación puede hacerse en revistas académicas o como tablas estructuradas de información en los propios registros públicos.
  1. Los IECs deben hacerse públicos. Ya hemos explicado que los informes de los ensayos clínicos son documentos extensos, a veces de miles de páginas, que se redactan por exigencia legal previa a la autorización del ensayo y según un formato estandarizado.
  1. Y por último, los datos individuales de pacientes (IPD, por las siglas en inglés de individual patient data) deben estar disponibles para los investigadores que lo soliciten. Se trata de los datos brutos recopilados durante la realización del ensayo clínico y que contienen información detallada sobre cada participante. Acceder a estos datos aumenta el riesgo de poder identificar a los pacientes que se han sometido al ensayo bajo la condición del anonimato, por lo que no suelen hacerse públicos. La forma de acceder a esta información, importante para labores de investigación, es hacerlo a través de diferentes mecanismos de acceso controlado.

Con estos requisitos como referencia, los auditores han creado un sistema de puntuación con el que han valorado cada compañía (con un máximo alcanzable de 2000 puntos, puedes verlo detallado aquí) en función de si se cumplían los compromisos en cada uno de los cuatro bloques mencionados.

Los resultados

La tabla 1 (que hemos traducido para facilitar la comprensión) muestra la proporción de las compañías que cumplen cada uno de los criterios de transparencia. De 23 compañías elegibles de las mayores 25 compañías por ingresos, 21 tenían el compromiso de registrar todos los ensayos, 15 (65%) registraban los ensayos pasados, y 2 (9%) llevaron a cabo una auditoría interna para comprobar el cumplimiento de esos compromisos. 22 compañías (96%) tenían el compromiso de hacer disponibles los resúmenes de los resultados, y 17 (74%) lo mantenían incluso en relación a los ensayos pasados; sin embargo –y estos son dos datos muy importantes– las respectivas «Políticas de transparencia» no especificaban cuándo debían hacerse públicos, y solo 6 (26%) compañías incluían los ensayos sobre uso de medicamentos en condiciones distintas de las autorizadas y fuera de indicación (off-label).

Respecto a los informes de los ensayos, 22 compañías (96%) tenían el compromiso de hacer públicos los informes de los ensayos una vez finalizados, de las cuales 21 ofrecían alguna forma de acceso (17 bajo petición y 2 mediante sinopsis). Por último, 22 compañías (96%) tenían el compromiso de compartir los datos individuales de pacientes. La tabla 2 enumera todas las compañías analizadas y los documentos sobre transparencia de cada una, y muestra de forma resumida si cumplen o no los compromisos descritos.

En lo tocante a las compañías farmacéuticas más pequeñas, lo que este trabajo demuestra es que asumen menos compromisos de transparencia que las más grandes.

Conclusiones

Con una única excepción (la de remitir los resultados de los ensayos a una revista científica a los 12 meses de su conclusión) al menos una empresa cumplió todos los aspectos del estándar de transparencia, lo que demuestra que estos compromisos son objetivos realistas y que no existen impedimentos reales para que todas las compañías los puedan cumplir. Sin embargo, muchas carecen aún de compromisos en cuestiones básicas como el registro de los ensayos y el deber de compartir un resumen –al menos– de los resultados obtenidos.

Mientras que las compañías más grandes tienen Políticas más completas, sólo un 71% de todas las compañías estudiadas tienen el compromiso de registrar todos los ensayos, el nivel más básico de transparencia; y el mismo 71% tiene el compromiso de compartir los resultados. De forma casi unánime, las Políticas de transparencia no incluyen los ensayos con medicamentos en condiciones distintas de las autorizadas y fuera de indicación, a pesar de que ese uso es común en la práctica clínica y se promueve de forma ilegal por las compañías como se ha demostrado en recientes y sonados fallos judiciales. Por último, solo el 52% de las compañías incluyen los ensayos clínicos en fase IV dentro de sus Políticas de transparencia.

Aunque hemos dicho que el 71% de las empresas tienen el compromiso de registrar los ensayos y hacer públicos sus resultados, la fecha en que ha comenzado a aplicarse en la práctica esta regla de transparencia es tan reciente que han quedado excluidos la mayoría de los ensayos realizados con los medicamentos que se usan actualmente como tratamientos.

También los investigadores han observado varias deficiencias en las Políticas de transparencia que no se habían identificado con anterioridad. Por ejemplo, muchas compañías permiten el acceso a los informes de los ensayos clínicos cuando el tratamiento se aprueba finalmente de forma conjunta tanto en la UE como en EE.UU.: esto significa que el IEC no será accesible cuando el medicamento se apruebe sólo en la UE, o en EE.UU., o para aquellos comercializados en África pero no aprobados en la UE y EE.UU. Esto es especialmente grave dado que los tratamientos que son rechazados por un regulador son los que con más probabilidad tienen un balance de riesgo/beneficio más ajustado, y por tanto, donde el acceso a los métodos y los resultados de esos ensayos clínicos es más importante.

En definitiva, tras lo dicho hasta ahora salta a la vista un hecho muy importante. Esta auditoría no ha tratado de comprobar el cumplimiento efectivo y real de las «Políticas de transparencia» de cada compañía. Esto sería un trabajo muy complejo, costoso y difícil de llevar a cabo en la práctica.

Sin embargo, aún con esta limitación, el ejercicio de comparar los compromisos de transparencia que las compañías asumen públicamente puede usarse por ellas mismas para revisar su forma de actuar y para saber si los que han adoptado pueden mejorarse. Además, estos resultados también pueden usarse por los propios reguladores, los grupos de pacientes, los inversores privados y demás trabajadores de los sistemas de salud para que propongan mejoras en aquellas compañías que mantengan «Políticas de transparencia» menos exigentes.

Referencia

Más información

Notas

  1. Clinical trials: design, conduct, and analysis.
  2. Llamados «autoridades competentes» en el marco de la Unión Europea.
  3. Para saber más sobre las distintas fases de un ensayo clínico accede aquí.
  4. En este sentido, también se han analizado las Políticas de transparencia sobre ensayos clínicos que «recomiendan» tanto la  Asociación Europea de la Industria Farmacéutica Innovadora (EFPIA) como su homóloga americana, PhRMA.
Publicado por José Luis Moreno en MEDICINA, 0 comentarios
Reseña: Luces del sur

Reseña: Luces del sur

Ficha Técnica

Título: Luces del sur. Informe oficial de la expedición inglesa a la Tierra de Graham (1934-1937)
Autor: John Rymill
Edita: Espasa Calpe Argentina, 1943
Encuadernación: Tapa dura.
Número de páginas: 284 p.

La expedición Británica a la Tierra de Graham (1934-1937), encabezada por John Rymill, zarpó hacia la península Antártica en el barco de vapor Penola. La embarcación transportaba un aeroplano De Havilland Fox Moth equipado con flotadores y esquíes que fue usado para el reconocimiento del hielo y para aprovisionar a los equipos en el terreno. Pasaron el primer invierno en una cabaña prefabricada de la expedición en las islas Argentinas, pero las oportunidades para desplazarse en trineo no eran buenas. Concluido el invierno, el barco regresó a la isla Decepción con el fin de cargar madera para una nueva cabaña que debía construirse para pasar el segundo invierno más al sur, en las islas Debenham y la bahía Margarita. Se recorrieron largas distancias en trineos de perros para trazar mapas y efectuar estudios geológicos, incluyendo una larga travesía a lo largo del canal Jorge VI hasta los 72º S entre el continente de la península y la isla Alejandro I. También se realizaron estudios ornitológicos, biológicos y meteorológicos, pero quizá el resultado más importante fue mostrar que la península era un elemento continuo, no dividido por canales en un archipiélago como Wilkins había sugerido con anterioridad.

RESEÑA

Lo primero que tengo que decir –aunque lo he dicho ya muchas veces– es que me apasionan los libros que narran las expediciones polares (éste no es el primer libro de esta temática que reseño en el blog). «Luces del sur» es el relato de la expedición inglesa a la Tierra de Graham entre los años 1934 y 1937.

La Tierra de Graham es el nombre que recibe la porción de la península Antártica que tiene como límite sur convencional la línea que une el cabo Jeremy (69°24′S 68°51′O) y el cabo Agassiz (68°29′S 62°56′O). Sin embargo, esta definición fue acordada treinta años después de la expedición que estamos comentando ya que, por aquel entonces, para los ingleses la Tierra de Graham comprendía toda la península (otros países tenían sus propias denominaciones: Tierra de Palmer para los americanos, Tierra de San Martín para Argentina y Tierra de O´Higgins para Chile).

La Expedición Británica a la Tierra de Graham (o BGLE, por sus siglas en inglés), fue una expedición geofísica y de exploración comandada por John Rymill que partió de Inglaterra el 10 de septiembre de 1934. Los exploradores emplearon varios medios de transporte tras su llegada a la Antártida: equipos de perros (muchos de ellos nacidos durante el viaje) que fueron entrenados por los miembros de la expedición para los desplazamientos largos; y un avión monomotor para viajes de planificación de rutas, traslado de equipo de aprovisionamiento y toma de fotografías. El viaje a tierras polares se hizo en un viejo velero de tres mástiles bautizado «Penola» en honor al lugar de nacimiento de Rymill.

Medios de transporte empleados por los exploradores: el Penola (a la izquierda), el aeroplano (centro) y los trineos de perros (derecha).

Aunque la expedición contó con un presupuesto muy reducido –el coste total fue de menos de 20.000 libras esterlinas de la época– tuvo éxito en alcanzar los objetivos científicos propuestos. Se tomaron abundantes fotografías aéreas y se cartografió alrededor de 1.600 km de la costa de la península antártica.

El libro no cuenta los descubrimientos científicos, aunque Rymill reconoce que durante toda la expedición «los investigadores aprovechaban todas las ocasiones posibles para acrecentar su caudal de conocimientos sobre las regiones que se exploraban». Por ejemplo, durante el largo viaje en barco, «cuando los vigías escrudiñaban el océano, combinaban la ciencia con los deberes marinos observando la distribución y las costumbres de los pájaros del mar, o tratando de interpretar la formación de las rocas o el hielo en las islas».

Tras su llegada a la Tierra de Graham, se construyeron dos casas (una al norte y otra al sur) que sirvieron de bases estables desde las que se iniciaron distintos viajes de exploración en trineo. Hemos de saber que el equipo trabajó en una parte del Antártico que no había sido explorada con anterioridad, realizando dos descubrimientos de gran importancia: primero, demostraron que la Tierra de Graham forma parte del continente antártico y no se trata de un archipiélago como se creía anteriormente; y segundo, que la Tierra de Graham está separada de la Tierra de Alejandro (hoy Isla de Alejandro I) por un gran canal que corre de norte a sur. Este canal recibió el nombre de Canal Rey Jorge VI.

Mapa de la Tierra de Graham en 1934 (antes de la expedición), y en 1937, con los nuevos datos aportados.

Todos los miembros de la expedición realizaban las tareas rutinarias de mantenimiento de equipos, carga y descarga de material, cocina, limpieza etc.; pero además, tenían asignadas tareas específicas:

A. Stephenson, el meteorólogo y topógrafo de la expedición, realizaba mapas exactos de las regiones que se exploraban basados tanto en observaciones astronómicas como en cientos de apuntes realizados con teodolito y compás. Además, después de cada vuelo en el avión dibujaba un mapa de la región que había visto.

W. L. S. Fleming era el geólogo. Examinaba las rocas y coleccionaba ejemplares. En este sentido, el descubrimiento geológico más importante fue el comprobar que la parte sur de la Tierra de Alejandro se diferenciaba de la Tierra de Graham ya que estaba formada por rocas sedimentarias. Esto supuso otro descubrimiento de gran importancia ya que en esta región, Fleming encontró fósiles de conchas y de plantas. Llevó de vuelta a Inglaterra 48 ejemplares en total.

C. Bertram, zoólogo y botánico, y Brian Birley Roberts, ornitólogo, estudiaban la vida de las plantas y los animales. Bertram acumuló un gran número de cráneos y otras partes de las focas que servían de alimento a los hombres y a los perros. También realizó estudios de los líquenes y las algas y consiguió bastantes ejemplares de los animales que vivían en aguas poco profundas. Por su parte, Roberts estudiaba el comportamiento de los pájaros día a día durante el trayecto en barco y la propia expedición. También construyó un aparato para medir las mareas. Más tarde, Roberts contribuyó a la redacción del Tratado Antártico.

La relación con los perros fue muy especial, como ha ocurrido en todas las expediciones polares. En este sentido, Rymill escribió que los perros «resultaron excelentes trabajadores y admirables compañeros y es de lamentar que no pudieran participar de las emociones y placeres derivados de ese viaje. No obstante, nuestros resultados vienen a ser tanto un testimonio de su devoción y amistad leal, como de nuestros poderes de observación y deducción».

En definitiva, el 4 de agosto de 1937 el «Penola» atracó en Portsmouth, poniendo fin a tres años de exploración que sirvieron para incrementar nuestro conocimiento de esta región de la Antártida.

En 1985, el United Kingdom Antarctic Place-Names Committee estableció el nombre de «costa Rymill» para designar la porción de la costa oeste de la península Antártica (extremo noroeste de la Tierra de Palmer), entre el cabo Jeremy y los nunataks Buttress, para honrar al líder de la Expedición Británica a la Tierra de Graham.

Aún más impresionante era la inmensidad desnuda de la región y la atmósfera de misterio que parecía empequeñecernos, las grandes montañas hieráticas y los ventisqueros avanzando, lenta pero inexorablemente, para recordarnos que aún allí el tiempo sigue su marcha. Me subleva pensar que una de las primeras cosas que probablemente nos preguntaría al llegar a Inglaterra algún hombre bien alimentado, cuyo Dios es su libro de cheques, sería lo siguiente: “¿Por qué fue allí?” ¿Cómo no replicar sino con una impertinencia a semejante mentalidad?

Publicado por José Luis Moreno en RESEÑAS, 0 comentarios
¿Humanos en América hace 130.000 años? (y II)

¿Humanos en América hace 130.000 años? (y II)

     Última actualizacón: 11 marzo 2018 a las 14:53

En la primera parte de esta anotación hemos hecho una breve introducción al yacimiento de «Cerutti Mastodon» que según los investigadores encargados del yacimiento proporciona pruebas de presencia humana en el continente americano hace 130.000 años. Ahora vamos a someter a prueba esta hipótesis analizando los datos aportados en la investigación.

Sometiendo a prueba la hipótesis

Dado que la entrada de nuestros antepasados en América es una cuestión sujeta a intensos debates (puedes leer más sobre este tema aquí), la comunidad científica ha apuntado cuatro características básicas para aceptar un yacimiento como válido (puntos que los propios investigadores del estudio que analizamos aceptan como correctos):

  1. Las pruebas deben encontrarse en un contexto geológico claramente definido y sin perturbar.
  2. La antigüedad tiene que establecerse mediante un proceso radiométrico fiable.
  3. Los resultados deben ser consistentes, es decir, han de aportarse varias líneas de evidencia mediante diferentes estudios interdisciplinares.
  4. Tienen que hallarse artefactos de indudable factura humana en un contexto primario.

Analicemos cada uno de ellos con algo más de detenimiento:

1. Contexto del yacimiento de «Cerutti Mastodon». ¿Hubo perturbación?

Ya hemos explicado al inicio que el descubrimiento de los huesos de mastodonte se hizo mientras se llevaban a cabo unas obras de construcción. Uno de los principales argumentos en contra de la afirmación de que las fracturas de estos fósiles tienen un origen antrópico (es decir, que fueron realizadas por el hombre de forma intencionada) es que las retroexcavadoras y otros equipos pesados pueden causar ese mismo tipo de daños. Es decir, los críticos sostienen que los patrones de fracturas que vemos en los fósiles de Cerutti fueron provocados por los trabajos de construcción y no por nuestros antepasados hace decenas de miles de años.

Excavadora empleada en las obras de la carretera.

Los autores responden que la maquinaria pesada produce un daño distintivo a los huesos que no se ve en estos restos. Además, insisten en que los trabajos de los paleontólogos para recuperar los huesos y las piedras implicaron excavar unos tres metros por debajo del área expuesta originalmente por los equipos pesados 1.

Sin embargo, esta afirmación no es del todo correcta si nos atenemos al propio artículo cuando se dice que:

The backhoe did not disturb all of Bed E in the northern grid units (B1, C1, D1, E1, B2, C2 and D2) and many fossils and the few cobbles in these units remained in situ.

La excavadora no distorsionó toda la capa E en las unidades más al norte (B1, C1, D1, E1, B2, C2 and D2) y muchos fósiles y los pocos cantos en estas unidades permanecieron en el mismo lugar.

Es decir, que la excavadora sí que perturbó la capa Bed E del yacimiento (aunque no en su totalidad), afectando las cuadrículas donde se hallaron precisamente los huesos del mastodonte y las piedras que ahora se consideran herramientas. Es más, refieren que esa zona fue procesada con más cuidado para retirar todos los fósiles y cantos rodados que habían sido desplazados por la máquina. Es significativo además el hecho de que la excavadora seccionó el colmillo que estaba incrustado verticalmente, lo que indica que ya había llegado al mismo nivel donde aparecieron los demás huesos.

A la izquierda vemos el colmillo seccionado por la excavadora. A la derecha, las cuadrículas del yacimiento afectadas por la maquinaria pesada de construcción (rayadas en rojo).

Otra cuestión es la posición que tienen los huesos y las piedras en el yacimiento.

De nuevo, los críticos indican que en esta región de California pudo haber cursos de agua que podrían haber desplazado los huesos del mastodonte junto con las piedras desde lugares distintos hasta el lugar donde finalmente fueron desenterrados. Ese traslado pudo causar los daños y fracturas que vemos en los huesos.

Los autores del estudio responden que los análisis de los sedimentos del yacimiento permiten concluir que no hubo desplazamiento de los huesos y las piedras por una corriente de agua:

Hay un contraste llamativo entre el contenido de la «capa E» y el de las capas superior e inferior («capas F» y «D» respectivamente) que únicamente albergaban conchas y dientes de roedor sin ningún tipo de herramienta de piedra. Los detallados análisis de los sedimentos realizados por los autores no apoyan el desplazamiento del material debido a la acción del agua, por el pisoteo de animales u otros procesos de enterramiento o fosilización que pudieran explicar las especiales características de la capa E.

2. La antigüedad del yacimiento

Para datar algunos de los huesos descubiertos en el yacimiento los investigadores han empleado un método conocido como «series del uranio». El uranio es un elemento radiactivo que podemos encontrar en la naturaleza y que está presente en forma de tres isótopos: 238U (que representa el 99,27 % del total), 235U (un 0,72 %) y 234U (el restante 0,005 %). Lo relevante para esta técnica de datación es que los isótopos son inestables, es decir, que con el paso del tiempo sufren una transmutación mediante la descomposición de sus neutrones en protones y electrones y la emisión de energía (es lo que conocemos como radiactividad).

El método de datación por desequilibrio de las series del uranio, también conocido como método de uranio-torio, utiliza dos de estas familias radiactivas, la del 238U y del 235U, que por desintegración dan lugar a una serie de elementos intermedios y finalizan en algún isotopo estable del plomo. Entre los elementos intermedios que se generan durante el proceso encontramos el 235U, el torio (230Th) y el protactinio (231Pa). La vida media del 238U y del 235U es muy elevada (4.510 y 713 millones de años respectivamente) por lo que no resultan de utilidad para datar yacimientos prehistóricos. Sin embargo, la vida media de varios de los productos intermedios, como el 234U, el 230Th y el 231Pa es mucho más corta y, por tanto, más útil para este propósito (250.000, 75.380 y 32.400 años respectivamente).

Veamos con un poco más de detalle cómo funciona este método. Debemos tener en cuenta que en un sistema natural que no haya sufrido perturbaciones durante un largo periodo de tiempo (más o menos 1 millón de años) se produce un equilibrio dinámico en el que los isótopos hijos se van formando al mismo ritmo que los elementos padres se van destruyendo, de forma que la relación entre unos y otros permanece constante. Si el sistema se ve perturbado, el balance de producción y destrucción se altera y las proporciones relativas entre los diferentes isótopos cambian. Si se mide la velocidad a la que el sistema alterado –que ha generado productos de desintegración– regresa de nuevo al equilibro, se puede saber el tiempo que ha pasado desde el inicio de la perturbación hasta el momento en que se hace la medida.

El método de las series del uranio se emplea desde hace décadas para conocer la edad de las rocas. El problema con el presente trabajo es que muy pocos especialistas en datación mediante series de uranio comparten la opinión de que un hueso pueda ser datado de forma fiable. El motivo es que el uranio se mueve dentro de los huesos, lo que impide obtener fechas fiables a menos que se utilice un modelo matemático de ese movimiento para compensar las cifras. Eso es exactamente lo que los autores de este trabajo han intentado hacer.

Cuando un hueso queda depositado en la tierra, el uranio es absorbido por la fase mineral del hueso y comienza la formación del torio, de forma que el cociente entre el uranio y el torio aumenta paulatinamente. El cociente de actividad del 230Th y el 234U proporciona la edad del fósil. En cualquier caso, es fundamental tener en cuenta el desequilibrio entre 234U y 238U que existe en el lugar del enterramiento para calcular la edad así como los posibles aportes de uranio de fuentes como el agua circundante (estas perturbaciones hacen que el hueso no se comporte como un sistema cerrado por completo y añaden incertidumbre a la datación definitiva).

En este punto es conveniente traer a colación los comentarios de un especialista sobre los datos expuestos en este trabajo.

En primer lugar, las concentraciones de uranio en los huesos deben mostrar un patrón en forma de U, es decir, ser más altas en los bordes e inferiores en el centro (según un patrón de absorción paulatino). En este sentido, en el primer diagrama de la imagen «a» publicada en el estudio, vemos que se cumple el patrón en los tres huesos sometidos a análisis, aunque el hueso etiquetado como CM-292 tiene una disminución hacia la parte derecha que podría indicar una inhomogeneidad. La comparación de la relación entre los isótopos hallados en las muestras con los previstos según el modelo matemático –segunda y tercera columnas de la imagen «c»– indica que el hueso CM-292 presenta el mejor ajuste, mientras que las otras dos muestras tienen distribuciones más irregulares. Por este motivo vemos diferentes valores en la incertidumbre de la antigüedad de cada hueso –primera columna de la imagen «c». La incertidumbre en los resultados es mayor en el primer y tercer hueso analizados y menor en el CM-292.

En segundo lugar, y como ya hemos indicado, hay que tener en cuenta la cantidad de uranio que el agua subterránea aporta a las muestras. Los investigadores afirman que las proporciones de actividad inicial entre el 234U y el 238U calculadas para los huesos analizados presentan un rango (1.38-1.50) similar al rango de la medición moderna del agua del río Sweetwater, cercano al yacimiento (con un valor de 1.45-1.54). El punto clave aquí es que los autores no ofrecen ningún argumento que apoye que las mediciones en las aguas actuales sean comparables al valor que podían arrojar las aguas de hace 130.000 años con un ciclo glaciar completo.

Aunque en general los datos ofrecidos en este trabajo son bastante consistentes, hemos de remarcar que los métodos de datación científica no existen en el vacío. Las muestras provienen de un contexto estratigráfico concreto que proporcionan restricciones y controles a  las fechas obtenidas. Para comprobar los resultados sería útil tener una imagen más amplia del contexto estratigráfico que mostrase correlaciones con lugares cercanos y estimaciones de las edades de esos estratos. Por ese motivo es muy difícil poner en contexto una única fecha de alta calidad (la del hueso CM-292) que es la que tenemos en el estudio que estamos analizando.

Y esta afirmación hemos de ponerla en relación con el primer informe técnico del yacimiento publicado en 1995 y firmado por Thomas Deméré, Richard Cerutti y C. Paul Majors (los dos primeros, firmantes asimismo del artículo publicado en Nature). No he logrado acceder al contenido íntegro del mismo, pero sí podemos leer el resumen ejecutivo. En él se afirma que:

[…] la datación radiométrica del marfil y del carbonato de suelo del yacimiento ofreció fechas de 335 ± 35 Ka (miles de años antes del presente) y 196 ± 15 Ka respectivamente.

¿Cómo se obtuvieron estas dataciones? ¿Cuál fue el procedimiento empleado? Y quizás la pregunta más importante ¿por qué no se mencionan estos datos en el artículo publicado ahora?

Dado que estas fechas difieren mucho, no solo entre sí, sino también con las fechas atribuidas hoy en día al yacimiento de Cerutti, parece evidente que los autores deberían haberlas mencionado en este trabajo y explicar por qué estaban equivocadas para que podamos dar por fiable la nueva datación del yacimiento.

3. ¿Resultados consistentes?

Este punto implica que un hallazgo concreto no puede interpretarse de forma aislada, es decir, que no podemos dar verosimilitud a una única prueba que ponga en tela de juicio numerosos trabajos de investigación que apuntan en otra dirección. En este sentido, los críticos afirman que si tenemos en cuenta que las pruebas arqueológicas más antiguas de la presencia de nuestra especie en Asia (concretamente en el sur de China) son de una antigüedad menor de 100.000 años, es imposible que poblaciones de Homo sapiens fueran los autores de las supuestas fracturas de los huesos de mastodonde de Cerutti.

Por lo tanto, de seguir la hipótesis defendida por Holen y colaboradores, la autoría de esas herramientas habría que buscarla en alguna especie más antigua que estuviera presente en Asia en esa época. El problema es que no hay constancia de que especies como Homo erectus u otras llegaran tan al norte como para poder pasar a América hace tanto tiempo.

Del mismo modo, los estudios genéticos ofrecen una imagen diferente a la planteada en este trabajo.

4. ¿Artefactos de indudable factura humana?

Bajo mi punto de vista, este es el aspecto más discutible de todo lo que hemos comentado hasta ahora. Como ya hemos señalado, el yacimiento ofrece únicamente pruebas indirectas, es decir, presuntas herramientas de piedra con las que se pudieron romper los huesos para extraer la médula (de ahí se concluye la presencia humana en el yacimiento). Veamos por tanto con más detalle estos signos:

  • Las fracturas en los huesos

La tafonomía es la ciencia que analiza los numerosos procesos que intervienen sobre los restos enterrados. En lo referente a los huesos, los especialistas tratan de averiguar todo lo que les afecta tanto antes como después de su enterramiento: posibles fracturas y roturas, las marcas de haber sido manipulados antes de su consumo o los rasguños provocados por el carroñeo de otros animales.

Entre las huellas más comunes que podemos encontrar en un hueso están las marcas dejadas por los instrumentos de corte (herramientas de piedra fundamentalmente), así como las causadas por los animales. Entre estas últimas distinguimos las siguientes: puntures (agujeros de contorno redondeado provocados por el impacto directo de los caninos de los animales); pitting (pequeños orificios que denotan un masticado intensivo); scoring (ranuras transversales al eje del hueso que son consecuencia del arrastre de los dientes sobre él); y furrowing (ahuecado para extraer el tejido esponjoso de los extremos articulares de los huesos largos).

La investigación arqueológica considera esenciales las marcas de corte antrópico, es decir, las marcas provocadas por el hombre cuando utiliza herramientas para descuartizar los cadáveres de los animales y así consumir su carne. En este sentido, debemos tener presentes dos conceptos clave a la hora de analizar estas marcas: la fragmentación y la fracturación. La fragmentación de un hueso tiene un origen natural y depende de factores geológicos, hidrotérmicos y climáticos como la desecación y la deshidratación entre otros. La fracturación por el contrario es fruto de una acción biológica o antrópica. En el caso de la fracturación antrópica, la finalidad de romper el hueso –con el esfuerzo que ello implica– es acceder al nutritivo contenido medular.

Experimentos realizados con huesos de elefante.

Los especialistas son capaces de diferenciar los patrones generados tanto por la fragmentación como por la fracturación: los primeros se dan cuando el hueso está «seco»; mientras que la fracturación se produce cuando el hueso aún está «fresco».

Pensemos un momento en cómo podrían nuestros antepasados acceder a la médula del interior de un enorme hueso de mastodonte. Pongamos por caso que han cazado un mastodonte −o que lo han encontrado muerto− y se llevan varios de sus huesos como botín. Para romper el hueso es necesario disponer de una buena piedra y golpearlo con fuerza. Mientras los huesos están «frescos», la fuerza del impacto se distribuye entre el contenido orgánico del hueso que absorbe el golpe. En este sentido, tenemos que saber que la fuerza de los huesos proviene de los minerales que contiene (calcio y fósforo principalmente) y de su estructura, sustentada por una proteína llamada colágeno. Como decimos, la presencia de este contenido orgánico obliga a aplicar una fuerza suficiente para poder superar los límites de la resistencia del tejido óseo. Cuando se supera ese límite, el hueso comienza a romperse a partir de una microfractura que se propaga desde la zona de impacto hacia el exterior siguiendo las líneas de debilidad del hueso.

No obstante, desde el momento en que un animal muere, el hueso comienza a perder esa fuerza estructural al deteriorarse el colágeno. De esta manera, con el paso del tiempo el hueso se «seca» y se convierte en un objeto poco elástico y poco flexible (susceptible por tanto a sufrir daños por factores ambientales).

Los huesos fracturados en estado fresco presentan en el punto de rotura ángulos oblicuos, obtusos y agudos, frente a los ángulos rectos que vemos cuando un hueso seco se fragmenta. Por lo tanto, en estos últimos destaca un perfil diagonal, longitudinal o transversal de las líneas de fractura frente a las líneas curvas de los huesos frescos. Sin embargo, las fracturas helicoidales presentan una peculiaridad y es que pueden producirse tanto en huesos secos como frescos aunque en los secos la fractura tiene una superficie rugosa mientras que en el fresco está pulida y bruñida, con bordes suaves y alisados.

Paños y ángulos de fractura de los huesos.

Volviendo al artículo que estamos analizando, los investigadores no hacen un estudio detallado de las líneas de fractura o fracturación que presentan los huesos. Se limitan a indicar que algunos tienen fracturas espirales (helicoidales) y atribuyen estas marcas al uso de piedras basándose en unos experimentos donde utilizaron cantos rodados para golpear huesos de elefante. Después de realizar varias pruebas de este tipo se convencieron de que la única manera de producir el daño que habían observado en los huesos del yacimiento era mediante su aplastamiento con piedras.

Sin embargo, ya hemos visto que una rotura helicoidal también se puede producir cuando el hueso está «seco», por lo que los resultados de estos experimentos no permiten discriminar el origen de estas marcas. Además, pese a reconocer que algunos huesos sí que presentan grietas y roturas longitudinales –propias de una fragmentación «seca»– sostienen que éstas se produjeron después de que el hueso fuera fracturado intencionadamente por el hombre. Es decir, aun reconociendo que hay pruebas de fragmentación de los huesos debida a procesos geológicos naturales, mantienen que ésta se produjo después de que nuestros antepasados hubieran roto los huesos para acceder a la médula. ¿Ofrecen datos para apoyar esta afirmación? No.

Otro de los argumentos que se emplean para defender un origen antrópico de estas marcas es que estos patrones de rotura no se observaron en otros esqueletos encontrados en el yacimiento: un caballo, un lobo gigante y un ciervo.

Sin embargo, a nadie se le escapa que para poder comparar el proceso tafonómico de los enterramientos de los cuatro esqueletos deberíamos tener información precisa de la localidad 3677 (donde se encontró el esqueleto parcial del caballo) y de la localidad 3698 (donde se hallaron los otros dos). Esta información no se ofrece en el artículo (posiblemente porque no se dispone de ella) por lo que no sabemos a qué distancia estaban unos de otros ni a qué procesos geológicos pudieron verse sometidos. Por lo tanto, es imposible contrastar esta suposición.

Por último, los autores descartan otras hipótesis alternativas: una modificación de los huesos por carnívoros, por aplastamiento o que el desgaste se deba a procesos naturales. En concreto, niegan la posibilidad de que un carnívoro del Pleistoceno fuera capaz de romper un fémur fresco o de producir una marca de impacto profunda. Sin embargo, lo cierto es que sí tenemos un posible candidato. Ruth Blasco, experta en procesos de fosilización del Centro Nacional de Investigación sobre Evolución Humana, ha comentado que «los animales que producen este tipo de fracturación necesitan un potente aparato masticatorio, como los carnívoros durófagos, y uno de estos carnívoros al que no hay que perderle la pista en el continente americano es el lobo gigante». ¿Es casualidad que se haya encontrado un esqueleto de lobo gigante junto al de un ciervo y un caballo cerca del yacimiento de Cerutti?

  • Las herramientas de piedra

En cuanto a las presuntas herramientas de piedra, vuelve a ser necesario que nos familiaricemos con la terminología. En inglés, los cantos rodados reciben el nombre de peeble tool o cobble. Si la piedra se trabaja sobre una cara se llama chopper (en castellano protobifaz) o chopping tool si se actúa sobre las dos (bifaz o hacha de mano). Las lascas o esquirlas que se obtienen cuando se rompe un núcleo se denominan flakes. Por último, también se han catalogado como herramientas los cantos rodados que no tienen un filo cortante pero que presentan señales evidentes de haberse utilizado para golpear otras piedras: es lo que conocemos como martillos (hammer o hammerstone en inglés).

En el yacimiento de Cerutti los investigadores refieren la presencia de dos tipos de herramientas líticas: martillos y yunques (anvil en inglés) 2. Ya hemos indicado que los cantos catalogados como CM-281 y CM-114 se interpretan como yunques, mientras que los identificados como CM-423, CM-7 y CM-383 se interpretan como martillos.

En cuanto a sus características físicas, el yunque CM-281 tiene marcas dentadas, iniciaciones hertzianas, rastros de abrasión y estrías que los autores consideran pruebas de golpes realizados con martillos. Por otro lado, el yunque CM-114 no presenta marcas y tiene una superficie suave producida por abrasión (es decir, por fricción con un elemento más duro). Una roca de pegmatita (CM-423) y dos de andesita (CM-7 y CM-383) han sido catalogadas como martillos en función de las marcas de desgaste y de impacto. Además, los autores del estudio señalan que todas las pretendidas herramientas del yacimiento presentan en mayor o menor medida rastros de golpes de piedra contra piedra, que atribuyen a golpes perdidos al golpear contra un yunque.

La tafonomía también se encarga de analizar la industria lítica presente en un yacimiento para determinar si es el resultado de una manipulación por el hombre. Sabemos que distintos procesos naturales (llamados procesos geomórficos) pueden alterar los cantos rodados de forma que parezcan artefactos o herramientas, por lo que un análisis detenido de estos elementos se hace esencial.

En 1896, el físico H. Hertz llevó a cabo los primeros experimentos científicos para entender cómo se podía fabricar una herramienta de piedra sin emplear metal. Así, se centró en saber qué pasaba cuando dos rocas eran golpeadas entre sí. Observó que cuando un cuerpo esférico golpea la superficie plana de un sólido frágil isotrópico, en éste se producía una fractura en forma de cono (que hoy conocemos como cono hertziano). En cambio, cuando se desprende una lasca no se forma un cono completo, sino un cono parcial.

Por su parte, Caleb Vance Haynes –un reputado arqueólogo norteamericano– estudió estos y otros mecanismos y acuñó el término geofact para referirse a las rocas que habiendo estado sometidas a procesos naturales, parecían artefactos hechos por el hombre.

Entre los  procesos geológicos que pueden alterar una roca podemos mencionar los movimientos del suelo, las glaciaciones, fuertes corrientes de agua, cambios rápidos de temperatura, presión interna etc. Los procesos de baja energía (por ejemplo, procesos eólicos, fluviales y de solifluxión) pueden dar lugar a estrías, picoteo, desprendimiento de bordes o trituración. Los procesos glaciales son particularmente eficientes en la modificación de las rocas ya que durante el transporte glacial se ven sometidas a empuje, cizallamiento y estrés de carga.

Llegados a este punto debemos saber que numerosos yacimientos están hoy en día bajo discusión porque se ha defendido la presencia humana en ellos contando únicamente con presuntas herramientas líticas.

Por ese motivo, desde hace tiempo la arqueología plantea un enfoque sistemático para abordar este problema. Para asignar un estatus cultural a un conjunto de rocas o sus desechos (lo que llamamos debitage) no basta con demostrar que no existieron en el pasado procesos geomórficos que pudieran haber alterado las piedras. Es preciso analizar cada pretendida herramienta y puntuar sus características según una lista que varía en extensión, pero que comprende 18 atributos en los estudios más modernos. Los investigadores han demostrado que la presencia de un único atributo (por ejemplo, marcas de estrías en los bordes o marcas dentadas) es insuficiente para diferenciar entre artefactos y geofactos, además de que algunos atributos son más subjetivos que otros, es decir, que su apreciación depende de la interpretación que haga cada arqueólogo. Así que, una vez analizados todos y cada uno de los elementos del yacimiento y puntuados en función de la presencia o ausencia de esos atributos, se aplica una prueba chi-cuadrado como método de análisis estadístico. Es importante señalar que esta técnica no proporciona información sobre artefactos individuales sino que se utiliza para comparar poblaciones de muestra. Por eso se debe contar con tablas de referencia de rocas modificadas por el hombre y restos de rocas sometidas a procesos geomórficos para llegar a una conclusión.

Leyendo el estudio de las pretendidas herramientas líticas del yacimiento de Cerutti vemos que no se ha seguido este método de análisis. Los investigadores se han limitado a señalar algunas características en las rocas que ellos atribuyen a una intervención del hombre, sin tener en cuenta que esas mismas marcas pueden haberse producido por muy diversos procesos naturales.

En definitiva, lo que tratamos de decir es que no es posible establecer el estatus arqueológico de un objeto o herramienta siguiendo únicamente criterios subjetivos y apelando a la experiencia del analista. La arqueología hace tiempo que aplica métodos científicos y procesos explicativos con la intención de que sean replicables.

Conclusiones

Si analizamos el yacimiento en su conjunto y la información de contexto que hemos tratado de exponer, vemos que hay varios aspectos que no son «coherentes»:

–Dado que no hay marcas de corte en los huesos, los autores afirman que nuestros antepasados se llevaron parte del esqueleto del mastodonte en una actividad de carroñeo. Es decir, ellos no cazaron el animal y no se alimentaron de su carne, sino que únicamente trataron de obtener la médula de sus huesos.

Siguiendo esta argumentación, las marcas que vemos en los huesos bien pudieron producirlas los animales que sí se alimentaron de la carne; mientras que su fragmentación puede deberse a procesos geomórficos y no a la intervención del hombre.

–Las pretendidas herramientas de piedra son muy «básicas», es decir, no han sido trabajadas en absoluto. Esto descartaría a Homo sapiens como el autor de las mismas ya que éstos tenían una cultura lítica mucho más desarrollada.

Pero la alternativa no es más creíble. Si atribuimos su fabricación a parientes más lejanos como Homo erectus, tenemos el problema de atribuirles unos conocimientos avanzados de navegación así como la capacidad de superar temperaturas extremas con la confección de ropa de abrigo, que no casarían con unas habilidades tan básicas en la fabricación y utilización de herramientas. ¿Cómo pudieron ser capaces de construir embarcaciones resistentes para recorrer miles de kilómetros de costa y no disponer siquiera de un cuchillo de piedra?

–Por último, la datación tampoco es un dato que ofrezca demasiada seguridad. Hemos visto que el yacimiento cuenta ahora con tres dataciones muy diferentes, sin que los investigadores hayan explicado los motivos de las discrepancias entre ellas.

En definitiva, creo que con la publicación de este trabajo, y sobre todo con las conclusiones que se exponen, se ha perseguido únicamente obtener un impacto mediático (algo que sin duda han conseguido).

Con esto no pretendo negar la posibilidad de que nuestros antepasados hayan llegado al continente americano con anterioridad a las fechas que manejan de forma mayoritaria los especialistas. Lo que digo es que las pruebas descritas en el estudio que estamos analizando no son suficientes para afirmar que los humanos llegaron a América hace 130.000 años.

 

Referencias

  • Holen, S. R., et al. (2017), «A 130,000-year-old archaeological site in southern California, USA». Nature, vol. 544, núm. 7651, p. 479-483. Descarga el artículo aquí.
  • Información suplementaria del artículo. Descarga el archivo aquí.

 

Más información

Bibliografía para la datación

Bibliografía para la fractura de los huesos

  • García, V., et al. (2006), “Determinación de procesos de fractura sobre huesos frescos: un sistema de análisis de los ángulos de los planos de fracturación como discriminador de agentes bióticos”. Trabajos de prehistoria, vol. 63, núm. 1, p. 37-45.
  • Johnson, E. V.; Parmenter, P. C. R. y Outram, A. K. (2016), «A new approach to profiling taphonomic history through bone fracture analysis, with an example application to the Linearbandkeramik site of Ludwinowo 7». Journal of Archaeological Science: Reports, vol. 9, p. 623-629.
  • Outram, A. K. (2001), «A new approach to identifying bone marrow and grease exploitation: why the “indeterminate” fragments should not be Ignored». Journal of Archaeological Science, vol. 28, núm. 4, p. 401-410.
  • Pickering, T. R. y Egeland, C. P. (2006), «Experimental patterns of hammerstone percussion damage on bones: implications for inferences of carcass processing by humans». Journal of Archaeological Science, vol. 33, núm. 4, p. 459-469.

Bibliografía para el estudio de las herramientas líticas

  • Andrefsky, W. (2005), Lithics: macroscopic approaches to analysis. Cambridge; New York: Cambridge University Press, xxiv, 301 p.
  • Gillespie, J. D.; Tupakka, S. y Cluney, C. (2004), «Distinguishing between naturally and culturally flaked cobbles: A test case from Alberta, Canada». Geoarchaeology, vol. 19, núm. 7, p. 615-633.
  • Haynes, V. (1973), «The Calico Site: artifacts or geofacts?». Science, vol. 181, núm. 4097, p. 305-310.
  • Johnson, L. L., et al. (1978), «A history of flint-knapping experimentation, 1838-1976 [and Comments and Reply]». Current Anthropology, vol. 19, núm. 2, p. 337-372.
  • Lubinski, P. M.; Terry, K. y McCutcheon, P. T. (2014), «Comparative methods for distinguishing flakes from geofacts: a case study from the Wenas Creek Mammoth site». Journal of Archaeological Science, vol. 52, p. 308-320.

Notas

  1. Eventually the back wall of the excavation was up to 3 m high between the base of Bed E and the top of the sound-berm.
  2. El yunque no es más que una roca, de mayor tamaño que el resto y generalmente plana, sobre la que se apoyan los elementos a golpear.
Publicado por José Luis Moreno en ANTROPOLOGÍA, 4 comentarios