José Luis Moreno

Doctor en Derecho. Jurista amante de la ciencia y bibliofrénico. Curioso por naturaleza.
Doctor en Derecho. Jurista amante de la ciencia y bibliofrénico. Curioso por naturaleza.
“Estadísticamente significativo”. El valor p y sus controversias

“Estadísticamente significativo”. El valor p y sus controversias

     Última actualizacón: 17 marzo 2018 a las 16:57

En 2008 la revista Nature 1 publicaba un artículo de lectura obligada para todo aquel que divulgue ciencia. En él, Heidi Ledford llamaba la atención sobre algunos de los términos científicos más difíciles de definir, y uno de los ocho elegidos era precisamente «significativo», un adjetivo que los estadísticos emplean para describir la validez científica, y que los investigadores, respaldados o no por la estadística, emplean habitualmente para demostrar la importancia de sus descubrimientos.

Esta significación se ha determinado con el llamado «valor p». Es común leer una explicación de este concepto como la forma de expresar la probabilidad de que el resultado obtenido al realizar un experimento se deba al azar. Nosotros seremos más precisos: que una asociación entre dos variables es «estadísticamente significativa» quiere decir que puede descartarse que haya aparecido por azar, porque si no hubiera dicha asociación, resultados como el observado serían muy poco probables (esta probabilidad se expresa con una p. Un valor inferior a 0,05 es el límite estándar, por lo que un valor de p de 0,01 se califica como una asociación «muy significativa” entre las variables).

De acuerdo con la interpretación frecuente de este indicador, cuando se analiza por ejemplo la eficacia de un medicamento, un resultado experimental «significativo» con un valor p de 0,05 o menos significa que hay una probabilidad de un 5% o menos de que el medicamento no sea eficaz. Sin embargo, si tenemos en cuenta la definición precisa que ofrece la estadística, en realidad queremos decir que hay una probabilidad de un 5% o menos de obtener los datos observados incluso aunque el medicamento sea ineficaz. La diferencia puede parecer imperceptible; en cambio, matemáticamente, es crucial.

Andrew Lang (atribuido)

Entendamos cómo se construye la ciencia

El objeto de la ciencia es el conocimiento de la naturaleza, y la observación es el método idóneo para tal fin. Pero también necesitamos de la especulación, esto es, la investigación teórica que aporta la lógica o razonamiento lógico donde encontramos principalmente dos variantes: el razonamiento deductivo y el inductivo.

En la inferencia deductiva, comenzamos con una hipótesis cualquiera (una afirmación acerca de cómo funciona la naturaleza) y predecimos lo que deberíamos observar si la hipótesis fuera cierta. La deducción es objetiva en el sentido de que las predicciones acerca de lo que veremos son siempre ciertas si la hipótesis de partida es cierta. Su problema, en cambio, es que no podemos utilizar este razonamiento para ampliar nuestro conocimiento más allá de lo que está implícito en la hipótesis planteada.

La inferencia inductiva va en la dirección contraria: sobre la base de lo que observamos en la naturaleza, analizamos qué hipótesis es más viable. La ventaja del pensamiento inductivo es que nuestras conclusiones acerca de los estados no observados de la naturaleza son más amplias que las observaciones en las que están basadas; es decir, usamos esta forma de razonar para generar nuevas hipótesis y para aprender cosasnuevas que no habíamos intuido. La contrapartida es que no podemos estar seguros de que nuestras conclusiones sobre la naturaleza sean realmente ciertas, un inconveniente conocido como el problema de la inducción (puedes leer más en wikipedia o mejor en la Stanford Encyclopedia of Philosophy). Una buena forma de ejemplificar este problema es a través de la historia del descubrimiento de los cisnes negros: todos los cisnes que se podían ver en Europa eran blancos, de ahí que se aceptase que no existían cisnes de otro color. Cuando un explorador descubrió cisnes negros en Australia las concepciones previas tuvieron que cambiarse.

Los filósofos han luchado contra el problema de la inducción y han tratado de resolverlo o de esquivarlo de diferentes formas. Por ejemplo, Karl Popper propuso eliminar completamente la inducción formal y utilizar únicamente los elementos deductivos del razonamiento: los componentes predictivos y de refutación. Por su parte, Rudolf Carnap intentó la estrategia contraria, es decir, hacer el componente inductivo del razonamiento tan seguro como la parte deductiva. Al final comprendieron que no hay una solución metodológica al problema del conocimiento científico falible.

Tomado de Casino, G. (2013)

El método científico propone hipótesis que representan la naturaleza, recoge datos y las pone a prueba con ellos, es decir, la ciencia establece puentes entre las ideas y los datos. La ciencia es falible, en el sentido de que los futuros datos pueden hacer fallar las hipótesis previas, de ahí que los modelos científicos sean constantemente abandonados en beneficio de otros que los mejoran y matizan. En consecuencia, no se pretende que las hipótesis sean definitivamente ciertas, pero sí que sean útiles y ofrezcan claves para interpretar el funcionamiento de la naturaleza.

Y aquí es donde entra la estadística. Determinar qué verdad subyacente es la más probable sobre la base de los datos obtenidos es un problema de probabilidad inversa que solucionó cuantitativamente el reverendo Thomas Bayes hace más de 250 años. En términos no matemáticos, el teorema de Bayes dice que la probabilidad inicial o teórica de un suceso cualquiera puede ser modificada si se cumple alguna condición que afecta a ese suceso, dependiendo de la probabilidad de esa condición y de la probabilidad de que cuando tal condición se cumple se vea afectado el suceso inicial.

Por ejemplo, si seleccionamos una persona al azar, la probabilidad de que sea diabética es 0,03 (por lo tanto, la probabilidad de que no lo sea es 0,97). Si no disponemos de más información ahí queda todo. Pero si tras realizar un análisis de sangre comprobamos que los niveles de glucosa son superiores a 1.000 mg/l (lo que ocurre en el 95% de los diabéticos y sólo en un 2% de las personas sanas) ¿cuál será ahora la probabilidad de que esa persona sea diabética? La respuesta según el teorema de Bayes es que esa información adicional hace que la probabilidad aumente ahora a 0,595.

De esta forma, la información facilitada por el análisis de sangre aumenta la probabilidad inicial de padecer diabetes de 0,03 a 0,595. Correlativamente, si la prueba del análisis de sangre hubiese sido negativa, esta información modificaría las probabilidades de padecer la enfermedad en sentido contrario (en nuestro caso, esta probabilidad se reduciría a 0,0016).

Las críticas a esta metodología se centran en que es preciso asignar una probabilidad inicial a la verdad de una hipótesis (en nuestro ejemplo, la probabilidad de que una persona cualquiera sea diabética), un número considerado «subjetivo» y cuyo valor científico no está del todo claro (quizás por este motivo Bayes no hizo público su descubrimiento y solamente lo conocimos después de su muerte).

Debido a la subjetividad de este método, el esfuerzo de los científicos se centró en desarrollar una inferencia estadística alternativa que utilizara únicamente probabilidades deductivas, calculadas con fórmulas matemáticas que describieran (bajo ciertas asunciones) la frecuencia de todos los resultados experimentales posibles cuando ese experimento se repetía muchas veces. De esta forma se introdujo un índice para medir la fuerza de la prueba llamado «valor p” (propuesto por Fisher en la década de los años veinte del siglo pasado 2.) y un método para elegir entre hipótesis (llamado contraste de hipótesis) desarrollado más tarde por los estadísticos Neyman y Pearson 3.

En realidad estos dos métodos son incompatibles entre sí, pero erróneamente se les considera como parte de un enfoque único y coherente para obtener inferencias estadísticas.

El valor p y el contraste de hipótesis

El «valor p» se propuso originalmente como un índice para medir la discrepancia entre los datos y una hipótesis nula (H0), pero no era parte de un método formal de inferencia. Para su aplicación, los investigadores debían establecer en primer lugar la hipótesis nula que querían refutar ya que la hipótesis alternativa (H1), a la que se contrapone, es la que el investigador pensaba realmente que es la causa de un fenómeno dado. Por ejemplo:

H0 – el ibuprofeno no disminuye el dolor.

H1 – el ibuprofeno disminuye el dolor.

Una vez fijadas las dos hipótesis, debían hacer de abogados del diablo y someter la hipótesis nula a experimentación. El valor p se define entonces como la probabilidad, bajo la asunción de que no hay un efecto (esto es, que la hipótesis nula es cierta) de obtener un resultado igual o más extremo del que se observa en realidad.

La mayoría de los investigadores interpretan que un valor p de 0,05 significa que la hipótesis nula tiene una probabilidad del 5% de ser cierta (es decir, que hay un 95% de probabilidades de que la hipótesis nula sea incorrecta). Sin embargo, esta interpretación es equivocada porque el valor p se calcula sobre la base de que la hipótesis nula es cierta, por lo que no puede ser una medida directa de la probabilidad de que ésta sea falsa.

Neyman y Pearson vieron el valor p propuesto por Fisher como una respuesta incompleta al problema de obtener un método inferencial que dejara de lado el «subjetivo» el teorema de Bayes. En su lugar propusieron el contraste de hipótesis (también llamado test de hipótesis o prueba de significación): en este caso hay que plantear dos hipótesis acerca de la naturaleza, una hipótesis nula (normalmente la afirmación de que hay un efecto nulo) y la hipótesis alternativa, que normalmente es la contraria de la hipótesis nula (por ejemplo, que hay un efecto distinto a cero). El resultado del contraste de hipótesis tenía que ser un comportamiento, no una inferencia: el experimentador tenía que rechazar una hipótesis y aceptar la otra únicamente sobre la base de los datos. Esto ponía a los investigadores ante el riesgo de cometer dos tipos de errores: el primero —y refiriéndonos por ejemplo a una investigación biomédica— pensar que dos tratamientos son diferentes cuando en realidad son el mismo (también conocido como el resultado falso-positivo), o concluir que son el mismo cuando de hecho difieren (resultado falso-negativo).

El desarrollo de este modelo supuso un paso adelante pero como modelo científico era problemático. En particular, no incluía una forma de valorar las pruebas obtenidas experimentalmente (es decir, no se obtenía ninguna conclusión de los datos que llevara a las hipótesis subyacentes). Pero si lo pensamos, esta omisión era necesaria porque Neyman y Pearson trataban evitar acudir al teorema de Bayes, que es precisamente a donde conduce la inducción. En realidad proponían un cambio en el objetivo de la ciencia: ya no se trataba de razonar inductivamente a través de experimentos individuales, sino utilizar métodos deductivos para limitar el número de errores que se podían cometer durante la realización de muchos experimentos diferentes 4 ninguna prueba basada en una teoría de la probabilidad puede por sí misma proporcionar ninguna prueba de la verdad o falsedad de una hipótesis”.]. Por lo tanto, debemos abandonar la posibilidad de medir o juzgar la verdad de un experimento individual.

Creo que muchos considerarán esta forma de actuar como profundamente acientífica —y estarían completamente en lo cierto— sin embargo, este procedimiento se mantiene a menudo como un paradigma del método científico.

La solución aparente

¿Cómo parece resolver el valor p un problema que no tiene solución? En parte dando la impresión de que el valor p es una medida de la prueba de un solo experimento que no viola la lógica a largo plazo impuesta por el contraste de hipótesis.

Adaptado de Goodman (1999).

La figura de arriba muestra la semejanza aparente entre el valor p y el valor α (la tasa de error de falsos positivos). Ambas son probabilidades que limitan el área de la hipótesis nula. El límite correspondiente a la tasa de error de falsos positivos (α) del contraste de hipótesis se fija antes de que comience el experimento (como hemos apuntado, de forma estandarizada se sitúa a 0,05), mientras que el valor p se establece en función de los datos experimentales. Su similitud superficial hace que sea fácil llegar a la conclusión de que el valor p es un tipo especial de tasa de error de falsos positivos, un valor específico para los datos que se están manejando.

Además, siguiendo la lógica de Fisher de que el valor p mide la severidad con la que la hipótesis nula es contradicha por los datos (es decir, que podría servir como una medida de la prueba en contra de la hipótesis nula), tenemos un índice que cumple una doble función: parece que es una tasa de error de falsos positivos de Neyman-Pearson, y una medida de Fisher de la evidencia en contra de la hipótesis nula.

La idea de que el valor p puede desempeñar ambas funciones se basa en una falacia: que un evento se puede observar simultáneamente tanto desde una perspectiva a largo plazo como a corto plazo. En la perspectiva a largo plazo, basada en el error y de tipo deductivo, agrupamos el resultado observado junto con otros resultados que puedan haber ocurrido en las repeticiones hipotéticas del experimento. En la perspectiva de corto plazo, que es evidencial e inductiva, tratamos de evaluar el significado del resultado de un solo experimento. Si pudiéramos combinar estas perspectivas, significaría que el fin de la inducción (extraer conclusiones científicas) se podría cumplir con métodos puramente deductivos (cálculos de probabilidad objetiva). Estas dos visiones no son reconciliables porque un resultado concreto (el corto plazo) puede incluirse legítimamente en diferentes perspectivas a largo plazo.

En definitiva, este resultado desconcertante viene del intento de describir el comportamiento del largo plazo y el significado del corto plazo utilizando el mismo número. Otra forma de explicar la falacia del valor p es que un resultado no puede al mismo tiempo ser un elemento anónimo (intercambiable) de un grupo de resultados (la visión a largo plazo) y un elemento identificable (único) (la visión a corto plazo).

Conclusiones

Muchos investigadores (de distintas disciplinas científicas) ha criticado tanto la utilización del valor p como del método de contraste de hipótesis, llegando a afirmar que su publicación en revistas con revisión por pares supone un respaldo a la pseudociencia 5. Entre otras lindezas, se ha dicho que  los valores p son como los mosquitos, que «[…] tienen un nicho evolutivo en alguna parte y por más que nos rasquemos, los aplastemos, o pulvericemos no los haremos caer.»; o que son como el traje nuevo del emperador (lleno de problemas evidentes que todo el mundo ignora); o la herramienta de un «intelectual libertino y estéril» que embelesa a las doncellas pero no proporciona descendencia científica viable. Un investigador 6 ha sido más creativo al sugerir incluso rebautizar la metodología como «pruebas de inferencia de hipótesis estadísticas» (statistical hypothesis inference testing), que forma un acrónimo muy descriptivo (SHIT, palabra inglesa que no necesita traducción).

Para clarificar un poco este tema, vamos a reproducir en doce puntos las principales ideas equivocadas acerca del valor p y el contraste de hipótesis 7:

  1. El valor p es la probabilidad de que los resultados se podrán reproducir si el estudio se lleva a cabo de nuevo (falso).
  2. Debemos tener más confianza en los valores p obtenidos con Ns (número total de datos) más grandes que pequeños Ns (esto no sólo es falso, sino que es al revés).
  3. El valor p es una medida del grado de confianza del resultado obtenido (falso).
  4. El valor p automatiza el proceso de hacer una inferencia inductiva (falso, el investigador tiene que hacerlo por sí mismo, y la mayoría no se molestan).
  5. El contraste de hipótesis presta objetividad al proceso inferencial (en realidad no lo hace).
  6. El valor p es una inferencia de los parámetros poblacionales a nuestra hipótesis de investigación (falso, es sólo una inferencia de una muestra de datos estadísticos a los parámetros de la población).
  7. El valor p es una medida de la confianza que debemos tener en la veracidad de nuestra hipótesis de investigación (falso).
  8. El valor p dice algo acerca de los elementos de su muestra (no, no lo hace).
  9. El valor p es una medida de la validez de las inducciones hechas sobre la base de los resultados (falso).
  10. El valor p es la probabilidad de que la hipótesis nula sea verdadera (o falsa) según los datos (no lo es).
  11. El valor p es la probabilidad de que la hipótesis alternativa sea verdadera (o falsa; en ambos casos es falso).
  12. El valor p es la probabilidad de que los resultados obtenidos se hayan producido por azar (una creencia muy popular pero, no obstante, false).

Debemos reiterar que todo lo que puede hacer el valor p es sacar una conclusión de los datos asumiendo una hipótesis nula específica. La clave está en que no puede trabajar de manera inversa y hacer declaraciones acerca de la realidad subyacente, eso requiere otra pieza de información: las probabilidades de que un efecto real estuviera allí previamente.

Los investigadores deberían comenzar por informar acerca del efecto de los tamaños de la muestra y los intervalos de confianza. Estos últimos transmiten lo que un valor p no puede: la magnitud y la importancia relativa de un efecto.

En definitiva, ante la pregunta de cómo decide un investigador qué nivel tiene que alcanzar un efecto para que sea preciso informar de él, la respuesta nunca podrá venir de la estadística. Después de todo, no debemos olvidar que el investigador está haciendo ciencia no estadística, por lo que el concepto de qué es «significativo» debería estar basado en la ciencia y en el criterio del científico.

Referencias

Audi, R. (2004), Diccionario Akal de filosofía. Madrid: Akal, 1049 p.

Casino, G. (2013), Bioestadística para periodistas y comunicadores. Barcelona: Fundación Dr. Antonio Esteve, ix, 80 p.

Goodman, S. N. (1999), «Toward evidence-based medical statistics. 1: The P value fallacy». Annals of Internal Medicine, vol. 130, núm. 12, p. 995-1004.

Goodman, S. N. (2001), «Of P-values and Bayes: a modest proposal». Epidemiology, vol. 12, núm. 3, p. 295-297.

Lambdin, C. (2012), «Significance tests as sorcery: Science is empirical—significance tests are not». Theory & Psychology, vol. 22, núm. 1, p. 67-90.

Ledford, H. (2008), «Language: Disputed definitions». Nature, vol. 455, núm. 7216, p. 1023-1028.

Nuzzo, R. (2014), «Statistical errors». Nature, vol. 506, núm. 13, p. 150-152.

Simmons, J. P.;Nelson, L. D. y  Simonsohn, U. (2011), «False-positive psychology: undisclosed flexibility in data collection and analysis allows presenting anything as significant». Psychological Science, vol. 22, núm. 11, p. 1359-1366.

Notas

  1. Ledford, H. (2008), «Language: disputed definitions». Nature, vol. 455, núm. 7216, p. 1023-1028.
  2. Fisher R. (1925), Statistical methods for research workers. New York: Hafner
  3. Neyman J, Pearson E. (1933), “On the problem of the most efficient tests of statistical hypotheses”. Philosophical Transactions of the Royal Society, Series A, vol. 231, p. 289-337.
  4. Tal y como dejaron escrito: «[…
  5. Lambdin, C. (2012), «Significance tests as sorcery: Science is empirical—significance tests are not». Theory & Psychology, vol. 22, núm. 1, p. 67-90.
  6. Cohen, J. (1994), “The earth is round (p < .05)!. American Psychologist, núm. 12, p. 997–1003.
  7. Tomado de Lambdin, C. (2012), «Significance tests as sorcery: Science is empirical—significance tests are not». Theory & Psychology, vol. 22, núm. 1, p. 67-90.
Publicado por José Luis Moreno en CIENCIA, 2 comentarios
Optogenética: arrojando luz sobre la neurociencia

Optogenética: arrojando luz sobre la neurociencia

     Última actualizacón: 7 diciembre 2016 a las 13:35

Esta entrada participa en la II edición del Carnaval de Neurociencias

La segunda edición del carnaval de neurociencias nos plantea a los participantes hablar acerca del descubrimiento más importante en la historia de la neurociencia. Estarán de acuerdo conmigo en que elegir el “descubrimiento” más importante de cualquier disciplina científica es un reto abrumador, mayor aún si tenemos en cuenta el campo de la ciencia que estamos tratando. En cualquier caso, aún a riesgo de dejar de lado acontecimientos muy relevantes, he optado por centrar la presente aportación en una técnica relativamente reciente que ha experimentado un avance acelerado y se ha convertido en parte fundamental del trabajo diario en cientos de laboratorios de todo el mundo. Voy a hablar de la optogenética.

Desde que D. Santiago Ramón y Cajal revolucionara la neurociencia con sus trabajos de tinción de neuronas, demostrando que el tejido cerebral está compuesto por células individuales —lo que ha venido a llamarse “doctrina de la neurona”—, los investigadores han asumido que para entender la forma en la que nuestro cerebro procesa la información que recibe de los sentidos, es capaz de pensar o memorizar, es preciso conocer a fondo los circuitos neuronales. Hoy en día somos capaces de visualizar poblaciones enteras de células y las conexiones sinápticas que se forman entre ellas, pero la dificultad reside en saber cómo se transmite la información a través de las sinapsis individuales, y la forma en la que los diferentes tipos de neuronas y sus conexiones dan lugar a las redes funcionales que llevan a cabo tareas como recordar dónde hemos dejado el coche, saber si un café está demasiado caliente o comprender que alguien nos está gastando una broma.

La forma habitual de afrontar este problema ha partido de identificar qué neuronas se activan al mostrar al sujeto de estudio una imagen, un sonido o un aroma. A continuación se determina el trayecto que sigue la señal y se miden las señales eléctricas detectadas en esas posiciones. Conocidos estos datos podemos concluir que esas neuronas están directamente implicadas en el procesamiento de la información percibida.

Pero ahora sabemos que las señales sensoriales sufren importantes cambios mientras se alejan de los ojos, oídos o nariz, lo que aumenta la dificultad para saber qué señales corresponden a las respuestas de tales órganos.

Por otro lado, nuestra capacidad para comprender los circuitos neuronales ha mejorado de forma notable gracias a la resonancia magnética funcional (RMf). Esta técnica proporciona mapas detallados de la actividad neuronal en respuesta a diversos estímulos, aunque en realidad solo muestra los cambios en los niveles de oxígeno de la sangre de diferentes regiones del cerebro, cambios que representan sólo de forma aproximada la verdadera actividad neuronal…

Francis Crick hizo esta afirmación en un artículo publicado en 1979 1. Para él, la mayor dificultad a la que se enfrentaba la neurociencia era poder ejercer el control sobre un cierto tipo de neuronas sin afectar a otras para comprender su funcionamiento. Los métodos disponibles hasta el momento no permitían ni de lejos ese tipo de detalle. Por ejemplo, los estímulos eléctricos (mediante electrodos implantados en el cerebro) actúan sobre todas las neuronas sin distinguir entre tipos celulares. La idea que planteó Crick hace más de 30 años ya es una realidad.

Karl Deisseroth  2, uno de los inventores de esta técnica, explica que la optogenética combina los conocimientos en genética y óptica para controlar sucesos específicos en el interior de determinadas células de un tejido vivo (no solo de las neuronas) mediante la inserción de unos genes concretos que las convierten en fotosensibles. La optogenética comprende además las técnicas que permiten suministrar luz al cerebro, dirigir el efecto de la luz hacia los genes y células de interés y la evaluación de los resultados.

Los principales investigadores en este campo han sido galardonados con importantes premios, y en 2010 la propia técnica fue elegida método del año por la prestigiosa revista Nature Methods, y uno de los principales descubrimientos de la década.

¿Qué es la optogenética?

El funcionamiento del cerebro (y con él, del sistema nervioso central) depende de la conectividad de las neuronas operada a través de mensajes bioquímicos o eléctricos: la transmisión eléctrica se basa en la generación de potenciales de acción; mientras que la transmisión bioquímica descansa en la liberación de neurotransmisores.

No profundizaremos mucho en este mecanismo pero para entender la utilidad de la optogenética es necesario conocer, al menos de forma elemental, cómo se produce esa transmisión de información. Su propagación se debe a la diferencia de potencial que se genera por las distintas concentraciones de iones a ambos lados de la membrana celular (principalmente iones de Sodio (Na+) Potasio (K+), Calcio (Ca2+), Magnesio (Mg2+) y Cloro (Cl-). De esta forma, se origina una diferencia de carga eléctrica de unos -70 mV (denominado potencial de reposo).

Cuando se aplica un estímulo sobre una neurona se produce una entrada masiva de cationes de Sodio y Calcio en la neurona, mientras que el Potasio sale de ella. Esto se traduce en un cambio muy rápido en la polaridad de la membrana de negativo a positivo y vuelta a negativo, en un ciclo que dura unos milisegundos. La diferencia entre ambos estados es aproximadamente de 120 mV y ello genera (o dispara) un potencial de acción que se transmite a lo largo del axón neuronal (para hacernos una idea, este voltaje es menos de la décima parte del que posee una pila LR06 de las que tenemos en casa).

Cuando ese potencial de acción alcanza la terminación del axón provoca que las vesículas cargadas con neurotransmisores (los mensajeros bioquímicos) liberen su contenido al espacio extracelular.

El inconveniente a la hora de estudiar este complicado proceso surge porque el tejido neuronal está formado por células de varios tipos. Dado que las interacciones entre los tipos concretos de neuronas es la base del procesamiento de la información nerviosa, si queremos comprender el funcionamiento de un circuito específico tendremos que ser capaces de identificar y observar cada participación individual y señalar en qué momento se activan (generan un potencial de acción) y se desactivan. Lograr esto con las técnicas anteriores era imposible.

Pero ¿y si fuera posible ver esa comunicación neuronal individualizada? La optogenética nació cuando se cayó en la cuenta de que la manipulación genética podía ser la clave para resolver el problema que planteaba la tinción o estimulación indiscriminada de neuronas. Aunque todas las células de un individuo tienen los mismos genes, su activación o desactivación sigue unas pautas concretas en función de la ubicación y función de cada célula.

Con estas palabras definió el equipo del doctor Karl Deisseroth el término “optogenética” cuando lo utilizó por primera vez en un artículo publicado en el año 2006 en el Journal of neuroscience 3.

Y lo cierto es que el mecanismo parece sencillo. Lo primero que necesitamos es hacer que nuestras neuronas objetivo sean sensibles a la luz. Desde hace unos cuarenta años se sabe que algunos microorganismos producen proteínas que regulan el flujo de cargas eléctricas (los famosos iones de los que hemos hablado) a través de sus membranas en respuesta a la luz visible. Estas proteínas, cuya síntesis depende de un conjunto de genes de opsinas, ayudan al microorganismo a extraer energía e información de la luz del entorno, y ahora nos ayudan a nosotros a desentrañar los misterios de nuestro sistema nervioso. Los distintos tipos de opsinas se diferencian en cuanto a la fotosensibilidad y al comportamiento.

Adaptado de Zhang, F., et al. (2010) y Deisseroth, K. (2011).

Chlamydomonas reinharatii es un alga unicelular móvil, dotada de un par de flagelos que le permiten nadar en agua dulce. Volvox carteri es un alga estrechamente relacionada con Chlamydomonas y posee cientos de células que adoptan la forma de una colonia globular. Por último, Natronomonas pharaonis es una arqueobacteria que vive solo en aguas hipersalinas.

En la imagen superior vemos como la canalorrodopsina ChR2 permite el paso de los iones de sodio en respuesta a la luz azul. La canalorrodopsina VChR1 responde a algunas longitudes de onda de la luz amarilla y verde, mientras que la halorrodopsina NpHR regula el flujo de iones de cloro en respuesta a la luz amarilla.

Una vez que disponemos de los genes de opsinas y conocemos su funcionalidad, el siguiente paso es insertarlos en las neuronas diana con la ayuda de virus modificados que actúan como vectores. Primero se combina un gen de opsina con un promotor (el elemento que hará que el gen se active únicamente en un tipo de célula específico). En segundo lugar se introduce el gen modificado en un virus que a su vez se inyecta en el cerebro, por ejemplo, de un ratón de laboratorio. El virus infectará un gran número de neuronas, pero gracias al promotor (que se convierte así en una especie de guía laser), sólo un tipo de ellas sintetizará la proteína opsina. No tenemos más que desencadenar la actividad neuronal mediante destellos de luz y observar los efectos en el comportamiento de los animales de experimentación.

Adaptado de Hausser, M. (2014).

La optogenética se puede aplicar en todos los niveles de la función cerebral. Una variedad de aplicaciones utilizan sondas optogenéticas tanto para leer como manipular la actividad, lo que proporciona una poderosa herramienta para establecer vínculos causales entre estos niveles.

Además, las ventajas de usar la luz como desencadenante son evidentes: no es invasiva, se puede dirigir con gran precisión espacial y temporal, y se puede utilizar de forma simultánea en diferentes localizaciones y longitudes de onda. De hecho, se han identificado un grupo de proteínas que permiten la activación o inactivación de distintas neuronas con milisegundos de precisión.

Por ello, gracias a este “interruptor genético” accionado por la luz podemos encontrar todas las neuronas que nos interesen (las que producen dopamina, por ejemplo) y controlarlas sin necesidad de saber de antemano dónde están.

Su importancia para la sociedad

La optogenética se ha empleado en diversos modelos animales para cartografiar las proyecciones neuronales, examinar la plasticidad neuronal y llevar a cabo simulaciones en los circuitos relacionados con diferentes enfermedades.

Esta técnica ha traído consigo por ejemplo una importante mejora de nuestro conocimiento sobre la enfermedad de Parkinson. Algunos pacientes con Parkinson han experimentado cierto alivio de los síntomas gracias a la estimulación cerebral profunda, una técnica que aplica una estimulación eléctrica leve de alta frecuencia en una zona específica del tálamo —el globo pálido o el núcleo subtalámico— por medio de un electrodo implantado en el encéfalo.  Su función es enviar una señal eléctrica a estas áreas específicas del cerebro que controlan el movimiento, bloqueando de esta forma las señales nerviosas anormales.

Sin embargo, se ha comprobado que las ventajas de esta técnica son limitadas porque los electrodos estimulan también las neuronas colindantes de forma no selectiva incluso cuando los electrodos se colocan con precisión milimétrica. Esta electroestimulación puede modular células mucho más distantes al actuar sobre las fibras de paso, y desconocemos los efectos que esto puede tener a largo plazo.

La optogenética ha permitido comprender (aunque todavía en modelos animales) que la estimulación cerebral profunda resulta más efectiva cuando no va dirigida a las células sino a las conexiones entre ellas, lo que modifica el flujo de actividad entre las regiones del cerebro. Gracias a la precisión que ofrece ha sido posible realizar una cartografía funcional de dos rutas diferentes en los circuitos cerebrales vinculados al movimiento: una que ralentiza los movimientos y otra que los acelera. Este conocimiento podría contrarrestar los síntomas de la enfermedad de forma más efectiva y duradera.

Conclusiones

Como sucede siempre que se abre un nuevo campo de investigación, la mejora pareja de la tecnología amplía enormemente su potencial. Por ejemplo, se han desarrollado instrumentos para medir las señales eléctricas obtenidas mediante optogenética —con una precisión de milisegundos— en los que se han integrado fibra óptica y electrodos (llamados “optodos”). Del mismo modo, el uso conjunto de la optogenética y la RMf permite cartografiar circuitos neuronales funcionales con una precisión y una integridad imposibles de conseguir mediante electrodos o medicamentos.

Así, al conocer la forma de actuación de los circuitos neuronales sanos, se podrá aplicar ingeniería inversa para identificar las propiedades alteradas en las enfermedades psiquiátricas y neurológicas, con lo que se facilitará el desarrollo de tratamientos que restablezcan la normalidad en esos circuitos.

En definitiva, como sostiene Deisseroth, la optogenética está contribuyendo a que la psiquiatría adopte un enfoque próximo a la ingeniería de redes, en el que las funciones complejas del cerebro (y los comportamientos que generan) se interpretan como propiedades del sistema que surgen de la dinámica electroquímica de las células y de los circuitos que lo componen. Ahora podemos comprender de forma más completa los mecanismos subyacentes a trastornos como la ansiedad o el autismo, lo que sin duda facilitará la búsqueda de soluciones terapéuticas.

Referencias

Brain Research through Advancing Innovative Neurotechnologies (BRAIN) Working Group Report to the Advisory Committee to the Director, NIH

Crick, F. H. (1979), «Thinking about the brain». Scientific American, vol. 3, núm. 241, p. 219-232.

Deisseroth, K., et al. (2006), «Next-generation optical technologies for illuminating genetically targeted brain circuits«. The Journal of neuroscience: the official journal of the Society for Neuroscience, vol. 26, núm. 41, p. 10380-10386.

Deisseroth, K. (2011), «Control del cerebro por medio de la luz». Investigación y Ciencia, núm. 412, p. 22-29.

Ferrús, A. (2007), Viaje al universo neuronal: unidad didáctica. Madrid: Fundación Española para la Ciencia y la Tecnologia, 276 p.

Hausser, M. (2014), «Optogenetics: the age of light«. Nat Meth, vol. 11, núm. 10, p. 1012-1014.

Nan, L. y  Peng, M. (2014), «Let there be light: a tutorial on optogenetics«. Pulse, IEEE, vol. 5, núm. 4, p. 55-59.

Reiner, A. y Isacoff, E. Y. (2013), «The Brain Prize 2013: the optogenetics revolution». Trends in Neurosciences, vol. 36, núm. 10, p. 557-560.

Zhang, F., et al. (2010), «Optogenetic interrogation of neural circuits: technology for probing mammalian brain structures«. Nature protocols, vol. 5, núm. 3, p. 439-456.

Notas

  1. Crick, F. H. (1979), «Thinking about the brain». Scientific American, vol. 3, núm. 241, p. 219-232.
  2. Deisseroth, K. (2011), «Control del cerebro por medio de la luz». Investigación y Ciencia, núm. 412, p. 22-29.
  3. Deisseroth, K., et al. (2006), «Next-generation optical technologies for illuminating genetically targeted brain circuits«. The Journal of neuroscience: the official journal of the Society for Neuroscience, vol. 26, núm. 41, p. 10380-10386.
Publicado por José Luis Moreno en CIENCIA, Historia de la ciencia, MEDICINA, 7 comentarios
¿Se aclara el origen del género Homo? Los restos de Ledi-Geraru

¿Se aclara el origen del género Homo? Los restos de Ledi-Geraru

     Última actualizacón: 11 marzo 2018 a las 17:28

Durante décadas, los paleoantropólogos han querido encontrar fósiles que sirvieran para aclarar el origen del género Homo, nuestro linaje, pero hasta ahora los especímenes recuperados en el intervalo de tiempo crítico entre hace 3 y 2,5 millones de años (Ma), cuando se estima que surgió, han sido escasos y aparecen mal conservados. Hoy analizamos la publicación el pasado 4 de marzo de tres trabajos que pueden dar un vuelco a nuestro conocimiento de este periodo clave.

En el primero de ellos 1 se hace una revisión de un conocido fósil asignado a Homo habilis. Se trata de una reconstrucción en 3D del cráneo y la mandíbula hallados en la Garganta de Olduvai en los años 60 del siglo pasado. Los autores han llegado a la conclusión de que esta especie es más antigua de lo que se creía y pudo aparecer hace 2,3 Ma en lugar de los 1,8 Ma estimados hasta ahora.

Los otros dos artículos, publicados en la revista Science, van más allá. El primero 2 describe una nueva mandíbula de una especie sin catalogar pero que se atribuye al género Homo. El segundo 3 analiza el contexto geológico en el que se descubrió esa mandíbula. La datación precisa de ese sustrato permite adelantar la aparición de este género a los 2,8 Ma. Nos encontraríamos por tanto ante el humano más antiguo conocido hasta la fecha.

Historia

Entre 1960 y 1964, el equipo formado por el matrimonio Leakey y sus colaboradores encontraron en la Garganta de Olduvai un conjunto de restos fósiles cuya interpretación generó una gran controversia desde el primer momento. Uno de ellos, OH 7 (Olduvai hominid nº 7, apodado Jonny´s child) 4 correspondía a una mandíbula inferior, un hueso parietal fragmentado y varios huesos de la mano. Junto a otros especímenes localizados en la zona, se pensó que por la edad y por su morfología apuntaban hacia un tipo de australopitecino. Sin embargo, en 1964, Leakey, Tobías y Napier propusieron incluir todos esos restos en el género Homo, dentro de una nueva especie: Homo habilis 5. Conocido como el hombre hábil (habilis significa en latín “capaz, habilidoso, mentalmente desarrollado, vigoroso”) se consideró la especie más antigua de nuestro género al ser datada en el rango de 1,9 y 1,6 Ma.

OH 7.

Como hemos apuntado, esta adscripción provocó un intenso debate (que continúa hoy en día) donde todos los rasgos morfológicos han sido criticados con severidad: algunos discuten que este material sea lo suficientemente diferente a Australopithecus africanus como para merecer el reconocimiento de una nueva especie, mientras que otros sostienen que son indistinguibles de Homo erectus. De esta forma, los especímenes de Homo habilis han sido reclasificados como pertenecientes tanto a Australopithecus como a Homo erectus, por lo que la pregunta sería: ¿cómo es posible que los especialistas incluyan unos mismos fósiles en dos géneros tan diferentes? La respuesta tiene que ver con la morfología. Estos restos presentan una morfología intermedia, cuya adscripción a una u otra categoría depende de si se hace hincapié en las semejanzas o en las diferencias.

Además de la morfología y su adscripción taxonómica, para que Homo habilis ocupe la situación de especie fundadora del género humano hay que resolver el problema de la cronología, porque sus restos fósiles son virtualmente contemporáneos a los de Homo erectus, una especie más moderna, más “evolucionada”, es decir, morfológicamente más próxima a nuestra especie. Debemos tener presente que entre Homo habilis y los últimos australopitecos como Lucy (que también vivieron en Etiopía) medió casi un millón de años del que no conservamos restos.

Y en este enorme vacío es donde entra en escena la nueva mandíbula descubierta: los autores sostienen que este nuevo fósil representa un hominino justo de ese periodo y en plena metamorfosis.

Reconstrucción del espécimen OH 7

Como ya hemos apuntado, los restos recuperados adscritos a Homo habilis eran fragmentarios y estaban muy deformados, complicando enormemente la tarea de compararlos con otros fósiles. Ahora, un grupo de investigadores de Alemania, Tanzania y Reino Unido ha logrado reconstruir digitalmente los fragmentos del cráneo y la mandíbula de este fósil, y así han podido compararlos con otros fósiles tempranos del género Homo.

Reconstrucción cráneo OH 7.

La mandíbula reconstruida es muy primitiva, con una arcada dental larga y estrecha más similar a Australopithecus afarensis (la famosa Lucy) y a otros simios actuales que a las arcadas parabólicas de Homo sapiens u Homo erectus. Además, esta forma de la mandíbula tampoco es compatible con otros fósiles previamente asignados a Homo habilis como el maxilar AL 666-1.

La morfología de este último se separa claramente de los australopitecinos, aunque clasificarlo dentro de una especie concreta de Homo es más complejo porque los rasgos que presenta son derivados pero compartidos por todo el género. La conclusión es que AL 666-1 presenta rasgos más modernos que OH 7 aunque con una antigüedad mucho mayor: 500.000 años. Por este motivo, los investigadores sostienen ahora que la mandíbula OH 7 debe tener una antigüedad como mínimo de 2,3 Ma, y que el linaje de Homo habilis se originó antes de lo pensado hasta ahora. De esta forma se llenaría el hueco que existía entre los restos disponibles de los primeros Homo y el momento de la supuesta aparición del género.

Restos hallados en Ledi Geraru.

Por otro lado, la reconstrucción de los huesos parietales de OH 7 confirma que el cráneo no es tan primitivo, y ha permitido establecer mejor su volumen endocraneal: entre 729 y 824 cc. Este valor es mayor que cualquier otro publicado anteriormente para estos restos, y hace hincapié en la coincidencia casi completa en el tamaño del encéfalo entre las especies de los primeros Homo.

Un nuevo fósil: LD 350-1

El estudio del nuevo fósil ha sido publicado en la revista Science 2 y describe parte de una mandíbula, identificada como LD 350-1, hallada gracias al proyecto de investigación Ledi-Geraru en la Región de Afar (Etiopía). Debido a su fragmentación y al pobre estado de conservación, los investigadores han decidido ser conservadores y catalogar el fósil dentro del género Homo, especie indeterminada.

LD 350.

Nos encontramos con la parte izquierda de una mandíbula inferior que conserva cinco dientes. El análisis morfológico indica que el fósil combina rasgos primitivos de los australopitecinos con características más modernas del género Homo. Por un lado, posee unos dientes pequeños, molares estrechos y premolares simétricos como en los Homo posteriores; mientras que el retroceso de la barbilla (un rasgo primitivo) relaciona este espécimen con un antepasado parecido a Lucy.

La datación de los restos se analiza en otro estudio publicado de forma simultánea 3. La datación de LD 350-1 y la fauna asociada se ha realizado triangulando varios métodos: la datación radiométrica de cenizas volcánicas mediante el método argón – argón (40Ar/39Ar), geoquímica, paleomagnetismo y fauna. Sin embargo hay un dato que llama la atención y debe hacernos ser cautos: la mandíbula se encontró en la superficie, y aunque los investigadores dicen que el desplazamiento de las rocas datadas de forma fiable ha sido mínimo (la mandíbula y este fragmento de roca estaban situados diez metros por encima de otro nivel de origen volcánico datado en 2,84 Ma), quedan ciertas dudas de la antigüedad que se le atribuye.

Aún así, el análisis de los resultados ha permitido concluir que nuestro espécimen vivió en un hábitat abierto o mezcla de praderas mixtas y matorrales con bosques de galería al borde de ríos o humedales (podemos imaginarlo similar al actual Serengeti o Masai Mara). Allí podíamos encontrar antílopes prehistóricos, hipopótamos, elefantes primitivos, cocodrilos y peces que han permitido datar el conjunto entre los 2,5 y 2,8 Ma.

Conclusiones

El debate acerca de la especie Homo habilis viene de antiguo. En Olduvai se han  encontrado varios fósiles (OH 13, OH 24, OH 7 y OH 16 entre otros) que pueden dividirse en dos grupos en atención a sus diferencias morfológicas, lo que ha llevado a que algunos paleoantropólogos planteen la presencia de dos especies distintas: los ejemplares más grandes serían considerados verdaderos Homo habilis, mientras que los demás, de menor tamaño y capacidad craneal, podrían agruparse dentro de unos australopitecinos contemporáneos de Homo habilis y quizás hasta de Homo erectus. En contra de este planteamiento se argumenta que nos encontramos ante una misma especie pero que presenta una gran variabilidad con dimorfismos sexuales (diferencia de tamaño en función del sexo) y variaciones geográficas importantes (adaptación a cada ambiente en particular).

El nuevo hallazgo de Ledi-Geraru, datado en 2,8 Ma y por tanto cerca del pretendido origen del género Homo, ayudaría a reducir la brecha evolutiva entre Australopithecus y Homo al proporcionar pistas acerca de los cambios que se produjeron en la mandíbula y los dientes sólo 200.000 años después de la última aparición conocida de Australopithecus afarensis en el cercano yacimiento etíope de Hadar. Sin embargo, debemos ser cautos ya que LD 350-1 no deja de ser una mandíbula que presenta rasgos primitivos y ha sido datada en un momento muy lejano del siguiente fósil claramente humano (AL 666-1). Podríamos estar frente a los restos de un australopitecino.

En definitiva, es fácil sostener que el paisaje de creciente aridez descrito en el estudio fue clave para que los australopitecos que vivían en los árboles cambiasen de ambiente y de dieta. Sus grandes dientes, útiles para masticar hojas y frutos, se habrían vuelto más pequeños —y por tanto, más parecidos a los humanos— y su cerebro habría aumentado de tamaño.

En cualquier caso, es preciso contar con un mayor número de fósiles de este periodo para determinar si estos cambios ambientales vinieron acompañados o no de una expansión neurocraneal, de la innovación tecnológica, o de cambios en otros sistemas anatómicos y conductuales, rasgos todos ellos definidores de la pauta adaptativa del género Homo.

Para terminar, les dejo con la noticia del hallazgo:

Referencias

Spoor F, Gunz P, Neubauer S, Stelzer S, Scott N, Kwekason A, & Dean MC (2015). Reconstructed Homo habilis type OH 7 suggests deep-rooted species diversity in early Homo. Nature, 519 (7541), 83-6 PMID: 25739632
Villmoare B, Kimbel WH, Seyoum C, Campisano CJ, DiMaggio E, Rowan J, Braun DR, Arrowsmith JR, & Reed KE (2015). Early Homo at 2.8 Ma from Ledi-Geraru, Afar, Ethiopia. Science (New York, N.Y.) PMID: 25739410
DiMaggio EN, Campisano CJ, Rowan J, Dupont-Nivet G, Deino AL, Bibi F, Lewis ME, Souron A, Werdelin L, Reed KE, & Arrowsmith JR (2015). Late Pliocene fossiliferous sedimentary record and the environmental context of early Homo from Afar, Ethiopia. Science (New York, N.Y.) PMID: 25739409

Notas

  1. Spoor, F., et al. (2015), «Reconstructed Homo habilis type OH 7 suggests deep-rooted species diversity in early Homo». Nature, vol. 519, núm. 7541, p. 83-86.
  2. Villmoare, B., et al. (2015), «Early Homo at 2.8 Ma from Ledi-Geraru, Afar, Ethiopia». Science, en prensa (publicado en línea).
  3. DiMaggio, E. N., et al. (2015), «Late Pliocene fossiliferous sedimentary record and the environmental context of early Homo from Afar, Ethiopia». Science, en prensa (publicado en línea).
  4. Leakey, L. S. B. (1961), «The juvenile mandible from Olduvai». Nature, vol. 191, núm. 4786, p. 417-418.
  5. Leakey, L. S. B.; Tobias, P. V. y  Napier, J. R. (1964), «A new species of the genus Homo from Olduvai gorge». Nature, vol. 202, núm. 4927, p. 7-9.
  6. Villmoare, B., et al. (2015), «Early Homo at 2.8 Ma from Ledi-Geraru, Afar, Ethiopia». Science, en prensa (publicado en línea).
  7. DiMaggio, E. N., et al. (2015), «Late Pliocene fossiliferous sedimentary record and the environmental context of early Homo from Afar, Ethiopia». Science, en prensa (publicado en línea).
Publicado por José Luis Moreno en ANTROPOLOGÍA, 1 comentario
Evolución humana: encéfalo, peso al nacer y sistema inmunológico

Evolución humana: encéfalo, peso al nacer y sistema inmunológico

     Última actualizacón: 15 septiembre 2017 a las 11:33

Uno de los rasgos definitorios de la especie humana es el gran tamaño que tiene nuestro encéfalo cuando nacemos y, sin embargo, la mayoría no somos conscientes del enorme precio que pagamos por ello. Comparados con el resto de primates, los humanos tenemos unos partos especialmente complicados, con altas tasas de morbilidad y mortalidad tanto materna como fetal (en el año 2010 se produjeron cerca de 287.000 muertes de madres en todo el mundo y las complicaciones durante el parto, incluyendo el parto obstruido, fueron las causas más importantes 1

Entre los investigadores existe un amplio consenso para explicar este fenómeno. La respuesta tiene que ver con el compromiso evolutivo que hemos debido asumir entre dos exigencias opuestas: por un lado, el desarrollo de un encéfalo grande; y por otro, la propia biomecánica de nuestra forma de caminar erguidos que impone restricciones en las dimensiones de la pelvis y, por ende, en el canal del parto. Esto es lo que se conoce como «dilema obstétrico«: la postura bípeda redujo el diámetro del canal del parto mientras que la evolución del encéfalo aumentó el de la cabeza, dificultando a su vez el parto. Si nos fijamos únicamente en los movimientos de la cabeza del feto, en el parto humano hay seis (que incluyen la flexión y extensión del cuello, así como la rotación de la cabeza dos veces); mientras que en los primates y demás mamíferos prácticamente solo hay uno.

Si repasamos nuestro pasado evolutivo veremos que en algún momento nuestros antepasados empezaron a llegar a este mundo cuando su encéfalo no había crecido aún lo suficiente. Pero con el paso del tiempo, el incremento del tamaño cerebral hizo que los niños tuvieran que nacer antes de que no pudieran atravesar el canal del parto debido a su gran cabeza. Como contrapartida, vendrían al mundo menos desarrollados que las crías de los chimpancés y tendrían que recuperar el terreno perdido después del nacimiento (los recién nacidos serían más dependientes. Por ejemplo, al nacer con un escaso desarrollo cognitivo y locomotor no podrían colgarse de la madre como hacen los pequeños simios y sus padres se verían obligados a cogerlos en brazos).

Pues bien, acaba de publicarse un número temático de las Philosophical Transactions (la revista de la Royal Society) donde se revisa el concepto del dilema obstétrico mediante un enfoque multidisciplinar, tomando en consideración los últimos avances en nuestra comprensión de la evolución del encéfalo humano, el bipedalismo y cómo se produce el desarrollo de un encéfalo grande en el útero.

 

A continuación presentamos cada artículo (con su correspondiente enlace que permite su lectura en línea) y un breve resumen de su contenido.

Artículos

Los autores demuestran que el alto grado de encefalización que resultó crítico para nuestra adaptación apareció entre los homininos en el curso de los últimos 2 millones de años (Ma). Lo principal en este debate, y para comprender el concepto del dilema obstétrico, es el equilibrio entre el crecimiento prenatal y postnatal del encéfalo. Obviamente, un encéfalo grande requiere una mayor inversión en energía, con un período prolongado de crecimiento después del parto para evitar limitaciones obstétricas. La evidencia actual indica que la ontogenia del encéfalo evolucionó a lo largo de diferentes vías en diferentes homininos del Pleistoceno; por ejemplo, la vía de los neandertales era distinta de la de los humanos actuales, que evolucionó en una época relativamente recientemente.

En este artículo se analiza cómo el clima y la geología cambiantes del este de África en los últimos 10 Ma han creado un escenario complejo, con un ambiente muy variable que dio forma a la evolución de nuestros antepasados. Los períodos alternativos de extrema humedad y aridez pueden haber impulsado la especiación de los homininos, la encefalización y la posterior salida de África. Hacen hincapié en que los cambios en el tamaño del encéfalo deben considerarse en el contexto más amplio de los cambios en la historia de vida, el tamaño del cuerpo y el dimorfismo, la adaptación a realizar marchas a larga distancia y el comportamiento social.

Se expone la forma en que han entrado en conflicto los requisitos mecánicos para la locomoción, el parto y la termorregulación. Nuestros primeros antepasados bípedos experimentaron cambios fundamentales en la forma de la pelvis, con un cambio en la función de los músculos de los glúteos, que facilitaron la actividad de andar. El resultado fue una pelvis que tenía una amplia cavidad interna, una forma que se mantuvo con pequeñas adaptaciones durante 3 o 4 Ma. Así, no fue hasta que apareció Homo sapiens hace unos 200.000 años cuando surgió la pelvis anatómicamente moderna con un canal del parto más circular, y asociada a un cuerpo más estrecho necesario para facilitar la disipación del calor.

Aquí se describe cómo la configuración moderna de la pelvis femenina exige una rotación del feto durante el parto para dejar espacio primero a la cabeza y luego a los hombros. El resultado final es que el niño nace mirando en dirección opuesta a la madre. Así, este tipo de parto requiere tener a alguien que ayude a despejar las vías respiratorias del bebé. Para terminar el autor analiza las recientes observaciones de nacimientos en monos y simios con el fin de comparar el proceso en primates humanos y no humanos, destacando las similitudes y las diferencias de ambos procesos.

En esta revisión el autor recuerda que existe mucha variabilidad en la gravedad de las complicaciones obstétricas que se dan en las poblaciones humanas actuales. Propone que el dilema obstétrico no es fijo, y puede cambiar en respuesta a las tendencias de crecimiento impulsadas por el cambio ecológico. Señala que el crecimiento fetal está débilmente regulado por los genes y depende en gran medida de la asignación maternal de los recursos de nutrientes. El suministro de estos recursos depende a su vez del ambiente y las propias necesidades de la madre. Por lo tanto, los cambios en la nutrición materna tanto a corto como a largo plazo pueden tener un profundo impacto en el dilema obstétrico a través de sus efectos sobre el tamaño de la madre y el crecimiento fetal.

En este artículo los autores analizan el papel de la placenta como órgano de enlace entre la madre y el feto. Aunque se considera un órgano de intercambio, la placenta realiza una amplia variedad de funciones que integran el suministro de la madre y las demandas del feto: segrega numerosas hormonas que tienen efectos muy importantes sobre el metabolismo y la fisiología materna, así como incrementa las reservas de nutrientes al principio del embarazo para poder satisfacer las demandas fetales a lo largo del periodo de gestación. La placenta también actúa como una barrera selectiva a fin de proporcionar un entorno estable en el que el feto pueda desarrollarse.

La placenta es el órgano de los mamíferos con mayor variabilidad morfológica. En este trabajo se reflexiona acerca de su evolución, analizando cuatro características principales: su forma, la interdigitación materno-fetal 2, la intimidad de la interfaz materno-fetal y el patrón de flujo sanguíneo.

En este estudio se desarrolla un nuevo enfoque genómico para entender la evolución de la invasión placentaria. La placenta humana es la más invasiva de todas las especies, y esta característica se ha asociado a menudo con el desarrollo de un encéfalo más grande. Esta situación además conlleva un peaje en términos de complicaciones durante el embarazo, como la preeclampsia, que es casi exclusiva de los humanos. Los autores argumentan que durante la evolución se seleccionaron unas formas de la placenta menos invasivas para evitar precisamente estas complicaciones.

La invasividad de la placenta también se da entre los primates, un tema que se revisa en este artículo. Una de las funciones clave de la invasión es la remodelación de las arterias maternas dentro de la pared del útero para asegurar un suministro óptimo de sangre a la placenta. La invasión del trofoblasto y la remodelación arterial se dan en mayor medida en el ser humano, y el fallo de cualquiera de ellas provoca la restricción del crecimiento del feto y la preeclampsia en la madre.

En este trabajo se analiza la importancia de la arteria uterina y el flujo de sangre hacia la placenta para el crecimiento fetal, utilizando las adaptaciones a vivir en grandes altitudes como un experimento de la naturaleza. La gran altitud se asocia con una reducción aproximada en el peso al nacer de 100 g cada 1.000 m de elevación, aunque el efecto es mayor en poblaciones no-indígenas comparadas con las que sí lo son. Se especula que el flujo sanguíneo de la arteria uterina no sólo es una importante línea de suministro, sino también un detonante que estimula los procesos que regulan el metabolismo y el crecimiento tanto del feto como de la placenta.

Por otro lado, la invasión placentaria plantea importantes retos inmunológicos a medida que el trofoblasto interactúa con las células del sistema inmunitario materno. Aquí se revisa esta cuestión y, aunque en la actualidad se desconocen los mecanismos involucrados, se cree que las interacciones con las células del sistema inmunitario innato regulan la invasión del trofoblasto y la remodelación de las arterias espirales.

En el último estudio se demuestra que el crecimiento fetal también está regulado por la impronta genética, y los últimos avances han puesto de manifiesto el vínculo genético y epigenético que existe entre la regulación del crecimiento de la placenta y el del encéfalo. La manipulación de la expresión de estos factores de crecimiento ajusta el peso del feto, y puede tener efectos transgeneracionales.

  1. La tasa de mortalidad materna para el año 2010 a nivel mundial fue de 31.000 fallecimientos según el CIA World Factbook. La TMM es el número anual de muertes de mujeres por cada 100.000 niños nacidos vivos por cualquier causa relacionada o agravada por el embarazo (excluyendo las causas accidentales o incidentales).
  2. Esto es, la unión entre los tejidos de la madre y el feto
Publicado por José Luis Moreno en CIENCIA, 1 comentario