José Luis Moreno

Doctor en Derecho. Jurista amante de la ciencia y bibliofrénico. Curioso por naturaleza.
Doctor en Derecho. Jurista amante de la ciencia y bibliofrénico. Curioso por naturaleza.
¿Qué es para mí la «verdad»?

¿Qué es para mí la «verdad»?

     Última actualizacón: 6 junio 2017 a las 11:38

Lo primero que ve viene a la cabeza para explicar este concepto es que la verdad es lo opuesto a lo falso, aunque esta aproximación no es de mucha utilidad porque nos exige definir qué entendemos por “falso” o la “falsedad”, encontrándonos con el mismo problema de inicio.

Para tratar de sortear este inconveniente podríamos decir que la verdad es una característica de determinados hechos si éstos existen, si son “reales” (como propuso en primer lugar Aristóteles) aunque, de nuevo,  nos veríamos obligados a ofrecer una definición precisa de qué es “real”, o de la propia “realidad”. Por ejemplo, la afirmación “la nieve es blanca” debe su verdad a cierta característica del mundo externo: el hecho de que la nieve es blanca. Esto nos lleva concluir que una creencia (un enunciado, una proposición, etc.) es verdadera si existe un hecho externo que la corresponda. Sin embargo, la solución no es tan sencilla porque lo que es real para mí puede no serlo para otro observador, o no serlo de la misma forma (pensemos que veo la nieve desde cierta distancia y me parece de un blanco inmaculado, pero alguien situado más cerca puede ver barro o suciedad en la nieve que la haga grisácea).

Siguiendo con este argumento, el problema de la verdad como verdad epistemológica reside en los distintos sentidos en que podemos entender la correspondencia entre el enunciado y el hecho externo. Esto nos lleva a la importancia de definir claramente el contexto y ser precisos con el lenguaje que utilizamos al afirmar una proposición (en el ejemplo de la nieve, deberíamos concretar que la nieve es blanca vista desde 10 metros, que nos referimos a la nieve recién caída etc.)

Sin embargo, en nuestra vida diaria no es necesario ser tan estrictos como lo seríamos si estuviéramos analizando y describiendo un fenómeno cualquiera con un objetivo científico, donde la precisión es esencial (necesaria para la corroboración de la hipótesis).  En nuestro quehacer diario podemos contrastar las proposiciones con nuestro propio conocimiento, nuestro bagaje cultural y, también, teniendo en cuenta la credibilidad de nuestro interlocutor.

Por estos mismos motivos la verdad se puede manipular con relativa facilidad. Por ejemplo, algunos medios de comunicación ofrecen noticias sesgadas por intereses políticos, sociales o económicos, ofreciendo un único punto de vista de un suceso (una sola perspectiva interesada) y por lo tanto, impidiendo al oyente una valoración de lo sucedido de forma que pueda saber si la noticia es verdad. Alguien podría pensar que la noticia es verdadera de la forma en que se narra pero, al no ofrecer toda la información disponible, se puede estar distorsionando y ser así falsa. Lo miso sucede con la historia. Es conocida la frase atribuida a Winston Churchill «la historia la escriben los vencedores”: aunque contenga parte de verdad, el relato de los hechos que han ocurrido en el pasado no es completo, no es verdadero, si no se tienen en cuenta todos los puntos de vista y se hace una interpretación de los mismos según el contexto en que se desarrollaron.

En los casos planteados, la solución para detectar una verdad manipulada podría ser acudir a diferentes fuentes para escuchar diferentes versiones de la noticia, lo que nos daría una imagen más completa de lo ocurrido. De la misma forma, para conocer la verdad de algún hecho que haya tenido lugar en el pasado deberemos actuar de la misma forma, acudir a diferentes fuentes de información y hacer un análisis crítico, buscando posibles contradicciones.

Podemos concluir por tanto que la verdad no se puede analizar desde un punto de vista único. Si queremos describir lo más exactamente posible (léase objetivamente posible) un fenómeno dado, tendremos que hacerlo tomando en consideración el contexto, empleado un lenguaje preciso y ofreciendo la mayor cantidad de perspectivas. Sin embargo, esto trae consigo el problema de no terminar nunca porque tal grado de exhaustividad puede ser muy limitante ya que, ¿cómo sabemos que hemos incluido todos los puntos de vista posibles?

Esto me trae a la memoria la expresión incluida en una sátira del poeta Juvenal: «rara avis in terris nigroque simillima cygno» (que en español vendría a significar «un pájaro raro en tierra muy semejante a un cisne negro»). En la antigüedad se pensaba que todos los cisnes eran blancos porque jamás se había visto uno negro, ni tampoco había registro histórico alguno de cisnes con plumas negras. De esta forma, la proposición “todos los cisnes son blancos” era verdadera y nadie la ponía en duda. Sin embargo, en 1697, una expedición holandesa a la costa occidental de Australia (entonces conocida como Nueva Holanda) dirigida por el explorador Willem Hesselsz de Vlamingh, y cuya misión era rescatar a los supervivientes de una expedición anterior, descubrió una gran cantidad de cisnes negros en un río. El río que surcaban fue bautizado Zwaanenrivier (hoy río Swan, “cisne” en inglés).

La afirmación que antes era verdad, se convirtió en falsa al conocer más datos.

Nota: esta anotación es parte de un trabajo del curso Pensamiento Científico de la UNAM cuyo enunciado es: elabora un comentario de 500 a 1000 palabras sobre la verdad.  Como guía, puedes expandir alguna de estas u otras preguntas (no necesariamente todas): ¿Qué es para mí la verdad? ¿De qué depende la verdad? ¿Cómo puedo decidir sobre la verdad en situaciones diarias? ¿Cómo se puede manipular la verdad? ¿Cómo podría detectar una verdad manipulada?

Publicado por José Luis Moreno en BREVE, FILOSOFÍA, 4 comentarios
Siete días … 3 a 9 de febrero (datando Atapuerca y huellas fósiles)

Siete días … 3 a 9 de febrero (datando Atapuerca y huellas fósiles)

     Última actualizacón: 24 noviembre 2017 a las 10:03

En esta nueva sección pretendo destacar los avances científicos que se han producido en la semana que termina, con enlaces directos a las noticias más relevantes e incluyendo los artículos originales para que el lector pueda acudir directamente a la fuente para tener una información más completa.

ECOLOGÍA

El número de peces de profundidad es diez veces superior a lo estimado. Conocidos como mesopelágicos por vivir en las aguas profundas del océano, entre 400 y 700 metros de profundidad, estos peces son los más numerosos de la biosfera. Ahora un equipo de investigadores, en el cual participa Carlos Duarte del Consejo Superior de Investigaciones Científicas (CSIC), ha descubierto que el número de estos vertebrados es 10 veces superior al estimado. Duarte fue el impulsor del proyecto español “Malaspina” que se llevó a cabo a bordo del buque oceanográfico Hespérides.

Gracias a las sondas acústicas instaladas en el buque, los científicos han descubierto que el número de individuos es 10 veces superior a las 10.000 toneladas de ejemplares que calculaba hasta ahora la comunidad científica.

«Estos peces no se pueden capturar con redes, por ello su abundancia y biomasa no se había cuantificado, y las aproximaciones estaban basadas en cálculos, con asunciones que ahora sabemos eran erróneas», indica el investigador español.

La importancia de este estudio radica en que los peces mesopelágicos contribuyen a reducir la cantidad de dióxido de carbono (CO2) que se encuentra en las superficies de los océanos.

• Noticia en El Mundo

• Artículo: Large mesopelagic fishes biomass and trophic efficiency in the open ocean

EVOLUCIÓN HUMANA

Una de las cuestiones de los yacimientos de Atapuerca que genera más debate científico es la datación de los estratos donde se hallan los fósiles. Por ello, investigadores del Centro Nacional de Investigación sobre la Evolución Humana –entre otros– se afanan en ajustar las fechas. Un estudio publicado por el Journal of Archaeological Science ha precisado que el sedimento de la Gran Dolina donde se hallaron en 1994 los primeros restos de Homo antecessor tiene una antigüedad de 900.000 años.

“Estamos aplicando nuevos métodos y técnicas, y además tenemos mejor conocimiento de campo y laboratorio. Hemos publicado un estudio que supone un pequeño paso a un gran proyecto que nos va a llevar más tiempo, que es revisar todas las fechas para afinarlas. Queremos incluirlo todo en un marco geocronológico más sólido”, declara a Sinc Josep M. Parés, del Centro Nacional de Investigación sobre la Evolución Humana, que lidera este estudio sobre la nueva datación del nivel TD6 de la Gran Dolina.

Lo que estrictamente aporta este trabajo es la combinación de la técnica de paleomagentismo –que supone revisar la polaridad de los materiales que constituyen las capas estratigráficas– con la evaluación de las dataciones numéricas ya existentes

“Este yacimiento ha dado lugar a miles de fósiles y artefactos, y se ha convertido en un punto de referencia en los estudios sobre el Pleistoceno y las primeras ocupaciones humanas fuera del continente africano”, destaca el artículo.

Lo que van a intentar ahora es utilizar fósiles individuales, en particular dientes, y obtener fechas directas de los restos encontrados, además de las ya conocidas por los sedimentos.

• Noticia Agencia SINC

• Artículo: Reassessing the age of Atapuerca-TD6 (Spain): new paleomagnetic results

___

Uno de los eventos más importantes en la historia de nuestra especie es el éxodo desde África hace unos 65.000 años, el inicio de la larga marcha del Homo sapiens en todo el mundo. Ahora, un estudio de los genes del sur de África muestra que, inesperadamente, otra migración tomó ADN de Eurasia occidental de vuelta a la punta sur del continente hace 3000 años.

De acuerdo con el pensamiento convencional, la tribu Khoisan del sur de África, ha vivido casi aislada del resto de la humanidad durante miles de años. De hecho, este estudio muestra que una parte de su ADN coincide más estrechamente con gente actual del sur de Europa, entre ellos España e Italia. Ya que la gente de Eurasia también lleva restos de ADN de Neandertal, el hallazgo muestra también (por primera vez) que el material genético de nuestro primo extinto puede ser algo generalizado en las poblaciones africanas.

“Estas son las poblaciones aisladas, muy especiales, que son, probablemente, los más antiguos linajes de las poblaciones humanas actuales”, dice David Reich de la Universidad de Harvard. “En muchos estudios genéticos les habíamos tratado como grupos que se habían separado del resto de los seres humanos actuales, antes de que se hubieran separado el uno del otro“

Así que él y sus colegas no esperaban encontrar signos de genes euroasiáticos occidentales en 32 individuos pertenecientes a una variedad de tribu Khoisan. “Creo que nos quedamos impactados”.

Los estudios arqueológicos y lingüísticos de la región pueden dar un sentido al descubrimiento. Sugieren que un subconjunto de los Khoisan, conocido como Khoe-Kwadi , llegó a África meridional procedente de África oriental hace unos 2.200 años. Los Khoe-Kwadi eran  y siguen siendo  pastores que viven de la cría de vacas y ovejas. La idea es que introdujeron la cría de ganado importada de una región que era dominada por cazadores-recolectores.

• Noticia New Scientist (traducción al castellano)

• Artículo: Ancient west Eurasian ancestry in southern and eastern Africa (descarga directa en formato PDF)

___

Un equipo científico británico ha anunciado el hallazgo de unas huellas de pisadas humanas, de hace algo más de 800.000 años, que descubrieron en la costa de Norfolk. Es el rastro más antiguo de pisadas de homínidos que se conoce fuera de África, donde están las famosas huellas de Laetoli (Tanzania) de hace 3,6 millones de años. “La importancia del descubrimiento es que las huellas proporcionan evidencia directa de los primeros humanos conocidos en el Norte de Europa”, afirma el Museo de Historia Natural de Londres, donde se presentará el hallazgo en una muestra a finales de este mes. Se trata “de uno de los más importantes descubrimiento, si no el más importante, que se ha hecho en las costas británicas”.

Las huellas de Norfolk, en el yacimiento de Happisburg, quedaron expuestas durante una marea baja en la zona, cuando el mar agitado limpió la arena que las cubría y unos investigadores las vieron. Tomaron imágenes de los sedimentos petrificados antes de que el mar se las tragase de nuevo, explica el museo londinense. Con esas fotografías y un modelo en tres dimensiones del rastro han trabajado los científicos que probablemente correspondían un grupo de cinco individuos, posiblemente familiar, de adultos y niños. La pisada más grande sería de un individuo que calzaría un número 42 actual y los investigadores estiman, por tanto, que mediría algo más de 1,70 metros, y el más pequeño, 90 centímetros.

“En aquella época, Gran Bretaña está todavía unida por tierra a la Europa continental y lo que ahora es el Happisburgh debió ser un terreno encharcado a varios kilómetros de la costa, con ciervos, bisontes y rinocerontes”, explica el museo en un comunicado. La zona habría proporcionado a aquellos humanos primitivos plantas comestibles, algas y mariscos, además allí podrían cazar, continúan esa institución, cuyos expertos forman parte del equipo autor del descubrimiento. En cuanto al clima, sería más frío que el actual, probablemente similar al que ahora tiene el sur de Escandinavia.

Chris Stringer, un reconocido experto en neandertales, del Museo de Historia Natural, considera que los humanos que dejaron aquellas huellas podrían estar relacionados con la población de Atapuerca, en concreto, aquellos cuyos restos se han conservado en el yacimiento de la Gran Dolina tienen también más de 800.000 años y fueron bautizados cuando se descubrieron los primeros fósiles, en 1994, como Homo antecesor.

• Noticia El País

• Artículo: Hominin Footprints from Early Pleistocene Deposits at Happisburgh, UK (descarga directa en formato PDF)

• Vídeo:

PALEONTOLOGÍA

Hace 120 millones de años, un dinosaurio emplumado y muchos otros animales primitivos quedaron atrapados en una muerte instantánea y violenta.

Los fósiles de estas criaturas originarias del Cretácico inferior llegaron excepcionalmente conservados hasta nuestros días, y los expertos creen que fueron erupciones volcánicas similares a la explosión que golpeó la ciudad romana de Pompeya. Como los residentes de aquella ciudad, los animales fueron sepultados por las cenizas y congelados en el tiempo en su último estertor.

Enterradas juntas, estas criaturas están notablemente conservadas y parecen haber sido víctimas de un enorme evento mortífero. Ahora, los científicos sostienen que erupciones volcánicas fueron las responsables. Los bosques de coníferas y lagos en los que una vez vivieron estos animales estaban rodeados de volcanes, y los investigadores creen que grandes explosiones lanzaron una ola de gas increíblemente caliente, cenizas y roca –conocida como flujo piroclástico– a través del paisaje.

«Estas nuevas observaciones confirman y aclaran los que se sospechaba», comentó al respecto Mike Benton, paleontólogo de la Universidad de Bristol, en Reino Unido. «Pero los autores fueron un paso más allá al sugerir que a todos los animales de Jehol los mataron, transportaron y preservaron de forma excepcional los flujos piroclásticos. Esto desafía considerablemente las ideas previas que asumían que la mayoría de los animales vivían en y cerca de los lagos en los que fueron encontrados, y que podían haber sido trasladados por ríos regulares u otros medios», añadió Benton.

• Noticia BBC Mundo

• Artículo: New evidence suggests pyroclastic flows are responsible for the remarkable preservation of the Jehol biota

CIENCIAS PLANETARIAS

Un espectacular nuevo cráter de impacto en Marte

Las imágenes de la Cámara de Contexto (CTX) de la misión HiRISE mostraron un posible nuevo cráter de impacto que se habría formado en Marte entre julio de 2010 y mayo de 2012.

La imagen muestra una gran zona de impacto con rayas radiales y materiales secundarios que han salido despedidos lejos alrededor de un cráter de aproximadamente 30 metros de diámetro, indicando una gran explosión que expulsó materiales hasta unos 15 kilómetros de distancia. Debido a que el terreno donde se formó el cráter está cubierto de polvo, el cráter aparece de color azul en la imagen de color mejorado debido a la ausencia de polvo rojizo.

___

Astrónomos australianos aseguran haber encontrado una estrella de 13,600 millones de años de edad, por lo que sería la estrella más antigua jamás vista. La estrella, afirman, se formó sólo un par de cientos de millones de años después del Big Bang que creó el universo. Se encuentra en nuestra propia galaxia, la Vía Láctea, a una distancia de unos 6.000 años luz de la Tierra. Los catálogos de estrellas la listan por el número de SMSS J031300.36-670839.3.

“La señal de que la estrella es tan antigua es la ausencia completa de cualquier nivel detectable de hierro en el espectro de luz que emerge de la estrella”.

El Big Bang dio origen a un universo lleno de hidrógeno, helio y trazas de litio. Todos los demás elementos que vemos hoy se forjaron en las estrellas, que nacen en nubes de gas y polvo legadas por las estrellas muertas como supernovas enormes que explotan al final de su vida. Este proceso de reciclaje sin fin ha dado una herramienta interesante a los astrofísicos.

Una forma de determinar la edad estelar es el hierro, cuyo contenido en una estrella enriquece con cada parto sucesivo. Así, cuanto menor es el contenido de hierro en el espectro de la luz de una estrella, más antigua es esta.

“En el caso de esta estrella que hemos anunciado, la cantidad de hierro presente es menos de una millonésima parte que de la del sol y está presente con un factor de, como poco, 60 veces menos que cualquier otra estrella conocida. Esto indica que nuestra estrella es la más antigua y encontrada.”

• Noticia en Physorg (traducción al castellano)

• Artículo: A single low-energy, iron-poor supernova as the source of metals in the star SMSS J031300.36−670839.3

INGENIERÍA

Un profesor chino desarrolla un sistema ecológico que abarata el coste de imprimir en un 99%. El profesor de la Universidad de Jilin en China Sean Zhang ha desarrollado un sistema de impresión que emplea agua en lugar de tinta, y un papel especial que cambia de color al reaccionar con la humedad.

Este sistema presenta dos grandes ventajas, ya que además de no contener sustancias tóxicas que sí se encuentran presentes en la tinta convencional, cada hoja de papel puede reutilizarse hasta 50 veces, ya que el contenido del folio desaparece 22 horas después de haber sido impreso.

Por si todo esto fuera poco, los cartuchos con los que funciona este novedoso método se rellenan con agua del grifo y funcionan en cualquier impresora de inyección de tinta sin necesidad de realizarle ningún tipo de adaptación especial. Teniendo en cuenta el elevado precio de la tinta convencional y el del papel empleado en este sistema, los investigadores aseguran que su método de impresión permite un ahorro de hasta el 99 por ciento en comparación con los métodos actuales.

• Noticia ABC

• Artículo: Hydrochromic molecular switches for water-jet rewritable paper

Publicado por José Luis Moreno en SIETE DÍAS, 1 comentario
Pasos 5.1, 5.2 y 5.3 Diversas comprobaciones

Pasos 5.1, 5.2 y 5.3 Diversas comprobaciones

     Última actualizacón: 15 noviembre 2017 a las 22:55

En este nuevo paso de la construcción del robot, vamos a comprobar que las conexiones eléctricas entre la tarjeta y los servos son correctas. Es preciso que nos aseguremos de que el servo de la derecha gira cuando recibe señales procedentes de P13 y que el servo de la izquierda hace lo propio cuando recibe señales de P12 según el montaje realizado en el paso anterior.

En la siguiente imagen vemos nuestro robot con las indicaciones de posición que se seguirán de ahora en adelante para evitar confusiones:

5.1 Comprobando el funcionamiento de las ruedas

Vamos a ejecutar un sencillo programa para probar el servo conectado a la rueda derecha. Hará que la rueda gire en la dirección de las agujas del reloj durante 3 segundos, parará durante un segundo y, después, girará en sentido contrario durante otros 3 segundos.

  1. ‘ Programa de prueba de servos.  Pruebaservoderecho.bs2
  2. ‘ El servo derecho gira en sentido horario 3s, se para 1s
  3. ‘ y vuelve a girar 3s en sentido antihorario
  4. ‘ {$STAMP BS2}
  5. ‘ {$PBASIC 2.5}
  6. Counter VAR Word
  7. FREQOUT 4, 2000, 3000                ‘señal de inicio/reset
  8. FOR counter = 1 TO 122                 ‘giro horario durante 3s
  9.                 PULSOUT 13, 650
  10.                 PAUSE 20
  11. NEXT
  12. FOR counter = 1 TO 40                   ‘parada 1s
  13.                 PULSOUT 13, 750
  14.                 PAUSE 20
  15. NEXT
  16. FOR counter = 1 TO 122                  ‘giro antihorario durante 3s
  17.                 PULSOUT 13, 850
  18.                 PAUSE 20
  19. NEXT
  20. END

Para ponerlo en marcha, cargaremos el programa en el editor de Basic Stamp y lo introduciremos en la tarjeta del robot como hemos visto en pasos anteriores. Acto seguido colocamos el interruptor de energía en la posición 2 (que alimenta los servos) y ejecutamos el programa.

Los mismos pasos daremos con el servo de la rueda izquierda:

  1. ‘ Programa de prueba de servos.  Pruebaservoderecho.bs2
  2. ‘ El servo derecho gira en sentido horario 3s, se para 1s
  3. ‘ y vuelve a girar 3s en sentido antihorario
  4. ‘ {$STAMP BS2}
  5. ‘ {$PBASIC 2.5}
  6. Counter VAR Word
  7. FREQOUT 4, 2000, 3000                ‘señal de inicio/reset
  8. FOR counter = 1 TO 122                 ‘giro horario durante 3s
  9.                 PULSOUT 12, 650
  10.                 PAUSE 20
  11. NEXT
  12. FOR counter = 1 TO 40                   ‘parada 1s
  13.                 PULSOUT 12, 750
  14.                 PAUSE 20
  15. NEXT
  16. FOR counter = 1 TO 122                  ‘giro antihorario durante 3s
  17.                 PULSOUT 12, 850
  18.                 PAUSE 20
  19. NEXT
  20. END

Vemos cómo la única diferencia entre estos dos programas es que hemos sustituido el punto de enganche del servo derecho (P13) por el servo izquierdo (P12) en el segundo programa.

Ahora vamos a comprobar como el robot se mueve según las indicaciones de la programación: la rueda derecha girará en sentido horario durante tres segundos, se detendrá un segundo, y volverá a girar en sentido antihorario otros 3 segundos (lo mismo sucederá con la rueda izquierda).

5.2 Detector acústico de baja tensión y reinicio

Cuando el suministro de voltaje eléctrico cae por debajo del nivel que el dispositivo necesita para funcionar correctamente se produce un apagón parcial. La tarjeta se protege a sí misma de esta situación haciendo que el procesador y los microchips de memoria permanezcan en estado de reposo hasta que el suministro de energía vuelva a niveles normales.

Una bajada de tensión en Vin por debajo de 5,2 V provoca un voltaje inferior a 4,3 V en el regulador interno de la tarjeta, valor insuficiente que origina una anomalía y que provoca, como hemos señalado, que se ponga en marcha un mecanismo de autoprotección del sistema en el que tanto el procesador como la memoria pasan a un estado de reposo que detiene la ejecución de instrucciones. Cuando el voltaje vuelve a niveles adecuados, la tarjeta se pone en funcionamiento de nuevo pero no donde había quedado ejecutándose el programa, sino desde el principio del mismo. Es lo mismo que sucede cuando pulsamos el botón de reinicio del sistema.

Cuando las baterías están bajas, es posible que estas bajadas de tensión hagan reiniciarse al robot cuando menos lo esperamos, haciendo que tome direcciones erróneas, dé vueltas sobre sí mismo etc.

Esto hace que un programa que indique la posibilidad de reinicio del robot sea muy útil (de esta forma sabemos claramente cuál ha sido la causa del funcionamiento incorrecto de nuestro robot). Una forma para avisar de un posible reinicio es incluir una señal inconfundible al comienzo de todos los programas del robot. La señal se produce cada vez que se conecta el suministro de energía y cuando se produce un reinicio debido a una bajada de tensión.

En este ejercicio vamos a colocar un dispositivo llamado zumbador piezoeléctrico que se puede usar para generar diferentes tonos en función de la frecuencia de las señales que se envíen desde la tarjeta.

El programa que vamos a cargar a continuación produce un pitido a través del zumbador. Utiliza el comando FREQOUT para enviar las señales de la frecuencia que se deseemos por una patita de la tarjeta. Su sintaxis es como sigue:

FREQOUT Pin, duración, frecuencia1, {Frecuencia2

Un ejemplo sería FREQOUT 4, 2000, 3000: envía una señal de 3000 hercios (3 kHz) durante 2000 ms (2 segundos) por el pin 4.

En este punto debemos tener presente que la frecuencia es una magnitud que mide el número de repeticiones por unidad de tiempo de cualquier fenómeno o suceso periódico. Nuestro zumbador funciona gracias a la piezoelectricidad: es un fenómeno presentado por determinados cristales que al ser sometidos a tensiones mecánicas adquieren una polarización eléctrica en su masa, apareciendo una diferencia de potencial y cargas eléctricas en su superficie. Este fenómeno también se presenta a la inversa, esto es, se deforman bajo la acción de fuerzas internas al ser sometidos a un campo eléctrico. El efecto piezoeléctrico es normalmente reversible: al dejar de someter los cristales a un voltaje exterior o campo eléctrico, recuperan su forma.

De esta forma, cuando aplicamos cambios de voltaje a gran velocidad hacemos que el cristal piezoeléctrico cambie de forma rápidamente. Esto provoca una vibración. Los objetos que vibran hacen que el aire que los rodea vibre también, y esta vibración es lo que nuestros oídos detectan como sonido y tonos.

La frecuencia se mide en hercios (Hz). Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la repetición de un suceso. De esta forma, un kHz representa mil ciclos por segundo.

Más abajo se muestra el símbolo del zumbador y el esquema de conexión del terminal positivo del zumbador a la patita P4 de E/S.

Para el montaje tomamos el zumbador y lo colocamos sobre la tarjeta. Vemos que una pegatina indica cuál de las dos patas es de signo positivo así que solo tenemos que presionar y listo. Para dejar más espacio para el resto de componentes, y dado que este elemento quedará fijo de forma permanente, es mejor colocarlo lo más esquinado posible.

Una vez colocado, sólo tenemos que realizar la conexión de los cables, uno conectando el polo positivo del zumbador a P4 (cable azul) y el otro al conector de energía (Vss)

Programa ejemplo

El siguiente programa emite un pitido del zumbador al iniciarse su ejecución y luego envía mensajes visualizadores de DEBUG cada medio segundo dentro de un bucle infinito. Se puede simular una bajada de tensión presionando el botón de reinicio o bien desconectando la batería del robot; entonces el programa se reiniciará, emitiendo un pitido de nuevo. Cada vez que se produce un pitido sabemos que el programa se ha iniciado desde el principio.

  1. ‘ Programa de reinicio.  Indicadorinicioreinicio.bs2
  2. ‘ Prueba del altavoz piezoeléctrico.
  3. ‘ {$STAMP BS2}
  4. ‘ {$PBASIC 2.5}
  5. DEBUG CLS, “Beep!!!”                         ‘visualiza el mensaje mientras suena
  6. FREQOUT 4, 2000, 3000                      ‘señal sonora
  7. DO                                                         ‘bucle DO…LOOP
  8. DEBUG CR, “Esperando el reinicio”      ‘visualiza el mensaje
  9. PAUSE 5000                                          ‘cada medio Segundo
  10. LOOP                                                     ‘hasta que se reinicie el sistema

El programa comienza mostrando el mensaje (en la pantalla del ordenador) “Beep!!!” cuando se inicia su ejecución. Inmediatamente envía una señal de 3 kHz al zumbador durante 2 segundos. Como la tarjeta ejecuta muy rápidamente las instrucciones dará la sensación de que el mensaje se muestra al mismo tiempo que el zumbador comienza a pitar.

Cuando cesa el pitido, el programa entra en un bucle infinito mostrando una y otra vez el mensaje “Esperando el reinicio”. Cada vez que se produzca un reinicio, bien porque se aprieta el botón o porque se desconectan las baterías o pierden tensión, el programa se reiniciará.

De ahora en adelante vamos a usar este programa cada vez que escribamos otro. Lo consideraremos parte de la rutina de inicialización de cada programa.

5.3 Probando el control de velocidad del robot

En este paso de comprobación vamos a dibujar las curvas que relacionan la velocidad de giro de los servos con la amplitud de los pulsos que se aplican desde la tarjeta Home Work. Este gráfico nos resultará muy útil ya que cuando queramos obtener una velocidad concreta de las ruedas del robot sólo tendremos que consultar éste para saber la amplitud del pulso que se debe aplicar a cada una. Para ello vamos a utilizar el panel de transmisión del terminal DEBUG del programa de edición para enviar valores al programa de ejecución de la tarjeta.

Empleo del comando DEBUGIN

Ya hemos visto en anteriores ocasiones que gracias al comando DEBUG se visualizan los mensajes en la pantalla del ordenador que manda la tarjeta al ejecutar un programa determinado. El terminal DEBUG del programa de edición Basic Stamp también tiene una ventana de transmisión que nos permite enviar información al microcontrolador mientras se está ejecutando un programa. Esto lo hacemos a través del comando DEBUGIN, que toma el valor que introducimos con el teclado y lo envía al programa que está ejecutando la tarjeta para que una o más variables queden fijadas por dicho valor. Es decir, con este comando se introducen valores de variables que se usan en los programas de la tarjeta Home Work.

En el siguiente programa de ejemplo, utilizaremos la variable pulseWidth (amplitud de pulso) para almacenar los valores que el comando DEBUGIN recibe. Evidentemente, tendremos que declarar previamente esta variable al programa

pulseWidth        VAR       Word

Ahora, el comando DEBUGIN captura los valores decimales que introducimos con el teclado a través del panel de transmisión y los almacena en la variable pulseWidth:

DEBUGIN            DEC        pulseWidth

De esta forma podemos programar el microcontrolador para que use este valor. En el siguiente ejemplo se utiliza la variable pulseWidth como el argumento Duración del comando PULSOUT:

PULSOUT 12, pulseWidth

Programa ejemplo

Este programa nos va a permitir establecer el argumento Duración del comando PULSOUT introduciéndolo a través del panel de transmisión del terminal DEBUG del programa de edición.

  1. ‘ Programa de control de velocidad. Pruebavelocidadservo.bs2
  2. ‘ Introducir la amplitud del pulso y contar el número de vueltas
  3. ‘ que gira la rueda durante 6 segundos. Multiplicando por 10
  4. ‘ este valor conocemos las revoluciones por minuto (RPM)
  5. ‘ {$STAMP BS2}
  6. ‘ {$PBASIC 2.5}
  7. counter                       VAR       Word
  8. pulseWidth                 VAR       Word
  9. pulseWidthComp       VAR       Word
  10. FREQOUT 4, 2000, 3000                ‘ señal de inicio/reinicio
  11. DO
  12.                 DEBUG “Indicar la amplitud del pulso:”
  13.                 DEBUGIN DEC pulseWidth
  14.                 pulseWidthComp = 1500 – pulseWidth
  15.                 FOR counter = 1 TO 244
  16.                                PULSOUT 12, pulseWidth
  17.                                PULSOUT 13, pulseWidthComp
  18.                                PAUSE 20
  19.                 NEXT
  20. LOOP

Nota importante: cuando en un programa se definen variables, tanto el tipo como la dirección hay que colocarlas alineadas para su correcta ejecución.

Pasos a seguir

  1. Haremos una pequeña marca en la rueda del robot para tener un punto de referencia.
  2. Colocamos el interruptor de encendido del robot en la posición “2” (que envía energía a los servos).
  3. Ejecutar el programa Pruebavelocidadservo.bs2
  4. Introducir el valor 650 en el panel de transmisión del terminal DEBUG y pulsar ENTER
  5. Contar las vueltas que da la rueda izquierda (el servo habrá girado durante 6 segundos en el sentido de las agujas del reloj, por lo que si multiplicamos el número de vueltas por 10 obtendremos el número de RPM).
  6. Escribimos el valor en la tabla que reproducimos más abajo junto a la celda de 1300 ms.
  7. Introducir el valor 655.
  8. Contar las vueltas que da la rueda.
  9. Multiplicar el valor por 10 y escribirlo junto al valor 1310 ms de la tabla.
  10. Ir incrementando los valores de 5 en 5 (0,01 ms) hasta llegar a 850 (1700 ms).
  11. Repetir el proceso para el otro servo (para ello tendremos que modificar el comando PULSOUT del programa de forma que los pulsos se envíen a P12).

¿Cómo trabaja el programa?

Se declaran tres variables: counter para el bucle FOR…NEXT, pulseWidth para los comandos DEBUGIN y PULSOUT, y pulseWidthComp, que almacena un valor que se usa en un segundo comando PULSOUT.

counter                         VAR       Word

pulseWidth                  VAR       Word

pulseWidthComp       VAR       Word

El commando FREQOUT (como vimos en el paso 5.2) lo utilizamos para indicar mediante un pitido del zumbador que el programa se ha iniciado.

El resto del programa se incluye dentro del bucle DO…LOOP lo que indica que se ejecutará una y otra vez. El programa le pide al operador del terminal DEBUG (nosotros) que introduzcamos un valor decimal que determinará la duración del pulso que se va a guardar en la variable pulseWidth. Para lograr una medición del tiempo más exacta se envían dos comandos PULSOUT cuyos argumentos Duración sumarán 1500 entre los dos

pulseWidthComp = 1500 – pulseWidth

Así se consigue que el bucle FOR…NEXT tarde siempre el mismo tiempo en ejecutarse independientemente del valor del argumento Duración que hayamos introducido y, por tanto, que las mediciones de las RPM que hagamos sean más exactas. Este bucle FOR…NEXT envía pulsos al servo izquierdo (P12) durante 6 segundos. El valor de la variable pulseWidthComp se envía al servo derecho (P13), haciendo que gire en la dirección contraria.

En el paso 4 vimos cómo se calculaba el tiempo: recordemos que el argumento Duración del comando PULSOUT se expresa en unidades de 2 millonésimas de segundo por lo que un valor de 650 envía pulsos de 1,3 ms de duración (a lo que es lo mismo 1300 ms).

Con los datos que vayamos obtenido vamos a completar la siguiente tabla para obtener nuestra propia curva de transferencia (debemos tener en cuenta que nuestro programa de ejemplo controla la rueda izquierda con los valores que introducimos. La rueda derecha gira en dirección contraria).

Una vez completada la tabla para la rueda izquierda, debemos modificar el comando PULSOUT para enviar el pulso a la rueda derecha, cambiando los parámetros como se indica

PULSOUT 13, pulseWidth

PULSOUT 12, pulseWidthComp

realizando a continuación las mismas mediciones.

Debemos tener en cuenta que los valores positivos de RPM se dan cuando la rueda gira en el sentido de las agujas del reloj, mientras que los valores negativos indican un giro de las ruedas en sentido antihorario. Recordar igualmente que, dada la disposición de los servos, para que el robot ande hacia adelante la rueda derecha tendrá que girar en sentido de las agujas del reloj, mientras que la izquierda en sentido antihorario.

Publicado por José Luis Moreno en ROBÓTICA, 1 comentario
Siete días … 27 de enero a 2 de febrero (ADN neandertal)

Siete días … 27 de enero a 2 de febrero (ADN neandertal)

     Última actualizacón: 1 septiembre 2017 a las 18:47

BIOQUÍMICA

Un estudio en el que ha participado el Consejo Superior de Investigaciones Científicas ha propuesto una nueva aproximación para explicar el origen de la vida en la Tierra basada en la química de sistemas. Según este planteamiento, los primeros seres vivos, que aparecieron hace más de 3.500 millones de años, surgieron en medios heterogéneos, que posibilitaron una química suficientemente compleja.

El trabajo propone un escenario heterogéneo y complejo, en el que soluciones acuosas de diferentes monómeros y biopolímeros convivirían con moléculas anfifílicas capaces de formar vesículas y otros compartimentos. En tales sistemas habría sido fundamental el papel de diferentes tipos de catalizadores, entre ellos superficies minerales, interfases reactivas y organocatalizadores.

La existencia de un protometabolismo encapsulado en su propia membrana, apunta el estudio, permitió a los sistemas que estaban formándose mantenerse fuera del equilibrio termodinámico, mediante diversos mecanismos de control cinético y espacial sobre los procesos de autoorganización y transformación molecular implicados. Esto condujo a la transición entre los sistemas químicos y los biológicos.

• Noticia Agencia SINC

• Artículo: Prebiotic Systems Chemistry: New Perspectives for the Origins of Life

BIOLOGÍA

Revelan el secreto de las serpientes voladoras. Las inusuales serpientes voladoras, que habitan en las selvas del sudeste asiático, son capaces de lanzarse desde los árboles y planear en el aire. ¿Y cómo lo hacen? Cambian radicalmente la forma de su cuerpo para generar las fuerzas aerodinámicas necesarias para realizar su hazaña.

Los investigadores sostienen que ahora entienden cómo estos reptiles pueden planear por la jungla en lugar de caer en picada al suelo.

«Al saltar, se aplana desde justo detrás de la cabeza hasta donde empieza la cola. Lo que hace es rotar sus costillas hacia adelante, hacia la cabeza, y hacia arriba, hacia la columna vertebral. Y esto hace que sea mucho más ancha –dobla su anchura– y esto produce esa forma de sección única».

El cuerpo de la serpiente pasa de ser redondeado a ser mucho más achatado y cóncavo en la parte de abajo. Los científicos analizaron las fuerzas aerodinámicas que esta forma alterada genera en el aire, y para ello crearon una copia plástica de la culebra y la colocaron en un tanque de agua en movimiento.

Los científicos creen que el animal combina la transformación física con una danza ondulante en el aire para volar por lo alto de los árboles.

«Mueve la cabeza de un lado a otro, así pasa ondas por el cuerpo y parece que estuviera nadando en el aire», expresó Socha.

Los investigadores dicen que el secreto de las serpientes voladoras podría inspirar el desarrollo robóticos de máquinas capaces de reptar, trepar y planear.

• Noticia BBC Mundo

• Artículo: Aerodynamics of the flying snake Chrysopelea paradisi: how a bluff body cross-sectional shape contributes to gliding performance

GENÉTICA

Los restos de ADN neandertal en los humanos modernos –del que se mantiene hasta un 20%– están implicados con genes que afectan tanto a diversas enfermedades, como la de Crohn, como en otros aspectos relacionados con la adaptación al medio, como la producción de queratina.

Los científicos saben que los neandertales procrearon con los ancestros de los humanos modernos y dejaron rastros de su material genético. De qué forma afecta al ser humano actual este legado de ADN neandertal y qué cantidad de segmentos han sobrevivido son cuestiones que no están claras.

Un estudio, dirigido por los genetistas de la Escuela de Medicina de Harvard (EE UU) y publicado en Nature, sugiere que el material genético heredado de los neandertales ha ayudado al ser humano moderno a adaptarse –por ejemplo, con genes relacionados con la piel–, pero también está implicado en enfermedades como la diabetes tipo 2, la enfermedad de Crohn, el lupus y la cirrosis biliar.

Los científicos saben que los neandertales procrearon con los ancestros de los humanos modernos y dejaron rastros de su material genético

Asimismo, otro artículo de la Universidad de Washington (EE.UU.), publicado de forma simultánea hoy en la revista Science, ha estudiado con detalle cuántos de estos segmentos de ADN han sobrevivido.

Al comparar las secuencias del genoma arcaico y moderno, sus resultados indican que aunque la cantidad total de la secuencia neandertal en cualquier humano moderno es relativamente baja, la cantidad acumulada del genoma neandertal que persiste a través de todos los seres humanos es el 20%.

Los investigadores también se han encontrado con que hay regiones del cromosoma humano que carecen totalmente de genoma neandertal.

“El cromosoma 7, por ejemplo, no tiene absolutamente ninguno. No sabemos a ciencia cierta por qué no hay ADN neandertal allí, pero podría ser que era incompatible con el ADN del humano moderno. Curiosamente, el gen FOXP2, que se sabe que está asociado con las habilidades del lenguaje, se encuentra justo en el centro de esa región”

• Noticia Agencia SINC

• Artículo: The genomic landscape of Neanderthal ancestry in present-day humans

• Artículo: Resurrecting Surviving Neanderthal Lineages from Modern Human Genomes

___

Los animales transgénicos son el modelo ideal para estudiar enfermedades debidas a mutaciones del ADN. Pero las técnicas existentes tenían un problema: se basaban en producir muchos cambios en el genoma y luego seleccionar los ejemplares adecuados. Este método puede servir en ratones, que se reproducen mucho (por ello hay mucha variedad en cada camada y se puede elegir) y maduran pronto, lo que permite una investigación exhaustiva. Pero en simios, con camadas muy pequeñas y largos tiempos de crianza, eso no era posible. Algo que puede empezar a cambiar después del trabajo que ha publicado el equipo del chino Jiahao Sha, de la Universidad de Nanjing.

El trabajo se basa en la aplicación de la llamada tecnología CRISPR/Cas9, que básicamente consiste en utilizar unas bacterias para que hagan de tijeras genéticas que sirvan para introducir los genes que se quieren investigar, con la peculiaridad de que se puede dirigir exactamente dónde va a producirse la mutación. Con ello se evita generar animales inviables (que si bien en los roedores no es algo muy grave desde el punto de vista de la investigación, en monos con gestaciones largas es un obstáculo) y, además, se consiguen ejemplares que se parecen lo más posible a lo que sucede en la naturaleza.

El único requisito es que el proceso de modificación debe hacerse justo después de la fecundación, cuando el futuro macaco es solo un embrión de una célula. De esta manera se asegura que todo el organismo lleva la mutación. Ya han nacido dos animales después de aplicarle esta técnica.

• Noticia El País

• Artículo: Generation of Gene-Modified Cynomolgus Monkey via Cas9/RNA-Mediated Gene Targeting in One-Cell Embryos

MICROBIOLOGÍA

Corría el año 541 y la ciudad de Constantinopla era una trampa mortal. Lo que había comenzado como un simple brote de una nueva enfermedad se convirtió en una imparable epidemia que se cebaba especialmente con los más jóvenes y fuertes. Su avance fue fulminante. En cuestión de semanas la cifra de muertes pasó de 5.000 al día a 10.000. Ni aun entonces el emperador Justiniano renunció a recaudar impuestos a sus súbditos y les hizo pagar incluso los de sus vecinos muertos. Así lo relató el cronista de cabecera del emperador, conocido como Procopio de Cesarea. Pero todo fue inútil. La llamada Plaga de Justiniano fue el último clavo en el ataúd de lo que un día fue el Imperio Romano y se expandió por todo el mundo matando a unos 40 millones de personas en una de las peores pandemias de la Historia.

Ahora, casi 1.500 años después del desastre de Constantinopla, un equipo de científicos ha conseguido reconstruir el genoma completo del patógeno que desató aquella plaga y ha respondido las preguntas que la humanidad llevaba haciéndose más de un milenio.

Los dientes de dos cadáveres en un cementerio de Alemania han aportado la clave. De sus restos, que datan de las fechas aproximadas de la plaga, se ha conseguido extraer pequeños fragmentos de ADN de la Yersinia pestis, la bacteria de la peste. El análisis ha permitido reconstruir el genoma completo del patógeno y su análisis.

Lo que sí ha permitido el análisis de ADN antiguo es demostrar que Procopio, el historiador, no siempre era fiable. En una de sus crónicas de la peste describió su origen y expansión. “Empezó con los egipcios de la ciudad de Pelusium. Se dividió y parte fue a Alejandría y el resto de Egipto y otra parte fue a sus vecinos los palestinos y, desde allí, recorrió toda la Tierra”. Al reconstruir el genoma de la peste, Poinar puede aclarar de dónde surgió por primera vez y cómo viajó desde allí. Su trabajo aclara que el origen de la plaga no fue África, sino Asia. Desde allí se expandió a Europa siguiendo vías comerciales como la ruta de la seda. En total, hubo tres oleadas que convirtieron un pequeño brote localizado en una pandemia mundial que, según Procopio, mató a 100 millones de personas y estuvo a punto de “extinguir” al ser humano de la faz de la Tierra. Por eso es irónico que fuera Justiniano el que le haya puesto nombre a la plaga, pues él sobrevivió a ella.

• Noticia Materia

• Artículo: Yersinia pestis and the Plague of Justinian 541–543 AD: a genomic analysis

PALEONTOLOGÍA

Ver o ser vistos es la cuestión que tuvieron que plantearse los humanos que habitaron durante el Paleolítico la cornisa cantábrica. Un estudio analiza la visibilidad de los yacimientos paleolíticos de la mitad oriental de Cantabria y las provincias de Vizcaya y Guipúzcoa, mediante programas informáticos de análisis geográfico.

“Hemos comprobado que los cazadores y recolectores nómadas que habitaban estas tierras, hace entre 17.000 y 10.700 años, cambiaron cuevas y refugios situados a media ladera o en altitud por otros en los fondos de los valles y pies de ladera”, apunta Alejandro García Moreno, de la Universidad de Cantabria y autor principal del estudio.

Los yacimientos más antiguos suelen situarse en montes de forma cónica, como las cuevas de El Castillo en Cantabria y Santimamiñe en Vizcaya. Destacan en el paisaje; es decir, no solo puede verse muy bien desde ellos, sino que también resultan muy visibles.

A lo largo del Paleolítico aparecen yacimientos nuevos, muchos de ellos en cuevas que no estaban habitadas hasta entonces y en lugares de menor altitud. “Desde estas cuevas podían ver a mucha menos distancia, pero abarcan un horizonte mayor”, expone el científico.

En total, los investigadores estudiaron 25 yacimientos arqueológicos del final del Paleolítico Superior –los periodos denominados Magdaleniense y Aziliense– y emplearon un sistema de información geográfica (GIS, por sus siglas en inglés) que combina datos espaciales, como mapas y modelos digitales del terreno, con información alfanumérica.

• Noticia en Agencia SINC

• Artículo: To see or to be seen… is that the question? An evaluation of palaeolithic sites’ visual presence and their role in social organization

ARQUEOLOGÍA

¿Qué comían y bebían nuestros antepasados hace miles de años? Conocer la dieta de los diferentes pueblos de la antigüedad se ha convertido en una parte primordial de la arqueología. Y es que identificar los menús de épocas pretéritas es un aspecto fundamental para saber más sobre su estilo de vida, su organización social e incluso su comercio (para adquirir los distintos productos). Ahora un grupo de investigadores de la Universidad de Pensilvania han conseguido descifrar los elementos que componían el’ grog nórdico’, una bebida alcohólica milenaria muy común en los territorios escandinavos en la Edad de Bronce utilizada especialmente para mantenerse calientes frente a las bajas temperaturas.

En concreto, el estudio ha detectado mediante técnicas de arqueología biomolecular la utilización de miel, arándanos rojos, mirto, enebro, resina de abedul y hasta cereales para la fabricación de dicho brebaje. Para lograr estos resultados, el equipo de investigadores analizaron restos de ‘grog’ de diferentes lugares de Suecia y Dinamarca. La muestra más antigua está datada entre el 1500 y el 1300 a. C. y se halló en el interior de una vasija de cerámica que formaba parte de un ajuar funerario de un príncipe guerrero de la localidad danesa de Nandrup. Pero también se examinaron otras muestras fechadas entre el 1100 y el 200 a. C.

Según el doctor Patrick E. McGovern, director del Proyecto de Arqueología Biomolecular de la Universidad de Pensilvania, este trabajo confirma la existencia de un comercio de vino entre los pueblos nórdicos y el sur de Europa desde II Milenio a. C. que fue incrementándose rápidamente con el paso de los siguientes siglos hasta desterrar prácticamente el ‘grog’. Aunque según este experto algunos de los ingredientes de esta bebida local se utilizaron posteriormente como productos de las cervezas medievales. Actualmente la bebida más parecida a lo que pudo ser el ‘grog’ original se produce en la isla sueca de Gotland y se la conoce como ‘Gotlandsdryka’.

• Noticia El Correo

• Artículo: A biomolecular archaeological approach to ‘Nordic grog’ (descarga directa en formato PDF)

Publicado por José Luis Moreno en SIETE DÍAS, 3 comentarios
Experiencias cercanas a la muerte (y II)

Experiencias cercanas a la muerte (y II)

     Última actualizacón: 20 marzo 2018 a las 21:53

En la primera parte de esta anotación hemos analizado qué son las experiencias cercanas a la muerte. Ahora vamos a glosar los principales artículos científicos que han estudiado estas experiencias para, acto seguido, ofrecer una explicación de qué es la consciencia y las implicaciones que las investigaciones en el campo de las ECM pueden tener en la neurociencia.

Bruce Greyson (que creó la escala que lleva su nombre para determinar la existencia de una ECM) ya planteó en los años ochenta del siglo pasado la necesidad de llevar a cabo estudios prospectivos en pacientes con riesgo de sufrir una muerte repentina por paro cardíaco como el medio más idóneo para eliminar el sesgo en la elección de los casos. A continuación vamos a analizar los primeros estudios de este tipo.

El Dr. Sam Parnia (actualmente profesor asistente de medicina de cuidados críticos en la Universidad Estatal de Nueva York) junto con sus colaboradores llevaron a cabo un estudio piloto en 2001 diseñado para evaluar la frecuencia en que se daban ECM en personas que habían sobrevivido a paros cardíacos, así como para determinar las características de estas experiencias. Los resultados se publicaron en la revista Resuscitation.

Se incluyeron en el estudio todas aquellas personas que habían sobrevivido a un paro cardíaco y que habían permanecido ingresadas en un hospital del Reino Unido (el Southampton General Hospital). El estudio se realizó durante un periodo de un año y se interrogó a los pacientes (mientras permanecían aún hospitalizados) acerca de si guardaban algún recuerdo del tiempo en que habían permanecido inconscientes (no se realizó ninguna pregunta directa sobre si habían experimentado una ECM, si habían tenido la sensación de estar fuera del cuerpo u otras experiencias similares). Se aplicó la escala de Greyson como criterio de demarcación y se incluyeron datos fisiológicos como los niveles de gasometría arterial y periférica (junto con niveles de sodio y potasio), datos de la medicación administrada así como cualquier registro de anormalidades en el ritmo cardíaco durante la parada.

Para comprobar la realidad de las afirmaciones de algunos pacientes que afirmaban haber experimentado la sensación de estar fuera del cuerpo, flotando sobre el equipo médico durante las maniobras de reanimación, los investigadores cubrieron con tablones los techos de las habitaciones, colocando en la cara superior unas figuras de forma que sólo desde una posición ventajosa sobre el techo podían verse. Desgraciadamente, y también de forma atípica, ninguno de los pacientes que afirmaron vivir una ECM en esta muestra experimentó esta sensación.

Un total de 63 pacientes cumplieron todos los requisitos del estudio: siete de ellos indicaron que guardaban recuerdos de su periodo de inconsciencia (11,1%), cuatro de los cuales (6,3% del total de la muestra) habían experimentado una ECM según los criterios de la escala de Greyson (siete puntos o más).

Tabla del estudio de Greyson.

Debido al pequeño número de pacientes que tuvieron una ECM no fue posible extraer conclusiones claras acerca de las posibles causas fisiológicas, aunque se constató que la presión parcial de oxígeno era más alta en el grupo que experimentó una ECM que en el grupo control (a pesar de que en el artículo se sugiere que este dato podía descartar la influencia de la anoxia en el origen del fenómeno, los investigadores fueron precavidos y no destacaron esta conclusión dado el poco valor estadístico de los datos).

Los investigadores concluyeron que las ECM tienen lugar mientras los pacientes permanecen inconscientes, lo que contraviene los postulados médicos que niegan la posibilidad de que haya ningún tipo de experiencia subjetiva o capacidad de memorizar dada la nula actividad del cerebro en este estado. Como se ha apuntado que estas experiencias pueden tener lugar justo antes de perder la consciencia (a pesar de que el paso al estado comatoso tras un paro cardíaco sucede en pocos segundos) o en la fase de recuperación, reconocen que se precisan más datos para confirmar el desarrollo temporal de las ECM y descartar o probar esta hipótesis.

Ese mismo año se publicaron los resultados de otro estudio a gran escala realizado en diez hospitales holandeses. Dirigido por el cardiólogo Pim Van Lommel, incluyó un total de 344 personas que habían sufrido un paro cardíaco y fueron resucitadas con éxito. Todo ellos fueron entrevistados pocos días después, y del total de pacientes estudiados, 62 de ellos (un 18%) reconocieron haber experimentado una ECM, de los cuales 41 (12%) informaron de una experiencia profunda. Todos los pacientes estuvieron clínicamente muertos (según los registros electrocardiográficos).

En el estudio se definen las ECM como los recuerdos de todas las impresiones referidas durante un estado especial de consciencia, que incluyen elementos específicos tales como la sensación de estar fuera del cuerpo, sentimientos agradables, la visión de un túnel, una luz, estar junto a parientes fallecidos, o una revisión de la vida. Por otro lado, la muerte clínica se define como un periodo de inconsciencia provocado por un suministro deficiente de sangre al cerebro provocado bien por una circulación sanguínea insuficiente, respiración insuficiente o ambas causas. Si en esta situación la reanimación cardiopulmonar no comienza en 5 o 10 minutos, se produce un daño irreparable al cerebro y el paciente muere.

Para determinar si ha habido o no una ECM los investigadores utilizaron la escala WCEI (con una puntuación de 6 o más para considerar que la experiencia ha sido profunda). Compararon el grupo de 62 pacientes que experimentaron una ECM con los supervivientes que no habían referido ningún recuerdo (el grupo control) en relación a una serie de índices demográficos, médicos, farmacológicos y psicológicos. El objetivo era calcular la frecuencia en la que se producían las ECM en pacientes que habían sufrido un paro cardíaco (una situación médica crítica objetiva) y determinar los factores que afectaban a la frecuencia, el contenido y la profundidad de la misma.

Comprobaron que factores como la duración del paro cardíaco o la duración del periodo de inconsciencia, la medicación, el miedo a la muerte antes del infarto o el tiempo que transcurrió entre la ECM y la entrevista para recabar los datos no guardaban relación con el hecho de sufrir una ECM. Sin embargo, si constataron que las personas menores de 60 años eran más susceptibles a sufrir una ECM que las mayores. Otro dato relevante fue que la mayoría de los pacientes que experimentaron una ECM, especialmente una de tipo profundo, murieron finalmente en los 30 días posteriores a la reanimación.

Este estudio incluyó un aspecto longitudinal al seguir los dos grupos después de dos años y luego a los ocho años, para evaluar el efecto del tiempo, la memoria y los mecanismos de supresión en el proceso de transformación vital tras una ECM (los datos se recabaron entre 1988 y 1992). Los resultados confirmaron los estudios previos al indicar que las ECM producían efectos a largo plazo en las personas en términos de, por ejemplo, perder el miedo a morir, una intuición aumentada etc.

En cuanto a las causas, los investigadores concluyeron que los factores médicos no podían explicar las ECM y, aunque todos los pacientes analizados estuvieron clínicamente muertos, la mayoría no experimentó una ECM. Sostienen que si se tomaran en cuenta como desencadenantes de una ECM los factores puramente fisiológicos que resultan de la anoxia cerebral, la mayoría de los pacientes analizados deberían haber tenido esta experiencia. Concluyen que ni la medicación de los pacientes ni tampoco los factores psicológicos son determinantes para sufrir una ECM.

Quizás lo más llamativo sea que un estudio sobre este tema tan polémico fuese publicado en una de las revistas líderes en la investigación médica (The Lancet). Van Lommel explicó en una entrevista que nunca antes se había realizado un estudio tan sistemático sobre las experiencias de personas que fueron declaradas muertas y después volvieron a la vida. Afirma:

En ese momento estas personas no sólo están conscientes; su consciencia está incluso más expandida que nunca. Pueden pensar con extrema claridad, tienen recuerdos que se remontan a su niñez más temprana y experimentan una conexión intensa con todo y con todos a su alrededor. ¡Y sin embargo el cerebro no muestra ninguna actividad en absoluto!

Como ya hemos indicado, algunos científicos sostienen que estas experiencias pueden ocurrir en el momento en el que aún queda alguna función cerebral, aunque sea mínima. Van Lommel responde:

Cuando el corazón deja de latir, el riego sanguíneo se detiene en el plazo de un segundo. Entonces, 6,5 segundos más tarde, la actividad del EEG [electroencefalograma] comienza a cambiar debido a la escasez de oxígeno. Después de 15 segundos hay una línea recta y plana, y la actividad eléctrica en la corteza cerebral desaparece completamente. No podemos medir la actividad en el tallo cerebral, pero experimentos en animales han demostrado que esa actividad también se ha detenido allí.

Más aún, se puede demostrar que el tallo cerebral ya no está funcionando porque regula nuestros reflejos básicos, tales como la respuesta de la pupila y el reflejo de tragar, que ya no responden. De ese modo puedes introducir fácilmente un tubo por la garganta de una persona. El centro respiratorio también se detiene. Si el individuo no es reanimado en un plazo de 5 a 10 minutos, sus células cerebrales se dañan de forma irreversible.

Por último, en el análisis que estamos haciendo de los principales estudios prospectivos sobre las ECM, vamos a hablar del estudio que el Dr. Greyson llevó a cabo con todos los pacientes admitidos en la unidad de cuidados intensivos cardíacos del Hospital de la Universidad de Virginia durante un periodo de 30 meses (se excluyeron aquellos que estaban demasiado enfermos, psicóticos o disminuidos cognitivamente como para ser entrevistados). Los resultados se publicaron en la revista General Hospital Psychiatry en 2003 tomando como base de partida la hipótesis de que la incidencia de las ECM sería mayor entre los pacientes que habían sufrido un paro cardíaco de aquellos con otros problemas cardíacos (para diferenciar los problemas que pueden afectar al corazón recomiendo este enlace).

De la muestra total de 1595 pacientes admitidos en la unidad de cuidados intensivos cardíacos, a 116 (7%) se les diagnosticó un paro cardíaco. La ECM se determinó siguiendo la escala de Greyson y las entrevistas a los pacientes se llevaron a cabo dentro de los seis días posteriores a la admisión. Del número total de pacientes estudiados, 27 mostraron una puntuación de siete o más en la escala de Greyson, por lo que fueron catalogados dentro del grupo ECM; el resto, 1568 pacientes, fueron incluidos en el grupo de control. Comparados con los pacientes que no vivieron una ECM, el grupo ECM no difería en términos sociodemográficos, de apoyo social, calidad de vida, aceptación de su enfermedad, función cognitiva, capacidad para actividades físicas, grado de disfunción cardíaca, proximidad objetiva a la muerte o prognosis coronaria.

Entre las conclusiones del estudio destacaremos que se confirmó la diferente incidencia en ECM que existe entre los pacientes que entraron en el hospital por un paro cardíaco frente al resto de enfermos coronarios (según los datos facilitados, un paciente con paro cardíaco tiene una posibilidad 10 veces mayor de experimentar una ECM que el resto). Según Greyson, este dato apoya el vínculo que hay entre vivir este tipo de experiencias y la proximidad de la muerte. La pregunta obvia ante esta afirmación sería cuestionarse porqué la frecuencia de pacientes que afirman haber experimentado una ECM tras un paro cardíaco es tan baja (un 10%) del global de pacientes que sobrevivieron tras ese paro.

La respuesta es que este porcentaje no representa la proporción de personas que han sobrevivido a un paro cardíaco y que han experimentado una ECM, sino aquellos que han sido capaces de recordar esta experiencia y además han querido contarla a los investigadores. Tres factores pueden incidir en esta circunstancia. En primer lugar, es habitual padecer amnesia tras un paro cardíaco; en segundo término, este factor está relacionado con la edad: al igual que en el estudio holandés, en éste se constata que las personas menores de 60 años tienen mejores recuerdos de una ECM quizás debido a que los pacientes de mayor edad tienen más probabilidad de sufrir isquemia cerebral (es decir, cuando la sangre no puede llegar a ciertas partes del cerebro y se interrumpe el suministro de oxígeno a esas zonas); por último, otro factor que puede reducir el porcentaje de personas que cuentan su experiencia es el miedo a que sean ridiculizados o considerados enfermos mentales.

El Dr. Greyson concluye finalmente que ningún modelo fisiológico ni psicológico puede explicar por sí mismo todas las características de las ECM. Sin embargo, reconoce que algunas de estas características sí que pueden atribuirse a mecanismos neuroquímicos pero que, en cualquier caso, como las anteriores investigaciones han apuntado, los complejos procesos sensoriales y de percepción que se manifiestan durante un periodo de aparente muerte clínica suponen un reto para la idea de que la consciencia está localizada exclusivamente en el cerebro.

Lo que quedó patente con estos resultados es que era necesario llevar a cabo más investigaciones a gran escala, empleando métodos cada vez más precisos para intentar desentrañar el origen o causas que provocaban las ECM. Así, en 2008 el Dr. Sam Parnia presentó formalmente el denominado The Human Consciousness Project (Proyecto Conciencia Humana), donde convergían un grupo internacional de científicos para investigar en condiciones de laboratorio los procesos neuronales implicados en las diferentes facetas de la conciencia humana, su naturaleza y su relación con el cerebro.

El primer estudio lanzado por el proyecto se denominó AWARE (del inglés AWAreness during REsuscitation o conciencia durante la reanimación) con el objeto de analizar la relación de la mente con el cerebro durante el estado de muerte clínica. A pesar de que se había anunciado la publicación de los resultados durante el pasado año 2013, a fecha de hoy, la página web del proyecto sigue sin concretar cuándo se harán públicos y cuáles serán las conclusiones. Actualizaremos esta anotación si algún día se concluye.

Consciencia

Hasta ahora hemos analizado con cierta profundidad todos los aspectos relacionados con las experiencias cercanas a la muerte, pero para tener una visión completa de esta materia necesitamos comprender qué entendemos por consciencia y cuál es el estado actual de la investigación neurológica en este campo.

El diccionario de la Real Academia de la Lengua ofrece cuatro acepciones del término conciencia:

(Del lat. conscientĭa, y este calco del gr. συνείδησις).

1. f. Propiedad del espíritu humano de reconocerse en sus atributos esenciales y en todas las modificaciones que en sí mismo experimenta.

2. f. Conocimiento interior del bien y del mal.

3. f. Conocimiento reflexivo de las cosas.

4. f. Actividad mental a la que solo puede tener acceso el propio sujeto.

5. f. Psicol. Acto psíquico por el que un sujeto se percibe a sí mismo en el mundo.

Poro otro lado, encontramos tres acepciones del término consciencia:

(Del lat. conscientĭa).

1. f. conciencia.

2. f. Conocimiento inmediato que el sujeto tiene de sí mismo, de sus actos y reflexiones.

3. f. Capacidad de los seres humanos de verse y reconocerse a sí mismos y de juzgar sobre esa visión y reconocimiento.

Bien, una vez sentado lo anterior, la pregunta esencial que deberíamos responder es ¿cómo surge la conciencia? En la investigación y análisis de esta materia hay dos grandes corrientes de pensamiento: una es la perspectiva que podríamos llamar localizacionista, que señala que la conciencia ocurre en ciertas regiones concretas del cerebro; la otra argumenta que la conciencia es un proceso holístico, global, que resulta de la actividad de redes de neuronas que se comunican entre sí y originan propiedades emergentes (las propiedades emergentes son aquellas que no se pueden explicar analizando los componentes de un sistema, es decir, son propiedades que estos componentes no tendrían de forma aislada sino que surgen únicamente como producto de la interacción entre ellos).

Siguiendo estas dos corrientes, vamos a exponer los puntos de vista de dos neurocientíficos cada uno de los cuales sostiene una visión diferente pero que comparten la convicción de que el enigma de la conciencia no es un problema único; antes bien, engloba múltiples fenómenos pendientes de explicación: la autoconciencia (la facultad de poder examinar nuestros propios deseos y pensamientos), el contenido de la conciencia (aquello de lo que se es consciente en un momento cualquiera) y la forma en que los procesos cerebrales se relacionan con la conciencia y la no-conciencia, entre otros.

Según plantea Christof Koch, profesor en el Instituto Tecnológico de California y jefe científico del Instituto Allen para la Ciencia del Encéfalo en Seattle, para generar la experiencia consciente un único grupo de neuronas se activa en regiones concretas del encéfalo de manera específica. Por tanto, cada “percepto consciente” (término que se refiere a la representación e interpretación que el cerebro hace de los estímulos procedentes de los sentidos) está asociado con una coalición específica de neuronas.

Junto con este concepto debemos tratar el de “correlato neuronal de conciencia” (CNC). Los neurocientíficos prefieren este complejo término al más simple de conciencia quizás por la dificultad de hallar una definición clara que sea aceptada por todos. Podemos definirlo como el conjunto mínimo de eventos (externos) y mecanismos (internos) que son suficientes para generar una percepción consciente específica. La perturbación o interrupción de cualquier correlato neuronal de conciencia altera su percepto asociado o provoca la desaparición del mismo.

En el plano fisiológico, el sustrato probable de un CNC es una coalición de neuronas piramidales (un tipo de neurona que establece comunicaciones a larga distancia) alojadas en la corteza cerebral. Según esta aproximación, las neuronas forman parte de bastas redes y sólo en tal contexto generan experiencia consciente. La mente o conciencia se hallaría de esta forma claramente situada en la corteza cerebral.

Por su parte, Susan Greenfield opina que para cada experiencia consciente las neuronas distribuidas por el cerebro se sincronizan en “asambleas” coordinadas y luego se dispersan; la conciencia, por tanto, se genera por un incremento cuantitativo en la actividad neuronal del cerebro. Parte de la hipótesis de que no existe ninguna cualidad “mágica” e intrínseca en ninguna región cerebral o conjunto de neuronas que sea responsable de la conciencia, la clave está en el proceso en sí. Según este modelo, la conciencia varía de forma gradual desde un momento al siguiente. La gran cuestión que queda por resolver es la forma en que los fenómenos fisiológicos que tienen lugar en el cerebro se traducen en lo que nosotros experimentamos como conciencia.

Volviendo a Van Lommel, opina que las ECM sólo pueden explicarse si asumimos que la consciencia, junto con todas nuestras experiencias y memorias, se localiza fuera del cerebro. La siguiente pregunta es obvia, ¿dónde? Esta es su respuesta:

Sospecho que hay una dimensión en la que se almacena esta información, una clase de consciencia colectiva a la que sintonizamos para acceder a nuestra identidad y nuestras memorias

Ahí es nada. En un artículo que escribió en 2006 (Near-Death Experience, Consciousness and the Brain) ahondó más en esta propuesta acudiendo a la mecánica cuántica como forma de explicar esa otra “dimensión” donde se hallaría la consciencia. No nos vamos a detener en esta explicación porque, bajo nuestro punto de vista, no es más que una exposición en voz alta de una idea incoherente. El físico Victor Stegner ha reiterado en numerosas ocasiones su preocupación del surgimiento de un «nuevo mito» en el pensamiento moderno que sostiene que la física cuántica ha invalidado la visión materialista y reduccionista del universo, cuando lo que sucede llanamente es que se malinterpretan o no se entienden sus postulados. En cualquier caso, en las referencias incluyo el artículo por si alguien tiene más interés y desea profundizar. Van Lommel finalmente decidió abandonar su carrera de cardiología para dedicarse a tiempo completo a investigar estas experiencias. Fundó la Fundación Merkawah en La Haya, como una rama autónoma de la “Asociación Internacional para Estudios Cercanos a la Muerte” (IANDS – International Association for Near-Death Studies).

No quería terminar esta anotación sin exponer los puntos de vista del Dr. Francisco Mora Teruel. A él le gusta explicar qué es el cerebro y la mente acudiendo a un símil según el cual el cerebro es un instrumento musical (pensemos en un piano). Este instrumento puede ser analizado desmontándolo para separar sus componentes y así poder comprender su funcionamiento. Para muchos, el cerebro es un órgano capaz de ser analizado en todos y cada uno de sus elementos moleculares, celulares y anatómicos. Por su parte, la mente también sería fácil entenderla como una melodía, una composición musical. Algo que aún siendo temporal, no tiene espacio, no es material.

La cuestión es que la resolución del problema mente-cerebro sería como analizar las partes de un piano tratando de encontrar en ellas la melodía que acaba de sonar. Para resolver este inconveniente habría que invocar la existencia de algo o alguien que tocara el piano, es decir, un elemento extracerebral, de otra naturaleza (lo que algunos llaman espíritu).

Sin embargo, para el profesor Mora no hay misterio. Sostiene que ni en la filosofía ni en la neurociencia se mantienen hoy posiciones dualistas. Hay un posicionamiento general, casi unánime, acerca de la idea de que es el propio cerebro el generador y último responsable de los procesos mentales. Las disensiones entre filósofos, entre los propios neurocientíficos y entre filósofos y neurocientíficos están únicamente en lograr comprender cómo se establece la relación, causal o no, entre los mecanismos cerebrales y los procesos mentales.

Su posicionamiento a este respecto está con la llamada teoría de la identidad. Lo que defiende esta teoría es que entre el cerebro y la mente no hay causación, la actividad cerebral son los procesos mentales. Es decir, la actividad neurobiológica del cerebro cuando se expresa en la conducta y el pensamiento es lo que llamamos procesos mentales o mente, y es entonces cuando surgen con una naturaleza aparentemente inmaterial, espiritual si se quiere. A la luz de esta forma de pensar, los procesos cerebrales y los procesos mentales son una misma cosa sólo que estudiados, analizados y expresados utilizando técnicas, instrumentos de análisis y lenguajes diferentes.

Por supuesto que el materialismo no es un hecho establecido en el sentido que, por ejemplo, lo es la estructura helicoidal del ADN. En este sentido, todavía es posible (aun cuando las evidencias actuales no lo apoyen) que el dualismo pueda ser verdad. Aun así, y a pesar de la remota posibilidad de que nuevos descubrimientos reivindiquen a Descartes, el materialismo, como lo es la revolución darwiniana, es la hipótesis de trabajo más segura.

 

Referencias:

Parnia, S., et al. (2001), «A qualitative and quantitative study of the incidence, features and aetiology of near death experiences in cardiac arrest survivors«. Resuscitation, vol. 48, múm. 2, p. 149-156.

Lommel, Pim Van, et al. (2001) «Near-death experience in survivors of cardiac arrest: a prospective study in the Netherlands«, The Lancet, núm. 358, p. 2039-2045.

Greyson, B. (2003), «Incidence and correlates of near-death experiences in a cardiac care unit«. General Hospital Psychiatry, vol. 25, núm. 4, p. 269-276.

Van Lommel, P. (2006), «Near-death experience, consciousness, and the brain: A new concept about the continuity of our consciousness based on recent scientific research on near-death experience in survivors of cardiac arrest«. World Futures, vol. 62, núm. 1-2, p. 134-151.

Mora, F. y  Barraquer Bordás, L. (1995), El problema cerebro-mente. Madrid: Alianza, 288 p.

Koch, C. y  Greenfield, S. (2007), «¿Cómo surge la consciencia?». Investigación y Ciencia, núm. 375, p. 50-57.

Pueden descargar la anotación completa en en los siguientes formatos:

Publicado por José Luis Moreno en CIENCIA, FILOSOFÍA, HETERODOXIA, 6 comentarios