581px-Romé_de_l'Isle_crystal_model_of_unglazed_porcelain,_collection_Teylers_Museum,_Haarlem_(the_Netherlands)

Alrededor de 1780, Arnould Carangeot, recibió un encargo de su jefe, Jean Baptiste Romé de l’Isle: tenía que hacer copias en arcilla de su colección de cristales. La tarea no era fácil en absoluto y más teniendo en cuenta lo puntilloso que podía llegar a ser de l’Isle. Pero eso no era problema para el metódico y meticuloso Carangeot. Éste se dio cuenta de que si quería reproducir fielmente los cristales era crítico que respetase los ángulos entre sus caras y que, para ello necesitaba medirlos con precisión suficiente. El compás resultaba útil para los cristales más grandes, no así para los más pequeños. Ni corto ni perezoso, Carangeot diseñó un aparato que le permitiese medir los ángulos: había nacido el goniómetro de contacto.

Goniómetro de contacto

Fue usando este goniómetro que de l’Isle reunió datos suficientes para poder afirmar en 1783 que la primera ley de la cristalografía de Steensen era válida para todos los cristales, no sólo los de cuarzo y hematita.

Apoe-4

En las noticias aparece reiteradamente que la enfermedad de Alzheimer está asociada a las placas de beta-amiloide. Muchos fármacos se han centrando, y se centran, en eliminarlas como si acabando con el perro acabásemos con la rabia. Y no. Cada vez es más evidente que las placas de beta amiloide, siendo causantes, pero no los únicas, de parte de los problemas cognitivos, son una consecuencia del alzhéimer.

Efectivamente, la etapa preclínica del alzhéimer, es decir, antes de que existan síntomas, incluye incrementos en la proteína tau, cambios en la actividad metabólica, cambios en las conexiones sinápticas e incluso cambios en la densidad de receptores serotonínicos en distintas regiones encefálicas.

Y entonces surge la gran pregunta: ¿cuándo comienza el alzhéimer? La respuesta es que no lo sabemos y que esto es crítico para poder afrontar la enfermedad en su conjunto con un mínimo de garantías de éxito (véase al respecto nuestro La verdad sobre la enfermedad de alzhéimer sigue siendo incómoda). Una posible respuesta es que comenzase desde que somos concebidos, por genética, sin que existiesen factores desencadenantes ambientales. Suena terrorífico, fatalista, pero pensemos que no todos los casos de alzhéimer están asociados a una causa genética (que sepamos) y que incluso podrían existir varias clases de alzhéimer.

Los alrededores de la escena del crimen. Plaza del Mercado de Giessen (1840) | Imagen: Wikimedia Commons
Los alrededores de la escena del crimen. Plaza del Mercado de Giessen (1840) | Imagen: Wikimedia Commons

En 1847 el Stadtarzt (médico municipal) de la ciudad de Giessen (Alemania) acudió a examinar los espeluznantes restos de la Condesa von Görlitz. La condesa aparecía consumida totalmente, excepto una o dos vértebras, por el fuego en su apartamento privado. Las ventanas estaban cerradas y aseguradas por dentro y el mobiliario intacto. El Stadtartz dictaminó que la condesa había muerto de combustión espontánea [humana] (CEH).

Cuando su mayordomo apareció después en Francia con sus joyas, pareció que otra explicación diferente a la CEH podría ser más probable. Un tribunal alemán le encontró culpable de asesinato e incendio provocado. Pero el procesamiento tuvo el efecto secundario de poner la presunta causa de la muerte, la CEH, a juicio.

Si bien pocos médicos podían afirmar haber asistido a los últimos momento de una CEH, ello no era óbice, obstáculo, cortapisa ni valladar para que existiese numerosa documentación clínica suficiente como para que la medicina forense estableciese que la CEH era la culminación de una enfermedad que afectaba a las mujeres corpulentas y alcohólicas. Una vez encendidas, ardían como velas. El caso era que la condesa von Görlitz no era ni corpulenta ni precisamente alcohólica (era prácticamente abstemia para los estándares de la época: no llegaba a la botella de vino al día), por lo que se empezó a sospechar que el Stadtartz había hecho un mal diagnóstico.

Como expertos el tribunal citó a dos profesores de la Universidad de Giessen, un tal Justus Liebig, químico, y a Theodor von Bischof, fisiólogo. Ambos testificaron que el cuerpo humano contiene demasiada agua para mantener una llama, no digamos ya como para autoinflamarse espontáneamente. Pero estos profesores no se quedaron ahí. Emulando lo que hoy día conocemos como técnicas criminalísticas (populares gracias a series como CSI) realizaron varios experimentos con cadáveres que demostraron que el mayordomo podía haber creado las condiciones encontradas en el escenario del crimen, esto es, el apartamento privado de la condesa von Görlitz.

image001

Otro aspecto de la tesis de Duhem-Quine, íntimamente relacionado con lo que veíamos en El tribunal de la experiencia, afecta a lo que se llama habitualmente experimento crucial o experimentus crucis.

La idea de la existencia de experimentos cruciales, esto es, de que dadas dos hipótesis propuestas es posible diseñar un experimento para el que cada hipótesis arroje un valor claramente diferente, con lo que la realización del experimento permite decidir cual de las dos hipótesis es correcta, tiene su origen último en Francis Bacon. Bacon planteaba en Novum Organum (1620) la existencia de situaciones en las que una hipótesis sería correcta pero no las hipótesis alternativas, a las que llamó instantia crucis. Para los casos en que la situación era provocada, es decir, se diseñaba un experimento, Robert Hooke creó el término experimentus crucis, que después Isaac Newton usaría1 haciéndolo famoso (si bien Hooke diría que el experimento de Newton no era crucial, en absoluto).

Pero, ¿es posible que exista un experimento crucial? Recordemos, citando una vez más nuestra anotación Provisional y perfectible, que las pruebas confirmatorias pueden como mucho apoyar una hipótesis, pero nunca demostrar que es definitivamente correcta. Siendo estrictos, por tanto, un experimento (crucial o no) nunca puede decir que una hipótesis sea correcta, si acaso cuál no lo es. Es decir, que un experimento crucial, a lo sumo, permite descartar hipótesis (y tampoco, por las salvedades que veremos en la parte IV de esta serie).

Gran Cañón del río Colorado (Tierra) | Imagen: chensiyuan / Wikimedia Commons
Gran Cañón del río Colorado (Tierra) | Imagen: chensiyuan / Wikimedia Commons

Hoy el Sol emite más energía que cuando se formó Marte hace 4500 millones de años (en aquella época alrededor de un 30% menos de luminosidad). Por lo tanto el planeta recibía menos energía y su temperatura debería haber sido menor. Pero, la geología nos dice que en aquella época el agua líquida corría por la superficie, como lo atestiguan los cañones como Nanedi Vallis, similares al Gran cañón del río Colorado. Hoy la atmósfera marciana es casi toda ella (más del 95%) dióxido de carbono, con lo que el efecto invernadero está garantizado. ¿Cómo es posible entonces que hubiese agua líquida cuando manifiestamente el planeta tenía que haber sido más frío? La respuesta evidente es que no podía ser más frío, pero ¿cómo?

Nanedi Vallis (Marte) | Imagen: NASA/Malin Space Science Systems
Nanedi Vallis (Marte) | Imagen: NASA/Malin Space Science Systems

Un equipo de investigadores encabezado por Ramsés Ramírez, de la Universidad Estatal de Pensilvania (EE.UU.), ha llegado a la conclusión de que la presencia de hidrógeno molecular en la atmósfera, hidrógeno que se habría ido perdiendo paulatinamente por la escasa gravedad de Marte, podría ser el responsable de un efecto invernadero mucho mayor que el actual hace 3.800 millones de años, justificando unas temperaturas suficientes para el agua corriente. Los resultados se publican en Nature Geoscience.

El resultado de Ramírez et al. no deja de ser una hipótesis. También es cierto que no hay demasiadas alternativas consistentes. Así, por ejemplo, hay una que dice que los cañones marcianos se formaron tras un bombardeo intenso de meteoritos que generaron el calor y aportaron el agua necesarios para hacer que lloviese. El problema es que esta hipótesis no da tiempo para que se formen los cañones por erosión.

El modelo creado por los investigadores demuestra que la posibilidad de que los niveles de gases proveniente de la actividad volcánica (dióxido de carbono e hidrógeno molecular) podrían haber sido suficientes para permitir el agua líquida.

schrodingers_cat

Desde que escribimos la serie Incompletitud y medida en física cuántica, una introducción sencillita a los problemas interpretativos de la mecánica cuántica, sin fórmulas, para el Cuaderno de Cultura Científica, han sido varias las personas que nos habían solicitado que editasemos el texto para su lectura en libro electrónico. Gracias a la enorme gentileza de Pedro J. Hernández ahora es posible. Aquí teneis la serie completa en formatos

MOBI

Wurmloch
La luz viajando por el espaciotiempo según la línea roja tardaría más en llegar de A a B que si algo como una nave espacial usase un agujero de gusano usando la línea amarilla, por lo que “viajaría más rápido que la luz”. Algo que sólo ocurre en la ciencia ficción.

Seguro que has oído hablar alguna vez de el entrelazamiento cuántico. Fue descubierto por casualidad, como aquel que dice, cuando Einstein, Podolsky y Rosen (EPR) se dispusieron a demostrar lo absurda que podía llegar a ser la mecánica cuántica tal y como la planteaban Bohr, Heisenberg y demás amigos de la mansión Carlsberg. Y, sin embargo, es la característica más sobresaliente de la mecánica cuántica, la que la separa de verdad de la física clásica.

Y también habrás oído hablar de los agujeros de gusano, una especie de atajo en el espaciotiempo (no puedes visualizarlo porque necesitas más de cuatro dimensiones para hacerlo; la imagen que abre esta anotación supone que el espaciotiempo tiene dos dimensiones), y que son lo que permite los viajes intergalácticos en las películas de ciencia ficción en unos tiempos aceptables para la trama. Curiosamente su existencia (teórica) también fue descubierta por Einstein y Rosen y publicada en el mismo año que el artículo EPR, 1935; por ello a los agujeros de gusano se les conoce también como puentes de Einstein-Rosen (ER).

Una de las cosas que tienen en común el entrelazamiento y los agujeros de gusano es que paracen implicar la existencia del viaje más rápido que la luz. Como es sabido, dos partículas entrelazadas separadas por una distancia arbitrariamente grande, es lo que se llama un par EPR, tienen la particularidad de que si se mide una propiedad de una de ellas esto tiene un efecto inmediato en la otra, no importa lo lejos que esté: parece que la información viaja más rápido que la luz, instantáneamente. De forma parecida en un agujero de gusano (un puente ER) que ya hemos mencionado que es un atajo que conecta dos puntos separados del espaciotiempo. En ambos casos la información parece viajar más rápido que la luz, pero no lo hace.

Trabajos recientes (véase este artículo de Mario Herrero para un resumen del estado de la cuestión) han demostrado que la geometría del espaciotiempo de un agujero de gusano es equivalente a lo que obtendrías si entrelazaras dos agujeros negros y los separases. Por expresarlo brevemente ER = EPR.

640px-Cryst_struct_teo2

Los libros modernos de cristalografía suelen comenzar con una versión simplificada del concepto puramente matemático (de teoría de grupos y geometría) de retículo: una malla o celda unidad que es capaz de ocupar todo el espacio sin dejar huecos ni superponerse (esta es la definición de teselación en tres dimensiones). Sin embargo, los libros de texto de mediados del siglo XX y anteriores que tienen un enfoque más macroscópico de la cristalografía, suelen reflejar más pronto que tarde la que se llama Primera Ley de la Cristalografía, a saber, “los ángulos entre dos caras correspondientes de un cristal de cualquier especie química son constantes y característicos de la especie”. Esta ley fue la primera afirmación científica de la cristalografía y, aunque hoy nos pueda parecer una obviedad digna de Pero Grullo, se necesitaron nada menos que dos milenios de observaciones cristalográficas para establecerla.

Efectivamente, las observaciones del aspecto de los cristales de cualquier sustancia afirmaban que su forma no era constante, por lo que era de esperar que los ángulos entre sus caras tampoco lo fuesen. Bien entrado el siglo XVI Conrad Gessner escribía en De rerum fossilium, lapidum et gemmarium (1564) que “un cristal difiere de otro en sus ángulos y, por consiguiente, en su figura”. Se necesitó un observador de la naturaleza excepcional para ver más allá de la apariencia, Niels Steensen.

Portrait_of_Nicolas_Stenonus

480px-Interferometre_Michelson.svg

En los últimos años el número de artículos de investigación publicados que no pueden ser reproducidos ha aumentado. Una de las causas podría encontrarse en que los criterios de significación estadística no son lo suficientemente estrictos. Esto, al menos, es lo que argumenta Valen Johnson, de la Universidad Texas A&M (EE.UU.), en un artículo publicado en PNAS.

La inmensa mayoría de los investigadores usan un número llamado valor p como baremo de la significación estadística. Este número p es una probabilidad, por lo que puede tomar valores entre 0 y 1, siendo 0 probabilidad nula y 1 absoluta certeza. La probabilidad que mide el valor p es la de que yo obtuviese los resultados experimentales que he obtenido si no existiese relación alguna (hipótesis nula) entre las variables que estoy considerando como relacionadas en mi hipótesis experimental. Así, por ejemplo, si yo digo como hipótesis experimental que la humedad ambiente afecta a la producción de aceitunas, la hipótesis nula es que yo obtengo la misma producción de aceitunas cerca de la costa y en el interior; si mis mediciones indican una variabilidad que es compatible con la hipótesis nula, entonces mis resultados no son estadísticamente significativos.

Este valor p se supone que le da al investigador una idea de si sus esfuerzos han dado resultado positivo. Por convención está establecido que un valor de p menor o igual a 0,05, es decir que la probabilidad de que yo obtenga estos resultados y la hipótesis nula sea cierta es inferior al 5%, es lo suficientemente significativo estadísticamente como para afirmar que existe una correlación con la hipótesis objeto de experimentación. Pero, según Johnson, aquí está el quid de la cuestión: p representaría realmente la probabilidad de que se dé un valor extremo en un experimento y, por tanto, el valor p no estaría reflejando realmente el grado de variación con la norma que los investigadores piensan que refleja.

Tribunal de la experiencia

En una anotación anterior, Provisional y perfectible, introdujimos el concepto de hipótesis auxiliar. Recordemos un párrafo relevante:

Estas hipótesis no expresadas explícitamente se suelen llamar hipótesis auxiliares y son cruciales en cualquier caso de razonamiento disconfirmatorio. Tanto es así que, en cualquier situación en la que se usa una teoría para hacer una predicción que resulta ser incorrecta, es posible (de hecho muy probable, como demuestran todos los días los laboratorios de prácticas) que la hipótesis principal esté perfectamente bien y que lo que fallen sean algunas de las hipótesis auxiliares.

Por lo tanto, cuando un resultado experimental arroja un valor que parece contradecir nuestra hipótesis principal lo que termina ocurriendo probablemente es que se rechace alguna de las hipótesis auxiliares.