640px-Cryst_struct_teo2

Los libros modernos de cristalografía suelen comenzar con una versión simplificada del concepto puramente matemático (de teoría de grupos y geometría) de retículo: una malla o celda unidad que es capaz de ocupar todo el espacio sin dejar huecos ni superponerse (esta es la definición de teselación en tres dimensiones). Sin embargo, los libros de texto de mediados del siglo XX y anteriores que tienen un enfoque más macroscópico de la cristalografía, suelen reflejar más pronto que tarde la que se llama Primera Ley de la Cristalografía, a saber, “los ángulos entre dos caras correspondientes de un cristal de cualquier especie química son constantes y característicos de la especie”. Esta ley fue la primera afirmación científica de la cristalografía y, aunque hoy nos pueda parecer una obviedad digna de Pero Grullo, se necesitaron nada menos que dos milenios de observaciones cristalográficas para establecerla.

Efectivamente, las observaciones del aspecto de los cristales de cualquier sustancia afirmaban que su forma no era constante, por lo que era de esperar que los ángulos entre sus caras tampoco lo fuesen. Bien entrado el siglo XVI Conrad Gessner escribía en De rerum fossilium, lapidum et gemmarium (1564) que “un cristal difiere de otro en sus ángulos y, por consiguiente, en su figura”. Se necesitó un observador de la naturaleza excepcional para ver más allá de la apariencia, Niels Steensen.

Portrait_of_Nicolas_Stenonus

480px-Interferometre_Michelson.svg

En los últimos años el número de artículos de investigación publicados que no pueden ser reproducidos ha aumentado. Una de las causas podría encontrarse en que los criterios de significación estadística no son lo suficientemente estrictos. Esto, al menos, es lo que argumenta Valen Johnson, de la Universidad Texas A&M (EE.UU.), en un artículo publicado en PNAS.

La inmensa mayoría de los investigadores usan un número llamado valor p como baremo de la significación estadística. Este número p es una probabilidad, por lo que puede tomar valores entre 0 y 1, siendo 0 probabilidad nula y 1 absoluta certeza. La probabilidad que mide el valor p es la de que yo obtuviese los resultados experimentales que he obtenido si no existiese relación alguna (hipótesis nula) entre las variables que estoy considerando como relacionadas en mi hipótesis experimental. Así, por ejemplo, si yo digo como hipótesis experimental que la humedad ambiente afecta a la producción de aceitunas, la hipótesis nula es que yo obtengo la misma producción de aceitunas cerca de la costa y en el interior; si mis mediciones indican una variabilidad que es compatible con la hipótesis nula, entonces mis resultados no son estadísticamente significativos.

Este valor p se supone que le da al investigador una idea de si sus esfuerzos han dado resultado positivo. Por convención está establecido que un valor de p menor o igual a 0,05, es decir que la probabilidad de que yo obtenga estos resultados y la hipótesis nula sea cierta es inferior al 5%, es lo suficientemente significativo estadísticamente como para afirmar que existe una correlación con la hipótesis objeto de experimentación. Pero, según Johnson, aquí está el quid de la cuestión: p representaría realmente la probabilidad de que se dé un valor extremo en un experimento y, por tanto, el valor p no estaría reflejando realmente el grado de variación con la norma que los investigadores piensan que refleja.

Tribunal de la experiencia

En una anotación anterior, Provisional y perfectible, introdujimos el concepto de hipótesis auxiliar. Recordemos un párrafo relevante:

Estas hipótesis no expresadas explícitamente se suelen llamar hipótesis auxiliares y son cruciales en cualquier caso de razonamiento disconfirmatorio. Tanto es así que, en cualquier situación en la que se usa una teoría para hacer una predicción que resulta ser incorrecta, es posible (de hecho muy probable, como demuestran todos los días los laboratorios de prácticas) que la hipótesis principal esté perfectamente bien y que lo que fallen sean algunas de las hipótesis auxiliares.

Por lo tanto, cuando un resultado experimental arroja un valor que parece contradecir nuestra hipótesis principal lo que termina ocurriendo probablemente es que se rechace alguna de las hipótesis auxiliares.

Clatrato extraido del fondo marino frente a las costas de Oregón | Imagen: Wusel007 / Wikimedia Commons
Clatrato extraido del fondo marino frente a las costas de Oregón | Imagen: Wusel007 / Wikimedia Commons

En el fondo del océano, donde las temperaturas son muy frías, las presiones muy altas y la oscuridad prácticamente absoluta, algunos microorganismo sobreviven “comiendo” el metano encerrado en unas estructuras cristalinas de agua, formando una especie de hielo (sólido por tanto), llamadas clatratos. Ahora, un estudio encabezado por Jennifer Glass, del Instituto de Tecnología de Georgia (EE.UU.; aunque cuando realizó el estudio trabajaba en el de California becada por la NASA), pone de manifiesto que dos organismos simbióticos (una bacteria y una arquea) usan enzimas basadas en tungsteno para conseguir metabolizar el metano. Los resultados se publican en Enviromental microbiology.

En los ambientes fríos el molibdeno, un metal más común en su uso metabólico, es el elegido para formar las enzimas necesarias. Sin embargo, la arquea ANME (siglas en inglés de arquea metanotrófica anaeróbica, esto es, la arquea que come metano sin usar oxígeno) y una deltaproteobacteria que usa sulfatos, usan metales mucho menos abundantes, el tungsteno y el cobalto. Las enzimas basadas en tungsteno si se habían detectado antes en las mucho más cálidas fumarolas hidrotermales.

Por qué usan tungsteno y cobalto es una pregunta sin respuesta aún. Posiblemente porque estos metales estén en formas más accesibles en esas condiciones. Esto será algo a estudiar en el futuro.

La enzima clave del proceso se llama formilmetanofurano deshidrogenasa, y participa en el último paso para convertir el metano en dióxido de carbono, siendo clave en el proceso de oxidación del metano (recordemos que la oxidación no implica necesariamente a presencia de oxígeno; un oxidante es cualquier especie química que tome electrones, como suele hacer el oxígeno). Este proceso suministra a estos microorganismos el carbono y la energía necesarios para su metabolismo.

Imagen 1

De pocas ciencias puede afirmarse que tienen un origen anterior incluso a la propia especie humana. Y es que la fascinación que ejercen los cristales llevó a antecesores del Homo sapiens a recogerlos, conservarlos y usarlos como herramientas. Este es el caso de los cristales de cuarzo encontrados entre huesos de Homo erectus pekinensis de entre 250.000 y 700.000 años de antigüedad y herramientas de piedra excavados en la cueva de Zhoukoudian (China). Es llamativo, sin embargo, que algunos de estos cristales no muestran signos de haber sido usados y podrían haber tenido alguna otra función, posiblemente decorativa o ceremonial. Lo mismo ocurre con los seis cristales de cuarzo no utilitarios encontrados en Singi Talav (cerca de Didwana, en el desierto de Thar, Rajastán, India) encontrados en una capa arqueológica ocupada por Homo erectus hace entre 150.000 y 300.000 años.

Imagen 2

Es comprensible que la belleza de algunos especímenes minerales cristalinos atrajesen la atención de nuestros antepasados y, por esta sola razón, fuesen recogidos como objetos preciosos. De aquí a que adquieran valor más allá del utilitario había un paso; hay constancia de uso ornamental por los antiguos sumerios, egipcios, chinos y mayas. El siguiente, paso, el mágico/religioso fue casi contemporáneo y se ve reflejado incluso en los libros sagrados. Efectivamente, sólo el Antiguo Testamento, por ejemplo, recoge 23 minerales de uso ornamental/litúrgico:

En una anotación anterior presentábamos el modelo imponderable, el primer modelo estándar de la física. Hoy vamos a ver cómo evolucionó a lo largo del siglo XIX y cómo el afán por completarlo llevó a una física más allá del modelo estándar.

Charles Augustin de Coulomb
Charles Augustin de Coulomb

El modelo imponderable, que se había ganado su lugar como el estándar alrededor de 1800, tenía dos virtudes principales. Por una parte explicaba inmediatamente la existencia de los fenómenos por la mera presencia del agente correspondiente y, por otro encajaba con la moda científica de la época: la cuantificación.

En 1785, Charles Augustin Coulomb estableció, para satisfacción de los miembros de la Académie des Sciences de París, que las fuerzas entre los fluidos en la electricidad y en el magnetismo disminuían, como lo hacía la fuerza de la gravedad, con el cuadrado de la distancia entre los elementos que interactuaban.

Pierre Simon de Laplace y su escuela mantuvieron durante mucho tiempo la ambición de cuantificar las fuerzas a distancia que se suponía que actuaban entre los elementos del fluido de calor (que ellos llamaban calórico) y entre las partículas de luz y la materia. Hoy puede parecernos absurdo por irreal pero Laplace y Jean Baptiste Biot se las arreglaron para, a partir de estas premisas, y en el marco del modelo imponderable, explicar con detalle la refracción, tanto simple como doble, la polarización y otros fenómenos ópticos.