2 caras

Llegamos ahora a una de las fuentes de fricción y desencuentro más habituales entre “filósofos” y “científicos”. Para muchos de los primeros afirmar que se conoce o se pueda llegar a conocer la realidad es una afirmación que carece de sentido ontológico y para los segundos escuchar que una teoría científica es algo que depende del contexto social es la encarnación del absurdo. Veamos de dónde surge el problema.

Recordemos que en las partes anteriores de esta serie hemos visto que las hipótesis, en general, pueden preservarse en caso de que haya datos experimentales en su contra y que, también en general, será difícil, si no imposible, diseñar un experimento crucial que nos ayude a decidir entre dos hipótesis en conflicto. Añadamos a esto lo que vimos en Provisional y perfectible, a saber, que dada la naturaleza inductiva de los resultados confirmatorios, este tipo de resultados sólo pueden como mucho apoyar una teoría, pero que nunca podrán demostrar que la teoría es correcta.

Continúa leyendo en el Cuaderno de Cultura Científica

Saint Sulpice | Wikimedia Commons
Saint Sulpice | Wikimedia Commons

La estructura de los edificios dedicados al culto cristiano supuso una oportunidad para los primeros científicos modernos para realizar toda clase de experimentos astronómicos y físicos. Algunos de los cuales afianzaron ideas contrarias a las enseñanzas de los propios dueños de los edificios. Veamos algunos ejemplos, sin ánimo de ser exhaustivos.

Saint Paul | Wikimedia Commons
Saint Paul | Wikimedia Commons

El espacio que existe entre la linterna de la cúpula de una iglesia y el pavimento, protegido del viento, constituyó una de los mejores escenarios imaginables a principios de la Edad Moderna para realizar experimentos de caída libre bajo los efectos de la gravedad. Isaac Newton, por ejemplo, “confirmó” sus, por otra parte erróneas, ideas acerca de la resistencia del aire observando cómo descendían vejigas de cerdo infladas desde lo alto de la cúpula de la nueva catedral de San Pablo en Londres, en 1718.

Basilica vel Cathedralis Sancti Petri | Wikimedia Commons
Basilica vel Cathedralis Sancti Petri | Wikimedia Commons

Y, si no llega a ser porque el cardenal Ignazio Bomcompagni, que amparaba y financiaba los experimentos, murió, la rotación de la Tierra hubiese sido confirmada por Giovanni Guglielmini en la mismísima basílica de San Pedro de Roma [*], arrojando pesos desde la cúpula hasta la cripta de San Pedro (por debajo del altar donde oficia el papa) en 1790. Los experimentos se terminaron realizando en la Torre degli Asinelli de Bolonia.

Probablemente los dos trabajos científicos realizados en iglesias-catedrales más importantes tenían como objeto dos constante fundamentales de la hipótesis heliocéntrica: la excentricidad de la órbita del Sol (o la de la Tierra) y la oblicuidad de la eclíptica, la inclinación del eje de la Tierra con respecto al plano en el que ella, o el Sol, efectúa su recorrido anual.

San Petronio | Wikimedia Commons
San Petronio | Wikimedia Commons

Durante el siglo XVII, la excentricidad de la órbita jugó un papel importante a la hora de discriminar entre la teoría ptolemaica y la versión de Kepler del sistema copernicano. Para realizar las observaciones era necesario construir una gran cámara oscura, ¿y qué mejor que construirla en la basílica de San Petronio en Bolonia? Gian Domenico Cassini hizo un agujero en el tejado e incrustó una vara en el pavimento de Norte a Sur (una línea meridiana, la más larga del mundo con casi 67 metros) para capturar la imagen del Sol del mediodía. Este “heliómetro”, como lo llamó Cassini, arrojó resultados que apoyaban a Kepler de forma inequívoca. Todo esto en 1657, tan sólo 15 años después de la muerte de Galileo y en una ciudad parte de los Estados Pontificios.

Meridianas como la de Cassini se construyeron en Roma (Santa Maria degli Angeli, Barbieri, 1700), París (Saint Sulpice, Observatorio de París, década de 1740), Florencia (Santa Maria del Fiore, Ximenes, 1754). Las observaciones realizadas con estos instrumentos ayudaron a establecer que la inclinación del eje terrestre cambia con el tiempo, ciertamente muy poco, pero un dato más que favorece a Kepler/Copérnico frente a Ptolomeo.

Wikimedia Commons
Wikimedia Commons

Pero sin duda el uso más intensivo que se le ha dado a una catedral para la investigación científica fue el que le dio Leonardo Ximenes.

Mientras montaba el meridiano de Santa María del Fiore, Leonardo Ximenes es consciente de la oportunidad única que se le brinda. Ya que tiene que realizar mediciones y comprobaciones para realizar el trabajo, ¿por qué no hacer otras cosillas de paso aprovechando las características del edificio? Así, mientras determina la altura exacta a la que debe hacer un agujero, aprovecha para medir la elongación de una cadena larga provocada por su propio peso. Ya que tenía que usar un abrevadero lleno de agua para comprobar el nivel del meridiano, determinó, ya que estaba y no había injerencia del viento, la velocidad de evaporación del agua en función de la temperatura. Y cómo había que subir repetidamente a la linterna de la cúpula (90 metros), midió de paso la disminución de la presión del aire con la altura.

Durante unos meses, Ximenes convirtió la enorme catedral de Florencia, que valló para ello, en un observatorio astronómico y en un inmenso laboratorio de física experimental.

Santa Maria del Fiore (como probablemente la conocío Ximenes) | Wikimedia Commons
Santa Maria del Fiore (como probablemente la conocío Ximenes) | Wikimedia Commons

Referencias:

[General] Shank M.H. & Heilbron J.L. (2000). The Sun in the Church: Cathedrals as Solar Observatories, Renaissance Quarterly, 53 (2) 574. DOI:

[*] Bertoloni Meli, D., “St. Peter and the Rotation of the Earth: The Problem of Fall around 1800”, en P. T. Harman & Alan E. Shapiro (eds.), The Investigation of Difficult Things, Cambridge University Press, Cambridge (Inglaterra), 1992, 421-48.

ARN (una sola hebra)
ARN (una sola hebra)

La capacidad que tiene el ARN para autorreplicarse, por poder actuar también como enzima (catalizador), hace que pueda ser considerado como un posible eje alrededor del que construir una teoría plausible para el origen de la vida: es lo que se llama la hipótesis del mundo de ARN. Para que estas reacciones catalíticas tuviesen lugar cabe pensar que ocurrieron en algún tipo de estructura cerrada al entorno, posiblemente una vesícula de ácidos grasos, lo que se llama una protocélula.

Sin embargo, hay algo que no termina de cuadrar en esta hipótesis, y es que la catálisis por parte del ARN necesita la presencia de cantidades considerables de ion magnesio, y estas concentraciones de magnesio son incompatibles con la integridad de la vesícula de ácidos grasos, la rompe. Para salvar este problema podría pensarse que en el medio existiese alguna molécula que, permitiendo la acción del magnesio en la catálisis, impidiese el efecto destructivo de las membranas de la protocélula. Este tipo de moléculas se llaman agentes quelantes, y la combinación con el ion metálico (en este caso magnesio) quelatos.

Ahora Katarzyna Adamala y Jack Szostak, trabajando en el Massachusetts General Hospital / Universidad de Harvard, publican en Science que han probado distintos quelatos de magnesio (citrato, isocitrato y oxalato) que han sido capaces de mantener la integridad de las vesículas de ácidos grasos en presencia de altas concentraciones de magnesio. Además, el quelato de citrato permitió que el magnesio efectuase su función en la síntesis de ARN dentro de las protocélulas, con el añadido de proteger al ARN de la degradación catalítica que puede provocar el magnesio. Estamos pues ante la primera replicación (contemporánea) de ARN no enzimática dentro de una vesícula de ácidos grasos. Un paso más para comprender el origen de la vida…y de la vida sintética.

Citrato
Citrato

Jack Szostak y su equipo son viejos conocidos de Experientia docet, aparte de por haber ganado el Nobel en 2009 (véase, por ejemplo, 2008 y 2010). Trabajan desde hace más de una década en comprender cómo las primeras células se desarrollaron a partir de la “sopa primordial” para llegar a ser organismos vivos capaces de copiar su código genético y reproducirse. La aproximación al problema de Szostak y colaboradores ha sido desarrollar una protocélula modelo (de ahí el título del artículo técnico) a partir de los componentes que estuvieron presentes probablemente en el ambiente de la Tierra primitiva.

Su trabajo en esta línea de trabajo saltó a los medios cuando consiguieron desarrollar protomembranas compuestas del tipo de ácidos grasos que podrían haber sido abundantes en la Tierra primitiva, que forman vesículas cuando están en cantidad suficiente en un entorno acuoso. Pero, decían los críticos, de qué me sirve la carrocería del coche si no tengo motor, esto es, de qué me sirve una vesícula si no existe una molécula, ARN ó ADN, capaz de autorreplicación.

Como en el ambiente primitivo en el que se habrían desarrollado esas protocélulas no habría habido las enzimas que usan las células hoy día para catalizar la replicación de los ácidos nucleicos, el equipo de Szostak comenzó a estudiar posibles procesos químicos simples que podrían llevar a la replicación no enzimática el ARN. El estudio del que nos ocupamos hoy es un hito significativo en esta búsqueda.

El ensayo para comprobar la acción de los agentes quelantes consistió, de forma muy simplificada, en colocar hebras simples de ARN ancladas a moléculas de ARN “completas” (doble hebra) más largas dentro de vesículas de ácidos grasos. La parte de ARN de una sola hebra consistía en una secuencia de nucleótidos de citosina. En presencia del ion magnesio y cada uno de los agentes quelantes probados se añadía guanina activada, el nucleótido que se empareja con la citosina para formar la doble hebra de los ácidos nucleicos.

La reacción deseada, la difusión de los nucleótidos de guanina a través de la membrana de la vesícula para formar un ARN de doble hebra uniéndose a la hebra de citosina, tuvo lugar más rápido en presencia del citrato. Los otros agentes quelantes impidieron la formación de la doble hebra.

Todo lo anterior es espectacular (más, si acaso, si recordamos que el equipo de Craig Venter ya probó que pueden sintetizar ácidos nucleicos a partir de productos químicos muy básicos) pero, ¿había citrato en la Tierra primitiva? Lo más seguro es que no, o no en cantidades suficientes. Por tanto, hay que buscar moléculas que pudiesen actuar como agentes quelantes con la misma eficacia que el citrato en la Tierra primitiva. Los autores aventuran que algunos péptidos sencillos podrían haber realizado esa función. Seguiremos pendientes.

Referencia:

Adamala K. & Szostak J.W. (2013). Nonenzymatic Template-Directed RNA Synthesis Inside Model Protocells, Science, 342 (6162) 1098-1100. DOI:

Esta entrada es una participación de Experientia docet en la XXIX Edición del Carnaval de Química que acoge Más ciencia, por favor.

581px-Romé_de_l'Isle_crystal_model_of_unglazed_porcelain,_collection_Teylers_Museum,_Haarlem_(the_Netherlands)

Alrededor de 1780, Arnould Carangeot, recibió un encargo de su jefe, Jean Baptiste Romé de l’Isle: tenía que hacer copias en arcilla de su colección de cristales. La tarea no era fácil en absoluto y más teniendo en cuenta lo puntilloso que podía llegar a ser de l’Isle. Pero eso no era problema para el metódico y meticuloso Carangeot. Éste se dio cuenta de que si quería reproducir fielmente los cristales era crítico que respetase los ángulos entre sus caras y que, para ello necesitaba medirlos con precisión suficiente. El compás resultaba útil para los cristales más grandes, no así para los más pequeños. Ni corto ni perezoso, Carangeot diseñó un aparato que le permitiese medir los ángulos: había nacido el goniómetro de contacto.

Goniómetro de contacto

Fue usando este goniómetro que de l’Isle reunió datos suficientes para poder afirmar en 1783 que la primera ley de la cristalografía de Steensen era válida para todos los cristales, no sólo los de cuarzo y hematita.

Habida cuenta de la íntima relación entre estructura cristalina y composición química, no es de extrañar que el uso del goniómetro llevase poco tiempo después de su construcción a descubrimientos químicos.

Barita

Cuando René Just Haüy decidió realizar una serie de mediciones en un conjunto de cristales etiquetados como “sulfato de barita”, le sorprendió el hecho de que las muestras provenientes de Sicilia tuviesen diferentes ángulos interfaciales que las que venían de Derbyshire en Inglaterra. La diferencia era sólo de un par de grados, pero era lo suficiente como para convencer a Haüy de que debían tener una composición distinta. El encargado de comprobar esta conjetura fue Jean Baptiste Vauquelin que demostró que las muestras sicilianas eran en realidad sulfato de estroncio.

640px-Béryl_var._émeraude_sur_gangue_(Muzo_Mine_Boyaca_-_Colombie)_15

Haüy también se dio cuenta de que los ángulos del berilo y la esmeralda eran idénticos y aventuró que la esmeralda debía ser una versión verde del berilo. De nuevo pidió a Vauquelin que realizara los análisis pertinentes, que tuvieron como resultado, aplicando la misma tecnología electroquímica de contacto que había usado Hooke con los cristales de la urea (la lengua), una sustancia igualmente dulce en ambos casos. A esta sustancia es a la que terminó llamando “berilia” (el primer nombre fue “glucinia”, por su dulzor) y demostró en 1798 que se trataba del óxido de un nuevo elemento. Finalmente el berilio elemental fue obtenido a partir del cloruro por Friedrich Wöhler e independientemente por Antoine Bussy, ambos en 1828.

Wollaston

El goniómetro de contacto se convirtió así en una herramienta habitual para los cristalógrafos, y eso a pesar de ser, no obstante su utilidad, una artilugio bastante grosero, válido sólo para mediciones con una precisión no mayor de 15′ de cristales, en general, grandes. Por eso no es de extrañar que se inventase un dispositivo más preciso poco después. Así, en 1809 William Hyde Wollaston describió el goniómetro de reflexión, u óptico, que mide los ángulos entre las normales a los planos de las caras de los cristales. Este goniómetro permitía medir ángulos con gran precisión en cristales mucho más pequeños, incluidos aquellos que, preparados en el laboratorio, no excedían de un par de milimetros.

Foshag 2 c g

Durante la primera mitad el siglo XIX el goniómetro óptico fue refinándose cada vez más: se le añadió un anteojo para centrar el cristal, y posteriormente otro para observar las reflexiones, lo que facilitó mucho las mediciones, un colimador para conseguir un haz de luz paralelo y, finalmente, una fuente de luz artificial. Se construyeron goniómetros de diseños y geometrías muy diferentes, como el de Eilhard Mitscherlich o el de Jacques Babinet, que llegaron a aumentar la precisión a 30”.

En 1874 William Hallowes Miller dio un primer paso hacia el goniómetro de dos circulos montando un goniómetro Wollaston sobre otro. Pero no sería hasta 1890 que Evgraf Stepánovich Fiodorov desarrollase el goniómetro óptico de dos círculos, que facilitaría mucho tanto la precisión como la realización de la medida.

skalwold_goniometer

El goniómetro de dos círculos se mantuvo como un instrumento cristalográfico estándar, con mejoras menores, durante el siglo posterior. Sólo comenzó a ser reemplazado por la aparición de difractómetros automatizados controlados por ordenador en los años 70 del siglo XX.

Este texto es la tercera parte de la serie Notas para una breve historia de la cristalografía.

Referencias generales de la serie:

[1] Wikipedia (enlazada en el texto)

[2] Cristalografía – CSIC

[3] Molčanov K. & Stilinović V. (2013). Chemical Crystallography before X-ray Diffraction., Angewandte Chemie (International ed. in English), PMID:

[4] Lalena J.N. (2006). From quartz to quasicrystals: probing nature’s geometric patterns in crystalline substances, Crystallography Reviews, 12 (2) 125-180. DOI:

[5] Kubbinga H. (2012). Crystallography from Haüy to Laue: controversies on the molecular and atomistic nature of solids, Zeitschrift für Kristallographie, 227 (1) 1-26. DOI:

[6] Schwarzenbach D. (2012). The success story of crystallography, Zeitschrift für Kristallographie, 227 (1) 52-62. DOI:

Esta entrada es una participación de Experientia docet en la Edición Inaugural del Festival de la Cristalografía que organiza Educación química y en la XXIX Edición del Carnaval de Química que acoge Más ciencia, por favor.

Apoe-4

En las noticias aparece reiteradamente que la enfermedad de Alzheimer está asociada a las placas de beta-amiloide. Muchos fármacos se han centrando, y se centran, en eliminarlas como si acabando con el perro acabásemos con la rabia. Y no. Cada vez es más evidente que las placas de beta amiloide, siendo causantes, pero no los únicas, de parte de los problemas cognitivos, son una consecuencia del alzhéimer.

Efectivamente, la etapa preclínica del alzhéimer, es decir, antes de que existan síntomas, incluye incrementos en la proteína tau, cambios en la actividad metabólica, cambios en las conexiones sinápticas e incluso cambios en la densidad de receptores serotonínicos en distintas regiones encefálicas.

Y entonces surge la gran pregunta: ¿cuándo comienza el alzhéimer? La respuesta es que no lo sabemos y que esto es crítico para poder afrontar la enfermedad en su conjunto con un mínimo de garantías de éxito (véase al respecto nuestro La verdad sobre la enfermedad de alzhéimer sigue siendo incómoda). Una posible respuesta es que comenzase desde que somos concebidos, por genética, sin que existiesen factores desencadenantes ambientales. Suena terrorífico, fatalista, pero pensemos que no todos los casos de alzhéimer están asociados a una causa genética (que sepamos) y que incluso podrían existir varias clases de alzhéimer.

Y en esta línea parece apuntar un estudio publicado en JAMA Neurology [PDF] por un equipo de investigadores encabezado por Douglas Dean, de la Universidad Brown (EE.UU.): los niños que tienen el alelo asociado (APOE ε4) con un mayor riesgo de alzhéimer tienden a presentar diferencias en el desarrollo encefálico con respecto a niños que no portan ese alelo del gen. De confirmarse este resultado podría ser muy útil para averiguar los mecanismos por el que este gen confiere un incremento en el riesgo de desarrollar alzhéimer.

Los investigadores emplearon una máquina de resonancia magnética funcional (fMRI) modificada de tal manera que el ruido se reducía a un mínimo, permitiendo explorar el encéfalo de los niños mientras éstos dormían, sin necesidad de fármacos. De esta forma se analizaron los encéfalos de 162 bebés sanos de entre 2 y 25 meses. A todos los sujetos se les realizaron pruebas de ADN para comprobar qué variante del gen de la alipoproteína E (APOE) poseían. 60 de ellos tenían la variante ε4 (hay que decir que este porcentaje del 37% es superior al que se estima que existe en la población general que está entre el 14 y el 23%), asociada al aumento del riesgo de alzhéimer.

Los resultados indican que los bebés portadores de APOE ε4 tendían a tener un mayor crecimiento encefálico en áreas del lóbulo frontal y menor crecimiento en varias áreas del encéfalo medio y posterior (el lector interesado puede ver el detalle en el estudio). La áreas de bajo crecimiento corresponden a áreas que se ven afectadas en los pacientes mayores con la enfermedad de alzhéimer diagnosticada.

Estos hallazgos no significan ni que los niños del estudio estén condenados a desarrollar alzhéimer ni que los cambios encefálicos detectados sean los primeros signos de la enfermedad de alzhéimer. Quizás convenga recordar ahora los mantras habituales: correlación no implica causalidad y esto es sólo un primer estudio que deberá ser reproducido en primera instancia y seguido longitudinalmente, después (lo que llevará décadas). Esto es sólo un estudio, no tiene valor diagnóstico ni predictivo.

De lo que este estudio sí es indicio es que los encéfalos de los bebés que portan APOE ε4 tienden a desarrollarse de forma diferente a los de los que no lo portan, y que estas diferencias en el desarrollo comienzan a edad muy temprana. Y que podemos especular con la posibilidad de que estas diferencias sean una cabeza de puente para patologías posteriores que después lleven al desarrollo del alzhéimer.

Referencia:

Dean D.C., Jerskey B.A., Chen K., Protas H., Thiyyagura P., Roontiva A., O’Muircheartaigh J., Dirks H., Waskiewicz N. & Lehman K. & Brain Differences in Infants at Differential Genetic Risk for Late-Onset Alzheimer Disease, JAMA Neurology, DOI:

Los alrededores de la escena del crimen. Plaza del Mercado de Giessen (1840) | Imagen: Wikimedia Commons
Los alrededores de la escena del crimen. Plaza del Mercado de Giessen (1840) | Imagen: Wikimedia Commons

En 1847 el Stadtarzt (médico municipal) de la ciudad de Giessen (Alemania) acudió a examinar los espeluznantes restos de la Condesa von Görlitz. La condesa aparecía consumida totalmente, excepto una o dos vértebras, por el fuego en su apartamento privado. Las ventanas estaban cerradas y aseguradas por dentro y el mobiliario intacto. El Stadtartz dictaminó que la condesa había muerto de combustión espontánea [humana] (CEH).

Cuando su mayordomo apareció después en Francia con sus joyas, pareció que otra explicación diferente a la CEH podría ser más probable. Un tribunal alemán le encontró culpable de asesinato e incendio provocado. Pero el procesamiento tuvo el efecto secundario de poner la presunta causa de la muerte, la CEH, a juicio.

Si bien pocos médicos podían afirmar haber asistido a los últimos momento de una CEH, ello no era óbice, obstáculo, cortapisa ni valladar para que existiese numerosa documentación clínica suficiente como para que la medicina forense estableciese que la CEH era la culminación de una enfermedad que afectaba a las mujeres corpulentas y alcohólicas. Una vez encendidas, ardían como velas. El caso era que la condesa von Görlitz no era ni corpulenta ni precisamente alcohólica (era prácticamente abstemia para los estándares de la época: no llegaba a la botella de vino al día), por lo que se empezó a sospechar que el Stadtartz había hecho un mal diagnóstico.

Como expertos el tribunal citó a dos profesores de la Universidad de Giessen, un tal Justus Liebig, químico, y a Theodor von Bischof, fisiólogo. Ambos testificaron que el cuerpo humano contiene demasiada agua para mantener una llama, no digamos ya como para autoinflamarse espontáneamente. Pero estos profesores no se quedaron ahí. Emulando lo que hoy día conocemos como técnicas criminalísticas (populares gracias a series como CSI) realizaron varios experimentos con cadáveres que demostraron que el mayordomo podía haber creado las condiciones encontradas en el escenario del crimen, esto es, el apartamento privado de la condesa von Görlitz.

Posiblemente este sea el primer caso en la historia en el que un tribunal se inclina a creer a científicos experimentales en una cuestión médica en vez de a la “experiencia” acumulada de los médicos.

Sin embargo, esta sentencia, si bien influyó en que la CEH terminase desapareciendo de los catálogos forenses, no pudo evitar que siguiese medrando en el imaginario colectivo. En la novela por entregas de Charles DickensCasa desolada” (1852-1853) uno de los villanos muere de CEH, resucitando la controversia sobre la existencia de este fenómeno. Los que discutían eran el propio Dickens, magnífico escritor y filántropo que creía en los médicos (del XIX), y George Lewes, filósofo promotor del darwinismo, el positivismo y las ciencias experimentales, especialmente de la química y la biología. El resultado es que la CEH se hizo popular, aunque no demasiado entre la profesión médica

Hoy día todavía hay quien afirma que la CEH es posible. Hay hasta quien ha llegado a postular la existencia de una partícula elemental que la justificaría, el pirotón. Algo que debería llevar siglo y medio muerto y enterrado sigue coleando. En fin.

P.S. Francis Villatoro (@emulenews) analiza en este artículo con más detalle el estado de la cuestión en la actualidad.

Referencia:

Heilbron, J.L. (1994) “The Affair of the Countess Görlitz” Proceedings of the American Philosophical Society, 138 – 2, 284-316

Esta entrada es una participación de Experientia docet en la XXIX Edición del Carnaval de Química que acoge Más ciencia, por favor

image001

Otro aspecto de la tesis de Duhem-Quine, íntimamente relacionado con lo que veíamos en El tribunal de la experiencia, afecta a lo que se llama habitualmente experimento crucial o experimentus crucis.

La idea de la existencia de experimentos cruciales, esto es, de que dadas dos hipótesis propuestas es posible diseñar un experimento para el que cada hipótesis arroje un valor claramente diferente, con lo que la realización del experimento permite decidir cual de las dos hipótesis es correcta, tiene su origen último en Francis Bacon. Bacon planteaba en Novum Organum (1620) la existencia de situaciones en las que una hipótesis sería correcta pero no las hipótesis alternativas, a las que llamó instantia crucis. Para los casos en que la situación era provocada, es decir, se diseñaba un experimento, Robert Hooke creó el término experimentus crucis, que después Isaac Newton usaría1 haciéndolo famoso (si bien Hooke diría que el experimento de Newton no era crucial, en absoluto).

Pero, ¿es posible que exista un experimento crucial? Recordemos, citando una vez más nuestra anotación Provisional y perfectible, que las pruebas confirmatorias pueden como mucho apoyar una hipótesis, pero nunca demostrar que es definitivamente correcta. Siendo estrictos, por tanto, un experimento (crucial o no) nunca puede decir que una hipótesis sea correcta, si acaso cuál no lo es. Es decir, que un experimento crucial, a lo sumo, permite descartar hipótesis (y tampoco, por las salvedades que veremos en la parte IV de esta serie).

Continúa leyendo en el Cuaderno de Cultura Científica

Gran Cañón del río Colorado (Tierra) | Imagen: chensiyuan / Wikimedia Commons
Gran Cañón del río Colorado (Tierra) | Imagen: chensiyuan / Wikimedia Commons

Hoy el Sol emite más energía que cuando se formó Marte hace 4500 millones de años (en aquella época alrededor de un 30% menos de luminosidad). Por lo tanto el planeta recibía menos energía y su temperatura debería haber sido menor. Pero, la geología nos dice que en aquella época el agua líquida corría por la superficie, como lo atestiguan los cañones como Nanedi Vallis, similares al Gran cañón del río Colorado. Hoy la atmósfera marciana es casi toda ella (más del 95%) dióxido de carbono, con lo que el efecto invernadero está garantizado. ¿Cómo es posible entonces que hubiese agua líquida cuando manifiestamente el planeta tenía que haber sido más frío? La respuesta evidente es que no podía ser más frío, pero ¿cómo?

Nanedi Vallis (Marte) | Imagen: NASA/Malin Space Science Systems
Nanedi Vallis (Marte) | Imagen: NASA/Malin Space Science Systems

Un equipo de investigadores encabezado por Ramsés Ramírez, de la Universidad Estatal de Pensilvania (EE.UU.), ha llegado a la conclusión de que la presencia de hidrógeno molecular en la atmósfera, hidrógeno que se habría ido perdiendo paulatinamente por la escasa gravedad de Marte, podría ser el responsable de un efecto invernadero mucho mayor que el actual hace 3.800 millones de años, justificando unas temperaturas suficientes para el agua corriente. Los resultados se publican en Nature Geoscience.

El resultado de Ramírez et al. no deja de ser una hipótesis. También es cierto que no hay demasiadas alternativas consistentes. Así, por ejemplo, hay una que dice que los cañones marcianos se formaron tras un bombardeo intenso de meteoritos que generaron el calor y aportaron el agua necesarios para hacer que lloviese. El problema es que esta hipótesis no da tiempo para que se formen los cañones por erosión.

El modelo creado por los investigadores demuestra que la posibilidad de que los niveles de gases proveniente de la actividad volcánica (dióxido de carbono e hidrógeno molecular) podrían haber sido suficientes para permitir el agua líquida.

El estudio de meteoritos marcianos y los datos recogidos por distintas sondas hacen sospechar que el manto del planeta es (proporcionalmente) más pequeño que el terráqueo. Un manto menor permitiría la emisión de una mayor proporción hidrógeno/agua, lo que justificaría el modelo.

El hidrógeno tiene un índice GWP de 5,8, mientras que el dióxido de carbono tiene 1, es decir que el hidrógeno atrapa 5,8 más energía que una cantidad equivalente de dióxido de carbono. Esto, unido a que la interacción con el propio dióxido de carbono perturba a las moléculas de hidrógeno lo suficiente como para que absorban en longitudes de onda donde el dióxido de carbono y el agua son casi transparentes, justifica los resultados del modelo.

Referencia:

Ramírez, R. et al. (2013) Warming early Mars with CO2 and H2 Nature Geoscience DOI: 10.1038/ngeo2000

schrodingers_cat

Desde que escribimos la serie Incompletitud y medida en física cuántica, una introducción sencillita a los problemas interpretativos de la mecánica cuántica, sin fórmulas, para el Cuaderno de Cultura Científica, han sido varias las personas que nos habían solicitado que editasemos el texto para su lectura en libro electrónico. Gracias a la enorme gentileza de Pedro J. Hernández ahora es posible. Aquí teneis la serie completa en formatos

MOBI

EPUB

Estarán disponibles en estos enlaces durante un tiempo limitado. Si intentas acceder y no los encuentras, escríbenos un correo y te lo enviamos.

Wurmloch
La luz viajando por el espaciotiempo según la línea roja tardaría más en llegar de A a B que si algo como una nave espacial usase un agujero de gusano usando la línea amarilla, por lo que “viajaría más rápido que la luz”. Algo que sólo ocurre en la ciencia ficción.

Seguro que has oído hablar alguna vez de el entrelazamiento cuántico. Fue descubierto por casualidad, como aquel que dice, cuando Einstein, Podolsky y Rosen (EPR) se dispusieron a demostrar lo absurda que podía llegar a ser la mecánica cuántica tal y como la planteaban Bohr, Heisenberg y demás amigos de la mansión Carlsberg. Y, sin embargo, es la característica más sobresaliente de la mecánica cuántica, la que la separa de verdad de la física clásica.

Y también habrás oído hablar de los agujeros de gusano, una especie de atajo en el espaciotiempo (no puedes visualizarlo porque necesitas más de cuatro dimensiones para hacerlo; la imagen que abre esta anotación supone que el espaciotiempo tiene dos dimensiones), y que son lo que permite los viajes intergalácticos en las películas de ciencia ficción en unos tiempos aceptables para la trama. Curiosamente su existencia (teórica) también fue descubierta por Einstein y Rosen y publicada en el mismo año que el artículo EPR, 1935; por ello a los agujeros de gusano se les conoce también como puentes de Einstein-Rosen (ER).

Una de las cosas que tienen en común el entrelazamiento y los agujeros de gusano es que paracen implicar la existencia del viaje más rápido que la luz. Como es sabido, dos partículas entrelazadas separadas por una distancia arbitrariamente grande, es lo que se llama un par EPR, tienen la particularidad de que si se mide una propiedad de una de ellas esto tiene un efecto inmediato en la otra, no importa lo lejos que esté: parece que la información viaja más rápido que la luz, instantáneamente. De forma parecida en un agujero de gusano (un puente ER) que ya hemos mencionado que es un atajo que conecta dos puntos separados del espaciotiempo. En ambos casos la información parece viajar más rápido que la luz, pero no lo hace.

Trabajos recientes (véase este artículo de Mario Herrero para un resumen del estado de la cuestión) han demostrado que la geometría del espaciotiempo de un agujero de gusano es equivalente a lo que obtendrías si entrelazaras dos agujeros negros y los separases. Por expresarlo brevemente ER = EPR.

Este tema está tomando fuerza y los artículos técnicos se suceden rápidamente. Un desarrollo interesante es que se está yendo más alla de los agujeros negros y se ha extendido ¡a los quarks!

Estudios anteriores han demostrado que dos quarks entrelazados pueden ser representados por los extremos de una cuerda en un espacio hiperdimensional y que con esto algunos cálculos terminan resultando más fáciles. Pues bien, Kristan Jensen (Universidad de Victoria, Canadá) y Andreas Karch (Universidad de Washington en Seattle, EE.UU.) afirman [1] que si dos quarks entrelazados se separan lo suficiente como para que no haya interacción causal entre ellos, la cuerda que los une se convierte matemáticamente en ¡un agujero de gusano!

Julian Sonner [2] (al que cita Herrero al final de su artículo), del Instituto de Tecnología de Massachusetts (EE.UU.) ha llegado a la misma conclusión usando una aproximación diferente: Sonner ha supuesto la creación de un par quark/antiquar en un potente campo eléctrico, un caso del efecto Schwinger.

Aún no sabemos a dónde nos llevará esta línea de investigación. Puede que a conocer mejor en qué consiste el entrelazamiento. De momento algunos cálculos dicen que la entropía de un agujero de gusano es la misma que la de los quarks. Veremos.

Referencias:

[1] Kristan Jensen & Andreas Karch (2013). The holographic dual of an EPR pair has a wormhole, arXiv:

[2] Sonner J. (2013). Holographic Schwinger Effect and the Geometry of Entanglement, Physical Review Letters, 111 (21) DOI: