miércoles, 12 de julio de 2017

El acoplamiento de la electricidad y el magnetismo en materiales funcionales: ¿una vieja o joven pareja?


Los fenómenos en los que interviene la interacción electromagnética han despertado la curiosidad humana desde los comienzos de la ciencia.  Ya en el S. VI a.c. los griegos observaron que tras friccionar una resina como el ámbar esta atraía a algunos materiales livianos, y también cómo materiales como el hierro eran atraídos por otros, como es el caso de la magnetita, el imán natural más antiguamente conocido.  Exceptuando el descubrimiento de la brújula, pocos progresos significativos tuvieron lugar hasta comienzos del S. XIX, cuando Christian Oersted advirtió la desviación de una aguja imantada al ser colocada en dirección perpendicular a un conductor eléctrico. Trabajos posteriores de los científicos Ampère y Faraday dieron lugar al desarrollo de una sola teoría para describir los fenómenos eléctricos y magnéticos, mejorada y unificada por Maxwell en 1862 dando lugar a sus famosas ecuaciones.

En medios materiales aparecen fenómenos conocidos como la ferroelectridad y el ferromagnetismo.  Existe un claro paralelismo en el tratamiento formal de ambos, sin embargo, su origen microscópico es muy diferente (¡y además el Fe no tiene por qué estar involucrado en ellos!).  Los materiales en los que ambos fenómenos tienen lugar y se dan la mano son conocidos como materiales multiferroicos.  Por un lado, un material ferroeléctrico es aquel que posee una polarización eléctrica espontánea P, debido al desplazamiento colectivo de cationes y aniones que crean dipolos eléctricos (dos cargas de signo contrario separadas por una cierta distancia). Los dipolos eléctricos del material pueden alinearse y ser controlados por un campo eléctrico externo. La mayoría de ellos son óxidos de metales de transición aislantes, que presentan capas electrónicas d vacías en el metal de transición (región verde figura 1).  Por el contrario, un material magnético requiere de capas electrónicas semi-llenas (región morada figura 1) que dotan al material de una imanación neta M.  El alineamiento de los momentos magnéticos de espín puede redirigirse mediante campos magnéticos.

A pesar de que a priori ambos fenómenos aparenten ser excluyentes, hay casos en los que los grados de libertad eléctricos y magnéticos están acoplados. En tales materiales es posible controlar su respuesta eléctrica (P) y magnética (M) mediante campos magnéticos y eléctricos respectivamente y se dice que presentan acoplamiento magnetoeléctrico lineal (región azul en la figura 1).   El físico Pierre Curie fue el primero en predecir teóricamente el efecto magnetoeléctrico en medios materiales en 1894, pero no fue hasta 1960 cuando su conjetura fue demostrada experimentalmente por Astrov, que detectó por primera vez el efecto magnetoeléctrico en el óxido de Cromo, Cr2O3.  Con el objetivo de explotar las llamativas propiedades de estos materiales, a partir de la década de los 60 se han intentado buscar compuestos donde no sólo haya acoplamiento entre sus respuestas a campos externos, sino que además los ordenamientos ferroeléctrico y ferromagnético tengan lugar de manera espontánea.



Fig. 1. La unión de los ferroeléctricos (FE)  y los materiales magnéticamente ordenados son los multiferroicos (MF). Aquellos que además presentan acoplamiento magnetoeléctrico (ME) son multiferroicos magnetoeléctricos.



La simetría juega un papel fundamental en la aparición de un estado multiferroico. En un principio, se podría pensar que los multiferroicos son aquellos materiales cuyas propiedades físicas, estructurales y electrónicas, sean la suma de las de un material ferroeléctrico y un material magnético. Atendiendo a su simetría, encontramos 31 grupos magnéticos o de Shubnikov que permiten la polarización espontánea y otros 31 en los que es posible tener magnetización espontánea. De la intersección de ambos se obtienen 13 grupos. Sin embargo, dentro de estas 13 simetrías, se encuentran materiales que no son multiferroicos magnetoeléctricos.  En definitiva, el multiferroismo entraña varios factores competitivos bastante sutiles y entre otras muchas causas, las cuestiones clave que se plantean para entender la aparición del multiferroísmo es cómo es posible que el ordenamiento magnético provoque la ferroelectricidad y cuál es el papel de la frustración magnética en todo ello.

Desde las últimas dos décadas, el estudio y la búsqueda de materiales multiferroicos está siendo una de las cuestiones más atrayentes y desafiantes en física de la materia condensada [2].  El resurgimiento del estudio de estos materiales se explica por varios motivos: estos materiales son muy interesantes desde el punto de vista de la investigación fundamental, dado que los mecanismos por los que surge la multiferroicidad no se han esclarecido de una forma sistemática hasta el momento; por otro lado, abren un nuevo abanico de aplicaciones en espintrónica y almacenamiento magnetoeléctrico de la información. En particular, además de aunar las aplicaciones que tienen los materiales ferromagnéticos (como el almacenamiento de información en regiones de polarización magnética opuesta) y ferroeléctricos (como sensores, memorias RAM), los multiferroicos magnetoeléctricos ofrecen la posibilidad de diseñar memorias magnetoeléctricas. Este es el caso del BiFeO3, que es multiferroico a temperatura ambiente y permite la manipulación de su imanación mediante campos eléctricos, lo cual representa un paso fundamental en el control magnetoeléctrico de dispositivos en espintrónica [3]. Otras vías de investigación promueven la creación de dispositivos con cuatro estados lógicos (dos magnéticos y dos eléctricos), como es el caso de las uniones túnel en películas delgadas de La0.1Bi0.9MnO3 [4].

A pesar de que pueda parecer relativamente sencillo encontrar materiales con propiedades magnetoeléctricas acopladas, estamos aún lejos de dar con el multiferroico perfecto. La explicación podemos encontrarla en los dos multiferroicos más estudiados hasta el momento, que son el BiFeO3 y el TbMnO3 [5].  El punto a favor del primero es que presenta acoplamiento magnetoeléctrico a temperatura ambiente y el valor de polarización eléctrica es comparable al de un ferroeléctrico estándar.  Sin embargo, su imanación es muy débil, así que el punto flaco se encuentra en sus propiedades magnéticas.  El TbMnO3 al contrario presenta una buena respuesta magnética, pero a muy bajas temperaturas, y su polarización eléctrica es muy débil.  Es por ello que las últimas investigaciones apuntan hacia la aplicación de estímulos externos para tratar de mejorar las propiedades eléctricas y magnéticas y trasladarlas a temperatura ambiente.  Y todo ello se consigue gracias al constante avance en el control de parámetros como la presión o la tensión epitaxial en el caso de la fabricación de películas delgadas.  Por ejemplo, trabajos muy recientes en el TbMnO3 muestran una notable mejoría en sus propiedades eléctricas, bien al aplicar presión por encima de 4 GPa [6], o bien al ajustar la tensión epitaxial en la fabricación de películas delgadas [7].

La obtención de materiales multiferroicos en condiciones ambiente resulta muy interesante para aplicaciones tecnológicas. Por un lado, los materiales ferromagnéticos son el ingrediente básico en tecnología de sensores o en dispositivos de almacenamiento de información, como los discos duros que hay en nuestros ordenadores.  Por otra parte, los materiales ferroeléctricos suelen usarse en sistemas que puedan generar o detectar pequeñas deformaciones mecánicas, como los altavoces y los sensores de presión.  La utilidad más clara del acoplamiento de ambos fenómenos se manifiesta en el campo de la espintrónica, concretamente en la utilización de elementos de memoria multiferroicos, donde puede utilizarse un pulso de voltaje para controlar su estado ferroeléctrico (polarización eléctrica) y al mismo tiempo, a través un acoplamiento interno magnetoeléctrico, activar un estado de memoria ferromagnético que representa un bit de memoria.  La ventaja reside en utilizar pulsos de voltaje en lugar de corrientes eléctricas para controlar el estado de la memoria, ya que estos pulsos se transmiten más rápidamente y consumen menos potencia, lo cual evita tanto problemas de recalentamiento como de limitaciones en el tiempo de procesamiento de la información.

La investigación en el campo de los materiales magnetoeléctricos es y seguirá siendo en los próximos años un gran reto para la comunidad científica.  Gracias al mayor control en la fabricación de materiales y en la aplicación de estímulos externos como los campos magnéticos o la presión, esperamos que llegue el día en el que podamos dominar de manera precisa al viejo, ¡pero todavía fresco!, tándem magnetoeléctrico.

Texto de Vera Cuartero, investigadora en el European Synchrotron Radiation Facility de Grenoble. 



[1] D. N. Astrov, Sov. Phy. JETP 10, 708 (1960)
[2] N. A. Spaldin and M. Fiebig, Science 309, 391 (2005). N. A. Spaldin, S. W. Cheong and R. Ramesh, Phys. Today 63, 38 (2010).
[3] M. Bibes and A. Barthélémy, Nature Mat. 7, 425 (2008)
[4] M. Gajek, M. Bibes, S. Fusil, K. Bouzehouane, J. Fontcuberta, A. Barthélémy and A. Fert, Nature Mat. 6, 296 (2007).
[5] T. Kimura, T. Goto, H. Shintani, K. Ishizka, T. Arima and Y. Tokura. Nature (London) 426,  55 (2003).
[6] T. Aoyama et al., “Giant spin-driven ferroelectric polarization in TbMnO3 under high pressure” Nature Comm. 5, 4927 (2014).
[7] K. Shimamoto et al., “Tuning the multiferroic mechanisms of TbMnO3 by epitaxial strain” Scientific Reports 7, 44753 (2017).

jueves, 18 de mayo de 2017

Entrevista a Iván Agulló


Ocurrió una vez hace algunos años, en 2011, que un joven investigador español recién doctorado conseguía colocar su nombre donde ningún español lo había hecho antes: el número 1 de los premios que la Gravity Research Foundation otorga cada año desde 1949. Este premio lo habían obtenido antes científicos tan conocidos como Stephen W. Hawking o Roger Penrose, y más recientemente otros como Gerard ’t Hooft, Frank Wilczek y George Smoot, ganadores del premio Nobel en Física en 1999, 2004 y 2006, respectivamente. Este fue el primer gran premio de Iván Agulló Rodenas. Pero pronto vendrían otros más.

Hoy lo ha vuelto a hacer. Iván ha vuelto a ganar el número 1 de la Gravity Research Foundation en la edición de 2017. En esta ocasión, el trabajo premiado ha sido una colaboración en la que participan también el profesor José Navarro Salas (Pepe), de la Universidad de Valencia, y Adrián del Río Vega, quien está desarrollando su tesis bajo la dirección de Pepe. Iván, por cierto, también se doctoró en Valencia con Pepe como director.



Cuando éxitos de este calibre suceden (¡y más de una vez!), es momento de pensar en cómo ha podido llegar a ocurrir, en qué hay que potenciar para dar lugar a circunstancias propicias para que las ideas innovadoras surjan y el conocimiento avance: para que, en resumen, la ciencia de excelencia sea posible. Y sea posible aquí, que la puedas hacer tú, tu vecin@ o tus hij@s.

No profundizaré más en estas cuestiones, que deberían tratarse en detalle en otro lugar, pero os voy a dejar una entrevista que le hice a Iván el pasado mes de Abril cuando estuvo en Valencia participando en el Congreso Ibérico de Cosmología (IberiCOS) que, junto con el resto de miembros del grupo de Pepe y Adrián, tuve el placer de organizar con el apoyo del Departamento de Física Teórica de la Universidad de Valencia y el Instituto de Física Corpuscular (IFIC) del CSIC. 

Iván Agulló (izquierda) y Gonzalo Olmo (derecha)

La entrevista tiene algunas de las claves que permiten entender cómo un joven de familia sin tradición académica puede llegar a convertirse en un referente mundial y ejemplo a alcanzar para todos los que nos dedicamos a la ciencia en este país … y fuera de él.   


  • G: Cuéntanos, ¿dónde estás trabajando ahora mismo (lugar y puesto)?
  • I: Estoy en Louisiana State University (LSU), EEUU, y soy Assistant Professor.
  • G: El equivalente aquí sería profesor interino, ¿no?
  • Allí las plazas de profesor titular empiezan con un periodo inicial de 5 años, llamado tenure-track. Al finalizar, se revisan los méritos acumulados durante ese tiempo y, si son suficientes para los criterios de la universidad, se te promueve a permanente. Ahora estoy en mi cuarto año y mi idea es, si todo va bien, que la promoción llegue pronto.
  • G: ¿LSU es una universidad competente, internacionalmente reconocida? ¿Qué hay allí destacable?
  • I: Sí, lo es. De hecho allí está uno de los detectores de LIGO (el detector de ondas gravitacionales) y varios de los miembros de esta colaboración. En particular, la portavoz, Prof. Gabriela González, trabaja en mi departamento.
  • G: ¿Cómo llegaste hasta allí? Haznos un resumen breve.
  • I: Nací en Elche, Alicante. Mi familia era de origen humilde, y sin tradición universitaria. Tuve la suerte de dar con buenos profesores en bachiller, y me entusiasmó la física. Me trasladé a Valencia para estudiar la licenciatura en física, siempre apoyado económicamente por becas. De hecho, me hubiera sido mucho más complicado estudiar de otra manera. También con una beca FPU (Formación del Profesorado Universitario) hice el doctorado en la UV, y a los 4 años terminé mi tesis doctoral. Esa beca incluía financiación para estancias internacionales. Estas estancias fueron la clave para poner un pie en sitios relevantes. De importancia capital en mi formación fue mi director de tesis, Pepe Navarro, quien ha sido la persona que más ha influido en mi forma de ver la ciencia y pensar sobre ella. Sin él nunca hubiera llegado donde estoy.
  • G: Háblame del campo en el que estás trabajando.
  • I: Mi área de investigación está entre la gravedad y la mecánica cuántica. Mi tesis aquí en Valencia fue en temas de teoría cuántica de campos en espacios curvos, radiación Hawking (la radiación cuántica emitida por agujeros negros), y la última parte de mi tesis fue sobre efectos cuánticos en cosmología inflacionaria. Eso quizá fue lo que me abrió más puertas. En los últimos años hemos sido capaces de medir propiedades del universo con una precisión sin precedentes, y estas observaciones permiten poner a prueba teorías que hasta hace bien poco se creía imposible. Desde que terminé mi doctorado he trabajado mayoritariamente en la interfase entre gravedad y teoría cuántica, aplicada a cosmología.
  • G: En ese sentido, hablando de la teoría cuántica de campos en espacios curvos, ¿dónde hiciste tu primer postdoc y con quién?
  • I: Mi primer postdoc fue en la Universidad de Wisconsin-Milwaukee, con Leonard Parker. Y lo digo con alegría y honor, porque fue el padre de esta teoría. Su tesis doctoral estableció los cimientos de este nuevo campo, que luego ha dado grandes frutos. Llegué allí gracias a un miembro de mi grupo de investigación, Gonzalo Olmo (quizá te suene su nombre…), quien ya había trabajado con Parker. Los trabajos que hice de forma conjunta con Pepe Navarro, Gonzalo Olmo, y Parker fueron el origen de mi carrera.

Iván Agulló, Leonard Parker y Gonzalo Olmo

  • G: De algún modo Parker puso una semilla en ti, y tú la hiciste crecer, la explotaste. Así fue como conseguiste tu primer gran premio en 2011, ¿no?
  • I: Fue una combinación entre su sabiduría y buen olfato para las ideas, y las ganas de trabajar que yo tenía en aquella época, así como la gente de la que estaba rodeada.
  • G: Después de Wisconsin y Parker…
  • I: Después de trabajar con Parker intensamente durante dos años, conseguí un postdoc en Penn State University, Pennsylvania, con Abhay Ashtekar, uno de los grandes nombres en gravedad cuántica. La razón para acabar allí fue que Ashtekar estaba interesado en explotar las consecuencias que su teoría, Loop Quantum Gravity, tenía para el universo y necesitaba alguien con experiencia en la interfase entre cosmología y gravedad cuántica. Esto me dio de nuevo la oportunidad de estar a la sombra de otro gran árbol. Fueron los años más intensos en mi carrera. Ashtekar tiene una capacidad descomunal para la física, y estar a su lado te hace absorber conocimiento a un ritmo frenético. Exploté los resultados y la experiencia que había obtenido con Parker para extraer consecuencias observacionales de la teoría de Ashtekar. A partir de ahí desarrollamos una serie de trabajos donde de forma rigurosa conseguimos pasar de una formulación abstracta y matemática de la teoría a unas ecuaciones más aptas para hacer predicciones para la observación.
  • G: La relación con Ashtekar se mantiene, pero luego pasaste un tiempo en Cambridge (Reino Unido). Cuéntanos algo sobre esa etapa.
  • I: Conseguí una beca Marie Curie de la Unión Europea, que me permitió trabajar más cerca de la gente que hace las observaciones cosmológicas. En la Universidad de Cambridge estaba el grupo que analizaba las datos del satélite PLANCK. Interaccionar más de cerca con parte del grupo de PLANCK me ayudó a entender mucho mejor detalles sobre cómo se mide y qué se mide, y a un teórico eso le va bien. Estuve un año allí y luego me fui a Louisiana donde conseguí mi trabajo actual. Fue justamente durante mi estancia en Cambridge que el satélite PLANCK hizo públicos sus resultados por primera vez. Fue una gran experiencia estar en Cambridge durante esa época tan singular.
  • G: Qué actividades tienes en Lousiana.
  • I: Allí soy Profesor-Investigador. Mi principal tarea es investigar, pero también he de dar clase (una asignatura por semestre, tres horas por semana). Me gusta porque me pone en contacto con los estudiantes, lo cual te mantiene la mente despierta, y es una carga lectiva que no me ocupa demasiado tiempo. En la actualidad enseño electricidad y magnetismo. Interacciono también con estudiantes de doctorado y de máster.
  • G: ¿Es sencillo o complicado conseguir financiación para un estudiante de doctorado allí?
  • I: En EEUU para los másteres y doctorados las universidades tienen capacidad limitada para este tipo de estudiantes porque tienen que financiarlos el primer año o año y medio. La universidad los financia a cambio de que den clase, y se les paga por ello…
  • G: ¡Cobran por dar clase! Aquí se dan clases y no se cobra 
  • I: Sí. Allí no existe un sistema de becas como el europeo. Mi departamento acepta alrededor de 20 estudiantes de doctorado por año, les financia un año y medio o quizá dos, a cambio de tareas docentes. Luego los estudiantes se asocian a proyectos de investigación, los cuales tiene sus propios fondos.
  • G: ¿En qué has trabajado el último año?
  • I: Estoy centrado principalmente en las predicciones que Loop Quantum Cosmology tiene para el Fondo Cósmico de Microondas (CMB) y la estructura a gran escala del universo. Y la idea que estoy empujando con más energía está relacionada con las llamadas no-Gaussianidades. También trabajo en otros aspectos de teoría cuántica de campos en espacios curvos, conjuntamente con investigadores de la Universidad de Valencia.
  • G: ¿Qué información nos dan las no-Gaussianidades?
  • I: Las no-Gaussianidades son uno de los observables que más información tienen sobre lo que pasó en las etapas tempranas del universo. Loop Quantum Cosmology predice que antes de la inflación hubo un “rebote cósmico”, que no significa que el universo estaba cabreado, si no que hubo un instante en el que pasó de contraerse a expandirse. En otras palabras, en esta teoría el llamado big bang (o la “gran explosión”) se reemplaza por un “big bounce” (gran rebote). La pregunta es si existe algún “fósil” o remanente de ese gran rebote que podamos observar hoy en día. Y yo creo que la clave son las no-Gaussianidades. Las no-Gaussianidades que se producen en el universo durante el “rebote” son muy diferentes de las producidas por la inflación cósmica. Es cierto que aún no hemos podido detectar no-Gaussianidades en el fondo cósmico de microondas, pero estoy trabajando en una idea que nos permitiría detectar sus efectos, aún con la precisión actual. De hecho, hay ciertas anomalías que se observaron tiempo atrás con el satélite WMAP y que el nuevo satélite PLANCK ha confirmado, que no se entienden en base al modelo inflacionario. La idea en la que estoy trabajando con mi grupo de investigación en Louisiana es que estas anomalías pueden ser una consecuencia de las no-Gaussianidades que ocurren durante el rebote cósmico.
  • G: Y para terminar esta entrevista, ¿que destacarías?
  • I: Volvemos al principio, quiero enfatizar la importancia de las becas, y mi caso particular de cómo una familia sin tradición académica consigue llevar a su hijo al máximo nivel universitario, a través de un buen sistema de financiación pública.
  • G: ¿Crees que las políticas científicas actuales en España van en esa línea?
  • I: No, realmente no. La política actual me ha llevado a trabajar fuera de España, con muy pocas opciones para volver. Le doy gracias al sistema por financiar mi educación, pero veo que ha desaprovechado la inversión que hizo en mí. Debido a una política científica en mi opinión equivocada, es otro país el que obtiene el beneficio de aquella inversión.


Esperemos que tanto Iván como otros muchos investigadores españoles jóvenes y no tan jóvenes, aquí y allá, sigan ayudando a entender mejor este mundo en el que vivimos y a convertirlo en un lugar mejor.      


Texto y entrevista de Gonzalo Olmo (@gonzalo_olmo). 

jueves, 27 de abril de 2017

Charla de Diego Rubiera sobre Cosmología




El pasado 7 de abril tuvo lugar en el Colegio Mayor Rector Peset de Valencia la charla "Cosmología: la Historia de nuestro Universo", organizada por el Grupo de Agujeros Negros Cuánticos, Supergravedad y Cosmología, del Departamento de Física Teórica de la Universitat de València y el IFIC. Impartida por nuestro compañero Diego Rubiera, investigador FCT del Instituto de Astrofísica y Ciencias del Espacio de Lisboa, y enmarcada como acto previo al XII Iberian Cosmology Meeting IberiCOS2017 que tuvo lugar en Valencia unos días después, la charla trató de forma amena aspectos fundamentales de la Cosmología. 


La Cosmología representa el estudio del origen, evolución y destino del universo como un todo y, por tanto, afronta preguntas tan fundamentales como de dónde venimos y hacia dónde vamos. La combinación del armazón teórico que constituye la Teoría de la Relatividad desarrollada por Albert Einstein en el siglo XX, junto con el desarrollo tecnológico y observacional sin precedentes acaecido en las últimas décadas, ha convertido a la Cosmología en una ciencia de alta precisión que está en disposición de ofrecer respuestas parciales a dichas preguntas. En esta charla se trató el camino que nos ha permitido entender la expansión del Universo, la teoría del Big Bang, la formación de galaxias o la energía oscura, así como el lugar que el ser humano ocupa en toda esta imagen. 


Os presentamos aquí el vídeo de la charla, grabada con la inestimable ayuda del Taller de Audiovisuales de la Universitat de València. 


miércoles, 1 de marzo de 2017

Hidrógeno metálico: el contraataque




Como todo en esta vida, una vez el tiempo pasa las noticias son solo recordadas por aquellos a los que ha afectado directamente o indirectamente. Sin embargo, en el mundo científico todo es analizado y revisado concienzudamente hasta probar los puntos débiles de cada trabajo y permitir dar un paso más hacia el conocimiento total de la realidad que nos rodea. En este marco, las suspicacias y animadversiones levantadas por el artículo sobre el descubrimiento del hidrógeno metálico1 y sobre todo, por uno de sus autores, han hecho que todo este proceso se acelere. Recientemente, hablamos en el blog sobre el descubrimiento del hidrógeno metálico (aquí). En él predijimos que se abriría una guerra entre el grupo que proclamó su descubrimiento y el resto de investigadores rivales que han ido tras su búsqueda prácticamente toda su vida. Heridos en el orgullo de no ser ellos los primeros descubridores, empezaron a dar entrevistas a los principales portales científicos destacando los defectos evidentes que tenía el artículo. Nada era hasta entonces muy grave, se basaba sobre todo en no tener una confirmación clara de la fase metálica de este compuesto, y además las respuestas del propio grupo parecían coherentes y concluyentes. Sin embargo, las pequeñas incursiones en territorio enemigo se están convirtiendo por momentos en invasiones armadas y las pequeñas escaramuzas en un ataque con toda la artillería.

La Carnegie Institution for Science tiene uno de los grupos de investigación más renombrados en alta presión, el llamado Geophysical Laboratory. Se juntan allí varios de los más prestigiosos científicos en este campo. Su misión es la exploración de la materia extrema en todos los ámbitos: síntesis, propiedades extraordinarias, biología en condiciones extremas o formación planetaria. Hasta ahora, los esfuerzos de los científicos de este grupo, en lo relativo al hidrógeno, se habían centrado en la síntesis de polihidruros. Estos compuestos son mucho mejores candidatos para tener propiedades superconductoras a temperaturas superiores a la ambiente y presiones muy inferiores a las estudiadas con el hidrógeno. Sin embargo, visto el gran revuelo levantado por este descubrimiento, dos de sus científicos más reseñables han analizado cuidadosamente los resultados expresados por Dias y Silvera.

Gontcharov y Struzhkin2, bien conocidos por sus minuciosos trabajos en el campo de la presión más allá del megabar (>100 GPa), se han puesto manos a la obra para estudiar la publicación de Dias y Silvera. Estos investigadores reclaman que no es tan importante el conseguir la fase metálica del hidrógeno, sino el análisis de las condiciones en las que se alcanza y sus propiedades. Por otro lado, recogen la que parecía ser hasta ahora la principal queja sobre el artículo: cómo saber la presión a la que está la muestra. Como comentamos en la anterior entrada, en el trabajo de Dias y Silvera no se siguió la evolución del pico Raman con la presión sino que se midió exclusivamente cuándo se creía que se estaba a la presión crítica de metalización. Además, esta medida tenía baja calidad y por tanto la presión no era determinada de forma precisa. Esto no invalida la fase metálica del hidrógeno pero sí la presión a la que se produce.

Por otra parte, estos autores destacan el hecho de que hay una total ausencia de pruebas de que el hidrógeno está en la cavidad de presión ya que no se miden ninguna de sus propiedades fundamentales. Por ahora, todo dentro de lo ya contado. Sin embargo, un nuevo y poderoso argumento ha salido a la luz: la corrección de la absorción óptica del diamante a tan altas presiones.

La existencia de la fase metálica del hidrógeno se propuso por el incremento de reflectancia de este en la cavidad de presión a partir de una cierta presión. Para medir ese parámetro óptico se introduce un láser o un haz de luz a través de uno de los diamantes hasta llegar a la muestra y se recoge cuánto vuelve o se refleja, pero el hecho de que tenga que atravesar un diamante implica la corrección de la cantidad de luz que llega al detector. A presiones ambientales, el diamante es totalmente transparente a la luz visible; sin embargo, a presiones tan altas como las que se reclaman en el artículo de Dias y Silvera, hay que aplicar factores de corrección de la absorción óptica del diamante.


Según Gontcharov y Struzhkin, estos factores de corrección fueron aplicados de forma errónea. Para llegar a esta conclusión, se basan en un artículo de Vohra3 donde se analiza la reflectancia del diamante hasta 338 GPa. Extrapolando la evolución observada a la presión crítica propuesta por Dias y Silvera, tenemos que la reflectividad mostrada por la muestra es muchísimo menor que la publicada, lo que implicaría la caída del principal pilar en el que se basa el artículo y por lo tanto, que la fase del hidrógeno que se observa no es en absoluto metálica.


Fig. 1. Reflectancia del hidrógeno a 495 GPa medida por Dias y Silvera1 (circulos llenos-corregidos, circulos abiertos–sin corregir) comparada con la transmitancia del diamante estudiada por Vohra3 – a 230, 257, 311, y 338 GPa. Teniendo en cuenta estos datos y extrapolándolos a 495 GPa, los datos corregidos por esta extrapolación vendrían dados por los triangulos abiertos.


Como los problemas nunca vienen solos, diez días después de la aparición de este “comment” se ha publicado otro de otros autores. En este caso, el archienemigo de Silvera, Eremets (junto a Drozdov4 ), desde Mainz, analizan los puntos débiles del artículo, de una forma más amplia y no tan específica como Gontcharov y Struzhkin, pero sin duda más implacable dado el carácter personal innegable del que se ha impregnado este manuscrito. En este “comment”, Eremets y Drozdov han realizado un concienzudo análisis de cómo se ha medido la presión a través del pico Raman del diamante. Estos autores defienden no solo que la escala usada por Dias y Silvera para la determinación de la presión está equivocada, sino que al no seguir la evolución del pico Raman no se puede estar seguro que el pico medido sea el que se debe seguir para la calibración.

Asimismo, argumentan que si se establece que la presión está mal determinada, el valor de presión coincide con la presión crítica donde observaron un aumento de la conductividad eléctrica y proclamaron que podría ser debido a la fase metálica del hidrógeno5. En su defensa, hay que decir que lo dijeron con la boca pequeña porque no pudieron repetir el experimento, y ahí atacan a otro flanco débil del artículo de Dias y Silvera, la reproducibilidad. Este “comment” continúa sus críticas en el origen de la reflectividad observada. Mientras que Gontcharov y Struzhkin criticaban la corrección de los valores de esta al atravesar el diamante a tan alta presión, Eremets y Drozdov van al origen de la misma proclamando que no se ha demostrado que la alta reflectividad provenga del hidrógeno y no de la alúmina a alta presión o a una reacción del hidrógeno con la alúmina o incluso a una reacción del hidrógeno con el diamante. Incluyen también estos autores los mismos argumentos mostrados por los primeros citando el artículo de Vohra en el mismo contexto que Gontcharov y Struzhkin pero sin llegar a aplicar ninguna extrapolación de la corrección de la reflectancia por el diamante, sino sólo reclamando que no pudieron obtener el mismo valor que aplica Dias y Silvera. En su defensa hay que decir que han citado el “comment” de Gontcharov y Struzhkin.


Fig. 2. Muestra de hidrógeno a 337 GPa (fila de arriba) y a 380 GPa (debajo) combinado con 170K. Las imágenes fueron tomadas con luz reflectada, transmitida y una combinación de ambas. 


La guerra ha empezado. A la agresión inicial de proclamar conquistado el territorio del hidrógeno metálico, los aliados han respondido usando artillería pesada contra los rebeldes. Habrá que esperar la respuesta de éstos y ver quién gana la guerra, que podemos pensar que llegue en forma de premio Nobel. O no. 


Texto escrito por Juan Ángel Sans (@tresse77).


[1] R.P. Dias, I.F. Silvera. Observation of the Wigner-Huntington transition to metallic hydrogen. Science. DOI 10.1126/science.aal1579 (2017).
[2] A. F. Gontcharov y V. V. Struzhkin. Comment on Observation of the Wigner-Huntington transition to metallic hydrogen. arXiv:1702.04246.
[3] Y.K. Vohra. Isotopically pure diamond anvil for ultrahigh pressure research. Proceedings of the XIII AIRAPT International Conference on High Pressure Science and Technology (1991, Bangalore, India, 1991). (1991).
[4] M.I. Eremets y A. P. Drozdov. Comments on the claimed observation of the Wigner-Huntington Transition to Metallic Hydrogen. arXiv:1702.05125.
[5] M. I. Eremets, I. A. Troyan y A. P. Drozdov. Low temperature phase diagram of hydrogen at pressures up to 380 GPa. A possible metallic phase at 360 GPa and 200 K. arXiv:1601.04479



miércoles, 8 de febrero de 2017

Poniendo barreras a las cataratas



Uno de los problemas más comunes que aparecen con la edad son las cataratas. Cualquiera de nosotros seguro que conoce un familiar que ha sufrido esta afección. La catarata senil es una opacificación del cristalino del ojo que afecta a la función visual, reduciendo la agudeza visual y la sensibilidad al contraste como consecuencia de la dispersión (scattering). En 1995, la Organización Mundial de la Salud estimó que la causa del 50% de los casos de ceguera mundial, unos 17 millones de personas, eran las cataratas. El único tratamiento que existe en la actualidad es la extracción del cristalino cataratoso y su sustitución por una lente intraocular (LIO) que permite restablecer la visión.  





Se puede recurrir a dos tipos de soluciones: la implantación de LIOs monofocales calculadas para compensar sólo la visión de lejos del paciente o bien la implantación de lentes intraoculares multifocales (LIOMs) que proporcionan la posibilidad de buena visión, tanto de lejos, como de cerca.



La primera cirugía de cataratas con implantación de LIO fue realizada en 1949 por el cirujano inglés Harold Ridley después de la Segunda Guerra Mundial. Tras observar como los pilotos de combate toleraban sin dificultades las heridas de fragmentos de las cabinas, hechas de plástico rígido tipo polimetilmetracrilato (PMMA) incrustados en el ojo, diseñó una lente de este mismo material biocompatible. Pero la LIO diseñada proporcionaba poca estabilidad y era necesaria una gran incisión para su implantación. Consiguió mejorar el primer diseño y en los 12 años siguientes implantó más de 1000 lentes. Pese al elevado porcentaje de éxito, fue criticado duramente por los oftalmólogos de la época. Es a mediados de los ochenta cuando las LIOs se popularizan.




Desde entonces se han desarrollado multitud de diseños monofocales cuyo objetivo además de proporcionar la potencia esférica adecuada, para corregir los errores refractivos tales como miopía, hipermetropía y astigmatismo, fue el de compensar aberraciones de orden superior de la córnea, como la aberración esférica y el coma. Las aberraciones son distorsiones que sufre el ojo y que degradan la calidad de imagen. La aberración esférica es una de las de mayor importancia que ocurre con pupilas grandes (condiciones de poca iluminación - visión nocturna) debido que la luz que pasa por la periferia no enfoca en el mismo foco que la luz que viaja por el centro del sistema óptico. 

Sin embargo, las LIOs monofocales permiten una buena visión de lejos, pero la visión de cerca conseguida es borrosa y son necesarias gafas para poder leer. Para suplir esa deficiencia recientemente se han diseñado las LIOs multifocales que permiten una buena visión tanto de lejos como de cerca sin necesidad de usar gafas para todo tipo de tareas. Existen diferentes tipos de LIOs multifocales atendiendo a su diseño: diseños refractivos y difractivos. 

Los diseños refractivos se caracterizan por estar formados por círculos concéntricos de diferentes potencias que proporcionan visión tanto de lejos como de cerca. El principal inconveniente que presenta este tipo de diseños es que son pupilo-dependientes, es decir, para pupilas pequeñas (mucha luz) la luz incide sólo en la zona central de la lente destinada a visión de lejos; en cambio para visión escotópica o poca luz (mayor tamaño de pupila) la luz es distribuida por las diferentes zonas que componen la lente.




Las LIOs difractivas poseen unos escalones tallados en una de las superficies que forman una red de difracción y permiten dirigir los rayos de luz a dos focos distintos al mismo tiempo, uno para visión de lejos (orden 0) y otro para visión de cerca (orden 1). El principal inconveniente que presenta este tipo de lentes es que pueden causar deslumbramientos o halos por la noche.




Por otra parte, los avances en nuevos materiales, como la silicona y los acrílicos permitieron la cirugía de microincisión, ya que las lentes pueden ser insertadas en el ojo estando plegadas y a través de una menor incisión (alrededor de 1.8 mm), permitiendo un menor tiempo de post-operatorio y una cicatrización de la incisión corneal mucho más rápida. 

A todo lo comentado anteriormente, hay que sumar que se han hecho aportaciones para mejorar la técnica e instrumentación hasta llegar a la facoemulsificación, que hoy se práctica y que es el método más avanzado para el tratamiento de las cataratas. La facoemulsificación consiste en la utilización de ultrasonidos para romper y extraer el cristalino cataratoso y sustituirlo por una LIO. La cirugía de cataratas es una técnica fácil, segura y rápida y ha mejorado la vida de millones de personas en todo el mundo. Existen muchas posibilidades para mejorar la calidad visual tras la operación pero es necesario analizar qué es lo que más le conviene a un determinado paciente en función de su vida y sus expectativas. 


Texto de Laura Remón Martín, Doctora en Físicas y profesora ayudante doctor en la Universidad de Zaragoza.


lunes, 30 de enero de 2017

Hidrógeno metálico: realidad o ficción


En el mundo de las altas presiones hay un objetivo que se ha perseguido durante mucho tiempo: la metalización del hidrógeno. En este campo, la fase metálica de este material ha sido considerada como el santo grial. Los grupos más poderosos dedican enconados esfuerzos por alcanzarlo, rozándolo con los dedos en algunas ocasiones y fracasando estrepitosamente en otras. Los grupos de Gregoryanz en Escocia, Eremets en Alemania, Loubeyre en Francia o Silvera y Hemley en Estados Unidos llevan muchísimos años sometiendo al hidrógeno a presiones brutales para detectar una pista que indique que el hidrógeno es metálico. También su búsqueda ha abierto nuevos caminos que hasta ahora nadie se había planteado, como por ejemplo el estudio de polihidruros y sus propiedades superconductoras. Pero vamos a empezar desde el principio.


Figura tomada de chemistryworld.com

Todo comenzó en 1935, cuando Wigner y Huntington1 analizando los efectos de las altas presiones en el hidrógeno predijeron la posible metalización de este en forma de sólido monoatómico tipo alcalino-metálico. Desde entonces la metalización de este elemento ha sido considerada como una de las fronteras de la ciencia con implicaciones en multitud de campos diversos. En astrofísica, el descubrimiento de hidrógeno metálico podría permitir reproducir las condiciones de los núcleos de muchos planetas como Júpiter o Saturno, y las características especiales observadas en planetas extrasolares descubiertos recientemente. Por otro lado, la producción de hidrógeno metálico podría revolucionar los viajes espaciales, algo que ya ha sido discutido en una más que interesante entrada realizada por Daniel Marín (aquí), debido a que este material es 12 veces más denso que el hidrógeno gas y puede liberar 20 veces su energía al quemarse con oxígeno, produciendo solo agua como residuo de la combustión. Si esto no fuese suficiente, Ashcroft2 en 1968 predijo el comportamiento superconductor del hidrógeno metálico a altas temperaturas. El hidrógeno metálico al tener una masa atómica pequeña se postula para tener un acoplamiento electrón-fonón muy fuerte y una gran densidad de estados en el nivel de Fermi. Todas estas características hacen que el hidrógeno metálico sea un estupendo candidato para exhibir propiedades superconductoras según la teoría de Bardeen-Cooper-Schrieffer (BCS).

Los primeros trabajos experimentales en los años 70 vinieron lastrados por la incapacidad técnica de alcanzar presiones más allá del Megabar (100 GPa o lo que es lo mismo 1 millón de veces la presión atmosférica) en régimen estático. De los primeros científicos en darse cuenta de la importancia de esta fase metálica del hidrógeno hay que destacar el esfuerzo del Prof. Ashcroft; también vieron la luz los primeros trabajos del Prof. Silvera.

En los últimos años, con la mejora de las celdas de yunques de diamante que permiten el acceso a presiones cada vez más altas, esta lucha se ha recrudecido. Los enfrentamientos entre algunos de los jefes de los principales grupos de investigación han sido evidentes en todos los congresos en los que coincidían y han rozado en algún caso el mal gusto. Aún se puede sentir esa animadversión en los comentarios que se han hecho públicamente al trabajo de Dias y Silvera. Volviendo al apartado técnico, no solo es necesario que se pueda aplicar suficiente fuerza a los diamantes sino que estos resistan esos gradientes de presión. Actualmente, se realizan tratamientos en los diamantes para que no tengan el más mínimo defecto y se puedan alcanzar los 4-5 megabares sin necesidad de una segunda etapa, aunque no sin problemas. El hecho de alcanzar una presión tan alta conlleva unos problemas asociados, más si cabe en el estudio del hidrógeno. El hidrógeno, al ser tan pequeño, se difunde a través de los diamantes a altas presiones y se cuela entre los enlaces de carbono volviéndolos extraordinariamente débiles; cuando el hidrógeno se mete dentro del diamante, se crean unas diferencias de presión en su interior que producen su rotura.


¿Cómo resolvieron Dias y Silvera3 este problema en su trabajo reciente? Primero usaron diamantes sintéticos con menos propensión a tener defectos que los naturales, y además fueron pulidos para evitar las típicas impurezas de las zonas superficiales. Para evitar la difusión del hidrógeno, se depositó una capa de alúmina sobre la culata del diamante y los mantuvieron siempre a temperaturas por debajo de los 80 kelvin. Fueron alineados perfectamente uno frente a otro y no se expusieron a ningún láser hasta la hora de la medida.

Respecto a la identificación de la fase metálica, se hizo con una técnica simple que es el objeto de muchas de las críticas de las que ha sido objeto el trabajo, y es la reflectividad óptica de un láser sobre la muestra. Los autores observan que la reflectancia a una presión de 495 GPa es de 0.91, un valor muy cercano a la reflectancia obtenida en un metal. El espectro de la reflectrividad en función de la longitud de onda permitió mediante el modelo de Drude estimar el número de portadores de la muestra a través de la medida de la frecuencia de plasma. La concentración de electrones por unidad de volumen resultó ser tan elevado como se espera de un metal (mas de 1023 cm-3). Hay que destacar que todas estas medidas fueron realizadas a baja temperatura (5.5 Kelvin).


Figura tomada de la referencia 3


¿Qué peros se pueden poner a este trabajo que parece reclamar el descubrimiento definitivo de la fase metálica del hidrógeno? En primer lugar, tanto Eremets como Gregoryanz se quejan del método utilizado para calcular la presión a la que está el hidrógeno. Cierto es que normalmente la presión a estos niveles se calcula gracias al pico Raman del propio diamante; sin embargo, en este trabajo esto no se mide en todo el experimento hasta la última medida, la que proclama la fase metálica del hidrógeno. Durante el proceso intermedio, Silvera usa un sistema al menos cuestionable, como es apretar unos tornillos y suponer que la presión en la muestra es la misma que la de otros experimentos realizados anteriormente con la misma celda pero con distintos diamantes.

Figura tomada de la referencia 3


Otro pero es la falta de medidas de sus propiedades eléctricas. Su medición sería definitiva para poder concluir que lo que hay entre los dos diamantes es sin duda alguna una fase metálica pero aún más, no se sabe si es sólido ni si cristaliza en la misma fase predicha por los cálculos teóricos. No debería ser muy difícil que cualquier sincrotrón del mundo se ofreciese voluntario para hacer una rápida medición de difracción de rayos X, ya que la muestra sigue confinada en la celda de diamante para exposición pública en el laboratorio de Silvera en la Universidad de Harvard. Por último, se echa en falta la repetitividad del experimento; se sabe que se está en la frontera de la ciencia y la técnica, por lo que hay que intentar repetir al menos una vez el experimento para asegurarse que las condiciones son reproducibles y no estamos ante un resultado espurio.

En definitiva, ¿se ha encontrado la fase metálica del hidrógeno? Parece que sí y es el trabajo más completo acerca de esta búsqueda que se ha publicado hasta ahora. ¿Este trabajo es absolutamente definitivo? No, y además estoy seguro que otros grupos trabajarán arduamente para refutarlo. Señores y señoras, preparen las palomitas porque esto no ha acabo aquí. Se lo aseguro, empieza la guerra.

Texto escrito por Juan Ángel Sans (@tresse77).



1 E. Wigner and H. B. Huntington. “On the Possibility of a Metallic Modification of Hydrogen” J. Chem. Phys. 3, 764 (1935); http://aip.scitation.org/doi/abs/10.1063/1.1749590
2 N. W.Ashcroft. “Metallic Hydrogen: A High-Temperature Superconductor?” Phys. Rev. Lett. 21, 1748 (1968): http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.21.1748

3 R. P. Dias and I. F. Silvera. “Observation of the Wigner-Huntington transition to metallic hydrogen” 10.1126/science.aal1579 (2017);

viernes, 20 de enero de 2017

Agujeros negros y ondas gravitacionales


El 11 de Febrero de 2016 se anunció la primera detección directa de ondas gravitacionales. Los dos detectores del experimento LIGO, situados en Livingston y Hanford (EEUU), respectivamente, reportaron un evento de colisión entre dos agujeros negros de 29 y 36 masas solares, respectivamente, situados a una distancia de unos 1.300 millones de años luz (en comparación, el diámetro medio de la Vía Láctea es de unos 100.000 años luz). La magnitud de la explosión cósmica es tal que, durante un período de una décima de segundo, se liberó una potencia unas 50 veces superior a la de todo el Universo junto. 
¿Cómo sabemos todo esto? ¡El propio Einstein pensaba que no era posible! Las razones hay que buscarlas en los enormes progresos tecnológicos y teóricos acaecidos durante las últimas décadas, así como en el establecimiento de enormes redes de colaboración y esfuerzo coordinado a nivel internacional. El marco teórico corresponde a la Relatividad General, desarrollado casi en solitario por Albert Einstein entre los años 1905 y 1916, el cual vino a reemplazar la idea de Isaac Newton de que la gravedad era una fuerza que ``tira” de nosotros, por una interpretación de la gravedad como un efecto geométrico: la materia/energía curvan el espacio y el tiempo y el movimiento que experimentan los cuerpos en dichos espacio y tiempo curvados se siente como una fuerza gravitatoria; en palabras de John Wheeler: ``la materia le dice al espacio-tiempo como debe curvarse, la curvatura del espacio-tiempo le dice a la materia como debe moverse”. Cuando se pregunta a la Naturaleza, a través de experimentos, si es Newton o Einstein quién está acertado, esta nos responde que el segundo. Sirvan como ejemplo la explicación del perihelio de Mercurio, o las predicciones de la curvatura de la luz al pasar por las cercanías de un objeto muy masivo (por ejemplo el Sol), el corrimiento al rojo gravitacional, o el movimiento de púlsares binarios.

Agujeros negros y sus sorprendentes propiedades

Las ondas gravitacionales son otra predicción de la Relatividad General que, sin embargo, aún no había sido testada. En esencia, la naturaleza dinámica del espacio y el tiempo en la teoría de Einstein hacen que, cuando un objeto masivo se mueve, se generen perturbaciones en la estructura del espacio-tiempo, las cuales se propagan a la velocidad de la luz. Sin embargo, dichas perturbaciones son extremadamente débiles, lo cual explica que, un siglo después de su predicción, aún no hubieran sido detectadas. En este sentido, hace años que los astrofísicos habían llegado a la conclusión de que la mejor oportunidad para detectarlas residía en estudiar pares de agujeros negros.




El concepto de un cuerpo tan denso que ni siquiera la luz puede escapar de él fue ya descrito en una etapa tan temprana como 1783 en una comunicación a la Royal Society por un geólogo inglés llamado John Michell. Su idea consistía en llevar el concepto de velocidad de escape al límite, de tal modo que ningún objeto, por muy rápido que se pudiera mover, podría escapar de dicho cuerpo denso. Debido al limitado conocimiento empírico de la época, dicho concepto fue desechado como una curiosidad. Sin embargo, el concepto renació en 1916 cuando, recién salida de imprenta la Relatividad General, Karl Schwarzschild encontró una solución matemática de dicha teoría que permitía la existencia de un cuerpo supermasivo y tan concentrado que su velocidad de escape sería mayor que la de la luz. Como la teoría de la Relatividad (Especial) impone que ningún objeto físico puede moverse a mayor velocidad que la de la luz, nada podría escapar de dichos cuerpos: el concepto de agujero negro (acuñado por John Wheeler en 1969) hacía acto de aparición en la teoría de Einstein.
Ahora bien, ¿Cómo sabemos que los agujeros negros son reales y no un mero truco matemático? Utilizando los extensos conocimientos empíricos acumulados durante décadas, así como poderosos métodos de física nuclear, los astrofísicos creen conocer con bastante exactitud el proceso de nacimiento, vida y muerte de las estrellas. Cuando estas son muy masivas, su etapa final termina ``a lo grande”, con una explosión en forma de supernova durante la cual su luminosidad crece hasta superar, durante unos pocos días, la de toda la galaxia por completo en la cual está ubicada. Pero aún más interesante es el hecho de que, si la masa del remanente de la explosión de supernova es lo suficientemente grande (unas 2,5 masas solares), ningún mecanismo conocido en la Física puede impedir que el destino final de dicho remanente sea colapsar para formar un agujero negro.




 Ahora bien, todo esto no implica que los agujeros negros existan de verdad. ¿Cómo podemos ver un objeto que no emite luz? La mejor oportunidad es utilizar el hecho de que la mayor parte de las estrellas en el Universo son en realidad sistemas binarios: dos estrellas, con diferentes masas y etapas vitales, orbitando alrededor del centro de masas del sistema. Supongamos que una de ellas se ha convertido en un agujero negro. Lo que sucede a continuación es que, debido a su intenso campo gravitatorio, empieza a absorber parte del material de su compañera (la canibaliza). Sin embargo, hay que recordar que el agujero negro es, en realidad, un objeto muy pequeño, de tal manera que el material atraído no puede ser tragado inmediatamente por este. De tal modo que dicho material se arremolina en un disco alrededor del agujero negro y se calienta hasta temperaturas increíbles. Hasta tal punto, que la interacción de dicho material hace que parte se eyecte transversalmente al disco a velocidades cercanas a las de la luz. Si un telescopio en la Tierra está, por fortuna, alineado con dicho material eyectado, lo que se observa es que desde una zona del espacio donde no ve ningún objeto (porque, recordemos, el agujero negro no emite luz), pero del cual sin embargo uno puede calcular su masa (a través de las perturbaciones gravitacionales sobre su estrella compañera), llegan enormes cantidades de energía en forma de partículas a casi la velocidad de la luz. El único objeto compatible con dicho suceso es, precisamente, un agujero negro, y este método se ha convertido en una herramienta rutinaria para ``detectar” decenas de agujeros negros (Cygnux X-1, en 1964, fue el primero).

A la caza de ondas gravitacionales

Evidencias indirectas de la existencia de ondas gravitacionales ya se habían recopilado en el año 1974, con la observación del púlsar binario PSR B1913+16. Dichos púlsares se corresponden con dos estrellas de neutrones en rotación una alrededor de la otra, y acompañados de un campo magnético muy intenso. La Relatividad General nos dice que dicho sistema debe perder energía de forma progresiva vía emisión de ondas gravitacionales y que, consecuentemente, se debería observar una disminución progresiva del periodo de rotación del púlsar doble…¡y esto es exactamente lo que se observa al comparar observación con predicción teórica con una concordancia total! No obstante, esto aún no representa una observación directa de ondas gravitacionales.
Es en este momento cuando entra en escena el detector LIGO (``Laser Interferometry Gravitational Wave Observatory”). Los culpables de este experimento son muchos, donde podemos destacar la idea original por parte de Rainer Weiss (MIT, 1967) y los estudios teóricos detallados para dar forma a esta idea por parte de Kip Thorne (Caltech, 1968). Desde los años 80 numerosos prototipos, que verificaban la viabilidad del diseño, fueron propuestos para su financiación, la cual fue aprobada en los años 90. Finalmente el detector LIGO entró en pleno funcionamiento a mediados de la década de 2000.
El núcleo principal de LIGO lo conforma un interferómetro, dos brazos en forma de L, cada uno de unos 4 kms de longitud. Desde una fuente se emite un láser, el cual es dividido en un espejo en dos hacia cada uno de los dos brazos, de tal manera que, al llegar al final de cada uno de ellos, es reflejado para volver a recombinarse en el espejo inicial. Dado que la luz es una onda, si la distancia de los dos brazos es exactamente la misma, los picos y valles de cada uno de los dos láseres interferirán de manera destructiva de tal manera que un fotodetector situado en el espejo divisor no detectará ninguna señal lumínica. El objetivo de LIGO pasa por lo siguiente: si en cualquier momento una onda gravitacional atraviesa el aparato experimental, la perturbación que genera en la estructura del espacio y el tiempo hará que la longitud de uno de los dos brazos se acorte ligeramente, mientras que el otro se alargará. En ese momento, dado que la distancia que el láser recorrerá en cada uno de los brazos será diferente, la interferencia ya no será completamente destructiva al llegar al fotodetector, el cual será capaz, en principio, de detectar una pequeña cantidad de luz. El hecho de que LIGO tenga dos detectores, uno en Hanford y otro en Livingston, separados por una distancia de unos 3000 km, ayuda a determinar la procedencia de la señal de ondas gravitacionales.
¿Cómo de pequeña es la señal? Los cálculos teóricos indican que es extremadamente débil…¡una parte en 10^21! (unas mil veces más pequeña que el radio de un protón). Es tan débil que efectos tan cotidianos como el tráfico, microterremotos o el ruido término es millones de veces más intenso que la señal que queremos detectar y, por tanto, nuestro detector sería incapaz de distinguir la onda gravitacional del ruido ambiente. Afortunadamente, el trabajo colectivo de ingenieros, experimentales y teóricos consiguieron un logro de la ingeniería moderna al reducir el ruido ambiental por debajo de la sensibilidad de LIGO. Las puertas a la detección de ondas gravitacionales estaban, pues, abiertas, y un primer evento se registró el 14 de Septiembre de 2015.
No obstante, la detección necesita ser interpretada: lo que se buscaba es una señal procedente de la fusión de dos agujeros negros, para así aumentar su amplitud. El estudio de dicha fusión requiere de métodos numéricos avanzados para resolver las ecuaciones de la Relatividad General de Einstein mientras que, a su vez, el progreso de la implementación de métodos computacionales permite la detección, filtrado, y estadística sobre la señal observada. Los modelos teóricos predicen que dicha fusión pasa por tres fases: una de aproximación (inspiral) donde los dos agujeros negros rotan el uno alrededor del otro sin perder su identidad, otra de fusión (merger) donde los agujeros negros alteran significativamente su forma, y una final (ringdown) donde los dos agujeros se han fusionado en uno nuevo, liberando en el proceso grandes cantidades de ondas gravitacionales con una señal muy particular…¡que encaja precisamente con lo que los nodos de Hanford y Livingston del detector LIGO midieron!.





El presente y futuro de la astronomía moderna

La detección de las ondas gravitacionales por LIGO representa el primer paso en una nueva época en la astronomía moderna. Hasta ahora nuestro conocimiento del Universo provenía del estudio del espectro electromagnético (radio, microondas, infrarrojo, visible, ultravioleta, rayos X, rayos gamma), así como de otras fuentes adicionales tales como neutrinos o rayos cósmicos. Sin embargo, existen limitaciones inherentes de la interacción electromagnética, tales como el apantallamiento debido a nubes de polvo y gas, o la imposibilidad de observar más allá de unos 380.000 después del Big Bang debido la opacidad del Universo en aquella época. Sin embargo, la astronomía de ondas gravitacionales está libre de tales limitaciones y podrá llegar más allá de donde la electromagnética no puede, y ayudar a entender mejor el Big Bang, enanas blancas, púlsares, agujeros negros, materia y energía oscura…¡e incluso testear con mayor precisión la teoría de la Relatividad General de Einstein así como teorías de gravitación alternativas a esta! A parte de LISA, otros detectores de ondas gravitacionales están en construcción o en fase de planificación. Es, sin duda, una época apasionante para ser astrofísico.


Texto de Diego Rubiera García (@rubieradiego), Investigador FCT del Instituto de Astrofísica y Ciencias del Espacio de Lisboa.