viernes, 27 de septiembre de 2013

¿Cuán débil es la fuerza débil?

Fuente: Ciencia Kanija
Artículo publicado por Kelen Tuttle el 18 de septiembre de 2013 en Symmetry Breaking
Usando una nueva técnica, la colaboración Q-weak ha hallado que el valor de la fuerza débil encaja con la teórico – por el momento.
En un análisis inicial de sus datos, la colaboración Q-weak, con sede en el Laboratorio Jefferson en Virginia, ha determinado que el valor de la carga débil encaja con lo predicho por la teoría.
A new picture of atomic nucleus emerges
Núcleo atómico Crédito: Argonne National Laboratory

Aunque la fuerza débil, una de las cuatro fuerzas fundamentales de la naturaleza, tiene más fuerza que la gravedad, su nombre se debe a que es efectiva sólo a distancias extremadamente cortas. Si dos partículas están separadas 0,000000000000001 milímetros, sienten la fuerza débil. Más lejos de eso, la fuerza cae en picado.
La fuerza débil es la principal directora tras la desintegración radiactiva, y es la razón por la que brillan las estrellas. Dentro de las estrellas como nuestro Sol, protones y neutrones se fusionan para formar deuterio. Las estrellas liberan el exceso de energía procedente de esta reacción a través de la fuerza débil en forma de calor.
Esta investigación ofrece la primera medida de la carga débil dentro del protón.
Experimentos anteriores habían estudiado la fuerza en partículas más simples, incluyendo el electrón. Al contrario que en el electrón, una partícula puntual, los protones constan de tres partículas más pequeñas, conocidas como quarks, lo que complica el experimento.
Si el valor de la carga débil difiere – incluso una pequeñísima cantidad – de lo esperado, podría ser una prueba de partículas aún por descubrir y que influyen en el resultado. O, tal vez, podría dirigir a los físicos hacia una forma de comprender las fuerzas fundamentales de la naturaleza como una única fuerza en una “teoría de la gran unificación”.
Pero “los lectores deberían ver estos resultados iniciales principalmente como una primera determinación de la carga débil del protón”, dice el portavoz de la colaboración y científico del Laboratorio Jefferson, Roger Carlini, en un comunicado de prensa publicado por el Laboratorio Jefferson. “Con su mayor precisión, nuestra publicación final se centrará en las implicaciones con respecto a una potencial nueva física”.
En el experimento Q-weak, en el Laboratorio Jefferson, los investigadores atacaron hidrógeno líquido – básicamente, un conjunto de protones – con un haz de electrones cuyos espines estaban alineados. El equipo midió la tasa a la que se dispersaban los electrones en ángulos pequeños, y luego compararon esto con una medida realizadas con la dirección del espín invertido del electrón.
En un análisis inicial de un pequeño porcentaje de los datos experimentales de la colaboración, el equipo de investigación encontró que la carga débil del protón encaja con la predicha por la teoría.
Carlini dice que el experimento fue muy complejo y sólo pudo ser posible gracias al haz extremadamente controlado de electrones polarizados del Laboratorio Jefferson, y a un sistema de detección diseñado de forma muy inteligente.
Ahora, dice Carlini, la colaboración analizará todo el conjunto de datos. Debido a que su análisis inicial usó apenas el 4 por ciento de los datos experimentales de la colaboración, el análisis final podría mostrar algo ligeramente diferente.
El artículo científico que describe los resultados ha sido aceptado para su publicación en la revista Physical Review Letters. Hay disponible un borrado en arXiv

Autor: Kelen Tuttle
Fecha Original: 18 de septiembre de 2013
Enlace Original

Lo que une el “amor cuántico” no lo separa una multitud

Fuente: Francis (th)E mule
Dibujo20130925 propagating pair photons in nonlinear media - nature com
Una pareja de novios caminando entre una multitud tiene grandes problemas para no separarse. No tendrían ningún problema si fueran dos excitaciones cuánticas (como un par de fotones o de magnones) y la multitud fuera los átomos de un cristal que se comportase como un medio no lineal. Se publican dos artículos en Nature que lo demuestran de forma experimental. Fukuhara et al. han logrado propagar una pareja de magnones (las excitaciones cuánticas que propagan la energía en los imanes) y Firstenberg et al. una pareja de fotones; en ambos casos la interacción que liga los cuantos de la pareja es mediada por los átomos del medio. La pareja de cuantos se mueven al unísono y para controlar su movimiento basta con que una fuente externa actúe sobre uno de ellos, lo que tiene interesantes aplicaciones en el procesado cuántico de información y en su transferencia. Nos lo cuenta Sougato Bose, “Condensed-matter physics: Quantum togetherness,” Nature, AOP 25 Sep 2013, que se hace eco de los artículos técnicos Takeshi Fukuhara, Peter Schauß, Manuel Endres, Sebastian Hild, Marc Cheneau, Immanuel Bloch, Christian Gross, “Microscopic observation of magnon bound states and their dynamics,” Nature, AOP 25 Sep 2013, y Ofer Firstenberg, Thibault Peyronel, Qi-Yu Liang, Alexey V. Gorshkov, Mikhail D. Lukin, Vladan Vuletić, “Attractive photons in a quantum nonlinear médium,” Nature, AOP 25 Sep 2013.

Dibujo20130925 Schematic representation of magnon propagation
Fukuhara y sus colegas usan una cadena lineal de átomos atrapados por láser y enfriados a muy baja temperatura para simular un material ferromagnético (un imán) en el que el espín de todos los átomos apunta en la misma dirección gracias a sus interacciones mutuas. Al invertir uno de los espines (algo demostrado en experimentos previos) se crea un paquete localizado de energía (un magnón, que se comporta como un fermión) que se propaga de forma libre por la cadena como si fuera un fotón en una guía de onda. Cuando se invierten dos espines, uno espera que los dos magnones se propaguen cada uno por separado de forma libre, ya que como son fermiones tienden a separarse. Sin embargo, la interacción mutua entre ellos es tan fuerte que hace que se peguen entre sí en un estado ligado (un resultado predicho por Hans Bethe). ¿Están entrelazados los dos magnones? Los autores creen que presentan cierto grado de entrelazamiento cuántico pero no han sido capaces de demostrarlo; serán necesarios futuros estudios.
Dibujo20130925 Photons with strong mutual attraction in a quantum nonlinear medium
Firstenberg y sus colegas han lanzado dos fotones de forma sucesiva a través de un gas de átomos de rubidio. La energía de los fotones se ajusta para que no excité ningún nivel energético de los átomos (lo que reduce la probabilidad de que sean absorbidos o dispersados). Mediante un láser apropiado se excita el gas de tal forma que los fotones se ven rodeados de una excitación en los átomos (estado de Rydberg); esta excitación se propaga por el gas como un paquete de ondas localizado. Las fuerzas de van der Waals deberían impedir que dos excitaciones de este tipo se acerquen demasiado. Excitar con un fotón un átomo a un estado de Rydberg impide que otro fotón excite a un átomo cercano. El resultado es una interacción entre ambos fotones que permite la formación de un par acoplado de fotones entrelazados en polarización, aunque el grado de entrelazamiento alcanzado es bajo para muchas aplicaciones de procesado de información cuántica (se espera que futuras investigaciones logren incrementar este grado de entrelazamiento).
En resumen, dos interesantes trabajos con potenciales aplicaciones en el procesado de información cuántica que demuestran que la física cuántica permite que sistemas físicos muy diferentes entre sí se comporten de forma análoga. El poeta diría que lo que une el “amor cuántico” no lo separa una multitud.

El universo puede ser curvo, no plano

Fuente: Ciencia Kanija
Artículo publicado por Ron Cowen el 20 de septiembre de 2013 en Nature News
Las anomalías en una antigua radiación podrían contradecir las pruebas encontradas para el nivel del cosmos.
Vivimos en un universo asimétrico: esta es una lección que los cosmólogos has aprendido examinando la estructura detallada de la radiación dejada por el Big Bang. Ahora, dos cosmólogos demuestran que los datos son consistentes con un universo que está ligeramente curvado, de forma similar a una silla de montar. De ser correcto su modelo, daría un vuelvo a la vieja creencia de que el universo es plano.
Planck Cosmic Microwave Background
CMB por Planck Crédito: ESA

A gran escala, las medidas de precisión del fondo de microondas cósmico (CMB) por parte de la Wilkinson Microwave Anisotropy Probe (WMAP) de NASA proporcionaron las primeras pruebas de asimetría en 2004. Algunos expertos se preguntaron si el hallazgo era un error sistemático que se corregiría cuando el sucesor de la sonda de la NASA, la nave Planck de la Agencia Espacial Europea, cartografiase de nuevo el CMB con una mayor precisión. Pero los resultados de Planck, anunciados a principios de año, confirmaron la anomalía.
Para explicar estos resultados, Andrew Liddle y Marina Cortês, ambos de la Universidad de Edimburgo, en el Reino Unido, han propuesto un nuevo modelo de inflación cósmica – un hipotético periodo de expansión rápida justo tras el Big Bang, en el cual, el universo, creció muchos órdenes de magnitud en una pequeña fracción de segundo.
La teoría de la inflación más simple mantiene que el universo es plano, y que la expansión está dirigida por un único campo cuántico, conocido como inflatón. En este modelo, el inflatón tiene dos papeles: dispara la hiperexpansión del universo, y genera las minúsculas fluctuaciones de densidad que al agrandarse de convirtieron en las semillas de las galaxias.
Pero esta versión de la inflación no puede explicar la asimetría del universo, excepto como una casualidad estadística – similar, por ejemplo, al lanzamiento de una moneda que resulta salir cara muchas más veces que cruz a lo largo de 1000 lanzamientos. Si las anomalías en el CMB no son casualidades, podrían ofrecer una ventana sin precedentes a la estructura detallada de los inicios del universo, dice Liddle.
En su artículo, publicado esta semana en la revista Physical Review Letters1, Liddle y Cortês trabajan con la inflación. Como muchos teóricos antes que ellos, invocan a un segundo campo cuántico — el curvatón — para fijar las fluctuaciones de densidad primordial en el joven universo, restringiendo el inflatón a dirigir la era de hiperexpansión.
Los investigadores demuestran que el campo curvatón generaría las fluctuaciones de densidad asimétricas que se habrían observado si el espacio tuviese una ligera curvatura negativa a gran escala. Esto significa que, si pudiesen dibujarse grandes triángulos en el espacio, sus ángulos internos sumarían menos de 180 grados. (En un universo plano, los ángulos sumarían exactamente 180 grados, y en uno con curvatura positiva, sumarían más de 180 grados).
El trabajo de los autores es el primero en explicar la asimetría a partir de principios básicos, dice Adrienne Erickcek, teórico de la Universidad de Carolina del Norte en Chapel Hill, que no fue parte del estudio.
En el escenario de Liddle y Cortês, la asimetría del CMB derivaría de una falta de uniformidad en el universo a gran escala que está codificada en el campo curvatón. En 2008, Erickcek y sus colegas propusieron un mecanismo similar2. Este modelo, sin embargo, nono invocaba un universo con curvatura negativa.
Aunque numerosas observaciones indican que el cosmos es plano, las desviaciones en los datos del CMB predichos por el último modelo – que los autores reconocen que aún es especulativo — podrían ser lo bastante pequeñas como para encajar en los límites impuestos por las medidas realizadas con el satélite Planck, dice Liddle. Futuros experimentos, con medidas más precisas, podrían determinar quién tiene razón.

Artículos de referencia:
Nature doi:10.1038/nature.2013.13776
1.- Liddle, A. R. & Cortês, M. Phys. Rev. Lett. 111, 111302 (2013).
2.- Erickcek, A. L., Kamionkowski, M. & Carroll, S. M. Phys. Rev. D 78, 123520 (2008).
Autor: Ron Cowen
Fecha Original: 20 de septiembre de 2013
Enlace Original

miércoles, 25 de septiembre de 2013

La posible curvatura negativa del universo

Fuente: Francis (th)E mule
Dibujo20130923 large scale anomaly - cmb seen by planck - march 2013
Saber si el universo es plano (Ωk = 0) es imposible. Los experimentos sólo pueden poner un límite superior a su curvatura. El fondo cósmico de microondas (CMB) observado por el telescopio espacial Planck de la ESA nos ha permitido obtener un valor combinado Planck+WMAP9+ACT+SPT+BAO de Ωk = 0,0005 ± 0,0070 al 95% C.L. El universo parece plano, pero podría tener una pequeñísima curvatura, positiva o negativa. El CMB observado por Planck muestra varias anomalías a gran escala en el universo (para los multipolos acústicos con ℓ < 40, por encima de 3º de cielo) que no tienen explicación dentro del modelo cosmológico de consenso ΛCDM (que ajusta perfectamente los multipolos entre 50 < ℓ < 3000, por debajo de 2º de cielo). Una de las anomalías es una asimetría norte-sur con respecto al plano de la eclíptica (el plano del Sistema Solar). Andrew Liddle y Marina Cortês, ambos de la Universidad de Edimburgo, Reino Unido, publican en Physical Review Letters una explicación de esta anomalía que asume que el universo es abierto y tiene una pequeñísima curvatura negativa. Los datos que Planck publicará en junio de 2014, que incluyen la polarización del CMB, confirmarán (o descartarán) la anomalía y estimarán la curvatura por debajo de los límites compatibles con la idea de Liddle y Cortês. Mientras tanto estos físicos disfrutarán de su momento de gloria. Muchos medios se han hecho eco de su trabajo, como Ron Cowen, “Universe may be curved, not flat,” Nature News, 20 Sep 2013; Marc Kamionkowski, “Is the Lopsided Universe an Open Universe?,” Viewpoint, Physics 6: 98, Sep 9, 2013; el artículo técnico es Andrew R. Liddle, Marina Cortês, “Cosmic Microwave Background Anomalies in an Open Universe,” Phys. Rev. Lett. 111: 111302, Sep 9, 2013.

Dibujo20130923 curvature universe - Omegak - planck results - march 2013
Lo primero, estimar la curvatura del universo sólo con los datos del fondo cósmico de microondas, sin utilizar su polarización, conduce a un resultado peor que el obtenido con WMAP-9 años (que usa la polarización). Por ello, en la estimación oficial de Planck se ha utilizado el mapa de polarización obtenido por WMAP-9, que en la figura se marca como Planck+WP. El error del resultado se puede reducir en un factor de 7 (compara las curvas azules con las rojas en la figura) si además se incorporan los datos de multipolos acústicos de alto orden (hasta ℓ = 3000) de los telescopios del desierto de Atacama (ACT) y del Polo Sur (SPT), marcados en la figura como highL, así como los datos de la oscilación acústica de la materia (BAO) medidos por el proyecto Sloan (SDSS).
Dibujo20130923 Planck power spectrum - angular scale - temperature fluctuationsLo segundo, la anomalía a gran escala para los multipolos acústicos con ℓ < 40, está asociada a grandes errores en las medidas experimentales, porque los bolómetros de Planck de menor frecuencia (LFI), que estudian las bandas entre 30 y 70 GHz, tienen una resolución angular mayor de 0,5º (en realidad mayor de 33 minutos de arco). Por tanto, estudiar estructuras 10 veces más grandes está sujeto a gran error, como muestra la banda verde en esta figura del espectro de multipolos acústicos obtenido por Planck para 2 < ℓ < 2500.
En esa región el modelo cosmológico de consenso predice un espectro casi plano, cuando los datos de Planck muestran un mínimo (con dos puntos a  ℓ ≈ 20 claramente muy por debajo del valor esperado, a unas 3 sigmas de nivel de confianza estadística). Las simulaciones numéricas indican que sólo una de cada mil simulaciones por ordenador del CMB basadas en el modelo ΛCDM presenta una fluctuación estadística tan grande. Sin embargo, repito, la banda de error es grande. Esta banda de error se reducirá un poco, pero sólo un poco, cuando se publiquen los datos definitivos de Planck en junio de 2014; este año en marzo se han publicado las medidas de 15,5 meses, es decir, unos 2,5 mapas completos del cielo; el año próximo se duplicará el número de datos utilizados y se incluirán las medidas de la polarización. Repito, la resolución angular de los bolómetros LFI no es suficiente para explorar el universo a gran escala; serán necesarios futuros instrumentos para aclarar de forma definitiva esta cuestión.
Por cierto, la anomalía en el CMB asociada a grandes escalas fue observada por primera vez en las medidas del CMB obtenidas por el telescopio espacial WMAP (NASA) en 2004. Análisis posteriores incorporando la polarización indicaron, alrededor de 2009, que parecía que se trataba de una anomalía ficticia, una simple fluctuación estadística, por lo que el interés decayó bastante. Ahora en 2013 la colaboración Planck ha rescatado esta anomalía. ¿Qué pasará con esta anomalía cuando se publiquen los datos de polarización del CMB en junio de 2014? Nadie lo sabe, pero yo me atrevo a predecir que pasará algo parecido que con WMAP, casi seguro que la anomalía asociada a la eclíptica desaparecerá (a muy pocos físicos les gusta que el plano del Sistema Solar sea un plano privilegiado a nivel cosmológico). Por supuesto, mientras tanto, los cosmólogos teóricos tienen que aprovechar la oportunidad para publicar posibles explicaciones. Liddle y Cortês han sido los primeros en abrir la veda de Planck desde que la cerró WMAP.
Dibujo20130923 Universe born via bubble nucleation inside a larger metauniverse - physics aps
Liddle y Cortes presentan en su artículo una variante de los modelos de inflación con dos campos escalares, el inflatón y el curvatón, que se propusieron en 2008 para explicar la anomalía de WMAP. En estos modelos la inflación se inicia gracias al inflatón, pero su parada se adelanta respecto al caso en el que no hubiera curvatón, momento en que empieza a actuar el curvatón. Este campo puede generar las fluctuaciones de la densidad del universo responsables de la asimetría a gran escala observada siempre que se cumplan dos condiciones: (1) que el universo sea abierto y (2) que tenga una curvatura negativa muy pequeña, |Ωk| > 0,00008. Esta curvatura negativa hace que el universo se parezca a una silla de montar en lugar de una esfera o un plano. Los trabajos previos sobre el curvatón no estudiaron el caso de curvatura negativa, por eso no explican bien la anomalía de Planck y WMAP. Quizás los datos de Planck que se publicarán en junio de 2014 permitan obtener una mejor estimación de la curvatura que permita confirmar (o descartar) este modelo.
En estos modelos inflacionarios el universo es una burbuja dentro de un multiverso. Durante la formación (nucleación) de las burbujas, en el interior de cada una de ellas dominan las fluctuaciones primordiales debidas al campo inflatón, pero en su frontera domina el campo del curvatón. Por tanto, este campo afecta más allá del horizonte observable, con lo que el universo parece plano, aunque más allá del horizonte presenta una curvatura negativa. El tamaño del superhorizonte viene establecido por la longitud de onda de la fluctuación del curvatón que genera la asimetría observada por Planck y WMAP. Por cierto, a la curvatura más allá del horizonte se suele llamar supercurvatura y he estado tentado de titular esta entrada “La posible supercurvatura negativa del universo”.
¿Cómo se forman los universos burbuja? Mediante efecto túnel cuántico en el vacío. Cada burbuja se expande a una velocidad próxima a la velocidad de la luz. ¿Cómo es posible que el universo sea abierto pero finito? El tiempo se define dentro del universo burbuja de manera diferente a como se define en el multiverso, con lo que nuestro universo parece infinito aunque sea una burbuja finita del multiverso. La existencia del campo curvatón y de las paredes de la burbuja induce fluctuaciones a gran escala en el universo burbuja que dejan su marca en el fondo cósmico de microondas, pero sólo en los multipolos acústicos más bajos, que presentan señales de la supercurvatura en forma de la asimetría observada por Planck y WMAP. Los multipolos más altos no se ven afectados y para ellos el universo parece plano cuando se omiten los multipolos más bajos. Liddle y Cortes calculan en su artículo los parámetros adecuados de su modelo que explican (grosso modo) la asimetría observada en el CMB. Por supuesto, un primer artículo no completa todos los detalles y habrá que esperar a futuros artículos que presenten simulaciones numéricas para contrastar todos los detalles. Aún así, como el error experimental en los multipolos acústicos bajos es muy alto, no creo que cambien mucho las conclusiones de su artículo.
En resumen, una especulación científica que dará que hablar durante cierto tiempo, pero que, en mi opinión, será olvidada cuando se publiquen en junio de 2014 los nuevos datos de Planck sobre el CMB y se obtenga una mejor estimación de la curvatura del universo utilizando la polarización del CMB medida por Planck.

lunes, 23 de septiembre de 2013

El interior de una Tierra hueca

Fuente: Malaciencia
Portada de «El país sin estrella» Últimamente estoy releyendo los álbumes de «Valérian: agente espacio-temporal» (posteriormente renombrados como «Valérian y Laureline»). En la historia «El país sin estrella», aparece un concepto clásico de la ciencia ficción: un planeta hueco, con un sol en su interior, y habitantes en la superficie interna. Como digo, el concepto es un clásico, pues ya lo había utilizado Edgar Rice Burroughs (sí, el de Tarzán y John Carter de Marte) en su serie de Pellucidar (no he leído ninguna novela, pero sí vi en su día la adaptación cinematográfica de «En el corazón de la Tierra»). Y puede que los que hayan disfrutado en su infancia de los libros de «Elige tu propia aventura», recuerden «El reino subterráneo».
En todas las versiones de este tipo de ambientación, la idea es la misma: el planeta en cuestión es hueco, y la corteza es bastante densa. De esta forma, la masa de la corteza es suficiente para que su gravedad mantenga sujetos a ella, tanto a los habitantes del exterior como del interior. El sol interno se encuentra exactamente en el centro, proporcionando luz y calor a ese mundo subterráneo e invertido.
¿Cómo se calcula la gravedad en un caso así? En el colegio nos enseñaron la famosa Ley de Gravitación, que nos dice que la gravedad es directamente proporcional al producto de las masas, e inversamente proporcional al cuadrado de la distancia, y que se puede expresar con la igualmente famosa fórmula: F = G·M·m/r2. Pero para aplicar esta fórmula, debemos suponer que la masa de cada objeto está concentrada en un punto (que llamamos centro de gravedad). Esta simplificación es perfectamente válida cuando queremos calcular las trayectorias de planetas y otros objetos astronómicos, que estén muy alejados entre sí. Pero en otros casos (como el que nos ocupa), no nos vale. Los cuerpos reales tienen volumen, y su masa está distribuida por ese volumen.
Mapa del reino subterráneo de «Elige tu propia aventura» ¿Qué hacemos entonces? Pues dividimos nuestros objetos de estudio en trozos muy pequeños, de forma que cada uno de esos trozos pueda considerarse un punto, aplicamos la fórmula para cada punto, y sumamos todos los pequeños resultados. Llevando este planteamiento a su extremo, consideraríamos que el objeto está formado por infinitos puntos de tamaño cero, y calcularíamos la suma de sus infinítamente pequeñas propiedades. Es decir, realizamos un cálculo integral.
Como nunca he puesto en este blog una operación matemática más complicada que una multiplicación (bueno, alguna vez he puesto una potencia), y no quiero empezar ahora, remitiré a los interesados en el desarrollo matemático, a la estupenda web HyperPhysics, o a la Wikipedia. ¿Y cuál es el resultado? Pues el propio Isaac Newton ya lo desarrolló en su famoso libro «Philosophiæ naturalis principia mathematica». Para cualquier punto en el interior de una esfera hueca homogénea, ya sea cerca del centro, o en la misma superficie interior de dicha esfera, la fuerza gravitatoria total es siempre la misma: cero.
Sí. Cero. Si imaginamos un planeta hueco, con una densidad más o menos uniforme en su corteza (al menos, con simetría esférica, es decir, que para cada «capa» esférica, la densidad sea la misma en cualquier punto), en su interior hueco, la gravedad sería nula. Sus supuestos habitantes flotarían, a menos que se agarraran al terreno de alguna forma.
La situación va a peor si encima imaginamos que en el interior de nuestro planeta hueco, hay una pequeña estrella. Ese objeto tendrá masa, lógicamente, por lo que tendrá su campo gravitatorio. ¿Y hacia donde empujaría esa gravedad a cualquier objeto? Pues hacia la propia estrella. Así que los supuestos habitantes del interior del planeta hueco, ya no es que tuvieran que agarrarse a algo para no flotar, sino que literalmentemte, caerían hacia su sol interior.
Cartel promocional de «At the Earth's Core» Hemos supuesto que el planeta es más o menos homogéneo. La simetría esférica de la densidad de la corteza es necesaria para que la gravedad sea cero en el interior hueco del planeta. Pero sabemos que los planetas no son tan simétricos. Hay irregularidades, protuberancias, oquedades, distintos materiales, etc. Así que en un planeta real, es posible que estas irregularidades rompan el equilibrio de fuerzas, y que en algunos lugares, la resultante de la fuerza gravitatoria no sea cero. Pero estas diferencias por lo general serían muy pequeñas. Y fijaos que no sólo hace falta una pequeña fuerza para no flotar, sino que hay que contrarrestar la gravedad de la estrella interior.
Bueno, supongamos que en alguna región del planeta hay algún mineral extremadamente denso, de forma que la diferencia de fuerzas gravitatorias fuera significativa. Tenemos otro problema. No sólo mantendría a los habitantes en el suelo, sino que atraería al sol interno hacia esa zona, por lo que en poco tiempo, achicharraría toda vida posible, antes de colisionar contra la corteza y producir un cataclismo de proporciones planetarias.
Así que, me temo que, ni Pellucidar, ni el planeta sin estrella de Valerian, ni cualquier otro mundo similar, son posibles. Por mucho que nos pueda fascinar una idea así.

Los días de la Tierra están contados

Fuente: Ciencia Kanija
Artículo publicado por Emma Marris el 19 de septiembre de 2013 en Nature News
Los investigadores calculan que el planeta abandonará la ‘zona habitable’ del Sol en 1750 millones de años.
La Tierra podrá albergar vida durante otros 1750 millones de años aproximadamente, de acuerdo con un estudio publicado el 18 de septiembre en la revista Astrobiology1. El método usado para hacer los cálculos puede identificar también planetas fuera del Sistema Solar con ‘periodos habitables’ largos, que podrían ser los mejores lugares en los que buscar vida.
Zarmina, Gliese 581
Gliese 581

La zona habitable alrededor de una estrella es el área en la que un planeta que se encuentre orbitando en ella, pueda tener agua líquida en su superficie, el disolvente perfecto para las reacciones químicas que son base de la vida. Demasiado lejos de la estrella, y el agua se convertirá permanentemente en hielo y se condensará su dióxido de carbono; demasiado cerca, y el agua se convertirá en vapor de agua que escapa al espacio.
Las zonas habitables no son estáticas. La luminosidad de una estrella normal aumenta conforme su composición y reacciones químicas evolucionan a lo largo de miles de millones de años, alejando la zona habitable. Un grupo de investigadores informaban en marzo de que la Tierra está más cerca del borde interno de la zona habitable del Sol de lo que anteriormente se pensaba2.
El límite interior de la zona habitable del Sol se aleja a un ritmo de aproximadamente un metro por año. El último modelo predice un tiempo de vida total para la zona habitable de la Tierra de entre 6300 millones y 7800 millones de años, lo que sugiere que la vida en el planeta ya ha consumido el 70% de su tiempo. Otros planetas – especialmente los que se formaron cerca del límite exterior de la zona habitable de la estrella, o que orbitan a estrellas de masa baja y vida larga – pueden tener tiempos de vida para su zona habitable de 42 000 millones de años, o más.
Los autores sugieren que los científicos que buscan vida en otros planetas deberían centrarse en aquellos que han ocupado sus zonas habitables durante al menos, tanto tiempo como la Tierra – como es el caso de HD40307g, que se encuentra a 12,9 pársecs (42 años luz) de la Tierra.
La vida es compleja
Pero es posible que la Tierra necesitase de un tiempo anormalmente largo para desarrollar vida avanzada, dice Caleb Scharf, astrobiólogo de la Universidad de Columbia en Nueva York. “Es el viejo problema de extraer conclusiones a partir de un solo dato”, dice. El coautor del estudio Mark Claire, astrónomo en la Universidad de St. Andrews, en el Reino Unido, está de acuerdo, pero añade que si él llevase a cabo una misión para encontrar vida en un planeta terrestre, probablemente apuntaría con sus telescopios a un planeta que hubiese estado en la zona habitable tanto tiempo como fuese posible.
Los críticos también sugieren que la fórmula usada por los investigadores es demasiado simple. El modelo asume que los planetas extrasolares tienen atmósferas similares a la de la Tierra, así como una composición y acción de placas tectónicas similar. Colin Goldblatt, climatólogo planetario en la Universidad de Victoria, en Canadá, dice que sin incluir dinámica climática, como composición atmosférica y volumen, los resultados no son muy útiles para predecir la habitabilidad. “Si me pides que construya un planeta habitable donde está Venus, puedo hacerlo; si me pides que construya un planeta muerto donde está la Tierra, también puedo hacerlo”, señala Goldblatt.
“Hay mucho espacio para nuevas formulaciones de la zona habitable”, concuerda Claire. Por ahora, los investigadores no saben mucho sobre estos planetas extrasolares. Pero los cálculos de la zona habitable podrían demostrar ser interesantes también cerca de casa.
Conforme el Sol aumente su brillo, la Tierra se convertirá en un lugar demasiado caliente para la vida, y Marte entrará en la zona habitable. “Si los humanos siguen estando por aquí dentro de mil millones de años, ciertamente imaginaría que viviesen en Marte”, señala Claire.

Nature doi:10.1038/nature.2013.13788
Artículos de referencia
1.- Rushby, A. J., Claire, M. W., Osborn, H. & Watson, A. J. Astrobiology 13, 833–849 (2013).
2.- Kopparapu, R. K. et alAstrophys. J. 765, 131 (2013).

Autor: Emma Marris
Fecha Original: 19 de septiembre de 2013
Enlace Original

Física: La cruzada cuántica

Fuente: Ciencia Kanija
Artículo publicado por Philip Ball el 11 de septiembre de 2013 en Nature News
Los físicos han pasado un siglo desconcertados con las paradojas de la teoría cuántica. Ahora, algunos están intentando reinventarla.
Si decimos la verdad, pocos físicos han llegado alguna vez a sentirse cómodos con la teoría cuántica. Tras haber vivido con ella durante más de un siglo, han logrado forjar una buena relación laboral; los físicos usan ahora rutinariamente las matemáticas del comportamiento cuántico para hacer cálculos asombrosamente precisos sobre la estructura molecular, las colisiones de partículas de alta energía, comportamiento de semiconductores, emisiones de espectro y mucho más.
Cuántica
Cuántica

Pero las interacciones tienden a ser estrictamente formales. Tan pronto como los investigadores intentan ir más allá y preguntarse qué significan las matemáticas, chocan directamente contra un muro aparentemente impenetrable de paradojas. ¿Puede algo ser realmente una onda y una partícula al mismo tiempo? ¿El gato de Schrödinger realmente está vivo y muerto? ¿Es verdad que incluso la medida más sutil concebible puede, de algún modo, tener un efecto sobre partículas en el otro extremo del universo?
Muchos físicos responden a esta rareza interna refugiándose en la ‘interpretación de Copenhague’, desarrollada por Niels Bohr, Werner Heisenberg y sus colegas cuando establecían la forma moderna de la teoría cuántica en la década de 1920. La interpretación dice que estas rarezas reflejan el límite fundamental de lo que puede saberse del mundo, y que tienen que aceptarse las cosas tal como son – o, como dice la famosa frase del físico David Mermin de la Universidad de Cornell en Ithaca, Nueva York, “¡Cállate y calcula!”1
Pero siempre hay alguien que no se conforma con callarse – que está determinado a ir más allá y desentrañar el significado de la teoría cuántica. “¿Qué es lo que hay en este mundo que nos fuerza a navegar en él con la ayuda de una entidad tan abstracta?”, se pregunta el físico Maximilian Schlosshauer de la Universidad de Portland en Oregón, refiriéndose al principio de incertidumbre; la función de onda que describe la probabilidad de encontrar un sistema en varios estados; y todo el resto de parafernalia que se encuentra en los libros de texto sobre teoría cuántica.
A lo largo de la última década, aproximadamente, una pequeña comunidad de estos respondones han empezado a defender que la única forma de avanzar es demoler la entidad abstracta y empezar de nuevo. Son un grupo heterogéneo, cada uno con una idea distinta de cómo debería abordarse tal ‘reconstrucción cuántica. Pero comparten la convicción de que los físicos han pasado el último siglo observando la teoría cuántica desde un ángulo incorrecto, haciendo que su sombra sea extraña, irritante y difícil de comprender. Si se observase desde la perspectiva adecuada, piensan, todo quedaría claro, y los viejos misterios  tales como la naturaleza cuántica de la gravedad podrían resolverse por sí mismos de forma natural y obvia – tal vez como un aspecto de una teoría de probabilidad generalizada.
“El mejor trabajo sobre las bases cuánticas”, dice Christopher Fuchs del Instituto Perimeter para Física Teórica en Waterloo, Canadá, “será aquel que pueda escribir una historia — literalmente una historia, todo en simples palabras — tan convincente y magnífica en su visualización, que las matemáticas de la mecánica cuántica en todos sus detalles técnicos exactos dejen de tener tanta importante inmediatamente”.
Una propuesta muy razonable
Uno de los primeros intentos de escribir tal historia llegó en 2001, cuando Lucien Hardy, entonces en la Universidad de Oxford, Reino Unido, propuso que la teoría cuántica podría derivarse a partir de un pequeño conjunto de axiomas “muy razonables”, sobre cómo pueden medirse las probabilidades en cualquier sistema2, tal como una moneda lanzada al aire.
Hardy empezó haciendo notar que un sistema clásico puede especificarse completamente midiendo un cierto número de ‘estados puros’, que denota como N. Para el lanzamiento de una moneda, en la que el resultado puede ser cara o cruz, N es igual a dos. Para el lanzamiento de un dado, donde el cubo debe terminar en una de sus seis caras, N es igual a seis.
La probabilidad, sin embargo, funciona de manera distinta en el mundo cuántico. Medir el espín de un electrón, por ejemplo, puede distinguir entre dos estados puros, que puede describirse de forma grosera como una rotación horaria o antihoraria alrededor de un eje vertical. Pero, al contrario que en el mundo clásico, el espín del electrón es una mezcla de dos estados cuánticos antes de que se realice una medida, y tal mezcla varía a lo largo de un continuo. Hardy tiene esto en cuenta mediante un ‘axioma de continuidad, el cual requiere que los estados puros se transformen unos en otros sin saltos. Este axioma implica que se requieren al N2 medidas para especificar de forma completa un sistema — una relación que corresponden con la descripción cuántica estándar.
Pero, en principio, dice Hardy, el axioma de continuidad también permite teorías de orden superior en las que se requiere para la completa definición del sistema N3, N4 o más medidas3, dando como resultado sutiles desviaciones del comportamiento cuántico estándar que podría ser observable en el laboratorio. Sin embargo, no trató de analizar tales posibilidades en detalle, su objetivo, más ambicioso, era demostrar cómo podría crearse un nuevo marco para la física cuántica como una teoría general de probabilidad. Posiblemente, señala, tal teoría podría haberse derivado por los matemáticos del siglo XIX sin conocimiento de las motivaciones empíricas que llevaron a Max Planck y Albert Einstein a iniciar la mecánica cuántica a principios del siglo XX.
Fuchs, por ejemplo, encontró muy estimulante el artículo de Hardy. “Me golpeó la cabeza como un martillo y ha cambiado mi forma de pensar desde entonces”, dice, convenciéndolo de perseguir la aproximación de la probabilidad con todas sus fuerzas.
Fuchs estaba especialmente interesado en reinterpretar el problemático concepto de entrelazamiento: una situación en la que los estados cuánticos de dos o más partículas son interdependientes, lo que significa que una medida sobre uno de ellos permitirá, instantáneamente, determinar el esto de otra. Por ejemplo, dos fotones emitidos desde un núcleo atómico en sentidos opuestos podrían entrelazarse, de tal forma que uno se polariza horizontalmente y el otro verticalmente. Antes de realizar ninguna medida, las polarizaciones de los fotones está correlacionadas, pero no son fijas. Una vez que se realiza la medida sobre uno de los fotones, sin embargo, el otro también queda instantáneamente determinado – incluso si se encuentra a años luz de distancia.
Tal como Einstein y sus colaboradores señalaron en 1935, tal acción instantánea sobre distancias arbitrariamente grandes parece violar la teoría de la relatividad, que sostiene que nada puede viajar más rápidamente que la luz. Defendían que esta paradoja era la demostración de que la teoría cuántica era incompleta.
Pero los otros pioneros salieron al paso rápidamente. De acuerdo con Erwin Schrödinger, que acuñó el término ‘entrelazamiento’, esta característica es el rasgo esencial de la mecánica cuántica, “la que fuerza su salida definitiva de las líneas clásicas de pensamiento”. Posteriores análisis han resuelto la paradoja, demostrando que las medidas de un sistema entrelazado en realidad no pueden usarse para transmitir información a mayor velocidad que la luz. Y los experimentos con fotones de la década de 1980 demostraron que el entrelazamiento realmente no funciona de esta forma.
Aun así, esta parece ser una extraña forma de comportamiento para el universo. Y esto es lo que llevó a Fuchs a requerir un nuevo enfoque a las bases de la cuántica4. Rechazó la idea, mantenida por mucho en este campo, de que las funciones de onda, entrelazamiento, y todo lo demás, representan algo real en la naturaleza (ver Nature 485, 157–158; 2012). En lugar de esto, ampliando una línea argumental que data de la interpretación de Conpenhague, insistía en que estas construcciones matemáticas son solo una forma de cuantificar información personal de los “observadores”, expectativas, grados de creencia”5.
Se vio animado a seguir con esta visión por el trabajo de su colega del Instituto Perimeter, Robert Spekkens, quien llevó a cabo un experimento mental donde se preguntaba qué aspecto tendría la física si la naturaleza limitase, de algún modo, lo que cualquier observador podría saber sobre un sistema, imponiendo un “principio de equilibrio del conocimiento”: ninguna información del observador sobre el sistema, medida en bits, puede superar la cantidad de información de la que el observador carece. Los cálculos de Spekkens demuestran que este principio, aunque parezca arbitrario, es suficiente para reproducir muchas de las características de la teoría cuántica, incluyendo el entrelazamiento6. También se ha demostrado que otros tipos de restricciones sobre lo que puede saberse sobre un conjunto de estados producen comportamientos similares a los cuánticos7, 8.
Hueco de conocimiento
La lección, dice Fuchs, no es que el modelo de Spekkens sea realista – nunca intentó serlo – sino que el entrelazamiento y todo el resto de extraños fenómenos de la teoría cuántica no son una forma completamente nueva de física. Simplemente podrían surgir fácilmente de una teoría del conocimiento y sus límites.
Para lograr una mejor idea de cómo podría suceder esto, Fuchs ha rescrito la teoría cuántica estándar en una forma que recuerda mucho a una rama de la teoría de probabilidad clásica conocida como inferencia bayesiana, que tiene sus raíces en el siglo XVIII. En la visión bayesiana, las probabilidades son con cantidades intrínsecas ‘ligadas’ a los objetos. En lugar de esto, cuantifican el grado de creencia personal de un observador de lo que podría suceder al objeto. La visión bayesiana cuántica de Fuchs, o QBism (pronunciado ‘cubism’ – cubismo en inglés)9, 10, es un marco de trabajo que permite recuperar los fenómenos cuánticos conocidos a partir de unos nuevos axiomas que no requieren de construcciones matemáticas tales como la función de onda. El QBism ya ha realizado algunas propuestas experimentales esperanzadoras, señala. Tales experimentos podría revelar, por ejemplo, nuevas y profundas estructuras dentro de la mecánica cuántica que permitirían que se re-expresaran las leyes de probabilidad como variaciones menores de la teoría de probabilidad estándar11.
“Este nuevo enfoque, de ser válida, podría cambiar nuestra comprensión de cómo construir computadores cuánticos y otros dispositivos de información cuántica”, comenta, señalando que todas esas aplicaciones son muy dependientes del comportamiento de la probabilidad cuántica.
El conocimiento — que normalmente se mide en términos de cuántos bits de información tiene un observador sobre un sistema — es el centro de muchos otros enfoques de reconstrucción. Tal como expresan los físicos Časlav Brukner y Anton Zeilinger de la Universidad de Viena, “la física cuántica es una teoría elemental de la información”12. Mientras tanto, el físico Marcin Pawłowski de la Universidad de Gdańsk, en Polonia, y sus colegas, exploran un principio al que llama ‘causalidad de información’13. Este postulado dice que si un experimentador (llamémoslo Alice) envía m bits de información sobre sus datos a otro observador (Bob), entonces Bob no puede lograr más información que m bits clásicos de información sobre esos datos – sin importar cuánto sepa sobre el experimento de Alice.
Pawłowski y sus colegas han descubierto que tanto la física clásica como la mecánica cuántica estándar respetan este postulado, pero no teorías alternativas que permiten formas más fuertes de correlaciones similares al entrelazamiento entre partículas portadoras de información. Por tal razón, el grupo escribe en su artículo: “la causalidad de la información podría ser una de las propiedades básicas de la naturaleza” – en otras palabras, un axioma para alguna futura teoría cuántica reconstruida.
Lo que está complicando algunos de estos intentos de reconstrucción cuántica es que sugieren que el conjunto de leyes que gobiernan el universo es sólo una entre muchas posibilidades matemáticas. “Resulta que muchos principios llevan a toda una clase de teorías probabilísticas, y no específicamente a la teoría cuántica”, apunta, “en realidad son genéricas a muchas teorías probabilísticas. Esto nos permite centrarnos en la cuestión de qué hace única a la teoría cuántica”.
¿Listo para el éxito?
Hardy dice que el ritmo del trabajo de reconstrucción cuántica ha tenido un auge durante los últimos años, cuando los investigadores empezaron a sentir que tenían buenas herramientas para abordar el problema. “Ahora estamos listos para algunos avances realmente significativos”, comenta.
Pero, ¿puede alguien juzgar el éxito de estos esfuerzos? Hardy apunta que algunos investigadores están buscando señales experimentales de correlaciones cuánticas de nivel superior permitidas en su teoría. “Sin embargo, yo diría que el criterio real para el éxito es más teórico”, dice. “¿Tenemos una mejor comprensión de la teoría cuántica, y los axiomas nos dan nuevas ideas sobre cómo ir más allá de la física actual?”. Tiene esperanzas de que algunos de estos principios puedan, finalmente, ayudar en el desarrollo de una teoría de la gravedad cuántica.
Hay gran espacio para el escepticismo. “La reconstrucción de la teoría cuántica a partir de un conjunto de principios básicos parece una idea que tiene todas las apuestas en su contra”, dice Daniel Greenberger, físico que trabajo en las bases de la cuántica en el City College de Nueva York5. Aun así, Schlosshauer defiende que “incluso si ningún programa de reconstrucción puede finalmente encontrar un conjunto de principios universalmente aceptados que funcionen, no es trabajo en vano, debido a que habremos aprendido mucho por el camino”.
Es cautelosamente optimista. “Una vez que tengamos un conjunto de principios simples y físicamente intuitivos, la mecánica cuántica será mucho menos misteriosa”, afirma. “Creo que muchas de las cuestiones abiertas quedarían cerradas. Probablemente no soy el único que estaría encantado de ser testigo del descubrimiento de estos principios”.

Nature 501, 154–156 (12 September 2013) doi:10.1038/501154a
Artículos de referencia:
1.- Mermin, N. D. Phys. Today 42, 9 (1989).
2.- Hardy, L. Preprint at http://arxiv.org/abs/quant-ph/0101012 (2001).
3.- Sorkin, R. D. Preprint at http://arxiv.org/abs/gr-qc/9401003 (1994).
4.- Fuchs, C. A. Preprint at http://arxiv.org/abs/quant-ph/0106166 (2001).
5.- Schlosshauer, M. (ed.) Elegance and Enigma: The Quantum Interviews (Springer, 2011).
6.- Spekkens, R. W. Preprint at http://arxiv.org/abs/quant-ph/0401052 (2004).
7.- Kirkpatrick, K. A. Found. Phys. Lett. 16, 199–224 (2003).
8.- Smolin, J. A. Quantum Inform. Comput. 5, 161–169 (2005).
9.- Fuchs, C. A. Preprint at http://arxiv.org/abs/1003.5209 (2010).
10.- Fuchs, C. A. Preprint at http://arxiv.org/abs/1207.2141 (2012).
11.- Renes, J. M., Blume-Kohout, R., Scott, A. J. & Caves, C. M. J. Math. Phys. 45, 2171–2180 (2004).
12.- Brukner, Č. & Zeilinger, A. Preprint at http://arxiv.org/abs/quant-ph/0212084 (2002).
13.- Pawłowski, M. et al. Nature 461, 1101–1104 (2009).
Autor: Philip Ball
Fecha Original: 11 de septiembre de 2013
Enlace Original

Desarrollan un interruptor atómico basado en el control de la posición de un solo átomo

Fuente: Ciencia Kanija
Artículo publicado el 16 de septiembre de 2013 en UAM
El trabajo se publica en Nature Nanotecnology.
El nuevo interruptor atómico podría ser utilizado como el elemento de memoria más pequeño hasta ahora fabricado.
Avances recientes en Nanotecnología han permitido miniaturizar a escala atómica los interruptores electrónicos. Ahora, un equipo internacional de científicos de la Universidad de Constanza en Alemania —en el que se encuentra el físico Juan Carlos Cuevas de la Universidad Autónoma de Madrid (UAM)— ha demostrado que un nanohilo de aluminio puede usarse como un interruptor que se enciende y se apaga controlando eléctricamente la posición de un único átomo.
Interruptor de un átomo
Interruptor de un átomo Crédito: UAM

De acuerdo con el trabajo publicado recientemente en la revista Nature Nanotechnology, estos interruptores atómicos podrían convertirse en los elementos de memoria no volátil más pequeños que hasta ahora se hayan desarrollado para el almacenamiento de información.
Los experimentos que llevaron a estas conclusiones debieron realizarse a muy bajas temperaturas (por debajo de 1 K), ya que es en estas condiciones que el aluminio se convierte en un material superconductor.
Alcanzar la superconductividad del aluminio permitió a los científicos utilizar las características corriente-voltaje para revelar las propiedades cuánticas de transporte en ambas posiciones del interruptor (apagado y encendido).
“En los experimentos se utilizó un puente metálico basado en una película delgada o nanohilo de aluminio —explica Juan Carlos Cuevas—. Este puente se rompe primero de forma controlada por medios mecánicos para formar un contacto con apenas unos pocos átomos en su parte más estrecha. Después se hace pasar una corriente eléctrica mediante un complejo protocolo, hasta que se consigue que el nanohilo exhiba dos valores de la resistencia eléctrica bien definidos. Cuando esto ocurre, el nanocircuito se comporta como un interruptor electrónico”, completa el físico de la UAM.
En el plano teórico los investigadores llevaron a cabo simulaciones por ordenador para averiguar las configuraciones atómicas que se generan en el interruptor. Estas simulaciones, combinadas con un teoría cuántica de la conducción eléctrica, permitieron a los científicos demostrar que el proceso de conmutación del interruptor se produce por la reordenación de un solo átomo inducida por el paso de la corriente.
Arquitectura sencilla
En su trabajo los científicos señalan que una de las ventajas esenciales de este nuevo tipo de interruptores es su arquitectura, la cual se basa en una sencilla configuración de dos electrodos.
“La fabricación de un dispositivo con tres electrodos, que es la estrategia que se había seguido hasta ahora, es considerablemente más compleja, especialmente a escala atómica. Esto —explica Cuevas— es debido a la diferente función de los electrodos: dos de ellos sirven como cables de corriente, mientras que por el tercero no circula la corriente y es responsable del encendido o apagado del interruptor”.
En el nuevo interruptor atómico la conmutación se lleva a cabo con la ayuda de los mismos dos cables que se emplean para la lectura de su estado. La simplicidad de este diseño podría facilitar su uso en dispositivos reales en un futuro cercano.

Referencia bibliográfica: C. Schirm, M. Matt, F. Pauly, J.C. Cuevas, P. Nielaba and E. Scheer, A current-driven single-atom memory, Nature Nanotechnology 8, 645 (2013).
Fecha Original: 16 de septiembre de 2013
Enlace Original

La estabilidad del vacío del modelo estándar

Fuente: Francis (th)E mule
Dibujo20130910 SM phase diagram in terms of Higgs and top pole masses
La masa del bosón de Higgs y del quark top (cima) apuntan a que el vacío del modelo estándar es metaestable, aunque no estamos del todo seguros porque está en el borde entre estable y metaestable. Además, los errores son muy grandes, tanto los experimentales, sobre todo en la masa del quark top, como los teóricos, hay que extrapolar los cálculos hasta la escala de Planck y las correcciones de mayor orden podrían ser importantes. Quizás sea por puro azar, o quizás haya algo profundo oculto, pero las masas del Higgs y del quark top parecen ajustadas en un punto crítico doble en relación a la estabilidad del vacío. Nos lo contó Pier Paolo Giardino (Univ. Pisa / INFN Pisa), “Is that a Standard Higgs? And now?,” CP³ Origins, slides pdf / video flash. Su artículo técnico es Dario Buttazzo, Giuseppe Degrassi, Pier Paolo Giardino, Gian F. Giudice, Filippo Sala, Alberto Salvio, Alessandro Strumia, “Investigating the near-criticality of the Higgs boson,” arXiv:1307.3536 [hep-ph].

El vacío del modelo estándar viene determinado por el vacío del campo de Higgs. El potencial del campo de Higgs, el famoso sombrero mexicano, es V(H) = −½ m2(μ) |H|2 + λ(μ) |H|4), donde la masa m(μ) y la constante de acoplo λ(μ) dependen de la energía según las ecuaciones del grupo de renormalización. A alta energía el potencial se puede aproximar como V(H) ≈ λ(μ) |H|4, siendo el signo de λ(μ) el que determina la estabilidad del vacío del campo de Higgs y del modelo estándar. La función λ(μ) es monótona decreciente y parte de un valor inicial positivo λ(0)>0. El vacío es estable si λ(MPl )>0, donde es MPl es la energía de Planck, es inestable si λ(MEW)<0, donde MEW es la energía de la escala electrodébil, y es metaestable si λ(μ)=0 para algún valor de MEW < μ < MPl. Ya sabemos que el vacío no puede ser inestable, porque existimos. Los valores actuales de las masas del bosón de Higgs (125,66 ± 0,34 GeV) y del quark top (173,36 ± 0,65 GeV) indican que el vacío del modelo estándar es metaestable y λ(μ)=0 para 1010 GeV < μ < 1012 GeV. La mayor incertidumbre experimental se encuentra en el valor de la masa del quark top.
Dibujo20130910 SM phase diagram in terms of quartic Higgs coupling lambda and top Yukawa coupling
Esta figura muestra la estabilidad del modelo estándar en el plano definido por λ(MPl) y el acoplo de Yukawa para el quark top yt(MPl); la función yt(MPl) también es decreciente y parte de un valor yt(0) ≈ 1. La parte derecha es un zoom donde se puede observar una raya gris casi horizontal en la zona de metaestabilidad (en amarillo). Realmente parece que las masas del Higgs y del quark top están ajustadas para que el modelo estándar sea metaestable por alguna razón física.
Por supuesto, el cálculo teórico asume que el modelo estándar es válido hasta la escala de Planck (es decir, entre ~1 y ~1015 TeV), pero hay indicios indirectos de que no es así (el mecanismo del balancín (see-saw) en la física de los neutrinos, la existencia de la materia oscura, o la asimetría materia-antimateria). Por ello, el cálculo a la energía de Planck de los parámetros del modelo estándar mediante el grupo de renormalización hay que tomarlo con sumo cuidado. Recuerda que todos los parámetros del modelo estándar (constantes de acoplo y masas de partículas) cambian con la energía (μ).
Dibujo20130912 present status higher-order computations - sm parameters at nnlo precision
El cálculo teórico requiere determinar la evolución con la energía de seis parámetros (mostrados en esta tabla) hasta energías en la escala de Planck. En la actualidad el cálculo ha sido realizado sólo hasta el orden NNLO (hasta 3 loops) y se cree que las correcciones NNNLO serán pequeñas. Estos cálculos se realizan con la ayuda de ordenadores y no es fácil estimar cuándo estará listo el resultado hasta NNNLO.
Dibujo20130912 stability - higgs potential - our era - inflation era
El modelo estándar mínimo se basa en un potencial V(H) cuártico para el Higgs, pero nada prohíbe que el campo del Higgs sea más complicado a alta energía. La estabilidad del modelo estándar implicaría la existencia de otros mínimos locales a alta energía, lo que tendría la ventaja de que podría explicar la física de la inflación (es decir, el campo de Higgs sería el campo inflatón). Nuestro vacío sería el “verdadero vacío” (mínimo global) y el vacío a alta energía sería un “falso vacío” (mínimo local).
Dibujo20130912 insstability - metastability - higgs potential - our era - inflation era
La metaestabilidad del modelo estándar a la que apuntan los datos actuales implica que vivimos en un “falso vacío” (mínimo local) y que existe un mínimo global del campo de Higgs a alta energía. Nuestro falso vacío, por efecto túnel, puede transitar al vacío verdadero. Este proceso debe ser muy poco probable, con una vida media mayor que la edad del universo (si no fuera así ya no existiríamos). ¿Cuándo puede ocurrir este proceso? No lo sabemos, podría ocurrir mañana mismo o dentro de unos cientos de miles de millones de años. Las estimaciones más “realistas” apuntan a que podría ocurrir en unas decenas de miles de millones de años. Pero todo esto es especulación científica pues no conocemos los detalles del potencial del campo de Higgs.
¿Qué pasará cuando el vacío metaestable pase por efecto túnel al verdadero vacío? Sidney Coleman (y físicos rusos) estudiaron este fenómeno a principios de los 1970. Resumiendo mucho, en el vacío se formarían (nucleación) burbujas de energía negativa cuyo radio crecería a la velocidad de la luz; cuando todas las burbujas colisionaran unas con otras se destruiría todo el universo conocido, aunque el universo como tal podría sobrevivir en su nuevo estado de vacío. Los detalles dependen de la cantidad de energía oscura que haya cuando se produzca el efecto túnel al nuevo vacío y de las características del vacío verdadero. Por supuesto, los cálculos de Coleman no tienen en cuenta el efecto a energías de la escala de Planck de la gravedad cuántica. No se conoce la teoría cuántica correcta de la gravedad, por lo que no podemos saber qué pasará, pero muchos físicos creen que el proceso se parará de alguna forma. Lo que pueda pasar más allá de este momento es pura especulación.