lunes, 19 de diciembre de 2011

¿Tendremos finalmente Higgs?

Fuente: Neofronteras

Sobre la resaca de después de la conferencia en la que se presentaron datos sobre un posible Higgs de 125 GeV.
Foto
Esta semana se ha producido un gran revuelo en el mundo de la Física de Altas Energías. La gente del CERN convocó una rueda de prensa o “seminario” en la que informó sobre los últimos datos que tienen acerca del Higgs, la famosa partícula que supuestamente dota de masa a las demás introducida en los sesenta para romper la simetría electrodébil.
Este post está escrito después de la marea informativa en los medios de comunicación y quizás debería ir en la sección de opinión, pero también se beneficia de la sangre fría de después del revuelo.
Triste la época nuestra en la que los supuestos hallazgos científicos se escupen en conferencias de prensa. Es verdad que hay mucha expectación respecto a este tema y que la inversión realizada en el LHC y la ausencia de resultados desde su puesta en marcha quizás obligan a algo de visibilidad que no sea la tontería de los neutrinos superlumínicos, resultado que por cierto se basa en el mismo GPS que usaba el drone norteamericano que los iraníes han hecho aterrizar sobre su suelo manipulando la propia señal GPS.
Hubo un día en la que un par de químicos también anunciaron la fusión fría en una conferencia de prensa sin enviar ningún artículo a ninguna revista científica, esperemos que esta vez no se haga el mismo ridículo.
Comentábamos hace poco en estas misma páginas que sólo quedaba una ventana de entre 114 y 141 GeV/c2 en donde el Higgs se podría ocultar. Pues la buena noticia de la conferencia de prensa del otro día es que esa ventana se ha estrechado aún más y ahora si hay Higgs éste debe de estar entre 115 y 127 GeV/c2. Los datos presentados en dicha conferencia de prensa provienen tanto del experimento ATLAS como del CMS.
También se informó sobre una posible existencia del Higgs, aún sin poderse confirmar. Se han encontrado resultados que indican la existencia de dicha partícula y que ésta tendría una masa de unos 125 GeV/c2, aunque el resultado tiene una significación estadística relativamente baja. Según ATLAS habría un Higgs de entre 125 y 126 GeV/c2 con una significación estadística de 3,6 &sigma y según CMS un Higgs de 124 GeV/c2 con una significación estadística de 2,3 σ.
Esta confianza estadística sería muy buena en otros campos, pero en esta rama de la Física es bastante escasa, de tal modo que no permite anunciar el descubrimiento del Higgs.
Los físicos implicados dicen tener razones para estar animados y creen (suponen) que efectivamente existe un Higgs de unos 125 GeV/c2, pero no lo pueden asegurar. Sin embargo, hay gente cauta en el mismo CERN. Según Patrick Janot, del experimento CMS: “Podemos ver algo a 119, 126 y 124 GeV/c2, pero todo es compatible con cualquier cosa. La gente está siendo demasiado entusiasta. No hay fuertes pistas, el LEP tenía mayor significación sobre el Higgs. Esperemos a tener más datos”.
Se necesitará otro año de medidas para poder confirmar o negar la existencia del Higgs, algo que se hace esperar demasiado debido a la supuesta baja masa de dicha partícula (si hubiesen hecho el LEP un poco más potente ya sabríamos hace más de una década de su existencia) y las colisiones tan sucias que se producen en el LHC al usar protones en lugar de electrones y positrones. Se necesitan, por tanto muchas, pero que muchas, colisiones para conseguir exclamar un eureka.
Las fuerzas del mal o de la “partícula diabólica” podrían confabularse para que estas supuestas señales fueran fluctuaciones estadísticas y no se correspondieran con señales reales. No sería la primera vez que esto ocurre. Ya hace bastantes años los del LEP presentaron pruebas similares sobre un Higgs de 115 GeV/c2 que finalmente no resultó en descubrimiento. Y en 2007 los del Fermilab presentaban indicios de un Higgs de 160 GeV/c2 que también resultó en fracaso. Incluso los del ATLAS y CMS informaron de un posible Higgs de 140 GeV/c2 que tampoco resultó existir al final.
Es verdad que en este nuevo caso la significación estadística es bastante decente, pero hasta que no pase otro año no lo sabremos seguro. ¿Serán las próximas Navidades cuando ya sepamos por fin si el Higgs existe o no? Pues tampoco está muy claro.
Si la supuesta partícula que parece haberse encontrado finalmente ser confirma no está claro que sea necesariamente el Higgs. El problema fundamental del Higgs es que hay muchos Higgs o, más bien muchas ideas de lo que podría ser el Higgs o los Higgs.
Incluso si se confirma un Higgs de 125 GeV/c2 quedarán preguntas sin contestar, empezando por qué las partículas tienen la masa que tienen, por qué la gravedad es tan débil y qué es lo que hay más allá del Modelo Estándar.
Aunque todo sería mucho más interesante si finalmente el Higgs no aparece.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3690
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

lunes, 12 de diciembre de 2011

Los cuatro consejos de Steven Weinberg, Premio Nobel de Física 1979, a los jóvenes investigadores

Fuente: Francis (th)E mule

Cuatro consejos para sobrevivir en las aguas del oceáno de la investigación: (1) Nada o ahógate; (2) mientras no te ahogues, dirígete a la zona de aguas peligrosas; (3) disfruta mientras nadas; y (4) estudia el estilo de otros nadadores. Nadie lo sabe todo y tú no tienes que ser el primero. Nos recuerda Steven Weinberg que cuando acabó su carrera universitaria la investigación en física le parecía un océano inmenso que tenía que explorar antes de ponerse a desarrollar su propia tesis doctoral. Le parecía que no sabía casi nada de física, pero gracias a los grandes físicos que le enseñaron en sus cursos de doctorado descubrió que para sobrevivir en el océano tenía que nadar o ahogarse. Weinberg cuenta con sorpresa que lo hizo y le funcionó. Obtuvo en poco tiempo un doctorado y aprendió que “nadie lo sabe todo y él no tenía que ser el primero.” Permíteme una  traducción libre de los cuatro consejos de Steven Weinberg en “Scientist: Four golden lessons,” Concepts, Nature 426: 389, 27 Nov. 2003.
Nos cuenta Weinberg que cuando estaba dando clases a finales de los 1960 en el MIT (Massachusetts Institute of Technology) un estudiante le dijo que quería cambiar de tema de investigación desde la teoría de la relatividad general a la física de partículas, donde trabajaba Weinberg, porque los principios de la primera eran bien conocidos y los de la segunda un enorme embrollo. Weinberg confiesa que pensó que él no lo hubiera hecho, pero ahora cree lo contrario. Hay que meterse en líos porque allí es donde está la acción.
El tercer consejo de Weinberg es que hay que perder el tiempo, no basta con seguir las indicaciones del director de tesis, incluso si él nos guía hacia la solución de problemas importantes. Nadie sabe en qué momento de la historia serán resueltos los problemas realmente importantes. Nunca podrás saber cuáles son los problemas correctos que te llevarán a la gloria, por lo que la mayoría de los problemas en los que te enfrasques serán una pérdida de tiempo. No importa, si quieres ser creativo, tienes que asumir que tendrás que pasar la mayor parte de tu tiempo trabajando en problemas que no son creativos.
El último consejo de Weinberg es aprender algo de la historia de la ciencia, o al menos de la historia de tu rama de la ciencia. No hay que olvidar que pequeños descubrimientos en apariencia, en el momento oportuno, producen toda una revolución en una rama de la ciencia, con repercusiones en la tecnología y en toda la sociedad. No hay que olvidar que los protagonistas de estos descubrimientos muchas veces no son conscientes de lo revolucionario de su aportación y Weinberg es un buen ejemplo. Quién le iba a decir a Weinberg que su artículo de solo 3 páginas “A Model of Leptons” iba a ser la teoría correcta que describe la unificación electrodébil, el núcleo del modelo estándar, la teoría que le dio el Premio Nobel de Física en 1979.
En una entrevista en 2003, Weinberg confesó que en 1967 creía que la teoría correcta de la interacción fuerte era una teoría gauge con simetría rota, pero que aplicó dichas ideas a una partícula llamada mesón rho y dedujo que tenía que tener una masa cero, algo obviamente falso (tiene una masa de unos 750 MeV). Por fortuna, un día tuvo la feliz idea de aplicar su teoría a la interacción débil; aún así, el modelo SU(2)xU(1) que presentó en su artículo de 1967 era solo un ejemplo sencillo de una posible teoría de este tipo para la interacción débil. Weinberg pensaba entonces que la teoría correcta tenía que ser más complicada. Más aún, hasta 1971 varios experimentos apuntaban a que su teoría era errónea. Weinberg también confesó que pensaba en 1967 que su teoría era renormalizable, como demostró ‘t Hooft en 1971, pero que trató de demostrarlo por el camino erróneo (la formulación canónica de la teoría); solo aprendió en detalle las técnicas de integrales de camino que utilizó ‘t Hooft tras estudiar el trabajo de este último. De hecho, el artículo de Weinberg fue muy poco citado entre 1967 y 1971, pero desde entonces se ha convertido en uno de los artículos más citados de toda la historia y de la revista Physical Review Letters donde se publicó.
Por cierto, a los jóvenes investigadores les recomiendo los siguientes consejos sobre cómo impartir una conferencia utilizando PowerPoint: Joseph A. Gallian (University of Minnesota Duluth), “Advice on Giving a Good PowerPoint Presentation,” Math Horizons, March 2006.

lunes, 28 de noviembre de 2011

Las dos óperas neutrínicas de OPERA, siguiendo a Matt Strassler

Fuente: Francis (Th)e mule

Me ha gustado como discute Matt Strassler, autor del blog Of Particular Significance, la diferencia que hay entre lo publicado por OPERA en septiembre (sea OPERA-1) y lo publicado en noviembre (sea OPERA-2). He de confesar que me encanta leer a Strassler, tiene un estilo a la hora de escribir que realmente me gusta, sobre todo cuando explica cosas difíciles sin opinar (sus opiniones me gustan menos y están sesgadas de forma sutil hacia la teoría de cuerdas). Aún así no puedo leer todo lo que escriben todos los blogueros que me gustan (ni todos los artículos técnicos que escriben; lo sé, he prometido leerlo, lo leeré, dame tiempo…). Por ello no había leído su entrada “OPERA: Comparing the Two Versions,” OPS 19 Nov. 2011, hasta que uno de mis lectores habituales, Planck, me la recomendó. Y yo he de recomendártela a tí también. Merece la pena. Permíteme un resumen de su entrada para ir abriendo boca (pero recuerda que lo “bueno” de Strassler es su estilo a la hora de escribir que en mi resumen se pierde completamente).
Los neutrinos producidos en el CERN (Ginebra) recorren unos 730 km de roca hasta llegar al laboratorio de Gran Sasso (Italia), donde son detectados si colisionan con algún átomo del detector. Estas colisiones son muy raras. Strassler estima que solo 1 de cada 1.000.000.000.000.000 neutrinos (uno en mil billones) de los producidos en el CERN son detectados por OPERA (este número es una aproximación de Strassler). En OPERA-2, entre el 22 de octubre y el 6 de noviembre, se han enviado desde el CERN a Gran Sasso unos 40.000.000.000.000.000 (40 mil billones de) neutrinos. Según Strassler son unos 100.000 pulsos cortos de unos 300.000.000.000 (300 mil millones de) neutrinos cada uno. Durante los 16 días que estado en funcionamiento del experimento OPERA-2 se han detectado 35 neutrinos; solo 20 cumplen con los estrictos requisitos de precisión que requiere la medida de su velocidad, por lo que 15 han sido descartados. Strassler destaca que en la mayoría de los pulsos de neutrinos enviados desde el CERN a OPERA no han sido detectado ningún neutrino.
El experimento OPERA-1 medió la velocidad de unos 15.000 neutrinos. ¿Por qué OPERA-1 necesitó tantos neutrinos? Porque su manera de medir la velocidad de los neutrinos es diferente y más complicada que la de OPERA-2. En el experimento OPERA-1 se enviaban pulsos largos de neutrinos con una duración de unos 10.000 nanosegundos pero ello no garantiza que algún neutrino sea detectado en cada pulso. Solo se han detectado 15.000 neutrinos en 15.000 pulsos largos. En la mayoría de dichos pulsos (tras recorrer en 2,4 milisegundos los 730 km de distancia) no se ha detectado nada, absolutamente nada. Los 15.000 neutrinos han sido detectados uno a uno durante los 3 años que ha durado el experimento OPERA-1. Los pocos neutrinos que son detectados son identificados como pertenecientes a un pulso largo, pero su velocidad individual es imposible de medir con una precisión de 60 ns porque la incertidumbre en su lugar de “nacimiento” en el CERN es de 10500 ns.
¿Cómo ha medido OPERA-1 la velocidad de los neutrinos con una precisión de 60 ns? El truco es considerar muchísimos neutrinos (más de 15.000) y estudiar la distribución estadística de sus tiempos de llegada, como ilustra la figura de arriba de M. Strassler (una versión simplifica de la figura original del artículo que ya he publicado en este blog antes). Un ajuste estadístico de esta distribución de neutrinos con la distribución de los protones medida en el CERN (los neutrinos en el CERN no pueden ser detectados) ha permitido determinar que los neutrinos llegan 60 ns antes de tiempo. El ajuste estadístico se basa en ciertos picos que aparecen dentro de la distribución de protones que se parecen a picos que también aparecen en la distribución de neutrinos. Esta medida ha generado cierta polémica pues se basa en la hipótesis de que estos picos no han cambiado durante el trayecto de los neutrinos entre el CERN y Gran Sasso.
En el experimento OPERA-2 se han utilizado pulsos cortos de solo 3 nanosegundos, mucho más cortos que los 60 ns de adelanto medidos, que se han separado unos 524 nanosegundos, mucho más que los 60 ns de adelanto. Con pulsos tan cortos y tan bien separados, cuando se detecta un neutrino se sabe perfectamente qué pulso corto lo generó en el CERN. Como ilustra la figura de Matt Strassler, OPERA-2 ha podido medir la velocidad individual de cada neutrino detectado. Estos neutrinos han llegado entre 40 ns y 90 ns antes de lo esperado, con una media de unos 62 ns. Este resultado está fuera de toda duda. Cada uno de los neutrinos ha llegado antes de tiempo con toda seguridad. Con el experimento OPERA-1 no se podía estar tan seguro, pero ahora la seguridad es absoluta.
El análisis estadístico de los 20 neutrinos detectados en Gran Sasso por OPERA-2 es mucho más fiable que el de OPERA-1, como muestra la figura de arriba de Matt Strassler. ¿Por qué no llegan todos los neutrinos con el mismo retraso? La razón es debida a la incertidumbre experimental en el momento de llegada. ¿Qué conclusiones podemos extraer de la comparación entre OPERA-1 y OPERA-2? Strassler nos las aclara de forma inmejorable.
PRIMERO. Los resultados de OPERA-2 no confirman que OPERA-1 haya medido correctamente la velocidad de los neutrinos. Todas las fuentes de error a la hora de medir las distancias y los tiempos en OPERA-1 siguen estando en las medidas de OPERA-2. Lo que ha confirmado OPERA-2 es que las posibles fuentes de error afectan a cada neutrino por separado y no están relacionadas con la forma de los pulsos de neutrinos que utilizó OPERA-1. La fuente más obvia de error en OPERA-1 ha sido descartada, pero podría haber muchas otras fuentes de error.
SEGUNDO. Que haya un cierto error en el momento de llegada de los neutrinos (de unos 25 ns por arriba y por abajo) no significa que los neutrinos se muevan con velocidades diferentes. El resultado de OPERA-2 es consistente con que todos los neutrinos se propagan a la misma velocidad. Sin embargo, OPERA-2 no demuestra que todos los neutrinos se hayan propagado a la misma velocidad, solo podemos afirmar que OPERA-2 no demuestra que los neutrinos no se propagan a la misma velocidad (os dejo la frase original con sus negritas “OPERA-2 doesn’t prove the neutrinos are all traveling at the same speed, only that OPERA-2′s result does not prove that the neutrinos are not traveling at the same speed”).
TERCERO. Por qué ha costado solo 2 semanas realizar el experimento OPERA-2 mucho más preciso que OPERA-1 que necesitó 3 años. Por qué no se diseñó desde el principio OPERA-2. La razón es sencilla, el objetivo científico de OPERA no era medir la velocidad de los neutrinos muónicos, sino estudiar la oscilación de los neutrinos muónicos en neutrinos tau. La medida de la velocidad era un experimento colateral, de menor importancia (pues de pensaba que sería difícil obtener un resultado tan preciso como el que se ha obtenido). Un experimento de cara a la galería que se convertido en el experimento estrella de la colaboración OPERA. El patito feo se ha convertido en un espléndido cisne blanco.
CUARTO. Por qué no se hizo el experimento OPERA-2 antes de realizar el anuncio de los resultados de OPERA-1 si solo se han necesitado dos semanas. La verdad es que la razón por la que se podido hacer este experimento en solo dos semanas ha sido por el gran revuelo mediático provocado por OPERA-1. Lo normal hubiera sido que este segundo experimento hubiera requerido una petición formal de OPERA al CERN que de ser tramitada por los cauces usuales hubiera requerido varios meses. La petición ha sido tramitada por la vía de urgencia y por eso, incluso para la propio sorpresa de los físicos de OPERA, se ha podido desarrollar OPERA-2 justo en unas pocas semanas (las últimas con protones en el LHC antes de iniciar las colisiones con iones pesados). Además, OPERA se ha aprovechado de unas pruebas que se hicieron para estudiar colisiones protón contra ión, que también han sido adelantadas con la excusa de apoyar a OPERA. Dos pájaros matados de un solo tiro.
QUINTO. A partir de ahora qué podemos esperar de OPERA. En los próximos seis meses OPERA-2 podrá observar unos cientos de neutrinos mejorando la estadística de su experimento. Ello le permitirá estudiar con detalle la dependencia con la energía y con la velocidad de los neutrinos que se observan. Esta dependencia con la energía es la clave del futuro próximo de los neutrinos superlumínicos de OPERA. Los neutrinos observados en explosiones de supernovas tienen una energía entre 0,01 y 0,04 GeV, y su velocidad aparente es la velocidad de la luz. Los neutrinos de OPERA tienen energías 1000 veces mayores, entre 10 y 40 GeV, y su velocidad aparente es mayor que la velocidad de la luz. Los físicos teóricos necesitan saber cómo depende dicha velocidad con la energía. Si los neutrinos de OPERA no presentaran una dependencia inversa con la energía, todo apunta a que hay un error en el experimento. La figura de arriba muestra las dos posibilidades razonables.
Y SEXTO. Hay muchos detalles técnicos complicados en el experimento OPERA que deberán ser comprobados con sumo cuidado, en especial en el contexto del experimento OPERA-2. Hay mucho trabajo pendiente para los físicos de OPERA durante los próximos meses y seguiremos informando de todo lo que se vaya publicando. La verificación independiente del resultado de OPERA mediante MINOS (en EE.UU.) no se publicará hasta el verano próximo (y el error experimental será alto); una verficación fiable requerirá algo más de tiempo (entre uno y dos años). La verificación en T2K (en Japón) será aún más complicada y quizás no llegue a ser muy fiable en los próximos dos años. El experimento OPERA, cual conejito de Duracell, dará “cola” por muchos años.

miércoles, 23 de noviembre de 2011

Reinstalar paquetes facilmente

Fuente: El atareao

Si eres un alma inquieta y quieres estar a la última en todo lo referente a Ubuntu, es seguro, que cada nueva distribución que sale la instalas. Lo normal es que tengas /home en una partición independiente con lo que tu información no se pierde. Pero sin embargo, tienes que reinstalar todos los paquetes que has ido instalando poco a poco de una distribución a otra, lo que al final se hace realmente pesado.
Pues hay una sencilla solución: P-launcher.
Installed Packages_001
Petrakis ha desarrollado una aplicaciónque permite ver y salvar los paquetes instalados en distribuciones basadas en Debian. No se trata de una aplicación para sustituir a Synaptic, sino que te permite acceder a todos los paquetes instalados. Las funciones que te permite son:
  • Se permite crear una lista de todos tus paquetes instalados
Installed Packages Viewer_002
  • Te permite ver todos los paquetes instalados, acceder a las páginas de ayuda de ese paquete, ver el contenido y los detalles del paquete (como autor, licencia, dependencias, etc), reinstalar, actualizar, eliminar, incluso borrando los archivos de configuración del paquete seleccionado.
Man Pages - Package Content_003
  • Puedes actualizar todos los paquetes instalados
  • Te muestra como instalar paquetes desde las listas guardadas con esta aplicación.
  • Puedes hacer un backup de las fuentes
En fin, como he dicho es una herramienta muy interesante para no perder el tiempo reinstalando tu sistema.
Puedes obtener más detalles de la aplicación, en la página web de P-launcher, también puedes seguir estas sencillas instrucciones para descargarlo y ponerlo en funcionamiento:
wget http://gnome-look.org/CONTENT/content-files/128561-P-launcher.sh.zip

unzip 128561-P-launcher.sh.zip

chmod +x P-launcher.sh

./P-launcher.sh

lunes, 21 de noviembre de 2011

Neutrinos superlumínicos: OPERA confirma y envía resultados, pero continúa el malestar

Fuente: Ciencia Kanija

Artículo publicado el 17 de noviembre de 2011 por Edwin Cartlidge en Science Insider
Nuevas pruebas de alta precisión llevadas a cabo por la colaboración OPERA, en Italia, confirman ampliamente su afirmación, hecha en septiembre, de haber detectado neutrinos que viajan más rápido que la velocidad de la luz. La colaboración envió hoy sus resultados a una revista, pero algunos miembros siguen insistiendo en que se necesitan más comprobaciones antes de que los resultados puedan considerarse sólidos.
OPERA mide las propiedades de los neutrinos que son enviados a través de la Tierra, desde el laboratorio de física de partículas del CERN en Ginebra, Suiza, hasta su detector situado bajo la montaña Gran Sasso en Italia central. El 22 de septiembre, la colaboración informó en un artículo en ArXiv de haber medido la llegada de unos neutrinos unos 60 nanosegundos antes de lo que lo harían en el caso de viajar a la velocidad de la luz. Los investigadores obtuvieron el resultado estadísticamente, comparando la distribución temporal de protones dentro de los pulsos de 10,5 microsegundos que producen los neutrinos en el CERN, con la distribución de neutrinos observada en su detector.

CERN © by Wimox

Las nuevas pruebas, completadas el 6 de noviembre, acabaron los análisis estadísticos dividiendo cada pulso en grupos de 1 a 2 nanosegundos de duración, permitiendo que cada neutrino detectado en Gran Sasso estuviese ligado a un grupo particular producido en el CERN. Estas pruebas se llevaron a cabo a lo largo de 10 días y generaron 20 eventos. Los investigadores confirmaron que los neutrinos llegaban con 60 nanosegundos de antelación, con una incertidumbre de unos 10 nanosegundos, comparable al resultado inicial.
La colaboración también ha comprobado su análisis estadístico original, pero la decisión de hoy de enviar los resultados a una revista no era unánime. “Unas cuatro personas” de entre el grupo de aproximadamente 15 que no firmaron el borrador, han firmado el envío a la revista, de acuerdo con una fuente interna de la colaboración, mientras que “cuatro nuevas personas” han decidido no firmarlo. Esto deja el número de disidentes en unos 15, en comparación a los 180 que firmaron el envío a la revista.
Una gran preocupación entre los disidentes, es el hecho de que la “ventana de tiempo” dentro de la que se detectaron los neutrinos de OPERA en la última ejecución, tenía una anchura de 50 nanosegundos, algo que el líder del análisis superlumínico, Dario Autiero, sólo reveló una vez que se habían llevado a cabo las pruebas. Inicialmente se asumía que la ventana tenía apenas 10 nanosegundos de margen. Esta diferencia no afecta al propio resultado final, señala la fuente, pero los disidentes destacan el pobre procedimiento experimental. Algunos investigadores tampoco están contentos con que sólo una pequeña fracción del análisis, que se llevó a cabo por Autiero, haya sido comprobado independientemente por otros miembros de la colaboración. Esto deja abierta la posibilidad, dice, de que no se hayan tenido en cuenta todos los posibles errores.
La cuestión de si OPERA ha visto realmente, o no, neutrinos superlumínicos probablemente sólo se zanjará una vez que se tengan los resultados de otros experimentos.Mientras tanto, dentro de OPERA, “la gente está exhausta”, dice la fuente. “Todo el mundo debería estar convencido de que el resultado es real, y no lo están”.

Autor: Edwin Cartlidge
Fecha Original: 17 de noviembre de 2011
Enlace Original

Un teorema sacude los cimientos cuánticos

Fuente: Ciencia Kanija

Artículo publicado por Eugenie Samuel Reich el 17 de noviembre de 2011 en Nature News
La función de onda es un objeto físico real, después de todo, dicen los investigadores.
En el corazón de la extrañeza por la que es famoso el mundo de la mecánica cuántica, está la función de onda, una poderosa y misteriosa entidad que se usa para determinar la probabilidad de que las partículas cuánticas tengan ciertas propiedades. Ahora, un borrador publicado on-line el 14 de noviembre1reabre la cuestión de qué representa la función de onda – con una respuesta que podría sacudir las bases de la teoría cuántica. Mientras que muchos físicos han interpretado generalmente la función de onda como una herramienta estadística que refleja nuestra ignorancia sobre las partículas que medimos, los autores del último artículo defienden que, en lugar de esto, es físicamente real.

Ondas © by jasonr611

“No quiero sonar exagerado, pero creo que la palabra ‘sísmico’ es adecuada para aplicarla a este artículo”, dice Antony Valentini, físico teórico especializado en los cimientos de la cuántica de la Universidad de Clemson en Carolina del Sur.
Valentini cree que este resultado puede ser el teorema general más importante que relaciona las bases de la mecánica cuántica desde el Teorema de Bell, el resultado de 1964 en el cual el físico norirlandés John Stewart Bell demostró que si la mecánica cuántica describe entidades reales, tiene que incluir la misteriosa “acción a distancia”.
La acción a distancia tiene lugar cuando interactúan un par de partículas cuánticas, de tal forma, que quedan entrelazadas. Pero el nuevo artículo, realizado por un trío de físicos liderados por Matthew Pusey del Imperial College de Londres, presenta un teorema que demuestra que si una función de onda cuántica fuese una herramienta puramente abstracta, entonces, incluso los estados cuánticos que no están conectados a través del espacio y el tiempo, serían capaces de comunicarse entre sí. Dado que parece muy improbable que esto sea cierto, los investigadores concluyen que la función de onda debe ser real físicamente, después de todo.
David Wallace, filósofo de la física en la Universidad de Oxford, Reino Unido, dice que el teorema es el resultado más importante en las bases de la mecánica cuántica que ha visto en sus 15 años de carrera profesional. “Esto elimina la oscuridad y demuestra que no puedes tener una interpretación de un estado cuántico como probabilístico”, señala.
Debate histórico
El debate sobre cómo comprender la función de onda se remonta a la década de 1920. En la ‘interpretación de Copenhague’ desarrollada por el físico danés Niels Bohr, la función de onda se considera una herramienta de cálculo: da resultados correctos cuando se usa para calcular la probabilidad de que las partículas tengan distintas propiedades, pero los físicos se vieron animados a no buscar una explicación más profunda de lo que es la función de onda.
Albert Einstein también estaba a favor de una interpretación estadística de la función de onda, aunque pensaba que tenía que haber alguna otra realidad subyacente aún por descubrir. Pero otros, como el físico austriaco Erwin Schrödinger, consideraban que la función de onda, al menos inicialmente, debe ser un objeto físico real.
La interpretación de Copenhague perdió popularidad después, pero la idea de que la función de onda refleja lo que podemos conocer sobre el mundo, en lugar de una realidad física, ha vuelto a estar en alza en los últimos 15 años con el auge de la Teoría de la Información Cuántica, dice Valentini.
Rudolph y sus colegas pueden detener esta tendencia. Su teorema, efectivamente, dice que los sistemas cuánticos individuales deben “conocer” exactamente para qué estado han sido preparados, o los resultados de las medidas sobre ellos llevaría a resultados incongruentes con la mecánica cuántica. Rechazaron hacer comentarios mientras el borrador está en el proceso de envío a la revista, pero dicen en su artículo que su hallazgo es similar a la idea de que una moneda individual que se lanza de manera sesgada – por ejemplo, de forma que sale ‘cara’ seis de cada diez veces – tiene la propiedad física intrínseca de estar sesgada, en contra de la idea de que el sesgo es simplemente una propiedad estadística de muchos resultados del lanzamiento de la moneda.
Información cuántica
Robert Spekkens, físico en el Instituto Perimeter de Física Teórica en Waterloo, Canadá, que ha apoyado una interpretación estadística de la función de onda, dice que el Teorema de Pusey es correcto, y un resultado fantástico, pero no está de acuerdo en la conclusión que debería extraerse del mismo. Apoya una interpretación en la que todos los estados cuánticos, incluyendo los no entrelazados, están relacionados después de todo.
Spekkens añade que espera que el teorema tenga amplias consecuencias para la física, como el Teorema de Bell y otros teoremas fundamentales. Nadie previó en 1964 que el Teorema de Bell plantaría las semillas de la Teoría de la Información Cuántica y la Criptografía Cuántica – ambas dependiendo de fenómenos que no son posibles en la física clásica. Spekkens cree que este teorema puede tener, finalmente, un impacto similar. “Es muy importante y hermoso por su simplicidad”, comenta.

Artículo de Referencia:
1.-Pusey, M. F., Barrett, J. & Rudolph, T. http://lanl.arxiv.org/abs/1111.3328 (2011).
Autor: Eugene Samuel Reich
Fecha Original: 17 de noviembre de 2011
Enlace Original

miércoles, 16 de noviembre de 2011

Tras 23 años, el “teorema a” parece que ya tiene demostración

Fuente: Francis (th)E mule


Hace 23 años, el físico teórico John Cardy conjeturó una propiedad que debía cumplir toda teoría cuántica de campos que describa partículas a alta y a baja energía, a la que denominó “teorema a.” Pensó que sería fácil demostrarla, pero no ha sido así. Una demostración se publicó en ArXiv en julio de 2011, gracias a Zohar Komargodski y Adam Schwimmer, dos físicos teóricos del Instituto Weizmann, en Israel. ¿Es correcta esta demostración? Tras varios meses de estudio, el consenso se resume en las palabras de Nathan Seiberg, físico teórico del Instituto de Estudio Avanzado de Princeton, Nueva Jersey: “Creo firmemente que es correcta.” Nos lo cuenta Eugenie Samuel Reich, “Proof found for unifying quantum principle. Twenty-three-year-old conjecture set to guide future quantum field theories,” Nature News, 14 November 2011; la demostración, solo para expertos, es Zohar Komargodski, Adam Schwimmer, “On Renormalization Group Flows in Four Dimensions,” ArXiv, 20 Jul 2011 (last revised 22 Aug 2011). Yo me enteré de este resultado gracias a Matt Strassler, físico teórico de la Universidad de Rutgers, New Brunswick, Nueva Jersey, bloguero que ya se hizo eco de este consenso en “A Day At Stony Brook,” Of Particular Significance, Nov. 9, 2011 (en las Jornadas CPAN en Barcelona me hablaron maravillas de Strassler, a quien yo consideraba erróneamente como “otro físico de cuerdas metido a bloguero”).
Las teorías cuánticas de campos en 4D no pueden ser resueltas de forma exacta (salvo en ejemplos triviales), por lo que es imposible saber qué predicen en detalle para las propiedades de las partículas que describen. Por ejemplo,  no conocemos todo lo que predice la cromodinámica cuántica (QCD), la teoría de la interacción fuerte que describe las interacciones entre quarks y gluones (las partículas que constituyen los protones y los neutrones de los núcleos de los átomos). Gracias a la propiedad llamada “libertad asintótica” esta teoría a alta energía (o distancias muy cortas) es mucho más sencilla que a baja energía y hemos podido verificar sus predicciones en el LHC del CERN y en el Tevatrón del Fermilab. Pero a baja energía sus predicciones aún son una gran incógnita (por ejemplo, todavía no se sabe si la QCD predice correctamente muchas de las propiedades conocidas del protón y del neutrón, aunque todo el mundo cree que así es y hay ciertas indicaciones al respecto gracias a las simulaciones de supercomputadores que utilizan la QCD en redes).
El “teorema a” de Cardy es un principio general que relaciona el comportamiento de una teoría a gran energía (distancias cortas) con dicha teoría a baja energía (distancias grandes). Este principio es uno de los pocos principios generales que se conocen en teorías cuánticas de campos. Cardy demostró el “teorema a” en una teoría cuántica de campos 2D (1+1) y conjeturó que también se cumpliría en 4D (3+1). Pero en 2008 se descubrió un contraejemplo, una teoría cuántica de campos que no cumplía el “teorema a”  (Alfred D. Shapere, Yuji Tachikawa, “A counterexample to the a-’theorem’,” Journal of High Energy Physics 12(2008)020); pero resultó que el contraejemplo contenía un fallo (Davide Gaiotto, Nathan Seiberg, Yuji Tachikawa, “Comments on scaling limits of 4d N = 2 theories,” Journal of High Energy Physics 01(2011)078). Tras dos años pensando que el “teorema a” era incorrecto se reavivó el interés en demostrarlo.
Schwimmer y Komargodski publicaron una (posible) demostración del “teorema a” este pasado verano. La demostración no es perfecta y según los expertos algunas partes deben ser clarificadas y algunos pasos necesitan ser inspeccionados con mayor atención (sobre todo porque el contraejemplo de 2008 le puso la mosca en la oreja a muchos expertos). Sin embargo, el consenso ahora mismo es que la idea de la demostración, de gran belleza argumental, es correcta y que todos los pequeños defectos se podrán superar sin dificultades. Ya se sabe que la belleza matemática es una de las grandes guías para establecer el consenso sobre la validez de una demostración. El artículo está en proceso de revisión por pares y se espera que cuando acabe publicando todos los pequeños problemas observados hayan sido resueltos.
¿Para qué sirve el “teorema a”? Uno de los grandes problemas de las teorías cuánticas de campos supersimétricas es que no sabemos cuáles son sus predicciones generales, las cosas que predice toda teoría supersimétrica por ser supersimétrica. En la actualidad para buscar la SUSY en el LHC hay que estudiar las predicciones de un modelo concreto (sea MSSM, cMSSM, mSUGRA, etc.). El “teorema a” nos ofrece una predicción general de la supersimetría a baja energía que podría ser confirmada o refutada por los grandes colisionadores; caso de que esta propiedad fuera confirmada en el LHC tendríamos una prueba general indiscutible de la supersimetría, independientemente de que conozcamos o no la teoría supersimétrica correcta que describe el universo. El “teorema a” podría ser la luz en el camino, la guía que nos permita encontrar las señales de la física supersimétrica a baja energía (por ahora todo indica que las energías que puede explorar el LHC son “baja energía” para la SUSY).
Por supuesto, el “teorema a” tiene muchas otras aplicaciones en teoría cuántica de campos, por ejemplo, en física de la materia condensada, donde permite describir nuevas fases de la materia. Ahora bien, en estas teorías se requiere usar el “teorema a” en 3D (2+1), pero solo se ha demostrado en 2D y en 4D. ¿Quién logrará la demostración en 3D? ¿Será válido el “teorema a” en 3D? La demostración del “teorema a” en un número impar de dimensiones requiere técnicas matemáticas muy diferentes de las utilizadas por Komargodski y Schwimmer, por lo que algunos expertos opinan que serán necesarios otros 20 años de trabajo para lograr obtenerla. Incluso hay quien duda de que sea aplicable en 3D. Esperemos que se equivoquen.
¿Qué afirma el “teorema a”? Yo no soy experto, así que explicar este teorema sin usar matemáticas (que es lo más fácil para mí, pues basta copiarlas de cualquier artículo) es muy difícil para mí. Pero bueno, trataré de hacerlo. John L. Cardy en “Is there a c-theorem in four dimensions?,” Physics Letters B 215: 749-752, 1988, se preguntó si un resultado previo, el “teorema c” de Zamolodchikov válido en 2D se podía extender a un espaciotiempo con dimensión par (por ejemplo a 4D). Su conjetura estaba justificada porque el “teorema a” parecía cumplirse en la cromodinámica cuántica (QCD). La idea es estudiar la evolución de los grados de libertad de la teoría entre el límite ultravioleta (UV), distancias cortas, y el límite infrarrojo (IR), distancias grandes. El grupo de renormalización de la teoría evoluciona durante este proceso como el agua que cae por un montaña cuesta abajo y acaba en un lago situado en el valle. La montaña es rugosa, está llena de piedras y de irregularidades, y el agua ha de moverse entre ellas, con un flujo muy irregular. Sin embargo, el agua en el lago del valle está plano y libre de irregularidades. Los grados de libertad UV (“el grano fino”) se suavizan hasta desaparecer en el límite IR (“el grano grueso”) durante la evolución del grupo de renormalización. El “teorema a” afirma que toda teoría cuántica de campos en 4D tiene asociada una magnitud (llamada “a” por razones históricas), relacionada con la traza del tensor de energía-esfuerzo de la teoría, que decrece bajo la evolución del grupo de renormalización, es decir, en el paso del límite UV al límite IR, de las distancias cortas a las distancias grandes. En cierto sentido esta magnitud “cuenta” el número de grados de libertad de la teoría. La importancia de este teorema, aparte de su generalidad, es que la magnitud “a” está relacionada con la libertad asintótica en la teoría, con el fenómeno del confinamiento de las cargas libres y con la hadronización en QCD. Si el “teorema a” es válido, toda teoría gauge tendrá propiedades similares a la QCD. Su importancia en relación a la supersimetría se debe a que la mangitud ”a” en una teoría supersimétrica es fácil calcular a partir de las cargas R de la teoría. En teorías de campos conformes también es fácil de calcular esta magnitud (de ahí si importancia en relación a la correspondencia AdS/CFT de Maldacena y el principio holográfico). Bueno, no sé si he aclarado mucho lo que significa el “teorema a,” pero se trata de una cuestión técnica que yo no entiendo lo suficientemente bien como para explicarla mucho mejor.

martes, 15 de noviembre de 2011

Gran sorpresa en el LHC gracias a LHCb: La asimetría CP en el modelo estándar se oculta en las partículas con encanto

Fuente: Francis (th)E Mule

Los rumores indicaban que hoy en París, en el congreso HCP 2011, la colaboración LHCb iba a presentar una gran sorpresa relacionada con la violación de la simetría CP y así ha sido. Por primera vez se ha observado la violación de la simetría CP en las desintegraciones de los mesones encantados: cierto parámetro técnico es 80 veces mayor de lo esperado. En concreto se han estudiado las desintegraciones de los mesones D0, que están compuestos de un quark encanto (c) más un antiquark arriba (u), y de sus antipartículas, compuestas de un antiquark encanto (c) más un quark arriba (u). Sus desintegraciones Dº→K-K+, y Dº→π-π+, y las de su antipartícula determinan el valor de un parámetro llamado ΔACP que según los modelos teóricos debería ser menor de 0,01 %. La sorpresa es que LHCb ha medido un valor de ΔACP = -0,82 ± 0,21 ± 0,11 % (con 3,5 σ de confianza estadística tras analizar 0,58 /fb de datos de 2011, es decir, el 60% de todas las colisiones en LHCb durante 2011); lo dicho, un valor más de 80 veces mayor del esperado. Siempre se había pensado que la violación de la simetría CP en los mesones con quarks encanto (c) era casi nula, muy pequeña e incapaz de explicar la asimetría materia-antimateria tras la gran explosión. Este resultado es todavía provisional y tendrá que ser confirmado tras el análisis de más datos de colisiones, pero su importancia es enorme. Las transparencias de la charla de Mat Charles (Oxford), on behalf of the LHCb collaboration, “Search for CP violation in two-body charm decays at LHCb,” HCP 2011, 14 Nov. 2011. Noticia en la web del CERN en Antonella Del Rosso, “Charming surprise,” CERN News, 14 Nov. 2011, y en la web de LHCb, “CP violation in charm decays,” LHCb, 14 Nov. 2011.
Según nos cuentan en la noticia del CERN, hubo una reunión interna los días 10 y 11 de noviembre para discutir el impacto en las teorías actuales de este gran descubrimiento obtenido por la colaboración LHCb. Por supuesto, el resultado todavía es provisional y tendrán que ser confirmado (se espera la confirmación para principios de 2012 cuando se analicen el resto de los datos de las colisiones de 2011 aún almacenados en cinta), pero sus implicaciones sobre la asimetría entre materia y antimateria son muy importantes. De confirmarse significaría que el modelo estándar esconde en su interior la explicación de esta asimetría sin necesidad de nueva física (como esperaban impacientes muchos teóricos). La razón por la cual este resultado se había ocultado en los experimentos es porque la física del encanto (charm physics) de precisión es muy difícil de estudiar en los aceleradores anteriores como LEP y el Tevatrón.
Estoy escribiendo esta entrada con prisa y aún tengo que meditar las consecuencias profundas que se obtendrán de este resultado, pero puedo anticipar que no serán pocas. Todo indica que el modelo estándar es mucho más desconocido de lo que parecía.
Por cierto, puede que haya gente que afirme que este resultado es la primera evidencia de física más allá del modelo estándar, ya que se creía que éste predecía un valor casi nulo para el parámetro medido por LHCb. Sin embargo, me gustaría recordar a todos que las predicciones teóricas del modelo estándar para la física del encanto son muy difíciles de calcular y se utilizan modelos aproximados en los que se incluye como hipótesis de trabajo que la violación de la simetría CP observada es casi nula. Ahora que se cree (recuerda el resultado está aún sin confirmar) que es mucho mayor, habrá que rehacer los cálculos y, en mi opinión, se podrá acomodar el nuevo resultado dentro del modelo estándar como una de sus predicciones. Lo importante del nuevo resultado son sus consecuencias en los modelos cosmológicos y la evolución temprana del universo. Estoy seguro de que lloverán muchos artículos explicando estas consecuencias en las próximas semanas.
La opinión de otros blogueros (que actualizaré conforme vaya apareciendo): Jester, “LHCb has evidence of new physics! Maybe,” Résonaances, 14 Nov. 2011 (su explicación del resultado está muy bien); Philip Gibbs, “BSM CPV in LHCb at HCP11,” viXra log, Nov. 14, 2011; Lubos Motl, “LHCb reports a new source of CP-violation,” The Reference Frame, 14 Nov. 2011.
En lo que sigue añadiré una explicación sencilla al resultado observado. Los físicos y buenos aficionados a la física de partículas pueden omitir lo que sigue. La imagen está extraída de Anna Phan, “What exactly is CP violation?,” Quantum Diaries, 14 Nov. 2011. El texto es en su mayor parte de cosecha propia.
¿Cuál es la relación entre la violación de la simetría CP y la asimetría materia-antimateria en el universo? La idea es sencilla, la simetría CP aplicada a una partícula la transforma en su (como indica la figura de arriba), por lo que cualquier proceso que viole la simetría CP implica que dicho proceso actúa de forma diferente en partículas y antipartículas. Se cree que en los primeros instantes de la Gran Explosión (Big Bang) existía la misma cantidad de materia que de antimateria; pero hoy en día observamos un universo de materia sin ninguna antimateria (que sepamos no hay galaxias de antimateria, aunque nada prohíbe su existencia), con muchos más fotones (y neutrinos) que bariones (protones y neutrones en los núcleos de los átomos). Como la materia y la antimateria se aniquilan mutuamente produciendo energía (fotones), se puede explicar esta asimetría si toda la materia se aniquiló con toda la antimateria, salvo una minúscula cantidad. Este proceso asimétrico requiere, entre otras cosas, una pequeña violación de la simetría CP en la física de partículas. El problema es que la asimetría CP del modelo estándar que ha sido observada en los experimentos es demasiado pequeña para explicar la simetría materia-antimateria y se cree que debe haber asimetrías aún no observadas (como la que ha observado LHCb).
¿Cuál es la relación entre el resultado de LHCb y la simetría CP? Lo que se ha observado en LHCb son procesos de desintegración de un partícula (mesón D neutro) y de su antipartícula, que por ser ambas neutras se desintegran en pares de partícula-antipartícula (dos piones o dos kaones). Si la simetría se conservara en estas desintegraciones, no habría diferencia alguna entre la partícula y su antipartícula, serían indistinguibles si solo observamos sus desintegraciones (las distinguimos porque ellas mismas se producen en procesos diferentes). Sin embargo, LHCb ha observado una pequeña diferencia entre los modos de desintegración de la partícula y de su antipartícula, lo que las hace distinguibles estadísticamente. Esta pequeña asimetría es enorme, ya que según se cree el modelo estándar predice un valor muy pequeño para ella. Por eso esta inesperada noticia es bastante sorprendente.
¿Por qué es difícil observar estas desintegraciones en LHCb? Este experimento está centrado en el estudio de la física asociada a los quarks fondo (bottom o b). Las colisiones que se almacenan en disco para su análisis posterior son seleccionadas en tiempo real por un sistema de disparadores (triggers) que han sido ajustados para discriminar colisiones con quarks bottom y obviar las colisiones con quarks de menor masa (como los charm o c). Sin embargo, cierto número de triggers se han dedicado a estudiar las colisiones que no tienen quarks b (el porcentaje de datos almacenados en disco en dicho caso es pequeño, no sé exactamente cuál es). La idea principal es hacer chequeos de precisión del modelo estándar y comprobar que todo se está haciendo correctamente con los quarks b. Pero para sorpresa de muchos, se ha observado algo inesperado e interesante en estos eventos. Una violación de la simetría CP mayor de la esperada. Supongo que durante 2012 se dedicará mayor atención a este tipo de colisiones y se incrementará el slot dedicado a la física del encanto en el LHCb.

jueves, 10 de noviembre de 2011

El tiempo del futuro… ¿En 28 horas?

Fuente: Neofosis


Dia de 28 horas, según el webcomic xkcd
Después de escribiros sobre los .beats y sobre los días de base decimal, creo que os hablaré sobre esta tercera opción, quizás la última, quizás una más. Dependiendo de como la acojáis.
Hablo de días de 28 horas. Hablo de 6 dias a la semana.
Bien. Hoy en día nuestra vida se basa en ese reloj de 24 días, con día y noche repartidos equitativamente, y es así desde la antigüedad. Pero no es la única manera.
Una de esas teorías es hacer días de 28 horas, de forma que una semana actual duraría 6 días en vez de 7. La ventaja sería que en estos días más grandes podríamos hacer más cosas, tanto trabajar (algo que a pocos gustará) como descansar y dormir (empezamos a hablar el mismo idioma, ¿eh?)
Esta semana de 4 horas diarias más, trabajaríamos 2 horas más diarias… pero nos quitaríamos un día de trabajo: seguiríamos trabajando unas 40 horas semanales con 2 días de fin de semana a los que llegaríamos descansados, tranquilos, sosegados y encima más largos de lo normal. ¡Y de noche, como dicen en la imagen! ¡Perfecto para los jóvenes que quieren salir y están muy cansados!  La monotonía de ver amanecer al despertarse y anochecer al acostarse desaparecería. Cada semana serían distinta a nuestros ojos.  Además de todas las ventajas medioambientales al tener que usar el vehículo de transporte un día menos a la semana…
Esto nos permitiría gastar menos tiempo en las rutinas diarias (1 día menos a la semana son 52 días menos al año, es un ahorro de tiempo).
Vale. Es dificil, por no decir imposible, poner en práctica este sistema. Pero quizás nos hubiera sido más útil haberlo aplicado…
… aunque hay gente que usaba sistemas también muy curiosos, como Leonardo Da Vinci o Buckminster Fuller. Quizás en otra ocasión.

martes, 8 de noviembre de 2011

Las constantes fundamentales pueden depender de dónde estés en el universo

Fuente: Ciencia Kanija

Artículo publicado por Kate McAlpine el 4 de noviembre de 2011 en Science News
Una constante física fundamental similar a la carga del electrón, o la velocidad de la luz, puede depender de dónde estés en el universo, según informa un equipo de astrónomos. De ser cierto, tal observación daría un vuelco a la suposición científica básica de que las leyes de la física son las mismas en todo el universo. Otros investigadores, sin embargo, son escépticos.
La constante en cuestión es la conocida como constante de estructura fina. Con un valor de aproximadamente 1/137, la constante establece la fortaleza de la fuerza electromagnética y, por tanto, determina las longitudes de onda exactas de la luz que absorberá un átomo. La idea de que la constante puede haber cambiado a lo largo de la edad del universo no es nueva. El astrofísico John Webb, de la Universidad de Nueva Gales del Sur en Sídney, Australia, y sus colegas, dieron el primer aviso en 1998, usando datos del telescopio de 10 metros en el Observatorio W. M. Keck en Mauna Kea, Hawái, que observa el hemisferio norte.

Universe Sandbox © by Sir Mildred Pierce

Por entonces, el equipo observó los brillantes centros de antiguas galaxias conocidos como quásares. La luz procedente de los quásares debe pasar a través de una nube de gas en su viaje de varios miles de millones de años hasta la Tierra, y los átomos del gas absorben luz en longitudes de onda concretas. Por lo que al espectro de la luz que llega a la Tierra le faltan estas longitudes de onda, y tiene el aspecto de un código de barras. El desplazamiento general de las líneas dice a los investigadores lo lejos que está una nube de gas y, por tanto, hace cuánto que la luz pasó a través de la misma. El espaciado relativo entre las líneas les permite estimar la constante de estructura fina en esa época. Analizando tales datos, Webb y sus colegas defendían que la constante de estructura fina era, aproximadamente, 1 parte entre 100 000 más pequeña hace 12 000 millones de años de lo que es hoy. Ésta fue una propuesta radical, dado que se supone que las leyes de la física son las mismas sin importar en qué parte del universo estés.
El resultado, sin embargo, no se aceptó universalmente. En 2004, Patrick Petitjean, astrónomo del Instituto de Astrofísica en París, y sus colegas, usaron observaciones de 23 nubes procedentes del Telescopio Muy Grande (VLT) en Cerro Paranal, Chile, el cual observa el cielo austral, y no encontraron variaciones discernibles en la constante de estructura fina.
¿Caso cerrado? Aún no. Ahora, Webb y sus colegas han barrido el cielo austral ellos mismos usando el VLT. Sus 153 nubes sugerían una diferencia de 1 parte en 100 000 en la constante de estructura fina hace 12 000 millones de años. Excepto en el cielo del sur, la constante parece ser mayor. Conectando estos dos extremos con una línea, el equipo encontró que los patrones de absorción de las nubes a lo largo de la línea, eran consistentes con una constante de estructura fina que cambia lentamente a través del espacio – más pequeña en el lejano cielo boreal y  mayor en el lado austral.
“El resultado es emocionante”, dice el físico atómico Wim Ubachs de la Universidad Libre de Amsterdam, quien no estuvo implicado en el trabajo. “Podría ser un indicador de que el universo es distinto de como pensábamos que era”. Ubachs dice que está abierto a la idea de que las constantes fundamentales podrían cambiar con el tiempo y la posición, dado que los científicos no tienen una explicación decente a por qué las constantes fundamentales tienen esos valores. Aun así, la gran afirmación del cambio de una constante requiere de unas sólidas pruebas – lo cual no son los nuevos datos, algo en lo que está de acuerdo incluso el equipo de Webb. Dicen que las opciones de que unas fluctuaciones estadísticas en los datos pudiesen producir una señal falsa son de hasta menos de 1 entre 15 000, según informa el equipo el 31 de octubre en Physical Review Letters. Para calificarlo como prueba sólida, esas probabilidades deberían bajar a 1 en 2 millones.
No es sorprendente que Petitjean encuentre la sugerencia de que la constante de estructura fina cambie a través del espacio “muy difícil de creer”. Defiende que, por sí mismos, los datos del VLT del equipo de Webb no serían interesantes. Webb admite que las posibilidades de que las fluctuaciones aleatorias en los nuevos datos del VLT puedan producir una tendencia falsa son bastante grandes, de 1 en 34. Pero defiende que los datos son convincentes debido a que dos telescopios independientes, apuntando en direcciones distintas, vieron un cambio en la constante de estructura fina de la misma proporción y en la misma dirección. Sobre por qué el grupo de Petitjean no vio el incremento en sus propios datos del VLT, Webb dice que Petitjean y sus colegas estaban mirando en la dirección equivocada. Las 23 nubes que estudió el equipo de Petitjean no están a lo largo de la línea del universo donde la constante de estructura fina parece cambiar, comenta Webb, por lo que no es una sorpresa que no viesen la misma tendencia.
Petitjean ve esta concordancia de forma distinta. Dice que los resultados encajan debido a que, en la luz por encima de 10 000 millones de años de antigüedad, su equipo y el de Webb ven lo mismo: ningún cambio. Sólo el grupo de Webb analizó luz más vieja, y ésa es la fuente de la tendencia. Hasta que se confirme por otros de forma independiente, advierte, “todo el mundo debería tener mucho cuidado con este resultado”.
Si se mantiene, dice Webb, la afirmación podría ayudar a responder una gran cuestión conceptual: ¿Por qué las constantes fundamentales toman valores que permiten que exista la vida, cuando diminutos cambios la harían imposible? Si las constantes fundamentales varían a lo largo de la potencial infinitud del universo, nuestro lugar en el universo sería, naturalmente, allí donde las constantes estén ajustadas para hacer posible nuestra existencia – una versión del conocido como principio antrópico. En algunos círculos, sin embargo, el principio antrópico hace enarcar las cejas aún más que la idea de que las constantes físicas cambian.

Autor: Kate McAlpine
Fecha Original: 4 de noviembre de 2011
Enlace Original

miércoles, 2 de noviembre de 2011

FAQ sobre energía oscura

Fuente: Ciencia Kanija

Artículo publicado por Sean M. Carroll el 4 de octubre de 2011 en Cosmic Variance
En honor al  Premio Nobel, aquí tenemos algunas preguntas que se hacen, o deberían hacerse, con frecuencia sobre la energía oscura.
¿Qué es la energía oscura?
Es lo que hace que el universo acelere, si es que hay una “cosa” que haga eso. (Ver más abajo).

Remanente de supernova en expansión © Crédito: thebadastronomer

Entonces, supongo que debería preguntar… ¿qué significa que el universo está “acelerando”?
Primero, el universo está en expansión: como demostró  Hubble, las galaxias distantes se alejan de nosotros a velocidades que son más o menos proporcionales a su distancia. “Aceleración” significa que si mides la velocidad de una de tales galaxias, y vuelves un millón de años más tarde y repites la medida, la velocidad de recesión  será mayor. Las galaxias se alejan de nosotros a un ritmo acelerado.
Pero eso es muy mundano y concreto.  ¿No hay una forma más abstracta y científica de explicarlo?
La distancia relativa entre galaxias distantes puede resumirse en una sola cantidad llamada “factor de escala”, a menudo escrita como a (t) o R (t). El factor de escala es, básicamente, el “tamaño” del universo, aunque en realidad no es el tamaño, ya que el universo podría ser infinitamente grande – más exactamente, es el tamaño relativo del espacio de un momento a otro. La expansión del universo es el hecho de que el factor de escala se incrementa con el tiempo. La aceleración del universo es el hecho de que aumenta a un ritmo cada vez mayor – la segunda derivada es positiva, en la jerga del cálculo.
¿Significa eso que la constante de Hubble, que mide la tasa de expansión, es cada vez mayor?
No. La “constante” de Hubble (o “parámetro” de Hubble, si quieres admitir que cambia con el tiempo) caracteriza la tasa de expansión, pero no es simplemente la derivada del factor de escala: es la derivada dividida por el propio factor de escala. ¿Por qué? Porque, entonces, es una cantidad físicamente medible, no algo que podemos cambiar simplemente intercambiando las convenciones. La constante de Hubble es básicamente la respuesta a la pregunta de “¿Cómo de rápido se expande el factor de escala del universo al multiplicarlo por un factor ?”
Si el universo está desacelerando, la constante de Hubble disminuye. Si la constante de Hubble es cada vez mayor, el universo acelera. Pero hay un régimen intermedio en el que el universo está acelerando, pero la constante de Hubble disminuye – y ahí es exactamente donde creemos estar. La velocidad de las galaxias individuales va en aumento, pero se necesita cada vez más tiempo para que el universo duplique su tamaño.
Dicho de otra manera: La Ley de Hubble relaciona la velocidad v de una galaxia con su distancia d  a través de v = Hd. La velocidad puede aumentar incluso si el parámetro de Hubble disminuye, mientras que la disminución sea más lenta que el incremento de la distancia.
¿Los astrónomos realmente esperaron mil millones de años y midieron la velocidad de las galaxias de nuevo?
No. Mides la velocidad de galaxias que están muy lejos. Debido a que la luz viaja a una velocidad fija (un año luz por año), estás mirando al pasado. Reconstruir la historia de cómo las velocidades fueron distintas en el pasado, revela que el universo está acelerando.
¿Cómo se mide la distancia a unas galaxias tan lejanas?
No es fácil. El método más robusto es usar una “candela estándar” – algún objeto que sea lo bastante brillante para verse a grandes distancias, y cuyo brillo intrínseco sea conocido de antemano. Entonces puedes calcular la distancia simplemente midiendo cómo de brillante parece en realidad: más tenue = más lejos.
Por desgracia, no hay candelas estándar.
Entonces, ¿qué hicieron?
Afortunadamente, tenemos lo siguiente mejor que se puede tener: candelas estandarizables. Un tipo específico de supernova, la de Tipo Ia, es muy brillante y tiene aproximadamente el mismo brillo. Felizmente, en la década  de 1990, Mark Phillips descubrió una notable relación entre el brillo intrínseco y el tiempo que necesita una supernova para apagarse después de alcanzar su pico de brillo. Por tanto, si medimos el brillo cuando disminuye con el tiempo, podemos corregir esta diferencia, construyendo una medida universal de brillo que se puede utilizar para determinar distancias.
¿Por qué las supernovas de Tipo Ia son candelas estandarizables?
No estamos completamente seguros – en gran medida se trata de una relación empírica. Pero tenemos una buena idea: creemos que las supernovas de Tipo Ia son estrellas enanas blancas que han estado acretando materia desde el exterior, hasta que llegan al límite de Chandrasekhar y estallan. Dado que este límite es básicamente el mismo número para todo el universo, no es del todo sorprendente que las supernovas tengan un brillo similar. Las desviaciones se deben, presumiblemente, a diferencias en la composición.
Pero, ¿cómo sabes cuándo va a tener lugar una supernova?
No lo sabes. Son raras, quizás una por siglo en una galaxia típica. Así que lo que haces es mirar muchísimas galaxias con cámaras de gran angular. En concreto, se compara una imagen del cielo tomada en un momento con otra tomada un par de semanas más tarde – “unas semanas” es, a grandes rasgos, el tiempo entre las lunas nuevas (cuando el cielo es más oscuro), y casualmente, más o menos el tiempo que tarda una supernova en aumentar el brillo. Luego, usas ordenadores para comparar las imágenes y buscar nuevos puntos brillantes. Más tarde vuelves a examinar esos puntos brillantes más de cerca para intentar comprobar si realmente son supernovas de Tipo Ia. Obviamente esto es muy duro y no sería concebible si no fuera por una serie de avances tecnológicos relativamente recientes – cámaras CCD así como telescopios gigantes. Actualmente podemos salir y tener la confianza de que encontraremos supernovas por docenas – pero cuando Perlmutter y su grupo empezaron, esto estaba lejos de ser obvio.
¿Y qué encontraron cuando hicieron esto?
La mayor parte (casi todos) de los astrónomos esperaban encontrar que el universo estaba desacelerando – con las galaxias tirando unas de otras a través de sus campos gravitatorios, que haría que todo se frenase. (En realidad muchos astrónomos pensaban que simplemente se fallaría completamente, pero esa es otra historia). Pero lo que en realidad encontraron fue que las supernovas lejanas eran más tenues de lo esperado – una señal de que estaban más lejos de lo que se había predicho, lo que significa que el universo ha estado acelerando.
¿Por qué aceptaron los cosmólogos este resultado con tanta rapidez?
Incluso antes de los anuncios de 1998, estaba claro que algo raro estaba pasando en el universo. Parecía haber pruebas de que la edad del universo era más joven que la de sus estrellas más antiguas. No había tanta materia total como predecían los teóricos. Y había menos estructuras a gran escala de lo que se esperaba. El descubrimiento de la energía oscura resolvió todos estos problemas de una vez. Puso cada cosa en su sitio. Por lo que se fue adecuadamente cauteloso, pero una vez que se realizó esta asombrosa observación, el universo, de pronto, cobró mucho más sentido.
¿Cómo sabemos que las supernovas no son más tenues debido a que algo las oscurece, o simplemente porque las cosas sucedían de otra forma en el pasado lejano?
Ésa es la pregunta adecuada, y una razón de que los dos equipos de supernovas trabajasen tan duro en sus análisis. Nunca puedes estar seguro al 100%, pero puedes tener cada vez más confianza. Por ejemplo, los astrónomos han sabido desde hace mucho que los materiales que oscurecen tienden a dispersar la luz azul con mayor facilidad que la roja, lo que lleva a un “enrojecimiento” de las estrellas que se sitúan tras una nube de gas y polvo. Puedes buscar el enrojecimiento, y en el caso de estas supernovas, no parece importante. Más importante aún, ahora tenemos una gran cantidad de líneas de datos independientes que llegan a la misma conclusión, por lo que parece que los resultados originales de las supernovas eran sólidos.
¿Hay realmente pruebas independientes de la energía oscura?
Oh, sí. Un argumento simple es la “sustracción”: el fondo de microondas cósmico mide la cantidad total de energía (incluyendo la materia) del universo. Las medidas locales de galaxias y cúmulos miden la cantidad total de materia. Esta segunda medida resulta ser de aproximadamente un 27% respecto a la primera, dejando un 73% aproximadamente en la forma de algún material invisible que no es materia:  “la energía oscura”. Ésta es la cantidad adecuada para explicar la aceleración del universo. Otras líneas de datos proceden de las oscilaciones acústicas bariónicas (ondas en las estructuras a gran escala cuyo tamaño ayuda a medir la historia de expansión del universo) y la evolución de la estructura conforme el universo se expande.
Perfecto, entonces: ¿Qué es la energía oscura?
¡Me alegra que me hagas esa pregunta! La energía oscura tiene tres propiedades clave. Primero, es oscura: no la vemos, y hasta donde podemos observar, no interactúa en absoluto con la materia. (Tal vez lo haga, pero por debajo de nuestra capacidad actual de detección). Segundo, está uniformemente distribuida: no se acumula en galaxias y cúmulos, o la habríamos encontrado estudiando la dinámica de estos objetos. Tercero, es persistente: la densidad de la energía oscura (cantidad de energía por año luz cúbico) permanece aproximadamente constante conforme se expande el universo. No se diluye como pasa con la materia.
Estas dos últimas propiedades (uniformidad y persistencia) son la razón por la que la llamamos “energía” en lugar de “materia”. La energía oscura no parece actuar como las partículas, que tienen una dinámica local y se diluyen conforme se expande el universo. La energía oscura es otra cosa.
Es una buena historia general. ¿Qué podría ser, específicamente, la energía oscura?
El principal candidato es el más simple: la “energía del vacío”, o “constante cosmológica”. Dado que sabemos que la energía oscura es bastante uniforme y persistente, la primera idea es que es perfectamente uniforme y exactamente persistente. Eso es la energía del vacío: una cantidad fija de energía unida a cada diminuta región del espacio, inalterable de un lugar a otro, o de un momento a otro. Aproximadamente una millonésima de ergio por centímetro cúbico, si quieres conocer la cifra.
¿La energía del vacío es realmente lo mismo que la constante cosmológica?
Sí. No te creas las afirmaciones que dicen lo contrario. Cuando Einstein inventó la idea por primera vez, no pensó en ello como “energía”, pensó en una modificación de la forma en que la curvatura del espacio-tiempo interactuaba con la energía. Pero resultó que eran exactamente lo mismo. (Si alguien no quiere creer esto, pregúntale cómo distinguiría observacionalmente entre ambas).
¿La energía del vacío no procede de las fluctuaciones cuánticas?
No exactamente. Hay muchas cosas distintas que pueden contribuir a la energía del espacio vacío, y algunas son completamente clásicas (nada que ver con las fluctuaciones cuánticas). Pero, además de cualquiera que sea la contribución clásica a la energía del vacío, también hay fluctuaciones cuánticas sobre eso. Estas fluctuaciones son muy grandes, y eso lleva al problema de la constante cosmológica.
¿Qué es el problema de la constante cosmológica?
Si todo lo que supiéramos fuese mecánica clásica, la constante cosmológica no sería más que un número – no hay razón para que sea grande o pequeño, positivo o negativo. Simplemente la mediríamos y punto final.
Pero el mundo no es clásico, es cuántico. En la teoría cuántica de campos esperamos que las cantidades cuánticas reciban “correcciones cuánticas”. En el caso de la energía del vacío, estas correcciones vienen en forma de energía de partículas virtuales que fluctúan en el vacío del espacio.
Podemos añadir la cantidad de energía que se espera en estas fluctuaciones del vacío, y la respuesta es: una cantidad infinita. Esto, obviamente, es incorrecto, pero sospechamos que estamos contando de más. En concreto, ese cálculo aproximado incluye fluctuaciones de todos los tamaños, incluyendo longitudes de onda menores que la distancia de Planck, a la cual el espacio-tiempo probablemente pierde su validez conceptual. Si en lugar de eso incluimos sólo las longitudes de onda que son de longitud de Planck o mayores, tenemos una estimación específica para el valor de la constante cosmológica.
La respuesta es: 10120 veces lo que en realidad observamos. Esta discrepancia es el problema de la constante cosmológica.
¿Por qué la constante cosmológica es tan pequeña?
Nadie lo sabe. Antes de que llegasen las supernovas, muchos físicos suponían que había alguna simetría secreta o mecanismo dinámico que fijaba la constante cosmológica a un valor exacto de cero, dado que sabíamos con certeza que era mucho menor de lo que indicaban nuestras estimaciones. Ahora nos enfrentamos al problema de explicar por qué es tan pequeña, y por qué no es cero. Y por si fuera poco: el problema de la coincidencia, por qué la densidad de energía oscura es del mismo orden de magnitud que la densidad de materia.
Aquí es donde las cosas se ponen feas: actualmente, la mejor explicación teórica para el valor de la constante cosmológica es el principio antrópico. Si vivimos en un multiverso, donde distintas regiones tienen valores muy distintos de energía del vacío, se puede defender de forma plausible que  la vida sólo puede existir (para hacer observaciones y ganar un Premio Nobel) en regiones donde la energía del vacío es mucho menor que la estimada. Si fuera mayor y positiva, las galaxias (e incluso los átomos) quedarían desmembrados; si fuera mayor y negativa, el universo recolapsaría rápidamente. Es más, podemos estimar aproximadamente qué deberían medir los observadores típicos en tal situación; la respuesta está muy cerca del valor observado. Steven Weinberg realizó esta predicción en 1988, mucho antes de que se descubriese la aceleración del universo. No lo llevó demasiado lejos, sin embargo, más como “si es así como funcionan las cosas, esto es lo que esperaríamos ver …” Hay muchos problemas con este cálculo, sobre todo cuando se empieza a hablar de “observadores típicos”, incluso si estás dispuesto a creer que podría haber un multiverso. (Me encanta considerar el multiverso, pero soy muy escéptico sobre que podamos actualmente hacer una predicción razonable para cantidades observables dentro de ese marco de trabajo).
Lo que realmente nos gustaría tener es una fórmula simple que prediga la constante cosmológica de una vez por todas, como una función de otras medidas de constantes de la naturaleza. Aún no la tenemos, pero lo estamos intentando. Los escenarios propuestos hacen uso de la gravedad cuántica, dimensiones extra, agujeros de gusano, supersimetría, no localidad y otras ideas tan interesantes como especulativas. Nada ha dado en el clavo hasta ahora.
¿El progreso en Teoría de Cuerdas se ha visto afectado por algún resultado experimental?
Sí: la aceleración del universo. Anteriormente, los teóricos de cuerdas (como todo el mundo) suponían que lo adecuado era explicar un universo con una energía del vacío igual a cero. Una vez que hubo una posibilidad real de que la energía del vacío no fuese cero, se preguntaron si era fácil acomodarla dentro de la Teoría de Cuerdas. La respuesta es: no es muy difícil. El problema es que si puedes encontrar una solución, puedes encontrar un número absurdamente grande de soluciones. Esto es el paisaje de la Teoría de Cuerdas, que parece acabar con todas las esperanzas de encontrar una solución única que explique el mundo real. Esto habría sido genial, pero la ciencia tiene que tomar lo que ofrece la naturaleza.
¿Qué es el problema de la coincidencia?
La materia se diluye conforme el universo se expande, mientras que la densidad de energía oscura se mantiene más o menos constante. Por tanto, la densidad relativa de energía oscura y materia cambia considerablemente con el tiempo. En el pasado, hubo mucha más materia (y radiación); en el futuro, la energía oscura dominará por completo. Pero hoy, son aproximadamente iguales, según los estándares cosmológicos. (Cuando dos números puede diferir en un factor de 10100 o mucho más, un factor de aproximadamente tres cuenta como “igual”). ¿Por qué somos tan afortunados de haber nacido en una época en la que la energía oscura es lo bastante grande para poder descubrirla, pero lo bastante pequeña como para que su descubrimiento sea un esfuerzo que merezca el Nobel? Puede ser una coincidencia (que puede ser), o que haya algo especial en esta época en que vivimos. Ésa es una de las razones por las que la gente está dispuesta tomar en serio los argumentos antrópicos. Estamos hablando de un universo absurdo.
¿Si la energía oscura tiene una densidad constante, pero el espacio se expande, no significa eso que la energía no se conserva?
Sí. Eso es correcto, no se conserva.
¿Cuál es la diferencia entre “energía oscura” y “energía del vacío”?
“Energía oscura” es el fenómeno general de algo uniforme y persistente que hace que el universo acelere; “energía del vacío” es un candidato específico para la energía oscura, a saber, uno que es absolutamente uniforme y totalmente constante.
Entonces, ¿hay otros candidatos a la energía oscura?
Sí. Todo lo que necesitas es algo muy uniforme y persistente. Resulta que la mayor parte de cosas se diluyen, por lo que encontrar fuentes de energía persistentes no es tan fácil. La idea mejor y más simple es la quintaesencia, que es un campo escalar que impregna el universo y cambia muy lentamente con el paso del tiempo.
¿La idea de la quintaesencia es muy natural?
En realidad, no. La esperanza original era que, considerando algo cambiante y dinámico en lugar de una energía constante y fija, se podría llegar a alguna explicación inteligente a por qué la energía oscura es tan pequeña, y puede que incluso explicar el problema de la coincidencia. No se ha cubierto en realidad ninguna de las expectativas.
En lugar de eso, tienes nuevos problemas añadidos. De acuerdo con la teoría cuántica de campos, los campos escalares tienen tendencia a ser pesados; pero resulta que la quintaesencia, un campos escalar, tendría que ser tremendamente ligero, puede que 10-30 veces la masa del neutrino más ligero. (¡Pero no cero!) Ése es un nuevo problema que se ha introducido, y otro es que un campo escalar ligero debería interactuar con la materia común. Incluso si la interacción es muy débil, debería ser lo bastante grande para detectarse  – y no ha sido así. Por supuesto, además de un problema, es una oportunidad – puede que mejores experimentos encuentren realmente una “fuerza de quintaesencia”, y que comprendamos la energía oscura de una vez por todas.
¿Cómo podemos poner a prueba la idea de la quintaesencia?
La forma más directa es hacerlo de nuevo con las supernovas, pero hacerlo mejor. Más generalmente: cartografiar la expansión del universo con tanta precisión que puedas decir si la densidad de la energía oscura cambia con el tiempo. Esto, normalmente, se ve como un intento de medir el parámetro w de la ecuación de estado de la energía. Si w es exactamente  menos uno, la energía oscura es exactamente constante – la energía del vacío. Si w es ligeramente mayor que -1, la densidad de energía desciende gradualmente; si es ligeramente menor (por ejemplo -1,1), la densidad de energía oscura en realidad aumenta con el tiempo. Esto es peligroso por todo tipo de razones teóricas, pero deberíamos mantener nuestros ojos abiertos.
¿Qué es w?
Se conoce como “parámetro de la ecuación de estado” debido a que se relaciona con la presión p de la energía oscura y su densidad de energía ρ, a través de w = p/ρ. Por supuesto, nadie mide la presión de la energía oscura, por lo que es una definición algo estúpida, pero esto es un accidente de la historia. Lo que realmente importa es cómo evoluciona la energía oscura con el tiempo, pero, en general, la relatividad está directamente relacionada con el parámetro de la ecuación de estado.
¿Eso significa que la energía oscura tiene presión negativa?
Sí, así es. La presión negativa es lo que sucede cuando una sustancia tira en lugar de empujar – como un muelle hiperextendido que tira en cada extremo. A menudo se conoce como “tensión”. Por esto es por lo que defendía “tensión uniforme” como un mejor nombre que “energía oscura”, pero llegué demasiado tarde.
¿Por qué la energía oscura acelera el universo?
Porque es persistente. Einstein dice que la energía provoca que se curve el espacio-tiempo. En el caso del universo, esta curvatura aparece de dos formas: la curvatura del propio espacio (a diferencia del espacio-tiempo), y la expansión del universo. Hemos medido la curvatura del espacio, y es básicamente cero. Por lo que la energía persistente lleva a una tasa de expansión persistente. En particular, el parámetro de Hubble está cerca de ser constante, y si recuerdas la Ley de Hubble que vimos más arriba (v = H d) te darás cuenta de que si H es aproximadamente constante, v se incrementará debido a que la distancia aumenta. Por lo tanto: aceleración.
Si la presión negativa es como la tensión, ¿por qué no tira para unir cosas en lugar de separarlas?
A veces escucharás algo similar a “la energía oscura hace que el universo se acelere debido a que tiene presión negativa”. Esto, estrictamente hablando, es cierto, pero es un poco absurdo; te da la ilusión de comprender en lugar de comprender realmente. Te dicen que “la fuerza de la gravedad depende de la densidad más tres veces la presión, por lo que si la presión es igual y opuesta a la densidad, la gravedad es repulsiva”. Parece razonable, excepto que nadie te explicará por qué la gravedad depende de la densidad más tres veces la presión. Y en realidad no es que la “fuerza de la gravedad” dependa de eso; es la expansión local del espacio.
La pregunta de “¿por qué la tensión une las cosas?” es perfectamente válida. La respuesta es: debido a que la energía oscura realmente no tira ni empuja de nada. No interacciona directamente con la materia común, por una parte; por otra, está distribuida equitativamente por el espacio, por lo que tirar de algo en un sentido se equilibraría exactamente por un empujón opuesto en el otro. Es el efecto indirecto de la energía oscura, a través de la gravedad en lugar de la interacción directa, lo que hace que el universo acelere.
La verdadera razón por la que la energía oscura provoca que el universo acelere es debido a que es persistente.
¿La energía oscura es como la antigravedad?
No. La energía oscura no es “antigravedad”, es simple gravedad. Imagina un mundo con una energía oscura cero, excepto por dos burbujas llenas de energía oscura. Esas burbujas no se repelerían entre sí, se atraerían. Pero dentro de ellas, la energía oscura hará que el espacio se expandiese. Éste es el milagro de la geometría no Euclidiana.
¿Es una nueva fuerza repulsiva?
No. Es simplemente un nuevo tipo (o al menos distinto) de fuente para una vieja fuerza – la gravedad. No implica nuevas fuerzas de la naturaleza.
¿Qué diferencia hay entre la energía oscura y la materia oscura?
Son completamente diferentes. La materia oscura es un tipo de partícula, sólo que es uno que aún no hemos descubierto. Sabemos que está ahí debido a que vemos su influencia gravitatoria en una variedad de configuraciones (galaxias, cúmulos, estructuras a gran escala, radiación del fondo de microondas). Forma aproximadamente el 23% del universo. Pero, básicamente, es como la buena y vieja “materia”, simplemente materia que no podemos detectar directamente (aún). Se acumula bajo la influencia de la gravedad, y se diluye cuando el universo se expande. La energía oscura, mientras tanto, no se acumula, ni se diluye. No está hecha de partículas, es algo completamente distinto.
¿Es posible que no haya energía oscura, que simplemente sea una modificación de la gravedad a escala cosmológica?
Es posible, dese luego. Hay al menos dos aproximaciones populares a esta idea: f(R)gravity que Mark y yo ayudamos a desarrollar, y DGP gravity, de Dvali, Gababadze y Porati. La primera es una aproximación directamente fenomenológica donde simplemente cambias la ecuación de campo de Einstein jugando con la acción en cuatro dimensiones, mientras que la segunda usa dimensiones extra que sólo son visibles a grandes distancias. Ambos modelos se enfrentan a problemas – no necesariamente insalvables, pero serios – con nuevos grados de libertad e inestabilidades inherentes.
La gravedad modificada ciertamente merece que se la tome en serio (pero mira quién fue a hablar). Aun así, como la quintaesencia, genera más problemas de los que resuelve, al menos por el momento. Mis probabilidades personales: contaste cosmológica=0,9; energía oscura dinámica=0,09; gravedad modificada= 0,01 Eres libre de estar en desacuerdo.
¿Qué implica la energía oscura para el futuro del universo?
Eso depende de lo depende de lo que sea la energía  oscura. Si es una verdadera constante cosmológica que dura para siempre, el universo seguirá expandiéndose, enfriándose y vaciándose. Finalmente no quedará nada, salvo básicamente espacio vacío.
La constante cosmológica podría ser constante por el momento, pero temporalmente; es decir, podría haber una futura transición de fase en la que la energía del vacío decrezca. Entonces el universo podría recolapsar.
Si la energía oscura es dinámica, queda abierta cualquier posibilidad. Si es dinámica y cada vez mayor (w menor que -1 y manteniéndose así), se podría incluso conseguir un Big Rip.
¿Qué es lo siguiente?
Nos encantaría entender la energía oscura (o la gravedad modificada) a través de mejores observaciones cosmológicas. Esto significa medir el parámetro de la ecuación de estado, así como mejorar las observaciones de la gravedad en cúmulos y galaxias para compararlas con distintos modelos. Por suerte, aunque Estados Unidos está gradualmente retirándose de nuevos  y ambiciosos proyectos científicos, la Agencia Espacial Europea está dando un paso adelante con un satélite para medir la energía oscura. Hay un número de proyectos en tierra en curso, y el Gran Telescopio de Estudio Sinóptico debería hacer un gran trabajo una vez que entre en funcionamiento.
Pero la respuesta podría ser aburrida – la energía oscura no es más que una constante cosmológica. Eso es sólo un número, ¿qué vas a hacer con él? En ese caso necesitaremos mejores teorías, obviamente, pero también información de fuentes empíricas menos directas – aceleradores de partículas, búsquedas de la quinta fuerza, test de la gravedad, cualquier cosa que nos diese alguna visión de cómo el espacio-tiempo y la teoría cuántica de campos encajan a nivel básico.
Lo mejor de la ciencia es que las respuestas no están al final del libro; tenemos que resolver los problemas por nosotros mismos. Éste es uno muy grande.

Autor: Sean M. Carroll
Fecha Original: 4 de octubre de 2011
Enlace Original