lunes, 31 de octubre de 2011

¿Como cambiar la posición de los botones en las ventanas?

Fuente:  Ubuntronics

Desde hace unos cuantos días estoy usando Ubuntu, lo he instalado para probar Unity, que no me termina de convencer. Ahora he instalado GNOME Shell, el cual, me ha sorprendido por lo rápido que funciona y los pocos recursos que consume en comparación a Unity.



Dicho esto, vamos al tema de la publicación: ¿Como cambiar la posición de los botones en las ventanas?. Esto algo que se me ha hecho costumbre, es que simplemente me siento más cómodo teniendo los botones en el lado izquierdo, y en GNOME Shell, por defecto, vienen del lado contrarío.


Es muy fácil de hacer, primero debemos instalar el editor de configuración de GNOME, para ello ejecutamos el siguiente comando en el terminal:

  • sudo apt-get install gconf-editor

Al terminar la instalación lo ejecutamos desde el menú: "Aplicaciones -> Herramientas del sistema -> Editor de configuración". Una vez abierto nos dirigimos a: "desktop -> gnome -> shell -> windows".

Ahí tenemos que editar la entrada "button_layout" a nuestro gusto. Además no solo podremos cambiar de lugar los botones, si no que también, es posible agregar otros, como el de minimizar, maximizar o el menú, ya que por defecto, GNOME Shell solo trae el botón de cerrar.

Anonimous propone hackear las elecciones. (Vídeo)



Nota: El vídeo es meramente informativo, haced lo que queráis con vuestro voto, pero procurad buscar información y tened todas las opciones disponibles.

viernes, 28 de octubre de 2011

Gran Bretaña es el país con el mejor rendimiento científico del mundo, según Thomson Reuters y Elsevier

Fuente: Francis (th)E mule

El impacto de la ciencia producida en EE.UU. está de capa caída; el país que mejor financia la investigación de todo el mundo ha sido superado en impacto por Gran Bretaña y por Alemania (el primero ya lo superó hace tres años). Según un estudio de la editorial Elsevier, Gran Bretaña es el país con el mejor rendimiento científico del mundo, es decir, el mejor cociente entre el impacto (normalizado) de sus publicaciones y los fondos públicos invertidos en su financiación. No solo lo dice Elsevier, otro análisis de Thomson Reuters obtiene resultados similares. Gran Bretaña produce el 8% de los artículos de investigación publicados en todo el mundo, pero logra producir el 17% de los trabajos de investigación con más de 500 citas y el 20% de los que tienen más de 1000 citas. Entre 1991 y 2011, el impacto de la ciencia de EE.UU. se ha estancado (“ha tocado techo”), mientras que el impacto de países como Gran Bretaña, Alemania y Francia está en pleno crecimiento. Gran Bretaña pasó del segundo lugar en 1991 al primer lugar desde 2007; Alemania pasó del cuarto lugar en 1991 hasta el segundo en 2010; Francia, en el quinto puesto detrás de EE.UU., sigue creciendo y se espera que si el gobierno de los EE.UU. no hace nada para evitarlo, acabará obteniendo el tercer lugar. ¿Qué harán los estadounidenses para corregir su estancamiento durante los últimos 20 años? Eliot Marshall, John Travis, “Scientific Impact: U.K. Scientific Papers Rank First in Citations,” Science 334: 443, 28 October 2011, no se atreven a ofrecer ninguna respuesta.
Por cierto, España no se encuentra en buen lugar. En 2010 fuimos los novenos (#9) por número de artículos, los undécimos (#11) por número de citas, pero los trigésimo cuartos (#34) por número de citas por artículo. El puesto 34 donde Gran Bretaña es el número 1 y EE.UU. el número 3. Sin palabras. Prefiero no hacer comentarios.

jueves, 27 de octubre de 2011

Experimento cuántico-gravitatorio

Fuente: Neofronteras

Proponen un experimento para medir efectos cuánticos sobre la gravedad y predicen qué se podría observar.
Foto
Como ya saben los lectores de NeoFronteras, uno de los grandes problemas de la Física moderna es el de no haber conseguido aún una teoría cuántica de la gravedad. Por un lado tenemos la relatividad General (RG) y por otro la Mecánica Cuántica (MC). Ambas han sido tremenda exitosas a la hora de predecir el comportamiento de fenómenos físicos y las aplicamos según nuestras necesidades. Si se trata de planetas, galaxias o el Universo (gran escala) mismo aplicamos la primera, si se trata de objetos pequeños como átomos, moléculas o electrones (pequeña escala) aplicamos la segunda. Los efectos cuánticos no se manifiestan cuando ampliamos el tamaño de los sistemas y éstos pasan a comportarse clásicamente.
Una unificación entre ambas teorías es necesaria para explicar bien el Big Bang o las singularidades de los agujeros negros, pues reinan las condiciones físicas en las que ambas son aplicables. Pero no disponemos de experimentos que nos permitan explorar tales escalas de energía. Toda propuesta a teoría cuántica de gravedad se basa en estudios puramente teóricos y debe de proporcionar, además de cumplir cierta consistencia interna, las predicciones habituales para casos energéticamente más cotidianos. Ninguna teoría propuesta ha conseguido todo esto y, a veces, como en el caso de las cuerdas, lo empeoran todo en lugar de proporcionar soluciones.
Cualquier experimento que nos guíe hacia una teoría cuántica de la gravedad siempre será una buena ayuda, pero el diseño de ese tipo de experimentos es muy difícil y hasta el momento no ha habido mucho éxito.
Ahora Caslav Brukner, de la Universidad de Viena, propone un experimento que trataría precisamente de observar efectos cuánticos de la gravedad, de estudiar un régimen en el que ambas teorías se solapan. Se centra en la medida de la noción del tiempo de la RG a la escala cuántica.
Una de las predicciones de la RG más interesantes dice que el tiempo pasa a distinto ritmo dependiendo de la intensidad del campo gravitatorio. De este modo el tiempo que transcurre más lentamente a nivel del mar que en la cumbre de una montaña. Este efecto ha sido además comprobado reiteradamente, incluso con una diferencia de altura sólo un par de metros. Obviamente cuando se trata de de la Tierra y esos casos la diferencia temporal es increíblemente minúscula. Pero un hipotético astronauta cayendo en un agujero negro podría ver el fin del Universo gracias a este efecto.
La idea de Brukner es usar este efecto junto la superposición cuántica. Una partícula cuántica puede perder la característica clásica de tener una posición bien definida y estar en una superposición de estados. Esto incluso permite que una partícula interfiera consigo misma. Pero si se mide la posición entonces la función de ondas de la partícula colapsa y queda definida. Pero no se puede observar la interferencia y además una posición definida simultáneamente. Esta conexión entre información e interferencia es un ejemplo de complementariedad cuántica, que fue propuesto por primera vez por Niels Bohr.
Este equipo de investigadores propone disponer una partícula como si fuera un reloj que tenga un grado de libertad interna como el spin y llevarlo a una superposición entre dos localizaciones a distinta altura sobre la superficie de la Tierra, es decir, bajo intensidades de campo gravitatorio distintas. Según la RG el “reloj” marchará a distinto ritmo a estas dos distintas alturas, pero la medida del tiempo revelara la información sobre la localización del reloj, ya que una vez se mide se fija una de las dos posiciones posibles, entonces la interferencia se pierde y la naturaleza ondulatoria del reloj se pierde.
Foto
En el montaje hay dos divisores de haz (BS) un desfasador (PS) y dos detectores (D). El haz se divide en dos trayectorias que al final se han interferir. Todo ello se da en un campo gravitatorio orientado antiparalelamente con el eje x. La separación entre caminos en la dirección del campo es Δh. La RG induce un transcurrir del tiempo propio diferente entre caminos. Los autores predicen no solamente un desfase y por tanto, un desplazamiento del patrón de interferencia, sino que la visibilidad de éste tiene que reducirse debido a que la información de la trayectoria termina estando disponible a partir de la lectura del tiempo propio del “reloj”. Fuente: Magdalena Zych, Fabio Costa, Igor Pikovski y Časlav Brukner.
¿Y que se vería en este caso? Básicamente se vería una figura de interferencia de la partícula interfiriendo consigo misma. Pero debido a la existencia del campo gravitatorio habría un desfase entre las funciones de onda de los distintos caminos (un desplazamiento del patrón interferencia) y además ese patrón sería más débil.
Normalmente este desfase suele aparecer en sistemas en los que se da el efecto Aharonov–Bohm en donde el espacio-tiempo es plano pero en donde hay un potencial efectivo (generalmente el potencial vector electromagnético), pero aquí aparece sin que haya tal potencial debido a que el espacio-tiempo no es plano, sino curvado debido a la presencia de un masa (la Tierra) que produce un campo gravitatorio que a su vez induce una decoherencia cuántica.
Los investigadores proponen que con un interferómetro atómico se podría ver el efecto, incluso aunque no se alcance una ortogonalidad total entre relojes.
Magdalena Zych, líder del artículo donde se expone la idea, dice que el experimento requiere tanto Relatividad General como Mecánica Cuántica y esta interacción entre teorías no ha sido comprobada en experimentos aún. Por tanto, es la primera propuesta para un experimento que permite comprobar la noción de tiempo de la RG en conjunción de la complementariedad cuántica.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3639
Fuentes y referencias:
Nota de prensa.
Artículo original (en abierto).
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

lunes, 24 de octubre de 2011

La paradoja de la información, simplificada

Fuente: Ciencia Kanija

Artículo publicado por Jon Cartwright el 15 de agosto de 2011 en physicsworld.com
El horizonte de eventos de un agujero negro es la última oportunidad definitiva: más allá de este límite nada, ni siquiera la luz, puede escapar. ¿Pero ese “nada” incluye a la propia información? Los físicos han pasado la mayor parte de las últimas cuatro décadas lidiando con la “paradoja de la información”, pero ahora, un grupo de investigadores del Reino Unido, cree que puede ofrecer una solución.
Los investigadores han creado un modelo teórico para el horizonte de eventos de un agujero negro que evita por completo el espacio-tiempo. Su trabajo también apoya una controvertida teoría, propuesta el año pasado, que sugiere que la gravedad es una fuerza emergente en lugar de una interacción fundamental universal.

Agujero negro © Crédito: thebadastronomer
Historia paradójica
La paradoja de la información surgió por primera vez en la década de 1970, cuando Stephen Hawking de la Universidad de Cambridge, basándose en un trabajo anterior de Jacob Bekenstein, de la Universidad Hebrea de Jerusalén, sugirió que los agujeros negros no son totalmente negros. Hawking demostró que los pares partícula-antipartícula generados en el horizonte de eventos – en la periferia exterior de un agujero negro – se separan. Una partícula caería en el agujero negro, mientras que la otra escaparía, haciendo del agujero negro un cuerpo radiante.
La teoría de Hawking implica que, con el tiempo, un agujero negro finalmente se evaporaría, sin dejar nada. Esto presentó un problema para la mecánica cuántica, que dice que nada, incluyendo la información, puede perderse. Si los agujeros negros ocultan la información para siempre en sus singularidades, habría un error fundamental en la mecánica cuántica.
La importancia de la paradoja de la información llegó a un punto en 1997, cuando Hawking, junto con Kip Thorne, del Instituto de Tecnología de California (Caltech) en los EE.UU., hicieron una apuesta con John Preskill, también de Caltech. En ese momento, Hawking y Thorne creían que la información se perdía en los agujeros negros, mientras que Preskill pensaba que era imposible. Más tarde, sin embargo, Hawking admitió su derrota, diciendo que creía que la información retorna – aunque en un estado encubierto.
A finales del siglo, Maulik Parikh, de la Universidad de Utrecht en los Países Bajos, junto con Frank Wilczek, del Instituto de Estudios Avanzados de Princeton en EE.UU., mostró cómo la información podría filtrarse desde un agujero negro. En su teoría, las partículas portadoras de información justo en el borde interior del horizonte de eventos, podrían pasar a través de la barrera por el efecto túnel, siguiendo los principios de la mecánica cuántica. Sin embargo, esta solución también sigue siendo discutible.
El túnel a través de horizonte de eventos
Ahora, Samuel Braunstein y Manas Patra, de la Universidad de York en el Reino Unido, creen haber formulado una teoría de tunelización que parece bastante más atractiva que la de Parikh y Wilczek. “No podemos decir que hayamos demostrado que es realmente posible escapar de un agujero negro”, explican, “pero ésa es la interpretación más directa de nuestros resultados”.
Normalmente, los teóricos que tratan con agujeros negros tiene que luchar contra las complejas geometrías del espacio-tiempo que surgen de la teoría de la gravitación Einstein – la Teoría de la Relatividad General. En su modelo, Braunstein y Patra dicen que el horizonte de eventos es de naturaleza puramente mecánico cuántica, con bits del espacio cuántico de “Hilbert” pasando por un túnel a través de la barrera.
Los teóricos encontraron que incluso un modelo de tunelización tan simplificado puede reconstruir el espectro de radiación que se cree que emana de un agujero negro. Esto es distinto al modelo de creación de pares de Hawking, que lleva a la pérdida de información y siempre ha requerido muchos más detalles teóricos para funcionar. En pocas palabras, Braunstein y Patra dicen que la tunelización parece una característica intrínseca mucho más probable un agujero negro – así que, probablemente, la información no se pierde después de todo. Sus hallazgos se publican en el último ejemplar de la revista Physical Review Letters.
La profundidad de la gravedad
Hay todavía otra vuelta de tuerca más al trabajo de los investigadores. El año pasado, el teórico de cuerdas Erik Verlinde, de la Universidad de Amsterdam, basándose en el trabajo de Ted Jacobsen de la Universidad de Maryland en los EE.UU., presentó una idea especulativa sobre el origen de la gravedad. Según la propuesta de Verlinde, la gravedad no es una interacción fundamental, sino que surge del universo tratando de maximizar el desorden. La gravedad es, por tanto, una “fuerza entrópica” – una consecuencia natural de la termodinámica – tal y como se siente la fuerza sobre una goma estirada cuando las moléculas intentan escurrirse hacia estados desordenados.
Braunstein y Patra creen que su modelo de agujero negro favorece la propuesta Verlinde. Si la gravedad – por no hablar de la inercia o el espacio-tiempo – es una fuerza emergente, entonces no se utilizaría para descubrir el mecanismo básico de pérdida de información de los agujeros negros, que es lo que han demostrado los investigadores de York. “Esto no demuestra que Verlinde está en lo correcto, pero sí que su propuesta ‘tiene base’”, dice Braunstein a physicsworld.com.
Steve Giddings, físico especializado en gravedad cuántica de la Universidad de California en Santa Barbara, no cree que Braunstein y Patra hayan abordado “las preguntas más cruciales” de la propuesta de Verlinde. Sin embargo, dice que han propuesto otra pista de un importante vínculo entre la información cuántica y la gravedad. “Un desafío importante es descubrir si podemos dar una base más sólida a las ideas propuestas por Verlinde y otros”, añade. “Ésta puede ser una pieza más del rompecabezas, pero no hemos terminado aún”.

Autor: Jon Cartwright
Fecha Original: 15 de agosto de 2011
Enlace Original

jueves, 20 de octubre de 2011

Las críticas se centran en los neutrinos rápidos

Fuente: Ciencia Kanija

Artículo publicado por Devin Powell el 19 de octubre de 2011 en Science News
La falta de un rastro de energía sugiere que hubo en error de cálculo en el hallazgo.
Un nuevo estudio echa el freno a los neutrinos más rápidos que la luz.
En septiembre, un grupo del experimento OPERA de Italia, supuestamente registró unos neutrinos que viajaron los 730 kilómetros entre el CERN de Suiza y el Laboratorio Nacional del Gran Sasso de Italia, cerca de 60 nanosegundos más rápido de lo que la luz hubiese cubierto esa distancia en el vacío (SN: 10/22/11, p. 18).Pero, si esto fuera cierto, la mayoría de los neutrinos se hubiesen despojado de energía durante su viaje, según sugiere un nuevo análisis realizado por físicos de la Universidad de Boston.

Detector de neutrinos Super Kamiokande © by Ethan Hein

OPERA debería haber detectado esta radiación, dicen los físicos, si son ciertas sus afirmaciones. No lo hizo.
“Yo estaría extasiado de ver algún tipo de nueva física procedente de este experimento”, dice Andrew Cohen, físico teórico que, junto al ganador del Premio Nobel, Sheldon Glashow, informa del nuevo hallazgo en un próximo ejemplar de la revista Physical Review Letters.  ”Es difícil de acomodarlo, dada esta [falta de] radiación”.
Para continuar con esta idea, un segundo experimento de neutrinos en el Gran Sasso, llamado ICARUS, buscó señales de esta radiación y no las encontró, según informa otro grupo el 17 de octubre en arXiv.org.
Se ha estudiado un tipo similar de pérdida de energía en el agua y otros materiales en los que la luz viaja más lento de lo que lo hace en el espacio vacío. Las partículas que viajan más rápido que la luz en estas sustancias emiten destellos de energía que se conocen como radiación de Cherenkov. Los detectores Cherenkov aprovechan este efecto para detectar tales partículas, incluyendo las creadas por los rayos cósmicos.
Pero el artículo de Cohen y Glashow es el primero en extender esta idea a los supuestos neutrinos que superan a la luz en un vacío. El modelo estándar de la física de partículas establece que ellos también tienen que renunciar a energía, emitiendo pares de electrones y positrones, dice Cohen.
Existen teorías exóticas que permiten que los neutrinos más rápidos que la luz se aferren a su energía. Pero la falta de esta firma da más apoyo a la opinión predominante de que el equipo de OPERA ha cometido algún error debido a alguna incertidumbre no contabilizada en sus mediciones.
“Estamos bastante convencidos de que el experimento está mal”, dice Glashow. “Pero no creo que nadie haya identificado el error, si es que lo hay, hasta el momento”.
Gilles Henri, astrofísico teórico en el Instituto de Ciencias Planetarias y Astrofísica de Grenoble, Francia, se pregunta si las fluctuaciones en el haz de neutrinos podrían ser la causa. En un artículo publicado el 2 de octubre en arXiv.org, sugiere que algunos neutrinos de la multitud que viajaron a Italia, pueden haber comenzado su viaje antes de lo pensado, rompiendo la velocidad media calculada para el grupo.
También se han analizado los dos relojes atómicos utilizados por el equipo de OPERA para medir el tiempo de viaje de sus neutrinos. Carlo Contaldi, físico teórico del Imperial College de Londres, sugiere que la Teoría de la Relatividad General Einstein podría haber provocado que los relojes marcasen a un ritmo diferente – gracias a que la gravedad tira más fuerte del reloj situado en el inicio del viaje de los neutrinos en Suiza, que en su socio, en las profundidades de Italia. Para comprobar su idea, Contaldi está esperando que el equipo de OPERA explique los detalles de su experimento con más profundidad.
No es el único.
“Hasta que no se ofrezcan más detalles en cuanto a cómo hicieron las diversas partes de su experimento”, dice Contaldi, “no estará claro cómo proceder.”

Autor: Devin Powell
Fecha Original: 19 de octubre de 2011
Enlace Original

miércoles, 19 de octubre de 2011

Observan fluctuaciones cuánticas

Fuente: Neofronteras

Investigadores del Instituto Max Planck han conseguido obtener imágenes de fluctuaciones cuánticas cerca del cero absoluto de temperatura.
Foto
Hay sistemas físicos que fluctúan continuamente de alguna manera. Así por ejemplo, las moléculas de un gas se mueven erráticamente, los dipolos magnéticos de una material también. En general estas fluctuaciones están relacionadas con la temperatura. A mayor temperatura mayor agitación habrá. Si vamos bajando la temperatura de un sistema estas agitaciones, estas fluctuaciones, van disminuyendo. En un sistema clásico uno esperaría que cuando se llegase al cero absoluto de temperatura estas fluctuaciones desaparecerían. Pero la realidad microscópica es cuántica, no clásica. Hay fluctuaciones de origen cuántico que no desaparecen en el cero absoluto.
Hasta ahora solamente la temperatura se opone a que los bits del disco duro de nuestro computador cambien de 1 a 0 o viceversa, pero los bits son cada vez más pequeños y llegará un día en el que las fluctuaciones cuánticas sean importantes. Entonces, aunque refrigeremos mucho el sistema y hagamos desaparecer las fluctuaciones térmicas, la información almacenada de esa manera simplemente podría desaparecer bajo la acción de las fluctuaciones cuánticas.
Las fluctuaciones cuánticas no son, por tanto, una simple curiosidad y tienen un efecto sobre muchos sistemas. En este caso vamos a ver el papel que juegan en un tipo de transiciones de fase cuánticas.
Ahora investigadores del Instituto Max Planck dirigidos por Stefan Kuhr han conseguido obtener imágenes de fluctuaciones cuánticas cerca del cero absoluto de temperatura (a unos 273 grados centígrados bajo cero).
Obviamente algo así no puede ser observado con un microscopio convencional pues los átomos o moléculas son mucho más pequeños que la longitud de onda de la luz visible. Pero gracias a una serie de trucos estos investigadores pueden saber su ubicación y reconstruir una imagen del sistema.
Tampoco se ha usado un material convencional, sino unos átomos de rubio ultrafríos atrapados en una red óptica que forman una especie “cristal gaseoso unidimensional”.
Han podido obtener imágenes de correlaciones entre pares hueco-partícula de este gas ultrafrío, algo que les ha permitido estudiar el orden oculto de este sistema y caracterizar las diferentes fases de este gas cuántico. Estas medidas abren nuevas vías a la hora de caracterizar fases cuánticas novedosas de la materia.
Al conjunto de átomos ultrafríos de rubidio se les somete a unos haces alineados de luz especialmente diseñados para imponer restricciones en dichos átomos y atraparlos según un patrón o formación determinado hecho con regiones de luz brillantes y oscuras. Digamos que la luz crea una “cárcel” para los átomos con celdas equiespaciadas.
Los átomos se mueven el la red luminosa de manera similar a como lo hacen los electrones en la red cristalina de un sólido. Según se puedan mover de una manera u otra, los electrones proporcionan las propiedades eléctricas del sólido, como su conductividad. La ventaja de un sistema de átomos ultrafríos como el descrito es que está sujeto a manipulación e incluso podemos usar un determinado número de dimensiones espaciales.
Los gases cuánticos unidimensionales pueden comportarse a baja temperatura como un superfluidos o como un “aislantes”.
En este caso en particular, la altura del potencial juega un papel importante, que es el de determinar si un átomo está fijo en un lugar específico de la red o si se puede mover al sitio de al lado. A grandes profundidades de la red (hablamos en este caso de potenciales no de distancias), cada sitio está ocupado por exactamente un átomo. A este sistema altamente ordenado se le denomina aislante de Mott en honor al premio Nobel Neville Mott. Cuando está profundidad del potencial disminuye ligeramente, los átomos que tiene suficiente energía se pueden mover al sitio de al lado gracias al efecto túnel cuántico. De este modo se forman pares de huecos (sitios de la red vacíos de átomos) y sitios ocupados doblemente. Esto forma pares hueco-partículas. Lo interesante es que como es un sistema cuántico, este efecto se puede dar a temperatura cero gracias a las fluctuaciones cuánticas, cuando según la Física Clásica todo movimiento debería detenerse. La posición de los pares hueco-partícula correlacionados en el cristal está completamente indeterminada y se fija sólo bajo el proceso de medida.
En experimentos recientes estos investigadores ya habían desarrollado el método que les permitía visualizar la posición de cada átomo en la red de luz. Los átomos son enfriados gracias a haces láser y los fotones de fluorescencia que emiten en el proceso son usados para localizarlos gracias a un microscopio de alta resolución.
Foto
Los huecos se muestran con esta técnica como lugares oscuros y también los doblemente ocupados, pues las dos partículas de esa ubicación se interfieren entre sí y se echan mutuamente de la red. Por tanto, con está técnica, los pares hueco-partícula aparecen como dos puntos oscuros uno al lado del otro.
Manuel Endres, uno de los estudiantes implicados en el proyecto, se muestra entusiasta con el experimento y dice que con esta técnica se pueden observar directamente por primera vez este fenómeno cuántico fundamental.
Estos físicos miden el número de pares hueco-partícula a través de una función de correlación. Si se aumenta la energía cinética cada vez más partículas sufren efecto túnel a una celda vecina y esa función de correlación aumenta. Sin embargo, cuando el número de pares hueco-partícula es muy grande empieza a ser difícil identificarlos sin ambigüedad y la función de correlación toma valores pequeños. Finalmente el estado ordenado de aislante de Mott desaparece completamente y el gas cuántico se transforma en un superfluido. Aquí las fluctuaciones de huecos y partículas se dan de manera independiente. La función de correlación medida en el experimento es reproducida muy bien por los cálculos en el modelo.
Curiosamente la misma investigación realizada en gases cuánticos bidimensionales claramente mostró que las fluctuaciones cuánticas no eran tan importantes como lo son en sistemas unidimensionales.
Los investigadores extendieron además el análisis a las correlaciones a varios sitios a lo largo de una fila. Estas correlaciones no locales contienen información importante acerca del sistema de muchos cuerpos subyacente y puede ser usado como parámetro de orden para caracterizar las distintas fases cuánticas del sistema. El concepto de parámetro de orden es fundamental en el estudio de transiciones de fase. En el experimento descrito los parámetros de orden no locales han sido medidos por primera vez.
En el futuro, este grupo planea usar estas medidas para detectar fases cuánticas topológicas. Éstas pueden ser útiles para la construcción de computadores cuánticos robustos y podrían ayudar a comprender la temperatura a alta temperatura.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=
Fuentes y referencias:
Nota de prensa.
Artículo original.
Artículo en ArXiv.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

lunes, 17 de octubre de 2011

El misterio de los neutrinos más rápidos que la luz resuelto por la Relatividad Especial

Fuente: Ciencia Kanija

Artículo publicado el 14 de octubre de 2011 en The Physics ArXiv Blog
El movimiento relativista de los relojes a bordo de los satélites GPS tiene en cuenta con exactitud el efecto superlumínico.
Ya han pasado tres semanas desde la extraordinaria noticia de que unos neutrinos que viajaron entre Francia e Italia se registró que lo hacían más rápido que la luz. El experimento, conocido como OPERA, encontró que las partículas producidas en el CERN, cerca de Ginebra, llegaron al Laboratorio Nacional Gran Sasso, en Italia, unos 60 nanosegundos antes de lo que permite la velocidad de la luz.

Satélite GPS © by cliff1066™

El resultado ha enviado una onda de entusiasmo a través de la comunidad física. Desde entonces, han aparecido más de 80 artículos en arXiv tratando de desacreditar o explicar el efecto. Huelga decir, sin embargo, que el sentimiento general es que el equipo de OPERA ha debido pasar algo por alto.
Hoy, Ronald van Elburg de la Universidad de Groningen en los Países Bajos presenta un argumento convincente de que ha encontrado el error.
En primer lugar, vamos a revisar el experimento, que se basa en una idea muy simple: una medida de la distancia y el tiempo.
La distancia es sencilla. La posición de la producción de neutrinos en el CERN es bastante fácil de medir con GPS. La posición del Laboratorio de Gran Sasso es más difícil de ubicar debido a que está a un kilómetro debajo de la montaña. Sin embargo, el equipo de OPERA dice que ha establecido la distancia de 730 km con un margen de error de 20 cm o menos.
El tiempo de vuelo de los neutrinos es mas difícil de medir. El equipo de OPERA dice que puede evaluar con precisión el instante en que se crean los neutrinos, y el instante en el que se detectan, usando relojes en ambos extremos.
Pero la parte difícil es mantener los relojes de ambos extremos exactamente sincronizados. El equipo hace esto usando satélites GPS, cada uno emitiendo una señal temporal de alta precisión desde una órbita a unos 20 000 km de altura. Esto introduce una serie de complicaciones adicionales que el equipo tiene que tener en cuenta, tales como el tiempo de viaje de las señales GPS hacia el suelo.
Pero van Elburg dice que hay un efecto que el equipo de OPERA parece haber pasado por alto: el movimiento relativista de los relojes GPS.
Es fácil pensar que el movimiento de los satélites es irrelevante. Después de todo, las ondas de radio que portan la señal temporal deben viajar a la velocidad de la luz, sin importar la velocidad de los satélites.
Pero hay una sutileza adicional. Aunque la velocidad de la luz no depende del marco de referencia, el tiempo de vuelo sí que lo hace. En este caso, hay dos marcos de referencia: el experimento en tierra y los relojes en órbita. Si estos se mueven uno respecto al otro, entonces tiene que tenerse en cuenta.
Entonces, ¿cuál es el movimiento de los satélites con respecto al experimento OPERA? Estas sondas orbitan de oeste a este en un plano inclinado 55 grados respecto al ecuador. Es significativo que este ángulo esté aproximadamente alineado con la ruta de vuelo de los neutrinos. Su movimiento relativo es entonces fácil de calcular.
Por lo tanto, desde el punto de vista de un reloj de a bordo de un satélite GPS, las posiciones de la fuente y el detector de neutrinos están cambiando. “Desde la perspectiva del reloj, el detector se mueve hacia la fuente y, por consiguiente, la distancia recorrida por las partículas observado desde el reloj, es más corta”, dice van Elburg.
Con esto quiere decir más corta que la distancia medida en el marco de referencia sobre el terreno.
El equipo de OPERA pasó por alto esto debido a que pensaba que los relojes estaban en tierra, y no en órbita.
¿Cómo de grande es este efecto? Van Elburg calcula que debería provocar que los neutrinos llegasen 32 nanosegundos antes. Pero esto debe duplicarse, dado que se genera el mismo error en cada extremo del experimento. Por lo que la corrección total es de 64 nanosegundos, casi exactamente lo que observó el equipo de OPERA.
Esto es impresionante, pero no como para decir que el caso está cerrado. La revisión por pares es una parte esencial del proceso científico, y este argumento debe mantenerse bajo el escrutinio de la comunidad en general y del equipo de OPERA en particular.
Si se mantiene, este episodio estará cargado de ironía. Lejos de romper la Teoría de la Relatividad de Einstein, la medida por encima de la velocidad de la luz resultará ser otra confirmación de la misma.

Artículo de Referencia: arxiv.org/abs/1110.2685: Times Of Flight Between A Source And A Detector Observed From A GPS Satellite.
Fecha Original: 14 de octubre de 2011
Enlace Original

viernes, 14 de octubre de 2011

El deuterón puede resolver uno de los grandes misterios de la física



La noticia de que unas partículas llamadas neutrinos pueden ser más rápidas que la luz ha convulsionado recientemente el mundo de la física. No es la única idea nueva. Bira van Kolck, un físico teórico de la Universidad de Arizona, se agarra a otra partícula para plantear una nueva hipótesis que, de confirmarse, también haría pedazos el modelo estándar de la física, las leyes del mundo que conocemos hasta ahora. Los experimentos de Van Kolck señalan que un simple núcleo atómico, el deuterón, está relacionado con el misterioso fenómeno de la reversión temporal -¿puede el tiempo ir hacia atrás en un nivel cuántico?- y puede conducir a la explicación de uno de los mayores enigmas del Universo: el desequilibrio entre la materia y la antimateria. El estudio aparece publicado en Physical Review Letters.


La mayor parte de lo que los físicos saben sobre el Universo puede ser descrito en lo que se llama el modelo estándar de la física de partículas. Desarrollado por el premio Nobel Steven Weinberg, ex director de tesis de Van Klock, este modelo lo contempla todo, desde las leyes de Newton hasta el comportamiento de las partículas subatómicas, lo que se conoce como mecánica cuántica. «Sin embargo, hay un problema que el modelo estándar no explica», apunta Van Klock.

Y es que según las teorías actuales, por cada partícula de materia que existe en el Universo tiene que haber otra de antimateria, con igual masa pero con carga eléctrica opuesta. El problema es que cuando materia y antimateria entran en contacto, se aniquilan mutuamente. Lo cual da lugar a uno de los mayores misterios de la física moderna: si durante el Big Bang se generó igual cantidad de materia que de antimateria, ¿por qué el Universo parece estar hecho por completo de materia ordinaria? ¿Dónde está la antimateria que falta?

Un juego de billar

La explicación, según el científico, puede estar relacionada con la violación de un raro fenómeno conocido como reversión temporal. ¿Qué significa exactamente? Van Kolck lo compara con un juego de billar. «Supongamos que usted golpea dos bolas una contra otra en la mesa. Supongamos que filma la escena, y la reproduce hacia delante y al revés. Si no dice nada a la persona que lo está viendo, ésta no sería capaz de decir que versión es correcta y cuál está al revés», explica.

Como en la película, el tiempo puede retroceder en las ecuaciones de los científicos que describen nuestro mundo y las ecuaciones todavía cuadran. Por ejemplo, la máxima velocidad de nuestro coche son los kilómetros que puede recorrer por hora o, para un físico, la distancia dividida por el tiempo. Si el tiempo se pone al revés, de manera que se convierte en un número negativo, la ecuación todavía funciona porque las magnitudes de la velocidad y la distancia permanecen iguales.

Pero el sentido común nos dice que el tiempo solo va en un sentido. Las personas envejecen, no se vuelven más jóvenes. «Continuemos con nuestro ejemplo de las bolas de billar -dice Van Kolck-, cuando empiezas el juego hay un triángulo de bolas en el medio, y alguien dispara una bola al conjunto provocando que todas las bolas se dispersen. Si reproducimos la película al revés, la mayoría de la gente dirá que no es realista, porque sería muy raro todas las bolas colisionaran a la vez formando un triángulo».

«La razón por la que percibimos una dirección preferida tiene que ver con el hecho de que es mucho más fácil ir de un estado inicial simple que de uno muy complicado», dice Van Kolck. Por lo que el tiempo puede ser invertido en las ecuaciones de la física sin afectar al resultado, pero los efectos de la inversión del tiempo permanecen imperceptibles en nuestra vida cotidiana.

Violación de la simetría

«Hasta la década de 1960, lo físicos pensaban que las leyes de la física no cambiaban si el tiempo iba hacia atrás, pero luego se descubrió que hay algunos fenómenos en las partículas subatómicas donde parece que hay una pequeña violación de esta simetría», recuerda el científico. En otras palabras, la versión al revés de la película de las bolas de billar sería un poco diferente a la versión hacia delante. No ocurre al mismo ritmo. Este fenómeno se conoce como violación de la reversión.

De esta forma, ya no existe el equilibrio y, por ejemplo, el coche no va tan rápido si la escena sucede retrocediendo hacia el pasado. Este desequilibrio es el que los físicos creen que puede explicar la cantidad desigual de la materia y la antimateria en el Universo. Pero Klock cree que esa explicación no es suficiente. Aquí es donde recurre al deuterón, un núcleo atómico sencillo. Su simplicidad lo convierte en uno de los mejores objetos de experimentación en física nuclear. Una propiedad de esta partícula, que posee una extraña característica que viola la simetría temporal, es la clave. El científico y su equipo han encontrado mecanismos de la violación de esta simetría que se corresponden con diferentes medidas de momentos magnéticos del deuterón.

Los experimentos con el deuterón probarían las mismas escalas de energía que el Gran Colisionador de Hadrones (LHC) en el CERN y podría llevar a descubrir una física completamente diferente.

jueves, 13 de octubre de 2011

Explicaciones sobre los neutrinos “superlumínicos”

Fuente: Neofronteras

En las últimas semanas se han sucedido multitud de explicaciones sobre los supuestos neutrinos superlumínicos de OPERA.
Foto
Gran Sasso, en los Apeninos italianos. Fuente: Wikimedia Commons.
Desde que hace unas pocas semanas anunciara el problema de los neutrinos de OPERA , que parecen ir más deprisa que la luz, no han dejado de sucederse las supuestas explicaciones.
Es impresionante la cantidad de artículos que han aparecido a raíz de este resultado tan excitante (decenas), parece que todo el mundo quiere ser el primero en explicarlo. También hay que decir que el que este tipo de noticias salgan en los medios habituales es bueno para la ciencia y la cultura en general, pese al toque de amarillismo con que se hacía en un principio.
Sobre las explicaciones, casi todas publicadas a través del sistema ArXiv, y aún no en publicaciones científicas habituales, las hay de dos tipos. Las hay que admiten que el resultado es real y que no hay fuentes de errores y se lanzan a emitir todo tipo de hipótesis más o menos valientes (o descabelladas). Otras tratan precisamente de explicar el resultado a la luz de la Física conocida. Aquí vamos a tratar a continuación éstas últimas.
Recordemos brevemente en qué consiste el resultado. Básicamente se usa un acelerador de partículas (cerca de Ginebra) para producir neutrinos. Éstos viajan a través de la corteza terrestre hasta llegar al detector OPERA en Gran Sasso (Italia) situado a 730 km distancia. Según las medidas, parece que estos neutrinos se adelantan en 60 nanosegundos respecto a un haz de luz que cubriera esa misma distancia.
El resultado entra en clara contradicción con los resultados de la supernova 1987A de la que se recibieron neutrinos casi simultáneamente. Un adelanto proporcional a esos 60 nanosegundos hubiera supuesto un adelanto de años en ese caso, cosa que no se produjo. Argüir que ahora los neutrinos son más energéticos o de otro sabor no es una buena excusa [1], [2].
Los científicos implicados en OPERA todavía no han publicado un artículo en un journal con referees y simplemente han expuesto sus resultados a la comunidad internacional para ver si encuentran una explicación, ya que ellos, en varios meses de estudio, ha eliminado las posibles fuentes de error que se les han ocurrido. Pues bien, las explicaciones han ido llegando.
Una de estas explicaciones ha sido dada por Andrew Cohen y Sheldon Glashow [3], [4]. Aunque no determinan las causas exactas del error apuntan que los neutrinos no pueden ser superlumínicos. Según ellos si así fuera los neutrinos radiarían energía de manera similar al efecto Cherenkov y las medidas tomadas en OPERA contradicen este efecto.
El resultado contradice las apetencias del propio Cohen al que le hubiera gustado que el resultado fuera real. Según él a muchos físicos les hubiera gustado que las medidas fueran correctas, tanto para experimentalistas como para teóricos.
El argumento de que ahora estos neutrinos son más energéticos que los de la supernova juega en contra de su supuesta supervelocidad. Cohen y Glashow se han basado en argumentos básicos como la conservación de la energía y el momento y deducido que si estos neutrinos fueran superlumínicos decaerían en otras partículas rápidamente, precisamente por su elevada energía. Esto haría que fueran perdiendo energía, al decaer en otras partículas, según una típica distribución estadística. Es decir, la gama de energías de los neutrinos se iría ampliando en su viaje hasta OPERA en lugar de estar concentrada en la energía con la que son producidos. Pero se observa la llegada de neutrinos con la misma energía y distribución de energía que con la que salen del CERN, es decir, todos casi iguales.
El efecto es similar a lo que le ocurre a los electrones y otras partículas cuando se mueven en un medio en el que tienen mayor velocidad que la de la luz en ese medio (efecto Cherenkov), como en la cuba de un reactor nuclear.
En el artículo estos dos físicos discuten el mecanismo exacto por el que se da esta transferencia de energía entre partículas y calculan la frecuencia con la que los neutrinos decaerían en otras partículas si fueran superlumínicos. Llegan a la conclusión de que si desde el CERN se emitieran este tipo de neutrinos perderían gran parte de su energía antes de llegar a Italia y esa pérdida de energía no se observa. La explicación más sencilla es que desde un principio no son superlumínicos.
Según Lawrence Krauss, de Arizona State University, este trabajo cierra el caso de los neutrinos superlumínicos y que el equipo de OPERA se precipitó en hacer públicos sus resultados.
Carlo Rovelli, de la Universidad del Mediterráneo, no ve premisas en el artículo de Cohen y Glashow que lo invalide y cree que el resultado es plausible, pero no se muestra sorprendido porque él, como la mayoría de los físicos, sospecha que debe haber algún error en los resultados de OPERA. Respecto a las explicaciones de los atajos a través de las dimensiones ocultas que han propuestos algunos cuerditas dice lo siguiente: “Digámoslo así: los físicos que han trabajado en teoría de cuerdas por más de 20 años han asumido que hay dimensiones extras y ninguno de ellos había considerado la posibilidad de que las partículas pudieran encontrar atajos a través de otras dimensiones e ir más rápidas que la luz.”
Cohen y Glashow no aventuran qué puede haber ido mal en las medidas de OPERA ni la fuente del error.
En cuanto a la fuente de ese error, otros investigadores ya han propuesto soluciones. Según Carlo Contaldi, del Imperial College London, el origen del error podría deberse a la mala sincronización del sistema GPS [5]. Según este investigador no se habrían tenido en cuenta los efectos de la Relatividad General (RG), según la cual el tiempo pasa a distinto ritmo a distintas altura de un campo gravitatorio. La altura a la que está el CERN es diferente a la altura a la que está Gran Sasso y esto introduciría el error suficiente en las medidas. Si este punto se confirma los físicos de OPERA se sentirán probablemente avergonzados y aquellos que decían lo de “Einstein estaba equivocado” tendrán que reconocer que en este punto al final gana él otra vez (pese a estar equivocado en muchas otras cosas).
El CERN está más cerca del centro de la Tierra que Gran Sasso y siente un mayor tirón gravitatorio que, según la RG, haría que el tiempo pasara más despacio que en Gran Sasso.
Dario Autiero, del equipo de OPERA, dice que Contaldi no ha entendido cómo los relojes son sincronizados. Contaldi admite que en su artículo publicado en ARXiv asumió algunas incorrecciones, pero que la sincronización de los relojes usando GPS no elimina los efectos de dilatación del tiempo de la RG que darían cuenta de decenas de nanosegundos, lo que reduciria las seis sigmas de significación del ya famoso resultado de los 60 nanosegundos .
Gilles Henri, del Instituto de Ciencias Planetarias y Astrofísica en Grenoble, propone una explicación áun más sencilla [6]. Según él las fluctuaciones en el haz de neutrinos podría cambiar la probabilidad de que en Gran Sasso los detecten y esto aumentaría la incertidumbre en la medida del tiempo de vuelo
Según John Ellis, del CERN, los artículos exóticos que asumen la existencia de los neutrinos superlumínicos ([], [7], [8],[9]) posiblemente estén todos mal, porque probablemente el resultado de OPERA se evaporará.
Foto
El experimento OPERA está situado debajo de Gran Sasso para así evitar interferencias de los rayos cósmicos. Fuente: LNGS.
Mientras tanto, según se ha filtrado [10], la tensión entre los miembros de OPERA ha aumentado y la mitad de ellos no quiere enviar aún el artículo al journal correspondiente. Han estudiado las posibles fuentes de error y no han encontrado ninguna que destruya sus resultados de 6σ de significación estadística, según los cuales la probabilidad de que las medidas se deban a una fluctuación estadística es de una en mil millones, pero algunos miembros del equipo están preocupados de que haya alguna fuente de error sistemático desconocida. El proceso de búsqueda de esa fuente de error podría llevar meses, que podría estar en la electrónica o en el sistema de medida de tiempos.
Es especialmente crítica la primera medida en el CERN. Los investigadores no detectan los neutrinos salientes, sino que miden la distribución temporal de los protones que impactan sobre el blanco que los produce y comparan estos datos con lo detectado en OPERA. Básicamente quizás no se sepa bien cuándo los neutrinos abandonan el CERN para viajar a Gran Sasso. Algunos miembros de OPERA dicen que habría que realizar un estudio independiente sobre este punto y sobre otros antes de proclamar que la Relatividad Especial es errónea.
Los investigadores de MIMOS (un experimentos similar a OPERA), ya trabajan en los datos que tienen para compararlos con los de OPERA. Con un poco de suerte ni siquiera necesitarán recolectar datos nuevos durantes varios meses antes de emitir un informe con los resultados.
Puede que al final los resultados superlumínicos de OPERA queden como el fantasma de OPERA.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3626
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

jueves, 6 de octubre de 2011

¿Construimos el LHC sólo para encontrar el bosón de Higgs?

Fuente: Ciencia Kanija

Artículo publicado por Pauline Gagnon el 3 de octubre de 2011 en Quantum Diaries
Hay bobones y bosones, y si el Gran Colisionador de Hadrones (LHC) se construyó sólo para encontrar el bosón de Higgs, tendrías toda la razón al pensar que los físicos pertenecen a la primera categoría. Pero el hecho es que el LHC hace mucho más que buscar el bosón de Higgs.
A pesar de que los medios de comunicación se centran principalmente en el bosón de Higgs, esta búsqueda sólo representa uno de los muchos aspectos que esperamos cubrir con el LHC. Por supuesto, el bosón de Higgs da una solución tan elegante al problema del origen de la masa que su gran popularidad entre los físicos han llegado incluso al público general.

Túnel del LHC © by solarnu

Pero el LHC podría abrir la puerta a mundos paralelos, dimensiones extra o al descubrimiento de tantas nuevas partículas como los que ya conocemos. Éstas son sólo algunas de las emocionantes preguntas que tratamos de abordar.
Al explorar el mundo de las partículas infinitamente pequeñas, muchos de nosotros esperamos proporcionar respuestas al origen y destino de nuestro universo. El experimento ALICE tiene como objetivo el estudio de las propiedades del plasma de quark-gluón, un estado de la materia que existía justo después del Big Bang.
¿Que sucedió justo después del Big Bang? ¿Por qué la materia superó a la antimateria, cuando en el laboratorio se crean en la misma cantidad? ¿De dónde procede está asimetría? Esto es precisamente lo que el experimento LHCb quiere dilucidar. Y ya se han dado grandes pasos en esta dirección.
Descubrir de qué está formada  la materia oscura es un punto importante en la agenda del LHC. La materia oscura se propuso en 1934 por Fritz Wicky para explicar por qué las galaxias en rotación no se separan bajo el efecto de las fuerzas centrífugas. Alguna invisible pero enorme cantidad de materia parece proporcionar el campo gravitatorio necesario necesario para mantenerlas unidas. Es difícil descartarla ya que la materia oscura y la energía oscura cuentan con, aproximadamente, ¡el 95% de toda la materia-energía de nuestro universo! Sin embargo, este extraño tipo de materia, a diferencia de las estrellas y galaxias, no emite ninguna luz, de ahí su nombre. Sólo responde a la gravedad, lo que deja un amplio margen para especular sobre su naturaleza.
Se han propuesto muchas hipótesis diferentes para explicar la naturaleza de la materia oscura, pero hasta ahora, no hemos tenido éxito al identificar las partículas asociadas con ella. Este misterio sigue sin resolverse a pesar de que algunos experimentos afirman haberla visto, mientras que otros contradicen estas observaciones.
Muchos de nosotros, incluyéndome a mí, tenemos la esperanza de echar un vistazo a un mundo paralelo llamado ‘El Valle Oculto’, un mundo hipotético hecho de materia oscura, con muy pocos intercambios con nuestro universo.
Tanto ATLAS como CMS, siendo unos experimentos tan versátiles, pueden buscar muchos tipos distintos de candidatos a materia oscura. Una posibilidad es la propuesta dentro de la supersimetría (o SUSY, para abreviar), una teoría muy popular que muchos piensan que podría ser la primera en descubrirse en el LHC.
SUSY se ve como la extensión más simple que se podría introducir en el Modelo Estándar para rellenar algunos huecos pendientes en nuestra teoría actual. Tal como está, tenemos dos tipos de partículas, los fermiones y los bosones. Los primeros son los componentes básicos de la materia, los segundos son portadores de fuerza. Estos dos conjuntos de partículas se comportan de manera completamente distinta. Los fermiones tienen espines semienteros (una propiedad básica, como la carga eléctrica), mientras que los bosones tienen espín 0, 1 ó 2. SUSY asocia un supercompañero a cada partícula de tal manera que cada fermión viene acompañado de un “sfermión” (de fermión supersimétrico), con un espín entero asociado a ella. Lo mismo para los bosones. Las partículas más pesadas se asocian con las ligeras, y viceversa. De esta manera, todo parecería mucho más equilibrado, eliminando las desconcertantes diferencias entre las partículas elementales, que van desde las ultraligeras a las superpesadas.
La supersimetría lo tiene todo para tener éxito, salvo que aún no se ha manifestado, a pesar de todos nuestros intentos por desvelarla.
¿Qué diría usted si descubre que no vivimos en un mundo de cuatro dimensiones (tres dimensiones espaciales y una temporal), sino que hay dimensiones extra ocultas? Esto es, al menos, lo que algunos teóricos sugieren, prediciendo que estas dimensiones son tan pequeñas que no nos son fácilmente accesibles. Para visualizar esto, imagina que eres un equilibrista. Para ti, sólo hay una dimensión accesible: puedes moverte hacia delante o hacia atrás. Sin embargo, para un insecto que camine por el mismo cable tirante, también es posible dar la vuelta alrededor del cable, dándole acceso a una nueva dimensión que es inaccesible para ti.
¿Por qué necesitamos esto? Las dimensiones extra podrían explicar por qué la gravedad es tan débil. Los físicos se han preguntado siempre por la enorme discrepancia entre la fuerza electromagnética y la fuerza de la gravedad: ¡41 órdenes de magnitud en la escala del núcleo! Sólo piensa cuánta fuerza tiene un pequeño imán de nevera en comparación con su gravedad. Acércalo lo suficiente a la nevera ¡y el imán puede superar la atracción gravitatoria de un planeta entero! Si existen las dimensiones extra, proporcionarían un lugar donde se filtrase la mayor parte de la fuerza gravitatoria, dejando sólo una pequeña fracción de la misma para que la sintamos en la escala macroscópica.
¿Quién necesita ciencia ficción cuando tenemos a la física de partículas? ¡Suficientes preguntas desconcertantes y respuestas aún más extrañas para dejarte con la boca abierta!

Autor: Pauline Gagnon
Fecha Original: 3 de octubre de 2011
Enlace Original

martes, 4 de octubre de 2011

Cómo obtener rayos X con cinta adhesiva.

Por qué los neutrinos de OPERA no pueden ser taquiones

Fuente: Francis (th)E Mule


Figura 13 del artículo de la colaboración OPERA = http://arxiv.org/abs/1109/1109.4897
Según la relatividad de Einstein, aplicada a los taquiones, partículas con una masa en reposo negativa que se mueven a una velocidad mayor que la luz, conforme la energía de un taquión crece, su velocidad decrece y se aproxima de forma asintótica a la velocidad de la luz (por encima). Los famosos neutrinos superlumínicos observados por el experimento OPERA tienen una velocidad constante, que casi no depende de la energía; más aún, la velocidad crece ligeramente con la energía, en lugar de decrecer. Por tanto, podemos afirmar con rotundidad que los neutrinos de OPERA no son taquiones. Pueden ser partículas superlumínicas exóticas, pero no pueden ser taquiones.
E(v) = m(v)\,c^2 = \frac{\displaystyle m_0\,c^2}{\sqrt{\displaystyle 1- \frac{v^2}{c^2}}}, \qquad \qquad v<c,
E(v) = m(v)\,c^2 = \frac{\displaystyle m_0\,c^2}{\sqrt{\displaystyle -1+ \frac{v^2}{c^2}}}, \qquad \qquad v>c.
La energía de una partícula tiene dos componentes, la energía en reposo, llamada masa, y la energía en movimiento, llamada energía cinética, que depende de la velocidad de la partícula. Las medidas cosmológicas de la masa de los neutrinos indican que su masa en reposo es muy pequeña, luego para neutrinos de alta energía toda su energía es cinética; además, a mayor velocidad, mayor energía. Si un experimento mide la velocidad de un grupo de neutrinos que tienen cierta energía y la velocidad de otro grupo emitidos por la misma fuente que tienen el triple de dicha energía, dicho experimento tiene que observar que la velocidad de ambos grupos de neutrinos es diferente. Los del segundo grupo, los más energéticos, tienen que ser más rápidos.
El experimento OPERA ha medido la velocidad de neutrinos emitidos en el CERN que alcanzan un observatorio en Gran Sasso, en el centro de Italia, tras recorrer unos 730 km en línea recta por el interior de la Tierra. Todos los neutrinos han sido emitidos por la misma fuente pero su energía se distribuye en un cierto intervalo con una media de 17 GeV (la energía en reposo (masa) de un protón es casi 1 GeV) [véase el lado derecho de la figura que abre esta entrada]. Los investigadores han separado los neutrinos observados en Gran Sasso en dos grupos, los que tienen energía menor de 20 GeV (con una media de 14 GeV) y los que tienen una energía mayor (con una media de 43 GeV) [véase el lado izquierdo de la figura que abre esta entrada]. Para su sorpresa y para la sorpresa de todos los que lean esto, han observado que la velocidad de los neutrinos en ambos casos es idéntica (dentro de los márgenes de error considerados); una velocidad mayor que la velocidad de luz en el vacío, pero independiente de la energía de las partículas [de hecho, como se ve en el lado izquierdo de la figura que abre esta entrada, el punto medio crecio un poco en lugar de decrecer, pero una banda de error muy grande].
Según la relatividad de Einstein, aplicada a los taquiones, partículas con una masa en reposo negativa que se mueven a una velocidad mayor que la luz, conforme la energía de un taquión crece, su velocidad decrece y se aproxima de forma asintótica a la velocidad de la luz. Los datos experimentales de OPERA son inconsistentes con lo predicho para los taquiones según la teoría de la relatividad. Más aún, los resultados de estudios previos, en los que los neutrinos tienen menor energía, como en MINOS y las observaciones de neutrinos producidos por la supernova SN 1987A, complican aún más el asunto, pues requieren que la energía de los neutrinos depende de la velocidad de forma no monótona. Un sinsentido para cualquier físico.
Aberrón me entrevistó el pasado lunes porque iba a escribir un artículo sobre los neutrinos (“Agárrame esos neutrinos,” 28 sep. 2011) que apareció el miércoles en lainformacion.com. El artículo está muy bien y recomiendo su lectura a todos. Por teléfono traté de explicarle a Aberrón por qué tengo dudas sobre la estimación de los errores sistemáticos en el experimento de OPERA, en especial en relación a la medida del instante en el que salen los neutrinos. Sin posibilidad de garabatear en una hoja de papel, le puse como ejemplo la determinación del momento en que llega un tren a una estación y la diferencia que hay entre que se trate de un talgo o un AVE (recordad que tiene la forma del pico de un martín pescador). Fui incapaz de lograr que Aberrón se enterara de lo que quería decir, a veces una imagen vale más que mil palabras. Traté de ponerle como ejemplo la foto finnish en una competición de atletismo, pero creo que empeoré aún más la cosa. En la versión final de su artículo Aberrón se limitó a mencionar de pasada la foto finnish. Aunque puede que me repita una vez más, quizás una imagen vale más que mil palabras.

Figura 11, inferior-izquierda, del artículo de OPERA = http://arxiv.org/abs/1109/1109.4897
Mira esta figura. Verás clarísimamente que hay un desfase de unos 60 ns entre la curva roja y la curva imaginaria que une los puntos negros. ¿No lo ves? Vuelve a mirar la figura. Los picos de la curva roja también se ven muy claros en la curva imaginaria que une los puntos negros. ¡Cómo que no lo ves! Los científicos de la colaboración OPERA dicen que se ve clarísimo. Bueno, … a lo mejor es un problema de escala, de la escala del eje de abscisas. Lo mejor será usar el efecto lupa. Los científicos de OPERA han hecho un zoom de los frentes trasero y delantero de la figura anterior. Su resultado es la siguiente figura.

Figura 12, abajo, del artículo de OPERA = http://arxiv.org/abs/1109/1109.4897
Esta figura es la que se ha utilizado para medir la diferencia de 60 ns entre la curva roja y la curva imaginaria que pasa por los puntos negros. ¿Ves ahora la diferencia de 60 ns entre ambas curvas? ¡Cómo que no! Mira bien, anda, vamos. Hay zonas donde la diferencia parece más pequeña que 60 ns y zonas donde parece mayor. Pero el ajuste obtenido por la colaboración OPERA indica que la diferencia total entre ambas curvas es de 60 ns. ¿Lo ves ahora? Mira bien la banda de error horizontal de los puntos negros, observa que tiene una anchura de 50 ns (el binning de los datos que ha utilizado la colaboración OPERA). ¿Qué pasaría si los centros de los puntos gordos estuvieran desplazados 25 ns a la izquierda o a la derecha? En mi opinión habría un cambio en las curvas que podría hacer que la diferencia de 60 ns cambie bastante. Me gustaría poder hacer un análisis estadístico de estos datos, pero el artículo de OPERA incluye la figuras pixeladas y en muy baja resolución (si fueran figuras PS generadas por Matlab yo podría extraer los datos originales con precisión).
A mí me molesta mucho esta figura desde que el viernes 23 de septiembre en la conferencia del CERN una de las personas del público preguntó por esta cuestión al conferenciante y éste salió por la tangente. Mis dudas sobre el resultado del experimento OPERA nacieron en ese momento y se ratificaron cuando leí el artículo. Conforme pasa el tiempo se refuerzan cada vez más. Todo apunta a errores sistemáticos…
Por cierto, uno de los miembros senior de OPERA (la Dra. Frau Hagner), que no ha querido firmar el famoso artículo, ha sido entrevistada por un periódico alemán (FAZ). Bee nos lo ha traducido del alemán al inglés en “FAZ: Interview with German member of OPERA collaboration,” Backreaction, October 2, 2011. La entrevista no tiene desperdicio, aunque muchos la calificarán de sensacionalista. Según Hagner si se hubiera esperado dos meses más, se podría haber repetido el análisis del experimento de forma independiente, confirmando o refutando el resultado de la propagación superlumínica. ¡Toma ya!
Frau Hagner, usted es uno de los líderes del grupo alemán del experimento OPERA, pero si se busca su nombre en el artículo (preprint), no aparece.
Una docena de colegas y yo hemos decidido no firmar el artículo (preprint). No tengo dudas sobre el experimento, solo creo que es prematuro que se hayan hecho público los resultados. Un resultado tan extraordinario como la propagación más rápido que la luz requiere que se hubieran hecho más pruebas. Pero entonces el artículo se hubiera retrasado unos dos meses. Algunos miembros de OPERA y yo misma hubiésemos querido que estas pruebas adicionales se hubieran hecho.
¿Qué tipo de pruebas?
Lo primero, un segundo análisis independiente. En física de partículas, si alguien cree que ha descubierto una nueva partícula o efecto, en general no hay un solo grupo analizando los datos sino varios. Y si todos obtienen el mismo resultado, entonces podemos estar convencidos de que es correcto. Este proceso no se ha hecho con OPERA.
¿Por qué no?
Porque no había tiempo. Un efecto como la propagación a una velocidad mayor que la luz requiere controles muy cuidados. Podría haber un error en los programas de ordenador, por ejemplo. Sin embargo, la mayoría de los miembros de la colaboración han preferido una publicación rápida.
Sin palabras.

Un poco de la inspiración de Feynman.



lunes, 3 de octubre de 2011

Etiqueta fuera de la oficina.

Orbitador de ESA descubre sobresaturación de agua en la atmósfera marciana

Fuente: Ciencia Kanija

Artículo publicado el 29 de septiembre de 2011 en la web de ESA
Un nuevo análisis de los datos enviados por el espectrómetro SPICAM a bordo de la nave Mars Express de ESA, ha revelado por primera vez que la atmósfera del planeta está sobresaturada con vapor de agua. Este sorprendente descubrimiento tiene importantes implicaciones para la comprensión del ciclo del agua en Marte y la evolución histórica de la atmósfera.
A pesar de que numerosas naves espaciales han visitado Marte durante el último medio siglo, se han realizado muy pocas medidas directas de la estructura vertical de la atmósfera del planeta. Dado que la mayoría de los instrumentos de la nave han observado hacia la superficie, sólo ha sido posible inferir la distribución horizontal de gases en la atmósfera, dejando casi sin explorar la cuestión de cómo se mezcla el vapor de agua en la misma.

Atmósfera de Marte © Crédito: FlyingSinger

Esta falta de medidas directas ha dado lugar a que las descripciones de la distribución vertical del vapor de agua – un factor clave en el estudio del ciclo hidrológico de Marte – se han basado generalmente en modelos climáticos globales.
Esta brecha en los datos ha sido ahora abordada por el espectrómetro de imágenes SPICAM (Espectroscopio para la Investigación de las Características de la Atmósfera de Marte) de la Mars Express.
El instrumento puede utilizarse en el modo de ocultación, cuando estudia la luz del Sol que ha pasado a través de la atmósfera del planeta justo después del amanecer o antes del atardecer. Las medidas pueden analizarse para generar perfiles verticales de concentración para varios componentes atmosféricos, incluyendo el vapor de agua.
Los sorprendentes nuevos resultados, basado en datos obtenidos por SPICAM durante la primavera y el verano del norte, indican que la distribución vertical del vapor de agua en la atmósfera de Marte es muy diferente de lo que antes se suponía.
En un artículo en la edición de esta semana de la revista Science, un equipo internacional dirigido por Luca Maltagliati del  Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS) en Guyancourt, Francia, describe las observaciones de SPICAM en longitudes de onda infrarrojas que, por primera vez, proporcionan pruebas de la existencia vapor de agua sobresaturado en Marte.
Sobresaturación 
La atmósfera de Marte tiene 10 000 veces menos vapor de agua que la de la Tierra. Sin embargo, el vapor de agua es un gas de traza muy dinámico, y uno de los componentes de la atmósfera de Marte más variable según la estación.
En condiciones normales en la Tierra, el vapor de agua se condensa alrededor de diminutas partículas de polvo o de aerosol o sales cuando la temperatura atmosférica desciende por debajo de un cierto “punto de rocío”. Se dice entonces que la atmósfera está “saturada”, ya que no puede mantener más la humedad a esa temperatura y presión. Cualquier exceso de vapor de agua por encima del “punto de rocío” normalmente se condensará para formar gotitas o cristales de hielo.
Sin embargo, puede ocurrir la sobresaturación cuando parte del vapor de agua permanece en la atmósfera, en lugar de condensarse o congelarse. Cuando los núcleos de condensación (se supone que en Marte son aerosoles de polvo) son muy raros, se impide la condensación, dejando sustanciales cantidades de exceso de vapor.
Hasta ahora, se asumía que tal sobresaturación no podía darse en la fría atmósfera de Marte: cualquier vapor de agua por encima de la saturación se esperaba que se convirtiera inmediatamente en hielo. Sin embargo, los datos de SPICAM han revelado que se produce sobresaturación con frecuencia en la atmósfera media – a altitudes de hasta 50 km sobre la superficie – durante la temporada del afelio, el período en el que Marte está cerca de su punto más alejado del sol.
Se encontraron niveles extremadamente altos de sobresaturación en Marte, hasta 10 veces mayores de los encontrados en la Tierra. Claramente, hay mucho más vapor de agua en la atmósfera superior de Marte de lo que nadie imaginaba. Parece que los modelos anteriores han subestimado mucho las cantidades de vapor de agua a la altura de 20-50 km, hasta 10 a 100 veces más agua de lo esperado a esta altura.
“La distribución vertical del vapor de agua es un factor clave en el estudio del ciclo hidrológico de Marte, y el viejo paradigma de que está principalmente controlado por la física de la saturación debe ahora revisarse”, dice Luca Maltagliati. ”Nuestro hallazgo tiene importantes implicaciones para comprender el clima global del planeta y el transporte de agua de un hemisferio a otro”.
“Los datos sugieren que se está llevando mucho más vapor de agua a la suficiente altura en la atmósfera para verse afectado por la fotodisociación”, agrega Franck Montmessin, también de Latmos, que es el investigador principal de SPICAM y coautor del artículo.
“La radiación solar puede dividir las moléculas de agua en átomos de oxígeno e hidrógeno, que pueden escapar al espacio. Esto tiene implicaciones para la tasa a la que se pierde el agua del planeta y para la evolución a largo plazo de la superficie marciana y su atmósfera”.
El nuevo artículo analiza los datos obtenidos por SPICAM cuando la atmósfera de Marte está relativamente libre de polvo. La ausencia de polvo permite al instrumento medir el perfil vertical a menos de 10 km de la superficie del planeta. Los niveles de sobresaturación es probable que caigan en picado en el verano austral, cuando las tormentas de polvo inyectan grandes cantidades de aerosoles en la atmósfera, aumentando el suministro de núcleos de condensación.

Publicación de referencia:“Evidence of Water Vapor in Excess of Saturation in the Atmosphere of Mars”, por  L. Maltagliati, F. Montmessin, A. Fedorova, O. Korablev, F. Forget, and J.-L. Bertaux, publicado en el ejemplar del 30 de septiembre de 2011de Science.
Fecha Original: 29 de septiembre de 2011
Enlace Original