jueves, 29 de septiembre de 2011

Una lente gravitacional en casa

Fuente: Brucknerite

—¿Una lente gravitacional? ¿En casa? ¿Te has vuelto majara?

Lente gravitacional
Sí, sí y no. Si seguís conmigo unos minutos, veréis cómo con un objeto que todos tenemos en casa podréis emular un efecto cosmológico que predijo Einstein a partir de su Relatividad General. Puede que las lentes gravitacionales sean fenómenos muy alejados de la experiencia de todos los días, pero no por ello son muy difíciles de entender…
La luz viaja a través del espaciotiempo siguiendo la trayectoria más corta posible. En regiones planas —visualizadlo como si fuera un folio sobre una mesa— los rayos de luz se propagan en línea recta. Dibujad una recta en el folio con lápiz y regla. Si curvamos el espaciotiempo de algún modo, la luz se dobla. Tomad el folio por dos extremos opuestos y empujad un poco: la recta ya no es “recta”.
La clave de la Relatividad General está en el hecho de que una masa muy grande (una estrella por lo menos, para que se note bien el efecto) deforma el espaciotiempo a su alrededor. La trayectoria natural de un rayo de luz que pase cerca no es ya la línea recta común que vemos cuando encendemos una linterna o un puntero láser: se dobla hacia el objeto masivo un poco. Si pensáis en algo con una fuerza gravitatoria más poderosa, el rayo de luz se irá doblando más y más. Un agujero negro es el caso extremo: un objeto con una fuerza de gravedad tan acusada que toda la luz que pasa más cerca de una distancia determinada (marcada por el llamado horizonte de sucesos) cae hacia él. Un agujero negro es “negro” precisamente porque no podemos verlo, ya que no puede reflejar nada.
Sin embargo, todos los rayos de luz que pasen cerca del horizonte de sucesos se doblarán más o menos, pero continuarán su camino. Esto ofrece una posibilidad de detectar agujeros negros sin tener que verlos directamente. Supongamos que hay un agujero negro en el camino entre la Tierra y alguna galaxia lejana. La luz de la galaxia que queda ocluida por el horizonte de sucesos del agujero no podrá verse. La que pase un poco más lejos se doblará, y parte llegará hasta nosotros como si viniera de un punto distinto en el cielo. Para una alineación perfecta y suponiendo todo simétrico, percibiremos desde nuestro telescopio en la Tierra un anillo: el anillo de Einstein.
Anillos de Einstein fotografiados por el telescopio Hubble
Anillos de Einstein fotografiados por el telescopio Hubble
De acuerdo, ya tenemos una idea algo más clara —espero— de lo que es una lente gravitacional. Nos hemos centrado en el tipo  “fuerte”, pero hay otros. Ni siquiera es necesario usar algo tan drástico como un agujero negro para ilustrarlas (los de la foto del ejemplo están creados por galaxias elípticas muy densas). ¿Todo bien, hasta aquí? Es el momento de emular una lente gravitacional en casa. Con agujero negro incluido.
—Majara perdido, lo que yo decía.
Tranquilos: no hace falta que vuestro primo físico os traiga ningún trozo de materia exótica del CERN, ni que os infléis a margarina hasta que vayáis doblando las baldosas a vuestro paso. Sólo necesitáis algunas decenas de litros de agua, un recipiente grande con desagüe (una bañera sirve) y algún modo de dejar caer en él pequeñas gotas de agua de forma continua. El grifo de la bañera tiene que quedar un poco más cerca de la pared de la bañera que el desagüe. Si está justo encima no os valdrá —en ese caso, necesitaréis crear las gotas de agua de algún otro modo que dejo a vuestra imaginación. Es mejor usar el recipiente más grande posible porque necesitamos que sus paredes estén relativamente lejos. A fin de cuentas, vamos a hacer que la superficie del agua de la bañera simule el espacio interestelar: ahí es nada. Esta será nuestra receta:
  1. Llenad la bañera hasta la mitad con agua. Bañad a los niños, al perro o a vosotros mismos si notáis olorcillo a humanidad. Así no os sentiréis culpables de tirar tanta agua luego.
  2. Una vez hayáis usado el agua dejadla reposar hasta que su superficie quede perfectamente plana y libre de impurezas macroscópicas (sacad el patito). Ya tenéis vuestro espacio interestelar: es como el folio del ejemplo del principio, pero más flexible.
  3. Con cuidado, abrid el grifo lo justo para que caigan al agua gotas lo más pequeñas posible, de forma regular. Dejad el grifo así un minuto y contemplad vuestra obra: habéis creado una estrella. El punto en el que caen las gotas emite ondas que recuerdan a cómo se suelen dibujar las antenas en funcionamiento: recordando que un rayo de luz puede verse como un fotón o como una onda no será difícil imaginar que en ese lugar hay una estrella “emitiendo”.
  4. Con más cuidado, quitad el tapón del desagüe y esperad a que se estabilice el sistema. Con un poco de suerte se formará un remolino en la superficie del agua. Aquí está vuestro agujero negro.
Inmediatamente veremos que las ondas formadas por las gotas que caen se dividen en dos al alcanzar el remolino. Si nos fijamos en algún punto más alejado en la línea que une el lugar donde caen las gotas y el centro de la perturbación veremos que llegan dos frentes de onda en vez de uno solo. Un observador, por tanto, vería dos fuentes de luz en lugar de una. Trasladado al caso de los anillos de Einstein que mostraba antes, sería como si pusiéramos un folio inmenso cortando toda la escena: galaxia de fondo, perturbación gravitatoria y nosotros mismos. El anillo aparecería como dos puntos en este espacio de dos dimensiones, ¡exactamente lo que estamos haciendo en la bañera! Pero no tenéis que creerme: hacedlo vosotros, o contemplad el magnífico vídeo —¡como un documental de La 2, en un minuto!


Podemos combinar este sencillo experimento con otro que nos dará una impresión tridimensional de la trayectoria de la luz que da lugar a un anillo de Einstein. Preparad una copa de vino limpia, algo que emita un poco de luz (una linterna, una vela) y haced lo que nos muestra Phil Marshall, del SLAC National Accelerator Laboratory, en este vídeo —cortesía de @Elzo_, del blog Meridianos:


Hemos visto que con un poco de ingenuidad e imaginación podemos recrear el universo en una bañera. Hay personas, más cerca de lo que imaginamos, que hacen este ejercicio en sus cerebros y ordenadores como modo de vida, como @Darksapiens, a quien tuve la oportunidad de saludar en el pasado evento Amazings Bilbao 2011. Si queréis profundizar más en el apasionante mundo de las lentes gravitacionales no dejéis de leer su artículo El efecto de lente gravitacional, una estupenda panorámica para legos con ganas.

Cómo instalar el "Wien2k" en Ubuntu.

Otro programa para hacer cálculos DFT.
Primero descargamos de http://www.wien2k.at/index.html y guardamos el fichero .tar en un directorio local.
Ahora instalamos los paquetes necesarios para compilar:

sudo apt-get install build-essentials
sudo apt-get install liblapack-dev
sudo apt-get install libblas-dev

Luego descomprimimos el paquete:
tar -xvf WIEN2k_09.tar
gunzip *.gz
Y hacemos los cambios:
chmod +x ./expand_lapw
./expand_lapw
./siteconfig_lapw
system: choose V gfortran+gotolib
compiler: gfortran and gcc
lib: R: -llapack_lapw -lblas_lapw -lblas -llapack


./userconfig_lapw
...
...
...
Recuerda que la primera vez que se ejecuta el "w2web", hay que apretar "enter" en todo. No hay que cambiar los valores por defecto (nombre y password) hasta que no se configure correctamente.

Cómo instalar el "Quantum Espresso" en Ubuntu.

Este es un pequeño tutorial para la instalación del "Espresso" para hacer cálculos DFT en Ubuntu.
Primero instalamos los componentes necesarios para la compilación:

sudo apt-get install build-essentials
sudo apt-get install liblapack-dev
sudo apt-get install libblas-dev
sudo apt-get install fftw-dev
sudo apt-get install fftw3-dev
sudo apt-get install gfortran


Ahora podemos instalar y configurar el "espresso":
Primero lo descargamos de http://www.quantum-espresso.org/download.php
Luego colocamos el espresso-XXX.tar.gz en un directorio local cualquiera (por ejemplo en 'home').
Descomprimimos el "tar.gz" con:

tar xzf espresso-XXX.tar.gz

Ahora entramos en el directorio creado y configuramos:
sudo ./configure
make all
sudo make install

Se modifica el PATH de .bashrc con el comando:

 export PATH=/home/espresso-XXX/bin:$PATH 

Donde las XXX indican la versión instalada.

Ahora buscamos las librerías:

locate libmkl_intel_lp64.so

Y una vez conocida la dirección, también las incluimos en el PATH:

export LD_LIBRARY_PATH=/opt/intel/mkl/10.2.1.017/lib/em64t

miércoles, 28 de septiembre de 2011

¿El universo se expande de forma asimétrica?

Fuente: Ciencia Kanija

Artículo publicado por Estelle Asmodelle el 26 de septiembre de 2011 en Cosmos Magazine
Recientes exámenes de la velocidad de supernovas sugieren que el universo puede estar expandiéndose de manera no uniforme en su aceleración, lo que implica que las leyes de la física puede variar a través del cosmos.
Los físicos que trabajan con el conjunto de datos Union2 del Proyecto de Cosmología de Supernovas (Supernova Cosmology Project), han sugerido que la expansión del universo parece mostrar un eje preferente, lo que significa que el universo se está expandiendo más rápidamente en una dirección que en cualquier otra.

Crédito: NASAblueshift

Esta expansión asimétrica se conoce como anisotropía, que es la propiedad de ser dependiente direccionalmente, y difiere de la isotropía, que implica propiedades idénticas en todas las direcciones.
El resultado es inconsistente con el modelo cosmológico estándar, que se basa en el principio cosmológico que requiere que el universo sea isotrópico y homogéneo, a saber: que tenga la misma estructura y principios subyacentes que operen en todos sitios, y parezca idéntico en todas las direcciones.
Desafiando la comprensión isotrópica
Publicado a principios de 2010, el conjunto de datos Union2 consta de 557 supernovas de Tipo 1a – las supernovas más brillantes conocidas, que son el resultado de las violentas explosiones de estrellas enanas blancas en el final de sus vidas.
A finales de 2010, dos cosmólogos de la Universidad de Ioannina, en Grecia, publicaron un desafío al principio cosmológico en Journal of Cosmology and Astroparticle Physics proporcionando pruebas estadísticas que apoyan la idea de un eje preferente de expansión.
A principios de este mes otro de tales desafíos se publicó en la página web de arXiv por parte de Rong-Gen Cai y Tuoy Zhong-Liang, cosmólogos del Instituto de Física Teórica de la Academia China de Ciencias. Su artículo también explora la expansión acelerada no uniforme del cosmos.
“Este resultado actual es muy interesante, dado que una de las ideas clave que subyacen a nuestra comprensión del universo es que es isotrópico y que debería tener el mismo aspecto en todas las direcciones”, comentó el astrofísico Geraint Lewis de la Universidad de Sídney.
“En los próximos años, el número de observaciones de supernovas lejanas se incrementará y se sabrá a ciencia cierta si este resultado es correcto”.
El modelo cosmológico actual
Desde el descubrimiento de la aceleración cósmica en 1998, respaldado por las observaciones de las supernovas de tipo Ia (SNIa) que eran más débiles de lo esperado, estas explosiones estelares se han convertido en una herramienta importante en la determinación de los parámetros cosmológicos y la tasa de expansión de nuestro universo.
Se forjó un modelo cosmológico estándar mediante consenso general de físicos y cosmólogos, utilizando el análisis conjunto de datos de SNIa en combinación con otras observaciones, tales como la estructura a gran escala del universo y el fondo cósmico de microondas (CMB) – la radiación térmica que se cree que impregna nuestro universo observable.
El modelo actual sugiere que las leyes de la física son las mismas para todos los lugares del universo – excepto en los lugares extremos, como el interior de un agujero negro – y la expansión acelerada del universo sucede de manera uniforme, adhiriéndose a la isotropía y homogeneidad, que es esencialmente el principio cosmológico.
¿Socavando el principio cosmológico?
Estos nuevos estudios – de verificarse – significarían que las leyes de la física puede variar dependiendo de dónde te encuentres en el universo, lo que haría extremadamente difícil de comprender plenamente la evolución del universo y sus orígenes.
Por ejemplo, si las leyes de la física fuesen diferentes en otras partes, significaría que todo lo que entendemos sobre la naturaleza quedaría limitado a nuestra pequeña parte del universo y el resto del cosmos seguiría siendo un enigma.
Ambos equipos llevaron a cabo un análisis del hemisferio, comparando velocidades de supernovas en el hemisferio norte respecto a las del hemisferio sur. Estos hemisferios se definieron a partir del plano orbital galáctico de la Vía Láctea como ecuador de referencia.
El análisis determinó un eje preferente de anisotropía en el hemisferio norte. Esto sugiere que una parte del cielo del norte representa una parte del universo que se expande hacia el exterior, con una aceleración mayor que en otros lugares.
En lugar de un universo en expansión, similar a una burbuja esférica perfecta, sería más como una expansión en forma de huevo o asimétrica, lo que significa que el extremo visible de nuestro universo observable estaría a distinta distancia en función de la dirección.
Análisis estadístico
Ambos equipos han declarado que el análisis estadístico no se corresponde necesariamente con resultados significativos, pero refuerza sus resultados apelando a otras anomalías en los datos del fondo cósmico de microondas (CMB).
De forma aislada, los resultados no son estadísticamente significativos, pero poniendo todas estas anomalías en conjunto, surge de alguna manera un significado consolidado que no era evidente en el aislamiento. En otras palabras, cada pequeño elemento de los estudios no es significativo por sí mismo, pero junto a muchos otros elementos surge, en efecto, un resultado significativo.
Otros investigadores, como el cosmólogo John Webb de la Universidad de Nueva Gales del Sur en Sídney, están trabajando en problemas similares. “Hay varias observaciones independientes que apuntan hacia grandes desviaciones de la isotropía. Por lo tanto, permanece la posibilidad de que el principio cosmológico sea sólo aproximadamente correcto”.
Es demasiado pronto para decir si estos resultados son definitivos. Otros investigadores tienen distintas opiniones en cuanto a cuál podría ser el origen de la anisotropía, o la propiedad de ser dependiente de la dirección.
Tamara Davis es la cosmólogo principal del equipo Australian WiggleZ Dark Energy Survey y mantiene reservas: “Parece sospechoso que la alineación sea directamente perpendicular a la Vía Láctea, por lo que bien puede ser un efecto de la observación que no comprendemos bien.
Además, los resultados son consistentes con el modelo de energía oscura, que ha sido confirmado recientemente por nuestro equipo, pero son incompatibles con las primeras semillas de la fluctuación del universo”, comentó.

Autor: Estelle Asmodelle
Fecha Original: 26 de septiembre de 2011
Enlace Original

lunes, 26 de septiembre de 2011

Arx Fatalis/Libertatis actualización.

Aquí encontrareis las instrucciones para probar este juego de rol en GNU/Linux.

Otra solución para la energía oscura

Fuente: Neofronteras


Ondas gravitacionales fuertes a gran escala podrían solucionar el problema de la energía oscura. Si la idea es correcta la aceleración de la expansión cósmica sería sólo aparente.
Foto
Regiones del fondo cósmico de microondas registradas por WMAP en las que supuestamente la temperatura parece inferior a la media. Fuente: NASA.
Como ya descubrió Hubble en su tiempo, el Universo se expande, es el propio espacio el que lo hace como si fuera la masa de un plumcake en el horno y las pasas fueran galaxias. Esa expansión, la nucleosíntesis primordial y el fondo cósmico de radiación apuntan hacia la existencia de un Big Bang hace más de 13.000 millones de años.
La Relatividad General (RG) puede describir al Universo en su conjunto, o más bien a cualquier esfera de espacio con un determinado y arbitrario radio de universo. Las ecuaciones de Einstein que describen esta teoría son de las más bellas de la Física y describen lo que le pasa al espacio cuando contiene masa, energía y/o cantidad de movimiento. El espacio, bajo este marco teórico, deja de ser un mero escenario newtoniano en el que ocurren las cosas, sino que pasa a formar parte de la función. Con la RG podemos describir la Cosmología de nuestro universo o de otros universos hipotéticos. Incluso se pueden concebir universos sin materia. Una de las lecciones que enseña es que el propio espacio también gravita.
Una de las predicciones de la RG es la existencia de ondas gravitatorias, deformaciones del propio espacio-tiempo que se propagan como ondas a la velocidad de la luz. Son tan débiles que todavía no se han detectado, pero quizás las podamos detectar pronto. Para que se produzcan con la suficiente intensidad como para que las detectemos algún día se necesita algún tipo de cataclismo cósmico.
La introducción de una constante cosmológica permite a la RG explicar incluso la aceleración de la expansión. Según esta característica la expansión del Universo se acelera cada día más. Normalmente se atribuye este efecto a la llamada energía oscura, nombre que denota simplemente nuestra ignorancia sobre ella.
Hasta ahora no hemos encontrado una buena explicación a esta energía que constituiría el 70% de la energía del Universo. Aunque la constante cosmológica la puede describir perfectamente, su introducción con un valor determinado es un problema filosófico. ¿Por qué ese valor y no ningún otro? Podemos decir que se eligió ese y ya está, que es el que es, pero si ese tipo de respuestas hubieran valido para cualquier otro problema de la Física en el pasado y nos hubiéramos conformado entonces no habríamos avanzado hasta donde lo hemos hecho. Lo ideal es que su valor sea cero (no exista) o bien se dé una razón para su valor y entonces se acaba el problema. A la espera de dar una explicación a valor de la constante cosmológica se van proponiendo soluciones alternativas a las medidas realizadas sobre supernovas de tipo Ia que sugieren la existencia de la energía oscura.
Algunas de esas explicaciones, más o menos afortunadas, las hemos visto en NeoFronteras. Muchas de ellas tratan de negar la existencia de la energía oscura atribuyendo las medidas a otros efectos.
Pero la energía oscura no es el único misterio cosmológico de la actualidad. Últimamente algún estudio apunta a que los datos de supernovas sugieren una expansión acelerada asimétrica para el Universo. También en el fondo cósmico de microondas se han encontrado asimetrías, como el “eje del demonio”. Si estos puntos se confirmaran tendríamos que asumir que el Universo no es isótropo.
Las ideas que tratan de explicar un problema físico o cosmológico pueden ser más o menos útiles, pero una regla a seguir es que frente a dos explicaciones igualmente buenas de un fenómeno, la más sencilla es la más adecuada. Si además es la más elegante mejor que mejor.
La última de estas propuestas proviene de Edmund Schluessel, de la Universidad de Cardiff (RU). Según su idea estas observaciones se deberían a la existencia de ondas gravitatorias. Para producir ondas gravitatorias se necesitan procesos tremendamente poderosos. Incluso la explosión de una supernova produce unas ondas gravitatorias que a duras penas podemos observar, a no ser que la supernova se encuentre en nuestra galaxia y esto no se da todos siglos. El Big Bang fue el proceso más violento que conocemos y tuvo que producir estas ondas en gran cantidad. Aunque hasta ahora no las hemos detectado.
La longitud de onda de estas radiaciones gravitatorias del propio espacio producidas durante el Big Bang puede ser variada. Schluessel sugiere que estas longitudes de onda serían del mismo orden que la curvatura del propio universo visible. Poéticamente podemos decir que sería como si el Universo fuera una campana y que después de hacerla tañer siguiera resonando. Imaginemos a todo el Cosmos deformándose por entero al son de esa reverberación. Técnicamente serían “ondas gravitacionales fuertes a gran escala”.
Pues bien, según este investigador, eso explicaría las anisotropías en el fondo cósmico de microondas y también produciría una distorsión en la luz de los objetos distantes haciendo que pareciera que el Universo acelera su expansión.
Si está en lo cierto entonces no hace falta recurrir ni a la energía oscura, ni a la quintaesencia (éste debe de ser uno de los nombres menos afortunados de toda la Física), ni siquiera la constante cosmológica. No hace falta ninguna explicación exótica y la RG soluciona todos (o casi) esos problemas de un plumazo.
Lo bueno del trabajo es que Schluessel propone (en la tradición adecuada de la ciencia) una serie de predicciones sobre su modelo que la nueva generación de telescopios podría corroborar o desmentir. Según él incluso una campaña de observación de supernovas distantes podría revelar la existencia de estas ondas gravitacionales fuertes a gran escala.
Si así es no solamente habríamos solucionado ciertos problemas que traen de cabeza a muchos físicos y cosmólogos, sino que además tendríamos más pruebas a favor de la existencia de ondas gravitacionales.
Lastima que no se lleve también por delante a la materia oscura.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3609
Fuentes y referencias:
Artículo en ArXiv.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

Sensacionalismo hiperlumínico

Fuente: Neofronteras

Se busca una solución a la aparente velocidad superior a la de la luz en neutrinos sugerida por unos resultados preliminares.
Foto
Dice un chiste para físicos que la velocidad con la que algunos publican artículos científicos supera la velocidad de la luz, pero que no importa, pues al no transmitirse ningún tipo de información no se viola la causalidad relativista.
Pues eso parece que está ocurriendo en los medios de comunicación ahora, en los que a raíz de unos resultados muy preliminares ya se quiere enterrar la Relatividad Especial.
Hay tres razones para este sensacionalismo en los medios de comunicación. La primera es la inercia amarillista que promueve la venta de su producto, por muy malo que sea éste. La segunda es la ignorancia supina de los periodistas sobre casi cualquier tema (saben escribir pero no saben nada sobre lo que escribir) y la ausencia de asesores científicos en los medios que los corrijan. La tercera es la ignorancia generalizada en la sociedad, que ha hecho que después de más de 100 años la gente no comprenda y no quiera comprender la Relatividad Especial (RE) ni sus consecuencias. A esto último se suma la antipatía, en parte provocada por la ciencia ficción, hacia la existencia de un límite absoluto a cualquier velocidad.
Todo ha empezado a raíz de una información del CERN sobre un experimento de neutrinos. Básicamente se usa un acelerador de partículas (cerca de Ginebra) para hacer que unos protones impacten sobre un blanco metálico y que se produzcan neutrinos en el proceso. Éstos viajan a través de la corteza terrestre hasta llegar al detector OPERA en Gran Sasso (Italia) gracias a su baja interacción con la materia. OPERA usa 1800 toneladas de materiales para detectar estos neutrinos o los producidos por el Sol. La distancia entre el sitio de producción y detección de neutrinos es de 730 km.
Foto
Según unos cálculos preliminares parece que los neutrinos (partículas sin carga, casi sin masa y que casi no interaccionan con las demás) invierten menos tiempo en ese viaje que el que necesitarían si viajaran a la velocidad de la luz (299.792.458 m/s). Estos resultados aún no han sido publicados y se iban a comunicar hoy en un seminario en el CERN.
Obviamente el anuncio ha causado escepticismo a lo largo de toda la comunidad científica internacional.
Según V. Alan Kostelecky, de Indiana University, la comunidad científica internacional no tomará esto como un resultado definitivo a no ser que pueda ser reproducido al menos una vez en varios experimentos.
Los responsables del experimento MINOS en Minnesota, similar a éste, planean mejorar la precisión para tratar de corroborar o refutar este resultado.
En los últimos tres años los investigadores de este experimento en Gran Sasso han detectado unos 16.000 neutrinos procedentes del CERN y parece que han medido en ellos un velocidad extra que hace recorran esa distancia en 60 nanosegundos menos que si viajaran a la velocidad de la luz (c). Antonio Ereditato dice que sólo han medido la distancia y el tiempo empleado obteniendo una velocidad mayor que c a través de un cálculo elemental. El error en la medida se estima en unos 10 nanosegundos.
Pero según este mismo investigador es pronto como para decir que la Relatividad es errónea. Simplemente han presentado los resultados para así preguntar a la comunidad internacional sobre una posible explicación.
Según Chang Kee Jung (un experto del campo en Stony Brook University en New York) posiblemente todo se deba a un error sistemático. “No apostaría a mi mujer e hijos porque se enfadarían, pero apostaría mi casa”, dice. Apunta que quizás se deba a incertidumbres en la medida del momento en que los neutrinos son producidos o se deba a las medidas efectuadas por el sistema GPS usado en el experimento.
Aunque ya alguien ha propuesto (¿cómo no?) que el efecto se debería a las supuestas dimensiones extras.
Para los electrones hay medidas previas que rechazan esta posibilidad superperlumínica, pero para neutrinos no hay medidas previas de este tipo con la precisión suficiente. Pero sí hay datos contrastables de la supernova 1987a, de la que se detectaron neutrinos. Si los datos de OPERA fueran ciertos hubiéramos visto la supernova años después de haber detectado sus neutrinos, pero ambos eventos fueron simultáneos.
En Física no hay dogmas y el límite de la velocidad de la luz tampoco lo es. De hecho se han propuesto recientemente violaciones de la simetría Lorentz que sugieren modificaciones sobre esta idea de una velocidad de la luz fija en el vacío. La propuesta de que el espacio-tiempo está arrugado a la escala planckiana y que fotones de distinta energía viajan a distintas velocidades es una de ellas. De esta idea ya hemos hablado aquí y sigue sin estar apoyada experimentalmente. Los datos del observatorio Fermi apuntan a que no parece que tal efecto exista.
Otras teorías que modifican el Modelo Estándar o ciertas teorías cuánticas de campos también proponen efectos similares.
Pero aunque se demostrara dicha posibilidad (es fácil imaginar en ese caso a algún periodista decir eso de “Einstein estaba equivocado”) eso no significaría que tuviéramos que arrojar la RE por la borda.
La RE es seguro que es falsa, como toda teoría científica, pero siempre será útil. Lo único que ocurriría en ese caso sería que su campo de aplicabilidad se restringiría. La Mecánica de Newton es la que usamos para casi todo proceso industrial o cotidiano. No nos olvidamos de esta Mecánica cuando se descubrió la Relatividad, sólo restringimos su aplicabilidad. Si usáramos la RE para diseñar casas serían aún más caras de lo que ya son. Pero usamos la RE, y no la Mecánica newtoniana, para el GPS o en los aceleradores de partículas.
Una violación de la simetría Lorentz tampoco implica la posibilidad de una velocidad arbitrariamente superior a la de la luz, ni de forma espontánea ni provocada por nosotros. Así que no podremos ir a warp 9, pese a nuestros deseos.
Si todo está mal, si un demonio se venga de nosotros y cambia las leyes de la Física de la noche a la mañana y ya se puede conseguir superar la velocidad de la luz arbitrariamente, entonces tampoco podremos viajar a las estrellas debido a los problemas económicos y ecológicos que tenemos y a las limitaciones biológicas, de energía y recursos de cualquier empresa de ese tipo, incluso aunque sea a menor velocidad que la luz.
En todo caso lo sucedido recuerda que habría que cambiar las políticas científicas para así poder comunicar mejor los resultados a los medios de comunicación. De este modo se intentaría prevenir el amarillismo científico.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3606
Fuentes y referencias:
Noticia en Science.
Noticia en Nature.
Nota de prensa.
Artículo en ArXiv.
Fotos: CERN.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.


Nota: Precisamente el pasado viernes en la Bienal de la RSEF el profesor R. Heuer comentó esto mismo al comienzo de su plenaria.

viernes, 16 de septiembre de 2011

Más pruebas de anisotropía cósmica

Fuente: Neofronteras

Un análisis de los datos de supernova de tipo Ia sugiere que el universo no acelera su expansión por igual en todas las direcciones.
Foto
Los puntos coloreados según el signo y magnitud del nivel de anisotropía son direcciones de ejes dispuestos al azar. El hemisferio de la izquierda es la parte correspondiente a las mayores aceleraciones (medidas) de la expansión, con el eje privilegiado en ese mismo sentido, mientras que el opuesto, para las aceleraciones menores, es el de la derecha. Fuente: Rong-Gen Cai y Zhong-Liang Tuo.
Hace unas semanas comentábamos en esta misma web un resultado observacional que contradecía el principio cosmológico. Este principio sostiene que el Universo es homogéneo e isótropo y que las leyes de la Física deben de ser las mismas independientemente de en dónde estemos y hacia dónde miremos. Según ese resultado el Universo no sería isótropo pues habría una dirección de giro que sería privilegiada respecto al resto.
Pero esta propuesta no ha sido la única en este sentido en los últimos años y varios estudios han sugerido que o bien el Universo no era del todo homogéneo o no era isótropo. Algunas de esas propuestas pretendían negar la existencia de la energía oscura proponiendo grandes huecos cósmicos con mucha menor densidad de galaxias que otras regiones del Cosmos. Esto haría que el Universo no fuera homogéneo y que incluso la Tierra pudiera estar en un sitio privilegiado o especial contradiciendo el principio (filosófico) copernicano.
Ahora nuevos análisis de observaciones resucitan el ataque hacia el principio cosmológico, esta vez hacia la isotropía del Universo y se realiza este ataque precisamente usando los datos de supernova de tipo Ia que hicieron pensar en un principio en la expansión acelerada del Universo y, por tanto, en la energía oscura.
Como ya sabemos las explosiones de supernova de tipo Ia representan una suerte de candela estándar cuyo brillo intrínseco fijo permite calcular distancias con cierta precisión y combinarlas con sus corrimientos al rojo. Los datos de estas estrellas indican que el Universo se expandía más despacio en el pasado y que por tanto el Cosmos acelera su expansión. Este increíble resultado se reveló muy a finales del siglo XX.
Pero es justamente aquí donde aparece ahora la anisotropía. Según los datos obtenidos de esta manera, y recientemente re-analizados, no parece que el Universo acelere su expansión por igual en todas las direcciones. La aceleración cósmica no sería uniforme en todas las direcciones y esto introduciría direcciones privilegiadas. El universo sería, por tanto, anisótropo.
Pero los datos de estas supernovas, como todos los datos astronómicos, tienen unas barras de error bastante pronunciadas y no es fácil afirmar tal anisotropía a no ser que el análisis estadístico de los datos proporcione una estimación con bastante confianza o significación. No sería la primera vez que un resultado científico desaparece una vez hecho un análisis de este tipo, pues el azar a veces se puede confabular para engañarnos (sobre todo cuando los datos son escasos), y más si tenemos prejuicios y queremos ver en los datos la confirmación de una idea que ya tenemos preconcebida.
Rong-Gen Cai y Zhong-Liang Tuo de la Academia China de Ciencias en Pekín han re-examinado los datos disponibles de 557 supernovas de este tipo y hecho un análisis estadístico cuidadoso de ellos. En su estudio confirman la existencia de un eje privilegiado. Tanto en el modelo de energía oscura como en un modelo estándar sin ella, encuentran una desviación anisotrópica de 0.76 y 0.79 respectivamente hacia las coordenadas 309°, 21° y 314°, 28°. Esta dirección, hacia la constelación de Vulpécula en el hemisferio Norte según nuestros mapas del cielo, sería en la que la aceleración cosmológica es máxima.
Este resultado sería además consistente con otros estudios basados en el fondo cósmico de microondas, así que estaría confirmado por una vía distinta. Sin embargo, otros estudios estadísticos basados en halos de materia oscura, galaxias o supernocivas de tipo Ia, y el propio FCM mantienen la isotropía y homogeneidad del Universo.
Queda abierta la pregunta de por qué existe este fenómeno, si es que éste es real, y qué consecuencias tiene esto sobre la evolución del Universo. Habría además que proponer una teoría o hipótesis que explique su origen.
Si finalmente se confirma el resultado, los cosmólogos tendrían dificultades. Las ecuaciones de Einstein que permiten estudiar el Universo pueden resolverse analíticamente con cierta facilidad si se recurre al principio cosmológico. Sin este principio hay que recurrir a farragosas soluciones numéricas.
Además, filosófica y científicamente la quiebra del principio cosmológico cambiaría la manera en la que vemos el mundo y el Universo.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3592
Fuentes y referencias:
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

¿Automóviles funcionando con amoniaco?

Fuente: Neofronteras

Proponen el uso de amoniaco en motores de explosión interna como solución al problema de combustibles para automoción.
Foto
Desde hace unos años se vienen haciendo muchas investigaciones sobre nuevos combustibles y nuevos sistemas de locomoción, dados los problemas ecológicos y económicos que tenemos con los combustibles fósiles.
Uno de los combustibles propuestos es el hidrógeno, que habría que producir a partir de electricidad y agua usando electrolisis (no hay “fuentes” de hidrógeno). Su uso, tanto en motores de combustión interna como en pilar de combustible, sería muy sencillo, pero peca de muchas dificultades a la hora de ser almacenado, lo que está retrasando su posible adopción.
Ahora, John Fleming de SilverEagles Energy en Lubbock (Texas) propone que en su lugar se use amoniaco. El consumo de amoniaco no emite dióxido de carbono, ya que las emisiones consistirían en vapor de agua y nitrógeno. Puede almacenarse fácilmente en forma líquida e incluso propone el montaje de factorías de amoniaco transportables para abastecer las demandas de los automóviles.
Junto a Tim Maxwell, de Texas Tech University, este investigador está desarrollando un sistema para producir amoniaco que pueda ser instalado en las gasolineras. Alimentado con electricidad, agua y aire, este sistema produciría primero hidrógeno por electrolisis y luego amoniaco al combinarlo con el nitrógeno atmosférico.
Para conseguir esta meta los investigadores han tenido que adaptar el conocido proceso Haber-Bosch que es usado en la industria para producir amoniaco. Su versión trabaja a pequeña escala y puede suministra amoniaco de una forma barata y sencilla.
En su sistema un pistón comprime el hidrógeno y el nitrógeno. Luego esta mezcla es calentada a 400 grados centígrados en presencia de un catalizador de óxido de hierro en una segunda cámara. Esto produce amoniaco y calor. En una tercera cámara la mezcla se expande y enfría hasta la temperatura ambiente. Esta expansión es aprovechada por otro pistón para así recuperar energía mecánica que alimente en gran parte al primer pistón. Este truco permite un aprovechamiento de la energía que eleva la eficiencia del sistema al reducir el consumo de energía.
Finalmente la mezcla es enfriada hasta los 75 grados bajo cero necesarios para que el amoniaco se licue.
La clave está en el primer paso: la producción de hidrógeno. En el proceso de electrolisis habitual usado en la industria se emplean cien células de 2 voltios conectadas en serie y alimentadas por 240 voltios. En el sistema de Fleming se ha simplificado el sistema y sólo se usan ocho células. Esto hace que el sistema sea más barato de manufacturar y operar. El sistema produce hidrógeno a 2,8 dólares el kilo, comparado con los 5,2 del proceso convencional.
Todo el sistema cabe en un contenedor estándar y puede ser transportado en camión hasta su lugar de instalación en estaciones de servicio, en donde puede fabricar entre 4000 y 40.000 litros de amoniaco al día. El diseño modular permite además escalar el sistema hasta cubrir las necesidades. Según los investigadores el amoniaco producido sale a 20 céntimos de dólar el litro (impuestos aparte, claro). Ya trabajan para el ejército de los EEUU, que ha expresado interés por el sistema.
Otros expertos dicen que este sistema puede ser útil en áreas remotas, pero que no está claro que el paso de producir hidrógeno por electrolisis sea rentable.
Un automóvil convencional puede usar amoniaco sin modificaciones si usa una mezcla de un 10% de amoniaco y un 90% de gasolina. Incluso los motores flexibles que admiten mezclas de gasolina y alcohol pueden ser modificados para admitir mezclas de hasta un 85% de amoniaco. Incorporando un sensor que calcule la mezcla del momento se pueden ajustar la inyección de combustible y momento de ignición óptimos. Pero para poder almacenar amoniaco el depósito de combustible debe sustituirse por uno que pueda contener amoniaco a presión.
Este grupo de investigación también ha diseñado un motor híbrido que funciona con amoniaco puro. La combustión de amoniaco mueve unos pistones que a su vez mueven un generador que produce electricidad. La electricidad producida puede almacenarse y/o usarse para mover las ruedas con motores eléctricos.
Eso sí, mientras que a algunos les gusta el olor de la gasolina, a pocos les va a gustar llegar a una estación de servicio y que huela a amoniaco. Por no mencionar una posible fuga en el automóvil o que una pequeña proporción de motores estén mal reglados, que no quemen todo el amoniaco y que éste forme parte de la contaminación de las ciudades.
Pero el gran problema de ésta u otra tecnología está en que la tecnología opera como la evolución biológica. Una vez se ha invertido en un camino determinado, la evolución no suele retroceder, sino que opera sobre lo que ya hay modificándolo. En el mundo tecnológico un cambio de paradigma supone un coste difícil de asumir.
Los teclados actuales, tipo QWERTY (en el mejor de los casos), se diseñaron en un principio para hacer la mecanografía los suficientemente lenta como para que no se trabaran las primeras máquinas de escribir. Ahora es casi imposible cambiarlo, pues está demasiado generalizado. Lo mismo se puede decir de los estándares informáticos y similares.
Si al final se encuentra un nuevo modelo de automoción la apuesta será cara y arriesgada y no admitirá veleidades de cambio cuando se encuentre otro sistema mejor. Así que será conveniente pensar muy bien qué sistema se elige.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3594
Fuentes y referencias:
New Scientist.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

jueves, 15 de septiembre de 2011

Vídeo sobre el software libre.

El chorro de estrellas de Sagitario como responsable de los brazos espirales y el núcleo barrado de la Vía Láctea

Fuente: Francis (th)E mule

Nuestra galaxia, la Vía Láctea, es una galaxia espiral con un núcleo barrado, pero nadie entiende el porqué. La explicación podría ser el canibalismo galáctico. En concreto, la interacción entre nuestra galaxia y una galaxia elíptica enana llamada Sagitario que se encuentra muy cerca del disco galáctico, pero en el lado opuesto a nuestro Sol respecto al centro galáctico. Así lo concluye un nuevo estudio numérico publicado en Nature. ¿Cómo es posible que una galaxia tan pequeña puede haber tenido tanta influencia? La respuesta, según una extrapolación realizada en el estudio, es que la masa original de Sagitario era 100 000 veces mayor que la que se observa en la actualidad. Sagitario era enorme y su interacción con la Vía Láctea modeló la estructura a gran escala de nuestra galaxia. Un interesante estudio que traerá polémica, sin lugar a dudas. Nos lo cuenta Curtis Struck, “Astrophysics: Rough times in the Galactic countryside,” Nature 477: 286–287, 15 September 2011, haciéndose eco del artículo técnico de Chris W. Purcell et al., “The Sagittarius impact as an architect of spirality and outer rings in the Milky Way,” Nature 477: 301–303, 15 September 2011.
La figura que abre esta entrada muestra una imagen de los enormes chorros de materia y estrellas que atraviesan el plano de la galaxia espiral NGC 5907, prueba de que esta galaxia ha canibalizado a una pequeña galaxia elíptica. Una imagen similar de nuestra Vía Láctea es imposible de obtener, salvo mediante simulaciones numéricas, como la imagen de más abajo. Los astrónomos han observado trozos de estos chorros en nuestra galaxia en la última década, pero son muy débiles y muy difíciles de estudiar. Por supuesto, el más estudiado es el chorro de Sagitario, el producido por la interacción entre la Vía Láctea y la galaxia enana Sagitario que fue descubierta en 1994. Si el tamaño original de la galaxia Sagitario según los modelos teóricos de Purcell y sus colegas era unas 100 000 veces más masa que la observada en la actualidad, los chorros de materia y estrellas que atraviesan nuestra galaxia tienen que ser enormes. Futuros telescopios quizás sean capaces de observarlos en todo su esplendor.
Las simulaciones por ordenador del canibalismo galáctico requieren incluir la cantidad de materia oscura que hay en el halo galáctico de la Vía Láctea así como la cantidad de materia oscura que se supone que tenía originalmente la galaxia Sagitario (en la actualidad su materia oscura es muy pequeña porque la ha perdido en los grandes chorros producidos durante la interacción con la Vía Láctea). Los autores del estudio han estimado la cantidad de materia oscura a partir del modelo cosmológico de consenso ΛCDM (donde Λ representa la expansión cósmica acelerada del Universo y CDM que la materia está dominada por materia oscura fría). El resultado estimado indica que su masa original era entre 10 10,5 y 10 11 M (donde M es la masa del Sol).
Las simulaciones por ordenador indican que las interacciones entre Sagitario y la Vía Láctea fueron las responsables de la formación de los grandes brazos espirales de nuestra galaxia y de su núcleo barrado. Bastan tres cruces de Sagitario a través del plano galáctico para formar las características observadas en la actualidad. En estas colisiones la galaxia enana pierde enormes cantidades de masa; por ejemplo, en la primera colisión se estima que perdió del orden del 75% de su materia oscura. Aunque los resultados precisos son sensibles a las condiciones estelares iniciales, los autores del estudio han realizado gran número de simulaciones con diferentes distribuciones de materia. Aunque todas las simulaciones no coinciden con las características observadas, sorprende que las diferencias sean más pequeñas de lo esperado. La formación de brazos y de un núcleo barrado parece una característica genérica resultado del canibalismo galáctico.
La decisión final sobre si los resultados de las simulaciones son correctos vendrá a partir de las observaciones detalladas de los grandes chorros de materia y estrellas que rodean a nuestra galaxia. La cinemática y las propiedades de estos chorros de desechos de Sagitario debidos a las corrientes de marea gravitatorias de nuestra galaxia permitirá confirmar las simulaciones numéricas. Una vez confirmado, nuevas simulaciones permitirán estudiar el futuro de la evolución de nuestra galaxia, que como todos sabemos, acabará colisionando contra nuestra galaxia “hermana” Andrómeda.
PS: En ABC tenéis un vídeo de las simulaciones que merece la pena ver: J. de Jorge, “¿Cómo le salieron los brazos a nuestra galaxia?,” ABC Ciencia, 14 sep. 2011.

martes, 13 de septiembre de 2011

2ClickUpdate deja tu Ubuntu limpita y actualizada.

Fuente: Muy linux


Aunque hay un buen montón de utilidades y frontends para la actualización de paquetes y del sistema en Ubuntu, está claro que el Centro de Software de Ubuntu suele ser la herramienta preferida por casi todos los usuarios de la distribución.
2clickupdate free disk space 2ClickUpdate deja tu Ubuntu limpita y actualizada
Eso no quita, no obstante, para que otras alternativastambién puedan ser aplicadas en este terreno, y una de ellas, como indican en ShuffleOS, es 2ClickUpdate, una solución que como su propio nombre indica hace uso de una interfaz sencilla en la que con apenas 2 clicks de ratón tendremos a nuestro alcance un buen número de operaciones.
Y es que además de realizar las actualizaciones del sistema según los repositorios de los que dispongamos, 2ClickUpdate permite eliminar ficheros que no necesitamos, liberar espacio en disco y optimizar el uso de la memoria RAM.
Esta utiildad llega con distintos módulos para cada escenario, y así tenemos ReApt, SmartApt, AutoremApt, OrphanApt, AutocleanApt, CleanApt y RamCleanApt. Para instalar la aplicación podéis descargar este paquete DEB e instalarlo, tras lo cual tendréis la herramienta preparada para comenzar a trabajar.
El uso de la herramienta es muy simple, y basta ejecutarlo e introducir nuestra contraseña para que pueda funcionar con privilegios de administrador -algo necesario para la gestión de paquetes- para que tengamos a nuestro alcance este útil conjunto de posibilidades.

Curso en Google-code de python.

Es interesante mirar este curso para Python que incluye vídeos de los cursos (en inglés).

Los últimos vídeos de "Elder Scrolls:Skyrim"

Una pena que no esté planeada una versión para Linux.



lunes, 12 de septiembre de 2011

CRESST parece haber detectado WIMPs

Fuente: http://neofronteras.com/?p=3588

Datos del experimento CRESST apuntan hacia la existencia de WIMPs, pero son incompatibles con los resultados de otros experimentos similares.
Foto
El detector de CRESST. Fuente: LNGS/INFN.
Los científicos del experimento CRESST (Cryogenic Rare Event Search with Superconducting Thermometers, o búsqueda criogénica de eventos raros con termómetros superconductores) han anunciado resultados que pueden interpretarse como señales dejadas por partículas de materia oscura.
Estas señales parecen confirmar, hasta cierto punto, las detectadas por otros experimentos similares, aunque los expertos del campo no se ponen de acuerdo entre sí sobre si las distintas señales coinciden o no. Según algunos de ellos esta falta de consenso podría deberse a que no se entiende bien el funcionamiento de estos detectores.
Se ha propuesto que la materia oscura podría estar constituida por partículas que interaccionan débilmente con el resto y que casi sólo se dejen notar por su influencia gravitatoria. Se les ha denominado WIMPs. Esta materia oscura constituiría el 80% de la masa del Universo.
Para poder poner de manifiesto estas partículas, diversos grupos de investigación han dispuesto detectores especiales a gran profundidad para así evitar los rayos cósmicos en la medida de lo posible. Así en Gran Sasso (Italia), bajo kilómetros roca, hay varios experimentos instalados, en concreto DAMA, XENON y CRESST.
Durante los últimos años el equipo de DAMA ha reclamado haber detectado estas partículas. El año pasado los investigadores del experimento CoGeNT, situado en la mina Soudan en Minnesota (EEUU), también informaron de la detección de posibles WIMPs. En esa misma mina también se encuentra el experimento CDMS. Sin embargo, tanto con CDMS como con XENON no se han detectado señales de esas partículas.
Según los resultados obtenidos por CRESST, las WIMPs tendrían una masa estimada entre 10 y 20 GeV. Los resultados de DAMA y CoGeNT sugieren masas entre 7 y 20 GeV. Previamente se había estimado que la masa estaría entre 10 y 1000 GeV, así que las masas medidas estarían por debajo de lo esperado.
Algunos de estos detectores se basan en la idea de que una WIMP puede chocar contra un núcleo atómico y hacer que éste se desplace y emita un destello luminoso. CRESST usa tres tipos de núcleos: calcio, wolframio y oxígeno en forma de cristales de wolframato de calcio. Como cada uno de estos núcleos tiene diferente masa pueden estudiarse las colisiones con WIMPs de tres modos distintos e inferir mejor la masa de dichas partículas.
Desde junio de 2009 hasta abril de 2011 se han registrado en CRESST 67 eventos compatibles con las WIMPs usando unos pocos kilogramos de wolframato de calcio. Estos sucesos, según los investigadores implicados, no se explicarían como un fenómeno debido al ruido de fondo.
Lo malo es que las señales registradas corresponden a las características de posibles WIMPs que ya habían sido descartadas por los experimentos XENON y CDMS. Esto hace muy difícil reconciliar los distintos resultados obtenidos por los diversos experimentos. Según Jodi Cooley, que trabaja en el CDMS, o bien las WIMPs se comportan de una manera muy extraña que no se comprende o el ruido de fondo está enmascarando los resultados de CRESST. Aunque no todos están de acuerdo en este punto y algunos expertos creen que los distintos resultados se podrán reconciliar si se tiene en cuenta los distintos equipamientos usados.
El resultado de CRESST podría también sumarse a los resultados del satélite Fermi que sugerían más antimateria de la esperada procedente del espacio exterior. Los positrones detectados, tanto por este observatorio como anteriormente por Pamela, podrían proceder de la aniquilación de partículas de materia oscura. Aunque los 200 GeV de masa sugeridos para este caso tampoco parecen muy cercanos a lo sugerido por CRESST (ni tampoco a lo sugerido por DAMA). Sin embargo, los nuevos resultados de Fermi no muestran una energía de corte a la masa de la WIMP correspondiente, así que descartan casi por completo este punto.
Recordemos que los sistemas como CRESST se han diseñado para que sean muy sensibles y otro tipo de eventos distintos a las colisiones con WIMPs pueden dar falsos positivos, como los inducidos por la radiactividad natural de las rocas que rodean los equipos de medición. En todo caso, hay que hacer más experimentos que estudien el fenómeno, pues los resultados no son concluyentes y la estadística es bastante pobre.
En resumidas cuentas, de los varios experimentos dedicados a la detección directa o indirecta de WIMPSs de materia oscura, varios niegan su existencia y los que la afirman dan características para dichas partículas incompatibles entre sí.
Algo que tampoco se menciona en este tipo de investigaciones es la supuesta abundancia de WIMPs. Incluso si se demuestra su existencia no está claro que se pueda demostrar que den cuenta del 80% de la masa del Universo. Puede que las dificultades en su detección se deban a su escasez más que su debilidad a la hora de interaccionar. Si así fuera no darían cuenta de la materia oscura.
Algunos expertos especulan con que todos estos eventos que se detectan no se deban a las WIMPs y que en su lugar quizás se estén viendo los picos más altos de una extraordinaria nueva física. Eso sí sería realmente excitante.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3588
Fuentes y referencias:
Noticia en Physics World.
Artículo en ArXiv.

viernes, 9 de septiembre de 2011

Sheldon Lee Cooper, de la sitcom “Big Bang,” aparece en la prestigiosa revista Reviews of Modern Physics

Fuente: Francis (th)E mule


Puede parecer una broma, pero no lo es. ¿Quizás es publicidad de la serie de TV? No, tampoco. Los Premio Nobel de Física tienen muchas licencias y una de ellas es permitirse este tipo de bromas. Reviews of Modern Physics, con un índice de impacto de 51,695 en el ISI JCR 2010, la revista #1 de su categoría (Física Multidisciplinar), es la revista de mayor impacto de la APS (Asociación de Física de EE.UU.). Konstantin S. Novoselov ilustra su Nobel Lecture con una foto del actor Jim Parsons ante una pizarra que presenta un modelo del grafeno (Sheldon se supone que está estudiando por qué los electrones se comportan como cuasipartículas de tipo de Dirac sin masa en una lámina plana de grafeno). Según Konstantin, se trata del mejor episodio de la serie de TV y el que mejor ilustra el trabajo de los científicos. Konstantin, tras realizar algunos comentarios personales sobre la serie de TV, presenta en su Nobel Lecture las aplicaciones presentes y futuras más interesantes del grafeno. Para los que tengan acceso a la revista, merece la pena leer el artículo es K. S. Novoselov, “Nobel Lecture: Graphene: Materials in the Flatland,” Rev. Mod. Phys. 83: 837–849, 3 August 2011. También la merece el artículo de Andre K. Geim, “Nobel Lecture: Random walk to graphene,” Rev. Mod. Phys. 83, 851–862, 3 August 2011, que incluye la foto de sus coautores y colaboradores en el artículo científico que mereció el Premio Nobel, pero que se quedaron sin el premio.

jueves, 8 de septiembre de 2011

Experimentos demuestran que la gravedad no es un fenómeno emergente

Fuente: Ciencia Kanija

Escrito por Kanijo en Fí­sica, tags: , ,
Artículo publicado el 24 de agosto de 2011 en The Physics ArXiv Blog
La forma en que la gravedad afecta a las partículas cuánticas demuestra que no puede ser un fenómeno emergente.
Una de las ideas más interesantes de la física moderna es que la gravedad no es una fuerza tradicional, al igual que las fuerzas electromagnéticas o nucleares. Por el contrario, es un fenómeno emergente que simplemente tiene el aspecto de una fuerza tradicional.

Spacetime Continuum © Crédito: Kevin Krejci

Este enfoque ha sido defendido por Erik Verlinde de la Universidad de Amsterdam, quien propuso la idea en 2010. Sugirió que la gravedad no es más que una manifestación de la entropía en el universo, la cual siempre aumenta de acuerdo con la segunda ley de la termodinámica. Esto provoca que la materia se distribuya de una manera que maximice la entropía. Y el efecto de esta redistribución se parece a una fuerza, a la que llamamos gravedad.
Gran parte del entusiasmo por la idea Verlinde es que proporciona una manera de reconciliar las contradicciones entre la gravedad, que trabaja a gran escala, y la mecánica cuántica, que trabaja a una escala minúscula.
La idea clave es que la gravedad es, esencialmente, un efecto estadístico. Siempre y cuando cada partícula se vea influenciada por un número estadísticamente grande de otras partículas, surge la gravedad. Es por eso que se trata de un fenómeno a gran escala.
Pero hoy, Archil Kobakhidze de la Universidad de Melbourne en Australia señala un serio problema de este enfoque. Como es natural, se pregunta cómo puede influir la gravedad en las partículas cuánticas.
Kobakhidze defiende que, dado que cada partícula cuántica tiene que describirse mediante un gran número de otras partículas, esto lleva a una ecuación particular que describe el efecto de la gravedad.
Pero aquí está el tema: la visión convencional de la gravedad conduce a una ecuación diferente.
En otras palabras, los puntos de vista tradicionales y emergentes de la gravedad hacen diferentes predicciones sobre la fuerza gravitatoria que debería experimentar una partícula cuántica. Y esto abre el camino para una prueba experimental.
Resulta que  los físicos han estado midiendo la fuerza de la gravedad sobre neutrones desde hace unos diez años aproximadamente. Y.. espera el redoble de tambores … los resultados coinciden exactamente con las predicciones de la teoría de la gravedad tradicional, dice Kobakhidze.
“Los experimentos sobre estados ligados gravitatorios de los neutrones descartan sin ambigüedades el origen entrópico de la gravitación”, dice.
Ésta es una impresionante obra de física. Será interesante ver cómo responden Verlinde y sus partidarios.

Artículo de Referencia: arxiv.org/abs/1108.4161: Once More: Gravity Is Not An Entropic Force
Fecha Original: 28 de agosto de 2011
Enlace Original

LRO ofrece las vistas más nítidas de los lugares de alunizaje de Apollo

Fuente: Ciencia Kanija

Artículo publicado el 6 de septiembre de 2011 en la web de NASA
El Orbitador de Reconocimiento Lunar (Lunar Reconnaissance Orbiter – LRO) capturó las imágenes más nítidas jamás tomadas desde el espacio de los lugares de alunizaje de Apollo XII, XIV y XVII. Las imágenes muestran las vueltas y revueltas de los caminos que se formaron cuando los astronautas exploraron la superficie lunar.
En el sitio del Apollo XVII, los caminos dejados por el róver lunar son claramente visibles, junto con los últimos caminos a pie dejados en la Luna. Las imágenes también muestran dónde colocaron los astronautas algunos de los instrumentos científicos que proporcionaron una primera visión del entorno y el interior de la Luna.

Lugar de alunizaje de Apollo por LRO © Crédito NASA

“Podemos volver sobre los pasos de los astronautas con mayor claridad para ver dónde se tomaron muestras lunares”, dijo Noah Petro, geólogo lunar del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland, quien es miembro del equipo científico del proyecto LRO.
Las tres imágenes muestran los distintivos caminos dejados en el fino suelo de la Luna, cuando los astronautas salieron de los módulos lunares y exploraron a pie. En la imagen del Apollo XVII, los senderos hechos a pie, incluyendo la última ruta hecha en la Luna por los humanos, se distinguen fácilmente de las vías dobles dejadas por el róver lunar, que se mantiene estacionado al este del módulo de aterrizaje.
“Las nuevas imágenes de baja altitud de la Cámara de Pequeño Angular agudizan nuestra visión de la superficie de la Luna”, dijo el investigador de la Universidad Estatal de Arizona Mark Robinson, investigador principal de la Cámara del Orbitador de Reconocimiento Lunar (LROC). “Un gran ejemplo es la nitidez de las huellas del róver en el sitio del Apollo XVII. En las imágenes anteriores las huellas del róver eran visibles, pero ahora son líneas paralelas definidas en la superficie”.
En cada sitio, también se extienden senderos hacia el oeste de los módulos de aterrizaje, donde los astronautas colocaron el Conjunto de Experimentos de Superficie Lunar de Apollo (ALSEP) para monitorizar el entorno e interior de la Luna. Este equipamiento fue una parte clave de cada misión Apollo.
Proporcionó las primeras vistas de la estructura interna de la Luna, medidas de la presión en la superficie lunar y la composición de su atmósfera. Apollo XI llevó a una versión más simple del paquete científico.
Uno de los detalles que se muestran en la imagen de Apollo XII, es una brillante forma de L. Marca la ubicación de los cables que van desde la estación central ALSEP a dos de sus instrumentos. A pesar de que los cables son demasiado pequeños para su visión directa, aparecen debido a que reflejan la luz muy bien.
La mayor resolución de estas imágenes es posible debido a los ajustes realizados en la órbita del LRO, que es ligeramente ovalada o elíptica. “Sin cambiar la altitud media, hicimos la órbita más elíptica, por lo que la parte más baja de la órbita está en el lado iluminado de la Luna”, dijo John Keller de Goddard, segundo científico del proyecto LRO. “Esto pone a LRO en una posición perfecta para tomar estas nuevas imágenes de la superficie”.
La maniobra bajó a LRO de su altura habitual de aproximadamente 50 kilómetros a una altitud que llegó hasta los 21 kilómetros al pasar sobre la superficie lunar. La nave espacial se ha mantenido en esta órbita durante 28 días, tiempo suficiente para que la luna rote por completo. Esto permite una cobertura total de la superficie por parte de la Cámara de Gran Angular de LROC. El ciclo termina hoy, cuando la nave espacial retornará a su órbita de 50 kilómetros.
“Estas imágenes nos recuerdan nuestra fantástica historia de Apollo y nos llaman a seguir avanzando en la exploración de nuestro Sistema Solar”, dijo Jim Green, director de la División de Ciencias Planetarias de la NASA en las Oficinas Centrales de Washington.
LRO fue construido y administrado por Goddard. La investigación inicial estuvo financiada por la Dirección de Misiones de Sistemas de Exploración de la NASA. En septiembre de 2010, tras un año de exitosa misión de exploración, la misión pasó a centrar su atención de los objetivos de la exploración a la investigación científica en la Dirección de Misiones Científicas de la NASA.
Para obtener más información acerca de LRO, visite: http://www.nasa.gov/lro

Fecha Original: 6 de septiembre de 2011
Enlace Original

miércoles, 7 de septiembre de 2011

La conjetura de Hodge explicada para torpes por Dan Freed

Fuente: Francis (th)E mule news


Este vídeo de youtube presenta una charla en inglés de Dan Freed (Universidad de Texas, Austin) quien explica en una hora qué es la conjetura de Hodge en un lenguaje sencillo que a mí me resulta bastante fácil de entender (o eso creo); Freed empieza su charla en el minuto 5:20 y tras unos preliminares empieza a hablar de la conjetura de Hodge en el minuto 43:00. La charla se impartió en abril de 2011 ante un público de matemáticos no especialistas en el Instituto Clay de Matemáticas (aquí están las transparencias y aquí en formato presentación paso a paso). Esta charla de Freed me gustó más que la de Vicente Muñoz (Universidad Complutense de Madrid) quien explicó en tres horas qué era la conjetura de Hodge en las jornadas sobre los Problemas del Milenio en Barcelona (notas en pdf y transparencias en pdf). En español, siguiendo una línea argumental parecida a la de Freed también podéis disfrutar de la presentación de José Ignacio Burgos Gil (Universidad de Barcelona), “La conjetura de Hodge” (resumen).
Este vídeo de youtube presenta una charla en inglés de Dan Freed (Universidad de Texas, Austin) quien explica en una hora qué es la conjetura de Hodge en un lenguaje sencillo que a mí me resulta bastante fácil de entender (o eso creo); Freed empieza su charla en el minuto 5:20 y tras unos preliminares empieza a hablar de la conjetura de Hodge en el minuto 43:00. La charla se impartió en abril de 2011 ante un público de matemáticos no especialistas en el Instituto Clay de Matemáticas (aquí están las transparencias y aquí en formato presentación paso a paso). Esta charla de Freed me gustó más que la de Vicente Muñoz (Universidad Complutense de Madrid) quien explicó en tres horas qué era la conjetura de Hodge en las jornadas sobre los Problemas del Milenio en Barcelona (notas en pdf y transparencias en pdf). En español, siguiendo una línea argumental parecida a la de Freed también podéis disfrutar de la presentación de José Ignacio Burgos Gil (Universidad de Barcelona), “La conjetura de Hodge” (resumen).
Colgué este vídeo en youtube en junio y entonces pensé en escribir un resumen en español de la charla de Freed. Sin embargo, este verano he estado un poco vago y viendo que no lo voy a escribir nunca, he dedicido que ya era hora de sacarlo a la luz en este blog. Lo siento por lo que no sepan suficiente inglés para entender la charla de Freed, pero creo que los estudiantes de matemáticas y los profesores no especialistas en geometría algebraica disfrutarán más de las notas de Vicente tras ver la charla de Freed.
Seguro que alguien me pide en los comentarios que explique la conjetura de Hodge en términos comprensibles. Para mí es muy difícil, pues yo mismo no la entiendo. El enunciado light de la conjetura de Hodge dice que para las variedades algebraicas proyectivas complejas, los ciclos de Hodge son una combinación lineal con números racionales como coeficientes de ciclos algebraicos. Obviamente, hay que explicar qué es una variedad algebraica proyectiva compleja, qué son los ciclos de Hodge, qué son los ciclos algebraicos, cómo se realizan sus combinaciones lineales, así como tratar de justificar por qué los expertos esperan que todos los ciclos de Hodge se porten bien y se puedan describir como ciclos algebraicos. Las notas de Vicente explican todo eso. Yo me limitaré a un párrafo y solo un párrafo (seguro que si algún experto lo lee me pegará un buen tirón de orejas en los comentarios).
Una variedad algebraica proyectiva compleja es el conjunto de soluciones de un sistema de ecuaciones polinómicas sobre los números complejos. Igual que p(x,y)=x²+y²-1=0, con x e y variables reales, define una circunferencia de radio 1 (una variedad unidimensional), en general, las soluciones complejas de un conjunto de polinomios igualados a cero son una variedad (un espacio de n dimensiones que se parece localmente en cada punto al espacio euclídeo de n dimensiones). Un ciclo algebraico es una subvariedad que se obtiene al añadir a este sistema de ecuaciones nuevas ecuaciones polinómicas (subvariedades algebraicas dentro de variedades algebraicas). Los ciclos de Hodge son otro tipo de subvariedad que se definen por ciertas propiedades topológicas “agradables,” en lugar de añadiendo nuevas ecuaciones, por lo que son más generales que los ciclos algebraicos. Lo que afirma la conjetura de Hodge es que los ciclos de Hodge, aunque a priori parezcan mucho más generales, en realidad se pueden descomponer en ciclos algebraicos (luego entender estos últimos permite entender los primeros). Esto significa, más o menos, que cualquier subvariedad con una topología “agradable” en una variedad algebraica compleja se puede deformar hasta identificarla con una subvariedad algebraica. Como muchas otras conjeturas famosas, la conjetura de Hodge afirma que lo fácil permite entender lo difícil (bajo ciertas premisas de carácter técnico).

martes, 6 de septiembre de 2011

El neutrino explicado en 60 segundos.

Fuente: Ciencia Kanija

Artículo publicado por Debbie Harris en abril de 2010 en Symmetry
El neutrino es quizás la partícula con el nombre más apropiado: es pequeño, neutro, y pesa tan poco que nadie ha sido capaz de medir su masa todavía.
Los neutrinos están entre las partículas más abundantes en el universo; hay 700 millones de ellos por cada protón. Cada vez que los núcleos atómicos se unen (como en el sol) o se dividen (como en un reactor nuclear) producen neutrinos. Incluso un plátano emite neutrinos, que provienen de la radioactividad natural del potasio en la fruta. Sin neutrinos el sol no brillaría y tendría elementos más pesados que el hidrógeno.

Un plátano con neutrinos © Crédito Sandbox Studio
Una vez producidas, estas partículas fantasmales casi nunca interaccionan con otras partículas. Decenas de billones de neutrinos solares atraviesan tu cuerpo cada segundo, día y noche, pero no puedes sentirlos.
Los teóricos predijeron la existencia del neutrino en 1930, pero los experimentadores tardaron en descubrirlo 26 años. Hoy, con abundantes y usualmente contradictorias teorías sobre la naturaleza del neutrino, los experimentadores están intentando determinar la masa de la partícula, cómo interacciona con la materia, y si el neutrino es su propia antipartícula. Algunos piensan que los neutrinos podrían ser la razón de que toda la antimateria desapareciera después del big bang, dejándonos en un universo de materia.
Así que si queremos entender el universo, deberíamos entender mejor el neutrino.

Autor: Debbie Harris
Fecha original: abril 2010
Enlace Original

lunes, 5 de septiembre de 2011

Cerco al Higgs

Fuente: Neofronteras

Se van delimitando la masa del bosón de Higgs, si es que éste realmente existe.
Foto
Gama de masas en GeV frente a posibilidad de existencia de un Higgs. Fuente: Philip Gibbs.
La búsqueda del Higgs es una las tareas que tiene encomendada la máquina más grande y poderosa del mundo jamás construida: el colisionador LHC.
Esta búsqueda empezó antes de que se terminara este acelerador y en el Fermilab ya delimitaron la posible masa de esta partícula y todavía trabajan sobre ello, excluyendo masas entre 156 y 177 GeV. Además masas por encima de los 185 GeV están excluidas otras medidas y por consideraciones teóricas.
Ahora los equipos de los detectores ATLAS y CMS del LHC ha puesto una cota superior a la masa del Higgs: 145 GeV. El resultado fue presentado el pasado 22 de agosto en Munbai (india) en un congreso internacional.
El Higgs está siendo difícil de encontrar al ser más ligero de lo pensado. A esas bajas energías las débiles señales de su existencia (si es que realmente existe) son más difíciles de extraer de los datos suministrados. Pese que ha habido algunos amagos de haberlo encontrado en el pasado cercano, posteriores análisis lo han descartado.
Los físicos del CERN esperan encontrarlo o negar su existencia en los próximos dos años. ¿Qué masa tendrá finalmente el Higgs?
A partir de datos experimentales un estudio no oficial [1] sugiere que si esta partícula existe su masa estará comprendida entre 115 y 135 GeV. Especulando algo más, algunos físicos apuestan por que su masa esté entre 125 y 130 GeV.
La idea de este bosón fue introducida por Peter Higgs como sistema para la ruptura espontánea de la simetría electrobébil. Proporciona un mecanismo mediante el cual las partículas adquieren la masa que tienen según interaccionen con el campo creado por estos bosones. Según el Modelo Estándar los valores de las masas de las partículas son parámetros externos que no extraen directamente de la Teoría. El mecanismo de Higgs proporciona una explicación a esas masas. Aunque como no se sabe la exacta naturaleza del Higgs todavía no se sabe cómo derivar directamente estas masas.
No se sabe si siquiera cómo es exactamente el Higgs. Puede que incluso haya más de uno, sobre todo en algunas versiones de la Supersimetría (MSSM) que sugieren hasta cinco de ellos. Pero una partícula de espín cero (bosón) y sin carga eléctrica no es la única posibilidad (aunque es la más sencilla). Otras ideas apuntan a que el Higgs es una partícula compuesta o que es un bosón pseudoescalar. Podría existir un bosón de Higgs cargado o un Higgs CP-impar. Puede que incluso exista el campo de Higgs pero que éste no tenga asociado ninguna partícula elemental. La imaginación de los teóricos casi no tiene límites.
El caso es que si en dos años el Higgs no aparece habrá que revisar gran parte de la Física de Altas Energías. Ver si alguna vieja idea se puede aplicar con o sin modioficaciones y, sobre todo, crear nuevos modelos y proporcionar nuevas ideas.
Mientras tanto la supersimetría y las cuerdas seguirán estando a salvo, fuera de toda posibilidad de ser falsables por un experimento y sospechosamente fuera del método científico.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3586
Fuentes y referencias:
Sciencenews.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

¿Es la materia oscura una ilusión?

Fuente: Neofronteras


Según una nueva teoría el efecto de la materia oscura podría ser explicado por una polarización gravitatoria de las partículas virtuales del vacío.
Foto
Velocidad de rotación observada (A) y predicha (B) en una galaxia espiral tipo. Fuente: Wikipedia.
Desde que aparecieron las hipótesis de la materia y la energía oscura muchas ideas han tratado de explicar sus supuestos efectos como algún tipo de ilusión provocada por otros fenómenos, negando así su existencia. Algunas de estas ideas fueron refutadas por posteriores observaciones (es la ventaja del método científico) y otras esperan todavía una oportunidad. Mientras tanto, siguen surgiendo nuevas ideas que niegan esos conceptos. Recientemente Dragan Hajdukovic, del CERN, ha propuesto una de estas nuevas ideas según la cual la materia oscura no sería más que una ilusión.
La idea de la materia oscura ya se propuso en los años treinta del pasado siglo al tratar de explicar la velocidad en función de la distancia a su centro de las estrellas de las galaxias espirales. Según se propuso, existiría un halo de materia oscura envolviendo la galaxia que afectaría gravitacionalmente a la galaxia, pero que no emitiría ni bloquearía la luz.
Desde entonces se ha intentado dotar de una naturaleza a esa supuesta materia oscura. Una de las explicaciones favoritas es la existencia de partículas elementales fuera del modelo estándar que casi sólo interaccionen gravitatoriamente con el resto. Pero, de momento, esas partículas siguen sin ser detectadas con claridad, pese a su supuesta abundancia.
Hajdukovic propone en su lugar una polarización gravitacional del vacío para explicar los efectos atribuidos a esa materia oscura. No necesita de modificaciones de la ley de la gravedad como en otras explicaciones alternativas.
Como ya sabemos todos, el vacío cuántico no está realmente vacío y siempre contiene un mar de partículas y antipartículas virtuales que aparecen y desaparecen constantemente siempre que lo permita el principio de incertidumbre. Esto es un hecho incontestable, sobre todo desde que se logró medir el efecto Cassimir.
Sin embargo, algunas veces, los cálculos de la Teoría Cuántica de Campos sobre este vacío no dan valores compatibles con la realidad, porque, por ejemplo sugieren un valor de la constante cosmológica muchos órdenes de magnitud superior a lo medido.
Otro factor que todavía no se ha logrado saber es si la antimateria se comporta frente al campo gravitatorio de la misma manera que la materia. Cuando se logre confinar una cantidad suficiente de antihidrógeno se podrá dejarlos caer en el campo gravitatorio terrestre y ver qué pasa. Algunas ideas apuntan a que las antipartícula tendrían una “carga gravitatoria” opuesta a las de las partículas. De este modo las partículas y antipartículas se repelerían gravitatoriamente.
Hajdukovic explora esta última idea para realizar un estudio teórico en el que las partículas y antipartículas virtuales del vacío formarían dipolos gravitatorios de manera similar a los dipolos eléctricos. Los dipolos eléctricos están orientados normalmente al azar, pero en presencia de un campo eléctrico apuntan en el mismo sentido. Si forman parte de un material decimos que en ese caso el material está polarizado. Como consecuencia el campo exterior y el producido por los dipolos se suman dando lugar a un campo eléctrico mayor.
Si Hajdukovic está en lo cierto, los dipolos gravitatorios virtuales se orientarían en presencia de un campo gravitatorio y, como resultado, se reforzaría el efecto del campo gravitatorio al sumarse al campo gravitatorio ordinario el campo gravitatorio producido por los dipolos virtuales del vacío. La masa de las galaxias sería la misma que la masa de la materia que vemos, pero su campo gravitatorio total sería más intenso debido a esta interacción con el vacío. Como el espacio vacío tiene mucho volumen el efecto sería importante. Todo esto explicaría la aparición de los efectos atribuidos a la materia oscura que, según esta idea, no existiría.
Los números calculados por Hajdukovic coinciden sorprendentemente con lo observado, según él. Los perfiles observados de velocidad de rotación galáctica en función de la distancia al centro son reproducidos por este modelo.
Además, a partir de esta misma idea también consigue derivar la relación Tully-Fisher. Fenómeno observacional que todavía no está bien explicado. La relación, que se derivó de forma empírica en los setenta, establece que la luminosidad de una galaxia espiral es proporcional a la cuarta potencia de su velocidad máxima de rotación, velocidad que se determina a partir de la anchura de las líneas espectrales. Esta relación permite establecer una candela estándar para el cálculo de distancias cosmológicas.
Sin embargo, la nueva teoría no parece explicar el efecto atribuido a la materia oscura en algunos cúmulos de galaxias, en los cuales parece haber una separación espacial entre materia ordinaria y oscura. Además necesitaría explicar también otros fenómenos como los efectos medidos en lentes gravitacionales, en el fondo cósmico de microondas y otros sitios en los que también se ha recurrido a la presencia de materia oscura para explicar lo observado. Queda, por tanto, trabajo por hacer.
De todos modos, dentro de pocos años tendremos los primeros experimentos gravitatorios con antihidrógeno en el CERN, así que es de esperar que la base de esta idea pueda ser confirmada o refutada.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3584
Fuentes y referencias:
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

Método para buscar señales del multiverso

Fuente: Neofronteras

Desarrollan un algoritmo para encontrar señales de colisiones entre distintas burbujas cosmológicas en el fondo cósmico de microondas que sean prueba de la existencia de un multiverso.
Foto
Simulaciones sobre las señales dejadas en el FCM por colisiones entre burbujas cósmicas. Fuente: UCL.
Según algunas teorías cosmológicas podría haber una especie de multiverso en el cual estaría nuestro universo. La inflación eterna, por ejemplo, predice que a partir de un estado determinado se pueden producir distintos procesos de inflación como el que se cree generó nuestro universo. De este modo, la esfera de universo visible que vemos estaría dentro de una burbuja inflacionaría, pero podría haber otras burbujas que contuvieran otros universos que habrían sufrido procesos de inflación similares. Pero su contenido podría ser distinto y los valores de las constantes físicas podría diferir de los alcanzados en nuestro universo, incluso las leyes de la Física podrían ser distintas.
Lo difícil es demostrar que esos otros universos existen, pues el proceso de inflación tiene que separar causalmente nuestro universo de cualquier otro, haciendo imposible cualquier detección directa.
Sin embargo, aunque ahora es imposible detectar esas otras burbujas, puede que dejaran algún tipo de huella en el pasado sobre el fondo cósmico de microondas (FCM). Posibles colisiones entre burbujas en expansión habrían dejado patrones en forma de disco sobre el mismo.
Lo difícil es tratar de distinguir esos patrones en una mar de datos con mucho ruido o definir, fuera de toda duda, que el origen de esos patrones es la colisión entre burbujas cosmológicas. Al parecer es un delicado problema computacional y estadístico. Ahora, en un par de artículos se detalla cómo se podrían buscar esas posibles señales de otras burbujas en el FCM.
Los investigadores autores de esos trabajos corrieron simulaciones computacionales para saber cómo sería el FCM si tales colisiones no tuvieron lugar y desarrollaron un algoritmo que a partir de los datos reales encuentre por comparación señales de tales colisiones. Usando datos del WMAP han puesto una cota superior a la existencia de las señales dejadas por tales colisiones.
Podría suceder que un determinado patrón visto en el FCM se diera por coincidencia estadística y que no fuera real, sino que nuestra capacidad cerebral de extraer patrones del mundo observado nos haga ver algo que no existe. Es similar a mirar hacia unos montes en Marte y ver allí una cara o ver un conejo entre las formaciones nubosas del cielo. Sin embargo, el método elaborado por estos investigadores es más difícil que se deje engañar por algo así.
De momento, aunque no han detectado ningún patrón que corresponda a este tipo de colisiones, los investigadores no pueden descartar este tipo de multiverso. Para ello se necesitarían mejores datos. De momento, debido a la imposición de un embargo, los datos más precisos del observatorio Planck sobre el FCM no están disponibles (pese a haber elaborado ya varios mapas completos del cielo) y lo estarán hasta el año que viene (hasta que los científicos implicados los hayan explotado en profundidad). Es de esperar que una vez pasado ese plazo los datos estén disponibles y se puedan buscar estos patrones. Si se encuentran serían la prueba de la existencia de un multiverso. Y si no se encuentra siempre quedará una fe que sustituya al método científico y que ponga el límite observacional un poco más allá.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3581
Fuentes y referencias:
Nota de prensa.
Artículo en ArXiv.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.