martes, 31 de enero de 2012

Boom sónico y la alta atmósfera (Vídeo)

Planck y la temperatura infinita

Fuente: Paperblog

Hace tiempo que hablamos acerca de los estados de agregación de la materia. En aquel artículo vimos como poco a poco el estado de la materia se iba modificando en función de si aportábamos o quitábamos energía al sistema. La temperatura, si recordamos, no es más que una representación de su energía. Vimos cómo se modificaban las condiciones y propiedades del material al reducir su temperatura, que sólo podía disminuir hasta el Cero Absoluto (-273,15 ºC ó 0 K).

Esto es debido a que la temperatura de un material representa el movimiento de sus átomos y, obviamente, como algo no puede moverse menos que estando en reposo, encontramos rápidamente un límite inferior para los valores de la temperatura.

Pero al encontrarnos tan rápidamente con este límite es inevitable que, inmediatamente, se nos plantee otra nueva pregunta. ¿Existe un límite superior para la temperatura?

Planck y la temperatura infinita Sello de Max Planck

Pues la respuesta es Sí, existe un límite superior y quién demostró la existencia de dicho límite fue el físico alemán Max Planck, a quién muchos conoceréis aunque sólo sea por su famosa Constante de Planck que todos estudiamos en el instituto. (Alguno seguro que ha escuchado el chiste “¿Que ruido hace un átomo al caer al suelo? Plaaaannnccckkk”).

Planck, intentó calcular un sistema de unidades naturales que no dependieran del entorno local. Para ello se basó en constantes universales como son la velocidad de la luz, la constante de gravitación universal, la constante de Coulomb, la constante de  Dirac y la constante de Boltzmann. De esta manera, obtuvo unidades de medida para la longitud, el tiempo, la masa, la carga eléctrica y, cómo no, la temperatura.

Planck y la temperatura infinita
Unidades de Planck


Todas estas unidades tienen en común que nos muestran límites de la naturaleza (unos más evidentes que otros). De esta manera el Tiempo de Planck se considera el intervalo de tiempo más corto que puede ser medido, la Longitud de Planck es la distancia más corta que podemos medir…  y la Temperatura de Planck es la temperatura más alta que se puede alcanzar.

Una de las principales ventajas del sistema de unidades naturales descrito por Max Planck es que las magnitudes de las distintas unidades se pueden comparar mucho más fácilmente. Esto es debido a que el sistema se define haciendo que las cinco constantes físicas universales tomen el valor 1 cuando se expresen ecuaciones y cálculos en dicho sistema. Así, por ejemplo, dado que los protones tienen una carga aproximadamente igual a una unidad natural  de carga pero su masa es muy inferior a la unidad natural de masa, podemos deducir que dos protones se repelerían ya que la fuerza electromagnética entre ellos (repulsiva) es mucho mayor que su fuerza gravitatoria.

Por supuesto, a partir de las unidades básicas de Planck, se pueden obtener unidades derivadas para calcular magnitudes menos directas como pueden ser la Energía de Planck, Fuerza de Planck, Potencia de Planck, Densidad de Planck, Velocidad angular de Planck, Presión de Planck, Intensiad eléctrica de Planck, Tensión eléctrica de Planck y, por consiguiente, la Resistencia eléctrica Planck.

Muchos físicos denominan a las unidades naturales de Planck las unidades de dios, ya que eliminan cualquier sombra antropocéntrica de nuestros sistemas ordinarios más comunes (como el sistema internacional de unidades, por ejemplo).

Planck y la temperatura infinita Escala de temperaturas


Volviendo a la Temperatura de Planck, como decíamos, es el límite superior de temperatura que puede alcanzarse. ¿Y cuál es la explicación si puede saberse? Pues veamos, recordando de nuevo que la temperatura es una representación del movimiento de los átomos, instantáneamente podemos hacernos una idea de cuál puede ser la causa del límite. ¡Exacto! La velocidad de la luz. Dado que nada puede viajar más rápido que la velocidad de la luz, si calentamos lo suficiente un material, llegará un momento en que sus átomos se moverán, como mucho, a dicha velocidad.

A la temperatura de 1010 K los electrones ya viajan casi a la velocidad de la luz, lo que implica que, según la teoría de la relatividad, aumentan su masa. Este aumento de masa hace que cada vez sea necesaria más energía para aumentar la temperatura del sistema. De esta forma la temperatura total puede seguir aumentando hasta los 1032 K que calculó Planck. A partir de ese punto ya no se puede aumentar más la temperatura pues la masa que alcanzarían los electrones sería suficiente para convertirlos en agujeros negros, donde nuestras leyes físicas se colapsan.

Vemos como nos encontramos con un límite, aunque realmente alto. Para hacernos una idea, la temperatura en el interior de nuestro Sol es de 15 x 106 K y la temperatura más alta alcanzada jamás en un laboratorio en la tierra es de 1014 K (en Fermilab). Para terminar os dejo un enlace (también en la imagen superior) a una aplicación flash en la que se muestra una escala de temperaturas desde el Cero Absoluto hasta la Temperatura de Planck.

Ahora, conociendo este límite, ya no me atrevo a quejarme de que el camarero me ha servido el café muy caliente.

lunes, 30 de enero de 2012

¿Pesa más la antimateria que la materia?

Fuente: Ciencia Kanija

Artículo publicado por Iqbal Pittalwala el 26 de enero de 2012 en UCR Today
Físicos de la UC en Riverside han iniciado un experimento de laboratorio para encontrar la respuesta.
¿Se comportan materia y antimateria de forma distinta respecto a la gravedad?  Los físicos de la Universidad de California en Riverside se han propuesto determinar la respuesta. De encontrarla, podría explicar por qué el universo parece no tener antimateria y por qué se expande a un ritmo cada vez mayor.
En el laboratorio, los investigadores dieron los primeros pasos hacia la medida de la caída libre del “positronio” – un estado ligado de un positrón y un electrón.  El positrón es la versión en antimateria del electrón. Tiene una masa idéntica a la del electrón, pero una carga positiva. Si un positrón y un electrón se encuentran entre sí, se aniquilan produciendo dos rayos gamma.

Equilibrio de materia y antimateria

Los físicos David Cassidy y Allen Mills separaron inicialmente el positrón del electrón en el positronio, de forma que este sistema inestable resistiera a la aniquilación lo suficiente como para que los físicos midieran el efecto de la gravedad en él.
“Usando láseres, excitamos el positronio hasta lo que se conoce como estado de Rydberg, que deja al átomo con unos enlaces muy débiles, con el electrón y el positrón muy alejados entre sí”, señala Cassidy, científico ayudante en el proyecto en el Departamento de Física y Astronomía, que trabaja en el laboratorio de Mills.  “Esto evita por un tiempo que se destruyan entre sí, lo que significa que puedes experimentar con ellos”.
Los átomos de Rydberg son átomos muy excitados.  Son interesantes para los físicos debido a que muchas de las propiedades de los átomos quedan exageradas.
En el caso del positronio, Cassidy y Mills, Profesor de Física y Astronomía, estaban interesados en lograr un tiempo de vida largo para el átomo de su experimento. En el nivel de Rydberg, el tiempo de vida del positronio se incrementa en un factor de 10 a 100.
“Pero eso no es suficiente para lo que intentamos hacer”, señala Cassidy. “En el futuro próximo usaremos una técnica que imparte un gran momento angular a los átomos de Rydberg”, comenta Cassidy. “Esto hace que se más difícil la desintegración de los átomos, y podrían vivir hasta 10 milisegundos – un incremento en un factor de 100 000 – y ofrecerse para un estudio más detallado”.
Cassidy y Mills ya han creado grandes cantidades de positronio Rydberg en el laboratorio.  Luego, lo excitarán más para lograr tiempos de vida de unos pocos milisegundos. Entonces crearán un haz de estos átomos superexcitados para estudiar cómo se desvían por efecto de la gravedad.
“Observaremos el desvío del haz como una función del tiempo de vuelo para ver si la gravedad lo curva”, explica Cassidy. “Si encontramos que materia y antimateria no se comportan de la misma manera, sería un gran impacto para el mundo de la física.  Actualmente tenemos la suposición de que materia y antimateria son exactamente lo mismo – aparte de unas pocas propiedades como la carga. Esta suposición lleva a esperar que se hayan creado en cantidades iguales en el Big Bang. Pero no vemos tanta antimateria en el universo, por lo que los físicos están buscando diferencias entre materia y antimateria para explicar esto”.
Los resultados del estudio aparecen en el ejemplar del 27 de enero de la revista Physical Review Letters.
Cassidy y Mills esperan intentar el siguiente paso en sus experimentos con gravedad este verano.
Se unieron a esta investigación Harry Tom, Profesor de Física y Astronomía, y Tomu H. Hisakado, estudiante graduado en el laboratorio de Mills.
La investigación está patrocinada con becas de la Fundación Nacional de Ciencias y la Oficina de Investigación de las Fuerzas Aéreas de los Estados Unidos.

Autor: Iqbal Pittalwala
Fecha Original: 26 de enero de 2012
Enlace Original

viernes, 27 de enero de 2012

jueves, 26 de enero de 2012

Los neutrones reviven la primera aproximación de Heisenberg a la incertidumbre

Fuente: Ciencia Kanija

Artículo publicado por Hamish Johnston el 20 de enero de 2012 en physicsworld.com
Físicos de Austria y Japón son los primeros en medir dos cantidades físicas que se usaron en 1927 por Werner Heisenberg en una formulación inicial de la mecánica cuántica – pero luego se abandonó debido a que los términos no parecían coincidir con la teoría, que evolucionaba a toda velocidad. El experimento de los neutrones verifica una reformulación de 2003 del famoso principio de incertidumbre de Heisenberg que reintroduce los conceptos de error y perturbación.
Cuando Heisenberg propuso por primera vez el principio de incertidumbre, lo hizo en términos de reacción de una medida realizada sobre un objeto extremadamente pequeño. Su idea se resumía en el experimento mental del “microscopio de Heisenberg” donde se usaba un fotón para determinar la posición de un electrón. El fotón es dispersado por el electrón y luego detectado.
Heisenberg señaló que tal medida debía competir con una incertidumbre inherente en la medida de la posición en la que tenía lugar la dispersión – conocida como “error” – y una incertidumbre inherente sobre cómo cambiaba el momento del electrón por el proceso de dispersión. El último es conocido como “perturbación” y Heisenberg demostró que para un sistema cuántico, el producto de ambos no debe ser menor de un valor dado – el cual ahora se sabe que está relacionado con la constante de Planck.

Incertidumbre© by TMAB2003

Significado estadístico más profundo
Sin embargo, los conceptos de error y perturbación pronto cayeron en desuso, debido a que parecía aparente que existía una interpretación estadística más profunda de la incertidumbre en la mecánica cuántica. Como resultado, las ideas de Heisenberg no pudieron reconciliarse con la expresión matemática de la mecánica cuántica.
Heisenberg y otros empezaron a expresar el principio de incertidumbre usando conceptos estadísticos – el producto de las desviaciones estándar de la posición y el momento no debía ser menor que un cierto valor dado. Aunque esta formulación proporciona una definición más universal del principio de incertidumbre, siempre ha habido un persistente interés entre los físicos acerca de las ideas originales de Heisenberg de error y perturbación.
Entonces, en 2003, Masanao Ozawa de la Universidad de Nagoya en Japón, derivó una nueva expresión universal del principio de incertidumbre que incluye error y perturbación – así como los términos de desviación estándar. Ahora, Ozawa ha unido fuerzas con Yuji Hasegawa y sus colegas de la Universidad Tecnológica de Viena para confirmar los cálculos usando neutrones de espín polarizado. En lugar de mirar la posición y momento, el experimento mide dos componentes ortogonales del espín del neutrón – cantidades también gobernadas por el principio de incertidumbre.
Neutrones polarizados
El experimento empieza con un haz de neutrones termales monoenergéticos procedentes de un reactor de investigación – el tipo de neutrones que se usarían en estudios de difracción de neutrones por parte de sólidos. Los espines de los neutrones se alinean en la dirección Z haciendo pasar el haz a través de un filtro polarizador. El haz se envía entonces a un aparato que determina la desviación estándar en la medida de la polarización-X, y luego a un aparato similar que determina la desviación estándar en la polarización-Y.
El error y la perturbación se crean “adaptando” el primer aparato de forma que mida la polarización en el plano X-Y que es una pequeña desviación angular del eje-X. Además de crear un error bien definido en la medida de la polarización-X, la rotación también provoca una perturbación bien definida en la polarización-Y.
El error y la perturbación se determinan usando datos de las dos medidas de polarización – y están de acuerdo con la teoría de Ozawa.
Arbitrariamente pequeño
“Cuanto menor es el error en una medida, mayor es la perturbación en la otra – esta regla aún se mantiene”, dice Hasegawa. Sin embargo, señala que el experimento confirma el resultado de Ozawa de que el producto del error y la perturbación pueden ser arbitrariamente pequeños, confirmando que Heisenberg estaba en lo cierto al abandonar su formulación original.
“Éste, ciertamente, es el primer experimento en poner a prueba la formulación de Ozawa, por lo que creo que debería atraer más atención sobre dicha formulación, y cómo es universalmente válida, al contrario que la simplista relación medida-perturbación de Heisenberg”, dice Howard Wiseman de la Universidad Griffith de Australia.
“La idea simple de que la relación de incertidumbre puede surgir debido a que cualquier medida de la cantidad X “ronda” el valor de una cantidad complementaria Y, aún está muy presente en las charlas elementales de mecánica cuántica. Esperamos que este experimento ayude a disipar esa idea”.
El experimento se describe en Nature Physics.

Autor: Hamish Johnston
Fecha Original: 20 de enero de 2012
Enlace Original

miércoles, 25 de enero de 2012

Un anillo gaseoso alrededor de una joven estrella genera preguntas

Fuente: Ciencia Kanija

Artículo publicado el 18 de enero de 2012 en AIP
Los astrónomos han detectado un misterioso anillo de gas de monóxido de carbono alrededor de la joven estrella V1052 Cen, que está a unos 700 años luz de distancia en la constelación austral de Centauro. El anillo es parte del disco de formación planetaria de la estrella, y  está tan lejos de V1052 Cen como la Tierra del Sol. Descubierto con el Very Large Telescope (VLT) del Observatorio Europeo Austral (ESO), sus bordes son inusualmente nítidos.
El monóxido de carbono a menudo se detecta cerca de jóvenes estrellas, pero el gas normalmente se expande a través del disco de formación planetaria. Lo que diferencia a este anillo es que su forma es más similar a una cuerda que a un plato, dice Charles Cowley, Profesor Emérito de la Universidad de Michigan que lideró el trabajo de investigación internacional.

Imagen artística de V1052 Cen © by Kanijoman

“Es emocionante debido a que éste es el anillo más comprimido que hemos observado, y requiere de una explicación”, dice Cowley. “Actualmente, no comprendemos qué hace que sea una soga en lugar de un plato”.  Tal vez los campos magnéticos lo mantienen en ese lugar, dicen los investigadores. Tal vez los “planetas guía” predominan ahí, como varias de las lunas de Saturno que controlan ciertos anillos planetarios.
“Lo que hace a esta estrella tan especial es su potente campo magnético y el hecho de que rota de forma extremadamente lenta en comparación con otras estrellas del mismo tipo”, dice Swetlana Hubrig, del Instituto Leibniz para Astrofísica en Potsdam (AIP), Alemania.
Las propiedades únicas de la estrella captaron por primera vez la atención de los investigadores en 2008, y han estado estudiándola intensamente desde entonces.
Comprender la interacción entre estrellas centrales, sus campos magnéticos y los discos de formación planetaria es crucial para que los astrónomos reconstruyan la historia del Sistema Solar. También es importante tener en cuenta la diversidad de sistemas planetarios conocidos más allá del nuestro. Este nuevo hallazgo genera más preguntas de las que responde sobre las etapas finales de la formación estelar y del Sistema Solar.
“¿Por qué los movimientos turbulentos no rompen el anillo?”, se pregunta Cowley. “¿Cómo de permanente es la estructura?” ¿Qué fuerzas podrían actuar para preservarla durante un tiempo comparable al de la propia formación estelar?”.
El equipo está emocionado por haber encontrado un caso de prueba ideal para estudiar este tipo de objetos.
“Esta estrella es un regalo e la naturaleza”, comenta Hubrig.

El grafeno es casi invisible para el agua en humectación

Fuente: Francis (th)E mule

La manera en la que una gota de agua moja una superficie plana está dominada por las fuerzas de van der Waals entre las moléculas de la superficie y las de agua. Para sorpresa de muchos, el grafeno es invisible (o transparente) para el agua cuando ésta moja una superficie de cobre, oro o silicio, aunque no cuando es de cristal. Cuando digo invisible quiero decir que al recubrir la superficie con una capa de grafeno (una capa de carbono de un solo átomo de grosor) no cambia el ángulo de contacto; conforme el número de capas de grafeno crece, dicho ángulo tiende al del agua sobre grafito (se necesitan al menos 6 capas de grafeno, aunque con 3 ya se ve el cambio). Los investigadores lo han descubierto gracias a medidas experimentales y han descubierto el porqué gracias a simulaciones de dinámica molecular (como las mostradas en la figura que abre esta entrada). La razón es que el grafeno es más delgado que la escala típica de interacción de las fuerzas de van der Waals. Además, el grafeno incrementa entre un 30% y40% la transferencia de calor por condensación con el cobre, gracias a que su presencia suprime la oxidación de éste. Esta propiedad tendrá importantes aplicaciones industriales para el desarrollo de superficies conductoras de la electricidad que sean impermeables. El artículo técnico es Javad Rafiee et al., ”Wetting transparency of graphene,” Nature Materials, Published online 22 January 2012. Me he enterado gracias a un tuit #AA de César (@EDocet).
El grafeno es una capa de un solo átomo de grosor de átomos carbono dispuestos en una retícula hexagonal tipo panel de abeja. Sus propiedades son extraordinarias en estabilidad química, resistencia mecánica, flexibilidad, alta conductividad eléctrica y térmica, entre otras. Además es casi transparente a la luz, ya que la absorción óptica de una sola capa de grafeno es de solo ~2,3% en el espectro visible; combinado con su alta conductividad eléctrica permite desarrollar electrodos conductores transparentes. La interacción del grafeno con el agua ha sido poco estudiada, hasta ahora. En superficies como cobre, oro o silicio  las fuerzas de van der Waals controlan la humectación y una capa de grafeno resulta transparente a estas fuerzas; los autores del estudio llaman a este efecto: humectación transparente del grafeno. Los autores afirman que el grafeno es el primer material conocido con esta propiedad de transparencia humectante. Lo más importante es que el grafeno es un buen conductor de la electricidad, al contrario que la mayoría de las superficies hidrófugas y superhidrófugas, que tienen una energía superficial baja y generalmente son aislantes eléctricos. El revestimiento de una superficie con grafeno podría dar lugar a una nueva clase de superficies hidrófugas de alta conductividad eléctrica.

martes, 24 de enero de 2012

Robot (Vídeo)

Un divertido vídeo hecho por Jim Henson en 1963 para "Bell System".

Cómo podrían escapar los neutrones a otro universo

Fuente: Ciencia Kanija


Artículo publicado el 23 de enero de 2012 en The Physics ArXiv Blog
El salto de nuestro universo a otro es teóricamente posible, dicen los físicos. Y la tecnología para poner a prueba la idea ya está disponible.
La idea de que nuestro universo está incrustado en un espacio multidimensional más amplio ha captado por igual la imaginación de los científicos y del público general.
La idea no es completamente ciencia ficción. De acuerdo con algunas teorías, nuestro cosmos puede existir en paralelo junto a otros universos en otro conjuntos de dimensiones. Los cosmólogos llaman a estos universos ‘mundobranas’. Y entre entre las muchas promesas que se generan está la idea de que partes de nuestro universo podrían, de alguna forma, terminar en otro.
Universos paralelos © by Martina Rathgens

Hace un par de años, Michael Sarrazin de la Universidad de Namur en Bélgica y otros colegas demostraron cómo podría la materia dar el salto en presencia de grandes potenciales magnéticos. Esto proporcionó una base teórica para el intercambio de materia real.
Hoy, Sarrazin y unos colegas dicen que nuestra galaxia podría producir un potencial magnético lo bastante grande para que esto suceda realmente. De ser así, deberíamos poder observar en el laboratorio cómo salta la materia de un universo a otro. De hecho, puede que ya se hayan realizado estas observaciones en ciertos experimentos.
Los experimentos en cuestión implican atrapar neutrones ultrafríos dentro de botellas en lugares como el Instituto Laue Langevin en Grenoble, Francia, y el Instituto San Petersburgo de Física Nuclear. Los neutrones ultrafríos se mueven tan lentamente que es posible atraparlos usando “botellas” hechas de campos magnéticos, materia común e incluso gravedad.
Una razón para hacer esto es medir lo rápidamente que se desintegran los neutrones mediante emisiones beta. Así que los físicos miden la tasa a la que los neutrones impactan en las paredes de la botella y lo rápidamente que caen.
Aquí hay dos procesos en funcionamiento: la tasa de desintegración de los neutrones y la tasa a la que los neutrones escapan de la botella. Por lo que en el caso de una botella ideal, la tasa de decaimiento debería ser igual a la tasa de desintegración beta. Pero las botellas no son ideales, por lo que la tasa de desintegración siempre es mayor.
Esto deja abierta la posibilidad de que haya un tercer proceso en funcionamiento: que parte de la desintegración extra fuese el resultado de neutrones saltando de un universo a otro.
Por tanto, Sarrazin y compañía han usado las tasas de desintegración medidas para establecer un límite superior a lo habitualmente que puede suceder esto.
Su conclusión es que la probabilidad de que un neutrón abandone el barco es menor de una en un millón.
Eso no dice nada sobre si realmente tiene lugar el intercambio de materia. Sólo que, si tiene lugar, no sucede muy a menudo.
Sin embargo, Sarrazin y sus colegas dicen que debería ser bastante fácil tomar mejores datos que establezcan unos límites más estrictos.
De acuerdo con el trabajo teórico, un cambio en el potencial gravitatorio debería también influir en la tasa de intercambio de materia. Por tanto, una idea es llevar a cabo un experimento de atrapamiento de neutrones que dure un año, o más, permitiendo que la Tierra complete al menos una órbita alrededor del Sol.
En ese tiempo, el potencial gravitatorio cambia de una forma que debería influir en la tasa de intercambio de materia. Es más, debería haber un ciclo anual. “Si se detecta tal modulación, sería un sólido indicador de que realmente está teniendo lugar un intercambio de materia”, comentan.
Éste sería uno de los mayores y más controvertidos descubrimientos de la física moderna, y uno que es posible con la tecnología disponible actualmente.
¿Alguien tiene por ahí una vieja botella de neutrones y algo de tiempo libre?

Artículo de Referencia: arxiv.org/abs/1201.3949: Experimental Limits On Neutron Disappearance Into Another Braneworld
Fecha Original: 23 de enero de 2012
Enlace Original

viernes, 20 de enero de 2012

Relics of Annorath, impresionante MMORPG para Linux (VIDEO)

Fuente: Muycomputer
Captura de pantalla 2012 01 19 a las 16.09.32 630x363 Relics of Annorath, impresionante MMORPG para Linux (VIDEO)
El equipo de desarrollo de Quantum Bytes Studio está preparando un nuevo juego MMORPG que funcionará en Linux. Se llamará Relics of Annorath y promete ser un juego gráficamente muy cuidado gracias al motor gráfico usado, Unigine Engine.
Será un juego multiplataforma y tendrá cliente nativo Linux, algo poco común en la línea de desarrollo actual de los grandes estudios. Los jugadores tendrán libertad absoluta en un mapa enorme y podrán elegir distintas razas, guilds y factions.
Os dejamos un vídeo en el que se pueden ver los efectos gráficos atmosféricos, que podemos calificar de impresionantes si llegan de esa manera a entornos Linux.

El juego está actualmente en fase alpha de desarrollo. Si quieres más detalles os dejamos su web oficial.

Un protocolo “doble ciego” de computación cuántica universal

Fuente: Francis (th)E mule
Supón que has desarrollado el algoritmo cuántico del siglo, pero no tienes un ordenador cuántico para ejecutarlo. Una compañía privada posee un ordenador cuántico que podrías usar, pero no quieres que vean tu código fuente, tu entrada y la salida de tu algoritmo; ellos tampoco confían en tí y no quieren que piratees los secretos de su máquina. Barz et al. publican en Science un protocolo cuántico que os satisfará a ambos, ni tú ni ellos desvelaréis vuestros secretos; el único requisito es que te permitan manipular a tu antojo un solo cubit, uno solo. Este problema se denomina computación cuántica “ciega” (blind QC), pero a mí me gusta más el título de esta entrada. En estudios anteriores se demostró cómo es posible ejecutar cualquier algoritmo cuántico realizando medidas en un solo cubit que está entrelazado con los cubits de dicho ordenador cuántico. Para ocultar el algoritmo, el cliente utiliza el nuevo protocolo que realiza el cálculo gracias a un entrelazamiento cuántico aleatorio. Solo quien controle el único cubit puede conocer la entrada, el algoritmo y la salida; la compañía solo podrá observar cubits aletaorios entrelazados. Además, el funcionamiento del ordenador cuántico es confidencial pues el programador solo puede observar un único cubit. No describiré este protocolo cuántico en detalle, pero adelanto que es muy bonito, aunque algo técnico. Nos lo cuenta Vlatko Vedral, “Moving Beyond Trust in Quantum Computing,” Science 335: 294-295, 20 Jan. 2012, que se hace eco del artículo técnico de Stefanie Barz et al., “Demonstration of Blind Quantum Computing,” Science 335: 303-308, 20 Jan. 2012.

jueves, 19 de enero de 2012

La transformada rápida de Fourier, aún más rápida

Fuente: Ciencia Kanija


Artículo publicado por Larry Hardesty el 18 de enero de 2012 en MIT
Para un gran rango de casos de utilidad práctica, los investigadores del MIT encuentran una forma de aumentar la velocidad de uno de los algoritmos más importantes en las ciencias de la información.
La transformada de Fourier es uno de los conceptos más fundamentales en las ciencias de la información. Es un método para representar una señal irregular – como fluctuaciones de voltaje en un cable que conecta un reproductor MP3 con un altavoz – en forma de combinación de frecuencias puras. Es universal en el procesado de señales, pero también puede usarse para comprimir ficheros de imagen y audio, resolver ecuaciones diferenciales y valorar las opciones sobre acciones, entre otras cosas.
La razón de que la transformada de Fourier sea tan predominante es un algoritmo conocido como Transformada Rápida de Fourier (Fast Fourier Transform- FFT), desarrollado a mediados de la década de 1960, que hizo viable calcular las transformadas de Fourier sobre la marcha. Desde que se propuso la FFT, no obstante, la gente se ha preguntado si podría encontrarse un algoritmo aún más rápido.

FFT © by hazure

En el Simposio de Algoritmos Discretos de la Asociación de Maquinaria de Cálculo (SODA) de esta semana, un grupo de investigadores del MIT presentará un nuevo algoritmo que, en un amplio rango de casos de importancia práctica, mejora a la FFT. Bajo ciertas circunstancias, la mejora puede ser drástica – un incremento de hasta 10 veces en la velocidad. El nuevo algoritmo podría ser particularmente útil para la compresión de imágenes, permitiendo, digamos, que los smartphones transmitan a través de wi-fi grandes archivos de video sin agotar sus baterías, o consumir tu cuota mensual de ancho de banda.
Como la FFT, el nuevo algoritmo trabaja con señales digitales. Una señal digital es, simplemente, una serie de números – muestras discretas de una señal analógica, tal como el sonido de un instrumento musical. La FFT toma una señal digital que contiene un cierto número de muestras y las expresa como la suma ponderada de un número equivalente de frecuencias.
“Ponderada” indica que algunas de esas frecuencias cuentan más para el total que otras. Es más, muchas de las frecuencias pueden tener una ponderación tan baja que pueden descartarse sin problema. Por esto es por lo que la FFT es útil para la compresión. Un bloque de 8×8 píxeles puede verse como una señal de muestra 64, y por tanto como la suma de 64 frecuencias distintas. Pero, como señalan los investigadores en su nuevo artículo, los estudios empíricos demuestran que, de media, 57 de esas frecuencias pueden descartarse con una mínima pérdida de calidad en la imagen.
División muy ponderada
Las señales cuyas FFT incluyen un número relativamente bajo de frecuencias muy ponderadas se conocen como “poco densas” (sparse). El nuevo algoritmo determina la ponderación de las frecuencias de mayor peso de una señal; cuanto menos densa sea la señal, mayor será la aceleración que proporciona el algoritmo. Es más, si la señal es lo bastante poco densa, el algoritmo puede simplemente muestrearla aleatoriamente en lugar de leerla por completo.
“En la naturaleza, la mayor parte de las señales son poco densas”, dice Dina Katabi, una de las desarrolladoras del nuevo algoritmo. Ten en cuenta, por ejemplo, la grabación de una pieza de música de cámara: La señal compuesta consta de sólo unos pocos instrumentos, cada uno tocando una única nota en cada instante. Una grabación, por otra parte, de todos los posibles instrumentos tocando cada uno todas las notas posibles a la vez, sería poco densa – pero tampoco sería una señal que interesara a nadie.
El nuevo algoritmo – que la Profesora Asociada Katabi y el profesor Piotr Indyk, ambos del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL), desarrollaron junto a sus estudiantes Eric Price y Haitham Hassanieh – se basa en dos ideas clave. La primera es dividir una señal en dos anchos de banda más estrechos, de un tamaño que cada porción generalmente contenga sólo una frecuencia de gran peso.
En el procesado de señales, la herramienta básica para aislar frecuencias particulares es el filtro. Pero los filtros tienden a tener límites difusos: un rango de frecuencias pasará a través del filtro más o menos intacto; las frecuencias justo fuera del rango se verán algo atenuadas; las frecuencias más lejos del rango se atenuarán aún más; y así sucesivamente, hasta que alcanzas las frecuencias que se filtran casi perfectamente.
Si sucede que la frecuencia con el peso importante está en el límite del filtro, sin embargo, podría terminar tan atenuada que no pueda identificarse. Por lo que la primera contribución de los investigadores fue encontrar una forma computacionalmente eficiente de combinar filtros de forma que se solaparan, asegurando que ninguna frecuencia dentro del rango deseado se atenuase indebidamente, pero que los límites entre las porciones del espectro quedasen bien definidas.
Apuntando
Una vez que aislaron una porción del espectro, sin embargo, los investigadores aún tenían que identificar la frecuencia de mayor peso en esa porción. En el artículo de SODA, hacen esto cortando repetidamente la porción del espectro en trozos menores y guardando sólo aquellos en los que se concentra la mayor parte de la potencia de la señal. Pero, en un artículo aún por publicar, describen una técnica mucho más eficiente, la cual toma prestada una estrategia de procesado de señales de las redes móviles 4G. Las frecuencias normalmente se representan como garabatos arriba y abajo, pero también pueden verse como oscilaciones; muestreando la misma porción de ancho de banda en distintas escalas temporales, los investigadores pueden determinar dónde está la frecuencia dominante dentro de su ciclo oscilatorio.
Dos investigadores de la Universidad de Michigan – Anna Gilbert, Profesora de Matemáticas, y Martin Strauss, Profesor Asociado de Matemáticas, Ingeniería Eléctrica y Ciencias de la Computación – habían propuestos anteriormente un algoritmo que mejoraba la FFT para señales muy poco densas. “Parte del trabajo previo, incluyendo el mío con Anna Gilbert y otros, mejorarían el algoritmo de la FFT, pero sólo si la densidad k” – el número de frecuencias de gran peso – “era considerablemente menor que el tamaño de entrada n”, comenta Strauss. Sin embargo, el algoritmo de los investigadores del MIT, “expande mucho el número de circunstancias bajo las que se puede superar a la FFT tradicional”, señala Strauss. Incluso si el número k empieza a acercarse a n – siendo todos significativos – este algoritmo proporciona algo de mejora sobre la FFT”.

Autor: Larry Hardesty
Fecha Original: 18 de enero de 2012
Enlace Original

martes, 17 de enero de 2012

¿Y si se confirma el Higgs?

Fuente: Neofronteras


¿Qué implicaciones tendría la existencia de un Higgs de 125 GeV para la existencia de la Supersimetría?
Foto
Como ya saben los lectores de NeoFronteras, según los últimos datos del LHC puede que exista un Higss con una masa de unos 125 GeV/c2, aunque habrá que esperar un año hasta tener una estadística suficiente buena como para confirmar este punto. De hecho, o existe un Higgs de esa masa o no existe en absoluto, ya que se ha explorado las otras gamas de energía en donde puede estar y no se ha encontrado.
Mientras que esperamos esa confirmación podemos especular con las implicaciones de esa posible existencia. ¿Cómo afectaría esto la Supersimetría?
La Supersimetría es una teoría que propone que cada partícula conocida ahora tiene una partícula supersimétrica con el spin cambiado. Si una partícula tiene spin entero su correspondiente partícula supersimétrica tiene spin semientero y viceversa. Es decir, los bosones conocidos tendrían “parejas” fermiónicas y los fermiones conocidos tendrían “parejas” bosónicas. Esto proporcionaría una nueva y bella simetría en la Naturaleza.
Conviene resaltara que esta teoría es independiente de las cuerdas y que las ideas que emplean cuerdas usan Supersimetría como una premisa. La Supersimetría no es una predicción de las cuerdas, sino una condición.
Así por ejemplo, cada quark tendría un squark y cada leptón un sleptón. Normalmente se añade una “s” delante del nombre de la partícula para designar su supersimétrica, sobre todo en inglés.
Si alguna vez hubo partículas supersimétricas en el Universo se tuvieron generar durante el Big Bang, pero se desintegraron al cabo de una fracción de segundo después. Ya no quedan squarks ni sleptones.
Si queremos demostrar la existencia de la Supersimetría (SUSY) tendremos que encontrar esas partículas supersimétricas entre los subproductos generados en los choques de los colisionadores de partículas, si es que somos capaces de producirlas. El problema es que no se pueden crear partículas con una masa superior al equivalente en energía máxima que se puede obtener en esos choques y esto depende de la potencia del acelerador. Por encima de cierta masa no somos ni seremos capaces de crear esas partículas, pues no hay tecnología barata conocida que permita alcanzar esas energías.
Desde que LHC empezó a funcionar se ha esperado encontrar alguna de estas partículas supersimétricas sin resultado alguno. SUSY podría ser una teoría equivocada o bien las partículas que predice están más allá de lo que hasta ahora hemos explorado. Un Higgs de 125 GeV/c2 explicaría la segunda posibilidad. Aunque, de momento, SUSY es sólo una creencia, algo que enamora a ciertos teóricos por la belleza que proporciona.
Hay físicos como Howard Baer que trabajan sobre las consecuencias de un Higgs de ese tipo sobre las características de las partículas supersimétricas.
Según la hipótesis en la que se basa la teoría que explica la masa de las partículas, el Higgs sería el bosón de un campo escalar (en contraposición a vectorial). Según sea la intensidad de interacción de una partícula con ese campo adquiere más o menos masa.
Según Baer y sus colaboradores, un Higgs de 125 GeV/c2 implica en varias versiones de la teoría de Supersimetría que los squarks y sleptones tendrían masas superiores a los 10.000 GeV/c2, algo inalcanzable por el LHC y que levanta dudas sobre la falsabilidad de la teoría. Esta sería la razón por la cual no se habrían detectado dichas partículas supersimétricas. Sin embargo, también propone que, en ese caso, el LHC sí podría detectar gluinos, pues éstos tendrían una masa de entre 500 y 1000 GeV/c2. El gluino sería la pareja supersimétrica del gluón*.
Otra posible partícula supersimétrica que podría detectarse sería el squark stop, pareja supersimétrica del quark top. Algunos modelos predicen un stop muy masivo, pero otras predicen un stop con una masa entre 100 y 130 GeV/c2. Si esta última posibilidad se corresponde con lo elegido por la Naturaleza entonces estaría al alcance del LHC.
El problema es que además hay varias versiones de SUSY, hay demasiadas incertidumbres teóricas que las ligan al Higgs y todavía no hemos ni confirmado el Higgs. Incluso éste podría no existir al final y el LHC no detectar absolutamente ninguna nueva partícula elemental.
El problema de la Física es que no son Matemáticas. Al final sólo podemos saber si una teoría física es correcta (o incorrecta) a través de experimentos u observaciones. Una de estas teorías puede ser finalmente falsa aunque sea muy bonita y matemáticamente autoconsistente. Puede que estas dos condiciones sean necesarias para una teoría física correcta, pero nunca son suficientes.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3718
Fuentes y referencias:
Artículo en ArXiv I
Artículo en ArXiv II
NewScientist.
* Las denominaciones de las partículas perdió un poco de racionalidad cuando se abandonó el uso del latín y griego y se usó inglés corriente, algo que coincidió con la entrada de los norteamericanos en el juego.
 
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

lunes, 16 de enero de 2012

Los apoyos en internet para recuperar la inversión en Ciencia a través del IRPF se disparan

Fuente: Asociación de Internautas

Miles de internautas ya han pedido al ministro de Hacienda que en la próxima declaración de la renta se incluya una casilla de apoyo a la Ciencia. En los dos últimos años, la inversión pública en I+D+i ha disminuido un 15%.

lainformacion.com.- Bombardeo de correos electrónicos. En las últimas 24 horas, el nuevo ministro de Hacienda y Administraciones Públicas, Cristóbal Montoro, ha recibido más de 15.000 emails. Todos son peticiones de ciudadanos que quieren que el Gobierno de Mariano Rajoy retome las ayudas a la investigación que se han ido perdiendo en los últimos años.

La iniciativa que se recoge en actuable.com pretende la inclusión de una casilla para destinar el 0,7% de libre asignación de la renta a la Ciencia. Hasta el momento, 31.178 personas han firmado la solicitud.

Los promotores de esta acción explican que la falta de inversión científica también influye en la llamada ‘fuga de cerebros’. Este proceso supone que miles de investigadores e intelectuales españoles emigren al extranjero en busca de mayor respeto laborar y sueldo que les permitan desarrollar sus investigaciones.

El presupuesto para la Ciencia en 2011 ha sido de 8.600 millones de euros, según el comunicado de esta plataforma. Esta cantidad supone un recorte del 15% desde 2009.

“Queda claro entonces que este nuevo recorte deja a la ciencia española en una situación de emergencia”, se puede leer en la petición promovida por Francisco J. Hernández y Miguel Ángel de la Gente.

“No queremos que nuestro I+D+i se gaste en armamento y tecnología militar, sino en ciencia en el sentido académico de la palabra y en el sentido práctico de investigar para mejorar la relación entre naturaleza y sociedad.”

Pincha aquí si quieres firmar la petición de actuable.com.

Adiós a las baterías de litio, llegan las baterías recargables de aluminio

Fuente: Francis (th)E mule

Las baterías recargables de litio están por doquier, pero el litio es escaso y su coste se ha disparado en los últimos años. Las baterías recargables de aluminio prometen ser la solución. Más baratas, más seguras (el litio es propenso a incendiarse) y basadas en el aluminio, el tercer elemento químico más abundante de la corteza terrestre. Todo son ventajas, en apariencia, ya que las baterías recargables de aluminio, a temperatura ambiente, funcionan peor que las de litio, porque los iones de aluminio son más grandes que los de litio y tienden a formar grupos que se mueven más lentamente que los de litio en los electrodos, reduciendo su conductividad. La investigación en este campo está todavía en sus inicios, pero promete mucho al tener un mercado potencial de 10 mil millones de dólares (el mercado mundial de baterías de litio, que se ha multiplicado por cinco en la última década). Teléfonos móviles, ordenadores portátiles, herramientas eléctricas sin cables, coches eléctricos y un sinnúmero de otros gadgets que utilizan baterías de litio, dentro de lustro utilizarán baterías de aluminio.  Lynden Archer, ingeniero químico de la Universidad de Cornell, y sus colegas han dado un paso de gigante en 2011 al utilizar líquidos iónicos y un electrolito de nanohilos de óxido de vanadio que aceleran el transporte de los iones de aluminio. Navaneedhakrishnan Jayaprakash, postdoc en el grupo de Ascher, es el primer autor del artículo del trabajo que presenta las baterías de aluminio recargables. Estas baterías utilizan un electrolito que contiene AlCl en un líquido iónico (EMI.Cl, cloruro de 1-etil-3-metilimidazolio), nanohilos de V2O5 en el cátodo y aluminio en el ánodo. Alcanzan una capacidad de carga de 305 mAh/g en el primer ciclo de recarga y 273 mAh/g tras 20 ciclos de carga; además, el comportamiento electroquímico es muy estable. Una gran promesa que todavía tiene que salir de los laboratorios para llegar a la industria, pero una promesa en firme hacia el futuro de la energía en el siglo XXI, la electricidad como fuente primaria de energía. Nos lo cuenta Robert F. Service, “Al Bids to Vie With Li in Battery Wars,” Science 335: 163, 13 January 2012, que se hace eco de la repercusión que ha tenido el artículo técnico de N. Jayaprakash , S. K. Das, L. A. Archer, “The rechargeable aluminum-ion battery,” Chemical Communications 47: 12610-12612, 3 Nov. 2011, en la conferencia de la Materials Research Society (MRS), Fall Meeting, December 2011.

Los planetas con dos soles son comunes

Fuente: Ciencia Kanija

Artículo publicado el 11 de enero de 2012 en CfA
Los astrónomos a cargo de la misión Kepler de la NASA han descubierto dos nuevos sistemas planetarios circumbinarios – planetas que orbitan dos estrellas, como Tatooine en la película Star Wars. Su hallazgo, que eleva el número de planetas circumbinarios conocidos a tres, demuestra que los planetas con dos soles deben ser comunes, existiendo muchos millones en nuestra galaxia.
“De nuevo estamos viendo que los hechos científicos se encuentran con la ciencia ficción”, dice el coautor Josh Carter del Centro Harvard-Smithsoniano para Astrofísica.
Exoplaneta circumbinario
Exoplaneta circumbinario Crédito: CfA

El trabajo se publica en la revista Nature y se presentó por parte de su autor principal, William Welsh (Universidad Estatal de San Diego) en una conferencia de prensa durante la reunión de la Sociedad Astronómica Americana (AAS).
Los dos nuevos planetas, conocidos como Kepler-34b y Kepler-35b, son planetas gaseosos del tamaño de Saturno. Kepler-34b orbita a sus dos estrellas similares al Sol cada 289 días, y las propias estrellas se orbitan entre sí cada 28 días. Kepler-35b orbita alrededor de un par de estrellas más pequeñas (80 y 89 por ciento de la masa del Sol) cada 131 días, y las estrellas se orbitan cada 21 días. Ambos sistemas residen en la constelación de Cygnus, el Cisne, estando situada Kepler-34 a 4900 años luz de la Tierra, y Kepler-35 a una distancia de 5400 años luz.
Los planetas circumbinarios tienen dos soles, no sólo uno, y debido al movimiento orbital de las estrellas, la cantidad de energía que recibe el planeta varía en gran medida. Este cambio en el flujo de energía podría producir una amplia variación climática.
“Sería como pasar por las cuatro estaciones muchas veces cada año, con enormes cambios de temperatura”, explica Welsh. “Los efectos de estas oscilaciones climáticas en la dinámica atmosférica, y finalmente en la evolución de la vida en los planetas habitables circumbinarios, es un tema fascinante que apenas estamos empezando a explorar”.
El equipo de Kepler anunció el primer planeta circumbinario, Kepler-16b, el pasado septiembre. Al igual que Kepler-16b, estos planetas también transitan (eclipsan) a sus estrellas madre, que es la forma en que Kepler los observa. Cuando sólo se conocía a Kepler-16b, quedaban muchas cuestiones sobre la naturaleza de los planetas circumbinarios; la más importante, ¿era una casualidad estadística? Con el descubrimiento de estos dos nuevos mundos, los astrónomos pueden ahora responder muchas de esas cuestiones conforme empiezan a estudiar una clase completamente nueva de planetas.
“Durante un tiempo se creyó que el entorno alrededor de un par de estrellas sería demasiado caótico para que se formase un planeta circumbinario, pero ahora que hemos confirmado tres de tales planetas, sabemos que es posible, si no probable, que haya al menos millones en la galaxia”, dice Welsh.
“Sigue en marcha la búsqueda de más planetas circumbinarios”, concuerda Carter, “y esperamos usar Kepler para ello en los próximos años”.

Fecha Original: 11 de enero de 2012
Enlace Original

El bit magnético más pequeño

Fuente: Neofronteras


Para conseguir el bit magnético más pequeño sólo se necesitan 12 átomos de hierro a muy baja temperatura.
Foto
Pie-de-foto. Fuente: Sebastian Loth/CFEL.
¿Cuántos átomos son necesarios para almacenar un bit de información? No lo sabemos seguro, pero el record alcanzado por investigadores de centro Almadén de IBM, la Universidad de Hamburgo y un centro de investigación alemán dice que bastan 12 átomos, unos 96 para un byte. Un moderno disco duro usa, en comparación, unos 500 millones de átomos por byte.
Estos investigadores construyeron un patrón regular de átomos de hierro alineados en dos filas de seis átomos sobre una superficie de nitruro de cobre. Un byte construido por 8 de estos bits ocuparía un área de 4×16 nm. Esto corresponde a una densidad de información cientos de veces superior a la de los modernos discos duros.
El almacenamiento de información en este caso es magnético y la lectura y escritura de datos se efectuó con la punta de un microscopio de efecto túnel. Un impulso eléctrico sobre la sonda cambiaba la configuración de un 0 a un 1 cambiando en estado de imanación y un impulso más débil permitía su lectura. Para poder conseguir esto el grupo de átomos de hierro se mantuvo a 5 grados Kelvin. Como todo el mundo sabe la temperatura, que introduce desorden en todo sistema, es una gran enemiga del orden magnético. También hay que tener en cuenta los efectos cuánticos, pues si la escala es muy pequeña un bit puede cambiar de estado por efecto túnel, incluso al cero absoluto de temperatura.
Sin embargo, los investigadores esperan que grupos de 200 átomos mantengan un orden magnético estable a temperatura ambiente, aunque se necesitarán años de desarrollo hasta llegar a productos comerciales.
Por primera vez han conseguido usar antiferromagnetismo en lugar del ferromagnetismo empleado en los discos duros convencionales. En la interacción antiferromagnética los momentos magnéticos tienden a apuntar en direcciones antiparalelas y en la ferromagnética en direcciones paralelas. El uso del antiferromagnetismo permite un empaquetamiento más compacto y permite separar bits a sólo un nanometro unos de otros.
En lugar de tratar de miniaturizar lo que ya existe, estos investigadores pensaron en dirección opuesta y partieron de lo más pequeño (un átomo) y comprobaron el mínimo conjunto de átomos en la configuración adecuada que permitía alcanzar el objetivo. Resultó ser un grupo de 12 átomos de hierro.
El experimento también ha permitido sentar las bases de un posible estudio de la transición del mundo clásico al cuántico. Así, se podría usar para analizar los efectos físicos cuánticos a través del cambio del patrón formado por los átomos de hierro en el conjunto. ¿Cómo se comporta un imán en la frontera entre los dos mundos? ¿Qué hace diferente a un imán cuántico de uno clásico?
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3717
Fuentes y referencias:
Nota de prensa.
Artículo original.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

Ley de Ohm nanométrica

Fuente: Neofronteras


La ley de Ohm sigue siendo válida una vez alcanzados los límites de la ley de Moore.
Foto
Fuente: Purdue University image/Sunhee Lee, Hoon Ryu and Gerhard Klimeck.
Un grupo de investigadores de las universidades de Melbourne, Nueva Gales del Sur y Purdue han encontrado los límites de transporte de corriente a escala nanométrica. Han usado tanto simulaciones a escala atómica como experimentos para demostrar que un hilo 20 veces más fino que los que hay en los microprocesadores actuales aún mantiene una capacidad de resistencia pequeña y obedecen todavía a la ley de Ohm. La ley de Ohm establece que la caída de voltaje a través de un conductor es igual al producto de su resistencia por la intensidad de corriente que circula por él. El estudio muestra que esta ley se puede aplicar incluso a la escala atómica.
El resultado es toda una sorpresa porque la visión tradicional sugería que los efectos cuánticos a esa escala producirían grandes desviaciones de esta ley. La ausencia de efecto cuánticos a esta escala sorprende más si cabe porque las medidas se realizaron a 4,2 kelvin y uno espera que los efectos cuánticos se hagan notar más a temperaturas bajas cercanas al cero absoluto. El sorprendente resultado nos dice que esta ley es un bloque fundamental de la Naturaleza.
El estudio también marca un final para la ley de Moore, ley empírica según la cual cada 18 meses se duplica el número de transistores en un circuito integrado, pues determina que una simple fila densa de átomos de fósforo embebidos en silicio es el límite definitivo de miniaturización. Según este resultado los componentes de un microchips podrían ser 10 veces más pequeños sin que se produzcan problemas.
Un gran problema que siempre preocupa a los expertos en chips es cómo miniaturizar los componentes aún más y que no haya fugas de corriente de un conductor al de al lado, sobre todo por efecto túnel mecánico-cuántico. Algo que introduciría ruido o malfuncionamiento en el sistema. De ahí que se crea que llegará un momento en el que la ley de Moore no se mantenga, incluso antes de llegar a la escala atómica. La puerta de los transistores de los chips actuales mide 22 nm, es decir, el tamaño de un centenar de átomos de silicio.
Para poder demostrar todo esto los investigadores tuvieron que construir átomo a átomo diversos circuitos en lugar de usar las técnicas habituales empleadas en la manufactura de circuitos integrados, que no tenían precisión suficiente. Encontraron que una cinta de 1 átomo de alto por 4 de ancho puede todavía funcionar como un hilo conductor tan bueno como uno mayor hecho de metal.
El fósforo tiene un electrón más que el silicio en su capa exterior y cuando reemplaza a un átomo de silicio en la red dona ese electrón, que pasa a ser un electrón libre en el cristal (es lo que se llama dopado de tipo n). Dopando (contaminando) con fósforo se pueden cambiar las propiedades del silicio, algo que se viene haciendo desde que se empezaron a inventar los propios transistores.
En este estudio se aprovecha al máximo esta propiedad empaquetando densamente átomos de fósforo en una matriz cristalina de silicio para así crear un conductor lineal. La alta concentración de átomos de fósforo produce una alta densidad de electrones y su scattering mutuo destruye la coherencia cuántica, dando lugar a un comportamiento clásico.
Ya se está a punto de conseguir transistores hechos con átomos individuales, pero conseguir un chip a partir de ellos es muy complicado debido a que la necesaria circuitería tiene que bajar hasta casi la escala atómica para poder interconectar esos transistores entre sí. Para ello no se podría usar el cobre que se usamos habitualmente, sino que habría que usar otros elementos y métodos. Es aquí donde encaja el hilo de fósforo de 1×4 átomos de sección. Un hilo densamente dopado de este tipo es una alternativa viable para la nueva generación de chips de silicio.
Adicionalmente, y paradójicamente, los autores de este estudio apunta que basándose en los resultados quizás sea posible algún día realizar computaciones cuánticas basadas en silicio. Aunque sobre este punto no todos los expertos están de acuerdo y apuntan que es más bien al contrario y que este resultado sugiere que no es fácil conseguir la computación cuántica.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3716
Fuentes y referencias:
Nota de prensa.
Artículo original
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

viernes, 13 de enero de 2012

Cómo hacer algodón de azucar (Vídeo)

Cómo averiguar tu IP pública desde la terminal

Fuente: Muylinux

De cuando en cuando es útil saber cuál es nuestra IP pública. No la privada, con la que se ven nuestros equipos en la red de área local a la que solemos conectarnos en casa o en el trabajo, que es asignada normalmente por el router vía DHCP. La IP pública determina entre otras cosas el país en el que estamos -de ahí que ciertos servicios nos bloqueen el acceso, como Pandora en Estados Unidos, a partir de nuestra IP. curl ip 500x378 Cómo averiguar tu IP pública desde la terminal
Pues bien, consultar esa IP normalmente es sencillo si consultáis páginas web como whatismyip.com, o su versión en español, cualesmiip.com.
Eso no es necesario desde Linux, ya que hay una forma de averigar esa IP pública haciendo uso del comando curl. Si no tenéis instalado el paquete habrá que instalarlo, tal y como indican en ITswapshop, donde revelan el proceso tanto para Ubuntu:
sudo apt-get install curl
Como para openSUSE
sudo zypper install curl
El proceso de instalación es análogo en otras distribuciones, y una vez con curl instalado bastará con escribir en la terminal lo siguiente
curl ifconfig.me
para obtener en pocos segundos la IP pública con la que estamos “saliendo” a Internet.

Investigadores del CSIC calculan que el neutrino tiene una masa dos millones de veces inferior a la del electrón

Fuente: Ciencia Kanija

Artículo pulicado el 12 de enero de 2012 en CSIC
Un grupo de investigadores del Consejo Superior de Investigaciones Científicas (CSIC) ha determinado que la masa de los neutrinos no excede de 0,26 electronvoltios, dos millones de veces inferior a la masa del electrón. Asimismo, el equipo ha descubierto que la suma de las masas de los tres tipos de neutrinos que existen (electrónicos, muónicos y tauónicos) no representa más del 6 por mil del total de la masa-energía del cosmos.
El análisis se basa en datos obtenidos de una selección de 900 000 galaxias luminosas, que son utilizadas para estudiar la distribución espacial de galaxias. Estos resultados se presentan hoy en la reunión anual de la Sociedad Astronómica Americana, que se celebra hasta el 12 de enero en Austin (Texas).
“Determinar con precisión la influencia de la masa de los neutrinos en el Universo es fundamental para estudiar su evolución, ya que hasta hace poco se creía que estas partículas carecían de masa y, por tanto, no aparecía en los modelos cosmológicos”, señala la investigadora del CSIC Olga Mena, del Instituto de Física Corpuscular (centro mixto del CSIC y la Universidad de Valencia).

Neutrinos en una cámara de burbujas © Argonne National Laboratory

Las galaxias utilizadas para los datos de este estudio están siendo analizadas por el equipo del experimento BOSS, que forma parte del Sloan Digital Sky Survey (SDSS)-III. SDSS se inició en 2000 y desde sus comienzos ha examinado más de un cuarto del cielo nocturno y producido el mapa en color del Universo en tres dimensiones más grande que existe hasta el momento.
Los neutrinos son partículas elementales muy ligeras que apenas interactúan con la materia. Un neutrino puede atravesar 200 Tierras y permanecer inalterado. Por eso, su detección es extremadamente difícil.
Hasta que se midió lo que se conoce como “oscilación de los neutrinos”, la transformación de un tipo a otro durante su recorrido, los investigadores pensaban que no tenían masa. Además, aceptar que los neutrinos tienen masa implica grandes cambios en los modelos utilizados para considerar la evolución del Universo, ya que es una de las partículas más abundantes del cosmos.
“Por experimentos de física de partículas sabemos que el valor mínimo de la masa total del neutrino es cinco veces menor que el límite superior que hemos encontrado. Nuestros resultados muestran que se puede alcanzar una detección cosmológica de la masa del neutrino, lo cual es sumamente interesante”, destaca Mena.

Fecha Original: 12 de enero de 2012
Enlace Original

Tres diminutos exoplanetas sugieren que el Sistema Solar no es tan especial

Fuente: Ciencia Kanija

Artículo publicado por Ron Cowen el 11 de enero de 2012 en Nature News
El telescopio Kepler descubre un sistema planetario extrasolar en miniatura.
Añadiéndose a la ya larga lista de primeros descubrimientos, la nave Kepler de la NASA ha encontrado los tres planetas extrasolares más pequeños jamás detectados – todos ellos menores que la Tierra, siendo el más pequeño no más grande que Marte. El trío recientemente descubierto forma un sistema planetario en miniatura que orbita a una tenue y fría estrella enana roja llamada KOI-961.
Debido a que están tan cerca de su estrella, los tres exoplanetas están demasiado calientes para dar soporte a la vida. Pero, al contrario que la mayor parte de exoplanetas anteriormente conocidos, la gran mayoría de los cuales son gigantes gaseosos de la escala de Júpiter, estos tres se cree que son mundos rocosos como la Tierra y los otros mundos del Sistema Solar interno. Y debido a que las enanas rojas son el tipo de estrella más común de la Vía Láctea, el hallazgo sugiere que la galaxia puede ser abundante en planetas rocosos – con al menos algunos residiendo en la ‘región habitable’ alrededor de sus estrellas, donde la temperatura sería justo la adecuada para que el agua se mantuviese líquida y la vida pudiese tener un asidero.

Soles y planetas de Kepler

“Tenemos que lograr un censo de cuántos planetas rocosos hay ahí fuera para comprender cómo se formó la Tierra, y lo común que puede ser la vida en la Vía Láctea”, señala Sara Seager, astrónomo en el Instituto Tecnológico de Massachusetts en Cambridge y que no tomó parte en el estudio. El descubrimiento es un buen augurio para completar dicha tarea, añade.
“La sugerencia – que no demostración – es que los planetas rocosos son comunes y diversos, y que nuestro Sistema Solar no es una rareza cósmica compuesta de mundos extraños”, concuerda el colaborador del estudio Geoffrey Marcy de la Universidad de California en Berkeley.
Los hallazgos de Kepler se presentaron el 11 de enero en la reunión semi-anual de la Sociedad Astronómica Americana (AAS) en Austin, Texas, por parte de John Johnson y Philip Muirhead del Instituto Tecnológico de California en Pasadena 1, 2. Se ha aceptado un artículo, que describe el descubrimiento, para su publicación en Astrophysical Journal.
Kepler caza planetas monitorizando un campo de unas 150 000 estrellas en busca de sutiles y periódicas bajadas de brillo – una señal de que un cuerpo orbital está pasando, o transitando, frente a la estrella, bloqueando una minúscula fracción de la luz. La mayor parte de las estrellas que examina Kepler son similares en masa al Sol, pero algunas son considerablemente menores – incluyendo una, una estrella enana roja a unos 40 pársecs (130 años luz) de la Tierra, que estaba entre las marcadas como candidatas a tener uno o más planetas.
Reducción de tamaño crucial
Conocida como KOI-961, acrónimo de “Kepler Object of Interest” (Objeto de Interés de Kepler), la enana roja pasó por el escrutinio de los investigadores. Muirhead pronto se dio cuenta de que el equipo de la misión Kepler, el cual se concentraba en encontrar planetas alrededor de estrellas similares al Sol, había sobrestimado el brillo y tamaño de muchas enanas rojas pequeñas, que son notablemente difíciles de modelar3. De media, el diámetro de las enanas rojas resultó ser aproximadamente la mitad del valor listado en el catálogo estelar oficial de Kepler. Y para KOI-961, en particular, el diámetro tuvo que ser revisado a la baja aún más: su tamaño real es de sólo aproximadamente un sexto del tamaño del Sol.
La estimación revisada para el diámetro de KOI-961 fue crucial para descubrir el último trío, debido a que el tamaño de cualquier planeta en tránsito encontrado por Kepler se mide en relación al tamaño de su estrella madre. Cuanto más pequeña es la estrella, menor es el planeta en tránsito que puede detectarse. Una pista clave provino de un correo electrónico accidental que recibió Johnson el pasado septiembre procedente de Kevin Apps, un astrónomo aficionado de Horley, Inglaterra. Apps, coautor del artículo de Astrophysical Journal, pasa su tiempo libre estudiando los datos de planetas extrasolares y estrellas cercanas, y tiene un conocimiento enciclopédico de sus propiedades. Alertó al resto del equipo de que KOI-961 guardaba una extraña similitud en color y temperatura con una enana famosa conocida como Estrella de Barnard. Las observaciones de seguimiento con telescopios terrestres confirmaron que las dos estrellas eran gemelas virtuales. Y debido a que el tamaño de la Estrella de Barnard se ha medido con gran precisión, gracias a su localización a apenas 1,9 pársecs (6 años luz) de la Tierra, el equipo de Johnson pudo evaluar el diámetro de KOI-961 – y por tanto sus planetas en tránsito – con alta precisión.
En la reunión de la AAS, el equipo del descubrimiento anunció que los tres planetas que orbitan KOI-961 lo hacen en menos de dos días. El cuerpo más exterior es el más pequeño, con un diámetro de la mitad de la Tierra, o aproximadamente el mismo que Marte. Los dos planetas interiores son mayores, con diámetros de aproximadamente tres cuartas partes de la Tierra. Pero esto aún es menor que Venus. Dado que estos planetas son pequeños y están cercanos a su estrella, gran parte de la atmósfera que puedan haber tenido se habría evaporado, dejando tras de sí la roca desnuda, comenta Marcy.
Marcy calcula que Kepler podría encontrar planetas aún menores alrededor de estrellas enanas – con un diámetro del 20% de la Tierra, o menores que nuestra Luna.
Desenterrando respuestas
Encontrar una multitud de exoplanetas del tamaño de Marte puede ayudar a arrojar luz sobre un viejo problema en la comprensión de la formación del Sistema Solar, comenta Dimitar Sasselov, astrónomo del Centro Harvard-Smithsoniano para Astrofísica en Cambridge, Massachusetts, que no fue parte del estudio. Los científicos no tienen una explicación clara a por qué Marte, que está fuera de la órbita de Venus y la Tierra, es mucho menor que sus hermanos.
El diminuto trío planetario es el último de una lluvia de descubrimientos de Kepler. En diciembre, los investigadores informaron de que el telescopio orbital había encontrado los primeros planetas conocidos del tamaño de la Tierra más allá del Sistema Solar, aunque estos cuerpos también estaban demasiado calientes para que existiese agua en su superficie4. Los científicos también informaron el mes pasado de que la nave había encontrado su primer exoplaneta en la zona habitable – aunque en este caso, el mundo es mucho mayor que la Tierra5.
Los nuevos hallazgos demuestran que “Kepler, con toda seguridad, es robusto al encontrar planetas verdaderamente del tamaño de la Tierra”, dice Marcy. El siguiente objetivo, señala, es la razón de ser de la misión: “encontrar un planeta del tamaño de la Tierra que sea tibio, donde pudiese haber agua en estado líquido para dar cobijo a la biología”.

Artículos de Referencia:
Nature doi:10.1038/nature.2012.9786 

  1. Johnson, J. A., Pineda, S. & Bottom, M. Presentación 330.02 en la 219 Reunión de la Sociedad Astronómica Americana. Disponible en: http://go.nature.com/p8Oz8W (2012).
  2. Muirhead, P. S. et al. Presentación 330.04 de la 219 reunión de la Sociedad Astronómica Americana. Disponible en: http://go.nature.com/tkvrUx (2012).
  3. Muirhead, P. S. et al. Borrador disponible en: http://arxiv.org/abs/1109.1819 (2011).
  4. Fressin, F. et alNature http://dx.doi.org/10.1038/nature10780 (2011).
  5. Borucki, W. J. et al. Borrador disponible en: http://arxiv.org/abs/1112.1640 (2011).
  6. Mamajek, E. E. et al. Presentación 404.04 de la 219 reunión de la Sociedad Astronómica Americana. Disponible en: http://go.nature.com/mLgNhs (2012).
Autor: Ron Cowen
Fecha Original: 11 de enero de 2012
Enlace Original

La imagen más clara de la materia oscura

Fuente: Ciencia Kanija

Artículo publicado por Paul Preuss el 9 de enero de 2012 en Berkeley Lab
Científicos de Fermilab y Berkeley Lab construyen los mayores mapas, hasta el momento, de materia oscura usando métodos que mejorarán los estudios desde tierra.
Dos equipos de físicos de Fermilab, del Departamento de Energía de los Estados Unidos, y el Laboratorio Nacional Lawrence Berkeley (Berkeley Lab), han tomado de forma independiente las mayores medidas directas del invisible andamiaje del universo, construyendo mapas de materia oscura usando nuevos métodos que, a su vez, eliminarán obstáculos clave en la comprensión de la energía oscura con telescopios terrestres.
Las medidas de los equipos buscan minúsculas distorsiones en las imágenes de lejanas galaxias, llamadas distorsiones diferenciales cósmicas (cosmic shear), provocadas por la influencia gravitatoria de estructuras invisibles masivas de materia oscura en primer plano. Cartografiar con precisión estas estructuras de materia oscura y su evolución a lo largo del tiempo es, probablemente, la herramienta más sensible de las pocas disponibles para los físicos en su actual esfuerzo por comprender los misteriosos efectos de estiramiento del espacio por parte de la energía oscura.

Banda 82 © by Crédito: SDSS

Ambos equipos dependían de las extensas bases de datos de imágenes cósmicas recopiladas por el Sloan Digital Sky Survey (SDSS), que se compilaron en gran parte con ayuda de Berkeley Lab y Fermilab.
“Estos resultados nos espolean para futuros estudios a gran escala del cielo. Las imágenes generadas llevaron a un cuadro en el que se ven muchas más galaxias en el universo, incluyendo aquellas seis veces más tenues, o más lejanas en el tiempo, de lo que puede observarse en las imágenes individuales”, dice Huan Lin, físico de Fermilab y miembro de SDSS y el Dark Energy Survey (DES).
Melanie Simet, miembro de la colaboración SDSS de la Universidad de Chicago, esbozará las nuevas técnicas para mejorar los mapas de distorsiones diferenciales cósmicas y explicará cómo pueden extender estas técnicas el alcance de los experimentos internacionales de estudio del cielo durante una charla en la Sociedad Astronómica Americana (AAS) en Austin, Texas. En su charla demostrará una forma única de analizar la distorsión de las galaxias por parte de la materia oscura para lograr una mejor descripción del pasado del universo.
Eric Huff, miembro de SDSS de Berkeley Lab y la Universidad de California en Berkeley, presentará un póster describiendo la medida completa de distorsión diferencial cósmica, incluyendo las restricciones sobre la energía oscura el jueves 12 de enero en la conferencia de la AAS.
Varios grandes estudios astronómicos, tales como el Dark Energy Survey, el Large Synoptic Survey Telescope, y el estudio HyperSuprimeCam, tratarán de medir la distorsión diferencial cósmica en los próximos años. Las distorsiones de lente débil son tan sutiles, no obstante, que el mismo efecto atmosférico que provoca el parpadeo de las estrellas durante la noche supone un formidable desafío para las medidas de la distorsión diferencial cósmica. Hasta ahora, ninguna medida de la distorsión diferencial cósmica realizada desde tierra ha sido capaz de separar por completo y de forma fehaciente los efectos de lente débil de las distorsiones atmosféricas.
“La comunidad ha estado trabajando desde hace unos años en las medidas de la distorsión diferencial cósmica”, dice Huff, astrónomo en Berkeley Lab, “pero también ha habido cierto escepticismo sobre si puede hacerse con la suficiente precisión para restringir la energía oscura. Demostrar que podemos lograr la precisión requerida con estos innovadores estudios es importante para la próxima generación de grandes estudios”.
Para construir mapas de materia oscura, los equipos de Berkeley Lab y Fermilab usaron imágenes de galaxias recopiladas entre 2000 y 2009 por los estudios SDSS I y II, usando el Telescopio Sloan en el Observatorio de Apache Point en Nuevo México. Las galaxias están dentro de un lazo continuo del cielo conocido como Banda SDSS 82, que se sitúa a lo largo del ecuador celeste y abarca 275 grados cuadrados. Las imágenes de la galaxia quedaron capturadas en múltiples pasadas a lo largo de muchos años.
Los dos equipos superpusieron instantáneas de un área dada, tomadas en diferentes momentos, en un proceso llamado co-adición, para eliminar los errores provocados por los efectos atmosféricos y para mejorar las señales muy tenues que proceden de partes lejanas del universo. Los equipos usaron distintas técnicas para modelar y controlar las variaciones atmosféricas y medir la señal aumentada, y han realizado una serie exhaustiva de pruebas para demostrar que estos modelos funcionan.
La gravedad tiende a arrastrar material en densas concentraciones, pero la energía oscura actúa como fuerza repulsiva que frena el colapso. De esta forma, la agrupación en los mapas de materia oscura proporciona una medida de la cantidad de energía oscura del universo.
Cuando compararon sus resultados finales antes de la reunión de la AAS, ambos equipos encontraron una estructura algo menor de lo que habían esperado a partir de otras medidas, tales como la Wilkinson Microwave Anisotropy Probe (WMAP), pero según Huff, “los resultados no son lo bastante diferentes de experimentos anteriores como para hacer sonar las sirenas de alarma”.
Mientras tanto, dice Lin, “nuestros procesos de corrección de imagen deberían proporcionar una herramienta valiosa para la próxima generación de estudios de lentes débiles”.

Autor: Paul Preuss
Fecha Original: 9 de enero de 2012
Enlace Original

jueves, 12 de enero de 2012

Los agujeros negros y el LHC

Fuente: Física en la Ciencia Ficción plus

Reacciones: 

En los últimos dos años todos hemos oído hablar del célebre LHC (Large Hadron Collider), el gran colisionador de hadrones. Y ha sido a raíz de ello que palabras como antimateria o miniagujeros negros se han popularizado relativamente. Ha sido tal la preocupación suscitada que incluso la Sociedad Americana de Física ha tenido que salir al paso recientemente y publicar un artículo sobre la potencial formación de agujeros negros en el LHC. Sin embargo, muchas personas siguen insistiendo: ¿es realmente posible la formación de agujeros negros en el LHC y, sobre todo, podrían resultar peligrosos? Bien, aprovechemos la inquietud y el miedo para aprender algunas cosas tremendamente interesantes, pero sin detenernos en detalles excesivamente complejos.

La teoría más ampliamente aceptada por la comunidad científica para la descripción de las partículas elementales y sus interacciones es el denominado Modelo Estándar, cuya validez ha sido corroborada por multitud de experimentos. Sin embargo, los físicos no están satisfechos y piensan que el Modelo Estándar no constituye una teoría completa, sino que más bien representa una aproximación de baja energía de un modelo más general, válido también a altas energías. Desgraciadamente, la tecnología disponible hasta la fecha en los aceleradores de partículas no ha permitido alcanzar esas altas energías necesarias para poner de manifiesto los fenómenos esperados. Pero ha sido a partir de la puesta en funcionamiento de complejos como el LHC que los científicos han comenzado a proponer y sugerir teorías que expliquen lo que cabría esperar observar en instalaciones como ésta. Concretamente, la formación de diminutos agujeros negros es una de las cosas que se espera poder detectar.
Normalmente, cuando oímos la palabra agujero negro pensamos en los inmensos objetos estelares, productos de las fases finales en la evolución de las estrellas, cuando no en los denominados agujeros negros masivos, alojados, según creemos, en los centros de las galaxias. Sin embargo, los agujeros negros a los que aludimos cuando hablamos del LHC u otros superaceleradores de partículas son muy diferentes. De hecho, uno de los requisitos esenciales que deben darse para la producción de aquéllos es la existencia de las llamadas dimensiones extras. ¿Por qué?
Aunque la razón es compleja y guarda relación con las teorías de cuerdas, dicho de una forma sencilla, las condiciones gravitatorias, tan diferentes a las que experimentamos en nuestra vida cotidiana, producidas por estos agujeros negros requieren forzosamente que hayan dimensiones espaciales adicionales a las tres que conocemos y experimentamos, pues se piensa que la gravedad debe extenderse y dejar sentir sus intensos efectos también en estas dimensiones. Es debido al extraordinariamente pequeño tamaño de las mismas que resulte absolutamente imprescindible acercar entre sí los protones que colisionan en el interior del anillo del LHC (con sus 27 kilómetros de circunferencia) a distancias inimaginablemente pequeñas, justamente del orden del tamaño de las supuestas dimensiones extras (unas 10 billonésimas de milímetro). Podrían, de esta manera, generarse extraordinariamente diminutos agujeros negros.

Si la teoría de Hawking acerca de la emisión de radiación de los agujeros negros resultase ser correcta, entonces debería cumplirse que la temperatura de éstos fuese inversamente proporcional a su radio, es decir, que los agujeros negros más pequeños son más calientes que los agujeros negros más grandes (¡qué preciosidad de frase!). Un agujero negro que tuviese una masa igual a tres veces la de nuestro Sol se encontraría a una temperatura aproximada de algo menos de una millonésima de kelvin. Como quiera que el universo se encuentra, debido a su expansión, a una temperatura promedio de casi 3 kelvin, lo anterior significa que dicho agujero negro debe, preferentemente, absorber radiación térmica, en lugar de emitirla. Por contra, los miniagujeros negros deben emitir radiación, y más violentamente cuanto menor sea su tamaño. Justamente, es ésta característica tan peculiar la que podría aprovecharse para su posible detección y la demostración definitiva de su existencia, hecho que podría acarrearle el premio Nobel al profesor Hawking (esperemos que aún en vida).
En efecto, uno de los métodos que los físicos podrían utilizar con el fin de detectar los posibles miniagujeros negros producidos en las colisiones protón-protón del LHC consistiría en analizar las partículas emitidas durante el proceso. Ahora bien, ¿qué clase de partículas se producen durante la generación de un miniagujero negro? ¿Qué debemos buscar entre los escombros? Al fin y al cabo, sabemos cómo decaen las partículas que conforman el Modelo Estándar, pero no estos extraños objetos teóricos que son los agujeros negros diminutos. ¿Cómo sabremos, entonces, dónde poner nuestra atención y que cabría observar? ¿Podrían aparecer partículas exóticas, aún desconocidas; gravitones quizá?

Sea como fuere, los físicos creen que un agujero negro generado en el LHC debería desintegrarse en un abrir y cerrar de ojos mientras emite toda clase de partículas del Modelo Estándar, incluyendo neutrinos. Debido a la debilísima interacción, tanto de éstos como de los hipotéticos gravitones que apareciesen, resultarían extremadamente difíciles de detectar, aunque dejarían rastro de su presencia en forma de aparente incumplimiento de la ley de conservación de la energía o incluso dejando tras de sí una reliquia más o menos estable.
Otra apasionante posibilidad es que el LHC nos traiga las partículas supersimétricas, compañeras que se piensa deben poseer todas las partículas del Modelo Estándar conocidas, pero que contarían con una mayor masa, es decir, que no podríamos observarlas hasta ahora, otra vez a causa de no disponer de los aceleradores suficientemente potentes como para alcanzar las energías necesarias para acceder a sus masas (en física, la masa y energía son conceptos equivalentes). Estas s-partículas también podrían decaer de tal forma que no fuesen fácilmente identificables, en la línea de los que podría suceder con los miniagujeros negros. Así pues, la forma de reconocerlas consistiría, una vez más, en poner a prueba la conservación de la energía. Eso sí, cabría la molesta y poco deseable posibilidad de que los productos del decaimiento de las partículas supersimétricas ocultase o enmascarase al de los agujeros negros y viceversa. Sería muy interesante disponer de teorías y/o técnicas que permitiesen distinguir unas y otras señales y discriminar una frente a otra sería de gran importancia e interés para la comprensión de la física de altas energías.

Depare lo que nos depare el LHC en el futuro, de lo que no cabe duda es que será emocionante a buen seguro. Nuestra comprensión actual de la física podría cambiar. ¿Está más cerca la teoría del todo?

Fuente:
Black Holes and the Large Hadron Collider Arunava Roy. The Physics Teacher, 49, December 2011.

Créditos de la primera y tercera imágenes (Ver aquí los términos de uso): ATLAS Experiment © 2011 CERN.