miércoles, 28 de marzo de 2012

Crea tu propio servidor de datos en la nube con OwnCloud

Fuente: Usemoslinux

Owncloud es una aplicación de software libre que te permitirá crear un servidor de archivos en la nube, en el cuál podrás tener un almacén de imágenes, documentos o incluso tu música, datos a los que tendrás acceso desde cualquier lugar con internet.

Muchos de los lectores seguramente ya conocerán y algunos tal vez usarán soluciones de almacenamiento de archivos en la nube, servicios como UbuntuOne, Dropbox o SpiderOak, en los cuales puedes almacenar tus fotos, documentos e incluso tu música para poder acceder a tus ellos desde cualquier computadora con internet.

Bueno, pero ahora el problema, resulta que la principal limitación de estos servicios es el espacio, pues en algunos casos estas empresas ofrecen cuentas gratuitas pero con espacio de almacenamiento de entre 2 a 5 GB, eso si, si quieres más espacio tendrás que pagar. Otro aspecto importante, tal vez el más importante desde mi punto de vista,  es la privacidad. Desafortunadamente las empresas son creadas para producir dinero y esto es lo que las mueve, así que tus datos podrían ser incluso vendidos al mejor postor, eso sin contar que las aplicaciones que desarrollan estas compañías para sincronizar los datos por lo general no son Software Libre.

Por suerte, existe una aplicación que es Software Libre y que cubre perfectamente la función de almacenamiento de datos en la nube, hablo de OwnCloud. Entre sus principales características se encuentran:
  • Una agradable y fácil interfaz web
  • Compartición de archivo a usuarios y no usuarios de OwnCloud
  • Visor de archivos PDF
  • Calendario/Agenda
  • Gestión de contactos
  • Acceso a tus archivos mediante WebDAV
  • Reproductor de música integrado
  • Una galería donde podrás visualizar tus imágenes
  • Un sencillo editor de textos
  • La seguridad de que tus datos están en tu servidor y no en manos de desconocidos.
Por si fuera poco la capacidad de almacenamiento solo estará limitada por el espacio que tu tengas disponible en tu disco duro.



¿Te gustaría tener un servidor de datos en la nube en el que tu tengas total control?


Instalación

Esta guía ha sido probada en Debian Squezee y varias versiones de Ubuntu, como prerrequisitos deberemos tener instalado y funcionando el servidor web Apache y el gestor de bases de datos MySQL.

1.- Instalar dependencias

apt-get install php-pear php-xml-parser php5-sqlite php5-json sqlite mp3info curl libcurl3-dev zip

2.- Crear la base de datos con MySQL

En terminal usamos el siguiente comando:

mysql -u root -p

pedirá contraseña

entonces aparecerá la línea de comandos de mysql, donde añadiremos las siguientes instrucciones:

mysql> create database nombre_de_nuestra_base_de_datos;

Reponderá: Query OK, 1 row affected (0.00 sec)

cerramos mysql con:

mysql> quit

3.- Descargar y descomprimir Owncloud

Descargamos el paquete owncloud-x.tar.bz2 y posteriormente lo descomprimimos.

tar -xvf owncloud-x.tar.bz2

4.- Copiar el directorio owncloud a nuestro servidor Apache como root

mv owncloud /var/www

5.- Le damos permisos del servidor web al directorio owncloud:

chown -R www-data:www-data owncloud

6.- Reiniciamos nuestro servidor apache:

/etc/init.d/apache2 restart

7.- Terminar la instalación

Desde la barra de direcciones de un navegador web tecleamos:

ip.de.tu.server/owncloud (si accedes desde otra computadora de la red)

localhost/owncloud (si accedes desde la computadora donde está instalado owncloud)

Entonces se nos mostrará la interfaz web para terminar con la instalación.


Creamos una cuenta de administrador y seleccionamos la opción “Avanzado”. Luego, ingresamos nombre de usuario, nombre de base de datos y contraseña de la base de datos y pulsamos el botón “Completar la instalación”.

Una vez dentro de nuestra cuenta de administrador podremos configurar el servicio y crear usuarios. Para asegurar el acceso desde internet deberemos contar con el servicio de DNS dinámico, como No-IP.  Una vez que tenemos nuestra cuenta en este servicio podremos ingresar desde cualquier lugar con internet a nuestro servidor OwnCloud usando un navegador con la dirección:

http://nombre_elegido_en_No-IP.no-ip.org/owncloud

8.- Aumentar el limite de peso de archivos a subir.

Por defecto, el peso de los archivos a subir es muy pequeño. Podemos corregir esto editando el archivo /etc/php5/apache2/php.ini donde buscaremos las líneas:

“upload_max_filesize” 

“post_max_size”

y cambiamos al tamaño que consideremos adecuado.

¡Listo! Ingresamos desde un navegador a la dirección http://ip.del.servidor.owncloud/owncloud y podremos acceder a la interfaz web para comenzar a subir nuestros archivos con la seguridad que conlleva tenerlos en nuestro servidor propio.


Capturas

Dejo algunas capturas del servidor OwnCloud funcionando.



Pantalla de login de OwnCloud



Interfaz de administración del almacenamiento de datos



Lector de PDF's integrado en la interfaz web de OwnCloud



Galería de imágenes



Reproductor de Música también integrado en la interfaz web



Compartición de archivos



Calendario/Agenda



Conclusión

OwnCloud es una excelente alternativa a UbuntuOne, SpiderOak, Dropbox o incluso el ya finado Megaupload, es relativamente fácil de instalar y proporciona todas las prestaciones de cualquier servicio de paga.

Esten atentos que en una entrega próxima mostrare cómo instalar y hacer andar el servicio de DNS dinámico con No-IP.

jueves, 22 de marzo de 2012

Intentando explorar la escala de Planck

Fuente: Neofronteras

Se intenta explorar experimentalmente la escala de Planck de manera indirecta usando sofisticados equipamientos y nuevas ideas.
Foto
Hay mundo desconocido a la escala espacial más pequeña posible. Tenemos ideas y especulaciones sobre lo que podría ocurrir ahí, pero de seguro no sabemos nada. Depende del candidato a teoría cuántica de gravedad que consideremos.
Una teoría cuántica de la gravedad debería proporcionar la Relatividad General a gran escala, pero explicar las singularidades o el mismo Big Bang. Nos debería describir el espacio-tiempo a la escala de Planck. Pero a esas distancias ninguna de las máquinas más poderosas construidas por la Humanidad, como el LHC, puede explorar lo que sucede. Estudiar esa escala es un desafío tremendo. La longitud de Planck es igual a 1,6 & times;10-35 metros. Si esos 34 ceros no nos parecen suficientes como para describir lo pequeña que es, podemos imaginar una realidad alternativa en la esa longitud mide 1 metro y en ese caso un átomo tendría el tamaño de nuestro universo visible.
Lo malo es que no tenemos ninguna teoría cuántica de la gravedad fiable. De momento sólo proyectos en los que se puede creer o no. Y aunque la tuviéramos siempre se ha creído que no podríamos comprobar si es correcta con un experimento directo.
El problema es que la cantidad de modelos sobre la realidad que el ser humano puede concebir es muy superior a la realidad del Universo. En otras ramas de la Física fue relativamente fácil avanzar porque los experimentos guiaban por dónde había que ir. Era incluso al revés de lo que sucede ahora, se tenían fenómenos experimentales que no se explicaban con la Física del momento y eso empujaba el desarrollo de nuevas teorías. Quizás no tenemos una teoría cuántica de la gravedad porque no somos tan inteligentes como pensábamos o porque no tenemos experimentos que nos guíen. ¿Hemos mencionado ya que no somos capaces de llegar a la escala de Planck en la que se manifestarían los efectos cuánticos de la gravedad?
Para compensar esa carencia experimental se han propuesto observaciones con el observatorio Fermi de fotones gamma de alta energía que hayan viajado distancias cosmológicas, pero de momento no han dado resultado y posiblemente nunca lo den.
Una idea nueva es usar métodos indirectos para estudiar el efecto de las textura del espacio-tiempo a la escala de Planck, hay varios grupos en el mundo que están trabajando en esta idea. Uno de ellos es una colaboración entre el grupo de Caslav Brukner de la Universidad de Viena y el de Myungshik Kim de Imperial College London y pretenden usar espejos masivos de Planck
Este tipo de experimentos podría comprobar ciertas predicciones de los proyectos a teoría cuántica de la gravedad sobre las que se trabaja o se trabaje en un futuro.
El proyecto se basa en que según el principio de incertidumbre cuando mejor conocemos la posición de un objeto peor conocemos su cantidad de movimiento (producto de la masa por la velocidad o momento) y viceversa. Pero es posible realizar dos medidas consecutivas, una medida sobre la posición de la partícula y otra sobre su momento o al contrario. En sistemas cuánticos estas dos secuencias consecutivas de este tipo de medidas proporcionan resultados experimentales distintos. Pero según las propuestas a teorías cuánticas de la gravedad esta diferencia puede ser alterada dependiendo de la masa del sistema, ya que la longitud de Planck impone un límite inferior a la medida de la distancia. Obviamente este modificación es minúscula, si es que existe, así que hay que ingeniárselas para poderlo medir. Aún así este equipo de investigadores cree que se puede medir en el laboratorio.
El montaje consiste en un láser pulsado que interactúa cuatro veces con un espejo en movimiento y con ello se mide las diferencias entre la primera medida de la posición y después de medir su momento. Este equipo de investigadores ha mostrado que sería posible ver el efecto gracias a la medida óptica de los pulsos y mediante el control preciso de los tiempos y de todas las interacciones. Básicamente es un sistema interferométrico.
Foto
Una desviación sobre lo predicho por la Mecánica Cuántica estándar sería muy excitante, pero incluso si no se observa nada al respecto también se tendrá un resultado que también puede ayudar a encontrar nuevas teorías. Otras aproximaciones a teorías cuánticas de la gravedad predicen otros resultados en este tipo de experimento.
El equipo de Graig Hogan (de la Universidad de Chicago y director Fermilab Particle
Astrophysics Center) también trabaja en este mismo campo de tratar de desvelar la estructura del esapcio-tiempo. Para ello también trabaja en un sistema interferométrico que la revele. Hogan y su equipo ya están construyendo su “holómetro”, un interferómetro en forma de L con brazos de 40 metros. La ventaja de este sistema frente a LIGO (para la detección de ondas gravitatorias y basado en la misma tecnología) es que sería menos susceptible a problemas de vibraciones y ruidos parásitos al trabajar a frecuencias más altas.
No sabemos si estos experimentos tendrán éxito, pero si lo tuvieran sería fantástico. Por primera vez habría una pequeña luz experimental en la oscuridad teórica de la gravedad cuántica.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3778
Fuentes y referencias:
Nota de prensa.
Artículo original.
Artículo en ArXiv de G. Hogan.
Aplicación para ver las escalas de la realidad.
Ilustración de cabecera: Jonas Schmöle, VCQ, University of Vienna.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

martes, 20 de marzo de 2012

El “grafeno molecular” y la aparición de campos “pseudomagnéticos” sobre fermiones de Dirac

Fuente: Francis (th)E mule

Este vídeo muestra la síntesis molécula a molécula de un nuevo material llamado “grafeno molecular” utilizando un microscopio de efecto túnel. Estos análogos al grafeno se fabrican manipulando moléculas individuales de monóxido de carbono, CO, que son colocadas sobre un substrato de cobre, Cu(111). Estos materiales tienen algunas propiedades semejantes al grafeno, como la propagación de fermiones de Dirac sin masa, pero con la ventaja adicional que presentan grados de libertad que permiten controlar algunas de estas propiedades (lo que es imposible con el grafeno). ¿Para qué se pueden utilizar estos “grafenos exóticos”? Se supone que acabarán teniendo múltiples aplicaciones tecnológicas (si algún día se logran fabricar de forma eficiente), pero en la actualidad su interés es básico, permitir simular ciertos procesos físicos, como transiciones de fase topológicas o la adquisición de masa por parte de fermiones de Dirac. El artículo técnico es Kenjiro K. Gomes, Warren Mar, Wonhee Ko, Francisco Guinea & Hari C. Manoharan, ”Designer Dirac fermions and topological phases in molecular graphene,” Nature 483: 306-310, 15 March 2012. Nos cuenta su importancia Jonathan Simon, Markus Greiner, “Condensed-matter physics: A duo of graphene mimics,” Nature 483: 282–284, 15 March 2012, que también se hacen eco del artículo de Leticia Tarruell, Daniel Greif, Thomas Uehlinger, Gregor Jotzu, Tilman Esslinger, “Creating, moving and merging Dirac points with a Fermi gas in a tunable honeycomb lattice,” Nature 483: 302–305, 15 March 2012. Me gusta más el artículo de Gomes et al. porque presenta ilustraciones mucho más atractivas.
El grafeno es un material plano formado por una sola capa de átomos organizados en forma de panal de abeja. Los “grafenos moleculares” permiten imitar esta estructura con la posibilidad de introducir defectos, variaciones de la estructura reticular del material. El interés básico de los análogos exóticos al grafeno está en el estudio del comportamiento de una partícula obligada a moverse en una estructura con forma de panal de abeja. Estas partículas se comportan como fermiones de Dirac sin masa y viajan a la velocidad de la luz. Su estudio se había centrado hasta ahora en el grafeno, pero los “grafenos moleculares” permiten controlar ciertos grados de libertad y estudiar transiciones de fase en las que estos fermiones de Dirac adquieren masa. Estos materiales son análogos físicos de ciertas roturas espontáneas de la simetría y permiten estudiar en el laboratorio fenómenos que de otra forma solo podrían ser estudiados mediante modelos teóricos o computacionales.
Gomes y sus colegas han estudiado la transición de un “grafeno molecular” a una disposición periódica que se conoce como estructura de Kekulé; en esta transición los fermiones de Dirac sin masa adquieren masa. La teoría predice que esta transición debería ir acompañada de la aparición de un campo gauge; estos físicos han observado que los fermiones tras adquirir masa se comportan como si estuvieran en un campo magnético. La aparición y desaparición de un campo magnético “aparente” (que los autores llaman “campo pseudomagnético”) tiene una ventaja importante. El campo “pseudomagnético” se puede intensificar hasta alcanzar valores tan enormes como 60 T (teslas); si este campo magnético fuera real el material no sería capaz de soportarlo, sin embargo, al ser un campo “pseudomagnéitco” permite estudiar el comportamiento de fermiones de Dirac bajo estas condiciones tan extremas.
El estudio del “grafeno molecular” dará lugar a aplicaciones tecnológicas, pero para mí lo más interesante es que permite un control sobre los fermiones de Dirac en el “grafeno” que permitirá el estudio experimental de fenómenos que hasta ahora solo se podían estudiar de forma teórica.

Juguetes de ciencia hechos con basura.

Esta es una interesante página web donde se nos muestra una enorme lista de experimentos/juguetes para hacer con materiales reciclados.

viernes, 16 de marzo de 2012

Crean un material que imita las propiedades exóticas del grafeno

Fuente: Biblioteca Rocasolano

Un equipo de investigadores, en el que ha participado el científico del Consejo Superior de Investigaciones Científicas (CSIC), Francisco Guinea, ha conseguido fabricar un material que imita las propiedades exóticas del grafeno. Este “grafeno artificial”, que se ha desarrollado colocando y moviendo moléculas de óxido de carbono sobre una superficie de cobre, podría tener aplicaciones en campos tan diversos como la electrónica o la aeronáutica.




Un equipo de investigadores, en el que ha participado el científico del Consejo Superior de Investigaciones Científicas (CSIC), Francisco Guinea, ha conseguido fabricar un material que imita las propiedades exóticas del grafeno.

El trabajo, que aparece publicado en el último número de la revista Nature, abre la vía para sintetizar a gran escala materiales con propiedades cualitativamente similares al grafeno y disponer de nuevos dispositivos a medida.

El grafeno, a caballo entre un metal y un semiconductor, es bidimensional y se caracteriza por tener una sola capa de átomos de carbono colocados en una red hexagonal; es transparente, impermeable, duro y elástico y tiene ciertas deformaciones que dan lugar a campos magnéticos muy elevados. Cuando los premios Nobel de Física 2010 Andre Geim y Konstantin Novoselov, de la Universidad de Manchester, consiguieron aislar este material hace ocho años, abrieron también las puertas al conocimiento de estas propiedades únicas.

“Los electrones del grafeno se comportan como partículas elementales de masa cero, es decir, se mueven a velocidades cercanas a la de la luz. Además, las deformaciones de la red cristalina producen efectos similares a los de un campo magnético, pero mucho mayor que los que se pueden obtener en un laboratorio en la Tierra”, destaca Guinea, investigador en el Instituto de Ciencias de Materiales de Madrid (CSIC) y Premio Nacional de Investigación 2011 en Ciencias Físicas. 

Un posible sustituto

Estas particularidades se han reproducido ahora colocando moléculas de óxido de carbono (CO) “en posiciones adecuadas” sobre una superficie de cobre. Sirviéndose de un microscopio de barrido electrónico, los científicos lograron “empujar” estas moléculas. La propagación de los electrones a lo largo de la superficie de cobre se vio modificada por las moléculas, lo que dio como resultado propiedades cualitativamente similares a las del grafeno.

Científicos como Guinea, que llevan años trabajando con este material, creen que las aplicaciones ‐en campos tan diversos como la electrónica, la telefonía móvil, la aeronáutica o los procesadores de hidrocarburos‐ no se harán esperar. El principal problema es que aún no es posible disponer de cantidades suficientes para su fabricación a gran escala.

Según el investigador del CSIC, el método de fabricación descrito en este trabajo supone un paso más en la futura obtención de materiales con propiedades similares al grafeno, pero amplificadas o modificadas.

“Nuestro método nos ha permitido conseguir todo tipo de deformaciones y campos pseudomagnéticos. Además, hemos logrado un grado de control de estas propiedades que en el grafeno es muy difícil obtener”, agrega Guinea.

La fabricación y la posterior caracterización del nuevo material se han realizado en la Universidad de Stanford, en California (Estados Unidos). Los resultados han sido comparados con modelos teóricos desarrollados en el Instituto de Ciencia de Materiales de Madrid (CSIC).  


jueves, 15 de marzo de 2012

¿Por qué la constante cosmológica está tan mal calculada?

Fuente: Neofronteras

Usando una analogía que emplea los condensados de Bose-Einstein un grupo de físicos señala por qué el cálculo de la constante cosmológica a partir de la energía del vació es la peor predicción de la Física.
Foto
La Teoría Cuántica de Campos predice que el vacío, es decir, el espacio-tiempo despojado de cualquier materia y energía contiene fluctuaciones cuánticas, partículas que aparecen de la nada sólo durante el tiempo permitido por el principio de incertidumbre de Heisenberg. Estas fluctuaciones del vacío, sin embargo, tienen un efecto sobre las partículas reales. Así por ejemplo, afectan a los electrones de los átomos y sus transiciones.
Los electrones sufren transiciones cuando emiten o absorben energía que quedan reflejados en los espectros. Pero la espectroscopia es tan precisa que cualquier influencia sobre los electrones se hace visible, incluso cuando sólo se trata de fluctuaciones del vacío. De este modo, si medimos espectros con mucha precisión llegamos a la conclusión de que efectivamente hay fluctuaciones del vacío que afectan el comportamiento de los electrones en la misma medida que es predicha por la teoría. La precisión entre lo medido y lo predicho es inaudita: de una parte en mil millones o mejor. Esto constituye uno de los grandes logros de Física Moderna.
Pero la Teoría Cuántica de Campos también ostenta lo que probablemente es el mayor fracaso de la Física Moderna: la determinación de la constante cosmológica a partir de la energía del vacío.
Esas fluctuaciones tienen que tener una contribución de la energía total del vacío, del espacio-tiempo en sí. Esta energía del vacío daría lugar a un equivalente de la constante cosmológica. Si se usa la Teoría Cuántica de Campos para calcular esta energía del vacío se obtiene un valor para la constante cosmológica que es enorme. Pero, por otro lado, si se mide la constante cosmológica se observa que si existe es muy pequeña.
La diferencia entre lo predicho y lo medido es enorme. El valor teórico no es que sea 10, 100 o 1000 veces más grande que el valor real, es que es 120 órdenes de magnitud mayo (sí, un 1 seguido de 120 ceros). Si existiera tal constante cosmológica nunca se hubieran formado ni galaxia, ni estrellas, ni planetas, ni humanos, ni átomos. Todo se hubiera expandido a un ritmo endiablado al poco de darse el Big Bang. Este problema trae de cabeza a los físicos teóricos desde hace décadas y no se ha encontrado solución al mismo.
Ahora Stefano Finazzi (Universidad de Trento) y Lorenzo Sindoni (Instituto Albert Einstein) apuntan a una posible razón por la cual se obtiene tan descomunal resultado teórico. No es una solución definitiva al problema, pero permite tener esperanzas sobre su solución en algún momento y de paso nos da una excusa para hablar de estos temas.
Una cosa es plantear unas ecuaciones y otra es resolverlas. Los físicos acostumbran a utilizar aproximaciones (el famoso chiste del burro esférico ilustra bien esto) porque muchas veces no hay nadie capaz de resolver el problema tal cual. O bien se tienen las ecuaciones y no se sabe resolverlas o bien ni siquiera se pueden obtener éstas a no ser que se simplifique el modelo. A veces incluso no tenemos una teoría que permita crear un modelo matemático ni obtener las ecuaciones, un buen ejemplo de esto son los campos gravitatorios extremos (Big-Bang, agujeros negros, etc.) o el espacio-tiempo a la escala de Planck, situaciones para las cuales sólo tenemos malos candidatos a teoría cuántica de la gravedad.
Para poder calcular la energía del vacío normalmente se usa una teoría de campo efectiva semiclásica y de ahí viene el error, según estos físicos. El problema es que habría que tener una teoría cuántica de la gravedad completa para poder realizar el cálculo con garantías. Pero, como todos sabemos, no disponemos de tal teoría.
Estos autores usan una analogía para poder explicar el fenómeno: el condensado de Bose-Einstein. Un condensado de Bose-Einstein no tiene casi nada que ver con este problema, pero su formulación matemática puede ser muy similar (en concreto se trata del estudio de la evolución de la parte acústica de la métrica en el condensado). Entonces, este estudio del condensado puede ser descrito usando una ecuación de tipo Poisson para un campo gravitacional no relativistas, que tiene una dinámica análoga a la gravedad newtoniana. Este modelo contiene un término que contribuye al estado fundamental que es análogo a una constante cosmológica. Se trata en concreto de la fracción de partículas del condensado que inevitablemente ocupan estados excitados.
Por otro lado, la manera correcta de describir este tipo de condensados es usar las ecuaciones cuánticas apropiadas, modelo que sí se sabe resolver con precisión.
Pues bien, si se usa la aproximación de una teoría de campo efectiva semiclásica, que es la que se usa habitualmente en el caso de la energía del vacío habitual, para calcular el equivalente a la constante cosmológica en el caso del condensado de Bose-Einstein (para calcular esa fracción de partículas en estados excitados) se observa una gran discrepancia con el valor obtenido de la formulación habitual empleada en el cálculo de condensados, que es mucho menor, tal y como es en la realidad. Digamos que usar esa aproximación produce un error muy grande, dando un valor muy superior al real, tal y como sucede con la constante cosmológica.
El cálculo de la constante cosmológica basado en la energía del vacío daría un mal resultado, según estos físicos, debido a que se usan trucos basados en una teoría de campo efectiva semiclásica. Este tipo de cálculo sería simplemente demasiado ingenuo como para proporcionar un valor cercano al real.
El problema se solucionaría si se tuviese una teoría cuántica de la gravedad. Estos investigadores creen que este trabajo puede guiar en la selección dicha teoría cuántica de la gravedad.
Las implicaciones del trabajo incluyen la idea de que quizás no sea apropiado describir la constante cosmológica como una energía del vacío tal cual, ni que se debe a que la energía gravita, pues incluso la propia energía podría ser una propiedad emergente al igual que la propia constante cosmológica.
En lugar de ello dicha constante podría aparecer de cómo describe el espacio-tiempo una posible teoría cuántica de la gravedad. Esta teoría debería describir el propio espacio-tiempo a nivel más fundamental y microscópico. Esta “pre-geometría” a escala de Planck daría lugar a la Relatividad General en el límite clásico (algo sobre lo que se ha especulado desde siempre) y las ecuaciones de Einstein se derivarían a partir de ese sistema microscópico. En una teoría pre-geométrica de este tipo la gravedad sería un fenómeno “colectivo”.
Liberati especula que la aceleración de la expansión del Universo no tendría por qué deberse a la energía oscura, sino que se daría simplemente con un espacio relleno de materia ordinaria. La dinámica gravitacional que emergiera de una teoría cuántica de gravedad microscópica podría explicar la aparición de esa constante cosmológica. La constante cosmológica sería una propiedad emergente del propio espacio-tiempo.
El modelo quizás pueda ayudar a cambiar de modo de pensar acerca de la constante cosmológica. Se ha especulado en años recientes con la idea de que el espacio es alguna forma de condensado y que el espacio-tiempo es el resultado final de una transición de fase de una miríada de constituyentes microscópicos (supuestamente a la escala de Planck) que serían algo así como “átomos” de espacio. Así por ejemplo, unos resultados rudimentarios de la Teoría Cuántica de Lazos indicaban que las singularidades no se darían porque habría el principio de exclusión de Pauli impediría a esos átomos de espacio ocupar todos el mismo estado (en este caso un comportamiento más bien fermiónico en lugar de bosónico).
Quizás trabajos como este, que usan conceptos como el condensado de Bose-Einstein, ayuden a determinar por donde hay que ir para encontrar una teoría cuántica de la gravedad. O no.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3768
Fuentes y referencias:
Artículo original.
Copia del artículo en ArXiv.
Ilustración: Argonnne National Laboratory

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

lunes, 12 de marzo de 2012

Manuel Fernández Ordóñez nos cuenta en detalle qué pasó en Fukushima hace un año

Fuente: Francis (th)E mule

He leído hoy el documento “Fukushima. Un año después,” de Manuel Fernández Ordóñez, que nos cuenta en detalle qué pasó en el reactor número 1 de Fukushima las primeras horas del accidente (y con menos detalle lo que pasó en las unidades 2, 3 y 4). No sé si lo que Manuel relata es correcto o no, pero por lo que yo he leído parece bastante fiable. Si te interesa saber qué pasó en Fukushima te recomiendo leer este documento. Para ir abriendo boca, permíteme extraer algunos detalles.

Visión esquemática del camino elegido para el venteo del reactor 1. Fuente: TEPCO.
Por lo que cuenta Manuel, el asunto clave fue el venteo (pág. 43). “Conviene aclarar que no existía un protocolo establecido para proceder al venteo de la contención en caso de pérdida total de electricidad, por eso el método de venteo tuvo que ser improvisado. (…) Listo el plan, únicamente quedaba notificarlo a las autoridades y esperar la confirmación de las mismas para llevarlo a cabo.”
Pero como nos cuenta en “Oiga, sin prisa. Total, sólo tenemos tres reactores fundiéndose” (pág. 46): “Con un esquema de venteo bajo el brazo, a la 01:30 de la madrugada del sábado 12 de marzo, los oficiales de TEPCO informan al Primer Ministro de Japón, al Ministro de Economía, Comercio e Industria y a la Agencia de Seguridad Nuclear de sus planes para proceder al venteo. El Gobierno informó a TEPCO que tenían programada una rueda de prensa para las 03:00 de la madrugada y que no se procediera al venteo antes de la rueda de prensa. Diga que sí, oiga, que no hay prisa. Ya nos sentamos aquí durante un par de horas a contemplar las bonitas estrellas.”
“Tras la orden de evacuación decretada por el Primer Ministro, las operaciones de venteo quedaban, de momento, paralizadas. A las 06:50 de la madrugada, el Ministro de Industria ordena que comiencen las operaciones de venteo, sin embargo, en la central recibieron noticias de que algunos residentes en la zona de evacuación aún no habían abandonado la misma. La operación de vento se volvía a posponer.” Como nos cuenta en la pág 47: “Por si no tuvieran bastante en la central, a las 07:11 llega a la misma el Primer Ministro de Japón. Hasta las 08:04 estuvo allí el buen hombre. Casi una hora haciendo que el director de la central y demás encargados del accidente se preocuparan de lo que no se tenían que preocupar. Está bastante claro que a lo único que fue allí es a hacerse la foto y a molestar.”
En el capítulo “¿Quién va a abrir la válvula?” (pág. 48) nos cuenta: ”A las 09:03 de la mañana del sábado 12 de marzo, la central recibe la confirmación de que ya no queda ningún residente en la zona de evacuación y se pone en marcha la operación para ventear, por fin, el reactor 1. (…) Para lo operación se juntaron tres equipos de dos hombres cada uno. El primer equipo consigue abrir la válvula motorizada MO-210 tras recibir 25 mSv. (…) Inmediatamente después sale el segundo equipo para tratar de abrir la válvula AO-90. (…) La operación era imposible, a los pocos instantes de entrar en la sala de la cámara de supresión tuvieron que dar la vuelta por las altas tasas de dosis en su interior. En el corto tiempo que estuvieron allí, uno de los operadores recibió 106 mSv, excediendo el límite de 100 mSv establecido en la legislación. Cuando los hombres volvieron a la sala de control, los superiores decidieron no enviar al tercer equipo por la imposibilidad de completar la misión con éxito. Necesitaban un plan B.”

Fotograma del momento de la explosión de hidrógeno que tuvo lugar en al unidad 1. Fuente: NHK.
“El nuevo plan consistía en abrir, de forma remota, la válvula AO-72. (…) A las 14:00 (casi 24 horas después del terremoto) el compresor estaba instalado y funcionando. Media hora después, ¡se estaba venteando, por fin! (…) A las 14:53 de la tarde, el tanque desde el que estaban inyectando el agua en el reactor se vació. La dirección de la central ordenó entonces que comenzara la inyección de agua del mar para refrigerar el reactor, así estarían varias semanas. (…) Sin que se conozcan aún los motivos exactos, una cantidad apreciable de hidrógeno comenzó a acumularse en la parte superior del edificio del reactor número 1. Hay varias hipótesis. (…) A las 15:36 de la tarde del sábado, 12 de marzo, el mundo entero pudo ver en sus televisores la explosión que tuvo lugar en el edificio del reactor 1.”

Fotograma de una de las cámaras web que TEPCO tiene instaladas en la central nuclear. Fuente: TEPCO.
En la página 54 leemos: ”La explosión no causó, únicamente, una liberación del material radiactivo que se había acumulado en el interior del edificio del reactor, sino que ocasionó otros muchos daños. (…) Todos los esfuerzos que se habían hecho para inyectar agua en los reactores se habían perdido a causa de la explosión. Había que empezar de nuevo. (…) A las 18:25 de la tarde del sábado 12 de marzo el Primer Ministro japonés ordenó la evacuación de toda la población en un radio de 20 km alrededor de la central nuclear de Fukushima. (…) Poco después, los trabajadores consiguieron recuperar la inyección de agua del mar en el reactor 1 y siguieron con este procedimiento durante varios días. No fue hasta el día 20 de marzo, 9 días después del terremoto, cuando fueron capaces de recuperar la electricidad del exterior de la central nuclear.”
En “Aún faltaba el reactor 4″ (pág. 60) nos cuenta: “La primera explosión de hidrógeno tuvo lugar en el edificio del reactor 1 a las 15:36 del sábado 12 de marzo. La siguiente explosión, también de hidrógeno, tuvo lugar en el edificio del reactor 3 el lunes 14 de marzo a las 11:01 de la mañana. Unas cuantas horas después, el martes 15 de marzo a las 06:00 de la madrugada algo aún indeterminado sucedió en la zona de la cámara de supresión del reactor 2. Pero, aproximadamente a la misma hora, una nueva e inexplicable explosión de hidrógeno tenía lugar en el reactor 4.”
“Pero, ¿este reactor no estaba parado y sin combustible desde noviembre de 2010? Efectivamente así era. (…) Hoy sabemos que la explosión tuvo lugar debido a una acumulación de hidrógeno procedente de los venteos del reactor 3. Los reactores de Fukushima compartían ciertas instalaciones. Así, además del edificio de turbinas, los reactores 3 y 4 compartían la chimenea de venteo de gases. Debido a la pérdida de electricidad, ciertas válvulas quedaron enclavadas en determinadas posiciones, dejando un camino abierto que comunicaba el edificio del reactor 3 con el 4. De este modo, cuando se procedió a los venteos del reactor 3, parte de los gases de venteo alcanzaron el reactor 4, acumulándose en la parte superior del edificio. Con esos gases iba, por supuesto, hidrógeno producido en la oxidación del combustible del reactor 3.”
El resto ya lo conocen.”
Más información reciente en español en: Vicente Torres, “Video endoscópico de un reactor nuclear muy contaminado de Fukushima: 1/19/2012,” Amazings, 25 Ene. 2012; Colaborador invitado (edición de Francis), “Las barbaridades que se han dicho sobre Fukushima,” Amazings, 30 Ene. 2012; Colaborador invitado (edición de Francis), “El estado actual de Fukushima,” Amazings, 31 Ene. 2012.
Más información en español de hace un año en: ”Amazings contra la desinformación nuclear,” Amazings, 13 Mar. 2011; Arturo Quirantes, “Conociendo cómo funciona un reactor nuclear,” Amazings, 14 Mar. 2011; Operador, “Carta de un jefe de sala de control de una central nuclear española,” Amazings, 21 Mar. 2011.
Más información en este blog: “Se cumplen 6 meses del desastre nuclear de Fukushima Daiichi,” 11 septiembre 2011; “La radiactividad y los niños en los colegios de la ciudad de Fukushima,” 19 mayo 2011; “Un mapa que presenta los riesgos para la población de la radiactividad alrededor de Fukushima Daiichi,” 25 abril 2011; “Vídeo de Nature sobre la emergencia nuclear de Fukushima,” 21 abril 2011; “¿Ya se dicho todo sobre la central nuclear de Fukushima?,” 13 marzo 2011.

Sobre la interpretación del principio de Heisenberg

Fuente: Neofronteras

Un experimento permite distinguir entre dos interpretaciones distintas del principio de incertidumbre de Heisenberg.
Foto
Una de los principios más misteriosos e interesantes de la Mecánica Cuántica es el principio de incertidumbre (o indeterminación) de Heisenberg. Nos dice que hay límites a lo que podemos conocer sobre los sistemas cuánticos.
Así por ejemplo, si nos fijamos en la versión que relaciona la cantidad de movimiento (o momento) de una partícula y su posición nos dice que cuanto mejor conozcamos la posición de una partícula peor conoceremos su cantidad de movimiento (el producto de su masa y velocidad o momento) y viceversa. Estas dos cantidades conjugadas (posición y momento) no son las únicas, así por ejemplo, el tiempo y la energía también tienen su propia relación de incertidumbre. Se pueden buscar otras cantidades conjugadas que sufran de lo mismo.
Se considera a Heisenberg el padre de la Mecánica Cuántica (MC). Cuando introdujo su famoso principio en 1927 imaginó en un experimento mental a un electrón que es observado con un microscopio basado en fotones de rayos gamma. De este modo cuando se quisiera medir la posición del mismo con un error ε(q) se podía alterar su momento en una cantidad η(p) que estarían regulados por la relación ε(q)η(p) ≥ h/4 π (siendo h la constante de Plank). Digamos que la medida altera el estado del sistema de tal modo que no podemos saber ciertas cantidades simultáneamente mejor de lo que nos dice esa relación. Esta relación tendría en cuanta el error en la medición.
Ese mismo año, Earle Kennard, propuso otra relación de incertidumbre muy similar en la forma, pero conceptualmente distinta. En esta formulación el principio de incertidumbre dice que σ(q)σ(p) ≥ h/4π. En este caso viene a decir que las fluctuaciones cuánticas de la posición y del momento no se pueden suprimir simultáneamente por debajo de cierto límite. Si reducimos las fluctuaciones en uno las aumentamos en el otro. Esto expresaría un concepto más estadístico y universal en el que se tendría en cuanta la dispersión (a través de la desviación típica).
Aunque desde entonces algunos han creído que ambas formulaciones son básicamente la misma y que ambas describen el mismo fenómeno, en realidad no es así. Como se puede observar, la ecuación es prácticamente la misma, pero conceptualmente son muy distintas. En el primer caso parece tratarse de una torpeza nuestra a la hora de medir y en la segunda a algo intrínseco al sistema. Los físicos usan la formulación de Kennard en la actualidad.
Este tipo de situaciones en las que hay varias interpretaciones son habituales en MC y no suelen solucionarse debido a que es muy difícil diseñar un experimento que las distinga. Pues bien, unos físicos de las universidades de Viena y Tokio dirigidos por Yuji Hasegawa han realizado un experimento con neutrones que permite distinguir entre estos dos casos. En lugar de medir la relación posición-momento han medido dos componentes ortogonales del estado de polarización del spin de los neutrones de un haz (algo equivalente bajo del principio de incertidumbre que mide otras dos cantidades conjugadas). La conclusión es que la interpretación de Heisenberg es incorrecta y que la correcta es la de Kennard, que es la que se viene usando en la Física moderna desde hace mucho tiempo.
En el experimento se preparó un haz de neutrones en el que se midió dos componentes spin simultáneamente en clara violación del principio de incertidumbre según la interpretación original. La otra interpretación se mantuvo. El resultado, de haber sido el contrario, hubiera sacudido los cimientos de la Mecánica Cuántica moderna.
Este resultado se ha conseguido gracias a que en 2003 Masanao Ozawa (Universidad de Nagoya) llegó a una expresión del principio que permitía describir tanto el error como las fluctuaciones: ε(q) η(p) + σ(q)η(p) + σ(p)ε(q) ≥ h/4π.
En el experimento se pudo precisamente distinguir entre errores en la medida y fluctuaciones. Algo sorprendente cuando muchos físicos habían pensado que la única manera de reducir los errores es suprimiendo las fluctuaciones. Pero la desigualdad de Ozawa sugiere que hay otra manera de reducir errores al permitir al sistema tener grandes fluctuaciones, aunque suene contradictorio.
Pero en el mundo real el error en la medida siempre está ahí, sumándose a las fluctuaciones, así que desde el punto de vista experimental y práctico la formulación de Ozawa resulta útil al tener en cuenta tanto fluctuaciones como errores en la medida y su alteración provocada por el acto de medida.
Cuando se divulga la MC se suele expresar la idea ingenua de que la relación de incertidumbre surge porque la medida experimental de una cantidad X da al traste con la medida de la cantidad complementaria Y. Este experimento ayudar a eliminar esa idea.
No es que seamos torpes a la hora de medir cantidades conjugadas, es que por muy bien que lo hagamos es imposible medirlas con precisión debido a sus fluctuaciones inherentes. Sí, la MC es tan rara como siempre se ha creído, incluso más de lo que cree la gente común.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3765
Fuentes y referencias:
Noticia en Physicsworld.
Noticia en Scientific American.
Artículo original.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

Demuestran experimentalmente el límite de Landauer

Fuente: Neofronteras

Demuestran experimentalmente que hay una cantidad mínima de calor disipado en el borrado de información.
Foto
Ilustración: Peter MacDonald.
Maxwell planteó un experimento mental que de realizarse violaba el segundo principio de la termodinámica, al menos a primera vista. Según este principio los sistemas termodinámicos cerrados ganan entropía con el paso del tiempo, el calor pasa de los cuerpos calientes a los fríos espontáneamente y no al revés o, en lenguaje llano, los frigoríficos dejan de funcionar cuando se les desenchufa.
Si tenemos dos recipientes con gas conectados por un tubo con espina y uno se encuentra a mayor temperatura que el otro, el segundo principio de la termodinámica dice que si los conectamos (abrimos la espita) al cabo de un tiempo el sistema termalizarán y ambos recipientes contendrán gas a la misma temperatura. Llegado a ese punto el sistema permanecerá en ese estado para siempre, a no ser que haya alguna influencia externa.
Pero la temperatura de un gas no es más que el movimiento de las partículas (moléculas) que lo componen, a mayor temperatura mayor velocidad media tienen esas partículas, aunque haya unas que se muevan más rápido que otras.
En el experimento mental de Maxwell tenemos esos dos recipientes con gas a la misma temperatura y una espita microscópica intervenida por un diablillo que es capaz de controlar el paso de una sola de esas moléculas. El diablillo observa el sistema y prioriza el paso de moléculas con alta velocidad de un lado a otro (pongamos que de izquierda a derecha) y el paso de moléculas lentas en sentido contrario. Al cabo de un tiempo se tendrá que el recipiente de la derecha ha ganado temperatura respecto al de la izquierda, violándose, al menos aparentemente, el segundo principio de la Termodinámica. Esto permitiría cosas como obtener energía gratis de la nada.
No fue hasta que se vio el papel de la Teoría de la Información en el proceso cuando se pudo resolver esta aparente paradoja. En realidad no se viola el segundo principio de la termodinámica porque se necesita la medida de la velocidad de las moléculas y memorizar ese dato antes de tomar la decisión. Es la información en sí misma la que parece ser el medio a través de la cual se transfiere la energía. En 1961 Rolf Landauer propuso que la clave está en la memoria del diablillo, que no puede ser infinita. El borrado de la información de su memoria disiparía el calor necesario para reestablecer el segundo principio. Habría una mínima cantidad de calor, que sería proporcional a la energía térmica y que se denomina límite de Landauer, que necesariamente habría de disiparse cuando un bit de información se borra. La consecuencia lógica de esto es que, debido a esta transformación irreversible, la entropía crece un poco. No todo el mundo estuvo de acuerdo en su día con esta explicación.
No deja de tener cierto valor filosófico esto de que el olvidar algo haga crecer la entropía del Universo, pero además tiene una importancia fundamental en ciencias de la computación. Sin embargo, hasta ahora no se había comprobado experimentalmente, debido a la intrínseca dificultad de realizar experimentos en los que se manipule partículas una a una en un régimen de baja disipación.
Ahora un grupo de físicos dirigidos por Eric Lutz (Universidad de Augsburgo, Alemania) ha conseguido demostrar experimentalmente la existencia del límite de Landauer en un modelo genérico de 1 bit de memoria. Para ello han usado una única partícula coloidal de vidrio atrapada en un pozo de potencial doble creado por un haz láser. Es decir, el haz láser crea dos posiciones estables para la bolita, que se corresponden al 0 y al 1 de un bit de información. Estos investigadores han mostrado que si la bolita está en el estado 1 y se desea borrar esa información para recuperar el estado 0 entonces se genera una cantidad de calor que está siempre por encima del límite de Landauer.
El experimento demuestra la relación íntima que hay entre la teoría de la información y la termodinámica, además de iluminar los límites físicos últimos de la computación, incluso en la industria de fabricación microchips.
Uno de los grandes problemas que tienen los microchips es que disipan mucho calor. Cuantos más componentes metemos en ellos más calor se genera. Esto se debe principalmente a que los componentes muestran una resistencia al paso de la corriente que hace que se disipe calor (y se pierda energía). Sin embargo, todavía se está 1000 veces por encima del límite de Landauer. En 20 o 30 años la tecnología basada en silicio podría estar muy cerca de ese límite. Esa hipotética tecnología sería tan perfecta que el procesado y movimiento de información casi no consumiría energía ni disiparía calor. Esto sólo se produciría cuando se borrase información según el límite de Landauer.
Hipotéticamente un diablillo de Maxwell de memoria infinita no necesitaría consumir energía ni disipar calor para poder procesar información y podría violar el segundo principio de la Termodinámica. Pero no tendría la posibilidad de olvidar.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3764
Fuentes y referencias:
Artículo original
Realización física del diablillo de Maxwell.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

jueves, 8 de marzo de 2012

Flan de Chocolate

Fuente: ForoXD






Ingredientes



  • 3/4 taza de azúcar granulado
  • 1 lata (14 onzas) de Alimento Lácteo Condensado Azucarado LA LECHERA de NESTLÉ 50% Menos Azúcar
  • 5 huevos grandes
  • 1 lata (12 onzas líquidas) de leche evaporada baja en grasa NESTLÉ CARNATION Evaporated Lowfat 2% Milk
  • 1/2 taza de Syrup de Sabor Chocolate NESTLÉ NESQUIK




Instrucciones de preparación







  • PRECALIENTA el horno a 350° F.
  • CALIENTA el azúcar en una cacerola pequeña muy resistente sobre fuego medio-bajo. Mezcla el azúcar constantemente, de 3 a 4 minutos o hasta que se disuelva y adquiera el color de cajeta. Vierte el azúcar en el fondo de una flanera profunda de 9 pulgadas de diámetro y rápidamente distribúyelo en el fondo y en los lados para recubrirlos.
  • COMBINA LA LECHERA y los huevos en un recipiente grande y bátelos bien hasta que se combinen. Agrega la leche evaporada y Nesquik y mézclalos bien. Vierte la mezcla en el molde preparado; cúbrelo ligeramente con papel de aluminio. Coloca el molde en una bandeja a Baño María con agua caliente a una pulgada de profundidad.
  • HORNEA durante 1 hora o hasta que al insertar un cuchillo en el centro salga limpio. Retira el flan del agua. Déjalo enfriar sobre una rajilla de metal. Refrigéralo durante 4 horas o durante la noche.
  • PARA SERVIR, pasa una pequeña espátula alrededor del borde de la flanera. Inviértela sobre un platón. Voltéala; sacúdela un poco para que se suelte.

martes, 6 de marzo de 2012

Ars Fatalis/Ars Libertatis (Vídeo)

Con instrucciones de cómo instalarlo en Ubuntu aquí (en inglés).

Los leptoquarks y los teóricos que acabarán en el pozo del olvido

Fuente: Francis (th)E mule

Los quarks y los leptones se agrupan en tres familias (o generaciones) cada una formada por un par de quarks y un par de leptones; cada generación es una réplica de la anterior. Los leptoquarks son partículas hipotéticas que permiten transformar, dentro de una misma familia, los quarks en leptones y los leptones en quarks; de existir, tendría que haber tres generaciones de leptoquarks. El gran problema de las teorías de (gran) unificación que introducen leptoquarks es que predicen la desintegración del protón. Los límites experimentales dependen del tipo de desintegración estudiado; la vida media es mayor de 13×10³³ años para la desintegración de un protón en un pión y un electrón, mayor de 11×10³³ años para la de un protón en un pión y un muón, y mayor de 4×10³³ años para la de un protón en un kaón y un neutrino. Estos límites indican que la masa de un leptoquark debe ser mayor de 10¹² GeV, un billón de GeV es una masa miles de millones de veces mayor que la que se puede estudiar en el LHC; los límites actuales indican que los leptoquarks tienen masa superior a 350 GeV según CMS y mayor de 422 GeV según ATLAS; en Moriond la próxima semana se podrían publicar actualizaciones de estos números, pero no creo que superen unos 660 GeV. Estos números están extraídos de la charla de Ilja Doršner, “Light Colored Scalars as Messengers of UpQuark, Down-Quark and Charged Lepton Flavor Dynamics in Grand Unified Theories,” La Thuile, March 2nd, 2012. No son mucho mejores que los conocidos hace un par de años, Francis, ”Nuevos límites experimentales a la masa de los leptoquarks,” 3 julio 2010.
¿Por qué se buscan los leptoquarks en el LHC si no hay ninguna posibilidad de que se puedan detectar en los próximos 20 años? Los teóricos amantes de la idea de los leptoquarks buscan variantes de las teorías de gran unificación que prohíban que el protón se desintegre, eliminando el límite inferior para la masa de los leptoquarks y permitiendo que tengan una masa alcanzable en el LHC. Por ejemplo, en la teoría GUT basada en SU(5), descartada por la mayoría de los teóricos, hay 18 maneras en las que puede desintegrarse un protón, si los neutrinos son partículas de Dirac (aunque hay solo 15 si son de Majorana). ¿Hay variantes de la GUT SU(5) que prohíban todas estas desintegraciones? ¿Qué predicciones realizan estas teorías? En su charla, Ilja Doršner nos habla de sus propias teorías, que según él podrían explicar el momento magnético anómalo del muón (el problema (g-2)mu) y la asimetría en las desintegraciones de pares de quarks top (la asimetría FB en la desintegración ttbar observada por CDF, pero en gran parte descartada por DZero y LHCb).
La ciencia es una navaja de Ockham de afilada hoja. Si se descubren los leptoquarks en el LHC, los pocos teóricos que trabajan en ellos en todo el mundo alcanzarán la gloria, cual héroes que han luchado contra los elementos (la desintegración del protón) y han vencido (con exóticos retruques técnicos que destruyen la belleza de la idea original). Si no se descubren los leptoquarks en el LHC, estos pocos teóricos acabarán olvidados como han acabado olvidados las decenas de miles de investigadores del s. XIX que no aparecen en los libros de texto de ninguna materia. Nadie sabe ni siquiera que existieron, ni siquiera sus tataranietos. Pero no debemos olvidar que la labor de muchos de ellos fue fundamental para remover la paja en el pajar donde los que hoy decoran los libros de texto encontraron la aguja que les llevó a la eternidad.
PS: La búsqueda de una cuarta generación de quarks y leptones (aunque se sabe que solo hay 3 neutrinos en los que se puede desintegrar el bosón Z), la búsqueda de estados excitados de quarks y leptones (que indicarían que son partículas compuestas) y la búsqueda de otros exotismos (microagujeros negros, dimensiones extra, …) forma parte íntegra de las búsquedas que se realizan de forma habitual en los experimentos del LHC (ver, por ejemplo, Dominique Fortin (On behalf of the ATLAS Collaboration), “Searches for Physics Beyond the Standard Model with the ATLAS Detector,” La Thuile, March 2nd, 2012; y Artur Apresyan (On behalf of the CMS Collaboration), “Searches for Physics Beyond SM at CMS,” La Thuile, March 2nd, 2012). Estas búsquedas alimentan la mente de los teóricos y sus escarceos en el borde del precipicio.
La búsqueda de señales a baja energía de la supersimetría también es parte integral de las búsquedas constantes que se realizan en los experimentos del LHC (ver, por ejemplo, Renaud Brunelière (On behalf of the ATLAS Collaboration), “Searches for Supersymmetry at ATLAS,” La Thuile, March 2nd, 2012; y Markus Stoye (On behalf of the CMS collaboration),”SUSY searches at CMS,” La Thuile, March 2nd, 2012). Yo tenía mucha ilusión en este tipo de búsquedas cuando empezaron a publicarse resultados del LHC, pero poco a poco me están empezando a aburrir. Un límite mínimo 100 GeV más arriba o más abajo me aporta poco insight. Lo apasionante, como todas las pasiones, muta conforme transcurre el tiempo. Ahora está empezando a gustarme más leer sobre búsquedas de Higgs exóticos (primos hermanos del Higgs del modelo estándar); ver, por ejemplo, Markus Warsinsky (on behalf of the ATLAS collaboration), “Search for BSM Higgs Bosons at ATLAS,” La Thuile, March 2nd, 2012. ¡Qué cosas! ¡Quién me lo hubiera dicho hace solo dos años!

lunes, 5 de marzo de 2012

Raspberry Pi

Raspberry Pi es una placa computadora (SBC) de bajo coste desarrollada en Reino Unido por la Fundación Raspberry Pi. Desde el 29 de Febrero de 2012.

viernes, 2 de marzo de 2012

Hacia la computación cuántica topológica gracias a los fermiones de Majorana

Fuente:Francis (th)E Mule


Leo Kouwenhoven y su nanohilo de InSb conectado a una fuente, un drenador y cinco puertas.
Lo que sube cae, lo que se excita decae. Un cubit ideal tiene que luchar contra la decoherencia cuántica, lo que es casi imposible si es una superposición cuántica de un estado fundamental y un estado excitado, pues dicho estado excitado tiende a decaer al fundamental. ¿Cómo evitarlo? Construyendo el cubit utilizando una superposición cuántica de dos estados fundamentales, lo que requiere un sistema cuántico cuyo estado fundamental esté degenerado. Igual que un topólogo no distingue entre la taza de café y el dónut, pues ambos tienen un solo agujero, la computación cuántica topológica propone implementar cubits utilizando sistemas cuyo estado fundamental está degenerado y presentan un invariante topológico con al menos dos estados discretos, los valores clásicos del cubit. En teoría el efecto de la decoherencia cuántica sobre estos cubits topológicos es despreciable, pues no puede alterar su invariante topológico, lo que permite que se comporten como cubits ideales durante un tiempo largo. ¿Pero cómo fabricar un cubit topológico ideal? Hay varias propuestas, pero la más prometedora es utilizar las propiedades de los fermiones de Majorana, que pueden formar parejas (que se comportan como fermiones de Dirac y tienen un invariante topológico natural). Muchos grupos de investigación en física del estado sólido están luchando en un carrera de obstáculos con objeto de ser los primeros en fabricar un sistema con estas características, con objeto de lograr el tan ansiado Premio Nobel de Física, como nos contaron Robert F. Service, “Search for Majorana Fermions Nearing Success at Last?,” Science 332: 193-195, 8 April 2011, y Barbara Goss Levi, “The expanding search for Majorana particles,” Physics Today 64: 20, March 2011. ¿Qué grupo será el vencedor de la carrera?
Leo Kouwenhoven (Instituto Kavli de Nanociencia, Delft, Holanda) ha afirmado el 28 de febrero que él es el ganador de la carrera, el primero en lograr observar fermiones de Majorana (en su caso en un nanohilo de antimoniuro de indio). Lo ha afirmado en una charla en la Reunión de Marzo de la APS (American Physical Society), en Boston, Massachusetts, y nos lo ha contado Eugenie Samuel Reich ,”Quest for quirky quantum particles may have struck gold. Evidence for elusive Majorana fermions raises possibilities for quantum computers,” Nature News, 28 February 2012 [Kanijo la ha traducido en "La búsqueda de unas extrañas partículas cuánticas puede haber encontrado oro," Ciencia Kanija, 29 feb. 2012]. Como todavía no se ha publicado el artículo técnico correspondiente (seguramente habrá sido enviado a Nature o Science y estará en proceso de revisión), aún no podemos asegurar que Kouwnhoven y su grupo hayan sido los ganadores. Pero los asistentes a su charla han quedado convencidos, como “Jay Sau, físico de la Universidad de Harvard en Cambridge, Massachusetts que dice que cree que es el experimento más prometedor hasta el momento y será difícil oponerse a que son fermiones de Majorana.”
¿Servirán los fermiones de Majorana de Delft para diseñar un cubit topológico? Por lo que parece en la charla de Kouwenhoven no se ha aclarado este punto y no se sabe si sus femiones de Majorana tendrán una vida media suficientemente larga como para poder fabricar con ellos cubits. Aún así, Reich califica de impresionante el logro del grupo de Delft de física del estado sólido. No quiero pecar de abogado del diablo, pero hasta que no se publique el artículo técnico y se conozcan los detalles, debemos ser cautos y pensar que quizás estemos, de nuevo, ante otra falsa alarma. Ya os contaré…

El motor warp puede tener un inconveniente letal

Fuente: Ciencia Kanija

Artículo publicado por Jason Major el 29 de febrero de 2012 en Universe Today
¿Planeando un viajecito espacial con algunos amigos a Kepler 22b? ¿Pensando en probar tu recién instalado Motor Warp de Alcubierre FTL3000 para llegar en un instante? Mejor que no hagas una visita sorpresa – tu llegada puede terminar desintegrando a cualquiera que haya allí cuando aparezcas.
La tecnología “warp” y el viaje espacial superlumínico han sido componentes básicos de la ciencia ficción desde hace décadas. Las distancias espaciales son tan vastas, y los sistemas planetarios – incluso dentro de la misma galaxia – están tan alejados, que se necesita de tal idea para hacer factible una exploración humana casual (y que encaje también con la comodidad que imagina la gente… ¡nadie quiere pensar en Kirk y Spock yendo osadamente a algún planeta alienígena mientras todos aquellos que conocieron mueren de viejos!

Velocidad warp © by Jaako

Aunque muchos de los factores que envuelven al viaje espacial son puramente teóricos – y muchos permanecerán en el dominio de la imaginación durante mucho tiempo, si no para siempre – existen algunas ideas que pueden funcionar bien con la física actualmente aceptada.
El motor warp de Alcubierre es una de esas ideas.
Propuesto por el físico teórico mexicano Miguel Alcubierre en 1994, el motor impulsaría una nave a velocidades superlumínicas creando una burbuja de energía negativa a su alrededor, expandiendo el espacio (y el tiempo) detrás de la nave mientras que los comprime delante de la misma. De la misma forma que un surfero cabalga sobre una ola, la burbuja de espacio que contiene a la nave y sus pasajeros se vería empujada hacia su destino a velocidades no limitadas por la velocidad de la luz.
Por supuesto, cuando la nave alcanza su destino, tiene que pararse. Y aquí es donde todo se va al traste.
Investigadores de la Universidad de Sídney han realizado algunos avances calculando los efectos del viaje espacial superlumínico mediante un motor de Alcubierre, teniendo en consideración los muchos tipos de partículas cósmicas que se encontrarían por el camino. El espacio no es sólo un gran vacío entre el punto A y el punto B… está lleno de partículas con masa (así como de otras sin masa). Lo que el equipo de investigación – liderado por Brendan McMonigal, Geraint Lewis, y Philip O’Byrne — ha encontrado es que estas partículas pueden ser “barridas” hacia la burbuja warp y centrarse en regiones por delante y detrás de la nave, así como dentro de la propia burbuja.
Cuando la nave con motor de Alcubierre frena desde una velocidad superlumínica, las partículas que ha recopilado la burbuja se liberan en un energético estallido. En el caso de las partículas delanteras, el estallido puede ser muy energético – suficiente para destruir a cualquiera que esté en el destino directamente frente a la nave.
“Cualquier persona que esté en el destino”, concluye el artículo del equipo, “sería arrasado por rayos gamma y partículas altamente energéticas debido al extremo desplazamiento al azul de las partículas de la región [delantera]“.
En otras palabras, no esperes una fiesta de bienvenida.
Otra cosa que encontró el equipo es que la cantidad de energía liberada depende de la longitud del viaje superlumínico, pero potencialmente no hay límite a su intensidad.
“Es interesante apuntar que, el estallido de energía liberado en la llegada al destino, no tiene un límite superior”, dice McMonigal a Universe Today en un correo electrónico. “Simplemente puedes seguir viajando distancias cada vez más grandes e incrementar la energía que se liberará tanto como quieras, uno de los extraños efectos de la Relatividad General. Por desgracia, incluso para viajes muy cortos, la energía liberada es tan grande que arrasarías por completo cualquier cosa que esté frente a ti”.
Entonces, ¿cómo evitar la desintegración de tu puerto de destino? Puede ser tan simple como orientar tu nave un poco hacia un lado… o puede que no. La investigación se centra sólo en el espacio plano delante y detrás de la burbuja warp; ¡los letales haces de partículas postwarp podrían terminar saliendo disparados en todas direcciones!
Por fortuna para los habitantes de Vulcano, Tatooine y cualquier conocido de Kepler 22b, el motor warp aún es teórico en gran parte. Aunque la mecánica funciona con la Teoría de la Relatividad General de Einstein, la creación de densidades de energía negativa es una tecnología aún desconocida – y puede que imposible.
Lo cual podría ser algo muy bueno para nosotros, ¡alguien podría estar planeando una visita sorpresa!
Lee más sobre motores warp de Alcubierre aquí, y puedes descargar el artículo de investigación de la Universidad de Sídney aquí.

Autor: Jason Major
Fecha Original: 29 de febrero de 2012
Enlace Original

jueves, 1 de marzo de 2012

La búsqueda de unas extrañas partículas cuánticas puede haber encontrado oro

Fuente: Ciencia Kanija

Artículo publicado por Eugene Samuel Reich el 28 de febrero de 2012 en Nature News
Las pruebas de los esquivos fermiones de Majorana generan posibilidades para los computadores cuánticos.
Entrar en la charla del pionero en nanociencia Leo Kouwenhoven, en la reunión de marzo de la Sociedad Física Americana en Boston, Massachusetts, era como tratar de subirse en un vagón de metro en hora punta. Los rumores en los pasillos eran que el grupo de Kouwenhoven, con sede en la Universidad Tecnológica de Delft en los Países Bajos, podrían haber vencido a varios equipos competidores de física del estado sólido – y a la comunidad de físicos de alta energía – en un objetivo buscado desde hace tiempo, la detección de fermiones de Majorana, unas misteriosas partículas mecánico-cuánticas que pueden tener aplicaciones en la computación cuántica.
Kouwenhoven no defraudó. “¿Hemos visto fermiones de Majorana? Diría que la respuesta es un sí prudente”, concluyó al final de una presentación repleta de datos.

Ettore Majorana

Las partículas cuánticas aparecen en dos clases: fermiones y bosones. Mientras que los bosones pueden ser sus propias antipartículas, lo que implica que pueden aniquilarse entre sí en un destello de energía, los fermiones normalmente tienen antipartículas distintas, por ejemplo, la antipartícula de un electrón es un positrón de carga positiva. Pero en 1937, el físico italiano Ettore Majorana adaptó las ecuaciones que había usado el inglés Paul Dirac para describir el comportamiento de fermiones y bosones, para predecir la existencia de un tipo de fermión que era su propia antipartícula. Con el paso de las décadas, los físicos de partículas han buscado los fermiones de Majorana en la naturaleza, y después de 2008, los físicos de materia condensada empezaron a pensar  en maneras en que podrían formarse a partir del comportamiento colectivo de los electrones en los materiales en estado sólido, específicamente, en superficies en contacto con superconductores en cables unidimensionales.
El experimento de Kouwenhoven se centra en las últimas líneas. En la configuración de su equipo, nanocables de antimoniuro de indio se conectan a un circuito con un contacto de oro en un extremo y una porción de superconductor en el otro, y se exponen a un campo magnético moderadamente alto. Las medidas de la conductancia eléctrica de los nanocables mostró un pico en el voltaje cero que es consistente con la formación de un par de partículas de Majorana, una en cada extremo de la región del nanocable en contacto con el superconductor. Como comprobación, el grupo varió la orientación del campo magnético y comprobó que el pico iba y venía como se esperaría de unos fermiones de Majorana.
Aunque otros grupos habían informado anteriormente de pruebas circunstanciales de la aparición de fermiones de Majorana en materiales sólidos, Jay Sau, físico de la Universidad de Harvard en Cambridge, Massachusetts que asistió a la charla de Kouwenhoven, dice que ésta es la primera medida directa. “Creo que es el experimento más prometedor hasta el momento”, dice. “Sería difícil defender que no son fermiones de Majorana”.
Se han propuesto múltiples esquemas en los que los fermiones de Majorana actúan como ‘bits’ en computadores cuánticos, aunque Sau advierte que no está aún claro si los creados por Kouwenhoven vivirán lo suficiente para usarse de este forma.
Si se mantienen los resultados del grupo de Delft, no sólo representaría un impresionante logro en la física del estado sólido, sino que lo hace por delante de otras aproximaciones para crear fermiones de Majorana. Por ejemplo, el neutralino, una hipotética partículas supersimétrica que podría tener en cuenta parte o toda la materia oscura del universo, se cree que es un fermión de Majorana. Algunos modelos sugieren que los neutralinos podrían producirse en el Gran Colisionador de Hadrones en el CERN, el laboratorio europeo de física de partículas cerca de Ginebra, en Suiza.

Artículo e Referencia: Nature doi:10.1038/nature.2012.10124.
Autor: Eugene Samuel Reich
Fecha Original: 28 de febrero de 2012
Enlace Original

Construyen un “micrófono cuántico”

Fuente: Neofronteras

Un dispositivo es capaz de detectar ondas de sonido con una amplitud mucho menor que el diámetro de un protón.
Foto
Ilustración del dispositivo. El tamaño de las ondas aparece exagerado en el dibujo. Fuente: Philip Krantz, Chalmers.
¿Cuál es el sonido más débil que se puede oír con la ayuda de algún dispositivo? ¿Y el más débil en producirse? El progreso tecnológico del ser humano ha ido acercando progresivamente el primero al segundo.
En 2010 un grupo de la Universidad de California en Santa Bárbara (UCSB) demostró que se podían crear fonones individuales en un oscilador mecánico criogénico. Ahora Martin Gustafsson, de la Universidad tecnológica de Chalmers, y sus colaboradores han conseguido estudiar los ecos de ondas acústicas cerca del límite cuántico.
Este grupo de científicos suecos y alemanes han conseguido crear un detector de sonido capaz de registrar los sonidos muy débiles permitidos por la Mecánica Cuántica. En el régimen alcanzado el dispositivo puede tanto emitir como detectar oscilaciones mecánicas (fonones) de la manera similar a cómo los dispositivos optoelectrónicos emiten y detectan fotones de luz. El sistema ofrece nuevas perspectivas a la hora de crear circuitos híbridos que mezclen elementos acústicos y electrónicos, además de iluminar nuevos fenómenos cuánticos.
Este “micrófono cuántico” está basado en un transistor que sólo usa un solo electrón a la vez (este tipo de transistores ya se habían logrado crear en el pasado reciente). El chip de arseniuro de galio sobre el que va montado tiene unos trasductores en dos bordes opuestos que son los que generan las ondas acústicas. El arseniuro de galio es un material piezoeléctrico que, como otros similares, produce campos eléctricos al ser deformado mecánicamente o viceversa. Una deformación de este cristal causada por la presencia de una onda acústica induce una polarización eléctrica. Es precisamente esta polarización la que puede detectar el transistor. Obviamente todo el conjunto está enfriado a una temperatura muy baja: 0,2 K.
Las ondas acústicas estudiadas por este equipo de investigadores se propagan por la superficie cristalina del microchip y recuerdan a las ondas que se forman en una charca cuando se arroja una piedra (son diferentes a las estudiadas por el grupo de UCSB). La longitud de onda es en este caso de 3 micras, pero el detector es incluso más pequeño y es capaz de sentir las “olas acústicas” según pasan.
Sobre la superficie del chip fabricaron una cámara de eco de 3 mm de largo. Aunque la velocidad del sonido de este tipo de ondas es 10 veces superior a la del sonido en el aire, el detector mostró cómo los pulsos se reflejaban entre los muros de la cavidad, verificándose así la naturaleza acústica de las ondas. Las ondas eran generadas por un trasductor de un borde y se propagaban hasta rebotar en la pared opuesta, luego en la de procedencia y así sucesivamente. Este vaivén lo realizaban varias veces.
Este tipo de ondas superficiales no son mecánico-cuánticas en comportamiento, pero son tan débiles que se les puede considerar casi en el límite cuántico. El detector es sensible a ondas cuya amplitud es sólo un pequeño porcentaje el diámetro de un protón. Esta intensidad de sonido es tan baja que el fenómeno debería de estar gobernado por las leyes de la Mecánica Cuántica en lugar de la Mecánica Clásica, pero los autores admiten que el régimen es clásico.
En Física Cuántica se llama fonones a los cuántos de vibraciones sonoras. Se tienen muy en cuenta en Física del Estado Sólido a la hora de estudiar las propiedades de la materia. Así por ejemplo, la teoría BCS que explica la superconductividad se basa en la introducción fonones para la explicar la formación de pares de Cooper. La propagación del calor en los sólidos cristalinos se puede explicar usando fonones. Gracias a este tipo de dispositivo se podrán detectar pronto fonones individuales al igual que ya detectamos fotones individuales.
La frecuencia de estas ondas es muy alta como para que la pudiera detectar el oído humano si tuviera la suficiente amplitud, en concreto es de casi 1 GHz, unas 21 octaves por encima de la nota “La”. Esto hace de este detector el más sensible del mundo en esa gama de frecuencias.
Gustafsson cree que se puede usar esta aproximación para crear una versión acústica de los qubits basados en fotones de microondas en dispositivos superconductores.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3757
Fuentes y referencias:
Nota de prensa.
Noticia en Physcis World.
Artículo en Nature.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.