viernes, 29 de junio de 2012

Antiguos textos dan pistas sobre un misterioso pico de radiación

Fuente: Ciencia Kanija

Un pico durante el siglo VIII en los niveles de carbono-14 encontrados en los árboles podría explicarse mediante la supernova del “crucifijo rojo”.
Un sobrecogedor “crucifijo rojo” visto en el cielo nocturno de Gran Bretaña en  el año 774 d.C puede ser una explosión de supernova no conocida anteriormente — y podría explicar un misterioso pico en los niveles de carbono-14 en los anillos de crecimiento de esos años en cedros japoneses. El vínculo se sugiere hoy en una Correspondencia en la revista Nature de un estudiante estadounidense con un amplio trasfondo interdisciplinar y una mente inquisitiva1.
Hace unas semanas, Jonathon Allen, estudiante de bioquímica en la Universidad de California en Santa Cruz, estaba escuchando el podcast de Nature cuando escuchó que un equipo de investigadores de Japón había encontrado un pico en los niveles de carbono-14 en anillos de árboles. El pico probablemente procedía de un estallido de radiación de alta energía que impactó en la atmósfera superior, aumentando la tasa a la que se forma el carbono-14.

Crónicas Anglo-Sajonas

Pero había un problema: las únicas causas conocidas para tales niveles de radiación son las explosiones de supernova o las llamaradas solares gigantes, y los investigadores no tenían conocimiento de que hubiese tenido lugar alguno de estos eventos en los años 774 ó 775 d.C, las fechas indicadas por los anillos de los árboles.
Intrigado, Allen buscó en Internet. “Simplemente hice una búsqueda rápida en Google”, comenta.
Su interés por la historia fue de ayuda, apunta. “Sabía que cuando te remontas tanto en el tiempo, hay muy poca historia escrita”, dice. “Lo único que he visto u oído eran textos religiosos y ‘crónicas’ que listaban reyes y reinas, guerras y cosas de ese tipo”.
Su búsqueda encontró entradas del siglo VIII en la Crónica Anglo-Sajona en el Proyecto Avalon, una biblioteca en línea de documentos legales e históricos alojada en la Universidad de Yale en New Haven, Connecticut. Bajando hasta el año 774 d.C, Allen encontró una referencia a un “crucifijo rojo” que apareció en los cielos “tras la puesta del Sol.
Oculto en los cielos
“Esto me hizo pensar en algún tipo de evento estelar”, comenta  Allen. Además, señala, el color rojizo podría indicar que la fuente estaba oculta tras una densa nube de polvo que dispersara toda la luz salvo una pequeña cantidad de luz roja. Tal nube podría también evitar que los restos de la supernova propuesta sean observados por los astrónomos modernos.
Los científicos del campo están impresionados. Geza Gyuk, astrónomo del Planetario Adler de Chicago en Illinois, que ha usado la Crónica Anglo-Sajona para investigar eventos astronómicos del pasado, dice que Allen podría haber dado con algo. “El texto sugiere que el objeto se observó en los cielos occidentales poco después de la puesta de Sol”, dice. “Esto implicaría que tendría que haberse movido por detrás del Sol [donde no podría observarse] conforme la Tierra orbita a nuestra estrella. Esto, junto con lo tenue de la ‘nueva estrella’ debido al polvo sería una buena explicación a por qué nadie habría visto o registrado el evento”.
No obstante, dice Donald Olson, físico con interés en la astronomía histórica de la Universidad Estatal de Texas en San Marcos: “Las crónicas antiguas son difíciles de interpretar de forma inequívoca”.
Ya en 1870, dice, John Jeremiah publicó un artículo en Nature en referencia al mismo texto de las Crónicas Anglo-Sajonas. Jeremiah propuso que podría ser una primera descripción de las Luces del Norte2.
“Otra posible explicación podría ser un espectáculo de cristales de hielo”, añade Olson, señalando que el “crucifijo” rojo podría haberse formado al iluminar la luz del Sol poniendo partículas de hielo a gran altitud, en bandas tanto horizontales como verticales.
Pero podría también haber sido una supernova no reconocida con anterioridad. Muchas de las supernovas que ahora conocen los astrónomos “simplemente faltan” en los registros históricos, dice Gyuk. “El cielo es un lugar muy grande y los registros históricos no son muy buenos”.

Nature doi:10.1038/nature.2012.10898
Artículos de Referencia:
1.- Allen, J. Nature 486, 473 (2012).
2.- Jeremiah, J. Nature 3, 174–175 (1870)
Autor: Richard A. Lovett
Fecha Original: 27 de junio de 2012
Artículo Original

Nuevo modo de estudiar las atmósferas de los exoplanetas


Por primera vez, una nueva e ingeniosa técnica ha permitido a los astrónomos estudiar la atmósfera de un exoplaneta en detalle — incluso sin la necesidad de que pase delante de su estrella anfitriona. Un equipo internacional ha utilizado el Very Large Telescope (VLT) de ESO para captar directamente el débil brillo del planeta Tau Boötis b. Por primera vez, han estudiado la atmósfera del planeta y medido su órbita y su masa de forma muy precisa — resolviendo así un antiguo problema con quince años de antigüedad. Sorprendentemente, el equipo también a descubierto que la atmósfera del planeta parece más fría cuanto más se aleja de la superficie, lo contrario de lo que se esperaba. Los resultados se publicarán en el número del 28 de junio de 2012 de la revista Nature.
El planeta Tau Boötis b fue uno de los primeros exoplanetas descubiertos en 1996, y sigue siendo uno de los exoplanetaos más cercanos que se conocen. Pese a que su estrella anfitriona es fácilmente visible a simple vista, obviamente el propio planeta no lo es, y hasta el momento solo podía detectarse por sus efectos gravitatorios sobre la estrella. Tau Boötis b es un gran “júpiter caliente” que orbita muy cerca de su estrella anfitriona.
Impresión artística de Tau Boötis b © Crédito: ESO

Como muchos exoplanetas, este no transita el disco de su estrella (como en el reciente tránsito de Venus). Hasta ahora estos tránsitos eran esenciales para permitir el estudio de las atmósferas de los jupiteres calientes: cuando un planeta pasa frente a su estrella las propiedades de su atmósfera quedan impresas en la luz de la estrella. Como no hay luz estelar que brille a través de la atmósfera de Tau Boötis b hacia nosotros, la atmósfera del planeta no ha podido ser estudiada antes.
Pero ahora, tras 15 años intentando estudiar el débil brillo que emiten exoplanetas de tipo júpiter caliente, los astrónomos han podido finalmente estudiar, de forma fidedigna, la estructura de la atmósfera de Tau Boötis b y deducir su masa de un modo preciso por primera vez. El equipo utilizó el instrumento CRIRES, instalado en el Very Large Telescope (VLT) en el Observatorio Paranal de ESO, en Chile. Combinaron observaciones infrarrojas de alta calidad (en longitudes de onda de alrededor de 2,3 micras) con un nuevo e ingenioso truco para extraer la débil señal del planeta a partir de la luz mucho más potente emitida por la estrella anfitriona.
El investigador principal de este trabajo, Matteo Brogi (Observatorio Leiden, Países Bajos) explica: “Gracias a las observaciones de alta calidad proporcionadas por el VLT y CRIRES fuimos capaces de estudiar el espectro del sistema con el nivel de detalle más alto logrado hasta el momento. Solo un 0,01% de la luz que vemos viene del planeta, y el resto proviene de la estrella, por lo que no fue fácil”.
La mayoría de los planetas alrededor de otras estrellas fueron descubiertos por sus efectos gravitatorios sobre las estrellas anfitrionas, lo que limita la información que puede obtenerse de su masa: solo permiten obtener un límite inferior para la masa de un planeta. La nueva técnica pionera es mucho más poderosa. Ver directamente la luz del planeta ha permitido a los astrónomos medir el ángulo de la órbita del planeta y, de ahí, extraer su masa con precisión. Trazando los cambios en el movimiento del planeta a medida que orbita a su estrella, el equipo ha determinado por primera vez, de forma fidedigna, que Tau Boötis b orbita a su estrella anfitriona con un ángulo de 44 grados y tiene seis veces la masa del planeta Júpiter.
“Las nuevas observaciones de VLT resuelven un problema de 15 años de antigüedad: resolver la masa de Tau Boötis b. Y la nueva técnica también significa que, a partir de ahora, podremos estudiar las atmósferas de los exoplanetas que no transitan a sus estrellas, así como medir sus masas de forma precisa, lo cual antes era imposible”, afirma Ignas Snellen (Observatorio de Leiden, Países Bajos), co-autor del artículo. “Es un gran paso adelante”.
Además de detectar el brillo de la atmósfera y de medir la masa de Tau Boötis b, el equipo ha estudiado su atmósfera y medido la cantidad de monóxido de carbono existente, así como la temperatura a diferentes alturas por medio de una comparación hecha entre las observaciones y unos modelos teóricos. Uno de los resultados más sorprendentes de este trabajo ha sido que las nuevas observaciones indicaban una atmósfera con una temperatura que desciende a medida que aumenta la altura. Este resultado es exactamente el opuesto a la inversión térmica — un aumento en la temperatura a mayor altitud — encontrado en otros exoplanetas tipo Júpiter.
Las observaciones del VLT muestran que la espectroscopía de alta resolución de telescopios basados en tierra es una herramienta muy útil para un análisis detallado de las atmósferas de los planetas que no hacen tránsito estelar. La detección de diferentes moléculas en el futuro, permitirá a los astrónomos aprender más sobre las condiciones atmosféricas de los planetas. Haciendo medidas a lo largo de la órbita del planeta, los astrónomos podrían incluso ser capaces de detectar cambios atmosféricos entre la mañana y la tarde del planeta.
“Este estudio muestra el enorme potencial de los telescopios basados en tierra, tanto de los ya existentes como de los que llegarán en el futuro, como el E-ELT. Tal vez algún día, utilizando esta técnica, encontremos evidencias de actividad biológica en planetas similares a la Tierra”, concluye Ignas Snellen.

Fecha Original: 27 de junio de 2012
Enlace Original

jueves, 28 de junio de 2012

Supercombate de Física: Relatividad vs Mecánica Cuántica… en el espacio

Fuente: Ciencia Kanija

Artículo publicado el 25 de junio de 2012 en The Physics ArXiv Blog
La única forma de estudiar el conflicto entre la relatividad y la mecánica cuántica es ponerlas a prueba en las enormes distancias del espacio. Y los físicos ya están haciendo planes sobre esto.
Uno de los mayores misterios de la ciencia moderna es que las leyes que gobiernan el universo en las escalas más grandes son completamente diferentes de las que lo gobiernan en las escalas más pequeñas.
Esto es extraño, ya que toda nuestra intuición sobre que el universo nos dice que debería ser consistente internamente en lugar de estar en conflicto con él mismo. Por esto es por lo que los físicos están totalmente unidos a la idea de que la relatividad y la mecánica cuántica deben ser manifestaciones de una idea mejor y más grande que abarque ambas.

Einstein © Crédito: shaunanyi

Las diferencias entre la relatividad general y la mecánica cuántica son tan grandes que, por el momento, ha fallado cualquier intento de reconciliarlas. Sin embargo, estos intentos han sido completamente teóricos y eso les ofrece una utilidad limitada.
Por ejemplo, los físicos miden rutinariamente el fenómeno cuántico del entrelazamiento enviando pares de fotones entrelazados desde un punto a otro. En estos experimentos, el emisor y receptor deben medir la polarización de los fotones, si es vertical u horizontal, por ejemplo. Pero esto solo puede suceder si ambas partes sabes qué dirección es arriba.
Esto es fácil de especificar cuando están cercanos. Pero se complica mucho más si están separados por distancias donde la curvatura del espacio-tiempo entra en juego. El problema aquí es que la respuesta es ambigua y depende del camino que sigue cada fotón a través del espacio-tiempo.
Los experimentadores pueden calcularlo rastreando cada fotón hasta su fuente común, si es que se conoce. Pero entonces, ¿cómo ‘sabe’ cada fotón el camino que ha tomado el otro? Los teóricos sólo pueden hacer conjeturas.
Otro problema surge cuando este tipo de experimentos se realizan con el emisor y receptor viajando a velocidades relativistas. Esto introduce el famoso problema de determinar el orden de eventos, que Einstein demostró que depende del punto de vista del observador.
Esto choca frontalmente con la predicción de la mecánica cuántica. Aquí la medida de un fotón entrelazado determina instantáneamente el resultado de una futura medida en el otro, sin importar la distancia entre ellos.
Si la relatividad especial asegura que el orden de eventos es ambiguo, ¿qué tenemos? De nuevo, una derrota para los teóricos.
Por supuesto, la forma de responder estas preguntas es ponerlas a prueba y ver lo que pasa.
Hoy, David Rideout de la Universidad de California en San Diego y algunos colegas perfilan varias formas de resolver estos problemas y dicen que este tipo de experimentos deberían ser posibles en el futuro cercano.
Esto, en gran medida, se debe a que las herramientas experimentales son estándar en muchos laboratorios ópticos, por lo que adaptarlos para su uso en el espacio debería ser sencillo.
Dos grupos ya han propuesto hacer este tipo de experimentos en el espacio. Un grupo quiere poner un conjunto de instrumentos capaz de generar fotones entrelazados en la Estación Espacial Internacional para lanzarlos de vuelta a la Tierra. Otro quiere mantener el equipo cuántico en el suelo y hacer rebotar los fotones en un simple microsatélite en la órbita baja de la Tierra, una opción que dicen será más barata, fácil y mejor.
Ningún grupo tiene una fecha de lanzamiento en mente, ni tan siquiera tienen fondos garantizados para construir las herramientas. Pero esto podría cambiar, dado el cada vez mayor nivel de interés en esta área y la posibilidad de que el trabajo chino pueda adelantar a los esfuerzos occidentales.
Más allá de esto, hay opciones a largo plazo para enviar fotones desde muy lejos – la Luna o una nave interplanetaria, por ejemplo.
El contexto es que para encontrar una nueva física los científicos tienen que llevar sus experimentos a nuevos límites. Los físicos no han sido capaces de poner a prueba la relatividad general en la escala cuántica (es decir, la escala de Planck de 10-34 m). No obstante, actualmente hay trabajos para explorar esta escala usando interferómetros atómicos.
Y hasta ahora, los físicos no han sido capaces de poner a prueba la mecánica cuántica en la escala de la relatividad general, debido a que la distancia a la que la curvatura del espacio-tiempo se hace significativa es demasiado grande. Vimos hace unas semanas que el récord para el teletransporte cuántico de objetos es de apenas 150 kilómetros, lo que es demasiado poco para que la relatividad general haga su magia.
Rideout y sus colegas dicen que esto cambiará en los próximos años. Las paradojas de la mecánica cuántica se debatieron por primera vez en las décadas de 1920 y 1930 por Einstein, Bohr y otros. Pero por varias razones, en particular por un prejuicio ciego contra este tipo de trabajo, no fue hasta las décadas de 1970 y 1980 cuando los físicos empezaron a ponerlas a prueba experimentalmente.
Las paradojas que surgen por el encuentro de la mecánica cuántica y la relatividad son igual de viejas y tal vez más profundas. Y los físicos todavía tienen que empezar un trabajo conjunto para explorarlas experimentalmente.
Ya va siendo hora de coger el toro por los cuernos.

Artículo de Referencia: arxiv.org/abs/1206.4949: Fundamental Quantum Optics Experiments Conceivable With Satellites Reaching Relativistic Distances And Velocities Fecha Original: 25 de junio de 2012
Enlace Original

miércoles, 27 de junio de 2012

La inflación cósmica

Fuente: Francis(th)E mule

La inflación cósmica fue introducida hace 30 años por Alan H. Guth (entonces postdoc en el SLAC, Stanford Linear Accelerator Center). Una hiperaceleración brevísima de la expansión del universo en los primeros instantes de la gran explosión (big bang). La inflación forma parte del modelo cosmológico de consenso, aunque muchos teóricos, el más famoso es Roger Penrose, dudan de ella. ¿Se puede verificar encontrar evidencias [pruebas indiscutibles] de la inflación cósmica de forma experimental?
Muchos cosmólogos creen que el satélite Planck de la ESA será capaz de observar señales de la inflación en su estudio del fondo cósmico de microondas. Estas señales permitirán demostrar si la inflación realmente ha existido y cuáles han sido sus características. Los llamados modos B que se supone que podrán ser observados por Planck, aunque su debilidad extrema podría complicar su deteccióin, mostrarán trazas de las ondas gravitatorias producidas durante la inflación; gracias a estas ondas se podrán descubrir los detalles del potencial de energía responsable de la dinámica del inflatón, el campo o partícula responsable de la inflación cósmica.
A principios de 2013, en enero se cumplen los 3 años y medio del lanzamiento, se espera la publicación de los primeros resultados de Planck sobre el fondo cósmico de microondas, muchos estaremos expectantes. Nos lo ha contado Paul J. Steinhardt, “The Inflation Debate. Is the theory at the heart of modern cosmology deeply flawed?,” Scientific American, April 2011 [aparecerá en español en Investigación y Ciencia en el número de junio de 2011]. Permitidme un breve resumen para ir abriendo boca.
La teoría de la gran explosión asume que el universo inició la flecha del tiempo y la expansión cósmica hace 13 700 millones de años. El universo es más grande de lo necesario para explicar por qué es tan homogéneo y tan isótropo a grandes escalas. La inflación cósmica es la explicación más sencilla: las inhomogenidades y las anisotropías en los primeros instantes de la gran explosión serían aplanadas por la hiperexpansión del espacio durante la inflación dejando un universo primitivo tan homogéneo e isótropo como el que conocemos hoy en día. La inflación cósmica aparece en todos los libros de texto aunque en la actualidad es una teoría sin verificación el apoyo de evidencia experimental específica. Más aún, tampoco conocemos qué energía inflacionaria (el campo cuántico llamado inflatón) que antigravita es su responsable; para el campo inflacionario la gravedad debe ser repulsiva en lugar de atractiva. El inflatón es un campo escalar (un partícula escalar) como el campo de Higgs (como la partícula de Higgs) responsable de un incremento en el tamaño del universo de 25 órdenes de magnitud (× 1025) durante una millonésima de billonésima de billonésima de segundo (10–30 s). Un crecimiento tan rápido y tan grande del radio del universo resulta en un universo plano, homogéneo e isótropo similar al obervado en la actualidad.
Los detalles de la inflación cósmica dependen del potencial de autointeracción del inflatón. La forma exacta de este potencial conduce a diferentes tipos de inflación que se diferencian en el tamaño de las pequeñas inhomogeneidades y anisotropías que permanecen tras la inflación y que más tarde dan lugar a la formación de las primeras galaxias. En los modelos más sencillos para el inflatón se introduce un parámetro que, grosso modo, tiene que tener un valor adecuado para que la inflación sea “buena” (compatible con la distribución a grandes escalas de la materia en el universo). Si el parámetro es demasiado pequeño o demasiado grande la inflación es “mala” y puede ser descartada. El ajuste fino de este parámetro requiere un error menor de 15 dígitos decimales, como mostró Roger Penrose a finales de los 1980. Este ajuste fino de la inflación ha llevado a muchos cosmólogos a recurrir al principio antrópico como explicación.
Un problema adicional de la inflación, descubierto en 2008 por Gary W. Gibbons (Universidad de Cambridge) y Neil G. Turok (Perimeter Institute for Theoretical Physics, en Ontario) es la inflación eterna. En la gran explosión lo más “natural” es que hayan surgido infinidad de universos burbuja, cada uno con sus propias leyes físicas, siendo el nuestro uno entre dicha infinidad. Estudiando la probabilidad de que aparezca un universo como el nuestro en el multiverso resulta que esta probabilidad es muy baja. Finalmente, el último gran problema de la inflación es la determinación del momento en el que para. Si para o después no tendríamos un universo como el que observamos, pero la probabilidad de que el campo del inflatón pare la inflación en el momento adecuado para lograr un universo plano como el observado resulta un número muy pequeño.
En resumen, la inflación es una idea maravillosa para explicar el universo, pero el diablo está en los detalles. El año que viene se publicarán los primeros datos sobre el fondo cósmico de microondas del satélite Planck. Aportarán información muy relevante sobre los detalles de la inflación. Habrá modelos que sobrevivan y otros tendrán que ser descartados. La ciencia es apasionante.
PS (nota histórica): La inflación cósmica fue propuesta por Starobinsky en 1979, Guth en 1981, Sato en 1981, Linde en 1982 y muchos otros.
PS (resultados de WMAP 7): La inflación predice una distribución estadística casi gaussiana para las fluctuaciones primordiales que se observan en el fondo cósmico de microondas. Aunque se ha dicho que WMAP 7 ha encontrado ciertas señales (en concreto los multipolos altos están algo reforzados comparados con los bajos) que han sido interpretadas como una prueba de la inflación, todavía es pronto para poder afirmar que la inflación está demostrada experimentalmente fuera de toda duda (aunque la mayoría de los físicos teóricos, yo incluido, creemos que es la teoría correcta). Esta figura está extraída de Komatsu, E., et.al., “Seven-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Cosmological Interpretation,” ApJS, 192, 18 (2011) [ApJ / preprint / astro-ph]. Sin embargo, la prueba definitiva será la observación de ondas gravitatorias producto de la inflación. Si queremos ser rigurosos, los datos de WMAP 7 son compatibles con la inflación, pero no demuestran la inflación (aunque Hawking, Zel’dovich y muchos otros hayan afirmado sí lo demuestran fuera de toda duda).
PS: He cambiado “verificación experimental” por “evidencia experimental,” es decir, por pruebas fuera de toda duda. Hoy en día los hechos experimentales que llevaron a la propuesta de la teoría de la inflación son los únicos que la apoyan. Hay pruebas que podrían estar en contra de la teoría y no lo están (como las de WMAP 7) pero no hay pruebas indiscutibles que permitan discernir entre la inflación y otras teorías que también explican los hechos experimentales que la apoyan.

Los láseres de plasmones o spasers

Fuente: Francis (th)E mule

Hace tan solo 10 años, cuando un físico confesaba que trabajaba en plasmones, todos le miraban como un bicho raro. ¡Plasmones, no habrá cosas mucho más útiles en las que trabajar! Algunos cambiaron de opinión cuando en 2003 se publicó la idea teórica del láser de plasmones o spaser (SPASER es el acrónimo de “Surface Plasmon Amplification by Stimulated Emission of Radiation”). Otros no. ¡Estos teóricos ya no saben que inventar! El gran problema del láser es el límite impuesto por la difracción de la luz que impide concentrar la luz en espacios más pequeños que la mitad de su longitud de onda. Los plasmones superficiales son oscilaciones electrónicas colectivas en una interfaz metal-dieléctrico con una longitud de onda mucho menor que la de la luz que los excita o de la luz que emiten. Un láser de plasmones podría superar la barrera de la difracción. Todavía nadie ha logrado fabricar un spaser, pero muchos nanotecnólogos lo está tratando. Una fuente nanométrica de luz coherente promete infinidad de aplicaciones. Nos lo contó Volker J. Sorger, Xiang Zhang, “Spotlight on Plasmon Lasers,” Science 333: 709-710, 5 August 2011.
El primer intento experimental serio de lograr un spaser fue el “dedo láser de oro” que se publicó en Nature Photonics en 2007 (Martin T. Hill et al., “Lasing in metallic-coated nanocavities,” Nature Photonics 1: 589 – 594, 2007; gratis aquí). Una heteroestructura semiconductora (dispositivo formado por varias capas de materiales en forma de sandwich) recubierta por una delgada capa de oro que se comportaba como un láser (convencional) cuando recibía una corriente de electrones. No se trataba de un dispositivo plasmónico, por lo que estaba limitado por la difracción, pero fue el punto de partida para desarrollar el primer nanoláser plasmónico en 2009 (Martin T. Hill et al., “Lasing in metal-insulator-metal sub-wavelength plasmonic waveguides,” Optics Express 17: 11107-11112, 2009; gratis aquí también). Este nanoláser utilizaba plata en lugar de oro y tenía enormes pérdidas por lo que solo funcionaba a temperaturas criogénicas (la mayoría de los resultados del artículo eran para 78 Kelvin).
El primer spaser que se publicó con tal nombre, en Nature, utilizó un enfoque diferente, nanopartículas esféricas de 40 nm con un núcleo de oro de 14 nm que se encontraban en suspensión coloidal en agua. Al bombear estas nanopartículas con luz láser, se excitaban plasmones localizados en su superficie metálica. El gran problema de este spaser es lo difícil que es implementar conexiones electrónicas con él. Además, la emisión óptica de este spaser era casi omnidireccional (algo que se puede mitigar).
Ya se han publicado otras variantes, pero aún podemos considerar estos éxitos como preliminares (aunque muy interesantes). ¿Son los spasers versiones nanométricas de los láseres convencionales? En principio no, ya que los mecanismos físicos de un láser de plasmones son diferentes. ¿Qué aplicaciones se esperan para los spasers? Como los láseres de plasmones son de tamaño muy pequeño y muy rápidos ofrecen gran números de aplicaciones. Por ejemplo, en sistemas de computación completamente ópticos (integrados en chips fotónicos ultrarrápidos, como sustitutos de los chips electrónicos convencionales) para incrementar la velocidad y funcionalidad de las redes de comunicaciones. Por su pequeño tamaño, casi molecular, se auguran aplicaciones de diagnóstico en biomedicina de ultraalta resolución. También pueden servir para sistemas de almacenamiento de datos, tanto ópticos como magnéticos, cuya capacidad de integración extrema les haría no tener competencia en el mercado de la electrónica de consumo.

lunes, 25 de junio de 2012

Incertidumbre y termodinámica

Fuente: Neofronteras

Según un estudio, si el principio de incertidumbre no se cumpliera se violaría el segundo principio de la Termodinámica.
Foto
Una vez se descubre algo interesante los demás solemos pensar eso de: “¡Pues claro, es así! ¿Cómo no se me ocurrió a mí antes?” Parece que hay una tremenda asimetría entre lo que podemos descubrir (casi desde la nada) y la comprensión de ese hallazgo una vez que alguien lo descubre. Lo primero es muy difícil y lo segundo tremendamente fácil.
Nuestros cerebros evolucionaron para la caza y la recolección en la sabana africana, aunque son suficientemente flexibles como para que los podamos dedicar a otros menesteres, como por ejemplo a la Física y la Matemáticas. Pero eso no significa que sea fácil.
Los conceptos geométricos que tenemos provienen de nuestra capacidad de orientarnos durante la caza. Quizás nuestra capacidad de entender cantidades provenga de la recolección de frutos, al fin y al cabo, el que hiciera una mala estimación de frutos recolectados probablemente se moría de hambre o tenía menor descendencia y sus genes se perdían. Pero otro conceptos no se desprende directamente de nuestra habilidad de cazadores y recolectores.
Cuando se trata de fenómenos muy alejados de algo similar a la caza o la recolección, la investigación científica es más difícil e incluso su comprensión desafía nuestra intuición. Esto es probablemente lo que pasa con la Mecánica Cuántica (MC). Quizás se pueda desarrollar una vida basada en reacciones nucleares en lugar de químicas en una estrella de neutrones. Para sus hipotéticos habitantes lo natural serán los fenómenos cuánticos y lo raro sus aproximaciones clásicas.
Pero nosotros no vivimos en un mundo tan exótico, tenemos que pensar mucho antes de llegar a conclusiones acerca de los fenómenos que se dan en el mundo nanoscópico.
Heisenberg, cuando estaba desarrollando la MC, introdujo el concepto de principio de incertidumbre o de indeterminación. Según este principio no podemos conocer simultáneamente la cantidad de movimiento (momento) y la posición de una partícula de manera precisa. Si queremos saber uno de ellos bien entonces el conocimiento que tengamos sobre el otro tendrá bastante error.
En un principio se pensó que, al fin y al cabo, esto no era más que el resultado de una limitación física a la hora de observar este tipo de sistemas. Así por ejemplo, al iluminar el sistema con fotones para saber qué es lo que pasa modificamos el sistema que estamos estudiando. Luego se fue viendo que este principio es algo más intrínseco e independiente de nuestra habilidad a la hora de medir.
Pero esta incertidumbre era algo que molestaba tremendamente a los que creían en un mundo clásico, como Albert Einstein. Para salvaguardar el realismo, la objetividad y el comportamiento clásico se introdujo el concepto de variables ocultas. Según esta idea la MC no sería más que una aproximación estadística a una teoría clásica más profunda desconocida. Pero al final la MC ha resistido todos estos ataques.
Ahora Stephanie Wehner y Esther Hänggi, de la Universidad Nacional de Singapur (a algunos les extrañará todavía que a ciertos países asiáticos les vaya económicamente bien, pero en realidad también invierten en ciencia y tecnología) proponen en una artículo un resultado que asustaría al propio Einstein, pues se vería obligado a elegir entre Termodinámica y clasicismo.
Según estos investigadores, si eliminamos el principio de incertidumbre entonces son posibles los móviles perpetuos de segunda especie.
La Termodinámica es la parte más sensata de toda la Física y nos dice cosas tan obvias como que no hay nada gratis, que el desorden global siempre aumenta o que un frigorífico deja de funcionar si lo desenchufamos.
Sí que hay objetos que se mueven perpetuamente cuando no hay rozamiento, pero el término termodinámico significa en realidad la obtención de energía desde la nada. Básicamente hay dos tipos de los móviles perpetuos: de primera y de segunda especie. Los primeros negarían el primer principio de la termodinámica y los segundos el segundo.
Los móviles perpetuos de segunda especie conseguirían obtener energía a partir del intercambio de calor con solamente un foco térmico, algo prohibido por el segundo principio. Si queremos obtener trabajo en un sistema termodinámico necesitamos siempre dos focos a distinta temperatura y llevar el calor del foco caliente al frío. Si queremos llevar calor del frío al caliente entonces necesitamos realizar un trabajo (consumir energía).
Los móviles perpetuos han sido blanco de todo tipo de iluminados desde el siglo XIX, aunque ya entonces las academias de ciencias se negaran a revisar tales ideas. Si alguien propone un dispositivo de este tipo simplemente no se lee la propuesta y se manda a la papelera.
Wehner y Hänggi han analizado el principio de incertidumbre a la luz de la Teoría de la Información. Sugieren que dos propiedades de una sistema cuántico, como las variables conjugadas posición y momento, no pueden ser consideradas como secuencias de información que codifiquen la misma partícula. No se pueden descodificar ambas secuencias de información a la vez. Si se consigue leer una con precisión entonces se pierde mucha información en la descodificación de la segunda.
Entonces se plantean qué pasaría si se tiene acceso a esa información que no ha podido ser decodificada. Como se necesita tanto información como energía para realizar trabajo en uno de estos sistemas, llegan a la conclusión de que entonces se podría extraer más trabajo del permitido por la Termodinámica.
Este concepto de la relación existente entre energía e información es conocido para aquellos que estén familiarizados con el diablillo de Maxwell. Si el diablillo sabe la energía de la molécula que le llega a tubo que comunica dos recipientes con gas puede dejar o no que pase de una lado a otro en virtud del movimiento que tienen. De este modo se pueden obtener dos focos de calor a distinta temperatura (a partir de los cuales de puede extraer energía gratis) en lugar de dos recipientes termalizados con la misma temperatura. En este caso el conocimiento es poder (o al menos energía).
Así que, según este artículo, si eliminamos la incertidumbre cuántica tenemos que sacrificar el segundo principio de la Termodinámica. Pero todo físico serio querrá mantener el segundo principio de la Termodinámica a toda costa, aunque tenga que sacrificar su visión clásica del mundo y abrazar la MC. Quizás incluso Einstein lo hiciese si estuviera vivo. Al fin y al cabo, no siempre tuvo la razón en todo, aunque en el asunto de los supuestos neutrinos superlumínicos sí la tiene.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3862
Fuentes y referencias:
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

viernes, 22 de junio de 2012

Atención, pregunta: ¿Está cuantizada la masa de los microagujeros negros?

Fuente: Francis (th)E mule

En mecánica cuántica la energía está cuantizada y en relatividad la energía y la masa son equivalentes. Por tanto, parece natural pensar que la masa debe estar cuantizada. César Gómez, del Instituto de Física Teórica de la Universidad Autónoma de Madrid (UAM/CSIC), y dos colegas afirman que la masa de los agujeros negros debe estar cuantizada, sea cual sea la teoría cuántica correcta de la gravedad. Su demostración se basa en argumentos físicos muy generales y es independiente de los detalles cuánticos de la gravedad. Su artículo presenta una regla universal de cuantización para los agujeros negros en un espaciotiempo de cualquier número de dimensiones: una masa m localizada en una región cuyo radio es r(m) debe cumplir la regla m r(m) = N, donde N es un número entero; por ejemplo, en la relatividad de Einstein se cumplirá que m=√N/LP, donde el denominador es la longitud de Planck. ¿Se puede verificar esta teoría de forma experimental? No, salvo que haya dimensiones extra en el espaciotiempo que sean muy grandes y el LHC del CERN pueda producir microagujeros negros. En dicho caso, su teoría predice una resonancia cuántica a ciertos valores discretos de la masa separados por una distancia controlada por el inverso de la raíz cuadrada de la sección transversal de producción de estos microagujeros negros. Una señal de este tipo será muy fácil de detectar (y de excluir). El artículo se lee fácil para un físico, así que los interesados disfrutarán con Gia Dvali, Cesar Gomez, Slava Mukhanov, “Black Hole Masses are Quantized,” ArXiv, 29 Jun 2011. Por cierto, también se hizo eco de este artículo KFC, “Black Hole Mass Must Be Quantized, Say Physicists,” The Physics arXiv Blog, 07 Aug. 2011.

miércoles, 20 de junio de 2012

Proponen nuevo tipo de experimento cuántico

Fuente: Neofronteras 
 

Proponen un experimento de que poderse realizar podría rechazar los modelos en los que la transición radiativa es objetiva e independiente del detector.
Foto
En azul se señalan las regiones experimentales en las que se podrían rechazar los modelos de transición radiativa de los átomos que se hace a través de un proceso estocástico objetivo.
Todo el mundo que haya estudiado la Mecánica Cuántica (MC) en profundidad se habrá dado cuenta de lo rara que es. Algunas veces no sabemos si esta rareza procede de modelo teórico que estamos usando o de la propia realidad física, que a la escala de lo muy pequeño se comporta así independientemente de nuestra visión de la realidad.
En ciencia este tipo de cosas se dirimen con un experimento, pero no siempre es fácil o posible diseñar experimentos de ese tipo. En el caso de la MC esto deja vía libre a la proliferación de interpretaciones.
Uno de los conceptos básicos en MC se refiere al salto cuántico o transición. Un electrón ligado a un pozo de potencial, como pueda ser en un átomo, puede estar en su estado fundamental, que es el de mínima energía (pero no nula). Si el sistema recibe energía puede saltar a un estado de energía superior. Sin embargo, ese estado es inestable y el sistema salta a su estado fundamental emitiendo esa diferencia de energía en forma de un fotón cuya energía se corresponde a E=hν, en donde ν es la frecuencia del fotón. Hay que recalcar que este salto se da entre los niveles de energía y que el electrón no salta espacialmente de un sitio a otro. La situación puede complicarse más, con distintos estados excitados y distintas transiciones.
Este concepto de “salto” fue introducido ya por Niels Bohr en su modelo de átomo de hidrógeno. Desde entonces se asumió que el salto era siempre objetivo e independiente del acto de medición. Se produce el salto y entonces se produce un fotón. Durante décadas se asumió esta interpretación objetiva del fenómeno de que la transición radiativa de los átomos se hace a través de un proceso estocástico objetivo
Mucho más tarde (en los años noventa) se introdujo otra interpretación distinta según la cual era el acto de medición del fotón producido el que producía el salto cuántico. Si no hay medición entonces no habría salto. Es decir, si el fotón emitido no es detectado entonces no se da el salto. El salto, según esta interpretación, dependería del detector, algo distinto a la visión objetiva que tenía Borh y los que le siguieron mucho tiempo después.
Sin embargo, no se han realizado experimentos serios que permitan distinguir entre una posibilidad y otra.
Pues bien, ahora Howard M. Wiseman de Griffith University (Queensland, Australia) y Jay M. Gambetta del IBM T.J. Watson Research Center (Yorktown Heights, New York) proponen en un artículo publicado en Physical Review Letters un experimeto que permitiría distinguir entre ambos casos y saber si la transición cuántica es independiente o no del detector.
Los experimentos que proponen no solamente podrían negar modelos específicos de saltos cuánticos independencia del detector, sino todo modelo concebible que describa este tipo de transiciones independientes del detector.
La clave está en que hay dos maneras diferentes de que los fotones sean emitidos por el átomo, maneras que dan resultados que son incompatibles entre sí. El sistema se basa en un fenómeno de tipo EPR en el que el colapso de la función de onda de una partícula a través de su medición condiciona inmediatamente el estado de otra partícula situada a gran distancia que esté entrelazada con la primera. Este sistema de dos partículas no tiene un estado cuántico objetivo que sea independiente de la elección de medida, el tipo de medida elegida condiciona el resultado.
Estos físicos proponen una técnica similar para explicar cómo se podrían determinar la naturaleza del salto cuántico y su ausencia de objetividad. Básicamente el experimento mostraría que dos tipos de medida distinta darían resultados diferentes y que se vería matemáticamente como una desigualdad que sería violada cuando la eficacia del detector estuviera por encima de cierto valor, en concreto de η=58%.
El problema de este experimento (o experimentos similares) es precisamente la calidad de las medidas. No siempre es posible detectar un fotón individual, aunque éste impacte en el detector, o se pueden detector fotones del ambiente. Así que los físicos experimentales se tienen que conformar con el cumplimiento estadístico de ciertas relaciones matemáticas.
Aunque en este caso no es fácil realizar un experimento directo a esa eficiencia, se pueden realizar experimentos que permitan rechazar algunos modelos de salto cuántico independientes del detector.
Si se pueden alcanzar un escenario de alta eficiencia entonces no solamente se podrán (en caso de resultado positivo) rechazar algunos de esos modelos independientes del detector, sino todos los que se pueden concebir.
Si la eficiencia es mala entonces no se podrá concluir gran cosa al respecto. Pero esta eficacia sólo depende de lo desarrollada que esté la tecnología. Así que si no puede hacerse este tipo de experimentos en el presente quizás sí se puedan realizar en el futuro.
Además de poder realizar este tipo de experimentos en átomos, se podrían realizar en otros sistemas cuánticos que exhiban transiciones energéticas, como dispositivos de estado sólido. Quizás en estos sistemas la eficiencia pueda ser mejorada antes.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3859
Fuentes y referencias:
Artículo original.
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

lunes, 18 de junio de 2012

¿Neutrones espejo?

Fuente: Neofronteras

Proponen una explicación a la anomalía de los neutrones basada en partículas espejo. Según esto los neutrones podrían oscilar entre su estado normal y su estado espejo.
Foto
Pérdida anómala de neutrones observada experimentalmente. El resultado positivo (anómalo) corresponde a las áreas en gris.
La Física puede ser realmente fascinante cuando los teóricos dejan volar su imaginación, sobre todo cuando hay fenómenos que todavía no se pueden explicar satisfactoriamente y se recurre a cierta física exótica.
En la descripción de algunos de esos fenómenos se recurre a la palabra “anomalía” como en el caso de la supuesta velocidad anómala de la sonda Pioneer. Se propusieron incluso teorías que modificaban la ley de la gravedad para explicar esta anomalía. Pero al final una razón más mundana ha conseguido explicarlo.
Por tanto, la primera lección es ser conscientes de que una hipótesis de trabajo, por muy atractiva que sea, no tiene que corresponderse necesariamente con la realidad y, por tanto, hay que tomar con cierta precaución las especulaciones que se hagan.
Pues bien, parece ser que hay algo así como una “anomalía de los neutrones” en virtud de la cual éstos parecen desaparecer de manera misteriosa, es decir sin que la física conocida lo pueda explicar.
En ciertos laboratorios de Física Nuclear habitualmente se pueden conseguir neutrones fríos. Básicamente lo que define a los neutrones fríos es que tienen muy poca velocidad de movimiento. Si se enfrían lo suficiente incluso se pueden atrapar en botellas magnéticas durante un tiempo, pues la vida media de un neutrón es poco más de 10 minutos.
Los neutrones se desintegran gracias a la fuerza débil produciendo radiación beta. Y es precisamente la medida de esta radiación beta la que permite comprobar los neutrones que había atrapados. Sólo hay que tener en cuenta los neutrones que se escapan de la botella, los que se desintegran y los que se metieron dentro. Una desviación estadísticamente significativa de lo que entró y lo que salió permitiría afirmar que algo raro pasó ahí dentro.
La cota para una posible desaparición anómala se puso hace algún tiempo fue inferior a uno entre un millón. A pesar de todo el grupo de Anatoly Serebrov en el Instituro Laue-Langevin en Francia informó de una pérdida (a un ritmo bajo) de neutrones y que esta pérdida dependía además de la dirección e intensidad de una campo magnético aplicado. Esta anomalía no puede ser explicada, de momento, por la Física conocida. Este grupo encontró una dependencia de más de 5σ fuera de la hipótesis nula (que el fenómeno no fuera real). Es decir, había una significación estadística muy alta de que efectivamente los neutrones desaparecían de un manera extraña.
Ahora Z. Berezhiani y F. Nesti, de la Universidad de Aquila (Italia), proponen que esta anomalía se podría explicar por la existencia de partículas espejo. Estas partículas han sido hipotetizadas por distintos investigadores en el pasado en diversos contextos, incluyendo la posibilidad de que podrían formar parte de la materia oscura.
Según esto, cada neutrón tendría la capacidad de efectuar una transición hacia su partícula espejo gemela y volver a su estado normal más tarde. Sería parecido a las oscilaciones de los neutrinos que pueden pasar de un sabor a otro a lo largo del tiempo. La probabilidad de esa transición se vería modificada por la presencia de campos magnéticos por lo que se podría detectar experimentalmente.
Las oscilaciones podrían darse en una escala temporal de unos pocos segundos, pero no a otras escalas mayores, pues estaría el límite de los poco más de 10 minutos de vida media del neutrón libre, que se desintegra desaparecido de la escena. Sin embargo, las oscilaciones rápidas no están descartadas aún por experimentos o límites astrofísicos.
Los autores proponen nuevos experimentos con neutrones y campos aplicados y afirman además que la física implicada podría ser explorada en el LHC.
Según esta hipótesis la Tierra posee un campo magnético especular del orden de 0,1 gauss. Ese campo puede ser inducido por partículas espejo flotando en la galaxia en forma de materia oscura. Hipotéticamente, la Tierra captura materia espejo a través de interacciones muy débiles entre partículas ordinarias y esas de ese “mundo paralelo”. Así que esto tendría consecuencias físicas.
Obviamente hacen falta más pruebas experimentales. De confirmarse el resultado tendría grandes implicaciones astrofísicas y cosmológicas.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3857
Fuentes y referencias:
Springer.
Artículo original.
Artículo en ArXiv.
¿Neutrones escapando de uno a otro universo?

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

viernes, 15 de junio de 2012

Pila de combustible española se adelanta al objetivo de potencia de EEUU

Fuente:  Biblioteca Instituto Química-Física Rocasolano

El Departamento de Energía de EEUU ha marcado una meta de potencia para las pilas de combustibles a cumplir en 2017, pero investigadores de la UNED ya lo han conseguido. El secreto es un nuevo método de fabricación desarrollado y patentado por el equipo español para uno de sus componentes. “En el área de las pilas de combustible, el Departamento de Energía de EEUU planteó unos objetivos que deberían alcanzarse entre 2017-2020, y algunos de estos ya los hemos superado en nuestro laboratorio”, explica Pedro Luis García Ybarra, investigador del departamento de Física Matemática y de Fluidos de la UNED. 

Su equipo ha desarrollado un método de fabricación para uno de los componentes que permite a la pila superar la meta de potencia marcada en EEUU.
Así, con una carga ultra-baja de platino de 0,01 mg/cm2 en los electrodos, han alcanzado una alto aprovechamiento de platino que permite generar 10 kW/g de este metal, unas cifras que mejoran sensiblemente las previstas por el departamento norteamericano (8 kW/g con una carga de platino diez veces superior, de 0,125 mg/cm2).
Normalmente, las pilas de combustible generan electricidad a partir de hidrógeno y aire. Este proceso es limpio, ya que expulsan vapor de agua en lugar de producir CO2, como los motores de combustión interna de gasolina y gasoil. Además, si el hidrógeno se obtiene a partir de energías renovables (por hidrólisis de agua, por ejemplo, con energía eólica o solar) la contaminación en este ciclo energético se reduciría a niveles mínimos.
Para superar el rendimiento marcado por las autoridades norteamericanas, los científicos han optimizado un elemento de la pila polimérica denominado 'ensamblaje membrana-electrodos' (MEA). “Este componente es común a todas las pilas de combustible poliméricas”, afirma José Luis Castillo, investigador también del departamento de Física Matemática y de Fluidos de la UNED.
Controlar las propiedades del material 
El resultado ha sido patentado por los investigadores como una metodología para depositar capas delgadas y nanoestructuradas de electrocatalizador sobre los electrodos, que se unen por simple contacto a ambos lados de la membrana polimérica, constituyendo el MEA.
Gracias a la metodología utilizada para la deposición de la capa catalítica (electrospray) se consigue aumentar considerablemente el rendimiento. “Hemos sido capaces de controlar las propiedades morfológicas (porosidad y rugosidad) del material generado por las partículas cuando se depositan, aumentando sustancialmente la superficie activa”, asegura Castillo, y añade: “Como el rendimiento depende de la superficie de las partículas catalíticas expuesta al gas reactivo, y esta se ha hecho muy grande, hemos alcanzado un elevado rendimiento”.
Otra de las ventajas del procedimiento es su facilidad para ser escalado, es decir, que estos componentes de las pilas pueden reproducirse a escala industrial a bajo coste, evitando las dificultades registradas con otras metodologías.
El coste del catalizador de platino supone más del 30 % del valor total de una pila. De ahí que construir pilas de combustible a precios competitivos sea uno de los retos perseguidos por la comunidad investigadora. Con pilas baratas podría generalizarse su uso en automoción, sustituyendo los motores de combustión interna por motores eléctricos alimentados por una pila de combustible.
Adecuación a la demanda energética
Abaratando costes, también podría explotarse otra de sus posibles aplicaciones: dar solución al problema de la discontinuidad y la adecuación a la demanda energética que presentan las energías renovables. 
Actualmente, los acumuladores eléctricos (baterías) solucionan el problema, pero las pilas de combustible serían una medida más sencilla y económica.
“Una de las ideas es utilizar el exceso de electricidad generado en las horas valle de demanda para, mediante la hidrólisis del agua, producir hidrógeno y almacenarlo. Así, cuando llegue una hora pico de demanda, se conectaría la pila de combustible para conseguir una generación adicional de electricidad”, detalla García Ybarra. “De esta forma, se consigue estabilizar la producción de energía mediante fuentes renovables”, añade el investigador.
Junto al reto de abaratar componentes, los científicos tienen por delante conseguir que estos sean duraderos. De momento, una de las pilas desarrolladas por los investigadores ya lleva funcionando más de 1.000 horas de forma ininterrumpida.

viernes, 1 de junio de 2012

Libros gratis para programadores.

Una interesante colección de literatura para programadores completamente gratuita (pero en inglés). El origen de la lista es este.

Programming Language basics

Android – free Ebooks

C / C++ - free Ebooks

ColdFusion - free Ebooks

Delphi / Pascal - free Ebooks

Django - free Ebooks

F# - free Ebooks

HTML / CSS - free Ebooks

Java - free Ebooks

JavaScript - free Ebooks

JavaScript (Node.js specific) - free Ebooks

Latex - free Ebooks

Lisp - free Ebooks

.NET (C# / VB / Nemerle / Visual Studio) - free Ebooks

Objective-C - free Ebooks

Oracle PL/SQL - free Ebooks

Perl - free Ebooks

PHP - free Ebooks

PostgreSQL - free Ebooks

Python - free Ebooks

Ruby - free Ebooks

Ruby on Rails - free Ebooks

SQL (implementation agnostic) - free Ebooks

Humble Indie Bundle V

Ya van por la quinta edición del "Humble Bundle":

Diseño gráfico y visualización científica en física de partículas

Fuente: Francis (th)E mule


Un protón formado por tres quarks unidos por un campo de gluones. (C) CERN 2011.
Hay muchas maneras de representar una partícula, como un electrón o un quark, o una partícula compuesta, como un protón o un pión. Cada representación tiene sus ventajas y sus inconvenientes de cara al especialista y a la divulgación. En esta entrada expondré una de las que más me gusta, que incluye información sobre la carga eléctrica, la carga débil, la carga de color y el espín de cada partícula. Ha sido propuesta por el Grupo de Trabajo en Animaciones del CERN (CERN Working Group on Animations), cuyo objetivo es facilitar la divulgación de la física de partículas en animaciones, vídeos y documentales. La descubrí gracias a Rolf Landua, “Graphical representation and animations of CERN physics and technologies,” IPPOG Meeting, 4 November 2011.
Esta figura representa un quark arriba (up) cuyo espín es +1/2, su carga eléctrica es +2/3, su carga de color es “azul” y su carga débil (sabor) es “arriba.” El espín de un fermión se representa mediante un remolino blanco en el centro, que rota en el sentido de las agujas del reloj para el valor +1/2 y en sentido antihorario para el valor −1/2. [Como bien dice Mario Herrero @Fooly_Cooly en Twitter, el torbellino representa la helicidad de la partícula, la proyección del espín en la dirección del momento lineal o velocidad, correspondiendo los valores +1/2 y −1/2 a partículas levógiras y dextrógiras; también puede ser la quiralidad, el doble de la helicidad, pero sus valores son +1 o −1]. La carga de color puede ser azul, verde, rojo o neutra y se representa con la esfera colocada en el centro. La carga eléctrica positiva, negativa o neutra se representa con un color rosa, celeste o gris y se representa con la esfera más externa. El sabor se representa con uno, dos o tres agujeros según la familia de la partícula, colocados arriba o abajo.
Esta figura representa tres quarks arriba cada uno de un color diferente (azul, verde y rojo).
Ahora se muestran dos quarks rojos, uno con sabor arriba (carga eléctrica +2/3) y otro con sabor abajo (carga eléctrica −1/3).
Las cuatro partículas de la primera generación (marcadas con un solo agujero) se representan en esta figura. El electrón tiene carga eléctrica −1, es neutro para la carga de color y en este caso tiene espín +1/2. El neutrino electrónico es neutro tanto para la carga eléctrica como para la carga de color y en este caso también tiene espín +1/2.
Esta figura representa las tres generaciones de leptones, la primera con el electrón y el neutrino e (electrónico), la segunda con el muón y el neutrino mu (muónico), y la tercera con el leptón tau y el neutrino tau (tauónico). Una representación similar se utiliza para los 6 quarks, además de los de primera generación, el arriba (up) y el abajo (down), los de segunda, el encantado (charm) y el extraño (strange), y los de tercera, el cima (top) y el fondo (bottom). Te dejo como ejercicio, si te apetece, dibujar en papel estos quarks (o utilizando un programa gráfico en tu ordenador).
Las antipartículas se pueden representar de forma totalmente similar a las partículas, cambiando el signo de la carga eléctrica, cambiando el color a un anticolor y cambiando la dirección del espín [Como bien dice Mario Herrero @Fooly_Cooly en Twitter, el torbellino representa la helicidad (o quiralidad) de la partícula e invierte su valor al pasar de la partícula a la antipartícula]. Los colores RGB (rojo, verde y azul) tienen como anticolores CMY (celeste, morado y amarillo). La figura de arriba muestra los quarks y antiquarks de la primera generación, con color rojo los primeros y anticolor celeste los segundos.
Esta figura muestra los leptones y antileptones de la primera generación, en concreto el electrón, el positrón, el neutrino electrónico y el antineutrino electrónico. Hay una propiedad importante de las partículas que no ha sido representada, la helicidad, ¿cómo crees que podría ser incorporada? Te lo dejo como ejercicio.
Hasta ahora hemos visto cómo representar los fermiones del modelo estándar, pero también hay que representar los bosones gauge cuyo espín es 1 y se representará por dos ondulaciones. Esta figura representa el fotón y su color es gris porque es neutro para la carga eléctrica y para la carga de color. Como su masa es nula, su interior aparece hueco.
Los bosones vectoriales electrodébiles se representan de forma similar al fotón, pero con un color que indica su carga eléctrica y con una esfera en su interior que recuerda que tienen masa no nula.
Los gluones son bosones de espín 1 y masa nula, neutros para la carga eléctrica, pero cargados con un color y un anticolor, en este caso rojo y antiazul.
Hay 8 gluones diferentes y cada uno puede tener una de las 9 combinaciones de color que se muestran en esta figura.
La única partícula que nos queda es el bosón de Higgs. ¿Cómo lo representarías?
PS: Javier nos propone la representación del Higgs que aparece abajo, a la izquierda, aunque la recomendada es la que aparece a la derecha, similar a la propuesta por Amarashiki en los comentarios.