Fuente: Muy Linux
Vuelve The Humble Indie Bundle con su séptima edición multiplataforma, con seis nuevos juegos para disfrutar en Windows, Mac OS X y Linux
al precio que cada uno esté dispuesto a pagar, a partir de un dólar,
con la posibilidad de repartir lo que se pague entre los organizadores
de la promoción, los desarrolladores de los juegos y dos instituciones
benéficas, Electronic Frontier Foundation y y Child’s Play Charity.
En esta ocasión los juegos seleccionados son Snapshot, The Blinding of Isaac, Closure, Indie Game: The Movie y Shank2, además de Dungeon Defender y Legend of Grimrock, estos dos últimos solo disponibles si se paga más de la media, que en estos momentos ronda los 6 dólares y pico.
Como en las anteriores ediciones ‘indie’ de The Humble Bundle, todos los juegos son multiplataforma, libres de DRM y se incluye con la descarga las bandas sonoras originales de los mismos. Quedan 14 días hasta que finalice la promoción, así que ya lo sabes, pasar las Navidades jugando nunca ha sido tan barato.
jueves, 20 de diciembre de 2012
martes, 18 de diciembre de 2012
El chelín, el penique y la crisis de los medios
Fuente: La aldeairreductible
Cuenta uno de los acertijos de “El libro de los enigmas de Sherlock Holmes”
que cierto día el célebre detective se encontraba en un pequeño pueblo
cercano a Essex llamado Dawes Health, cuando el inspector Lestrade le
invitó a visitar a una de las atracciones de aquella comarca.
Se trataba del típico “tonto del pueblo” que se había hecho famoso porque al parecer si alguien le daba a escoger entre un penique y un chelín, el muy iluso elegía siempre el penique (una moneda que valía doce veces menos que un chelín).
Para comprobarlo, el policía de Scotland Yard llamó a aquel tonto y le ofreció las dos monedas para que eligiera la que quisiera… efectivamente, el aldeano miró las dos, y cogió con gran decisión la de menos valor, para posteriormente volver a su cabaña mirándola y haciendo curiosos gestos de alegría.
Sherlock que había observado toda la escena, miró maliciosamente a Lestrade y dijo: Querido Inspector, si hay un tonto aquí… no es ese hombre.
Efectivamente… Holmes comprendió al instante que aquel aldeano había encontrado una sencilla fuente de ingresos, modestos sí, pero constantes… Se había convertido en la atracción del pueblo y los peniques seguirían llenando sus bolsillos siempre que fingiera ser tonto y continuara eligiendo la moneda pequeña.
Si alguna vez se hubiese decantado por la moneda más grande es casi seguro que tendría que decir adiós a su chollo. Ese “tonto” representa uno de los más perfectos ideales del marketing: conoce al dedillo lo que quiere ver su público, se lo da y cobra su precio.
Nuestra actualidad está repleta de estos supuestos tontos de pueblo que se ganan bien la vida haciendo (o fingiendo que hacen) el ridículo y sorprendiendo con lo inesperado. Desde un punto de vista objetivo y racional ofrecen soluciones, productos e informaciones que suenan erróneas, absurdas o estúpidas pero que se han convertido en su principal fuente de ingresos gracias a todos aquellos que las siguen comprando.
Las portadas de La Razón que diariamente tuitea el ínclito Paco Marhuenda ante el escándalo mediático del personal, los reportajes pseudocientíficos de la sección La Contra en La Vanguardia ganando críticas por cada magufada que publica, el Universo paralelo a la realidad de Intereconomía que sonroja con cada declaración de alguno de sus tertulianos o el amarillismo científico de Jose Manuel Nieves capaz de superarse con cada titulárido que regala desde sus artículos en ABC, no son más que actualizaciones del rancio cuento del penique.
Han conseguido su fuente de ingresos y son fieles a ella. ¿Que no son razonables, que no se corresponden con los datos y la realidad objetiva, que son manipulaciones llevadas al absurdo?... ¿y qué?, ¿Crees que ellos no lo saben ya?, Lo saben… como el aldeano del cuento, son conscientes a la perfección que sus surrealismos van a tener el premio de un público tan sorprendido y agradecido que apenas se fijará en la manipulación. Ellos consiguen sus peniques a diario ante el alborozo de un tipo de lector que, como Lestrade, busca con avidez la atracción más que la información.
Llevamos demasiado tiempo soportando frases, tan manidas como falsas, de “crisis del periodismo” o “crisis de la televisión” cuando en realidad lo que tenemos es una “crisis del lector o crisis del espectador”. No existe la crisis del periodismo, en este cuento, los papeles repartidos nos han dejado el personaje de Lestrade.
Telecinco hace sus numeritos rosas para sus agradecidos Lestrades. Intereconomía ofrece el circo conservador que se adapta a las posiciones políticas que sus fieles Lestrades tienen. Iker Jiménez vende las pseudociencias que sus Lestrades esperan tal y como el Sport escribe para los aficionados culés y el Marca para los del Real Madrid… ¿No fue penalti? ¿La reforma laboral es una chapuza? ¿Aquellas luces en el cielo no eran naves nodrizas de Ganímedes?... Sí, dirán ellos, ya sabemos que un penique vale menos que un chelín, pero si lo hacemos bien no conseguimos dinero…
La supuesta crisis del periodismo se acabará cuando termine la crisis de quienes la sustentan, del mismo modo que al tonto del cuento de Sherlock Holmes se le acabará el timo de la estampita cuando dejen de visitarle y ofrecerle monedas. Esa falsa crisis del periodismo acabará cuando finalicemos nuestra crisis como público. Sin lectores y espectadores capaces de ser críticos y objetivos no habrá medios de calidad.
¿Alguien espera que Telecinco, por poner un ejemplo evidente, cambie su programación y se convierta en el paradigma del rigor y la calidad televisiva de la noche a la mañana?... Espero que nadie porque mientras le sea rentable, mientras le sigan visitando, el aldeano jamás cambiará y cogerá el chelín... seguirá eligiendo el penique ante el asombro del Lestrade de turno.
La crisis está en el público antes que en los medios. Recuerda que lo que Lestrade buscaba en aquel pequeño pueblo era asistir al número del tonto perdiendo dinero… y efectivamente lo vio, aunque el tonto no era quién él pensaba.
Se trataba del típico “tonto del pueblo” que se había hecho famoso porque al parecer si alguien le daba a escoger entre un penique y un chelín, el muy iluso elegía siempre el penique (una moneda que valía doce veces menos que un chelín).
Para comprobarlo, el policía de Scotland Yard llamó a aquel tonto y le ofreció las dos monedas para que eligiera la que quisiera… efectivamente, el aldeano miró las dos, y cogió con gran decisión la de menos valor, para posteriormente volver a su cabaña mirándola y haciendo curiosos gestos de alegría.
Sherlock que había observado toda la escena, miró maliciosamente a Lestrade y dijo: Querido Inspector, si hay un tonto aquí… no es ese hombre.
Efectivamente… Holmes comprendió al instante que aquel aldeano había encontrado una sencilla fuente de ingresos, modestos sí, pero constantes… Se había convertido en la atracción del pueblo y los peniques seguirían llenando sus bolsillos siempre que fingiera ser tonto y continuara eligiendo la moneda pequeña.
Si alguna vez se hubiese decantado por la moneda más grande es casi seguro que tendría que decir adiós a su chollo. Ese “tonto” representa uno de los más perfectos ideales del marketing: conoce al dedillo lo que quiere ver su público, se lo da y cobra su precio.
Nuestra actualidad está repleta de estos supuestos tontos de pueblo que se ganan bien la vida haciendo (o fingiendo que hacen) el ridículo y sorprendiendo con lo inesperado. Desde un punto de vista objetivo y racional ofrecen soluciones, productos e informaciones que suenan erróneas, absurdas o estúpidas pero que se han convertido en su principal fuente de ingresos gracias a todos aquellos que las siguen comprando.
Las portadas de La Razón que diariamente tuitea el ínclito Paco Marhuenda ante el escándalo mediático del personal, los reportajes pseudocientíficos de la sección La Contra en La Vanguardia ganando críticas por cada magufada que publica, el Universo paralelo a la realidad de Intereconomía que sonroja con cada declaración de alguno de sus tertulianos o el amarillismo científico de Jose Manuel Nieves capaz de superarse con cada titulárido que regala desde sus artículos en ABC, no son más que actualizaciones del rancio cuento del penique.
Han conseguido su fuente de ingresos y son fieles a ella. ¿Que no son razonables, que no se corresponden con los datos y la realidad objetiva, que son manipulaciones llevadas al absurdo?... ¿y qué?, ¿Crees que ellos no lo saben ya?, Lo saben… como el aldeano del cuento, son conscientes a la perfección que sus surrealismos van a tener el premio de un público tan sorprendido y agradecido que apenas se fijará en la manipulación. Ellos consiguen sus peniques a diario ante el alborozo de un tipo de lector que, como Lestrade, busca con avidez la atracción más que la información.
Llevamos demasiado tiempo soportando frases, tan manidas como falsas, de “crisis del periodismo” o “crisis de la televisión” cuando en realidad lo que tenemos es una “crisis del lector o crisis del espectador”. No existe la crisis del periodismo, en este cuento, los papeles repartidos nos han dejado el personaje de Lestrade.
Telecinco hace sus numeritos rosas para sus agradecidos Lestrades. Intereconomía ofrece el circo conservador que se adapta a las posiciones políticas que sus fieles Lestrades tienen. Iker Jiménez vende las pseudociencias que sus Lestrades esperan tal y como el Sport escribe para los aficionados culés y el Marca para los del Real Madrid… ¿No fue penalti? ¿La reforma laboral es una chapuza? ¿Aquellas luces en el cielo no eran naves nodrizas de Ganímedes?... Sí, dirán ellos, ya sabemos que un penique vale menos que un chelín, pero si lo hacemos bien no conseguimos dinero…
La supuesta crisis del periodismo se acabará cuando termine la crisis de quienes la sustentan, del mismo modo que al tonto del cuento de Sherlock Holmes se le acabará el timo de la estampita cuando dejen de visitarle y ofrecerle monedas. Esa falsa crisis del periodismo acabará cuando finalicemos nuestra crisis como público. Sin lectores y espectadores capaces de ser críticos y objetivos no habrá medios de calidad.
¿Alguien espera que Telecinco, por poner un ejemplo evidente, cambie su programación y se convierta en el paradigma del rigor y la calidad televisiva de la noche a la mañana?... Espero que nadie porque mientras le sea rentable, mientras le sigan visitando, el aldeano jamás cambiará y cogerá el chelín... seguirá eligiendo el penique ante el asombro del Lestrade de turno.
La crisis está en el público antes que en los medios. Recuerda que lo que Lestrade buscaba en aquel pequeño pueblo era asistir al número del tonto perdiendo dinero… y efectivamente lo vio, aunque el tonto no era quién él pensaba.
jueves, 13 de diciembre de 2012
¿Cuántos vacíos hay en la teoría de cuerdas?
Fuente: Francis (th)E mule
La teoría de cuerdas, teoría M, teoría F, o como quieras llamarla, pretende describir la realidad a muy alta energía, la escala de Planck. La física a baja energía que nos rodea todos los días e incluso la física a “altas” energías en los grandes colisionadores de partículas corresponden al vacío de la teoría ST/M/F, pues son energías ridículas comparadas con la energía de Planck. Como vivimos en el vacío de la teoría, una cuestión importante es saber si el número de vacíos posibles en la teoría ST/M/F es finito o infinito, y en caso de que sea finito, obtener una estimación de su número.
La conjetura “oficial” es que hay un número finito de vacíos posibles, pero no está demostrado; en cuanto a la estimación de dicho número hay muchas opciones que van desde los 1020 vacíos de Douglas, pasando por los 10120 de Weinberg, llegando hasta los 10506 de Bousso-Polchinski. Por concretar un número “razonable” se suele decir en casi todo los sitios que son unos 10500 vacíos (porque es un número redondo y queda muy bonito). Un número inimaginable que nos lleva al problema del paisaje (landscape), quizás la teoría ST/M/F es una teoría de todas las cosas posibles, incluyendo todo lo que nos rodea.
Quizás conviene que recordemos cómo se cuentan los vacíos y por qué es tan difícil estimar cuántos son. Me ha recordado este problema la lectura de Tamar Friedmann, Richard P. Stanley, “The String Landscape: On Formulas for Counting Vacua,” Accepted in Nucl. Phys. B, arXiv:1212.0583, Subm. 3 Dec 2012. Esta entrada le parecerá muy técnica a algunos y muy ligera a otros. Explicar estas cosas es difícil y yo soy un humilde aprendiz.
En la teoría de (super)cuerdas el espaciotiempo tiene 10 dimensiones (10D), separadas en dos partes, 4 del espaciotiempo de Minkowski ordinario (4D) y 6 dimensiones extra (6D), que no notamos porque son compactas (“muy pequeñas”). La forma de las 6 dimensiones extra debe corresponder a una solución para el vacío de las ecuaciones de Einstein de la gravedad. Si la variedad 6D se entiende en variable real, la única solución es un espaciotiempo plano. Sin embargo, si se considera la variedad 6D como una variedad en variable compleja de dimensión tres, existen soluciones de las ecuaciones de Einstein para el vacío, llamadas variedades de Calabi-Yau (CY); Calabi conjeturó su existencia y Yau la demostró (recibió por ello la Medalla Fields) usando un método no constructivo.
¿Cuántas variedades de CY hay? El propio Yau ha conjeturado que hay unas 30.000 variedades CY (por ordenador se han calculado unas 15.000), pero quizás haya más; sin embargo, muchos matemáticos, como Reid, creen que hay un número infinito. Por tanto, a día de hoy nadie sabe cuántas variedades de CY existen y no se puede descartar que su número sea infinito. Lo importante que hay que recordar es que esto no importa, como veremos en lo que sigue.
Cada variedad CY tiene una serie de parámetros continuos, los módulos (moduli), que especifican su forma y de tamaño; no es una variedad CY, pero un cilindro 2D (un dónut) está definido por dos radios que determinan su forma y su tamaño, que serían sus módulos. En teoría cuántica de campos (y la teoría de cuerdas lo es) los módulos corresponden a campos escalares y a sus correspondientes partículas; mucha gente se imagina “vibraciones” de las cuerdas a lo largo de un módulo como partículas del campo asociado. ¿Cuántos módulos tiene una variedad CY típica? No se sabe, pero se cree que es un número finito y pequeño. Se conocen variedades de CY con 101 módulos y otras con uno solo, pero la mayoría parece tener decenas de módulos.
El vacío de la teoría corresponde al estado de energía mínima. Para calcular este mínimo se suele recurrir al flujo del campo de cuerdas a través de la compactificación en la variedad de CY, aunque hay algunos autores como Banks que consideran que este procedimiento no es adecuado. Este proceso requiere minimizar una integral sobre la variedad parametrizada por los módulos. La geometría complicada de estas variedades hace que tengan muchos mínimos para el flujo (pero como son compactas dicho número es finito); el flujo del campo en estos mínimos puede ser estable, metaestable o inestable; los vacíos de la teoría se supone que corresponden a los mínimos estables (aunque algunos teóricos de cuerdas también consideran los metaestables). Además, los valores del flujo del campo están cuantizados (puede haber 1, 2, 3, …, unidades de flujo, pero no puede haber 1,46 o pi unidades de flujo). Contar el número de vacíos requiere contar cuántas variedades de CY tienen mínimos estables y cuántos valores discretos pueden tener los flujos en dichas variedades CY. La tarea no es fácil.
La labor de contar el número de vacíos parece casi imposible dada nuestra ignorancia sobre las variedades CY, sin embargo, hay un truco muy curioso, utilizar un potencial efectivo que gobierne la física a baja energía (esta idea tiene detractores pues no da cuenta de los efectos cuánticos de la gravedad, que es tratada de forma clásica). El potencial efectivo será resultado de la rotura de la supersimetría en la teoría de cuerdas. La ventaja de usar un potencial efectivo es que se pueden usar ideas de cosmología para restringir los posibles vacíos estables de la teoría. El potencial efectivo se comporta como un “paisaje de cuerdas” (string landscape) y los mínimos estables del potencial serían como mínimos “geométricos” en dicho “paisaje.” Estos mínimos conforman un conjunto “discreto” de parámetros efectivos a baja energía y tiene sentido aplicar técnicas estadísticas para estimar su número.
La forma general del potencial efectivo a baja energía se puede conjeturar (hay varias propuestas o técnicas para hacerlo que se suelen llamar técnicas de estabilización del vacío). Los posibles mínimos del potencial efectivo se corresponden con propiedades geométricas de la variedad de Calabi-Yau, como el número de ciclos (una generalización del número de Betti en las superficies); de esta forma se obtienen conjuntos para los posibles vacíos del flujo del campo de cuerdas que se pueden contar utilizando herramientas geométricas. Se conocen varias técnicas de estabilización del vacío y cada una ofrece una cuenta diferente para el número de vacíos; aunque estas técnicas no son aplicables a todas las teorías de cuerdas (recuerda que hay cinco teorías), como éstas son duales entre sí (representan la misma física), se supone que las cuentas deberían coincidir para todas ellas. Los primeros trabajos que contaron el número de vacíos se centraron en las teorías de cuerdas IIB y IIA, pero en los últimos años también se han aplicado a las cuerdas heteróticas. El problema es que los números no suelen coincidir en las diferentes teorías de cuerdas, lo que disgusta a algunos expertos.
La técnica más famosa para contar vacíos, aplicada a la teoría de cuerdas IIB, fue introducida por Kachru, Kallosh, Linde y Trivedi, por eso se llama técnica KKLT. Utilizando técnicas de D-branas, KKLT logran estabilizar los vacíos restringiendo los módulos de tamaño de las variedades de CY; lo sorprendente es que su idea también restringe de forma “milagrosa” los módulos de forma. Todo ello les permite contar el número de vacíos posibles. Obviamente, la técnica KKLT es solo un “modelo de juguete” de cómo se pueden estabilizar los módulos. ¿Cuántos vacíos hay según la técnica KKLT en una teoría de cuerdas IIB? El artículo técnico ofrece varios valores, dependiendo de ciertos detalles técnicos del modelo efectivo utilizado, unos 10307, 10398, o 10506 vacíos. Que el mismo artículo/técnica ofrezca valores tan variados puede hacer sospechar de la calidad del resultado, por ello muchos expertos afirman que KKLT estimaron unos 10500 vacíos. Un número “redondo” donde los haya.
¿Cuántos vacíos hay la teoría M en once dimensiones? En esta teoría las 7 dimensiones extra (7D) se compactifican utilizando una variedad con grupo de holonomía G2. Estas variedades son mucho más díficiles de estudiar que las variedades CY y se conocen poco sus propiedades. También se ha conjeturado que hay un número finito, pero sin demostración. Las variedades G2 tiene módulos y se han desarrollado técnicas de estabilización del vacío que permiten contar su número. De nuevo, se obtienen muchos.
¿Cuántos vacíos hay en la teoría F en doce dimensiones? En esta teoría las 8 dimensiones extra (8D) se compactifican en una variedad de Calabi-Yau con 4 dimensiones complejas. Muchas de las técnicas de estabilización de vacíos para la teoría de cuerdas se pueden utilizar en este contexto. Aunque me repita, de nuevo, se obtienen muchos.
¿Realmente el problema del “paisaje” es un problema en la teoría ST/M/F? Muchos físicos interpretan este problema como una señal de que la teoría ST/M/F no puede ser la respuesta correcta (promete mucho pero no ayuda nada de nada). Sin embargo, muchos físicos de cuerdas argumentan que el problema del paisaje quizás no es un problema. Quizás el problema es que no conocemos las técnicas matemáticas adecuadas para estabilizar el vacío y estamos dando palos de ciego con nuestras torpes técnicas actuales. Quizás la teoría ST/M/F tiene un único vacío y predice el universo que conocemos. El único universo que conocemos. Quizás, el único universo posible.
¿La teoría ST/M/F es metafísica? ¿Es solo matemática? ¿Hay física en la teoría ST/M/F?
Recomiendo leer a T. Banks, “The Top 10^{500} Reasons Not to Believe in the Landscape,” arXiv:1208.5715, 28 Aug 2012. Y por supuesto, la opinión contraria de Lee Smolin, “A perspective on the landscape problem,” arXiv:1202.3373, 15 Feb 2012.
La teoría de cuerdas, teoría M, teoría F, o como quieras llamarla, pretende describir la realidad a muy alta energía, la escala de Planck. La física a baja energía que nos rodea todos los días e incluso la física a “altas” energías en los grandes colisionadores de partículas corresponden al vacío de la teoría ST/M/F, pues son energías ridículas comparadas con la energía de Planck. Como vivimos en el vacío de la teoría, una cuestión importante es saber si el número de vacíos posibles en la teoría ST/M/F es finito o infinito, y en caso de que sea finito, obtener una estimación de su número.
La conjetura “oficial” es que hay un número finito de vacíos posibles, pero no está demostrado; en cuanto a la estimación de dicho número hay muchas opciones que van desde los 1020 vacíos de Douglas, pasando por los 10120 de Weinberg, llegando hasta los 10506 de Bousso-Polchinski. Por concretar un número “razonable” se suele decir en casi todo los sitios que son unos 10500 vacíos (porque es un número redondo y queda muy bonito). Un número inimaginable que nos lleva al problema del paisaje (landscape), quizás la teoría ST/M/F es una teoría de todas las cosas posibles, incluyendo todo lo que nos rodea.
Quizás conviene que recordemos cómo se cuentan los vacíos y por qué es tan difícil estimar cuántos son. Me ha recordado este problema la lectura de Tamar Friedmann, Richard P. Stanley, “The String Landscape: On Formulas for Counting Vacua,” Accepted in Nucl. Phys. B, arXiv:1212.0583, Subm. 3 Dec 2012. Esta entrada le parecerá muy técnica a algunos y muy ligera a otros. Explicar estas cosas es difícil y yo soy un humilde aprendiz.
En la teoría de (super)cuerdas el espaciotiempo tiene 10 dimensiones (10D), separadas en dos partes, 4 del espaciotiempo de Minkowski ordinario (4D) y 6 dimensiones extra (6D), que no notamos porque son compactas (“muy pequeñas”). La forma de las 6 dimensiones extra debe corresponder a una solución para el vacío de las ecuaciones de Einstein de la gravedad. Si la variedad 6D se entiende en variable real, la única solución es un espaciotiempo plano. Sin embargo, si se considera la variedad 6D como una variedad en variable compleja de dimensión tres, existen soluciones de las ecuaciones de Einstein para el vacío, llamadas variedades de Calabi-Yau (CY); Calabi conjeturó su existencia y Yau la demostró (recibió por ello la Medalla Fields) usando un método no constructivo.
¿Cuántas variedades de CY hay? El propio Yau ha conjeturado que hay unas 30.000 variedades CY (por ordenador se han calculado unas 15.000), pero quizás haya más; sin embargo, muchos matemáticos, como Reid, creen que hay un número infinito. Por tanto, a día de hoy nadie sabe cuántas variedades de CY existen y no se puede descartar que su número sea infinito. Lo importante que hay que recordar es que esto no importa, como veremos en lo que sigue.
Cada variedad CY tiene una serie de parámetros continuos, los módulos (moduli), que especifican su forma y de tamaño; no es una variedad CY, pero un cilindro 2D (un dónut) está definido por dos radios que determinan su forma y su tamaño, que serían sus módulos. En teoría cuántica de campos (y la teoría de cuerdas lo es) los módulos corresponden a campos escalares y a sus correspondientes partículas; mucha gente se imagina “vibraciones” de las cuerdas a lo largo de un módulo como partículas del campo asociado. ¿Cuántos módulos tiene una variedad CY típica? No se sabe, pero se cree que es un número finito y pequeño. Se conocen variedades de CY con 101 módulos y otras con uno solo, pero la mayoría parece tener decenas de módulos.
El vacío de la teoría corresponde al estado de energía mínima. Para calcular este mínimo se suele recurrir al flujo del campo de cuerdas a través de la compactificación en la variedad de CY, aunque hay algunos autores como Banks que consideran que este procedimiento no es adecuado. Este proceso requiere minimizar una integral sobre la variedad parametrizada por los módulos. La geometría complicada de estas variedades hace que tengan muchos mínimos para el flujo (pero como son compactas dicho número es finito); el flujo del campo en estos mínimos puede ser estable, metaestable o inestable; los vacíos de la teoría se supone que corresponden a los mínimos estables (aunque algunos teóricos de cuerdas también consideran los metaestables). Además, los valores del flujo del campo están cuantizados (puede haber 1, 2, 3, …, unidades de flujo, pero no puede haber 1,46 o pi unidades de flujo). Contar el número de vacíos requiere contar cuántas variedades de CY tienen mínimos estables y cuántos valores discretos pueden tener los flujos en dichas variedades CY. La tarea no es fácil.
La labor de contar el número de vacíos parece casi imposible dada nuestra ignorancia sobre las variedades CY, sin embargo, hay un truco muy curioso, utilizar un potencial efectivo que gobierne la física a baja energía (esta idea tiene detractores pues no da cuenta de los efectos cuánticos de la gravedad, que es tratada de forma clásica). El potencial efectivo será resultado de la rotura de la supersimetría en la teoría de cuerdas. La ventaja de usar un potencial efectivo es que se pueden usar ideas de cosmología para restringir los posibles vacíos estables de la teoría. El potencial efectivo se comporta como un “paisaje de cuerdas” (string landscape) y los mínimos estables del potencial serían como mínimos “geométricos” en dicho “paisaje.” Estos mínimos conforman un conjunto “discreto” de parámetros efectivos a baja energía y tiene sentido aplicar técnicas estadísticas para estimar su número.
La forma general del potencial efectivo a baja energía se puede conjeturar (hay varias propuestas o técnicas para hacerlo que se suelen llamar técnicas de estabilización del vacío). Los posibles mínimos del potencial efectivo se corresponden con propiedades geométricas de la variedad de Calabi-Yau, como el número de ciclos (una generalización del número de Betti en las superficies); de esta forma se obtienen conjuntos para los posibles vacíos del flujo del campo de cuerdas que se pueden contar utilizando herramientas geométricas. Se conocen varias técnicas de estabilización del vacío y cada una ofrece una cuenta diferente para el número de vacíos; aunque estas técnicas no son aplicables a todas las teorías de cuerdas (recuerda que hay cinco teorías), como éstas son duales entre sí (representan la misma física), se supone que las cuentas deberían coincidir para todas ellas. Los primeros trabajos que contaron el número de vacíos se centraron en las teorías de cuerdas IIB y IIA, pero en los últimos años también se han aplicado a las cuerdas heteróticas. El problema es que los números no suelen coincidir en las diferentes teorías de cuerdas, lo que disgusta a algunos expertos.
La técnica más famosa para contar vacíos, aplicada a la teoría de cuerdas IIB, fue introducida por Kachru, Kallosh, Linde y Trivedi, por eso se llama técnica KKLT. Utilizando técnicas de D-branas, KKLT logran estabilizar los vacíos restringiendo los módulos de tamaño de las variedades de CY; lo sorprendente es que su idea también restringe de forma “milagrosa” los módulos de forma. Todo ello les permite contar el número de vacíos posibles. Obviamente, la técnica KKLT es solo un “modelo de juguete” de cómo se pueden estabilizar los módulos. ¿Cuántos vacíos hay según la técnica KKLT en una teoría de cuerdas IIB? El artículo técnico ofrece varios valores, dependiendo de ciertos detalles técnicos del modelo efectivo utilizado, unos 10307, 10398, o 10506 vacíos. Que el mismo artículo/técnica ofrezca valores tan variados puede hacer sospechar de la calidad del resultado, por ello muchos expertos afirman que KKLT estimaron unos 10500 vacíos. Un número “redondo” donde los haya.
¿Cuántos vacíos hay la teoría M en once dimensiones? En esta teoría las 7 dimensiones extra (7D) se compactifican utilizando una variedad con grupo de holonomía G2. Estas variedades son mucho más díficiles de estudiar que las variedades CY y se conocen poco sus propiedades. También se ha conjeturado que hay un número finito, pero sin demostración. Las variedades G2 tiene módulos y se han desarrollado técnicas de estabilización del vacío que permiten contar su número. De nuevo, se obtienen muchos.
¿Cuántos vacíos hay en la teoría F en doce dimensiones? En esta teoría las 8 dimensiones extra (8D) se compactifican en una variedad de Calabi-Yau con 4 dimensiones complejas. Muchas de las técnicas de estabilización de vacíos para la teoría de cuerdas se pueden utilizar en este contexto. Aunque me repita, de nuevo, se obtienen muchos.
¿Realmente el problema del “paisaje” es un problema en la teoría ST/M/F? Muchos físicos interpretan este problema como una señal de que la teoría ST/M/F no puede ser la respuesta correcta (promete mucho pero no ayuda nada de nada). Sin embargo, muchos físicos de cuerdas argumentan que el problema del paisaje quizás no es un problema. Quizás el problema es que no conocemos las técnicas matemáticas adecuadas para estabilizar el vacío y estamos dando palos de ciego con nuestras torpes técnicas actuales. Quizás la teoría ST/M/F tiene un único vacío y predice el universo que conocemos. El único universo que conocemos. Quizás, el único universo posible.
¿La teoría ST/M/F es metafísica? ¿Es solo matemática? ¿Hay física en la teoría ST/M/F?
Recomiendo leer a T. Banks, “The Top 10^{500} Reasons Not to Believe in the Landscape,” arXiv:1208.5715, 28 Aug 2012. Y por supuesto, la opinión contraria de Lee Smolin, “A perspective on the landscape problem,” arXiv:1202.3373, 15 Feb 2012.
lunes, 10 de diciembre de 2012
Elimina la publicidad de Amazon de Ubuntu 12.10
Fuente: Muy Computer
Batacazo de Ubuntu 12.10 en materia de privacidad.
Así titulábamos ayer un artículo que repasa el gran error cometido por
los desarrolladores de Ubuntu en la última versión de la distribución.
La introducción, sin permiso del usuario, de publicidad de Amazon en el mismo menú de aplicaciones del sistema es antiestética, molesta y nada certera para con la privacidad del usuario. Pero todo tiene solución…
Lo primero que puedes hacer es acceder a las opciones de privacidad que ha incluido Ubuntu en Configuración del sistema, y desactivar las búsquedas en línea, tal y como muestra la siguiente imagen:
Si no quieres llegar tan lejos y prefieres conservar, por ejemplo, las búsquedas de vídeos en YouTube, entonces procede a desinstalar el paquete llamado unity-lens-shopping que encontrarás en el centro de software de Ubuntu:
Y no hay más, ya te has librado de la molesta publicidad de Amazon,
que para más inri también penaliza el rendimiento del menú (aunque éste
sea el menor de los problemas).
Claro está, si lo que quieres es ahorrar recursos y además no te terminar de convencer Unity, hace poco que explicamos cómo recuperar el escritorio clásico en Ubuntu.
La introducción, sin permiso del usuario, de publicidad de Amazon en el mismo menú de aplicaciones del sistema es antiestética, molesta y nada certera para con la privacidad del usuario. Pero todo tiene solución…
Lo primero que puedes hacer es acceder a las opciones de privacidad que ha incluido Ubuntu en Configuración del sistema, y desactivar las búsquedas en línea, tal y como muestra la siguiente imagen:
Claro está, si lo que quieres es ahorrar recursos y además no te terminar de convencer Unity, hace poco que explicamos cómo recuperar el escritorio clásico en Ubuntu.
Universo, simulaciones y computación
Fuente: Neofronteras
Un par de resultados recientes hablan de la relación entre el Universo y la computación.
La ciencia ficción ha propuesto reiteradas veces que podría ser
posible que fuéramos una simulación en un ordenador. Esta idea ya se
había propuesto antes de que se estrenara Matrix, que obviamente bebe de
las fuentes de Philip K. Dick.
Según esta idea todo los que nos rodea nos rodea: la Tierra, el Sistema Solar, la Vía Láctea y todo el Universo, no sería más que una simulación en un computador que algo parecido a unos dioses tendrían en algún lado. Toda la historia de la humanidad, sus logros o sus obras serían el subproducto de una gran simulación computacional. Nuestros sentimientos, pasiones, mezquindades, buenas obras y los hallazgos de la ciencia también serían unas cadenas de bits en frenética combinación entre sí. Todo el Universo duraría hasta que alguien al otro lado apretara el botón de reset y entonces toda nuestra existencia caería por completo en el más absoluto olvido.
Pero una cosa es lo que dice la ciencia ficción y otra lo que dice la ciencia. La realidad es que nosotros no podemos simular más que una pequeña parte del Universo en nuestros computadores. Simular todo el Universo se antoja imposible. Quizás podremos algún día simular un universo alternativo menos ambicioso, pero no el nuestro. No tenemos suficientes átomos en el Universo para simular la autoorganización de todos los átomos del propio Universo. Si nos vamos a la escala de lo muy pequeño ni siquiera podemos simular la estructura del propio espacio-tiempo, pues incluso carecemos de una teoría para ello. A lo más podemos hacer algunas simulaciones en el retículo de la Cromodinámica Cuántica, que nos proporciona predicciones de cómo se organizar los quarks entre sí. Y estas simulaciones sólo llegan el femtometro de tamaño.
Hace unas semanas hubo cierto revuelo en la blogosfera sobre un artículo publicado en los ArXiv por parte de Silas Beane, de la Universidad de Bonn (Alemania), y sus colaboradores. Según estos teóricos se podían encontrar pruebas de que el Universo es una simulación, aunque tampoco aseguraban que así fuera.
Un problema que surge con esta idea de la simulación es que las leyes de la Física parecen vivir en un continuo en lugar de en un espacio discreto. Si fuéramos una simulación tendrían que ser lo segundo, tendríamos que ver los “píxeles” o los “bits” que componen la “realidad” a algún nivel.
Beane imaginó que si a cierto nivel hay una discretización entonces debe de tener un efecto en lo que observamos en el Universo, sobre todo en los procesos muy energéticos. Si nos fijamos un poco es similar a la idea, menos esotérica, de ver la estructura del espacio-tiempo a la escala de Planck usando fotones gamma y midiendo diferencias en su tiempo de vuelo a lo largo de grandes distancias. En este caso el efecto se debería a que ninguna partícula o efecto puede ser menor que la celda unidad de la simulación.
Estos investigadores especularon que si el Universo es una simulación entonces debe de haber un corte en el espectro de energía de las partículas de alta energía. Ese límite existe y se llama Greisen–Zatsepin–Kuzmin (GZK), pero es atribuido a la interacción de los rayos cósmicos ultraenergéticos con los fotones del fondo cósmico de microondas, de tal modo que, en su viaje por el Universo, las partículas de rayos cósmicos más energéticas van perdiendo energía y al medir su energía nunca encontramos que superen el límite GZK.
Pero estos investigadores asumieron que si el Universo es una simulación y el retículo de simulación está compuesto por celdas cúbicas entonces habrá una anisotropía en este efecto. No sería lo mismo que una partícula viajase en la simulación en dirección a las caras de cada cubo que en dirección hacia las esquinas. Esto afectaría a los rayos cósmicos que medimos, pues tendrían una dirección de propagación preferente a través de las caras de los cubos. Esto podría ser medido.
Sin embargo, la idea presenta un par de problemas. Uno es que los semidioses que nos simulan pueden haber elegido un retículo distinto al cúbico, quizás hexagonal o triangular. El otro problema es que si la idea es cierta y el límite GZK corresponde a este fenómeno, entonces el tamaño de cada celda del retículo es increíblemente pequeño, en concreto de 10-27 metros.
Obviamente este tipo de cosas no se plantean seriamente (pese a lo que dicen los autores en su artículo) y son más bien un divertimento de físicos teóricos, aunque sirven para pensar sobre problemas fundamentales. Y, como los filósofos ya solucionaron en el pasado, si somos una simulación y ésta es tan buena que es indistinguible de la “realidad” entonces no importa y la simulación es tan “real” como deseemos que sea.
Pero si no somos una simulación quizás podamos creer en algo menos drástico. Quizás el Universo en sí mismo es un gran computador. Según esta visión, dado un estado inicial determinado como input, el Universo genera estados futuros como outputs de una simulación. Esta idea se ha propagado por ciertos ámbitos sin que se haya considerado su validez o se hayan tenido en cuenta otras alternativas. Es meramente una asunción que uno debería cuestionar.
Ahora Ken Wharton, de San Jose State University (California), ha escrito un artículo en el que desafía esta idea. Según él esta hipótesis es muy antropocéntrica y asume que el Universo funciona de la misma manera que los humanos resolvemos problemas en la Física.
Entre los problemas que Wharton ve a esta idea está el que para computar el mundo físico primero hay que hacer una correspondencia entre su estado y un estado matemático que es el que se va a computar. Luego ese estado matemático evoluciona hacia otro estado y este nuevo estado se pone en correspondencia con el mundo físico. Pero esto no está permitido por la Mecánica Cuántica a no ser que asumamos que el estado final es probabilístico. Ni siquiera el Universo conoce que estado particular va a adoptar. Además, cuando el Universo es medido se produce un output específico por el mismo acto de medición y un computador clásico no puede tener en cuenta esto.
Quizás lo más interesante de este pensamiento es que las leyes que gobiernan el Universo no pueden expresarse en términos computacionales.
Wharton propone una hipótesis alternativa basada en la idea de Lagrange según la cual las leyes físicas están basadas en el principio de mínima acción.
Así por ejemplo cuando una haz de luz se refracta la pasar del aire al agua, no lo hace por algún tipo de algoritmo, sino porque es el modo más eficiente de propagarse. La trayectoria entre el punto inicial y final unidos por ese haz de luz sería la distancia más corta entre esos dos puntos de entre todas las posibles.
Lo malo es que puede que el Universo tampoco funcione bajo el principio de mínima acción, pues éste no es más que un buen truco que hemos encontrado para resolver ciertos problemas en Física. Además de ser una idea ingenua con la que trabajar.
De todos modos, la idea básica de Wharton de desafiar la hipótesis del Universo como un computador es buena y, sobre todo, esperemos que dé pie a otras alternativas mejores. Al fin y al cabo, es así como funciona la ciencia, sobre todo si esas nuevas ideas se pueden contrastar con la realidad de algún modo.
Yace un problema epistemológico en esa dicotomía entre modelos de realidad y realidad, entre simulaciones de realidad y la realidad, entre lo que sabemos sobre la realidad y la realidad misma, entre una mente perteneciente a la realidad pensando sobre la realidad a la que pertenece o entre un computador físico simulando una parte de la realidad a la que él mismo pertenece. Por no saber no sabemos la relación real entre Matemáticas y realidad, ¿son éstas simplemente una herramienta o tienen alguna correspondencia con la propia realidad? Ya sólo nos quedaría sacar a colación a Gödel y Turing.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3982
Fuentes y referencias:
Artículo en ArXiv.
Artículo en ArXiv.
Según esta idea todo los que nos rodea nos rodea: la Tierra, el Sistema Solar, la Vía Láctea y todo el Universo, no sería más que una simulación en un computador que algo parecido a unos dioses tendrían en algún lado. Toda la historia de la humanidad, sus logros o sus obras serían el subproducto de una gran simulación computacional. Nuestros sentimientos, pasiones, mezquindades, buenas obras y los hallazgos de la ciencia también serían unas cadenas de bits en frenética combinación entre sí. Todo el Universo duraría hasta que alguien al otro lado apretara el botón de reset y entonces toda nuestra existencia caería por completo en el más absoluto olvido.
Pero una cosa es lo que dice la ciencia ficción y otra lo que dice la ciencia. La realidad es que nosotros no podemos simular más que una pequeña parte del Universo en nuestros computadores. Simular todo el Universo se antoja imposible. Quizás podremos algún día simular un universo alternativo menos ambicioso, pero no el nuestro. No tenemos suficientes átomos en el Universo para simular la autoorganización de todos los átomos del propio Universo. Si nos vamos a la escala de lo muy pequeño ni siquiera podemos simular la estructura del propio espacio-tiempo, pues incluso carecemos de una teoría para ello. A lo más podemos hacer algunas simulaciones en el retículo de la Cromodinámica Cuántica, que nos proporciona predicciones de cómo se organizar los quarks entre sí. Y estas simulaciones sólo llegan el femtometro de tamaño.
Hace unas semanas hubo cierto revuelo en la blogosfera sobre un artículo publicado en los ArXiv por parte de Silas Beane, de la Universidad de Bonn (Alemania), y sus colaboradores. Según estos teóricos se podían encontrar pruebas de que el Universo es una simulación, aunque tampoco aseguraban que así fuera.
Un problema que surge con esta idea de la simulación es que las leyes de la Física parecen vivir en un continuo en lugar de en un espacio discreto. Si fuéramos una simulación tendrían que ser lo segundo, tendríamos que ver los “píxeles” o los “bits” que componen la “realidad” a algún nivel.
Beane imaginó que si a cierto nivel hay una discretización entonces debe de tener un efecto en lo que observamos en el Universo, sobre todo en los procesos muy energéticos. Si nos fijamos un poco es similar a la idea, menos esotérica, de ver la estructura del espacio-tiempo a la escala de Planck usando fotones gamma y midiendo diferencias en su tiempo de vuelo a lo largo de grandes distancias. En este caso el efecto se debería a que ninguna partícula o efecto puede ser menor que la celda unidad de la simulación.
Estos investigadores especularon que si el Universo es una simulación entonces debe de haber un corte en el espectro de energía de las partículas de alta energía. Ese límite existe y se llama Greisen–Zatsepin–Kuzmin (GZK), pero es atribuido a la interacción de los rayos cósmicos ultraenergéticos con los fotones del fondo cósmico de microondas, de tal modo que, en su viaje por el Universo, las partículas de rayos cósmicos más energéticas van perdiendo energía y al medir su energía nunca encontramos que superen el límite GZK.
Pero estos investigadores asumieron que si el Universo es una simulación y el retículo de simulación está compuesto por celdas cúbicas entonces habrá una anisotropía en este efecto. No sería lo mismo que una partícula viajase en la simulación en dirección a las caras de cada cubo que en dirección hacia las esquinas. Esto afectaría a los rayos cósmicos que medimos, pues tendrían una dirección de propagación preferente a través de las caras de los cubos. Esto podría ser medido.
Sin embargo, la idea presenta un par de problemas. Uno es que los semidioses que nos simulan pueden haber elegido un retículo distinto al cúbico, quizás hexagonal o triangular. El otro problema es que si la idea es cierta y el límite GZK corresponde a este fenómeno, entonces el tamaño de cada celda del retículo es increíblemente pequeño, en concreto de 10-27 metros.
Obviamente este tipo de cosas no se plantean seriamente (pese a lo que dicen los autores en su artículo) y son más bien un divertimento de físicos teóricos, aunque sirven para pensar sobre problemas fundamentales. Y, como los filósofos ya solucionaron en el pasado, si somos una simulación y ésta es tan buena que es indistinguible de la “realidad” entonces no importa y la simulación es tan “real” como deseemos que sea.
Pero si no somos una simulación quizás podamos creer en algo menos drástico. Quizás el Universo en sí mismo es un gran computador. Según esta visión, dado un estado inicial determinado como input, el Universo genera estados futuros como outputs de una simulación. Esta idea se ha propagado por ciertos ámbitos sin que se haya considerado su validez o se hayan tenido en cuenta otras alternativas. Es meramente una asunción que uno debería cuestionar.
Ahora Ken Wharton, de San Jose State University (California), ha escrito un artículo en el que desafía esta idea. Según él esta hipótesis es muy antropocéntrica y asume que el Universo funciona de la misma manera que los humanos resolvemos problemas en la Física.
Entre los problemas que Wharton ve a esta idea está el que para computar el mundo físico primero hay que hacer una correspondencia entre su estado y un estado matemático que es el que se va a computar. Luego ese estado matemático evoluciona hacia otro estado y este nuevo estado se pone en correspondencia con el mundo físico. Pero esto no está permitido por la Mecánica Cuántica a no ser que asumamos que el estado final es probabilístico. Ni siquiera el Universo conoce que estado particular va a adoptar. Además, cuando el Universo es medido se produce un output específico por el mismo acto de medición y un computador clásico no puede tener en cuenta esto.
Quizás lo más interesante de este pensamiento es que las leyes que gobiernan el Universo no pueden expresarse en términos computacionales.
Wharton propone una hipótesis alternativa basada en la idea de Lagrange según la cual las leyes físicas están basadas en el principio de mínima acción.
Así por ejemplo cuando una haz de luz se refracta la pasar del aire al agua, no lo hace por algún tipo de algoritmo, sino porque es el modo más eficiente de propagarse. La trayectoria entre el punto inicial y final unidos por ese haz de luz sería la distancia más corta entre esos dos puntos de entre todas las posibles.
Lo malo es que puede que el Universo tampoco funcione bajo el principio de mínima acción, pues éste no es más que un buen truco que hemos encontrado para resolver ciertos problemas en Física. Además de ser una idea ingenua con la que trabajar.
De todos modos, la idea básica de Wharton de desafiar la hipótesis del Universo como un computador es buena y, sobre todo, esperemos que dé pie a otras alternativas mejores. Al fin y al cabo, es así como funciona la ciencia, sobre todo si esas nuevas ideas se pueden contrastar con la realidad de algún modo.
Yace un problema epistemológico en esa dicotomía entre modelos de realidad y realidad, entre simulaciones de realidad y la realidad, entre lo que sabemos sobre la realidad y la realidad misma, entre una mente perteneciente a la realidad pensando sobre la realidad a la que pertenece o entre un computador físico simulando una parte de la realidad a la que él mismo pertenece. Por no saber no sabemos la relación real entre Matemáticas y realidad, ¿son éstas simplemente una herramienta o tienen alguna correspondencia con la propia realidad? Ya sólo nos quedaría sacar a colación a Gödel y Turing.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3982
Fuentes y referencias:
Artículo en ArXiv.
Artículo en ArXiv.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Ecos del pasado en toda una galaxia
Fuente: Ciencia Kanija
Muchas galaxias tienen un agujero negro gigante en su centro que provoca que el gas de su entorno brille. Sin embargo, en el caso de las galaxias judía verde, no solo el centro resplandece: toda la galaxia brilla. Estas nuevas observaciones revelan las regiones radiantes más grandes y resplandecientes encontradas hasta ahora, regiones que se cree están alimentadas por agujeros negros centrales, anteriormente muy activos pero que parecen estar apagándose.
Fecha Original: 5 de diciembre de 2012
Enlace Original
Observaciones llevadas a cabo con el VLT identifican un nuevo y extraño tipo de galaxia.
Utilizando observaciones realizadas con los telescopios VLT (Very Large Telescope)
de ESO, el telescopio Gemini Sur y el Canadá-Francia-Hawái Telescope
(CFHT), se ha identificado un nuevo tipo de galaxia. Apodadas como
“galaxias judía verde” por su inusual apariencia, estas galaxias
irradian en medio de la intensa luz emitida desde los alrededores de
agujeros negros monstruosos y están entre los objetos considerados más
raros del universo.
Muchas galaxias tienen un agujero negro gigante en su centro que provoca que el gas de su entorno brille. Sin embargo, en el caso de las galaxias judía verde, no solo el centro resplandece: toda la galaxia brilla. Estas nuevas observaciones revelan las regiones radiantes más grandes y resplandecientes encontradas hasta ahora, regiones que se cree están alimentadas por agujeros negros centrales, anteriormente muy activos pero que parecen estar apagándose.
El astrónomo Mischa Schirmer, del
Observatorio Gemini, ha estudiado numerosas imágenes del universo
distante, buscando cúmulos de galaxias, pero cuando dio con este objeto
en una imagen del Canadá-Francia-Hawái Telescope se quedó sorprendido —
parecía una galaxia, pero era de un brillante color verde. Era distinta a
todas las galaxias que había visto hasta el momento, algo totalmente
inesperado. Rápidamente solicitó poder usar el VLT (Very Large Telescope) de ESO para descubrir qué podría estar creando ese inusual brillo verdoso.
“Avisé a ESO con muy poco tiempo de
antelación y ellos me concedieron tiempo especial de observación; pocos
días después de enviar mi propuesta, el VLT observaba este extraño
objeto”, dice Schirmer. “Diez minutos después de obtener los datos en
Chile los tenía en mi ordenador, en Alemania. Rápidamente reenfoqué por
completo mis actividades de investigación, ya que era evidente que había
dado con algo realmente nuevo”.
El nuevo objeto ha sido etiquetado como
J224024.1−092748 o J2240. Se encuentra en la Constelación de Acuario (El
Portador de Agua) y su luz ha tardado 3700 millones de años en alcanzar
la Tierra.
Tras el descubrimiento, el equipo de
Schirmer buscó en una lista de cerca de mil millones de galaxias y
encontró 16 más con propiedades similares, que fueron confirmadas por
observaciones hechas con el telescopio Gemini Sur. Estas galaxias son
tan escasas que, en promedio, tan solo encontramos una de ellas en un
cubo cósmico de 1300 millones de años luz de lado. Este nuevo tipo de
galaxia ha sido apodada como “galaxias judía verde” por su color y
porque superficialmente son parecidas a las galaxias “guisante verde”,
aunque son de mayor tamaño.
En muchas galaxias, el material que se
encuentra alrededor del agujero negro supermasivo central emite una
intensa radiación que ioniza el gas del entorno, haciéndolo brillar
intensamente. Normalmente, estas regiones brillantes en galaxias activas
típicas son pequeñas, llegando a alcanzar un 10% del diámetro de la
galaxia. Sin embargo, las observaciones del equipo mostraron que, en el
caso de J2240 y de otras galaxias judía verde localizadas desde
entonces, son realmente inmensas, abarcando el objeto por completo.
J2240 despliega una de las regiones más grandes y brillantes de este
tipo encontradas hasta el momento. Cuando el oxígeno se ioniza,
resplandece en un brillante tono verdoso, lo que explica el extraño
color que al principio llamó la atención de Schirmer.
“Estas brillantes regiones son
fantásticos bancos de pruebas para intentar comprender la física de las
galaxias — es como si pudiéramos ponerle un termómetro a una galaxia
muy, muy lejana”, afirma Schirmer. “Normalmente, estas regiones no son
ni muy grandes ni muy brillantes, y solo pueden verse bien en galaxias
cercanas. Sin embargo, en este nuevo tipo de galaxias descubierto, pese a
estar tan lejos de nosotros, son tan grandes y brillantes que pueden
ser observadas con mucho detalle”.
Posteriores análisis de los datos
llevados a cabo por el equipo revelaron otro enigma. J2240 parecía tener
en su centro un agujero negro mucho menos activo de lo esperado para el
tamaño y el brillo de la región. El equipo cree que las regiones
incandescentes deben ser un eco de cuando el agujero negro central era
mucho más activo, y que se irá oscureciendo paulatinamente a medida que
los remanentes de la radiación atraviesen la región y salgan al espacio.
Estas galaxias presentan un centro
galáctico decadente, lo que indica una fase muy fugaz en la vida de la
galaxia. En el universo temprano las galaxias eran mucho más activas,
los agujeros negros masivos centrales en crecimiento se tragaban las
estrellas circundantes y el gas, y brillaban intensamente, produciendo
con facilidad más de cien veces más luz que todas las estrellas de la
galaxia juntas. Ecos de luz como los vistos en J2240 permiten a los
astrónomos estudiar los procesos de decadencia de estos objetos activos
para comprender más sobre cómo, cuándo y por qué se detienen — y por qué
ahora vemos tan pocos en las galaxias más jóvenes. Este es el siguiente
paso que quiere dar el equipo, continuando con su investigación con
observaciones espectroscópicas y en rayos X.
“Descubrir algo completamente nuevo es
el sueño de un astrónomo hecho realidad y algo que ocurre solo una vez
en la vida”, concluye Schirmer. “¡Es muy inspirador!”.
Fecha Original: 5 de diciembre de 2012
Enlace Original
Se mide el agujero negro más masivo e inusual
Fuente: Ciencia Kanija
Artículo publicado el 28 de noviembre de 2012 en la Universidad de Texas
El agujero negro del centro de la galaxia NGC 1277 es once veces más ancho que la órbita de Plutón alrededor del Sol.
Un equipo de astrónomos ha usado el
Telescopio Hobby-Eberly de la Universidad de Texas, en el Observatorio
McDonald en Austin, para medir la masa de lo que puede ser el agujero
negro más masivo hasta la fecha — 17 000 millones de veces la masa del
Sol — en la galaxia NGC 1277. El inusual agujero negro cuenta con el 14
por ciento de la masa de la galaxia, en lugar del 0,1 por ciento
habitual. Esta galaxia, y varias más dentro del mismo estudio, podrían
cambiar las teorías sobre cómo se forman y evolucionan las galaxias y
los agujeros negros. El trabajo aparece en el ejemplar del 29 de
noviembre de la revista Nature.
NGC 1277 se encuentra a 220 millones de años luz de distancia, en la constelación de Perseus. La galaxia tiene apenas el 10 por ciento del tamaño y la masa de la Vía Láctea. A pesar del diminuto tamaño de NGC 1277, el agujero negro que yace en su corazón tiene más de 11 veces el diámetro de la órbita de Neptuno alrededor del Sol.
“Esta galaxia es realmente extraña”,
dice el miembro del equipo Karl Gebhardt de la Universidad de Texas en
Austin. “Casi toda es agujero negro. Podría ser el primer objeto de una
nueva clase de sistemas galaxia-agujero negro”. Además, los agujeros
negros más masivos se han observado en galaxias gigantes conocidas como
“elípticas”, pero este aparece en una galaxia relativamente pequeña en
forma de lente (en la jerga astronómica, “galaxia lenticular”).
El hallazgo se realizó gracias al Hobby-Eberly Telescope Massive Galaxy Survey
(MGS). El objetivo del estudio es comprender mejor cómo se forman y
crecen juntos agujeros negros y galaxias, un proceso que no se conoce
bien.
“Por el momento, existen tres mecanismos
completamente distintos que afirman explicar el vínculo entre la masa
de los agujeros negros y las propiedades de las galaxias anfitrionas. No
comprendemos aún cuál de estas teorías es la mejor”, dice el autor
principal del artículo de Nature, Remco van den Bosch, que
empezó este trabajo mientras gozaba de la beca de posdoctorado W.J.
McDonald en la Universidad de Texas en Austin. Ahora se encuentra en el
Instituto Max Planck para Astronomía (Max Planck Institute for Astronomy) en Heidelberg, Alemania.
El problema es la falta de datos. Los
astrónomos conocen la masa de menos de 100 agujeros negros en galaxias,
pero medir la masa de los agujeros negros es difícil y lleva tiempo, por
lo que el equipo desarrolló el HET Massive Galaxy Survey para acotar el número de galaxias que sería interesante estudiar en mayor detalle.
“Cuando tratas de comprender algo,
siempre buscas los extremos: los más y menos masivos”, dice Gebhardt.
“Elegimos una muestra muy grande de las galaxias más masivas del
universo cercano” para aprender más sobre la relación entre los agujeros
negros y sus galaxias anfitrionas.
Aunque aún está en proceso, el equipo ha
estudiado 700 de las 800 galaxias con HET. “Este estudio solo es
posible gracias a HET”, dice Gebhardt. “El telescopio funciona mejor
cuando las galaxias están dispersas por todo el cielo. Esto es
exactamente para lo que se diseñó HET”.
En el artículo actual, el equipo se
centra en las seis galaxias más masivas. Encontraron que una de ellas,
NGC 1277, ya se había fotografiado por el telescopio espacial Hubble.
Esto proporcionó medidas del brillo de la galaxia a distintas distancias
desde su centro. Cuando se combinaron con los datos de HET y distintos
modelos ejecutados en supercomputadores, el resultado fue una masa para
el agujero negro de 17 000 millones de soles (con un margen de error de
3000 millones).
“La masa de este agujero negro es mucho
mayor de lo esperado”, dice Gebhardt. “Nos lleva a pensar que las
galaxias muy masivas tienen unos procesos físicos diferentes sobre cómo
crecen sus agujeros negros”.
Fecha Original: 28 de noviembre de 2012
Enlace Original
La sonda espacial Voyager 1 y la frontera del sistema solar
Fuente: Francis (th)E mule
Nadie sabe qué señal concreta marcará la salida de la sonda espacial
Voyager 1 de los confines del Sistema Solar. Este año se han observado
varias señales que indican que la Voyager 1 está atravesando una región
interesante, que quizás sea la frontera del Sistema Solar. Esta figura
muestra la evolución en el tiempo de los rayos cósmicos recibidos por la
Voyager 1; en concreto, núcleos con más de 200 MeV, electrones entre 6 y
14 MeV, y protones de ~1 MeV. Los cambios sufridos por estas señales
este año son muy complejos. El más extraordinario ocurrió el 25 de
agosto y las semanas siguientes (Voyager I recorre durante una semana
una distancia de unos 0,07 UA). La señal de protones con una energía
entre 2 y 10 MeV disminuyó bruscamente hasta la décima parte del valor
que tenía con anterioridad, mientras que la intensidad de la señal de
los núcleos y los electrones casi se duplicó. Estos valores se han
mantenido casi constantes en los últimos meses. Nadie sabe exactamente
lo que significa este cambio y habrá que esperar unos cuantos meses más
para ver si vuelve a ocurrir algo parecido. Voyager 1 fue lanzada en
1977 para explorar los planetas gigantes del sistema solar y en 1989
emprendió un viaje en dirección al centro de la Vía Láctea. Su vida útil
concluirá en 2025. Hasta entonces nos permitirá explorar las fronteras
del sistema solar, aunque ahora mismo no comprendemos en detalle lo que
Voyager I está observando, con toda seguridad acabaremos comprendiéndolo
en detalle. El artículo técnico es W. R. Webber et al., “At Voyager 1
Starting on about August 25, 2012 at a Distance of 121.7 AU From the
Sun, a Sudden Disappearance of Anomalous Cosmic Rays and an Unusually
Large Sudden Increase of Galactic Cosmic Ray H and He Nuclei and
Electron Occurred,” arXiv:1212.0883, 4 Dec 2012.
Se llama heliosfera a la región del espacio que se encuentra bajo la influencia del viento solar y de su campo magnético. Más allá de la heliosfera se supone que domina el viento interestelar. La frontera entre ambas regiones se llama heliopausa. El viento solar provoca una onda de choque de terminación. La opinión de algunos expertos es que el suceso del 25 de agosto observado en la Voyager I indica que ha cruzado esta onda de choque de terminación y que ahora está en la heliopausa. En dicho caso, en los próximos meses (o quizás años) acabará saliendo de esta región y observaremos otro cambio en su señal de rayos cósmicos. La información que nos dará Voyager I será clave para entender la composición del viento interestelar, culminando su gran legado a la ciencia. Los confines del sistema solar todavía guardan muchos secretos por desvelar.
Por cierto, la fuente de estas dos últimas imágenes es la wikipedia.
Se llama heliosfera a la región del espacio que se encuentra bajo la influencia del viento solar y de su campo magnético. Más allá de la heliosfera se supone que domina el viento interestelar. La frontera entre ambas regiones se llama heliopausa. El viento solar provoca una onda de choque de terminación. La opinión de algunos expertos es que el suceso del 25 de agosto observado en la Voyager I indica que ha cruzado esta onda de choque de terminación y que ahora está en la heliopausa. En dicho caso, en los próximos meses (o quizás años) acabará saliendo de esta región y observaremos otro cambio en su señal de rayos cósmicos. La información que nos dará Voyager I será clave para entender la composición del viento interestelar, culminando su gran legado a la ciencia. Los confines del sistema solar todavía guardan muchos secretos por desvelar.
Por cierto, la fuente de estas dos últimas imágenes es la wikipedia.
Nota dominical: La curiosa historia de la cromodinámica cuántica (QCD)
Fuente: Francis (th)E mule
Todo se clarificó a finales de los 1960 gracias a los experimentos. La colisión de electrones de alta energía contra núcleos atómicos y nucleones (protones y neutrones) demostró que estaban compuestos de partículas (partones les llamó Feynman) que no interaccionaban entre sí. Lo más obvio era que los partones fueran los quarks, pero nadie entendía cómo era posible que a cortas distancias (o energía y momento grandes) se comportaran como partículas libres, mientras que a distancias más grandes (o energía y momento más pequeños) estuvieran ligados por una interacción muy fuerte. La conjetura entre los físicos teóricos era que las teorías cuánticas de campos no podían ser asintóticamente libres. Coleman y Gross propusieron demostrar esta conjetura de forma general a dos de sus estudiantes de doctorado, Politzer y Wilczek, quienes bajo la atenta guía de Gross demostraron en 1973 que la conjetura era falsa (por ello recibieron el Premio Nobel de Física en 2004). Las teorías de Yang-Mills no abelianas son asintóticamente libres (la QED es la excepción, por ser abeliana).
La teoría de la interacción fuerte, la cromodinámica cuántica (QCD), es asintóticamente libre porque los gluones tienen carga de color, mientras que la QED no lo es porque los fotones son neutros para la carga eléctrica. La teoría de la relatividad de Einstein implica que el vacío de una teoría cuántica de campos cuyos bosones gauge no tengan masa cumpla la relación εµ = 1 donde ε es la permitividad eléctrica, µ es la permeabilidad magnética y se ha usado c=1 (la expresión dimensional es εµ = 1/c²). En la QED el apantallamiento de la carga eléctrica implica que ε > 1, por lo que el vacío de la QED actúa como un material diamagnético (µ < 1). En la QCD los gluones tienen dos colores y actúan como dipolos permanentes de color (µ > 1), por lo que la teoría predice el anti-apantallamiento de la carga de color (ε < 1); este resultado se da para 3 colores si el número de sabores (o generaciones) de quarks es menor de 17.
En 1972, Fritzsch y Gell-Mann mencionaron la posibilidad de que la teoría de los gluones fuera no abeliana, aunque el nombre de cromodinámica cuántica aparece por primera vez en un artículo de Fritzsch, Gell-Mann y Minkowski en 1975 (una nota a pie de página sugiere “A good name for this theory is quantum chromodynamics”).
Referencias para profundizar.
[1] Gerhard Ecker, “Quantum Chromodynamics,” Lectures given at the 2005 European School of High-Energy Physics, Kitzbuehel, Austria, Aug. 21 – Sept. 3, 2005 [arXiv:hep-ph/0604165].
[2] Gerhard Ecker, “The Shaping of Quantum Chromodynamics,” Quark Confinement and the Hadron Spectrum X, Munich, Oct. 8, 2012 [slides - pdf].
“It is well known that theoretical physics is at present almost helpless in dealing with the problem of strong interactions. We are driven to the conclusion that the Hamiltonian method for strong interactions is dead and must be buried, although of course with deserved honour.” Lev D. Landau (c. 1960).Muchos físicos teóricos parecen desesperados porque los experimentos no encuentran “nueva física” más allá del modelo estándar. Quizás este es el mejor momento para recordar el estado de la física de partículas en 1961. La teoría cuántica del campo electromagnético, la electrodinámica cuántica (QED), era todo un éxito, pero utilizaba un procedimiento matemático, la renormalización, que nadie entendía y que disgustaba incluso a sus descubridores (que la calificaban de “procedimiento para esconder los infinitos debajo de la alfombra”). La versión V-A de la teoría de Fermi para la interacción débil también era un éxito a nivel experimental, pero a nivel teórico era inconsistente para energías altas (aunque no fueran alcanzables en los experimentos). La interacción fuerte estaba en un estado deplorable, más allá de la clasificación de los hadrones de Gell-Mann y Zweig basada en la idea de los quarks (puras entelequias matemáticas). La mayoría de los físicos teóricos rehuía de las teorías gauge para la interacción fuerte (cuyo único éxito era la QED) y preferían ideas como el bootstrap o la democracia nuclear en el contexto de la teoría de la matriz S.
Todo se clarificó a finales de los 1960 gracias a los experimentos. La colisión de electrones de alta energía contra núcleos atómicos y nucleones (protones y neutrones) demostró que estaban compuestos de partículas (partones les llamó Feynman) que no interaccionaban entre sí. Lo más obvio era que los partones fueran los quarks, pero nadie entendía cómo era posible que a cortas distancias (o energía y momento grandes) se comportaran como partículas libres, mientras que a distancias más grandes (o energía y momento más pequeños) estuvieran ligados por una interacción muy fuerte. La conjetura entre los físicos teóricos era que las teorías cuánticas de campos no podían ser asintóticamente libres. Coleman y Gross propusieron demostrar esta conjetura de forma general a dos de sus estudiantes de doctorado, Politzer y Wilczek, quienes bajo la atenta guía de Gross demostraron en 1973 que la conjetura era falsa (por ello recibieron el Premio Nobel de Física en 2004). Las teorías de Yang-Mills no abelianas son asintóticamente libres (la QED es la excepción, por ser abeliana).
La teoría de la interacción fuerte, la cromodinámica cuántica (QCD), es asintóticamente libre porque los gluones tienen carga de color, mientras que la QED no lo es porque los fotones son neutros para la carga eléctrica. La teoría de la relatividad de Einstein implica que el vacío de una teoría cuántica de campos cuyos bosones gauge no tengan masa cumpla la relación εµ = 1 donde ε es la permitividad eléctrica, µ es la permeabilidad magnética y se ha usado c=1 (la expresión dimensional es εµ = 1/c²). En la QED el apantallamiento de la carga eléctrica implica que ε > 1, por lo que el vacío de la QED actúa como un material diamagnético (µ < 1). En la QCD los gluones tienen dos colores y actúan como dipolos permanentes de color (µ > 1), por lo que la teoría predice el anti-apantallamiento de la carga de color (ε < 1); este resultado se da para 3 colores si el número de sabores (o generaciones) de quarks es menor de 17.
En 1972, Fritzsch y Gell-Mann mencionaron la posibilidad de que la teoría de los gluones fuera no abeliana, aunque el nombre de cromodinámica cuántica aparece por primera vez en un artículo de Fritzsch, Gell-Mann y Minkowski en 1975 (una nota a pie de página sugiere “A good name for this theory is quantum chromodynamics”).
Referencias para profundizar.
[1] Gerhard Ecker, “Quantum Chromodynamics,” Lectures given at the 2005 European School of High-Energy Physics, Kitzbuehel, Austria, Aug. 21 – Sept. 3, 2005 [arXiv:hep-ph/0604165].
[2] Gerhard Ecker, “The Shaping of Quantum Chromodynamics,” Quark Confinement and the Hadron Spectrum X, Munich, Oct. 8, 2012 [slides - pdf].
viernes, 7 de diciembre de 2012
El píxel ideal: Nanocubos de plata distribuidos al azar sobre una nanocapa de oro recubierta de polímero
Fuente: Francis (th)E mule
El píxel ideal para una célula fotovoltaica o el sensor CCD de una
cámara digital debe ser eficiente, selectivo y barato de fabricar a gran
escala. Los mejores absorbentes de luz son metamateriales, pero son
difíciles de fabricar debido a su peculiar geometría. David Smith (Univ.
Duke, Durham, Carolina del Norte) y sus colegas han fabricado el píxel
ideal distribuyendo al azar nanocubos de plata (74 nm de lado
recubiertos de 3 nm de oro) encima de una nanocapa de oro (50 nm de
grosor) recubierta a su vez de una fina nanocapa de un polímero
transparente (de solo unos nanómetros de grosor). El tamaño de los
nanocubos y el grosor de la nanocapa de polímero determinan el rango de
frecuencias ópticas que absorbe el píxel. El secreto es que cada
nanocubo actúa como una nanoantena que produce plasmones en el metal,
cuya relación de dispersión depende del ratio entre el grosor de la
nanocapa de polímero y el lado del cubo de plata. La gran ventaja de la
nueva propuesta nanotecnológica es que no importa la geometría de la
distribución de los nanocubos, caigan donde caigan al fabricar el píxel
sus propiedades no se ven afectadas. Una ida realmente sugerente y
curiosa que se publica hoy en Nature. Nos lo cuenta Katharine
Sanderson, ”Sprinkled nanocubes hold light tight. Device based on
scattered silver cubes could scale up light absorption for solar power,”
Nature News, 05 Dec. 2012. El artículo técnico es Antoine Moreau et al., “Controlled-reflectance surfaces with film-coupled colloidal nanoantennas,” Nature 492: 86-89, 06 Dec 2012.
El material ideal para absorber luz debe tener una baja reflectancia y una baja transmitancia. Lograr que ambos factores sean muy pequeños en un mismo material es muy difícil (por ejemplo, los materiales opacos como los metales tienen una baja transmitancia, pero su reflectancia es grande y actúan como espejos). Los metamateriales, que alternan en una geometría regular materiales con ambas propiedades, permiten diseñar absorbentes ideales para la luz, pero su fabricación utilizando técnicas litográficas es difícil debido a su geometría compleja; además, lograr que absorban luz visible requiere una geometría en la nanoescala, difícil de controlar, por lo que su uso práctico en la industria se limita a microondas y al infrarrojo lejano. Alcanzar el infrarrojo cercano y el visible con píxeles de metamateriales de fácil fabricación industrial requiere nuevos conceptos nanotecnológicos.
Un absorbente de luz ideal debería combinar un conductor eléctrico y un conductor magnético que compensen el campo electromagnético de la onda incidente impidiendo que se refleje y que se transmita; el problema es que los conductors magnéticos no existen. Sin embargo, podemos colocar una nanoantena resonante a una distancia g (gap) sobre una película conductora; en el gap se confinará el campo electromagnético en una serie de modos resonantes. Para los modos en los que el campo eléctrico es máximo en las aristas del cubo se produce una densidad de corriente superficial de campo magnético que fluye en el gap. Con un número suficiente de nanoantenas sobre un conductor eléctrico se logra que la densidad de corriente superficial del campo magnético sea suficiente para compensar la densidad de corriente eléctrica de la onda incidente. Esta compensación ocurrirá con preferencia a cierta frecuencia óptica del espectro que dependerá del cociente entre el lado de la nanoantena y el grosor del gap.
El nuevo artículo propone usar nanocubos como nanoantenas sobre una nanopelícula de oro recubierta de un polímero como dieléctrico (con índice de refracción 1,54). La eficiencia como absorbente de estas nanoantenas ha sido calculada numéricamente utilizando el software comercial COMSOL en Matlab (para las simulaciones en dos dimensiones) y un método espectral basado en series de Fourier para las simulaciones en tres dimensiones. La figura de arriba (abajo, derecha) muestra el campo magnético de un modo guiado de tipo plasmón en el gap entre el nanocubo y la superficie metálica. El índice de refracción del dieléctrico se reduce al reducir el grosor del gap, incrementando la frecuencia (longitud de onda) del modo resonante del plasmón. La eficiencia de absorción de un nanocubo es bastante alta, del orden del 97%, por lo que para lograr una absorción ideal (100%) basta recubrir el 3% de la superficie del conductor con nanocubos.
Los autores del estudio han fabricado los píxeles con los nanocubos distribuidos de forma aleatoria y diferentes grosores para el gap calculando el espectro de absorción de los píxeles y verificando que la banda de absorción es bastante estrecha (algo deseable en la mayoría de las aplicaciones). Para lograr un banda de absorción más ancha habría que controlar durante la fabricación la distancia de separación entre los nanocubos, garantizando una separación mínima entre ellos.
Quizás algún lector que haya llegado hasta aquí se preguntará por qué los autores usan nanocubos en lugar de nanoesferas, en apariencia más difíciles de fabricar. La razón es que el plasmón entre la nanoantena y la superficie metálica cambia mucho su forma y propiedades cuando la cavidad que lo confina no tiene paredes planas. Con nanoesferas es difícil logra un buen absorbente para luz incidente en la dirección normal al conductor. Además, la clave de la absorción está en el efecto de las bordes del cubo, mucho menor en el caso de las nanoesferas. En cuanto a la fabricación de los nanocubos, en la actualidad hay técnicas de síntesis química capaces de fabricarlos a escala industrial (que nacieron hace 10 años con el artículo de Yugang Sun, Younan Xia, “Shape-Controlled Synthesis of Gold and Silver Nanoparticles,” Science 298: 2176-2179, 13 Dec 2002). El mayor problema es lograr que todos los nanocubos tengan el mismo radio. La combinación de nanocubos de tamaño ligeramente diferente reduce la absorción de cada uno, lo que se puede compensar colocando un mayor número de nanocubos sobre la superficie del conductor.
En resumen, un trabajo técnico muy interesante y bastante prometedor.
El material ideal para absorber luz debe tener una baja reflectancia y una baja transmitancia. Lograr que ambos factores sean muy pequeños en un mismo material es muy difícil (por ejemplo, los materiales opacos como los metales tienen una baja transmitancia, pero su reflectancia es grande y actúan como espejos). Los metamateriales, que alternan en una geometría regular materiales con ambas propiedades, permiten diseñar absorbentes ideales para la luz, pero su fabricación utilizando técnicas litográficas es difícil debido a su geometría compleja; además, lograr que absorban luz visible requiere una geometría en la nanoescala, difícil de controlar, por lo que su uso práctico en la industria se limita a microondas y al infrarrojo lejano. Alcanzar el infrarrojo cercano y el visible con píxeles de metamateriales de fácil fabricación industrial requiere nuevos conceptos nanotecnológicos.
Un absorbente de luz ideal debería combinar un conductor eléctrico y un conductor magnético que compensen el campo electromagnético de la onda incidente impidiendo que se refleje y que se transmita; el problema es que los conductors magnéticos no existen. Sin embargo, podemos colocar una nanoantena resonante a una distancia g (gap) sobre una película conductora; en el gap se confinará el campo electromagnético en una serie de modos resonantes. Para los modos en los que el campo eléctrico es máximo en las aristas del cubo se produce una densidad de corriente superficial de campo magnético que fluye en el gap. Con un número suficiente de nanoantenas sobre un conductor eléctrico se logra que la densidad de corriente superficial del campo magnético sea suficiente para compensar la densidad de corriente eléctrica de la onda incidente. Esta compensación ocurrirá con preferencia a cierta frecuencia óptica del espectro que dependerá del cociente entre el lado de la nanoantena y el grosor del gap.
El nuevo artículo propone usar nanocubos como nanoantenas sobre una nanopelícula de oro recubierta de un polímero como dieléctrico (con índice de refracción 1,54). La eficiencia como absorbente de estas nanoantenas ha sido calculada numéricamente utilizando el software comercial COMSOL en Matlab (para las simulaciones en dos dimensiones) y un método espectral basado en series de Fourier para las simulaciones en tres dimensiones. La figura de arriba (abajo, derecha) muestra el campo magnético de un modo guiado de tipo plasmón en el gap entre el nanocubo y la superficie metálica. El índice de refracción del dieléctrico se reduce al reducir el grosor del gap, incrementando la frecuencia (longitud de onda) del modo resonante del plasmón. La eficiencia de absorción de un nanocubo es bastante alta, del orden del 97%, por lo que para lograr una absorción ideal (100%) basta recubrir el 3% de la superficie del conductor con nanocubos.
Los autores del estudio han fabricado los píxeles con los nanocubos distribuidos de forma aleatoria y diferentes grosores para el gap calculando el espectro de absorción de los píxeles y verificando que la banda de absorción es bastante estrecha (algo deseable en la mayoría de las aplicaciones). Para lograr un banda de absorción más ancha habría que controlar durante la fabricación la distancia de separación entre los nanocubos, garantizando una separación mínima entre ellos.
Quizás algún lector que haya llegado hasta aquí se preguntará por qué los autores usan nanocubos en lugar de nanoesferas, en apariencia más difíciles de fabricar. La razón es que el plasmón entre la nanoantena y la superficie metálica cambia mucho su forma y propiedades cuando la cavidad que lo confina no tiene paredes planas. Con nanoesferas es difícil logra un buen absorbente para luz incidente en la dirección normal al conductor. Además, la clave de la absorción está en el efecto de las bordes del cubo, mucho menor en el caso de las nanoesferas. En cuanto a la fabricación de los nanocubos, en la actualidad hay técnicas de síntesis química capaces de fabricarlos a escala industrial (que nacieron hace 10 años con el artículo de Yugang Sun, Younan Xia, “Shape-Controlled Synthesis of Gold and Silver Nanoparticles,” Science 298: 2176-2179, 13 Dec 2002). El mayor problema es lograr que todos los nanocubos tengan el mismo radio. La combinación de nanocubos de tamaño ligeramente diferente reduce la absorción de cada uno, lo que se puede compensar colocando un mayor número de nanocubos sobre la superficie del conductor.
En resumen, un trabajo técnico muy interesante y bastante prometedor.
miércoles, 5 de diciembre de 2012
Se realiza un experimento para resolver “un verdadero misterio” de la mecánica cuántica
Fuente: Ciencia Kanija
Artículo publicado el 1 de noviembre de 2012 en la Universidad de Bristol
¿De qué está hecha la luz, de ondas o de
partículas? Esta pregunta básica ha fascinado a los físicos desde los
primeros días a de la ciencia. La mecánica cuántica predice que los
fotones, partículas de luz, son tanto ondas como partículas,
simultáneamente. Según se informa en Science, físicos de la
Universidad de Bristol han ofrecido una nueva demostración de esta
dualidad onda-partícula de los fotones, conocida como “un verdadero
misterio de la mecánica cuántica” por el ganador del premio Nobel
Richard Feynman.
La historia de la ciencia está marcada
por un intenso debate entra las teorías ondulatoria y corpuscular de la
luz. Isaac Newton fue el principal defensor de la teoría corpuscular,
mientras que James Clerk Maxwell y su tremendamente exitosa teoría del
electromagnetismo, daban apoyo a la teoría ondulatoria. Sin embargo, las
cosas cambiaron drásticamente en 1905, cuando Einstein demostró que era
posible explicar el efecto fotoeléctrico (que había seguido siendo un
misterio hasta ese momento) usando la idea de que la luz está hecha de
partículas: los fotones. Este descubrimiento tuvo un gran impacto en la
física, dado que contribuyó enormemente al desarrollo de la mecánica
cuántica, la teoría científica más precisa jamás desarrollada.
A pesar de su éxito, la mecánica cuántica presenta un gran desafío a nuestra intuición cotidiana. De hecho, la teoría predice con una notable precisión el comportamiento de objetos pequeños, tales como átomos y fotones. Sin embargo, cuando se echa un vistazo más de cerca a estas predicciones, tenemos que admitir que van totalmente contra la intuición. Por ejemplo, la teoría cuántica predice que una partícula (por ejemplo, un fotón), puede estar en distintos lugares al mismo tiempo. De hecho, incluso puede estar en infinitos sitios al mismo tiempo, exactamente como una onda. De aquí la idea de la dualidad onda-partícula, que es fundamental para todos los sistemas cuánticos.
Sorprendentemente, cuando se observa un
fotón, se comporta como onda o como partícula, pero nunca se aprecian
ambos aspectos a la vez. De hecho, el comportamiento que presenta
depende del tipo de medida que se realice sobre el mismo. Este asombroso
fenómeno se ha investigado experimentalmente en los últimos años,
usando dispositivos de medida que pueden cambiar entre las medidas
ondulatorias y corpusculares.
En un artículo publicado en la revista Science,
los físicos de la Universidad de Bristol dan un nuevo giro a estas
ideas. Los doctores Alberto Peruzzo, Peter Shadbolt y el profesor Jeremy
O’Brien del Centro de Fotónica Cuántica se unieron a los teóricos
cuánticos, el Dr. Nicolas Brunner y el profesor Sandu Popescu para idear
un nuevo tipo de aparato de medida que pudiese medir a la vez el
comportamiento corpuscular y ondulatorio. Este nuevo dispositivo
funciona gracia a la no localidad cuántica, otro impactante efecto
cuántico poco intuitivo.
El Dr. Peruzzo, miembro investigador en
el Centro de Fotónica Cuántica, dice: “El aparato de medida detectó una
fuerte no localidad, certificando que el fotón se comportaba
simultáneamente como onda y partícula en nuestro experimento. Esto
representa una sólida refutación de los modelos en los que el fotón es
una onda o una partícula”.
El profesor O’Brien Director del Centro
de Fotónica Cuántica, dice: “Para llevar a cabo esta investigación,
usamos un chip fotónico cuántico, una novedosa tecnología desarrollada
en Bristol. El chip es reconfigurable, por lo que puede programarse y
controlarse para implementar diferentes circuitos. Hoy, esta tecnología
es un enfoque principal en la búsqueda de la construcción de un
computador cuántico y, en el futuro, permitirá nuevos y más sofisticados
estudios de aspectos fundamentales de los fenómenos cuánticos”.
Una prometedora perspectiva para resolver un verdadero misterio de la mecánica cuántica. ¡Permanece atento!
Artículo de Referencia:
‘A Quantum Delayed Choice Experiment’ by Peruzzo et al. in Science
Fecha Origina: 1 de noviembre de 2012
Enlace Original
martes, 4 de diciembre de 2012
Nuevo paradigma cosmológico
Fuente: Neofronteras
Proponen un nuevo paradigma basado en la teoría cuántica de
lazos para los momentos iniciales del Big Bang que podría comprobarse
experimentalmente.
Como ya sabe el lector habitual de NeoFronteras, todavía no hay una
teoría cuántica de gravedad. Hay, eso sí, algunos marcos conceptuales
con los que se trabaja y que quizás algún día den lugar a una teoría de
ese tipo. Uno de estos marcos conceptuales es la teoría cuántica de
lazos, que fue propuesta por Abhay Ashtekar de Penn State. Usando este
marco se propuso hace un tiempo un modelo que pretendía decir qué pasó
antes del Big Bang y que proponía que el Big Bang era un rebote de un
universo anterior.
Ahora, Ashtekar y sus colaboradores proponen un nuevo paradigma basado en la teoría cuántica de lazos para los momentos iniciales del Big Bang. Este nuevo paradigma permite, por primera vez, ver cómo pudieron evolucionar las grandes estructuras del Universo a partir de las fluctuaciones cuánticas del propio espacio-tiempo, pues proporciona un marco matemático y conceptual que permite describir la exótica geometría mecánico-cuántica del espacio-tiempo. La idea es entender la dinámica que la materia y la geometría experimentaron durante esas eras tan tempranas del Universo.
Se cree que durante el Big Bang la densidad del Universo era inimaginablemente alta de tal modo que la Teoría General de la Relatividad no puede describir ese estado. La densidad de materia alcanzaría los 1094 gramos por centímetro cúbico, que es muchos órdenes de magnitud superior a la densidad de un núcleo atómico (1014 g/cm3).
En ese ambiente mecánico-cuántico las propiedades físicas serían muy distintas a las de hoy en día y se manifestarían probabilísticamente, tal y como dicta la Mecánica Cuántica.
No podemos reproducir esas condiciones en los laboratorios y además no hay ninguna observación que nos permita ver directamente ese estado, así que esta teoría, al igual que otras, tiene problemas de falsabilidad. Como ya sabemos, el Universo se hizo transparente por primera vez pasados unos 380.000 años después del Big Bang, evento que vemos ahora como el fondo cósmico de microondas. Se supone que hay un fondo cósmico de neutrinos y quizás un fondo cósmico de ondas gravitatorias, pero ninguno puede retrotraernos a los instantes iniciales del Big Bang cuando los fenómenos mecánico-cuánticos eran importantes.
Sin embargo, este nuevo paradigma permite, según sus proponentes, realizar algunas predicciones que podrían ser comprobadas observacionalmente.
Si el Big Bang hubiese sido perfecto y hubiera dado lugar a algo perfectamente homogéneo no tendríamos cúmulos de galaxias, galaxias, estrellas o planetas, sino un montón de átomos equidistantes. Para que la gravedad opere se necesita alguna irregularidad a la que poder agarrarse. El Big Bang clásico producía demasiadas irregularidades y daba lugar a un universo que no era homogéneo ni isótropo, pero lo que observamos es un universo homogéneo ni isótropo. La idea de inflación se introdujo para solucionar este problema. Según esta hipótesis el Universo sufrió un proceso rápido de inflación que hizo que creciera a velocidad superlumínica (el espacio no tiene límites a la hora de expandirse, pero los objetos en su interior no pueden ir más rápidos que la luz). Este proceso inflacionario aplanó el universo y lo dejó en un estado muy homogéneo e isótropo. A la vez habría aumentado las pequeñas fluctuaciones cuánticas del propio Big Bang y proporcionado las suficientes “semillas” para que la gravedad formara la estructura a gran escala del Universo.
Este nuevo trabajo proporciona precisamente esas fluctuaciones primigenias y los resultados muestran, según sus autores, que las condiciones iniciales en el comienzo del Big Bang dan de forma natural la estructura a gran escala del Universo que observamos. Las predicciones encajan con lo que se observa en el fondo cósmico de microondas (FCM), cuyas irregularidades son un reflejo de esas fluctuaciones primigenias.
Para ello asumen que nuestro universo procede de un universo previo en contracción que se colapsó y rebotó en lo que llamamos Big Bang. El estudio cubre una época desde la inflación hacia a atrás que cubre 11 órdenes de magnitud en densidad de materia y en curvatura del espacio-tiempo. Han conseguid además delimitar las condiciones iniciales que se dieron en el Gran Rebote y comprobado que la posterior evolución concuerda con las observaciones del FCM.
Quizás lo más interesante es que han encontrado una gama de valores estrecha para ciertos parámetros que permiten al nuevo paradigma predecir efectos novedosos que la teoría del Big Bang estándar más inflación no predicen.
“Es excitante que pronto podamos ser capaces de comprobar estas predicciones diferentes”, dice Ashtekar. Espera que en nuevas misiones de observación se comprueben estas predicciones y que además se pueda ganar una mayor comprensión del universo muy temprano.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3977
Fuentes y referencias:
Nota de prensa.
Copia del artículo en ArXiv.
Artículo en ArXiv.
Ivan Agullo, Abhay Ashtekar, and William Nelson. Quantum gravity extension of the inflationary scenario. Physical Review Letters, 11 de diciembre, 2012.
Ahora, Ashtekar y sus colaboradores proponen un nuevo paradigma basado en la teoría cuántica de lazos para los momentos iniciales del Big Bang. Este nuevo paradigma permite, por primera vez, ver cómo pudieron evolucionar las grandes estructuras del Universo a partir de las fluctuaciones cuánticas del propio espacio-tiempo, pues proporciona un marco matemático y conceptual que permite describir la exótica geometría mecánico-cuántica del espacio-tiempo. La idea es entender la dinámica que la materia y la geometría experimentaron durante esas eras tan tempranas del Universo.
Se cree que durante el Big Bang la densidad del Universo era inimaginablemente alta de tal modo que la Teoría General de la Relatividad no puede describir ese estado. La densidad de materia alcanzaría los 1094 gramos por centímetro cúbico, que es muchos órdenes de magnitud superior a la densidad de un núcleo atómico (1014 g/cm3).
En ese ambiente mecánico-cuántico las propiedades físicas serían muy distintas a las de hoy en día y se manifestarían probabilísticamente, tal y como dicta la Mecánica Cuántica.
No podemos reproducir esas condiciones en los laboratorios y además no hay ninguna observación que nos permita ver directamente ese estado, así que esta teoría, al igual que otras, tiene problemas de falsabilidad. Como ya sabemos, el Universo se hizo transparente por primera vez pasados unos 380.000 años después del Big Bang, evento que vemos ahora como el fondo cósmico de microondas. Se supone que hay un fondo cósmico de neutrinos y quizás un fondo cósmico de ondas gravitatorias, pero ninguno puede retrotraernos a los instantes iniciales del Big Bang cuando los fenómenos mecánico-cuánticos eran importantes.
Sin embargo, este nuevo paradigma permite, según sus proponentes, realizar algunas predicciones que podrían ser comprobadas observacionalmente.
Si el Big Bang hubiese sido perfecto y hubiera dado lugar a algo perfectamente homogéneo no tendríamos cúmulos de galaxias, galaxias, estrellas o planetas, sino un montón de átomos equidistantes. Para que la gravedad opere se necesita alguna irregularidad a la que poder agarrarse. El Big Bang clásico producía demasiadas irregularidades y daba lugar a un universo que no era homogéneo ni isótropo, pero lo que observamos es un universo homogéneo ni isótropo. La idea de inflación se introdujo para solucionar este problema. Según esta hipótesis el Universo sufrió un proceso rápido de inflación que hizo que creciera a velocidad superlumínica (el espacio no tiene límites a la hora de expandirse, pero los objetos en su interior no pueden ir más rápidos que la luz). Este proceso inflacionario aplanó el universo y lo dejó en un estado muy homogéneo e isótropo. A la vez habría aumentado las pequeñas fluctuaciones cuánticas del propio Big Bang y proporcionado las suficientes “semillas” para que la gravedad formara la estructura a gran escala del Universo.
Este nuevo trabajo proporciona precisamente esas fluctuaciones primigenias y los resultados muestran, según sus autores, que las condiciones iniciales en el comienzo del Big Bang dan de forma natural la estructura a gran escala del Universo que observamos. Las predicciones encajan con lo que se observa en el fondo cósmico de microondas (FCM), cuyas irregularidades son un reflejo de esas fluctuaciones primigenias.
Para ello asumen que nuestro universo procede de un universo previo en contracción que se colapsó y rebotó en lo que llamamos Big Bang. El estudio cubre una época desde la inflación hacia a atrás que cubre 11 órdenes de magnitud en densidad de materia y en curvatura del espacio-tiempo. Han conseguid además delimitar las condiciones iniciales que se dieron en el Gran Rebote y comprobado que la posterior evolución concuerda con las observaciones del FCM.
Quizás lo más interesante es que han encontrado una gama de valores estrecha para ciertos parámetros que permiten al nuevo paradigma predecir efectos novedosos que la teoría del Big Bang estándar más inflación no predicen.
“Es excitante que pronto podamos ser capaces de comprobar estas predicciones diferentes”, dice Ashtekar. Espera que en nuevas misiones de observación se comprueben estas predicciones y que además se pueda ganar una mayor comprensión del universo muy temprano.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3977
Fuentes y referencias:
Nota de prensa.
Copia del artículo en ArXiv.
Artículo en ArXiv.
Ivan Agullo, Abhay Ashtekar, and William Nelson. Quantum gravity extension of the inflationary scenario. Physical Review Letters, 11 de diciembre, 2012.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Pronta detección de ondas gravitatorias
Fuente: Neofronteras
Según un estudio teórico la detección de ondas gravitatorias estaría a la vuelta de la esquina.
Una de las predicciones más interesantes de la Relatividad General es
la existencia de ondas gravitatorias. Al igual que las ondas provocadas
por un terremoto se propagan por la corteza terrestre, eventos
extremadamente energéticos que se dan en el Universo producirían ondas.
Estas ondas se moverían a la velocidad de la luz y estarían formadas por
distorsiones del propio espacio-tiempo y no serían partículas u ondas
que viajaran por él. A diferencia de las ondas que se propagan en un
estanque al lanzar una piedra, las ondas gravitatorias tendrían más
modos de vibración dependiendo del estado de polarización.
Así por ejemplo, si un frente de estas ondas gravitarías alcanza un volumen determinado del espacio éste se puede contraer y expandir alternativamente y con ello los objetos que contiene. Así por ejemplo en la animación se puede ver efecto de un haz de ondas gravitatorias sobre un anillo de partículas (fuente: Wikipedia).
Pero la intensidad de estas ondas es muy baja y esas contracciones y expansiones son mucho menores que el diámetro de un átomo. Ni la formación de agujeros negros, ni la colisión de estrellas de neutrones ni el propio Big Bang producen ondas gravitatorias que se puedan medir directamente en la actualidad.
La mejor prueba que hasta ahora se tiene sobre la existencia de estas ondas es la contracción orbital de un par de púlsares. Pérdida de energía cuya cuantía encaja con la energía que se llevaría la radiación de ondas gravitatorias que abandona el sistema.
Una manera de intentar detectar estas ondas directamente es usando interferómetros láser como LIGO. La idea es lanzar un haz de luz láser sobre unos brazos kilométricos en L sobre cuyos extremos se sitúan unos espejos. Las reflexiones reiteradas de este haz sobre ellos hacen que la distancia recorrida sea muy grande, lo que aumenta las posibilidades de detectar estas ondas. Ahora mismo hay varios grupos que trabajan en este asunto, mejorando cada vez más estos interferómetros. LIGO, que se encuentra en el estado de Washington, está bajo una actualización que le permitirá alcanzar gran sensibilidad, se espera que esta actualización termine antes de que finalice 2019.
La mejor oportunidad que se puede tener para detectar ondas gravitatorias es que se dé la colisión entre dos agujeros negros supermasivos, algo que se produce cuando dos galaxias colisionan. El problema es la frecuencia a la que se puede dar este tipo evento.
Ahora Sean McWilliams, de Princeton University, ha publicado un trabajo en el que calcula la probabilidad de que se dé una colisión entre ese tipo de agujeros negros. Llega a la conclusión de que la frecuencia con la que se da este tipo de eventos es mucho más alta de lo que se creía.
Según los datos astronómicos, en los últimos 6000 millones de años las galaxias han doblado su masa y quintuplicado su tamaño. Esto se habría dado gracias a la colisión de galaxias más pequeñas, fenómeno que se puede observar directamente con nuestros telescopios. Los modelos computacionales pueden reproducir muy bien esas colisiones que observamos y en ellos se predice la colisión de los agujeros negros que hay en sus centros.
A partir de esta información McWilliams calcula que la colisión de agujeros negros supermasivos es de 10 a 30 veces más frecuente de lo que se creía.
Esto significa que quizás este tipo de eventos ya ha sido registrado y se encuentra en las bases de datos. Sólo haría falta buscarlos, según McWilliams. En concreto, en los datos procedentes no de los interferómetros, sino de la observación de púlsares. Como cuanto mayor sea la distancia considerada mejor se pueden detectar estas ondas, se puede usar la distancia que media entre nosotros y ciertos púlsares. Las ondas de radio que emiten estos objetos se conocen con mucha precisión y emiten pulsos cada cierto intervalo preciso de tiempo. Así que si una onda gravitatoria cruza el espacio que media entre nosotros y esos objetos se producirá un cambio en el tiempo que recibimos algunos de esos pulsos de ondas de radio.
En el peor escenario posible McWilliams predice que por fin detectaremos ondas gravitarías por este método antes de 2016 con una probabilidad del 95%.
La detección de ondas gravitatorias supondría un triunfo más de Einstein desde la ultratumba y un hito científico. El equipo que lo registrase tendría el premio Nobel asegurado. A ver si con un poco de suerte lo contamos en NeoFronteras antes de 2016.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3975
Fuentes y referencias:
Artículo en ArXiv
Así por ejemplo, si un frente de estas ondas gravitarías alcanza un volumen determinado del espacio éste se puede contraer y expandir alternativamente y con ello los objetos que contiene. Así por ejemplo en la animación se puede ver efecto de un haz de ondas gravitatorias sobre un anillo de partículas (fuente: Wikipedia).
Pero la intensidad de estas ondas es muy baja y esas contracciones y expansiones son mucho menores que el diámetro de un átomo. Ni la formación de agujeros negros, ni la colisión de estrellas de neutrones ni el propio Big Bang producen ondas gravitatorias que se puedan medir directamente en la actualidad.
La mejor prueba que hasta ahora se tiene sobre la existencia de estas ondas es la contracción orbital de un par de púlsares. Pérdida de energía cuya cuantía encaja con la energía que se llevaría la radiación de ondas gravitatorias que abandona el sistema.
Una manera de intentar detectar estas ondas directamente es usando interferómetros láser como LIGO. La idea es lanzar un haz de luz láser sobre unos brazos kilométricos en L sobre cuyos extremos se sitúan unos espejos. Las reflexiones reiteradas de este haz sobre ellos hacen que la distancia recorrida sea muy grande, lo que aumenta las posibilidades de detectar estas ondas. Ahora mismo hay varios grupos que trabajan en este asunto, mejorando cada vez más estos interferómetros. LIGO, que se encuentra en el estado de Washington, está bajo una actualización que le permitirá alcanzar gran sensibilidad, se espera que esta actualización termine antes de que finalice 2019.
La mejor oportunidad que se puede tener para detectar ondas gravitatorias es que se dé la colisión entre dos agujeros negros supermasivos, algo que se produce cuando dos galaxias colisionan. El problema es la frecuencia a la que se puede dar este tipo evento.
Ahora Sean McWilliams, de Princeton University, ha publicado un trabajo en el que calcula la probabilidad de que se dé una colisión entre ese tipo de agujeros negros. Llega a la conclusión de que la frecuencia con la que se da este tipo de eventos es mucho más alta de lo que se creía.
Según los datos astronómicos, en los últimos 6000 millones de años las galaxias han doblado su masa y quintuplicado su tamaño. Esto se habría dado gracias a la colisión de galaxias más pequeñas, fenómeno que se puede observar directamente con nuestros telescopios. Los modelos computacionales pueden reproducir muy bien esas colisiones que observamos y en ellos se predice la colisión de los agujeros negros que hay en sus centros.
A partir de esta información McWilliams calcula que la colisión de agujeros negros supermasivos es de 10 a 30 veces más frecuente de lo que se creía.
Esto significa que quizás este tipo de eventos ya ha sido registrado y se encuentra en las bases de datos. Sólo haría falta buscarlos, según McWilliams. En concreto, en los datos procedentes no de los interferómetros, sino de la observación de púlsares. Como cuanto mayor sea la distancia considerada mejor se pueden detectar estas ondas, se puede usar la distancia que media entre nosotros y ciertos púlsares. Las ondas de radio que emiten estos objetos se conocen con mucha precisión y emiten pulsos cada cierto intervalo preciso de tiempo. Así que si una onda gravitatoria cruza el espacio que media entre nosotros y esos objetos se producirá un cambio en el tiempo que recibimos algunos de esos pulsos de ondas de radio.
En el peor escenario posible McWilliams predice que por fin detectaremos ondas gravitarías por este método antes de 2016 con una probabilidad del 95%.
La detección de ondas gravitatorias supondría un triunfo más de Einstein desde la ultratumba y un hito científico. El equipo que lo registrase tendría el premio Nobel asegurado. A ver si con un poco de suerte lo contamos en NeoFronteras antes de 2016.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3975
Fuentes y referencias:
Artículo en ArXiv
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Suscribirse a:
Entradas (Atom)