Fuente: Muy Linux
Vuelve The Humble Indie Bundle con su séptima edición multiplataforma, con seis nuevos juegos para disfrutar en Windows, Mac OS X y Linux
al precio que cada uno esté dispuesto a pagar, a partir de un dólar,
con la posibilidad de repartir lo que se pague entre los organizadores
de la promoción, los desarrolladores de los juegos y dos instituciones
benéficas, Electronic Frontier Foundation y y Child’s Play Charity.
En esta ocasión los juegos seleccionados son Snapshot, The Blinding of Isaac, Closure, Indie Game: The Movie y Shank2, además de Dungeon Defender y Legend of Grimrock, estos dos últimos solo disponibles si se paga más de la media, que en estos momentos ronda los 6 dólares y pico.
Como en las anteriores ediciones ‘indie’ de The Humble Bundle, todos los juegos son multiplataforma, libres de DRM y se incluye con la descarga las bandas sonoras originales de los mismos. Quedan 14 días hasta que finalice la promoción, así que ya lo sabes, pasar las Navidades jugando nunca ha sido tan barato.
jueves, 20 de diciembre de 2012
martes, 18 de diciembre de 2012
El chelín, el penique y la crisis de los medios
Fuente: La aldeairreductible
Cuenta uno de los acertijos de “El libro de los enigmas de Sherlock Holmes”
que cierto día el célebre detective se encontraba en un pequeño pueblo
cercano a Essex llamado Dawes Health, cuando el inspector Lestrade le
invitó a visitar a una de las atracciones de aquella comarca.
Se trataba del típico “tonto del pueblo” que se había hecho famoso porque al parecer si alguien le daba a escoger entre un penique y un chelín, el muy iluso elegía siempre el penique (una moneda que valía doce veces menos que un chelín).
Para comprobarlo, el policía de Scotland Yard llamó a aquel tonto y le ofreció las dos monedas para que eligiera la que quisiera… efectivamente, el aldeano miró las dos, y cogió con gran decisión la de menos valor, para posteriormente volver a su cabaña mirándola y haciendo curiosos gestos de alegría.
Sherlock que había observado toda la escena, miró maliciosamente a Lestrade y dijo: Querido Inspector, si hay un tonto aquí… no es ese hombre.
Efectivamente… Holmes comprendió al instante que aquel aldeano había encontrado una sencilla fuente de ingresos, modestos sí, pero constantes… Se había convertido en la atracción del pueblo y los peniques seguirían llenando sus bolsillos siempre que fingiera ser tonto y continuara eligiendo la moneda pequeña.
Si alguna vez se hubiese decantado por la moneda más grande es casi seguro que tendría que decir adiós a su chollo. Ese “tonto” representa uno de los más perfectos ideales del marketing: conoce al dedillo lo que quiere ver su público, se lo da y cobra su precio.
Nuestra actualidad está repleta de estos supuestos tontos de pueblo que se ganan bien la vida haciendo (o fingiendo que hacen) el ridículo y sorprendiendo con lo inesperado. Desde un punto de vista objetivo y racional ofrecen soluciones, productos e informaciones que suenan erróneas, absurdas o estúpidas pero que se han convertido en su principal fuente de ingresos gracias a todos aquellos que las siguen comprando.
Las portadas de La Razón que diariamente tuitea el ínclito Paco Marhuenda ante el escándalo mediático del personal, los reportajes pseudocientíficos de la sección La Contra en La Vanguardia ganando críticas por cada magufada que publica, el Universo paralelo a la realidad de Intereconomía que sonroja con cada declaración de alguno de sus tertulianos o el amarillismo científico de Jose Manuel Nieves capaz de superarse con cada titulárido que regala desde sus artículos en ABC, no son más que actualizaciones del rancio cuento del penique.
Han conseguido su fuente de ingresos y son fieles a ella. ¿Que no son razonables, que no se corresponden con los datos y la realidad objetiva, que son manipulaciones llevadas al absurdo?... ¿y qué?, ¿Crees que ellos no lo saben ya?, Lo saben… como el aldeano del cuento, son conscientes a la perfección que sus surrealismos van a tener el premio de un público tan sorprendido y agradecido que apenas se fijará en la manipulación. Ellos consiguen sus peniques a diario ante el alborozo de un tipo de lector que, como Lestrade, busca con avidez la atracción más que la información.
Llevamos demasiado tiempo soportando frases, tan manidas como falsas, de “crisis del periodismo” o “crisis de la televisión” cuando en realidad lo que tenemos es una “crisis del lector o crisis del espectador”. No existe la crisis del periodismo, en este cuento, los papeles repartidos nos han dejado el personaje de Lestrade.
Telecinco hace sus numeritos rosas para sus agradecidos Lestrades. Intereconomía ofrece el circo conservador que se adapta a las posiciones políticas que sus fieles Lestrades tienen. Iker Jiménez vende las pseudociencias que sus Lestrades esperan tal y como el Sport escribe para los aficionados culés y el Marca para los del Real Madrid… ¿No fue penalti? ¿La reforma laboral es una chapuza? ¿Aquellas luces en el cielo no eran naves nodrizas de Ganímedes?... Sí, dirán ellos, ya sabemos que un penique vale menos que un chelín, pero si lo hacemos bien no conseguimos dinero…
La supuesta crisis del periodismo se acabará cuando termine la crisis de quienes la sustentan, del mismo modo que al tonto del cuento de Sherlock Holmes se le acabará el timo de la estampita cuando dejen de visitarle y ofrecerle monedas. Esa falsa crisis del periodismo acabará cuando finalicemos nuestra crisis como público. Sin lectores y espectadores capaces de ser críticos y objetivos no habrá medios de calidad.
¿Alguien espera que Telecinco, por poner un ejemplo evidente, cambie su programación y se convierta en el paradigma del rigor y la calidad televisiva de la noche a la mañana?... Espero que nadie porque mientras le sea rentable, mientras le sigan visitando, el aldeano jamás cambiará y cogerá el chelín... seguirá eligiendo el penique ante el asombro del Lestrade de turno.
La crisis está en el público antes que en los medios. Recuerda que lo que Lestrade buscaba en aquel pequeño pueblo era asistir al número del tonto perdiendo dinero… y efectivamente lo vio, aunque el tonto no era quién él pensaba.
Se trataba del típico “tonto del pueblo” que se había hecho famoso porque al parecer si alguien le daba a escoger entre un penique y un chelín, el muy iluso elegía siempre el penique (una moneda que valía doce veces menos que un chelín).
Para comprobarlo, el policía de Scotland Yard llamó a aquel tonto y le ofreció las dos monedas para que eligiera la que quisiera… efectivamente, el aldeano miró las dos, y cogió con gran decisión la de menos valor, para posteriormente volver a su cabaña mirándola y haciendo curiosos gestos de alegría.
Sherlock que había observado toda la escena, miró maliciosamente a Lestrade y dijo: Querido Inspector, si hay un tonto aquí… no es ese hombre.
Efectivamente… Holmes comprendió al instante que aquel aldeano había encontrado una sencilla fuente de ingresos, modestos sí, pero constantes… Se había convertido en la atracción del pueblo y los peniques seguirían llenando sus bolsillos siempre que fingiera ser tonto y continuara eligiendo la moneda pequeña.
Si alguna vez se hubiese decantado por la moneda más grande es casi seguro que tendría que decir adiós a su chollo. Ese “tonto” representa uno de los más perfectos ideales del marketing: conoce al dedillo lo que quiere ver su público, se lo da y cobra su precio.
Nuestra actualidad está repleta de estos supuestos tontos de pueblo que se ganan bien la vida haciendo (o fingiendo que hacen) el ridículo y sorprendiendo con lo inesperado. Desde un punto de vista objetivo y racional ofrecen soluciones, productos e informaciones que suenan erróneas, absurdas o estúpidas pero que se han convertido en su principal fuente de ingresos gracias a todos aquellos que las siguen comprando.
Las portadas de La Razón que diariamente tuitea el ínclito Paco Marhuenda ante el escándalo mediático del personal, los reportajes pseudocientíficos de la sección La Contra en La Vanguardia ganando críticas por cada magufada que publica, el Universo paralelo a la realidad de Intereconomía que sonroja con cada declaración de alguno de sus tertulianos o el amarillismo científico de Jose Manuel Nieves capaz de superarse con cada titulárido que regala desde sus artículos en ABC, no son más que actualizaciones del rancio cuento del penique.
Han conseguido su fuente de ingresos y son fieles a ella. ¿Que no son razonables, que no se corresponden con los datos y la realidad objetiva, que son manipulaciones llevadas al absurdo?... ¿y qué?, ¿Crees que ellos no lo saben ya?, Lo saben… como el aldeano del cuento, son conscientes a la perfección que sus surrealismos van a tener el premio de un público tan sorprendido y agradecido que apenas se fijará en la manipulación. Ellos consiguen sus peniques a diario ante el alborozo de un tipo de lector que, como Lestrade, busca con avidez la atracción más que la información.
Llevamos demasiado tiempo soportando frases, tan manidas como falsas, de “crisis del periodismo” o “crisis de la televisión” cuando en realidad lo que tenemos es una “crisis del lector o crisis del espectador”. No existe la crisis del periodismo, en este cuento, los papeles repartidos nos han dejado el personaje de Lestrade.
Telecinco hace sus numeritos rosas para sus agradecidos Lestrades. Intereconomía ofrece el circo conservador que se adapta a las posiciones políticas que sus fieles Lestrades tienen. Iker Jiménez vende las pseudociencias que sus Lestrades esperan tal y como el Sport escribe para los aficionados culés y el Marca para los del Real Madrid… ¿No fue penalti? ¿La reforma laboral es una chapuza? ¿Aquellas luces en el cielo no eran naves nodrizas de Ganímedes?... Sí, dirán ellos, ya sabemos que un penique vale menos que un chelín, pero si lo hacemos bien no conseguimos dinero…
La supuesta crisis del periodismo se acabará cuando termine la crisis de quienes la sustentan, del mismo modo que al tonto del cuento de Sherlock Holmes se le acabará el timo de la estampita cuando dejen de visitarle y ofrecerle monedas. Esa falsa crisis del periodismo acabará cuando finalicemos nuestra crisis como público. Sin lectores y espectadores capaces de ser críticos y objetivos no habrá medios de calidad.
¿Alguien espera que Telecinco, por poner un ejemplo evidente, cambie su programación y se convierta en el paradigma del rigor y la calidad televisiva de la noche a la mañana?... Espero que nadie porque mientras le sea rentable, mientras le sigan visitando, el aldeano jamás cambiará y cogerá el chelín... seguirá eligiendo el penique ante el asombro del Lestrade de turno.
La crisis está en el público antes que en los medios. Recuerda que lo que Lestrade buscaba en aquel pequeño pueblo era asistir al número del tonto perdiendo dinero… y efectivamente lo vio, aunque el tonto no era quién él pensaba.
jueves, 13 de diciembre de 2012
¿Cuántos vacíos hay en la teoría de cuerdas?
Fuente: Francis (th)E mule
La teoría de cuerdas, teoría M, teoría F, o como quieras llamarla, pretende describir la realidad a muy alta energía, la escala de Planck. La física a baja energía que nos rodea todos los días e incluso la física a “altas” energías en los grandes colisionadores de partículas corresponden al vacío de la teoría ST/M/F, pues son energías ridículas comparadas con la energía de Planck. Como vivimos en el vacío de la teoría, una cuestión importante es saber si el número de vacíos posibles en la teoría ST/M/F es finito o infinito, y en caso de que sea finito, obtener una estimación de su número.
La conjetura “oficial” es que hay un número finito de vacíos posibles, pero no está demostrado; en cuanto a la estimación de dicho número hay muchas opciones que van desde los 1020 vacíos de Douglas, pasando por los 10120 de Weinberg, llegando hasta los 10506 de Bousso-Polchinski. Por concretar un número “razonable” se suele decir en casi todo los sitios que son unos 10500 vacíos (porque es un número redondo y queda muy bonito). Un número inimaginable que nos lleva al problema del paisaje (landscape), quizás la teoría ST/M/F es una teoría de todas las cosas posibles, incluyendo todo lo que nos rodea.
Quizás conviene que recordemos cómo se cuentan los vacíos y por qué es tan difícil estimar cuántos son. Me ha recordado este problema la lectura de Tamar Friedmann, Richard P. Stanley, “The String Landscape: On Formulas for Counting Vacua,” Accepted in Nucl. Phys. B, arXiv:1212.0583, Subm. 3 Dec 2012. Esta entrada le parecerá muy técnica a algunos y muy ligera a otros. Explicar estas cosas es difícil y yo soy un humilde aprendiz.
En la teoría de (super)cuerdas el espaciotiempo tiene 10 dimensiones (10D), separadas en dos partes, 4 del espaciotiempo de Minkowski ordinario (4D) y 6 dimensiones extra (6D), que no notamos porque son compactas (“muy pequeñas”). La forma de las 6 dimensiones extra debe corresponder a una solución para el vacío de las ecuaciones de Einstein de la gravedad. Si la variedad 6D se entiende en variable real, la única solución es un espaciotiempo plano. Sin embargo, si se considera la variedad 6D como una variedad en variable compleja de dimensión tres, existen soluciones de las ecuaciones de Einstein para el vacío, llamadas variedades de Calabi-Yau (CY); Calabi conjeturó su existencia y Yau la demostró (recibió por ello la Medalla Fields) usando un método no constructivo.
¿Cuántas variedades de CY hay? El propio Yau ha conjeturado que hay unas 30.000 variedades CY (por ordenador se han calculado unas 15.000), pero quizás haya más; sin embargo, muchos matemáticos, como Reid, creen que hay un número infinito. Por tanto, a día de hoy nadie sabe cuántas variedades de CY existen y no se puede descartar que su número sea infinito. Lo importante que hay que recordar es que esto no importa, como veremos en lo que sigue.
Cada variedad CY tiene una serie de parámetros continuos, los módulos (moduli), que especifican su forma y de tamaño; no es una variedad CY, pero un cilindro 2D (un dónut) está definido por dos radios que determinan su forma y su tamaño, que serían sus módulos. En teoría cuántica de campos (y la teoría de cuerdas lo es) los módulos corresponden a campos escalares y a sus correspondientes partículas; mucha gente se imagina “vibraciones” de las cuerdas a lo largo de un módulo como partículas del campo asociado. ¿Cuántos módulos tiene una variedad CY típica? No se sabe, pero se cree que es un número finito y pequeño. Se conocen variedades de CY con 101 módulos y otras con uno solo, pero la mayoría parece tener decenas de módulos.
El vacío de la teoría corresponde al estado de energía mínima. Para calcular este mínimo se suele recurrir al flujo del campo de cuerdas a través de la compactificación en la variedad de CY, aunque hay algunos autores como Banks que consideran que este procedimiento no es adecuado. Este proceso requiere minimizar una integral sobre la variedad parametrizada por los módulos. La geometría complicada de estas variedades hace que tengan muchos mínimos para el flujo (pero como son compactas dicho número es finito); el flujo del campo en estos mínimos puede ser estable, metaestable o inestable; los vacíos de la teoría se supone que corresponden a los mínimos estables (aunque algunos teóricos de cuerdas también consideran los metaestables). Además, los valores del flujo del campo están cuantizados (puede haber 1, 2, 3, …, unidades de flujo, pero no puede haber 1,46 o pi unidades de flujo). Contar el número de vacíos requiere contar cuántas variedades de CY tienen mínimos estables y cuántos valores discretos pueden tener los flujos en dichas variedades CY. La tarea no es fácil.
La labor de contar el número de vacíos parece casi imposible dada nuestra ignorancia sobre las variedades CY, sin embargo, hay un truco muy curioso, utilizar un potencial efectivo que gobierne la física a baja energía (esta idea tiene detractores pues no da cuenta de los efectos cuánticos de la gravedad, que es tratada de forma clásica). El potencial efectivo será resultado de la rotura de la supersimetría en la teoría de cuerdas. La ventaja de usar un potencial efectivo es que se pueden usar ideas de cosmología para restringir los posibles vacíos estables de la teoría. El potencial efectivo se comporta como un “paisaje de cuerdas” (string landscape) y los mínimos estables del potencial serían como mínimos “geométricos” en dicho “paisaje.” Estos mínimos conforman un conjunto “discreto” de parámetros efectivos a baja energía y tiene sentido aplicar técnicas estadísticas para estimar su número.
La forma general del potencial efectivo a baja energía se puede conjeturar (hay varias propuestas o técnicas para hacerlo que se suelen llamar técnicas de estabilización del vacío). Los posibles mínimos del potencial efectivo se corresponden con propiedades geométricas de la variedad de Calabi-Yau, como el número de ciclos (una generalización del número de Betti en las superficies); de esta forma se obtienen conjuntos para los posibles vacíos del flujo del campo de cuerdas que se pueden contar utilizando herramientas geométricas. Se conocen varias técnicas de estabilización del vacío y cada una ofrece una cuenta diferente para el número de vacíos; aunque estas técnicas no son aplicables a todas las teorías de cuerdas (recuerda que hay cinco teorías), como éstas son duales entre sí (representan la misma física), se supone que las cuentas deberían coincidir para todas ellas. Los primeros trabajos que contaron el número de vacíos se centraron en las teorías de cuerdas IIB y IIA, pero en los últimos años también se han aplicado a las cuerdas heteróticas. El problema es que los números no suelen coincidir en las diferentes teorías de cuerdas, lo que disgusta a algunos expertos.
La técnica más famosa para contar vacíos, aplicada a la teoría de cuerdas IIB, fue introducida por Kachru, Kallosh, Linde y Trivedi, por eso se llama técnica KKLT. Utilizando técnicas de D-branas, KKLT logran estabilizar los vacíos restringiendo los módulos de tamaño de las variedades de CY; lo sorprendente es que su idea también restringe de forma “milagrosa” los módulos de forma. Todo ello les permite contar el número de vacíos posibles. Obviamente, la técnica KKLT es solo un “modelo de juguete” de cómo se pueden estabilizar los módulos. ¿Cuántos vacíos hay según la técnica KKLT en una teoría de cuerdas IIB? El artículo técnico ofrece varios valores, dependiendo de ciertos detalles técnicos del modelo efectivo utilizado, unos 10307, 10398, o 10506 vacíos. Que el mismo artículo/técnica ofrezca valores tan variados puede hacer sospechar de la calidad del resultado, por ello muchos expertos afirman que KKLT estimaron unos 10500 vacíos. Un número “redondo” donde los haya.
¿Cuántos vacíos hay la teoría M en once dimensiones? En esta teoría las 7 dimensiones extra (7D) se compactifican utilizando una variedad con grupo de holonomía G2. Estas variedades son mucho más díficiles de estudiar que las variedades CY y se conocen poco sus propiedades. También se ha conjeturado que hay un número finito, pero sin demostración. Las variedades G2 tiene módulos y se han desarrollado técnicas de estabilización del vacío que permiten contar su número. De nuevo, se obtienen muchos.
¿Cuántos vacíos hay en la teoría F en doce dimensiones? En esta teoría las 8 dimensiones extra (8D) se compactifican en una variedad de Calabi-Yau con 4 dimensiones complejas. Muchas de las técnicas de estabilización de vacíos para la teoría de cuerdas se pueden utilizar en este contexto. Aunque me repita, de nuevo, se obtienen muchos.
¿Realmente el problema del “paisaje” es un problema en la teoría ST/M/F? Muchos físicos interpretan este problema como una señal de que la teoría ST/M/F no puede ser la respuesta correcta (promete mucho pero no ayuda nada de nada). Sin embargo, muchos físicos de cuerdas argumentan que el problema del paisaje quizás no es un problema. Quizás el problema es que no conocemos las técnicas matemáticas adecuadas para estabilizar el vacío y estamos dando palos de ciego con nuestras torpes técnicas actuales. Quizás la teoría ST/M/F tiene un único vacío y predice el universo que conocemos. El único universo que conocemos. Quizás, el único universo posible.
¿La teoría ST/M/F es metafísica? ¿Es solo matemática? ¿Hay física en la teoría ST/M/F?
Recomiendo leer a T. Banks, “The Top 10^{500} Reasons Not to Believe in the Landscape,” arXiv:1208.5715, 28 Aug 2012. Y por supuesto, la opinión contraria de Lee Smolin, “A perspective on the landscape problem,” arXiv:1202.3373, 15 Feb 2012.
La teoría de cuerdas, teoría M, teoría F, o como quieras llamarla, pretende describir la realidad a muy alta energía, la escala de Planck. La física a baja energía que nos rodea todos los días e incluso la física a “altas” energías en los grandes colisionadores de partículas corresponden al vacío de la teoría ST/M/F, pues son energías ridículas comparadas con la energía de Planck. Como vivimos en el vacío de la teoría, una cuestión importante es saber si el número de vacíos posibles en la teoría ST/M/F es finito o infinito, y en caso de que sea finito, obtener una estimación de su número.
La conjetura “oficial” es que hay un número finito de vacíos posibles, pero no está demostrado; en cuanto a la estimación de dicho número hay muchas opciones que van desde los 1020 vacíos de Douglas, pasando por los 10120 de Weinberg, llegando hasta los 10506 de Bousso-Polchinski. Por concretar un número “razonable” se suele decir en casi todo los sitios que son unos 10500 vacíos (porque es un número redondo y queda muy bonito). Un número inimaginable que nos lleva al problema del paisaje (landscape), quizás la teoría ST/M/F es una teoría de todas las cosas posibles, incluyendo todo lo que nos rodea.
Quizás conviene que recordemos cómo se cuentan los vacíos y por qué es tan difícil estimar cuántos son. Me ha recordado este problema la lectura de Tamar Friedmann, Richard P. Stanley, “The String Landscape: On Formulas for Counting Vacua,” Accepted in Nucl. Phys. B, arXiv:1212.0583, Subm. 3 Dec 2012. Esta entrada le parecerá muy técnica a algunos y muy ligera a otros. Explicar estas cosas es difícil y yo soy un humilde aprendiz.
En la teoría de (super)cuerdas el espaciotiempo tiene 10 dimensiones (10D), separadas en dos partes, 4 del espaciotiempo de Minkowski ordinario (4D) y 6 dimensiones extra (6D), que no notamos porque son compactas (“muy pequeñas”). La forma de las 6 dimensiones extra debe corresponder a una solución para el vacío de las ecuaciones de Einstein de la gravedad. Si la variedad 6D se entiende en variable real, la única solución es un espaciotiempo plano. Sin embargo, si se considera la variedad 6D como una variedad en variable compleja de dimensión tres, existen soluciones de las ecuaciones de Einstein para el vacío, llamadas variedades de Calabi-Yau (CY); Calabi conjeturó su existencia y Yau la demostró (recibió por ello la Medalla Fields) usando un método no constructivo.
¿Cuántas variedades de CY hay? El propio Yau ha conjeturado que hay unas 30.000 variedades CY (por ordenador se han calculado unas 15.000), pero quizás haya más; sin embargo, muchos matemáticos, como Reid, creen que hay un número infinito. Por tanto, a día de hoy nadie sabe cuántas variedades de CY existen y no se puede descartar que su número sea infinito. Lo importante que hay que recordar es que esto no importa, como veremos en lo que sigue.
Cada variedad CY tiene una serie de parámetros continuos, los módulos (moduli), que especifican su forma y de tamaño; no es una variedad CY, pero un cilindro 2D (un dónut) está definido por dos radios que determinan su forma y su tamaño, que serían sus módulos. En teoría cuántica de campos (y la teoría de cuerdas lo es) los módulos corresponden a campos escalares y a sus correspondientes partículas; mucha gente se imagina “vibraciones” de las cuerdas a lo largo de un módulo como partículas del campo asociado. ¿Cuántos módulos tiene una variedad CY típica? No se sabe, pero se cree que es un número finito y pequeño. Se conocen variedades de CY con 101 módulos y otras con uno solo, pero la mayoría parece tener decenas de módulos.
El vacío de la teoría corresponde al estado de energía mínima. Para calcular este mínimo se suele recurrir al flujo del campo de cuerdas a través de la compactificación en la variedad de CY, aunque hay algunos autores como Banks que consideran que este procedimiento no es adecuado. Este proceso requiere minimizar una integral sobre la variedad parametrizada por los módulos. La geometría complicada de estas variedades hace que tengan muchos mínimos para el flujo (pero como son compactas dicho número es finito); el flujo del campo en estos mínimos puede ser estable, metaestable o inestable; los vacíos de la teoría se supone que corresponden a los mínimos estables (aunque algunos teóricos de cuerdas también consideran los metaestables). Además, los valores del flujo del campo están cuantizados (puede haber 1, 2, 3, …, unidades de flujo, pero no puede haber 1,46 o pi unidades de flujo). Contar el número de vacíos requiere contar cuántas variedades de CY tienen mínimos estables y cuántos valores discretos pueden tener los flujos en dichas variedades CY. La tarea no es fácil.
La labor de contar el número de vacíos parece casi imposible dada nuestra ignorancia sobre las variedades CY, sin embargo, hay un truco muy curioso, utilizar un potencial efectivo que gobierne la física a baja energía (esta idea tiene detractores pues no da cuenta de los efectos cuánticos de la gravedad, que es tratada de forma clásica). El potencial efectivo será resultado de la rotura de la supersimetría en la teoría de cuerdas. La ventaja de usar un potencial efectivo es que se pueden usar ideas de cosmología para restringir los posibles vacíos estables de la teoría. El potencial efectivo se comporta como un “paisaje de cuerdas” (string landscape) y los mínimos estables del potencial serían como mínimos “geométricos” en dicho “paisaje.” Estos mínimos conforman un conjunto “discreto” de parámetros efectivos a baja energía y tiene sentido aplicar técnicas estadísticas para estimar su número.
La forma general del potencial efectivo a baja energía se puede conjeturar (hay varias propuestas o técnicas para hacerlo que se suelen llamar técnicas de estabilización del vacío). Los posibles mínimos del potencial efectivo se corresponden con propiedades geométricas de la variedad de Calabi-Yau, como el número de ciclos (una generalización del número de Betti en las superficies); de esta forma se obtienen conjuntos para los posibles vacíos del flujo del campo de cuerdas que se pueden contar utilizando herramientas geométricas. Se conocen varias técnicas de estabilización del vacío y cada una ofrece una cuenta diferente para el número de vacíos; aunque estas técnicas no son aplicables a todas las teorías de cuerdas (recuerda que hay cinco teorías), como éstas son duales entre sí (representan la misma física), se supone que las cuentas deberían coincidir para todas ellas. Los primeros trabajos que contaron el número de vacíos se centraron en las teorías de cuerdas IIB y IIA, pero en los últimos años también se han aplicado a las cuerdas heteróticas. El problema es que los números no suelen coincidir en las diferentes teorías de cuerdas, lo que disgusta a algunos expertos.
La técnica más famosa para contar vacíos, aplicada a la teoría de cuerdas IIB, fue introducida por Kachru, Kallosh, Linde y Trivedi, por eso se llama técnica KKLT. Utilizando técnicas de D-branas, KKLT logran estabilizar los vacíos restringiendo los módulos de tamaño de las variedades de CY; lo sorprendente es que su idea también restringe de forma “milagrosa” los módulos de forma. Todo ello les permite contar el número de vacíos posibles. Obviamente, la técnica KKLT es solo un “modelo de juguete” de cómo se pueden estabilizar los módulos. ¿Cuántos vacíos hay según la técnica KKLT en una teoría de cuerdas IIB? El artículo técnico ofrece varios valores, dependiendo de ciertos detalles técnicos del modelo efectivo utilizado, unos 10307, 10398, o 10506 vacíos. Que el mismo artículo/técnica ofrezca valores tan variados puede hacer sospechar de la calidad del resultado, por ello muchos expertos afirman que KKLT estimaron unos 10500 vacíos. Un número “redondo” donde los haya.
¿Cuántos vacíos hay la teoría M en once dimensiones? En esta teoría las 7 dimensiones extra (7D) se compactifican utilizando una variedad con grupo de holonomía G2. Estas variedades son mucho más díficiles de estudiar que las variedades CY y se conocen poco sus propiedades. También se ha conjeturado que hay un número finito, pero sin demostración. Las variedades G2 tiene módulos y se han desarrollado técnicas de estabilización del vacío que permiten contar su número. De nuevo, se obtienen muchos.
¿Cuántos vacíos hay en la teoría F en doce dimensiones? En esta teoría las 8 dimensiones extra (8D) se compactifican en una variedad de Calabi-Yau con 4 dimensiones complejas. Muchas de las técnicas de estabilización de vacíos para la teoría de cuerdas se pueden utilizar en este contexto. Aunque me repita, de nuevo, se obtienen muchos.
¿Realmente el problema del “paisaje” es un problema en la teoría ST/M/F? Muchos físicos interpretan este problema como una señal de que la teoría ST/M/F no puede ser la respuesta correcta (promete mucho pero no ayuda nada de nada). Sin embargo, muchos físicos de cuerdas argumentan que el problema del paisaje quizás no es un problema. Quizás el problema es que no conocemos las técnicas matemáticas adecuadas para estabilizar el vacío y estamos dando palos de ciego con nuestras torpes técnicas actuales. Quizás la teoría ST/M/F tiene un único vacío y predice el universo que conocemos. El único universo que conocemos. Quizás, el único universo posible.
¿La teoría ST/M/F es metafísica? ¿Es solo matemática? ¿Hay física en la teoría ST/M/F?
Recomiendo leer a T. Banks, “The Top 10^{500} Reasons Not to Believe in the Landscape,” arXiv:1208.5715, 28 Aug 2012. Y por supuesto, la opinión contraria de Lee Smolin, “A perspective on the landscape problem,” arXiv:1202.3373, 15 Feb 2012.
lunes, 10 de diciembre de 2012
Elimina la publicidad de Amazon de Ubuntu 12.10
Fuente: Muy Computer
Batacazo de Ubuntu 12.10 en materia de privacidad.
Así titulábamos ayer un artículo que repasa el gran error cometido por
los desarrolladores de Ubuntu en la última versión de la distribución.
La introducción, sin permiso del usuario, de publicidad de Amazon en el mismo menú de aplicaciones del sistema es antiestética, molesta y nada certera para con la privacidad del usuario. Pero todo tiene solución…
Lo primero que puedes hacer es acceder a las opciones de privacidad que ha incluido Ubuntu en Configuración del sistema, y desactivar las búsquedas en línea, tal y como muestra la siguiente imagen:
Si no quieres llegar tan lejos y prefieres conservar, por ejemplo, las búsquedas de vídeos en YouTube, entonces procede a desinstalar el paquete llamado unity-lens-shopping que encontrarás en el centro de software de Ubuntu:
Y no hay más, ya te has librado de la molesta publicidad de Amazon,
que para más inri también penaliza el rendimiento del menú (aunque éste
sea el menor de los problemas).
Claro está, si lo que quieres es ahorrar recursos y además no te terminar de convencer Unity, hace poco que explicamos cómo recuperar el escritorio clásico en Ubuntu.
La introducción, sin permiso del usuario, de publicidad de Amazon en el mismo menú de aplicaciones del sistema es antiestética, molesta y nada certera para con la privacidad del usuario. Pero todo tiene solución…
Lo primero que puedes hacer es acceder a las opciones de privacidad que ha incluido Ubuntu en Configuración del sistema, y desactivar las búsquedas en línea, tal y como muestra la siguiente imagen:
Claro está, si lo que quieres es ahorrar recursos y además no te terminar de convencer Unity, hace poco que explicamos cómo recuperar el escritorio clásico en Ubuntu.
Universo, simulaciones y computación
Fuente: Neofronteras
Un par de resultados recientes hablan de la relación entre el Universo y la computación.
La ciencia ficción ha propuesto reiteradas veces que podría ser
posible que fuéramos una simulación en un ordenador. Esta idea ya se
había propuesto antes de que se estrenara Matrix, que obviamente bebe de
las fuentes de Philip K. Dick.
Según esta idea todo los que nos rodea nos rodea: la Tierra, el Sistema Solar, la Vía Láctea y todo el Universo, no sería más que una simulación en un computador que algo parecido a unos dioses tendrían en algún lado. Toda la historia de la humanidad, sus logros o sus obras serían el subproducto de una gran simulación computacional. Nuestros sentimientos, pasiones, mezquindades, buenas obras y los hallazgos de la ciencia también serían unas cadenas de bits en frenética combinación entre sí. Todo el Universo duraría hasta que alguien al otro lado apretara el botón de reset y entonces toda nuestra existencia caería por completo en el más absoluto olvido.
Pero una cosa es lo que dice la ciencia ficción y otra lo que dice la ciencia. La realidad es que nosotros no podemos simular más que una pequeña parte del Universo en nuestros computadores. Simular todo el Universo se antoja imposible. Quizás podremos algún día simular un universo alternativo menos ambicioso, pero no el nuestro. No tenemos suficientes átomos en el Universo para simular la autoorganización de todos los átomos del propio Universo. Si nos vamos a la escala de lo muy pequeño ni siquiera podemos simular la estructura del propio espacio-tiempo, pues incluso carecemos de una teoría para ello. A lo más podemos hacer algunas simulaciones en el retículo de la Cromodinámica Cuántica, que nos proporciona predicciones de cómo se organizar los quarks entre sí. Y estas simulaciones sólo llegan el femtometro de tamaño.
Hace unas semanas hubo cierto revuelo en la blogosfera sobre un artículo publicado en los ArXiv por parte de Silas Beane, de la Universidad de Bonn (Alemania), y sus colaboradores. Según estos teóricos se podían encontrar pruebas de que el Universo es una simulación, aunque tampoco aseguraban que así fuera.
Un problema que surge con esta idea de la simulación es que las leyes de la Física parecen vivir en un continuo en lugar de en un espacio discreto. Si fuéramos una simulación tendrían que ser lo segundo, tendríamos que ver los “píxeles” o los “bits” que componen la “realidad” a algún nivel.
Beane imaginó que si a cierto nivel hay una discretización entonces debe de tener un efecto en lo que observamos en el Universo, sobre todo en los procesos muy energéticos. Si nos fijamos un poco es similar a la idea, menos esotérica, de ver la estructura del espacio-tiempo a la escala de Planck usando fotones gamma y midiendo diferencias en su tiempo de vuelo a lo largo de grandes distancias. En este caso el efecto se debería a que ninguna partícula o efecto puede ser menor que la celda unidad de la simulación.
Estos investigadores especularon que si el Universo es una simulación entonces debe de haber un corte en el espectro de energía de las partículas de alta energía. Ese límite existe y se llama Greisen–Zatsepin–Kuzmin (GZK), pero es atribuido a la interacción de los rayos cósmicos ultraenergéticos con los fotones del fondo cósmico de microondas, de tal modo que, en su viaje por el Universo, las partículas de rayos cósmicos más energéticas van perdiendo energía y al medir su energía nunca encontramos que superen el límite GZK.
Pero estos investigadores asumieron que si el Universo es una simulación y el retículo de simulación está compuesto por celdas cúbicas entonces habrá una anisotropía en este efecto. No sería lo mismo que una partícula viajase en la simulación en dirección a las caras de cada cubo que en dirección hacia las esquinas. Esto afectaría a los rayos cósmicos que medimos, pues tendrían una dirección de propagación preferente a través de las caras de los cubos. Esto podría ser medido.
Sin embargo, la idea presenta un par de problemas. Uno es que los semidioses que nos simulan pueden haber elegido un retículo distinto al cúbico, quizás hexagonal o triangular. El otro problema es que si la idea es cierta y el límite GZK corresponde a este fenómeno, entonces el tamaño de cada celda del retículo es increíblemente pequeño, en concreto de 10-27 metros.
Obviamente este tipo de cosas no se plantean seriamente (pese a lo que dicen los autores en su artículo) y son más bien un divertimento de físicos teóricos, aunque sirven para pensar sobre problemas fundamentales. Y, como los filósofos ya solucionaron en el pasado, si somos una simulación y ésta es tan buena que es indistinguible de la “realidad” entonces no importa y la simulación es tan “real” como deseemos que sea.
Pero si no somos una simulación quizás podamos creer en algo menos drástico. Quizás el Universo en sí mismo es un gran computador. Según esta visión, dado un estado inicial determinado como input, el Universo genera estados futuros como outputs de una simulación. Esta idea se ha propagado por ciertos ámbitos sin que se haya considerado su validez o se hayan tenido en cuenta otras alternativas. Es meramente una asunción que uno debería cuestionar.
Ahora Ken Wharton, de San Jose State University (California), ha escrito un artículo en el que desafía esta idea. Según él esta hipótesis es muy antropocéntrica y asume que el Universo funciona de la misma manera que los humanos resolvemos problemas en la Física.
Entre los problemas que Wharton ve a esta idea está el que para computar el mundo físico primero hay que hacer una correspondencia entre su estado y un estado matemático que es el que se va a computar. Luego ese estado matemático evoluciona hacia otro estado y este nuevo estado se pone en correspondencia con el mundo físico. Pero esto no está permitido por la Mecánica Cuántica a no ser que asumamos que el estado final es probabilístico. Ni siquiera el Universo conoce que estado particular va a adoptar. Además, cuando el Universo es medido se produce un output específico por el mismo acto de medición y un computador clásico no puede tener en cuenta esto.
Quizás lo más interesante de este pensamiento es que las leyes que gobiernan el Universo no pueden expresarse en términos computacionales.
Wharton propone una hipótesis alternativa basada en la idea de Lagrange según la cual las leyes físicas están basadas en el principio de mínima acción.
Así por ejemplo cuando una haz de luz se refracta la pasar del aire al agua, no lo hace por algún tipo de algoritmo, sino porque es el modo más eficiente de propagarse. La trayectoria entre el punto inicial y final unidos por ese haz de luz sería la distancia más corta entre esos dos puntos de entre todas las posibles.
Lo malo es que puede que el Universo tampoco funcione bajo el principio de mínima acción, pues éste no es más que un buen truco que hemos encontrado para resolver ciertos problemas en Física. Además de ser una idea ingenua con la que trabajar.
De todos modos, la idea básica de Wharton de desafiar la hipótesis del Universo como un computador es buena y, sobre todo, esperemos que dé pie a otras alternativas mejores. Al fin y al cabo, es así como funciona la ciencia, sobre todo si esas nuevas ideas se pueden contrastar con la realidad de algún modo.
Yace un problema epistemológico en esa dicotomía entre modelos de realidad y realidad, entre simulaciones de realidad y la realidad, entre lo que sabemos sobre la realidad y la realidad misma, entre una mente perteneciente a la realidad pensando sobre la realidad a la que pertenece o entre un computador físico simulando una parte de la realidad a la que él mismo pertenece. Por no saber no sabemos la relación real entre Matemáticas y realidad, ¿son éstas simplemente una herramienta o tienen alguna correspondencia con la propia realidad? Ya sólo nos quedaría sacar a colación a Gödel y Turing.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3982
Fuentes y referencias:
Artículo en ArXiv.
Artículo en ArXiv.
Según esta idea todo los que nos rodea nos rodea: la Tierra, el Sistema Solar, la Vía Láctea y todo el Universo, no sería más que una simulación en un computador que algo parecido a unos dioses tendrían en algún lado. Toda la historia de la humanidad, sus logros o sus obras serían el subproducto de una gran simulación computacional. Nuestros sentimientos, pasiones, mezquindades, buenas obras y los hallazgos de la ciencia también serían unas cadenas de bits en frenética combinación entre sí. Todo el Universo duraría hasta que alguien al otro lado apretara el botón de reset y entonces toda nuestra existencia caería por completo en el más absoluto olvido.
Pero una cosa es lo que dice la ciencia ficción y otra lo que dice la ciencia. La realidad es que nosotros no podemos simular más que una pequeña parte del Universo en nuestros computadores. Simular todo el Universo se antoja imposible. Quizás podremos algún día simular un universo alternativo menos ambicioso, pero no el nuestro. No tenemos suficientes átomos en el Universo para simular la autoorganización de todos los átomos del propio Universo. Si nos vamos a la escala de lo muy pequeño ni siquiera podemos simular la estructura del propio espacio-tiempo, pues incluso carecemos de una teoría para ello. A lo más podemos hacer algunas simulaciones en el retículo de la Cromodinámica Cuántica, que nos proporciona predicciones de cómo se organizar los quarks entre sí. Y estas simulaciones sólo llegan el femtometro de tamaño.
Hace unas semanas hubo cierto revuelo en la blogosfera sobre un artículo publicado en los ArXiv por parte de Silas Beane, de la Universidad de Bonn (Alemania), y sus colaboradores. Según estos teóricos se podían encontrar pruebas de que el Universo es una simulación, aunque tampoco aseguraban que así fuera.
Un problema que surge con esta idea de la simulación es que las leyes de la Física parecen vivir en un continuo en lugar de en un espacio discreto. Si fuéramos una simulación tendrían que ser lo segundo, tendríamos que ver los “píxeles” o los “bits” que componen la “realidad” a algún nivel.
Beane imaginó que si a cierto nivel hay una discretización entonces debe de tener un efecto en lo que observamos en el Universo, sobre todo en los procesos muy energéticos. Si nos fijamos un poco es similar a la idea, menos esotérica, de ver la estructura del espacio-tiempo a la escala de Planck usando fotones gamma y midiendo diferencias en su tiempo de vuelo a lo largo de grandes distancias. En este caso el efecto se debería a que ninguna partícula o efecto puede ser menor que la celda unidad de la simulación.
Estos investigadores especularon que si el Universo es una simulación entonces debe de haber un corte en el espectro de energía de las partículas de alta energía. Ese límite existe y se llama Greisen–Zatsepin–Kuzmin (GZK), pero es atribuido a la interacción de los rayos cósmicos ultraenergéticos con los fotones del fondo cósmico de microondas, de tal modo que, en su viaje por el Universo, las partículas de rayos cósmicos más energéticas van perdiendo energía y al medir su energía nunca encontramos que superen el límite GZK.
Pero estos investigadores asumieron que si el Universo es una simulación y el retículo de simulación está compuesto por celdas cúbicas entonces habrá una anisotropía en este efecto. No sería lo mismo que una partícula viajase en la simulación en dirección a las caras de cada cubo que en dirección hacia las esquinas. Esto afectaría a los rayos cósmicos que medimos, pues tendrían una dirección de propagación preferente a través de las caras de los cubos. Esto podría ser medido.
Sin embargo, la idea presenta un par de problemas. Uno es que los semidioses que nos simulan pueden haber elegido un retículo distinto al cúbico, quizás hexagonal o triangular. El otro problema es que si la idea es cierta y el límite GZK corresponde a este fenómeno, entonces el tamaño de cada celda del retículo es increíblemente pequeño, en concreto de 10-27 metros.
Obviamente este tipo de cosas no se plantean seriamente (pese a lo que dicen los autores en su artículo) y son más bien un divertimento de físicos teóricos, aunque sirven para pensar sobre problemas fundamentales. Y, como los filósofos ya solucionaron en el pasado, si somos una simulación y ésta es tan buena que es indistinguible de la “realidad” entonces no importa y la simulación es tan “real” como deseemos que sea.
Pero si no somos una simulación quizás podamos creer en algo menos drástico. Quizás el Universo en sí mismo es un gran computador. Según esta visión, dado un estado inicial determinado como input, el Universo genera estados futuros como outputs de una simulación. Esta idea se ha propagado por ciertos ámbitos sin que se haya considerado su validez o se hayan tenido en cuenta otras alternativas. Es meramente una asunción que uno debería cuestionar.
Ahora Ken Wharton, de San Jose State University (California), ha escrito un artículo en el que desafía esta idea. Según él esta hipótesis es muy antropocéntrica y asume que el Universo funciona de la misma manera que los humanos resolvemos problemas en la Física.
Entre los problemas que Wharton ve a esta idea está el que para computar el mundo físico primero hay que hacer una correspondencia entre su estado y un estado matemático que es el que se va a computar. Luego ese estado matemático evoluciona hacia otro estado y este nuevo estado se pone en correspondencia con el mundo físico. Pero esto no está permitido por la Mecánica Cuántica a no ser que asumamos que el estado final es probabilístico. Ni siquiera el Universo conoce que estado particular va a adoptar. Además, cuando el Universo es medido se produce un output específico por el mismo acto de medición y un computador clásico no puede tener en cuenta esto.
Quizás lo más interesante de este pensamiento es que las leyes que gobiernan el Universo no pueden expresarse en términos computacionales.
Wharton propone una hipótesis alternativa basada en la idea de Lagrange según la cual las leyes físicas están basadas en el principio de mínima acción.
Así por ejemplo cuando una haz de luz se refracta la pasar del aire al agua, no lo hace por algún tipo de algoritmo, sino porque es el modo más eficiente de propagarse. La trayectoria entre el punto inicial y final unidos por ese haz de luz sería la distancia más corta entre esos dos puntos de entre todas las posibles.
Lo malo es que puede que el Universo tampoco funcione bajo el principio de mínima acción, pues éste no es más que un buen truco que hemos encontrado para resolver ciertos problemas en Física. Además de ser una idea ingenua con la que trabajar.
De todos modos, la idea básica de Wharton de desafiar la hipótesis del Universo como un computador es buena y, sobre todo, esperemos que dé pie a otras alternativas mejores. Al fin y al cabo, es así como funciona la ciencia, sobre todo si esas nuevas ideas se pueden contrastar con la realidad de algún modo.
Yace un problema epistemológico en esa dicotomía entre modelos de realidad y realidad, entre simulaciones de realidad y la realidad, entre lo que sabemos sobre la realidad y la realidad misma, entre una mente perteneciente a la realidad pensando sobre la realidad a la que pertenece o entre un computador físico simulando una parte de la realidad a la que él mismo pertenece. Por no saber no sabemos la relación real entre Matemáticas y realidad, ¿son éstas simplemente una herramienta o tienen alguna correspondencia con la propia realidad? Ya sólo nos quedaría sacar a colación a Gödel y Turing.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3982
Fuentes y referencias:
Artículo en ArXiv.
Artículo en ArXiv.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Ecos del pasado en toda una galaxia
Fuente: Ciencia Kanija
Muchas galaxias tienen un agujero negro gigante en su centro que provoca que el gas de su entorno brille. Sin embargo, en el caso de las galaxias judía verde, no solo el centro resplandece: toda la galaxia brilla. Estas nuevas observaciones revelan las regiones radiantes más grandes y resplandecientes encontradas hasta ahora, regiones que se cree están alimentadas por agujeros negros centrales, anteriormente muy activos pero que parecen estar apagándose.
Fecha Original: 5 de diciembre de 2012
Enlace Original
Observaciones llevadas a cabo con el VLT identifican un nuevo y extraño tipo de galaxia.
Utilizando observaciones realizadas con los telescopios VLT (Very Large Telescope)
de ESO, el telescopio Gemini Sur y el Canadá-Francia-Hawái Telescope
(CFHT), se ha identificado un nuevo tipo de galaxia. Apodadas como
“galaxias judía verde” por su inusual apariencia, estas galaxias
irradian en medio de la intensa luz emitida desde los alrededores de
agujeros negros monstruosos y están entre los objetos considerados más
raros del universo.
Muchas galaxias tienen un agujero negro gigante en su centro que provoca que el gas de su entorno brille. Sin embargo, en el caso de las galaxias judía verde, no solo el centro resplandece: toda la galaxia brilla. Estas nuevas observaciones revelan las regiones radiantes más grandes y resplandecientes encontradas hasta ahora, regiones que se cree están alimentadas por agujeros negros centrales, anteriormente muy activos pero que parecen estar apagándose.
El astrónomo Mischa Schirmer, del
Observatorio Gemini, ha estudiado numerosas imágenes del universo
distante, buscando cúmulos de galaxias, pero cuando dio con este objeto
en una imagen del Canadá-Francia-Hawái Telescope se quedó sorprendido —
parecía una galaxia, pero era de un brillante color verde. Era distinta a
todas las galaxias que había visto hasta el momento, algo totalmente
inesperado. Rápidamente solicitó poder usar el VLT (Very Large Telescope) de ESO para descubrir qué podría estar creando ese inusual brillo verdoso.
“Avisé a ESO con muy poco tiempo de
antelación y ellos me concedieron tiempo especial de observación; pocos
días después de enviar mi propuesta, el VLT observaba este extraño
objeto”, dice Schirmer. “Diez minutos después de obtener los datos en
Chile los tenía en mi ordenador, en Alemania. Rápidamente reenfoqué por
completo mis actividades de investigación, ya que era evidente que había
dado con algo realmente nuevo”.
El nuevo objeto ha sido etiquetado como
J224024.1−092748 o J2240. Se encuentra en la Constelación de Acuario (El
Portador de Agua) y su luz ha tardado 3700 millones de años en alcanzar
la Tierra.
Tras el descubrimiento, el equipo de
Schirmer buscó en una lista de cerca de mil millones de galaxias y
encontró 16 más con propiedades similares, que fueron confirmadas por
observaciones hechas con el telescopio Gemini Sur. Estas galaxias son
tan escasas que, en promedio, tan solo encontramos una de ellas en un
cubo cósmico de 1300 millones de años luz de lado. Este nuevo tipo de
galaxia ha sido apodada como “galaxias judía verde” por su color y
porque superficialmente son parecidas a las galaxias “guisante verde”,
aunque son de mayor tamaño.
En muchas galaxias, el material que se
encuentra alrededor del agujero negro supermasivo central emite una
intensa radiación que ioniza el gas del entorno, haciéndolo brillar
intensamente. Normalmente, estas regiones brillantes en galaxias activas
típicas son pequeñas, llegando a alcanzar un 10% del diámetro de la
galaxia. Sin embargo, las observaciones del equipo mostraron que, en el
caso de J2240 y de otras galaxias judía verde localizadas desde
entonces, son realmente inmensas, abarcando el objeto por completo.
J2240 despliega una de las regiones más grandes y brillantes de este
tipo encontradas hasta el momento. Cuando el oxígeno se ioniza,
resplandece en un brillante tono verdoso, lo que explica el extraño
color que al principio llamó la atención de Schirmer.
“Estas brillantes regiones son
fantásticos bancos de pruebas para intentar comprender la física de las
galaxias — es como si pudiéramos ponerle un termómetro a una galaxia
muy, muy lejana”, afirma Schirmer. “Normalmente, estas regiones no son
ni muy grandes ni muy brillantes, y solo pueden verse bien en galaxias
cercanas. Sin embargo, en este nuevo tipo de galaxias descubierto, pese a
estar tan lejos de nosotros, son tan grandes y brillantes que pueden
ser observadas con mucho detalle”.
Posteriores análisis de los datos
llevados a cabo por el equipo revelaron otro enigma. J2240 parecía tener
en su centro un agujero negro mucho menos activo de lo esperado para el
tamaño y el brillo de la región. El equipo cree que las regiones
incandescentes deben ser un eco de cuando el agujero negro central era
mucho más activo, y que se irá oscureciendo paulatinamente a medida que
los remanentes de la radiación atraviesen la región y salgan al espacio.
Estas galaxias presentan un centro
galáctico decadente, lo que indica una fase muy fugaz en la vida de la
galaxia. En el universo temprano las galaxias eran mucho más activas,
los agujeros negros masivos centrales en crecimiento se tragaban las
estrellas circundantes y el gas, y brillaban intensamente, produciendo
con facilidad más de cien veces más luz que todas las estrellas de la
galaxia juntas. Ecos de luz como los vistos en J2240 permiten a los
astrónomos estudiar los procesos de decadencia de estos objetos activos
para comprender más sobre cómo, cuándo y por qué se detienen — y por qué
ahora vemos tan pocos en las galaxias más jóvenes. Este es el siguiente
paso que quiere dar el equipo, continuando con su investigación con
observaciones espectroscópicas y en rayos X.
“Descubrir algo completamente nuevo es
el sueño de un astrónomo hecho realidad y algo que ocurre solo una vez
en la vida”, concluye Schirmer. “¡Es muy inspirador!”.
Fecha Original: 5 de diciembre de 2012
Enlace Original
Se mide el agujero negro más masivo e inusual
Fuente: Ciencia Kanija
Artículo publicado el 28 de noviembre de 2012 en la Universidad de Texas
El agujero negro del centro de la galaxia NGC 1277 es once veces más ancho que la órbita de Plutón alrededor del Sol.
Un equipo de astrónomos ha usado el
Telescopio Hobby-Eberly de la Universidad de Texas, en el Observatorio
McDonald en Austin, para medir la masa de lo que puede ser el agujero
negro más masivo hasta la fecha — 17 000 millones de veces la masa del
Sol — en la galaxia NGC 1277. El inusual agujero negro cuenta con el 14
por ciento de la masa de la galaxia, en lugar del 0,1 por ciento
habitual. Esta galaxia, y varias más dentro del mismo estudio, podrían
cambiar las teorías sobre cómo se forman y evolucionan las galaxias y
los agujeros negros. El trabajo aparece en el ejemplar del 29 de
noviembre de la revista Nature.
NGC 1277 se encuentra a 220 millones de años luz de distancia, en la constelación de Perseus. La galaxia tiene apenas el 10 por ciento del tamaño y la masa de la Vía Láctea. A pesar del diminuto tamaño de NGC 1277, el agujero negro que yace en su corazón tiene más de 11 veces el diámetro de la órbita de Neptuno alrededor del Sol.
“Esta galaxia es realmente extraña”,
dice el miembro del equipo Karl Gebhardt de la Universidad de Texas en
Austin. “Casi toda es agujero negro. Podría ser el primer objeto de una
nueva clase de sistemas galaxia-agujero negro”. Además, los agujeros
negros más masivos se han observado en galaxias gigantes conocidas como
“elípticas”, pero este aparece en una galaxia relativamente pequeña en
forma de lente (en la jerga astronómica, “galaxia lenticular”).
El hallazgo se realizó gracias al Hobby-Eberly Telescope Massive Galaxy Survey
(MGS). El objetivo del estudio es comprender mejor cómo se forman y
crecen juntos agujeros negros y galaxias, un proceso que no se conoce
bien.
“Por el momento, existen tres mecanismos
completamente distintos que afirman explicar el vínculo entre la masa
de los agujeros negros y las propiedades de las galaxias anfitrionas. No
comprendemos aún cuál de estas teorías es la mejor”, dice el autor
principal del artículo de Nature, Remco van den Bosch, que
empezó este trabajo mientras gozaba de la beca de posdoctorado W.J.
McDonald en la Universidad de Texas en Austin. Ahora se encuentra en el
Instituto Max Planck para Astronomía (Max Planck Institute for Astronomy) en Heidelberg, Alemania.
El problema es la falta de datos. Los
astrónomos conocen la masa de menos de 100 agujeros negros en galaxias,
pero medir la masa de los agujeros negros es difícil y lleva tiempo, por
lo que el equipo desarrolló el HET Massive Galaxy Survey para acotar el número de galaxias que sería interesante estudiar en mayor detalle.
“Cuando tratas de comprender algo,
siempre buscas los extremos: los más y menos masivos”, dice Gebhardt.
“Elegimos una muestra muy grande de las galaxias más masivas del
universo cercano” para aprender más sobre la relación entre los agujeros
negros y sus galaxias anfitrionas.
Aunque aún está en proceso, el equipo ha
estudiado 700 de las 800 galaxias con HET. “Este estudio solo es
posible gracias a HET”, dice Gebhardt. “El telescopio funciona mejor
cuando las galaxias están dispersas por todo el cielo. Esto es
exactamente para lo que se diseñó HET”.
En el artículo actual, el equipo se
centra en las seis galaxias más masivas. Encontraron que una de ellas,
NGC 1277, ya se había fotografiado por el telescopio espacial Hubble.
Esto proporcionó medidas del brillo de la galaxia a distintas distancias
desde su centro. Cuando se combinaron con los datos de HET y distintos
modelos ejecutados en supercomputadores, el resultado fue una masa para
el agujero negro de 17 000 millones de soles (con un margen de error de
3000 millones).
“La masa de este agujero negro es mucho
mayor de lo esperado”, dice Gebhardt. “Nos lleva a pensar que las
galaxias muy masivas tienen unos procesos físicos diferentes sobre cómo
crecen sus agujeros negros”.
Fecha Original: 28 de noviembre de 2012
Enlace Original
La sonda espacial Voyager 1 y la frontera del sistema solar
Fuente: Francis (th)E mule
Nadie sabe qué señal concreta marcará la salida de la sonda espacial
Voyager 1 de los confines del Sistema Solar. Este año se han observado
varias señales que indican que la Voyager 1 está atravesando una región
interesante, que quizás sea la frontera del Sistema Solar. Esta figura
muestra la evolución en el tiempo de los rayos cósmicos recibidos por la
Voyager 1; en concreto, núcleos con más de 200 MeV, electrones entre 6 y
14 MeV, y protones de ~1 MeV. Los cambios sufridos por estas señales
este año son muy complejos. El más extraordinario ocurrió el 25 de
agosto y las semanas siguientes (Voyager I recorre durante una semana
una distancia de unos 0,07 UA). La señal de protones con una energía
entre 2 y 10 MeV disminuyó bruscamente hasta la décima parte del valor
que tenía con anterioridad, mientras que la intensidad de la señal de
los núcleos y los electrones casi se duplicó. Estos valores se han
mantenido casi constantes en los últimos meses. Nadie sabe exactamente
lo que significa este cambio y habrá que esperar unos cuantos meses más
para ver si vuelve a ocurrir algo parecido. Voyager 1 fue lanzada en
1977 para explorar los planetas gigantes del sistema solar y en 1989
emprendió un viaje en dirección al centro de la Vía Láctea. Su vida útil
concluirá en 2025. Hasta entonces nos permitirá explorar las fronteras
del sistema solar, aunque ahora mismo no comprendemos en detalle lo que
Voyager I está observando, con toda seguridad acabaremos comprendiéndolo
en detalle. El artículo técnico es W. R. Webber et al., “At Voyager 1
Starting on about August 25, 2012 at a Distance of 121.7 AU From the
Sun, a Sudden Disappearance of Anomalous Cosmic Rays and an Unusually
Large Sudden Increase of Galactic Cosmic Ray H and He Nuclei and
Electron Occurred,” arXiv:1212.0883, 4 Dec 2012.
Se llama heliosfera a la región del espacio que se encuentra bajo la influencia del viento solar y de su campo magnético. Más allá de la heliosfera se supone que domina el viento interestelar. La frontera entre ambas regiones se llama heliopausa. El viento solar provoca una onda de choque de terminación. La opinión de algunos expertos es que el suceso del 25 de agosto observado en la Voyager I indica que ha cruzado esta onda de choque de terminación y que ahora está en la heliopausa. En dicho caso, en los próximos meses (o quizás años) acabará saliendo de esta región y observaremos otro cambio en su señal de rayos cósmicos. La información que nos dará Voyager I será clave para entender la composición del viento interestelar, culminando su gran legado a la ciencia. Los confines del sistema solar todavía guardan muchos secretos por desvelar.
Por cierto, la fuente de estas dos últimas imágenes es la wikipedia.
Se llama heliosfera a la región del espacio que se encuentra bajo la influencia del viento solar y de su campo magnético. Más allá de la heliosfera se supone que domina el viento interestelar. La frontera entre ambas regiones se llama heliopausa. El viento solar provoca una onda de choque de terminación. La opinión de algunos expertos es que el suceso del 25 de agosto observado en la Voyager I indica que ha cruzado esta onda de choque de terminación y que ahora está en la heliopausa. En dicho caso, en los próximos meses (o quizás años) acabará saliendo de esta región y observaremos otro cambio en su señal de rayos cósmicos. La información que nos dará Voyager I será clave para entender la composición del viento interestelar, culminando su gran legado a la ciencia. Los confines del sistema solar todavía guardan muchos secretos por desvelar.
Por cierto, la fuente de estas dos últimas imágenes es la wikipedia.
Nota dominical: La curiosa historia de la cromodinámica cuántica (QCD)
Fuente: Francis (th)E mule
Todo se clarificó a finales de los 1960 gracias a los experimentos. La colisión de electrones de alta energía contra núcleos atómicos y nucleones (protones y neutrones) demostró que estaban compuestos de partículas (partones les llamó Feynman) que no interaccionaban entre sí. Lo más obvio era que los partones fueran los quarks, pero nadie entendía cómo era posible que a cortas distancias (o energía y momento grandes) se comportaran como partículas libres, mientras que a distancias más grandes (o energía y momento más pequeños) estuvieran ligados por una interacción muy fuerte. La conjetura entre los físicos teóricos era que las teorías cuánticas de campos no podían ser asintóticamente libres. Coleman y Gross propusieron demostrar esta conjetura de forma general a dos de sus estudiantes de doctorado, Politzer y Wilczek, quienes bajo la atenta guía de Gross demostraron en 1973 que la conjetura era falsa (por ello recibieron el Premio Nobel de Física en 2004). Las teorías de Yang-Mills no abelianas son asintóticamente libres (la QED es la excepción, por ser abeliana).
La teoría de la interacción fuerte, la cromodinámica cuántica (QCD), es asintóticamente libre porque los gluones tienen carga de color, mientras que la QED no lo es porque los fotones son neutros para la carga eléctrica. La teoría de la relatividad de Einstein implica que el vacío de una teoría cuántica de campos cuyos bosones gauge no tengan masa cumpla la relación εµ = 1 donde ε es la permitividad eléctrica, µ es la permeabilidad magnética y se ha usado c=1 (la expresión dimensional es εµ = 1/c²). En la QED el apantallamiento de la carga eléctrica implica que ε > 1, por lo que el vacío de la QED actúa como un material diamagnético (µ < 1). En la QCD los gluones tienen dos colores y actúan como dipolos permanentes de color (µ > 1), por lo que la teoría predice el anti-apantallamiento de la carga de color (ε < 1); este resultado se da para 3 colores si el número de sabores (o generaciones) de quarks es menor de 17.
En 1972, Fritzsch y Gell-Mann mencionaron la posibilidad de que la teoría de los gluones fuera no abeliana, aunque el nombre de cromodinámica cuántica aparece por primera vez en un artículo de Fritzsch, Gell-Mann y Minkowski en 1975 (una nota a pie de página sugiere “A good name for this theory is quantum chromodynamics”).
Referencias para profundizar.
[1] Gerhard Ecker, “Quantum Chromodynamics,” Lectures given at the 2005 European School of High-Energy Physics, Kitzbuehel, Austria, Aug. 21 – Sept. 3, 2005 [arXiv:hep-ph/0604165].
[2] Gerhard Ecker, “The Shaping of Quantum Chromodynamics,” Quark Confinement and the Hadron Spectrum X, Munich, Oct. 8, 2012 [slides - pdf].
“It is well known that theoretical physics is at present almost helpless in dealing with the problem of strong interactions. We are driven to the conclusion that the Hamiltonian method for strong interactions is dead and must be buried, although of course with deserved honour.” Lev D. Landau (c. 1960).Muchos físicos teóricos parecen desesperados porque los experimentos no encuentran “nueva física” más allá del modelo estándar. Quizás este es el mejor momento para recordar el estado de la física de partículas en 1961. La teoría cuántica del campo electromagnético, la electrodinámica cuántica (QED), era todo un éxito, pero utilizaba un procedimiento matemático, la renormalización, que nadie entendía y que disgustaba incluso a sus descubridores (que la calificaban de “procedimiento para esconder los infinitos debajo de la alfombra”). La versión V-A de la teoría de Fermi para la interacción débil también era un éxito a nivel experimental, pero a nivel teórico era inconsistente para energías altas (aunque no fueran alcanzables en los experimentos). La interacción fuerte estaba en un estado deplorable, más allá de la clasificación de los hadrones de Gell-Mann y Zweig basada en la idea de los quarks (puras entelequias matemáticas). La mayoría de los físicos teóricos rehuía de las teorías gauge para la interacción fuerte (cuyo único éxito era la QED) y preferían ideas como el bootstrap o la democracia nuclear en el contexto de la teoría de la matriz S.
Todo se clarificó a finales de los 1960 gracias a los experimentos. La colisión de electrones de alta energía contra núcleos atómicos y nucleones (protones y neutrones) demostró que estaban compuestos de partículas (partones les llamó Feynman) que no interaccionaban entre sí. Lo más obvio era que los partones fueran los quarks, pero nadie entendía cómo era posible que a cortas distancias (o energía y momento grandes) se comportaran como partículas libres, mientras que a distancias más grandes (o energía y momento más pequeños) estuvieran ligados por una interacción muy fuerte. La conjetura entre los físicos teóricos era que las teorías cuánticas de campos no podían ser asintóticamente libres. Coleman y Gross propusieron demostrar esta conjetura de forma general a dos de sus estudiantes de doctorado, Politzer y Wilczek, quienes bajo la atenta guía de Gross demostraron en 1973 que la conjetura era falsa (por ello recibieron el Premio Nobel de Física en 2004). Las teorías de Yang-Mills no abelianas son asintóticamente libres (la QED es la excepción, por ser abeliana).
La teoría de la interacción fuerte, la cromodinámica cuántica (QCD), es asintóticamente libre porque los gluones tienen carga de color, mientras que la QED no lo es porque los fotones son neutros para la carga eléctrica. La teoría de la relatividad de Einstein implica que el vacío de una teoría cuántica de campos cuyos bosones gauge no tengan masa cumpla la relación εµ = 1 donde ε es la permitividad eléctrica, µ es la permeabilidad magnética y se ha usado c=1 (la expresión dimensional es εµ = 1/c²). En la QED el apantallamiento de la carga eléctrica implica que ε > 1, por lo que el vacío de la QED actúa como un material diamagnético (µ < 1). En la QCD los gluones tienen dos colores y actúan como dipolos permanentes de color (µ > 1), por lo que la teoría predice el anti-apantallamiento de la carga de color (ε < 1); este resultado se da para 3 colores si el número de sabores (o generaciones) de quarks es menor de 17.
En 1972, Fritzsch y Gell-Mann mencionaron la posibilidad de que la teoría de los gluones fuera no abeliana, aunque el nombre de cromodinámica cuántica aparece por primera vez en un artículo de Fritzsch, Gell-Mann y Minkowski en 1975 (una nota a pie de página sugiere “A good name for this theory is quantum chromodynamics”).
Referencias para profundizar.
[1] Gerhard Ecker, “Quantum Chromodynamics,” Lectures given at the 2005 European School of High-Energy Physics, Kitzbuehel, Austria, Aug. 21 – Sept. 3, 2005 [arXiv:hep-ph/0604165].
[2] Gerhard Ecker, “The Shaping of Quantum Chromodynamics,” Quark Confinement and the Hadron Spectrum X, Munich, Oct. 8, 2012 [slides - pdf].
viernes, 7 de diciembre de 2012
El píxel ideal: Nanocubos de plata distribuidos al azar sobre una nanocapa de oro recubierta de polímero
Fuente: Francis (th)E mule
El píxel ideal para una célula fotovoltaica o el sensor CCD de una
cámara digital debe ser eficiente, selectivo y barato de fabricar a gran
escala. Los mejores absorbentes de luz son metamateriales, pero son
difíciles de fabricar debido a su peculiar geometría. David Smith (Univ.
Duke, Durham, Carolina del Norte) y sus colegas han fabricado el píxel
ideal distribuyendo al azar nanocubos de plata (74 nm de lado
recubiertos de 3 nm de oro) encima de una nanocapa de oro (50 nm de
grosor) recubierta a su vez de una fina nanocapa de un polímero
transparente (de solo unos nanómetros de grosor). El tamaño de los
nanocubos y el grosor de la nanocapa de polímero determinan el rango de
frecuencias ópticas que absorbe el píxel. El secreto es que cada
nanocubo actúa como una nanoantena que produce plasmones en el metal,
cuya relación de dispersión depende del ratio entre el grosor de la
nanocapa de polímero y el lado del cubo de plata. La gran ventaja de la
nueva propuesta nanotecnológica es que no importa la geometría de la
distribución de los nanocubos, caigan donde caigan al fabricar el píxel
sus propiedades no se ven afectadas. Una ida realmente sugerente y
curiosa que se publica hoy en Nature. Nos lo cuenta Katharine
Sanderson, ”Sprinkled nanocubes hold light tight. Device based on
scattered silver cubes could scale up light absorption for solar power,”
Nature News, 05 Dec. 2012. El artículo técnico es Antoine Moreau et al., “Controlled-reflectance surfaces with film-coupled colloidal nanoantennas,” Nature 492: 86-89, 06 Dec 2012.
El material ideal para absorber luz debe tener una baja reflectancia y una baja transmitancia. Lograr que ambos factores sean muy pequeños en un mismo material es muy difícil (por ejemplo, los materiales opacos como los metales tienen una baja transmitancia, pero su reflectancia es grande y actúan como espejos). Los metamateriales, que alternan en una geometría regular materiales con ambas propiedades, permiten diseñar absorbentes ideales para la luz, pero su fabricación utilizando técnicas litográficas es difícil debido a su geometría compleja; además, lograr que absorban luz visible requiere una geometría en la nanoescala, difícil de controlar, por lo que su uso práctico en la industria se limita a microondas y al infrarrojo lejano. Alcanzar el infrarrojo cercano y el visible con píxeles de metamateriales de fácil fabricación industrial requiere nuevos conceptos nanotecnológicos.
Un absorbente de luz ideal debería combinar un conductor eléctrico y un conductor magnético que compensen el campo electromagnético de la onda incidente impidiendo que se refleje y que se transmita; el problema es que los conductors magnéticos no existen. Sin embargo, podemos colocar una nanoantena resonante a una distancia g (gap) sobre una película conductora; en el gap se confinará el campo electromagnético en una serie de modos resonantes. Para los modos en los que el campo eléctrico es máximo en las aristas del cubo se produce una densidad de corriente superficial de campo magnético que fluye en el gap. Con un número suficiente de nanoantenas sobre un conductor eléctrico se logra que la densidad de corriente superficial del campo magnético sea suficiente para compensar la densidad de corriente eléctrica de la onda incidente. Esta compensación ocurrirá con preferencia a cierta frecuencia óptica del espectro que dependerá del cociente entre el lado de la nanoantena y el grosor del gap.
El nuevo artículo propone usar nanocubos como nanoantenas sobre una nanopelícula de oro recubierta de un polímero como dieléctrico (con índice de refracción 1,54). La eficiencia como absorbente de estas nanoantenas ha sido calculada numéricamente utilizando el software comercial COMSOL en Matlab (para las simulaciones en dos dimensiones) y un método espectral basado en series de Fourier para las simulaciones en tres dimensiones. La figura de arriba (abajo, derecha) muestra el campo magnético de un modo guiado de tipo plasmón en el gap entre el nanocubo y la superficie metálica. El índice de refracción del dieléctrico se reduce al reducir el grosor del gap, incrementando la frecuencia (longitud de onda) del modo resonante del plasmón. La eficiencia de absorción de un nanocubo es bastante alta, del orden del 97%, por lo que para lograr una absorción ideal (100%) basta recubrir el 3% de la superficie del conductor con nanocubos.
Los autores del estudio han fabricado los píxeles con los nanocubos distribuidos de forma aleatoria y diferentes grosores para el gap calculando el espectro de absorción de los píxeles y verificando que la banda de absorción es bastante estrecha (algo deseable en la mayoría de las aplicaciones). Para lograr un banda de absorción más ancha habría que controlar durante la fabricación la distancia de separación entre los nanocubos, garantizando una separación mínima entre ellos.
Quizás algún lector que haya llegado hasta aquí se preguntará por qué los autores usan nanocubos en lugar de nanoesferas, en apariencia más difíciles de fabricar. La razón es que el plasmón entre la nanoantena y la superficie metálica cambia mucho su forma y propiedades cuando la cavidad que lo confina no tiene paredes planas. Con nanoesferas es difícil logra un buen absorbente para luz incidente en la dirección normal al conductor. Además, la clave de la absorción está en el efecto de las bordes del cubo, mucho menor en el caso de las nanoesferas. En cuanto a la fabricación de los nanocubos, en la actualidad hay técnicas de síntesis química capaces de fabricarlos a escala industrial (que nacieron hace 10 años con el artículo de Yugang Sun, Younan Xia, “Shape-Controlled Synthesis of Gold and Silver Nanoparticles,” Science 298: 2176-2179, 13 Dec 2002). El mayor problema es lograr que todos los nanocubos tengan el mismo radio. La combinación de nanocubos de tamaño ligeramente diferente reduce la absorción de cada uno, lo que se puede compensar colocando un mayor número de nanocubos sobre la superficie del conductor.
En resumen, un trabajo técnico muy interesante y bastante prometedor.
El material ideal para absorber luz debe tener una baja reflectancia y una baja transmitancia. Lograr que ambos factores sean muy pequeños en un mismo material es muy difícil (por ejemplo, los materiales opacos como los metales tienen una baja transmitancia, pero su reflectancia es grande y actúan como espejos). Los metamateriales, que alternan en una geometría regular materiales con ambas propiedades, permiten diseñar absorbentes ideales para la luz, pero su fabricación utilizando técnicas litográficas es difícil debido a su geometría compleja; además, lograr que absorban luz visible requiere una geometría en la nanoescala, difícil de controlar, por lo que su uso práctico en la industria se limita a microondas y al infrarrojo lejano. Alcanzar el infrarrojo cercano y el visible con píxeles de metamateriales de fácil fabricación industrial requiere nuevos conceptos nanotecnológicos.
Un absorbente de luz ideal debería combinar un conductor eléctrico y un conductor magnético que compensen el campo electromagnético de la onda incidente impidiendo que se refleje y que se transmita; el problema es que los conductors magnéticos no existen. Sin embargo, podemos colocar una nanoantena resonante a una distancia g (gap) sobre una película conductora; en el gap se confinará el campo electromagnético en una serie de modos resonantes. Para los modos en los que el campo eléctrico es máximo en las aristas del cubo se produce una densidad de corriente superficial de campo magnético que fluye en el gap. Con un número suficiente de nanoantenas sobre un conductor eléctrico se logra que la densidad de corriente superficial del campo magnético sea suficiente para compensar la densidad de corriente eléctrica de la onda incidente. Esta compensación ocurrirá con preferencia a cierta frecuencia óptica del espectro que dependerá del cociente entre el lado de la nanoantena y el grosor del gap.
El nuevo artículo propone usar nanocubos como nanoantenas sobre una nanopelícula de oro recubierta de un polímero como dieléctrico (con índice de refracción 1,54). La eficiencia como absorbente de estas nanoantenas ha sido calculada numéricamente utilizando el software comercial COMSOL en Matlab (para las simulaciones en dos dimensiones) y un método espectral basado en series de Fourier para las simulaciones en tres dimensiones. La figura de arriba (abajo, derecha) muestra el campo magnético de un modo guiado de tipo plasmón en el gap entre el nanocubo y la superficie metálica. El índice de refracción del dieléctrico se reduce al reducir el grosor del gap, incrementando la frecuencia (longitud de onda) del modo resonante del plasmón. La eficiencia de absorción de un nanocubo es bastante alta, del orden del 97%, por lo que para lograr una absorción ideal (100%) basta recubrir el 3% de la superficie del conductor con nanocubos.
Los autores del estudio han fabricado los píxeles con los nanocubos distribuidos de forma aleatoria y diferentes grosores para el gap calculando el espectro de absorción de los píxeles y verificando que la banda de absorción es bastante estrecha (algo deseable en la mayoría de las aplicaciones). Para lograr un banda de absorción más ancha habría que controlar durante la fabricación la distancia de separación entre los nanocubos, garantizando una separación mínima entre ellos.
Quizás algún lector que haya llegado hasta aquí se preguntará por qué los autores usan nanocubos en lugar de nanoesferas, en apariencia más difíciles de fabricar. La razón es que el plasmón entre la nanoantena y la superficie metálica cambia mucho su forma y propiedades cuando la cavidad que lo confina no tiene paredes planas. Con nanoesferas es difícil logra un buen absorbente para luz incidente en la dirección normal al conductor. Además, la clave de la absorción está en el efecto de las bordes del cubo, mucho menor en el caso de las nanoesferas. En cuanto a la fabricación de los nanocubos, en la actualidad hay técnicas de síntesis química capaces de fabricarlos a escala industrial (que nacieron hace 10 años con el artículo de Yugang Sun, Younan Xia, “Shape-Controlled Synthesis of Gold and Silver Nanoparticles,” Science 298: 2176-2179, 13 Dec 2002). El mayor problema es lograr que todos los nanocubos tengan el mismo radio. La combinación de nanocubos de tamaño ligeramente diferente reduce la absorción de cada uno, lo que se puede compensar colocando un mayor número de nanocubos sobre la superficie del conductor.
En resumen, un trabajo técnico muy interesante y bastante prometedor.
miércoles, 5 de diciembre de 2012
Se realiza un experimento para resolver “un verdadero misterio” de la mecánica cuántica
Fuente: Ciencia Kanija
Artículo publicado el 1 de noviembre de 2012 en la Universidad de Bristol
¿De qué está hecha la luz, de ondas o de
partículas? Esta pregunta básica ha fascinado a los físicos desde los
primeros días a de la ciencia. La mecánica cuántica predice que los
fotones, partículas de luz, son tanto ondas como partículas,
simultáneamente. Según se informa en Science, físicos de la
Universidad de Bristol han ofrecido una nueva demostración de esta
dualidad onda-partícula de los fotones, conocida como “un verdadero
misterio de la mecánica cuántica” por el ganador del premio Nobel
Richard Feynman.
La historia de la ciencia está marcada
por un intenso debate entra las teorías ondulatoria y corpuscular de la
luz. Isaac Newton fue el principal defensor de la teoría corpuscular,
mientras que James Clerk Maxwell y su tremendamente exitosa teoría del
electromagnetismo, daban apoyo a la teoría ondulatoria. Sin embargo, las
cosas cambiaron drásticamente en 1905, cuando Einstein demostró que era
posible explicar el efecto fotoeléctrico (que había seguido siendo un
misterio hasta ese momento) usando la idea de que la luz está hecha de
partículas: los fotones. Este descubrimiento tuvo un gran impacto en la
física, dado que contribuyó enormemente al desarrollo de la mecánica
cuántica, la teoría científica más precisa jamás desarrollada.
A pesar de su éxito, la mecánica cuántica presenta un gran desafío a nuestra intuición cotidiana. De hecho, la teoría predice con una notable precisión el comportamiento de objetos pequeños, tales como átomos y fotones. Sin embargo, cuando se echa un vistazo más de cerca a estas predicciones, tenemos que admitir que van totalmente contra la intuición. Por ejemplo, la teoría cuántica predice que una partícula (por ejemplo, un fotón), puede estar en distintos lugares al mismo tiempo. De hecho, incluso puede estar en infinitos sitios al mismo tiempo, exactamente como una onda. De aquí la idea de la dualidad onda-partícula, que es fundamental para todos los sistemas cuánticos.
Sorprendentemente, cuando se observa un
fotón, se comporta como onda o como partícula, pero nunca se aprecian
ambos aspectos a la vez. De hecho, el comportamiento que presenta
depende del tipo de medida que se realice sobre el mismo. Este asombroso
fenómeno se ha investigado experimentalmente en los últimos años,
usando dispositivos de medida que pueden cambiar entre las medidas
ondulatorias y corpusculares.
En un artículo publicado en la revista Science,
los físicos de la Universidad de Bristol dan un nuevo giro a estas
ideas. Los doctores Alberto Peruzzo, Peter Shadbolt y el profesor Jeremy
O’Brien del Centro de Fotónica Cuántica se unieron a los teóricos
cuánticos, el Dr. Nicolas Brunner y el profesor Sandu Popescu para idear
un nuevo tipo de aparato de medida que pudiese medir a la vez el
comportamiento corpuscular y ondulatorio. Este nuevo dispositivo
funciona gracia a la no localidad cuántica, otro impactante efecto
cuántico poco intuitivo.
El Dr. Peruzzo, miembro investigador en
el Centro de Fotónica Cuántica, dice: “El aparato de medida detectó una
fuerte no localidad, certificando que el fotón se comportaba
simultáneamente como onda y partícula en nuestro experimento. Esto
representa una sólida refutación de los modelos en los que el fotón es
una onda o una partícula”.
El profesor O’Brien Director del Centro
de Fotónica Cuántica, dice: “Para llevar a cabo esta investigación,
usamos un chip fotónico cuántico, una novedosa tecnología desarrollada
en Bristol. El chip es reconfigurable, por lo que puede programarse y
controlarse para implementar diferentes circuitos. Hoy, esta tecnología
es un enfoque principal en la búsqueda de la construcción de un
computador cuántico y, en el futuro, permitirá nuevos y más sofisticados
estudios de aspectos fundamentales de los fenómenos cuánticos”.
Una prometedora perspectiva para resolver un verdadero misterio de la mecánica cuántica. ¡Permanece atento!
Artículo de Referencia:
‘A Quantum Delayed Choice Experiment’ by Peruzzo et al. in Science
Fecha Origina: 1 de noviembre de 2012
Enlace Original
martes, 4 de diciembre de 2012
Nuevo paradigma cosmológico
Fuente: Neofronteras
Proponen un nuevo paradigma basado en la teoría cuántica de
lazos para los momentos iniciales del Big Bang que podría comprobarse
experimentalmente.
Como ya sabe el lector habitual de NeoFronteras, todavía no hay una
teoría cuántica de gravedad. Hay, eso sí, algunos marcos conceptuales
con los que se trabaja y que quizás algún día den lugar a una teoría de
ese tipo. Uno de estos marcos conceptuales es la teoría cuántica de
lazos, que fue propuesta por Abhay Ashtekar de Penn State. Usando este
marco se propuso hace un tiempo un modelo que pretendía decir qué pasó
antes del Big Bang y que proponía que el Big Bang era un rebote de un
universo anterior.
Ahora, Ashtekar y sus colaboradores proponen un nuevo paradigma basado en la teoría cuántica de lazos para los momentos iniciales del Big Bang. Este nuevo paradigma permite, por primera vez, ver cómo pudieron evolucionar las grandes estructuras del Universo a partir de las fluctuaciones cuánticas del propio espacio-tiempo, pues proporciona un marco matemático y conceptual que permite describir la exótica geometría mecánico-cuántica del espacio-tiempo. La idea es entender la dinámica que la materia y la geometría experimentaron durante esas eras tan tempranas del Universo.
Se cree que durante el Big Bang la densidad del Universo era inimaginablemente alta de tal modo que la Teoría General de la Relatividad no puede describir ese estado. La densidad de materia alcanzaría los 1094 gramos por centímetro cúbico, que es muchos órdenes de magnitud superior a la densidad de un núcleo atómico (1014 g/cm3).
En ese ambiente mecánico-cuántico las propiedades físicas serían muy distintas a las de hoy en día y se manifestarían probabilísticamente, tal y como dicta la Mecánica Cuántica.
No podemos reproducir esas condiciones en los laboratorios y además no hay ninguna observación que nos permita ver directamente ese estado, así que esta teoría, al igual que otras, tiene problemas de falsabilidad. Como ya sabemos, el Universo se hizo transparente por primera vez pasados unos 380.000 años después del Big Bang, evento que vemos ahora como el fondo cósmico de microondas. Se supone que hay un fondo cósmico de neutrinos y quizás un fondo cósmico de ondas gravitatorias, pero ninguno puede retrotraernos a los instantes iniciales del Big Bang cuando los fenómenos mecánico-cuánticos eran importantes.
Sin embargo, este nuevo paradigma permite, según sus proponentes, realizar algunas predicciones que podrían ser comprobadas observacionalmente.
Si el Big Bang hubiese sido perfecto y hubiera dado lugar a algo perfectamente homogéneo no tendríamos cúmulos de galaxias, galaxias, estrellas o planetas, sino un montón de átomos equidistantes. Para que la gravedad opere se necesita alguna irregularidad a la que poder agarrarse. El Big Bang clásico producía demasiadas irregularidades y daba lugar a un universo que no era homogéneo ni isótropo, pero lo que observamos es un universo homogéneo ni isótropo. La idea de inflación se introdujo para solucionar este problema. Según esta hipótesis el Universo sufrió un proceso rápido de inflación que hizo que creciera a velocidad superlumínica (el espacio no tiene límites a la hora de expandirse, pero los objetos en su interior no pueden ir más rápidos que la luz). Este proceso inflacionario aplanó el universo y lo dejó en un estado muy homogéneo e isótropo. A la vez habría aumentado las pequeñas fluctuaciones cuánticas del propio Big Bang y proporcionado las suficientes “semillas” para que la gravedad formara la estructura a gran escala del Universo.
Este nuevo trabajo proporciona precisamente esas fluctuaciones primigenias y los resultados muestran, según sus autores, que las condiciones iniciales en el comienzo del Big Bang dan de forma natural la estructura a gran escala del Universo que observamos. Las predicciones encajan con lo que se observa en el fondo cósmico de microondas (FCM), cuyas irregularidades son un reflejo de esas fluctuaciones primigenias.
Para ello asumen que nuestro universo procede de un universo previo en contracción que se colapsó y rebotó en lo que llamamos Big Bang. El estudio cubre una época desde la inflación hacia a atrás que cubre 11 órdenes de magnitud en densidad de materia y en curvatura del espacio-tiempo. Han conseguid además delimitar las condiciones iniciales que se dieron en el Gran Rebote y comprobado que la posterior evolución concuerda con las observaciones del FCM.
Quizás lo más interesante es que han encontrado una gama de valores estrecha para ciertos parámetros que permiten al nuevo paradigma predecir efectos novedosos que la teoría del Big Bang estándar más inflación no predicen.
“Es excitante que pronto podamos ser capaces de comprobar estas predicciones diferentes”, dice Ashtekar. Espera que en nuevas misiones de observación se comprueben estas predicciones y que además se pueda ganar una mayor comprensión del universo muy temprano.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3977
Fuentes y referencias:
Nota de prensa.
Copia del artículo en ArXiv.
Artículo en ArXiv.
Ivan Agullo, Abhay Ashtekar, and William Nelson. Quantum gravity extension of the inflationary scenario. Physical Review Letters, 11 de diciembre, 2012.
Ahora, Ashtekar y sus colaboradores proponen un nuevo paradigma basado en la teoría cuántica de lazos para los momentos iniciales del Big Bang. Este nuevo paradigma permite, por primera vez, ver cómo pudieron evolucionar las grandes estructuras del Universo a partir de las fluctuaciones cuánticas del propio espacio-tiempo, pues proporciona un marco matemático y conceptual que permite describir la exótica geometría mecánico-cuántica del espacio-tiempo. La idea es entender la dinámica que la materia y la geometría experimentaron durante esas eras tan tempranas del Universo.
Se cree que durante el Big Bang la densidad del Universo era inimaginablemente alta de tal modo que la Teoría General de la Relatividad no puede describir ese estado. La densidad de materia alcanzaría los 1094 gramos por centímetro cúbico, que es muchos órdenes de magnitud superior a la densidad de un núcleo atómico (1014 g/cm3).
En ese ambiente mecánico-cuántico las propiedades físicas serían muy distintas a las de hoy en día y se manifestarían probabilísticamente, tal y como dicta la Mecánica Cuántica.
No podemos reproducir esas condiciones en los laboratorios y además no hay ninguna observación que nos permita ver directamente ese estado, así que esta teoría, al igual que otras, tiene problemas de falsabilidad. Como ya sabemos, el Universo se hizo transparente por primera vez pasados unos 380.000 años después del Big Bang, evento que vemos ahora como el fondo cósmico de microondas. Se supone que hay un fondo cósmico de neutrinos y quizás un fondo cósmico de ondas gravitatorias, pero ninguno puede retrotraernos a los instantes iniciales del Big Bang cuando los fenómenos mecánico-cuánticos eran importantes.
Sin embargo, este nuevo paradigma permite, según sus proponentes, realizar algunas predicciones que podrían ser comprobadas observacionalmente.
Si el Big Bang hubiese sido perfecto y hubiera dado lugar a algo perfectamente homogéneo no tendríamos cúmulos de galaxias, galaxias, estrellas o planetas, sino un montón de átomos equidistantes. Para que la gravedad opere se necesita alguna irregularidad a la que poder agarrarse. El Big Bang clásico producía demasiadas irregularidades y daba lugar a un universo que no era homogéneo ni isótropo, pero lo que observamos es un universo homogéneo ni isótropo. La idea de inflación se introdujo para solucionar este problema. Según esta hipótesis el Universo sufrió un proceso rápido de inflación que hizo que creciera a velocidad superlumínica (el espacio no tiene límites a la hora de expandirse, pero los objetos en su interior no pueden ir más rápidos que la luz). Este proceso inflacionario aplanó el universo y lo dejó en un estado muy homogéneo e isótropo. A la vez habría aumentado las pequeñas fluctuaciones cuánticas del propio Big Bang y proporcionado las suficientes “semillas” para que la gravedad formara la estructura a gran escala del Universo.
Este nuevo trabajo proporciona precisamente esas fluctuaciones primigenias y los resultados muestran, según sus autores, que las condiciones iniciales en el comienzo del Big Bang dan de forma natural la estructura a gran escala del Universo que observamos. Las predicciones encajan con lo que se observa en el fondo cósmico de microondas (FCM), cuyas irregularidades son un reflejo de esas fluctuaciones primigenias.
Para ello asumen que nuestro universo procede de un universo previo en contracción que se colapsó y rebotó en lo que llamamos Big Bang. El estudio cubre una época desde la inflación hacia a atrás que cubre 11 órdenes de magnitud en densidad de materia y en curvatura del espacio-tiempo. Han conseguid además delimitar las condiciones iniciales que se dieron en el Gran Rebote y comprobado que la posterior evolución concuerda con las observaciones del FCM.
Quizás lo más interesante es que han encontrado una gama de valores estrecha para ciertos parámetros que permiten al nuevo paradigma predecir efectos novedosos que la teoría del Big Bang estándar más inflación no predicen.
“Es excitante que pronto podamos ser capaces de comprobar estas predicciones diferentes”, dice Ashtekar. Espera que en nuevas misiones de observación se comprueben estas predicciones y que además se pueda ganar una mayor comprensión del universo muy temprano.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3977
Fuentes y referencias:
Nota de prensa.
Copia del artículo en ArXiv.
Artículo en ArXiv.
Ivan Agullo, Abhay Ashtekar, and William Nelson. Quantum gravity extension of the inflationary scenario. Physical Review Letters, 11 de diciembre, 2012.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Pronta detección de ondas gravitatorias
Fuente: Neofronteras
Según un estudio teórico la detección de ondas gravitatorias estaría a la vuelta de la esquina.
Una de las predicciones más interesantes de la Relatividad General es
la existencia de ondas gravitatorias. Al igual que las ondas provocadas
por un terremoto se propagan por la corteza terrestre, eventos
extremadamente energéticos que se dan en el Universo producirían ondas.
Estas ondas se moverían a la velocidad de la luz y estarían formadas por
distorsiones del propio espacio-tiempo y no serían partículas u ondas
que viajaran por él. A diferencia de las ondas que se propagan en un
estanque al lanzar una piedra, las ondas gravitatorias tendrían más
modos de vibración dependiendo del estado de polarización.
Así por ejemplo, si un frente de estas ondas gravitarías alcanza un volumen determinado del espacio éste se puede contraer y expandir alternativamente y con ello los objetos que contiene. Así por ejemplo en la animación se puede ver efecto de un haz de ondas gravitatorias sobre un anillo de partículas (fuente: Wikipedia).
Pero la intensidad de estas ondas es muy baja y esas contracciones y expansiones son mucho menores que el diámetro de un átomo. Ni la formación de agujeros negros, ni la colisión de estrellas de neutrones ni el propio Big Bang producen ondas gravitatorias que se puedan medir directamente en la actualidad.
La mejor prueba que hasta ahora se tiene sobre la existencia de estas ondas es la contracción orbital de un par de púlsares. Pérdida de energía cuya cuantía encaja con la energía que se llevaría la radiación de ondas gravitatorias que abandona el sistema.
Una manera de intentar detectar estas ondas directamente es usando interferómetros láser como LIGO. La idea es lanzar un haz de luz láser sobre unos brazos kilométricos en L sobre cuyos extremos se sitúan unos espejos. Las reflexiones reiteradas de este haz sobre ellos hacen que la distancia recorrida sea muy grande, lo que aumenta las posibilidades de detectar estas ondas. Ahora mismo hay varios grupos que trabajan en este asunto, mejorando cada vez más estos interferómetros. LIGO, que se encuentra en el estado de Washington, está bajo una actualización que le permitirá alcanzar gran sensibilidad, se espera que esta actualización termine antes de que finalice 2019.
La mejor oportunidad que se puede tener para detectar ondas gravitatorias es que se dé la colisión entre dos agujeros negros supermasivos, algo que se produce cuando dos galaxias colisionan. El problema es la frecuencia a la que se puede dar este tipo evento.
Ahora Sean McWilliams, de Princeton University, ha publicado un trabajo en el que calcula la probabilidad de que se dé una colisión entre ese tipo de agujeros negros. Llega a la conclusión de que la frecuencia con la que se da este tipo de eventos es mucho más alta de lo que se creía.
Según los datos astronómicos, en los últimos 6000 millones de años las galaxias han doblado su masa y quintuplicado su tamaño. Esto se habría dado gracias a la colisión de galaxias más pequeñas, fenómeno que se puede observar directamente con nuestros telescopios. Los modelos computacionales pueden reproducir muy bien esas colisiones que observamos y en ellos se predice la colisión de los agujeros negros que hay en sus centros.
A partir de esta información McWilliams calcula que la colisión de agujeros negros supermasivos es de 10 a 30 veces más frecuente de lo que se creía.
Esto significa que quizás este tipo de eventos ya ha sido registrado y se encuentra en las bases de datos. Sólo haría falta buscarlos, según McWilliams. En concreto, en los datos procedentes no de los interferómetros, sino de la observación de púlsares. Como cuanto mayor sea la distancia considerada mejor se pueden detectar estas ondas, se puede usar la distancia que media entre nosotros y ciertos púlsares. Las ondas de radio que emiten estos objetos se conocen con mucha precisión y emiten pulsos cada cierto intervalo preciso de tiempo. Así que si una onda gravitatoria cruza el espacio que media entre nosotros y esos objetos se producirá un cambio en el tiempo que recibimos algunos de esos pulsos de ondas de radio.
En el peor escenario posible McWilliams predice que por fin detectaremos ondas gravitarías por este método antes de 2016 con una probabilidad del 95%.
La detección de ondas gravitatorias supondría un triunfo más de Einstein desde la ultratumba y un hito científico. El equipo que lo registrase tendría el premio Nobel asegurado. A ver si con un poco de suerte lo contamos en NeoFronteras antes de 2016.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3975
Fuentes y referencias:
Artículo en ArXiv
Así por ejemplo, si un frente de estas ondas gravitarías alcanza un volumen determinado del espacio éste se puede contraer y expandir alternativamente y con ello los objetos que contiene. Así por ejemplo en la animación se puede ver efecto de un haz de ondas gravitatorias sobre un anillo de partículas (fuente: Wikipedia).
Pero la intensidad de estas ondas es muy baja y esas contracciones y expansiones son mucho menores que el diámetro de un átomo. Ni la formación de agujeros negros, ni la colisión de estrellas de neutrones ni el propio Big Bang producen ondas gravitatorias que se puedan medir directamente en la actualidad.
La mejor prueba que hasta ahora se tiene sobre la existencia de estas ondas es la contracción orbital de un par de púlsares. Pérdida de energía cuya cuantía encaja con la energía que se llevaría la radiación de ondas gravitatorias que abandona el sistema.
Una manera de intentar detectar estas ondas directamente es usando interferómetros láser como LIGO. La idea es lanzar un haz de luz láser sobre unos brazos kilométricos en L sobre cuyos extremos se sitúan unos espejos. Las reflexiones reiteradas de este haz sobre ellos hacen que la distancia recorrida sea muy grande, lo que aumenta las posibilidades de detectar estas ondas. Ahora mismo hay varios grupos que trabajan en este asunto, mejorando cada vez más estos interferómetros. LIGO, que se encuentra en el estado de Washington, está bajo una actualización que le permitirá alcanzar gran sensibilidad, se espera que esta actualización termine antes de que finalice 2019.
La mejor oportunidad que se puede tener para detectar ondas gravitatorias es que se dé la colisión entre dos agujeros negros supermasivos, algo que se produce cuando dos galaxias colisionan. El problema es la frecuencia a la que se puede dar este tipo evento.
Ahora Sean McWilliams, de Princeton University, ha publicado un trabajo en el que calcula la probabilidad de que se dé una colisión entre ese tipo de agujeros negros. Llega a la conclusión de que la frecuencia con la que se da este tipo de eventos es mucho más alta de lo que se creía.
Según los datos astronómicos, en los últimos 6000 millones de años las galaxias han doblado su masa y quintuplicado su tamaño. Esto se habría dado gracias a la colisión de galaxias más pequeñas, fenómeno que se puede observar directamente con nuestros telescopios. Los modelos computacionales pueden reproducir muy bien esas colisiones que observamos y en ellos se predice la colisión de los agujeros negros que hay en sus centros.
A partir de esta información McWilliams calcula que la colisión de agujeros negros supermasivos es de 10 a 30 veces más frecuente de lo que se creía.
Esto significa que quizás este tipo de eventos ya ha sido registrado y se encuentra en las bases de datos. Sólo haría falta buscarlos, según McWilliams. En concreto, en los datos procedentes no de los interferómetros, sino de la observación de púlsares. Como cuanto mayor sea la distancia considerada mejor se pueden detectar estas ondas, se puede usar la distancia que media entre nosotros y ciertos púlsares. Las ondas de radio que emiten estos objetos se conocen con mucha precisión y emiten pulsos cada cierto intervalo preciso de tiempo. Así que si una onda gravitatoria cruza el espacio que media entre nosotros y esos objetos se producirá un cambio en el tiempo que recibimos algunos de esos pulsos de ondas de radio.
En el peor escenario posible McWilliams predice que por fin detectaremos ondas gravitarías por este método antes de 2016 con una probabilidad del 95%.
La detección de ondas gravitatorias supondría un triunfo más de Einstein desde la ultratumba y un hito científico. El equipo que lo registrase tendría el premio Nobel asegurado. A ver si con un poco de suerte lo contamos en NeoFronteras antes de 2016.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3975
Fuentes y referencias:
Artículo en ArXiv
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
martes, 27 de noviembre de 2012
¿Cuánto se está alejando la Tierra del Sol?
Fuente: Física en la ciencia ficción | (+) |
La catástrofe se avecina y no hay
escapatoria posible. Nuestro Sol se está consumiendo poco a poco, día a día,
hora tras hora, minuto a minuto. En su centro tienen lugar procesos violentos
de fusión nuclear y los dicharacheros y revoltosos núcleos de hidrógeno se dan
de tortas calientes unos contra otros, quedándose embarazados durante un
suspiro, y pariendo velozmente núcleos de helio, mientras lanzan gritos de
energía luminosa y calorífica en forma de brillantes fotones que viajan
lentamente hasta la lejana fotosfera. Una vez allí, acompañados por chorros de
otras partículas menos deslumbrantes pero más pesadas como electrones y
protones las cuales, a su vez, constituyen el viento solar, disponen de algo
más de ocho minutos para alcanzar nuestro planeta azul. De vez en cuando,
nuestra estrella, quizá afectada de indigestión, se deshace de materia molesta
en forma de eructos violentos llamados eyecciones de masa coronal. Y la
respuesta de la Tierra consiste en alejarse paulatinamente, cada vez un poquito
más de semejantes actos groseros y maleducados.
La cantidad de energía que emite
el Sol por unidad de tiempo recibe el nombre de luminosidad y es debida a los
procesos de fusión nuclear que tienen lugar en lo más profundo de su corazón,
como os he contado poéticamente en el párrafo anterior. Para nuestra estrella,
esta luminosidad asciende nada menos que a 390 cuatrillones de joules cada
segundo. Si hacemos uso de la célebre ecuación de Einstein que relaciona la
masa y la energía, comprobamos fácilmente que una cantidad de energía como la
que emite el Sol equivale a una pérdida de masa de 137 billones de toneladas
por año, un porcentaje ridículo de su masa total, unos 1980 cuatrillones de
toneladas.
Este no es el único procedimiento
por el que nuestra estrella madre lanza materia al espacio. Otro proceso
importante, aunque no tanto como la fusión nuclear, es el viento solar, que
también aparece en el primer párrafo. Consiste en haces de partículas
subatómicas, principalmente protones y electrones, además de otras muchísimo
más ligeras, como neutrinos. A partir de datos empíricos, se puede estimar, de
forma aproximada, la cantidad de masa estelar que es expulsada en forma de
viento solar. Partiendo de que la velocidad de dicho viento ronda los 350 km/s
y que la densidad de protones medida en la Tierra alcanza los 9 por centímetro
cúbico y despreciando la contribución del resto de partículas, por ser todas
mucho menos pesadas que los protones, se llega a que el viento solar se lleva
consigo algo menos de 47 billones de toneladas cada año, aproximadamente la
tercera parte de la que se pierde por procesos de fusión nuclear.
¿Cuál es la consecuencia
inmediata de todo lo expuesto hasta ahora? Veamos, si repasáis vuestra física
de bachillerato, quizá recordéis aquel mágico momento en que vuestros malvados
y malintencionados profesores os explicaron las leyes de un tal Kepler.
Haciendo un poco de memoria, puede que incluso venga a vuestras mentes
inocentes aquello de que el momento angular de los planetas se conserva mientras
describen sus respectivas y elípticas orbitas alrededor del Sol. Al fin y al
cabo, no pocos quebraderos de cabeza le supuso todo esto al bueno de Johannes
Kepler y sus tres leyes del movimiento planetario. Y ni aun así sois capaces de
rendirle un mínimo homenaje y respeto al entenderlas y aprenderlas de una vez
para siempre. Pues bien, dicho de una forma extremadamente simple, la susodicha
conservación del momento angular implica que a medida que la masa total del Sol
disminuye (y, en consecuencia, su atracción gravitatoria sobre la Tierra y
todos los demás cuerpos del sistema solar) la distancia a nuestro planeta debe
aumentar. Esto significa que la Tierra se alejará del Sol constantemente, al
menos mientras la luminosidad de éste se mantenga uniforme, cosa que sucederá
mientras continúe la fase de fusión de hidrógeno y no comience la fase de
gigante roja en la evolución de nuestra estrella.
Cuando se introducen en la ecuación
de la constancia del momento angular los valores estimados para la pérdida de
masa solar, así como la distancia media del radio de la órbita y la masa del
Sol, obtenemos que el mundo que habitamos se encuentra cada año un poquito más
allá, adentrándose en el tenebroso, frío y oscuro espacio interestelar, a la
increíble velocidad de 1,4 centímetros anuales. ¡Vertiginoso!
Fuente:
A Solar Diet Plan D. Staab, E. J. Watkinson, Z. Rogerson and M. Walach. Journal of Physics Special Topics, Vol. 11, No. 1, 2012.El color de las Tierras extraterrestres
Fuente: Ciencia Kanija
A la fotografía obtenida se le llama el Punto Azul Pálido y muestra a la Tierra como una diminuta mota blanco-azulada sobre el gran vacío del espacio. Más tarde, Sagan utilizó esta frase para el título de un libro sobre su visión del futuro de la humanidad en el espacio.
Artículo publicado el 24 de septiembre de 2012 en The Physics ArXiv Blog
La Tierra es un punto de color azul
pálido cuando se observa desde el espacio. Ahora, los astrobiólogos han
determinado los colores más probables que pueden presentar los planetas
similares a la Tierra que orbitan otras estrellas.
Cuando la sonda Voyager 1 estaba a punto
de abandonar el Sistema Solar en 1990, el astrónomo estadounidense Carl
Sagan sugirió que se girasen las cámaras de la nave espacial hacia su
planeta de origen a unos 3000 millones de kilómetros de distancia.
A la fotografía obtenida se le llama el Punto Azul Pálido y muestra a la Tierra como una diminuta mota blanco-azulada sobre el gran vacío del espacio. Más tarde, Sagan utilizó esta frase para el título de un libro sobre su visión del futuro de la humanidad en el espacio.
Debido al color tan peculiar de la
Tierra, una pregunta interesante es qué color tendría una Tierra
extraterrestre que orbite a otra estrella. Hoy por hoy disponemos de una
respuesta con diferentes opciones por parte de Siddharth Hedge del
Instituto Max Planck para la Astronomía (Max Planck Institute for
Astronomy) en Alemania y de Lisa Kaltenegger del Centro
Harvard-Smithsonian para la Astrofísica (Harvard-Smithsonian Center for
Astrophysics) en Cambridge, Massachusetts.
Señalan que el color de la Tierra está
íntimamente relacionado con su habitabilidad y, en particular, al color
del agua que cubre el 70 por ciento de la superficie terrestre. Sin
embargo, el color también está determinado por otros factores
ambientales como los desiertos, la nieve, la cubierta de líquenes sobre
las rocas y la cubierta de vegetación que cubre el 60 por ciento de la
tierra.
En particular, la vegetación es la responsable del aumento del famoso
“red edge” (borde rojo) que un extraterrestre vería al rotar la Tierra.
Es el resultado de un incremento de la absorción de luz roja debido a
la fotosíntesis cuando un océano desaparece de la vista siendo
remplazado por una superficie cubierta de árboles.
Si un exoplaneta se asemeja a la Tierra,
sobre todo en la cantidad de agua líquida sobre su superficie, entonces
su color sería una pieza clave, afirman Hedge y Kaltenegger. Asumiendo
una atmósfera transparente que permita ver la superficie, hacen una
estimación del color de las “Tierras extraterrestres” basándose en el
porcentaje de la superficie cubierta de agua, de vegetación arbórea, de
lechos bacterianos, de endolitos, que viven en el interior de las rocas,
y de muchos más factores.
Llegan a la conclusión de que debería
ser posible evaluar la habitabilidad de los exoplanetas que pueden ser
observados con estas características, un proceso que debería ayudar a
centrar el interés en los exoplanetas más importantes.
Los puntos azulados, por ejemplo, serían
más prioritarios que los puntos rojos similares a Marte, mientras que
el planeta rojo carezca de vida, que es lo que podemos decir por el
momento.
Esto podría convertirse en una técnica
muy práctica. Hoy en día, el número de Tierras extraterrestres se sitúa
en tres (Gliese 581d, HD 85512b y Gliese 667Cc). Pero ese número está
llamado a aumentar de forma drástica en los próximos meses y años cuando
las observaciones como las de la sonda Kepler de la NASA nos faciliten
más datos. Por lo que encontrar una forma de filtrar a los exoplanetas
más interesantes será seguro de gran utilidad.
Fecha Original: 24 de septiembre de 2012
Enlace Original
Enlace Original
Observan en tiempo real cómo funciona una batería de litio en la escala nanométrica
Fuente: Francis (th)E mule
Seguro que tienes muchas baterías de litio en casa y sabes bien que su vida útil es bastante corta (con recargas diarias aguantan solo un par de años). En muchas aplicaciones (como los automóviles eléctricos) se necesita que tengan una vida útil mucho más larga (al menos una década). Para desarrollar las baterías de litio del futuro es necesario comprender cómo funcionan los electrodos en la nanoescala. Gracias a una nanocelda electroquímica y un microscopio electrónico de transmisión se ha podido observar el transporte de los iones de litio en el electrodo en tiempo real durante la descarga y la recarga. El electrodo de la celda está formado por nanopartículas de FeF2 de unos 10-20 nm de diámetro depositadas sobre una fina capa de carbono; el transporte del litio por la superficie provoca la formación de una capa exterior de nanocristales de LiF y de átomos de Fe de unos 1-3 nm de grosor. Las imágenes en tiempo real permiten ver los detalles de este proceso, que dura solo unos pocos minutos, y cuya morfología recuerda a una descomposición espinodal. La figura que abre esta entrada ilustra la difusión de los iones de litio con carga positiva a través de la superficie de la nanopartícula de FeF2 y la formación de un frente (como el de un fuego en un monte) que barre rápidamente toda la superficie; una vez barrida la superficie, el proceso ocurre hacia el interior, pero de forma mucho más lenta, capa a capa, hasta alcanzar un grosor de unos pocos nanómetros. Este estudio de Feng Wang (BNL, Brookhaven National Laboratory, NY, EEUU) y sus colegas permitirá conocer con sumo detalle el transcurso de las reacciones físico-químicas de los iones de litio en los electrones, lo que se espera que permita optimizar el funcionamiento de las baterías. El artículo técnico es Feng Wang et al., “Tracking lithium transport and electrochemical reactions in nanoparticles,” Nature Communications 3: 1201, 13 Nov 2012 [copia gratis].
Estudios previos ya habían demostrado la formación de una capa de Fe y
LiF en la superficie del cátodo de FeF2 durante la conversión del
litio; esta red conductora de hierro permite el transporte de los
electrones necesario para la recarga de la batería. Para optimizar el
diseño de los cátodos es necesario conocer en detalle cómo ocurre este
proceso, cuyos defectos son responsables del envejecimiento de la
batería. Para lograrlo ha sido necesario usar técnicas in-situ de alta
resolución, como el microscopio electrónico de transmisión (TEM), que
permiten explorar la morfología y la estructura de los cambios en el
electrodo en la nanoescala. El problema que han resuelto estos físicos
ha sido desarrollar una nanocelda electroquímica adecuada para su uso en
el TEM.
Este vídeo ha sido grabado a dos fotogramas por segundo y se ha
acelerado 42 veces para acortar su duración (el proceso total dura entre
3-12 minutos dependiendo de la nanocelda). El proceso de conversión del
litio conlleva la formación de pequeñas partículas de hierro
subnanométricas que reaccionan con el interior de la nanocelda de FeF2
creciendo en volumen hasta generar nanopartículas de hierro con un
diámetro entre 1-3 nm. Entre el 41-57% del volumen está formado por
partículas de LiF y alrededor del 21% por partículas de Fe, por tanto
las partículas de Fe y LiF no están empaquetadas de forma densa (un
diseño óptimo de la nanocelda de FeF2 podría mejorar este
empaquetamiento). El proceso tiene dos escalas de tiempo. En la más
rápida los iones de litio se difunden rápìdamente por la superficie
empezando por la región en contacto con el sustrato de carbono hasta
recubrir la nanocelda. En la escala de tiempo más lento, el proceso
ocurre desde el exterior hacia el interior (su análisis detallado ha
requerido el uso de técnicas espectroscópicas y de difracción de rayos
X). The reaction within individual particles is surprisingly fast,
Algunos lectores quizás necesiten un breve explicación de cómo funciona una batería de litio. Los iones de Li (cuya carga es positiva) generan electricidad en la pila al pasar de un electrodo con carga negativa a otro con carga positiva. En una batería totalmente cargada todos los iones de Li están almacenados rellenado el electrodo negativo. Una vez descargada (si la descarga es completa) todos han pasado al otro electrodo. Para recargar la batería se invierte este proceso aplicando una corriente eléctrica (electrones) que permite el retorno de los iones de Li hasta el primer electrodo. En una batería nueva este proceso es bastante eficaz, pero el envejecimiento de los electrodos (asociado a un fenómeno de histéresis) hace que en cada ciclo de descarga/recarga se degrade la estructura del material y la eficacia se reduzca hasta que la batería se vuelve inútil (o poco práctica).
Más sobre baterías de litio y otras baterías en este blog: “De Juana la Loca hasta las baterías de litio viajando por algunos carnavales de ciencias,” 28 octubre 2012; “Adiós a las baterías de litio, llegan las baterías recargables de aluminio,” 14 enero 2012; “Nueva batería de Litio para el conejito de Duracell ¡y duran, y duran, …! (o la nanotecnología hasta en la sopa),” 8 febrero 2008; y “Más sobre la nanodinamita: Energía eléctrica gracias a la combustión oscilatoria en nanotubos de carbono recubiertos,” 13 febrero 2012.
Seguro que tienes muchas baterías de litio en casa y sabes bien que su vida útil es bastante corta (con recargas diarias aguantan solo un par de años). En muchas aplicaciones (como los automóviles eléctricos) se necesita que tengan una vida útil mucho más larga (al menos una década). Para desarrollar las baterías de litio del futuro es necesario comprender cómo funcionan los electrodos en la nanoescala. Gracias a una nanocelda electroquímica y un microscopio electrónico de transmisión se ha podido observar el transporte de los iones de litio en el electrodo en tiempo real durante la descarga y la recarga. El electrodo de la celda está formado por nanopartículas de FeF2 de unos 10-20 nm de diámetro depositadas sobre una fina capa de carbono; el transporte del litio por la superficie provoca la formación de una capa exterior de nanocristales de LiF y de átomos de Fe de unos 1-3 nm de grosor. Las imágenes en tiempo real permiten ver los detalles de este proceso, que dura solo unos pocos minutos, y cuya morfología recuerda a una descomposición espinodal. La figura que abre esta entrada ilustra la difusión de los iones de litio con carga positiva a través de la superficie de la nanopartícula de FeF2 y la formación de un frente (como el de un fuego en un monte) que barre rápidamente toda la superficie; una vez barrida la superficie, el proceso ocurre hacia el interior, pero de forma mucho más lenta, capa a capa, hasta alcanzar un grosor de unos pocos nanómetros. Este estudio de Feng Wang (BNL, Brookhaven National Laboratory, NY, EEUU) y sus colegas permitirá conocer con sumo detalle el transcurso de las reacciones físico-químicas de los iones de litio en los electrones, lo que se espera que permita optimizar el funcionamiento de las baterías. El artículo técnico es Feng Wang et al., “Tracking lithium transport and electrochemical reactions in nanoparticles,” Nature Communications 3: 1201, 13 Nov 2012 [copia gratis].
Algunos lectores quizás necesiten un breve explicación de cómo funciona una batería de litio. Los iones de Li (cuya carga es positiva) generan electricidad en la pila al pasar de un electrodo con carga negativa a otro con carga positiva. En una batería totalmente cargada todos los iones de Li están almacenados rellenado el electrodo negativo. Una vez descargada (si la descarga es completa) todos han pasado al otro electrodo. Para recargar la batería se invierte este proceso aplicando una corriente eléctrica (electrones) que permite el retorno de los iones de Li hasta el primer electrodo. En una batería nueva este proceso es bastante eficaz, pero el envejecimiento de los electrodos (asociado a un fenómeno de histéresis) hace que en cada ciclo de descarga/recarga se degrade la estructura del material y la eficacia se reduzca hasta que la batería se vuelve inútil (o poco práctica).
Más sobre baterías de litio y otras baterías en este blog: “De Juana la Loca hasta las baterías de litio viajando por algunos carnavales de ciencias,” 28 octubre 2012; “Adiós a las baterías de litio, llegan las baterías recargables de aluminio,” 14 enero 2012; “Nueva batería de Litio para el conejito de Duracell ¡y duran, y duran, …! (o la nanotecnología hasta en la sopa),” 8 febrero 2008; y “Más sobre la nanodinamita: Energía eléctrica gracias a la combustión oscilatoria en nanotubos de carbono recubiertos,” 13 febrero 2012.
Esta entrada participa en la XIX Edición del Carnaval de Química que organiza Leet mi explain, y en la XXXVI Edición del Carnaval de Física que organiza Gravedad Cero.
Suscribirse a:
Entradas (Atom)