martes, 25 de septiembre de 2012

Indecibilidad cosmológica

Fuente: Neofronteras

Área: Física — Lunes, 24 de Septiembre de 2012

Según un estudio las ecuaciones de Einstein pueden tener un grado de impredecibilidad aún mayor que el de los sistemas caóticos. Incluso conociendo con precisión infinita las condiciones iniciales no se puede predecir el futuro estado del sistema para determinados modelos.
Foto
Las ecuaciones de campo de Einstein de la Relatividad General describen el comportamiento del espacio en presencia de masa y/o energía y proporciona la mejor teoría que tenemos para describir la gravedad.
El problema es que la gravedad gravita y esto se ve reflejado en las ecuaciones como una “retroalimentación” en las mismas. En otras palabras, estas ecuaciones son muy difíciles de resolver analíticamente con lápiz y papel o incluso numéricamente. En general las ecuaciones diferenciales en derivadas parciales son muy difíciles de resolver, incluso cuando sean sencillas (las de Einstein no lo son).
La consecuencia de ello es que conocemos sólo unos pocos casos de soluciones generales para este tipo de ecuaciones (ecuación del calor, ecuación de la cuerda vibrante, ecuación de Schrödinger…). Las demás, simplemente, no sabemos resolverlas. Sin embargo, cuando las condiciones de contorno y las condiciones iniciales son especiales puede que tengamos ciertas simetrías que permitan resolver la ecuación.
En el caso de las ecuaciones de Einstein se conocen unas cuantas soluciones, como la de Schwarzschild para agujeros negros o para modelos de tipo Friedmann-Robertson-Walker en Cosmología. Las ecuaciones de Einstein hacen honor con su nombre al famoso sabio, pero incluso sus soluciones hacen honor al físico que las descubre (aunque su apellido casi no tenga vocales).
Por otro lado, hay sistemas caóticos deterministas que nos impredecibles. Poseen lo que se llama “efecto mariposa” en alusión a la analogía que dice que el batir de alas de una mariposa en la selva brasileña puede producir una gran tormenta en Indonesia (bueno, hay muchas versiones). Este efecto tiene que ver con la estabilidad de la las ecuaciones. Básicamente si un sistema es caótico, como el tiempo atmosférico, es predeciblemente impredecible. Sólo con una precisión infinita en las condiciones iniciales y un cálculo con esa precisión se podría determinar el estado final de uno de estos sistemas. Pero nunca tenemos esa precisión infinita.
Cuando el caos determinista se puso de moda todo físico aburrido quería encontrar si tal o cual modelo era caótico. También hubo algunos que estudiaron si las ecuaciones de campo de Einstein eran caóticas, como Belinski, Khalatnikov y Lifshitz en los setenta.
El caos encontrado en las ecuaciones de Einstein no era para preocuparse, pues asumía unas condiciones de inhomogeneidad que no se dan en el Universo. Los modelos de Friedmann-Robertson-Walker que se usan en Cosmología asumen un Universo homogéneo e isótropo.
Ahora, un par de físicos italianos hacen un estudio heurístico sobre el asunto y llegan a la conclusión de que las ecuaciones de Einstein pueden tener un grado de impredecibilidad aún mayor que el de los sistemas caóticos. Incluso conociendo con precisión infinita las condiciones iniciales no se puede predecir el futuro estado del sistema. Es más, si están en lo cierto, los modelos cosmológicos podrían ser indecibles en el sentido gödelinao. Según ellos serían comparables a máquinas de Turing en el sentido de que incluso con unas condiciones iniciales conocidas exactamente la evolución de este tipo de sistemas dinámicos sería impredecible.
Recordemos de que Kurt Gödel es el matemático que descubrió uno de los resultados más grandes, inesperados y fascinantes de las Matemáticas: el teorema de incompletitud. Según este teorema todo sistema axiomático formal (una manera elegante y rigurosa de definir a las Matemáticas) contiene enunciados que no pueden ser demostrados ni refutados. Si se incorporan como verdaderos (o falsedades) entonces se tiene otro sistema que a su vez contendrá otros enunciados que también serán indecidibles. Al final se crean distintas Matemáticas dependiendo de la elección realizada.
Gödel murió de hambre debido a una paranoia de envenenamiento una que vez su mujer falleció (única que sabía llevarlo) y ni el propio Einstein, amigo personal de Gödel, pudo hacer nada por evitarlo.
El asunto de la indecibilidad puede afectar la estabilidad de las ecuaciones diferenciales y en trabajos previos se ha estudiado el asunto, pero generalmente no eran ecuaciones que describieran aspectos físicos.
Yves Gaspar y Giovanni Acquaviva realizan un estudio heurístico y reconocen que haría falta un estudio rigurosos del asunto. Quieren simplemente que su trabajo de pie a trabajos posteriores en modelos inhomogéneos de las ecuaciones de Einstein. Así que, de momento, no se tambalean los cimientos de la Física.
Según ellos su trabajo muestra que la indecibilidad puede aparecer en problemas físicos importantes, como es el estudio de las condiciones iniciales en cosmología. Según ellos para modelos de Bianchi de tipo VIII la cuestión de si un conjunto de condiciones iniciales cerca de la singularidad inicial da lugar a comportamiento caótico es indecidible.
Si asumimos esto, incluso conociendo las condiciones iniciales con exactitud no se puede predecir la dinámica futura.
El que no se puedan resolver las ecuaciones de los modelos de Bianchi de tipo VIII implica no solamente errores cuantitativos en el cálculo de la evolución futura del sistema, como es habitual, sino que el error puede corresponder a un intercambio entre comportamiento caótico y no caótico. Además habría una presencia de conjuntos de fractales no recursivos. La estabilidad de este tipo de modelos, por tanto, sería indecidible.
Es decir, ni sabiendo con exactitud las condiciones iniciales del Universo se podría predecir totalmente su dinámica futura.
Según estos físicos se podría argumentar que la presencia de la singularidad inicial es crucial para que aparezca esta indecibilidad y que eliminando esta singularidad desaparecería el problema, pero según ellos no es así. La manera de deshacerse de las singularidades suele basarse en asumir que una teoría cuántica de la gravedad no presentaría este tipo de objetos, pero entonces los fenómenos cuánticos introducirían una impredecibilidad cuántica y el cálculo de la función de ondas se hace incomputable.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3925
Fuentes y referencias:
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

jueves, 20 de septiembre de 2012

El CSIC propone un experimento para transferir información entre el pasado y el futuro

Fuente: Ciencia Kanija
 
Artículo publicado el 18 de septiembre de 2012 en CSIC
Investigadores del Consejo Superior de Investigaciones Científicas (CSIC) y de la Universidad de Waterloo (Canadá), han propuesto un experimento que permite la transferencia de información entre el pasado y el futuro, usando para ello las propiedades del vacío cuántico. El trabajo ha sido publicado en la revista Physical Review Letters.
“El vacío, tal y como lo entendemos clásicamente, es un estado completamente desprovisto de materia. Sin embargo, cuánticamente, el vacío está lleno de partículas virtuales. Es lo que se conoce como fluctuaciones cuánticas del vacío. Gracias a estas fluctuaciones, es posible hacer que el vacío esté entrelazado en el tiempo; es decir, el vacío que hay ahora y el que habrá en un instante de tiempo posterior, presentan fuertes correlaciones cuánticas”, explica el investigador del CSIC Borja Peropadre, del Instituto de Física Fundamental. Los científicos han conseguido explotar estas propiedades, utilizando la emergente tecnología de los circuitos superconductores.
Comunicación cuántica

“Los circuitos superconductores permiten reproducir la interacción entre materia y radiación, pero con un grado de control asombroso. No sólo permiten controlar la intensidad de la interacción entre átomos y luz, sino también el tiempo que dura la misma. Gracias a ello, hemos podido amplificar efectos cuánticos que, de otra forma, serían imposibles de detectar”, añade el investigador Carlos Sabín, director del estudio.
De este modo, haciendo interaccionar fuertemente dos átomos P (pasado) y F (futuro) con el vacío de un campo cuántico en distintos instantes de tiempo, los científicos han encontrado que P y F acaban fuertemente entrelazados.
“Es importante señalar que no sólo es que los átomos no hayan interaccionado entre ellos, sino que en un mundo clásico, ni siquiera sabrían de su existencia mutua”, comentan los investigadores.
Aplicación como memoria cuántica
Desde el punto de vista tecnológico, una aplicación muy importante de este resultado es el uso de esta transferencia de entrelazamiento como futura memoria cuántica. “Codificando el estado de un átomo P en el vacío de un campo cuántico, podremos recuperarlo pasado un tiempo, en el átomo F. Esa información de P, que está siendo ‘memorizada’ por el vacío, será transferida después al átomo F sin pérdida de información. Todo ello gracias a la extracción de las correlaciones temporales del vacío”, concluye Peropadre.

Artículo de Referencia: Carlos Sabín, Borja Peropadre, Marco del Rey, Eduardo Martín-Martínez. Extracting Past-Future Vacuum Correlations Using Circuit QED. Physical Review Letters. DOI: 10.1103/PhysRevLett.109.033602
Fecha Original: 18 de septiembre de 2012
Enlace Original

lunes, 17 de septiembre de 2012

Científicos de IBM distinguen enlaces moleculares individuales por primera vez

Fuente: Ciencia Kanija
 
Nota de prensa enviada el 14 de septiembre de 2012 por Patricia Núñez de IBM
Participan en la investigación científicos españoles de la Universidad de Santiago de Compostela.
La microscopía de fuerza atómica (AFM) ayuda a los científicos a desvelar el orden y longitud de los enlaces existentes dentro de las moléculas
Esta técnica puede utilizarse para estudiar los futuros dispositivos fabricados con grafeno.
Científicos de IBM (NYSE:IBM) han podido diferenciar por primera vez los enlaces químicos existentes en moléculas individuales utilizando una técnica conocida como microscopía de fuerza atómica (AFM por sus siglas en inglés). La investigación ha contado también con la participación de científicos españoles del Centro de Investigación en Química Biológica y Materiales Moleculares (CIQUS) de la Universidad de Santiago de Compostela.
Bond Order Discrimination_1
Molécula de nanografeno Crédito: IBM

Los resultados de este descubrimiento llevan más lejos las investigaciones sobre la utilización de las moléculas y átomos a la escala más reducida. Este descubrimiento podría ser importante para el estudio de los dispositivos fabricados con grafeno. Actualmente, se está estudiando la aplicación de estos dispositivos en ámbitos como las comunicaciones inalámbricas de banda ancha o las pantallas electrónicas.
“Hemos encontrado dos mecanismos de contraste diferentes para distinguir los enlaces. El primero se basa en pequeñas diferencias en la fuerza medida sobre los enlaces. Esperábamos este tipo de contraste pero ha sido un reto el resolverlo”, ha afirmado el científico de IBM Leo Gross. “El segundo mecanismo de contraste verdaderamente llegó por sorpresa: los enlaces aparecieron con diferentes longitudes en las medidas del AFM. Con la ayuda de cálculos computacionales encontramos que la inclinación de una molécula de monóxido de carbono en el ápice de la punta de la sonda era la causa del contraste”.
Como recoge la portada del número del 14 de septiembre de la revista Science, los científicos de IBM visualizaron el orden y longitud de enlaces individuales entre átomos de carbono en nanoestructuras de fullerenos C60, también conocidas como buckybolas por su forma de balón de fútbol, y en dos hidrocarburos policíclicos aromáticos (PAHs por sus siglas en inglés) planos, que se asemejan a pequeños copos de grafeno. El Centro de Investigación en Química Biológica y Materiales Moleculares (CIQUS) de la Universidad de Santiago de Compostela y el Centre National de la Recherche Scientitique (CNRS) de Toulouse llevaron a cabo la síntesis de los PAHs.
Los enlaces individuales entre átomos de carbono en estas moléculas difieren sutilmente en su fuerza y longitud. Todas las propiedades químicas, electrónicas y ópticas de este tipo de moléculas están relacionadas con las diferencias de los enlaces en los sistemas poliaromáticos. Ahora, por primera vez, estas diferencias han podido ser observadas en moléculas y enlaces individuales. Esto puede incrementar el conocimiento al nivel de moléculas individuales, lo que es importante para las investigaciones sobre  nuevos dispositivos electrónicos, células solares orgánicas y diodos orgánicos emisores de luz (OLEDs por sus siglas en inglés). En particular, mediante esta técnica podría observarse la relajación de los enlaces alrededor de los defectos en el grafeno, o los cambios que experimentan los enlaces en las reacciones químicas y en estados excitados.
Como se explica en su investigación anterior (Science 2009, 325, 1110), los científicos de IBM utilizaron un microscopio de fuerza atómica (AFM) con una punta de sonda que termina con una única molécula de mónoxido de carbono (CO). La punta de la sonda oscila con una pequeña amplitud sobre la muestra, con el objeto de medir las fuerzas entre la punta y la muestra, que podría ser una molécula, para crear una imagen. La molécula de CO en la terminación de la punta actúa como una potente lupa para revelar la estructura atómica de la molécula, incluyendo sus enlaces. Esto ha hecho posible distinguir enlaces individuales que difieren solamente en 3 picometros  (3 x 10 -12  metros), que es aproximadamente la centésima parte del diámetro de un átomo.
En investigaciones anteriores el equipo tuvo éxito logrando imágenes de la estructura química de moléculas individuales, pero no lograron hasta ahora la imagen de las sutiles diferencias entre los enlaces. Lograr discriminar el orden de los enlaces está próximo al límite actual de resolución de la técnica. A menudo otros efectos ocultan el contraste relativo al orden de los enlaces. Por eso, los científicos tuvieron que seleccionar y sintetizar moléculas en las que se pudiera eliminar cualquier efecto perturbador.
Para corroborar los resultados experimentales y adquirir una mayor comprensión de la naturaleza exacta de los mecanismos de contraste, el equipo desarrolló cálculos mediante la teoría del funcional de la densidad (DFT). De ese modo, calcularon la inclinación de la molécula de CO en el ápice de la punta de la sonda, lo cual ocurre en el proceso de visualización de la muestra. Los científicos encontraron cómo esta inclinación resulta en una amplificación de las imágenes de los enlaces.
Esta investigación ha sido financiada dentro del marco de varios proyectos europeos como ARTIST, HERODOT, CEMAS y por el Ministerio de Economía y Competitividad del Gobierno de España y por la Xunta de Galicia.
El artículo científico se titula “Discriminación del orden de enlace mediante Microscopía de Fuerza Atómica” (Bond-Order Discrimination by Atomic Force Microscopy”, realizado por L. Gross, F. Mohn, N. Moll, B. Schuler, A. Criado, E. Guitián, D. Peña, A. Gourdon y G. Meyer, y se publica en la revista Science (14 de septiembre de 2012).

Autor: Patricia Núñez
Fecha Original: 14 de septiembre de 2012

La incertidumbre cuántica no está toda en la medida

Fuente: Ciencia Kanija 


Artículo publicado por Geoff Brumfield el 11 de septiembre de 2012 en Nature News
Se demuestra la falsedad  de una interpretación común del principio de incertidumbre de Heisenberg.
Contrariamente a lo que se enseña a muchos estudiantes, la incertidumbre cuántica puede no estar siempre en el ojo del que mira. Un nuevo experimento demuestra que medir un sistema cuántico no siempre introduce necesariamente incertidumbre. El estudio derroca una explicación común en las aulas sobre por qué el mundo cuántico parece tan difuso, pero el límite fundamental a lo conocible en las menores escalas sigue sin cambios.
Incertidumbre © by TMAB2003

En las bases de la mecánica cuántica se encuentra el principio de incertidumbre de Heisenberg. Expresado simplemente, dicho principio afirma que existe un límite fundamental a lo que se puede conocer acerca de un sistema cuántico. Por ejemplo, cuanta mayor precisión se tenga sobre la posición de una partícula, menos se sabrá sobre su momento, y viceversa. El límite se expresa como una ecuación simple que es fácil de demostrar matemáticamente.
Heisenberg a veces explicó el principio de incertidumbre como un problema al realizar medidas. Su experimento mental más famoso implicaba la fotografía de un electrón. Para tomar la imagen, un científico tendría que hacer rebotar una partícula de luz sobre la superficie del electrón. Esto revelaría su posición, pero también impartiría energía al mismo, provocando su movimiento. Conocer la posición del electrón crearía una incertidumbre sobre su velocidad; y el acto de la medida produciría la incertidumbre necesaria para satisfacer el principio.
Los estudiantes de física aún aprenden esta versión de medida-perturbación del principio de incertidumbre en las clases introductorias, pero resulta que no siempre es cierto. Aephraim Steinberg de la Universidad de Toronto en Canadá y su equipo han realizado medidas sobre fotones (partículas de luz) y demostraron que la medida puede introducir menos incertidumbre de la requerida por el principio de Heisenberg1. La incertidumbre total de lo que podemos saber sobre las propiedades del fotón, sin embargo, sigue por encima del límite de Heisenberg.
Medidas delicadas
El grupo de Steinberg no mide la posición y momento, sino dos propiedades interrelacionadas distintas del fotón: sus estados polarizados. En este caso, la polarización a lo largo de un plano está intrínsecamente ligada a la polarización del otro, y por el principio de Heisenberg, existe un límite a la certidumbre con la que podemos conocer ambos estados.
Los investigadores realizaron una medida ‘débil’ sobre la polarización del fotón en un plano – no lo suficiente como para perturbarlo, pero suficiente para producir un cambio apreciable en su orientación. Luego midieron la polarización en el segundo plano. Realizaron una medida exacta, o ‘fuerte’, de la primera polarización para ver si se había visto perturbada por la segunda medida.
Cuando los investigadores realizaron múltiples veces el experimento, encontraron que las medidas de la polarización no siempre perturbaban el otro estado tanto como predecía el principio de incertidumbre. En el caso de la medida fuerte, la incertidumbre inducida fue menos de la mitad de la predicha por el principio de incertidumbre.
No te entusiasmes demasiado: el principio de incertidumbre aún se mantiene, dice Steinberg: “Finalmente, no hay forma de que puedas medir con precisión [ambos estados cuánticos] a la vez”. Pero el experimento demuestra que el acto de la medida no es siempre lo que provoca la incertidumbre. “Si ya hay una gran cantidad de incertidumbre en el sistema, entonces no hay necesidad de ruido para la medida”, dice.
El último experimento es el segundo en hacer una medida por debajo del límite del ruido de incertidumbre. A principios de año, Yuji Hasegawa, físico de la Universidad Tecnológica de Viena en Austria, midió grupos de espines de neutrones y derivó los resultados muy por debajo de lo que se predeciría si las medidas insertaran toda la incertidumbre al sistema2.
Pero los últimos resultados son el ejemplo más claro de por qué la explicación de Heisenberg era incorrecta. “Esta es la prueba experimental más directa de la incertidumbre medida-perturbación  enel principio de incertidumbre de Heisenberg”, dice Howard Wiseman, físico teórico en la Universidad de Griffith en Brisbane, Australia. “Esperemos que sea útil para los escritores de libros de texto ya que ahora saben que el ingenuo argumento de la relación medida-perturbación es incorrecto”.
Sacudirnos de encima la vieja explicación de medida-incertidumbre puede ser difícil, no obstante. Incluso tras realizar el experimento, Steinberg aún incluye una cuestión sobre cómo las medidas crean incertidumbre en un reciente trabajo encargado a sus estudiantes. “Solo cuando estaba empecé a evaluarlo me di cuenta de que el trabajo que había encargado era incorrecto”, dice. “Ahora tengo que ser más cuidadoso”.

Nature doi:10.1038/nature.2012.11394
Artículos de Referencia:
1.- Rozema, L. A. et alPhys. Rev. Lett. 109, 100404 (2012).
2.- Erhart, J. et alNature Phys. 8, 185–189 (2012).

Autor: Geoff Brumfield
Fecha Original: 11 de septiembre de 2012
Enlace Original

miércoles, 12 de septiembre de 2012

Desviaciones a la ley de Planck

Fuente: Neofronteras


Unos investigadores estudian el comportamiento frente a la radiación electromagnética de partículas nanométricas.
Foto
Podemos aprovechar esta noticia para contar un poco sobre la historia del nacimiento, o uno de los nacimientos, de la Mecánica Cuántica. A finales del siglo XIX parecía que la Física estaba terminada o así lo creía lord Kelvin.
Sin embargo, en 1894 Max Planck se fijó en el espectro del cuerpo negro. Esto es, la radiación que emitía un sistema ideal consistente en un cuerpo que absorbe toda la radiación electromagnética que le llega y cuya emisión sólo depende de su temperatura. Se puede usar una buena aproximación a un cuerpo negro empleando un recipiente hueco cuyo interior es negro y que está calentado por unas resistencias. Si se le hace un agujero que comunique el exterior y el interior por el que pueda entrar y salir radiación, entonces este agujero se comporta como un cuerpo negro, o casi. Puede entrar casi cualquier radiación y la que sale sólo depende de la temperatura del sistema.
La teoría electromagnética de aquel entonces no podía explicar la emisión del cuerpo negro, es decir, el espectro, o cantidad de cada color que el cuerpo negro emitía. Planck, a su pesar, tuvo que introducir el concepto de cuanto de energía para poder llegar a explicarlo. Su trabajo, publicado en 1901, contenía lo que se conoce hoy como ley de Planck, que describe ese espectro continuo del cuerpo negro. La ley de Planck proporciona el perfil de las curvas de emisión según la longitud de onda para una temperatura dada, tal y como se ve en el gráfico de cabecera.
Obsérvese que la emisión a baja temperatura es principalmente infrarroja y que sólo se emite un poco en el rojo. Al subir la temperatura la emisión principal se centra en la gama visible. Si se aumenta aún más la temperatura (no representado en el gráfico) el pico de emisión se centraría en el ultravioleta.
Si sabemos la temperatura de las estrellas es gracias a esta ley, pues una estrella se puede aproximarse a un cuerpo negro (por favor, no confundir cuerpo negro con agujero negro). La emisión continúa de cualquier objeto material a una temperatura dada sigue, más o menos, la ley de Planck. Así por ejemplo, un hierro al rojo es rojo precisamente por esa emisión de cuerpo negro. Por debajo de esa temperatura sólo emite infrarrojo y por encima emite principalmente en amarillo. Si el metal resiste los 3000 grados sin fundirse, como el wolframio de una bombilla, entonces se puede calentar aún más y la emisión se hace en todos los colores del visible, de tal modo que la emisión se aproxima bastante a la luz blanca.
Así que el cuerpo negro y la ley de Planck explican el color de las estrellas, el color del hierro en la fragua o el toque amarillento de nuestras bombillas. También explica la luz blanca del Sol (menos amarillenta que la de las bombillas debido a la mayor temperatura del Sol), con su pico de emisión centrado en esta parte del espectro. Nuestra visión ha evolucionado bajo esa emisión y por eso esa parte del espectro donde está el pico de emisión del cuerpo negro es denominada espectro visible (más o menos entre 400 y 700 nm) y la mezcla de los colores que la compone se nos antoja de color blanco.
Básicamente, en este tipo de casos la emisión se debe a que es la superficie la que actúa como cuerpo negro. Pero, como ninguno de estos objetos se comporta como un cuerpo negro ideal normalmente se aplica un factor de corrección denominado emisividad espectral, que depende de las propiedades de la superficie del objeto.
Sin embargo, la aplicabilidad de la ley de Planck tiene que tener sus límites, pese a las correcciones que introduzcamos. No deberíamos poder usarla en todos los objetos que se nos antojen, sobre todo si son muy pequeños. A fin y al cabo, recordemos que la mejor aproximación que tenemos a un cuerpo negro es un agujero practicado en una cavidad caliente.
El efecto de la superficie está claro para objetos macroscópicos, pero ¿qué pasa cuando el objeto es muy pequeño? Si el objeto tiene un tamaño del orden de la longitud de onda de trabajo unos investigadores han descubierto que la ley de Planck no es aplicable.
Christian Wuttke y Arno Rauschenbeutel, de la Universidad Tecnológica de Viena han investigado este asunto usando nanofibras de silicio de 500 nm de diámetro. En este caso, la longitud de onda de la radiación que emiten debido a su temperatura es del orden del objeto emisor. No solamente es la superficie la que emite, sino que la radiación producida en el interior puede escapar fácilmente al exterior. Debido a esta contribución del interior una partícula emitirá una radiación que dependerá además de su tamaño y geometría.
La ley de Planck falla en este caso aunque se corrija, por lo que los autores han tenido que usar la teoría de la electrodinámica fluctuacional para modelar el problema de la emisión de radiación por parte de partículas pequeñas. En esta teoría se tiene en cuenta la geometría del objeto y permite describir bien su emisión.
¿Y para qué sirve esto? Se podría usar para hacer bombillas más eficientes, pero los sistemas LED parece que van ser los que nos iluminen en el próximo futuro y las bombillas tradicionales van a ser ilegalizadas pronto. Así que no parece que por ahí haya muchas aplicaciones. El interés está más bien en los modelos climáticos.
Resulta que entre las cosas que no se entienden bien en climatología está el papel de las partículas y aerosoles de la atmósfera. Su efecto como objetos que absorben y emiten radiación puede tener una contribución importante al clima, sobre todo ahora que hay interés en el cambio climático. Saber cómo se comportan es, por tanto, crucial.
Un ejemplo del efecto de las partículas lo tenemos en la erupción del volcán Pinatubo, que eyectó 20 millones de toneladas de dióxido de azufre en la atmósfera, compuesto que reaccionó con otras sustancias produciendo partículas de aerosol. Estas partículas interaccionaron con la luz del sol de tal modo que la temperatura media del planeta bajó medio grado durante dos años.
Esperemos que este tipo de resultados no de alas a aquellos que pretenden hacer geoingeniería climática introduciendo todo tipo sustancias en la atmósfera para así rebajar la temperatura del planeta. Al fin y al cabo, solucionar con emisiones humanas algo causado por las emisiones humanas no parece que tenga consistencia lógica, salvo la que da el beneficio económico de unos cuantos, que envenenan al sano para luego vender la medicina salvadora al paciente recién conseguido.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3912
Fuentes y referencias:
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

Nueva explicación a la materia y energía oscuras.

Fuente: Neofronteras



Unos matemáticos modifican la Relatividad General para así explicar los efectos atribuidos a la energía oscura y a la materia oscura.
Foto
Expresion habitual de las ecuaciones de Einstein (arriba) y modificación de las mismas (abajo) realizada por estos autores. Se introduce una funcion escalar φ.
Como ya saben los lectores de NeoFronteras hay un par de problemas que afectan a la Cosmología: la naturaleza de la materia y energía oscuras. Aunque hay unos efectos que se pueden comprobar experimentalmente y atribuidos a esos entes, todavía no se sabe en que consisten exactamente.
Normalmente se atribuye la materia oscura a la presencia de partículas débilmente interactuantes y la energía oscura a una constante cosmológica. Al menos son las dos mejores explicaciones con las que se cuenta hasta ahora.
Sin embargo, como pasan los años y seguimos sin detectar esas partículas y, como además, el asunto de la energía oscura tampoco está claro a faltar datos experimentales, hay espacio para la especulación y para proponer hipótesis alternativas. Así que desde hace años asistimos a distintos tipos de propuestas que tratan de explicar lo que se observa. De esto trata la ciencia, de proponer una explicación mejor a lo observado. El éxito de estas propuestas ha sido desigual y, de momento, no parecen desbancar las ideas tradicionales.
Una línea de ataque al problema ha sido tratar de explicar los efectos de la materia oscura a través de una modificación de la ley de gravedad (normalmente modifican la newtoniana). Otras propuestas tratan de atribuir los efectos de la energía oscura a una distribución anómala o no homogénea de la materia (ordinaria más oscura).
Ahora, Shouhong Wang (Indiana University) y Tian Ma (Universidad de Sichuan) proponen una modificación de la Teoría General de la Relatividad que supuestamente explica ambos fenómenos, pues integra tanto una explicación para los observado y atribuido a la materia oscura, como para lo atribuido a la energía oscura. Básicamente también niega la existencia de ambos conceptos, pero no los efectos observados. Curiosamente no necesitan introducir una constante cosmológica para explicar la energía oscura.
Tanto unos efectos como otros serían atribuidos a una distribución distinta de materia. En los sitios en los que la materia ordinaria está concentrada se produciría un incremento de la fuerza de gravedad que daría la impresión de que hay más materia que la observada. En los lugares en donde la densidad de materia es reducida entonces aparecería una fuerza repulsiva que ahora atribuimos a la energía oscura.
Para tener este efecto proponen que el tensor energía-momento de la materia no se conserva y añaden un nuevo campo escalar asociado a la densidad de energía potencial. Entonces aparece esta fuerza producida por una distribución no uniforme de materia que puede ser atractiva o repulsiva según hay una alta densidad de materia o baja respectivamente.
Que el tensor energía-momento de la materia no se conserve es una afirmación importante que necesitaría de importantes pruebas a su favor para creérselo. Sin embargo, en este modelo se generan unas nuevas ecuaciones de campo que obedecen el principio de equivalencia, de relatividad y al principio de dinámica lagrangiana. Matemáticamente estas ecuaciones se diferencian de las de Einstein en que añaden unas derivadas covariantes de segundo orden de un campo escalar (ver imagen). Así que parece que hay cierta consistencia interna. Los autores admiten, de todos modos, que su idea es especulativa a nivel cosmológico.
El problema de esta nueva teoría es que, según algunos expertos, no parece explicar los efectos observados en los cúmulos y supercúmulos galácticos y atribuidos normalmente a la materia oscura. Posiblemente esta hipótesis quede como una más en la larga lista de explicaciones, pero ha tenido eco porque parece que últimamente cualquier idea que se mete con las teorías de Einstein tienen éxito en los medios. Dicho sea de paso, cualquier teoría científica necesariamente está mal (es falsable) y sólo es un explicación temporal a una serie de fenómenos hasta que llega una explicación mejor.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3909
Fuentes y referencias:
Nota de prensa.
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

martes, 11 de septiembre de 2012

Se afirma haber demostrado una profunda conexión entre los números primos

Fuente: Ciencia Kanija

Artículo publicado por Philip Ball el 10 de septiembre de 2012 en Nature News
De ser cierta, la solución a la conjetura abc sobre todos los números sería un logro ‘asombroso’.
El habitualmente tranquilo mundo de las matemáticas es un hervidero desde la afirmación sobre la resolución de uno de los problemas más importantes de la teoría de números.
El matemático Shinichi Mochizuki de la Universidad de Kioto en Japón ha publicado una demostración de 500 páginas sobre la conjetura abc, que propone una relación entre todos los números – un problema ‘diofántico’.
Matemáticas © by tim geers

La conjetura abc, propuesta independientemente por David Masser y Joseph Oesterle en 1985, podría no ser tan conocida como el mundialmente famoso último teorema de Fermat, pero en cierto modo es más significativo. “La conjetura abc, en caso de demostrarse, resuelve de un solo golpe muchos famosos problemas diofánticos, incluyendo el último teorema de Fermat”, dice Dorian Goldfeld, matemático en la Universidad de Columbia en New York. “Si la demostración de Mochizuki es correcta, será uno de los logros más asombrosos de las matemáticas del siglo XXI”.
Al igual que el último teorema de Fermat, la conjetura abc se refiere a las ecuaciones con forma a+b=c. Implica el concepto de un número libre de cuadrados: uno que no puede dividirse por el cuadrado de ningún número. 15 y 17 son números libres de cuadrados, pero 16 y 18 – al ser divisibles por 42 y 32, respectivamente, no.
La parte ‘libre de cuadrados’ de un número n, sqp(n), es el mayor número libre de cuadrados que puede formarse mediante la multiplicación de factores de que son números primos. Por ejemplo, sqp(18)=2×3=6.
Si has captado esto, entonces ya deberías tener una idea de la conjetura abc. Trata de la propiedad del producto de tres enteros axbxc, o abc — o más específicamente, de la parte libre de cuadrados de este producto, que implica sus factores primos distintos. Afirma que para los enteros a+b=c, la proporción de sqp(abc)r/c siempre tiene un valor mínimo mayor que cero para cualquier valor de r mayor que 1. Por ejemplo, si a=3 y b=125, de forma que c=128, entonces sqp(abc)=30 y sqp(abc)2/c = 900/128. En este caso, en el que r=2, sqp(abc)r/c casi siempre es mayor que 1, y siempre mayor que cero.
Una profunda conexión
Resulta que esta conjetura encapsula a muchos otros problemas diofánticos, incluyendo el último teorema de Fermat (que afirma que an+bn=cn no tiene soluciones enteras su n>2). Como muchos problemas diofánticos, todo trata de las relaciones entre número primos. De acuerdo con Brian Conrad de la Universidad de Stanford en California, “codifica una profunda conexión entre los factores primos de ab a+b”.
Muchos matemáticos han trabajado duramente intentando demostrar la conjetura. En 2007, el matemático francés Lucien Szpiro, cuyo trabajo en 1978 llevó a la conjetura abc por primera vez, afirmó tener una demostración de la misma, pero no tardaron en hallarse errores.
Como Szpiro, y también el matemático británico Andrew Wiles, que demostró el último teorema de Fermat en 1994, Mochizuki ha abordado este problema usando la teoría de las curvas elípticas — las suaves curvas generadas por las relaciones algebraicas del tipo y2=x3+ax+b.
Sin embargo, ahí acaba la relación del trabajo de Mochizuki con anteriores trabajos. Ha desarrollado técnicas que muy pocos matemáticos comprenden e invoca a dichos ‘objetos’ matemáticos – entidades abstractas análogas a ejemplos más familiares como los objetos geométricos, conjuntos, topologías y matrices. “En este punto, probablemente es el único que lo conoce por completo”, dice Goldfeld.
Conrad dice que el trabajo “usa un número tan enorme de profundas percepciones que va a llevar un largo tiempo poder ser digerido por la comunidad”. La demostración se extiende a lo largo de cuatro artículos1-4, cada uno de los cuales depende de artículos anteriores. “Puede requerir una ingente inversión de tiempo llegar a comprender una larga y sofisticada demostración, por lo que la predisposición de otros a hacer esto recae no solo en la importancia del anuncio, sino también en los antecedentes de los autores”, explica Conrad.
Los antecedentes de Mochizuki ciertamente hacen que el esfuerzo merezca la pena. “Ha demostrado en el pasado teoremas de una gran profundidad, y es muy concienzudo en su escritura, por lo que nos da una gran confianza”, dice Conrad. Y añade que la recompensa sería algo más que simplemente la verificación de dicha afirmación. “El aspecto apasionante no es solo que la conjetura pueda haberse resuelto, sino que las técnicas e intuiciones que debe haber introducido serán unas herramientas muy potentes para resolver futuros problemas de la teoría de números”.

Nature doi:10.1038/nature.2012.11378
Referencias:
1.- Mochizuki, S. Inter-universal teichmuller theory I: construction of Hodge Theatres (2012). Disponible en http://www.kurims.kyoto-u.ac.jp/~motizuki/Inter-universal%20Teichmuller%20Theory%20I.pdf
2.- Mochizuki, S. Inter-universal teichmüller theory II: Hodge–Arajekekiv-theoretic evalulation (2012). Disponible en http://www.kurims.kyoto-u.ac.jp/~motizuki/Inter-universal%20Teichmuller%20Theory%20II.pdf
3.- Mochizuki, S. Interuniversal teichmüller theory III: canonical splittings of the log-theta-lattice (2012). Disponible en http://www.kurims.kyoto-u.ac.jp/~motizuki/Inter-universal%20Teichmuller%20Theory%20III.pdf
4.- Mochizuki, S. Interuniversal teichmüller theory IV: log-volume computations and set-theoretic foundations (2012). Disponible en http://www.kurims.kyoto-u.ac.jp/~motizuki/Inter-universal%20Teichmuller%20Theory%20IV.pdf
Autor: Philip Ball
Fecha Original: 10 de septiembre de 2012
Enlace Original

Los átomos interfieren uno a uno


 Fuente: Ciencia Kanija



Artículo publicado por Hamish Johnston el 7 de septiembre de 2012 en physicsworld.com
Físicos de Estados Unidos dicen haber sido los primeros en detectar la interferencia de un único átomo en distancias mucho mayores que la longitud de coherencia del átomo. El experimento implica usar unas pinzas ópticas y una secuencia de pulsos láser para hacer “rebotar” al átomo a través de dos caminos distintos que se encuentran aproximadamente tras 1 ms. El equipo dice que si puede mejorarse la precisión del experimento, podría proporcionar nueva información sobre la posible existencia de gravedad no Newtoniana a distancias micrométricas. Los investigadores dicen que la técnica también podría usarse para estudiar la diminuta fuerza que surge entre un átomo y una superficie conductora, conocida como “efecto Casimir–Polder”.
En el extraño mundo de la mecánica cuántica, puede haber un átomo en superposición de dos o más trayectorias hasta que se realiza una medida de su posición o momento. Esta propiedad puede aprovecharse en un interferómetro de materia-onda, en el cual – por extraño que parezca – un único átomo puede seguir dos caminos diferentes hasta un detector. Las fuerzas sobre el átomo provocarán un desplazamiento de fase relativo entre los dos caminos, dando como resultado un desplazamiento en el patrón de interferencia creado en la unión de ambos caminos.
Luces © by Not-so-gnar productions™

Tales experimentos se han realizado anteriormente usando grandes conjuntos de átomos, creando de manera efectiva pulsos de átomos que viajan a lo largo de cada camino. Los átomos crean entonces un patrón de interferencia en el detector, el cual puede medirse y usarse para deducir la constante gravitatoria o para buscar desviaciones de la teoría de la gravitación de Newton. Sin embargo, por el momento, no ha sido posible realizar una interferencia de materia-onda enviando átomos aislados a través del aparato, debido a que la mayor parte de los experimentos en interferómetros de pulsos dependen de una producción atómica alta para aumentar la señal en el detector y, por tanto, carecen de control determinista en el nivel de átomos aislados.
Controlando átomos aislados
La nueva técnica de átomos aislados de materia-onda ha sido desarrollada por L Paul Parazzoli, Aaron Hankin y Grant Biedermann en los Laboratorio Nacionales Sandia en Nuevo México. Su técnica difiere de experimentos anteriores en que cada átomo empieza y termina su viaje en unas pinzas ópticas – luz láser enfocada en una pequeña región donde se mantiene el átomo.
Los investigadores de Sandia usaron una nube de átomos ultrafríos de cesio atrapados y enfriados a 4,2 μK usando una combinación de luz láser y campos magnéticos. Crearon pinzas ópticas en el gas para poder mantener solo un átomo antes de lanzar un pulso láser sobre el átomo para colocarlo en un estado cuántico específico. Las pinzas ópticas se apagaban luego, permitiendo que el átomo pasara a la caída libre.
Impulso arriba y abajo
Entonces el átomo se sometía a una secuencia de pulsos de luz separados 500 μs. Los primeros pulsos colocaban al átomo en una superposición de dos estados – uno que ha recibido un impulso de un fotón hacia arriba y que provoca que se eleve, y otro hacia abajo debido a que no ha recibido ningún impulso. El segundo pulso impulsa hacia abajo al átomo que asciende o impulsa hacia arriba al átomo que cae – siendo el resultado dos trayectorias que se fusionarán en un punto 500 μs más tarde cuando un tercer pulso láser provoca que sus caminos se solapen. Cuando los estados se fusionan se vuelven a encender las pinzas y se mide el estado cuántico del átomo.
Todo el proceso se repite entonces cientos de veces para determinar el desplazamiento de fase entre los dos caminos y, por tanto, la fuerza gravitatoria sobre el átomo a un nivel de 3 × 10–27 N.
Parazzoli, Hankin y Biedermann pudieron ver el surgimiento de un claro patrón de interferencia cuando se ajustaba la fase relativa de los pulsos láser, marcando el fenómeno de auto-interferencia en átomos aislados. En sus experimentos, la separación entre los dos estados atómicos era de hasta 3,5 μm, que es más de 200 veces superior al tamaño de coherencia de los átomos usados. Como resultado, el equipo afirma que es la primera demostración de interferencia de un átomo aislado en “espacio libre” – refiriéndose con espacio libre al hecho de que el átomo no está ligado, lo que permite que sus estados se separen en el espacio.
“Realmente genial”
Paul Hamilton de la Universidad de California en Berkeley, que no estuvo implicado en el estudio, dijo a physicsworld.com que los investigadores de Sandia “demostraron una interferometría completa y una estabilidad impresionante a largo plazo”. Dice que el experimento es “una demostración de libro de texto realmente genial sobre interferencia de átomos aislados”.
Debido a que la técnica emplea un átomo cada vez, el equipo de Sandia cree que podría usarse para hacer medidas extremadamente localizadas de fuerzas muy cerca de las superficies, como la fuerza Casimir–Polder que tiene lugar entre un átomo y una superficie conductora. Al igual que la más familiar fuerza de Casimir, esta fuerza surge a partir de la energía de punto cero del vació y tiene implicaciones para el diseño y funcionamiento de dispositivos mecánicos de tamaño micro y nanométrico.
El equipo también afirma que si puede mejorarse la sensibilidad de la técnica en dos órdenes de magnitud, podría usarse para establecer nuevas restricciones a las teorías de gravedad no Newtoniana a escalas de longitud micrométrica. Es más, si se halla que la gravedad no es Newtoniana en distancias tan minúsculas podría proporcionar importantes pistas sobre cómo podría unificarse la teoría de la gravedad con el Modelo Estándar de la física de partículas. “Este tipo de interferómetro ha demostrado calibración absoluta en otros casos, una característica que sería muy útil para detectar desviaciones de la ley del cuadrado inverso a escalas micrométricas”, dice Parazzoli.
La investigación se describe en un borrador de arXiv.

Autor: Hamish Johnston
Fecha Original: 7 de septiembre de 2012
Enlace Original

jueves, 6 de septiembre de 2012

Cuna de gato y hielo-nueve: ¿qué pasaría si los océanos se volviesen sólidos?





Fuente: Física en la ciencia-ficción  

Según David Pringle, en su libro Ciencia Ficción: Las 100 mejores novelas, Cuna de gato (Cat's Cradle, 1963) es una de ellas. En cambio, no aparece recogida entre tan insignes obras en Las 100 mejores novelas de ciencia ficción del siglo XX (editada por Juan Carlos Poujade para La Factoría de ideas en 2001). Si sirve de algo mi modesta opinión, la novela de Kurt Vonnegut tampoco figurará en el baúl de los recuerdos que me lleve a la tumba.
Jonah es el protagonista de Cuna de gato. Es un escritor en busca de documentación para escribir un libro que llevará por título "El día del fin del mundo". En él pretende narrar las cosas que estaban haciendo algunos norteamericanos en el momento de ser lanzada la bomba atómica sobre Hiroshima, el 6 de agosto de 1945. Para empezar, dirige sus investigaciones hacia el doctor Felix Hoenikker, ya fallecido, y considerado como padre de la bomba, así como inventor de una sustancia cristalina artificial denominada hielo-nueve, destinada a ayudar al ejército norteamericano a salir de las zonas pantanosas.
El hielo-nueve posee unas propiedades peculiares: está compuesto de moléculas de agua dispuestas de una manera totalmente distinta a como lo hacen en el hielo "normal", posee un color blanco azulado y su temperatura de fusión es de 45,7 ºC. Como consecuencia y dado que la temperatura ambiente suele estar normalmente por debajo de dicho punto de fusión, cuando un pequeño fragmento de este cristal entra en contacto con agua líquida, ésta se solidifica instantáneamente, lo cual provoca, al ingerirlo, la muerte de varias personas en la novela de Vonnegut.
Si seguís mi cuenta de Twitter ya estaréis advertidos desde hace unos días de que me disponía a escribir este post. Así que atentos al SPOILER que viene a continuación. ¡RED ALERT! ¡RED ALERT!
En un momento dado de la novela, un trozo de hielo-nueve cae accidentalmente en el océano. Las terribles consecuencias no se hacen esperar: tras escucharse un sonido aterrador, toda el agua del mar se transformó en hielo-nueve, el cielo se oscureció y apareció plagado de enormes tornados.
Bien, no me negaréis que la idea especulativa de la novela no es maravillosa, sugerente como la que más, y que invita a la discusión científica durante unos cuantos párrafos. ¿Os parece que entremos en materia?
Lo primero que llama la atención es la extraña naturaleza de la sustancia misteriosa. Tal y como afirma el autor, los enlaces entre las moléculas de agua en el hielo-nueve son distintos a lo habitual. Dado que el hielo que conocemos en la Tierra se puede encontrar, según las condiciones físicas, en más de una docena de fases cristalinas, no queda demasiado claro a qué se refiere Vonnegut.
Una segunda cuestión que nos podemos plantear es la siguiente: ¿se ha solidificado toda el agua del océano o únicamente una capa superficial de determinado grosor? Obviamente, si el hielo-nueve se parece a la mayoría de sustancias sólidas que conocemos en este planeta, debe tener una densidad superior a sus correspondientes fases líquidas (aunque, justamente, el hielo "normal" sea una afortunada excepción, como ya os conté aquí hace tiempo; la mayoría de las otras fases cristalinas del hielo son más densas que el agua) y, por tanto, debería hundirse dejando agua líquida en la superficie en caso de no haberse "congelado" toda. Esto último entraría en contradicción con lo que observa el protagonista de la novela, quien afirma: "Abrí los ojos y todo el mar era hielo-nueve". Claro que dicha afirmación tampoco resulta demasiado relevante ya que, se hundiese o no la sustancia mágica, seguiría estando en contacto con el agua líquida y, si hacemos caso al autor, entonces, debería transformarse inmediatamente en hielo-nueve. En todo caso, el tema de la densidad podría tener importancia en el hipotético caso de que ésta fuese menor que la del agua ya que, en tal situación, el volumen ocupado por el océano debería incrementarse (a igualdad de masa, una disminución en la densidad debe ir acompañada de un aumento en el volumen), lo que podría dar lugar a la generación de enormes ondas de choque e innumerables terremotos. Nada de esto es observado ni descrito por Jonah.
Pero cambiemos un poco el rumbo de la discusión y preguntémonos acerca de la viabilidad de la hipotética reacción química que tiene lugar entre el agua líquida y el hielo-nueve. Resulta evidente que dicha reacción, tal y como se narra en la novela, debe ser espontánea, es decir, se produce sin la intervención de terceros. Se ponen en contacto ambas sustancias y ¡zas! Magia potagia...
Si entramos de una forma un tanto más rigurosa en la cuestión anterior, debemos acudir al concepto de espontaneidad, tal y como se entiende en química. Una manera de determinar si una cierta reacción química es espontánea consiste en evaluar el signo de la variación de la función (esto es la diferencia entre su valor después de la reacción y su valor antes de la reacción) denominada energía libre de Gibbs. Si éste signo es negativo la reacción tendrá lugar espontáneamente; si es positivo no. Podemos, entonces, concluir que, dado que la reacción entre el agua líquida y el hielo-nueve es espontánea, entonces por fuerza el signo de la variación de la energía de Gibbs debe ser negativo. Ahora bien, me vais a permitir (y que no sirva de precedente) que escriba la siguiente ecuación:
variación de G = variación de H - T * variación de S
donde G es la energía de Gibbs aludida anteriormente; H es la denominada entalpía; T es la temperatura absoluta (el asterisco significa multiplicación) y S es la entropía (de la que ya hablamos en alguna otra ocasión por estos lares). Fijemos nuestra atención en esta última cantidad.
Si habéis leído el enlace que os acabo de dejar en el que tratábamos el tema de la inmortalidad en relación con la entropía, habréis percibido sin ningún lugar a dudas la relación entre el orden de un sistema termodinámico y el valor de su entropía. De ahí se puede extraer la valiosa conclusión de que valores crecientes de la función entropía describen estados más desordenados de un sistema termodinámico. Un ejemplo claro es la transición de sólido a líquido de una sustancia. Sin embargo, fijaos en que la reacción que nos ocupa, es decir, la del paso de agua líquida a hielo-nueve (sólido) es justamente lo contrario y debe ir acompañada de una disminución de entropía por constituir el estado sólido una disposición "más ordenada" que el estado líquido. La conclusión es que la variación de la función entropía que aparece en la ecuación de más arriba debe tener signo negativo. ¿A qué nos lleva todo esto?
Si observáis de nuevo con un poquito de atención la ecuación, os daréis cuenta que la única forma posible de que tanto la variación de G como la variación de S sean ambas negativas es que también lo sea la variación de H. ¿Y bien? Pues muy sencillo, dado que el signo de la variación de H nos indica si la reacción es endotérmica o exotérmica, esto es, si la reacción se produce con absorción o liberación de energía calorífica, respectivamente. El signo positivo corresponde a la primera y el negativo a la segunda. La conversión en hielo-nueve de toda el agua del océano debe ser exotérmica. ¿Cuánto vale y dónde va a parar todo el calor liberado en la reacción? Pues lo cierto es que solamente puede ir a un sitio: la atmósfera.


Reflexionemos un instante sobre este punto. ¿Recordáis lo que os comentaba hace unos cuantos párrafos sobre la naturaleza de los enlaces entre las moléculas de agua en el hielo-nueve? Parece sencillo deducir que estos enlaces deben ser más fuertes que en el hielo "normal". ¿Por qué? Pues porque el hielo-nueve es, en efecto, una sustancia cristalina sólida a temperaturas por debajo de 45,7 ºC, muy por encima de los 0 ºC del punto de fusión del hielo "normal". Dicho en otras palabras: resulta mucho más fácil (requiere menor energía) romper los enlaces del hielo "normal" que los del hielo-nueve para fundirlos. Así, se puede afirmar razonablemente que la entalpía de fusión para este último debe ser superior a la del primero.
Los razonamientos previos permiten establecer un límite inferior en la cantidad de calor necesaria para la transformación del agua líquida en hielo-nueve. Teniendo en cuenta que la entalpía de fusión (también conocida como calor latente de fusión) para el agua es de unos 6 kilojoules/mol, deducimos que la conversión de un mol de agua líquida en hielo-nueve no puede liberar una energía calorífica inferior a estos 6 kilojoules. Si además asumimos que los líquidos suelen presentar calores específicos superiores a las de sus correspondientes fases sólidas (4,18 kJ/kg K para el agua líquida y 2,11 kJ/kg K para el hielo, por ejemplo), entonces la conclusión es clara: el calor específico del hielo-nueve no debe sobrepasar los 4,18 kJ/kg K del agua líquida.
Ahora ya estamos en condiciones de calcular el incremento de temperatura mínimo que experimentaría la atmósfera si la totalidad de la energía calorífica liberada en la conversión de toda el agua del mar en hielo-nueve. Tan sólo hay que acudir a la expresión que relaciona la cantidad de calor absorbido por un sistema termodinámico (en este caso, la atmósfera) con su masa, su calor específico y la variación de la temperatura. Aquí podéis refrescar la memoria. Procedamos.
En primer lugar es necesario conocer la cantidad de calor que desprenderá toda el agua del mar (acordaos que la reacción era exotérmica) al transformarse en hielo-nueve. Suponiendo que los océanos albergan unos 146 trillones de litros y que la densidad promedio del agua marina ronda los 1,03 kg/litro debe haber unos 8350 trillones de moles de agua. Multiplicando este valor por los 6 kJ/mol de la entalpía de fusión se llega a la solución buscada: 50 cuatrillones de joules.
En segundo lugar, necesitamos el calor específico de la atmósfera. Podemos aproximarlo con bastante precisión tomando el del nitrógeno gaseoso, que resulta ser de 29 J/mol K. Por otro lado, supondremos que todo el calor desprendido por el agua al solidificarse únicamente se transmite a la troposfera, es decir, la capa atmosférica más cercana a la superficie terrestre. Tomando como promedio un espesor para ésta de unos 15 km y una densidad media del aire de 1,2 kg/m3 se estima su volumen (no tenéis más que restar el volumen de la Tierra sin atmósfera al volumen de otra esfera cuyo radio es la suma del radio terrestre más los 15 km de espesor de la troposfera) en unos 7700 trillones de litros, equivalente a 9,2 trillones de kilogramos o, lo que es lo mismo, 320 trillones de moles.
Finalmente, se introducen todos los números anteriores en la expresión del incremento de la temperatura: se divide el calor liberado por el agua entre el producto de la masa de aire de la troposfera y su calor específico. El resultado es demoledor: 5388 ºC, una temperatura comparable a la de la superficie solar.
Sin duda, deberían formarse tornados... ardientes tornados.
Fuente original:
Using Science Fiction To Teach Thermodynamics: Vonnegut, Ice-nine, and Global Warming Charles A. Liberko. Journal of Chemical Education, Vol. 81, No. 4, 2004.

NOTA:
Esta entrada participa en la XVII edición del Carnaval de Química, acogido en su seno por Un geólogo en apuros.



Encontrar vida extraterrestre pasa por un gran salto en la robótica


Escrito por J.A. Llorente Lomikovsky en Astrobiología, SETI, tags: ,
Artículo publicado el 18 de abril de 2012 en la Universidad de Pennsilvanya
Los robots autorreplicantes autónomos (exobots) son la forma de explorar el universo, buscar e identificar vida extraterrestre y puede que de paso limpiar la chatarra espacial, en opinión de un ingeniero de la Universidad Estatal de Pennsilvanya (Penn State), quien aprovecha para recordar que el proyecto SETI de búsqueda de vida inteligente extraterrestre ha llegado a su 50 aniversario.
“La premisa básica es que la exploración humana del espacio debe ser tremendamente eficiente, viable económicamente, y autónoma ya que situar al ser humano más allá de la órbita baja de la Tierra está cargado de dificultades tanto técnicas como político-económicas”, afirmó John D. Mathews, profesor de Ingeniería Electrónica, en la última edición del Journal of the British Interplanetary Society.
Galaxia del Sombrero © by cosmobc

Si hay extraterrestres ahí fuera, ellos deben tener los mismos problemas que nosotros, necesitarán conservar recursos, estarán limitados por las leyes de la física y puede que no estén impacientes por encontrarnos, según Mathews.
Sugiere que “solo desarrollando y haciendo uso de naves robóticas autorreplicantes (y los sistemas de comunicación correspondientes) podremos llegar a explorar de forma eficiente el espacio exterior, incluso para llegar al Cinturón de Asteroides, por no hablar de las vastas regiones del Cinturón de Kuiper, la Nube de Oort y más allá”.
Mathews supone que cualquier extraterrestre debería seguir el mismo camino para llegar a las estrellas, enviando robots en lugar de seres vivos. Esto explicaría de alguna manera por qué el proyecto SETI no ha tenido éxito a día de hoy.
“Si son como nosotros, y también padecen gobiernos poco operativos y el resto de problemas que nos asolan”, apunta Mathews, “no querrán invertir mucho en comunicarse con nosotros”.
Es extremadamente difícil emitir señales por la Galaxia y requiere una cantidad ingente de recursos. Las emisiones de radio tienen que enviarse en todas direcciones para abarcar el cielo, y la energía necesaria para que se emitan por el espacio es muy elevada.
“Los láseres infrarrojos actuales son perfectamente capaces de establecer comunicación a través de nuestro sistema solar”, comenta Mathews. “El problema en el caso de SETI es que utiliza haces muy dirigidos”.
Las comunicaciones entre dos puntos usando tecnología infrarroja requiere menos energía, pero las señales son extremadamente direccionales. Si los extraterrestres están utilizando una señal de infrarrojos producida por un láser, nunca notaríamos sus señales al estar específicamente orientadas hacia sus objetivos.
Mathews opina que si la exploración por parte de los humanos no es posible, los robots podrían ir donde mucha gente no quiere y hacer lo que muchos no quieren, no solo en la Tierra, sino también en el espacio.
Para minimizar el coste propone que los primeros robots se construyan en la Luna para aprovechar los recursos y la ligerísima gravedad (una sexta parte de la de la Tierra). Apunta que ya disponemos de la tecnología para crear estos ”exobots”, salvo la fuente compacta de energía. Para crear una red de robots autónomos que puedan pasarse información de unos a otros y transmitirla a la Tierra, los vehículos deben poder localizar su posición exacta y conocer la hora. Con estas dos referencias, tendrían que poder determinar dónde se encuentran los robots situados a su alrededor y transmitirles información y datos a través de un haz láser de infrarrojos.
“La parte más cara en cualquier lanzamiento es escapar de la superficie de la Tierra y su fuerza de gravedad”, afirma Mathews. “Sería también más fácil localizar la chatarra espacial en las órbitas cercana y geosincrónica e incluso reciclarla”.
Inicialmente, los exobots cumplirían dos propósitos: limpiar la chatarra espacial acumulada y monitorizar los más de 1200 asteroides cercanos a la Tierra que son particularmente peligrosos en cuanto al acercamiento que suponen al desplazarse en sus órbitas.
“En primer lugar, deberíamos lanzar estos vehículos robóticos para aprender algo sobre estos asteroides y depositar balizas en ellos para identificarlos y rastrearlos”, comenta Mathews.
Finalmente, la red de exobots, autorreplicantes, autónomos y con capacidad de aprendizaje, se esparcirán por el sistema solar y más allá a través de la Galaxia, utilizando los recursos que van encontrando para poder continuar con su misión. La comunicación a través de láseres infrarrojos implica comunicación a la velocidad de la luz, que es lo más rápido que podemos conseguir.
“Creemos que en la búsqueda de inteligencia extraterrestre, ET quiere en realidad ser encontrado” diceMathews. “Pero, ¿quién tiene los recursos energéticos suficientes para intentar saludar con su metafórica mano a través de la Galaxia?”.
Afirma que es más probable que uno de nuestros exobots intercepte alguna señal de uno de los suyos si tomamos la iniciativa.

Fecha Original: 18 de abril de 2012
Enlace Original