lunes, 29 de octubre de 2012

Metamateriales hiperbólicos que permiten estudiar la causalidad en el espaciotiempo de Minkowski

Fuente: Francis (th)E mule
Los metamateriales y la óptica de transformación están de moda pues permiten diseñar dispositivos fascinantes como lentes perfectas, capas de invisibilidad y objetos negros perfectos. Un metamaterial fabricado e iluminado con un haz láser en la aproximación de rayos extraordinarios (es decir, paralelos al eje de anisotropía) permite desarrollar un análogo óptico al concepto de espaciotiempo de Minkowski en 2+1 dimensiones y con él análogos físicos a agujeros negros, agujeros de gusano, propulsores (warp drive) de Alcubierre y cuerdas cósmicas. En estos sistemas una de las coordenadas espaciales del metamaterial tridimensional (por ejemplo la vertical) se comporta como tiempo y las otras dos (las transversales) como espacio, con lo que se simulan métricas de Minkowski solo en 2+1 dimensiones. El problema es que la luz en este medio puede propagarse por la coordenada que hace de tiempo (la vertical) en ambas direcciones, violando la causalidad (los eventos del “futuro” simulado pueden afectar a los eventos del “pasado” simulado). Igor I. Smolyaninov (Univ. Maryland, EEUU) propone un nuevo diseño de metamaterial hiperbólico “causal” que presenta una ruptura de la simetría PT (combinación de la simetría de reflexión en un espejo y la inversión temporal), lo que garantiza que la luz solo se puede propagar en una de las direcciones a la largo de la coordenada espacial que hace de tiempo. Con ello, el espaciotiempo de Minkowski que se simula en el material conserva la causalidad. La propuesta es puramente teórica y las figuras se han obtenido utilizado una simulación en COMSOL, sin embargo, el autor cree que estos metamateriales son realizables físicamente. Habrá que estar al tanto en los próximos años. El artículo técnico es Igor I. Smolyaninov, “Modeling of causality with metamaterials,” arXiv:1210.5628, Subm. 20 Oct 2012.

La electrónica de transformación basada en el control de la masa efectiva del electrón

Fuente: Francis (th)E mule
La óptica de transformación está de moda. Tras la acústica de transformación, ahora nos proponen la electrónica de transformación. Te recuerdo, la óptica de transformación se basa en los metamateriales que permiten controlar las propiedades efectivas del índice de refracción, susceptibilidad eléctrica y permeabilidad magnética del material gracias a un diseño adecuado de su microestructura. En la electrónica de transformación la idea es controlar la masa efectiva de los electrones y huecos que se propagan en el material utilizando un diseño similar. En lugar de usar un metamaterial se utiliza una superred (superlattice) semiconductora en la que la masa efectiva de los portadores de carga presentan una fuerte anisotropía. La óptica de transformación permite el desarrollo de materiales muy exóticos como superlentes o capas de invisibilidad. En la electrónica de transformación nos proponen la fabricación de materiales en los que los electrones se comportan de forma efectiva como partículas sin masa, cuando se mueven en ciertas direcciones, lo que permitirá desarrollar dispositivos ultrarrápidos (no limitados por la mobilidad de los electrones y huecos), con alta conductividad (que a baja temperatura es independiente de la temperatura) y con una respuesta no lineal fuerte. Todas estas propiedades los hacen fascinantes a la hora de desarrollar multitud de nuevos dispositivos para aplicaciones prácticas con las que ahora solo podemos soñar. Obviamente, la electrónica de transformación aún es solo una propuesta teórica, no demostrada mediante experimentos. Nos lo cuentan Mario G. Silveirinha, Nader Engheta, “Transformation Electronics: Tailoring Electron’s Effective Mass,” arXiv:1205.6325, 2012.

Las superredes (superlattices) son dispositivos semiconductores formados por capas alternas de diferentes materiales a modo de sándwich que fueron introducidas en 1969 por Esaki y Tsu. Cuando la anchura de las capas es de solo unos pocos átomos, los efectos cuánticos permiten fenómenos tan curiosos como la aparición de conductividades negativas. Hay muchísimas aplicaciones para estos materiales, por ejemplo, los láseres semiconductores de tu grabadora de DVD son heteroestructuras (superredes con pocas capas). Sin embargo, hasta ahora no se había propuesto la idea de la “eletrónica de transformación” en analogía con la óptica de transformación. En este paradigma los paquetes de onda de los electrones están restringidos a moverse a lo largo de ciertos caminos; gracias a ellos se pueden controlar la masa efectiva de los electrones, que resulta ser fuertemente anisótropa.
La masa efectiva en un semiconductor controla la inercia del electrón ante estímulos externos, es decir, su mobilidad y con ella la velocidad máxima que se puede alcanzar en un circuito electrónico. En una superred anisótropa la energía de los electrones depende de forma diferente de cada una de las componentes del vector de onda, es decir, la relación de dispersión toma la forma E(kx,ky,kz). Cuando esta relación solo depende de kz y no depende de kx y ky, los electrones se mueven en exclusiva a lo largo de la dirección z, lo que equivale a que su masa efectiva en las direcciones x e y es infinita (o muy grande) y en la dirección z es cero (o muy pequeña). Para lograr una relación de dispersión de este tipo hay que utilizar el equivalente electrónico a los metamateriales ópticos. Para ello se combinan materiales en los que la masa de los electrones es positiva (ENG) con otros en los que es negativa (MNG), como el telururo de mercurio (HgTe) o el telururo de mercurio-cadmio (HgCdTe) que tienen una estructura de bandas invertida (responsable de que la masa efectiva de electrones y huecos sea negativa). Combinando capas de estos materiales con otras de semiconductores convencionales se logra que los electrones adquieran una masa efectiva que depende del diseño de la superred.
En resumen, una propuesta teórica muy sugerente que queda a la espera de su demostración práctica gracias a los físicos experimentales que superen las dificultades tecnológicas asociadas a combinar materiales ENG y MNG en una superred. No parece difícil.

Posibilidades del sistema warp

Fuente: Neofronteras


Se sigue trabajando en sistemas conceptuales para viajar a las estrellas. Aunque sólo sea para desarrollar la Física Teórica.
Foto
Ahora que se ha descubierto un planeta (no habitable) en el sistema triple de alfa centauro se especula con un viaje interestelar hasta allí. Lo malo es que, pese a tratarse de las estrellas más cercanas a la Tierra, las distancias son tan inmensas que realizar un viaje hasta ese sistema en el lapso de una vida humana es imposible ahora mismo. Incluso considerando sólo una misión no tripulada no es posible en corto o medio plazo.
Las sondas Voyager, que ya están abandonando el sistema solar, tardarían, a la velocidad a la que van, decenas de miles de años en llegar si fueran en esa dirección. Por tanto, la tecnología convencional no sirve. Pero los sistemas nucleares o la vela láser no tripulados requerirían unos presupuestos tan enormes que difícilmente se puedan financiar algún día.
Sería interesante tener un sistema warp como el de Star Trek, pero la idea es obviamente de ciencia ficción. El físico mexicano Miguel Alcubierre estaba viendo un episodio de esta serie cuando se planteó si algo así era posible. Se puso a trabajar en usando Relatividad General y llegó a la conclusión de era posible plantear un escenario teórico en el que era posible viajar a mayores velocidades de la luz. Publicó un artículo al respecto en 1994.
Como todos sabemos, no se puede viajar a mayor velocidad de la luz a través del espacio, pero el propio espacio sí puede expandirse a mayores velocidades que la luz. Desde un punto cosmológico eso ya pasó durante la supuesta inflación cosmológica y pasará en el futuro cuando la energía oscura gane la batalla a la gravedad y todas las galaxias retrocedan de todas las demás a mayor velocidad que la luz, simplemente el espacio entre ellas se expandirá más rápido que la luz que lo atraviese.
Usando esta idea, Alcubierre diseño un sistema en el que se crea una burbuja de espacio, una burbuja warp, en el que se sitúa la nave espacial y a través de la cual la nave no se mueve. En su lugar se deforma el espacio que está antes y después de esa burbuja de tal modo que se contrae y expande respectivamente. Como un surfista en una ola, la nave se podría desplazar a otras regiones de la galaxia.
El sistema no viola ninguna relativista, pero sí presenta impedimentos casi imposibles de salvar. Un problema, expuesto por José Natário, sería que la nave no podría comunicarse con el exterior y, por tanto, no podría controlar el sistema, ni frenar, ni cambiar de dirección ni nada de nada. Este es un inconveniente grave.
Carlos Barceló y Stefano Finazzi también encontraron otra dificultad grave si se tenía en cuenta teoría cuántica. Al parecer el interior de la burbuja sería incinerado por la radiación Hawking y con ello desaparecería la nave y los señores Spock de su interior.
Allen Everett calculó que la pared de la burbuja debía de ser de un material exótico tan especial que debía tener una masa de 10.000 millones de veces la del Universo pese a medir sólo 100 veces la longitud de Planck.
Además, este sistema warp presenta violaciones a las condiciones de energía. Así por ejemplo, se calculó (Pfenning, Michael J.; Ford, L. H., 1997) que para llevar una nave de estas por la galaxia se necesitaría transformar en energía una masa equivalente a varios órdenes de magnitud la masa total del Universo.
Encima está el problema de que parte de la energía necesaria para el invento funcione sería energía negativa, que es algo puramente conceptual. Sería equivalente a una gravedad negativa de la que no tenemos ningún ejemplo real, salvo si interpretamos así a la energía oscura.
Pues bien, toda esta introducción es para contar que ahora Harold White (NASA) dice haber demostrado que esa cantidad descomunal de energía no es necesaria. Basta modificar la geometría de la materia exótica para sólo necesitar el equivalente de energía de unas cuantas toneladas de masa. En lugar de usar una configuración esférica usa una configuración toroidal (en forma de rosquilla). El trabajo fue presentado el pasado septiembre en un simposio, pero hay colgado algo en la web de la NASA. De momento no parece que haya un artículo publicado en una revista académica revisada por pares.
Puede que se invente finalmente la propulsión warp en el 2063, tal y como se afirma en Star Trek, pero lo más probable es que eso no sea posible nunca.
Este tipo de trabajos no van encaminados a conseguir llegar a las estrellas, sino al desarrollo de las teorías físicas que tenemos, ver sus limitaciones y hacer avanzar la ciencia. Además, claro está, de servir para que los físicos se diviertan, pues sin esa diversión simplemente no habría Física Teórica.
Así que no podremos enviar una misión, tripulada o no, que llegue al sistema alfa centauro en unos pocos años para ver si hay personajes como los de Avatar. Puede que nunca nadie consiga el viaje interestelar, que sea simplemente imposible o biológicamente incompatible. Eso explicaría el que no hayamos contactado con otras civilizaciones y que si éstas existen siempre permanecen aisladas.
La ciencia ficción siempre a sido un buen motor para mover vocaciones e incluso para mover financiación. No debemos menospreciarla, pero tampoco podemos confundir ciencia real con ciencia ficción.
Pese a todo, ya hay gente que plantea una misión con tecnología menos fantasiosa a este sistema estelar. Está bien que al menos se intente hacer algo, aunque sólo sea pensar. Mientras tanto sí debemos preocuparnos por hacer ciencia real y detectar de una vez planetas habitados, aunque sólo sean por microbios. Un telescopio espacial con el suficiente tamaño podría detectar biomarcadores en las atmósferas de planetas de tipo terrestre en la zona habitable de su estrella. Si algún día enviamos algún chisme a algún sitio que por lo menos estemos seguros del objetivo.
Si el James Webb (que además tiene problemas políticos y de financiación) no consigue encontrar a Tierra II quizás sí lo hará la siguiente generación (si se aprueba) de telescopios espaciales. El proyecto ATLAST (aún sólo sobre el papel) plantea enviar al espacio, fuera de las turbulencias atmosféricas, un telescopio de entre 17 y 24 metros de diámetro. Con esos tamaños podría resolver planetas con la ayuda de un coronógrafo. Sólo hace falta voluntad política y dinero.
Es, sin duda, una bonita empresa (palabra ya denostada, por cierto, a base de designar entes mezquinos). Seríamos la primera generación de humanos en encontrar planetas similares a la Tierra girando alrededor de otras estrellas. Todos los demás objetivos de la ciencia espacial palidecen frente a esa meta.
Sólo los soñadores hacen avanzar a la humanidad.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3950
Fuentes y referencias:
Nota en la NASA.
Nota en la NASA.
  
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

Inyecciones sin agujas usando microchorros líquidos supersónicos

Fuente: Ciencia Kanija

Artículo publicado el 11 de octubre de 2012 en The Physics ArXiv Blog
Una nueva técnica para disparar microchorros líquidos a través de la piel humana promete revolucionar la administración de medicamentos.
Las inyecciones son un eje clave e inevitable de las técnicas médicas modernas. La idea es forzar la entrada de un líquido directamente en el cuerpo usando una aguja hueca para penetrar en la piel. Sin este tipo de herramientas, el panorama médico sería considerablemente más pobre.
Inyecciones sin agujas

Pero las inyecciones tienen un número de inconvenientes. Son una importante fuerza de transmisión de enfermedades, particularmente cuando se reusan las agujas, y en las lesiones por punción de los profesionales sanitarios, son dolorosas y las agujas son peligrosas y difíciles de manejar. De ahí la fobia a las agujas y todo eso.
Por esto, los ingenieros biomédicos y los doctores y pacientes han soñado con encontrar una forma de administrar inyecciones sin agujas similar al hipospray de Star Trek administrado tan hábilmente por el Dr. McCoy.
No ha sido por falta de intentos, algunos de los cuales incluso son anteriores a la serie Star Trek. La idea es que si se dirige el líquido hacia el paciente con suficiente fuerza, penetrará en la piel y lo conducirá al interior del cuerpo.
Distintos grupos han realizado intentos usando aire comprimido y distintos tipos de bombas, pero ninguno ha tenido un gran éxito. Un problema es que los chorros líquidos pueden ser tan dolorosos como las agujas, e incluso más dañinos para la piel y el tejido subyacente.
Pero el problema más serio es el splashing. En todas las técnicas usadas hasta el momento, parte de los líquidos salpican fuera de la piel o no penetran con suficiente profundidad y esto hace que sea imposible saber qué dosis ha recibido el paciente. Este problema es grave para cualquier enfermedad que requiera un volumen preciso de medicación – y esto se aplica a casi todas ellas.
Esto parece que va a cambiar. Hoy, Yoshiyuki Tagawa de la Universidad de Twente en los Países Bajos junto a algunos colegas dicen haber resuelto este problema gracias a una nueva técnica que focaliza un flujo de líquido en un microchorro que viaja a 850 m/s. Sí, aproximadamente la misma velocidad que el avión supersónico Blackbird SR-71.
La técnica es bastante simple. Estos chicos llenan un capilar con líquido y enfocan un pulso láser sobre un extremo. Esto calienta rápidamente una parte del líquido, provocando que se evapore súbitamente, y envíe una onda de choque a través del tubo. Este empuje acelera el resto del líquido forzando su salida del capilar a gran velocidad.
El tubo y la velocidad de calentamiento están diseñados para generar ondas de choque que enfocan este microchorro de forma que su punta tenga apenas unas decenas de micrómetros de diámetro, menor que el probóscide de un mosquito.
Cuando el líquido impacta en la piel a esta velocidad, el microchorro penetra fácilmente, administrando el volumen de líquido preciso al tejido subyacente. Y eso pasa con muy poco, si es que algún, splashing.
Tagawa y sus colegas han puesto a prueba su sistema en una gelatina cubierta de piel sintética y dicen que funciona bien, como las imágenes de arriba parecen atestiguar. “Los resultados… dejan las inyecciones sin agujas un paso más cerca de su uso generalizado”, comentan.
Desde luego, quedan aún pasos significativos por dar. Una preocupación es que el pulso láser, además del calor y la onda de choque que genera, podría dañar cierto tipo de medicamentos. Las pruebas han incluido por el momento agua con tintura roja, por lo que esto tendrá que examinarse con cuidado.
Otro problema de ingeniería es el diseño y fabricación de un dispositivo robusto que tenga un amplio uso sin obstruirse. Las inyecciones sin agujas serán muy útiles en los hospitales modernos y en cirugías, pero los países en desarrollo son los que más tienen que ganar.
Finalmente, la técnica tendrá que ponerse a prueba en un amplio rango de individuos. Es posible que los microchorros tengan que ajustarse con precisión para tratar con los distintos tipos de piel, de forma que el volumen de medicamento administrado a un hombre joven con una piel como la de un elefante sea la misma que la dosis recibida por una anciana señora con la piel como papel de fumar.
Las inyecciones sin agujas tienen enormes beneficios potenciales para millones de personas tales como diabéticos que viven con la rutina de múltiples inyecciones diarias. Para ellos, es un desarrollo que nunca llegará demasiado pronto.

Artículo de Referencia: arxiv.org/abs/1210.1907: Needle-Free Injection Into Skin And Soft Matter With Highly Focused Microjets
Fecha Original: 11 de octubre de 2012
Enlace Original

viernes, 26 de octubre de 2012

El dilema del prisionero, la cooperación molecular y el origen de la vida

Fuente: Francis (th)E mule

El dilema del prisionero de Tucker, un juego de suma no nula, demuestra que la no cooperación, el egoísmo puro y duro, resultado del equilibrio de Nash, puede ser la mejor solución de muchos problemas. Hay variantes del juego con la conclusión opuesta, en las que la cooperación es la solución de equilibrio. Hay moléculas orgánicas por doquier en el universo, sin embargo, el origen de la vida en la Tierra sigue siendo aún un gran misterio. Cómo un conjunto de moléculas orgánicas inanimadas se autoorganizó para dar lugar al primer ser vivo. Nilesh Vaidya (Universidad Estatal de Portland, Oregon, EEUU) y sus colegas sugieren en Nature que la cooperación entre las moléculas pudo contribuir al origen de la vida. En cierto sentido, estas ideas son opuestas a la teoría del gen egoísta de Richard Dawkins, ya que el egoísmo, igual que en el dilema del prisionero, no conduce a la solución óptima. El nuevo artículo muestra ejemplos de redes de moléculas de ARN que se ensamblan entre sí gracias a la cooperación molecular, lo que sugiere que ésta puede ser tan antigua como la vida misma. Como es obvio, sus ideas se enmarcan dentro de la hipótesis del “mundo de ARN” que sugiere que la biología primordial carecía de ADN y de proteínas, siendo el ARN responsable tanto de la herencia como del metabolismo. El nuevo artículo es realmente sugerente, aunque todavía queda mucho para que resolvamos el misterio del origen de la vida. Nos lo cuentan James Attwater & Philipp Holliger, “Origins of life: The cooperative gene,” Nature, Published online 17 October 2012, que se hacen eco del artículo técnico de Nilesh Vaidya, Michael L. Manapat, Irene A. Chen, Ramon Xulvi-Brunet, Eric J. Hayden & Niles Lehman, “Spontaneous network formation among cooperative RNA replicators,” Nature, Published online 17 October 2012 (recomiendo a los biomatemáticos echar una ojeada al modelo matemático que aparece en la Información Suplementaria del artículo).

La química prebiótica estudia todos los procesos físico-químicos naturales que tuvieron lugar en la Tierra primitiva, desde su formación como planeta hasta la emergencia del primer sistema autoreplicativo en el cual empezaron a operar los procesos de selección natural de la evolución. Esta rama de la ciencia se ataca desde dos frentes relacionados pero bien diferenciados; por un lado, el origen abiótico de los precursores químicos de la vida, como los aminoácidos, azúcares y primeros polímeros, y por otro lado, la autoorganización molecular de las reacciones químicas que dieron lugar a las redes metabólicas y de replicación de las primeras células. En este segundo frente se enmarca el nuevo artículo, cómo las primeras ribozimas (enzimas de ARN que catalizan reacciones químicas) dieron lugar a las primeras redes de reacciones químicas.
Vaidya et al. han utilizado una variante de ciertas ribozimas de una proteobacteria del género Azoarcus que se obtienen por autoensamblado de fragmentos de ARN inactivos (Eric J. Hayden, Niles Lehman, “Self-Assembly of a Group I Intron from Inactive Oligonucleotide Fragments,” Chemistry & Biology 13:  909-918, 2006). Estas ribozimas son autocatalizadoras, es decir, catalizan la reacción química que las produce; los compuestos autocatalíticos no son catalizadores en sentido estricto, ya que su estructura química se altera durante el proceso, pero sin alterar sus propiedades “autocatalizadoras.” Estas ribozimas son capaces de auto-organizarse en una red cíclica de reacciones químicas (como muestra la figura que abre esta entrada).
Una vez formada la red de reacciones gracias a la cooperación, la acumulación de mutaciones en cada una de las ribozimas del ciclo puede conducir a una especialización de cada reacción que conlleva la adquisición de nuevas funciones. De esta forma aparece una red metabólica en un ciclo donde antes solo se tenía la repetición de una reacción autocatalítica. El gran hallazgo de Vaidya et al. ha sido demostrar que estos ciclos cooperativos los ARN que actúan como ribozimas adquieren ventajas a la hora de replicarse, pues la red es más robustas ante la acumulación de mutaciones dañinas, es decir, adquieren ventajas evolutivas. Durante un tiempo suficiente, el proceso cooperativo demostrado en laboratorio por los autores podría ser suficiente para formar redes complejas de reacciones químicas robustas ante futuras mutaciones. La cooperación molecular podría ser clave para responder a la pregunta sobre cómo pudieron surgir las primeras redes metabólicas que luego se encapsularon dentro de una membrana para dar lugar a las primeras paleobacterias.
En resumen, un artículo muy interesante que aporta información muy valiosa sobre los mecanismos que pudieron tener lugar en la Tierra primigenia para dar lugar al nacimiento de la vida. Obviamente, serán necesarios estudios futuros para clarificar estas ideas, que a mí me parecen muy sugerentes.

Universos sintéticos: Cómo ayudarán las simulaciones en la búsqueda de energía oscura

Fuente: Ciencia Kanija


Artículo publicado por Rob Mitchum el 1 de octubre de 2012 en la Universidad de Chicago
El Dark Energy Survey (DES) es uno de los experimentos astrofísicos más ambiciosos jamás iniciados. Durante cinco años, una cámara especialmente diseñada a bordo de un telescopio de Chile recopilará imágenes de galaxias lejanas en el cielo austral cubriendo un área de 5000 grados cuadrados, lo que corresponde, aproximadamente, a 1/8 del universo visible. Este proyecto generará petabytes (miles de terabytes) de datos que deben ser laboriosamente analizados por la colaboración de científicos de 27 instituciones para encontrar respuestas sobre la naturaleza de la energía oscura, la materia oscura y las fuerzas que dan forma a la evolución del universo.
Mancha solar simulada por computador © by thebadastronomer

Pero los datos recopilados por la cámara solo son una pequeña parte del trabajo previsto para el equipo de DES. Como parte del Grupo de Trabajo en Simulaciones DES (Simulation Working Group), Andrey Kravtsov y Matthew Becker de la Universidad de Chicago (en colaboración con investigadores de la Universidad de Stanford y la Universidad de Michigan) están construyendo y ejecutando complejas simulaciones por ordenador que modelan la evolución de la distribución de materia en el universo. Cuando finalice el proyecto, estas simulaciones pueden incrementar las demandas de análisis de datos del estudio hasta en cien veces más. ¿Por qué se necesita una inversión tan grande de tiempo y trabajo en las simulaciones? Por precisión, dice Kravtsov.
“Básicamente, para lograr los objetivos científicos del estudio e interpretar los resultados, se necesitan simulaciones por ordenador que te digan cómo interpretar los datos”, dice Kravtsov, miembro del Instituto de Computación y profesor de física y astronomía. “Este tipo de procedimiento es bastante común en los experimentos de física de partículas, pero creo que no se ha hecho nunca en experimentos astrofísicos. Pero tiene que hacerse con un experimento a esta escala”.
La materia oscura y la energía oscura nunca se han observado directamente, y aun así los astrónomos estiman que ambos elementos forman hasta el 96 por ciento de la materia y energía del universo. La existencia de la energía oscura se propuso para explicar el famoso descubrimiento de 1998 de la expansión acelerada del universo – una gran sorpresa para los astrofísicos, dado que la teoría general de la relatividad de Einstein predice que la expansión universal debería estar frenando debido al tirón gravitatorio de la masa del universo. En los modelos actuales, la energía oscura actúa de manera efectiva como fuerza antigravitatoria que supera el efecto de la gravedad, dirigiendo la expansión acelerada observada.
Dado que los telescopios no pueden observar directamente la materia oscura o medir la energía oscura, los astrofísicos deben confiar en las medidas indirectas, que son bastante complejas. Aquí aparece el Dark Energy Survey, que tuvo su “primera luz” a principios de mes y usará imágenes de alta calidad del cielo tomadas por la Cámara de Energía Oscura (DECam) de 570 megapíxeles, diseñada por el Fermilab, para estudiar la energía oscura usando cuatro métodos distintos.
En cierto modo, la recolección de datos es solo el principio. Es cómo se analiza e interpreta ese conjunto de datos lo que realmente cambiará lo que sabemos de los parámetros fundamentales y forma del universo. Por lo que para asegurar que los métodos de análisis de los datos son precisos, el grupo de trabajo de simulaciones trabajará con la colaboración para ponerlas a prueba a través de una serie de Desafíos Ciegos de la Cosmología.
“Lo que queremos hacer es dar a la gente que analizará los datos reales un conjunto sintético de datos basados en las simulaciones”, dice Kravstov. “Les daremos datos observacionales sintéticos que se generan en base a un universo sintético hipotético con parámetros que ya conocemos, pero que ellos no conocen. Todo lo que ven es la distribución de galaxias en el cielo y el espacio, como se observarían en el estudio real”.
Piensa en el juego de mesa Cluedo, donde la verdad (el asesino, el arma, y la escena del crimen) están guardados en un sobre desde el inicio del juego. Los jugadores emplean entonces preguntas y la lógica para reducir las posibilidades y buscar la respuesta correcta. En los desafíos ciegos de la cosmología, los científicos de DES no sabrán los parámetros que pasan a la creación de los datos sintéticos que están analizando, y usarán sus herramientas y algoritmos para intentar calcular cuáles son.
“La idea es que apliquen sus técnicas de análisis y vean si pueden recuperar los verdaderos parámetros”, continúa Kravstov. “Si lo logran, significa que las técnicas que usarán sobre los datos reales son robustas y fiables. Si no es así, tendrán que volver a la pizarra y ver dónde está el problema, y repetir el proceso”.
No es necesario decir que simular la evolución de la materia en el universo es un poco más complicado que barajar unas cartas del Cluedo. Cada simulación empieza con un universo 100 millones de años tras el Big Bang, luego sigue el movimiento de miles de millones de partículas a lo largo de miles de millones de años, formando estructuras a gran escala similares a la red cósmica observada en el universo real. Se requiere código adicional para modelar cómo ve un observador el cielo sintético desde una posición concreta dentro del universo, simulando cómo los fotones emitidos por una estrella lejana rebotan por el universo desviados por las concentraciones de masa dentro de las estructuras a gran escala. Los aspectos técnicos y sesgos potenciales del propio DECam también deben simularse, por lo que las “imágenes” recopiladas dentro del universo sintético son tan similares a las reales como pueda ser posible.
Para las simulaciones,  Becker, estudiante graduado en el Departamento de Física, implementó un algoritmo para simular una distorsión particularmente útil, conocida como lente gravitatoria débil. Cuando la luz viaja desde galaxias lejanas hasta el telescopio en la Tierra, su camino se ve curvado por la gravedad cuando pasa cerca de grandes concentraciones de masa en la red cósmica, por lo que la imagen recibida por el telescopio puede estirarse o aumentarse sutilmente. El Dark Energy Survey usará este efecto de lente en los datos reales para detectar la presencia de cúmulos de materia oscura que no pueden observarse directamente, por lo que el efecto también tenía que aparecer en los datos sintéticos.
“Las lentes gravitatorias débiles son realmente importantes para DES y cualquier estudio similar”, dice Becker, “debido a su sensibilidad respecto a la distribución de masa real, que transporta una gran cantidad de información sobre cómo creció la estructura a gran escala del universo en el pasado”.
Aunque la nueva cámara de Chile aún está en periodo de ajuste antes de empezar a recopilar datos para el estudio, el equipo de simulación ya ha completado varias simulaciones de su universo sintético – cada una con unos requisitos de cientos de miles de horas de cómputo y que generan decenas de terabytes de datos. Conforme avancen los desafíos ciegos de cosmología y se añadan datos reales, Kravtsov espera que se requieran un centenar de universos sintéticos simulados para ajustar en detalle de manera óptima los métodos de análisis hasta que pueda obtenerse una nueva y precisa visión sobre la historia del universo.
“En último término, las simulaciones se usarán principalmente para poner a prueba los métodos empleados para analizar los datos del estudio”, dice Kravtsov. “Es parte de la metodología que te permite deducir la ciencia a partir del estudio, pero es la parte técnica. Finalmente estamos interesados en obtener los resultados científicos”.

Autor: Rob Mitchum
Fecha Original: 1 de octubre de 2012
Enlace Original

lunes, 22 de octubre de 2012

“El artículo” de MathGen: la historia de cómo se la han colado a una publicación científica

Fuente: Gaussianos

Antes de hablar sobre la historia relacionada con el título de esta entrada quiero comenzar fuerte. Os voy a mostrar los tres últimos papers que he escrito, mis tres últimos trabajos de investigación que están pendientes de revisión para su posterior publicación en tres revistas matemáticas de prestigio:

El primero es MINIMAL, REVERSIBLE CLASSES OVER CONTRA-SURJECTIVE, ISOMETRIC ARROWS. Os dejo una captura de la primera página:

El segundo se titula One-to-One Monodromies for a Prime. Podéis ver el comienzo aquí:

Y el tercero se llama On the Derivation of Injective, Almost Everywhere Reversible Scalars. Aquí tenéis el principio del mismo:
Si os descargáis alguno de estos artículos podréis comprobar que todo esto es una broma. Podréis ver que, aun teniendo una perfecta estructura, estos artículos son auténticos sinsentidos. De hecho ni siquiera hay que ser un experto en matemáticas para darse cuenta, simplemente es necesario echar un vistazo a fórmulas como ésta:
Y si me apuráis, ni siquiera hay que saber mucho sobre matemáticas para descubrir que esto no son artículos serios. Echando un vistazo a la bibliografía de cualquiera de ellos puede verse que la mayoría de los apellidos que aparecen corresponden a matemáticos famosos ya fallecidos en los que la inicial del nombre no concuerda con su nombre real. Además, todos los artículos cuyas referencias aparecen ahí son inventados, hecho que puede comprobarse con una sencilla búsqueda en Google.
¿De dónde han salido estos artículos entonces? No, no los he redactado yo, no tengo tanto tiempo libre. Han sido generados por MathGen, utilidad online para generar aleatoriamente trabajos de investigación en matemáticas. En este enlace explican algo más sobre el proyecto.
Os hablo de esto porque el otro día nos comentaban en el blog de MathGen que le han colado uno de sus papers sinsentido a una publicación científica. La publicación que ostenta semejante honor es Advances in Pure Mathematics. El hecho de que sea todavía muy joven, comenzó en 2011, no quita que este asunto sea realmente vergonzoso.
El artículo en cuestión es Independent, Negative, Canonically Turing Arrows of Equations and Problems in Applied Formal PDE, y está escrito por un tal M. Rathke, persona que, evidentemente, no existe (al menos en el sentido que estamos comentando). En él podemos ver fórmulas como ésta
o que este señor Rathke es coautor de un trabajo con un tal A. Legendre.
Éste es el texto que les enviaron desde la revista, en el que le comentan al señor M. Rathke que han aceptado su artículo y donde le piden que realice algunas modificaciones:
Una historia realmente lamentable.

Con esta entrada no quiero demonizar a las publicaciones científicas en general, ni muchísimo menos. Pero sí creo que todo esto debe servir para que todas las personas relacionadas con la revisión de artículos para publicaciones científicas reflexionen sobre la importancia de su trabajo y las repercusiones que puede tener que esas revisiones no se realicen con la seriedad y el rigor que dicha actividad exige.

También se han hecho eco de este asunto en ZTFNews (escrito por nuestra amiga Marta Macho) y LRB Blog.

Quasi Rip

Fuente: Neofronteras


Se ha propuesto un modelo Quasi Rip mediante el cual podrían aparecer nuevas estructuras en el Universo una vez éste se haya diluido completamente en la nada debido a la energía oscura. De este modo el Universo renacería de sus cenizas como el ave fénix.
Foto
Hace unas pocas décadas mucha gente interesada por el mundo de la ciencia, en especial el de la Cosmología, creía estar tocando con la punta de los dedos el poder saber el destino del Universo. Sólo hacía falta calcular la cantidad de materia del Universo visible, determinar entonces la densidad de masa del Cosmos y saber si se expandiría para siempre o si la gravedad detendría alguna vez la expansión que comenzó en el Big Bang. Incluso se planteó la idea de un Universo cíclico. Así por ejemplo, Hawking decía que en el momento en el que se lanzara el telescopio espacial Hubble y se analizaran los datos que obtuviera ya se sabría esta cuestión.
Luego se lanzó (con retraso) dicho telescopio para comprobar, acto seguido, que estaba miope. Pero incluso una vez corregidos sus defectos ópticos tampoco se resolvió dicha cuestión. Parecía que vivíamos en un Universo abierto con una densidad de materia baja, lo que haría que el Universo nunca detendría su expansión. Pero a finales de los años noventa se descubrió que el Universo, en realidad, estaba acelerando su expansión. Había alguna propiedad del propio espacio que hacía que la velocidad de expansión del Universo aumentara cada día más. Esa cualidad fue denominada energía oscura por analogía con la materia oscura, aunque aquí “oscuro” representa más bien falta de conocimiento que alguna propiedad óptica.
A partir de entonces el modelo de Universo que teníamos tuvo que ser cambiado para incorporar este ingrediente. En el mejor de los casos se trataría de la constante cosmológica de Einstein y en el peor de los casos algo desconocido.
De este modo, apareció ante nuestros ojos un futuro para el Universo más bien funesto. El Universo, y todo lo que contiene, se diluiría en la nada en un tiempo escaso desde el punto de vista cosmológico. Si la energía oscura es una suerte de constante cosmológica se formaría Lactómeda a partir de nuestra galaxia y la galaxia de Andrómeda en un Universo vacío muy similar al de de Sitter. Las otras galaxias se alejarían a velocidades superiores a la de la luz (el espacio en sí mismo se puede expandir a velocidad súperlumínica).
En la situación más dramática la densidad de energía oscura varía en el tiempo y acelera cada vez más la expansión hasta que ésta se lleva todas las galaxias por delante, las estrellas y planetas. Incluso hace disgregar finalmente las moléculas, átomos y partículas. En este escenario, propuesto por Robert Caldwell, habría una nada absoluta. Un vacío sin contenido alguno alcanzable en sólo 22.000 millones de años a partir de ahora. Esta expansión exponencial sacaría de su órbita un planeta similar a la Tierra, para luego disgregarlo en los siguientes 30 minutos y todos sus átomos al cabo de 20 segundos (y todos los átomos del resto del Universo). Incluso el propio espacio sería destruido justo después. Es lo que se llamó el Big Rip (el gran desgarrón, aunque se puede hacer un chiste si se considera que la segunda palabra es una sigla en latín).
Podría ser que la fuerza de la energía oscura estuviera aumentando en lugar de ser constante y que ni siquiera pudiéramos medirlo. Hay pruebas que indican que la densidad de esta energía empezó a aumentar hace 2500 millones de años y ahora estamos entrando en una fase de aceleración. En todo caso no podemos descartar o validar ninguna de estas hipótesis aún y, de todos modos, estaríamos disfrutando de una posición temporal privilegiada o especial en el Cosmos.
Pero la creación de modelos es sencilla para los teóricos, aunque su validación experimental sea difícil. Así por ejemplo, se ha propuesto el Litle Rip, en el que se destruyen todas las estructuras materiales del Universo, pero el espacio conserva su integridad. También se propuso un Pseudo Rip en el que la densidad de energía oscura aumenta en el tiempo, pero tiende hacia un valor constante. En ambos escenarios queda un universo frío en muerte térmica sin nada interesante, sólo un espacio vacío. Robert Scherrer es coautor de estos modelos.
Ahora Hao Wei, del Instituto Tecnológico de China en Pekín, ha propuesto un modelo Quasi Rip, un proceso mediante el cual podrían aparecer nuevas estructuras una vez el Universo se haya diluido completamente en la casi nada. De este modo el Universo renacería de sus cenizas.
En este escenario, a diferencia de los otros escenarios rip, la energía oscura puede disminuir en lugar de estar siempre aumentando. La energía oscura aumenta de manera similar a los esquemas rip anteriores en donde desaparecen todas las estructuras materiales pero no llega a desgarrar el propio espacio. Entonces, una vez la energía oscura alcanza un valor máximo empieza a disminuir. La expansión se desacelera y cada vez tiene una velocidad menor. Finalmente los restos de materia vuelven a encontrarse y la gravedad empieza a actuar. Se forman entonces nuevas estructuras, quizás incluso estrellas, galaxias, etc… “La fuerza gravitacional pega las cenizas para formar nuevas estructuras y el Universo puede reconstruirse de nuevo”, dice Wei metafóricamente, según NewScientist.
Aunque tal cosa suceda, se necesitará una cantidad de tiempo enorme hasta conseguir agregar materia. Wei admite que incluso se puede necesitar más tiempo para reconstruir el Universo que el que se necesitó para disgregarlo. Pero, al fin y al cabo, hay disponible toda una eternidad para este tipo de juegos.
El propio espacio sobrevive al proceso, aunque no se pueda decir mucho sobre el aspecto del Universo “ave fénix” que surgiría de todo ello. Puede que incluso la energía oscura se fortalezca y debilite periódicamente, disgregando la materia y recombinándola de nuevo en un proceso sin fin. De esto modo volveríamos, una vez más, a la idea de un universo cíclico (¡si Sísifo levantara la cabeza!).
Con los datos que se disponen ahora mismo no se puede validar o negar ninguno de estos escenarios rip o el de constante cosmológica. Un año de estos lo “sumos sacerdotes” que analizan los datos del satélite Planck “bajarán del monte sagrado” y desvelaran los datos que tienen desde hace tiempo y quizás sabremos algo más sobre la energía oscura y, sobre todo, del Big Bang. De momento nada de nada. Es de suponer que se habrán asegurado con esta dilación varias publicaciones en el proceso o simplemente son unos incompetentes reduciendo datos.
Puede que entonces, o en años venideros gracias a algún telescopio espacial dedicado exclusivamente al asunto, podamos decir algo más seguro acerca del destino del Universo y descartar algún rip. Pero lo más seguro es que nunca lleguemos a saber ciertas cosas. No deja de ser ambicioso esperar saber en sólo unos 400 años de ciencia lo que le pasará al Universo en 22.000 millones de años o más a partir de ahora. Puede que antes de que llegue uno de estos rip nuestro universo colisione con otro universo del multiverso. Puede que se produzcan muertes y renacimientos de universos debidas a repetidas colisiones. O puede que ocurra cualquier cosa que no sabemos ni imaginar y nos conformemos con el principio socrático. Por no tener no tenemos ni una teoría cuántica de la gravedad. Muchos antes de todo eso los humanos probablemente nos hayamos extinguidos fruto de nuestra estulticia y egoísmo.
El gran Woody Allen ya divulgó en Annie Hall la expansión cosmológica:
Alvy: The universe is expanding.
Doctor in Brooklyn: The universe is expanding?
Alvy: Well, the universe is everything, and if it’s expanding, someday it will break apart and that would be the end of everything!
Alvy’s Mom: What is that your business?
Alvy’s Mom: He stopped doing his homework!
Alvy: What’s the point?
Alvy’s Mom: What has the universe got to do with it? You’re here in Brooklyn! Brooklyn is not expanding!
Doctor in Brooklyn: It won’t be expanding for billions of years yet, Alvy. And we’ve gotta try to enjoy ourselves while we’re here!
Al final puede que algo similar a Brooklyn sí entre en expansión y puede que Alvy tuviera razón. Más recientemente, quizás a raíz del descubrimiento de la energía oscura e inspirándose en el Macbeth de Shakespeare, Woody Allen dijo lo siguiente: “Una historia… llena de estruendo y furia, que nada significa. Todos estos personajes van dando vueltas en busca del sentido de sus vidas y encuentran ambiciones, éxito y amor. Se van chocando unos con otros, se hacen daño entre sí y a sí mismos, cometen errores: un caos total. Pero, al final, cien años después, ellos y todos los demás que habitamos la Tierra ya no estaremos. Y, cien años después, habrá otra generación diferente. Y tras todas nuestras ambiciones, nuestras aspiraciones, los plagios, los adulterios, lo que una vez fue tan trascendente ya no significará nada. Incluso en el caso de que inventaran una pastilla que te diera la vida eterna, esa eternidad también es finita, porque nada es imperecedero. Todo es estruendo y furia y, al final, no significa nada”.
En nuestra soberbia, o en nuestra fragilidad de seres mortales, creemos que la herencia de los humanos o de seres similares a los humanes permanecerá para siempre. Ideas como el Big Rip nos dicen que todos los logros, sufrimientos y momentos felices vividos por nosotros, por los que nos precedieron y por los que vendrán no tendrían ningún sentido. Pero el Universo siempre es ciego a nuestros deseos e indiferente a nuestro sufrimiento. El sentido a la existencia sólo lo podemos dar nosotros.
We’ve gotta try to enjoy ourselves while we’re here!
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3943
Fuentes y referencias:
Artículo original.
Copia en ArXiv.
Secuencia de Annie Hall en YouTube.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

miércoles, 17 de octubre de 2012

El misterioso caso del gas noble perdido

Fuente:  Ciencia Kanija
Artículo publicado por Ewen Callaway el 10 de octubre de 2012 en Nature News
El xenón casi ha desaparecido de la atmósfera de la Tierra. Geocientíficos alemanes creen saber ahora dónde ha ido.
La prueba está en cada bocanada de aire, pero las respuestas son difíciles de lograr. El xenón, el segundo gas noble, químicamente inerte, más pesado ha desaparecido. Nuestra atmósfera contiene mucho menos xenón, en relación con los gases nobles más ligeros, que los meteoritos similares al material rocoso que formó la Tierra.
Atmósfera © by Joaquín Martínez Rosado

La paradoja del xenón perdido es una de las grandes novelas negras de la ciencia. Los investigadores han teorizado que el elemento está atrapado en glaciares, minerales, o en el núcleo de la Tierra, entre otros lugares.
“Los científicos siempre dijeron que el xenón realmente no había desaparecido. No está en la atmósfera, pero está oculto en otro lugar”, dice el inspector, perdón, el profesor Hans Keppler, geofísico de la Universidad de Bayreuth en Alemania. Él y su colega Svyatoslav Shcheka son los últimos geocientíficos en abordar el caso, en un informe publicado en la revista Nature1.
Elemental, mi querido Watson
Fueron a buscar respuestas en los minerales. La perovskita, silicato de magnesio, es el principal componente del manto inferior de la Tierra — la capa de roca entre la corteza y el núcleo, que cuenta con la mitad de la masa del planeta. Los sabuesos de la ciencia se preguntaron si el xenón perdido podría haberse escondido en bolsas de este mineral. “Estaba bastante seguro de que debía ser posible almacenar gases nobles en perovskita”, dice Keppler. “Tenía la sospecha de que el xenón podía estar allí”.
Los investigadores trataron de disolver xenón y argón en perovskita a temperaturas superiores a 1600 ºC y presiones de 250 000 atmósferas. Bajo estas extremas condiciones – similares a las del manto inferior – el mineral absorbió argón aunque encontró poco espacio para el xenón.
Esos resultados pueden sonar desalentadores, pero dieron a Keppler y Shcheka una idea. ¿Y si el xenón no está escondido en absoluto?
Hace más de 4000 millones de años, la Tierra estaba fundida. Los meteoritos bombardearon el planeta provocando que perdiese gran parte de su atmósfera primordial. Keppler y Shcheka sugieren que el argón y otros gases nobles se ocultan en la perovskita, pero la mayor parte del xenón no podría disolverse en el mineral y desaparecería en el espacio.
“Esto es completamente distinto a lo que dice el resto de gente. Ellos dicen que el xenón está aquí, pero oculto en algún sitio. Nosotros decimos que no está aquí debido a que en los inicios de la historia de la Tierra no tenía lugar donde ocultarse”, comenta Keppler.
Cuando se enfrió la Tierra, el argón y otros gases nobles empezaron a filtrarse a partir de la perovskita y a llenar la atmósfera. El xenón, disuelto en el mineral solo a nivel de trazas podría, a su vez, acumularse en la atmósfera solo en cantidades minúsculas.
Como apoyo adicional a su hipótesis, los científicos apuntan a las proporciones relativas de tres gases nobles — xenón, kriptón y argón — en la atmósfera que se corresponden, aproximadamente, con su solubilidad en perovskita.
La teoría también puede explicar por qué hay incluso menos isótopos más ligeros del xenón en la atmósfera en relación con los más pesados. “Nadie ha sido capaz de explicar esto antes”, dice Keppler. Tanto él como Shcheka sugieren que a lo largo de miles de millones de años, cuando el xenón se filtraba hacia el espacio, era más probable que escapasen los isótopos más ligeros.
¿Caso cerrado?
Gas IGnoble
No tan rápido, dice Chrystele Sanloup, geocientífica de la Universidad Pierre y Marie Curie de París: “No creo que este descubrimiento tenga en cuenta el xenón perdido”. Apunta que la teoría no explica por completo todo el exceso de xenón pesado en la atmósfera, ni el xenón adicional creado a partir de la desintegración radiactiva de las rocas de uranio y plutonio.
Además, cualquier explicación del xenón perdido de la Tierra debería aplicarse a Marte, donde la atmósfera también carece del gas noble. Keppler y Shcheka sugieren que aquí, también, el antiguo xenón escapó al espacio: el débil campo gravitatorio del planeta evitó que pudiese mantener el gas. Como resultado, todo el xenón que actualmente se encuentra en Marte es lo poco que pudo disolverse en perovskita.
Pero Sanloup duda que Marte tenga suficiente (si es que alguna) perovskita para explicar el xenón de su atmósfera. Hasta que se resuelva el misterio del xenón marciano perdido, no se dictará sentencia sobre qué sucedió en la Tierra.

Nature doi:10.1038/nature.2012.11564
Artículo de Referencia:
1.- Shcheka, S. S. & Keppler, H. Nature http://dx.doi.org/10.1038/nature11506 (2012).
Autor: Ewen Callaway
Fecha Original: 10 de octubre de 2012
Enlace Original

Púlsares: Unos baratos detectores de ondas gravitatorias

Fuente:  Ciencia Kanija

Artículo publicado el 15 de octubre de 2012 en The Physics ArXiv Blog
Las ondas gravitatorias hacen que los púlsares sean más tenues, un fenómeno que está inspirando una nueva forma de buscar las esquivas ondas en el espacio-tiempo.
La búsqueda de ondas gravitatorias es una de las empresas científicas más grandes de los tiempos modernos. Su descubrimiento permitirá a los astrónomos escrutar el cosmos de una forma totalmente nueva y estudiar fenómenos exóticos tales como las colisiones entre los agujeros negros y las estrellas de neutrones.
Pulsar SXP 1062

En la Tierra, los físicos han construido caros detectores que pueden medir la forma en la que las ondas gravitatorias comprimen y estiran el espacio-tiempo a su paso. A pesar de los años de estudio y los millones de dólares de inversión, estas máquinas no han encontrado absolutamente nada.
Pero hay otra forma de buscar ondas gravitatorias: buscar el efecto en los púlsares cuando las ondas atraviesan la galaxia como olas en un estanque.
Un púlsar es una estrella de neutrones giratoria que emite un potente haz de ondas de radio, el cual barre el espacio como la luz de un faro. Desde la Tierra, los púlsares se ven como si lanzaran un destello con un periodo entre los segundos y los milisegundos, con una constancia más precisa que la de un reloj atómico.
Esto ha dado una idea a los astrónomos. Cuando una onda gravitatoria pasa a través del sistema solar, el estirado del espacio-tiempo influirá en el tiempo de llegada de la señal del pulsar. Por lo que la idea es que los astrónomos observen muchos púlsares en distintas direcciones, buscando los reveladores cambios provocados por las ondas gravitatorias.
Este conjunto de sincronización de púlsares debería atenuarse cuando las ondas gravitatorias atraviesen el sistema solar, como la luz del sol a través de un aislamiento térmico en un día caluroso.
Ya se trató el tema hace unos años cuando era poco menos que un brillo en los ojos de unos pocos pero ambiciosos astrónomos. Las cosas han avanzado desde entonces.
Hoy, George Hobbs de la Australia Telescope National Facility en Epping destaca el progreso que se ha realizado en varios frentes. La primera tarea es medir el momento de llegada de los haces de los púlsares con la precisión requerida.
Luego, estos resultados experimentales se comparan con un modelo de ordenador de los púlsares para calcular la diferencia entre el tiempo de llegada esperado y el medido.
La diferencia puede ser el resultado de varios factores, tales como errores en el estándar de sincronización o la turbulencia en el medio interestelar que interfiere con la señal. Pero una vez que se tiene esto en cuenta, cualquier diferencia adicional se debería a las ondas gravitatorias.
El ruido procedente de distintas fuentes hace que esta tarea sea extremadamente compleja, pero Hobbs es optimista sobre el futuro. Dice que el actual descubrimiento de nuevos púlsares anima a la construcción de varios radiotelescopios nuevos de mayor sensibilidad, como el Telescopio Esférico (FAST) de 500 metros en China y el Square Kilometre Array (SKA) en Australia y Suráfrica.
Aún quedan retos importantes por delante. Nadie está seguro de qué aspecto tendría la señal de las ondas gravitatorias. Los astrónomos no se ponen de acuerdo sobre si será un tipo de susurro de fondo, un gorjeo, un estallido o alguna otra señal.
Tampoco se jugarían el cuello por decir cuándo se descubrirán finalmente las ondas. Está claro que los astrónomos han aprendido la lección después de varias décadas de falsas promesas sobre el tema, y Hobbs también mantiene un diligente silencio.
El gran miedo que todos callan es que las ondas gravitatorias sean mucho más tenues y difíciles de detectar de lo que nadie haya imaginado.
Los astrónomos suponen que las ondas viajarán sin obstáculos a través del espacio-tiempo a la velocidad de la luz. Pero cualquier pequeño efecto de amortiguación cambiaría esto drásticamente.
Sabemos que el universo está repleto de asombrosas cantidades de materia y energía oscuras, cosas de las que no sabemos casi nada. Por lo que no está más allá de los límites de lo posible que estas (u otras) cosas pudiesen interactuar con las ondas gravitatorias de formas importantes.
Si resulta ser el caso, habrá algunos pisapapeles muy caros cogiendo polvo en obsoletos laboratorios de ondas gravitatorias de todo el mundo.
Los experimentos del conjunto de sincronización de púlsares, por otra parte, son económicamente mejores. Son mucho más baratos que los detectores dedicados y también pueden usarse para otras valiosas observaciones. En una era de austeridad, merece la pena aplaudir este enfoque.

Artículo de Referencia: arxiv.org/abs/1210.2774: Pulsar Timing Arrays: Status and Techniques
Fecha Original: 15 de octubre de 2012
Enlace Original

Buscando esferas de Dyson y universos alternativos

Fuente:  Ciencia Kanija

Artículo publicado el 10 de octubre de 2012 en Astrobiology Magazine
Dos científicos de la Universidad de California en Berkeley han recibido becas de investigación para explorar áreas de la ciencia que se infiltran en el área de la ciencia ficción.
El astrónomo Geoff Marcy, que inició la búsqueda de planetas extrasolares hace 20 años, planea bucear en los datos del telescopio espacial Kepler buscando pruebas de civilizaciones lo bastante avanzadas como para haber construido enormes estaciones de energía “solares” en órbita.
El físico teórico Raphael Bousso buscará formas de detectar universos fuera del nuestro, y tratará de comprender qué características tendrían estos universos alternativos, o multiversos.
Esfera de Dyson © by Arenamontanus

Marcy y Bousso están entre los 20 innovadores investigadores que compartirán los más de 4 millones de dólares de las Becas Internacionales en Astronomía y Cosmología “New Frontiers” (Nuevas Fronteras) que se anunciaron el pasado 4 de octubre y que otorga la Universidad de Chicago. Las becas son posibles gracias al patrocinio de la Fundación Templeton, del Reino Unido, como forma de animar a científicos y estudiantes de todo el mundo a explorar cuestiones importantes y profundas en la astronomía y la cosmología que puedan propiciar innovadoras ideas sobre la naturaleza del universo.
Muchos de los receptores, incluyendo a Marcy, describieron sus proyectos durante una conferencia conjunta el 12 y 13 de octubre en el Instituto Franklin de Filadelfia. Junto a los ponentes hubo estudiantes de instituto y universiarios, incluyendo al estudiante de la UC Berkeley, Taro Yamaguchi-Phillips, que escribió el ensayo ganador sobre el universo y sus hábitats para un concurso también patrocinado por la Universidad de Chicago. Su ensayo, “From Bang to Brain: How Complexity Arises in the Universe” (Del Estallido al Cerebro: Cómo surge la complejidad en el universo), logró una mención honorífica. El Premio Nobel de la UC Berkeley, Charles Townes, profesor emérito de física y ganador del Premio Templeton en 2005, ayudará en la presentación de los premios de ensayo.
“Con estos premios, el programa tiene como objetivo apoyar claramente la investigación innovadora con el potencial de extender los límites y catalizar descubrimientos que supongan grandes avances, así como inspirar a los estudiantes para que persigan el conocimiento científico y se conviertan en pensadores originales y que aborden las grandes cuestiones del mañana”, dice Donald G. York, Profesor Horace B. Horton de Astronomía y Astrofísica en la Universidad de Chicago, que guió el concursó.
Marcy, profesor de astronomía, es miembro del equipo del telescopio espacial Kepler que observa la luz procedente de 160 000 estrellas en nuestra galaxia en busca de una que se atenúe periódicamente debido al paso, o tránsito, de un planeta frente a ella.
Marcy se dio cuenta de que los datos de Kepler podrían también revelar estrellas con centrales de energía orbitales conocidas como esferas de Dyson: megaestructuras que orbitan alrededor de una estrella y captan una gran porción de su energía. Fueron propuestas por el físico Freeman Dyson hace más de 50 años como una forma probable de alimentar a las sociedades hambrientas de energía en civilizaciones avanzadas. Marcy observará 1000 de los sistemas extrasolares de Kepler en busca de conjuntos solares que pasen frente a una estrella haciendo que se apague y encienda.
“Kepler ha descubierto hasta ahora más de 2000  nuevos mundos alrededor de otras estrellas, la mayor parte de menos del doble del tamaño de la Tierra, y muchos probablemente tienen agua”, dice Marcy. “Esta avalancha de planetas de tamaño terrestre ofrece la primera oportunidad a los humanos de buscar otras especies inteligentes que pueden haber evolucionado en ellos”.
La beca de Marcy – 200 000 dólares para dos años – también pagará algún tiempo de los enormes telescopio Keck de Hawái para tomar espectros de 1000 estrellas que albergan planetas en busca de emisiones láser procedentes de civilizaciones avanzadas.
“Las civilizaciones tecnológicas pueden comunicarse con sondas espaciales situadas a lo largo de la galaxia usando haces láser, ya sea en luz visible o con luz infrarroja”, señala. “Otras civilizaciones pueden detectar la luz láser debido a que la potencia se concentra en un estrecho haz y toda la luz pertenece a una frecuencia, o color, específica. El láser supera en brillo a la estrella madre en el color del láser”.
Bousso, profesor de física, es famoso por su propuesta junto con Joseph Polchinski, doctorado de la UC Berkeley y ahora en la UC Santa Bárbara, acerca de que la teoría de cuerdas implica que el universo está comprendido en un número posiblemente infinito de multiversos, cada uno con sus propias características físicas pero que funcionan bajo las mismas leyes de la física. Aunque es improbable que seamos capaces de visitarlos, o siquiera verlos con los mayores telescopios – la luz no ha tenido tiempo de viajar tan lejos desde que empezó el universo – es optimista sobre que sea posible encontrar predicciones de esta hipótesis que puedan ponerse a prueba. Su beca de dos años y 125 000 dólares le ayudará a explorar las implicaciones de esta hipótesis.
“Al principio, la gente era escéptica sobre la teoría general de la relatividad de Einstein, pero ahora, décadas más tarde, tu GPS funciona gracias a ella y nos ha llevado a cuestiones increíblemente profundas en la física, tales como de qué manera empezó el universo y qué sucede dentro de un agujero negro”, dice Bousso. “Apenas estamos en las primeras etapas de la teoría del multiverso, pero es una propuesta muy seria y plausible que tenemos que tomarnos en serio y poner a prueba – y tratar de echarla por tierra con tanta fuerza como podamos”.

Fecha Original: 10 de octubre de 2012
Enlace Original

Efecto Casimir sobre proteínas de membrana

Fuente: Neofronteras

Las proteínas que están en las membranas celulares sufrirían la fuerza de Casimir y esto les permitiría comunicarse entre sí y estimular una respuesta frente al ambiente.
Foto
Somos la única especie conocida capaz de hacer que el Universo se comprenda a sí mismo o, al menos, que lo pueda intentar. En esta aventura en la que materia se organiza sin parar se han formado estrellas, galaxias, nuevos elementos que no estaban presentes en el Big Bang, planetas con y sin atmósfera, sustancias orgánicas complejas, células, la célula eucariota, seres pluricelulares e incluso criaturas que sueñan con que pueden pensar.
Posiblemente estos últimos logros biológicos se han intentado alcanzar en muchos otros sitios del Universo sin conseguirse. El azar ha querido que se dieran aquí. Puede que el Universo esté poblado de vida, pero hasta ahora no tenemos absolutamente ninguna prueba de que eso sea así, sólo la fe puede sustentarlo. Lo más seguro es que si existen otras civilizaciones estén tan lejos de nosotros que nunca podremos entrar en contacto con ellos, tal y como la paradoja de Fermi indica.
Puede que incluso seamos los únicos seres medianamente inteligentes en toda la galaxia. Si esto es así entonces la responsabilidad que recae sobre nosotros es inmensa, pues no podemos delegar nuestro deber en nadie más. También puede ser la única razón por la que un dios justo, de existir, no nos elimine para siempre, ya que con nuestra estulticia hemos obtenido suficientes puntos como ganar el castigo de nuestro propio exterminio.
Nuestro deber tiene que ser conseguir conocimiento, si encima éste está salpimentado con una pizca de sabiduría mejor que mejor. Comprender el Universo y todo lo que contiene y las leyes que lo rigen hasta entender los procesos por los que la materia se organiza para dar lugar a lo que llamamos vida y consciencia puede ser la más noble de nuestras tareas. El premio es encontrar constantemente belleza por el camino.
Decía un famoso físico que puesto que él sabía Física y las reacciones químicas estaban controladas por leyes físicas entonces él sabía Química. También hay un chiste que dice que un biofísico habla de Química con los químicos y de Física con los físicos, pero que cuando se junta con otro biofísico sólo habla de mujeres. Pero ambas posturas son incorrectas.
En los últimos tiempos hemos podido ver, incluso en estas mismas páginas, que cada vez que se profundiza lo suficiente en los procesos biológicos se pueden observar fenómenos que se creía que sólo estaban restringidos a los laboratorios más sofisticados. Así por ejemplo, se ha podido ver el papel de las partes más misteriosas de la Mecánica Cuántica en el mundo biológico, como la coherencia cuántica en la fotosíntesis, o la superposición de estados en la orientación magnética en los ojos de algunos pájaros. La evolución habría seleccionado el poder alcanzar tal grado de sensibilidad a los fenómenos cuánticos porque simplemente así algunos procesos son más eficientes. Ya hay expertos que hablan de la “Biología cuántica”.
El último ejemplo de esta Biología cuántica nos llega de algunos físicos norteamericanos que sostiene que en determinados procesos de las membranas celulares está involucrada la fascinante fuerza de Casimir.
El efecto Casimir está explicado por la Teoría Cuántica de Campos. La Mecánica Cuántica no era lo suficientemente adecuada como para explicar los fenómenos relativistas y los campos de fuerza, incluso cuando se usaba la ecuación de Dirac en lugar de la ecuación de Schrödinger. Por eso, en el pasado siglo, se desarrolló la Teoría Cuántica de Campos (TCC), en lo que posiblemente fue el último fruto intelectual digno que ha dado la Física hasta ahora.
Según la TCC las partículas se pueden crear y destruir, las fuerzas producidas por los campos se pueden explicar por un intercambio de partículas (bosones) virtuales y el vacío no está realmente vacío, sino que está lleno de partículas virtuales que aparecen y desaparecen sin cesar.
Un modelo físico puede ser tan bueno como cualquier otro hasta que las pruebas físicas lo apoyen, entonces hay que tomarlo bien en serio. Hendrik B. G. Casimir y Dirk Polder propusieron en su día que si hay partículas virtuales en el vacío y disponemos dos placas metálicas paralelas entonces las presión ejercida por los fotones virtuales del espacio entre placas es menor que la que presión que ejercen los que están fuera y entonces aparece una fuerza que tiende a juntar las placas. La predicción se pudo confirmar años más tarde cuando se pudo medir la fuerza de Casimir en el laboratorio.
Ahora unos físicos de las universidades de Cornell y Michigan proponen que las proteínas que están en las membranas celulares sufren fuerza de Casimir y que esto les permite comunicarse entre sí y estimular la respuesta, por ejemplo, de la célula a los alergenos como el polen.
Según la teoría del mosaico fluido las membranas celulares están formadas por lípidos, pero en esta capa lipídica hay proteínas que están embebidas y que se mueven libremente a través de ella. Algunas de estas proteínas tienen funciones esenciales, como el de hacer de bombas de iones y así mantener el equilibrio osmótico o mantener dentro a los electrolitos adecuados y no a otros. Hay muchas otras funciones que pueden realizar y para cada una de ellas está la proteína específica. En un principio se creía que la distribución de lípidos era uniforme, pero ulteriores investigaciones demostraron que se formaban estructuras distintivas cientos de veces más grandes que las moléculas de lípidos individuales. Lo que no se entendía bien era de dónde venía la energía para mantener esas estructuras.
Sarah Veatch y sus colaboradores demostraron en 2008 que por encima de los 25 grados centígrados la membrana de células aisladas de mamífero está en una sola fase, mientras que por debajo de esa temperatura se produce una separación en dos fases distintas compuestas de diferentes lípidos y proteínas. Es decir, había un punto crítico por debajo del cual aparecían parches fluctuantes de una segunda fase que crecían en tamaño. Estas fluctuaciones medían varias micras de anchura y eran visibles con el microscopio óptico. No requerían grandes cantidades de energía (relativa) para formarse.
Veatch, Benjamin Machta y James Sethna quisieron entender el propósito de esta criticidad. Descubrieron que ciertas proteínas se veían atraídas hacia una de las fases mientras que las demás lo hacía hacia la segunda. Veatch sugiere que estas proteínas interactúantes podrían dar lugar a un fenómeno de cascada para así trasmitir señales, como información acerca de los componentes presentes en la vecindad celular, desde los receptores proteicos de la membrana hasta el interior celular. Esta información podría usarse, por ejemplo, para decidir si es un buen momento para la división celular o si es seguro moverse hacia unos nutrientes. Veatch cree que una de las razones por las que la membrana tiene esta criticidad fluctuante es para facilitar los pasos previos en el envío de señales.
Machta ha calculado las fuerzas de Casimir entre las proteínas de la membrana y ha encontrado, como esperaba, que estas fuerzas son atractivas para proteínas similares y repulsivas para las que son diferentes. Además, la energía potencial que esto proporciona es varias veces la energía térmica de las proteínas a lo largo de distancias de decenas de nanometros. Las fuerzas electrostáticas son más intensas, pero son de más corto alcance, en torno al nanometro. La razón de que esta criticidad esté tan finamente ajustada se debería a que así las células han conseguido maximizar las fuerzas de largo alcance entre proteínas.
“Es sorprendente en cuántas reacciones en las células están involucradas energías de la misma magnitud que las fluctuaciones térmicas. Creemos que esta es la manera de que tiene la célula de ser ahorradora. ¿Para qué pagar más?”, dice Sethna.
Los investigadores sospechan que la existencia de estas fuerzas de Casimir explicarían por qué las células bajas en colesterol (el colesterol es fundamental para el funcionamiento celular y no tiene que ver con el que nos detectan en sangre y que es un indicador de riesgo de arteriosclerosis) no funcionan como lo deberían de hacer, pues la retirada de este colesterol saca a la membrana fuera de su punto crítico.
Además, especulan que todo esto tendría un papel incluso en el estornudo. Cuando los receptores proteicos de una célula inmunitaria detectan un alergeno, como un grano de polen, se agregan y esto dispara las histaminas que producen el estornudo. Sethna especula que quizás el alergeno simplemente cambia la preferencia del receptor por una fase u otra de la membrana.
Este equipo de investigadores espera que el estudio sirva para obtener aplicaciones médicas, pues los defectos en las membranas pueden contribuir a la aparición de enfermedades como el cáncer o las enfermedades autoinmunes, inflamatorias, etc. “Este trabajo arroja luz sobre cómo los lípidos pueden impactar sobre ciertos aspectos de estas enfermedades. En el futuro imagino medicamentos que específicamente usen a ciertos lípidos como blancos para regular la interacción entre proteínas para así tratar enfermedades humanas”, dice Veatch. Sin embargo, pasará tiempo hasta que semejantes aplicaciones se hagan realidad.
Sethna señala que los biólogos siempre tienden a explicar cómo funcionan las células en función de un resultado de la evolución. La evolución ha podido empujar a las células hasta alcanzar el punto crítico, pero una vez ahí se pueden usar otras teorías para así poder explicar muchos comportamientos sin necesidad de recurrir reiteradamente a la evolución.
De todos modos, queda mucha investigación por hacer hasta que se acepten estas nuevas ideas. Algún experto del campo ya señala que no está claro que la membrana celular de un tejido se comporte de igual manera cuando forma parte de éste que cuando se hacen experimentos con ella estando aislada del resto. Pero si asumimos que esta teoría es cierta no podemos por menos que admirar la belleza que entraña.
Así que, amigo lector, si ahora se encuentra en la primavera austral y es alérgico al polen piense que cuando estornuda unas proteínas bailan una danza precisa ajustada por la evolución hasta el punto crítico en el que se sienten las partículas virtuales del vacío cuántico. Procesos semejantes pasan en cada célula de su cuerpo e incluso, y esto es una especulación, puede que en las neuronas de su cerebro pase algo similar y que las fluctuaciones cuánticas le permitan alcanzar una idea original, un pensamiento profundo o un sentimiento intenso.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3942
Fuentes y referencias:
Nota en PhysicsWorld.
Artículo original.
Nota en Nature sobre Biología cuántica.
Ilustración: esquema de una membrana celular, Wikimedia Commons.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

sábado, 13 de octubre de 2012

Topología: El ingrediente secreto de la última Teoría del Todo

Fuente: Ciencia Kanija
Artículo publicado el 8 de octubre de 2012 en The Physics ArXiv Blog
Combina topología con simetría y añade una pizca de mecánica cuántica. ¿El resultado? Una potente y nueva Teoría del Todo.
La topología es el estudio de la forma, en particular de las propiedades que se conservan cuando se estira, comprime y retuerce una forma, pero no cuando se desgarra o raja.
En el pasado, la topología era poco más que una diversión para los matemáticos, que hacían garabatos buscando la diferencia entre las rosquillas y empanadillas.
Anillo borromeo © by shonk

Pero esto empieza a cambiar. En los últimos años, los físicos han empezado a usar la topología para explicar algunos de los misterios más importantes de las fronteras de la física.
Por ejemplo, ciertas partículas cuánticas no pueden formar pares, pero forman tripletes conocidos como estados de Efimov. Esto es curioso – seguramente los enlaces que permiten que se unan tres partículas deberían también permitir que se unieran dos.
En realidad no se puede, y la topología explica por qué. La razón es que la conexión matemática entre estas partículas cuánticas toma la forma de un anillo borromeo: tres círculos entrelazados de tal forma que cortando uno se liberan los otros dos. Solo se pueden conectar de este modo tres anillos, no dos. ¡Voila!
Pero este tipo de curiosidad topológica es simplemente la punta del iceberg, si Xiao-Gang Wen del Instituto Perimeter de Física Teórica en Waterloo, Canadá, tiene razón.
Hoy, Wen combina topología, simetría y mecánica cuántica en una nueva teoría que predice la existencia de nuevos estados de la materia, unifica varios desconcertantes fenómenos de la física del estado sólido, y permite la creación de vacíos artificiales poblados con fotones y electrones artificiales.
Entonces, ¿por dónde empezar? Wen empieza a explicar el papel fundamental de la simetría en los estados básicos de la materia, tales como líquidos y sólidos. Una simetría es una propiedad que permanece invariante bajo una transformación de algún tipo.
Por lo que en un líquido, los átomos se distribuyen aleatoriamente y, por tanto, tiene el mismo aspecto si se desplaza en cualquier dirección y cualquier distancia. Los físicos dicen que tiene una simetría de traslación continua.
Sin embargo, cuando se congela un líquido, los átomos quedan fijados en una red cristalina y se aplica una simetría diferente. En este caso, la red solo parece la misma si se dispone a lo largo del eje del cristal a una distancia específica. Por lo que el material ahora tiene una simetría de traslación discreta y se rompe la simetría original.
En otras palabras, cuando el materia sufre un cambio de fase, también sufre un cambio de simetría, un proceso que los físicos conocen como ruptura de simetría.
Pero además de las cuatro fases comunes de la materia – líquido, sólido, gas y plasma – los físicos han descubierto muchas fases cuánticas de la materia, tales como la superconductividad, la superfluidez, etc.
Estas fases son el resultado de la ruptura de simetría, pero solo la simetría no puede explicar qué está pasando.
Por tanto, los físicos se han vuelto hacia la topología en busca de ayuda. Resulta que las matemáticas de la mecánica cuántica tiene unas propiedades topológicas que, cuando se combinan con la simetría, explican cómo se forman estas fases.
Este tipo de trabajo ha llevado al descubrimiento de fases adicionales de la materia tales como los conductores y aislantes topológicos.
El punto importante es que las propiedades de estos sistemas quedan garantizados no por las leyes comunes de la física, sino por las propiedades topológicas de la mecánica cuántica, de la misma forma que el anillo borromeo explica los estados de Efimov descritos antes.
La aproximación de Xiao-Gang Wen es explorar las propiedades de la materia cuando los vínculos topológicos entre partículas se hacen mucho más generales y complejos. Generaliza estos vínculos, pensando en ellos como cuerdas que conectan entre sí muchas partículas. De hecho, tiene en cuenta la forma en que muchas cuerdas pueden formar una estructura similar a una red que tenga propiedades emergentes propias.
Pero, ¿qué tipo de propiedades emergentes tienen estas cuerdas-redes? Resulta que las cuerdas-redes no son tan diferentes de la materia común. Pueden dar soporte a ondas, que según Xiao-Gang Wen son formalmente equivalentes a los fotones.
Esto hace de las cuerdas-redes un tipo de “éter cuántico” a través del cual viajan las ondas electromagnéticas. Esta es una gran afirmación.
Wen también dice que varias propiedades de las cuerdas-redes son equivalentes a partículas fundamentales como los electrones. Y puede que sea posible derivar también las propiedades de otras partículas. Esta es otra gran idea.
Por supuesto, ninguna teoría vale nada a menos que haga alguna predicción sobre el universo que pueda ponerse a prueba.
Wen dice que su teoría tiene importantes implicaciones para los estados de la materia que había poco después del Big Bang, pero no desarrolla la idea en predicciones específicas.
Se supone que se cumpliría lo mismo en el otro extremo del fenómeno astrofísico. Por ejemplo, sería interesante ver qué condiciones de este tipo de enfoque se sitúan sobre la naturaleza de los agujeros negros.
Wen también dice que debería ser posible manipular las propiedades topológicas de los materiales para crear vacíos artificiales completos con fotones artificiales y partículas artificiales como los electrones. En otras palabras, la topología es la clave para crear nuevos completamente nuevos en el laboratorio.
Está claro que las ideas de Wen necesitarán algún tiempo para poder digerirlas. Y las implicaciones que debate tienen que asentarse con firmeza en predicciones experimentales específicas.
Pero no es la primera vez que nos cruzamos con la idea de que la topología desempeña un papel más fundamental en el universo de lo que nos imaginábamos. Hace un par de años exploramos una idea similar.
Los físicos han sabido desde hace décadas que la simetría desempeña un gran papel en las leyes de la física. De hecho, es justo decir que la simetría ha cambiado la forma en que pensamos acerca del universo.
Es posible que añadir la topología a la mezcla sea igualmente revolucionario.

Artículo de Referencia: arxiv.org/abs/1210.1281: Topological Order: From Long-Range Eentangled Quantum Matter To An Unification Of Light And Electrons
Fecha Original: 8 de octubre de 2012
Enlace Original

¿Estaba oculto en las matemáticas de Einstein el viaje superlumínico?

Fuente: Ciencia Kanija

Artículo publicado por Clara Moskowitz  el 8 de octubre de 2012 en Space.com
Aunque las teorías de Einstein sugieren que nada puede moverse más rápido que la velocidad de la luz, dos científicos han extendido sus ecuaciones para demostrar qué sucedería si fuese posible el viaje superlumínico.
A pesar de la aparente prohibición sobre tal tipo de viaje en la teoría especial de la relatividad de Einstein, los científicos dijeron que, en realidad, la teoría puede moldearse fácilmente para describir velocidades que superen la velocidad de la luz.

Viaje superlumínico

“Empezamos pensando en ello, y creímos que era una extensión muy natural de las ecuaciones de Einstein”, dice el matemático aplicado James Hill, coautor del nuevo artículo junto a su colega de la Universidad de Adelaida en Australia, Barry Cox. El artículo se publica en el ejemplar del 3 de octubre de la revista Proceedings of the Royal Society A: Mathematical and Physical Sciences.
La relatividad especial, propuesta en 1905 por Albert Einstein, demostró cómo conceptos como la velocidad son relativos: un observador en movimiento medirá una velocidad distinta de un objeto a la que medirá un observador estacionario. Además, la relatividad reveló la idea de dilatación temporal, que dice que cuanto más rápido vas, el tiempo parece ir más lento. De este modo, la tripulación de una nave espacial percibiría que su viaje a otro planeta dura dos semanas, mientras que la gente que quedó en la Tierra observaría que dura 20 años.
Aun así, la relatividad especial colapsa si la velocidad relativa de dos personas, la diferencia entre sus velocidades relativas, se acerca a la velocidad de la luz. Ahora, Hill y Cox han extendido la teoría para acomodar una velocidad relativa infinita.
Es interesante señalar que ni las ecuaciones originales de Einstein, ni la nueva teoría extendida,pueden describir objetos masivos que se muevan a la propia velocidad de la luz. Aquí, ambos conjuntos de ecuaciones colapsan en singularidades matemáticas donde no pueden definirse propiedades físicas.
“La situación real de superar la velocidad de la luz no está definida”, comenta Hill. “La teoría a la que hemos llegado es simplemente para velocidades mayores que las de la luz”.
En efecto, la singularidad divide nuestro universo en dos: un mundo donde todo se mueve más lentamente que la velocidad de la luz, y un mundo donde todo se mueve más rápidamente. Las leyes de la física en estos dos dominios podrían resultar ser bastante diferentes.
En cierta forma, el mundo oculto más allá de la velocidad de la luz parece ser uno muy extraño. Las ecuaciones de Hill y Cox sugieren, por ejemplo, que una nave que viaje a mayor velocidad que la luz, acelerando cada vez más, perdería cada vez más masa hasta que a una velocidad infinita su masa sería cero.
“Es muy sugerente que todo el asunto sea distinto una vez que superas la velocidad de la luz”, señala Hill.
A pesar de la singularidad, Hill no está dispuesto a aceptar que la velocidad de la luz sea un muro infranqueable. Lo comparó con superar la barrera del sonido. Antes de que Chuck Yeager se convirtiera en la primera persona en viajar más rápidamente que la velocidad del sonido en 1947, muchos expertos dudaban de que pudiese lograrse. Los científicos estaban preocupados por que el avión se desintegrase, o por que el cuerpo humano no pudiese sobrevivir. Nada de eso resultó ser cierto.
El temor a cruzar la barrera de la luz podría ser igualmente infundado, apunta Hill.
“Creo que es solo cuestión de tiempo”, dice. “El ingenio humano es así, lo logrará, pero puede que implica un mecanismo de transporte completamente distinto a cualquiera que actualmente imaginamos”.

Autor: Clara Moskowitz
Fecha Original: 8 de octubre de 2012
Enlace Original