lunes, 25 de julio de 2011

Experimento del Fermilab descubre un pariente pesado del neutrón

Fuente: Ciencia Kanija


Artículo publicado por Rhianna Wisniewski el 20 de julio de 2011 en Symmetry Breaking
Científicos de la colaboración CDF del Laboratorio del Acelerador Nacional Fermi del Departamento de Energía anunciaron la observación de una nueva partícula, el neutro Xi-sub-b (Ξb0). Esta partícula contenía tres quarks: Un quark strange, un quark up y uno bottom(s-u-b-) Aunque su existencia se predice en el Modelo Estándar, la observación del neutro Xi-sub-b es significativo debido a que refuerza nuestra comprensión de cómo los quarks forman la materia. El físico de Fermilab, Pat Lukens, miembro de la colaboración CDF, presentó el descubrimiento en el Fermilab el miércoles 20 de julio.

Sala de control de CDF © Crédito solarnu

El neutro Xi-sub-b es la última entrada en la tabla periódica de bariones. Los bariones son partículas formadas por tres quarks, siendo los ejemplos más comunes el protón (dos quarks up y uno down) y el neutrón (dos quarks down y uno up). El  neutro Xi-sub-b pertenece a la familia de los bariones bottom, que son aproximadamente seis veces más pesados que el protón y el neutrón debido a que contienen un quark bottom más pesado. Las partículas se producen sólo en colisiones de alta energía, y son raras y difíciles de observar.
Aunque el colisionador de partículas Tevatron del Fermilab no es una fábrica dedicada a la creación de quarks bottom, los sofisticados detectores de partículas y los billones de colisiones protón-antiprotón han creado un paraíso para el descubrimiento y estudio de casi todos los bariones bottom conocidos. Los experimentos del Tevatron descubrieron los bariones Sigma-sub-b (Σb y Σb*) en 2006, observaron el barión  Xi-b-menos (Ξb-) en 2007, y encontraron el Omega-sub-b (Ωb-) en 2009. El barión bottom más ligero, el Lambda-sub-b (Λb), se descubrió en el CERN. Medir las propiedades de todas estas partículas permite a los científicos poner a prueba y mejorar los modelos de cómo interactúan los quarks a distancias cortas a través de la fuerza nuclear fuerte, como se explica en la teoría de la cromodinámica cuántica (QCD). Los científicos del Fermilab y otros laboratorios nacionales del Departamento de Energía usan potentes ordenadores para simular las interacciones de quarks y comprender las propiedades de las partículas formadas por quarks.
Una vez producidos, los neutros Xi-sub-b viajan una fracción de milímetro antes de decaer en partículas más ligeras. Estas partículas decaen de nuevo en partículas aún más ligeras. Los físicos dependen de los detalles de esta serie de decaimientos para identificar las partículas iniciales. El complejo patrón de decaimiento del neutro Xi-sub-b ha hecho la observación de esta partícula significativamente más complicada que la de su hermano cargado (Ξb-). Filtrando casi 500 billones de colisiones protón-antiprotón producidas en el colisionador de partículas Tevatron del Fermilab, la colaboración CDF aisló 25 ejemplos en los que las partículas que surgen de una colisión revelaron una firma distintiva del neutro Xi-sub-b. El análisis estableció el descubrimiento en un nivel de 7 sigma. Los científicos consideran 5 sigma el umbral para los descubrimientos.
CDF también re-observó la versión cargada ya conocida del neutro Xi-sub-b en un decaimiento nunca observado antes, que sirvió como chequeo cruzado independiente del análisis. Las muestras de datos recién analizados ofrecen posibilidades de nuevos descubrimientos.
La colaboración CDF envió un artículo que resume los detalles de su descubrimiento Xi-sub-b a la revista Physical Review Letters. Está disponible en el servidor de arXiv desde el 20 de julio de 2011.
CDF es un experimento internacional de aproximadamente 500 físicos de 58 instituciones en 15 países. Está patrocinada por el Departamento de Energía de los Estados Unidos, la Fundación Nacional de Ciencia y un número de agencias internacionales de patrocinio.
Fermilab es un laboratorio nacional patrocinado por la Oficina de Ciencia del Departamento de Energía de los Estados Unidos, gestionado bajo contrato por la Alianza de Investigación Fermi, LLC.

Autor: Rhianna Wisniewski
Fecha Original: 20 de julio de 2011
Enlace Original

Cuestionando las reglas del juego

Fuente: Ciencia Kanija

Artículo publicado por Časlav Brukner el 11 de julio de 2011 en APS
¿Puede la teoría cuántica derivarse a partir de principios más fundamentales?
Sabemos cómo usar las “reglas” de la física cuántica para construir láseres, microchips y plantas de energía nuclear, pero cuando los estudiantes cuestionan las propias reglas, la mejor respuesta que damos a menudo es, “El mundo parece funcionar así”. Pero, ¿por qué hay salidas individuales en una medida cuántica aleatoria? ¿Cuál es el origen de la Ecuación de Schrödinger? En un artículo1 que aparece en Physical Review A, Giulio Chiribella del Instituto Perimeter en Waterloo, Canadá, y Giacomo Mauro D’Ariano y Paolo Perinotti de la Universidad de Pavía en Italia, ofrecen un marco de trabajo en el cual responder estas penetrantes cuestiones. Demuestran que haciendo seis suposiciones básicas sobre cómo se procesa la información, pueden derivar la teoría cuántica. (Hablando con propiedad, su derivación sólo se aplica a sistemas que pueden construirse a partir de un número finito de estados cuánticos, tales como el espín). En este sentido, el trabajo de Chiribella et al. sigue el espíritu de la creencia de John Wheeler de que se obtiene “del bit”, en otras palabras, que nuestra visión del universo se construye a partir de bits de información, y que las reglas de cómo puede obtenerse dicha información determinan el “sentido” de lo que llamamos partículas y campos.

Figura 1 © Crédito Alan Stonebraker

En lugar de obtener el significado de la teoría cuántica a partir del uso de las matemáticas para calcular funciones de onda y niveles de energía, las reconstrucciones basadas en principios de la teoría cuántica intentan extraer su significado junto con el “formalismo”, mientras derivan la teoría a partir de unos principios físicos más profundos2. En el pasado, una inmensa mayoría de intentos de encontrar un conjunto de principios físicos tras la teoría cuántica (muy notablemente dentro de la aproximación lógica cuántica de la década de 1960), se quedaban cortas sólo derivando la teoría cuántica, o estaban basadas en suposiciones matemáticas abstractas que por sí mismas necesitaban una motivación física más definitiva. El auge de la ciencia de la información cuántica incrementó la consciencia de que la información – el concepto clave para comprender, por ejemplo, por qué estados cuánticos desconocidos no pueden ser clonados, o la posibilidad del teletransporte de estados cuánticos – desempeña un papel fundamental en la física cuántica en comparación con la física clásica3.
En su trabajo original de 2001, Lucien Hardy (actualmente en el Instituto Perimeter) reabrió el campo derivando la teoría cuántica a partir de cinco axiomas “razonables”4. La reconstrucción de Hardy se desarrolló por completo dentro de lo que se conoce como aproximación operacional: En lugar de usar ideas como posición, momento o energía de la física “tradicional”, el foco está en las operaciones de laboratorio primitivas5, tales como de qué forma se prepara un estado, se transforma y se mide (Fig. 1). En esta imagen, es estado de un sistema está determinado por la preparación del procedimiento, y representa el objeto matemático a partir del cual se puede calcular la probabilidad de cualquier medida concebible. Los estados puros son aquellos que no pueden escribirse como mezclas probabilísticas de otros estados y los cuales corresponden a situaciones de conocimiento máximo sobre la preparación del sistema. En la reconstrucción de Hardy, sin embargo, quedaba la incómodo posibilidad de que la teoría cuántica sea justo la teoría “más simple” en una jerarquía de teorías probabilísticas, en la cual cada teoría “inferior” es un caso especial de la “superior”. (Esto es análogo a tener una teoría de probabilidad clásica como un caso especial de la teoría cuántica). Más tarde se demostró5, y la prueba se refinó posteriormente6, que de todas las teorías de la jerarquía, sólo la teoría cuántica es consistente con la idea de entrelazamiento – una piedra angular de la teoría cuántica.
Aunque usan la aproximación operacional, Chiribella et al. siguen, no obstante, una ruta completamente distinta para derivar la teoría cuántica1. Asumen cinco nuevos axiomas elementales – causalidad, distinguibilidad perfecta, compresión ideal, distinguibilidad local y condicionamiento puro – los cuales definen una clase más amplia de teorías de procesado de información. Por ejemplo, el axioma de causalidad – que afirma que no se puede señalar medidas futuras desde preparaciones pasadas – es tan básico que normalmente se asume a priori. Tanto la teoría clásica como la cuántica completan los cinco axiomas. Lo significativo sobre el trabajo de Chiribella et al.es que demuestra que un sexto axioma – la suposición de que cada estado tiene lo que se conoce como “purificación” – es lo que distingue a la teoría cuántica dentro de la clase. De hecho, este último axioma es tan importante que lo conocen como postulado. El postulado de la purificación puede definirse formalmente (ver abajo), pero para comprender su significado en palabras simples, podemos mirar a Schrödinger, que al describir el entrelazamiento da la esencia del postulado: “El máximo conocimiento de un sistema total no necesariamente incluye el máximo conocimiento de todas sus partes”. (Formalmente, el postulado de purificación dice que cada estado mezclado ρA de un sistema A siempre puede verse como un estado que pertenece a una parte de un sistema compuesto AB que él mismo está en un estado puro ΨAB. Este estado puro se conoce como “purificación” y se asume que es único hasta una información reversible en B).
Chiribella et al. Concluyen que sólo hay una forma en la que una teoría pueda satisfacer el postulado de la purificación: Debe contener estados entrelazados. (La otra opción, que la teoría no debe contener estados mezclados, es decir, que las probabilidades de las salidas de cualquier medida son 0 ó 1 como en la teoría determinista clásica, no se sostiene, dado que no se pueden preparar siempre estados mezclados uniendo unos deterministas). El postulado de purificación permite él solo algunas de las características clave para que se derive el procesado de información cuántica, tales como el teorema de no clonado o teletransporte7. Combinando este postulado con los otros cinco axiomas, Chiribella et al. fueron capaces de derivar todo el formalismo matemático tras la teoría cuántica.
Pero, ¿cuál es el significado final del postulado de purificación? Después de todo, aprenderemos poco sobre la teoría cuántica si la derivamos a partir de axiomas que son igualmente opacos. Una posible respuesta a esta cuestión podría encontrarse en un artículo no publicado poco conocido escrito por Heisenberg 8,9 en 1935, titulado: “Is a deterministic completion of quantum mechanics possible? (¿Es posible una finalización determinista de la mecánica cuántica?)” En la cual esboza su propia respuesta al famoso artículo de Einstein, Podolsky y Rosen del mismo año. En el artículo, Heisenberg defiende que es necesario hacer una división epistemológica entre el “sistema” y el “dispositivo de medida”, una división a la que se refiere como “corte”. Heisenberg estaba tratando de comprender si una predicción para lograr una salida con un dispositivo clásico  que mide un sistema cuántico es la misma sin importar si el sistema y el dispositivo de medida están descritos por funciones de onda cuántica y se miden por otro dispositivo: “¿En qué lugar deberíamos trazar el corte entre la descripción por funciones de onda y la descripción clásica?”. La respuesta a esta pregunta es: las predicciones de la mecánica cuántica sobre la salida de un experimento arbitraria son independientes de la posición del corte debatido”.
La afirmación de Heisenberg puede comprenderse en términos del postulado de purificación. Cualquier medida en el “sistema” puede verse como una medida sobre el “dispositivo de medida” donde una composición de ambos está en un estado puro adecuado. Por tanto, la predicción de la medida es la misma, independientemente de dónde se coloque el “corte” – inmediatamente después del “sistema” o sólo después del “dispositivo de medida”. En una teoría que es probabilística y a en el mismo tiempo universal, en el sentido que un estado puro puede ser adscrito a cualquier sistema, el postulado de purificación asegura la consistencia de las asignaciones de probabilidad independientemente de lo que el observador elige considerar como “sistema bajo observación”.
Tener principios a partir de los cuales poder reconstruir una teoría física conocida está bien, pero, ¿puede esto ayudarnos en la búsqueda de una nueva física? Como en cualquier reconstrucción axiomática, se puede preguntar cómo cambian los resultados de et al. cuando se debilitan o modifican los principios. La generalización más radical de su trabajo1 sería abandonar la suposición de causalidad. Ya hay en marcha investigaciones para el desarrollo de marcos de trabajo que no presumen un espacio-tiempo subyacente o estructuras causales fijas 10, 11 y 12 y probablemente tendrán consecuencias para el programa de unificación de teoría cuántica y relatividad general.

Referencias:
1.- G. Chiribella, G. D’Ariano, and P. Perinotti, Phys. Rev. A 84, 012311 (2011).
2.- A. Zeilinger, Found. Phys. 29, 631 (1999); Č. Brukner and A. Zeilinger, in Time, Quantum and Information, edited by L. Castell and O. Ischebeck (Springer, New York, 2003)[Amazon][WorldCat]
3.- C. Fuchs, in Proceedings of the NATO Advanced Research Workshop on Decoherence and its Implications in Quantum Computation and Information Transfer, Mykonos, Greece, 2000, edited by A. Gonis (IOS Press, Amsterdam, 2001)[Amazon][WorldCat]; arXiv:quant-ph/0106166.
4.- L. Hardy, arXiv/quant-ph/0101012 (2001).
5.- B. Dakic and Č. Brukner, in Deep Beauty, edited by Hans Halvorson (Cambridge University Press, New York, 2011)[Amazon][WorldCat]; arXiv:0911.0695 (2009).
6.- L. Masanes and M. P. Mueller, New J. Phys. 13, 063001 (2011).
7.- G. Chiribella, G. M. D’Ariano, and P. Perinotti, Phys. Rev. A 81, 062348 (2010).
8.- W. Pauli, Wissenschaftlicher Briefwechsel mit Bohr, Einstein, Heisenberg, Vol. 2, edited by K. von Meyenn, A. Hermann, and V. F. Weisskopf, (Springer, Berlin, 1985), pp. 1930-1939.
9.- For the English translation of Heisenberg’s manuscript with a brief introduction and bibliography see E. Crull and G. Bacciagaluppi, http://philsci-archive.pitt.edu/8590/.
10.- L. Hardy, arXiv:gr-qc/0509120v1 (2005).
11.- G. Chiribella, G. M. D’Ariano, P. Perinotti, and B. Valiron, arXiv:0912.0195v2 (2009).
12.- O. Oreshkov, F. Costa, and Č. Brukner, arXiv:1105.4464 (2011).
Autor: Časlav Brukner
Fecha Original: 11 de julio de 2011
Enlace Original

jueves, 21 de julio de 2011

Computación similar a la biológica

Fuente: Neofronteras

Usan un material para crear una célula que procesa y almacena información de manera semejante a los sistemas biológicos.
Foto
Tarde o temprano nuestra actual tecnología de microchips alcanzará los límites físicos y no se podrán reducir más sus componentes. El computador cuántico aún tardará, así que hay que buscar nuevos sistemas y arquitecturas que nos permitan seguir aumentando nuestra potencia de cómputo.
Una guía de por donde podemos ir nos lo pueden dar los “cuellos de botella” de nuestros actuales computadores. Uno de ellos es la separación entre microprocesador y memoria RAM. La información tiene que ir de uno a otro y eso consume mucho tiempo. La memoria caché se inventó precisamente para solventar en parte este problema, pero aún integrando en un solo chip memoria y procesador seguiremos teniendo el mismo problema.
Quizás nos podamos fijar en cómo funciona nuestro cerebro. En él los datos y procesamiento se dan en el mismo lugar.
Ahora, unos investigadores de la Universidad de Exeter han dado un paso más hacia se futuro computador que funcionase como un cerebro humano. Según el estudio que han realizado el procesado de información y su almacenamiento se puede llevar a cabo en el mismo dispositivo gracias a materiales que usen cambio de fase. Esta técnica podría revolucionar la computación haciendo que los computadores fueran más rápidos y eficientes energéticamente.
Para poder realizar estas funciones simultáneamente han usado materiales semiconductores que cambian de fase bajo ciertas circunstancias y han demostrado que pueden almacenar y procesar información simultáneamente. Además han demostrado experimentalmente por primera vez que con este sistema se pueden realizar las operaciones de computación habituales de propósito general como la adición, substracción, multiplicación y división. Aunque para este trabajo sólo han usado una única célula procesadora de cambio de fase.
Otro cosa aún más interesante es que este sistema puede usarse para crear neuronas artificiales y con sus sinapsis construir redes neuronales capaces de aprender por sí solas (las redes neuronales simuladas existen desde hace ya mucho tiempo, no se programan al detalle, sino que funcionan gracias a un entrenamiento previo que les hace aprender). Esto podría dar lugar a sistemas de computación similares a nuestros cerebros.
Según el investigador principal, David Wright, el hallazgo tiene grandes implicaciones en el desarrollo de formas de computación enteramente nuevas. Según él esta técnica podría potencialmente dar lugar a nuevas formas de computación que se asemejen a cómo el cerebro aprende y se adapta a lo largo del tiempo.
El próximo paso a dar por estos investigadores es conectar diversas células interconectadas que realicen funciones como la identificación de objetos y patrones.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3552
Fuentes y referencias:
Nota de prensa.
Artículo original.
Ilustración: Peter Fromherz.

Para qué sirven las matemáticas

Fuente: Francis (th)E mule News


Peter Rowlett nos presenta en Nature siete ejemplos que demuestran que el trabajo teórico de los matemáticos puede conducir a aplicaciones prácticas inesperadas. Muchos científicos e ingenieros descubren que las herramientas matemáticas que necesitan fueron desarrolladas hace muchos años, incluso hace siglos, por matemáticos que no tenían en mente ninguna aplicación práctica concreta. La vida de las herramientas matemáticas, si no tienen errores, es eterna; una vez que la comunidad de matemáticos está satisfecha con una solución a cierto problema matemático, por dicha solución no pasan los años. Sin embargo, con la crisis económica ha crecido el interés en buscar aplicaciones a los desarrollos matemáticos en su etapa germinal, cuando aún son meras ideas abstractas. El problema es que para un matemático predecir para qué pueden servir sus ideas raya lo imposible. No se pueden forzar las cosas y algunas aplicaciones de las matemáticas actuales aparecerán dentro de décadas o incluso siglos. Para ilustrarlo, Peter Rowlett nos presenta los siguiente siete ejemplos en ”The unplanned impact of mathematics,” Nature 475: 166–169, 14 July 2011. La Sociedad Británica para la Historia de las Matemáticas tiene abierta una convocatoria con objeto de recopilar más ejemplos, si conoces alguno puedes enviarlo siguiendo este enlace “The British Society for the History of Mathematics.”
Mark McCartney & Tony Mann: “De los cuaterniones a Lara Croft”
La historia de cómo descubrió los cuaterniones el matemático irlandés William Rowan Hamilton (1805–1865) el 16 de octubre 1843 mientras estaba caminando sobre el Puente de “Broome” en Dublín es muy conocida. Hamilton había estado buscando una manera de extender el sistema de números complejos a tres dimensiones de tal forma que permitiera describir las rotaciones tridimensionales respecto a un eje arbitrario como los números complejos describen las rotaciones bidimensionales. Su idea feliz ahora nos resulta casi obvia, no era posible hacerlo con ternas de números, las rotaciones tridimensionales requieren un sistema de números con cuatro componentes imaginarias. Si los números complejos son de la forma a + i b, donde a y b son números reales, e i es la raíz cuadrada de –1, entonces los cuaterniones deben tener la forma a + b i + c j + d k , donde las unidades imaginarias cumplen i 2 = j 2 = k 2 = ijk= –1.
Hamilton pasó el resto de su vida tratando de convencer a toda la comunidad de matemáticos de que los cuaterniones eran una solución elegante a múltiples problemas en geometría, mecánica y óptica. Tras su muerte, pasó el testigo a Peter Guthrie Tait (1831–1901), profesor de la Universidad de Edimburgo. William Thomson (Lord Kelvin) pasó más de 38 años discutiendo con Tait sobre la utilidad real de los cuaterniones. Kelvin prefería el cálculo vectorial, que a finales del siglo XIX eclipsó a los cuaterniones y los matemáticos del siglo XX, en general, consideran los cuaterniones como una hermosa construcción matemática sin ninguna utilidad práctica. Así fue hasta que por sorpresa, en 1985, el informático Ken Shoemake presentó la idea de interpolar rotaciones usando cuaterniones en el congreso de gráficos por computador más importante del mundo (el ACM SIGGRAPH). Interpolar matrices preservando la ortogonalidad de las matrices de rotación es muy engorroso y utilizar los ángulos de Euler ayuda poco. Las técnicas convencionales de interpolación para númeos reales se extienden de forma natural a los números complejos y a los cuaterniones. Interpolaciones suaves y rápidas de calcular que desde entonces se utilizan en todos los juegos por ordenador que presentan gráficos tridimensionales. En la actualidad, los cuaterniones son imprescindibles en robótica y en visión por ordenador, además de en gráficos por ordenador. Al final del s. XX, la guerra entre Kelvin y Tait fue ganada por este último. Hamilton vio cumplido su sueño en la industria de los videojuegos, 150 después de su descubrimiento, una industria que mueve más dinero en el mundo que la industria del cine (más de 100 mil millones de dólares en 2010).
Graham Hoare: “De la geometría a la gran explosión”
En 1907, Albert Einstein formuló el principio de equivalencia, un paso clave para el desarrollo de la teoría general de la relatividad. Su idea es simple en extremo, que los efectos de una aceleración son indistinguibles de los efectos de un campo gravitatorio uniforme, o dicho de otro modo, que la masa como “carga” gravitatoria y la masa inercial son equivalentes. Esta idea llevó a Einstein a concebir la gravedad como una curvatura del espaciotiempo. En 1915 publicó las ecuaciones de su teoría general que indican cómo la materia curva el espaciotiempo circundante. Las matemáticas que utilizó tienen su origen a mediados del siglo anterior. Bernhard Riemann introdujo los fundamentos de la geometría diferencial en 1854, en la defensa de su tesis de habilitación (una especie de tesis doctoral que era requisito para impartir clases en la universidad). Introdujo la geometría diferencial de espacios (hipersuperficies) de n dimensiones, llamadas variedades, y las nociones de métrica y curvatura. En los 1870, Bruno Christoffel extendió las ideas de Riemann e introdujo las conexiones afines y el concepto de transporte paralelo. El cálculo diferencial en variedades (o cálculo tensorial) alcanzó altas cotas de abstracción con los trabajos de Gregorio Ricci-Curbastro y su estudiante Tullio Levi-Civita (entre 1880 y los inicios del s. XX). Pero estas ideas tan abstractas no tenían ninguna aplicación práctica hasta que Albert Einstein en 1912, con la ayuda de su amigo matemático Marcel Grossman decidió utilizar este cálculo tensorial para articular su profunda visión física sobre el espaciotiempo.  Gracias a las variedades de Riemann en cuatro dimensiones (tres para el espacio y una para el tiempo), Einstein revolucionó nuestras ideas sobre la gravedad y sobre la evolución del universo. Las ecuaciones de Einstein no tenían ninguna solución estática, por lo que Einstein introdujo en 1917 una término adicional, la constante cosmológica con objeto de compensar la expansión natural del universo. Tras los trabajos teóricos de otros físicos, como Alexander Friedmann en 1922, y los resultados experimentales de Edwin Hubble, Einstein decidió en 1931 eliminar la constante cosmológica y calificar su inclusión como “el mayor error de su vida.” Hoy en día, tras la gran sorpresa de 1998, el concepto de energía oscura ha reintroducido la constante cosmológica.
Edmund Harris: “De las naranjas a los módems”
En 1998, de repente, las matemáticas fueron noticia en todos los medios. Thomas Hales (Universidad de Pittsburgh, Pennsylvania) había demostrado la conjetura de Kepler, que afirma que la mejor forma de apilar naranjas en una caja es la utilizada en todas las fruterías (el empaquetamiento de esferas más eficiente posible). Un problema que había estado abierto desde 1611, cuando lo propuso Johannes Kepler. En algunos medios de prensa y TV se llegó a decir “creo que es una pérdida de tiempo y dinero de los contribuyentes.” Hoy en día, las matemáticas del empaquetamiento de esferas se utilizan en ingeniería de comunicaciones y teoría de la información y de la codificación para planificar canales de comunicación y para desarrollar códigos correctores de errores. El problema de Kepler fue mucho más difícil de demostrar de lo que Kepler nunca pudo imaginar. De hecho, el problema más sencillo sobre la mejor forma de empaquetar círculos planos fue demostrado en 1940 por László Fejes Tóth.
Otro problema sencillo cuya solución costó muchos años fue el problema de las esferas que se besan, planteado en el siglo XVII por Isaac Newton y David Gregory: Dada una esfera, ¿cuántas esferas iguales que ésta pueden colocarse con la condición de que toquen a la inicial? En dos dimensiones es fácil demostrar que la respuesta es 6. Newton pensaba que 12 era el número máximo en 3 dimensiones. Lo es, pero la demostración tuvo que esperar al trabajo de Kurt Schütte y Bartel van der Waerden en 1953. Oleg Musin demostró en 2003 que el número de besos en 4 dimensiones es 24. En cinco dimensiones sólo se sabe que se encuentra entre 40 y 44. Sabemos la respuesta en ocho dimensiones, que es 240, como demostró Andrew Odlyzko en 1979. Más aún, en 24 dimensiones la respuesta es 196.560. Estas demostraciones son más sencillas que la del resultado en tres dimensiones y utilizan empaquetamiento de esferas mucho más complicados e increíblemente densos, la red E8 en 8 dimensiones y la red de Leech en 24 dimensiones.
Todo esto es muy bonito, pero ¿sirve para algo? En la década de 1960, un ingeniero llamado Gordon Lang diseñó los sistemas de comunicación por módem utilizando estos empaquetamientos de esferas multidimensionales. El problema de la comunicación analógica en una línea telefónica es el ruido. En una conversación entre dos personas el lenguaje natural es tan redundante que el ruido importa poco, pero para enviar datos es necesario introducir ciertas redundancias y utilizar técnicas correctoras de error, lo que reduce el ancho de banda del canal (la cantidad de información que se puede transmitir por segundo). Lang utilizó los empaquetamientos de esferas para lidiar con el ruido y aumentar al máximo el ancho de banda. Para ello utilizó una codificación basada en el empaquetamiento E8 (más tarde también se utilizó el de Leech). En la década de los 1970, el trabajo de Lang fue clave para el desarrollo temprano de la internet. Donald Coxeter, matemático que ayudó a Lang en su trabajo, dijo que estaba “horrorizado de que sus bellas teorías hubieran sido manchadas de esta manera por las aplicaciones.”
Juan Parrondo y Noel-Ann Bradshaw: “De una paradoja a las pandemias”
En 1992, dos físicos propusieron un dispositivo simple para convertir las fluctuaciones térmicas a nivel molecular en un movimiento dirigido: un motor browniano (Brownian ratchet) basado en alternar el encendido y el apagado de cierto campo. En 1996, la esencia matemática de este fenómeno fue capturada en el lenguaje de la teoría de juegos por la paradoja de Parrondo. Un jugador alterna dos juegos, en ambos juegos por separado la esperanza a largo plazo implica perder, sin embargo, alternar ambos juegos permite lograr a largo plazo una victoria. En general, se utiliza el término “efecto de Parrondo” para describir el resultado dos pruebas que combinadas logran un resultado diferente al de dichas pruebas individuales. El “efecto Parrondo” tiene muchas aplicaciones, como en el control de sistemas caóticos ya que permite que la combinación de dos sistemas caóticos conduzca a un comportamiento no caótico. También puede ser utilizado para modelar en dinámica de poblaciones la aparición de brotes de enfermedades víricas o en economía para predecir los riesgos de ciertas inversiones en bolsa.
Peter Rowlett: “De los jugadores a las aseguradoras”
En el siglo XVI, Girolamo Cardano fue un matemático y un jugador compulsivo. Por desgracia para él, perdió en el juego la mayor parte del dinero que había heredado. Por fortuna para la ciencia escribió lo que se considera el primer trabajo en teoría de la probabilidad moderna, “Liber de ludo aleae,” que acabó publicado en 1663. Un siglo después, otro jugador, Chevalier de Méré, tenía un truco que parecía muy razonable para ganar a los dados a largo plazo, pero perdió todo su dinero. Consultó a su amigo Blaise Pascal buscando una explicación. Pascal escribió a Pierre de Fermat en 1654. La correspondencia entre ellos sentó las bases de la teoría de la probabilidad. Christiaan Huygens estudió estos resultados y escribió la primera obra publicada sobre probabilidad, “Ratiociniis De Ludo Aleae” (publicada en 1657).
En el siglo XVII, Jakob Bernoulli reconoció que la teoría de la probabilidad podría aplicarse mucho más allá de los juegos de azar. Escribió “Ars Conjectandi” (publicado después de su muerte en 1713), que consolidó y amplió el trabajo en probabilidad de Cardano, Fermat, Huygens y Pascal. Bernoulli probó la ley de grandes números, que dice que cuanto mayor sea la muestra, más se parecerá el resultado muestral al de la población original. Las compañías de seguros deben limitar el número de pólizas que venden. Cada póliza vendida implica un riesgo adicional y el efecto acumulado podría arruinar la empresa. A partir del siglo XVIII, las empresas de seguros comenzaron a utilizar la teoría de probabilidades para sus políticas de ventas y para decidir los precios de los seguros con objeto de garantizar beneficios a largo plazo. La ley de Bernoulli de los grandes números es clave para seleccionar el tamaño de las muestras que permiten realizar predicciones fiables.
Julia Collins: “Desde un puente hasta el ADN”
Leonhard Euler inventó una nueva rama de las matemáticas cuando demostró en 1735 que no se podían atravesar los siete puentes de Königsberg en un solo viaje sin repetir ningún puente. En 1847, Johann Benedict Listing acuñó el término ”topología” para describir este nuevo campo. Durante los siguientes 150 años los matemáticos trabajaron en topología porque suponía un gran desafío intelectual, sin ninguna expectativa de que fuera a ser útil. Después de todo, en la vida real, la forma es muy importante (nadie confunde una taza de café con un dónut). ¿A quién le preocupan los agujeros de 5 dimensiones en un espacio de 11 dimensiones? Incluso ramas de la topología en apariencia muy prácticas, como la teoría de nudos, que tuvo su origen en los primeros intentos para comprender la estructura de los átomos, se pensó que eran inútiles durante la mayor parte de los XIX y XX.
Pero en la década de 1990, las aplicaciones prácticas de la topología comenzaron a aparecer. Lentamente al principio, pero ganando impulso hasta que ahora parece que hay pocas áreas de la ciencia en las que la topología no se utilice. Los biólogos utilizan la teoría de nudos para comprender la estructura del ADN. Los ingenieros en robótica utilizan la teoría para planificar las trayectores de los robots móviles. Las bandas de Möbius se utilizan para obtener cintas transportadoras más eficientes. Los médicos utilizan la teoría de la homología para hacer escaneos cerebrales y los cosmólogos las usan para comprender cómo se forman las galaxias. Las empresas de telefonía móvil utilizan la topología para identificar los lugares donde no hay cobertura de la red. E incluso en computación cuántica se están utilizando hilos trenzados para construir ordenadores cuánticos robustos. La topología permite usar los mismos teoremas para resolver problemas muy diversos, desde el ADN a los sistemas de GPS (Sistemas de Posicionamiento Global). ¿Hay alguna aplicación práctica donde no se utilice la topología?
Chris Linton: “Desde las cuerdas a la energía nuclear”
Las series de funciones seno y coseno fueron utilizadas por Leonard Euler y otros en el siglo XVIII para estudiar la dinámica de las vibraciones de cuerdas y para estudiar los movimientos de los cuerpos en mecánica celeste. Joseph Fourier, a principios del siglo XIX, reconoció la gran utilidad práctica de estas series para estudiar la conducción del calor y comenzó a desarrollar una teoría general de las mismas. A partir de entonces, las series de Fourier se utilizan por doquier, desde la acústica o la óptica, hasta los circuitos eléctricos. En la actualidad, los métodos de Fourier están en la base de gran parte de la ciencia y de la ingeniería modernas, en especial de las técnicas computacionales.
Sin embargo, las matemáticas de principios del siglo XIX eran inadecuadas para el desarrollo riguroso de las ideas de Fourier y aparecieron gran número de problemas de carácter técnico que desafiaron a muchas de las grandes mentes de la época. Costó mucho desarrollar nuevas técnicas matemáticas para poder resolver estas dificultades. En la década de 1830, Gustav Lejeune Dirichlet obtuvo la primera definición clara y útil del concepto de función. Bernhard Riemann en la década de 1850 y Henri Lebesgue en la década de 1900 obtuvieron nociones rigurosas de la integración de funciones. La convergencia de series infinitas resultó muy  resbaladiza al principio, pero se logró dominar gracias a Augustin-Louis Cauchy y a Karl Weierstrass, que trabajaron en la décadas de 1820 y 1850, respectivamente. En la década de 1870, los primeros pasos de Georg Cantor hacia una teoría abstracta de los conjuntos se iniciaron con el análisis de las diferencias entre funciones que no son iguales pero cuyas series de Fourier son idénticas.
En la primera década del siglo XX, el concepto de espacio de Hilbert fue clave para entender las propiedades de las series de Fourier. El matemático alemán David Hilbert y sus colegas definieron estos espacios de forma axiomática, algo que parecía muy alejado de las aplicaciones prácticas. Sin embargo, en la década de 1920, Hermann Weyl, Paul Dirac y John von Neumann reconocieron que este concepto era la piedra angular de la mecánica cuántica, ya que los estados posibles de un sistema cuántico son elementos de cierta clase de espacios de Hilbert. La mecánica cuántica es la teoría científica más exitosa de todos los tiempos. Sin ella, gran parte de nuestra tecnología moderna (el láser, los ordenadores, los televisores de pantalla plana, la energía nuclear, etc.) no existiría. Quien podía imaginar que problemas matemáticos abstractos relacionados con las propiedades matemáticas de las series de Fourier acabarían revolucionando la ciencia y la ingeniería del siglo XX, y acabarían conduciendo a la energía nuclear.

Una capa temporal

Fuente: Ciencia Kanija

Los físicos ocultan en el laboratorio eventos durante una billonésima de segundo.
En su batalla final contra el mal en la gran pantalla, Harry Potter podría haber usado un tipo de capa recientemente descubierto: ana que no oculta objetos en el espacio, sino en el tiempo.
Como directores de cine cortando juntos una película, los físicos han encontrado una forma de crear temporalmente un agujero en un haz de luz. Los eventos que tienen lugar durante un breve periodo de tiempo permanecen invisibles, así como el propio agujero.

Jugando con la luz © Crédito Corrêa Carvalho

Moti Fridman y sus colegas de la Universidad de Cornell informaron de la primera demostración experimental de tal “capa temporal” el 11 de julio en arXiv.org.
Aunque este truco no ocultaría a los ladrones de bancos de las cámaras de seguridad, podría encontrar utilidad en dispositivos electrónicos u ópticos.
Las anteriores capas de invisibilidad ocultaban objetos a la vista curvando la luz. De la misma forma que el agua fluye alrededor de una roca en mitad de un río, las ondas de luz se curvan alrededor de una capa y se vuelven a unir perfectamente en el otro lado, no dejando trazas de su desvío.
Una capa temporal oculta un evento cambiando la velocidad de la luz, no su dirección. Con la velocidad de la luz limitada a 299 792 458 metros por segundo, este truco funciona sólo cuando la luz viaja más lento de lo que lo haría en el vacío –como sucede en los cables de fibra óptica–.
El equipo de Cornell, que declinó una entrevista sobre el artículo pendiente de publicación, manipuló la luz en un cable de fibra óptica usando una lente temporal, un dispositivo de silicio desarrollado para acelerar la transferencia de datos. Parte de la luz que pasa a través de esta lente, acelera, y parte se frena. Las ondas se dividen, como hizo Moisés, creando un hueco de oscuridad. Una segunda lente más alejada en el cable vuelve a unir la luz de forma que llegue a su destino intacta, sin registro de huecos –o nada que haya sucedido durante esta breve ventana–.
El agujero duró unas 15 billonésimas de segundo, lo suficiente para ocultar pulsos de luz creados dentro de la capa, escriben los investigadores. Un cable más largo podría, en teoría, incrementar este hueco temporal a más de un microsegundo. Más allá de eso, las imperfecciones de la técnica se harían lo bastante grandes para revelar la presencia del hueco.
“Esto es un hueco temporal mucho mayor de lo que pensábamos que sería posible”, dice Paul Kinsler, físico del Imperial College de Londres.
Kinsler y sus colegas describieron por primera vez la idea de una capa temporal en un artículo publicado en febrero en la revista Journal of Optics. Su perfectamente indetectable capa temporal requería de metamateriales exóticos, estructuras artificiales usadas en las capas de invisibilidad tradicional.
“Necesitarías metamateriales que cambiasen sus propiedades en el tiempo así como en el espacio”, dice el miembro del equipo Martin McCall, también en el Imperial College de Londres. “Actualmente está más allá de la tecnología de metamateriales producir esa situación ideal”.
La imperfecta capa de Cornell, que no está hecha con metamateriales, puede ser útil para procesado de señales. Podría, en teoría, interrumpir un flujo de datos, permitir que se procese otro, y luego reconstituir la señal original para un detector que no tuviese constancia de la interrupción.
Los huecos temporales mayores a escala cotidiana, sin embargo, son improbables. Incluso con una capa de metamaterial perfecta teóricamente, un hueco de apenas ocho minutos requeriría un dispositivo del tamaño del Sistema Solar, estima McCall.

Autor: Devin Powell
Fecha Original: 14 de julio de 2011
Enlace Original

Energía oscura observada en el fondo de microondas cósmico

Fuente: Ciencia Kanija

Artículo publicado por Colin Stuart el 15 de julio de 2011 en physicsworld.com
Los astrónomos que estudian el fondo de microondas cósmico (CMB) han descubierto una nueva prueba directa de la energía oscura – la misteriosa sustancia que parece acelerar la expansión del universo. Sus hallazgos podrían también ayudar cartografiar la estructura de la materia oscura en las mayores escalas de longitud del universo.
El CMB es el débil resplandor restante del inicio del universo en el Big Bang. Alrededor de 400 000 años después de su creación, el universo se había enfriado lo suficiente para permitir que los electrones se uniesen a los núcleos atómicos. Esta “recombinación” liberó la radiación del CMB de la densa bruma de plasma que la contenía. Telescopios espaciales tales como WMAP y Planck han cartografiado el CMB y encontraron su presencia en todas las partes del cielo, con una temperatura de 2,7 K. No obstante, las medidas también mostraron minúsculas fluctuaciones en esta temperatura en una escala de una parte por millón. Estas fluctuaciones siguen una distribución Gaussiana.

Fondo de Microondas Cósmico © Crédito Undertow851

En los dos primeros artículos, un equipo de astrónomos que incluye a Sudeep Das de la Universidad de California en Berkeley, ha descubierto fluctuaciones en el CMB que se desvían de esta distribución Gaussiana. Las desviaciones, observadas con el Telescopio de Cosmología de Atacama en Chile, están provocadas por interacciones con estructuras de gran escala del universo, tales como cúmulos galácticos. “De media, un fotón del CMB se habrá encontrado alrededor de 50 estructuras a gran escala antes de llegar a nuestro telescopio”, comenta Das a physicsworld.com. “La influencia gravitatoria de estas estructuras, que están dominadas por cúmulos masivos de materia oscura, desviarán el camino del fotón”, añade. Este proceso, conocido como “lente”, finalmente suma a una desviación total de alrededor de 3 minutos de arco – una vigésima de grado.
Energía oscura vs estructura
En el segundo artículo, Das, junto con Blake Sherwin de la Universidad de Princeton y Joanna Dunkley de la Universidad de Oxford, observan cómo las lentes podrían revelar la energía oscura. La energía oscura actúa para contrarrestar el surgimiento de estructuras dentro del universo. Un universo sin energía oscura tendría una gran cantidad de estructuras. Como resultado, los fotones del CMB sufrirían un efecto de lente mayor y las fluctuaciones se desviarían más de la distribución Gaussiana original.
Sin embargo, se encontró que era al contrario. “Vimos muy poco efecto lente para que tuviese en cuenta un universo sin energía oscura”, dice Sherwin a physicsworld.com. “De hecho, la cantidad de efecto lente que vemos es consistente con la cantidad de energía oscura que se esperaría ver en otras medidas”.
Esta es la primera vez que se ha deducido la energía oscura a partir de medidas sólo del CMB. Las medidas convencionales del CMB sólo revelan detalles sobre los inicios del universo, una época anterior a las estrellas y galaxias. Para construir una imagen de la evolución del universo, estos resultados tienen que combinarse con una medida adicional tal como la constante de Hubble. Sin embargo, los fotones del CMB observados en este trabajo se vieron desviados por el despliegue evolutivo del universo. “Esta información perdida está recopilándose ahora”, explica Sherwin.
“Retazos de pruebas”
El hecho de que esta sea una prueba directa, en lugar de depender de una segunda medida, emociona a Stephen Boughn, cosmólogo de Haverford College en Estados Unidos. “Actualmente sólo tenemos dos pruebas directas de la energía oscura. Cualquier prueba adicional que indique su existencia es muy importante”, dice. “Queremos retazos de pruebas, de lugares muy distintos, sólo para asegurarnos de que toda la descripción se mantiene unida. Este trabajo ayuda a eso”.
Boughn también cree que los hallazgos podrían ayudar a revelar cómo se distribuye la materia oscura a través del universo a grandes escalas. La materia oscura tiene los mismos efectos gravitatorios que la materia normal, pero no interactúa con la radiación electromagnética y, por tanto, no puede verse directamente. “Hay muchas simulaciones, pero pocas observaciones, que sugieran que la materia oscura del universo esté estructurada”, comenta. Pero debido a que el efecto lente del fondo de microondas depende de cómo se acumule la materia oscura, experimentos futuros que midan estas distorsiones del CMB deberían ser capaces de calcular cómo se distribuye la materia oscura a gran escala.
Ambos artículos se publican en la revista Physical Review Letters.

Artículos de Referencia:
Phys. Rev. Lett. 107021301
Phys. Rev. Lett. 107021302
Autor: Colin Stuart
Fecha Original: 18 de julio de 2011
Enlace Original

Grafeno para almacenar electricidad

Fuente: Neofronteras
Diversas investigaciones sobre sistemas de almacenamiento de electricidad en proyecto usan el grafeno.
Foto
Fuente: Gengping Jiang.
En el mundo actual hemos llegado a la paradoja de que un cartón de zumo de naranja 100% vale bastante menos que un litro de gasolina o gasóleo. No importa que para el primero se necesiten árboles, fertilizantes, cuidados y mucha mano de obra y que para el segundo sólo haga falta hacer un agujero en el suelo y luego separar el producto obtenido en distintos tipos de sustancias.
Es verdad que en el segundo caso hay muchos más impuestos que en el primero, pero no deja de ser una paradoja de la que no nos damos cuenta. El petróleo, además de empezar a escasear, es un producto sobre el que se especula bastante.
Lo ideal sería prescindir del petróleo y usar automóviles eléctricos. El precio por kilómetro recorrido sería muy inferior a usar gasolina, pues el motor eléctrico es muy eficiente. Además de ahorrar dinero estaríamos reduciendo las emisiones de gases de efecto invernadero si parte de esa electricidad procede de fuentes alternativas de energía.
Pero al salir a la calle o a las carreteras no vemos esos vehículos eléctricos. Los pocos que hay son muy caros y tienen una autonomía muy reducida. La culpa la tienen la grandes, caras y pesadas baterías que se usan (da igual el tipo).
Mientras que los gobiernos maquinan en la sombra cómo perpetrar la imposición de nuevos impuestos sobre la electricidad dedicada a la automoción y a otros fines (o sobre células solares o molinillos por si te da por instalarlos en tu casa) o planifican nuevas tarifas para que las compañías eléctricas sigan lucrándose, la industria y los laboratorios siguen investigando sobre nuevos sistemas de almacenamiento de energía eléctrica. Aunque de momento su comercialización ha sido lenta o inexistente.
A veces esas nuevas maneras de almacenamiento provienen de sistemas curiosos. Un grupo de investigadores de la Universidad de Monash ha conseguido que con dos materiales tan corrientes como el grafito y el agua un almacenamiento de energía igual que el conseguido con baterías de litio convencionales. Pero la gran ventaja en este caso es que la carga se efectúa en cuestión de segundos y que el sistema tiene una vida prácticamente ilimitada.
El sistema consiste en un condensador hecho de grafeno. Recordemos que el grafeno no es más que las capas que componen el grafito (el material negro de los lápices), una red hexagonal de átomos de carbono. Es un material que está de moda y que parece prometer un montón de aplicaciones. La ventaja que tiene como material para supercondensadores es que es un buen conductor y presenta una gran relación superficie/peso, que es lo mismo que decir energía/peso si lo usamos de ese modo.
Lo malo es que esa gran superficie desaparece en el momento que juntamos muchas de estas capas de grafeno, pues unas se pegan a las otras espontáneamente. Al fin y al cabo, tratan de formar grafito otra vez, que es una forma más estable de carbono que el grafeno.
Estos investigadores han descubierto que el agua puede evitar que esas capas se peguen unas a otra y que entren en contacto. Esto permite apilar muchas de ellas sin problemas. El producto obtenido es una especie de gel de grafeno que puede ser usado en diversas aplicaciones, como dispositivos biomédicos, sensores y en membranas de purificación, pero que además se puede emplear para almacenar electricidad. Con este gel se pueden fabricar un supercondensador que igualaría las prestaciones en almacenamiento de energía, a igualdad de peso, de las baterías de litio. Pero, además, el grafito y el agua son sustancias muy baratas y fáciles de conseguir. ¿Demasiado bonito para ser cierto?
Pero si todavía creemos que las baterías de litio son una mejor opción quizás nos interese el resultado logrado en la Universidad de Stanford. Allí han conseguido nuevas baterías de litio en las que el azufre y el grafeno hacen que tengan mejores prestaciones que las tradicionales. En ellas el cátodo está formado grafeno y azufre, mientras que el ánodo está fabricado en silicio.
Al parecer, el punto débil de las baterías de litio es el material del cátodo. Mientras que la capacidad del ánodo está en 370 mAh/g para el grafito o 4200 mAh/g para el silicio, para el cátodo sólo se llega a los 150 mAh/g para ciertos óxidos o los 170 mAh/g para el LiFe-PO4. Esto provoca un ciclo de vida corto, una baja capacidad y una eficiencia energética reducida.
Desde hace tiempo se sabía que el azufre podría tener mejores prestaciones como cátodo, pero su baja conductividad era un escollo. Para mejorar esta conductividad se intentó otros elementos mezclados con él. Aunque previamente se descubrió que ciertas mezclas de carbono y azufre aumentaba la capacidad de los cátodos hasta los 1000 mAh/g, el número posibles ciclos de carga era muy bajo. El uso del grafeno parece solucionar este problema.
El proceso de fabricación permite la creación de partículas de azufre submicrónicas envueltas en grafeno. En un primer paso se recubre las partículas de azufre con polietileno glicol, que impide su disolución y aumenta el número de ciclos de carga. Luego se recubre con grafeno dichas partículas para así mejorar su conductividad. El sistema permite atrapar los polisulfitos generados y acomodar la expansión del azufre en los procesos de carga.
Foto
Este sistema permite una capacidad en el cátodo de 500- 600 mAh/g y más de 100 ciclos de carga. Además, después de esos 100 ciclos de carga la capacidad sólo baja un 10-15%.
Este nuevo cátodo permitiría, por tanto, baterías con una densidad de almacenamiento de energía mejor que cualquier otra de hoy en día. Aunque previamente necesitarán mejorar las prestaciones en cuanto al número de ciclos de carga.
Si todo sale bien quizás podamos tener cámaras o portátiles alimentados por baterías Li-S en el futuro.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3557
Fuentes y referencias:
Nota de prensa.
Noticia en Technology Review.
Artículo original.