lunes, 25 de julio de 2011

Experimento del Fermilab descubre un pariente pesado del neutrón

Fuente: Ciencia Kanija


Artículo publicado por Rhianna Wisniewski el 20 de julio de 2011 en Symmetry Breaking
Científicos de la colaboración CDF del Laboratorio del Acelerador Nacional Fermi del Departamento de Energía anunciaron la observación de una nueva partícula, el neutro Xi-sub-b (Ξb0). Esta partícula contenía tres quarks: Un quark strange, un quark up y uno bottom(s-u-b-) Aunque su existencia se predice en el Modelo Estándar, la observación del neutro Xi-sub-b es significativo debido a que refuerza nuestra comprensión de cómo los quarks forman la materia. El físico de Fermilab, Pat Lukens, miembro de la colaboración CDF, presentó el descubrimiento en el Fermilab el miércoles 20 de julio.

Sala de control de CDF © Crédito solarnu

El neutro Xi-sub-b es la última entrada en la tabla periódica de bariones. Los bariones son partículas formadas por tres quarks, siendo los ejemplos más comunes el protón (dos quarks up y uno down) y el neutrón (dos quarks down y uno up). El  neutro Xi-sub-b pertenece a la familia de los bariones bottom, que son aproximadamente seis veces más pesados que el protón y el neutrón debido a que contienen un quark bottom más pesado. Las partículas se producen sólo en colisiones de alta energía, y son raras y difíciles de observar.
Aunque el colisionador de partículas Tevatron del Fermilab no es una fábrica dedicada a la creación de quarks bottom, los sofisticados detectores de partículas y los billones de colisiones protón-antiprotón han creado un paraíso para el descubrimiento y estudio de casi todos los bariones bottom conocidos. Los experimentos del Tevatron descubrieron los bariones Sigma-sub-b (Σb y Σb*) en 2006, observaron el barión  Xi-b-menos (Ξb-) en 2007, y encontraron el Omega-sub-b (Ωb-) en 2009. El barión bottom más ligero, el Lambda-sub-b (Λb), se descubrió en el CERN. Medir las propiedades de todas estas partículas permite a los científicos poner a prueba y mejorar los modelos de cómo interactúan los quarks a distancias cortas a través de la fuerza nuclear fuerte, como se explica en la teoría de la cromodinámica cuántica (QCD). Los científicos del Fermilab y otros laboratorios nacionales del Departamento de Energía usan potentes ordenadores para simular las interacciones de quarks y comprender las propiedades de las partículas formadas por quarks.
Una vez producidos, los neutros Xi-sub-b viajan una fracción de milímetro antes de decaer en partículas más ligeras. Estas partículas decaen de nuevo en partículas aún más ligeras. Los físicos dependen de los detalles de esta serie de decaimientos para identificar las partículas iniciales. El complejo patrón de decaimiento del neutro Xi-sub-b ha hecho la observación de esta partícula significativamente más complicada que la de su hermano cargado (Ξb-). Filtrando casi 500 billones de colisiones protón-antiprotón producidas en el colisionador de partículas Tevatron del Fermilab, la colaboración CDF aisló 25 ejemplos en los que las partículas que surgen de una colisión revelaron una firma distintiva del neutro Xi-sub-b. El análisis estableció el descubrimiento en un nivel de 7 sigma. Los científicos consideran 5 sigma el umbral para los descubrimientos.
CDF también re-observó la versión cargada ya conocida del neutro Xi-sub-b en un decaimiento nunca observado antes, que sirvió como chequeo cruzado independiente del análisis. Las muestras de datos recién analizados ofrecen posibilidades de nuevos descubrimientos.
La colaboración CDF envió un artículo que resume los detalles de su descubrimiento Xi-sub-b a la revista Physical Review Letters. Está disponible en el servidor de arXiv desde el 20 de julio de 2011.
CDF es un experimento internacional de aproximadamente 500 físicos de 58 instituciones en 15 países. Está patrocinada por el Departamento de Energía de los Estados Unidos, la Fundación Nacional de Ciencia y un número de agencias internacionales de patrocinio.
Fermilab es un laboratorio nacional patrocinado por la Oficina de Ciencia del Departamento de Energía de los Estados Unidos, gestionado bajo contrato por la Alianza de Investigación Fermi, LLC.

Autor: Rhianna Wisniewski
Fecha Original: 20 de julio de 2011
Enlace Original

Cuestionando las reglas del juego

Fuente: Ciencia Kanija

Artículo publicado por Časlav Brukner el 11 de julio de 2011 en APS
¿Puede la teoría cuántica derivarse a partir de principios más fundamentales?
Sabemos cómo usar las “reglas” de la física cuántica para construir láseres, microchips y plantas de energía nuclear, pero cuando los estudiantes cuestionan las propias reglas, la mejor respuesta que damos a menudo es, “El mundo parece funcionar así”. Pero, ¿por qué hay salidas individuales en una medida cuántica aleatoria? ¿Cuál es el origen de la Ecuación de Schrödinger? En un artículo1 que aparece en Physical Review A, Giulio Chiribella del Instituto Perimeter en Waterloo, Canadá, y Giacomo Mauro D’Ariano y Paolo Perinotti de la Universidad de Pavía en Italia, ofrecen un marco de trabajo en el cual responder estas penetrantes cuestiones. Demuestran que haciendo seis suposiciones básicas sobre cómo se procesa la información, pueden derivar la teoría cuántica. (Hablando con propiedad, su derivación sólo se aplica a sistemas que pueden construirse a partir de un número finito de estados cuánticos, tales como el espín). En este sentido, el trabajo de Chiribella et al. sigue el espíritu de la creencia de John Wheeler de que se obtiene “del bit”, en otras palabras, que nuestra visión del universo se construye a partir de bits de información, y que las reglas de cómo puede obtenerse dicha información determinan el “sentido” de lo que llamamos partículas y campos.

Figura 1 © Crédito Alan Stonebraker

En lugar de obtener el significado de la teoría cuántica a partir del uso de las matemáticas para calcular funciones de onda y niveles de energía, las reconstrucciones basadas en principios de la teoría cuántica intentan extraer su significado junto con el “formalismo”, mientras derivan la teoría a partir de unos principios físicos más profundos2. En el pasado, una inmensa mayoría de intentos de encontrar un conjunto de principios físicos tras la teoría cuántica (muy notablemente dentro de la aproximación lógica cuántica de la década de 1960), se quedaban cortas sólo derivando la teoría cuántica, o estaban basadas en suposiciones matemáticas abstractas que por sí mismas necesitaban una motivación física más definitiva. El auge de la ciencia de la información cuántica incrementó la consciencia de que la información – el concepto clave para comprender, por ejemplo, por qué estados cuánticos desconocidos no pueden ser clonados, o la posibilidad del teletransporte de estados cuánticos – desempeña un papel fundamental en la física cuántica en comparación con la física clásica3.
En su trabajo original de 2001, Lucien Hardy (actualmente en el Instituto Perimeter) reabrió el campo derivando la teoría cuántica a partir de cinco axiomas “razonables”4. La reconstrucción de Hardy se desarrolló por completo dentro de lo que se conoce como aproximación operacional: En lugar de usar ideas como posición, momento o energía de la física “tradicional”, el foco está en las operaciones de laboratorio primitivas5, tales como de qué forma se prepara un estado, se transforma y se mide (Fig. 1). En esta imagen, es estado de un sistema está determinado por la preparación del procedimiento, y representa el objeto matemático a partir del cual se puede calcular la probabilidad de cualquier medida concebible. Los estados puros son aquellos que no pueden escribirse como mezclas probabilísticas de otros estados y los cuales corresponden a situaciones de conocimiento máximo sobre la preparación del sistema. En la reconstrucción de Hardy, sin embargo, quedaba la incómodo posibilidad de que la teoría cuántica sea justo la teoría “más simple” en una jerarquía de teorías probabilísticas, en la cual cada teoría “inferior” es un caso especial de la “superior”. (Esto es análogo a tener una teoría de probabilidad clásica como un caso especial de la teoría cuántica). Más tarde se demostró5, y la prueba se refinó posteriormente6, que de todas las teorías de la jerarquía, sólo la teoría cuántica es consistente con la idea de entrelazamiento – una piedra angular de la teoría cuántica.
Aunque usan la aproximación operacional, Chiribella et al. siguen, no obstante, una ruta completamente distinta para derivar la teoría cuántica1. Asumen cinco nuevos axiomas elementales – causalidad, distinguibilidad perfecta, compresión ideal, distinguibilidad local y condicionamiento puro – los cuales definen una clase más amplia de teorías de procesado de información. Por ejemplo, el axioma de causalidad – que afirma que no se puede señalar medidas futuras desde preparaciones pasadas – es tan básico que normalmente se asume a priori. Tanto la teoría clásica como la cuántica completan los cinco axiomas. Lo significativo sobre el trabajo de Chiribella et al.es que demuestra que un sexto axioma – la suposición de que cada estado tiene lo que se conoce como “purificación” – es lo que distingue a la teoría cuántica dentro de la clase. De hecho, este último axioma es tan importante que lo conocen como postulado. El postulado de la purificación puede definirse formalmente (ver abajo), pero para comprender su significado en palabras simples, podemos mirar a Schrödinger, que al describir el entrelazamiento da la esencia del postulado: “El máximo conocimiento de un sistema total no necesariamente incluye el máximo conocimiento de todas sus partes”. (Formalmente, el postulado de purificación dice que cada estado mezclado ρA de un sistema A siempre puede verse como un estado que pertenece a una parte de un sistema compuesto AB que él mismo está en un estado puro ΨAB. Este estado puro se conoce como “purificación” y se asume que es único hasta una información reversible en B).
Chiribella et al. Concluyen que sólo hay una forma en la que una teoría pueda satisfacer el postulado de la purificación: Debe contener estados entrelazados. (La otra opción, que la teoría no debe contener estados mezclados, es decir, que las probabilidades de las salidas de cualquier medida son 0 ó 1 como en la teoría determinista clásica, no se sostiene, dado que no se pueden preparar siempre estados mezclados uniendo unos deterministas). El postulado de purificación permite él solo algunas de las características clave para que se derive el procesado de información cuántica, tales como el teorema de no clonado o teletransporte7. Combinando este postulado con los otros cinco axiomas, Chiribella et al. fueron capaces de derivar todo el formalismo matemático tras la teoría cuántica.
Pero, ¿cuál es el significado final del postulado de purificación? Después de todo, aprenderemos poco sobre la teoría cuántica si la derivamos a partir de axiomas que son igualmente opacos. Una posible respuesta a esta cuestión podría encontrarse en un artículo no publicado poco conocido escrito por Heisenberg 8,9 en 1935, titulado: “Is a deterministic completion of quantum mechanics possible? (¿Es posible una finalización determinista de la mecánica cuántica?)” En la cual esboza su propia respuesta al famoso artículo de Einstein, Podolsky y Rosen del mismo año. En el artículo, Heisenberg defiende que es necesario hacer una división epistemológica entre el “sistema” y el “dispositivo de medida”, una división a la que se refiere como “corte”. Heisenberg estaba tratando de comprender si una predicción para lograr una salida con un dispositivo clásico  que mide un sistema cuántico es la misma sin importar si el sistema y el dispositivo de medida están descritos por funciones de onda cuántica y se miden por otro dispositivo: “¿En qué lugar deberíamos trazar el corte entre la descripción por funciones de onda y la descripción clásica?”. La respuesta a esta pregunta es: las predicciones de la mecánica cuántica sobre la salida de un experimento arbitraria son independientes de la posición del corte debatido”.
La afirmación de Heisenberg puede comprenderse en términos del postulado de purificación. Cualquier medida en el “sistema” puede verse como una medida sobre el “dispositivo de medida” donde una composición de ambos está en un estado puro adecuado. Por tanto, la predicción de la medida es la misma, independientemente de dónde se coloque el “corte” – inmediatamente después del “sistema” o sólo después del “dispositivo de medida”. En una teoría que es probabilística y a en el mismo tiempo universal, en el sentido que un estado puro puede ser adscrito a cualquier sistema, el postulado de purificación asegura la consistencia de las asignaciones de probabilidad independientemente de lo que el observador elige considerar como “sistema bajo observación”.
Tener principios a partir de los cuales poder reconstruir una teoría física conocida está bien, pero, ¿puede esto ayudarnos en la búsqueda de una nueva física? Como en cualquier reconstrucción axiomática, se puede preguntar cómo cambian los resultados de et al. cuando se debilitan o modifican los principios. La generalización más radical de su trabajo1 sería abandonar la suposición de causalidad. Ya hay en marcha investigaciones para el desarrollo de marcos de trabajo que no presumen un espacio-tiempo subyacente o estructuras causales fijas 10, 11 y 12 y probablemente tendrán consecuencias para el programa de unificación de teoría cuántica y relatividad general.

Referencias:
1.- G. Chiribella, G. D’Ariano, and P. Perinotti, Phys. Rev. A 84, 012311 (2011).
2.- A. Zeilinger, Found. Phys. 29, 631 (1999); Č. Brukner and A. Zeilinger, in Time, Quantum and Information, edited by L. Castell and O. Ischebeck (Springer, New York, 2003)[Amazon][WorldCat]
3.- C. Fuchs, in Proceedings of the NATO Advanced Research Workshop on Decoherence and its Implications in Quantum Computation and Information Transfer, Mykonos, Greece, 2000, edited by A. Gonis (IOS Press, Amsterdam, 2001)[Amazon][WorldCat]; arXiv:quant-ph/0106166.
4.- L. Hardy, arXiv/quant-ph/0101012 (2001).
5.- B. Dakic and Č. Brukner, in Deep Beauty, edited by Hans Halvorson (Cambridge University Press, New York, 2011)[Amazon][WorldCat]; arXiv:0911.0695 (2009).
6.- L. Masanes and M. P. Mueller, New J. Phys. 13, 063001 (2011).
7.- G. Chiribella, G. M. D’Ariano, and P. Perinotti, Phys. Rev. A 81, 062348 (2010).
8.- W. Pauli, Wissenschaftlicher Briefwechsel mit Bohr, Einstein, Heisenberg, Vol. 2, edited by K. von Meyenn, A. Hermann, and V. F. Weisskopf, (Springer, Berlin, 1985), pp. 1930-1939.
9.- For the English translation of Heisenberg’s manuscript with a brief introduction and bibliography see E. Crull and G. Bacciagaluppi, http://philsci-archive.pitt.edu/8590/.
10.- L. Hardy, arXiv:gr-qc/0509120v1 (2005).
11.- G. Chiribella, G. M. D’Ariano, P. Perinotti, and B. Valiron, arXiv:0912.0195v2 (2009).
12.- O. Oreshkov, F. Costa, and Č. Brukner, arXiv:1105.4464 (2011).
Autor: Časlav Brukner
Fecha Original: 11 de julio de 2011
Enlace Original

jueves, 21 de julio de 2011

Computación similar a la biológica

Fuente: Neofronteras

Usan un material para crear una célula que procesa y almacena información de manera semejante a los sistemas biológicos.
Foto
Tarde o temprano nuestra actual tecnología de microchips alcanzará los límites físicos y no se podrán reducir más sus componentes. El computador cuántico aún tardará, así que hay que buscar nuevos sistemas y arquitecturas que nos permitan seguir aumentando nuestra potencia de cómputo.
Una guía de por donde podemos ir nos lo pueden dar los “cuellos de botella” de nuestros actuales computadores. Uno de ellos es la separación entre microprocesador y memoria RAM. La información tiene que ir de uno a otro y eso consume mucho tiempo. La memoria caché se inventó precisamente para solventar en parte este problema, pero aún integrando en un solo chip memoria y procesador seguiremos teniendo el mismo problema.
Quizás nos podamos fijar en cómo funciona nuestro cerebro. En él los datos y procesamiento se dan en el mismo lugar.
Ahora, unos investigadores de la Universidad de Exeter han dado un paso más hacia se futuro computador que funcionase como un cerebro humano. Según el estudio que han realizado el procesado de información y su almacenamiento se puede llevar a cabo en el mismo dispositivo gracias a materiales que usen cambio de fase. Esta técnica podría revolucionar la computación haciendo que los computadores fueran más rápidos y eficientes energéticamente.
Para poder realizar estas funciones simultáneamente han usado materiales semiconductores que cambian de fase bajo ciertas circunstancias y han demostrado que pueden almacenar y procesar información simultáneamente. Además han demostrado experimentalmente por primera vez que con este sistema se pueden realizar las operaciones de computación habituales de propósito general como la adición, substracción, multiplicación y división. Aunque para este trabajo sólo han usado una única célula procesadora de cambio de fase.
Otro cosa aún más interesante es que este sistema puede usarse para crear neuronas artificiales y con sus sinapsis construir redes neuronales capaces de aprender por sí solas (las redes neuronales simuladas existen desde hace ya mucho tiempo, no se programan al detalle, sino que funcionan gracias a un entrenamiento previo que les hace aprender). Esto podría dar lugar a sistemas de computación similares a nuestros cerebros.
Según el investigador principal, David Wright, el hallazgo tiene grandes implicaciones en el desarrollo de formas de computación enteramente nuevas. Según él esta técnica podría potencialmente dar lugar a nuevas formas de computación que se asemejen a cómo el cerebro aprende y se adapta a lo largo del tiempo.
El próximo paso a dar por estos investigadores es conectar diversas células interconectadas que realicen funciones como la identificación de objetos y patrones.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3552
Fuentes y referencias:
Nota de prensa.
Artículo original.
Ilustración: Peter Fromherz.

Para qué sirven las matemáticas

Fuente: Francis (th)E mule News


Peter Rowlett nos presenta en Nature siete ejemplos que demuestran que el trabajo teórico de los matemáticos puede conducir a aplicaciones prácticas inesperadas. Muchos científicos e ingenieros descubren que las herramientas matemáticas que necesitan fueron desarrolladas hace muchos años, incluso hace siglos, por matemáticos que no tenían en mente ninguna aplicación práctica concreta. La vida de las herramientas matemáticas, si no tienen errores, es eterna; una vez que la comunidad de matemáticos está satisfecha con una solución a cierto problema matemático, por dicha solución no pasan los años. Sin embargo, con la crisis económica ha crecido el interés en buscar aplicaciones a los desarrollos matemáticos en su etapa germinal, cuando aún son meras ideas abstractas. El problema es que para un matemático predecir para qué pueden servir sus ideas raya lo imposible. No se pueden forzar las cosas y algunas aplicaciones de las matemáticas actuales aparecerán dentro de décadas o incluso siglos. Para ilustrarlo, Peter Rowlett nos presenta los siguiente siete ejemplos en ”The unplanned impact of mathematics,” Nature 475: 166–169, 14 July 2011. La Sociedad Británica para la Historia de las Matemáticas tiene abierta una convocatoria con objeto de recopilar más ejemplos, si conoces alguno puedes enviarlo siguiendo este enlace “The British Society for the History of Mathematics.”
Mark McCartney & Tony Mann: “De los cuaterniones a Lara Croft”
La historia de cómo descubrió los cuaterniones el matemático irlandés William Rowan Hamilton (1805–1865) el 16 de octubre 1843 mientras estaba caminando sobre el Puente de “Broome” en Dublín es muy conocida. Hamilton había estado buscando una manera de extender el sistema de números complejos a tres dimensiones de tal forma que permitiera describir las rotaciones tridimensionales respecto a un eje arbitrario como los números complejos describen las rotaciones bidimensionales. Su idea feliz ahora nos resulta casi obvia, no era posible hacerlo con ternas de números, las rotaciones tridimensionales requieren un sistema de números con cuatro componentes imaginarias. Si los números complejos son de la forma a + i b, donde a y b son números reales, e i es la raíz cuadrada de –1, entonces los cuaterniones deben tener la forma a + b i + c j + d k , donde las unidades imaginarias cumplen i 2 = j 2 = k 2 = ijk= –1.
Hamilton pasó el resto de su vida tratando de convencer a toda la comunidad de matemáticos de que los cuaterniones eran una solución elegante a múltiples problemas en geometría, mecánica y óptica. Tras su muerte, pasó el testigo a Peter Guthrie Tait (1831–1901), profesor de la Universidad de Edimburgo. William Thomson (Lord Kelvin) pasó más de 38 años discutiendo con Tait sobre la utilidad real de los cuaterniones. Kelvin prefería el cálculo vectorial, que a finales del siglo XIX eclipsó a los cuaterniones y los matemáticos del siglo XX, en general, consideran los cuaterniones como una hermosa construcción matemática sin ninguna utilidad práctica. Así fue hasta que por sorpresa, en 1985, el informático Ken Shoemake presentó la idea de interpolar rotaciones usando cuaterniones en el congreso de gráficos por computador más importante del mundo (el ACM SIGGRAPH). Interpolar matrices preservando la ortogonalidad de las matrices de rotación es muy engorroso y utilizar los ángulos de Euler ayuda poco. Las técnicas convencionales de interpolación para númeos reales se extienden de forma natural a los números complejos y a los cuaterniones. Interpolaciones suaves y rápidas de calcular que desde entonces se utilizan en todos los juegos por ordenador que presentan gráficos tridimensionales. En la actualidad, los cuaterniones son imprescindibles en robótica y en visión por ordenador, además de en gráficos por ordenador. Al final del s. XX, la guerra entre Kelvin y Tait fue ganada por este último. Hamilton vio cumplido su sueño en la industria de los videojuegos, 150 después de su descubrimiento, una industria que mueve más dinero en el mundo que la industria del cine (más de 100 mil millones de dólares en 2010).
Graham Hoare: “De la geometría a la gran explosión”
En 1907, Albert Einstein formuló el principio de equivalencia, un paso clave para el desarrollo de la teoría general de la relatividad. Su idea es simple en extremo, que los efectos de una aceleración son indistinguibles de los efectos de un campo gravitatorio uniforme, o dicho de otro modo, que la masa como “carga” gravitatoria y la masa inercial son equivalentes. Esta idea llevó a Einstein a concebir la gravedad como una curvatura del espaciotiempo. En 1915 publicó las ecuaciones de su teoría general que indican cómo la materia curva el espaciotiempo circundante. Las matemáticas que utilizó tienen su origen a mediados del siglo anterior. Bernhard Riemann introdujo los fundamentos de la geometría diferencial en 1854, en la defensa de su tesis de habilitación (una especie de tesis doctoral que era requisito para impartir clases en la universidad). Introdujo la geometría diferencial de espacios (hipersuperficies) de n dimensiones, llamadas variedades, y las nociones de métrica y curvatura. En los 1870, Bruno Christoffel extendió las ideas de Riemann e introdujo las conexiones afines y el concepto de transporte paralelo. El cálculo diferencial en variedades (o cálculo tensorial) alcanzó altas cotas de abstracción con los trabajos de Gregorio Ricci-Curbastro y su estudiante Tullio Levi-Civita (entre 1880 y los inicios del s. XX). Pero estas ideas tan abstractas no tenían ninguna aplicación práctica hasta que Albert Einstein en 1912, con la ayuda de su amigo matemático Marcel Grossman decidió utilizar este cálculo tensorial para articular su profunda visión física sobre el espaciotiempo.  Gracias a las variedades de Riemann en cuatro dimensiones (tres para el espacio y una para el tiempo), Einstein revolucionó nuestras ideas sobre la gravedad y sobre la evolución del universo. Las ecuaciones de Einstein no tenían ninguna solución estática, por lo que Einstein introdujo en 1917 una término adicional, la constante cosmológica con objeto de compensar la expansión natural del universo. Tras los trabajos teóricos de otros físicos, como Alexander Friedmann en 1922, y los resultados experimentales de Edwin Hubble, Einstein decidió en 1931 eliminar la constante cosmológica y calificar su inclusión como “el mayor error de su vida.” Hoy en día, tras la gran sorpresa de 1998, el concepto de energía oscura ha reintroducido la constante cosmológica.
Edmund Harris: “De las naranjas a los módems”
En 1998, de repente, las matemáticas fueron noticia en todos los medios. Thomas Hales (Universidad de Pittsburgh, Pennsylvania) había demostrado la conjetura de Kepler, que afirma que la mejor forma de apilar naranjas en una caja es la utilizada en todas las fruterías (el empaquetamiento de esferas más eficiente posible). Un problema que había estado abierto desde 1611, cuando lo propuso Johannes Kepler. En algunos medios de prensa y TV se llegó a decir “creo que es una pérdida de tiempo y dinero de los contribuyentes.” Hoy en día, las matemáticas del empaquetamiento de esferas se utilizan en ingeniería de comunicaciones y teoría de la información y de la codificación para planificar canales de comunicación y para desarrollar códigos correctores de errores. El problema de Kepler fue mucho más difícil de demostrar de lo que Kepler nunca pudo imaginar. De hecho, el problema más sencillo sobre la mejor forma de empaquetar círculos planos fue demostrado en 1940 por László Fejes Tóth.
Otro problema sencillo cuya solución costó muchos años fue el problema de las esferas que se besan, planteado en el siglo XVII por Isaac Newton y David Gregory: Dada una esfera, ¿cuántas esferas iguales que ésta pueden colocarse con la condición de que toquen a la inicial? En dos dimensiones es fácil demostrar que la respuesta es 6. Newton pensaba que 12 era el número máximo en 3 dimensiones. Lo es, pero la demostración tuvo que esperar al trabajo de Kurt Schütte y Bartel van der Waerden en 1953. Oleg Musin demostró en 2003 que el número de besos en 4 dimensiones es 24. En cinco dimensiones sólo se sabe que se encuentra entre 40 y 44. Sabemos la respuesta en ocho dimensiones, que es 240, como demostró Andrew Odlyzko en 1979. Más aún, en 24 dimensiones la respuesta es 196.560. Estas demostraciones son más sencillas que la del resultado en tres dimensiones y utilizan empaquetamiento de esferas mucho más complicados e increíblemente densos, la red E8 en 8 dimensiones y la red de Leech en 24 dimensiones.
Todo esto es muy bonito, pero ¿sirve para algo? En la década de 1960, un ingeniero llamado Gordon Lang diseñó los sistemas de comunicación por módem utilizando estos empaquetamientos de esferas multidimensionales. El problema de la comunicación analógica en una línea telefónica es el ruido. En una conversación entre dos personas el lenguaje natural es tan redundante que el ruido importa poco, pero para enviar datos es necesario introducir ciertas redundancias y utilizar técnicas correctoras de error, lo que reduce el ancho de banda del canal (la cantidad de información que se puede transmitir por segundo). Lang utilizó los empaquetamientos de esferas para lidiar con el ruido y aumentar al máximo el ancho de banda. Para ello utilizó una codificación basada en el empaquetamiento E8 (más tarde también se utilizó el de Leech). En la década de los 1970, el trabajo de Lang fue clave para el desarrollo temprano de la internet. Donald Coxeter, matemático que ayudó a Lang en su trabajo, dijo que estaba “horrorizado de que sus bellas teorías hubieran sido manchadas de esta manera por las aplicaciones.”
Juan Parrondo y Noel-Ann Bradshaw: “De una paradoja a las pandemias”
En 1992, dos físicos propusieron un dispositivo simple para convertir las fluctuaciones térmicas a nivel molecular en un movimiento dirigido: un motor browniano (Brownian ratchet) basado en alternar el encendido y el apagado de cierto campo. En 1996, la esencia matemática de este fenómeno fue capturada en el lenguaje de la teoría de juegos por la paradoja de Parrondo. Un jugador alterna dos juegos, en ambos juegos por separado la esperanza a largo plazo implica perder, sin embargo, alternar ambos juegos permite lograr a largo plazo una victoria. En general, se utiliza el término “efecto de Parrondo” para describir el resultado dos pruebas que combinadas logran un resultado diferente al de dichas pruebas individuales. El “efecto Parrondo” tiene muchas aplicaciones, como en el control de sistemas caóticos ya que permite que la combinación de dos sistemas caóticos conduzca a un comportamiento no caótico. También puede ser utilizado para modelar en dinámica de poblaciones la aparición de brotes de enfermedades víricas o en economía para predecir los riesgos de ciertas inversiones en bolsa.
Peter Rowlett: “De los jugadores a las aseguradoras”
En el siglo XVI, Girolamo Cardano fue un matemático y un jugador compulsivo. Por desgracia para él, perdió en el juego la mayor parte del dinero que había heredado. Por fortuna para la ciencia escribió lo que se considera el primer trabajo en teoría de la probabilidad moderna, “Liber de ludo aleae,” que acabó publicado en 1663. Un siglo después, otro jugador, Chevalier de Méré, tenía un truco que parecía muy razonable para ganar a los dados a largo plazo, pero perdió todo su dinero. Consultó a su amigo Blaise Pascal buscando una explicación. Pascal escribió a Pierre de Fermat en 1654. La correspondencia entre ellos sentó las bases de la teoría de la probabilidad. Christiaan Huygens estudió estos resultados y escribió la primera obra publicada sobre probabilidad, “Ratiociniis De Ludo Aleae” (publicada en 1657).
En el siglo XVII, Jakob Bernoulli reconoció que la teoría de la probabilidad podría aplicarse mucho más allá de los juegos de azar. Escribió “Ars Conjectandi” (publicado después de su muerte en 1713), que consolidó y amplió el trabajo en probabilidad de Cardano, Fermat, Huygens y Pascal. Bernoulli probó la ley de grandes números, que dice que cuanto mayor sea la muestra, más se parecerá el resultado muestral al de la población original. Las compañías de seguros deben limitar el número de pólizas que venden. Cada póliza vendida implica un riesgo adicional y el efecto acumulado podría arruinar la empresa. A partir del siglo XVIII, las empresas de seguros comenzaron a utilizar la teoría de probabilidades para sus políticas de ventas y para decidir los precios de los seguros con objeto de garantizar beneficios a largo plazo. La ley de Bernoulli de los grandes números es clave para seleccionar el tamaño de las muestras que permiten realizar predicciones fiables.
Julia Collins: “Desde un puente hasta el ADN”
Leonhard Euler inventó una nueva rama de las matemáticas cuando demostró en 1735 que no se podían atravesar los siete puentes de Königsberg en un solo viaje sin repetir ningún puente. En 1847, Johann Benedict Listing acuñó el término ”topología” para describir este nuevo campo. Durante los siguientes 150 años los matemáticos trabajaron en topología porque suponía un gran desafío intelectual, sin ninguna expectativa de que fuera a ser útil. Después de todo, en la vida real, la forma es muy importante (nadie confunde una taza de café con un dónut). ¿A quién le preocupan los agujeros de 5 dimensiones en un espacio de 11 dimensiones? Incluso ramas de la topología en apariencia muy prácticas, como la teoría de nudos, que tuvo su origen en los primeros intentos para comprender la estructura de los átomos, se pensó que eran inútiles durante la mayor parte de los XIX y XX.
Pero en la década de 1990, las aplicaciones prácticas de la topología comenzaron a aparecer. Lentamente al principio, pero ganando impulso hasta que ahora parece que hay pocas áreas de la ciencia en las que la topología no se utilice. Los biólogos utilizan la teoría de nudos para comprender la estructura del ADN. Los ingenieros en robótica utilizan la teoría para planificar las trayectores de los robots móviles. Las bandas de Möbius se utilizan para obtener cintas transportadoras más eficientes. Los médicos utilizan la teoría de la homología para hacer escaneos cerebrales y los cosmólogos las usan para comprender cómo se forman las galaxias. Las empresas de telefonía móvil utilizan la topología para identificar los lugares donde no hay cobertura de la red. E incluso en computación cuántica se están utilizando hilos trenzados para construir ordenadores cuánticos robustos. La topología permite usar los mismos teoremas para resolver problemas muy diversos, desde el ADN a los sistemas de GPS (Sistemas de Posicionamiento Global). ¿Hay alguna aplicación práctica donde no se utilice la topología?
Chris Linton: “Desde las cuerdas a la energía nuclear”
Las series de funciones seno y coseno fueron utilizadas por Leonard Euler y otros en el siglo XVIII para estudiar la dinámica de las vibraciones de cuerdas y para estudiar los movimientos de los cuerpos en mecánica celeste. Joseph Fourier, a principios del siglo XIX, reconoció la gran utilidad práctica de estas series para estudiar la conducción del calor y comenzó a desarrollar una teoría general de las mismas. A partir de entonces, las series de Fourier se utilizan por doquier, desde la acústica o la óptica, hasta los circuitos eléctricos. En la actualidad, los métodos de Fourier están en la base de gran parte de la ciencia y de la ingeniería modernas, en especial de las técnicas computacionales.
Sin embargo, las matemáticas de principios del siglo XIX eran inadecuadas para el desarrollo riguroso de las ideas de Fourier y aparecieron gran número de problemas de carácter técnico que desafiaron a muchas de las grandes mentes de la época. Costó mucho desarrollar nuevas técnicas matemáticas para poder resolver estas dificultades. En la década de 1830, Gustav Lejeune Dirichlet obtuvo la primera definición clara y útil del concepto de función. Bernhard Riemann en la década de 1850 y Henri Lebesgue en la década de 1900 obtuvieron nociones rigurosas de la integración de funciones. La convergencia de series infinitas resultó muy  resbaladiza al principio, pero se logró dominar gracias a Augustin-Louis Cauchy y a Karl Weierstrass, que trabajaron en la décadas de 1820 y 1850, respectivamente. En la década de 1870, los primeros pasos de Georg Cantor hacia una teoría abstracta de los conjuntos se iniciaron con el análisis de las diferencias entre funciones que no son iguales pero cuyas series de Fourier son idénticas.
En la primera década del siglo XX, el concepto de espacio de Hilbert fue clave para entender las propiedades de las series de Fourier. El matemático alemán David Hilbert y sus colegas definieron estos espacios de forma axiomática, algo que parecía muy alejado de las aplicaciones prácticas. Sin embargo, en la década de 1920, Hermann Weyl, Paul Dirac y John von Neumann reconocieron que este concepto era la piedra angular de la mecánica cuántica, ya que los estados posibles de un sistema cuántico son elementos de cierta clase de espacios de Hilbert. La mecánica cuántica es la teoría científica más exitosa de todos los tiempos. Sin ella, gran parte de nuestra tecnología moderna (el láser, los ordenadores, los televisores de pantalla plana, la energía nuclear, etc.) no existiría. Quien podía imaginar que problemas matemáticos abstractos relacionados con las propiedades matemáticas de las series de Fourier acabarían revolucionando la ciencia y la ingeniería del siglo XX, y acabarían conduciendo a la energía nuclear.

Una capa temporal

Fuente: Ciencia Kanija

Los físicos ocultan en el laboratorio eventos durante una billonésima de segundo.
En su batalla final contra el mal en la gran pantalla, Harry Potter podría haber usado un tipo de capa recientemente descubierto: ana que no oculta objetos en el espacio, sino en el tiempo.
Como directores de cine cortando juntos una película, los físicos han encontrado una forma de crear temporalmente un agujero en un haz de luz. Los eventos que tienen lugar durante un breve periodo de tiempo permanecen invisibles, así como el propio agujero.

Jugando con la luz © Crédito Corrêa Carvalho

Moti Fridman y sus colegas de la Universidad de Cornell informaron de la primera demostración experimental de tal “capa temporal” el 11 de julio en arXiv.org.
Aunque este truco no ocultaría a los ladrones de bancos de las cámaras de seguridad, podría encontrar utilidad en dispositivos electrónicos u ópticos.
Las anteriores capas de invisibilidad ocultaban objetos a la vista curvando la luz. De la misma forma que el agua fluye alrededor de una roca en mitad de un río, las ondas de luz se curvan alrededor de una capa y se vuelven a unir perfectamente en el otro lado, no dejando trazas de su desvío.
Una capa temporal oculta un evento cambiando la velocidad de la luz, no su dirección. Con la velocidad de la luz limitada a 299 792 458 metros por segundo, este truco funciona sólo cuando la luz viaja más lento de lo que lo haría en el vacío –como sucede en los cables de fibra óptica–.
El equipo de Cornell, que declinó una entrevista sobre el artículo pendiente de publicación, manipuló la luz en un cable de fibra óptica usando una lente temporal, un dispositivo de silicio desarrollado para acelerar la transferencia de datos. Parte de la luz que pasa a través de esta lente, acelera, y parte se frena. Las ondas se dividen, como hizo Moisés, creando un hueco de oscuridad. Una segunda lente más alejada en el cable vuelve a unir la luz de forma que llegue a su destino intacta, sin registro de huecos –o nada que haya sucedido durante esta breve ventana–.
El agujero duró unas 15 billonésimas de segundo, lo suficiente para ocultar pulsos de luz creados dentro de la capa, escriben los investigadores. Un cable más largo podría, en teoría, incrementar este hueco temporal a más de un microsegundo. Más allá de eso, las imperfecciones de la técnica se harían lo bastante grandes para revelar la presencia del hueco.
“Esto es un hueco temporal mucho mayor de lo que pensábamos que sería posible”, dice Paul Kinsler, físico del Imperial College de Londres.
Kinsler y sus colegas describieron por primera vez la idea de una capa temporal en un artículo publicado en febrero en la revista Journal of Optics. Su perfectamente indetectable capa temporal requería de metamateriales exóticos, estructuras artificiales usadas en las capas de invisibilidad tradicional.
“Necesitarías metamateriales que cambiasen sus propiedades en el tiempo así como en el espacio”, dice el miembro del equipo Martin McCall, también en el Imperial College de Londres. “Actualmente está más allá de la tecnología de metamateriales producir esa situación ideal”.
La imperfecta capa de Cornell, que no está hecha con metamateriales, puede ser útil para procesado de señales. Podría, en teoría, interrumpir un flujo de datos, permitir que se procese otro, y luego reconstituir la señal original para un detector que no tuviese constancia de la interrupción.
Los huecos temporales mayores a escala cotidiana, sin embargo, son improbables. Incluso con una capa de metamaterial perfecta teóricamente, un hueco de apenas ocho minutos requeriría un dispositivo del tamaño del Sistema Solar, estima McCall.

Autor: Devin Powell
Fecha Original: 14 de julio de 2011
Enlace Original

Energía oscura observada en el fondo de microondas cósmico

Fuente: Ciencia Kanija

Artículo publicado por Colin Stuart el 15 de julio de 2011 en physicsworld.com
Los astrónomos que estudian el fondo de microondas cósmico (CMB) han descubierto una nueva prueba directa de la energía oscura – la misteriosa sustancia que parece acelerar la expansión del universo. Sus hallazgos podrían también ayudar cartografiar la estructura de la materia oscura en las mayores escalas de longitud del universo.
El CMB es el débil resplandor restante del inicio del universo en el Big Bang. Alrededor de 400 000 años después de su creación, el universo se había enfriado lo suficiente para permitir que los electrones se uniesen a los núcleos atómicos. Esta “recombinación” liberó la radiación del CMB de la densa bruma de plasma que la contenía. Telescopios espaciales tales como WMAP y Planck han cartografiado el CMB y encontraron su presencia en todas las partes del cielo, con una temperatura de 2,7 K. No obstante, las medidas también mostraron minúsculas fluctuaciones en esta temperatura en una escala de una parte por millón. Estas fluctuaciones siguen una distribución Gaussiana.

Fondo de Microondas Cósmico © Crédito Undertow851

En los dos primeros artículos, un equipo de astrónomos que incluye a Sudeep Das de la Universidad de California en Berkeley, ha descubierto fluctuaciones en el CMB que se desvían de esta distribución Gaussiana. Las desviaciones, observadas con el Telescopio de Cosmología de Atacama en Chile, están provocadas por interacciones con estructuras de gran escala del universo, tales como cúmulos galácticos. “De media, un fotón del CMB se habrá encontrado alrededor de 50 estructuras a gran escala antes de llegar a nuestro telescopio”, comenta Das a physicsworld.com. “La influencia gravitatoria de estas estructuras, que están dominadas por cúmulos masivos de materia oscura, desviarán el camino del fotón”, añade. Este proceso, conocido como “lente”, finalmente suma a una desviación total de alrededor de 3 minutos de arco – una vigésima de grado.
Energía oscura vs estructura
En el segundo artículo, Das, junto con Blake Sherwin de la Universidad de Princeton y Joanna Dunkley de la Universidad de Oxford, observan cómo las lentes podrían revelar la energía oscura. La energía oscura actúa para contrarrestar el surgimiento de estructuras dentro del universo. Un universo sin energía oscura tendría una gran cantidad de estructuras. Como resultado, los fotones del CMB sufrirían un efecto de lente mayor y las fluctuaciones se desviarían más de la distribución Gaussiana original.
Sin embargo, se encontró que era al contrario. “Vimos muy poco efecto lente para que tuviese en cuenta un universo sin energía oscura”, dice Sherwin a physicsworld.com. “De hecho, la cantidad de efecto lente que vemos es consistente con la cantidad de energía oscura que se esperaría ver en otras medidas”.
Esta es la primera vez que se ha deducido la energía oscura a partir de medidas sólo del CMB. Las medidas convencionales del CMB sólo revelan detalles sobre los inicios del universo, una época anterior a las estrellas y galaxias. Para construir una imagen de la evolución del universo, estos resultados tienen que combinarse con una medida adicional tal como la constante de Hubble. Sin embargo, los fotones del CMB observados en este trabajo se vieron desviados por el despliegue evolutivo del universo. “Esta información perdida está recopilándose ahora”, explica Sherwin.
“Retazos de pruebas”
El hecho de que esta sea una prueba directa, en lugar de depender de una segunda medida, emociona a Stephen Boughn, cosmólogo de Haverford College en Estados Unidos. “Actualmente sólo tenemos dos pruebas directas de la energía oscura. Cualquier prueba adicional que indique su existencia es muy importante”, dice. “Queremos retazos de pruebas, de lugares muy distintos, sólo para asegurarnos de que toda la descripción se mantiene unida. Este trabajo ayuda a eso”.
Boughn también cree que los hallazgos podrían ayudar a revelar cómo se distribuye la materia oscura a través del universo a grandes escalas. La materia oscura tiene los mismos efectos gravitatorios que la materia normal, pero no interactúa con la radiación electromagnética y, por tanto, no puede verse directamente. “Hay muchas simulaciones, pero pocas observaciones, que sugieran que la materia oscura del universo esté estructurada”, comenta. Pero debido a que el efecto lente del fondo de microondas depende de cómo se acumule la materia oscura, experimentos futuros que midan estas distorsiones del CMB deberían ser capaces de calcular cómo se distribuye la materia oscura a gran escala.
Ambos artículos se publican en la revista Physical Review Letters.

Artículos de Referencia:
Phys. Rev. Lett. 107021301
Phys. Rev. Lett. 107021302
Autor: Colin Stuart
Fecha Original: 18 de julio de 2011
Enlace Original

Grafeno para almacenar electricidad

Fuente: Neofronteras
Diversas investigaciones sobre sistemas de almacenamiento de electricidad en proyecto usan el grafeno.
Foto
Fuente: Gengping Jiang.
En el mundo actual hemos llegado a la paradoja de que un cartón de zumo de naranja 100% vale bastante menos que un litro de gasolina o gasóleo. No importa que para el primero se necesiten árboles, fertilizantes, cuidados y mucha mano de obra y que para el segundo sólo haga falta hacer un agujero en el suelo y luego separar el producto obtenido en distintos tipos de sustancias.
Es verdad que en el segundo caso hay muchos más impuestos que en el primero, pero no deja de ser una paradoja de la que no nos damos cuenta. El petróleo, además de empezar a escasear, es un producto sobre el que se especula bastante.
Lo ideal sería prescindir del petróleo y usar automóviles eléctricos. El precio por kilómetro recorrido sería muy inferior a usar gasolina, pues el motor eléctrico es muy eficiente. Además de ahorrar dinero estaríamos reduciendo las emisiones de gases de efecto invernadero si parte de esa electricidad procede de fuentes alternativas de energía.
Pero al salir a la calle o a las carreteras no vemos esos vehículos eléctricos. Los pocos que hay son muy caros y tienen una autonomía muy reducida. La culpa la tienen la grandes, caras y pesadas baterías que se usan (da igual el tipo).
Mientras que los gobiernos maquinan en la sombra cómo perpetrar la imposición de nuevos impuestos sobre la electricidad dedicada a la automoción y a otros fines (o sobre células solares o molinillos por si te da por instalarlos en tu casa) o planifican nuevas tarifas para que las compañías eléctricas sigan lucrándose, la industria y los laboratorios siguen investigando sobre nuevos sistemas de almacenamiento de energía eléctrica. Aunque de momento su comercialización ha sido lenta o inexistente.
A veces esas nuevas maneras de almacenamiento provienen de sistemas curiosos. Un grupo de investigadores de la Universidad de Monash ha conseguido que con dos materiales tan corrientes como el grafito y el agua un almacenamiento de energía igual que el conseguido con baterías de litio convencionales. Pero la gran ventaja en este caso es que la carga se efectúa en cuestión de segundos y que el sistema tiene una vida prácticamente ilimitada.
El sistema consiste en un condensador hecho de grafeno. Recordemos que el grafeno no es más que las capas que componen el grafito (el material negro de los lápices), una red hexagonal de átomos de carbono. Es un material que está de moda y que parece prometer un montón de aplicaciones. La ventaja que tiene como material para supercondensadores es que es un buen conductor y presenta una gran relación superficie/peso, que es lo mismo que decir energía/peso si lo usamos de ese modo.
Lo malo es que esa gran superficie desaparece en el momento que juntamos muchas de estas capas de grafeno, pues unas se pegan a las otras espontáneamente. Al fin y al cabo, tratan de formar grafito otra vez, que es una forma más estable de carbono que el grafeno.
Estos investigadores han descubierto que el agua puede evitar que esas capas se peguen unas a otra y que entren en contacto. Esto permite apilar muchas de ellas sin problemas. El producto obtenido es una especie de gel de grafeno que puede ser usado en diversas aplicaciones, como dispositivos biomédicos, sensores y en membranas de purificación, pero que además se puede emplear para almacenar electricidad. Con este gel se pueden fabricar un supercondensador que igualaría las prestaciones en almacenamiento de energía, a igualdad de peso, de las baterías de litio. Pero, además, el grafito y el agua son sustancias muy baratas y fáciles de conseguir. ¿Demasiado bonito para ser cierto?
Pero si todavía creemos que las baterías de litio son una mejor opción quizás nos interese el resultado logrado en la Universidad de Stanford. Allí han conseguido nuevas baterías de litio en las que el azufre y el grafeno hacen que tengan mejores prestaciones que las tradicionales. En ellas el cátodo está formado grafeno y azufre, mientras que el ánodo está fabricado en silicio.
Al parecer, el punto débil de las baterías de litio es el material del cátodo. Mientras que la capacidad del ánodo está en 370 mAh/g para el grafito o 4200 mAh/g para el silicio, para el cátodo sólo se llega a los 150 mAh/g para ciertos óxidos o los 170 mAh/g para el LiFe-PO4. Esto provoca un ciclo de vida corto, una baja capacidad y una eficiencia energética reducida.
Desde hace tiempo se sabía que el azufre podría tener mejores prestaciones como cátodo, pero su baja conductividad era un escollo. Para mejorar esta conductividad se intentó otros elementos mezclados con él. Aunque previamente se descubrió que ciertas mezclas de carbono y azufre aumentaba la capacidad de los cátodos hasta los 1000 mAh/g, el número posibles ciclos de carga era muy bajo. El uso del grafeno parece solucionar este problema.
El proceso de fabricación permite la creación de partículas de azufre submicrónicas envueltas en grafeno. En un primer paso se recubre las partículas de azufre con polietileno glicol, que impide su disolución y aumenta el número de ciclos de carga. Luego se recubre con grafeno dichas partículas para así mejorar su conductividad. El sistema permite atrapar los polisulfitos generados y acomodar la expansión del azufre en los procesos de carga.
Foto
Este sistema permite una capacidad en el cátodo de 500- 600 mAh/g y más de 100 ciclos de carga. Además, después de esos 100 ciclos de carga la capacidad sólo baja un 10-15%.
Este nuevo cátodo permitiría, por tanto, baterías con una densidad de almacenamiento de energía mejor que cualquier otra de hoy en día. Aunque previamente necesitarán mejorar las prestaciones en cuanto al número de ciclos de carga.
Si todo sale bien quizás podamos tener cámaras o portátiles alimentados por baterías Li-S en el futuro.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3557
Fuentes y referencias:
Nota de prensa.
Noticia en Technology Review.
Artículo original.

jueves, 7 de julio de 2011

Little Rip

Fuente: Neofronteras

Proponen modelos cosmológicos a medio camino entre el Big Rip y los de constante cosmológica.
Foto
Todo parecía sencillo. Una vez que se pudiera calcular la densidad de masa-energía del Universo se podía saber la futura evolución del mismo. A baja densidad el Universo se expandiría por siempre con una geometría hiperbólica. A alta densidad la expansión se frenaría y el Universo terminaría por colapsar. A una densidad límite entre las dos anteriores el Universo se expandiría cada vez más lentamente en una geometría completamente plana.
En los noventa, al observar supernovas de tipo Ia, se descubrió que las cosas no eran tan sencillas y que había una energía (a la que se llamó “oscura” por ser desconocida) que rellanaba todo el espacio y que estaba haciendo que el Universo acelerara su expansión. Se estima que un poco más del 70% del Universo está constituido por energía oscura.
Las medidas que se hicieron y se hacen sobre este tipo de estrellas no permiten de momento saber cómo fue la expansión hace mucho tiempo, por lo que deja margen de maniobra a la hora de especular sobre la naturaleza de la energía oscura y sus efectos.
Una posible solución es decir que la energía oscura es inherente al propio espacio-tiempo, así que según se expande el Universo y aumenta el espacio, la energía oscura aumenta al permanecer su densidad constante. Pero esto, tal cual, no está permitido tal cual por la Termodinámica, pues significaría una creación de energía de la nada. La solución es que la energía oscura tenga una presión negativa que sea inherente a la expansión (para los detalles de esto consultar el apéndice de este artículo).
La energía oscura se puede caracterizar entonces por la ecuación de estado wDE=pDEDE, en donde pDE y ρDE son la presión y densidad de energía oscura (Dark Energy) respectivamente.
Si la energía oscura fuera la famosa constante cosmológica de Einstein tendríamos que w=-1. Si es así el Universo se expandirá cada vez más rápido, las galaxias lejanas escaparán del horizonte observacional y en nuestro caso sólo quedará una galaxia local formada por la Vía Láctea y la galaxia de Andrómeda, que se ha denominado Lactómeda, suspendida en un inmenso espacio vacío.
En este caso la energía oscura es constante y, pese a que se crea espacio y que esto se hace cada vez más deprisa, la gravedad sigue ganando a nivel local si hay suficiente materia. No es un destino catastrófico.
Pero las observaciones no eliminan la posibilidad de que w sea menor que -1. Si es así entonces la densidad de energía oscura aumenta según aumenta el factor de escala a (el factor de escala nos da una idea la expansión relativa entre dos puntos) y tanto a como la densidad de energía oscura terminan siendo infinitas en un tiempo finito. Es lo que se denomina Big Rip o Gran Desgarrón. Este desgarrón destruye cualquier estado ligado (galaxias, sistemas solares, estrellas, planetas, átomos) y hasta las partículas elementales son destruidas en esa singularidad.
Incluso se ha sugerido que la vida finita del Universo en este modelo proporciona una explicación a la aparente coincidencia entre los valores actuales de la densidad de materia y densidad de energía oscura.
Este escenario de energía fantasma puede ser realmente tenebroso. Incluso para valores de sólo w=-1.5 el Big Rip puede llegar en sólo 22 Gy (Giga-años o miles de millones de años).
Pero hay más escenarios posibles. Si la densidad de energía oscura decrece en el tiempo entonces la aceleración del Universo puede incluso cesar si se alcanza w=-1/3. Este tipo de Universo sería más benigno para la posible vida que quede.
Aunque que w(a) se mantenga menor que -1 según el factor de escala (a) aumenta en el futuro es una condición necesaria para que se de una singularidad futura, no es suficiente. Si w se aproxima a -1 lo suficientemente rápido entonces es posible idear modelos en los que ρ aumenta más rápidamente que los modelos no singulares habituales y menos rápidamente que los modelos singulares, pero que den lugar, de todos modos, a la disolución de toda estructura ligada en algún momento del futuro.
Esto es precisamente lo que han analizado Paul H. Frampton y sus colaboradores en un estudio reciente. Han creado modelos que denominan Little Rip.
Así por ejemplo, en uno de sus modelos Little Rip se llega a la desintegración del sistema Sol-Tierra en 800 Gy (Giga-años) y en otro en sólo 146 Gy. Este tipo de modelos producen una desintegración tanto después como antes que los modelos Big Rip dependiendo de los valores exactos de cada modelo. Así por ejemplo, la disociación de sistema Sol-Tierra se da en 11000 Gy si w= -1.001 en una de sus ecuaciones.
En resumen, el los modelos Big Rip el factor de escala y la densidad divergen en una singularidad futura. En los modelos de constante cosmológica no se produce dicha divergencia ni se da la desintegración porque la densidad de energía oscura permanece constante.
Los modelos Little Rip “interpolan” entre esos dos casos y puede ser representado matemáticamente como una secuencia infinita en donde el Big Rip y el modelo de constante cosmológica son sus límites superior e inferior.
Físicamente, en estos modelos Little Rip ni el factor de escala ni la densidad llegan a infinito en tiempo finito, pero, sin embargo, tarde o temprano dan lugar a la desintegración de toda estructura en un tiempo finito.
Lo malo es que las actuales observaciones no nos pueden decir mucho acerca de en qué situación nos encontramos. Los valores actuales medidos para w no nos dicen mucho. Las medidas de supernova Ia fuerzan a los modelos Big Rip o Little Rip a entrar en un espacio de parámetros en los que son prácticamente indistinguibles de los modelos de constante cosmológica, incluso aunque en un futuro lejano puedan tener un comportamiento muy diferente.
Se ha llegado a proponer un modelo cíclico que requiere sólo una desintegración pero no una singularidad. Este tipo de modelo es posible dentro del marco de los modelos Little Rip en lugar de los de Big Rip y solventa algunos problemas de entropía y evita la formación de un agujero negro final que impida el rebote.
En definitiva, todavía no sabemos el fin último del Universo. Y la pregunta es si realmente lo podremos saber algún día.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3549
Fuentes y referencias:
Artículo en ArXiv.
Estudio apoya la energía oscura.
Habrá Cosmología en Lactómeda.
Proponen detectar directamente la energía oscura.
Confirman energía oscura por otra vía.
Confirman existencia de la energía oscura.
¿Cómo detectar la energía oscura?
Otro modelo elimina la necesidad de energía oscura.
Estructura de queso y energía oscura.
Cúmulos galácticos y energía oscura
¿Y si la energía oscura no existe?
¿Es la energía oscura una ilusión?
Nuevo modelo elimina la necesidad de energía oscura
La energía oscura y la constante cosmológica.
Ilustración: Lynette Cook.

El universo no es (probablemente) un holograma

Lo más probable es que el universo en que vivimos es real. Por lo menos, en sentido estricto, a lo que la hipótesis de ser holográfica se refiere. Si te estás preguntando de todos modos por qué esto podría haber sido un tema de debate, tenemos que tratar un poco (muy, muy poco) con la física cuántica.

Un subconjunto de la teoría de cuerdas conocido como principio holográfico ha estado dando vueltas desde 1978, como todo lo relacionado con la teoría de cuerdas, el concepto es un tema un poco complejo pero, siendo breves, el principio holográfico especula que el universo es una proyección en 3D de la información codificada en 2D en una estructura en el borde del universo. Si es verdad, esta teoría no necesariamente invalida la "realidad" del mundo que conocemos, sino que simplemente sería una estructura cuántica anti-intuitiva del universo tal como lo percibimos. (Yo uso la palabra "simplemente" en su definición más laxa aquí.)

Usted puede preguntar "¿WTF, la Ciencia?", "¿Quién inició este vórtice a la perspectiva total del universo?". Se puede culpar a los detectores de ondas gravitatorias del GEO 600, que mostraron evidencia de "visión borrosa" en sus lecturas de ondas gravitacionales en una increíblemente pequeña escala, lo que es un indicio que sugiere una proyección de datos de pixelado tal y como se podrían encontrar en un universo holográfico.

Sin embargo, usted puede dejar de preocuparse de no ser nada más que un programa en el Holodeck, datos recientes recogidos por el detector de rayos gamma de la sonda Integral de la Agencia Espacial Europea (un instrumento con una sensibilidad similar a GEO 600) "no parece haber registrado ninguna imprecisión cuántica."(” doesn’t appear to be registering any quantum fuzziness.”) El satélite europeo no ha detectado ninguna borrosidad cuántica hasta 10 ^ - 48 metros, o un diez billonésima parte de la longitud de Planck, o en términos simples, medidas increíblemente pequeñas que sólo puede existir en la especulación, ya que la constante de Planck es, teóricamente, la longitud más pequeña conocida para la ciencia.

Para más información sobre los datos y una explicación detallada del principio holográfico (con una bonificación de lecturas recomendadas), puedes ver los correos en Discovery News.

[Portal 2] Want You Gone (Fan Music Video)

martes, 5 de julio de 2011

La textura del espacio-tiempo sigue sin aparecer

Fuente: Neofronteras

Un estudio basado en datos procedentes de un observatorio espacial de rayos gamma pone en dificultades las propuestas existentes de teorías cuánticas de la gravedad.
Foto
GRB observado por Integral el 25 de noviembre de 2002 sobre una impresión artística. Fuente: ESA/SPI Team/ECF.
El observatorio espacial de rayos gamma Integral ha proporcionado recientemente una cota al tamaño de la supuesta textura del espacio-tiempo. Este satélite de la ESA es similar a su homólogo Fermi lanzado por la NASA y que también ha puesto restricciones a esta textura del espacio-tiempo.
Si tal textura existe debe ser menor de lo que algunas teorías habían propuesto.
Según la Teoría General de la Relatividad (TGR) el espacio-tiempo es liso, sin grumos a cualquier escala. Pero esta teoría, que tan buenos resultados ha dado en todo objeto astronómico que se puede observar, tiene algunos problemas. Predice que durante el Big Bang o en el interior de los agujeros negros se dio o se da una situación especial del espacio-tiempo denominada singularidad. Digamos que una singularidad representa del fin del espacio-tiempo, un límite más allá del cual la teoría no puede predecir nada.
Aunque hay soluciones a las ecuaciones de Einstein para el Big Bang en universos especiales para las que no hay singularidades, se cree que las singularidades aparecen debido a que la TGR es una teoría clásica, no es cuántica. Es de esperar que si alguna tenemos una teoría cuántica de la gravedad solvente este tipo de problemas y elimine toda singularidad. La Teoría Cuántica de Lazos, que es una teoría aún sin terminar, es una de las propuestas a Teoría Cuántica de la Gravitación. Según algunos de los estudios hechos sobre esta teoría hay “átomos” de espacio que tienen propiedades cuánticas. Entre ellas sufrirían una especie de principio de exclusión de Pauli que impediría el colapso absoluto del espacio-tiempo evitando así las singularidades. Incluso algunos modelos de juguete basados en esta teoría pueden remontarse a un tiempo anterior al Big Bang pasando por un estado de muy alta densidad no singular hasta llegar a un universo previo.
Toda teoría que pretenda cuantizar la gravedad tiene que imponer alguna estructura al espacio-tiempo a muy pequeña escala. A partir de cierta escala el espacio-tiempo tendrá que ser “granuloso”. Lo malo es que si es a una escala muy pequeña, como a la escala de Planck, entonces las posibilidades de comprobar este punto son remotas.
Otras teorías como la “teoría” de cuerdas o “teoría” M y otras teorías han propuesto la existencia de dimensiones ocultas a pequeña escala. Incluso hay alguna propuesta de compactificación de dimensiones a escala casi visible.
En resumidas cuentas, según todas estas teorías y alguna más, el tamaño de esta granularidad del espacio va de la distancia de Planck en los 10-35 m a los 10-3 m.
Supongamos que esa granularidad no es tan pequeña, sino que es lo suficientemente grande como para afectar a los fotones que viajen largas distancias por el espacio vacío. Será un efecto muy pequeño, pero se acumulará a lo largo del tiempo. Si la distancia a cubrir es cosmológica es de esperar que al cabo de miles de millones de años algo se haga notar.
Una manera en la que se haría notar (hay otras) es sobre la polarización de esos fotones. Como sabemos, el campo electromagnético de la luz puede oscilar en todos los planos perpendiculares a su dirección de propagación. Si vibra prioritariamente en un plano se dice entonces que es luz polarizada linealmente. Determinados fenómenos físicos producen luz polarizada o podemos usar un filtro polarizador para quedarnos sólo con los fotones que oscilen en un determinado plano.
Si hay cierta textura en el espacio tiempo tiene que afectar a la polarización de los fotones, haciendo que estos cambien de plano de oscilación. De este modo, una fuente de luz polarizada emitirá fotones que oscilen prioritariamente en un plano, pero el efecto de esta granularidad hará que muchos de ellos cambien de plano de polarización y esto será proporcional al tamaño de los “granos” de espacio y a la distancia recorrida.
Así que Philippe Laurent y sus colaboradores se pusieron a estudiar los fotones gamma detectados por Integral para así inferir el tamaño en la textura del espacio-tiempo. Estos fotones gamma provenían de uno de los estallidos de rayos gamma (GRB) más potente jamás detectado. Este tipo de estallidos son una de las explosiones más energéticas conocidas más energéticas del Universo y se cree que son producidos al formarse los agujeros negros en explosiones de supernovas. Estos estallidos duran de segundos a minutos y durante ese tiempo son tan brillantes como una galaxia.
El estallido GRB 041219A se dio el 19 de diciembre de 2004 y fue clasificado inmediatamente dentro la categoría de más brillantes (el 1% del total). Se estima que su fuente estaba a unos 300 millones de años luz de distancia. Fue tan brillante que el observatorio Integral fue capaz de medir la polarización de rayos gamma que registraba procedentes de él.
El análisis de los datos obtenidos, con una precisión 10000 mejor que en ocasiones anteriores, arroja un tamaño para la granularidad del espacio de 10-48 m o menos.
Según Laurent este resultado falsa tanto las teorías de cuerdas como la Teoría Cuántica de Lazos.
Integral hizo una observación similar en la Nebulosa del cangrejo en 2006, pero ésta estaba a sólo 6500 años luz de distancia de nosotros.
Quizás éstas y otras teorías tengan que ser reexaminadas o quizás se necesiten más observaciones para confirmar este punto. Incluso una distancia de 300 millones de años luz quizás sea insuficiente para observar el efecto.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3547
Fuentes y referencias:
Nota de prensa.
Artículo original.

viernes, 1 de julio de 2011

Cuando un profesor saca su vena friki…

Fuente: Amazings.es

Hace unos días apareció por mis dominios un documento inédito: un enunciado friki de un examen desconocido hasta la fecha. El aporte fue realizado por uno de mis alumnos, perteneciente al que posiblemente haya sido el grupo de alumnos más friki de toda mi historia como profesor.
Y es que el noble arte de la confección de exámenes puede llegar a resultar apasionante. Sí, es cierto que mucha gente se ha encontrado con profesores que ponen sistemáticamente el mismo examen, que no innovan, cuyos exámenes son aburridos, repetitivos, previsibles…Pero no todos los profesores son así, ni mucho menos. Los hay muy innovadores y, como en todos los ámbitos de nuestra vida, también los hay frikis.
Por esta razón propuse el tema a la secta Amazings y, como no podía ser de otra forma, aparecieron muchos más casos, algunos difundidos ya por internet con anterioridad y otros inéditos. Lo que he intentado hacer en este post es recopilar todos los que conozco. Y os aseguro que no tienen desperdicio, porque cuando un profesor saca su vena friki…pueden pasar cosas como las que vais a ver a continuación.

Frikismo en exámenes

Uno de los primeros de los que tengo constancia apareció hace ya unos años por internet. Pertenece a la ETSI de Telecomunicaciones de Valencia, y data de 2005. La Guerra de las Galaxias es la temática protagonista:

que aparece en multitud de páginas web (por ejemplo en ésta).
También relacionados con la informática tenemos uno relacionados con El Señor de los Anillos:

Y uno de Matemática Discreta con Harry Potter de protagonista:

(Estos dos últimos los he encontrado aquí, donde también aparece el anterior y una práctica basada en el argumento inicial de Perdidos.)
Pero la idea de este post comenzó con lo que me pasaron mis alumnos. Y en principio no fue un enunciado con tintes frikis, sino dos (los dos primeros que podéis ver a partir del siguiente párrafo), que aparecieron en un examen. Al preguntarles si la cosa era habitual me comentaron que sí, que solían proponer ejercicios con enunciados ciertamente curiosos. Os dejo a continuación varios de estos enunciados de Ampliación de Programación de Informática en el Campus de Ciudad Real de la UCLM, propuestos por varios profesores de dicha asignatura:
  • Para Forrest Gump la vida era como una caja de bombones. Cada caja tenía bombones de varias clases. Forrest frecuentaba una tienda que tenía muchas cajas distintas, y siempre deseó tener bombones de todas las clases, pero su paga no le alcanzaba. Por ello tenía que comprar el menor número de cajas, pues todas las cajas tenían el mismo precio. Diseñe un algoritmo que le diga a Forrest qué cajas debe comprar y cuánto le costará comprarlas.
  • Drácula ya no es lo que era y, debido a cuestiones de salud, ha decidido sustituir su dieta habitual por la nueva bebida sintética True Blood. Parece ser que cada día es más complicado salir de caería, en parte por los recientes sprays de ajo concentrado. El principal problema es que Drácula no fue previsor en épocas de bonanza (muy pocos lo fueron), por lo que solamente dispone de una cantidad de dinero D para hacer la compra de True Blood de las próximas dos décadas.Además de la restricción económica, Drácula ha decidido hacer toda la compra esta misma noche. Para ello dispone de un tiempo T desde que se pone el sol hasta que amanece, y conoce perfectamente (por indicaciones de un vecino de confianza) el tiempo que se tarda en ir desde su castillo hasta las N tiendas 24 horas que venden True Blood, y el tiempo que se invierte en ir desde cualquiera de las N tiendas al resto.Diseñe e implemente un algoritmo que maximice el número de botellas de True Blood compradas por Drácula. Suponga que cada tienda i dispone de una cantidad de botellas bi, cada una de las cuales vende a un precio pi. En otras palabras, dos tiendas pueden tener distinto precio para las botellas de True Blood que venden. Suponga que el tiempo de compra es despreciable y no olvide que Drácula ha de estar en su castillo antes de que amanezca.
  • El vicioso empedernido.Juan es un padre y esposo ejemplar. Su suegra espera impaciente el día 4 de mayo de cada año, fecha en la que ésta celebra su cumpleaños pues, además de hacerle un estupendo regalo, Juan, al felicitarla, llora inconsolable al teléfono por no poder estar a su lado y con el resto de su familia que van a pasar tan señalado día a casa de la abuela.Pero lo que no sabe la buena señora, ni la esposa ni los hijos pueden imaginar, es que la tristeza le dura a Juan lo que tarda en colgar el teléfono, ya que dispone de 24 horas para hacer lo que le venga en gana, tiempo en el que se dedica a sus vicios: beber, fumar y jugar.Pero Juan es una persona metódica y “juiciosa”, y ha comprobado tras un exhaustivo análisis que cada uno de sus vicios v le consume un determinado tiempo tv y le proporciona un determinado grado de placer pv. No obstante, también ha observado las siguientes consideraciones: a) Se emborracha si la razón entre las copas bebidas y el tiempo en horas que tarda en bebérselas es mayor que k, siempre que se haya bebido al menos C copas en las h últimas horas.
    b) Cuando se emborracha, en la primera hora experimenta un placer de pb, y el resto del día duerme la mona.
    c) Borracho cualquier otro vicio no le proporciona placer.
    d) No puede fumar y beber a la vez.
    e) Si durante una partida fuma o bebe el placer proporcionado por este segundo vicio se reduce al 50%.
    f) La tercera partida que juegue seguida no le proporciona placer alguno.
    ¿Cuál es la secuencia que le proporciona mayor placer al cabo de las 24 horas de desenfreno de las que dispone?
  • En Monilandia no conocen los billetes, por lo que tan sólo usan monedas, de modo que sus habitantes suelen ir encorvados por el peso de sus bolsillos. Por ello, se exige a los tenderos del país que a la hora de devolver el cambio a un cliente se le entregue el menor número de monedas posible.
  • Paseábamos tranquilamente por la EXPO’92 un florido día de mayo, perdiéndonos entre los visitantes, hasta que nos encontramos a un francés gritando: Vive la France!!!. Como quiera que no paraba y que como transcurría el tiempo se excitaba más, dándoselas también de listo, y dándolo, no al Burdeos, sino al tinto de Valdepeñas, aprovechamos el encontrarnos en una terraza de baldosas de colores blanco, negro, rojo, amarillo, verde y azul, y puesto que la bandera francesa es de color azul, blanco y rojo, en esta secuencia, le propusimos que se situara en cualquiera de las casillas azules de los lados del embaldosado y permitiendo el acceso desde cada baldosa a las adyacentes vertical, horizontal o diagonal (sin pisar dos veces la misma baldosa), construyese la secuencia que nos da la cantidad máxima de banderas francesas consecutivas.
  • A los profesores de Ampliación de Programación los cambios de estación les producen extraños efectos. En ellos también ha influido el ajuste presupuestario, por lo que han considerado necesario reducir el gasto de papel en sus exámenes.Aprovechando tal situación se han propuesto demostrar a sus alumnos la utilidad práctica de la asignatura, por lo que han decidido cambiar el tipo de examen que sistemáticamente repetían cada año.En el examen se proponen N problemas. Cada problema tiene un valor de vi y ocupa un número de páginas pi. Se trata de maximizar el valor de los problemas resueltos teniendo en cuenta que sólo pueden rellenarse P páginas. Ahora bien, puesto que consideran que resolver más de una cantidad dada de problemas debe primarse de algún modo, han añadido que si se resuelven M problemas pueden emplearse P’ páginas más. Además, sólo tienen en cuenta los problemas completamente resueltos.Resuelva el problema utilizando Programación Dinámica: plantee la ecuación recurrente óptima y desarrollo el algoritmo que resuelve el problema.
  • “Epe” (El Programador Enmascarado) es el nuevo héroe de los videojuegos. Ha llegado de incógnito a la ciudad y se ha alojado en un hotel. Tiene que “neutralizar” a M cualesquiera de los N “malvados” que planean un complot para sembrar el caos en la ciudad. Con ello desbarataría el complot. Lo hará al abrigo de las sombras de la noche, mientras los “malvados” duermen en sus casas, y regresando a su hotel (para no levantar sospechas) en el menor tiempo posible. Sabe la distancia en tiempo entre cada casa, el tiempo que separa cada casa de su hotel y el tiempo que tarda en “neutralizar” a cada malvado. Diseñe un algoritmo que resuelva el problema utilizando una estrategia basada en Programación Dinámica o Backtracking.
  • Manolo y Benito necesitan hacer una “ñiapa” en el tejado del Empire State, y para ello nada mejor que montar un andamio desde el piso bajo hasta el tejado, ¿verdad?En la furgoneta llevan un número limitado de piezas para montar los andamios haste llegar a esa altura, pero Benito, en su línea de seguir la Ley del Mínimo Esfuerzo, quiere hacerlos con las mínimas piezas posibles. Conocidos para cada pieza el peso que soporta, el peso de la pieza y su altura, realice un programa usando un Algoritmo Voraz que le diga a Benito qué piezas usar para montar el andamio de forma que aguante el peso de ambos, se use el menor número de piezas posible y se llegue hasta el tejado del Empire State.
  • Tío Eusebio
  • Vampiros
  • Viernes 13
  • Juan Gorrilla
  • José Peco Pión
  • Ajo contra los vampiros
  • “El Luis”, un vampiro de la leche
Y porque he querido parar, porque tengo más. Los alumnos de esta asignatura podrán quejarse por cualquier cosa excepto por la originalidad de los problemas propuestos.
Super Mario también ha sido protagonista de enunciados con cierto grado de frikismo. Éste nos lo ha pasado Tito Eliatron, colaborador de Amazings:

que lo encontró aquí.
La bioquímica también tiene su pequeño hueco entre los enunciados frikis. Estos dos que aparecen a continuación son creaciones de JM Mulet, colaborador de Amazings:
  • Preguntas cortas: (0.5 por pregunta).Te has dejado la ingeniería forestal, y como te gusta CSI te has hecho forense. Te llaman por que en una casa en la montaña aparece muerto un millonario setentón. Su joven viuda, entre sollozos, te explica que habían estado recogiendo setas y se había dado un atracón. Como su pobre (y millonario) marido no era experto en setas posiblemente se haya confundido y se haya comido alguna venenosa. Pides un análisis de sangre del finado y encuentras restos de diferentes amanitinas, que son oligopéptidos extremadamente tóxicos presentes en las setas venenosas. No obstante te das cuenta de un pequeño detalle del análisis y concluyes que el millonario ha sido asesinado. ¿Por qué?
  • Preguntas cortas: (0.5 por pregunta).Ya has acabado la carrera y te han empleado en un pueblo de montaña. Vas a una cooperativa a comprar aceite de oliva ecológico. El dependiente te ofrece jabón artesano muy bien de precio que también fabrican ellos. Decides comprar una pastilla. En la rebotica un grupo de gente está viendo una película de DVD. Le acompañas al almacén y te llama la atención un enorme depósito de lejía y dos contenedores de hidróxido sódico, aunque no le das mayor importancia. Coges el aceite y mientras el dependiente te hace la factura ves que encima de la mesa del despacho hay un albarán de una entrega de ácido nítrico. Esto confirma tus peores sospechas. Has descubierto una célula terrorista. ¿Cómo has llegado a esta conclusión?
    Pista 1: La película de DVD es “El club de la lucha”.
    Pista 2: En la etiqueta del jabón pone “Jabón de glicerina con aroma de pino”.
Otro de los colaboradores de Amazings que aporta una buena cantidad de ejemplos es, cómo no, Sergio Palacios:
  • ¿Por qué no se puede esquivar una bala que se desplaza a la velocidad de la luz?
  • ¿Podríamos alejar de la Tierra a la Luna si hiciésemos detonar una bomba suficientemente potente en su cara oculta?
  • Si una estrella consumiese todo su combustible nuclear, ¿se apagaría?
  • ¿Cómo construirías una máquina del tiempo?
  • ¿En qué consiste un motor warp? ¿Qué se necesita para construir uno?
  • ¿Qué material real presenta un comportamiento parecido a la tabla de Silver Surfer y por qué?
  • Discute brevemente la capacidad de Superman para fabricar diamantes con sus propias manos.
  • ¿En qué se diferencia la vision de rayos X de Superman y el funcionamiento de un aparato de rayos X convencional?
  • ¿Por qué no pueden existir seres como Godzilla o King Kong?
  • ¿De qué forma varía la temperatura corporal de Flash con su velocidad?
  • Bruce Banner es un científico brillante de constitución física débil (pesa 60 kg) que sufre un accidente en su laboratorio, siendo irradiado con una dosis letal de rayos γ. Sin embargo, lejos de morir, se transforma en Hulk, un gigante de color verde fosforescente y fuerza sobrehumana (pesa 450 kg), capaz de dar saltos a grandes distancias. Dada su gran inteligencia, siempre salta en condiciones óptimas para alcanzar las máximas distancias posibles. ¿A qué velocidad debe iniciar sus saltos para trasladarse entre dos puntos distantes entre sí 10 km? ¿A qué altura llegará? ¿Cuánto vale la energía cinética con que llega al suelo tras el salto? Si una persona normal necesita ingerir diariamente a través de los alimentos unas 3200 kcal (13376 kJ, en el SI), ¿podría alimentarse con maíz de la sugerente marca “El gigante verde”?
  • En la película Armageddon, un asteroide del tamaño de Texas (691.027 km2) está a punto de colisionar con la Tierra. El plan para salvar nuestro planeta consiste en viajar a bordo de una lanzadera espacial, aterrizar sobre la superficie del asteroide y detonar un ingenio nuclear, antes de alcanzar la “barrera cero”. Si la deflagración ocurre después de este punto crítico, la desaparición de nuestro pequeño mundo azul será un hecho. Supongamos que el asteroide tiene forma esférica y está compuesto de un material cuya densidad es 2.000 kg m-3.
    a) ¿Cuánto vale el radio aproximado del asteroide si suponemos que Texas tiene forma de cuadrado?
    b) ¿Cuál es la masa del asteroide?  Si al detonar la bomba, éste se fragmenta en dos trozos idénticos,
    c) ¿cuánto vale la masa de cada uno?
    Una tonelada de TNT (esto se llama ton) libera una energía de 4,2 109 J. La bomba atómica arrojada sobre Hiroshima en 1945 tenía una potencia de 12 kilotones.
    d) ¿Qué energía liberaría una bomba nuclear equivalente a cien mil bombas de Hiroshima?
    Utilizando en el asteroide la anterior bomba nuclear y suponiendo que toda la energía liberada en la explosión se emplease en proporcionar energía cinética a los dos fragmentos,
    e) ¿cuál sería la energía cinética de cada uno de ellos?
    Supongamos ahora que toda esta energía cinética se invierte en el movimiento perpendicular a la dirección original, es decir, la explosión NO proporciona energía en la dirección del movimiento original del asteroide (dirección horizontal).
    f) ¿Cuánto vale la velocidad de cada fragmento en la dirección vertical?
    Si la “barrera cero” se encuentra a 2 horas de la Tierra y la bomba estalla justo en ese punto,
    g) ¿qué distancia se habrán separado entre sí los dos fragmentos del asteroide al cabo de ese tiempo?
    Si el radio terrestre es aproximadamente de 6.400 km,
    h) ¿cuál será el destino de nuestro mundo?
  • Elektra arroja uno de sus mortales cuchillos a su feroz enemiga Tifoidea. El arma viaja por el aire (cuyo rozamiento se desprecia) durante 10 segundos antes del impacto. Si el lanzamiento fuese horizontal, ¿qué diferencia de alturas (no de estaturas) habría entre las dos mujeres? Por otro lado, supongamos que ambas se encuentran sobre la misma horizontal y que el ángulo de lanzamiento sea pequeño, de unos 5º; ¿a qué velocidad debe abandonar el cuchillo la mano de Elektra y a qué distancia se encuentra Tifoidea? ¿Cuál es la altura máxima alcanzada por la daga? ¿Qué opinión te merecen los resultados anteriores?
  • Supermán intenta beber agua de un tanque con una pajita de gran longitud. Con su enorme fuerza, consigue realizar la máxima succión posible. Las paredes de la pajita no se juntan entre sí. Calcular la máxima altura a la que es capaz de elevar el agua. Todavía sediento, el hombre de acero repite su intento en la Luna. Calcular la diferencia entre el nivel de agua dentro y fuera de la pajita.
Y aún hay más. Manz, colaborador de Amazings, hizo una pequeña recopilación hace un tiempo. Y bueno, mención aparte merece Arturo Quirantes, también colaborador de Amazings, que en su propio blog nos habla de un examen que él mismo puso…y de las respuestas que recibió, y que además nos ha dejado unas cuantas perlas más aparecidas en exámenes suyos:
  • El autobús de la película Speed ha de salvar una sección de la autopista, de 15 metros de longitud, saltando horizontalmente. Afortunadamente, caerá a una sección de la autopista que está a una altura 2 metros por debajo de la altura de salto. Determine cuál será la velocidad mínima del autobús para que el salto se efectúe con éxito.
  • El vertido de petróleo de la plataforma Deepwater Horizon, en el golfo de México, puede evaluarse en aproximadamente 60.000 barriles diarios (unas 10.000 toneladas). Calcule la potencia (en vatios) que eso representa, si suponemos que un kilogramo de petróleo tiene un poder energético igual a 4*107 Julios. Compárela con la potencia consumida en España en estos momentos (35.000 Megavatios).
  • Tras ganar el Mundial, Villa viaja a Dubai para filmar un anuncio en el Burj Dubai, el edificio más alto del mundo. Desde su plataforma superior, a 828 metros de altura, le da una patada al balón, el cual describe un arco parabólico hasta llegar al mar, distante tres kilómetros en horizontal. ¿Cuál debe ser la velocidad inicial del balón, y cuánto tiempo tardará en caer? Suponga dos casos: disparo horizontal y disparo a 45 grados hacia arriba.
  • Imagine que, en este momento, no se encuentra vd. haciendo este examen sino trabajando en la NASA. Su misión es determinar la masa de un astronauta en las condiciones de ingravidez del espacio. Formule al
    menos dos procedimientos para pesar en gravedad cero.
  • Explique, desde un punto de vista físico, por qué Neo no puede permanecer inmóvil en el aire mientras arroja al agente Smith al otro extremo de la habitación de una patada. ¿Podría haberlo hecho Supermán?
  • Suponga que ya ha aprobado este examen, está de vacaciones y está disfrutando de un día de playa. Mire a su alrededor y busque ejemplos de propagación del calor por conducción, convección y radiación.
  • ¿Es posible que Fernando Alonso cruce la línea de meta a mayor velocidad que sus rivales y, a pesar de ello, pierda la carrera? Explique por qué, o por qué no.
Como podéis ver el maravilloso mundo de la confección de exámenes no acaba en los típicos ejercicios y problemas a los que muchos hemos estado acostumbrados en nuestra época de estudiante. De hecho existe un gran abanico de posibilidades a la hora de redactar enunciados frikis. Y seguro que vosotros conocéis muchos que no aparecen en este post. Si es así, usad los comentarios para darlos a conocer.