jueves, 10 de octubre de 2013

¿Un hiperagujero negro dio origen al universo?

Artículo publicado por Zeeya Merali el 13 de septiembre de 2013 en Nature News
Según proponen los teóricos, el Big Bang fue un espejismo procedente del colapso de estrellas en dimensiones superiores.
Podría ser el momento de apostar en contra del Big Bang. Los cosmólogos han especulado que el universo se formó a partir de los escombros expulsados cuando una estrella de cuatro dimensiones colapsó en un agujero negro — un escenario que ayudaría a explicar por qué el cosmos parece ser tan uniforme en todas las direcciones.
Agujero negro
Agujero negro

El modelo estándar del Big Bang nos dice que el universo estalló a partir de un punto infinitamente denso, o singularidad. Pero nadie sabe qué habría disparado este estallido: las leyes de la física conocida no pueden decirnos qué sucedió en dicho momento.
“Por lo que saben los físicos, podría haber dragones volando desde la singularidad”, dice Niayesh Afshordi, astrofísico del Instituto Perimeter para Física Teórica en Waterloo, Canadá.
También es difícil explicar cómo un violento Big Bang habría dejado tras de sí un universo que tiene una temperatura casi completamente uniforme, debido a que no parece haber suficiente tiempo desde el nacimiento del cosmos para que haya alcanzado un equilibrio térmico.
Para la mayor parte de cosmólogos, la explicación más plausible para tal uniformidad es que, poco después del comienzo del tiempo, alguna forma desconocida de energía hizo que el joven universo se inflase a un ritmo que era superior a la velocidad de la luz. De esta forma, una pequeña parte con una temperatura aproximadamente universo se habría estirado en el vasto cosmos que vemos hoy. Pero Afshordi señala que “el Big Bang fue tan caótico, que no está claro si en algún momento habría habido dicha pequeña zona homogénea a partir de la cual la inflación empezase a trabajar”.
En la brana
En un artículo publicado la semana pasada en el servidor arXiv1, Afshordi y sus colegas vuelven su atención hacia una propuesta2 realizada en 2000 por un equipo que incluía a Gia Dvali, físico actualmente en la Universidad Ludwig Maximilians en Múnich, Alemania. En dicho modelo, nuestro universo tridimensional es una membrana, o brana, que flota a través de un ‘universo superior’ que tiene cuatro dimensiones espaciales.
El equipo de Ashfordi se dio cuenta de que si este universo superior contenía sus propias estrellas de cuatro dimensiones, algunas de ellas colapsarían formando agujeros negros 4D, de la misma forma que las estrellas masivas de nuestro universo lo hacen: estallan como supernovas, expulsan de forma violenta sus capas exteriores, y las capas internas colapsan en un agujero negro.
En nuestro universo, un agujero negro está limitado por una superficie esférica conocida como horizonte de sucesos. Mientras que en un espacio tridimensional común un objeto bidimensional (una superficie) es lo que crea los límites del agujero negro, en el universo superior el horizonte de sucesos de un agujero negro en 4D sería un objeto 3D – una forma conocida como hiperesfera. Cuando el equipo de Afshordi modeló la muerte de una estrella en 4D, hallaron que el material expulsado formaría una brana en 3D alrededor del horizonte de sucesos tridimensional, y se expandiría lentamente.
Los autores proponen que el universo 3D en el que vivimos podría ser sólo una brana – y que detectamos el crecimiento de la brana en forma de expansión cósmica. “Los astrónomos midieron la expansión y extrapolaron que el universo debía haber empezado con un Big Bang — pero esto es sólo un espejismo”, dice Afshordi.
Discrepancia en el modelo
El modelo también explica de forma natural la uniformidad de nuestro universo. Debido a que el universo superior en 4D podría haber existido durante un tiempo infinitamente largo hacia el pasado, habría habido una gran cantidad de oportunidades para que distintas partes del universo 4D alcanzaran un equilibrio, el cual habría heredado nuestro universo 3D.
Esta descripción tiene ciertos problemas, no obstante. A principios de año, el observatorio espacial  Planck, de la Agencia Espacial Europea, publicó datos que cartografiaban las ligeras fluctuaciones de temperatura en el fondo cósmico de microondas — la antigua radiación que porta la marca de los primeros momentos del universo. Los patrones observados encajan con las predicciones realizadas por el modelo estándar del Big Bang e inflación, pero el modelo del agujero negro se desvía de las observaciones de Planck en, aproximadamente, un 4%. Esperando resolver la discrepancia, Afshordi dice que está refinando su modelo.
A pesar de la discrepancia, Dvali elogia la ingeniosa forma en la que el equipo se despoja del modelo del Big Bang. “La singularidad es el problema más fundamental de la cosmología, y ellos han reescrito la historia de forma que nunca lo encontremos”, comenta. Mientras que los resultados de Planck “demuestran que la inflación es correcta”, queda abierta la cuestión de cómo tuvo lugar la inflación, añade Dvali. El estudio podría ayudar a demostrar cómo la inflación estuvo motivada por el movimiento del universo a través de una realidad de dimensiones superiores, concluye.

Artículos de referencia:
Nature doi:10.1038/nature.2013.13743
1.- Pourhasan, R., Afshordi, N. & Mann, R. B. Borrador en http://arxiv.org/abs/1309.1487(2013).
2.- Dvali, G., Gabadadze, G. & Porrati, M. Phys. Lett. B 485, 208–214 (2000).

Autor: Zeeya Merali
Fecha Original: 13 de septiembre de 2013
Enlace Original

Nuevo avance en la fusión aneutrónica protón-boro

Fuente: Francis (th)E mule

Dibujo20131009 protons-boron nuclei - two laser facility - Nature Comms
La fusión aneutrónica produce neutrones de alta energía, pero muchos menos que la fusión convencional. La colisión de protones con núcleos de boro 11 produce sobre todo radiación alfa (núcleos de helio) de alta energía en lugar de neutrones. A veces se afirma que la fusión aneutrónica está “limpia” de radiación ionizante, pero en realidad lo que ocurre es que contener la radiación alfa requiere un blindaje más delgado. No todo son ventajas. La fusión p11B requiere alcanzar una temperatura del plasma mucho más alta que la fusión D-T (deuterio-tritio), lo que impide su uso en reactores de fusión por confinamiento magnético. Por fortuna, la fusión pulsada en reactores por confinamiento inercial no parece imposible, en principio, siempre que el plasma pB esté fuera del equilibrio. Christine Labaune (LULI, Ecole Polytechnique, CNRS, Francia) y sus colegas han publicado en Nature Communications un nuevo avance en esta tecnología basado en el uso de dos láseres diferentes. Un láser de picosegundos calienta el plasma de protones durante unos picosegundos y lo hace colisionar con un plasma de núcleos de boro previamente calentado por un láser de nanosegundos. Han observado la emisión de radiación alfa, sin presencia apreciable de neutrones de alta energía. Un gran éxito, aunque sólo un pequeño paso hacia la fusión aneutrónica como una realidad comercial. Sobre todo porque la escalabilidad del nuevo sistema es muy difícil y el breakeven puede tardar décadas en ser alcanzado. Nos lo cuenta Ron Cowen, “Two-laser boron fusion lights the way to radiation-free energy,” News, Nature, 8 Oct 2013; el artículo técnico es C. Labaune et al., “Fusion reactions initiated by laser-accelerated particle beams in a laser-produced plasma,” Nature Communications 4: 2506, 8 Oct 2013 (arXiv:1310.2002 [physics.plasm-ph]).
Dibujo20131009 scheme experimental set-up laser beam configuration - Nature Comms
La fusión p11B por confinamiento inercial mediante pulsos láser requiere pulsos más cortos (en el régimen de los picosegundos) que en la fusión D-T, por ello la configuración experimental es diferente. Christine Labaune y sus colegas del laboratorio LULI llaman Pico2000 a su esquema con dos láseres. El láser de nanopulsos inyecta en los átomos de boro (20% de boro-10 y 80% de boro-11) una energía de 400 J (julios) en pulsos cuadrados de entre 1,5 y 4,0 ns (nanosegundos) con una longitud de onda de 530 nm. La intensidad promedio del láser es de 5 × 1014 W/cm² e incide con una ángulo de 45º en blanco de boro, produciendo un plasma de boro que expulsa los electrones. El láser de picopulsos con longitud de onda de 530 nm inyecta en los protones una energía de 20 J en 1 ps (picosegundo). La intensidad promedio de este láser es de 6 × 1018 W/cm². El ángulo relativo entre ambos haces láser es de 112,5º y el retraso entre sus pulsos se puede ajustar entre 0,25 y 1,2 ns.
Dibujo20131009 time-integrated X ray pinhole image of three plasmas along the direction of propagation of picosecond beam - Nature Comms
Esta figura, parte izquierda, muestra una imagen de los tres plasmas: protones, electrones y núcleos de boro. La parte derecha de la figura presenta una imagen detallada del plasma de núcleos de boro. Como se ve es poco uniforme y uno de los objetivos futuros del laboratorio de LULI será mejorar la homogeneidad del plasma, acercándola a la observada en las simulaciones por ordenador.
Dibujo20131009 total number of tracks magnetic spectrometer function of alpha-particle energy - Nature Comms
Se han realizado múltiples experimentos. Las predicciones teóricas indican que la energía del haz de partículas alfa debe estar en el rango de 0,5 a 8 MeV. La máxima energía alcanzada en los experimentos ha sido de 7,1 MeV (parte derecha de esta figura), siendo el valor típico entre 3,3 y 5,4 MeV. El número de trazas (tracks) de partículas alfa observadas es inferior a 140, es decir, se ha demostrado que unos 140 protones se han fusionado con unos 140 núcleos de boro. No es un número para tirar cohetes, pero indica una tasa máxima de reacción de 9 × 106 sucesos por estereorradián (sr), ya que el ángulo sólido de observación es de 1,1 × 10-5 sr. ¿Podría ser contaminación radiactiva la radiación alfa observada? Los autores del estudio creen que no pues corresponde a las expectativas teóricas de los modelos numéricos de simulación. Aún así las pruebas son poco firmes y por ello el artículo se publica en Nature Communications en lugar de una revista más prestigiosa.
Puede parecer un éxito menor tras más de 20 años de investigación, pero la fusión aneutrónica protón-boro es mucho más complicada que la fusión deuterio-tritio. Los avances son lentos, pero lo más importante es que haya avances. Por ello, creo que esta noticia debe hacernos reflexionar sobre la importancia de financiar vías alternativas a la fusión más allá del ITER y del NIF.

viernes, 27 de septiembre de 2013

¿Cuán débil es la fuerza débil?

Fuente: Ciencia Kanija
Artículo publicado por Kelen Tuttle el 18 de septiembre de 2013 en Symmetry Breaking
Usando una nueva técnica, la colaboración Q-weak ha hallado que el valor de la fuerza débil encaja con la teórico – por el momento.
En un análisis inicial de sus datos, la colaboración Q-weak, con sede en el Laboratorio Jefferson en Virginia, ha determinado que el valor de la carga débil encaja con lo predicho por la teoría.
A new picture of atomic nucleus emerges
Núcleo atómico Crédito: Argonne National Laboratory

Aunque la fuerza débil, una de las cuatro fuerzas fundamentales de la naturaleza, tiene más fuerza que la gravedad, su nombre se debe a que es efectiva sólo a distancias extremadamente cortas. Si dos partículas están separadas 0,000000000000001 milímetros, sienten la fuerza débil. Más lejos de eso, la fuerza cae en picado.
La fuerza débil es la principal directora tras la desintegración radiactiva, y es la razón por la que brillan las estrellas. Dentro de las estrellas como nuestro Sol, protones y neutrones se fusionan para formar deuterio. Las estrellas liberan el exceso de energía procedente de esta reacción a través de la fuerza débil en forma de calor.
Esta investigación ofrece la primera medida de la carga débil dentro del protón.
Experimentos anteriores habían estudiado la fuerza en partículas más simples, incluyendo el electrón. Al contrario que en el electrón, una partícula puntual, los protones constan de tres partículas más pequeñas, conocidas como quarks, lo que complica el experimento.
Si el valor de la carga débil difiere – incluso una pequeñísima cantidad – de lo esperado, podría ser una prueba de partículas aún por descubrir y que influyen en el resultado. O, tal vez, podría dirigir a los físicos hacia una forma de comprender las fuerzas fundamentales de la naturaleza como una única fuerza en una “teoría de la gran unificación”.
Pero “los lectores deberían ver estos resultados iniciales principalmente como una primera determinación de la carga débil del protón”, dice el portavoz de la colaboración y científico del Laboratorio Jefferson, Roger Carlini, en un comunicado de prensa publicado por el Laboratorio Jefferson. “Con su mayor precisión, nuestra publicación final se centrará en las implicaciones con respecto a una potencial nueva física”.
En el experimento Q-weak, en el Laboratorio Jefferson, los investigadores atacaron hidrógeno líquido – básicamente, un conjunto de protones – con un haz de electrones cuyos espines estaban alineados. El equipo midió la tasa a la que se dispersaban los electrones en ángulos pequeños, y luego compararon esto con una medida realizadas con la dirección del espín invertido del electrón.
En un análisis inicial de un pequeño porcentaje de los datos experimentales de la colaboración, el equipo de investigación encontró que la carga débil del protón encaja con la predicha por la teoría.
Carlini dice que el experimento fue muy complejo y sólo pudo ser posible gracias al haz extremadamente controlado de electrones polarizados del Laboratorio Jefferson, y a un sistema de detección diseñado de forma muy inteligente.
Ahora, dice Carlini, la colaboración analizará todo el conjunto de datos. Debido a que su análisis inicial usó apenas el 4 por ciento de los datos experimentales de la colaboración, el análisis final podría mostrar algo ligeramente diferente.
El artículo científico que describe los resultados ha sido aceptado para su publicación en la revista Physical Review Letters. Hay disponible un borrado en arXiv

Autor: Kelen Tuttle
Fecha Original: 18 de septiembre de 2013
Enlace Original

Lo que une el “amor cuántico” no lo separa una multitud

Fuente: Francis (th)E mule
Dibujo20130925 propagating pair photons in nonlinear media - nature com
Una pareja de novios caminando entre una multitud tiene grandes problemas para no separarse. No tendrían ningún problema si fueran dos excitaciones cuánticas (como un par de fotones o de magnones) y la multitud fuera los átomos de un cristal que se comportase como un medio no lineal. Se publican dos artículos en Nature que lo demuestran de forma experimental. Fukuhara et al. han logrado propagar una pareja de magnones (las excitaciones cuánticas que propagan la energía en los imanes) y Firstenberg et al. una pareja de fotones; en ambos casos la interacción que liga los cuantos de la pareja es mediada por los átomos del medio. La pareja de cuantos se mueven al unísono y para controlar su movimiento basta con que una fuente externa actúe sobre uno de ellos, lo que tiene interesantes aplicaciones en el procesado cuántico de información y en su transferencia. Nos lo cuenta Sougato Bose, “Condensed-matter physics: Quantum togetherness,” Nature, AOP 25 Sep 2013, que se hace eco de los artículos técnicos Takeshi Fukuhara, Peter Schauß, Manuel Endres, Sebastian Hild, Marc Cheneau, Immanuel Bloch, Christian Gross, “Microscopic observation of magnon bound states and their dynamics,” Nature, AOP 25 Sep 2013, y Ofer Firstenberg, Thibault Peyronel, Qi-Yu Liang, Alexey V. Gorshkov, Mikhail D. Lukin, Vladan Vuletić, “Attractive photons in a quantum nonlinear médium,” Nature, AOP 25 Sep 2013.

Dibujo20130925 Schematic representation of magnon propagation
Fukuhara y sus colegas usan una cadena lineal de átomos atrapados por láser y enfriados a muy baja temperatura para simular un material ferromagnético (un imán) en el que el espín de todos los átomos apunta en la misma dirección gracias a sus interacciones mutuas. Al invertir uno de los espines (algo demostrado en experimentos previos) se crea un paquete localizado de energía (un magnón, que se comporta como un fermión) que se propaga de forma libre por la cadena como si fuera un fotón en una guía de onda. Cuando se invierten dos espines, uno espera que los dos magnones se propaguen cada uno por separado de forma libre, ya que como son fermiones tienden a separarse. Sin embargo, la interacción mutua entre ellos es tan fuerte que hace que se peguen entre sí en un estado ligado (un resultado predicho por Hans Bethe). ¿Están entrelazados los dos magnones? Los autores creen que presentan cierto grado de entrelazamiento cuántico pero no han sido capaces de demostrarlo; serán necesarios futuros estudios.
Dibujo20130925 Photons with strong mutual attraction in a quantum nonlinear medium
Firstenberg y sus colegas han lanzado dos fotones de forma sucesiva a través de un gas de átomos de rubidio. La energía de los fotones se ajusta para que no excité ningún nivel energético de los átomos (lo que reduce la probabilidad de que sean absorbidos o dispersados). Mediante un láser apropiado se excita el gas de tal forma que los fotones se ven rodeados de una excitación en los átomos (estado de Rydberg); esta excitación se propaga por el gas como un paquete de ondas localizado. Las fuerzas de van der Waals deberían impedir que dos excitaciones de este tipo se acerquen demasiado. Excitar con un fotón un átomo a un estado de Rydberg impide que otro fotón excite a un átomo cercano. El resultado es una interacción entre ambos fotones que permite la formación de un par acoplado de fotones entrelazados en polarización, aunque el grado de entrelazamiento alcanzado es bajo para muchas aplicaciones de procesado de información cuántica (se espera que futuras investigaciones logren incrementar este grado de entrelazamiento).
En resumen, dos interesantes trabajos con potenciales aplicaciones en el procesado de información cuántica que demuestran que la física cuántica permite que sistemas físicos muy diferentes entre sí se comporten de forma análoga. El poeta diría que lo que une el “amor cuántico” no lo separa una multitud.

El universo puede ser curvo, no plano

Fuente: Ciencia Kanija
Artículo publicado por Ron Cowen el 20 de septiembre de 2013 en Nature News
Las anomalías en una antigua radiación podrían contradecir las pruebas encontradas para el nivel del cosmos.
Vivimos en un universo asimétrico: esta es una lección que los cosmólogos has aprendido examinando la estructura detallada de la radiación dejada por el Big Bang. Ahora, dos cosmólogos demuestran que los datos son consistentes con un universo que está ligeramente curvado, de forma similar a una silla de montar. De ser correcto su modelo, daría un vuelvo a la vieja creencia de que el universo es plano.
Planck Cosmic Microwave Background
CMB por Planck Crédito: ESA

A gran escala, las medidas de precisión del fondo de microondas cósmico (CMB) por parte de la Wilkinson Microwave Anisotropy Probe (WMAP) de NASA proporcionaron las primeras pruebas de asimetría en 2004. Algunos expertos se preguntaron si el hallazgo era un error sistemático que se corregiría cuando el sucesor de la sonda de la NASA, la nave Planck de la Agencia Espacial Europea, cartografiase de nuevo el CMB con una mayor precisión. Pero los resultados de Planck, anunciados a principios de año, confirmaron la anomalía.
Para explicar estos resultados, Andrew Liddle y Marina Cortês, ambos de la Universidad de Edimburgo, en el Reino Unido, han propuesto un nuevo modelo de inflación cósmica – un hipotético periodo de expansión rápida justo tras el Big Bang, en el cual, el universo, creció muchos órdenes de magnitud en una pequeña fracción de segundo.
La teoría de la inflación más simple mantiene que el universo es plano, y que la expansión está dirigida por un único campo cuántico, conocido como inflatón. En este modelo, el inflatón tiene dos papeles: dispara la hiperexpansión del universo, y genera las minúsculas fluctuaciones de densidad que al agrandarse de convirtieron en las semillas de las galaxias.
Pero esta versión de la inflación no puede explicar la asimetría del universo, excepto como una casualidad estadística – similar, por ejemplo, al lanzamiento de una moneda que resulta salir cara muchas más veces que cruz a lo largo de 1000 lanzamientos. Si las anomalías en el CMB no son casualidades, podrían ofrecer una ventana sin precedentes a la estructura detallada de los inicios del universo, dice Liddle.
En su artículo, publicado esta semana en la revista Physical Review Letters1, Liddle y Cortês trabajan con la inflación. Como muchos teóricos antes que ellos, invocan a un segundo campo cuántico — el curvatón — para fijar las fluctuaciones de densidad primordial en el joven universo, restringiendo el inflatón a dirigir la era de hiperexpansión.
Los investigadores demuestran que el campo curvatón generaría las fluctuaciones de densidad asimétricas que se habrían observado si el espacio tuviese una ligera curvatura negativa a gran escala. Esto significa que, si pudiesen dibujarse grandes triángulos en el espacio, sus ángulos internos sumarían menos de 180 grados. (En un universo plano, los ángulos sumarían exactamente 180 grados, y en uno con curvatura positiva, sumarían más de 180 grados).
El trabajo de los autores es el primero en explicar la asimetría a partir de principios básicos, dice Adrienne Erickcek, teórico de la Universidad de Carolina del Norte en Chapel Hill, que no fue parte del estudio.
En el escenario de Liddle y Cortês, la asimetría del CMB derivaría de una falta de uniformidad en el universo a gran escala que está codificada en el campo curvatón. En 2008, Erickcek y sus colegas propusieron un mecanismo similar2. Este modelo, sin embargo, nono invocaba un universo con curvatura negativa.
Aunque numerosas observaciones indican que el cosmos es plano, las desviaciones en los datos del CMB predichos por el último modelo – que los autores reconocen que aún es especulativo — podrían ser lo bastante pequeñas como para encajar en los límites impuestos por las medidas realizadas con el satélite Planck, dice Liddle. Futuros experimentos, con medidas más precisas, podrían determinar quién tiene razón.

Artículos de referencia:
Nature doi:10.1038/nature.2013.13776
1.- Liddle, A. R. & Cortês, M. Phys. Rev. Lett. 111, 111302 (2013).
2.- Erickcek, A. L., Kamionkowski, M. & Carroll, S. M. Phys. Rev. D 78, 123520 (2008).
Autor: Ron Cowen
Fecha Original: 20 de septiembre de 2013
Enlace Original

miércoles, 25 de septiembre de 2013

La posible curvatura negativa del universo

Fuente: Francis (th)E mule
Dibujo20130923 large scale anomaly - cmb seen by planck - march 2013
Saber si el universo es plano (Ωk = 0) es imposible. Los experimentos sólo pueden poner un límite superior a su curvatura. El fondo cósmico de microondas (CMB) observado por el telescopio espacial Planck de la ESA nos ha permitido obtener un valor combinado Planck+WMAP9+ACT+SPT+BAO de Ωk = 0,0005 ± 0,0070 al 95% C.L. El universo parece plano, pero podría tener una pequeñísima curvatura, positiva o negativa. El CMB observado por Planck muestra varias anomalías a gran escala en el universo (para los multipolos acústicos con ℓ < 40, por encima de 3º de cielo) que no tienen explicación dentro del modelo cosmológico de consenso ΛCDM (que ajusta perfectamente los multipolos entre 50 < ℓ < 3000, por debajo de 2º de cielo). Una de las anomalías es una asimetría norte-sur con respecto al plano de la eclíptica (el plano del Sistema Solar). Andrew Liddle y Marina Cortês, ambos de la Universidad de Edimburgo, Reino Unido, publican en Physical Review Letters una explicación de esta anomalía que asume que el universo es abierto y tiene una pequeñísima curvatura negativa. Los datos que Planck publicará en junio de 2014, que incluyen la polarización del CMB, confirmarán (o descartarán) la anomalía y estimarán la curvatura por debajo de los límites compatibles con la idea de Liddle y Cortês. Mientras tanto estos físicos disfrutarán de su momento de gloria. Muchos medios se han hecho eco de su trabajo, como Ron Cowen, “Universe may be curved, not flat,” Nature News, 20 Sep 2013; Marc Kamionkowski, “Is the Lopsided Universe an Open Universe?,” Viewpoint, Physics 6: 98, Sep 9, 2013; el artículo técnico es Andrew R. Liddle, Marina Cortês, “Cosmic Microwave Background Anomalies in an Open Universe,” Phys. Rev. Lett. 111: 111302, Sep 9, 2013.

Dibujo20130923 curvature universe - Omegak - planck results - march 2013
Lo primero, estimar la curvatura del universo sólo con los datos del fondo cósmico de microondas, sin utilizar su polarización, conduce a un resultado peor que el obtenido con WMAP-9 años (que usa la polarización). Por ello, en la estimación oficial de Planck se ha utilizado el mapa de polarización obtenido por WMAP-9, que en la figura se marca como Planck+WP. El error del resultado se puede reducir en un factor de 7 (compara las curvas azules con las rojas en la figura) si además se incorporan los datos de multipolos acústicos de alto orden (hasta ℓ = 3000) de los telescopios del desierto de Atacama (ACT) y del Polo Sur (SPT), marcados en la figura como highL, así como los datos de la oscilación acústica de la materia (BAO) medidos por el proyecto Sloan (SDSS).
Dibujo20130923 Planck power spectrum - angular scale - temperature fluctuationsLo segundo, la anomalía a gran escala para los multipolos acústicos con ℓ < 40, está asociada a grandes errores en las medidas experimentales, porque los bolómetros de Planck de menor frecuencia (LFI), que estudian las bandas entre 30 y 70 GHz, tienen una resolución angular mayor de 0,5º (en realidad mayor de 33 minutos de arco). Por tanto, estudiar estructuras 10 veces más grandes está sujeto a gran error, como muestra la banda verde en esta figura del espectro de multipolos acústicos obtenido por Planck para 2 < ℓ < 2500.
En esa región el modelo cosmológico de consenso predice un espectro casi plano, cuando los datos de Planck muestran un mínimo (con dos puntos a  ℓ ≈ 20 claramente muy por debajo del valor esperado, a unas 3 sigmas de nivel de confianza estadística). Las simulaciones numéricas indican que sólo una de cada mil simulaciones por ordenador del CMB basadas en el modelo ΛCDM presenta una fluctuación estadística tan grande. Sin embargo, repito, la banda de error es grande. Esta banda de error se reducirá un poco, pero sólo un poco, cuando se publiquen los datos definitivos de Planck en junio de 2014; este año en marzo se han publicado las medidas de 15,5 meses, es decir, unos 2,5 mapas completos del cielo; el año próximo se duplicará el número de datos utilizados y se incluirán las medidas de la polarización. Repito, la resolución angular de los bolómetros LFI no es suficiente para explorar el universo a gran escala; serán necesarios futuros instrumentos para aclarar de forma definitiva esta cuestión.
Por cierto, la anomalía en el CMB asociada a grandes escalas fue observada por primera vez en las medidas del CMB obtenidas por el telescopio espacial WMAP (NASA) en 2004. Análisis posteriores incorporando la polarización indicaron, alrededor de 2009, que parecía que se trataba de una anomalía ficticia, una simple fluctuación estadística, por lo que el interés decayó bastante. Ahora en 2013 la colaboración Planck ha rescatado esta anomalía. ¿Qué pasará con esta anomalía cuando se publiquen los datos de polarización del CMB en junio de 2014? Nadie lo sabe, pero yo me atrevo a predecir que pasará algo parecido que con WMAP, casi seguro que la anomalía asociada a la eclíptica desaparecerá (a muy pocos físicos les gusta que el plano del Sistema Solar sea un plano privilegiado a nivel cosmológico). Por supuesto, mientras tanto, los cosmólogos teóricos tienen que aprovechar la oportunidad para publicar posibles explicaciones. Liddle y Cortês han sido los primeros en abrir la veda de Planck desde que la cerró WMAP.
Dibujo20130923 Universe born via bubble nucleation inside a larger metauniverse - physics aps
Liddle y Cortes presentan en su artículo una variante de los modelos de inflación con dos campos escalares, el inflatón y el curvatón, que se propusieron en 2008 para explicar la anomalía de WMAP. En estos modelos la inflación se inicia gracias al inflatón, pero su parada se adelanta respecto al caso en el que no hubiera curvatón, momento en que empieza a actuar el curvatón. Este campo puede generar las fluctuaciones de la densidad del universo responsables de la asimetría a gran escala observada siempre que se cumplan dos condiciones: (1) que el universo sea abierto y (2) que tenga una curvatura negativa muy pequeña, |Ωk| > 0,00008. Esta curvatura negativa hace que el universo se parezca a una silla de montar en lugar de una esfera o un plano. Los trabajos previos sobre el curvatón no estudiaron el caso de curvatura negativa, por eso no explican bien la anomalía de Planck y WMAP. Quizás los datos de Planck que se publicarán en junio de 2014 permitan obtener una mejor estimación de la curvatura que permita confirmar (o descartar) este modelo.
En estos modelos inflacionarios el universo es una burbuja dentro de un multiverso. Durante la formación (nucleación) de las burbujas, en el interior de cada una de ellas dominan las fluctuaciones primordiales debidas al campo inflatón, pero en su frontera domina el campo del curvatón. Por tanto, este campo afecta más allá del horizonte observable, con lo que el universo parece plano, aunque más allá del horizonte presenta una curvatura negativa. El tamaño del superhorizonte viene establecido por la longitud de onda de la fluctuación del curvatón que genera la asimetría observada por Planck y WMAP. Por cierto, a la curvatura más allá del horizonte se suele llamar supercurvatura y he estado tentado de titular esta entrada “La posible supercurvatura negativa del universo”.
¿Cómo se forman los universos burbuja? Mediante efecto túnel cuántico en el vacío. Cada burbuja se expande a una velocidad próxima a la velocidad de la luz. ¿Cómo es posible que el universo sea abierto pero finito? El tiempo se define dentro del universo burbuja de manera diferente a como se define en el multiverso, con lo que nuestro universo parece infinito aunque sea una burbuja finita del multiverso. La existencia del campo curvatón y de las paredes de la burbuja induce fluctuaciones a gran escala en el universo burbuja que dejan su marca en el fondo cósmico de microondas, pero sólo en los multipolos acústicos más bajos, que presentan señales de la supercurvatura en forma de la asimetría observada por Planck y WMAP. Los multipolos más altos no se ven afectados y para ellos el universo parece plano cuando se omiten los multipolos más bajos. Liddle y Cortes calculan en su artículo los parámetros adecuados de su modelo que explican (grosso modo) la asimetría observada en el CMB. Por supuesto, un primer artículo no completa todos los detalles y habrá que esperar a futuros artículos que presenten simulaciones numéricas para contrastar todos los detalles. Aún así, como el error experimental en los multipolos acústicos bajos es muy alto, no creo que cambien mucho las conclusiones de su artículo.
En resumen, una especulación científica que dará que hablar durante cierto tiempo, pero que, en mi opinión, será olvidada cuando se publiquen en junio de 2014 los nuevos datos de Planck sobre el CMB y se obtenga una mejor estimación de la curvatura del universo utilizando la polarización del CMB medida por Planck.

lunes, 23 de septiembre de 2013

El interior de una Tierra hueca

Fuente: Malaciencia
Portada de «El país sin estrella» Últimamente estoy releyendo los álbumes de «Valérian: agente espacio-temporal» (posteriormente renombrados como «Valérian y Laureline»). En la historia «El país sin estrella», aparece un concepto clásico de la ciencia ficción: un planeta hueco, con un sol en su interior, y habitantes en la superficie interna. Como digo, el concepto es un clásico, pues ya lo había utilizado Edgar Rice Burroughs (sí, el de Tarzán y John Carter de Marte) en su serie de Pellucidar (no he leído ninguna novela, pero sí vi en su día la adaptación cinematográfica de «En el corazón de la Tierra»). Y puede que los que hayan disfrutado en su infancia de los libros de «Elige tu propia aventura», recuerden «El reino subterráneo».
En todas las versiones de este tipo de ambientación, la idea es la misma: el planeta en cuestión es hueco, y la corteza es bastante densa. De esta forma, la masa de la corteza es suficiente para que su gravedad mantenga sujetos a ella, tanto a los habitantes del exterior como del interior. El sol interno se encuentra exactamente en el centro, proporcionando luz y calor a ese mundo subterráneo e invertido.
¿Cómo se calcula la gravedad en un caso así? En el colegio nos enseñaron la famosa Ley de Gravitación, que nos dice que la gravedad es directamente proporcional al producto de las masas, e inversamente proporcional al cuadrado de la distancia, y que se puede expresar con la igualmente famosa fórmula: F = G·M·m/r2. Pero para aplicar esta fórmula, debemos suponer que la masa de cada objeto está concentrada en un punto (que llamamos centro de gravedad). Esta simplificación es perfectamente válida cuando queremos calcular las trayectorias de planetas y otros objetos astronómicos, que estén muy alejados entre sí. Pero en otros casos (como el que nos ocupa), no nos vale. Los cuerpos reales tienen volumen, y su masa está distribuida por ese volumen.
Mapa del reino subterráneo de «Elige tu propia aventura» ¿Qué hacemos entonces? Pues dividimos nuestros objetos de estudio en trozos muy pequeños, de forma que cada uno de esos trozos pueda considerarse un punto, aplicamos la fórmula para cada punto, y sumamos todos los pequeños resultados. Llevando este planteamiento a su extremo, consideraríamos que el objeto está formado por infinitos puntos de tamaño cero, y calcularíamos la suma de sus infinítamente pequeñas propiedades. Es decir, realizamos un cálculo integral.
Como nunca he puesto en este blog una operación matemática más complicada que una multiplicación (bueno, alguna vez he puesto una potencia), y no quiero empezar ahora, remitiré a los interesados en el desarrollo matemático, a la estupenda web HyperPhysics, o a la Wikipedia. ¿Y cuál es el resultado? Pues el propio Isaac Newton ya lo desarrolló en su famoso libro «Philosophiæ naturalis principia mathematica». Para cualquier punto en el interior de una esfera hueca homogénea, ya sea cerca del centro, o en la misma superficie interior de dicha esfera, la fuerza gravitatoria total es siempre la misma: cero.
Sí. Cero. Si imaginamos un planeta hueco, con una densidad más o menos uniforme en su corteza (al menos, con simetría esférica, es decir, que para cada «capa» esférica, la densidad sea la misma en cualquier punto), en su interior hueco, la gravedad sería nula. Sus supuestos habitantes flotarían, a menos que se agarraran al terreno de alguna forma.
La situación va a peor si encima imaginamos que en el interior de nuestro planeta hueco, hay una pequeña estrella. Ese objeto tendrá masa, lógicamente, por lo que tendrá su campo gravitatorio. ¿Y hacia donde empujaría esa gravedad a cualquier objeto? Pues hacia la propia estrella. Así que los supuestos habitantes del interior del planeta hueco, ya no es que tuvieran que agarrarse a algo para no flotar, sino que literalmentemte, caerían hacia su sol interior.
Cartel promocional de «At the Earth's Core» Hemos supuesto que el planeta es más o menos homogéneo. La simetría esférica de la densidad de la corteza es necesaria para que la gravedad sea cero en el interior hueco del planeta. Pero sabemos que los planetas no son tan simétricos. Hay irregularidades, protuberancias, oquedades, distintos materiales, etc. Así que en un planeta real, es posible que estas irregularidades rompan el equilibrio de fuerzas, y que en algunos lugares, la resultante de la fuerza gravitatoria no sea cero. Pero estas diferencias por lo general serían muy pequeñas. Y fijaos que no sólo hace falta una pequeña fuerza para no flotar, sino que hay que contrarrestar la gravedad de la estrella interior.
Bueno, supongamos que en alguna región del planeta hay algún mineral extremadamente denso, de forma que la diferencia de fuerzas gravitatorias fuera significativa. Tenemos otro problema. No sólo mantendría a los habitantes en el suelo, sino que atraería al sol interno hacia esa zona, por lo que en poco tiempo, achicharraría toda vida posible, antes de colisionar contra la corteza y producir un cataclismo de proporciones planetarias.
Así que, me temo que, ni Pellucidar, ni el planeta sin estrella de Valerian, ni cualquier otro mundo similar, son posibles. Por mucho que nos pueda fascinar una idea así.

Los días de la Tierra están contados

Fuente: Ciencia Kanija
Artículo publicado por Emma Marris el 19 de septiembre de 2013 en Nature News
Los investigadores calculan que el planeta abandonará la ‘zona habitable’ del Sol en 1750 millones de años.
La Tierra podrá albergar vida durante otros 1750 millones de años aproximadamente, de acuerdo con un estudio publicado el 18 de septiembre en la revista Astrobiology1. El método usado para hacer los cálculos puede identificar también planetas fuera del Sistema Solar con ‘periodos habitables’ largos, que podrían ser los mejores lugares en los que buscar vida.
Zarmina, Gliese 581
Gliese 581

La zona habitable alrededor de una estrella es el área en la que un planeta que se encuentre orbitando en ella, pueda tener agua líquida en su superficie, el disolvente perfecto para las reacciones químicas que son base de la vida. Demasiado lejos de la estrella, y el agua se convertirá permanentemente en hielo y se condensará su dióxido de carbono; demasiado cerca, y el agua se convertirá en vapor de agua que escapa al espacio.
Las zonas habitables no son estáticas. La luminosidad de una estrella normal aumenta conforme su composición y reacciones químicas evolucionan a lo largo de miles de millones de años, alejando la zona habitable. Un grupo de investigadores informaban en marzo de que la Tierra está más cerca del borde interno de la zona habitable del Sol de lo que anteriormente se pensaba2.
El límite interior de la zona habitable del Sol se aleja a un ritmo de aproximadamente un metro por año. El último modelo predice un tiempo de vida total para la zona habitable de la Tierra de entre 6300 millones y 7800 millones de años, lo que sugiere que la vida en el planeta ya ha consumido el 70% de su tiempo. Otros planetas – especialmente los que se formaron cerca del límite exterior de la zona habitable de la estrella, o que orbitan a estrellas de masa baja y vida larga – pueden tener tiempos de vida para su zona habitable de 42 000 millones de años, o más.
Los autores sugieren que los científicos que buscan vida en otros planetas deberían centrarse en aquellos que han ocupado sus zonas habitables durante al menos, tanto tiempo como la Tierra – como es el caso de HD40307g, que se encuentra a 12,9 pársecs (42 años luz) de la Tierra.
La vida es compleja
Pero es posible que la Tierra necesitase de un tiempo anormalmente largo para desarrollar vida avanzada, dice Caleb Scharf, astrobiólogo de la Universidad de Columbia en Nueva York. “Es el viejo problema de extraer conclusiones a partir de un solo dato”, dice. El coautor del estudio Mark Claire, astrónomo en la Universidad de St. Andrews, en el Reino Unido, está de acuerdo, pero añade que si él llevase a cabo una misión para encontrar vida en un planeta terrestre, probablemente apuntaría con sus telescopios a un planeta que hubiese estado en la zona habitable tanto tiempo como fuese posible.
Los críticos también sugieren que la fórmula usada por los investigadores es demasiado simple. El modelo asume que los planetas extrasolares tienen atmósferas similares a la de la Tierra, así como una composición y acción de placas tectónicas similar. Colin Goldblatt, climatólogo planetario en la Universidad de Victoria, en Canadá, dice que sin incluir dinámica climática, como composición atmosférica y volumen, los resultados no son muy útiles para predecir la habitabilidad. “Si me pides que construya un planeta habitable donde está Venus, puedo hacerlo; si me pides que construya un planeta muerto donde está la Tierra, también puedo hacerlo”, señala Goldblatt.
“Hay mucho espacio para nuevas formulaciones de la zona habitable”, concuerda Claire. Por ahora, los investigadores no saben mucho sobre estos planetas extrasolares. Pero los cálculos de la zona habitable podrían demostrar ser interesantes también cerca de casa.
Conforme el Sol aumente su brillo, la Tierra se convertirá en un lugar demasiado caliente para la vida, y Marte entrará en la zona habitable. “Si los humanos siguen estando por aquí dentro de mil millones de años, ciertamente imaginaría que viviesen en Marte”, señala Claire.

Nature doi:10.1038/nature.2013.13788
Artículos de referencia
1.- Rushby, A. J., Claire, M. W., Osborn, H. & Watson, A. J. Astrobiology 13, 833–849 (2013).
2.- Kopparapu, R. K. et alAstrophys. J. 765, 131 (2013).

Autor: Emma Marris
Fecha Original: 19 de septiembre de 2013
Enlace Original

Física: La cruzada cuántica

Fuente: Ciencia Kanija
Artículo publicado por Philip Ball el 11 de septiembre de 2013 en Nature News
Los físicos han pasado un siglo desconcertados con las paradojas de la teoría cuántica. Ahora, algunos están intentando reinventarla.
Si decimos la verdad, pocos físicos han llegado alguna vez a sentirse cómodos con la teoría cuántica. Tras haber vivido con ella durante más de un siglo, han logrado forjar una buena relación laboral; los físicos usan ahora rutinariamente las matemáticas del comportamiento cuántico para hacer cálculos asombrosamente precisos sobre la estructura molecular, las colisiones de partículas de alta energía, comportamiento de semiconductores, emisiones de espectro y mucho más.
Cuántica
Cuántica

Pero las interacciones tienden a ser estrictamente formales. Tan pronto como los investigadores intentan ir más allá y preguntarse qué significan las matemáticas, chocan directamente contra un muro aparentemente impenetrable de paradojas. ¿Puede algo ser realmente una onda y una partícula al mismo tiempo? ¿El gato de Schrödinger realmente está vivo y muerto? ¿Es verdad que incluso la medida más sutil concebible puede, de algún modo, tener un efecto sobre partículas en el otro extremo del universo?
Muchos físicos responden a esta rareza interna refugiándose en la ‘interpretación de Copenhague’, desarrollada por Niels Bohr, Werner Heisenberg y sus colegas cuando establecían la forma moderna de la teoría cuántica en la década de 1920. La interpretación dice que estas rarezas reflejan el límite fundamental de lo que puede saberse del mundo, y que tienen que aceptarse las cosas tal como son – o, como dice la famosa frase del físico David Mermin de la Universidad de Cornell en Ithaca, Nueva York, “¡Cállate y calcula!”1
Pero siempre hay alguien que no se conforma con callarse – que está determinado a ir más allá y desentrañar el significado de la teoría cuántica. “¿Qué es lo que hay en este mundo que nos fuerza a navegar en él con la ayuda de una entidad tan abstracta?”, se pregunta el físico Maximilian Schlosshauer de la Universidad de Portland en Oregón, refiriéndose al principio de incertidumbre; la función de onda que describe la probabilidad de encontrar un sistema en varios estados; y todo el resto de parafernalia que se encuentra en los libros de texto sobre teoría cuántica.
A lo largo de la última década, aproximadamente, una pequeña comunidad de estos respondones han empezado a defender que la única forma de avanzar es demoler la entidad abstracta y empezar de nuevo. Son un grupo heterogéneo, cada uno con una idea distinta de cómo debería abordarse tal ‘reconstrucción cuántica. Pero comparten la convicción de que los físicos han pasado el último siglo observando la teoría cuántica desde un ángulo incorrecto, haciendo que su sombra sea extraña, irritante y difícil de comprender. Si se observase desde la perspectiva adecuada, piensan, todo quedaría claro, y los viejos misterios  tales como la naturaleza cuántica de la gravedad podrían resolverse por sí mismos de forma natural y obvia – tal vez como un aspecto de una teoría de probabilidad generalizada.
“El mejor trabajo sobre las bases cuánticas”, dice Christopher Fuchs del Instituto Perimeter para Física Teórica en Waterloo, Canadá, “será aquel que pueda escribir una historia — literalmente una historia, todo en simples palabras — tan convincente y magnífica en su visualización, que las matemáticas de la mecánica cuántica en todos sus detalles técnicos exactos dejen de tener tanta importante inmediatamente”.
Una propuesta muy razonable
Uno de los primeros intentos de escribir tal historia llegó en 2001, cuando Lucien Hardy, entonces en la Universidad de Oxford, Reino Unido, propuso que la teoría cuántica podría derivarse a partir de un pequeño conjunto de axiomas “muy razonables”, sobre cómo pueden medirse las probabilidades en cualquier sistema2, tal como una moneda lanzada al aire.
Hardy empezó haciendo notar que un sistema clásico puede especificarse completamente midiendo un cierto número de ‘estados puros’, que denota como N. Para el lanzamiento de una moneda, en la que el resultado puede ser cara o cruz, N es igual a dos. Para el lanzamiento de un dado, donde el cubo debe terminar en una de sus seis caras, N es igual a seis.
La probabilidad, sin embargo, funciona de manera distinta en el mundo cuántico. Medir el espín de un electrón, por ejemplo, puede distinguir entre dos estados puros, que puede describirse de forma grosera como una rotación horaria o antihoraria alrededor de un eje vertical. Pero, al contrario que en el mundo clásico, el espín del electrón es una mezcla de dos estados cuánticos antes de que se realice una medida, y tal mezcla varía a lo largo de un continuo. Hardy tiene esto en cuenta mediante un ‘axioma de continuidad, el cual requiere que los estados puros se transformen unos en otros sin saltos. Este axioma implica que se requieren al N2 medidas para especificar de forma completa un sistema — una relación que corresponden con la descripción cuántica estándar.
Pero, en principio, dice Hardy, el axioma de continuidad también permite teorías de orden superior en las que se requiere para la completa definición del sistema N3, N4 o más medidas3, dando como resultado sutiles desviaciones del comportamiento cuántico estándar que podría ser observable en el laboratorio. Sin embargo, no trató de analizar tales posibilidades en detalle, su objetivo, más ambicioso, era demostrar cómo podría crearse un nuevo marco para la física cuántica como una teoría general de probabilidad. Posiblemente, señala, tal teoría podría haberse derivado por los matemáticos del siglo XIX sin conocimiento de las motivaciones empíricas que llevaron a Max Planck y Albert Einstein a iniciar la mecánica cuántica a principios del siglo XX.
Fuchs, por ejemplo, encontró muy estimulante el artículo de Hardy. “Me golpeó la cabeza como un martillo y ha cambiado mi forma de pensar desde entonces”, dice, convenciéndolo de perseguir la aproximación de la probabilidad con todas sus fuerzas.
Fuchs estaba especialmente interesado en reinterpretar el problemático concepto de entrelazamiento: una situación en la que los estados cuánticos de dos o más partículas son interdependientes, lo que significa que una medida sobre uno de ellos permitirá, instantáneamente, determinar el esto de otra. Por ejemplo, dos fotones emitidos desde un núcleo atómico en sentidos opuestos podrían entrelazarse, de tal forma que uno se polariza horizontalmente y el otro verticalmente. Antes de realizar ninguna medida, las polarizaciones de los fotones está correlacionadas, pero no son fijas. Una vez que se realiza la medida sobre uno de los fotones, sin embargo, el otro también queda instantáneamente determinado – incluso si se encuentra a años luz de distancia.
Tal como Einstein y sus colaboradores señalaron en 1935, tal acción instantánea sobre distancias arbitrariamente grandes parece violar la teoría de la relatividad, que sostiene que nada puede viajar más rápidamente que la luz. Defendían que esta paradoja era la demostración de que la teoría cuántica era incompleta.
Pero los otros pioneros salieron al paso rápidamente. De acuerdo con Erwin Schrödinger, que acuñó el término ‘entrelazamiento’, esta característica es el rasgo esencial de la mecánica cuántica, “la que fuerza su salida definitiva de las líneas clásicas de pensamiento”. Posteriores análisis han resuelto la paradoja, demostrando que las medidas de un sistema entrelazado en realidad no pueden usarse para transmitir información a mayor velocidad que la luz. Y los experimentos con fotones de la década de 1980 demostraron que el entrelazamiento realmente no funciona de esta forma.
Aun así, esta parece ser una extraña forma de comportamiento para el universo. Y esto es lo que llevó a Fuchs a requerir un nuevo enfoque a las bases de la cuántica4. Rechazó la idea, mantenida por mucho en este campo, de que las funciones de onda, entrelazamiento, y todo lo demás, representan algo real en la naturaleza (ver Nature 485, 157–158; 2012). En lugar de esto, ampliando una línea argumental que data de la interpretación de Conpenhague, insistía en que estas construcciones matemáticas son solo una forma de cuantificar información personal de los “observadores”, expectativas, grados de creencia”5.
Se vio animado a seguir con esta visión por el trabajo de su colega del Instituto Perimeter, Robert Spekkens, quien llevó a cabo un experimento mental donde se preguntaba qué aspecto tendría la física si la naturaleza limitase, de algún modo, lo que cualquier observador podría saber sobre un sistema, imponiendo un “principio de equilibrio del conocimiento”: ninguna información del observador sobre el sistema, medida en bits, puede superar la cantidad de información de la que el observador carece. Los cálculos de Spekkens demuestran que este principio, aunque parezca arbitrario, es suficiente para reproducir muchas de las características de la teoría cuántica, incluyendo el entrelazamiento6. También se ha demostrado que otros tipos de restricciones sobre lo que puede saberse sobre un conjunto de estados producen comportamientos similares a los cuánticos7, 8.
Hueco de conocimiento
La lección, dice Fuchs, no es que el modelo de Spekkens sea realista – nunca intentó serlo – sino que el entrelazamiento y todo el resto de extraños fenómenos de la teoría cuántica no son una forma completamente nueva de física. Simplemente podrían surgir fácilmente de una teoría del conocimiento y sus límites.
Para lograr una mejor idea de cómo podría suceder esto, Fuchs ha rescrito la teoría cuántica estándar en una forma que recuerda mucho a una rama de la teoría de probabilidad clásica conocida como inferencia bayesiana, que tiene sus raíces en el siglo XVIII. En la visión bayesiana, las probabilidades son con cantidades intrínsecas ‘ligadas’ a los objetos. En lugar de esto, cuantifican el grado de creencia personal de un observador de lo que podría suceder al objeto. La visión bayesiana cuántica de Fuchs, o QBism (pronunciado ‘cubism’ – cubismo en inglés)9, 10, es un marco de trabajo que permite recuperar los fenómenos cuánticos conocidos a partir de unos nuevos axiomas que no requieren de construcciones matemáticas tales como la función de onda. El QBism ya ha realizado algunas propuestas experimentales esperanzadoras, señala. Tales experimentos podría revelar, por ejemplo, nuevas y profundas estructuras dentro de la mecánica cuántica que permitirían que se re-expresaran las leyes de probabilidad como variaciones menores de la teoría de probabilidad estándar11.
“Este nuevo enfoque, de ser válida, podría cambiar nuestra comprensión de cómo construir computadores cuánticos y otros dispositivos de información cuántica”, comenta, señalando que todas esas aplicaciones son muy dependientes del comportamiento de la probabilidad cuántica.
El conocimiento — que normalmente se mide en términos de cuántos bits de información tiene un observador sobre un sistema — es el centro de muchos otros enfoques de reconstrucción. Tal como expresan los físicos Časlav Brukner y Anton Zeilinger de la Universidad de Viena, “la física cuántica es una teoría elemental de la información”12. Mientras tanto, el físico Marcin Pawłowski de la Universidad de Gdańsk, en Polonia, y sus colegas, exploran un principio al que llama ‘causalidad de información’13. Este postulado dice que si un experimentador (llamémoslo Alice) envía m bits de información sobre sus datos a otro observador (Bob), entonces Bob no puede lograr más información que m bits clásicos de información sobre esos datos – sin importar cuánto sepa sobre el experimento de Alice.
Pawłowski y sus colegas han descubierto que tanto la física clásica como la mecánica cuántica estándar respetan este postulado, pero no teorías alternativas que permiten formas más fuertes de correlaciones similares al entrelazamiento entre partículas portadoras de información. Por tal razón, el grupo escribe en su artículo: “la causalidad de la información podría ser una de las propiedades básicas de la naturaleza” – en otras palabras, un axioma para alguna futura teoría cuántica reconstruida.
Lo que está complicando algunos de estos intentos de reconstrucción cuántica es que sugieren que el conjunto de leyes que gobiernan el universo es sólo una entre muchas posibilidades matemáticas. “Resulta que muchos principios llevan a toda una clase de teorías probabilísticas, y no específicamente a la teoría cuántica”, apunta, “en realidad son genéricas a muchas teorías probabilísticas. Esto nos permite centrarnos en la cuestión de qué hace única a la teoría cuántica”.
¿Listo para el éxito?
Hardy dice que el ritmo del trabajo de reconstrucción cuántica ha tenido un auge durante los últimos años, cuando los investigadores empezaron a sentir que tenían buenas herramientas para abordar el problema. “Ahora estamos listos para algunos avances realmente significativos”, comenta.
Pero, ¿puede alguien juzgar el éxito de estos esfuerzos? Hardy apunta que algunos investigadores están buscando señales experimentales de correlaciones cuánticas de nivel superior permitidas en su teoría. “Sin embargo, yo diría que el criterio real para el éxito es más teórico”, dice. “¿Tenemos una mejor comprensión de la teoría cuántica, y los axiomas nos dan nuevas ideas sobre cómo ir más allá de la física actual?”. Tiene esperanzas de que algunos de estos principios puedan, finalmente, ayudar en el desarrollo de una teoría de la gravedad cuántica.
Hay gran espacio para el escepticismo. “La reconstrucción de la teoría cuántica a partir de un conjunto de principios básicos parece una idea que tiene todas las apuestas en su contra”, dice Daniel Greenberger, físico que trabajo en las bases de la cuántica en el City College de Nueva York5. Aun así, Schlosshauer defiende que “incluso si ningún programa de reconstrucción puede finalmente encontrar un conjunto de principios universalmente aceptados que funcionen, no es trabajo en vano, debido a que habremos aprendido mucho por el camino”.
Es cautelosamente optimista. “Una vez que tengamos un conjunto de principios simples y físicamente intuitivos, la mecánica cuántica será mucho menos misteriosa”, afirma. “Creo que muchas de las cuestiones abiertas quedarían cerradas. Probablemente no soy el único que estaría encantado de ser testigo del descubrimiento de estos principios”.

Nature 501, 154–156 (12 September 2013) doi:10.1038/501154a
Artículos de referencia:
1.- Mermin, N. D. Phys. Today 42, 9 (1989).
2.- Hardy, L. Preprint at http://arxiv.org/abs/quant-ph/0101012 (2001).
3.- Sorkin, R. D. Preprint at http://arxiv.org/abs/gr-qc/9401003 (1994).
4.- Fuchs, C. A. Preprint at http://arxiv.org/abs/quant-ph/0106166 (2001).
5.- Schlosshauer, M. (ed.) Elegance and Enigma: The Quantum Interviews (Springer, 2011).
6.- Spekkens, R. W. Preprint at http://arxiv.org/abs/quant-ph/0401052 (2004).
7.- Kirkpatrick, K. A. Found. Phys. Lett. 16, 199–224 (2003).
8.- Smolin, J. A. Quantum Inform. Comput. 5, 161–169 (2005).
9.- Fuchs, C. A. Preprint at http://arxiv.org/abs/1003.5209 (2010).
10.- Fuchs, C. A. Preprint at http://arxiv.org/abs/1207.2141 (2012).
11.- Renes, J. M., Blume-Kohout, R., Scott, A. J. & Caves, C. M. J. Math. Phys. 45, 2171–2180 (2004).
12.- Brukner, Č. & Zeilinger, A. Preprint at http://arxiv.org/abs/quant-ph/0212084 (2002).
13.- Pawłowski, M. et al. Nature 461, 1101–1104 (2009).
Autor: Philip Ball
Fecha Original: 11 de septiembre de 2013
Enlace Original

Desarrollan un interruptor atómico basado en el control de la posición de un solo átomo

Fuente: Ciencia Kanija
Artículo publicado el 16 de septiembre de 2013 en UAM
El trabajo se publica en Nature Nanotecnology.
El nuevo interruptor atómico podría ser utilizado como el elemento de memoria más pequeño hasta ahora fabricado.
Avances recientes en Nanotecnología han permitido miniaturizar a escala atómica los interruptores electrónicos. Ahora, un equipo internacional de científicos de la Universidad de Constanza en Alemania —en el que se encuentra el físico Juan Carlos Cuevas de la Universidad Autónoma de Madrid (UAM)— ha demostrado que un nanohilo de aluminio puede usarse como un interruptor que se enciende y se apaga controlando eléctricamente la posición de un único átomo.
Interruptor de un átomo
Interruptor de un átomo Crédito: UAM

De acuerdo con el trabajo publicado recientemente en la revista Nature Nanotechnology, estos interruptores atómicos podrían convertirse en los elementos de memoria no volátil más pequeños que hasta ahora se hayan desarrollado para el almacenamiento de información.
Los experimentos que llevaron a estas conclusiones debieron realizarse a muy bajas temperaturas (por debajo de 1 K), ya que es en estas condiciones que el aluminio se convierte en un material superconductor.
Alcanzar la superconductividad del aluminio permitió a los científicos utilizar las características corriente-voltaje para revelar las propiedades cuánticas de transporte en ambas posiciones del interruptor (apagado y encendido).
“En los experimentos se utilizó un puente metálico basado en una película delgada o nanohilo de aluminio —explica Juan Carlos Cuevas—. Este puente se rompe primero de forma controlada por medios mecánicos para formar un contacto con apenas unos pocos átomos en su parte más estrecha. Después se hace pasar una corriente eléctrica mediante un complejo protocolo, hasta que se consigue que el nanohilo exhiba dos valores de la resistencia eléctrica bien definidos. Cuando esto ocurre, el nanocircuito se comporta como un interruptor electrónico”, completa el físico de la UAM.
En el plano teórico los investigadores llevaron a cabo simulaciones por ordenador para averiguar las configuraciones atómicas que se generan en el interruptor. Estas simulaciones, combinadas con un teoría cuántica de la conducción eléctrica, permitieron a los científicos demostrar que el proceso de conmutación del interruptor se produce por la reordenación de un solo átomo inducida por el paso de la corriente.
Arquitectura sencilla
En su trabajo los científicos señalan que una de las ventajas esenciales de este nuevo tipo de interruptores es su arquitectura, la cual se basa en una sencilla configuración de dos electrodos.
“La fabricación de un dispositivo con tres electrodos, que es la estrategia que se había seguido hasta ahora, es considerablemente más compleja, especialmente a escala atómica. Esto —explica Cuevas— es debido a la diferente función de los electrodos: dos de ellos sirven como cables de corriente, mientras que por el tercero no circula la corriente y es responsable del encendido o apagado del interruptor”.
En el nuevo interruptor atómico la conmutación se lleva a cabo con la ayuda de los mismos dos cables que se emplean para la lectura de su estado. La simplicidad de este diseño podría facilitar su uso en dispositivos reales en un futuro cercano.

Referencia bibliográfica: C. Schirm, M. Matt, F. Pauly, J.C. Cuevas, P. Nielaba and E. Scheer, A current-driven single-atom memory, Nature Nanotechnology 8, 645 (2013).
Fecha Original: 16 de septiembre de 2013
Enlace Original

La estabilidad del vacío del modelo estándar

Fuente: Francis (th)E mule
Dibujo20130910 SM phase diagram in terms of Higgs and top pole masses
La masa del bosón de Higgs y del quark top (cima) apuntan a que el vacío del modelo estándar es metaestable, aunque no estamos del todo seguros porque está en el borde entre estable y metaestable. Además, los errores son muy grandes, tanto los experimentales, sobre todo en la masa del quark top, como los teóricos, hay que extrapolar los cálculos hasta la escala de Planck y las correcciones de mayor orden podrían ser importantes. Quizás sea por puro azar, o quizás haya algo profundo oculto, pero las masas del Higgs y del quark top parecen ajustadas en un punto crítico doble en relación a la estabilidad del vacío. Nos lo contó Pier Paolo Giardino (Univ. Pisa / INFN Pisa), “Is that a Standard Higgs? And now?,” CP³ Origins, slides pdf / video flash. Su artículo técnico es Dario Buttazzo, Giuseppe Degrassi, Pier Paolo Giardino, Gian F. Giudice, Filippo Sala, Alberto Salvio, Alessandro Strumia, “Investigating the near-criticality of the Higgs boson,” arXiv:1307.3536 [hep-ph].

El vacío del modelo estándar viene determinado por el vacío del campo de Higgs. El potencial del campo de Higgs, el famoso sombrero mexicano, es V(H) = −½ m2(μ) |H|2 + λ(μ) |H|4), donde la masa m(μ) y la constante de acoplo λ(μ) dependen de la energía según las ecuaciones del grupo de renormalización. A alta energía el potencial se puede aproximar como V(H) ≈ λ(μ) |H|4, siendo el signo de λ(μ) el que determina la estabilidad del vacío del campo de Higgs y del modelo estándar. La función λ(μ) es monótona decreciente y parte de un valor inicial positivo λ(0)>0. El vacío es estable si λ(MPl )>0, donde es MPl es la energía de Planck, es inestable si λ(MEW)<0, donde MEW es la energía de la escala electrodébil, y es metaestable si λ(μ)=0 para algún valor de MEW < μ < MPl. Ya sabemos que el vacío no puede ser inestable, porque existimos. Los valores actuales de las masas del bosón de Higgs (125,66 ± 0,34 GeV) y del quark top (173,36 ± 0,65 GeV) indican que el vacío del modelo estándar es metaestable y λ(μ)=0 para 1010 GeV < μ < 1012 GeV. La mayor incertidumbre experimental se encuentra en el valor de la masa del quark top.
Dibujo20130910 SM phase diagram in terms of quartic Higgs coupling lambda and top Yukawa coupling
Esta figura muestra la estabilidad del modelo estándar en el plano definido por λ(MPl) y el acoplo de Yukawa para el quark top yt(MPl); la función yt(MPl) también es decreciente y parte de un valor yt(0) ≈ 1. La parte derecha es un zoom donde se puede observar una raya gris casi horizontal en la zona de metaestabilidad (en amarillo). Realmente parece que las masas del Higgs y del quark top están ajustadas para que el modelo estándar sea metaestable por alguna razón física.
Por supuesto, el cálculo teórico asume que el modelo estándar es válido hasta la escala de Planck (es decir, entre ~1 y ~1015 TeV), pero hay indicios indirectos de que no es así (el mecanismo del balancín (see-saw) en la física de los neutrinos, la existencia de la materia oscura, o la asimetría materia-antimateria). Por ello, el cálculo a la energía de Planck de los parámetros del modelo estándar mediante el grupo de renormalización hay que tomarlo con sumo cuidado. Recuerda que todos los parámetros del modelo estándar (constantes de acoplo y masas de partículas) cambian con la energía (μ).
Dibujo20130912 present status higher-order computations - sm parameters at nnlo precision
El cálculo teórico requiere determinar la evolución con la energía de seis parámetros (mostrados en esta tabla) hasta energías en la escala de Planck. En la actualidad el cálculo ha sido realizado sólo hasta el orden NNLO (hasta 3 loops) y se cree que las correcciones NNNLO serán pequeñas. Estos cálculos se realizan con la ayuda de ordenadores y no es fácil estimar cuándo estará listo el resultado hasta NNNLO.
Dibujo20130912 stability - higgs potential - our era - inflation era
El modelo estándar mínimo se basa en un potencial V(H) cuártico para el Higgs, pero nada prohíbe que el campo del Higgs sea más complicado a alta energía. La estabilidad del modelo estándar implicaría la existencia de otros mínimos locales a alta energía, lo que tendría la ventaja de que podría explicar la física de la inflación (es decir, el campo de Higgs sería el campo inflatón). Nuestro vacío sería el “verdadero vacío” (mínimo global) y el vacío a alta energía sería un “falso vacío” (mínimo local).
Dibujo20130912 insstability - metastability - higgs potential - our era - inflation era
La metaestabilidad del modelo estándar a la que apuntan los datos actuales implica que vivimos en un “falso vacío” (mínimo local) y que existe un mínimo global del campo de Higgs a alta energía. Nuestro falso vacío, por efecto túnel, puede transitar al vacío verdadero. Este proceso debe ser muy poco probable, con una vida media mayor que la edad del universo (si no fuera así ya no existiríamos). ¿Cuándo puede ocurrir este proceso? No lo sabemos, podría ocurrir mañana mismo o dentro de unos cientos de miles de millones de años. Las estimaciones más “realistas” apuntan a que podría ocurrir en unas decenas de miles de millones de años. Pero todo esto es especulación científica pues no conocemos los detalles del potencial del campo de Higgs.
¿Qué pasará cuando el vacío metaestable pase por efecto túnel al verdadero vacío? Sidney Coleman (y físicos rusos) estudiaron este fenómeno a principios de los 1970. Resumiendo mucho, en el vacío se formarían (nucleación) burbujas de energía negativa cuyo radio crecería a la velocidad de la luz; cuando todas las burbujas colisionaran unas con otras se destruiría todo el universo conocido, aunque el universo como tal podría sobrevivir en su nuevo estado de vacío. Los detalles dependen de la cantidad de energía oscura que haya cuando se produzca el efecto túnel al nuevo vacío y de las características del vacío verdadero. Por supuesto, los cálculos de Coleman no tienen en cuenta el efecto a energías de la escala de Planck de la gravedad cuántica. No se conoce la teoría cuántica correcta de la gravedad, por lo que no podemos saber qué pasará, pero muchos físicos creen que el proceso se parará de alguna forma. Lo que pueda pasar más allá de este momento es pura especulación.

sábado, 3 de agosto de 2013

10 comandos interesantes para Linux


Fuente: Emezeta
10 comandos interesantes para Linux linux linux comandos terminal 21 25K+ Recopilación de 10 comandos útiles e interesantes para nuestra distribución favorita de GNU/Linux y que quizás no conocías. Los administradores de sistemas y usuarios avanzados siempre echan mano de su querida línea de comandos o terminal para realizar tareas de una forma más rápida y eficiente. Sin embargo, aún muchos son reacios a utilizarla porque creen que es algo demasiado complejo. A continuación, vamos a dar un repaso a una serie de comandos destinados a ejecutarse desde una terminal (incluso remotamente, sin necesidad de disponer de una interfaz gráfica), realizando ciertas tareas en muy poco tiempo y apenas algo de esfuerzo. La mayoría de estos comandos son programas que se pueden instalar facilmente mediante apt-get install (o el gestor de paquetes de tu distribución). 1. Controlar el ancho de banda del sistema Es posible que queramos monitorizar el consumo de la conexión a Internet por parte del equipo en el que estamos, conociendo así el ancho de banda consumido. Esto se puede realizar de forma muy sencilla mediante el comando bmon (Bandwidth Monitor). Este comando nos mostrará un sencillo panel con las diferentes tarjetas de red del sistema y el consumo de Internet que están realizando (RX = recibido = descarga, TX = transmitido = subida): Pulsando g también podemos ver una pequeña «pseudo-gráfica» que representa la evolución del ancho de banda utilizado conforme pasa el tiempo, o pulsando d una tabla de estadísticas más detalladas. Si esto nos parece poco aproximado, podemos utilizar nethogs, un comando que nos informará del consumo de ancho de banda por proceso o aplicación, muy útil para saber que programa está enviando o recibiendo información: Por último, si en lugar de monitorizar, lo que queremos es restringir el ancho de banda para limitar el uso de Internet por parte de un equipo en la red, podemos hacer uso de wondershaper, que nos permitirá limitar el ancho de banda: sudo wondershaper eth0 1024 512 El ejemplo anterior limita la conexión a 1024kbps de bajada y 512kbps de subida. Bonus: Si te interesa conocer algunos trucos para conseguir exprimir tu conexión a Internet al máximo, echa un vistazo al artículo Internet más rápido. 2. Descargar videos de Youtube (u otras páginas) Otra tarea que a veces suele tornarse compleja es realizar la descarga de un video de Youtube. Y ni hablar si tenemos que realizar una conversión posterior a un formato concreto (por ejemplo, mp4). Con clive es muy sencillo: Basta con escribir clive seguido de la dirección del video de youtube. Esto nos descargará el archivo de video (en formato FLV), sin ningún paso adicional. Si además añadimos el parámetro --format hd, el video se descargará en formato MP4 a alta resolución. Entre las webs soportadas se encuentran youtube, last.fm, video google, dailymotion y vimeo, entre otros. En Windows, siempre puedes utilizar el programa Atube Catcher, que simplifica mucho la descarga y conversión de videos desde Youtube. 3. «Refuerzo negativo» para disléxicos Con un simple apt-get install sl (o nuestro gestor de paquetes correspondiente) tendremos instalado este «refuerzo para disléxicos». Steam Locomotive (sl) es un comando ideado para ser ejecutado cuando el usuario escribe mal el comando ls (listar ficheros), y mostrarnos un lento tren a modo de castigo para que no se vuelva a repetir otra vez. Bonus: Si te interesan más curiosidades como esta (algunas completamente inútiles), puedes echar un ojo al artículo 20 curiosidades geeks para terminales Linux. ¡También cuento como ponerle sonido al tren para hacerlo más irritante! 4. Buscar archivos duplicados Cuando tenemos gran cantidad de archivos almacenados en nuestros discos, otro problema clásico es el de tener archivos duplicados (imágenes, videos, mp3...). Este sencillo comando permite buscar y mostrarnos los archivos duplicados detectados en la ruta especificada: También existe findimagedupes, que realiza una búsqueda de imágenes duplicadas de forma visual. Bonus: Para Windows, la mejor alternativa a fdupes es DoubleKiller, mientras que para búsquedas visuales de imágenes duplicadas, la mejor opción es VisiPics. Puedes encontrar ambos en 12 programas gratuitos para eliminar ficheros duplicados. 5. Navegar desde una terminal de texto Si estamos conectados desde una terminal de texto (sin interfaz gráfico) o de forma remota vía SSH (por ejemplo) nos puede interesar consultar alguna página o buscar determinado sitio web. Para ello podemos utilizar los navegadores de modo texto: Lynx Lynx es quizás mi preferido debido a su potencia y gran cantidad de parámetros personalizables. No sólo es un excelente navegador de modo texto, sino que además permite la utilización del parámetro --dump o --source para obtener texto o código HTML para su posterior procesamiento, por ejemplo: eog `lynx --dump xkcd.com | egrep imgs.xkcd` La línea anterior, obtiene el texto de la web de XKCD y extrae con egrep la imagen de su última tira, la cuál la muestra con el visor de imágenes eog. w3m Por otro lado, también tenemos a nuestra disposición w3m, un navegador más sencillo, pero igualmente interesante que nos puede servir de alternativa a Lynx: Elinks Si ninguno de estos dos navegadores nos agrada, también podemos utilizar elinks, un navegador de texto un poco más sencillo, con menús desplegables que nos permiten seleccionar diferentes opciones de una forma más cómoda, sin recordar los atajos o teclas necesarias para realizar ciertas tareas: 6. Conversión de formatos de archivos multimedia Una de las soluciones más completas para la conversión de formatos de audio o video es ffmpeg. Mediante este comando podemos realizar multitud de tareas como conversión de MP4 a XViD, MP3 a OGG, extraer sonido de un video a MP3, convertir un video en un GIF animado, o incluso capturar nuestra actividad en pantalla en video (screencast). Eso sí, la sintaxis del programa da para 2 ó 3 artículos más (o varios tomos), por lo que comentaré sólo uno de sus posibles usos: convertir de .flv a .avi (XViD) ffmpeg -i video.flv -c:v mpeg4 -vtag xvid video.avi Existen algunas interfaces gráficas para ffmpeg como WinFF o Avanti, si no quieres complicarte con parámetros y opciones. 7. Montar una cuenta SSH remota como carpeta local Es posible montar la carpeta remota de una cuenta SSH como una carpeta local de nuestro sistema, permitiéndonos un acceso más rápido, fácil y cómodo. Para ello, basta con escribir: sshfs user@www.dominio.com:/home/user /mnt/carpeta Donde user es el nombre del usuario de la cuenta SSH, www.dominio.com es la IP o dominio a conectar, /home/user la carpeta remota y /mnt/carpeta la carpeta local donde será montada. Además, existe SSHFS Manager, un entorno gráfico para sshfs que nos permitirá hacer esto mismo desde un entorno Windows. También puedes utilizar el comando scp (cp vía ssh) para realizar copias de archivos a través de SSH como te indico en el siguiente manual básico: 10 comandos para trabajar en GNU/Linux. 8. Realizar modificaciones en varios archivos Imagina el siguiente escenario: 300 archivos con textos a modificar. ¿Cómo lo hacemos? ¿Abrimos y modificamos cada archivo uno por uno? ¿Creamos un script que recorra todos los archivos y vaya modificando los textos? No. Más fácil y rápido: sed -i 's/paco/Francisco/g' *.txt Este pequeño ejemplo, reemplaza el texto «paco» por «Francisco» en todos los archivos con extensión txt. ¿Fácil y rápido, no? En editores de texto basados en terminal hablo de sed, vim, mcedit y otros editores que pueden resultarte útiles y que permiten reemplazar texto utilizando expresiones regulares. Awk es otro magnífico lenguaje muy potente para manipulación de texto. 9. Desproteger archivos PDF Es posible que más de una vez te hayas encontrado con archivos PDF que se encuentran protegidos y no permiten imprimir, editar o incluso copiar su contenido. Podemos utilizar qpdf para desproteger estos archivos y generar un nuevo archivo PDF sin protección: qpdf --decrypt protected.pdf unprotected.pdf Obviamente, si el archivo PDF está protegido con un password, habrá que especificarlo con el parámetro --password, o utilizar algún comando como pdfcrack para intentar reventarlo. Bonus: ¿Interesado en más operaciones similares? Echa un vistazo a 10 operaciones útiles con archivos PDF: Separar páginas, añadir marca de agua, rotar páginas, etc... 10. Descargar archivos directamente (con resume) ¿Que necesidad hay de abrir un navegador si sabemos exactamente la URL del archivo a descargar? Ninguna. Por eso lo mejor es utilizar el comando wget y descargarlo directamente. Además, si utilizas el parámetro -c puedes activar el soporte para continuar descargas interrumpidas, y en el caso de haber descargado una parcialmente, no se elimina el archivo descargado, permitiendo continuar por donde iba, como se puede ver en la siguiente imagen: Bonus: En Windows, existe una versión con interfaz llamada wackget, que hace las veces de gestor de descarga minimalista, y que puedes encontrar en el artículo 20 programas para hacer Windows más cómodo.

Más información en: http://www.emezeta.com/articulos/10-comandos-interesantes-para-linux

Los administradores de sistemas y usuarios avanzados siempre echan mano de su querida línea de comandos o terminal para realizar tareas de una forma más rápida y eficiente. Sin embargo, aún muchos son reacios a utilizarla porque creen que es algo demasiado complejo.
A continuación, vamos a dar un repaso a una serie de comandos destinados a ejecutarse desde una terminal (incluso remotamente, sin necesidad de disponer de una interfaz gráfica), realizando ciertas tareas en muy poco tiempo y apenas algo de esfuerzo. La mayoría de estos comandos son programas que se pueden instalar facilmente mediante apt-get install (o el gestor de paquetes de tu distribución).

1. Controlar el ancho de banda del sistema

Es posible que queramos monitorizar el consumo de la conexión a Internet por parte del equipo en el que estamos, conociendo así el ancho de banda consumido. Esto se puede realizar de forma muy sencilla mediante el comando bmon (Bandwidth Monitor).
Este comando nos mostrará un sencillo panel con las diferentes tarjetas de red del sistema y el consumo de Internet que están realizando (RX = recibido = descarga, TX = transmitido = subida):
Pulsando g también podemos ver una pequeña «pseudo-gráfica» que representa la evolución del ancho de banda utilizado conforme pasa el tiempo, o pulsando d una tabla de estadísticas más detalladas.
Si esto nos parece poco aproximado, podemos utilizar nethogs, un comando que nos informará del consumo de ancho de banda por proceso o aplicación, muy útil para saber que programa está enviando o recibiendo información:
Por último, si en lugar de monitorizar, lo que queremos es restringir el ancho de banda para limitar el uso de Internet por parte de un equipo en la red, podemos hacer uso de wondershaper, que nos permitirá limitar el ancho de banda:
sudo wondershaper eth0 1024 512 El ejemplo anterior limita la conexión a 1024kbps de bajada y 512kbps de subida.
Bonus: Si te interesa conocer algunos trucos para conseguir exprimir tu conexión a Internet al máximo, echa un vistazo al artículo Internet más rápido.

2. Descargar videos de Youtube (u otras páginas)

Otra tarea que a veces suele tornarse compleja es realizar la descarga de un video de Youtube. Y ni hablar si tenemos que realizar una conversión posterior a un formato concreto (por ejemplo, mp4). Con clive es muy sencillo:
Basta con escribir clive seguido de la dirección del video de youtube. Esto nos descargará el archivo de video (en formato FLV), sin ningún paso adicional. Si además añadimos el parámetro --format hd, el video se descargará en formato MP4 a alta resolución. Entre las webs soportadas se encuentran youtube, last.fm, video google, dailymotion y vimeo, entre otros.

3. «Refuerzo negativo» para disléxicos

Con un simple apt-get install sl (o nuestro gestor de paquetes correspondiente) tendremos instalado este «refuerzo para disléxicos».
Steam Locomotive (sl) es un comando ideado para ser ejecutado cuando el usuario escribe mal el comando ls (listar ficheros), y mostrarnos un lento tren a modo de castigo para que no se vuelva a repetir otra vez.
Bonus: Si te interesan más curiosidades como esta (algunas completamente inútiles), puedes echar un ojo al artículo 20 curiosidades geeks para terminales Linux. ¡También cuento como ponerle sonido al tren para hacerlo más irritante!

4. Buscar archivos duplicados

Cuando tenemos gran cantidad de archivos almacenados en nuestros discos, otro problema clásico es el de tener archivos duplicados (imágenes, videos, mp3...). Este sencillo comando permite buscar y mostrarnos los archivos duplicados detectados en la ruta especificada:
También existe findimagedupes, que realiza una búsqueda de imágenes duplicadas de forma visual.

5. Navegar desde una terminal de texto

Si estamos conectados desde una terminal de texto (sin interfaz gráfico) o de forma remota vía SSH (por ejemplo) nos puede interesar consultar alguna página o buscar determinado sitio web. Para ello podemos utilizar los navegadores de modo texto:

Lynx

Lynx es quizás mi preferido debido a su potencia y gran cantidad de parámetros personalizables. No sólo es un excelente navegador de modo texto, sino que además permite la utilización del parámetro --dump o --source para obtener texto o código HTML para su posterior procesamiento, por ejemplo:
eog `lynx --dump xkcd.com | egrep imgs.xkcd` La línea anterior, obtiene el texto de la web de XKCD y extrae con egrep la imagen de su última tira, la cuál la muestra con el visor de imágenes eog.

w3m

Por otro lado, también tenemos a nuestra disposición w3m, un navegador más sencillo, pero igualmente interesante que nos puede servir de alternativa a Lynx:

Elinks

Si ninguno de estos dos navegadores nos agrada, también podemos utilizar elinks, un navegador de texto un poco más sencillo, con menús desplegables que nos permiten seleccionar diferentes opciones de una forma más cómoda, sin recordar los atajos o teclas necesarias para realizar ciertas tareas:

6. Conversión de formatos de archivos multimedia

Una de las soluciones más completas para la conversión de formatos de audio o video es ffmpeg. Mediante este comando podemos realizar multitud de tareas como conversión de MP4 a XViD, MP3 a OGG, extraer sonido de un video a MP3, convertir un video en un GIF animado, o incluso capturar nuestra actividad en pantalla en video (screencast).
Eso sí, la sintaxis del programa da para 2 ó 3 artículos más (o varios tomos), por lo que comentaré sólo uno de sus posibles usos: convertir de .flv a .avi (XViD)
ffmpeg -i video.flv -c:v mpeg4 -vtag xvid video.avi Existen algunas interfaces gráficas para ffmpeg como WinFF o Avanti, si no quieres complicarte con parámetros y opciones.

7. Montar una cuenta SSH remota como carpeta local

Es posible montar la carpeta remota de una cuenta SSH como una carpeta local de nuestro sistema, permitiéndonos un acceso más rápido, fácil y cómodo. Para ello, basta con escribir:
sshfs user@www.dominio.com:/home/user /mnt/carpeta Donde user es el nombre del usuario de la cuenta SSH, www.dominio.com es la IP o dominio a conectar, /home/user la carpeta remota y /mnt/carpeta la carpeta local donde será montada.

También puedes utilizar el comando scp (cp vía ssh) para realizar copias de archivos a través de SSH como te indico en el siguiente manual básico: 10 comandos para trabajar en GNU/Linux.

8. Realizar modificaciones en varios archivos

Imagina el siguiente escenario: 300 archivos con textos a modificar. ¿Cómo lo hacemos? ¿Abrimos y modificamos cada archivo uno por uno? ¿Creamos un script que recorra todos los archivos y vaya modificando los textos? No. Más fácil y rápido:
sed -i 's/paco/Francisco/g' *.txt Este pequeño ejemplo, reemplaza el texto «paco» por «Francisco» en todos los archivos con extensión txt. ¿Fácil y rápido, no?
En editores de texto basados en terminal hablo de sed, vim, mcedit y otros editores que pueden resultarte útiles y que permiten reemplazar texto utilizando expresiones regulares. Awk es otro magnífico lenguaje muy potente para manipulación de texto.

9. Desproteger archivos PDF

Es posible que más de una vez te hayas encontrado con archivos PDF que se encuentran protegidos y no permiten imprimir, editar o incluso copiar su contenido. Podemos utilizar qpdf para desproteger estos archivos y generar un nuevo archivo PDF sin protección:
qpdf --decrypt protected.pdf unprotected.pdf Obviamente, si el archivo PDF está protegido con un password, habrá que especificarlo con el parámetro --password, o utilizar algún comando como pdfcrack para intentar reventarlo.

10. Descargar archivos directamente (con resume)

¿Que necesidad hay de abrir un navegador si sabemos exactamente la URL del archivo a descargar? Ninguna. Por eso lo mejor es utilizar el comando wget y descargarlo directamente.
Además, si utilizas el parámetro -c puedes activar el soporte para continuar descargas interrumpidas, y en el caso de haber descargado una parcialmente, no se elimina el archivo descargado, permitiendo continuar por donde iba, como se puede ver en la siguiente imagen: