martes, 27 de noviembre de 2012

¿Cuánto se está alejando la Tierra del Sol?

Fuente: Física en la ciencia ficción (+)

La catástrofe se avecina y no hay escapatoria posible. Nuestro Sol se está consumiendo poco a poco, día a día, hora tras hora, minuto a minuto. En su centro tienen lugar procesos violentos de fusión nuclear y los dicharacheros y revoltosos núcleos de hidrógeno se dan de tortas calientes unos contra otros, quedándose embarazados durante un suspiro, y pariendo velozmente núcleos de helio, mientras lanzan gritos de energía luminosa y calorífica en forma de brillantes fotones que viajan lentamente hasta la lejana fotosfera. Una vez allí, acompañados por chorros de otras partículas menos deslumbrantes pero más pesadas como electrones y protones las cuales, a su vez, constituyen el viento solar, disponen de algo más de ocho minutos para alcanzar nuestro planeta azul. De vez en cuando, nuestra estrella, quizá afectada de indigestión, se deshace de materia molesta en forma de eructos violentos llamados eyecciones de masa coronal. Y la respuesta de la Tierra consiste en alejarse paulatinamente, cada vez un poquito más de semejantes actos groseros y maleducados.
La cantidad de energía que emite el Sol por unidad de tiempo recibe el nombre de luminosidad y es debida a los procesos de fusión nuclear que tienen lugar en lo más profundo de su corazón, como os he contado poéticamente en el párrafo anterior. Para nuestra estrella, esta luminosidad asciende nada menos que a 390 cuatrillones de joules cada segundo. Si hacemos uso de la célebre ecuación de Einstein que relaciona la masa y la energía, comprobamos fácilmente que una cantidad de energía como la que emite el Sol equivale a una pérdida de masa de 137 billones de toneladas por año, un porcentaje ridículo de su masa total, unos 1980 cuatrillones de toneladas.
Este no es el único procedimiento por el que nuestra estrella madre lanza materia al espacio. Otro proceso importante, aunque no tanto como la fusión nuclear, es el viento solar, que también aparece en el primer párrafo. Consiste en haces de partículas subatómicas, principalmente protones y electrones, además de otras muchísimo más ligeras, como neutrinos. A partir de datos empíricos, se puede estimar, de forma aproximada, la cantidad de masa estelar que es expulsada en forma de viento solar. Partiendo de que la velocidad de dicho viento ronda los 350 km/s y que la densidad de protones medida en la Tierra alcanza los 9 por centímetro cúbico y despreciando la contribución del resto de partículas, por ser todas mucho menos pesadas que los protones, se llega a que el viento solar se lleva consigo algo menos de 47 billones de toneladas cada año, aproximadamente la tercera parte de la que se pierde por procesos de fusión nuclear.
¿Cuál es la consecuencia inmediata de todo lo expuesto hasta ahora? Veamos, si repasáis vuestra física de bachillerato, quizá recordéis aquel mágico momento en que vuestros malvados y malintencionados profesores os explicaron las leyes de un tal Kepler. Haciendo un poco de memoria, puede que incluso venga a vuestras mentes inocentes aquello de que el momento angular de los planetas se conserva mientras describen sus respectivas y elípticas orbitas alrededor del Sol. Al fin y al cabo, no pocos quebraderos de cabeza le supuso todo esto al bueno de Johannes Kepler y sus tres leyes del movimiento planetario. Y ni aun así sois capaces de rendirle un mínimo homenaje y respeto al entenderlas y aprenderlas de una vez para siempre. Pues bien, dicho de una forma extremadamente simple, la susodicha conservación del momento angular implica que a medida que la masa total del Sol disminuye (y, en consecuencia, su atracción gravitatoria sobre la Tierra y todos los demás cuerpos del sistema solar) la distancia a nuestro planeta debe aumentar. Esto significa que la Tierra se alejará del Sol constantemente, al menos mientras la luminosidad de éste se mantenga uniforme, cosa que sucederá mientras continúe la fase de fusión de hidrógeno y no comience la fase de gigante roja en la evolución de nuestra estrella.
Cuando se introducen en la ecuación de la constancia del momento angular los valores estimados para la pérdida de masa solar, así como la distancia media del radio de la órbita y la masa del Sol, obtenemos que el mundo que habitamos se encuentra cada año un poquito más allá, adentrándose en el tenebroso, frío y oscuro espacio interestelar, a la increíble velocidad de 1,4 centímetros anuales. ¡Vertiginoso!


Fuente:
A Solar Diet Plan D. Staab, E. J. Watkinson, Z. Rogerson and M. Walach. Journal of Physics Special Topics, Vol. 11, No. 1, 2012.

El color de las Tierras extraterrestres

Fuente: Ciencia Kanija

Artículo publicado el 24 de septiembre de 2012 en The Physics ArXiv Blog
La Tierra es un punto de color azul pálido cuando se observa desde el espacio. Ahora, los astrobiólogos han determinado los colores más probables que pueden presentar los planetas similares a la Tierra que orbitan otras estrellas.
Cuando la sonda Voyager 1 estaba a punto de abandonar el Sistema Solar en 1990, el astrónomo estadounidense Carl Sagan sugirió que se girasen las cámaras de la nave espacial hacia su planeta de origen a unos 3000 millones de kilómetros de distancia.
A Pale Blue Dot © by raymaclean

A la fotografía obtenida se le llama el Punto Azul Pálido y muestra a la Tierra como una diminuta mota blanco-azulada sobre el gran vacío del espacio. Más tarde, Sagan utilizó esta frase para el título de un libro sobre su visión del futuro de la humanidad en el espacio.
Debido al color tan peculiar de la Tierra, una pregunta interesante es qué color tendría una Tierra extraterrestre que orbite a otra estrella. Hoy por hoy disponemos de una respuesta con diferentes opciones por parte de Siddharth Hedge del Instituto Max Planck para la Astronomía (Max Planck Institute for Astronomy) en Alemania y de Lisa Kaltenegger del Centro Harvard-Smithsonian para la Astrofísica (Harvard-Smithsonian Center for Astrophysics) en Cambridge, Massachusetts.
Señalan que el color de la Tierra está íntimamente relacionado con su habitabilidad y, en particular, al color del agua que cubre el 70 por ciento de la superficie terrestre. Sin embargo, el color también está determinado por otros factores ambientales como los desiertos, la nieve, la cubierta de líquenes sobre las rocas y la cubierta de vegetación que cubre el 60 por ciento de la tierra.
En particular, la vegetación es la responsable del aumento del famoso “red edge” (borde rojo) que un extraterrestre vería al rotar la Tierra. Es el resultado de un incremento de la absorción de luz roja debido a la fotosíntesis cuando un océano desaparece de la vista siendo remplazado por una superficie cubierta de árboles.
Si un exoplaneta se asemeja a la Tierra, sobre todo en la cantidad de agua líquida sobre su superficie, entonces su color sería una pieza clave, afirman Hedge y Kaltenegger. Asumiendo una atmósfera transparente que permita ver la superficie, hacen una estimación del color de las “Tierras extraterrestres” basándose en el porcentaje de la superficie cubierta de agua, de vegetación arbórea, de lechos bacterianos, de endolitos, que viven en el interior de las rocas, y de muchos más factores.
Llegan a la conclusión de que debería ser posible evaluar la habitabilidad de los exoplanetas que pueden ser observados con estas características, un proceso que debería ayudar a centrar el interés en los exoplanetas más importantes.
Los puntos azulados, por ejemplo, serían más prioritarios que los puntos rojos similares a Marte, mientras que el planeta rojo carezca de vida, que es lo que podemos decir por el momento.
Esto podría convertirse en una técnica muy práctica. Hoy en día, el número de Tierras extraterrestres se sitúa en tres (Gliese 581d, HD 85512b y Gliese 667Cc). Pero ese número está llamado a aumentar de forma drástica en los próximos meses y años cuando las observaciones como las de la sonda Kepler de la NASA nos faciliten más datos. Por lo que encontrar una forma de filtrar a los exoplanetas más interesantes será seguro de gran utilidad.

Fecha Original: 24 de septiembre de 2012
Enlace Original

Observan en tiempo real cómo funciona una batería de litio en la escala nanométrica

Fuente: Francis (th)E mule

Diagrama de fases Fe-F-Li (izda) e ilustración esquemática (dcha) de la propagación del frente de la reacción química a través de una nanopartícula de FeF2. (C) Nature Communications
Seguro que tienes muchas baterías de litio en casa y sabes bien que su vida útil es bastante corta (con recargas diarias aguantan solo un par de años). En muchas aplicaciones (como los automóviles eléctricos) se necesita que tengan una vida útil mucho más larga (al menos una década). Para desarrollar las baterías de litio del futuro es necesario comprender cómo funcionan los electrodos en la nanoescala. Gracias a una nanocelda electroquímica y un microscopio electrónico de transmisión se ha podido observar el transporte de los iones de litio en el electrodo en tiempo real durante la descarga y la recarga. El electrodo de la celda está formado por nanopartículas de FeF2 de unos 10-20 nm de diámetro depositadas sobre una fina capa de carbono; el transporte del litio por la superficie provoca la formación de una capa exterior de nanocristales de LiF y de átomos de Fe de unos 1-3 nm de grosor. Las imágenes en tiempo real permiten ver los detalles de este proceso, que dura solo unos pocos minutos, y cuya morfología recuerda a una descomposición espinodal. La figura que abre esta entrada ilustra la difusión de los iones de litio con carga positiva a través de la superficie de la nanopartícula de FeF2 y la formación de un frente (como el de un fuego en un monte) que barre rápidamente toda la superficie; una vez barrida la superficie, el proceso ocurre hacia el interior, pero de forma mucho más lenta, capa a capa, hasta alcanzar un grosor de unos pocos nanómetros. Este estudio de Feng Wang (BNL, Brookhaven National Laboratory, NY, EEUU) y sus colegas permitirá conocer con sumo detalle el transcurso de las reacciones físico-químicas de los iones de litio en los electrones, lo que se espera que permita optimizar el funcionamiento de las baterías. El artículo técnico es Feng Wang et al., “Tracking lithium transport and electrochemical reactions in nanoparticles,” Nature Communications 3: 1201, 13 Nov 2012 [copia gratis].

Estudios previos ya habían demostrado la formación de una capa de Fe y LiF en la superficie del cátodo de FeF2 durante la conversión del litio; esta red conductora de hierro permite el transporte de los electrones necesario para la recarga de la batería. Para optimizar el diseño de los cátodos es necesario conocer en detalle cómo ocurre este proceso, cuyos defectos son responsables del envejecimiento de la batería. Para lograrlo ha sido necesario usar técnicas in-situ de alta resolución, como el microscopio electrónico de transmisión (TEM), que permiten explorar la morfología y la estructura de los cambios en el electrodo en la nanoescala. El problema que han resuelto estos físicos ha sido desarrollar una nanocelda electroquímica adecuada para su uso en el TEM.

 
Este vídeo ha sido grabado a dos fotogramas por segundo y se ha acelerado 42 veces para acortar su duración (el proceso total dura entre 3-12 minutos dependiendo de la nanocelda). El proceso de conversión del litio conlleva la formación de pequeñas partículas de hierro subnanométricas que reaccionan con el interior de la nanocelda de FeF2 creciendo en volumen hasta generar nanopartículas de hierro con un diámetro entre 1-3 nm. Entre el 41-57% del volumen está formado por partículas de LiF y alrededor del 21% por partículas de Fe, por tanto las partículas de Fe y LiF no están empaquetadas de forma densa (un diseño óptimo de la nanocelda de FeF2 podría mejorar este empaquetamiento). El proceso tiene dos escalas de tiempo. En la más rápida los iones de litio se difunden rápìdamente por la superficie empezando por la región en contacto con el sustrato de carbono hasta recubrir la nanocelda. En la escala de tiempo más lento, el proceso ocurre desde el exterior hacia el interior (su análisis detallado ha requerido el uso de técnicas espectroscópicas y de difracción de rayos X). The reaction within individual particles is surprisingly fast,

Algunos lectores quizás necesiten un breve explicación de cómo funciona una batería de litio. Los iones de Li (cuya carga es positiva) generan electricidad en la pila al pasar de un electrodo con carga negativa a otro con carga positiva. En una batería totalmente cargada todos los iones de Li están almacenados rellenado el electrodo negativo. Una vez descargada (si la descarga es completa) todos han pasado al otro electrodo. Para recargar la batería se invierte este proceso aplicando una corriente eléctrica (electrones) que permite el retorno de los iones de Li hasta el primer electrodo. En una batería nueva este proceso es bastante eficaz, pero el envejecimiento de los electrodos (asociado a un fenómeno de histéresis) hace que en cada ciclo de descarga/recarga se degrade la estructura del material y la eficacia se reduzca hasta que la batería se vuelve inútil (o poco práctica).
Más sobre baterías de litio y otras baterías en este blog: “De Juana la Loca hasta las baterías de litio viajando por algunos carnavales de ciencias,” 28 octubre 2012; “Adiós a las baterías de litio, llegan las baterías recargables de aluminio,” 14 enero 2012; “Nueva batería de Litio para el conejito de Duracell ¡y duran, y duran, …! (o la nanotecnología hasta en la sopa),” 8 febrero 2008; y “Más sobre la nanodinamita: Energía eléctrica gracias a la combustión oscilatoria en nanotubos de carbono recubiertos,” 13 febrero 2012.
Esta entrada participa en la XIX Edición del Carnaval de Química que organiza Leet mi explain, y en la XXXVI Edición del Carnaval de Física que organiza Gravedad Cero.

lunes, 26 de noviembre de 2012

Instalando paquetes DEB fácil y rápidamente

Fuente: Ubuntulog

Instalando paquetes DEB fácil y rápidamente
En Ubuntu la instalación mediante interfaz gráfica de paquetes DEB descargados por el usuario es una tarea bastante simple y sencilla aunque no precisamente rápida pues es una acción que se realiza mediante el Centro de Software.
El Centro de Software está bien para buscar programas pero es demasiado para instalar un simple paquete DEB.
Por suerte existe GDebi, una pequeña herramienta que en el pasado se encargaba de la instalación de paquetes DEB en la distribución de Canonical pero que lamentablemente ha sido reemplazada por el Centro de Software de Ubuntu en las versiones más actuales del sistema operativo. Lo bueno es que sigue estando en los repositorios y su instalación es tan sencilla como abrir una consola y escribir:
sudo apt-get install gdebi
Una vez que GDebi esté instalado en nuestro sistema hay que hacer clic secundario sobre los paquetes DEB que queramos instalar y seleccionar el programa para que sean instalados mediante éste y no mediante el Centro de Software. Nos ahorraremos la carga del Centro de Software y el procedimiento de instalación seguirá siendo igual de sencillo que antes.

Carnaval de Matemáticas: La olvidada prueba del nueve

Fuente: Francis (th)E mule
En el podcast de SciFri, “Steven Strogatz: The Joy Of X,” 23 Nov 2012, le preguntan a Strogatz por qué funciona la prueba del nueve (“casting out nines” en inglés) y no sabe contestar. Como buen matemático y como buen profesor no tiene miedo en confesar que nunca se ha preocupado por buscar la razón detrás de esta prueba, por ello no puede contestar a la pregunta. Todo ello me ha traído a la memoria la prueba del nueve, que no siempre funciona, como muestra este dibujo de Luis Vives, “Aritmética. Segundo Grado,” Zaragoza, 1949. ¡Qué no te acuerdas de la prueba del 9! Solo hay dos opciones, o eres muy joven, o eres un poco desmemoriado. Veamos como nos la explica Vives en su libro.

La prueba del nueve sirve para comprobar sumas, restas, productos y divisiones. En esta figura tienes la explicación para el caso del producto. Sobran más palabras. ¿Cuál es el secreto de la prueba del nueve que Strogatz no ha sido capaz de recordar? Obviamente, utilizar aritmética módulo 9. Nada más simple. En el caso del producto si a = b (mód 9), y c = d (mód 9), entonces ac = bd (mód 9). Lo mismo ocurre con sumas y restas, y con operaciones que involucren un número finito de sumas, restas y productos (como la división).
¿Funciona siempre la prueba? Obviamente, no. ¿Cuál es la probabilidad de fallo? Como nueve posibles resultados, la prueba del nueve fallará 1/9 de las veces (un 11% de las veces). ¿Se puede utilizar una prueba del siete o de cualquier otro número? Por supuesto y combinar dos pruebas asegura la corrección del resultado con mayor probabilidad (1/54 corresponde a un 1,6% de fallos). “Acerca de la prueba del nueve,” y Antonio, “La ¿prueba? del 9,” Tito Eliatron Dixit, 20 mayo 2009, explican cómo aplicarla a la división. Más información en María Luz Callejo de la Vega, “Una nueva mirada a “la prueba del 9″,” SUMA 30: 53-58, feb. 1999, y en Michel Ballieu, “La prueba del nueve,” Investigación y Ciencia 334, Julio 2004. Por cierto, este último artículo reproduce un fragmento de un texto de Al-Khwarizmi del siglo IX donde se explica cómo realizarla, aunque lo que destaca es su contundente inicio…
“En la clase el ambiente es tenso. El maestro, severo pero justo, permanece en un extremo de la tarima. El niño, ante el gran pizarrón negro, gacha la cabeza, trata de esquivar la mirada de reproche que le lanza su instructor. “Vamos a ver… ¿estás seguro de que 171 x 231 son 39.401?”, le pregunta, impaciente la voz. La respuesta es tímida. “Esto… ¿sí, señor?”. El maestro estalla. “¡Pequeño cabestro! ¿No te das cuenta de que te has equivocado? ¿Te has olvidado de la prueba del nueve?” El niño, aterrorizado, guarda un silencio culpable y siente revolotear sobre sí la amenaza del castigo. La sentencia no tarda en llegar. “Abre la mano”, ordena el profesor, que golpea con su larga regla de hierro la palma infantil…”
En inglés recomiendo consultar Peter Hilton, Jean Pedersen, “Casting Out Nines Revisited,” Mathematics Magazine 54: 195-201, Sep. 1981, y Murray Lauber, “Casting Out Nines: An Explanation and Extensions,” The Mathematics Teacher 83: 661-665, Nov. 1990. El uso de la prueba del nueve en Educación Básica ha sido criticado por algunos y defendido por otros. Ver por ejemplo, Maxim Bruckheimer, Ron Ofir, Abraham Arcavi, “The Case for and against “Casting out Nines”,” For the Learning of Mathematics 15: 23-28, Jun. 1995.
Atención, pregunta, ¿merece la pena que los profesores de Educación Básica recuperen la prueba del nueve en lugar del uso de la calculadora para chequear resultados? Utiliza los comentarios para ofrecer tu opinión, si te apetece.
Esta entrada participa en la Edición 3.14159265 del Carnaval de Matemáticas, que en esta ocasión se organiza en PiMedios. La aventura de las matemáticas.
PS: En los comentarios Emm Alva escribe que “Creo que los niños de Educación Básica no deberían utilizar calculadora o algún dispositivo electrónico, porque siento que gracias a esas herramientas su aprendizaje no es tan sólido y cada vez les cuesta más trabajo hacer cosas que se dicen básicas.” Yo soy de la misma opinión. Creo que usar calculadora en Educación Primaria es como usar reglas de letras de molde (ver figura abajo) para aprender a escribir. Nadie puede aprender a escribir de esa manera. Lo que no quita que en Educación Secundaria sea muy recomendable que los alumnos aprendan a usar correctamente la calculadora y el ordenador.

Logran teletransportar el estado cuántico de cien millones de átomos de rubidio

Fuente: Francis (th)E mule
Trozo del esquema del experimento. Click para verlo ampliado y completo.
Físicos chinos han logrado teletransportar el estado (la información cuántica) de un conjunto de unos 100 millones de átomos de rubidio a otro conjunto similar en una distancia de 150 metros; para ello han utlizando fotones entrelazados enviados a través de una fibra óptica. Por supuesto, este experimento no tiene nada que ver con el teletransporte de objetos tipo Star Trek y similares. El logro de Xiao-Hui Bao y sus colegas podría tener aplicaciones en el campo de las redes de comunicación basadas en información cuántica, para el desarrollo de sistemas de enrutado (routers) que requieren almacenar el estado cuántico de un conjunto de cubits sin que haya una demolición previa de su estado. La tasa de éxito alcanzada en el nuevo artículo es de solo un 88%, por lo que todavía se esperan grandes mejoras en el futuro. Nos lo ha contado KFC, “First Teleportation from One Macroscopic Object to Another,” The Physics arXiv Blog, November 15, 2012, quien se hace eco del artículo técnico de Xiao-Hui Bao et al., “Quantum teleportation between remote atomic-ensemble quantum memories,” PNAS, Published online before print, Nov 9, 2012 [arXiv:1211.2892].

viernes, 23 de noviembre de 2012

El método científico, una herramienta maravillosa

Fuente: Naukas



Imagen de previsualización de YouTube
El tema de hoy me lo ha proporcionado un tuitero que me ha incluido un enlace con el desafiante título de ¿Qué demonios es la ciencia? Aunque proviene de un blog muy fuera de mi estilo (se llama “La revolución naturalista”), el provocador título del artículo no pudo menos que llamar mi atención. En él se menciona a Karl Popper y el llamado “problema de la demarcación” referente a la dificultad de definir los límites de eso que denominamos ciencia.
Para mí, que llevo bajo la sombra de la ciencia toda la vida (y no es exageración, mi padre era geólogo del CSIC), la ciencia es algo muy cercano. Tanto, que nunca he tenido problemas en saber qué es. Sin embargo, la ciencia goza de tan buena fama que muchos otros polizones intentan subirse a su tren, a menudo sin pagar billete. Y no me refiero tan sólo a las pseudociencias, que pululan por ahí en busca de reconocimiento y de las que hay mucho que hablar, sino a las “ciencias” de todo tipo que proliferan como setas últimamente. En mi propia Universidad, hay varias licenciaturas (bueno, pronto serán grados) que se denominan ciencias pero que no tienen nada que ver con la Facultad de Ciencias. Tenemos Ciencias de la Salud (Enfermería), Ciencias Económicas, Ciencias Políticas, Ciencias del Trabajo, Ciencias de la Educación, e incluso Ciencias de la Actividad Física y el Deporte.
Y la duda se extiende a otros estudios más o menos científicos. ¿Es la psicología una ciencia? ¿La frenología? ¿La homeopatía? ¿La parapsicología y el ocultismo? ¿Es algo científico lo que intenta hacer Iker Jiménez en sus programas? Constantemente nos habla de mediciones, psicofonías, grabaciones y todo tipo de parloteo tipo Cazafantasmas. Incluso intenta imitar en ocasiones a Carl Sagan ¿o por qué creen que llama a su plató de televisión “la nave del misterio”?). Puede que sí que nos haga falta una demarcación, siquiera somera, de qué entendemos por ciencia.
Cuando comienzo el curso, yo describo la Ciencia como “una rama del saber.” Supongo que, a estas alturas, incluso mis alumnos menos brillantes tendrán una idea de lo diferencia la Ciencia de, digamos, el arte o la religión. Pero como acto seguido les hablo de la Física, les describo el elemento que, en mi opinión, diferencia la Ciencia de lo que no es Ciencia. Hablo del método científico.
En mi opinión, la Ciencia es una rama del saber caracterizada por el uso de un método de búsqueda de la verdad muy concreto y definido. Es ese método lo que marca toda la diferencia. El método científico puede expresarse de varias formas. Yo voy a sintetizarlo así: observación, experimentación, formulación, comunicación, verificación.
Estos pasos no siempre son secuenciales, sino que a menudo se solapan.
1) OBSERVACIÓN. Consiste en un examen crítico y atento de un fenómeno, tal cual se aparece ante nosotros. Una observación puede ser cualitativa (solamente fijarse en qué tenemos) o cuantitativa (es decir, midiendo cantidades). Podemos observar con los sentidos, o bien usar cualquier instrumento de análisis para abarcar lo que el ojo no ve (infrarrojos, ultravioleta, rayos X, ondas sísmicas, etc.).  Ese es el primer paso, y si todo va bien, no será el último.
2) EXPERIMENTACIÓN.  Este paso es una extensión del anterior.  Un experimento es una observación, o serie de observaciones realizadas bajo condiciones controladas por el experimentador.  No se trata de una observación pasiva, sino que en este caso el científico es el que pone las reglas.  La experimentación nos permite inferir qué variables son relevantes en el experimento, y qué variables no lo son.  Por ejemplo, ¿de qué depende el período de un péndulo?  Si usamos muchas cuerdas y muchos objetos atados, comprobaremos que depende de la longitud de la cuerda, pero no de la masa del objeto que cuelga.  Así, poco a poco, vamos estableciendo relaciones entre variables, lo que nos permitirá efectuar hipótesis (paso 3).
3) FORMULACIÓN. En este punto, la cosa se anima. Armados con los datos proporcionados por la observación y la experimentación, podemos pasar ahora a la fase de formulación, en la que creamos hipótesis y teorías para explicar los fenómenos observados, así como para poder efectuar predicciones.  Una hipótesis es un primer intento, una especie de “presunta ley científica”  Si posteriores experimentos la confirman, va afianzándose, denominándose entonces teoría.  Con el tiempo, si validez se ve confirmada y apoyada por nuevas predicciones, pasa a llamarse ley.
Al menos en teoría.  El problema es que los científicos, como personas que son, tienden a ser algo caóticos.  No es como en Derecho, donde un texto legal pasa de borrador a anteproyecto, luego a proyecto y después a ley.  En ocasiones, la Ciencia llama teoría a algo que es una ley, o viceversa.  La evolución de Darwin es un hecho científico bien establecido, pero nadie habla de la Ley de la Evolución.  ¿Por qué?  Pues porque siempre se la ha llamado teoría, y no nos vamos a poner a hacer cambios a estas alturas.  Es este un detalle que en ocasiones es mal entendido por la comunidad no científica, que confunde una teoría con una hipótesis. Ha sido aprovechado con éxito por los grupos creacionistas que niegan la evolución.  Si la evolución es una “teoría,” dicen, en las escuelas deberían también enseñarse las creencias creacionistas, que también son una teoría.  Lo mismo dicen sobre la teoría del cambio climático.  Una teoría es algo sólido, quizá no tanto como una ley, pero ciertamente más que una endeble hipótesis.

Pero nuestra taxonomía es un tanto caótica.  La “Teoría” de la Relatividad, comprobada hasta la saciedad, sustituyó hace tiempo la “Ley” de gravitación de Newton.  Hablamos genéricamente de Teoría Cuántica (que más bien debería ser una ley) y de Teoría de Cuerdas (que es más bien una hipótesis, o eso dice el zombi Feynman).  A la teoría más extendida sobre partículas elementales se le llama Modelo Estándar.   Personalmente, creo que la tendencia es a llamar Ley a una hipótesis concreta, contrastada y confirmada, y a denominar Teoría a un conjunto de leyes e hipótesis más o menos numerosas.
Un ejemplo divertido es el de la Óptica.  Podemos explicar fenómenos ópticos usando Teoría Corpuscular, o bien Teoría Ondulatoria.  Resulta que ninguna de ellas puede explicar todos los fenómenos ópticos, pero lo que explican, lo explican perfectamente bien.  Lo que sucede es que, según la (ejem) Teoría Cuántica, un fotón puede actuar como onda o como partícula, según sea el experimento que diseñemos. Así que la Teoría Ondulatoria nos explica la Ley de Malus, y la Teoría Corpuscular nos da la Ley de Snell.  ¿Que por qué no hablamos de Ley Corpuscular y Ley Ondulatoria?  Pues por lo mismo que les dije antes: inercia cansina.
(Por cierto, a la teoría óptica ondulatoria es costumbre llamarla Óptica Física, nombre que yo aborrezco.  Para mí, tan física es la Óptica Ondulatoria como la Corpuscular).
4) COMUNICACIÓN.  La Ciencia viene a ser como el viejo chiste: ¿de qué sirve acostarse con Elsa Pataki si no lo puedes contar?  Una vez has comprobado la validez de tu teoría, llega el momento de contárselo al mundo.  No se trata solamente de egolatría, aunque a todos nos gusta que se nos atribuya el mérito por nuestro trabajo.  No, es algo mucho más profundo.  En Ciencia, todo es válido mientras no se demuestre lo contrario.  Y la mejor manera de demostrarlo es en el laboratorio, con luz y taquígrafos en todos los rincones.  Cualquier teoría debe ser reproducible, de forma que un científico en el otro extremo del planeta, con los mismos instrumentos y las mismas instrucciones, pueda obtener los mismos resultados.  Y para eso hay que comunicar lo que uno obtiene, sea en forma de artículo científico, contribución a congreso o de otra forma.  Se pone todo encima de la mesa, se da un paso atrás y a esperar el veredicto de tus pares.
Eso es lo que da a la Ciencia una buena parte de su solidez.  Nada se cree porque sí, nada se impone por decreto.  Sí, seguro que usted podrá encontrar contraejemplos de lo que le digo.  Newton, como persona, parece que era un auténtico cabrón, y se pasó años combatiendo a quienes osaban cuestionar su Teoría Corpuscular de la luz.  Era una autoridad científica, y se salió con la suya durante un tiempo.  Pero, a la larga, el peso de la evidencia experimental hace imperativo descartar la teoría incorrecta y sustituirla por una mejor.  Los argumentos de autoridad valen lo que valen, y no más.
Incluso científicos honrados y con buenas intenciones pueden cometer errores, así que la comunidad científica en su conjunto es la encargada de validar, o refutar, sus resultados, en un proceso de autocorrección que nunca acaba.  ¿Creéis que la forma de trabajar en la Wikipedia, o en el mundo Linux, es novedosa? ¡Ja!  La ciencia descubrió el truco hace siglos.  No solamente eso, sino que comunicar las investigaciones propias permite a otros científicos avanzar en sus propias investigaciones.  En clase suelo poner el ejemplo de Henry Cavendish.  Este científico británico del siglo XVIII hubiera podido ser un precursor del electromagnetismo y la teoría de gases, adelantándose en décadas a hombres como Mawxell, Faraday o Dalton.  Pero era de personalidad retraída y asocial, y muchos de sus descubrimientos no fueron nunca publicados.  Sólo después de su muerte, cuando se encontraron sus cuadernos de notas, pudo el mundo conocer el total de su grandeza científica.  Una lástima para el mundo, que pudo haberse aprovechado bien de su mente y sus descubrimientos.  Aunque tranquilos, que al menos Cavendish no murió triste y pobre: cuando fue enterrado en la catedral de Derby, Inglaterra despedía a uno de sus más acaudalados súbditos.
5) VERIFICACIÓN.  Una vez establecida una teoría, hay que verificarla.  No se trata tan sólo de asegurarse que los experimentos ya realizados queden bien explicados, sino que también ha de poder explicar otros fenómenos.  Es decir, que nos permita hacer predicciones.  Estas comprobaciones pueden ser hechas tanto por el científico creador de la teoría como por otros científicos.  De hecho, lo mejor es que lo confirmen grupos de investigadores de otros laboratorios.
Un ejemplo interesante es el de las ondas gravitacionales.  Predichas por la teoría de la relatividad de Einstein, fueron aparentemente detectadas por vez primera en los años 60, de la mano de James Weber.  El problema es que, desde entonces, nadie ha podido volver a detectarlas, a pesar de que los instrumentos recientes son mucho más sensibles.  ¿Mintió Weber y falsificó resultados?  No parece el caso.  ¿Se equivocó y realizó un experimento fallido?  Es posible.  Pero, puesto que tenemos una teoría capaz de explicar las ondas gravitacionales, se están preparando nuevos y muy costosos experimentos para verificarla o refutarla (pueden leer más detalles en este artículo).  Sólo así sabremos si Weber fue un precursor que tuvo la suerte de detectar una onda gravitacional inusitadamente grande, o si sencillamente se equivocó.
Otro ejemplo: la fusión fría.  En la década de los 80, los investigadores Stanley Pons y Martin Fleischmann afirmaron haber obtenido fusión nuclear a temperatura ambiente, mediante una celda electrolítica.  Su descubrimiento fue revolucionario, y ya pueden imaginarse por qué: ¡nada menos que un bote con agua, deuterio y un catalizador, y ya tenemos energía barata e inagotable! Este cliché llegó hasta el cine, con la película El Santo (1997), donde una científica rusa y un pícaro ladrón logran salvar a Rusia del abismo gracias a la fusión fría.  Por desgracia, la verificación experimental de otros equipos fue negativa, nadie fue capaz de reproducir esos resultados. ¿Fraude?  Había miles de millones en juego, y los investigadores parecían más interesados en obtener patentes que en hacer trabajo científico serie.  Sin embargo, no serían tan tontos como para creer que nadie verificaría sus resultados.  En la actualidad, se cree que Pons y Fleischmann pudieron haberse equivocado en sus mediciones, lo que les hizo creer erróneamente que había un exceso de energía de origen nuclear.
Así que ya saben, amigos.  Si tienen alguna duda sobre la validez científica de cualquier área del saber, rama o pseudociencia que pretenda acceder al manto de respetabilidad que otorga la ciencia, hágase las preguntas del método científico:
  • ¿Hay observaciones fiables?
  • ¿Se realizan experimentos en condiciones controladas y reproducibles?
  • ¿Hay alguna teoría, hipótesis o conjetura que permita explicar los fenómenos observados y experimentados?
  • ¿Se comunican dichas teorías y experimentos de forma abierta y fiable?
  • ¿Se ha verificado de forma rigurosa e independiente?
Si no es así, no compre la moto. Seguro que tiene truco.

lunes, 19 de noviembre de 2012

Crear un pendrive iniciable (boot ) con una .iso de una distro

Fuente: Hatteras's blog Linux

Con los métodos que se indican  he logrado hacer un pendrive iniciable ( bootable ) con una imagen .iso de alguna distro de Linux, para poder instalarla o probarla en un pc que no tenga lector de cd/dvd, pero si opción de iniciar el sistema desde un pendrive. Y aunque nuestro pc si que tenga lector de cd/dvd sigue siendo un método útil para probar una distro sin tener que grabar la .iso en un cd/dvd, lo que nos ahorra dinero: si nos gusta mucho la distro, la podemos instalar en el disco duro, que no nos gusta, la borramos del pendrive e instalamos otra, sin haber gastado dinero en un cd/dvd.  Al ejecutar estos programas, en el pendrive se eliminan todos los archivos y directorios que pudieran tener previamente.
Todos los métodos/programas que indico se tienen que usar con permisos de root, y el pendrive debe de estar previamente formateado en fat32.
- Unetbootin : Lo primero es ir a la página del programa*:  http://unetbootin.sourceforge.net/ y desde Aquí bajarse el archivo unetbootin-linux-502.bin, al que hay que seleccionarlo y desde Preferencias-Permisos, hay que añadirle permisos de ejecución, y luego hacer doble clisk en él para que se instale y ejecute ( aparecerá una nueva entrada en el Menú de aplicaciones-Herramientas del sistema-Unetbootin ) tras lo cual tras pedirnos la contraseña de root, se abre la ventana de Configuración.
Se debe ejecutar con: gksu unetbootin. Aparece la ventana del programa, en la que hay que configurar los puntos de forma similar a la imagen.
Si usamos este programa, pero en vez de configurar los puntos como se indica, en Tipo ponemos disco duro y en Unidad ponemos la partición / , lo que haremos será añadir una entrada al Grub2 desde la que también podremos probar la .iso de la distro que elijamos (Probando una distro desde el menú del Grub2 con Unetbootin ) .
*Desde esa misma página se puede bajar la versión de Unetbootin para Windows, para desde este sistema operativo crear un pendrive iniciable con una .iso de Linux, para iniciar el pc desde el pendrive e instalar en el disco duro la distro de Linux que hayamos elegido, y o bien decir adiso definitivo a Windows, o bien hacer que convivan en el mismo pc los dos sistemas operativos.
- Creador de disco de arranque:  El  paquete que hay que instalar y el comando ejecutable es usb-creator-gtk , por lo que se debe ejecutar con: gksu usb-creator-gtk
Este programa permite hacer dos cosas que no permiten los otros programas: borrar un disco (pendrive ), y  crear un espacio de almacenado adicional para almacenar datos, lo cual permite que las modificaciones que hagamos en la distro ( añadir o quitar programas, modificar configuraciones del sistema, o guardar archivos no muy grandes ) se guarden y las tengamos de nuevo disponibles cuando volvamos a iniciar la distro desde el pendrive, por lo que permite probar mejor la distro .Es, por ello, mi programa favorito.
- Con la terminal: sudo dd if=/nombre-de-la.iso of=/dev/sdb ( por ejemplo: sudo dd if=/linuxmint-13-cinnamon-dvd-64bit.iso of=/dev/sdb , teniendo la .iso en el directorio raiz y siendo la partición del pendrive /dev/sdb: para saber el dispositivo en que esta montado el pendrive hay que ejecutar el comando sudo fdisk -l con el pendrive conectado y montado)
Al ejecutar el comando, te pide que pongas la contraseña, y tras un tiempo en el que parece que no pasa nada ya que no aparece nada en la terminal aparece lo siguiente:
usuario@mint ~ $ sudo dd if=/linuxmint-13-cinnamon-dvd-64bit.iso of=/dev/sdb
[sudo] password for usuario:
1640448+0 registros leídos
1640448+0 registros escritos
839909376 bytes (840 MB) copiados, 171,82 s, 4,9 MB/s
usuario@mint ~ $
tras lo cual ya se puede cerrar la terminal, y se habrá creado el pendrive iniciable.
- Imagewriter: Ejecutado con permisos de root: gksu imagewriter, crea también un pendrive iniciable, eligiendo la .iso y el disco duro correspondiente al pendrive, por medio de la ejecución del comando: sudo dd if=/nombre-de-la-.iso of=/dev/sdb .Es por tanto un programa gráfico que ejecuta el comando indicado anteriormente con la terminal.
Si al ejecutar este programa no tenemos un pendrive conectado al pc, nos sale un mensaje advirtiendo este error, y no se abre el programa.
————————————————–
Una vez tengamos creado el pendrive iniciable apagamos el pc, y lo volvemos a encender, pasando previamente por la bios para seleccionar el pendrive como primera opción de inicio, o tecleando alguna de tecla especifica ( en mi caso f12 en el pc portátil y f8 en el pc fijo ) que permite seleccionar entre las opciones de inicio tenga el pc  ( En mi caso, en vez de elegir la opción “removable”, que inicia desde el livecd, hay que elegir la opción “hdd” que a su vez permite elegir entre iniciar desde el disco duro o desde el pendrive,  ) , tras lo cual se inicia la distro correspondiente a la imagen .iso que hayamos elegido al crear el pendrive iniciable.
————————————————-

viernes, 16 de noviembre de 2012

Diez sencillas reglas para…

Fuente: Las penas del agente Smith
Muchos de estos artículos dan normas quizá excesivamente básicas, pero son un buen punto de partida para todos aquellos que se enfrenten por primera vez a estos problemas (o por enésima vez y hayan decidido pararse a pensar un poco antes de acometer la próxima tarea).

¿Por qué explorar el espacio? – Carta traducida de la original de Ernst Stuhlinger


Fuente: Naukas

En 1970, una monja radicada en Zambia y llamada Hermana Mary Jucunda escribió al doctor Ernst Stuhlinger, entonces director asociado de ciencia en el Centro de Vuelos Espaciales Marshall de la NASA, en respuesta a sus investigaciones sobre una misión tripulada a Marte.  Concretamente, preguntó cómo podía sugerir que se gastasen miles de millones de dólares en un proyecto así en un tiempo en el que tantos niños morían de hambre en la Tierra.
Stuhlinger envió a la Hermana Jucunda la siguiente carta de explicación junto con una copia de Earthrise, la fotografía-icono de la Tierra tomada en 1968 por el astronauta William Anders desde la luna (también incluida en esta carta).  Su estudiada respuesta fue más tarde publicada por la NASA bajo el título de “¿Por qué explorar el Espacio?”
6 de mayo de 1970
(Fuente original: Roger Launius, via Gavin Williams; Fotografía: superficie de Marte, tomada por la Curiosity el 6 de agosto de 2012, via NASA) Carta original en inglés de Ernst Stuhlinger

Estimada Hermana Mary Jucunda,
Su carta ha sido una de tantas que me llegan cada día, pero me ha conmovido más profundamente que todas las demás porque viene de una mente inquieta y un corazón compasivo. Intentaré responder a su pregunta lo mejor que pueda.
Primero, sin embargo, me gustaría expresarle la gran admiración que siento por usted y por sus valientes hermanas, porque están ustedes dedicando sus vidas a la más noble causa del hombre: ayudar a sus semejantes necesitados.
Pregunta en su carta cómo puedo sugerir que se gasten miles de millones de dólares en un viaje a Marte, en un momento en el que muchos niños mueren de hambre en la Tierra.
Sé que no espera usted una respuesta como “¡Oh, no sabía que había niños muriéndose de hambre, pero desde ahora dejaremos de explorar el espacio hasta que la humanidad haya resuelto ese problema!” En realidad, sé de la existencia de niños hambrientos mucho antes de saber que un viaje al planeta Marte es técnicamente posible. Sin embargo, como muchos otros, creo que viajar a la Luna, y luego a Marte y otros planetas, es una aventura que debemos emprender ahora, e incluso creo que ese proyecto, a la larga, contribuirá más a la solución de esos graves problemas que tenemos aquí en la Tierra que muchos otros potenciales proyectos de ayuda que se están debatiendo y discutiendo año tras año, y que son tan lentos a la hora de proporcionar ayuda tangible.
Antes de intentar describir en más detalle cómo nuestro programa espacial contribuye a la solución de nuestros problemas en la Tierra, me gustaría relatarle brevemente una supuesta historia real. Hace 400 años, vivía un conde en una pequeña aldea de Alemania. Era uno de los condes benignos, y daba gran parte de sus ingresos a los pobres de su aldea. Eso era muy de agradecer porque la pobreza abundaba en los tiempos medievales y había epidemias de plaga que asolaban con frecuencia el campo. Un día, el conde conoció a un extraño hombre. Tenía una mesa de trabajo y un pequeño laboratorio en su casa, y trabajaba duro durante el día para poder permitirse algunas horas de trabajo en su laboratorio por las noches. Tenía lentes pequeñas hechas de trozos de vidrio; montaba las lentes en tubos y usaba esos aparatos para mirar objetos muy pequeños. El conde estaba particularmente fascinado por las minúsculas criaturas que podían observarse con grandes aumentos, y que nunca antes habían sido vistos. Invitó al hombre a mudar su laboratorio al castillo, a convertirse en un miembro de su casa y a dedicar desde entonces todo su tiempo al desarrollo y perfeccionamiento de sus aparatos ópticos como empleado especial del conde.
Los aldeanos, sin embargo, se enfadaron cuando se dieron cuenta de que el conde estaba desperdiciando su dinero en lo que ellos consideraban una payasada sin sentido. “¡Sufrimos por la plaga,” decían, “mientras le paga a ese hombre por un hobby sin utilidad!” Pero el conde permaneció firme. “Os doy tanto como puedo,” dijo, “pero también apoyaré a este hombre y a su trabajo, porque creo que un día algo útil saldrá de ello.”
Realmente, salieron cosas muy útiles de ese trabajo, y también de trabajos similares hechos por otros en otros lugares: el microscopio. Es bien sabido que el microscopio ha contribuido más que cualquier otro invento al progreso de la medicina, y que la eliminación de la plaga y de muchas otras enfermedades contagiosas en todo el mundo es en buena parte el resultado de los estudios que el microscopio hizo posibles.
El conde, al reservar algo de su dinero para investigación y descubrimiento contribuyó mucho más al alivio del sufrimiento humano que lo que hubiera conseguido dando a su comunidad asolada por la plaga todo lo que pudiera ahorrar.
La situación que afrontamos hoy es similar en muchos aspectos. El Presidente de los Estados Unidos gasta unos 200.000 millones de dólares en su presupuesto anual. Ese dinero va a sanidad, educación, servicios sociales, renovación urbana, autopistas, transportes, ayuda al exterior, defensa, conservación, ciencia, agricultura y muchas instalaciones dentro y fuera del país. Aproximadamente el 1,6% de este presupuesto nacional se destina este año a la exploración espacial. El programa espacial incluye el Proyecto Apolo y muchos otros proyectos más pequeños en física espacial, astronomía espacial, biología espacial, proyectos planetarios, proyectos de recursos de la Tierra e ingeniería espacial. Para hacer posible este gasto en el programa espacial, el contribuyente norteamericano medio con ingresos de 10.000 dólares paga unos 30 dólares de sus impuestos para el espacio. El resto de sus ingresos, 9.970 dólares, queda para su subsistencia, recreo, ahorros, otros impuestos, y todos sus demás gastos.
Probablemente usted se preguntará: “¿por qué no coge 5, o 3, o 1 dólar de esos 30 dólares para el espacio que el contribuyente norteamericano medio está pagando, y envía esos dólares a los niños hambrientos?” Para responder a esa cuestión, tengo que explicarle brevemente cómo funciona la economía de este país. La situación es muy similar en otros países. El gobierno consiste en un número de departamentos [ministerios] (Interior, Justicia, Sanidad, Educación y Servicios Sociales, Transporte, Defensa y otros), y las oficinas [bureaus] (Fundación Nacional para la Ciencia, Administración Nacional de Aeronáutica y del Espacio, y otras). Todos ellas preparan sus presupuestos anuales según sus misiones asignadas, y cada una de ellos defiende su presupuesto frente a una supervisión extremadamente severa por parte de las comisiones del Congreso, y frente a una fuerte presión de ahorro por parte de la Oficina Presupuestaria y del Presidente. Cuando los fondos son finalmente asignados por el Congreso, solamente pueden gastarse en las partidas presupuestarias especificadas y aprobadas en su presupuesto.
El presupuesto de la Administración Nacional de Aeronáutica y del Espacio, por supuesto, solamente puede contener partidas directamente relacionada a la aeronáutica y al espacio. Si ese presupuesto no fuese aprobado por el Congreso, los fondos propuestos no estarían disponibles para nadie más; sencillamente no serían gravados al contribuyente, a menos que alguno de los otros presupuesto hubiese obtenido la aprobación para un aumento específico, que entonces absorberían los fondos no gastados en el espacio. Se dará usted cuenta, a partir de este breve discurso, que el apoyo a los niños hambrientos, o más bien un apoyo adicional a lo que los Estados Unidos ya está contribuyendo para esa misma noble causa en la forma de ayuda al exterior, solamente puede obtenerse si el departamento apropiado solicita una asignación para este fin, y si esa asignación es aprobada por el Congreso.
Puede usted preguntarse si yo, personalmente, estaría a favor de una acción así por parte de nuestro gobierno. Mi respuesta es un rotundo sí. De hecho, no me importaría en absoluto si mis impuestos anuales fuesen aumentados un cierto número de dólares con el fin de alimentar niños hambrientos dondequiera que vivan.
Sé que todos mis amigos sienten lo mismo. No obstante, no podemos llevar a cabo un programa así simplemente desistiendo de nuestros planes de viajar a Marte. Al contrario, creo incluso que al trabajar para el programa espacial puedo hacer alguna contribución al alivio y eventual solución de problemas tan graves como la pobreza y el hambre en la Tierra. En el problema del hambre hay dos funciones básicas: la producción de comida y su distribución. La producción de alimentos por medio de agricultura, ganadería, pesca y otras operaciones a gran escala es eficiente en algunas partes del mundo, pero drásticamente deficiente en muchas otras partes. Por ejemplo, podrían utilizarse mucho mejor grandes extensiones de terreno si se aplicasen métodos eficientes de control de cuencas fluviales, uso de fertilizantes, pronósticos meteorológicos, evaluación de fertilidad, programación de plantaciones, selección de campo, hábitos de plantación, cadencia de cultivos, inspección de cosecha y planificación de recolecciones.
La mejor herramienta para mejorar todas esas funciones, sin duda, es el satélite artificial en órbita terrestre. Dando vueltas al mundo a gran altitud, puede explorar grandes zonas de terreno en poco tiempo; puede observar y medir una gran variedad de factores que indican el estado y las condición de cosechas, suelo, sequías, precipitaciones, nieve, etc, y puede enviar esta información por radio a las estaciones de tierra para su buen uso. Se ha estimado que incluso un sistema modesto de satélites terrestres equipados con sensores, trabajando en un programa de mejora agrícola a escala mundial, aumentaría el tamaño de las cosechas en el equivalente de muchos miles de millones de dólares.
La distribución de alimentos a los necesitados es un problema completamente diferente. La cuestión no es tanto de volumen de transporte como de cooperación internacional. El gobernante de un país pequeño puede sentirse incómodo ante la perspectiva de recibir grandes envíos de alimentos provenientes de un país grande, sencillamente porque tema que junto con los alimentos esté importando influencia y poder extranjeros. Me temo que un alivio eficiente del hambre no llegará a menos que las fronteras nacionales sean menos divisorias de lo que son hoy. No creo que el vuelo espacial consiga el milagro de la noche a la mañana. Sin embargo, el programa espacial se encuentra entre los agentes más poderosos y prometedores que trabajan en esa dirección.
Permítame tan sólo recordarle la reciente casi tragedia del Apolo 13. Cuando llegó el crucial momento de la reentrada de los astronautas, la Unión Soviética cortó todas las transmisiones rusas en las bandas de frecuencia usadas por el Proyecto Apolo para evitar cualquier interferencia, y los buques rusos se desplegaron en los Océanos Atlántico y Pacífico en caso de que se hiciese necesario un resca te de emergencia. Si la cápsula hubiera caído cerca de un buque ruso, los rusos sin duran habrían dedicado todos los esfuerzos necesarios para su rescate, como si fuesen cosmonautas rusos los que hubieran regresado del espacio. Si los viajeros rusos se encuentran alguna vez en una situación de emergencia similar, los norteamericanos harán lo mismo sin dudarlo.
Más alimentos gracias a estudios y valoraciones desde la órbita, y mejor distribución de alimentos gracias a la mejora en las relaciones internacionales, son tan sólo dos ejemplos de la profundidad con que el programa espacial hace mella en la vida sobre la Tierra. Me gustaría citar otros dos ejemplos: la estimulación del desarrollo tecnológico y la generación de conocimiento científico.
Los requisitos que deben imponerse a los componentes de una nave espacial que viaja a la Luna, en cuanto a alta precisión y fiabilidad extrema, no tienen precedentes en la historia de la ingeniería. El desarrollo de sistemas que cumplan esos severos requisitos nos ha proporcionado una oportunidad única para encontrar nuevos materiales y procesos, para inventar mejores sistemas técnicos, para procesos de fabricación, para alargar la vida de los instrumentos e incluso para descubrir nuevas leyes de la naturaleza.
Todo este conocimiento técnico recién adquirido también está disponible para su aplicación a tecnologías terrestres. Cada año, alrededor de mil innovaciones técnicas generadas en el programa espacial se abren camino a las tecnología terrestres, donde producen mejores electrodomésticos y equipos agrícolas, mejores máquinas de coser y radios, mejores barcos y aviones, mejores pronósticos del tiempo y avisos de tormentas, mejores comunicaciones, mejores instrumentos, mejores utensilios y herramientas para la vida diaria. Supuestamente, usted preguntará ahora por qué debemos desarrollar un sistema de soporte vital para nuestros viajeros lunares antes de que podamos construir un sistema sensor remoto para los pacientes del corazón. La respuesta es sencilla: los progresos significativos para la solución de los problemas técnicos se hacen con frecuencia no mediante una aproximación directa, sino estableciendo primero un objetivo desafiante que nos ofrece una fuerte motivación para el trabajo innovador, lo que dispara la imaginación y espolea a los hombres para que se esfuercen al máximo, y actúa como catalizador al inducir cadenas de otras reacciones.
El vuelo espacial cumple exactamente este papel. El viaje a Marte no será, ciertamente, una fuente directa de alimentos para los hambrientos. No obstante, conducirá a tantos nuevos procesos tecnológicos que los subproductos de este proyecto, por sí solos, valdrán muchas veces más que el coste de su implementación.
En adición a la necesidad de nuevos procesos tecnológicos, hay una necesidad creciente de conocimientos básicos de ciencias si queremos mejorar las condiciones de la vida humana sobre la Tierra. Necesitamos más conocimientos en física y química, en biología y fisiología, y muy particularmente en medicina para hacer frente a los problemas que amenazan la vida del hombre: hambre, enfermedades, contaminación de la comida y del agua, polución del medio ambiente.
Necesitamos que más jóvenes, hombres y mujeres, escojan ciencia como su profesión, y necesitamos más apoyo para esos científicos que tienen el talento y la determinación para enzarzarse en un trabajo científico fructífero. Deben tener a mano objetivos de investigación que supongan un desafío, y hay que proporcionarles suficiente apoyo para proyectos de investigación. De nuevo, el programa espacial, con sus maravillosas oportunidades para llevar a cabo estudios de investigación realmente magníficos en lunas y planetas, en física y astronomía, en biología y medicina, constituye un catalizador casi ideal que induce la reacción entre la motivación del trabajo científico, las oportunidades para observar fenómenos naturales excitantes y el apoyo material necesario para llevar a cabo el esfuerzo de investigación.
Entre todas las actividades dirigidas, controladas y financiadas por el gobierno norteamericano, el programa espacial es ciertamente la actividad más visible y probablemente la más debatida, aunque solamente consume el 1,6% del presupuesto, y es el 3 por mil (menos de un tercio de un uno por ciento) del producto interior bruto. No hay ninguna otra actividad equivalente en términos de estimulador y catalizador para el desarrollo de nuevas tecnologías e investigación en ciencias básicas. Podemos incluso decir al respecto que el programa espacial está asumiendo una función que, durante tres o cuatro mil años, ha sido la triste prerrogativa de la guerra.
¡Cuánto sufrimiento humano puede evitarse si las naciones, en lugar de competir con sus flotas de bombarderos y cohetes, compitiesen con sus naves espaciales para viajar a la Luna! Esta competición está llena de promesas de victorias brillantes, pero no deja espacio para la amargura de los vencidos que no conduce más que a la venganza y a nuevas guerras.
Aunque nuestro programa especial parece llevarnos lejos de la Tierra hacia la Luna, el Sol, los planetas y las estrellas, creo que ninguno de esos objetos celestes recibirá tanta atención y estudio por parte de los científicos espaciales como nuestra Tierra. Se convertirá en una Tierra mejor, no sólo por todo el nuevo conocimiento técnico y científico que usaremos para la mejora de la vida, sino también porque estamos desarrollando un aprecio más profundo hacia nuestra Tierra, hacia la vida y hacia el hombre.

La fotografía que le incluyo con esta carta muestra una vista de nuestra Tierra desde el Apolo 8 cuando estaba en órbita lunar en las navidades de 1968. De los muchos y maravillosos resultados del programa espacial hasta la fecha, esta imagen puede que sea la más importante. Abrió nuestros ojos al hecho de que nuestra Tierra es una hermosa y preciada isla en un vacío sin límites, y que no hay otro lugar en el que podemos vivir que la delgada capa superficial de nuestro planeta, bordeada por la desolada nada del espacio. Nunca antes reconoció tanta gente lo limitada que nuestra Tierra es en realidad, y lo peligroso que sería entrometerse en su balance ecológico. Desde que esta fotografía fue publicada, aumentan más y más las voces que avisan de los graves problemas con que se enfrente el hombre en nuestros tiempos: contaminación, hambre, pobreza, vida urbana, producción de alimentos, control de agua, superpoblación. No es casualidad que comencemos a ver la tremenda tarea que nos espera justo en el momento en que el joven programa espacial nos proporciona la primera buena mirada a nuestro propio planeta.
Por fortuna, la era espacial no sólo sujeta un espejo en el que podemos vernos a nosotros mismos, sino que también nos proporciona la tecnología, el desafío, la motivación e incluso el optimismo para atacar estas tareas con confianza. Lo que aprendemos en el programa espacial, creo, apoya del todo lo que Albert Schweitzer tenía en mente cuando dijo: “Miro al futuro no con preocupación sino con esperanza.”
Mis mejores deseos estarán siempre con usted y con sus niños.
Muy sinceramente suyo,
Ernst Stuhlinger

QR Code Creator | Sencilla aplicación para crear códigos QR en GNU/Linux

Fuente: Ubuntronics

 Un código QR es un módulo para almacenar información en una matriz de puntos o un código de barras bidimensional. Se caracteriza por los tres cuadrados que se encuentran en las esquinas y que permiten detectar la posición del código al lector.



QR Code Creator es una aplicación de código abierto para GNU/Linux. Es realmente muy sencilla y fácil de usar. En unos simples pasos podremos convertir un determinado texto, a un código QR que luego podremos guardar en nuestro ordenador.

Instalación en Arch Linux [AUR]

Como estamos acostumbrados, la instalación es de lo más simple, solo tendremos que ejecutar el siguiente comando en un terminal:

  • yaourt -S qr-code-creator

Descargar [.deb; .tar.gz]

Es posible descargar QR Code Creator desde el sitio web del proyecto en Launchpad. Ahí encontrarás un paquete .DEB para Ubuntu, más el código fuente de la aplicación.

La sigla «QR» se deriva de la frase inglesa Quick Response (Respuesta Rápida en español), pues los creadores (Joaco Retes y Euge Damm) aspiran a que el código permita que su contenido se lea a alta velocidad.

Existen distintas alternativas en GNU/Linux para generar este tipo de códigos, QR Code Creator es solo una de ellas. ¿Usas los códigos QR? ¿Cual es tu aplicación preferida para esta tarea?


Enlace: https://launchpad.net/qr-code-creator/
Fuente: http://es.wikipedia.org/wiki/C%C3%B3digo_QR

martes, 13 de noviembre de 2012

La vida privada de las estrellas

Fuente: El Tamiz

Por qué un muón es una partícula inestable que se desintegra en un electrón

Fuente: Francis (th)E mule

Un muón es un leptón cargado como el electrón, pero tiene una masa 206,77 veces mayor. El electrón es estable (hasta donde sabemos), pero el muón es inestable y se desintegra (en reposo) en un electrón en solo 2,2 μs (microsegundos). ¿Por qué el muón es inestable y el electrón es estable? La razón es sencilla, el proceso cuántico de desintegración de un muón en un electrón es irreversible. Permíteme explicarlo con un poco más de detalle, pero antes quiero recordarte que los muones producidos en los rayos cósmicos permiten verificar la ley relativista de la dilatación del tiempo (el famoso experimento de Rossi-Hall de 1940), pues al moverse a velocidades ultrarrelativistas (próximas a la de la luz) su vida media crece como indica la teoría de la relatividad de Einstein, pues su tiempo propio (en el sistema de referencia en el que el muón está en reposo). La idea de esta entrada nació de la lectura de Tommaso Dorigo, “What Makes Particles Unstable?,” AQDS, Nov 9th, 2012.
El muón es la partícula asociada a las excitaciones del campo muónico. Este campo cuántico es de tipo fermiónico, es decir, tiene cuatro grados de libertad; dos grados de libertad se excitan dando lugar al muón y los otros dos grados de libertad al antimuón (su antipartícula). Los dos grados de libertad del campo asociados al muón corresponden a sus los estados quirales del campo, el muón levógiro y el muón dextrógiro, que están mezclados gracias al campo de Higgs como corresponde a que el muón sea una partícula con masa; lo mismo ocurre con el antimuón que es mezcla del antimuón dextrógiro y del antimuón levógiro. El muón es un partícula con carga eléctrica negativa (-1) y con hipercarga débil negativa (-1 para el muón levógiro y -2 para el muón dextrógiro), por tanto es capaz de interaccionar con el campo electrodébil, es decir, con el fotón (campo electromagnético) y con los bosones débiles W y Z (campo débil). Siendo un leptón, el muón no puede interaccionar con los gluones (campo cromodinámico), pues no tiene carga de color.
La excitación del campo muónico que corresponde a un muón excita el campo electrodébil, produciendo las partículas virtuales de dicho campo (fotones y bosones débiles virtuales). Desde el punto de vista de los diagramas de Feynman, el muón emite y reabsorbe de forma constante fotones y bosones débiles. El principio de incertidumbre de Heisenberg para la energía y la duración involucrada en un proceso cuántico obliga a que todo esto ocurra en un intervalo de tiempo muy breve de tal manera que el bosón virtual no sea observable. Cuando un muón emite un bosón W virtual también emite un neutrino muónico virtual, que un poco más tarde se recombinan para dejar el muón inalterado; o lo que es lo mismo, la excitación tipo muón del campo muónico excita los campos del bosón W y del neutrino muónico, pero sin que dichas excitaciones del lugar a partículas de dichos campos. También puede ocurrir que el bosón W virtual se desintegre en un muón y un antineutrino muónico; este último se aniquila con el neutrino muónico y como resultado se recupera un muón con la misma energía y momento que el original. En estos procesos (y muchos otros que podemos imaginar utilizando diagramas de Feynman con un mayor número de bucles cerrados), el muón no cambia su naturaleza y propiedades.
Sin embargo, a veces el bosón W puede excitar el campo electrónico y el del antineutrino electrónico, es decir, el bosón W virtual puede producir un electrón y un antineutrino electrónico virtuales. En dicho caso tenemos tres partículas virtuales, el neutrino muónico, el antineutrino electrónico y el electrón. Las leyes de la física impiden que estas tres partículas se recombinan para dar un lugar a un muón, salvo que los dos últimas se recombinen para dar un W, en cuyo caso ocurre lo descrito en el párrafo anterior (recuerda que un neutrino muónico y un antineutrino electrónico no se puden aniquilar, la única posibilidad es que el antineutrino electrónico oscile a un antineutrino muónico algo que tiene una probabilidad muy baja y requiere recorrer una distancia muy larga). Por tanto, hay una probabilidad no nula de que este proceso sea irreversible, es decir, que transcurrido el tiempo permitido por el principio de incertidumbre de Heisenbreg, las tres partículas virtuales (excitaciones de los correspondientes campos que violan la relación de Einstein, E²≠(mc²)²+(pc)²) se transformen en partículas “reales” (que cumplen la relación de Einstein E²=(mc²)²+(pc)²). Ese proceso corresponde a que un muón se desintegre en un electrón, un antineutrino electrónico y un neutrino muónico.
Por qué la desintegración de un muón en un electrón es un proceso irreversible y un electrón no puede “transformarse” en un muón. Lo impide la ley de conservación de la energía y el momento. Un electrón en reposo (o a baja velocidad) tiene una masa 207 veces más pequeña que la del muón, por lo que no tiene energía suficiente para producir un muón. La única posibilidad para que un electrón produzca un muón es en el caso de un electrón ultrarrelativista, cuya energía sea mayor que la masa de un muón.
Por qué el electrón es una partícula (perfectamente) estable. Porque las leyes físicas no permiten que un electrón (en reposo) se desintegre en ninguna otra partícula de menor masa. Por supuesto, en física no se puede realizar ninguna afirmación con certeza absoluta, pues creemos que hay leyes físicas que aún desconocemos. Los límites experimentales actuales para la vida media del electrón indican que es mayor de 4,6 × 1026 años (para la posible desintegración de un electrón en un neutrino electrónico y un fotón, que obviamente violaría la ley de conservación de la carga eléctrica; esta ley se podría salvar si existiera una tercera partícula de carga negativa aún no descubierta).

lunes, 12 de noviembre de 2012

La evolución de la energía oscura

Fuente: Francis (th)E mule

Me ha gustado esta figura que ilustra muy bien que la energía oscura es un fenómeno “reciente” en la historia del universo. La energía oscura, la causa “desconocida” de la reciente expansión acelerada del universo, fue descubierta gracias a las supernovas de tipo Ia, pero hoy en día ha sido observada (confirmada) por muchos otros medios. Se trata de un fenómeno “reciente” ya que no se observa para corrimientos al rojo z>2. En la época de la recombinación, cuando el universo tenía unos 375.000 años y “cristalizó” el fondo cósmico de microondas, no había energía oscura en el universo. ¿Qué puede ser la energía oscura? La hipótesis más socorrida es que está asociada al vacío, a una especie de “antigravedad” asociada al vacío que se modela mediante una constante cosmológica como fuente, es decir, colocada en el miembro derecho de la ecuación de Einstein, en lugar de en el izquierdo, donde la colocó Einstein para lograr un universo estático. La NASA tiene un programa bastante completo para el estudio de la materia oscura y de la energía oscura, como nos cuenta Neil Gehrels, “NASA’s Dark Matter & Dark Energy Program,” NASA/GSFC, SpacePart12, Nov. 5, 2012 [slides, vídeo CDS]. Por cierto, el vídeo de la charla (media hora) está bastante bien y se centra en el futuro, tanto JWST como WFIRST.

El Telescopio del Polo Sur (SPT) confirma con 5,4 sigmas la existencia de la energía oscura

Fuente: Francis (th)E mule

¿Qué nos deparará el fondo cósmico de microondas (CMB) observado por el satélite Planck de la ESA? Por ahora, nos tenemos que conformar con los resultados de SPT (South Pole Telescope) que ha estudiado los picos acústicos del CMB entre 650 < l < 3000 (mucho más allá de WMAP7). La combinación WMAP7 + SPT muestra la existencia de la energía oscura con 5,4 sigmas de confianza estadística. Además, se confirma el modelo ΛCDM y se restringen fuertemente sus posibles extensiones. El efecto de lente gravitatoria del CMB se confirma a 8,1 sigmas con una amplitud de 0,86 ± 0,30 al 95% C.L., consistente con el modelo ΛCDM. El universo es plano con una curvatura media de 0,003 ± 0,018. El cociente entre perturbaciones tensoriales y escalares medido por WMAP7+SPT es r < 0,18 al 95% C.L. (recuerda que Planck llegará a r < 0,01 y que r=0 significa que no hay fondo cósmico de ondas gravitatorias). En mi opinión, lo más interesante se muestra en la figura que abre esta entrada; la línea discontinua es la predicción para el CMB y la línea continua añade las contribuciones del efecto Sunyaev-Zel’dovich (SZ) debido a la interacción del CMB con las grandes estructuras del universo; el acuerdo es espectacular (de hecho, para la región 2200 < l < 3000 se cree que la precisión de SPT será mayor que la de Planck). Una demostración más de que el modelo ΛCDM funciona mucho mejor de lo esperado. El artículo técnico es K. T. Story et al., “A Measurement of the Cosmic Microwave Background Damping Tail from the 2500-square-degree SPT-SZ survey,” arXiv:1210.7231, Subm. 26 Oct 2012. Recomiendo leer a Sean Carroll, “South Pole Telescope and CMB Constraints,” Cosmic Variance, 5 Nov 2012.

Obviamente, SPT solo ha estudiado el CMB en una pequeña región del  cielo de 2500 grados cuadrados alrededor del polo sur, como muestra esta figura, mientras que Planck estudiará el cielo completo. Te recuerdo que la radiación cósmica del fondo de microondas (CMB) permite conocer la situación del universo en el momento del desacople entre materia y radiación, cuando el universo primordial tenía una temperatura de unos pocos miles de grados. Esta radiación sigue la ley de cuerpo negro con temperatura 2,725 K con gran exactitud y presenta una isotropía casi perfecta (es la misma en todas las direcciones del firmamento), aunque se observan pequeñas anisotropías del orden de 30 microkelvin de temperatura. Antes de la recombinación, materia ionizada, electrones y radiación (fotones) formaban un fluido en el que los fotones colisionaban de forma continuada con lo electrones. La gravedad y la presión del plasma actuaron de forma complementaria, la primera induciendo la formación de condensaciones (sobredensidades rodeadas de subdensidades) y la segunda suavizándolas hacia un estado de equilibrio. Como resultado aparecieron oscilaciones acústicas impulsadas por la gravedad. Estas anisotropías en el CMB se caracterizan por su escala angular y dan lugar los llamados picos acústicos (coeficientes Cl). Los primeros tres picos, que corresponden a las escalas angulares más grandes, fueron caracterizados con gran precisión por WMAP7. Estos picos caracterizan la distribución del potencial gravitatorio cuando el universo contaba unos 375.000 años de edad. La física que describe su formación es sencilla, dependiendo de las contribuciones relativas entre las perturbaciones en la densidad de energía (perturbaciones escalares) y en las ondas gravitatorias (modos tensoriales), así como también de la forma (índice espectral) de dichas perturbaciones primordiales.
En los nuevos datos de SPT han de ser combinarlos con WMAP7, BAO y H0 para mostrar todas sus consecuencias (que Planck podría confirmar o refutar a principios del año próximo). Lo primero, el  índice espectral escalar (ns) podría ser menor que la unidad; se ha obtenido un valor de n= 0,9538 ± 0,0081 (asumiendo el modelo CDM), lo que implica que ns < 1 con 5,7 sigmas de confianza estadística. Esto significa que las fluctuaciones son dependientes de la escala, lo que nos da información muy interesante sobre la inflación cósmica (en los modelos de inflación caótica n= 1). En cuanto al cociente r entre perturbaciones tensoriales y escalares, las medidas de SPT imponen un límite superior r < 0,11 al 95% C.L. (compatible con la ausencia de ondas gravitatorias corresponde a r=0). La figura muestra como estos datos permiten sesgar los diferentes modelos de inflación cósmica. Todo apunta a que los datos que ofrezca Planck serán de enorme interés para conocer el modelo correcto para la inflación cósmica.
El nuevo artículo de SPT no discute en detalle el número de especies neutrinos y hay rumores de que habrá una próxima publicación específica sobre este tema. Esto es importante porque los datos de WMAP7+BAO apuntan a cuatro especies de neutrinos si se deja libre dicho número, pero si se fija el número a tres especies entonces el valor del índice espectral escalar crece (aunque sigue siendo menor que la unidad). Habrá que seguir estando al tanto de estos temas tan interesantes.

jueves, 8 de noviembre de 2012

¿Nuevo marco físico?

Fuente: Neofronteras


Proponen un nuevo marco matemático sencillo para describir lo que les pasa a las partículas cuando están sometidas a fluctuaciones gravitatorias intensas.
Foto
Como todos sabemos hay dos ramas de la Física que hasta ahora parecen irreconciliables. Por un lado está la Relatividad General, que describe los fenómenos gravitatorios, y por otro la Mecánica Cuántica, que describe el mundo microscópico. Desde hace décadas se persigue una teoría de la gravedad cuántica, pero no se ha conseguido encontrar aún. Los modelos de cuerdas, por ejemplo, lo han intentado, pero sólo han conseguido una matemática muy compleja que a la hora de la verdad no produce predicciones contrastables físicamente.
Ahora Frank Wilczek (del MIT y premio Nobel) y sus colaboradores proponen un nuevo marco matemático relativamente sencillo que quizás pueda dar lugar en algún momento a esa reconciliación entre gravedad y mundo cuántico. Lo que han publicado dista mucho de ser una teoría y mucho menos una teoría cuántica de la gravedad. No tratan de modelar la gravedad directamente, sólo proporciona una posible vía a explorar.
En su artículo consiguen mostrar una manera en la que las partículas cuánticas se mueven de manera suave desde un espacio topológico determinado a otro diferente. Esta situación se da en el nacimiento de los agujeros negros en donde las partículas que hay alrededor están sometidas a fuertes fluctuaciones del espacio-tiempo.
Wilczek sugiere que este trabajo podría proporcionar un marco simplificado para entender los efectos de la gravedad sobre partículas cuánticas así como para describir otras situaciones en las que el espacio por el que se mueven las partículas cuánticas es radicalmente alterado, como ocurre en ciertos experimentos de Física de estado condensado.
Lo que más fascina a la comunidad académica es que las matemáticas implicadas en este nuevo modelo son muy sencillas y lo lejos que se ha llegado con ellas.
En el trabajo se parte de un sistema hipotético en el que una partícula se mueve a lo largo de un hilo que se divide en dos súbitamente. Este escenario es un modelo unidimensional de lo que encontraría una partícula en un espacio en el que su topología cambia radicalmente.
Se centran en el estudio de lo que sucede en los extremos del hilo, lo que fija las condiciones de contorno antes y después de la función de ondas asociada a la partícula.
Muestran que es posible que la función de ondas evolucione de manera continua sin que se produzcan discontinuidades según las condiciones de contorno cambian de una geometría a otra incompatible con la anterior.
La necesidad de escapar de ese problema es lo que motivo en su día, entre otras razones, el desarrollo de las cuerdas.
Aunque en un principio se creyó que este trabajo era totalmente nuevo se ha podido comprobar que en 1995 un artículo (A. P. Balachandran et al. Nucl. Phys. B 446, 299–314; 1995) de Aiyalam Balachandran (Syracuse University) ya proponía un marco similar. Balachandran dice que su trabajo no llegó a la comunidad y espera que el trabajo de Wilczek sí lo haga. Según este físico las aproximaciones convencionales a problema no llegan muy lejos y quizás esto abra una nueva aproximación al problema.
Además parece que el trabajo ha servido para inspirar a los físicos experimentalistas que trabajan en Física Condensada. Entre otros casos podría ayudar a comprender mejor las trampas de iones y circuitos superconductores.
De todos modos hay que ser cautos porque el trabajo es sólo un primer paso que sólo tiene en cuenta una dimensión. Se necesitará un tiempo para ver si tiene un impacto real en la Física. De momento estos físicos seguirán trabajando hasta ver hasta dónde pueden ir con este esquema.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3957
Fuentes y referencias:
Noticia en Scientific Amercan.
Artículo original.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.