jueves, 31 de marzo de 2011

Cómo buscar el programa que más memoria RAM ocupa.

Simplemente con el comando:
ps aux | awk '{print $2, $4, $11}' | sort -k2 | tail -n 15
muestra los 15 programas que actualmente usan más memoria RAM en orden creciente.
Y si se quiere la lista en el orden de mayor a menor:
ps aux | awk '{print $2, $4, $11}' | sort -k2r | head -n 15

Obtener leyes de conservación en universos discretos

Fuente: Migui

Hay pocas cosas que puedan gustar más a un físico teórico que la simetría y las leyes de conservación. Gran parte de esa diversión y elegancia matemática suprema se la debemos al teorema de Noether, una física que demostró que para cada simetría existe asociada una ley de conservación. ¡Y no solo eso! Su demostración es constructiva, por lo que se puede deducir la ley de conservación aplicando el teorema de Noether a la simetría en particular. ¡Casi ná!
¿Y por qué son tan interesantes las leyes de conservación? Pues porque a veces son un pilar fundamental en el que apoyarse cuando no conoces mucho acerca de cómo va a ser tu sistema cuando evolucione, tener una ley de conservación te permite saber cómo van a ser algunas cosas.
Básicamente, las leyes de conservación establecen igualdades de la siguiente forma:
Propiedad que se conserva[Situación A(x,y,z,t)] = Propiedad que se conserva [Situación B(x',y',z',t')]
Es decir, la propiedad que se conserva mantiene su valor en dos situaciones distintas con distintas coordenadas (siempre y cuando el sistema pueda evolucionar de A a B).

Así, puede que sepamos muy poco acerca de “Situación B” pero lo que sí sabemos es que la propiedad que se conserva, mantendrá su valor. Y a partir de ahí podemos sacar conclusiones físicas o resolver problemas, al menos en parte. Son un apoyo muy importante, además de ser un resultado de gran elegancia matemática y armonía :)
Ejemplos de leyes de conservación en nuestro universo hay por doquier. Y gracias al teorema de Noether, basta descubrir una simetría -continua- (es decir, una situación en la que nuestro sistema es igual, aunque varíes algunas de sus propiedades) para encontrarlas.
La ley de conservación de la energía es la más conocida, se deriva a partir del teorema de Noether con facilidad pero a partir de una función llamada “lagrangiano” que es una función fundamental que permite obtener la evolución de un sistema físico. En “Conservación de la energía; Wikipedia.org podéis encontrar una discusión más matemática.
Pero, ejemplos más fáciles de ver que no requieran tantas matemáticas. Por ejemplo, se dice que el universo es “isótropo y homogéneo”. Imaginémoslo como una gigantesca caja vacía. Homogéneo quiere decir que todos los puntos son equivalentes. Dicho de otro modo, que si hacemos un experimento físico en un punto del universo los resultados deben dar exactamente lo mismo que si nos vamos a otra parte y lo repetimos, porque todos los puntos son equivalentes.
De la homogeneidad del universo, como simetría que es, se obtiene el principio de conservación de la cantidad de movimiento o momento lineal.
Otro ejemplo. En este universo-caja además de ser todos los puntos equivalentes, deben serlo también las direcciones. Es decir, no existe un arriba-abajo salvo que haya una fuerza que rompa la simetría. Por tanto, las leyes de la física deben reproducir los mismos resultados con independencia de la dirección arbitraria que escojamos para el desplazamiento.
Esta simetría se llama “isotropía del universo” y tiene como consecuencia la conservación del momento angular. El caso del momento angular lo analicé hace tiempo en “Algunas notas sobre la conservación del momento angular” y os invito a echarle un vistazo y también, alguna cosilla sobre el equilibrio. Esto también está relacionado con que el universo sea igual aunque rotemos nuestro punto de vista, y los resultados también deben ser equivalentes.
Así que, las simetrías tienen consecuencias muy profundas en cómo es la física en el universo. Y por si fuera poco, te ayudan mucho a resolver problemas donde apenas tienes salientes a los que aferrarte. Por eso son interesantes y por eso gustan mucho a los físicos.
Las que he descrito, son ejemplos de simetrías continuas. El teorema de Noether está limitado a este tipo de simetrías, pero no son las únicas que existen.
En un ejercicio de abstracción muy interesante unos científicos italianos han propuesto en una conferencia lo que pasaría al hacer esta construcción, es decir, derivar las leyes de conservación a partir de simetrías usando el teorema de Noether, y lo han publicado en arxiv. La conferencia lleva por título “Can anything from Noether’s theorem be salvaged for discrete dynamical systems?” (arXiv:1103.4785v1 [nlin.CG]). Son seis páginas sin apenas fórmulas y con mucha chicha física y matemática detrás. No obstante, los chicos de Technology Review se han hecho eco de esto y han publicado en el blog de Arxiv una reseña, titulada First Conservation Laws Derived For A Virtual Universe. La traduzco (libremente) a continuación.
Una de las ideas más bellas, poderosas e importantes de la física moderna es el Teorema de Noether. Básicamente afirma que las leyes fundamentales de la física son manifestaciones de simetrías en el universo.
Si el universo tiene simetría rotacional, entonces debe obedecer a la ley de conservación del momento angular, si tiene simetría temporal, la energía debe conservarse, y demás.
Es difícil comprender el profundo alcance de este resultado. Parece como levantar el tejido del universo para revelar una profunda belleza debajo de éste.
Una revisión más minuciosa del teorema de Noether hace encontrar en él algunas limitaciones importantes. Se ve que los resultados pueden aplicarse únicamente a ciertos sistemas, que tienen simetrías continuas.
Eso excluye directamente a sistemas discretos, que son paso a paso, a saltos. Estos sistemas incluyen por ejemplo máquinas de Turing, que tal vez algunos lectores conozcan bien.
Tomemos por ejemplo, el famoso juego de Conway “game of life”, en el cual formas parecidas a la vida pueden ser generadas usando un autómata celular. Esto ocurre en una malla cuadrada, que es simétrica bajo ciertas rotaciones (N. del T: las que giran 90º toda la malla), pero no bajo rotaciones continuas. Y en este mundo, el tiempo avanza en pasos discretos en lugar de fluir en un continuo.
Claramente, el teorema de Noether no se puede aplicar aquí. ¿Entonces, qué ocurre con las leyes de conservación? ¿Debemos olvidarnos de leyes como la conservación de la energía y el momento angular en el “game of life”?
Hoy, Tommasso Tofoli en la Boston University y Silvio Capobianco en la Tallinn University of Technology en Estonia han abordado estas preguntas exactamente. Su respuesta es una revelación, de algún modo. Encontraron una familia de sistemas discretos que obedecen un teorema parecido al de Noether y muestran por qué.
El sistema que estudian es un modelo de espín, el modelo de Ising. Se trata de una matriz bidimensional de pequeñas unidades de imanes que pueden apuntar arriba o abajo (N.del T: si lo preferís, norte o sur). Cada uno de los imanes está acoplado con sus cuatro vecinos más cercanos, como el análogo matemático a una lámina elástica. La lámina se contrae si los vecinos oponen la dirección de su espín y se expande si lo tienen en la misma dirección.
La pregunta que Toffoli y Capobianco estudian es cómo este sistema se comporta, cómo el espín cambia de un estado a otro, pero primero se imponen un importante límite en el tipo de interacciones que puedan tener lugar.
La condición es que el espín cambia únicamente si al hacerlo deja invariante la suma de energías potenciales de los cuatro vecinos más próximos. Esto puede ocurrir si dos de los vecinos tienen el espín paralelo (N. del T: apuntando en la misma dirección) mientras los otros dos son antiparalelos (N. del T: apuntando en direcciones opuestas). Este tipo de sistema se conoce como modelo de Ising microcanónico.
Esta condición tiene consecuencias importantes. Significa que la energía potencial siempre se conserva.
Pero pensemos esto en detalle y encontraremos una pequeña dificultad para averiguar qué entendemos por energía exactamente. El número de espines arriba o abajo de los imanes puede cambiar dramáticamente por eso no se puede considerar que eso se conserve. Pese a todo, la frontera entre ellos tiene que tener siempre la misma longitud. Podemos definir esta longitud como energía, y se conserva de forma natural.
(Por supuesto, los imanes, láminas elásticas y energías potenciales no son reales pero es útil pensar en estos términos en sistemas así.)
Esto puede parecer una definición de energía bastante arbitraria pero Toffoli y Capobianco muestran que tiene las mismas propiedades matemáticas que la energía de nuestro universo real (y definir qué es energía en nuestro universo es de por sí difícil de hacer).
Además, hay otro aspecto de este sistema que es fácil de olvidar pero importante para la conservación. Esta es la estructura de un espaciotiempo discreto en el que tiene lugar cualquier situación, en otras palabras, la malla bidimensional y los pasos de tiempo en los que puede ocurrir.
El clímax del paper de Toffoli y Capobianco es la demostración de que la energía únicamente puede ser conservada si el espaciotiempo es invariante, que todas las direcciones y tiempos en el universo de Ising son esencialmente equivalentes.
En este sentido, muestran cómo un teorema tipo Noether puede ser aplicado a un universo discreto.
Esto es muy importante. Quiere decir que las mismas reglas de simetría que han sido aplicadas con gran éxito a la física moderna se pueden aplicar también a nuevas disciplinas que empiezan a explotar modelos discretos. Esto incluye muchas ciencias sociales, economía, web y por supuesto, ciencia computacional.
En efecto, estos chicos han usado la simetría para obtener las leyes de conservación en un mundo virtual, por primera vez.
Pero el significado va incluso más allá. Lo que une todas estas disciplinas es la información. Todo esto es parte de un nuevo impulso de la ciencia moderna que ignora las propiedades superficiales de la realidad física y se va a buscar la roca madre: la información con la que el universo está construído.
Aunque no lo digan explícitamente, lo que Toffoli y Capobianco están estudiando es el rol que teoremas tipo Noether pueden desempeñar en la ciencia basada en la información.
Por supuesto, esto genera muchas preguntas también. Toffoli y Capobianco únicamente dejan como ejemplo un sistema discreto en el que aplicar un teorema tipo Noether. Lo que mucha gente querrá saber es en qué modo puede generalizarse esto. ¿Se podría, por ejemplo, aplicar al “game of life” de Conway?
En cualquier caso, Toffoli y Capobianco han hecho un inicio prometedor. Y como ellos mismos dicen: “Esto es solo el principio de lo que parece ser una nueva línea de investigación prometedora.”
Ref:arxiv.org/abs/1103.4785: Can Anything From Noether’s Theorem Be Salvaged For Discrete Dynamical Systems?
Otro día os hablaré del modelo de Ising, porque es uno de los modelos en física estadística más bonitos y curiosos que hay. Si tenéis curiosidad en cacharrear un poco con el modelo de Ising, hace bastante tiempo en el foro discutimos el tema y se puso un programita en C para ver la evolución de sistemas tipo Ising. ¡No os lo perdáis! Y tampoco dejéis de leer el paper de Toffoli y Capobianco que son seis páginas de nada.

miércoles, 30 de marzo de 2011

Alumnos inteligentes

Fuente: http://humor.desvariandoando.com/2010/11/alumnos-inteligentes.html

Profesor: “ ¿Qué debo hacer para repartir 11 patatas por 7 personas?”
Alumno: “Puré de patata, señor profesor.”

Profesor: “Joaquín, diga el presente del indicativo del verbo caminar.”
Alumno: “Yo camino, tu caminas, el camina…”
Profesor: “ ¡Más deprisa! “
Alumno: “Nosotros corremos, vosotros corréis, ellos corren.”

Profesor: “Llovía, ¿qué tiempo es? ”
Alumno: “Es un tiempo muy malo, señor profesor.”

Profesor: “¿Cuántos corazones tenemos nosotros?”
Alumno: “Dos, señor profesor.”
Profesor: “¿Dos?”
Alumno: “Si, el mío y el suyo.”

Dos alumnos llegan tarde a la escuela y dicen como justificación:
- El 1º dice: “Me he despertado tarde, he soñado que fui a la
Polinesia y el viaje ha tardado mucho.”
- Y el 2º dice: “Y yo me he ido a esperarlo al aeropuerto.”

Profesor: “Paco, diga 5 cosas que contengan leche.”
Alumno: “Si, señor profesor. Un queso y 4 vacas”

Profesor preguntando en un examen oral a un alumno de Derecho :”¿Que
es un fraude?”
Contesta el alumno: “Un fraude es lo que está haciendo usted.”
El profesor indignado” ¿Cómo es eso?”
Dice el alumno: “Según el código penal, comete fraude todo aquél que
se aprovecha de la ignorancia del otro para perjudicarlo.”

Profesora: “María, señale en el mapa donde queda América del Norte.”
María : “Aquí está”
Profesora: “Correcto. Ahora los demás respondan: ¿Quién descubrió América?”
Los demás: “María”

Profesora: “Juanito, dime con sinceridad, ¿rezas antes de las comidas?”
Juanito: “ No, Sra. profesora, no lo necesito, mi madre es buena cocinera.”

Profesora: “Arturo, tu redacción “Mi perro” es exactamente igual a la
de tu hermano. ¿La has copiado?”
Arturo: “ No, profesora, el perro es que es el mismo.”

Profesora: “Carlitos, ¿qué nombre se da a una persona que continúa
hablando aunque los demás no estén interesados?”
Carlitos: ” Profesora”

25 años de Pixar en menos de 6 minutos

Fuente: Gizmodo.es


La vida es corta y merece la pena disfrutar con intensidad y plenitud cada uno de los escasos minutos que nos toca vivirla.
Y cada día perdemos preciosos minutos en mil cosas que quizá no reporten nada útil. Hoy os proponemos dedicar apenas 6 minutos a disfrutar de lo bueno que puede ofrecer el buen cine hecho por auténticos genios en el arte de contar historias mediante los recursos informáticos. Os invitamos a revivir los mejores momentos de las películas de los estudios Pixar con el vídeo que tenemos preparado tras el salto. Y aún hay más.
En cortometrajes o en largometrajes, la genialidad de los chicos de Pixar no parece conocer límites.
Cada entrega que nos ofrecen de su trabajo es capaz de superar en diversión y emoción la anterior. Una sonrisa se dibuja en nuestros labios con solo ver un fragmento de alguna de sus películas, algunas convertidas en sagas con varias entregas como “Toy Story” o “Cars”, otras maravillosamente irrepetibles como “Wall-e” o “Up”.

Pero todas y cada una de las películas así como los innumerables cortometrajes que suelen acompañar el inicio de las mismas nos permiten abandonarnos al auténtico placer de dejar que nos cuenten historias, dejar que nos transmitan emociones y divertirnos tengamos la edad que tengamos. Esto sí es cine para todos los públicos y no deja de asombrar que a base de ceros y unos todos estos trabajos de animación por ordenador sean capaz de movernos por dentro. ─Antonio Rentero [Slashfilm]

Cinco nuevas ideas para viejas tecnologías

FUENTE:

La tecnología promete hacer realidad la quimera de poner en órbita una planta solar, molinos a 5.000 metros de altura o aprovechar el trabajo de las bacterias.

Energía solar

La agencia espacial japonesa JAXA prevé enviar al espacio el primer módulo de una estación solar en 2015. Con cuatro kilómetros cuadrados de paneles solares, tendrá una potencia de 1.000 megavatios, capaz de suministrar energía a 294.000 hogares. Su principal ventaja es la disponibilidad de luz solar las 24 horas del día y sin deterioro de potencia, al no tener que atravesar el filtro de la atmósfera terrestre. Tras transformar la energía solar en eléctrica, un rayo de gran potencia sería el encargado de bajarla en forma de microondas a un centro distribuidor en la Tierra y, de ahí, a la red.

Pero poner un ingenio así a 36.000 kilómetros de altura no es tarea sencilla y menos aún barata. En el proyecto participan 16 compañías niponas que van a dedicar 16.000 millones de euros hasta 2015 y pretenden que la idea esté operativa en 2030. Aunque EEUU ya ideó un plan similar hace años impulsado por agencias estatales, la mayoría de los proyectos para instalar centrales solares en el espacio son de carácter privado. La californiana Solaren Space y la principal eléctrica del mismo estado trabajan en un proyecto similar al japonés. El Gobierno californiano firmó en 2009 un acuerdo con sendas compañías para incorporar su caudal a la red pública.

Europa va con retraso en esta tecnología. A comienzos de 2010, EADS Astrium anunció una prueba para desplegar también una estación solar espacial. La clave, tanto en este como en los otros proyectos, es conseguir altos ratios de conversión de la energía (de solar a eléctrica, de esta a microondas y de nuevo a eléctrica). Los europeos han optado por un láser de infrarrojos para transportar la energía y han logrado enviarla por infrarrojos en el laboratorio.


Energía eólica

Entre los 1.000 y los 10.000 metros de altura, el viento sopla mucho más fuerte y, sobre todo, más constantemente que en la superficie. Un estudio realizado en 2009 y publicado por la revista Energies estimó que, a esas alturas, la capacidad media teórica de generación de energía es de 10 kilovatios por metro cuadrado (kW/m2). En las mejores instalaciones en tierra, el rendimiento rara vez alcanza 1 kW/m2. Pero 10 kW/m2 es la media planetaria en altura. En determinadas zonas, por donde discurren las grandes corrientes, como la Polar o la del Golfo, la densidad del viento es mayor, superando los 15 kW/m2.

El problema es capturar esos vientos. Hoy hay tres tecnologías propuestas. Proyectos como Kitegen proponen trasladar la fuerza mecánica del viento a una cometa y luego a un generador. Otro sistema sería elevar una especie de molinos de viento.

La californiana Sky Windpower, por ejemplo, propone una serie de rotores capaces de generar 240 kW de electricidad a 4.600 metros y luego, mediante cables, bajarla para su distribución. Una tercera vía es la que ya comercializa Magenn Power con dirigibles llenos de helio que, con una potencia de 100 kW, pueden ser una interesante alternativa.Pero para que los vientos de gran altitud se conviertan en una fuente de energía viable, antes hay que solucionar unos cuantos problemas. Por un lado hay que investigar en el desarrollo de cables que sean tan resistentes como buenos conductores de la electricidad. Los nanotubos de carbono podrían ofrecer ambas ventajas. Otro problema, para el que aún no hay propuestas, es cómo sostener los ingenios en las ocasiones en las que no sople el viento.


Energía eléctrica

Es el sueño de muchos científicos desde hace siglos: capturar la electricidad que aparece de forma natural en el ambiente. Un profesor de una Universidad brasileña, Fernando Galembeck, y su equipo provocaron cierto revuelo el verano pasado al presentar un trabajo en la reunión anual de la prestigiosa Sociedad Química de EEUU. En él mostraban cómo, usando pequeñas partículas de fosfato de aluminio y silicio, ambas sustancias muy comunes en el aire, el silicio tomaba carga negativa y el fosfato de aluminio positiva en presencia de una alta humedad. "Esta es una evidencia de que el agua de la atmósfera puede acumular carga eléctrica, que transfiere a otros materiales con los que entra en contacto", explicó Galembeck.

Los científicos siempre han sostenido que las gotas de agua suspendidas en la atmósfera eran eléctricamente neutras. Pero el trabajo de Galembeck sugiere que el agua del aire realmente recoge una carga eléctrica. Aunque el efecto es muy pequeño, con una carga millones de veces menor que la de una celda solar, pero abre una nueva vía a al descubrir un medio de acumulación no existente hasta ahora.

En el futuro se podrían diseñar colectores que, de forma similar a las células que recogen la luz del sol para producir electricidad, podrían capturar lo que llamó "hygro [del griego, humedad] electricidad". Al igual que las células solares funcionan mejor en las zonas soleadas del mundo, los paneles hygroeléctricos serían más eficientes en áreas con gran humedad. El mismo sistema, dijo, se podría aprovechar para desarmar los rayos antes de que acumularan una peligrosa cantidad de energía.


Energía undimotriz

La energía undimotriz, la que aprovecha el oleaje, se cuenta entre las más factibles a corto plazo. En el extremo suroeste de Reino Unido, frente a las costas de Cornualles, se ha desplegado Wave Hub, la mayor red de generadores marinos del mundo. En un área de 8 km2, varias compañías han instalado 177 boyas dotadas de hélices que mueven las olas. Bajo ellas, un concentrador recibe la energía generada y, por medio de un cable, la lleva a la costa. El proyecto está impulsado por el Gobierno británico.

En noviembre pasado, y tras varias pruebas, se conectó a la red eléctrica británica a través de una nueva subestación que se ha construido en la localidad de Hayle, donde un cable de 33.000 voltios toma tierra.

Un estudio de la Unión Europea mapeó los mares comunitarios, encontrando más de un centenar de zonas que, por su oleaje y poco tránsito marítimo, son ideales para aprovechar la energía undimotriz. El 80% de estas zonas rodea las islas británicas. De hecho, el Gobierno británico confía en esta tecnología más que en otras para tener su cupo de renovables.

La empresa sueca Minesto ha ideado algo diferente. Usando el concepto de las cometas a gran altitud, pero sumergiéndolas en el mar, aseguran que se aprovecha mejor la energía. Las cometas, de unos 14 metros de envergadura, podrían generar entre 150 y 800 kW, dependiendo de la fuerza de las olas y la permanencia de la corriente. A diferencia de la tecnología de las boyas, aquí se buscan olas suaves pero constantes. La compañía sueca piensa instalarlas frente a las costas de Irlanda del Norte a una profundidad de entre 50 y 300 metros el próximo verano.


Bacterias y virus

La vida en la Tierra depende del consumo de energía a nivel celular. En el mundo microscópico, se producen una serie de reacciones electroquímicas que podrían ser aprovechadas como fuente de energía a gran escala.

La capacidad de los virus de hacer daño es uno de los mecanismos que los investigadores están estudiando. Un equipo del MIT consigió en 2009 manipular genéticamente un virus para fuera tanto el polo negativo como el positivo en una batería de ión-litio. Los científicos llegaron a montar un prototipo que mostraron al presidente Barack Obama. El trabajo abrió la puerta a la experimentación con nuevos virus. En 2010, el químico del MIT Mark Allen, que había sido estudiante en el equipo anterior, consiguió que el virus bacteriófago M13 recargara una batería. Otros investigadores están trabajando con enzimas y bacterias.

Pero el trabajo más prometedor es el que lleva a cabo la química estadounidense Shelley Minteer. Aprovechando el papel de las mitocondrias en la vida celular, ha encontrado la forma de obtener energía de ellas. "Son consideradas el motor doméstico de las células vivas, ya que contienen el mecanismo de conversión de los alimentos (el combustible ) en la energía necesaria hacer todas las actividades de la vida diaria", explica a Público en un correo electrónico. "Lo que hemos hecho es cablear con electrodos para convertir su combustible en energía eléctrica", añade. En su experimento usaron patatas, como en los experimientos del colegio. "Pero no estamos utilizando la patata como fuente de energía, sino como fuente de la mitocondria que está en el catalizador", aclara.

martes, 29 de marzo de 2011

Superan un límite cuántico fundamental

Fuente: ICFO

Científicos europeos, liderados desde el Instituto de Ciencias Fotónicas (ICFO), han detectado por primera vez señales magnéticas ultradébiles por encima del ‘límite de Heisenberg’, una barrera cuántica fundamental e infranqueable hasta ahora. El hallazgo podrá mejorar la sensibilidad de instrumentos como los que se usan en las prospecciones geológicas, la navegación por satélite o el diagnóstico por imagen en medicina.
Ilustración de medidas cuánticas. Imagen: ICFO/Napolitano et al.
“Hemos demostrado experimentalmente la superación del ‘límite de Heisenberg’, inventando una medida basada en la interacción de partículas”, explica a SINC Mario Napolitano, investigador del Instituto de Ciencias Fotónicas (ICFO, adscrito a la Universidad Politécnica de Cataluña) y autor principal del estudio que publica hoy Nature.
Hasta ahora los científicos pensaban que la precisión de cualquier medida estaba delimitada por ese límite. Se trata de una consecuencia del ‘principio de incertidumbre’ planteado por el alemán Werner Heisenberg (indica que si se conoce la ubicación exacta de un objeto tan pequeño como un átomo, no se puede saber hacia dónde se dirige).
Ahora, los científicos han detectado por primera vez señales magnéticas ultradébiles por encima del ‘límite de Heisenberg’, “un paso adelante en la comprensión de algo fundamental para la física, además de extender la frontera entre lo que podemos saber a través de una medida y lo que será inaccesible para siempre”, según Napolitano.
Para realizar el estudio, los expertos han utilizado un interferómetro (un instrumento que usa la interferencia de las ondas de luz para medir longitudes de onda) con luz láser polarizada y átomos de rubidio. Con este mecanismo han detectado, a tiempo real, los campos magnéticos producidos en el corazón y en el cerebro.
El investigador aclara: “El problema nace al aplicar el principio de incertidumbre a un sistema hecho con muchas partículas, el instrumento con el que se hacen las medidas, para establecer el límite de su sensibilidad. Si todas las partículas actúan de forma independiente, la sensibilidad está delimitada por este límite. Si existe interacción, el límite se extiende, y es lo que hemos demostrado con nuestro trabajo”.
De la medicina a la astronomía
Grupo de investigación dirigido por Morgan Mitchell (der.) en el ICFO (M.Napolitano a la izq.). Imagen: ICFO
El hallazgo abre un abanico de aplicaciones en campos muy diferentes, basados en la medida de campos magnéticos muy débiles (magnetometría) y la obtención de instrumentos mucho más sensibles. Los autores confían en que el avance tenga buenos resultados en la diagnosis de desórdenes del corazón y sirva para desvelar nuevos datos sobre el comportamiento del cerebro.
“A largo plazo, el descubrimiento puede mejorar la resonancia magnética en medicina, la búsqueda de ondas gravitaciones en astronomía y la navegación por satélite”, subraya Napolitano.
“Los interferómetros (como los de los relojes atómicos que hacen posible los sistemas GPS y Galileo, o los ópticos -LIGO, VIRGO, GEO- que revelan las ondas gravitacionales) podrían funcionar mejor utilizando las interacción entre partículas, como hemos demostrado”, añade el científico.
Con instrumentos mucho más sensibles, además, se podrá observar mejor la Tierra y detectar en el subsuelo los cambios que causan los yacimientos minerales o de petróleo.
----------------------------------------------------------------------------------------------------

¿Cuánto de precisa puede llegar a ser una medida?

Supongamos, por ejemplo, que queremos medir la temperatura del agua caliente introduciendo un termómetro en ella. Dicho termómetro está frío y, al entrar en contacto con el agua, la enfría ligeramente. El dato obtenido sigue siendo una buena aproximación de la temperatura, pero su exactitud no llega hasta la billonésima de grado. El termómetro ha modificado casi imperceptiblemente la temperatura que estábamos midiendo.
Si queremos realizar medidas con una precisión extrema, las herramientas utilizadas tienen que ser cada vez más pequeñas, hasta alcanzar el mundo cuántico de los átomos o los fotones. Hoy en día, dichas herramientas se utilizan en instrumentos ultraprecisos, como los relojes atómicos de los satélites GPS.
En el principio de Heisenberg se encuentra la explicación fundamental de lo que ocurre en este ejemplo: una consecuencia de este principio es que nada se puede medir sin cambiarlo, ya que cuando una herramienta de medida interacciona con el objeto que se está midiendo le está transmitiendo su "incertidumbre" intrínseca. Según cómo sumen todas las incertidumbres entre herramientas y partículas se llega a un límite último en la sensibilidad.
Este límite, denominado "límite de Heisenberg", a diferencia del principio de incertidumbre está mucho menos estudiado y hace unos pocos años los físicos teóricos empezaron a cuestionarlo. En el año 2005, el investigador Alfredo Luis, de la Universidad Complutense de Madrid, trabajó en este ámbito. En el 2007, un equipo de Estados Unidos teorizó sobre lo que podría considerarse la superación del límite de Heisenberg, y el equipo del ICFO ha puesto a prueba esta teoría.
Lo que han hecho los investigadores ha sido mejorar la sensibilidad de sensores ópticos (o magnetómetros atómicos), superando la barrera establecida hasta ahora, ya que, en vez de utilizar cada uno de los fotones del láser de forma independiente, los hacen trabajar conjuntamente, con lo que han conseguido una mejora que incrementa diez veces más la sensibilidad de la medida del campo magnético, demostrando que el límite puede ser superado.
------------------------------------
Referencia bibliográfica:
M. Napolitano, M. Koschorreck, B. Dubost, N. Behbood, R. J. Sewell1 y M. W. Mitchell. “Interaction-based quantum metrology showing scaling beyond the Heisenberg limit”. Nature. 471, 24 de marzo de 2011. Doi:10.1038/nature09778.

Las minas pueden proporcionar energía geotérmica

Fuente: AgenciaSINC

Las galerías de las minas que están a punto de cerrar se pueden aprovechar para que los municipios del entorno obtengan energía geotérmica. Ésta es la conclusión de dos ingenieros de la Universidad de Oviedo, que este mes publican su investigación en la revista Renewable Energy. El método que han desarrollado permite estimar la cantidad de calor que podría aportar una galería.

Población asturiana que se podría beneficiar de la energía geotérmica de la mina situada debajo. Imagen: Rodríguez et al.
“Una forma de aprovechamiento de la energía geotérmica de baja intensidad es convertir las galerías de las minas en calderas geotérmicas, que podrían facilitar calefacción y agua caliente a los vecinos del entorno”, explica a SINC Rafael Rodríguez, de la Escuela Técnica Superior de Ingenieros de Minas de Oviedo. Este tipo de energía, que apenas se aprovecha en España, se obtiene a partir del calor del interior de la Tierra.
El ingeniero, junto a su colega María Belarmina Díaz, han desarrollado un método “semi-empírico” (entre matemático y experimental) para calcular la cantidad de calor que podrían proporcionar una galería de una mina que se va a abandonar, a partir de estudios realizados mientras todavía está activa.
“Con la mina en actividad se puede acceder fácilmente a las galerías para tomar datos sobre la ventilación o sobre las propiedades de las rocas; además se pueden realizar sondeos y diseñar mejor los circuitos, e incluso programar el cierre de algunos tramos para dedicarlos a la obtención de energía geotérmica”, indica el ingeniero, quien resalta que una vez que se clausura la mina también se puede aprovechar la energía geotérmica, “pero ya no es posible modificar nada en ella ni obtener datos útiles para valorar y mejorar el sistema”.
El estudio contempla el aprovechamiento geotérmico de una galería tipo de dos kilómetros de longitud en la que, a una profundidad de 500m, la temperatura de la roca ronda los 30º C. Es el caso típico de muchas zonas mineras de Asturias, aunque también se puede aplicar a otras partes del mundo. Mediante tuberías, el agua podría entrar a 7º C y salir a 12º C, una ganancia suficiente para beneficiar a algún municipio localizado sobre la mina.
Ventajas de la energía geotérmica minera
Rodríguez y Díaz destacan que la construcción de calderas geotérmicas en galerías de mina, además de que se puede predecir su producción, funciona prácticamente como un sistema abierto de tuberías, “pero sin ningún riesgo de contaminación térmica al acuífero”.
El uso de la energía geotérmica también permite reducir las emisiones de CO2 y es independiente de las condiciones climáticas (a diferencia de otras energías renovables como la solar o la eólica). Otras ventajas son que sus instalaciones utilizan recursos propios de un país, no requieren grandes extensiones de terreno, no contaminan el entorno próximo y están consideradas rentables a largo plazo.
La energía geotérmica se puede usar directamente en viviendas unifamiliares, urbanizaciones, piscinas, piscifactorías, naves industriales y otros edificios.
------------------------------------
Referencia bibliográfica:
Rafael Rodríguez, María B. Díaz. “Analysis of the utilization of mine galleries as geothermal heat exchangers by means a semi-empirical prediction method”. Renewable Energy 34 (7): 1716–1725, 2009.
Fuente: SINC

Extra, ventajas e inconvenientes de la energía geotérmica:
Ventajas
  1. Luego de realizada una inversión inicial para la infraestructura, suponen un gran ahorro económico como energético.
  2. Su explotación no emite sonido alguno (no produce contaminación acústica)
  3. Al explotar un yacimiento geotérmico, el costo siempre es local o regional
  4. Al no utilizar depósitos ni represas, ocupa un menor terreno
  5. Menor emisión de CO2 respecto a la obtención de energía por combustión
Desventajas
  1. En algunos yacimientos se desprende ácido sulfhídrico, nocivo para la salud y hasta causante de muerte (en grandes cantidades)
  2. Contaminación de yacimientos acuíferos
  3. Deterioro del paisaje por contaminación térmica
  4. No permite ser transportada
  5. Poca disponibilidad

Vídeo: Programa "Escépticos I"

Vídeo: Energía solar

Códigos QR desde el terminal de Ubuntu

Fuente: El atareao


Hace un tiempo escribí sobre QRCode y Ubuntu, y una aplicación para crear códigos Qr y decodificarlos.
Sin embargo, en Omg! Ubuntu!, dieron una alternativa mucho más sencilla, que consistía en un comando desde el terminal para realizar esta misma operación.
El comando a utilizar es qrencode. Para utilizarlo instalas el paquete haciendo clic en qrencode o desde el terminal:

sudo apt-get install qrencode
y para utilizarlo tan sencillo como indicar el archivo de destino y lo que quieres codificar:

qrencode -o salida.png 'esto es lo que quiero codificar'
En ese mismo artículo, se habría un debate, a cerca de un interfaz gráfico que permitiera realizar estas mismas operaciones sin tener que recurrir al terminal. Y aquí es donde empecé a forjar el presente artículo.
A pesar de todo esto, comandos y rutinas para crear códigos QR, hay muchos disponibles. Lo que es más problemático, es el proceso contrario “decodificar”. Así que me puse a buscar, y como no, hay una librería en Ubuntu, que permite realizar esta operación, libdecodeqr-examples, y dentro de esta librería, hay un pequeño comando disponible para el terminal que permite realizar la operación. Se trata de libdecodeqr-simpletest
Para ello, lo primero es instalar la librería haciendo clic en libdecodeqr-examples o desde el terminal:

sudo apt-get install libdecodeqr-examples
Para utilizarlo:

libdecodeqr-simpletest salida.png
Con estos dos comandos tienes tu vida completamente resuelta en lo que a códigos QR se refiere. Sin embargo, y como comentaba, no pude evitar la tentación de hacer una sencilla aplicación para no tener que recurrir al terminal, no fui el único, porque en OMG! Ubuntu! unos días después indicaron de una aplicación realizada a raíz de la publicación anterior, para la creación de los códigos.
De esta manera vio la luz gqrcode. Se trata de una sencilla interfaz de los comandos indicados anteriormente y cuya función es la creación de códigos QR y su correspondiente decodificación. Para instalarlo, necesitas añadir el repositorio y actualizar:

sudo add-apt-repository ppa:atareao/atareao && sudo apt-get update
y a continuación haces clic en gqrcode o bien desde el terminal:
sudo apt-get install gqrcode
Una vez instalado lo tienes en el menú de Ubuntu > Accesorios > gqrcode:
Menú_001
La primera ventana que verás es:
gqrcode_002
Introduces el texto que quieres codificar y pulsas en el botón, y obtendrás el código. Lo siguiente es guardarlo. Pulsando sobre el botón Guardar como…
atareao Para decodificar, seleccionas la pestaña decodificar, y pulsas sobre el botón “Cargar la imagen qrcode”
gqrcode_003
una vez cargada pulsas sobre “Decodificar”, y te aparecerá una ventana con el código:
src_004
pulsas “Enter” y obtendrás el código resultante.
Vía | OMG! Ubuntu!
Más información | Ubuntu buzz y Ubuntu

Vídeos: Futuro energético




lunes, 28 de marzo de 2011

Documental sobre la energía nuclear.

El MMORPG "Ryzom" ahora gratis en GNU/Linux.

El MMORPG Ryzom, el cual tiene el correspondiente cliente nativo en Linux desde hace un tiempo, ahora es gratuito, tal y como se anuncia en el forum:

We are pleased to announce that from now on, players that create a new account can play Ryzom without time or place limits. Instead, free trial accounts are now limited to a maximum level of 125 in all different skills, enabling everyone to sample all aspects of Ryzom and to discover what makes this MMO unique. When you reach level 125 in a skill you can still continue playing, but you will gain no more experience points. The second limitation is storage: you cannot own any mektoub packers, use the inventory of your apartment or take any items from a guild hall.

Despite the freedom of this new system, we would like to remind you that Ryzom can only live on through your paid subscriptions. Thank you for the confidence you have in us.
traducción del inglés al español


Nos complace anunciar que a partir de ahora
, los jugadores que crean una cuenta nueva
puede jugar Ryzom sin tiempo ni lugar
límites. En cambio, las cuentas de prueba gratuita son
ahora se limita a un nivel máximo de 125 en
todas las habilidades diferentes, permitiendo a todo el mundo
que muestra todos los aspectos de Ryzom y
descubre lo que hace que este MMO único.
Al llegar a nivel 125 en una habilidad que
todavía puede seguir jugando, pero le
no obtienen más puntos de experiencia. La
segunda limitación es el almacenamiento: no se puede
ningún envasadores Mektoub, utilice el
inventario de su apartamento o tomar cualquier
elementos de una sala del clan.

A pesar de la libertad de este nuevo sistema,
nos gustaría recordarles que Ryzom
sólo puede vivir a través de su pago
suscripciones. Gracias por la
confianza que depositan en nosotros.


Todavía no lo he probado, así que ahí queda esta imagen:

viernes, 25 de marzo de 2011

TR10: Reactor que recicla y reutiliza el uranio

Otro artículo sobre reactores nucleares TWR
Fuente: Neoteo

El TR10 es un nuevo tipo de reactor que –como aseguran sus inventores- puede producir energía nuclear limpia y barata. Su diseño suprime la necesidad de enriquecer y recargar combustible, dos procesos peligrosos y caros. La idea ha circulado entre los físicos desde hace 20 años, y parece que un generador de este tipo podría funcionar durante “algunos siglos” de forma continua, superando la vida útil de una central nuclear actual y sin repostar. Los reactores de la línea TR10 podrían comenzar a funcionar dentro de 10 años.

Los problemas que presenta la operación de un reactor nuclear convencional tienen que ver con el proceso necesario para enriquecer el uranio y en la necesidad de abrir periódicamente el corazón del reactor para quitar barras de combustible agotadas, e instalar otras nuevas. Además del costo y la logística necesaria, existe una gran preocupación respecto a los deshechos radiactivos, dado que son excelentes materias primas para la construcción de armas nucleares. Tampoco es menor el riesgo que suponen estas operaciones para la integridad del medio ambiente.

Sin embargo, un grupo de investigadores de Intelectual Ventures, ha puesto a punto un diseño que permitiría construir un reactor que sólo requiere una pequeña cantidad de combustible enriquecido para funcionar. Bautizado con el nombre de Traveling-Wave Reactor (Reactor de onda en movimiento), el TR10 es uno de los pocos proyectos nucleares surgidos de la financiación privada.  La principal diferencia entre el TR10 y un reactor convencional es que éste convierte gradualmente al material no-fisible en el combustible que necesita para funcionar. Los reactores nucleares basados en estos diseños "en teoría, podrían funcionar durante un par de cientos de años sin reabastecerse,” asegura según John Gilleland, gerente de Intelectual Ventures.
Periodicamente hay que abrir el reactor y cambiar cientos de barras de combustible
 Periódicamente hay que abrir el reactor y cambiar cientos de barras de combustible 

El objetivo final de la empresa es lograr un reactor nuclear capaz de funcionar con lo que hoy se consideran “desechos nucleares”. Como sabes, los reactores convencionales utilizan uranio-235, que se fisiona con facilidad para sostener una reacción en cadena. Pero como este es un material bastante escaso, se debe separar del uranio-238, que es abundante pero no fisible. Estas plantas de enriquecimiento cuestan un ojo de la cara y además pueden utilizarse para fabricar armas nucleares, algo que pone nervioso a más de un gobierno.

Como si esta complicación no bastase, más o menos cada dos años hay que abrir el reactor, retirar (y eliminar) cientos de barras de combustible, añadir otras tantas y redistribuir el resto para que vuelva a funcionar. Todo esto requiere de equipo muy especifico y caro, y personal altamente capacitado. Pero el TR10 sólo necesita una pequeña cantidad de U-235 enriquecido. La mayor parte de su combustible puede ser U-238, del que (lamentablemente) hay miles de toneladas almacenadas por todo el mundo, subproducto del refinamiento del U-235. El diseño del Traveling-Wave Reactor ofrece "el ciclo de combustible más simple posible", asegura Charles W. Forsberg, director ejecutivo del Nuclear Fuel Cycle Project del Instituto Tecnológico de Massachusetts (MIT), “y requiere sólo una central de enriquecimiento de uranio para todo el planeta”. El experto no lo dice, pero es bastante lógico que quien tenga esa planta tendrá en sus manos el futuro energético de todas las demás naciones. Siendo Intelectual Ventures una empresa Estados Unidos, no hay que ser un genio para deducir dónde están pensando en poner en marcha la refinería.
TR10 permite convertir uranio-238 en plutonio-239 dentro de su mismo núcleo

TR10 permite convertir uranio-238 en plutonio-239 dentro de su mismo núcleo
El secreto de este generador nuclear se encuentra en su diseño diferente, que permite convertir al uranio-238 en combustible utilizable (plutonio-239) dentro de su mismo núcleo. Los reactores convencionales también producen P-239, pero son incapaces de usarlo sin la eliminación previa del combustible agotado y someterlo a un proceso químico. Este proceso no solo es peligroso y “sucio”, sino que también es el paso principal que permite construir una bomba atómica. El reactor de onda en movimiento produce plutonio a medida que lo utiliza, descartando la posibilidad de que se aproveche para fines bélicos.

En realidad, la idea detrás del TR10 ha circulado entre los científicos desde los años 90, pero nadie fue capaz -hasta ahora- de proponer un diseño práctico. Los directivos de Intelectual Ventures han patentado la tecnología, y se encuentran negociando la cuestión de las licencias con los fabricantes de reactores. Gilleland supone que las primeras unidades comerciales del TR10 podrían estar funcionando para principios de 2020.

miércoles, 23 de marzo de 2011

Minirreactores nucleares seguros

Esto es un artículo antiguo, pero relacionado con los acontecimientos actuales.

Fuente: Neofronteras (Martes, 18 de Noviembre de 2008)


Según una compañía se podrían proporcionar electricidad barata a comunidades a lo largo de todo el mundo con minicentrales nucleares del tamaño de una bañera.
Foto
Esquema del reactor. Foto: Hyperion.
Con el cambio climático pisándonos los talones y las energías alternativas aún sin desarrollar hay gente que ha vuelto la vista a la energía nuclear. Aunque no es un recurso sostenible hay reservas de uranio para mucho tiempo, luego el torio podría reemplazarlo y más allá la fusión nuclear tomaría el relevo. Incluso gente libre de sospecha apoya la energía nuclear. Uno de ellos es James Lovelock que, alarmado por el problema que se nos avecina, apoya sin reservas esta forma de energía.
Si congeláramos el dióxido de carbono producido en un año debido a las emisiones humanas se podría formar una montaña de 1,5 km de alto por 20 km de circunferencia. El sueño de tratar de “secuestrarlo” geológicamente se antoja, bajo estos números, poco más o menos que imposible. Si esa misma energía se generara nuclearmente entonces los residuos resultantes ocuparían un cubo de 16 metros de lado. Esta comparación favorece a la energía nuclear.
Pero el recuerdo de Chernobyl pesa como una losa en la opinión pública (pese a que no murió tanta gente como se cree). Los diseños de grandes centrales nucleares tienen un problema, si falla la refrigeración el reactor guarda tanto calor (aunque se haya parado la reacción) que es capaz de fundirse y producir un desastre. Una solución a este problema es diseñar reactores nucleares lo suficientemente pequeños para que disipen por sí solos el calor sobrante y que incluso carezcan de barras de control. Como la cantidad de uranio es pequeña la densidad de neutrones necesaria para mantener la reacción se consigue con reflectores de neutrones exteriores al núcleo del mismo.
Estos pequeños reactores fueron diseñados por Otis Peterson y otros científicos en Los Alamos National Laboratory en New Mexico (EEUU) hace tiempo.
Ahora esta tecnología va a ser desarrollada y comercializada por Hyperion Power Generation, que recientemente anunció haber aceptado un primer pedido. Pretende comenzar la producción en masa en 5 años. Según el jefe ejecutivo de esta compañía, John Deal, el objetivo es generar electricidad a 10 céntimos de dólar el kWh en cualquier parte del mundo. Cada miniplanta nuclear cuesta 25 millones de dólares que para una comunidad de 10.000 propietarios supondría un gasto de 2500 para cada uno. Cada reactor tiene un tamaño 1,5 metros y puede llegar a proporcionar energía a 22.000 hogares.
Debido a su tamaño estas minicentrales pueden ensamblarse rápidamente y transportarse en camión, tren o barco a sitios remotos. Suponen una alternativa a las plantas nucleares tradicionales que son grandes, caras y lentas de construir (se tarda unos 10 años). Además las grandes centrales nucleares no cubren las necesidades de pequeñas comunidades. Sin embargo estas minicentrales funcionan como módulos que pueden juntarse y así producir energía para ciudades más grandes de tamaño arbitrario.
Lo más interesante del diseño de estos minirreactores es que carecen de partes móviles, no necesitan abrirse y, sobre todo, nunca llegan a nivel supercrítico, con el peligro de fusión del núcleo que eso supone. Esto quiere decir que serían mucho más seguros que los de las centrales nucleares tradicionales. Según Deal un evento tipo Chernobyl nunca se podría dar con este tipo de reactores. Además la idea es enterrar estos reactores para así garantizar la seguridad en caso de usos ilegítimos o terroristas. El material del interior (al igual que el de las centrales tradicionales) tampoco serviría para fabricar armas nucleares, pues se necesitarían los recursos de una nación para enriquecer el uranio de su interior.
El minirreactor necesitaría ser recargado después de 7 ó 10 años de funcionamiento. Al cabo de cinco años de funcionamiento se generan residuos nucleares con un tamaño ligeramente mayor que una pelota de baseball que además podrían reciclarse. Aunque este punto de los residuos es siempre controvertido.
Hyperion tiene ya 100 pedidos, principalmente de industrias petroleras y de electricidad. El primer pedido, de seis módulos y opcionalmente doce, es para una compañía checa de infraestructuras especializada en centrales energéticas. Los minirreactores de este pedido se instalarían en Rumanía.
Hyperion planea construir tres factorías de montaje que construirían 4000 minirreactores entre 2013 y 2023. Esta compañía cree que los beneficios potenciales serían importantes, así por ejemplo se podría proporcionar energía para lugares remotos, agua potable para muchas regiones deficitarias y otros beneficios que combatan la pobreza, la enfermedad o los disturbios sociales en los países en vías de desarrollo.
De momento la Comisión de Regulación Nuclear Norteamericana (NRC) no ha aprobado la comercialización de este sistema y está esperando los estudios técnicos para tomar una decisión. Debido al diseño único de este tipo de minirreactores el veredicto se demorará más de lo normal.
Otras compañías también trabajan en este tipo de minirreactores. Toshiba ha probado uno, el Toshiba 4S (Super Safe, Small and Simple), de 200.000 vatios y 6×2 metros capaz de proporcionar energía a unos 5 ó 13 centavos el kWh durante 30 a 40 años, aunque para un número más reducido de viviendas.
Ya se verá en qué queda todo esto de los minirreactores. La idea de tener miles de reactores diseminados sin control por todas partes no parece muy atractiva. Tampoco parece que a las compañías eléctricas les gusten este tipo de sistemas no centralizados, y por tanto independientes, de producción de energía. Los problemas políticos, por otra parte, tampoco son pocos y hay sectores como el de los verdes que se oponen a todo lo suene a nuclear.
Un factor importante, independiente del cambio climático, que siempre se ignora en este tipo de cuestiones es que el ser humano ha alterado y destruido brutalmente el medio natural gracias a la gran disponibilidad de energía barata. ¿Qué haríamos en esas regiones “remotas” con un suministro de energía casi inagotable?
Fuentes y referencias:
Web de Hyperion.
Noticia en The Guardian.
Toshiba 4S em Wikipedia.

Paso adelante en la computación cuántica

Fuente: Alt1040

Por David Rubia | 22 de Marzo de 2011, 18:14

La computación cuántica está presente desde hace un par de décadas pero siempre se ha encontrado con una serie de problemas para ser usada de forma extendida. Pero parece que algunos de esos problemas están cerca de ser salvados, según se ha comentado en la conferencia de la American Physical Society que se ha celebrado en Dallas, en esta se presentó una arquitectura llamada RezQu que tiene como objetivo la creación de un ordenador cuántico.
En la computación tradicional se usan ceros y unos con los cual se forma los bit, pues bien, en la computación cuántica se usan los estados de la superposición, con el cual podemos formar un bit cuántico al cual se le llama qubit. La diferencia en el uso de la formación de cada bit no es demasiado grande, sin embargo a nivel rendimiento las operaciones pueden ser mucho mayores con el uso de los qubit. En la teoría obtendríamos un nivel de operaciones muy superior, pero hay diversos obstáculos con los que se han topado siempre, uno de ellos es la escalabilidad, algo a lo que no se ha podido enfrentar ninguno de los métodos propuestos hasta ahora. Otro importante problema es el de la decoherencia cuántica , la cual causa la pérdida del carácter unitario.
Otro reto importante era el de conseguir ”desconectar” las interacciones en el circuito cuántico, algo que es complicado de manejar ya que los estados han de ser manipulados y almacenados sin ser destruidos. John Martinis, del departamento de física de la Universidad de California comenta que
Es un problema que hemos estado estudiando durante tres o cuatro años, el cómo desactivar las interacciones. Ahora lo hemos resuelto y eso es genial, pero hay otras muchas cosas que tenemos que hacer.
La computación cuántica ha evolucionado muy rápidamente y cada vez están más cerca de lograr un procesador cuántico, durante la última década se ha avanzado mucho, llegando a poder controlar los estados con bastante precisión y hacerlo de forma casi arbitraria. Además cabe destacar que en la arquitectura que se está desarrollando, RezQu, se puede haber solucionado el problema de la escalabilidad. Dentro de dicho chip de seis centímetros de ancho y de largo se almacenan nueve dispositivos cuánticos con los que esperan lograr llegar durante este año a una ampliación de 10 qubits.
Estos avances comentados en dicha reunión celebrada en Dallas son un pequeño paso para la computación cuántica, a la que todavía le queda mucho por delante, pero es un paso esperanzador. Como hemos visto en muchas otras cosas (como por ejemplo con IPv4) todo tiene su límite y cuando se llegue al límite de la computación tradicional será muy importante que las el nivel de madurez alcanzado por la computación cuántica sea elevado.

¿Máquina del tiempo en el LHC?

Fuente: Neofronteras

Proponen una idea muy especulativa según la cual ciertas partículas podrían viajar hacia el pasado o futuro a través de atajos extradimensionales.
Foto
Mientras que en el LHC sigue sin aparecer nada interesante, los teóricos continúan proponiendo ideas de las cosas que habría que ir buscando en sus colisiones. Según Tom Weiler y Chui Man Ho, ambos de Vanderbilt University, en este colisionador quizás se den eventos compatibles con el viaje hacia atrás en el tiempo de ciertas partículas. Según admite el propio Weiler, la proposición es bastante atrevida, pero según él no violaría ninguna ley de la Física o limitaciones experimentales.
Una de las metas del LHC es encontrar el bosón de Higgs, partícula (o partículas) que dotarían de masa al resto de las partículas del modelo Estándar. Hasta ahora no parece que la hayan encontrado. Los últimos resultados del Fermilab dicen (después de no haberlo encontrado tampoco en otra banda de energía) que si existe debe tener una masa más ligera de lo esperado (con una masa entre 114 y 156 GeV/c2) y que será por tanto más complicado encontrarla entre un mar de ruido*.
Si finalmente el bosón de Higgs aparece, quizás también lo haga junto a él el singlete de Higgs, partícula que algunos teóricos sostienen que podría existir.
Según Weiler y Ho, los singletes de Higgs podrían tener la capacidad de saltar a una dimensión extra del espacio y moverse hacia adelante o hacia atrás en el tiempo, reapareciendo de nuevo en nuestro espacio ordinario en el pasado o en el futuro. Este tipo de eventos evitarían las paradojas que normalmente están asociadas con los viajes en el tiempo. Se evitaría por ejemplo la contradicción lógica que supone que alguien pudiera viajar a atrás en el tiempo y matar a su abuelo siendo éste niño, evitando así su propia existencia y el propio viaje en el tiempo. En este caso el viaje en el tiempo estaría limitado sólo a ciertas partículas y no se podrían enviar humanos al pasado al estar hechos de partículas corrientes. Según Weiler, aún así se podrían enviar mensajes al pasado o al futuro (con la inevitable aparición de paradojas que Weiler no parece ver).
Se podría comprobar esta idea mientras se observan las colisiones en el LHC. Los singletes de Higgs decaerían en otras partículas de manera espontánea y esto se podría dar antes de producirse la propia colisión que los genera si los singletes han conseguido viajar hacia atrás en el tiempo.
Estos dos teóricos se basan en la teoría M, algo que no sabe muy bien lo que es (salvo el ser un subproducto de la teoría de cuerdas). Según este esbozo de teoría se requerirían 10 u 11 dimensiones en lugar de las cuatro que conocemos (3+1). Nuestro universo estaría embebido en una brana cuatridimensional (3+1) que flotaría en un espacio multimensional.
Según esta idea, los bloques básicos del universo (las partículas) estarían atrapadas en la brana y no podrían viajar por las otras dimensiones espaciales. La excepción serían los gravitones que podrían salir “fuera” y ésta sería la razón de que la fuerza de gravedad sea tan débil comparada con el resto de las fuerzas. Según algunos cuerdistas incluso lo que observamos como materia oscura no sería más que el efecto de los gravitones provenientes de otras branas, de otros universos “paralelos”. Estos universos paralelos son el producto teórico de los 10500 estados de vacío que proporciona la teoría.
Otras partículas que podrían escapar de nuestra brana serían los singletes de Higgs, partículas que responderían a la gravedad pero no a las otras fuerzas básicas.
Foto
Ilustración de un singlete de Higgs viajando en el tiempo. Un par de protones colisionan en el LHC y se genera un singlete de Higgs que viaja en el tiempo al abandonar las brana tridimensional de espacio habitual. Fuente: Jenni Ohnstad, Vanderbilt.
Esta idea proviene de cuando Weiler, Heinrich Päs y Sandip Pakvasa (éstos dos últimos de la Universidasd de Hawaii) propusieron que las anomalías observadas en los experimentos de neutrinos podrían deberse a la existencia de los neutrinos estériles, neutrinos que sólo interaccionarían a través de la fuerza de gravedad y que tampoco estarían atrapados en la brana, serían capaces, por tanto, de viajar a otras branas. Estos tres autores propusieron que los neutrinos estériles podrían viajar más rápidos que la luz tomando atajos a través de las dimensiones extras. Algo que sería, hasta cierto punto, equivalente a viajar en el tiempo. En 2007 publicaron un artículo titulado “Neutrino time travel” que levantó cierto revuelo. Estas ideas inspiraron dos novelas “Final Theory” de Mark Alpert y “Accidental Time Machine” de Joe Haldeman.
*Más grave aún es el no haber encontrado aún señales de la existencia de supersimetría (SUSY), hecho éste que pone en graves aprietos a esta idea y deja sin sentido la vida académica, de 30 años de duración, de algunos teóricos. Además afecta a las teorías de cuerdas, que habían depositado en la aparición de SUSY una posible (y falsa) prueba de la validez de la teoría.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3435
Fuentes y referencias:
Nota de prensa.
Artículo en ArXiv.
Neutrino time travel.

martes, 22 de marzo de 2011

¿El espacio es como un tablero de ajedrez?

Fuente: Ciencia Kanija

Artículo publicado originalmente por Jennifer Marcus el 18 de marzo de 2011 en la web de UCLA.
Físicos de UCLA se propusieron diseñar un transistor mejor y terminaron descubriendo una nueva forma de pensar sobre la estructura del espacio.
El espacio normalmente se considera como infinitamente divisible – dadas dos posiciones cualesquiera, siempre hay una posición intermedia. Pero en un reciente estudio con el objetivo de desarrollar transistores ultra-rápidos usando grafeno, investigadores del Departamento de Física y Astronomía de UCLA y el Instituto Nanosystems de California demostraron que dividir el espacio en posiciones discretas, como en un tablero de ajedrez, podría explicar cómo los electrones puntuales, que no tienen radio finito, logran transportar su momento angular intrínseco, o “espín”.
Espín en el grafeno

Aunque estudiaban las propiedades electrónicas del grafeno, el profesor Chris Regan y el estudiante graduado Matthew Mecklenburg encontraron que una partícula puede adquirir espín viviendo en el espacio con dos tipos de posiciones – baldosas oscuras y claras. La partícula parece girar si las baldosas están tan cerca que no se puede detectar su separación.
“El espín de un electrón podría surgir debido a que el espacio, a distancias muy pequeñas, no es tan liso, sino que está segmentado, como un tablero de ajedrez”, dice Regan.
Sus hallazgos se publican en la edición del 18 de marzo de la revista Physical Review Letters.
En la mecánica cuántica, “espín up” y “espín down” se refieren a los dos tipos de estados que se pueden asignar a un electrón. Que el espín del electrón puede tener sólo dos valores – no uno, tres o un número infinito – ayuda a explicar la estabilidad de la materia, la naturaleza de los enlaces químicos y muchos otros fenómenos fundamentales.
Sin embargo, no está claro cómo logra el electrón el movimiento giratorio que implica este espín. Si el electrón tiene un radio, la superficie implicada tendría que moverse más rápido que la velocidad de la luz, violando la teoría de la relatividad. Y los experimentos demuestran que el electrón no tiene radio; se cree que es una partícula puramente puntual, sin superficie ni subestructura que pudiese girar.
En 1928, el físico británico Paul Dirac demostró que el espín del electrón está íntimamente relacionado con la estructura del espacio-tiempo. Su elegante argumento combinó la mecánica cuántica con la relatividad especial, la teoría de Einstein sobre el espacio-tiempo (célebremente representada por la ecuación E=mc2).
La ecuación de Dirac, lejos de simplemente acomodar el espín, en realidad necesita del mismo. Pero mientras demostraba que la mecánica cuántica relativista requiere del espín, la ecuación no ofrece una descripción mecánica para explicar cómo una partícula puntual logra transportar momento angular, ni por qué este espín tiene dos valores.
Al desvelar un concepto que es a la vez novedoso y aparentemente simple, Regan y Mecklenburg encontraron que los dos valores del espín del electrón pueden surgir a partir de un espacio con dos tipos de baldosas – claras y oscuras – como un tablero de ajedrez. Y desarrollaron este modelo mecánico cuántico mientras trabajaban en el sorprendentemente práctico problema de cómo crear unos mejores transistores a partir de un nuevo material llamado grafeno.
El grafeno, una única lámina de grafito, es una capa de un átomo de carbono de grosor, ordenada en una estructura de panal. Aislado por primera vez en 2004 por parte de Andre Geim y Kostya Novoselov, el grafeno tiene una enorme cantidad de extraordinarias propiedades electrónicas, tales como alta movilidad electrónica y capacidad de conducir corriente. De hecho, estas propiedades son tales promesas de revolucionarios avances que Geim y Novoselov recibieron el Premio Nobel 2010 apenas seis años después de su logro.
Regan y Mecklenburg son parte de un esfuerzo de UCLA por desarrollar transistores extremadamente rápidos usando este nuevo material.
“Queríamos calcular la amplificación del transistor de grafeno”, dice Mecklenburg. “Nuestra colaboración estaba construyéndolos y necesitaban saber cómo de bien funcionarían”.
Estos cálculos implicaban la comprensión de cómo interacciona la luz con los electrones del grafeno.
Los electrones del grafeno se mueven saltando de un átomo de carbono a otro, como si saltasen en un tablero de ajedrez. Las baldosas del tablero de ajedrez de grafeno son triangulares, con las baldosas oscuras apuntando arriba y las claras abajo. Cuando un electrón absorbe un fotón, salta de las baldosas claras a las oscuras. Mecklenburg y Regan demostraron que esta transición es equivalente a cambiar el espín de “up” a “down”.
En otras palabras, confinar los electrones del grafeno en posiciones discretas del espacio, les da el espín. Este espín, que se deriva de la geometría especial de la red en forma de panal del grafeno, es una adición distinta del espín usual transportado por el electrón. En el grafeno, el espín adicional refleja la estructura no resuelta de tablero de ajedrez en el espacio que ocupa el electrón.
“Mi supervisor [Regan] pasó su doctorado estudiando la estructura del electrón”, dice Mecklenburg. “Por lo que estaba muy entusiasmado de ver que el espín puede surgir a partir de la red. Esto hace que te preguntes si el espín normal del electrón podría generarse de la misma forma”.
“No está claro si este trabajo será más útil en la física de partículas o de materia condensada”, dice Regan, “pero sería extraño que la estructura de panal del grafeno fuese la única red capaz de generar espín”.

Autor: Jennifer Marcus
Fecha Original: 18 de maro de 2011
Enlace Original

jueves, 17 de marzo de 2011

Cómo Preparar Galletas Moscovitas.

Ingredientes para preparar Galletas Moscovitas


  • 100 gr. de almendra cruda granulada.
  • 80 gr. de azúcar.
  • 2 claras de huevo.
  • 20 gr. de mantequilla pomada.
  • 3 rodajas de naranja confitada.
  • 100 gr. de chocolate Postres.

Con un varilla, mezclar bien todos los ingredientes menos el chocolate, que servirá para pintar las galletas, hasta que quede una mezcla espesa. En una bandeja de horno, forrada con papel vegetal o silpat, ir echando con ayuda de una cuchara o una manga pastelera, montoncitos de masa. Hornear con el horno ya precalentado a 180º unos 10 minutos o hasta que empiecen a dorarse.

Una vez cocidas, veremos que la masa de las galletas se habrá extendido y posiblemente enganchado unas con otras. Con un cortapastas redondo, iremos marcando las galletas en caliente y una vez frías, podremos despegarlas fácilmente. Fundir el chocolate en el microondas 1 minuto, dejarlo reposar otro minuto dentro y mezclaremos con una cuchara hasta que esté bien desecho. Con una cuchara cubriremos de chocolate la parte posterior de las galletas moscovitas y lo dejaremos enfriar hasta que endurezca.

Top 10 Distribuciones ligeras para tu Pc.

Fuente: Ubuntizando el planeta

Se nos a ocurrido hacer un "Top 10" con algunas distribuciones que permitan rescatar viejos equipos o liberar de pesados complementos nuestros escritorios. Quiero aclarar que estas selección es puramente arbitraria, aunque tratamos de enumerarlas acabando en la distribución que menos recursos consumirá en nuestros equipos.

10. Xubuntu

xubuntu

Xubuntu es de las distribuciones "ligeras" que podemos elegir más pesadas. Hoy por hoy recomendariamos su uso a usuarios que buscan sencillez pero sin renunciar a todas las funciones que ofrece Ubuntu en un entorno "conocido" por todos.

La compatibilidad con el sabor clásico Ubuntu (Gnome) es total y no es complicado hacerse con él en pocos minutos.

9. Lubuntu
lubuntu
En la misma linea de Xubuntu, Lubuntu es otro sabor Ubuntu para equipos ligeros. En este caso basado consta de un entorno basado en OpenBox. Por tanto es mucho mas ligero que Xubuntu, manteniendo la compatibilidad con Ubuntu a nivel de repositorios. Personalmente es una de nuestras favoritas. Rapida y muy funcionarl. Desgraciadamente debido a los cambios en las politicas de soporte establecidas por Canonical no podemos usarlo en equipos con arquitecturas anteriores a i686.

8. Mint LXDE
MInt LXDE

Linux Mint es una distribucion creo que a estas alturas de sobra conocida por todos. Se trata de una distribucion que pretende poner las cosas faciles a sus usuarios. Mucho mas de lo que ya lo hace Ubuntu, tiene la "virtud" de incluir todos los codecs necesarios para comenzar a trabajar desde el primer momento con nuestro sistema a la hora de reproducir ficheros multimedia.

Se basa en Ubuntu, aunque existe una version basada en Debian. Tambien lo encontramos presentado en diferentes sabores, Gnome, KDE o LXDE. En este ultimo sabor se comporta de forma excelente en netbooks.


CrunchBang
Actualmente se encuentra basada en Debian, se trata de una distribución que originalmente nace para dar soporte a netbooks como el Asus eepc 700,  con el tiempo ha ganado toda una comunidad de adeptos alcanzando un nivel de madurez mas que recomendable.


6. Puppy Linux
Puppy Linux
Si hablamos de distribuciones ligeras, Puppy Linux es una de las más recomendadas. Prácticamente de carga completamente en la RAM de nuestro equipo. Podemos cargarla en una memoria USB y usarla con completa normalidad. En 100 megas tenemos un sistema completo y muy usable.

5. Macpup Linux
Macpup Linux
MacPuc es la versión enchulada con el gestor de ventana Enlightenment E17. Ocupa un poco más de 180 Mb en memoria y se comporta muy bien en todo tipo de equipos.

4. SliTaz
SliTaz
Esta es una distribución Gnu/Linux sorprendente, en 30 megas disponemos de Firefox, herramientas para ftp, ssh, un servidor web  basado en Lighttpd totalmente funcional.


3. GALPon MiniNo
GALPon MiniNo
Galpon Minino es una distribución a la cual le tengo cierto cariño. Es fruto del esfuerzo de un grupo de aficionados al software libre por darle nuevo uso a los equipos que iban recibiendo para su rehabilitación.  Basada en Debian, es capaz de ejecutarse en todo tipo de equipos.  Peca de un interface de uso algo complicado de manejar, aunque es completamente personalizable.

2. Damn Small Linux
Damn Small Linux
Volviendo a las distribuciones compactas,  Damn Small Linux, es mi favorita. Hace unos años un Intel Dot Station con un Celeron a 300Mhz y 128 megas de RAM era uno de mis juguetes preferidos para cacharrear en casa en mis ratos libres. Damn Small Linux sirvió para aprender a sacar provecho a aquella maquina. Literalmente era fantástico, no sin alguna dificultad pero me permitía sacar todo el jugo.

También podemos usarla desde una memoria USB, una autentica navaja suiza. Al menos para mi lo ha sido.

1. Deli Linux/ConnochaetOS
ConnochaetOS
ConnochaetOS es la sucesora de Deli Linux una distro especialmente diseñada para PCs de bajos recursos y basada en Arch Linux que utiliza LXDE como entorno de escritorio. Podemos usarla para casi cualquier uso. Incluso permitir que un i586 sea usado de nuevo como servidor.

Seguramente podemos añadir o quitar alguna distribución, por eso dejamos los comentarios abiertos para que puedas sugerir tu favorito.

martes, 15 de marzo de 2011

Documental sobre los juegos de rol.


Qué está ocurriendo en la central nuclear de Japón.

Fuente: Ciencia Kanija

Estoy escribiendo este texto (12 de marzo) para calmarte respecto a algunas ideas sobre los problemas de Japón, es decir, la seguridad de los reactores nucleares de Japón. Primero que todo, la situación es seria, pero está bajo control. ¡Y este texto es largo! Pero sabrás más sobre plantas de energía nuclear tras leerlo que todos los periodistas del planeta juntos.
No habrá ni hubo ninguna liberación significativa de radiactividad.
Núcleo del reactor de Fukushima

Por “significativa” quiero decir un nivel de radiación mayor de lo que recibirías en – digamos – un vuelo de larga distancia, o al beber un vaso de cerveza que procede de ciertas áreas con altos niveles de radiación natural de fondo.
He estado leyendo cada publicación de noticias sobre el incidente desde el terremoto. No ha habido ni un solo informe (¡!) que fuese preciso y estuviese libre de errores (y parte del problema es también una debilidad en la crisis japonesa de comunicación). Por “no libres de errores” no me refiero al periodismo tendencioso antinuclear – que es algo bastante normal en estos días. Por “no libre de errores” me refiero a graves errores respecto a la física y las leyes naturales, así como a una amplia malinterpretación de los hechos, debido a una obvia carencia de comprensión básica y fundamental de cómo se construyen y manejan los reactores nucleares. He leído un informe de tres páginas de la CNN en la que cada párrafo contenía un error.
Vamos a cubrir algunos fundamentos, antes de entrar en qué está pasando.
Construcción de las plantas de energía nuclear de Fukushima
Las plantas de Fukushima son conocidas como Reactores de Agua en Ebullición (Boiling Water Reactors), o BWR para abreviar. Los Reactores de Agua en Ebullición son similares a una olla a presión. El combustible nuclear calienta el agua, el agua hierve y crea vapor, el vapor entonces mueve las turbinas que crean la electricidad, y el vapor se enfría y se condensa para volver a ser agua, y se envía el agua a que se caliente de nuevo por parte del combustible nuclear. La olla a presión funciona aproximadamente a 250º C.
El combustible nuclear es óxido de uranio. El óxido de uranio es una cerámica con un punto de fusión muy alto, de aproximadamente 3000º C. El combustible se fabrica en pequeñas bolas (piensa en pequeños cilindros del tamaño de piezas de Lego). Esas piezas se colocan en un largo tubo hecho de Zircaloy con un punto de fusión de 2200º C, y selladas a conciencia. Este ensamblaje se conoce como barra de combustible. Estas barras de combustible se unen para formar grandes paquetes, y un número de estos paquetes se colocan en el reactor. A todos estos paquetes unidos es a lo que nos referimos como “el núcleo”.
La envoltura de Zircaloy es la primera contención. Separa el combustible radiactivo del resto del mundo.
El núcleo se coloca entonces en las “vasijas de presión”. Ésta es la olla a presión de la que hablábamos antes. Las vasijas de presión son la segunda barrera de contención. Es una sólida pieza de una olla, diseñada para contener con seguridad el núcleo hasta temperaturas de varios cientos de grados C. Esto cubre los escenarios donde puede restablecerse en algún punto el enfriamiento.
Todo el “material” del reactor nuclear – las vasijas de presión y todas las tuberías, bombas, reservas de refrigerante (agua), son encapsuladas en una tercera barrera de contención. El tercer confinamiento es una burbuja sellada herméticamente (al vacío) muy gruesa, del acero y hormigón más fuerte. El tercer confinamiento está diseñado, construido y probado para un único propósito: Contener, indefinidamente, una fusión completa del núcleo. Para tal propósito, se coloca una gran y gruesa cuenca de hormigón bajo las vasijas de presión (el segundo confinamiento), todo dentro del tercer contenedor. Esto es lo que se conoce como “receptor del núcleo”. Si el núcleo se funde y las vasijas de presión estallan (y finalmente se funden), recibirá el combustible fundido y todo lo demás. Normalmente se construye de tal forma que el combustible nuclear se disperse, para que pueda enfriarse.
Este tercer contenedor está rodeador por el edificio del reactor. El edificio del reactor es una cobertura externa pensada para mantener el clima, pero no para invitados. (Ésta es la parte que se dañó en la explosión, pero hablaremos más sobre eso después).
Fundamentos de las reacciones nucleares
El combustible de uranio genera calor por fisión nuclear. Los grandes átomos de uranio se dividen en átomos menores y esto genera calor además de neutrones (una de las partículas que forman un átomo). Cuando el neutrón impacta con otro átomo de uranio, se divide, generando más neutrones y así sucesivamente. Esto es lo que se conoce como reacción nuclear en cadena.
Ahora, simplemente empaquetar una gran cantidad de barras de combustible una junto a otra, llevaría rápidamente a un sobrecalentamiento tras unos 45 minutos, lo que desembocaría en una fusión de las barras de combustible. Merece la pena mencionar en este punto que el combustible nuclear de un reactor nunca puede provocar una explosión nuclear del tipo de una bomba nuclear. Construir una bomba nuclear es, en realidad, bastante difícil (pregúntale a Irán). En Chernóbil, la explosión fue provocada por un exceso de presión acumulada, la explosión del hidrógeno y una fractura en todas las barreras de contención, lanzando material fundido del núcleo al entorno (una “bomba sucia”). Por qué eso no ha sucedido, ni sucederá, en Japón se explica más adelante.
Para controlar la reacción nuclear en cadena, los operadores del reactor usan lo que se conoce como “barras de control”. Las barras de control absorben los neutrones y acaban inmediatamente con la reacción en cadena. Un reactor nuclear se construye de tal forma, que cuando opere normalmente, elimines todas las barras de control. El agua refrigerante se lleva el calor (y lo convierte en vapor y electricidad) al mismo ritmo que el núcleo lo produce. Y tienes una gran libertad de acción alrededor del punto de funcionamiento estándar de 250ºC.
El desafío es que tras insertar las barras y detener la reacción en cadena, el núcleo aún sigue generando calor. El uranio “detuvo” la reacción en cadena. Pero el uranio crea un número de elementos radiactivos intermedios durante el proceso de fisión, más notablemente isótopos de cesio y yodo, es decir, versiones radiactivas de estos elementos que finalmente se dividirán en átomos menores y dejarán de ser radiactivos. Estos elementos siguen decayendo y generando calor. Debido a que no se regeneran más a partir del uranio (el uranio dejó de decaer después de que se colocasen las barras de control), obtienen cada vez menos, y el núcleo se enfría en cuestión de días, hasta que esos elementos radiactivos intermedios se agotan.
Este calor residual es lo que está provocando dolores de cabeza actualmente.
Por lo que el primer “tipo” de material radiactivo es el uranio de las barras de combustible, además de los elementos radiactivos intermedios en los que se divide el uranio, también dentro de la barra de combustible (cesio y yodo).
Hay un segundo tipo de material radiactivo creado, fuera de las barras de combustible. La primera gran diferencia es evidente: Esos materiales radiactivos tienen una vida media muy corta, eso significa que decaen muy rápido y se dividen en materiales no radiactivos. Por rápido quiero decir segundos. Por lo que si esos materiales radiactivos se liberan al entorno, sí, se libera radiactividad, pero no, no es peligrosa, en absoluto. ¿Por qué? En el tiempo que te lleva deletrear “R-A-D-I-O-N-Ú-C-L-I-D-O”, se harán inocuos, debido a que se dividirán en elementos no radiactivos. Estos elementos radiactivos son N-16, el isótopo radiactivo (o versión) del nitrógeno (aire). Los otros son gases nobles tales como el argón. Pero, ¿de dónde proceden? Cuando se divide el uranio, se genera un neutrón (ver arriba). La mayor parte de estos neutrones impactarán con otros átomos de uranio y mantendrán en marcha la reacción nuclear en cadena. Pero algunos abandonarán la barra de combustible e impactarán en las moléculas de agua, o el aire que hay en el agua. Entonces, un elemento no radiactivo puede “capturar” el neutrón y se convierte en radiactivo. Como se describe más arriba, rápidamente (en segundos) se liberará del neutrón para volver a su anterior y hermoso yo.
Este segundo “tipo” de radiación es muy importante cuando hablemos posteriormente sobre la radiactividad liberada al entorno.
Qué sucedió en Fukushima
Intentaré resumir los hechos principales. El terremoto que impactó en Japón fue cinco veces más potente que el peor terremoto para el que fue construida la planta de energía nuclear (la escala Richter funciona de forma logarítmica; la diferencia entre el 8,2 para el que las plantas fueron construidas y el 8,9 que tuvo lugar es de 5 veces, no 0,7). Por lo que el primer “hurra” vaya para los ingenieros japoneses, todo se mantuvo en pie.
Cuando el terremoto impactó con sus 8,9, los reactores nucleares pasaron a un apagado automático. Segundos después de que se iniciara el terremoto, las barras de control se habían insertado en el núcleo y la reacción nuclear en cadena del uranio se detuvo. Ahora, el sistema de refrigeración tiene que eliminar el calor residual. La carga de calor residual es de aproximadamente el 3% de la carga de calor bajo las condiciones de funcionamiento normal.
El terremoto destruyó el suministro externo de energía del reactor nuclear. Éste es uno de los accidentes más serios para una planta de energía nuclear, y por consiguiente, un “apagón en la planta” recibe una gran atención cuando se diseñan los sistemas de respaldo. Se necesita la energía para mantener en funcionamiento las bombas refrigerantes. Dado que la planta de energía había sido desactivada, no puede producir electricidad por sí misma.
Las cosas fueron bien durante una hora. Un conjunto de múltiples equipos de generadores de energía Diesel de emergencia entraron en funcionamiento y proporcionaron la electricidad necesaria. Entonces llegó el tsunami, mucho mayor de lo que se había esperado cuando se construyó la planta de energía. El tsunami desactivó múltiples conjuntos de generadores Diesel de respaldo.
Cuando se diseña una planta de energía nuclear, los ingenieros siguen una filosofía conocida como “Defensa de Profundidad”. Esto significa que primero construyes todo para lidiar con la peor catástrofe que puedas imaginar, y luego diseñas la planta de forma que aún pueda manejar un sistema de fallo (eso que pensabas que nunca podría suceder) tras el otro. Un tsunami acabando con la energía de respaldo en un rápido golpe es tal escenario. La última línea de defensa es colocar todo en el tercer contenedor (ver arriba), que mantendrá todo, sea cual sea el problema, barras de control dentro o fuera, núcleo fundido o no, dentro del reactor.
Cuando los generadores Diesel se apagaron, el reactor cambió a la energía de las baterías de emergencia. Las baterías fueron diseñadas como uno de los respaldos del respaldo, para proporcionar energía para el enfriamiento del núcleo durante 8 horas. Y así lo hicieron.
Durante esas 8 horas, tenía que encontrarse otra fuente de energía y conectarla a la planta. La red de energía estaba caída debido al terremoto. Los generadores Diesel quedaron destruidos por el tsunami. Por tanto, se desplegaron generadores Diesel móviles.
Aquí es donde las cosas empezaron a ponerse realmente feas. Los generadores de energía externos no podían conectarse a la planta (los enchufes no encajaban). Por lo que, cuando se agotaron las baterías, no podía eliminarse el calor residual.
En este punto, los operadores de la planta empezaron a seguir los procedimientos de emergencia establecidos para un “evento de pérdida de refrigeración”. Esto es, de nuevo, un paso a lo largo de las líneas de “Defensa de Profundidad”. La energía para los sistemas de enfriamiento nunca debería haber fallado completamente, pero pasó, por lo que se “retiraron” a la siguiente línea de defensa. Todo esto, a pesar de lo impactante que nos parece a nosotros, es parte del entrenamiento cotidiano que pasas como operador, para gestionar con éxito una fusión del núcleo.
Ésta fue la etapa en la que se empezó a hablar de fusión del núcleo. Debido a que al final del día, si no puede restaurarse el enfriamiento, el núcleo finalmente se fundirá (tras horas o días), y la última línea de defensa, el receptor del núcleo y el tercer contenedor, entrarían en juego.
Pero el objetivo en esta etapa era manejar el núcleo mientras se estaba calentando, y asegurar que la primera barrera de contención (los tubos de Zircaloy que contienen el combustible nuclear), así como la segunda barrera (nuestra olla a presión) siguen intactos y operativos todo el tiempo posible, para dar a los ingenieros tiempo de reparar los sistemas de enfriamiento.
Como el enfriamiento del núcleo es una tarea ardua, el reactor tiene un número de sistemas de enfriamiento, cada uno en versiones múltiples (sistema de limpieza de agua del reactor, eliminación del calor de decaimiento, sistema stand-by de refrigeración líquida y sistema de emergencia de refrigeración del núcleo). Cuál falló, cuándo o si no fallaron es algo que no está claro actualmente.
Así que imagina nuestra olla a presión en el fogón, calentándose a fuego lento, pero constante. Los operadores usaron todo tipo de sistema de enfriamiento para liberar tanto calor como fuese posible, pero la presión empezó a acumularse. La prioridad ahora es mantener la integridad del primer contenedor (mantener la temperatura de las barras de combustible por debajo de los 2200º C), así como de la segunda barrera de contención, la olla a presión.  Para mantener la integridad de la olla a presión, la segunda barrera, debe liberarse presión de vez en cuando. Dado que la capacidad de hacerlo en una emergencia es tan importante, el reactor tiene 11 válvulas para liberar la presión. Los operadores han empezado a liberar vapor cada cierto tiempo para controlar la presión. La temperatura en esta etapa era de unos 550ºC.
Aquí es cuando empezaron a llegar los informes sobre “filtrado de radiación”. Creo que expliqué más arriba por qué el vapor expulsado es teóricamente lo mismo que liberar radiación al entorno, pero por qué no era, ni es, peligroso. El nitrógeno radiactivo, así como los gases nobles, no suponen una amenaza para la salud humana.
En algún momento durante esta expulsión, se produjo una explosión. La explosión tuvo lugar fuera del tercer contenedor (nuestra “última línea de defensa”), y el edificio del reactor. Recuerda que el edificio del reactor no tiene la función de mantener contenida la radiactividad. Aún no está totalmente claro qué ha sucedido, pero éste es el escenario más probable: Los operadores decidieron expulsar el vapor de las vasijas de presión no directamente al entorno, sino al espacio entre el tercer contenedor y el edificio del reactor (para dar a la radiactividad del vapor más tiempo para decaer. El problema es que a las altas temperaturas que había alcanzado el núcleo en esta etapa, las molécula de agua puede “disociarse” en oxígeno e hidrógeno – una mezcla explosiva. Y estalló, fuera del tercer confinamiento, dañando el edificio del reactor alrededor. Fue este tipo de explosión, pero dentro de la vasija de presión (debido a que fue mal diseñada y no manejada adecuadamente por los operadores, lo que llevó a la explosión de Chernóbil. Esto nunca fue un riesgo en Fukushima. El problema de la formación de hidrógeno-oxígeno es uno de los grandes problemas cuando diseñas una planta de energía (si no eres soviético, claro), por lo que el reactor se construye y maneja de forma que no pueda tener lugar dentro del contenedor. Sucedió fuera, lo cual no es algo deseado pero es un escenario posible y está bien, debido a que no supone un riesgo para la barrera de contención.
Por tanto, la presión estaba bajo control cuando el vapor fue expulsado. Ahora, si sigues calentando tu olla, el problema es que el nivel del agua seguirá disminuyendo. El núcleo está cubierto por varios metros de agua para permitir que pase algún tiempo (horas, días) antes de que quede expuesto. Una vez que las barras empiezan a quedar expuestas en la parte superior, dichas partes alcanzarán la temperatura crítica de 2200ºC tras apenas 45 minutos. Aquí es donde fallaría el primer sistema de confinamiento, el tubo de Zircaloy.
Y esto empezó a suceder. El enfriamiento no pudo restaurarse antes de que hubiese algo (muy limitado, pero algo), de daño en el encapsulado de parte del combustible. El propio material nuclear aún estaba intacto, pero la capa de Zircaloy de alrededor había empezado a fundirse. Lo que sucedió en ese momento es que parte de los subproductos del decaimiento del uranio – cesio y yodo radiactivos – empezaron a mezclarse con el vapor. El gran problema, el uranio, aún estaba bajo control, debido a que las barras de óxido de uranio se mantienen bien hasta los 3000ºC. Se ha confirmado la medición de una pequeña cantidad de cesio y yodo en el vapor que se liberó a la atmósfera.
Ésta parece que fue la “señal de salida” para un plan B. Las pequeñas cantidades de cesio medidas dijeron a los operadores que el primer contenedor de una de las barras estaba a punto de romperse. El Plan A había sido restaurar uno de los sistemas de refrigeración normales del núcleo. Por qué falló es algo que no está claro. Una explicación plausible es que el tsunami se llevó/contaminó toda el agua limpia necesaria para los sistemas de refrigeración normales.
El agua usada en el sistema de refrigeración es muy pura, agua desmineralizada (como el agua destilada). La razón de usar agua pura en la activación mencionada arriba de los neutrones por parte del uranio: El agua pura no se activa mucho, por lo que permanece prácticamente libre de radiación. La suciedad o la sal del agua absorbería neutrones más rápidamente, haciéndola más radiactiva. Esto no tiene efecto en absoluto sobre el núcleo – no importa con qué lo enfríes. Pero complica la vida a los operadores y mecánicos cuando tienen que tratar con agua activada (es decir, ligeramente radiactiva).
Pero el Plan A había fallado – los sistemas de refrigeración estaban caídos y no había disponible agua limpia adicional – por lo que entró en juego el plan B. Esto es lo que parece que sucedió: Para evitar una fusión del núcleo, los operadores empezaron a usar agua del mar para enfriar el núcleo. No estoy seguro de su inundaron nuestra olla a presión con ella (la segunda barrera de contención), o si inundaron el tercer contenedor, inundando la olla a presión. Pero eso no es relevante para nosotros.
El punto es que el combustible nuclear ahora se ha enfriado. Debido a que la reacción en cadena se detuvo hace tiempo, sólo hay un poco de calor residual que se está generando ahora. La gran cantidad de agua refrigerante que se ha usado es insuficiente para eliminar el calor. Debido a que hay una gran cantidad de agua, el núcleo no genera suficiente calor para producir una presión significativa. Además, se ha añadido ácido bórico al agua del mar. El ácido bórico es “una barra de control líquida”. Aunque el decaimiento continúe, el boro capturará los neutrones y acelerará el enfriamiento del núcleo.
La planta estuvo cerca de una fusión del núcleo. Aquí tenemos el escenario del peor casi que se evitó: Si el agua del mar no pudiera haberse usado para el tratamiento, los operadores habrían continuado expulsando el vapor de agua para evitar la acumulación de presión. El tercer contenedor, entonces, habría sido completamente sellado para permitir que tuviese lugar la fusión del núcleo sin liberar material radiactivo. Tras la fusión, habría un periodo de espera para que los materiales radiactivos intermedios decayeran dentro del reactor, y todas las partículas radiactivas se asentaran en la superficie del interior del contenedor. El sistema de enfriamiento habría sido finalmente restaurado, y el núcleo fundido se habría llevado a una temperatura gestionable. Se habría limpiado el interior del contenedor. El laborioso trabajo de eliminar el núcleo fundido del contenedor habría empezado, empaquetando el combustible (sólido de nuevo) trozo a trozo en contenedores de transporte para ser enviado a plantas de procesamiento. Dependiendo del daño, el edificio de la planta tendría que ser reparado o desmantelado.
Ahora, ¿dónde nos deja esto? Mi evaluación:
  • La planta ahora es segura, y lo seguirá siendo.
  • Japón se enfrenta a un Accidente de Nivel 4 del INES: Accidente nuclear con consecuencias locales. Esto es algo malo para la compañía propietaria de la planta, pero para nadie más.
  • Se liberó algo de radiación cuando se ventilaron las vasijas de presión. Todos los isótopos radiactivos del vapor activado han desaparecido (decaído). Se liberó una pequeña cantidad de cesio, así como de yodo. Si estuvieses sentado sobre la chimenea de la planta cuando estaban ventilando, probablemente te habrían ahumado para volver a tu antigua esperanza de vida. Los isótopos de cesio y yodo fueron eliminados por el mar y nunca los volveremos a ver.
  • Hubo algunos daños limitados en la primera barrera de contención. Esto significa que parte del cesio y yodo radiactivo también se liberará en el agua refrigerante, pero no uranio ni otros materiales sucios (el óxido de uranio no se “disuelve” en el agua). Hay instalaciones para tratar el agua refrigerante dentro del tercer contenedor. El cesio y el yodo radiactivo se sacarán de allí y finalmente se almacenarán como residuos radiactivos en un almacenamiento terminal.
  • El agua del mar usada como agua refrigerante se activará en cierto grado. Debido a que las barras de control se insertaron por completo, la reacción en cadena del uranio no está teniendo lugar. Esto significa que la reacción nuclear “principal” no está teniendo lugar, ni está contribuyendo a la activación. Los materiales radiactivos intermedios (cesio y yodo) también han desaparecido casi por completo en esta etapa, debido a que el decaimiento del uranio se detuvo hace mucho. Esto reduce aún más la activación. La idea básica es que habrá algún bajo nivel de activación en el agua del mar, la cual se eliminará también por las instalaciones de tratamiento.
  • El agua del mar se reemplazará con el tiempo por agua refrigerante “normal”.
  • El núcleo del reactor será desmantelado y transportado a una instalación de procesamiento, al igual que durante un cambio de combustible habitual.
  • Las barras de combustible y toda la planta se comprobarán buscando daños potenciales. Esto puede llevar unos 4-5 años.
  • La seguridad de los sistemas de todas las plantas japonesas se actualizarán para lidiar con un terremoto de 9,0 y un tsunami (o algo peor).
  • (Actualización) Creo que el problema más significativo será un corte prologando del suministro eléctrico. 11 de los 55 reactores nucleares de Japón en distintas plantas fueron apagados y tendrán que ser inspeccionados, reduciendo directamente la capacidad de producción energética del país en un 20%, siendo la energía nuclear un 30% de la capacidad de generación de energía total del país. No he entrado en posibles consecuencias para otras plantas nucleares no afectadas directamente. Esto probablemente se cubrirá poniendo en marcha las plantas de gas natural que normalmente sólo se usan para picos de carga y para cubrir parte de la carga base.   No estoy familiarizado con la cadena de suministro de energía en Japón para el petróleo, gas y carbón, y qué daños han sufrido puertos, refinerías, almacenamientos y transportes, así como daños en la red de distribución nacional- Todo esto llevará a un incremento en tu factura de la electricidad, así como a cortes de energía durante los picos de demanda y esfuerzos de reconstrucción en Japón.
  • Todo esto es sólo parte de un cuadro mucho mayor. La respuesta de emergencia tiene que tratar con refugios, agua potable, alimentación y cuidados sanitarios, infraestructuras de comunicación y transporte, así como suministro eléctrico. En un mundo de débiles cadenas de suministros, estamos observando algunos grandes desafíos en todas estas áreas.
Si quieres seguir informado, por favor, olvídate de los medios habituales y consulta las siguientes páginas web:

Autor: Josef Oehmen
Fecha Original: 12 de marzo de 2011
Enlace Original


*** ACTUALIZACIÓN 14-3-2011 08:15 CET horas ***

Las unidades 1 y 3 se encuentran actualmente en una condición estable de acuerdo a los comunicados de prensa TEPCO , pero la magnitud de los daños del combustible es desconocida. Las noticias son que los niveles de radiación en la planta de Fukushima han caído a 231 microsieverts  (23,1 milirem) el 14 de marzo 14:30 (hora local).

*** ACTUALIZACIÓN 14-3-2011 10:55 CET horas ***

Los detalles sobre lo que pasó en la Unidad 2 del reactor están aún por determinar. Los mensajes oficiales de lo que está sucediendo en la Unidad 2 del reactor contiene información más actualizada. Los niveles de radiación han aumentado, pero se ignora a qué nivel se encuentran.

***Actualización 15 de marzo de 2011 (08:50 hora de España):***

Información obtenida de World Nuclear News

Se escuchó un fuerte ruido a las 6:10 am en Fukushima Daiichi 2. Se confirman daños en un componente principal bajo el reactor. Se ha completado la evacuación a 20 kilómetros mientras que se ha sofocado el fuego en el lugar.

La confirmación de un fuerte ruido esta mañana en la unidad 2 procede de la Agencia de Seguridad Nuclear e Industrial (NISA). Señaló que “la cámara de supresión puede estar dañada”. No está claro que el sonido fuesen explosiones en el sentido habitual.

También conocido como toro, esta gran estructura en forma de rosquilla se sitúa en el centro del edificio del reactor a un nivel más bajo que el propio reactor. Contiene un gran cuerpo de agua en cuyo vapor puede sumergirse directamente en situaciones de emergencia. El vapor se condensa y reduce la presión en sistema del reactor.

La presión en la piscina se vio que bajó de tres atmósferas a una después del ruido, lo que sugiere un posible daño. Los niveles de radiación en el límite de la planta tuvieron un breve pico a 8217 microsieverts por hora pero después cayeron a una tercera parte de esa cantidad.

Se está echando un vistazo más cercano a los niveles de radiación para evaluar el estado del confinamiento. Como medida de precaución la Compañía de Energía Eléctrica de Tokio ha evacuado a todo el personal no esencial de la unidad. Los ingenieros de la compañía continúan bombeando agua de mar en la vasija de presión del reactor en un esfuerzo por enfriarla.

Fuego en la unidad 4

El Primer Ministro Naoto Kan confirmó un fuego en la unidad 4, la cual, de acuerdo con las fuentes oficiales, nunca ha sido un problema de seguridad desde el terremoto. Este reactor estaba cerrado para una inspección periódica cuando impactaron el terremoto y el tsunami, por tanto no sufrió una rápida y súbita parada. Por supuesto, fue sacudido violentamente y fue objeto del tsunami.

Kan’s spokesman Noriyuki Shikata said that there had been “a sign of leakage” while firefighters were at work, “but we have found out the fuel is not causing the fire.” The fire is now reported extinguished.

Se ordena la evacuación

La solicitud de Kan de evacuación en un radio de 20 kilómetros ha sido completada y dentro de esos 20-30 kilómetros deberían permanecer a cubierto. Dice que este aviso se relaciona con el marco global del desarrollo de las medidas de seguridad en Fukushima Daiichi, más que con alguna de las unidades del reactor concretas.

Shikata añade que los niveles de radiación cerca del reactor han alcanzado niveles que afectarían a la salud humana. Se piensa que el fuego habría sido la fuente principal de radiación.

***Actualización 15 de marzo de 2011 (16:10 hora de España):***

Información obtenida de World Nuclear News 1 y 2

Todas las unidades de Fukushima Daini en apagado automático

Las cuatro unidades de la planta de energía nuclear Fukushima Daini han logrado su apagado automático – donde el agua refrigerante está a menos de 100ºC – con una operación completa de los sistemas de refrigeración, según informa Tepco.  Todos los reactores se apagaron automáticamente durante el terremoto de la semana pasada y han permanecido a salvo. Aunque el apagado de la unidad 3 fue como se esperaba, los daños  en los sistemas de emergencia de refrigeración del núcleo en las unidades 1, 2 y 4 llevaron al anuncio del estado de emergencia. Los tres reactores se rpepararon para potenciales liberaciones de presión, pero no se requirió. La unidad 1 anunció su apagado automático a las 1.24 am del 14 de marzo y la unidad 2 la siguió a las 3.52 am. Tepco ha anunciado que la unidad 4 logró un apagado automático a las 7.15 pm del 15 de marzo. Los niveles de agua son estables en los cuatro reactores y hay disponible energía externa, según indica la compañía.
Radiación

Las autoridades japonesas dijeron a la Agencia Internacional de Energía Atómica (IAEA) que los niveles de radiación en la planta entre las unidades 3 y 4 alcanzaron un pico de unos 400 milisieverts por hora. “Esto es un valor de dosis alta”, dijo el organismo, “pero es un valor local en una única localización en un punto concreto del tiempo”.

Posteriores lecturas fueron de 11,9 milisieverts por hora, y de 0,6 milisieverts seis horas más tarde, por lo que la IAEA comentó que “indica que el nivel de radiactividad ha estado decreciendo”.

Casi toda la gente que vive en un radio de 20 kilómetros de la planta ya ha sido evacuada y se les ha suministrado píldoras de potasio-yodo que los protegerán de forma efectiva contra los efectos del yodo-131 que podría, posiblemente, emitirse en un futuro. Las píldoras saturan la glándula tiroides y evitan que el yodo-131 radiactivo sea absorbido, reduciendo drásticamente el riesgo de cáncer de tiroides, que son el principal efecto potencial en la salud en un posible avance del accidente.

La IAEA dijo que 150 personas de los alrededores del lugar han sido monitorizados. Se ha informado de los resultados de algunas personas y 23 de las mismas han pasado por el proceso de descontamización.

LA IAEA confirmó que el fuego en la unidad 4 tuvo lugar en la piscina de almacenamiento de combustible usado. El informe de estado de JAIF dice que se está suministrando agua para compensar los bajos niveles.

Similar a la necesidad de enfriar el núcleo del reactor, el grupo de combustible usado en los estanques de refrigeración requiere de una cobertura de agua para eliminar el calor de decaimiento. Las principales diferencias es que la cantidad de calor que tiene que eliminarse se reduce exponencialmente con el tiempo, y los estanques de combustible están en un espacio mucho menos cerrado que la vasija del reactor. A la vez, los estanques podrían contener combustible de hace varios años.

JAIF informó que las temperaturas en los estanques de enfriamiento de las unidades 5 y 6 están aumentando, pero no hay una razón actualmente disponible para esto.