lunes, 28 de enero de 2013

Más sobre fotosíntesis cuántica

Fuente: Neofronteras


Averiguan cómo se logra mantener la coherencia cuántica en el sistema fotosintético.
Foto
En el pasado ya vimos en NeoFronteras que los raros fenómenos asociados a la Mecánica Cuántica (MC) se dan también en la fotosíntesis. Como ya sabemos, no se puede concebir la realidad sin la MC. Sin ella la puerta de los ascensores nos golpearía y los dispositivos electrónicos en general no funcionarían. De hecho, los átomos serían inestables y no habría química alguna, así que no habría bioquímica ni, por lo tanto, vida.
Pero, además, la MC presenta fenómenos raros que se dan a nivel teórico para los cuales siempre ha sido complicado dar una interpretación que sea aceptada por todos los físicos. Encima son muy difíciles (pero no imposible) de mostrar en el laboratorio.
El problema es que normalmente todo se va al traste con la menor perturbación, por eso a veces hay que enfriar el sistema a estudiar hasta temperaturas cercanas al cero absoluto, momento en que cesa toda vibración. Mantener la coherencia cuántica de tal modo que se tenga una partícula en una superposición de un par de estados durante un corto periodo de tiempo es todo un logro.
Hasta hace poco se creía que los seres vivos estaban demasiado calientes y húmedos como para soportar este tipo de fenómenos, pero la investigación en el tema de la fotosíntesis reveló que no es así y que la evolución ha conseguido mantener la coherencia cuántica de excitones en la fotosíntesis para así elevar el rendimiento de la misma.
El rendimiento total final de la fotosíntesis es muy bajo, pues sólo un 1% o un 2% de la energía solar es fijada en los azúcares que la planta crea. Argumento éste usado por algunos para rechazar el uso de superficie para el cultivo de biocombustibles en lugar de para colocar paneles solares.
Sin embargo, el rendimiento de la fotosíntesis no es el mismo en todos los organismos ni en todos los pasos de la misma.
Hay algas fotosintéticas del azufre que viven a 2000m bajo el nivel del mar. A esa profundidad la cantidad de luz solar que llega es mínima, así que este microorganismo no tiene más remedio que aprovechar cada fotón que le puede llegar si quiere sobrevivir. De hecho, parece que absorbe cerca del 100 de esos fotones.
Científicos alemanes y españoles (Universidad de Cambridge, Instituto de Física de Ulm y la Universidad de Cartagena) han estudiado este organismo para así desentrañar los mecanismos cuánticos implicados.
En la fotosíntesis la energía de los fotones incidentes es transferida a través de una cadena de pigmentos a un centro de reacción en donde es convertida en energía química. Esos pigmentos se mantienen en su lugar gracias a unas proteínas, conjunto que crea un complejo pigmento-proteína. Estos complejos forman un corredor para la energía que viaja por ellos en forma de excitones que saltan de una molécula a la siguiente.
En 2007 ya se demostró que estos excitones exhiben coherencia cuántica, lo que permite que los excitones existan en una superposición de varios estados. Además, esta superposición permite al excitón explorar las múltiples trayectorias posibles y elegir la más rápida y eficiente. Como ya se ha demostrado en las células fotovoltaicas, cuando mayor es el camino que recorre un excitón más probable que su energía se disipe y no llegue a la meta.
Se ha podido comprobar que los excitones de la fotosíntesis existen por un tiempo 100 veces superior al tiempo de coherencia de los estados de energía de un excitón. Esto permite que el 100% de la energía del fotón absorbido llegue, como excitón, al centro de reacción.
En este nuevo trabajo se sugiere que lo que permite este efecto descansa en las proteínas de los complejos que dan soporte estructural a los pigmentos. Según sus cálculos estas proteínas son unos participantes activos en el proceso de transporte. Las frecuencias naturales de vibración de estas proteínas entran en resonancia con las ondas del excitón y las “empujan” de tal modo que no se produce amortiguamiento. De hecho, el excitón podrían pasar su vibración a la estructura de la proteína y ésta la pasaría al excitón para así restaurar su coherencia.
El resultado es teórico, así que se necesitará demostrar con experimentos esta propuesta, algo que no parece muy complicado de hacer. Con una hipótesis es más fácil diseñar un experimento que sin ella.
La comprensión de la estructura de esta proteína podría ayudar a construir estructuras similares en dispositivos cuánticos, por ejemplo en sistemas para convertir luz solar en energía química, o en células solares. También podría servir para mejorar la coherencia de los prototipos de computadores cuánticos que hasta ahora sólo pueden funcionar por un breve periodo de tiempo.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4017
Fuentes y referencias:

Artículo original.
La Mecánica Cuántica de la fotosíntesis.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

jueves, 24 de enero de 2013

Cómo usar un parche y cómo crearlos en GNU/Linux

Las utilidades "diff" y "patch" pueden intimidar al recién llegado, pero no son tan difíciles de usar, incluso para los no-programadores. 

Primero, es posible crear un parche fácilmente a partir de los archivos originales y modificados con el comando "diff":



diff -uN Fichero.viejo Fichero.nuevo > patch.Fichero
 
  
Con esto se crea el parche "patch.Fichero". Ahora aplicamos el parche con:


patch Fichero.viejo  patch.Fichero


Ahora si usamos el comando "diff" podemos ver que los ficheros son iguales:


diff -uN Fichero.viejo Fichero.nuevo 
 
  
 
Finalmente, podemos deshacer el parche con:

patch -R Fichero.viejo  patch.Fichero

lunes, 21 de enero de 2013

¿Se podrían detectar paredes de dominio?

Fuente: Neofronteras


Una red de magnetómetros que registraría si la Tierra pasa a través de una fractura del espacio conocida como pared de dominio.
Foto
Un grupo de investigadores de diversas nacionalidades ha propuesto un experimento directo para saber la naturaleza de la materia y energía oscuras. Se trataría de una red de magnetómetros que registraría si la Tierra pasa a través de una fractura del espacio conocida como pared de dominio. Este tipo de estructuras, de existir y detectarse, podrían ayudar a entender la materia y energía oscuras.
A esta red la ha llamado GNOME (Global Network of Optical Magnetometers for Exotic Physics, o red global de magnetómetros ópticos para física exótica). La red podría instalarse en el hemisferio Norte y determinaría la velocidad de la pared de dominio, prediciendo así su paso por otras localizaciones en donde haya magnetómetros (ver imagen).
La energía oscura opera de manera opuesta a la gravedad, es decir, de manera opuesta a la materia, pues tiende a expandir el Universo. Se cree que supone un 75% de la masa-energía total del Universo, pero no se sabe su naturaleza.
La materia oscura no parece interaccionar con la materia ordinaria, salvo gravitatoriamente. Esta materia supone un quinto de la masa-energía total del Universo. Tampoco sabemos de qué está hecha la materia oscura. El pequeño porcentaje que resta son todas las galaxias, estrellas y posiblemente planetas del Universo. Es decir, desconocemos la naturaleza de la inmensa mayoría de la masa-energía total del Universo y nosotros pertenecemos a una pequeña parte de todo lo que existe.
Una de las posibilidades que se propusieron en su día acerca de la materia oscura es que esté compuesta por axiones, una partícula hipotética que apareció en los modelos de física de altas energías en la década de los setenta. Más recientemente se ha propuesto que estas partículas podrían además tener que ver con la energía oscura.
La teoría de campos sugiere que los axiones darían lugar a paredes de domino, que serían la frontera entre distintas regiones de espacio con distintas propiedades. Sería análogo a las fronteras de dominio en los materiales magnéticos o a las fronteras de grano de los policristales, en donde el campo magnético y la red cristalina tienen respectivamente orientaciones distintas.
Según el Universo se fue expandiendo y enfriando tras el Big Bang el espacio se habría llenado de una red de paredes de dominio que almacenarían energía y que encerrarían dominios espaciales con la distinta energía de vacío. Si la Tierra cruzara una de esas paredes las propiedades de sus átomos podrían verse afectadas momentáneamente y un magnetómetro lo podría registrar.
Un solo magnetómetro no distinguiría entre un evento exótico aislado de este tipo y otros fenómenos electromagnéticos más corrientes o del simple ruido electromagnético. Pero si se crea una red de magnetómetros equiespaciados y una pared de dominio va cruzando un espectrómetro tras otro, entonces sí se podría inferir la existencia de tal pared, además de poder calcular su velocidad y hacer predicciones.
Ya están pensando en cómo sincronizar vía GPS algunos espectómetros existentes para poner a prueba la idea.
Pero la situación no es tan sencilla. Además de que los axiones pueden no existir, puede que aunque existan las paredes de dominio esten alejadas unas de otras de tal modo que esos eventos sean muy infrecuentes. Y lo que es peor, se supone que la inflación aplanó casi cualquier irregularidad del Universo al poco de darse el Big Bang, entre ellas las paredes de dominio.
No obstante, la ciencia no puede avanzar realmente sin observaciones o experimentos y esta propuesta es barata y fácil de realizar, así que bienvenida sea. Esperemos, de todos modos, que si existen esos dominios, los vacíos respectivos sean muy similares.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4013
Fuentes y referencias:
Nota de prensa.
Noticia en la APS.
Artículo en ArXiv.
Ilustración: APS/Alan Stonebraker

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

Algunos usos prácticos del comando dd

Fuente: Hattera's blog linux

El comando dd (Dataset Definition), es una herramienta sencilla, útil, y sorprendentemente fácil de usar; con esta herramienta se puede hacer lo mismo, sobre dispositivos: discos y particiones,  que con programas comerciales como Norton Ghost, en Windows o libres como CloneZilla, en Linux, con solo una pequeña línea de comandos.
-
Sintaxis Básica: La sintaxis mas básica para el uso del comando dd, seria esta:
sudo dd if=origen  of=destino
Donde if significa “input file=archivo de entrada“, es decir, lo que se quiere copiar y of significa “output file=archivo de salida“, o sea, el archivo destino (donde se van a copiar los datos); origen y destino pueden ser dispositivos (lectora de CD o DVD, disco duro, diskettera, pendrive, partición, etc.), archivo de copia de seguridad o imagen de disco, etc, pero no carpetas o subcarpetas.
Para el uso sin problemas de este comando,lo primero siempre es tener claro como se llaman las particiones/discos duros en Linux (/dev/sda1 por ejemplo;  /dev deriva de device= dispositivo, en inglés ). para saber el disco/partición de origen y el de destino, algo que averiguamos fácilmente con el comando sudo fdisk -l   o con algún programa gráfico de particiones como gparted. Toda la información sobre el comando dd, se puede consultar con el comando man dd e info dd ,
Se debe utilizar este comando con precaución, y comprobando siempre el orden y nombre de los discos/particiones, porque lo mismo que se clona un disco, lo borra en un visto y no visto.
Sintaxis con el comando pv: Usar el comando dd con la sintaxis anterior tiene un pequeño inconveniente, ya que es un comando muy reservado – no da información – , pues al ejecutarlo, el prompt de la terminal queda inmóvil, por lo que no sabemos que es lo que esta pasando y cuanto tiempo falta para que termine de ejecutarse. Este pequeño inconveniente se puede solucionar añadiendo el comando pv,  ( *) – el cual actúa como una tubería de terminal que mide los datos que pasan a través de ella-  a la sintaxis del comando dd , de forma que ahora la sintaxis seria:
dd if=origen |pv|dd of=destino
Como resultado obtendríamos en el terminal una especie de barra de progreso, la información sobre bytes transferidos, el tiempo que lleva ejecutándose y la tasa de transferencia, todo esto en tiempo real.
dd
Además al terminar nos muestra estadísticas de la tasa de transferencia, el total de bytes transferidos y el tiempo total que tardó en transferir todos los datos.
dd-2
(*) Comprobar antes de ejecutar cualquier linea de comandos con esta segunda sintaxis, que tenemos instalado en el sistema el paquete pv, o instalarlo si no lo tuviéramos: ambas cosas con Synaptic.
—————————————————–
Vamos a ver algunos ejemplos prácticos y opciones de este comando ( en su versión con el truco explicado anteriormente con el comando pv ) :
A) Sobre discos duros y particiones:
= Clonar un disco duro:
Con esto clonaríamos el disco hda en hdb. (discos IDE):
sudo dd if=/dev/hda |pv|dd of=/dev/hdb bs=1M
Con esto clonaríamos el disco sda en sdb. (discos SATA):
sudo dd if=/dev/sda |pv|dd of=/dev/sdb bs=1M
Con la opción bs=1M , se consigue que tanto la lectura como la escritura se haga en bloques de 1 megabyte, (menos, seria mas lento pero mas seguro, y con mas nos arriesgamos a perder datos por el camino).
Hay que tener en cuenta que de esta forma se graba el disco “tal cual”, MBR, tabla de particiones, espacio vacío, etc…, por lo que solo podrás grabar en un disco del mismo o mayor tamaño.
= Grabar solo la primera partición (hda1) del disco de origen en el disco (hdb) de destino:
sudo dd if=/dev/hda1 |pv|dd of=/dev/hdb bs=1M
= Grabar el disco completo (hda) en la primera partición (hdb1) del disco de destino:
sudo dd if=/dev/hda |pv|dd of=/dev/hdb1 bs=1M
= Crear una imagen – puede ser bin o iso – del disco duro (hda) , en el directorio /home:
sudo dd if=/dev/hda |pv|dd of=/home/hda.bin
= Borrar totalmente la información de un disco: para ello, llena el disco con caracteres aleatorios, cinco veces. No va a quedar ni rastro de información en el disco:
for n in {1..5}; do dd if=/dev/urandom |pv|dd of=/dev/hda bs=8b conv=notrunc;
= Borrar cualquier partición y disco completo de cualquier dispositivo:
sudo dd if=/dev/zero |pv|dd of=/dev/sdx (Borrado de disco completo)
sudo dd if=/dev/zero |pv|dd of=/dev/sdxa (Borrado de partición de disco)
donde:  x es el disco a borrar  , a es la partición a borrar
Esta operación es muy útil para borrar completamente cualquier partición, además los datos que se borrarán no se pueden recuperar, por lo tanto es un borrado a bajo nivel y muy seguro, muy útil por ejemplo para cuando los pendrives se nos infectan de virus con nuestro querido windows.
B) Sobre un CD/DVD
= Crear/Montar una imagen .iso de un CD (o DVD)
Para crear la imagen .iso de un CD en el directorio /home:
sudo dd if=/dev/cdrom |pv|dd of=/home/imagendeCD.iso
Para montar la imagen .iso del CD:
sudo mount -o loop imagedeCD.iso /mnt/home
= Recuperar un DVD rayado (Esto no recupera todo el DVD, en este caso, solo los sectores legibles). Sirve también para discos duros defectuosos:
sudo dd if=/dev/cdrom |pv|dd of=/home/dvd_recuperado.iso conv=noerror,sync
La opción noerror, sirve para obviar los errores de lectura en cualquier situación.
C) Sobre MBR y VBS:
= Copiar/Restaurar el Master Boot Record (MBR):
Para copiar el MBR:
sudo dd if=/dev/hda |pv|dd of=mbr count=1 bs=512
Para restaurar el MBR:
sudo dd if=mbr |pv|dd of=/dev/hda
= Limpiar nuestro MBR y la tabla de particiones:
sudo dd if=/dev/zero |pv|dd of=/dev/hda bs=512 count=1
= Limpia el MBR pero no toca la tabla de particiones, ( muy útil para borrar el GRUB sin perder datos en las particiones):
sudo dd if=/dev/zero |pv|dd of=/dev/hda bs=446 count=1
= Copiar/Restaurar el Volume Boot Sector (VBS):
Para copiar el VBS:
sudo dd if=/dev/hda |pv|dd of=/home/sector_arranque_hda count=1 bs=512
Para restaurar el VBS:
sudo dd if=/home/sector_arranque_hda |pv|dd of=/dev/hda
D) Otros:
= Grabar una imagen del disco en nuestro directorio /home saltándonos los errores del disco (muy útil para discos que se están muriendo):
sudo dd conv=noerror if=/dev/hda |pv|dd of=~/home/imagen_disco_con_errores.iso
= Crear un archivo vacío de 1 Mb:
sudo dd if=/dev/zero |pv|dd of=archivo_nuevo_vacio bs=1024 count=1024
= Crear un archivo swap de 2Gb:
sudo dd if=/dev/zero |pv|dd of=/swapspace bs=4k count=2048M
mkswap /swapspace
swapon /swapspace
= Convertir todas las letras en mayúsculas:
sudo dd if=miarchivo |pv|dd of=miarchivo conv=ucase
————————————
Usar el comando dd con un programa con entorno gráfico: Gdiskdump, es un entorno gráfico para este comando dd que nos facilita la tarea de clonar particiones o discos, de una forma rápida y sencilla. Se puede descargar desde la página https://launchpad.net/gdiskdump/  Una vez lo abrimos , con permisos de root – sudo gdiskdump – , vemos que el programa es muy fácil de usar, ya que  solo tenemos que decirle la partición o disco a clonar (Formato de Entrada ) y su destino (Formato de Salida).
gdiskdump-1
gdiskdump-2
gdiskdump-3
—————————————-
http://blog.luispuente.net/comando dd

http://usemoslinux.blogspot.com/2012/03/tip-comando-dd-con-barra-de-progreso.html
http://linuxzone.es/2012/12/10/gdiskdump-el-comando-dd-en-modo-grafico/
—————————————————

Guardar vídeos de Internet usando Adobe Flash Player

Fuente: Ubuntu alwaysadobe-flashplayerSeguro que alguno de vosotros habéis querido guardar algún vídeo de Youtube o de otro servidor, ya sea vídeos musicales, películas o series, hoy voy a contaros que usando unos sencillos pasos podrás guardar los vídeos que cargas en el navegador en el equipo.
Nota: Debo decir que antes de hacer estos pasos y de cargar el vídeo  hay que borrar el historial y el cache del Navegador que vamos a usar.
Una vez borrado el historial cargamos el vídeo que queramos guardar en el navegador  y en cuanto este cargado abrimos una terminal y escribimos lo siguiente:
lsof |grep Flash
Captura de pantalla de 2013-01-17 19:21:07

Nos saldrá una linea parecida a esta:
plugin-co  8067 23268       joan   27u      REG        8,5 198116514 3801103 /tmp/FlashXXItOlvW (deleted)
Captura de pantalla de 2013-01-17 19:20:42
Bien, ahora solo tenemos que copiarlo en nuestra carpeta personal escribiendo esto:
cp /proc/23268/fd/27 pelicula.flv
Los números de colores tienen que ser los mismos que los que ha mandado el comando anterior.
Con esto ya tendremos la película o lo que queramos guardado en nuestra carpeta personal, un saludo.

martes, 15 de enero de 2013

Qué es el espín de una partícula

Fuente: Francis (th)E mule
Dibujo20121230 dirac - spin - belt trick using curls
Para explicar la estructura fina de los niveles de energía de los electrones en el átomo de hidrógeno, Uhlenbeck y Goudsmit [1] propusieron como hipótesis que el electrón, además de masa y carga, tenía un momento angular intrínseco (el espín) y por tanto un momento magnético. Pauli [2] introdujo la formulación matemática del espín en el contexto de la mecánica cuántica no relativista, asumiendo que sus valores son semienteros y que la función de onda tiene dos componentes, pero sin ofrecer una explicación de su origen. El origen “natural” del espín es la combinación de la relatividad y la cuántica en la ecuación de Dirac para el electrón [3]. La función de onda en mecánica cuántica es un vector en un espacio de Hilbert y la invariancia relativista ante transformaciones del grupo de Poincaré (el grupo inhomogenéo de Lorentz) requiere que las componentes de la función de onda pertenezcan a una representación irreducible de dicho grupo, como afirma el teorema de Wigner [4], que se basó en trabajos matemáticos previos (como los de Weyl [5]). Para una partícula de espín arbitrario, la ecuación cuántica relativista fue obtenida por Majorana (1932), Dirac (1936) y Proca (1936). Por tanto, una partícula tiene un espín s si la función de onda que representa sus estados tiene 2s+1 componentes (donde por componentes entendemos funciones de tipo espinor en el caso de espín semientero y funciones complejas en el caso de espín entero). Explicar el espín sin utilizar las matemáticas de la teoría de grupos aplicada a la mecánica cuántica es casi imposible, igual que lo es explicar el origen del momento angular en mecánica clásica.

¿Por qué el espín tiene las mismas unidades que el momento angular? Porque su origen es similar; el momento angular tiene su origen en la invariancia ante el grupo de rotaciones en el espacio de un sistema cuántico, por lo que la función de onda que lo representa debe ser una representación irreducible de dicho grupo. Las componentes del momento cumplen las leyes del álgebra de Lie so(3) asociada al grupo de Lie SO(3) de las rotaciones en el espacio. Las componentes del espín también cumplen las leyes de un álgebra de Lie, sl(2,C), asociada al grupo de Lorentz SO(1,3). Como el momento angular está asociado al grupo de rotaciones, su interpretación clásica como un “giro” es natural, sin embargo, dicha interpretación clásica para el espín no tiene sentido (salvo que hablemos de un “giro” en un espacio abstracto o espacio interno). En mi opinión, no ayuda nada a la intuición clásica el imaginar como “giros” las transformaciones de Lorentz entre sistemas de referencia inerciales; sin embargo, quizás ayude a algunos lectores, en dicho caso, hay que imaginar el momento angular y el espín como asociados a los “giros” tetradimensionales en el espacio de Minkowski.
Imaginar un electrón como una partícula “puntual” girando, aunque sea  solo porque las unidades del espín son las mismas que las del momento angular, yo creo que no ayuda a la intuición clásica sobre su origen. En mi opinión, debemos aceptar que el espín es un concepto cuántico relativista sin análogo clásico no relativista. A mí me gusta decir que el espín está asociado al hecho de que la función de onda de una partícula relativista tiene varias componentes, es decir, el campo asociado a dicha partícula corresponde a varios “campos componentes” acoplados, como el campo electromagnético corresponde a campos eléctricos y magnéticos acoplados (o “unificados”). Mucha gente me dice que esta descripción es demasiado abstracta y no ayuda a su imaginación e intuición. Supongo que uno se acostumbra con el uso a este tipo de conceptos abstractos.
Dibujo20121230 dirac - spin - physical belt
El teorema de Emmy Noether, que relaciona magnitudes físicas conservadas con la invariancia ante simetrías continuas (grupos de Lie) en un sistema físico (clásico o cuántico), nos muestra que el espín y el momento angular tienen un origen común. Por ello, sus unidades y sus propiedades son similares (sus componentes están evaluadas en un álgebra de Lie), por lo que se pueden sumar (dando lugar al llamado momento orbital). De hecho, el operador de spín \hat{s} es un pseudovector (vector axial) como lo es el momento angular \hat{l}=\hat{r}\times\hat{p}, es decir, bajo rotaciones se comporta como un vector ordinario, pero no cambia ante simetrías (reflexiones especulares) en el espacio.
La función de onda de una partícula \psi(x,y,z;\sigma) tiene 2s+1 componentes  indexadas por el valor del espín cuyos valores discretos son \sigma\in\{-s,-s+1,\hdots,s-1,s\} (para una partícula de espín s), es decir, tiene un valor para cada punto del espacio (x,y,z) y para cada valor de la componente z del vector de espín \hat{s} (donde \sigma=s_x es la proyección ortogonal del vector de espín en dicho eje de coordenadas). Una partícula de espín cero tiene una función de onda con una sola componente \psi(0)\equiv\psi(x,y,z;0). Una partícula de espín 1/2 tiene una función de onda con dos “componentes” \psi(1/2)\equiv\psi(x,y,z;+1/2) y \psi(-1/2)\equiv\psi(x,y,z;-1/2). Y así sucesivamente. ¿”Componentes” entre comillas? La invariancia relativista de la ecuación de Dirac exige que la función de onda cuántica para un electrón tenga cuatro componentes en dos parejas, es decir, que sea un biespinor compuesto de dos espinores. En general, las componentes de la función de onda para partículas de espín semientero son espinores, a diferencia de las componentes “vectoriales” de las de espín entero. Esta diferencia, de origen matemático debido a las leyes de la relatividad combinadas con la mecánica cuántica, parece extraña y casi imposible de entender a quien ignora los detalles matemáticos. Un físico lo único que puede decir es que la Naturaleza es así. Mientras no tengamos una explicación a por qué la Naturaleza es cuántica y relativista no podremos explicar el origen último de estas propiedades. En el momento presente aún estamos muy alejados de poder entender por qué la Naturaleza es cuántica y relativista.
¿Por qué la función de onda tiene que ser descrita mediante una representación de un grupo? El principio más fundamental de la mecánica cuántica es que los estados de un sistema forman parte de un espacio de Hilbert (un espacio vectorial con un producto interior que es completo). No sabemos por qué, pero así es la Naturaleza. La descripción matemática de la acción de un grupo de simetría sobre un espacio de Hilbert requiere utilizar una representación, es decir, requiere describir las transformaciones del grupo como matrices que se multiplican por los vectores del espacio de Hilbert. La teoría de la representación de grupos es muy abstracta, pero su importancia es capital en física cuántica. En matemáticas, una representación de un grupo G es un homomorfismo de G en el grupo D(G) cuyos elementos son operadores en una espacio vectorial L (eligiendo una base de L los elementos de D(G) son matrices); L es el llamado espacio de representación y su dimensión es el grado (o dimensión) de la representación de D(G). Hay muchos tipos de representaciones de grupos, pero en física cuántica se utilizan representaciones unitarias, en las que las matrices son unitarias (matrices cuya inversa es igual a su adjunta conjugada y que preservan el producto interior del espacio de Hilbert).
Dado un campo, sea \Phi(x), dos observadores en sendos sistemas inerciales conectados por una transformación de Lorentz-Poincaré {{x}'}\rightarrow\Lambda\,{{x}}+{{\alpha}} (en componentes {{x}'}^\mu\rightarrow\Lambda^\mu_\nu\,x^\nu+\alpha^\mu) deben observar el mismo campo \Phi(x)\equiv{}\Phi'(x'); la covariancia relativista exige que el campo (es decir, la física) sea el mismo, aunque sea observado desde puntos de vista diferentes. Sin embargo, no tiene por qué cumplirse que \Phi'(x')=\Phi(\Lambda^{-1}\,x'-\alpha). En general, si el campo \Phi(x) tiene varias componentes, dichas componentes podrán “mezclarse” haciendo que \Phi'(x')=M(\Lambda;a)\,\Phi(\Lambda^{-1}\,x'-\alpha), donde M(\Lambda;a) es una matriz que “representa” la transformación de Lorentz-Poincaré (\Lambda;a); en componentes podemos escribir que \Phi'_a(x')=M_{ab}(\Lambda;a)\,\Phi_b(\Lambda^{-1}\,x'-\alpha). El tipo y las propiedades de las matrices M(\Lambda;a) depende del grupo de simetría considerado; para el grupo de Lorentz-Poincaré dichas matrices están caracterizadas por una propiedad, el espín, que relaciona las propiedades de estas matrices con el número de “componentes” del campo. La teoría de la representación de grupos de simetría se desarrolló a principios del s. XX junto a la mecánica cuántica (su nicho natural), aunque sus orígenes se pueden encontrar en la segunda mitad del s. XIX cuando los matemáticos estudiaron los orígenes de la geometría y su relación con los grupos de simetría.
Profundizar en estas cuestiones matemáticas quizás nos llevaría demasiado lejos. Cuando la gente me pregunta por qué los físicos no saben explicar con palabras sencillas lo que es el espín, yo suelo contestar que entender el espín es tan difícil como entender el momento angular. Hay libros enteros dedicados al momento angular, sus propiedades y cómo operar con él en sistemas multipartícula (algunos ejemplos en Google Books). No es fácil manejar el momento angular y el espín utilizando la intuición física clásica, por lo que la mayoría de los físicos trabajamos estos conceptos de forma operativa, obviando imágenes que nos confundan. Con el uso uno acaba teniendo la sensación de que los entiende, pero quizás sea solo una ilusión. Lo que debe quedar claro al lector es que las reglas matemáticas para manejar el momento angular y el espín en los cálculos están perfectamente claras y que, además, no existe ninguna analogía clásica que reproduzca todas y cada de una de estas reglas matemáticas; en los últimos 90 años ningún físico y ningún matemático ha logrado una analogía clásica adecuada que permite entender al lego estos conceptos tan abstractos y a la vez tan importantes. Repito, todas las analogías clásicas fallan (al menos las que yo he podido leer). Por cierto, hay algunas analogías clásicas “buenas” para ciertos valores del espín, pero no funcionan para todos.
Para finalizar, las figuras que acompañan esta entrada corresponden al “truco del cinturón de Dirac” (también llamada “cinta de Dirac”) para explicar por qué un electrón tiene que “girar” 720 grados para recuperar su estado original (cuando para un objeto clásico basta un giro de 360 grados). Hay muchos vídeos de youtube, pero a mí me gusta el siguiente (que no explicaré en detalle). Os animo a profundizar usando Google, si os apetece.
Algunas referencias clásicas:
[1] Naturwissenschaften  13: 953-954, 1925; Nature 117: 264-265, 1926.
[2] Zeitschrift für Physik 43: 601-623, 1927.
[3] Proc. Roy. Soc. Lond. A 117: 610-624, 1928Proc. R. Soc. Lond. A 118: 351-361, 1928.
[4] Gruppentheorie (Friedrich Vieweg und Sohn, Braunschweig, Germany, 1931), pp. 251-254.
[5] Math. Zeitschrift 23: 271-309, 1925Math. Zeitschrift 24: 328-376, 1926Math. Zeitschrift 24: 377-395, 1926Math. Zeitschrift 24: 789-791, 1926.

lunes, 14 de enero de 2013

Einstein tenía razón: El espacio-tiempo es liso, no espumoso

Fuente: Ciencia Kanija
Artículo publicado el 10 de enero de 2013 en Space.com
El espacio-tiempo es liso en lugar de espumoso, según sugiere un nuevo estudio, anotando una posible victoria a Einstein sobre algunos teóricos cuánticos que llegaron tras él.
En su teoría general de la relatividad, Einstein describe el espacio-tiempo como algo fundamentalmente liso, curvándose solo bajo la tensión de la energía y la materia. Sin embargo, algunas interpretaciones de la teoría cuántica no están de acuerdo, viendo el espacio como algo compuesto de un espuma de minúsculas partículas que aparecen y desaparecen constantemente.
Gravity Probe B
Gravity Probe B y espacio-tiempo Crédito: NASA.

Parece que Albert Einstein estaba de nuevo en lo cierto.
Un equipo de investigadores llegó a esta conclusión tras seguir el largo camino de tres fotones a través del espacio intergaláctico. Los fotones se lanzaron en una gran explosión conocida como estallido de rayos gamma, que tuvo lugar a unos 7000 millones de años luz de la Tierra. Finalmente llegaron hasta los detectores del Telescopio Espacial de Rayos Gamma Fermi, de la NASA, en mayo de 2009, llegando con apenas una separación de un milisegundo.
Este empate en la llegada apoya sólidamente la visión Einsteniana del espacio-tiempo, dicen los investigadores. Las longitudes de onda de los fotones de un estallido de rayos gamma son tan pequeñas que deberían poder interactuar incluso con las “burbujas” más diminutas que proponen los teóricos cuánticos para esta espuma espacio-temporal.
Si realmente existe esta espuma, los tres protones deberían haber sido golpeados un poco durante su épico viaje. En tal escenario, las posibilidades de que los tres alcanzaran el telescopio Fermi virtualmente al mismo tiempo, son muy bajas, dicen los investigadores.
Por lo que el estudio es un golpe contra la existencia de la espuma tal como se piensa actualmente que es, aunque no un golpe mortal.
“Si después de todo existe la espuma, creemos que debe ser a una escala mucho menor que la longitud de Planck, lo que indica que podría haber implicada una física distinta”, dice el líder del estudio Robert Nemiroff, de la Universidad Tecnológica de Michigan (Michigan Technological University), en un comunicado. (La longitud de Planck es una distancia casi inimaginablemente pequeña, aproximadamente una billonésima de billonésima del diámetro de un átomo de hidrógeno).
“Existe la posibilidad de que sea una fluctuación estadística, o que la espuma espacio-temporal interactúe con la luz de forma diferente a como imaginamos”, añade Nemiroff, que presentó sus resultados el 9 de enero en la 221 reunión de la Sociedad Astronómica Americana en Long Beach, California.
Si el estudio resulta ser cierto, las implicaciones son muy grandes, dicen los investigadores.
“Si futuros estallidos de rayos gamma confirman esto, habremos aprendido algo muy fundamental sobre nuestro universo”, dice en un comunicado Bradley Schaefer de la Universidad Estatal de Louisiana (Louisiana State University).

Fecha Original: 10 de enero de 2013
Enlace Original

Construyen un reloj de Compton

Fuente: Neofronteras


El reloj de Compton recientemente construido está basado en la interferencia de ondas de materia. Permite ayudarnos a pensar sobre la naturaleza del tiempo e incluso puede facilitar la construcción de una masa patrón.
Foto
La realidad es que los físicos no saben lo que es el tiempo. La mejor manera de definirlo es que el tiempo es lo que miden los relojes. ¿Existe el tiempo en un Universo en donde no se pueden construir relojes? Según la Relatividad no. Entonces lo que tenemos que preguntarnos es qué se necesita para fabricar un reloj. O más concretamente qué se necesita para construir el reloj mínimo posible.
Sabemos que sólo con fotones no podemos construir un reloj, porque para un fotón el tiempo no existe, sólo el espacio. Para construir un reloj se necesitan además partículas con masa.
Cuando construimos cualquier reloj necesitamos algo que oscile, como por ejemplo el péndulo de un reloj de pared, y un sistema que cuente las oscilaciones producidas.
La Mecánica Cuántica asocia una frecuencia de Compton a las partículas con masa que es ω 0=2πmc2/h. Podemos usar esa frecuencia como fuente de las oscilaciones en un reloj muy fundamental. Si conocemos muy bien la masa de una partícula podemos saber su frecuencia. O viceversa, si conocemos su frecuencia podemos medir su masa. Es decir, una sola partícula con masa es suficiente para construir un reloj.
Holger Müller y su equipo de investigadores de la Universidad California en Berkeley han usado precisamente esta propiedad para construir un reloj de Compton, o una balanza de Compton que mida directamente masas, depende del punto de vista. Según dice Müller “una roca es un reloj, por así decirlo”.
Para construirlo se han valido de un interferómetro de materia que usa una nube de un millón de átomos de cesio. Pero hacer esto no es nada fácil. Las ondas de materia tienen una frecuencia que es unas 10.000 millones de veces mayor que la de la luz visible. De hecho, el reloj obtenido es millones de veces más impreciso que los relojes atómicos tradicionales. Este reloj variaría mucho: un segundo cada ocho años. Es la precisión que tenían los primeros relojes atómicos de hace unos 50 años, pero quién sabe lo que se puede mejorar en unas décadas.
Los mejores relojes experimentales actuales varían sólo 1 segundo cada 3100 millones de años. Si se hubiera construido uno de estos relojes justo después del Big Bang habría atrasado o adelantado menos de 5 segundos.
El valor de este nuevo reloj es sobre todo conceptual, al menos de momento, ya que permite explorar ideas fundamentales de la Física. Ya hay debate sobre si lo obtenido es un reloj o no lo es y hay voces críticas. Cohen-Tannoudji (ganador en 1997 del premio Novel de Física) dice que lo que en realidad se ha medido es la frecuencia de retroceso.
Pero, además, este concepto podría servir en el futuro para redefinir el kilogramo patrón. Como sabemos, esta unidad de masa es la única que depende de un objeto material específico, en concreto un bloque de platino iridiado, objeto que ha aumentado ligeramente su masa debido a la oxidación. A día de hoy no se dispone de un sistema para recrear el kilogramo patrón, a diferencia de las demás unidades que tienen definiciones que permiten su reproducción en cualquier laboratorio lo suficientemente avanzado. Hay varias propuestas para redefinir el kilogramo patrón y ésta sería una de ellas. Aunque Müller están pensando, más bien, en un patrón construido a partir de un monocristal de silicio cuyo número de átomos que lo componen se conoce con precisión, objeto al que se ha denominado “esfera de Avogadro”.
Observar o medir directamente la frecuencia de Compton no es posible porque es muy elevada, pero nos podemos valer de un interferómetro de materia. Un instrumento de este tipo es muy similar, desde el punto de vista conceptual, a un interferómetro óptico, pero en lugar de hacer interferir entre sí fotones se hace interferir partículas, pues éstas tienen una frecuencia (y una longitud de onda) asociada.
No es la primera vez que se usa este tipo de interferómetros. Hace dos años este mismo equipo lo usó para comprobar el corrimiento al rojo de las ondas de materia en un campo gravitatorio, lo que confirmaba, una vez más, la Relatividad.
En este caso se han valido además del famoso efecto de la dilatación temporal que ocurre cuando nos movemos a cierta velocidad. En este caso son átomos de cesio, que al moverse a cierta velocidad respecto a átomos de cesio en reposo tienen una frecuencia de oscilación ligeramente distinta. Cuando sus ondas de materia interfieren, esa diferencia de frecuencias puede ser medida. Para poder inducir el movimiento en parte de estos átomos de cesio los investigadores usaron los fotones de un haz láser. Un peine de frecuencia permitió la sincronización del láser con la diferencia de frecuencia entre las ondas de materia que acabamos de ver. El punto principal es que todas las frecuencias implicadas estaban referenciadas solamente a las ondas de materia.
Según Müller cualquier otro reloj necesita, al menos dos partículas que interacciones, pero este reloj de Compton está basado enteramente en sólo una partícula con masa, porque, en principio, se podría construir un reloj de este tipo con sólo un átomo.
Cuando se pregunta a Müller sobre lo que es el tiempo responde: “no creo que nadie pueda nunca tener una respuesta definitiva, pero conocemos un poco más acerca de sus propiedades. El tiempo es físico tan pronto como hay una partícula con masa, pero es definitivamente algo que no necesita de más de una partícula con masa para existir. Sabemos que una partícula sin masa, como un fotón, no es suficiente.”
Si con una sola partícula con masa se puede construir un reloj entonces el tiempo existía durante los primeros instantes del Big Bang, porque, al menos había bosones de Higgs.
Müller espera que pueda usar esta misma técnica con partículas más pequeñas, tal vez con electrones o incluso positrones en el caso de que se quiera construir un reloj de antimateria. Tiene esperanzas que incluso un día se pueda saber que hora es usando un reloj basado en las fluctuaciones del vacío.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4006
Fuentes y referencias:
Nota de prensa.
Artículo original.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

miércoles, 9 de enero de 2013

La química del fin del mundo

Fuente: Física en la ciencia ficción 
Autor:
La química no entiende de ética, ni de moral; no es buena ni tampoco mala. La química es química. Si se emplea adecuadamente puede contribuir a mejorar la calidad de las vidas de muchas personas; en cambio, cuando se hace un mal uso de ella, las consecuencias pueden ser desastrosas.
Las reacciones químicas gobiernan y controlan prácticamente la totalidad de los procesos biológicos que conocemos. Pero, en ocasiones, esas mismas reacciones se pueden tornar mortales para los seres vivos y terminar con ellos para siempre. Ha ocurrido varias veces en la historia de la Tierra y podría volver a suceder. La química podría provocar el fin del mundo.
Vivimos en un mundo poblado por más de siete mil millones de seres humanos y hay que alimentarlos a todos. La riqueza está desigualmente repartida y las diferencias llegan a ser sonrojantes en muchos casos. Las necesidades, cada vez mayores, del mundo "desarrollado", en cuanto a materia prima, alimentos y tecnología hacen que la sobreexplotación de los recursos llegue a extremos intolerables y peligrosos. En este sentido, por citar tan sólo un ejemplo, el empleo de fertilizantes para el crecimiento de los cultivos. Estos productos contienen cantidades importantes de nitrógeno y fósforo. Si no se tiene el cuidado adecuado, estos elementos pueden ir a parar al agua de los ríos o mares, provocando efectos indeseables.
Otro caso similar son los pesticidas empleados en la agricultura o la ganadería para acabar con plagas o parásitos molestos. Algunos de ellos, como los neonicotinoides, han sido relacionados con las desapariciones masivas de abejas y abejorros. Productos como el imidacloprid, prohibido en Francia en la década de 1990, o la clotianidina en Alemania en 2008, han sido relacionados con la muerte de ingentes cantidades de insectos polinizadores.
Desde la década de los años 50 del siglo pasado, cuando se detectó por vez primera la caída en las poblaciones de abejas y abejorros en Gran Bretaña, se han producido reducciones de hasta el 96% en algunas especies y otras se han extinguido para siempre. Algunas sustancias químicas presentes en los pesticidas producen daños irreversibles en los cerebros de las abejas, bloqueando la transmisión de las señales eléctricas y químicas entre las neuronas.
La desaparición de los insectos encargados de la polinización constituye un problema muy serio, pues de ellos depende, en gran parte, un porcentaje no pequeño de la economía mundial de las frutas, verduras, el café, la soja o el algodón, por ejemplo.
Ante una situación tan alarmante, la solución adoptada por muchos granjeros ha consistido en comenzar a emplear a las abejas melíferas en la labor de polinización, lo cual ha provocado una sobreexplotación de estos animales, con la consiguiente aparición de parásitos y enfermedades. Recientemente, se está experimentando con la abeja azul del huerto, una especie de abeja que no vive en colmenas y cuyo rendimiento puede llegar a ser hasta 50 veces superior al de la abeja melífera.
Como os contaba un poco más arriba, el empleo incontrolado e irresponsable de fertilizantes puede conducir a la contaminación de las aguas. Se contribuye así a la proliferación de algas que, al morir, son metabolizadas por microbios que consumen oxígeno en el proceso, obligando a peces y mamíferos a abandonar las "zonas muertas" que se generan. Cuando las plantas que viven en estos lugares no son consumidas por los animales que han huido, mueren y van a parar al fondo, descomponiéndose y liberando cantidades importantes de sulfuro de hidrógeno, además de otros gases.
Precisamente, procesos como los descritos en el párrafo anterior tuvieron lugar, con consecuencias catastróficas, hace unos 90 millones de años, cuando una inusual actividad volcánica en nuestro planeta provocó que las temperaturas reinantes fuesen inusualmente elevadas debido a las ingentes emisiones de dióxido de carbono, gas que produce un importante efecto invernadero. Dicho aumento de la temperatura hace que menos oxígeno se disuelva en el agua del océano, contribuyendo aún más a la anoxia de las aguas.
Los volcanes habían sembrado el océano superior con grandes cantidades de metales, lo que condujo, a su vez, a un aumento desmesurado en la producción de fitoplancton. Al descomponerse la materia orgánica, el uso de oxígeno se elevó en consecuencia.
Normalmente, en los océanos el nivel de oxígeno es similar en las aguas superficiales y en el fondo, ya que las corrientes lo arrastran hacia abajo. Los paleogeólogos han averiguado, gracias al registro fósil, que hacia finales del Pérmico tuvieron lugar extinciones masivas, tanto en el mar como en tierra firme. Por un lado, en los sedimentos marinos se han hallado evidentes pruebas de la existencia de bacterias que consumían sulfuro de hidrógeno. Por otro, se sabe que estos organismos solamente viven y proliferan en ambientes pobres en oxígeno, por lo que seguramente debió de existir una enorme carestía de este gas en la superficie del océano y la consecuente riqueza en sulfuro de hidrógeno.
Cuando el H2S producido en el fondo asciende y se encuentra con el oxígeno en una zona denominada quimioclina, se produce una situación muy favorable para las bacterias verdes y púrpuras del azufre, las cuales disfrutan, por una parte, del sulfuro de hidrógeno que llega de abajo y, por otra, de la luz solar que incide desde arriba. Si por las razones aducidas antes el oxígeno comienza a escasear entonces las bacterias pasan a tomar el control, empiezan a producir H2S en exceso y la quimioclina se desplaza cada vez más a aguas superficiales. El gas, tóxico tanto para las plantas como los animales, se libera a la atmósfera, envenenándolos a todos ellos y dañando, asimismo, la capa de ozono. En la actualidad, se han catalogado más de 400 "zonas muertas" anóxicas por todo el mundo, la mayor de ellas en el mar Báltico.
Sin embargo, el peligro potencial provocado por las erupciones volcánicas no termina aquí. En efecto, a lo largo de la historia de nuestro planeta han tenido lugar eventos de este tipo de una especial violencia conocidos como supervolcanes. Estos fenómenos son capaces de expulsar miles de millones de toneladas de material rocoso, lava y cenizas. El último tuvo lugar hace unos 75.000 años, cuando el lago Toba, en Sumatra, voló prácticamente por los aires. Un evento así probablemente cubriría extensas zonas continentales con una capa de escombros de varios centímetros de espesor, arruinando todas las cosechas, contaminando el agua potable. Los flujos piroclásticos, a más de 1000 ºC arrasarían cuanto encontrasen a su paso a casi 700 km/h. Los gases liberados a la atmósfera, principalmente dióxido de azufre, dióxido de carbono y cloro, bloquearían la luz solar. El primero de ellos, además, reaccionaría con el vapor de agua, dando lugar a ácido sulfúrico que permanecería en la estratosfera en forma de aerosol durante años, con el consiguiente descenso drástico de la temperatura global del planeta, pudiendo desencadenar una nueva glaciación.
A decir verdad, glaciaciones particularmente extremas, conocidas como eventos bola de nieve, han acaecido en varias ocasiones. Se cree que la primera tuvo lugar cuando la Tierra tenía tan sólo la mitad de su edad actual, hace unos 2.200 millones de años; en cambio, la última sucedió hace 700 millones de años, cuando nuestro planeta estaba ocupado por el supercontinente Rodinia y la luz que recibía del Sol era un 6% menor que ahora.
Rodinia comenzó a fracturarse a causa del aumento inusual de la actividad volcánica provocada por el movimiento del magma. Al quedar en contacto con el agua del océano una mayor superficie de tierra, las regiones húmedas se multiplicaron considerablemente. Las precipitaciones aumentaron de forma desmesurada, haciendo que la lluvia absorbiera ingentes cantidades de CO2 transformándose en ácido carbónico. Cuando éste cayó al suelo, provocó reacciones químicas que terminaron con las rocas, creando suelo nuevo mediante un proceso denominado meteorización de los silicatos.
El dióxido de carbono es un gas con un papel esencial en el efecto invernadero de nuestro planeta. Mientras desaparecía a pasos agigantados engullido por el agua de las incesantes lluvias que caían sobre la superficie de la tierra, las temperaturas empezaron a descender de forma alarmante, hasta alcanzarse varias decenas de grados por debajo de cero, incluso en los trópicos. Comenzó a proliferar el hielo y la radiación procedente del Sol escapaba al espacio en un proceso de autoalimentación cada vez más acusado. Tuvieron que ser, una vez más, los volcanes, los que devolviesen a la Tierra a un estado más cálido al ir liberando continuamente más y más dióxido de carbono que ya no era eliminado por la lluvia, pues el planeta entero se hallaba cubierto de hielo. Al aumentar de nuevo la temperatura global, el hielo se fundió rápidamente y se evaporaron inmensas cantidades de agua que contribuyeron, más aún, al efecto invernadero desbocado. El agua muy caliente de los océanos tuvo que provocar, necesariamente, huracanes de proporciones épicas.
Normalmente, el aire que se encuentra sobre el agua del océano no está en equilibrio térmico con ella. De esta manera, se produce una evaporación que se lleva consigo el calor recibido del Sol. Es sobre estas aguas que se están formando continuamente tormentas. Cuando los vientos sobrepasan los 119 km/h reciben el nombre de huracanes (también tifones o ciclones, dependiendo de la región del mundo donde se trate).
El aire cálido y húmedo de la superficie del mar alimenta al huracán, ascendiendo en su parte central, lo que contribuye a reforzar el área de bajas presiones y que favorece la entrada de más cantidad de aire desde las regiones circundantes de altas presiones.
Las simulaciones por ordenador parecen demostrar que si un área con una extensión no superior a 50 km2 experimentase un inusual incremento de la temperatura (por ejemplo, después de un evento bola de nieve), por encima de 45-50 ºC, se podría generar una supertormenta, un hipercán, con vientos superiores a los 1.000 km/h. El ojo de este monstruo abarcaría cientos de kilómetros de diámetro y la tormenta se extendería a lo largo de miles, cubriendo incluso la superficie de un continente. Semejante fenómeno atmosférico, aunque altamente improbable en las condiciones actuales de nuestro mundo, podría desencadenarse a causa del impacto de un asteroide en el mar o la erupción de un volcán submarino gigante.
El hipercán arrastraría hasta la estratosfera varios kilogramos de agua por segundo. Al cabo de unas pocas semanas, el aire estaría tan saturado de agua que se formarían nubes extremadamente altas que reducirían considerablemente la cantidad de radiación solar incidente sobre la superficie de la Tierra. Las moléculas de H2O se descompondrían en enormes cantidades de radicales libres altamente reactivos. Las gotas de agua de las nubes harían de catalizadores en nuevas reacciones químicas que activarían, por ejemplo, el cloro presente en el agua salada del mar, y desactivarían los óxidos de nitrógeno. Todo ello haría la destrucción del ozono cada vez más eficaz.
El ozono es un gas formado por moléculas constituidas por tres átomos de oxígeno, en lugar de los dos habituales, que se encuentra mayormente en la estratosfera, a una altura por encima de la superficie de la Tierra de entre 10-15 km. Su papel es evitar la llegada al suelo de los nocivos rayos ultravioletas procedentes del Sol.
La radiación ultravioleta se suele clasificar en tres categorías: A, B y C, de menos a más nociva para la vida. La última de ellas es absorbida completamente por las moléculas de ozono; la segunda parcialmente, lo cual es deseable, ya que a pesar de sus efectos perniciosos, también resulta esencial para que el cuerpo humano produzca vitamina D, básica en el buen desarrollo y salud de los sistemas óseo y nervioso. Si la radiación ultravioleta rompe los enlaces que mantienen unidas las moléculas de ADN pueden llegar a aparecer errores en la replicación, dando lugar a tumores cancerígenos.
En la década de 1970 se detectó un agujero en la capa de ozono que rodea nuestro planeta. Las razones pronto quedaron claras: el empleo continuado durante años de gases conocidos como CFC (clorofluorocarbonos) presentes en los extintores, los aparatos frigoríficos o de aire acondicionado, esprays, etc. Estos compuestos presentan una considerable estabilidad química que les hace llegar prácticamente inalterados a la estratosfera. Una vez allí, los fotones ultravioletas del Sol liberan el cloro de las moléculas del CFC, que es el que ataca al ozono, rompiendo los enlaces de sus moléculas.
Aunque, finalmente, en el año 1987 la firma del Protocolo de Montreal, suscrito por casi 200 países, acordó eliminar de forma progresiva el uso de los clorofluorocarbonos e ir sustituyéndolos por otros gases menos nocivos como los HCFC (hidroclorofluorocarbonos) o los HFC (hidrofluorocarbonos), lo cierto es que el peligro recae ahora en otros compuestos como pueden ser los iones hidroxilo y, especialmente, el óxido nitroso o N2O, un subproducto de la agricultura y otros procesos industriales y muy utilizado en odontología (como anestésico, conocido como "gas de la risa").
Pero los problemas con los óxidos de nitrógeno no terminan aquí. Un día cualquiera podríamos levantarnos, asomarnos a la ventana, y observar un cielo inusualmente oscuro y respirar un aire terriblemente tóxico. En el improbable caso de que sobreviviésemos quizá nos enterásemos de que una estrella enormemente masiva y relativamente lejana, no más allá de unos 6.000 años-luz, había sido la responsable.
Cuando una de estas estrellas termina su vida de consumo de combustible nuclear desbocado, colapsa provocando una explosión de una violencia inimaginable conocida como hipernova, probablemente el fenómeno más energético conocido del universo. Durante el evento, lo que queda de la estrella emite dos gigantescos destellos de rayos gamma de altísima frecuencia en direcciones opuestas y que se pueden prolongar durante varios minutos, emitiendo tanta energía como el Sol a lo largo de toda su existencia.
Si uno de estos haces, conocidos por los astrofísicos como GRB (gamma ray burst), apuntase de forma casual directamente hacia nuestro planeta, los fotones arrancarían literalmente los electrones de los átomos presentes en la atmósfera terrestre, ionizándolos. Las moléculas de oxígeno y nitrógeno se dividirían dando lugar a la formación de NO (óxido nítrico) y del temible dióxido de nitrógeno, NO2, el veneno con el que nos despedimos del mundo, tal y como una vez lo conocimos...
Fuente:
50 maneras de destruir el mundo. Alok Jha. Ariel. 2012.



NOTA:

Este post participa en la XX Edición del Carnaval de Química, cuyo anfitrión, en esta ocasión, es el blog La Ciencia de Amara.