martes, 31 de mayo de 2011

Sobre la vida el universo y todo lo demás. Entendiendo la evolución

Fuente: Ciencia invasiva

Aquellos que trabajamos y nos movemos en un ambiente muy especializado muchas veces olvidamos que el resto del mundo no tiene porqué saber cosas que para ti resultan de uso cotidiano.
Un tema que a muchos biólogos nos crispa bastante es el negacionismo de la evolución, o peor la tersgiversación de la misma. No entender ciertas partes de esta teoría puede hacernos caer en conclusiones equivocadas. Entre estas, una de las más comunes utilizar la teoría de la evolución para decir que esta tiene una dirección y que la vida tiene un sentido.
Es posible que a muchos os resulte duro pensar que la vida no tiene sentido, que no hay un gran objetivo por el que habéis nacido. La libertad tiende a asustar. Pero vallamos, como siempre, paso a paso.
Una de los típicos errores es pensar que la evolución sirve para adaptarnos al ambiente. Que nosotros nos adaptamos al ambiente de manera dirigida o voluntaria. La evolución únicamente implica cambio, nada más. Ni a mejor ni a peor, solo cambio. Cuando miramos hacia atrás, vemos que parece haber una direccionalidad. Si partimos por ejemplo de algo parecido a un pez, pasamos por algo similar aun anfibio, luego un reptil y acabamos en un pájaro podemos decir, “mira, ha ido cambiando del pez al pajaro”. Sin embargo esta afirmación no es correcta, no del todo.
Una de las típicas representaciones de los procesos evolutivos son los cladogramas. Si vemos la la imagen superior, es posible pensar que los organismos van evolucionando con un sentido. Vemos que partimos de un ancestro común y van derivando. Esta, en realidad, es una representación simplificada que nos ayuda a los biólogos a entender las relaciones evolutivas entre diferentes especies. Nótese que he dicho representación simplificada. ¿Cómo sería entonces el árbol completo? Pues bien, más o menos así:
El razonamiento que sigue mucha gente para decir que la evolución es dirigida es que obvia todos los organismos que no sobreviven o no tienen descendencia.
Otra interpretación errónea es pensar que los organismos nos vamos volviendo más complejos con la evolución. Y por si esto fuese poco, nos ponemos nosotros como estandarte del éxito evolutivo y de la máxima complejidad. Todo ello es erróneo. Vamos uno a uno.
En cuanto a la complejidad, un ejemplo evidente es el de los parásitos. Muchos parásitos pierden a lo largo de su evolución ciertas características que les permiten obtener bienes que pueden obtener del huésped. ¿Lo hacen de manera dirigida? Es evidente que no, mantener características innecesarias es un gasto energético vacío que les hace encontrarse en desventaja respecto a aquellos que las hayan perdido y puedan invertir esa energía en procesos que les permitan, por ejemplo, tener una mayor tasa de reproducción. ¿Se han adaptado entonces los parasitos a su huésped? No, no se han adaptado, algunos, de manera aleatoria estarán más adaptados y por lo tanto tendrán más posibilidades de dejar descendencia.
En cuanto al éxito evolutivo. ¿Qué es el éxito evolutivo? Podemos entender el éxito evolutivo como estar tan bien adaptado a un medio que se sigan seleccionando las mismas características que ya posee una especie. Por otro lado, podemos considerar el éxito evolutivo como expansión y número de organismos en el mundo. En ambos casos salimos perdiendo. Nuestra especie es realmente nueva, si nos comparamos por ejemplo con los quelonios somos unos benjamines. Ahora diréis, “y sin embargo mira, ¡qué éxito en que poco tiempo! Vivimos al rededor de todo el mundo, ¡Somos más de seis mil millones de personas!” Eso es… muy poco depende con quien nos comparemos, puedes tener más bacterias creciendo en un cultivo de laboratorio que personas en el mundo. No ganamos ni en número ni en biomasa ni en adaptación… ¿Y qué hay de la complejidad? Nuevamente perdemos. Antiguamente pensábamos que la complejidad de un organismo era proporcional al número de genes y/o longitud del genoma. Si esto es así mientras que los humanos tenemos unos 25.000 genes y nuestro genoma está compuesto por unas 3×10^9 pares de bases, la ameba… Bueno, dicen que una imagen vale más que mil palabras. Aquí tenéis el tamaño del genoma de diferentes organismos comparados en función del tamaño con el que se representan:
Otros argumentaran que somos más evolucionados porque somos más inteligentes. Porque nuestro sistema nervioso “X” porque la autoconciencia “Y”… Esto vuelve a ser una interpretación errónea de la teoría de la evolución. El hecho de que tengamos la inteligencia que tenemos es una estrategia que nos permite sobrevivir y continuarnos como especie, otros organismos utilizan por ejemplo una vida media corta y una altísima tasa de división y logran lo mismo: continuarse en el tiempo.
Entonces… ¿El objetivo de la evolución es el de continuar con la vida en la tierra? Nuevamente no. La evolución solamente implica cambio, y la mayoría de cambios son incompatibles con la vida. Entonces… ¿Por qué esa necesidad de los organismos a aferrarse a la vida? ¿Por qué queremos seguir vivos? Simplemente por el hecho de que todos aquellos que no tienen ese instinto no sobreviven y por lo tanto los obviamos a la hora de echar la vista atrás en el desarrollo de las especies (recordad los cladogramas de antes).
De esta manera vemos que la evolución no tiene un sentido (dirección) y que el sentido de la vida no existe. ¿Duro? Puede. Si no os gusta siempre podéis pensar que es 42. Al fin y al cabo, esa teoría tiene la misma validez que muchas otras, ejem ejem…

Resonancia magnética nuclear sin imanes

Fuente: Ciencia Kanija

Artículo publicado por Paul Preuss el 17 de mayo de 2011 en la web del Laboratorio Berkeley
Científicos de materiales y físicos del Laboratorio Berkeley contribuyen a un notable avance en la RMN.
La resonancia magnética nuclear (RMN), una técnica científica asociada con enormes imanes superconductores a temperatura muy baja, es una de las herramientas principales en el arsenal químico, usado para estudiar todo, desde alcoholes a proteínas pasando las fronteras de la computación cuántica. En los hospitales la máquina prima de la RMN, la imagen por resonancia magnética (IRM), es tan ruidosa como grande, pero no obstante es uno de los pilares de diagnóstico para una gran variedad de condiciones médicas.
RMN

Suena a magia, pero ahora, dos grupos de científicos del Laboratorio Berkeley y la UC Berkeley, uno experto en químico y el otro en física atómica, trabajando juntos como un equipo multidisciplinar, han demostrado que los análisis químicos con RMN son prácticos sin usar imanes.
Dmitry Budker de la División de Ciencia Nuclear del Laboratorio Berkeley, profesor de física en la UC Berkeley, es experimentador de proteínas que lidera un grupo con intereses muy dispares que varían desde pruebas sobre teoremas fundamentales de la mecánica cuántica, biomagnetismo en plantas, y violaciones básicas de las relaciones de simetría en los núcleos atómicos. Alex Pines, de la División de Ciencias de los Materiales del Laboratorio y del Departamento de Química de la UCB, es al amo de la RMN y la IRM. Lidera el trabajo de un talentoso y cambiando grupo de postdocs  y estudiantes graduados conocidos como los “Pinenuts” – no sólo haciendo investigación básica sobre la RMN sino incrementando sus aplicaciones prácticas. Juntos, los grupos han extendido el alcance de la RMN eliminando el uso de campos magnéticos en distintas etapas de las medidas de RMN, y finalmente han logrado librarse por completo de los campos magnéticos externos.
Girando la información
La RMN y la IRM dependen del hecho de que muchos núcleos atómicos poseen espín (no la rotación clásica, sino un número cuántico) y – como Tierras en miniatura con polos magnéticos norte y sur – tienen sus propios campos magnéticos dipolares. En la RMN convencional estos núcleos se alinean gracias a un potente campo magnético externo, y luego se les saca de su eje con un estallido de ondas de radio. La tasa a la que cada tipo de núcleo “bambolea” (precesiona) es único e identifica al elemento; por ejemplo un núcleo de hidrógeno-1, un protón aislado, precesiona cuatro veces más rápido que un núcleo de carbono-13 que tiene seis protones y siete neutrones.
Ser capaz de detectar estas señales depende, antes de nada, de ser capaz de detectar el espín neto; si la muestra tuviese igual número de núcleos con espín “up” que “down”, tendría polarización cero, y las señales se cancelarían. Pero dado que la orientación “up” del espín requiere menos energía, normalmente una población de núcleos atómicos normalmente tiene un ligero exceso de espín “up”, apenas unos pocos entre un millón.
“La creencia convencional mantiene que tratar de hacer una RMN en un campo magnético débil o cero es una mala idea”, dice Budker, “debido a que la polarización es minúscula y la capacidad de detectar señales es proporcional a la fuerza del campo aplicado”.
Las líneas de un espectro típico de RMN revelan más cosas que simplemente elementos distintos. Los electrones cerca del núcleo en precesión alteran sus frecuencias de precesión y provocan un “desplazamiento químico” – moviendo la señal o dividiéndola en líneas distintas en el espectro RMN. Éste es el principal objetivo de la RMN convencional, debido a que los desplazamientos químicos apuntan a especies químicas particulares; por ejemplo, incluso cuando dos hidrocarburos contienen el mismo número de átomos de hidrógeno, carbono y otros átomos, sus señales difieren notablemente de acuerdo a cómo se ordenan los átomos. Pero sin un potente campo magnético, los desplazamientos químicos son insignificantes.
“El campo bajo o cero en RMN empieza con tres golpes en contra: pequeña polarización, baja eficiencia en la detección, y ninguna señal de desplazamiento químico”, dice Budker.
“Entonces, ¿por qué hacerla?”, se pregunta Micah Ledbetter del grupo de Budker. En una pregunta retórica. “Lo principal es librarse de los grandes y caros imanes necesarios para la RMN convencional. Si puedes lograrlo, puedes hacer una RMN portátil y reducir los costes, incluyendo los costes de operación. La esperanza es ser capaces de hacer análisis químicos en el campo – bajo el agua, agujeros excavados, en globos – y tal vez incluso diagnósticos médicos, lejos de los centros médicos bien equipados.
“Cuando esto suceda”, dice Budker, “ya hay métodos para superar la baja polarización y eficiencia en la detección, las primeras dos objeciones a la RMN de campo bajo o cero. Uniendo estos dos métodos, podemos abordar la tercera objeción – no desplazamiento químico – también. La RMN de campo cero puede que no sea una idea tan mala después de todo”.
La orientación neta del espín puede incrementarse de varias formas, conocidas colectivamente como hiperpolarización. Una forma de hiperpolarizar una muestra de gas de hidrógeno es cambiar las proporciones de parahidrógeno y ortohidrógeno dentro del mismo. Como en la mayoría de gases, a temperatura y presión normales, cada molécula de hidrógeno consiste en dos átomos unidos entre sí. Si el espín de los núcleos de protones apunta en el mismo sentido, es ortohidrógeno. Si el espín apunta en sentidos contrarios, es parahidrógeno.
Usando las matemáticas de la mecánica cuántica, sumando los estados de espín de los dos protones y dos electrones en una molécula de hidrógeno se iguala las tres formas que tiene el ortohidrógeno de alcanzar el espín uno; sin embargo, el parahidrógeno sólo puede tener espín cero. Por tanto, las moléculas de ortohidrógeno normalmente cuentan con tres cuartas partes del gas de hidrógeno y el parahidrógeno sólo un cuarto.
El parahidrógeno puede aumentarse a un 50 por ciento o incluso al 100 por ciento usando temperaturas muy bajas, aunque debe añadirse el catalizador adecuado o la conversión podría necesitar días o semanas. Entonces, la reacción química de las moléculas de parahidrógeno con espín cero con un compuesto químico inicial, la polarización neta del producto de la hidrogenación puede terminar altamente polarizado. Esta hiperpolarización puede extenderse no sólo a partes de la molécula que reaccionan directamente con el hidrógeno, sino incluso a los lugares más recónditos de las grandes moléculas. Los Pinenuts, que idearon muchas de las técnicas, son los maestros de la producción de parahidrógeno y su química de hiperpolarización.
“Con una alta proporción de parahidrógeno, logras un enorme grado de polarización”, dice Ledbetter. “El problema está en que es espín cero. No tiene un momento magnético, ¡por lo que no te da una señal! Pero no está todo perdido…”
Y ahora, algo de magia
En campos magnéticos pequeños, el incremento de la eficiencia en la detección requiere una aproximación muy distinta, usando detectores llamadas magnetómetros. En los primeros experimentos de campo pequeño, se usaron magnetómetros conocidos como SQUID (dispositivos superconductores de interferencia cuántica). Aunque exquisitamente sensibles, los SQUID, como los grandes imanes usados en la RMN de campos grandes, deben enfriarse criogénicamente a temperaturas muy bajas.
Los magnetómetros óptico-atómicos están basados en un principio distinto – uno que, curiosamente, es similar a una RMN invertida, excepto que los magnetómetros óptico-atómicos miden todo el átomo no sólo el núcleo. Aquí, se mide un campo magnético externo midiendo el espín de los átomos dentro de la propia célula de vapor del magnetómetro, normalmente un tenue gas de un metal alcalino como el potasio o rubidio. Su espín se ve influido por la polarización de los átomos con luz láser; si hubiese incluso un débil campo externo, empezarían a precesionar. Un segundo haz láser estudia cuánto precesionan y de esta forma calcula cómo de potente es el campo externo.
El grupo de Budker ha llevado a la magnetometría óptico-atómica a un nuevo nivel mediante técnicas como extender el “tiempo de relajación”, el tiempo antes del que el vapor polarizado pierda su polarización. En colaboraciones anteriores, los grupos de Pines y Budker han usado magnetómetros con RMN e IMR para fotografiar el flujo de agua usando sólo el campo magnético de la Tierra, o ningún campo en absoluto, para detectar gas xenón hiperpolarizado (pero sin analizar estados químicos), y otras aplicaciones. La siguiente frontera es el análisis químico.
“No importa cómo de sensible sea tu detector o cómo de polarizadas estén tus muestras, no puedes detectar desplazamiento químicos en un campo cero”, dice Budker. “Pero siempre hay otra señal en una RMN que puede usarse para los análisis químicos –  sólo que normalmente es demasiado débil en comparación con los desplazamientos químicos, y por esto ha sido el hermano pobre en la familia de la RMN. Es el conocido como acoplamiento-J”.
Descubierto en 1950 por el pionero en la RMN Erwin Hahn y su estudiante graduado, Donald Maxwell, el acoplamiento J proporciona una ruta de interacción entre dos protones (u otros núcleos con espín), el cual está mediado por sus electrones asociados. Las frecuencias que son firma de estas interacciones, que aparecen en el espectro RMN, pueden usarse para determinar el ángulo de los enlaces químicos y las distancias entre los núcleos.
“Incluso puedes decir cuántos enlaces separan los dos espines”, dice Ledbetter. “El acoplamiento-J revela toda esa información”.
La señal resultante es altamente específica e indica qué especies químicas se están observando. Además, como Hahn observó inmediatamente, aunque la señal puede modificarse mediante campos magnéticos externos, no se desvanece en su ausencia.
Con Ledbetter a la cabeza, la colaboración Budker/Pines construyó un magnetómetro específicamente diseñado para detectar el acoplamiento-J en un campo magnético cero. Thomas Theis, estudiante graduado del grupo de Pines, suministró el parahidrógeno y la experiencia química para aprovechar la polarización inducida por el parahidrógeno. Empezando con estireno, un hidrocarburo simple, midieron el acoplamiento-J en una serie de derivados de hidrocarburos incluyendo el hexano y hexeno, fenilpropano y dimetil maleato, importantes constituyentes de plásticos, derivados del petróleo e incluso perfumes.
“El primer paso es introducir el parahidrógeno”, dice Budker. “La parte alta de la configuración es un tubo de ensayo que contiene la solución de muestra, con un tubo hasta el fondo a través del cual pasa el parahidrógeno”. En el caso de estireno, el parahidrógeno se usó para producir etilbenceno, una ordenación específica de ocho átomos de carbono y 10 átomos de hidrógeno.
Inmediatamente bajo el tubo de ensayo se sitúa la célula de vapor alcalina del magnetómetro, un dispositivo menor que una uña de la maño, microfabricado por Svenja Knappe y John Kitching del Instituto Nacional de Estándares y Tecnología (NIST). La célula de vapor, que se sitúa en la parte alta del calentador, contiene gas de rubidio y nitrógeno a través del cual lanzan haces láser de sondeo que se cruzan en ángulos rectos. El mecanismo está rodeado por cilindros de “metal mu”, una aleación de níquel-hierro que actúa como escudo contra los campos magnéticos externos, incluyendo el de la Tierra.
Las medidas de Ledbetter produjeron señales en el espectro que identificaron inequívocamente las especies químicas y exactamente dónde habían sido llevados los protones polarizados. Cuando el estireno se hidrogena para formar etilbenceno, por ejemplo, dos átomos de una molécula de parahidrógeno se ligan a distintos átomos de carbono-13 (un isótopo escaso pero natural cuyo núcleo tiene espín, al contrario que el más abundante carbono-12).
Las señales de acoplamiento-J son completamente distintas para moléculas que en otros aspectos sin idénticas en las que los átomos de carbono-13 residen en distintas posiciones. Todo esto se ve directamente en los resultados. “Cuando Micah entra en el laboratorio, el acoplamiento-J es el rey”, dice Budker.
De los actuales magnetómetros del tamaño de una pelota de fútbol, Ledbetter comenta que, “Estamos trabajando en una versión mucho menor del magnetómetro que será más fácil de transportar al campo”.
Aunque los experimentos hasta la fecha se han realizado sobre moléculas que son fácilmente hidrogenadas, las hiperpolarización con parahidrógeno puede también extenderse a otros tipos de moléculas. Budker comenta que: “Apenas estamos al inicio del desarrollo de una RMN de campo cero, y aún es demasiado pronto para decir lo bien que podrá competir con las RMN de campo grande. Pero ya hemos demostrado que podemos lograr espectros claros y muy específicos, con un dispositivo que tiene el potencial de realizar análisis químicos portátiles a bajo coste”.

Autor: Paul Preuss
Fecha Original: 17 de mayo de 2011
Enlace Original

lunes, 30 de mayo de 2011

Menu clásico en el lanzador de Unity

Fuente: NovatillaSku


Mucha gente, no acaba de acostumbrarse a Unity precisamente por que le gustaba la antigua forma de acceder a sus cosas en Ubuntu, pero tampoco quieren usar el escritorio clásico, por que le gustan otras muchas cosas de Unity.
Pues hoy les traigo un remedio genial.Añadir el menú clásico al lanzador de Unity gracias a Cardapio.Para que os hagais una idea, queda así:




Para conseguirlo seguimos los siguientes pasos:
1.-Abrimos una terminal y añadimos la PPA, actualizamos e instalamos Cardapio:
sudo add-apt-repository ppa:cardapio-team/unstable
sudo apt-get update
sudo apt-get install cardapio
2.-Desde consola tecleamos:
sudo nautilus
Cuando se nos abre la ventana de nautilus, vamos a nuestro Home.Damos en “Ver”/”Mostrar archivos ocultos” y seguimos la ruta .local/share/applications.
Una vez allí, con el derecho del ratón elegimos crear nuevo documento y le pegamos el siguiente texto:
[Desktop Entry]
Version=1.0
Type=Application
Terminal=false
Exec=cardapio
Name=menu
Icon=gnome-main-menu

Lo guardamos como cardapio.desktop y después lo arrastramos a la parte superior del lanzador (bueno, lo puedes colocar donde quieras..)

3.-Si pulsas en el icono, verás que la ventana se abre en medio del escritorio, en lugar de quedar pegada al lanzador.Si quieres que se mantenga pegada, abre el Administrador de Opciones de Compiz (ccsm) y abre “Colocar Ventanas”





En la pestaña “Fijar Posicionamiento de las ventanas”, pulsa “Nuevo” en “Ventanas con Posiciones fijas”.
Y le pones los siguientes datos:
Ventanas Posicionadas: name=cardapio
Posiciones X: 2.083
Posiciones Y: 1.326
Y marca la casilla: Mantener en el área de trabajo.
Los valores que he colocado son los que se adaptan a como a mi me gusta, puedes jugar con ellos hasta ver como te cuadra a ti.





Fuente: Ubuntu Sharing

Neuromagic: ilusionistas y neurocientíficos

Fuente: Museo de la ciencia
 
 
Entrada ya publicada en Psicoteca.
Hace no mucho se ha celebrado el primer congreso que ha unido por un lado a ilusionistas y por otro a neurocientíficos: Neuromagic. ¿Para qué? Para estudiar nuestro cerebro, o mejor dicho, cómo se le engaña a nuestro cerebro. Un colaborador de Amazings ha asistido por lo visto al evento y está escribiendo una serie de entradas muy interesantes que no podía dejar de enlazar aquí.

Por un lado tenemos esta entrada, con un vídeo muy ilustrativo, que sirve para hacerse uno la idea de lo que ha sido el congreso.

Por otra, Aberrón ha escrito esta otra entrada hablando de alguna de las cosas que aprendieron en el evento. Muy interesante la verdad. Si vuelven a publicar algo editaré esta entrada para añadir la información.

Aquí podemos ver un vídeo...

Identifican un "nuevo" brazo en la Vía Láctea

Fuente: Noticias del cosmos

Más allá del primer cuadrante galáctico, en el Brazo Exterior, han identificado un nuevo brazo que sería la continuación del Brazo de Escudo-Centauro.



Es posible ver fantásticas fotografías de galaxias espirales, algunas muy similares a la nuestra, como la vecina Andrómeda, pero tener la misma visión de la galaxia que nos cobija es un poco más difícil.
Al igual que si tratáramos de saber cómo lucimos sin la ayuda de un espejo, los astrónomos intentan describir la Vía Láctea sin poder verla desde afuera.
Pero una nueva estructura, a 70.000 años luz (21 kpc) de distancia del Sol, parece haber sido descubierta por astrónomos del Centro de Astrofísica Harvard-Smithsonian.
Thomas Dame y Patrick Thaddeus dan cuenta de su hallazgo en un trabajo a publicarse en ApJ Letters.

Los investigadores pueden crear mapas de las estructuras más alejadas de la galaxia usando radiotelescopios para identificar las firmas espectrales de átomos o moléculas específicas. Lo que los astrofísicos de CfA hicieron fue rastrear el conocido brazo de Escudo-Centauro que debería extenderse hacia el lado más alejado de la galaxia. En los sondeos telescópicos que escanearon la galaxia en busca de emisión de microondas de átomos de hidrógenos aparecía algo. Pero con tanto hidrógeno resultaba difícil identificar estructuras.


Vía LácteaEsquema de la estructura de los brazos de la Vía Láctea. La línea roja concuerda con la detección señalada por los astrofísicos de CfA.


Así que este par de investigadores buscó el monóxido de carbono que también parece ser un rastreador confiable de la clase de nubes de gas molecular que forma estrellas. Encontrar nubes a lo largo del supuesto brazo verificaría que lo detectado hasta ahora es una pieza genuina de la estructura de la galaxia. Y lo descubierto son nubes moleculares a lo largo del brazo, una de las cuales ha sido mapeada en detalle. Se trata de una nube de 300 años luz de diámetro (47 pc), con la masa de 50.000 soles. La localización del brazo concuerda con la extensión del Brazo principal, del otro lado del centro galáctico.

Tiene sentido que el Brazo de Escudo-Centauro (o Cruz-Centauro) continúe hacia donde se halla esta nueva estructura. Semejante extensión preservaría la simetría general de la galaxia. El Brazo de Perseo, una suerte de imagen espejada del Brazo de Escudo-Centauro se arquea alrededor de la galaxia de la misma forma que el brazo de Escudo-Centauro hacía en el sentido opuesto.

Así que no es inesperado el hallazgo, ya que se suponía que tenía que estar allí. Pero ver es creer.



Diagrama de velocidad-longitud de CO del primer y cuatro cuadrantes Galácticos (en color) con el nuevo brazo rastreado en la emisión de 21 centímetros superpuesta en blanco y negro. La abscisa corresponde a longitud galáctica y la ordenada a la velocidad en km/s. Crédito:Dame, Thaddeus


Fuentes y links relacionados




Sobre las imágenes


Racionalidad y moralidad

Fuente: Historias de la ciencia
Publicado el 29 de mayo de 2011 en Opinión por omalaled
Tiempo aproximado de lectura: 9 minutos y 50 segundos
Este artículo se ha visitado: 337veces
Gary Marcus, profesor de psicología de la Universidad de Baltimore, afirma que la especie humana no es obra de un diseñador inteligente y compasivo. Si así fuera, afirma, nuestro pensamiento sería racional, y nuestra lógica, impecable. Para explicarlo, cita unos cuantos ejemplos en que nuestro cerebro no actúa de la mejor forma posible o, si lo hace, es de forma ambivalente; da respuestas, pero no sabe por qué. Vamos con algunas de esas historias.

En un antiguo experimento llevado a cabo por el psicólogo Peter Watson, se presentó a una serie de sujetos una secuencia de tres números: 2-4-6 y se les preguntó qué podría haber generado esa serie. Luego les pidió que generaran nuevas secuencias y acto seguido les confirmaba si dichas nuevas secuencias se ajustaban a la regla. La mayoría respondía con 4-6-8 y 8-10-12 para volver a recibir la secuencia afirmativa. Entonces, el sujeto llegaba a la conclusión de que la regla era algo así como “secuencias de tres números pares de sumando dos cada vez”.
Sin embargo, lo que la mayoría de las personas no hicieron buscar preguntas que “desconfirmaran” la regla potencial. Por ejemplo, pocos preguntaron si 1-3-5 o 1-3-4 eran secuencias válidas. Por consiguiente, casi nadie logró averiguar la regla verdadera: “cualquier secuencia de tres números en orden ascendente”.
Así que una de las características de nuestro cerebro es que siempre busca pruebas para verificar que lo que creemos es verdadero, y no para rebatirlo. Es por ello que es tan difícil hacer ver a alguien que tiene una creencia que puede estar equivocado.
Para ver hasta qué punto es partícipe nuestra cultura en la irracionalidad basta con sustituir la palabra “Dios” por los nombres de nuestras divinidades del Olimpo preferidas cada vez que aparece aquella en un discurso público. Imaginemos al presidente Bush diciendo en su alocución durante el Desayuno Nacional de la Oración: Detrás de toda vida y toda historia existe una dedicación y un objetivo, fijados por la mano de un Zeus justo y fiel. Imaginen que en su discurso al congreso (20 de septiembre de 2001) hubiese dicho la siguiente frase: La libertad y el miedo, la justicia y la crueldad, siempre han estado en guerra, y sabemos que Apolo no tiene una postura neutral al respecto.
La religión en particular posee una influencia tan poderosa porque la gente quiere que sea verdad; entre otras cosas, la religión crea la impresión de que el mundo es justo y de que los esfuerzos tendrán su recompensa.
Habría que plantearse si los seres humanos somos racionales en un sentido lógico formal, o aprendemos a serlo. Si bien todos los seres normales adquirimos el lenguaje, la capacidad de emplear la lógica formal es algo que la evolución ha hecho posible, pero que no ha garantizado. El psicólogo Alexander Luria viajó a los montes de Asia Central a finales de los 1930 y pidió a la población indígena que se planteara la lógica siguiente:
“En cierto pueblo de Siberia todos los osos son blancos. Tu vecino fue a ese pueblo y vio un oso. ¿De qué color era el oso?”. La respuesta típica de los encuestados fue: “¿Y cómo voy a saberlo? ¿Por qué no va usted mismo a preguntárselo a mi vecino?”.
Supongan que se gastan 100 dólares en un billete para un fin de semana en una estación de esquí de Michigan. Varias semanas después compran un billete por valor de 50 dólares para un fin de semana en otra estación de esquí, esta vez en Wisconsin, que, pese a ser más barato, creen que se lo pasarán mejor. Y de pronto, justo cuando guardan en la cartera el billete recién adquirido para el fin de semana en Wisconsin, se dan cuenta de que han metido la pata: ¡los dos viajes son para el mismo fin de semana! Y es demasiado tarde para cambiar cualquiera de los dos. ¿Qué viaje elegirían? Más de la mitad de los sujetos de experimentación contestaron que elegirían Michigan (el más caro), aun sabiendo que se divertirían más en Wisconsin. Una vez gastado el dinero de los dos viajes (y siendo este irrecuperable), esa opción no tiene sentido; una persona le sacaría más provecho (satisfacción) al viaje a Wisconsin sin el menor gasto añadido, pero el temor humano al “derroche” consigue convencer a nuestra mente para que se decante por el viaje menos satisfactorio. A una escala global, este mismo tipo de dudoso razonamiento puede traer enormes consecuencias. Incluso se sabe de presidentes que se han aferrado a determinadas políticas mucho después de que fuera obvio para toso el mundo, menos para ellos, que dichas políticas no eran eficaces.
Nuestro cerebro puede actuar diferente ante un problema en función ya no del problema en sí, sino de cómo nos lo plantean.
Imaginemos que el país se prepara para un brote de una enfermedad poco común, que prevé que acabe con la vida de 600 personas. Se han propuesto dos programas alternativos para combatir la enfermedad. Supongamos que los cálculos científicos exactos de dichos programas son los siguientes:
Si se adopta el programa A, se salvarán 200 personas.
Si se adopta el programa B, existe un tercio de probabilidades de que se salven 600 personas y dos tercios de que no se salve nadie.
La mayoría de la gente elegiría el programa A, para no poner la vida de todos en peligro. Pero las preferencias de las personas dan un vuelco si se plantean de la siguiente manera:
Si se adopta el programa A, morirán 400 personas.
Si se adopta el programa B, existe un tercio de probabilidades de que no muera nadie y dos tercios de que mueran 600 personas.
Por alguna razón,”salvar 200 vidas” de 600 parece una buena idea, mientras que “dejar morir a 400”, de las mismas 600, parece una mala opción, pese a que representan exactamente el mismo resultado. Sólo se ha cambiado la forma de expresar la pregunta. Es lo que los psicólogos llaman encuadre.
Los políticos y publicistas se aprovechan constantemente de nuestra sensibilidad al encuadre. Un “impuesto de defunción” suena mucho más amenazador que un “impuesto de sucesiones”, y una comunidad de la que se dice que tiene un índice de delincuencia del 3,7% es mucho más probable que reciba recursos que otra de la que se dice que está exenta de delincuencia en un 96,3%.
La inercia evolutiva ha hecho una contribución significativa a la ocasional irracionalidad del ser humano: calibramos para esperar cierto grado de incertidumbre que está en gran medida (y por fortuna) ausente en nuestra vida moderna. Hasta fechas muy recientes, nuestros antepasados no podían contar con el éxito de la cosecha del año siguiente, y sin duda más valía pájaro en mano que ciento o incluso doscientos volando. A falta de frigoríficos, conservantes y tiendas de alimentación, la simple supervivencia era mucho menos segura que hoy en día; según las palabras inmortales de Thomas Hobbes, la vida era desagradable, brutal y breve.
Como consecuencia de ello, la evolución fue seleccionando de manera predominante a favor de las criaturas que vivían esencialmente el momento. Eso incluye todas las especies que se han estudiado alguna vez.
Todos sabemos que un ser humano se atiborra de patatas fritas mientras espera a que llegue la cena. Esto, por supuesto, afecta a todos los animales, pero la diferencia entre nosotros y el resto de animales es que, tal y como un animal no se arrepiente lo más mínimo, nosotros somos capaces de arrepentirnos de comer una bolsa de palomitas apenas unas horas después de hacerlo. Y mucho antes.
Nuestra extrema preferencia por el presente a costa del futuro tendría sentido si nuestra expectativa de vida fuese mucho más corta, o si el mundo fuese mucho menos predecible (como le ocurría a nuestros antepasados); pero en los países donde las cuentas corrientes están garantizadas por las autoridades y las tiendas de alimentación son reabastecidas sin problemas, la importancia que le damos al presente es muy contraproducente. Como resume el investigador Howard Rachlin:
En general, llevar una vida sana durante, pongamos por caso, un período de diez años es intrínsecamente satisfactorio. Durante un periodo de diez años, prácticamente todos preferiríamos llevar una vida sana a vivir apoltronados en el sofá. Sin embargo, también preferimos (más o menos) tomar esta copa a no tomarla, comer este helado de chocolate a renunciar a él, fumar este cigarrillo a no fumarlo, ver este programa de TV a pasarse media hora haciendo ejercicio, etc.
Y cuando hablamos de tomar decisiones morales, nuestra torpeza es todavía más manifiesta.
Supongamos que un tranvía descontrolado está a punto de atropellar y matar a cinco personas. Usted (y nadie más que usted) tiene la posibilidad de pulsar un botón para accionar el cambio de vías y que el tranvía circule por raíles distintos, donde mataría solo a una persona en lugar de cinco. ¿Pulsaría el botón?
Y ahora supongamos que está en un puente peatonal, justo por encima de la vía por donde pasa el tranvía descontrolado. Esta vez, para salvar a las cinco personas, sería necesario empujar a una persona un tanto corpulenta (considerablemente más grande que usted, así que no se moleste en ofrecerse como voluntario) desde lo alto del puente sobre la vía del tranvía que se está acercando, La persona corpulenta en cuestión, si usted la tira del puente, morirá, pero su “sacrificio” permitiría que sobrevivieran las otras cinco. ¿Estaría bien eso?
Aunque la mayoría de las personas contestarían que sí al dilema del botón, también la mayoría se negarían a empujar a alguien desde lo alto de un puente, a pesar de que en los dos casos tuvienen el mismo resultado: se salvan cinco personas al precio de una.
¿A qué se debe la diferencia? Nadie lo sabe con certeza, pero en parte se explica porque, según parece, en la segunda situación interviene algo más visceral; una cosa es accionar un botón, que es inanimado y en cierto modo está alejado de la colisión real, y otra muy distinta enviar a alguien por la fuerza a una muerte segura.
Otro ejemplo histórico de cómo inciden los sentimientos viscerales en la elección moral es la tregua no oficial pactada entre soldados británicos y alemanes durante la Navidad de 1914, a principios de la Primera Guerra Mundial. La intención original era reanudar los combates después, pero durante la tregua, los soldados salieron de sus trincheras y se conocieron; algunos incluso compartieron comida de Navidad. Al hacerlo, dejaron de conceptualizarse mutuamente como enemigos para verse como individuos de carne y hueso. La consecuencia fue que, después de la tregua navideña, los soldados ya no fueron capaces de luchar entre ellos. Ya lo apuntó el ex presidente de los EEUU, Jimmy Carter, en su discurso de aceptación del Premio Nobel de la Paz de 2002:
Para que los seres humanos nos impliquemos personalmente en la inhumanidad de la guerra, antes nos es necesario deshumanizar a nuestros rivales.
Ambas situaciones, tanto la del tranvía como la de la tregua de Navidad nos recuerdan que si bien nuestras elecciones morales pueden parecer fruto de un único proceso de razonamiento deliberativo, nuestras vísceras al final pueden desempeñar un importante papel, ya sea en algo prosaico, como comprar un coche nuevo, o bien cuando tomamos decisiones en las que hay vidas en juego. Ambos escenarios nos muestran también cómo podemos obtener dos respuestas distintas a lo que es en esencia la misma pregunta.
El psicólogo Jonathan Haidt ha intentado dar un paso más allá, aduciendo que podemos tener poderosas intuiciones morales incluso cuando somos incapaces de respaldarlas con razones explícitas. Veamos la siguiente situación:
Julie y Mark son hermanos. Se van de viaje juntos a Francia en sus vacaciones de verano al final del curso universitario. Una noche se quedan solos en una cabaña cerca de la playa. Deciden que sería interesante y divertido si intentasen hacer el amor. Como mínimo, sería una experiencia nueva para ambos. Aunque Julie ya tomaba anticonceptivos, Mark utiliza, además, un preservativo, para mayor seguridad. Los dos disfrutan haciendo el amor, pero deciden no repetirlo más. Conservan el recuerdo de esa noche como un secreto especial, lo que les hace sentirse aún más unidos. ¿Qué les parece esto? ¿Está bien que hayan hecho el amor?
Haidt explicaba:
La mayoría de las personas que oyen esta historia afirman inmediatamente que estuvo mal que los hermanos hicieran el amor, y acto seguido empiezan a buscar razones. Señalan los peligros de la endogamia, pero enseguida se acuerdan de que Julie y Mark emplearon dos métodos anticonceptivos. Sostienen que Julie y Mark sufrirán las consecuencias de su acción, quizá emocionalmente, pese a que la historia deja claro que no les ha quedado el menor trauma. Al final, muchas personas acaban diciendo algo así: “No sé, no puedo explicarlo; sencillamente sé que está mal”.
A este fenómeno en el que tenemos la certeza de que algo está mal pero somos incapaces de explicar por qué, Haidt lo llama “perplejidad moral”.
Y es que quizás, la moral no sea tan universal como pensamos. Ya lo apuntaba Immanuel Kant:
La moral no es un reflejo de unos valores existentes fuera del sujeto. Esa moral no está en dios, ni en la causa primera o sustancia universal. La moral es un acto que surge de la conciencia individual del ser humano.
Fuentes:
Gary Marcus, Kluge: la azarosa construcción de la mente humana
http://asimov2007.blogspot.com/2011/05/la-moral.html

¡Diviértete con el Sistema Solar en 3D!

Fuente: Gravedad cero

23 mayo 2011

Gracias al blog Resnickscity, acabo de descubrir Solar System Scope, un simulador 3D de nuestro Sistema Solar… ¡que permite hacer maravillas con nuestros planetas vecinos!
Tal como explica Resnickcity, “el sitio web de Solar System Scope funciona perfectamente en Google Chrome 11, Firefox 4 e incluso con Internet Explorer 9. Los usuarios de Linux no tendrán ningún problema, excepto que quizás les pida un complemento para reproducir Flash”.
Sin más, ir a Solar System Scope… ¡y probarlo!

viernes, 27 de mayo de 2011

GNU/Linux en tu navegador.

Ni mas ni menos que la emulación de un procesador 486 mediante Javascript y ejecutando Linux.
http://bellard.org/jslinux/

La energía oscura existe

Fuente: El Lobo Rayado

Hace un par de días apareció en las columnas de opinión del periódico Sydney Morning Herald un comentario que sostenía que para qué se está invirtiendo tanto en Ciencia si no nos está llevando muy lejos, dado que las portadas de las tres últimas ediciones de la revista New Scientist versaban claramente sobre la incapacidad de los científicos para entender el Universo. En efecto, estas tres portadas se titulaban La Mitad del Universo se desconoce (23 de abril), Límites del conocimiento: hay cosas que nunca entenderemos (7 de mayo) y El gran espejismo: todo lo que piensas es una ilusión (14 de mayo). En estos momentos, me gustaría recordar a Sócrates con su famosísima máxima Sólo sé que no se nada. Y es que conforme más intentamos conocer, más nos damos cuenta de todo lo que hay por ahí fuera que aún desconocemos.

La materia oscura y la energía oscura

En Astrofísica, afortunadamente, aún desconocemos muchas, muchísimas cosas. Recuerdo que es la única Ciencia en la que no se pueden hacer experimentos, sino que todos los resultados astrofísicos son el resultado de la observación astronómica junto con teorías físicas que intentan demostrar su validez a partir de los datos observacionales. Además de lo que os contaba ayer sobre cómo son los planetas en un contexto Galáctico, otro de los puntos calientes de la Astrofísica (y la Ciencia) actual es conocer la composición de nuestro Universo. Como seguro sabéis, pero siempre es bueno recordar, la materia que nos compone a nosotros, a los planetas y a las estrellas (la materia bariónica) es sólo el 4% de toda la materia del Universo. La misteriosa materia oscura, de la que no tenemos aún NI LA MÁS REMOTA IDEA de lo que es (sí, hay teorías, pero nada aún demostrado), compone el 22% del Universo. El 73% restante es una cosa también desconocida que se ha bautizado como Energía Oscura. Lo explicaban muy bien en este cómic animado de PhD-Comics (en inglés).

¿Pero, existen realmente la materia oscura y la energía oscura? Ambas entran dentro de las teorías cosmológicas aceptadas actualmente sobre la formación y evolución del Universo (modelos de formación jerarquizados con materia oscura fría y constante cosmológica, ΔCDM). Y vamos recogiendo más pruebas y pruebas de que, por el momento, esta teoría es la que mejor reproduce las observaciones del Universo profundo.



Diagrama que muestra dos formas de medir la velocidad con la que se expande el Universo. A la izquierda, el uso de "candelas estándares", que involucra el estudio de explosiones de supernova del tipo Ia, y con el que se descubrió la expansión acelerada del Universo. A la derecha, el uso de la "regla estándar", que supone la medida de la distancia entre parejas de galaxias. Crédito de la imagen: Equipo WiggleZ, NASA/JPL-Caltech, Barnaby Norris, Emily Wisnioski, Sarah Brough, Michael Drinkwater, David Woods.


La última investigación científica que proporciona no una sino dos pruebas independientes sobre la existencia de la energía oscura la ha realizado un grupo de astrofísicos australianos usando tanto el El Telescopio Anglo-Australiano (sí, justamente con la cámara 2dF/AAOmega que os explicaba el mes pasado en el documental sobre el AAT) como datos en ultravioleta del satélite GALEX (NASA). Las notas de prensa han aparecido simultáneamente en todos lados, desde el propio Australian Astronomical Observatory a la página de GALEX, pasando por NASA y las universidades australianas de Swinburne (Melbourne) y Queensland (Brisbane). Y hoy inundan todos los servidores de noticias astronómicos, incluso desbancando la noticia de la existencia de planetas flotando libremente por la Galaxia. Así que aquí va un explicación en castellano de qué es lo que se ha hecho en esta investigación.



El grupo musical infantil The Wiggles en acción, de donde proviene el nombre del cartografiado WiggleZ.
Crédito de la imagen: Anthony Arambula, Wikipedia.


El Cartografiado WiggleZ

The Wiggles es un famosísimo grupo australiano musical para niños, podría traducirse como los que se menean, o se contonean o se curvan. Como digo es muy muy famoso en Australia y, dado que los astrónomos somos muy niños muchas veces, se decidió llamar WiggleZ a un cartografiado profundo que mapea la posición tridimensional de casi 240 000 galaxias hasta una distancia de 8 000 millones de años luz usando el instrumento 2dF/AAOmega en el Telescopio Anglo-Australiano (AAT). La Z del final del nombre viene por la designación científica de redshift o desplazamiento al rojo, que se abrevia con z (minúscula y en cursiva). 8000 millones de años luz de distancia (edad del Universo de 5700 millones de años) corresponden a un z de 1 aproximadamente. Como z se define como velocidad a la que vemos se aleja una galaxia con respecto a la velocidad de la luz (z=v/c), un redshift de 1 indica que las galaxias a esa distancia parece que se alejan de nosotros a la velocidad de la luz, como consecuencia de la expansión del Universo.

El cartografiado WiggleZ ha usado 276 noches de observación en el AAT entre 2006 y 2011 para conseguir los espectros de 238 770 galaxias sobre un área concreta del cielo. Estas galaxias se seleccionaron usando datos ópticos y datos el ultravioleta del satélite GALEX, para de esa forma asegurarse que las galaxias observadas tenían cierta formación estelar, siendo así (gracias a la identificación de las líneas de emisión del gas nebular, como Hα, [O III] λ5007 o [O II]λ3727) más fácil estimar la distancia real a cada objeto. El objetivo final del cartografiado WiggleZ es, en efecto, demostrar la existencia de la energía oscura mediante mediciones precisas de cómo se menea, contenea o curva (=Wiggle) el Universo. Por supuesto, la ingente cantidad de datos obtenida con este cartografiado va a servir para muchas cosas más, como poner límites a la masa del neutrino, probar modelos de gravedad modificada, u observar galaxias starburst muy lejanas. En efecto, con todos esos espectros se ha elaborado una base de datos que consta de casi 200 000 galaxias con medidas útiles de distancia.

WiggleZ ha sido coordinado por los profesores Warrick Couch (Swinburne University of Technology, Melbourne) y Michael Drinkwater (University of Queensland). El análisis de los resultados ha sido coordinado por Chris Blake (Swinburne), mientras que las operaciones en el AAT se dirigían por el mismísimo director del Australian Astronomical Observatory, el profesor Matthew Colless (AAO, Sydney).




Imagen seleccionada en la Nota de Prensa con la confirmación de la existencia de la energía oscura proporcionada por el cartografiado WiggleZ, que usa datos tanto del Telescopio Anglo-Australiano (Observatorio de Siding Spring, Australia) como del satélite GALEX (NASA). En esta representación, la energía oscura (que se representa por la malla violeta) es una fuerza constante y uniforme que impregna todo el espacio, dominando sobre los efectos de la gravedad (malla verde). Las observaciones de WiggleZ han servido para medir la distancia típica entre parejas de galaxias (se muestran los ejemplos de las imágenes de GALEX de M 81 y M 33 a derecha e izquierda, respectivamente) en un intervalo de unos 5500 millones de años para medir las oscilaciones acústicas de bariones. Crédito de la imagen: NASA/JPL-Caltech.


¿Cómo se distribuyen las galaxias? Oscilaciones Acústicas de Bariones

La energía oscura se descubrió a finales del milenio pasado al encontrarse que el Universo se expandía más rápidamente de lo que se esperaba por su propia gravedad. Fueron las medidas a supernovas (del tipo Ia) a distancias cosmológicas, que sirven de unidades patrón al tener siempre la misma luminosidad en su máximo (*), las que dieron la voz de alarma sobre la extraña expansión del Universo e introdujeron el concepto de energía oscura para explicar este fenómeno: algo que se opone completamente a la fuerza de la gravedad está estirando el espacio.

Uno de los métodos más fiables para probar la existencia de la energía oscura está basado en cómo se distribuyen las galaxias en el espacio. Las parejas de galaxias tienen cierta preferencia a encontrarse separadas por una distancia en concreto. Esta distancia preferencial es consecuencia por ondas de presión (ondas sonoras) en el universo temprano (pocos cientos de miles de años de edad) y caliente. Al irse expandiendo el espacio, estas ondas acústicas se quedaron congeladas en la estructura a gran escala del Univeso, haciendo que existiesen zonas más densas de materia (más galaxias) y zonas menos densas (pocas galaxias). Esto lo observamos en la radiación cósmica de fondo, que muestra claramente cómo la materia tiende a agruparse a distancias concretas. Pero al expandirse el Universo estas estructuras se expanden con él, creando unas Oscilaciones Acústicas de Bariones (Baryon Acoustic Oscillations en inglés). Lo que los científicos de WiggleZ han hecho es medir esta distancia cuando el Universo tenía unos 8000 millones de años de edad (ahora tiene 13700 millones de años de edad). Los resultados obtenidos están muy de acuerdo con los modelos cosmológicos que incorporan un 73% de energía oscura con un 27% de materia (4% bariónica, el resto materia oscura).

Esta investigación está publicada en el siguiente artículo científico:

The WiggleZ Dark Energy Survey: testing the cosmological model with baryon acoustic oscillations at z = 0.6.Chris Blake, Tamara Davis, Gregory B. Poole et al [26 authors]. Monthly Notices of the Royal Astronomical Society, in press. Online en http://arxiv.org/abs/1105.2862.



Diagrama explicando la evolución del Universo. En esta ilustración, el tiempo pasa desde la parte superior (donde vemos la radiación cósmica de fondo) a la parte inferior (galaxias del Universo Local). Los círculos sobre la radiación cósmica de fondo indican dos fuentes de ondas de presión en el Universo primitivo, que se propagan como ondas sobre un lago en calma. Las galaxias tienden a colocarse en el centro y en los bordes de estas círculos, siendo la distancia preferencial el radio de la circunferencia, que se indica con una barra. Crédito de la imagen: Image: Sam Moorefield, Swinburne University.


El crecimiento de los cúmulos y los supercúmulos

El segundo método que WiggleZ ha explorado de forma independiente para caracterizar la energía oscura es medir el ritmo de crecimiento de los cúmulos y los supercúmulos de galaxias. En principio, ambos tipos de super estructuras se formarían por acción de la gravedad que sienten entre sí todas las galaxias que los integran. Sin embargo, como la energía oscura juega en contra de la gravedad, afectaría enormemente al ritmo de crecimiento de los cúmulos y supercúmulos, ralentizando su formación.

En realidad, la distancia que se determina a las galaxias por el análisis de los espectros, en el que se mide el desplazamiento Doppler de las líneas espectrales, no es únicamente consecuencia de la expansión del Universo, sino que también tiene una parte (pequeña) que viene del movimiento propio de la galaxia dentro del cúmulo o supercúmulo en el que se encuentre. Una vez establecida la verdadera distancia a un cúmulo, es posible diferenciar, para cada galaxia, ambas componentes. Con ello, se puede determinar el ritmo de crecimiento de los cúmulos y supercúmulo. Lo que el equipo de WiggleZ ha hecho en este caso es tomar 4 momentos en la evolución del Universo entre el momento actual hasta cuando el Universo tenía unos 6500 millones de años de edad. Y, de nuevo, los mejores modelos cosmológicos que reproducen las observaciones (recordamos: de cerca de 200 000 galaxias) son aquellos que tienen en cuenta la energía oscura en las proporciones antes indicadas.

Esta investigación está publicada en el siguiente artículo científico:

The WiggleZ Dark Energy Survey: the growth rate of cosmic structure since redshift z = 0.9. Chris Blake, Sarah Brough, Matthew Colless et al [25 authors]. Monthly Notices of the Royal Astronomical Society, in press. Online en http://arxiv.org/abs/1104.2948.


En conclusión

El cartografiado WiggleZ, liderado completamente por astrofísicos australianos, y en el que se ha medido la distancia a más de 200 000 galaxias usando la cámara 2dF/AAOmega en el Telescopio Anglo-Australiano (AAT), ha podido demostrar de dos formas completamente independientes que la energía oscura realmente existe, y que los modelos cosmológicos actualmente aceptados sobre formación jerarquizada de galaxias con materia oscura fría y constante cosmológica son los que mejor reproducen las observaciones actuales.


Al César lo que es del César

Para finalizar, dejo una aclaración importante, y no es autobombo: el verdadero instrumento protagonista sin el que esta investigación no se hubiese podido realizar es 2dF/AAOmega en el telescopio AAT, puesto que son los espectros ópticos los que han permitido calcular la distancia a las galaxias. Las notas de prensa de GALEX y NASA, por supuesto, tiran para el otro lado (gracias a los datos proporcionados por el satélite GALEX de NASA bla bla bla.... Pero esta investigación podía haberse también sin necesidad de los datos en ultravioleta de GALEX. Y que quede constancia que GALEX es uno de mis satélites de NASA preferidos (uso continuamente sus datos). Como puntualiza el director del AAO en la nota de prensa de esta investigación, 2dF/AAOmega es uno de los mejores instrumentos del mundo para realizar estos cartografiados profundos de galaxias. Y más proyectos están en camino gracias a este instrumento. Pero eso ya lo cuento otro día.

Más información en las notas de prensa (en inglés) de:

- Australian Astronomical Observatory,
- Swinburne University
- Satélite GALEX (NASA),
- JPL/NASA


(*) Ojo con esto, quizás no es del todo cierto puesto que el brillo de una supernova parece depender del contenido químico de la estrella que explota, que obviamente es muy diferente entre una estrella de ahora y una estrella pobre en metales en el Universo temprano. Este asunto se está investigando seriamente en la actualidad por varios grupos especializados.

Redondeando el electrón

Fuente: Ciencia Kanija
 Artículo publicado por Edwin Cartlidge el 25 de mayo de 2011 en Nature News
Los físicos dan un paso más en la búsqueda de la deformidad predicha para la partícula – y esperan resolver el misterio de la antimateria por el camino.
Esto es precisión en la medida: El electrón es una esfera perfecta, más o menos una parte en un billón.
El resultado procede del último experimento en una larga lista para estudiar la forma de la partícula fundamental que porta la carga eléctrica. “Si imaginas un electrón que se infla hasta el tamaño del Sistema Solar, entonces es esférico hasta la anchura de un cabello humano”, dice el físico Edward Hinds del Imperial College de Londres, que lideró el equipo responsable de la minúscula medida.
Electrón

Pero esto es más que una búsqueda de la precisión. Muchos físicos están intentando calcular si el electrón está realmente aplastado, como predicen algunas teorías. Si la deformidad está ahí, posteriores refinamientos de la técnica que realizó la última medida deberían captar dicha deformidad en la próxima década. El descubrimiento demostraría que el tiempo es fundamentalmente asimétrico, y podría disparar una revisión del ‘modelo estándar’ de la física de partículas.
Aunque el electrón se ha considerado tradicionalmente como un punto infinitesimal con carga, en realidad arrastra a su alrededor una nube de partículas virtuales. Esta flotilla de partículas aparecen y desaparecen, y contribuyen a la masa y volumen del electrón. Todos los experimentos hasta el momento han revelado que esta nube es perfectamente esférica, pero las hipotéticas partículas virtuales predichas por las extensiones del modelo estándar harían que la nube de abultase ligeramente a lo largo del eje de giro del electrón. Este abultamiento hace que un lado del electrón sea ligeramente más negativo que el otro, creando un dipolo eléctrico similar a los polos norte y sur de una barra magnética.
Los físicos defienden que esperaríamos ver este dipolo eléctrico en un universo que esté abrumadoramente dominado por la materia. Aunque se cree que se crearon iguales cantidades de materia y antimateria en el Big Bang, casi no vemos antimateria en el universo actual. Esta asimetría no sólo implica un favoritismo cósmico por la materia, sino que también sugiere que la física no siempre trabaja de la misma forma cuando el tiempo retrocede que cuando avanza.
Sé bueno, rebobina
Las pruebas de esta asimetría podrían encontrarse mostrando una película hacia atrás de un electrón giratorio ligeramente aplastado. Aunque el sentido del dipolo eléctrico permanecería sin cambios, el dipolo magnético alrededor del electrón – que depende del sentido de su giro – cambiaría al sentido contrario.
El último estudio, publicado hoy en Nature1, buscó el efecto de esta asimetría en los giros de los electrones expuestos a potentes campos eléctricos y magnéticos – pero no encontró nada. Es más, los investigadores dicen que cualquier desviación de una redondez perfecta en los electrones deme medir menos de una milmillonésima de milmillonésima de milmillonésima de centímetro de diámetro.
Medidas similares habían usado anteriormente haces de átomos que pasan a través de campos magnéticos y eléctricos. Pero Hinds y sus colegas usaron moléculas en lugar de estos, las cuales pueden ser más sensibles a los campos. Usando un haz de pulsos de fluoruro de iterbio, fueron capaces de mejorar la mejor sensibilidad lograda anteriormente – conseguida en 2002 por Eugene Commins y sus colegas de la Universidad de California en Berkeley, que usaron átomos de talio2 – en un factor de aproximadamente 1,5.
Mejorar continuamente
Hinds reconoce que incrementando el número de moléculas por pulso y reduciendo su velocidad, su grupo sería capaz de aumentar la sensibilidad de la medida en un factor de diez “en los próximos años”, y, finalmente, en un factor de 100. Esto sería más que suficiente para detectar los efectos de distorsión de la mayor parte de modificaciones del modelo estándar, y demostraría de estar forma la existencia de nuevas partículas muy masivas. No descubrirlo, por el contrario, enviaría a los teóricos de nuevo a la pizarra.
“Podríamos descartar casi con seguridad todas las actuales teorías si bajamos hasta un factor de 100 y no vemos nada”, dice. “Pero los teóricos son muy creativos y probablemente aparecerían con modelos en los que el momento del dipolo eléctrico es menor”.
Commins está de acuerdo en que el último trabajo abre la puerta a grandes descubrimientos. “En el medio siglo que llevamos desde que empezaron tales experimentos, ésta es la primera vez que se ha logrado el mejor límite superior sobre el dipolo eléctrico usando moléculas”, comenta. “Dado que las moléculas ofrecen una sensibilidad mucho mayor que los átomos, es sólo cuestión de tiempo que el límite se mejore en gran medida”.
David DeMille de la Universidad de Yale en New Haven, Connecticut, que fue coautor del artículo de 20022 junto a Commins y está llevando a cabo experimentos moleculares por sí mismo usando monóxido de torio, está de acuerdo. “A la vista de esto, la mejora real en precisión en el último trabajo es bastante pequeña”, señala. “No obstante, su artículo representa el primero de lo que muchos en el campo creen que será una nueva ola de mejoras potencialmente mucho mayores, debido a los nuevos métodos experimentales que se han desarrollado”.

Referencias:
1.- Hudson, J. J. et al. Nature 473, 493-496 (2011).
2.- Regan, B. C., Commins, E. D., Schmidt, C. J. and DeMille, D. Phys. Rev. Lett. 88, 071805 (2002).

Autor: Edwin Cartlidge
Fecha Original: 25 de mayo de 2011
Enlace Original

Telescopio de la NASA ayuda a confirmar la naturaleza de la energía oscura

Fuente: Ciencia Kanija

 Artículo publicado por Withney Clavin y Trent Perrotto el 19 de mayo de 2011 en NASA.
Un estudio de 5 años sobre 200 000 galaxias, extendiéndose a lo largo de 7000 millones de años en el tiempo cósmico, ha llevado a una de las mejores confirmaciones independientes de que la energía oscura está separando nuestro universo a velocidades aceleradas. El estudio usó datos procedentes del Explorador de Evolución Galáctica de la NASA y el Telescopio Anglo-Australiano en Spring Mountain en Australia.
Los hallazgos ofrecen un nuevo apoyo a la teoría preferida de cómo funciona la energía oscura – como una fuerza constante, afectando de manera uniforme al universo y propulsando su expansión acelerada. Contradice una teoría alternativa, donde la gravedad, no la energía oscura, es la fuerza que separa el espacio. De acuerdo con esta teoría alternativa, que no es consistente con los resultados del nuevo estudio, la idea de Albert Einstein de la gravedad es incorrecta, y se hace repulsiva en lugar de atractiva cuando actúa a grandes distancias.
Energía oscura

“La acción de la energía oscura es como si lanzaras una pelota al aire, y siguiera acelerando hacia arriba, cada vez más rápido”, dice Chris Blake de la Universidad Tecnológica de Swinburne en Melbourne, Australia. Blake es el autor principal de dos artículos que describen los resultados que aparecieron en recientes ejemplares de la revista Monthly Notices of the Royal Astronomical Society. “Los resultados nos dicen que la energía oscura es una constante cosmológica, como propuso Einstein. Si la gravedad fuese el culpable, entonces no veríamos estos efectos constantes de la energía oscura a través del tiempo”.
La energía oscura se cree que domina nuestro universo, formando aproximadamente el 74 por ciento del mismo. La materia oscura, una sustancia apenas menos misteriosa, cuenta con el 22 por ciento. La conocida como materia normal, cualquier cosa con átomos, o la materia que crea todas las criaturas vivas, planetas y estrellas, es sólo aproximadamente el 4 por ciento del cosmos.
La idea de la energía oscura se propuso durante la pasada década, basándose en estudios de las estrellas lejanas en explosión conocidas como supernovas. Las supernovas emiten una luz constante y medible, haciéndolas “candelas estándar”, que permiten el cálculo de su distancia a la Tierra. Las observaciones revelaron que la energía oscura estaba separando los objetos a velocidades aceleradas.
La energía oscura está en un tira y afloja con la gravedad. En los inicios del universo, la gravedad tomó la iniciativa, dominando sobre la energía oscura. Unos 8000 millones de años tras el Big Bang, cuando el espacio se expandía y la materia se diluía, las atracciones gravitatorias se debilitaban y la energía oscura lograba ponerse en cabeza. Dentro de miles de millones de años, la energía oscura será incluso más dominante. Los astrónomos predicen que nuestro universo será un páramo cósmico, con galaxias tan separadas que cualquier ser inteligente que viva dentro de ellas no sería capaz de ver otras galaxias.
El nuevo estudio proporciona dos métodos distintos para chequear de forma independiente los resultados de supernovas. Ésta es la primera vez que los astrónomos realizaron estos chequeos a lo largo de todo el tiempo cósmico dominado por la energía oscura. El equipo empezó ensamblando los mayores mapas tridimensionales de galaxias del universo lejano, observadas por el Explorador de Evolución Galáctica. El telescopio ultravioleta ha barrido tres cuartas partes del cielo, observando cientos de millones de galaxias.
“El Explorador de Evolución Galáctica ayudó a identificar galaxias jóvenes y brillantes, que son ideales para este tipo de estudio”, dice Christopher Martin, investigador principal de la misión en el Instituto Tecnológico de California en Pasadena. “Proporcionó el andamiaje para este enorme mapa en 3-D”.
Los astrónomos adquirieron información detallada sobre la luz de cada galaxia usando el Telescopio Anglo-Australiano y estudiaron el patrón de distancia entre ellas. Las ondas de sonido de los mismos inicios del universo dejaron huellas en el patrón de galaxias, provocando que pares de galaxias se separen aproximadamente 500 millones de años luz.
Esta “regla estándar” se usó para determinar la distancia desde los pares de galaxias a la Tierra – cuanto más cerca está un par de galaxias a nosotros, más alejadas entre sí nos parecerán en el cielo. Como con los estudios de supernovas, estos datos de distancia se combinaron con información sobre la velocidad a la que los pares se alejan de nosotros, revelando, de nuevo, que el tejido del espacio se estira cada vez más rápidamente.
El equipo también usó el mapa galáctico para estudiar cómo los cúmulos de galaxias crecen con el paso del tiempo como ciudades, finalmente conteniendo muchos miles de galaxias. Los cúmulos atraen nuevas galaxias a través de la gravedad, pero la energía oscura tira de los cúmulos separándolos. Esto frena el proceso, permitiendo a los científicos medir la fuerza repulsiva de la energía oscura.
“Las observaciones realizadas por los astrónomos a lo largo de los últimos 15 años han producido uno de los descubrimientos más asombrosos de la ciencia física; la expansión del universo, disparada por el Big Bang, está acelerando”, dice Jon Morse, director de la división de astrofísica de las Oficinas Centrales de la NASA en Washington. “Usando métodos completamente independientes, los datos del Explorador de Evolución Galáctica han ayudado a incrementar nuestra confianza en la existencia de la energía oscura”.

Autor: Whitney Clavin / Trent Perrotto
Fecha Original: 19 de mayo de 2011
Enlace Original

jueves, 26 de mayo de 2011

Según los físicos, multiverso = muchos mundos

Fuente: Ciencia Kanija 

Artículo publicado el 23 de mayo de 2011 en The Physics ArXiv Blog.
Dos de las ideas más extravagantes de la física moderna son distintas caras de la misma moneda, dicen los teóricos de cuerdas.
La interpretación de muchos mundos de la mecánica cuántica es la idea de que todas las posibles historias alternativas del universo existen en realidad. En cada punto del tiempo, el universo se divide en una multitud de existencias en la cual cada posible salida de un proceso cuántico sucede en realidad.
Multiverso por In My Imagination

Por lo que en este universo estás sentado frente a tu ordenador leyendo este artículo, en otro estás leyendo un artículo diferente, y en otro estás a punto de ser atropellado por un camión. En muchos, ni siquiera existes.
Esto implica que hay un número infinito de universos, o al menos un número muy grande de ellos.
Esto es extraño, pero es un pequeño precio a pagar, dicen los físicos cuánticos, por la cordura que la interpretación de muchos mundos tiene sobre otras alocadas nociones de la mecánica cuántica. La razón de que a muchos físicos les guste la idea de muchos mundos es que explica todas las extrañas paradojas de la mecánica cuántica.
Por ejemplo, la paradoja del gato de Schrödinger – atrapado en una caja en la cual un proceso cuántico puede o no haberlo matado – es que un observador sólo puede decir si el gato está vivo o muerto abriendo la caja.
Pero antes de esto, el proceso cuántico que puede haberlo matado o no está en una superposición de estados, por lo que el gato también debe estar en una superposición: Vivo y muerto al mismo tiempo.
Esto es a todas luces algo extravagante, pero en la interpretación de muchos mundos, la paradoja desaparece: El gato muere en un universo y vive en otro.
Dejemos aparte la interpretación de muchos mundos por un momento y observemos otra extraña idea de la física moderna. Es la idea de que nuestro universo nació junto con un gran, y posiblemente infinito, número de otros universos. Por lo que nuestro cosmos es sólo un diminuto rincón de un multiverso mucho mayor.
Hoy, Leonard Susskind de la Universidad de Stanford en Palo Alto y Raphael Bousso de la Universidad de California en Berkeley, proponen la idea de que el multiverso y muchas de las interpretaciones de muchos mundos de la mecánica cuántica son formalmente equivalentes.
Pero hay un problema. La equivalencia sólo se mantiene si tanto la mecánica cuántica como el multiverso toman formas especiales.
Vamos a empezar con la mecánica cuántica. Susskind y Bousso proponen que es posible verificar las predicciones de la mecánica cuántica con exactitud.
En una época, tal idea se habría considerado una herejía. Pero en teoría, podría hacerse si un observador pudiese realizar un número infinito de experimentos y observar la salida de todos.
Pero esto es imposible, ¿no? Nadie puede realizar un número infinito de experimentos. La relatividad coloca un importante límite práctico sobre esto, debido a que algunos experimentos caerían fuera de los horizontes causales de otros. Y eso significaría que no podrían observarse.
Pero Susskind y Bousso dicen que hay una formulación especial del universo en la cual esto es posible. Se conoce como multiverso Supersimétrico con constante cosmológica evanescente.
Si el universo toma esta forma, entonces es posible llevar a cabo un número infinito de experimentos dentro del horizonte causal de otro.
Ahora, aquí tenemos el punto clave: Esto es exactamente lo que pasa en la interpretación de muchos mundos. En cada instante del tiempo, un número infinito (o muy grande) de experimentos tienen lugar dentro del horizonte causal de otros. Como observadores, somos capaces de ver la salida de cada uno de esos experimentos, pero en realidad sólo seguimos uno.
Bousso y Susskind defienden que dado que es posible la interpretación de muchos mundos en su multiverso supersimétrico, deben ser equivalentes. “Defendemos que el multiverso global es una representación de los muchos mundos en una geometría única”, dicen.
Llaman a esta nueva idea la interpretación del multiverso de la mecánica cuántica.
Esto es algo que merece la pena evaluar durante un momento. Bousso y Susskind son dos de los teóricos de cuerdas más importantes del mundo (Susskind está reconocido como el padre del campo), por lo que sus ideas tienen un pedigrí impecable.
Pero de lo que carece esta idea es de una predicción comprobable que ayude a los físicos a distinguirla experimentalmente de otras teorías del universo. Y sin este elemento crucial, la interpretación del multiverso de la mecánica cuántica es poco más que filosofía.
Esto puede que no sea algo que preocupe a muchos físicos, dado que pocas interpretaciones alternativas de la mecánica cuántica tienen predicciones comprobables (por esto es por lo que se conocen como interpretaciones).
Aun así, lo que tiene esta nueva aproximación es una simplicidad satisfactoria – es claro y elegante que muchos mundos y multiverso son equivalentes. Guillermo de Ockham ciertamente quedaría satisfecho y sin dudas, muchos físicos modernos también.

Fecha Orginal: 23 de mayo de 2011
Enlace Original

jueves, 19 de mayo de 2011

Esos malditos "antisistema"

Un par de referencias a tener en cuenta que he encontrado directamente del fantástico blog de Rodolfo Martínez y que me han llamado la atención:

Comenzamos con algo de sarcasmo.
"Sostenemos como evidentes por sí mismas dichas verdades: que todos los hombres son creados iguales; que son dotados por su creador de ciertos derechos inalienables; que entre estos están la vida, la libertad y la búsqueda de la felicidad; que para garantizar estos derechos se instituyen entre los hombres los gobiernos, que derivan sus poderes legítimos del consentimiento de los gobernados; que cuando quiera que una forma de gobierno se vuelva destructora de estos principios,el pueblo tiene derecho a reformarla o abolirla, e instituir un nuevo gobierno que base sus cimientos en dichos principios, y que organice sus poderes en forma tal que a ellos les parezca más probable que genere su seguridad y felicidad. La prudencia, claro está, aconsejará que los gobiernos establecidos hace mucho tiempo no se cambien por motivos leves y transitorios; y, de acuerdo con esto, toda la experiencia ha demostrado que la humanidad está más dispuesta a sufrir, mientras los males sean tolerables, que a hacerse justicia mediante la abolición de las formas a las que está acostumbrada. Pero cuando una larga serie de abusos y usurpaciones, que persigue invariablemente el mismo objetivo, evidencia el designio de someterlos bajo un despotismo absoluto, es el derecho de ellos, es el deber de ellos, derrocar ese gobierno y proveer nuevas salvaguardas para su futura seguridad."

Declaración de Independencia Americana (preámbulo)

Si es que estos malditos coloniales eran unos antisistema del copón, los muy cabrones.

© 2011, Rodolfo Martínez
Y el comentario de Alejandro Salamanca cita:
“Si, cuando el pueblo suficientemente informado delibera, no tuviesen los ciudadanos ninguna comunicación entre sí, del gran número de pequeñas diferencias resultaría siempre la voluntad general, y la deliberación seria siempre buena. Pero cuando se forman facciones y asociaciones parciales a expensas de la grande, la voluntad de cada asociación se hace general con respecto a sus miembros, y particular con respecto al estado: se puede decir entonces que ya no hay tantos votos como hombres, sino tantos como asociaciones. Las diferencias son en menor número, y dan un resultado menos general. Finalmente, cuando una de estas asociaciones es tan grande que supera a todas las demás, ya no tenemos por resultado una suma de pequeñas diferencias, sino una diferencia única; ya no hay entonces voluntad general y el parecer que prevalece no es ya mas que un parecer particular.

Conviene pues para obtener la expresión de la voluntad general, que no haya ninguna sociedad parcial en el estado, y que cada ciudadano opine según él solo piensa. Esta fue la única y sublime institución del gran Licurgo. Y en el caso de que haya sociedades parciales, conviene multiplicar su número y prevenir su desigualdad, como hicieron Solon, Numa y Servio. Estas son las únicas precauciones capaces de hacer que la voluntad general sea siempre ilustrada, y que el pueblo no se engañe”.

El contrato social, o principios del derecho político. Jean-Jacques Rousseau

En otras palabras "busque, compare y si encuentra algo mejor, VÓTELO".

lunes, 16 de mayo de 2011

Comandos interesantes para tu CLI.

Sin duda una de los motivos por el cual el Unix es un S.O. tan interesante es por la potencia y flexibilidad que  ofrece la línea de comandos. Y para tener a mano una interesante muestra de comandos:

http://www.commandlinefu.com/commands/browse

Sobre la exploración del espacio

Fuente:Ciencia ficción hard

Publicado el por freelancescience Me comentaba Nicolás en su respuesta a la entrada anterior que la humanidad no había seguido el camino previsto en la CF clásica y que no se había dedicado a explorar el espacio. En lugar de eso comenta que se ha dedicado a intentar resolver los problemas mas mundanos del planeta tierra. No creo que a Nicolás le haga mucha ilusión esa actitud, lo mismo que tampoco me hace ilusión a mi. Aparte de eso hace uno días se ha producido el 50 aniversario del primer paseo de un hombre en el espacio efectuado por el famoso Gagarin. Varios blogs de ciencia han aprovechado esa fecha para hacer una reflexión sobre el freno que ha sufrido la exploración espacial. Por ello voy a intentar hacer mi propio análisis.
Lo primero es establecer el lenguaje adecuado. Asimov, en sus novelas contemplaba la exploración espacial. Y establecía un hecho interesante. Los colonos de los planetas tenían mas iniciativa mientras que los que permanecían en la tierra eran mas acomodaticios poco innovadores. Para los terrícolas remanentes acuño un término muy apropiado y descriptivo, los “marmotas”. Bien, definitivamente de un tiempo a esta parte las marmotas se han impuesto, y no sólo en su freno a la exploración del espacio sino al de cualquier avance social reseñable.
La imposición general del marmotismo no es algo especialmente debido a la casualidad sino que según parece es algo que ha sido diseñado desde los sistemas de enseñanza y formación de opinión. Aparentemente en un momento dado, allá por los 70, los analistas de algunas de las grandes fortunas hicieron un estudio que indicaba que la tendencia del capitalismo llevaría a una situación en que la mayoría del dinero estaría en manos de unos pocos. Además también indicaba que la mayor parte de la gente sería inútil en ese sistema y no tendrían puestos de trabajo.
Bien, lo cierto es que esas predicciones parecen haberse cumplido bastante bien. Sobre la primera de ellas dejo unos grafos sobre la distribución económica en los USA que lo dicen casi todo:



Podéis leer un análisis de esas gráficas, junto a los comentarios correspondientes, en el blog del astrofísico Sean Carrol: Eat the Rich
Respecto al paro y su evolución al alza dejo un vídeo del peculiar economista niño Becerra:

Realmente la evolución al alza del paro no es necesariamente algo malo sino, adecuadamente entendido, justo lo contrario. El motivo es que si un porcentaje de la población, ayudada por la automatización, reduce excedentes el resto no debería tener que trabajar y perfectamente podría vivir de unos réditos estatales, como propone ahí Becerra. Por supuesto hay muchos matices y puntos oscuros sobre el particular que no analizaré de momento.
Lo interesante, para lo que quiero destacar, de los dos puntos anteriores es que esta situación se preveía que causaría que iba a causar descontento y revueltas. Anticipándose a eso se intentó organizar un sistema de estudios y valores que intentara minimizar el número y la influencia de la gente descontenta. Según me comentó de palabra alguien que hizo una tesis sobre esos aspectos del capitalismo se sistema de enseñanza se denominaba “titty something” (el something significa que no entendí muy bien que palabra venía después de “titty”. La idea es clara, educar al gente en valores superficiales, entretenerla con programas de bajo contenido intelectual y dónde se la distrajera mucho con el sexo y los cotilleos. Vamos, la telebasura actual. Además a las televisiones les viene bien para sus rankings de audiencia bajar los requisitos intelectuales para que mas gente pueda unirse a sus programas así que no iba contra sus intereses prestarse a ese programa de embrutecimiento de la población.
Desde luego el capitalismo es algo tremendamente imperfecto (yo siempre pienso en él como un sistema económico inventado por telettubies) y difícilmente va a sobrevivir mucho tiempo, en especial si no se resuelven el peak oil y el resto de “peaks” de las sustancias primas. Pero mientras tanto él en si mismo se está convirtiendo en un peligro. tampoco hay que preocuparse excesivamente sobre sus instrumentos de manipulación porque en última instancia son tan imperfectos y con tantos agujeros como el propio sistema(aunque por ahora les haya funcionado). Pero, una vez más, no quiero entrar en esos asuntos que son tangenciales al tema de la exploración espacial.
Lo importante de todo lo anterior es que el sistema capitalista ha buscado gente acomodaticia, las “marmotas” de Asimov. Esa gente, desde luego, no tiene mayor interés en la exploración espacial. Además el capitalismo favorece a las empresas sobre los estados. Afrontar la exploración espacial es algo muy caro y requiere un organismo gubernamental, o asociaciones de los mismos como la ESA europea. La empresa privada no puede, ni quiere, explorar el espacio. Cierto es que un organismo estatal como la ESA o la NASA pueden susbcontratar a un montón de empresas para sus propósitos y a su vez las empresas pueden alquilar servicios de las agencias espaciales para los suyos. Pero es imprescindible que un gobierno apuesto fuerte por el desarrollo espacial par que se genere un ecosistema empresarial en torno al viaje espacial, y eso, cuando los estados están debilitados y la gente está marmotizada no se da.
Aparte de los problemas sociales hay mas motivos por los que el viaje al espacio ha sufrido un parón. Tecnológicamente es complicado, no cabe duda. Como dije al principio varios blogs han tocado el tema a raíz del aniversario del paseo espacial de Gagarin. Tenéis, por ejemplo, un análisis (sobre el que haré enseguida varias matizaciones) de algunas de las dificultades en ciencia kanija: Olvida el viaje espacial: Es sólo un sueño.
Voy a hacer algunas indicaciones sobre esa entrada, aparentemente la primera de una serie que tiene kanijo preparada al respecto. Ahí nos menciona una dificultad básica originada en la dinámica del cohete. Supongo que en el resto de entradas dará mas puntos de vista, pero desde luego esa limitación no justifica en absoluto que no pueda haber viaje espacial; simplemente indica que los cohetes químicos no son la mejor manera de hacerlo, que es algo que se sabe desde hace tiempo. Imagino que mas adelante kanijo explicará que existen otros tipos de propulsion. Tenemos por ejemplo los motores iónicos en los que la velocidad a la que salen despedidas las partículas es mucho mayor que las de cualquier combustible químico y que nos dan un ratio suficiente para viajes por el sistema solar. De hecho varias sondas interplanetarias se han impulsado mediante sistemas de propulsión iónica. Estos sistemas tienen sus peculiaridades: por ejemplo su potencia de impulsión es muy baja, pero, por contra, pueden mantenerse encendidos mucho tiempo. Eso se traduce en una aceleración pequeña pero mantenida que resulta en velocidades finales mucho mayores que los motores químicos.
Otro sistema considerado para el viaje interplanetario son las “catapultas”. Antes de hablar de ellas empezaré por su primo cercano, el ascensor espacial. La idea del ascensor espacial, muy bien descrita en la novela de Arthur C. Clarke “las fuentes del paraíso” es simple. Se toma algún tipo de roca en una órbita geoestacionaria sobre la tierra. Se descuelga un hilo hasta el suelo desde esa roca y se usa como cable para subir un ascensor. El mayor problema con esta idea es dar con un material que aguante su propio peso. Aparentemente los recientes modelos de nanotúbulos de carbono son lo bastante fuertes para permitir eso y hay análisis favorables sobre la viabilidad del proyecto.
La idea de las catapultas, analizada en “la telaraña entre los mundos” de Charles Sehfield o “Camelot 304″ de Robert F. Forward consiste en usar una roca espacial grande y usar un cable similar a los de los ascensores espaciales para acelerar una nave, dando vueltas alrededor de la roca, hasta alcanzar la velocidad necesaria para la órbita interplanetaria y entonces soltarla. Con ese sistema podría viajarse a Marte en cuestión de semanas.
Otras propuestas mas delicadas son crear cohetes de combustión nuclear. La primera idea al respecto proviene del físico Freeman Dyson y consiste en usar detonaciones de bombas de fisión para impulsar la nave. Requiere que la nave tenga los escudos adecuados. Además es arriesgado subir materiales fisibles a órbita Pero desde luego es factible y en caso de urgencia seguro que se estudiaría y se intentaría poner en práctica pese a los riesgos. Podéis leer una exposición de la idea en, por ejemplo, la novela “olympos” de Dan Simons.
La otra propuesta es el motor de fusión. La fusión da mucho mas margen a la ecuación del cohete. Aparte de eso una nave puede recoger hidrógeno del medio interestelar mientras avanza con lo cuál nunca se quedarían sin combustible. Esta idea está analizada en el ciclo de novelas sobre el centro galáctico de Gregory Benford. Por supuesto el problema es que la fusión nuclear es muy complicada.
Otra idea complicada es la de la novela “las crónicas de Mc Andrew” de Charles Shefield. Ahí la fuente de energía/impulsión se centra en torno a un agujero negro. Sobre esa idea se han escrito algunos artículos técnicos que ya he analizado en mi blog de ciencia, ver: Microagujeros negros y viaje espacial y las siguientes dos entradas.
Como podéis ver he relacionado muchas ideas de viaje espacial con novelas de CF, todas ellas hard. La mayoría de esas novelas están escritas por físicos con una sólida formación en esos temas. Basan sus historias en artículos científicos de esos campos (y algunos posiblemente hayan escrito ellos mismos algún artículo al respecto). En general es mas probable que un escritor de CF hard sepa más sobre el status de la investigación espacial y su viabilidad que el “físico de a pie” (eso incluye profesores universitarios de física trabajando en otras disciplinas de la física). La propia CF hard, y los que se dedican a ella deberían (deberíamos) ser una fuente de ideas a priori viables y no muy alejadas de lo realizable en la práctica sobre el viaje espacial.
Otro gran obstáculo, probablemente el mayor, para la exploración espacial tripulada es la salud de los pasajeros. En un viaje con cohete químico a Marte el trayecto de ida tardaría unos 8 0 9 meses. En ese periodo los astronautas recibirán mucha radiación cósmica, suficiente para que el riesgo de contraer cáncer en un plazo de dos años ronde el 25%. Frente a eso las soluciones pasan por reforzar los blindajes, lo cuál implica un cohete demasiado pesado, o crear curas contra el cáncer. Hay que decir que cuando los USA estaban en plena carrera espacial dedicaron a la cura del cáncer un presupuesto igual al que dedicado a la exploración espacial. Desde entonces ha habido unas cuantas partidas presupuestarias aún mayores dedicadas a dicho propósito sin grandes resultados. Actualmente la mejora en la lucha contra el cáncer se deben sobre todo a las mejoras en los diagnósticos tempranos. Estas mejoras provienen sobre todo de equipos de exploración cuyo origen se debe más al avance de la física de materiales y a las técnicas informáticas que a la investigación médica en sí. Realmente el problema del cáncer es complejo, y requiere muchos avances en biología y medicina. Es interesante saber que la cura del cáncer y el viaje espacial van de la mano, y que los avances en uno de los campos seguramente repercutirían beneficiosamente en el otro.
Bien, hasta aquí he explicado algunos de los motivos por los cuales no hay viaje espacial tripulado a otros planetas del sistema solar. El siguiente paso sería plantearse los perjuicios que este retraso en el viaje espacial pueden significar para la especie humana. Lo resumiré en una sencilla frase: “En un futuro no muy lejano la especie humana será una especie espacial o no será”. El porque de esa frase lo explicaré en otro momento ;) .