jueves, 30 de junio de 2011

Cuestión de prioridades, la infografía.

Fuente: Amazings.es

La infografía que véis arriba la realizó Daniel Marín para un artículo titulado “Cuestión de prioridades” en el que intentaba desmitificar esa idea tan extendida de que la exploración espacial es cara. Para ello comparaba los presupuestos de los equipos de fútbol de la liga española con el presupuesto de la agencia espacial Rusa en el año 2010.
El resultado era bastante similar (1778 millones de euros de presupuesto para la primera división de fútbol – 1900 millones de euros para Roskosmos) y la moraleja bastante decepcionante: cuesta casi lo mismo sostener la más activa de las agencias espaciales que contemplar a 22 tipos corriendo tras un balón los domingos por la tarde.
Y es que, de todos los cuentos que nos han soltado durante los últimos años, el más flagrantemente absurdo y falso es el de “No hay dinero para la ciencia“. Desde 2009 el presupuesto destinado a la ciencia se ha recortado con la excusa de la crisis económica. Una increíble y mágica excusa que parece servir para recortar de un lado y no obstante, sin contradicción aparente, supone la base para sacar de otro…
Entonces recordé la frase…
En salvar a los bancos, europeos y norteamericanos hemos comprometido dinero suficiente para hacer unas mil misiones tripuladas a Marte y mantener el CERN durante más de diez mil años: las dos cosas a la vez y pagadas a tocateja con un solo cheque.
Menos mal que no había pasta, ¿eh?
Con la tabla de Daniel en mente, y repasando la reciente noticia del cierre del Instituto SETI por recortes en el presupuesto (al parecer los 2,5 millones de dólares que cuestan anualmente las 42 antenas del Alley Telescope Array y el programa SETI son demasiada carga económica para algunos), se me ocurrió ampliar la infografía con una barra más.
La idea es simple: Una imagen vale más que mil palabras.
Así pues, me puse en contacto con Daniel Marín para ver si podía añadir una barra más a su infografía, incluyendo el dinero que se ha prestado a la banca desde que se inició la crisis a finales de 2007. El primer problema que se nos presentó era calcular esa cantidad. Y es un problema gordo porque las cifras que aparecen son inmensas y sobre todo, no están claras. Tanto a Daniel como a mí se nos hacía casi imposible determinar exactamente el montante total para comenzar a realizar la infografía, así que decidí consultarlo con la lista de colaboradores de Amazings.
En este apartado hay que agradecer los útiles aportes de Fernando del Álamo y la sorpresiva participación del desaparecido Remo Tamayo, que en un extenso intercambio de mails comenzaron el baile de cifras. Las cantidades se escapan y son discutibles desde muchos puntos de vista, pero tras consultar múltiples fuentes tanto en medios españoles como en medios europeos y americanos, llegamos a una cifra aproximada.
Y digo aproximada porque es muy complicado saber a ciencia cierta cuánto dinero se ha prestado a la banca, cuánto dinero se ha comprometido en avales o cuánto dinero se ha comprometido en otras modalidades como bonos, emisiones de deuda, etc…
Después de otros tantos e-mails decidimos que el montante final del dinero prestado o comprometido a nivel mundial era tan desorbitado que iba a ser realmente complicado realizar la infografía. Así pues nos decidimos por utilizar tan sólo las cifras de Estados Unidos que ofrecen según diversas fuentes los siguientes resultados:
Datos para EEUU hasta noviembre de 2009:
- Dinero desembolsado en prestamos directos: Unos 3 trillones (americanos) de dólares (que serían 2,1 billones europeos de euros). Es decir: 2.100.000.000.000 euros.
- Dinero comprometido en avales: Unos 11,3 trillones (americanos) de dólares (que serían unos 7,83 billones europeos de euros) Es decir: 7.830.000.000.000 euros
Con esas cifras, y con las pobres dotes infográficas con las que contamos, tanto a Daniel como a mí se nos hizo imposible realizar una tabla precisa, así que decidimos incluir en este artículo al gran Paco Arnau que es quien finalmente ha realizado la infografía.
La idea original era realizar la infografía a escala 1:1, es decir un pixel = un euro. Sin embargo, pronto nos daríamos cuenta de que era imposible. Por tanto, tuvimos que acoplarnos a esas cifras y finalmente la infografía se ha realizado a escala 1:1.000.000.000, lo que quiere decir que cada pixel corresponde a un millón mil millones de euros.
En esta nueva tabla volveréis a encontrar (en color verde) los 1.778 millones de la Liga de futbol española, los 1.900 millones (en color rojo) del presupuesto de la Agencia espacial rusa y a continuación la tercera barra divida en dos colores (gris y negro) representando el dinero prestado directamente y dinero comprometido en avales, sólo en Estados Unidos y sólo hasta noviembre de 2009.

También hemos calculado que si habéis llegado hasta aquí abajo utilizando el scroll de vuestro ratón habréis empleado una media de 5 segundos en desplazar toda la infografía. La tabla está realizada a escala 1 pixel de altura = 1 millón 1.000 millones de euros.
Si la hubieramos realizado como originalmente se nos ocurrió, es decir utilizando la escala de 1 pixel = 1 euro, para recorrer toda la infografía tendríais que desplazar el scroll del ratón durante 58 días seguidos.
Sí. Una imagen vale más que mil palabras.
Podéis ahora volver al principio y mirar con otra perspectiva la fina raya roja  correspondiente a los 1.900 millones de presupuesto de la agencia espacial rusa y volver recordar el cierre del programa SETI y las antenas del ATA porque al parecer no es posible encontrar 2,5 millones para mantenerlo, al igual que los cientos de recortes en otros programas científicos y astronáuticos realizados en los últimos años.
Podéis volver a recorrer durante unos segundos los pixels correspondientes al trozo de pastel que hay para la banca, y sobre todo, podéis recordarlo cuando alguien vuelva a recortar dinero del presupuesto destinado a la investigación y la ciencia echándole la culpa a la crisis. La misma excusa que utilizan para sacar sin problemas dinero de dónde aparentemente no hay y utilizarlo en quienes la iniciaron.

La historia del agua embotellada

miércoles, 29 de junio de 2011

Una forma de perder el tiempo.

Sólo os daré la dirección: http://balldroppings.com/js/?2

Phoronix descubre el problema de batería en el kernel 2.6.38

Fuente: Muy linux
Hace tiempo que venimos hablando de los problemas del núcleo 2.6.38, que aunque trajo numerosas mejoras también incluyó una “regresión” que provocaba que la autonomía de las baterías de portátiles se acortase de forma notable en según qué casos.
Linux laptop 500x357 Phoronix descubre el problema de batería en el kernel 2.6.38
Como explican en Phoronix -vosotros mismos lo confirmásteis en los comentarios- el uso del kernel 2.6.38 no siempre provoca dichos problemas, pero si tenéis un portátil con Ubuntu 11.04, Fedora 15 o alguna de las nuevas distribuciones del mercado que integran ese núcleo Linux, es bastante posible que hayáis notado como la autonomía de vuestras baterías se reducía considerablemente.
Afortunadamente, parece que ya hay una solución bastante eficiente del problema hasta que los desarrolladores del kernel la soluciones de forma universal. Gracias al uso de los benchmarks de la célebre Phoronix Test Suite se ha podido desvelar la causa del problema que causaba esa disminución de la autonomía de la batería.
Según Phoronix y su creador, Michael Larabel, la gran causa del problema del consumo de energía en el kernel 2.6.38 es el cambio que se realizó en el llamado ASPM (Active-State Power Management) para las ranuras PCI Express. En concreto, el cambio está documentado en el commit con código 2f671e2dbff6eb5ef4e2600adbec550c13b8fe72 que tiene por título “PCI: Deshabilitar ASPM y la BIOS nos lo pide”.
1 Phoronix descubre el problema de batería en el kernel 2.6.38
2 Phoronix descubre el problema de batería en el kernel 2.6.38
Las gráficas de Phoronix dejan claro que la mejora en autonomía de batería es notable.
La característica Active-State Power Management debería ahorrar consumo de energía estableciendo un estado de ahorro de energía en enlaces PCI Express que no se están usando. La desventaja es que ASPM puede incrementar la latencia de los dispositivos, pero el ahorro energético compensa de sobra esa latencia. Aunque puede funcionar en ordenadores de sobremesa, la característica está especialmente pensada para portátiles, pero si la BIOS indica que no soporta ASPM, ese comportamiento se modifica.
Y aquí llegamos a la causa del problema: BIOS mal configuradas, puesto que muchos fabricantes de portátiles soportan ASPM pero no lo configuran correctamente en la llamada Fixed ACPI Description Table, que es la que “autoconfigura” la BIOS durante el arranque.
¿Cuál es la solución? Simple: añadir una línea a nuestro arranque para forzar el uso de ASPM:
pcie_aspm=force
Esto habilita la característica diga lo que diga la BIOS, y las pruebas demuestran que con esa solución se logran ahorros de energía notables que aumentan la autonomía de las baterías de forma sensible. Enhorabuena a Phoronix por ese gran trabajo que seguro que le alegrará la vida a muchos usuarios. Por cierto, podéis agradecérselo con una donación vía PayPal que seguro que les vendrá muy bien.

Tres estupendas alternativas a AutoCad para Linux

Fuente: Ubuntizando el planeta

Encontrar programas que sean alternativas reales a las que usamos en otros entornos como, por ejemplo, Windows es una tarea ardua. Un ejemplo son los programas de CAD. Pero vamos a sugerir algunas alternativas:

- FreeCAD es una herramienta Open Source de propósito general de modelado 3D CAD/MCAD/CAx/CAE/PLM, está dirigida directamente a la ingeniería mecánica y diseño de productos, pero también se inscribe en un amplio rango de aplicaciones en la ingeniería, tales como la arquitectura o de otras especialidades de la ingeniería.

FreeCAD se basa en OpenCascade, un núcleo de geometría potente y python. La interfaz está construida con Qt. FreeCAD está disponible para Windows, Mac OSX y Linux. Se encuentra disponible en los repositorios de Ubuntu y podemos seleccionarlo desde el Centro de Software.



SagCAD es una sencilla pero potente aplicación diseñada para realizar cualquier tipo de diseño, está especialmente indicado para creación de diseños mecánicos gracias a su sencillo interfaz. Gracias a esta y otras cualidades destaca por no necesitar enormes cantidades de memoria RAM frente otro tipo de programas. 

También se encuentra disponible en los repositorios de Ubuntu y podemos seleccionarlo desde el Centro de Software.


DraftSight es un programa profesional de CAD 2D gratuito para uso individual, que puede sustituir en determinados entornos a Autocad. Permite crear, abrir y trabajar con ficheros DXF y DWG, (en distintas versiones), y guardar el trabajo en los mismos formatos, incluso binarios y ASCII DXF. Dispone de varias opciones de exportación ( .wmf, .jpeg, .pdf, .png, .sld, .svg, .tif, y .stl), y puede generar PDF multi-página DraftSight ha estado disponible únicamente para Windows (XP, Vista y Windows 7), pero ahora está siendo portado a Linux y Mac, si bien en este momento está en fase Beta.

No se encuentra disponible en los repositorios de Ubuntu y no es software libre, sin embargo podemos usarlo libremente. Este es el enlace para descargahttp://www.3ds.com/products/draftsight/download-draftsight/


¿Cuál es tu favorita? ¿Conoces alguna alternativa?
Related Posts with Thumbnails

martes, 21 de junio de 2011

Riese: Kingdom Falling (Webserie)

Riese: Kingdom Falling es una web-serie de ciencia ficción ucrónica de estilo "steam-punk". La serie trata de las desventuras de Riese, una vagabunda, que huye a través de las tierras devastadas por la guerra de Eleysia con su lobo Fenrir. Hunted by a terrifying religious group, The Sect, Riese must evade the assassins that have been sent to kill her and discover their true objective. Perseguido por un terrorífico grupo religioso conocido como "la secta", Riese debe evadir a los asesinos que han sido enviados para matarla al mismo tiempo que tratar de descubrir su verdadero objetivo.

Los seis neutrinos que cambiaron el mundo

Fuente: Francis (th)E mule

Ya lo sabrás por otras fuentes, pero por si acaso, permíteme recordarte que el experimento T2K ha demostrado que el parámetro θ13 en la física de neutrinos no es nulo. Además resulta que su valor parece mayor de lo esperado. Este gran descubrimiento ha provocado un gran revuelo mediático por las implicaciones de un valor  grande para sin² (2 θ13) en el problema de la asimetría entre materia y antimateria (el problema de la violación de la simetría CP). Se ha observado en Super-Kamiokande (al oeste de Japón) la transformación (oscilación) de seis neutrinos muónicos en seis neutrinos electrónicos en el flujo de neutrinos muónicos generados en Tokai (al este de Japón), de ahí que el experimento se llame Tokai to Kamioka = T2K. Sólo se han observado 6 neutrinos, lo que implica una evidencia de sólo 2,5 σ, que puede parecer poco, y lo es, pero que ha sido suficiente para provocar todo el revuelo mediático. Una evidencia de sólo 2,5 σ podría corresponder a una fluctuación estadística o una estimación incorrecta de los sucesos de fondo o a errores sistemáticos en la medida. Si no te has enterado de nada en este párrafo te recomiendo leer a Jorge Diaz, “Aparición de neutrinos electrónicos en el experimento T2K,” Conexión causal, junio 15, 2011. También me ha gustado Rafael Montaner, “Neutrinos a la caza del Nobel,” LevanteEMV.com, junio 2011. Por supuesto, no podemos olvidar la traducción de Kanijo, “Indicaciones de un nuevo tipo de oscilación de neutrino en el Experimento T2K,” Ciencia Kanija, 15 de junio de 2011 (o el original en inglés en el Brookhaven National Lab). A los demás les recomiendo pasear por las transparencias del Wine & Cheese seminar on T2K result and its implication on Fermilab neutrino programs, 17 June 2011. Por cierto, ¿de qué charla he sacado el titular?

lunes, 20 de junio de 2011

Minetest

Minetest es un clon 'open source' de minecraft al que aún le queda mucho para estar completo, pero que ya resulta jugable y es posible que crezca muy rápidamente.

Polémica oscura

Fuente: Neofronteras
La supuesta detección, por parte de del experimento CoGeNT, de WIMPs levanta la polémica en el campo de la detección directa de materia oscura.
Foto
Uno de los cristales empleados en CoGeNT. Fuente: CoGeNT Collaboration.
Desde hace ya años se propuso la existencia de partículas débilmente interactuantes o WIMPs para explicar la presencia de una masa que no podemos ver en ciertos fenómenos astronómicos, como en la rotación de galaxias. El 83% de la masa del Universo podría estar constituido por materia oscura cuya naturaleza nos es desconocida.
Se ha realizado un esfuerzo por parte de diversos grupos de investigación a lo largo de todo el mundo para poder detectar esas partículas, que, por definición, son muy difíciles de detectar.
El experimento italiano DAMA/LIBRA ha venido detectando una modulación anual en la detección de unas partículas que podrían ser WIMPs durante los últimos tiempos. Sin embargo, otros grupos de investigación no lograban ver lo mismo.
Ahora, el grupo de investigadores del experimento CoGeNT informa que están viendo una señal similar a la detectada por los italianos, por lo que se confirmarían sus resultados. Juan Collar, de University of Chicago, y John Orrell, de Pacific Northwest National Laboratory, publican dos artículos al respecto en Physical Review Letters.
El experimento CoGeNT se encuentra en la mina Soudan de Minnesota y está basado en unos cristales de germanio. Ante todo hay que decir que la detección de este tipo de partículas no solamente es difícil en sí mismo, sino que hay que encontrar esas escasas señales entre un mar de “ruido”. La Tierra, además de estar bañada por esas supuestas WIMPS, está sometida a los rayos cósmicos y al viento solar, que producen todo un chaparrón de partículas sobre la superficie terrestre. Además, la Tierra contiene elementos radiactivos que también emiten partículas. Se pueden evitar parcialmente estos problemas instalando los detectores a gran profundidad en minas abandonadas o en túneles en el interior de las montañas, pero no se obtienen milagros.
Las supuestas señales podrían ser reales o ser una fluctuación estadística. Distinguir entre una y otra no es sencillo y se necesitan muchas medidas para poder afirmar algo con cierto nivel de significación.
Los teóricos predijeron que la materia oscura podría formar una nube de WIMPs en la que estaría inmersa nuestra galaxia. La Tierra gira alrededor del Sol y éste se mueve en la Vía Láctea. Estos movimientos producirían una modulación en la señal correspondiente al paso de WIMPs por los detectores. De esto modo, si, dependiendo de la época del año, se detectan más o menos supuestas WIMPs tendremos argumentos a favor de su realidad física.
Recordemos que el Sol se mueve por el plano galáctico a una velocidad 220 km/s y la Tierra a 15 km/s respecto al Sol. En invierno (boreal) la Tierra se mueve un poco en dirección opuesta a como lo hace el Sol a través de la galaxia (y a través de la supuesta nube de materia oscura), pero en verano los dos movimiento están casi alineados.
Si a lo largo de los años se acumula suficiente estadística, esos argumentos de la detección de una modulación estacional tendrán un mayor peso. Esta variación estacional es la que ha venido detectando el grupo italiano y es la que ahora dicen haber detectado el grupo de CoGeNT. No deja de ser irónico que Juan Collar estuviera entre los escépticos sobre los datos de DAMA/LIBRA y que creyera que sus propios datos rechazarían el resultado italiano.
En sus 15 meses de funcionamiento (un incendio interrumpió las medidas en marzo de este año), CoGeNT parece haber detectado un promedio de una WIMP al día, pero con una variación estacional del 16%. Las medidas sugieren que las WIMPs tendrían una masa de unas 7 veces la masa del protón. Según los cálculos, la probabilidad de que los datos de CoGeNT sean una fluctuación es del 0,6% (2,8 σ). El análisis de los datos se ha realizado debido a que ahora no se están tomando medidas. Si no se hubiera producido el incendio todavía estarían tomando datos. Debido a que las labores de limpieza no han terminado, aún no saben si se podrá continuar usando el detector y los daños sufridos por el mismo, aunque lo más probable es que sea ahora inutilizable.
La estadística no parece ser lo suficientemente buena, de momento, como para decir que los resultados son los mismos que los obtenidos por DAMA/LIBRA italiano en los últimos 13 años. Algunos sostienen además que el tipo de partícula supuestamente detectado en CoGeNT es compatible con otras pruebas indirectas, como las obtenidas por el observatorio orbital Fermi en espectros de rayos gamma.
Pero un acuerdo entre dos o tres experimentos tampoco es la última palabra. El caso del pentaquark así nos lo recuerda. En el pasado diez experimentos decían haberlo detectado, pero al final resultó que no existía. Incluso puede ser que la variación estacional sea real, pero que se deba a otro tipo de fenómeno.
Lo malo es que otros experimentos similares, como Xenon100 no ha detectado esa variación estacional en sus datos. Quizás se deba a que Xenon100 no tenga suficiente sensibilidad, pero los investigadores de este experimento afirman que ya han rechazado la posibilidad de existencia de WIMPs en esa gama de energía.
Los resultados de DAMA/LIBRA fueron rechazados (incluso ridiculizados) en el pasado y ahora los de CoGeNT se quejan de lo mismo.
Estos experimentos se basan en tecnologías distintas, DAMA usa 250 kg de cristales de ioduro de sodio dopados con talio, CoGeNT usa cristales de germanio que suman medio kilogramo y Xenon100 xenón líquido (varias decenas de kilos). Además, están basados en distintos fenómenos físicos a la hora de detectar WIMPs. Esto hace que cada uno de ellos sea mejor para detectar WIMPs a distintas gamas de energía y esto tampoco facilita el análisis y comparativa entre los distintos experimentos.
La polémica académica está servida y ahora unos se acusan a otros de estar equivocados. Será interesante ver lo que digan sobre este episodio los historiadores de la ciencia del futuro
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3531
Fuentes y referencias:
Nota de prensa.
Artículo en ArXiv 1.
Artículo en ArXiv 2.
Artículo en ArXiv 3.

Sobre la termodinámica del computador cuántico

Fuente:Neofronteras


Un computador cuántico, al contrario que los clásicos, podría borrar información sin que se emita calor, incluso podría tomar calor del entorno para poder hacerlo.
Foto
Un observador, representado por una máquina con memoria cuántica Q, borra un sistema S. Todo el contenido de la memoria acerca del sistema tiene que conservarse. Fuente: Nature.
Incluso la computación tiene sus límites y requiere el consumo de una mínima cantidad de energía. En los computadores* actuales ese consumo es bastante elevado y sólo hace falta ver cómo se descarga la batería del portátil o sentir como éste se calienta en verano sobre nuestras piernas. Sin embargo, es posible imaginar un computador ideal y calcular cómo se comportaría. Hace ya muchos años que se hicieron esos cálculos y se llegó a la conclusión de que lo que gasta energía es el borrado de memoria. Es decir, las operaciones en sí no tienen por qué gastar energía (y disiparla) si no destruyen información, sino que este consumo se puede hacer tan pequeño como se quiera.
Si sumamos 4 y 2 podemos obtener 6, pero si queremos que esa operación no consuma energía debemos de mantener los números de partida, porque una vez borrada esa información no sabemos si ese 6 proviene de 4+2, 1+5 o 3+3. En teoría un computador clásico con memoria infinita que no destruya información no consumiría energía y no la disiparía (no se calentaría).
Pero los computadores modernos, aunque fueran ideales, no tienen memoria infinita y se tiene que gastar energía en el borrado de información (por no hablar de la construcción del propio computador). Esta operación disipa calor y causa problemas a los ingenieros que diseñan los microprocesadores, ya que un exceso de calor puede dañar los circuitos.
Pero todo esto es desde el punto de vista clásico. ¿Qué pasa si tenemos un computador cuántico?
El físico Rolf Landauer estableció en 1961 que el borrado de información en un sistema clásico hace decrecer la entropía. Un computador clásico genera calor cuando borra información debido a la entropía, que es un concepto central (y real) de la Termodinámica que mide el grado de desorden. En un sistema computacional se usan bits que pueden cero o uno. La entropía del sistema se puede medir por el número de posibles estados que se pueden alcanzar. El borrado de información significa por ejemplo tener que poner todos los bits a cero, que es el estado de mínima entropía (máximo orden). Conseguir ese estado de entropía cero siempre significa tener que reducir la entropía local que había previamente en el sistema. Como la entropía total tiene que crecer en el conjunto, esa disminución de entropía local debe hacerse a costa de que crezca la entropía del entorno y esto se manifiesta como una producción de calor. Esto impone un límite fundamental y no técnico a cuánto podemos reducir el calor generado en la computación.
Si hay dos personas tratando de borrar bits de información en la memoria de un computador clásico una tiene que forzar todos los bits a cero para asegurarse el borrado si no tiene conocimiento sobre el sistema, pero una segunda puede borrar sólo los bits que son 1 si conoce el contenido de esas cadenas de bits. En esta situación la primera tiene que realizar en promedio más trabajo en el borrado que la segunda. La “entropía condicional” es menor para la segunda persona que para la primera. Este concepto de “entropía condicional” no es el mismo que la entropía tradicional y fue desarrollado para campos como la criptografía y la transmisión de información. Veamos cómo se ha aplicado a la computación cuántica.
En los computadores cuánticos no se tienen bits, sino qubits. Se pueden tener estados entrelazados de distintos valores sobre una misma entidad física. No se puede saber nada con certeza acerca de cada qubits individual entrelazado, pero toda la información acerca del estado global entrelazado se conoce con certeza.
Si el computador es cuántico hay entrelazamiento. En este tipo de computación si un qubit está en un estado entrelazado con un qubit de datos que debe ser borrado, entonces observar o determinar el estado de una parte inmediatamente fija el estado de la otra. Así que un observador con acceso a objetos entrelazados podría saber incluso más acerca de la memoria cuántica que de cualquier otro modo y esto hace que la entropía condicional sea negativa si se borra memoria.
Cuando hay entrelazamiento el computador sabe toda la información, no sólo la relativa a los datos, sino la relativa a sí mismo. Si el entrelazamiento se rompe, la memoria del computador pierde esa “visión global” y se puede ahora borrar los datos colocando el sistema en el estado de entropía cero. Esto significa que en un computador cuántico el borrado de datos tiene que absorber calor del entorno, aunque este calor podría ser más que el calor generado para crear los datos al inicio. Esto, por tanto, no viola ningún principio de la Termodinámica.
Al menos es lo que sostiene Renato Renner, del ETH Zurich (Suiza), y sus colaboradores. El resultado no solamente es importante desde un punto de vista teórico, al tratar de explorar las implicaciones termodinámicas de una entropía condicional negativa, sino que puede ayudar a la construcción de un futuro computador cuántico real (los de D-Wave no lo son).
Para poder mantener la coherencia cuántica se debe evitar cualquier influencia sobre los frágiles estados cuánticos, incluido el calor, y por esta razón se opera cerca del cero absoluto de temperatura. Se necesita que el propio funcionamiento del sistema no introduzca más calor en el sistema y este resultado nos dice que el borrado de información ayudaría, por tanto, a mantener la temperatura baja y a que la computación sea eficiente.
Sin embargo, Charles H Bennett, del IBM Research en Nueva York, se muestra escéptico. “La idea de la entropía condicional fue desarrollada en campos como la criptografía y la transmisión de información, mientras que este trabajo está tratando de aplicarla a la termodinámica del costo de la computación. No está claro cómo puede ayudar en ese campo, pero es un buen esfuerzo científico tratar de aplicarla ahí.”
* Aunque a veces se denomina “ordenadores” a esos dispositivos, el nombre más adecuado es computador. La palabra ordenador es un galicismo producto de una confusión. Un computador computa, no solamente ordena.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3532
Fuentes y referencias:
Noticia en Physics World.
Artículo original.

Se detecta un estallido único y extremadamente intenso en el núcleo de una galaxia lejana

Fuente: Instituto de Astrofísica de Canarias
La explicación más probable sostiene que el estallido puede deberse a la ruptura de una estrella próxima por el agujero negro supermasivo del centro de la galaxia Gracias a las mediciones del Gran Telescopio Canarias (GTC), gestionado por el Instituto de Astrofísica de Canarias (IAC), se obtuvo el primer espectro que sirvió para determinar la distancia al objeto y caracterizar la galaxia en que se encuentra
Imagen artística de un agujero negroEl pasado 28 de marzo, el satélite Swift (NASA) alertaba de la detección de una inusual emisión de rayos gamma. En un principio se creyó que se trataba de uno de los ya conocidos estallidos de rayos gamma –o GRBs, de sus siglas en inglés-, que suelen asociarse con la muerte de estrellas muy masivas y pierden intensidad en cuestión de minutos. Pero Sw 1644+57 no solo mantuvo su luminosidad, sino que se reactivó otras tres veces en 48 horas y muestra una intensidad nunca vista en todas las longitudes de onda, desde rayos gamma hasta radio. Tras un primer análisis quedó claro que no se trataba de un GRB y que su explicación requería de algún nuevo tipo de fuente desconocida hasta la fecha.
Un grupo internacional de astrónomos, en el que participan investigadores del Instituto de Astrofísica de Andalucía (IAA-CSIC), publica esta semana en la revista Science Express los resultados de un estudio intensivo del objeto que atribuye su origen a un mecanismo nunca visto y relacionado con el agujero negro supermasivo en el núcleo galáctico.
Gracias a las mediciones del Gran Telescopio Canarias (GTC), gestionado por el Instituto de Astrofísica de Canarias (IAC), se obtuvo el primer espectro que sirvió para caracterizar la galaxia en que se encuentra el objeto y a qué distancia: unos 3,8 miles de millones de kilómetros. El GTC es el mayor telescopio óptico infrarrojo del mundo, con un espejo primario de 10,4 metros de diámetro.
Imagen artística de un agujero negro
Pocas horas después del estallido, los investigadores emplearon instrumentos en tierra para localizar la contrapartida en óptico de la emisión en rayos gamma. Los datos obtenidos con los telescopios GTC (La Palma), Gemini-North (Hawaii) y Keck (Hawaii) desmintieron la hipótesis inicial que ubicaba el evento dentro de nuestra galaxia.
Se inició entonces una campaña internacional de seguimiento para dilucidar la naturaleza de Sw 1644+57 con algunos de los más avanzados instrumentos disponibles, como el satélite de rayos X Chandra, el Telescopio Espacial Hubble y el Very Large Baseline Array (VLBA). Los investigadores hallaron que el objeto emitía con fuerza en todo el espectro electromagnético, desde los rayos gamma hasta las ondas de radio, y lo ubicaron en las densas regiones centrales de la galaxia.
La intensidad, duración y carácter variable Sw 1644+57 lo convertían en un objeto astronómico sin precedentes que, dada su posición, parecía estar relacionado con el agujero negro supermasivo en el núcleo de la galaxia. El pico máximo de brillo correspondería a un agujero negro de unas diez mil millones de masas solares lo que, sin embargo, supera la masa total de la propia galaxia e indica que en los alrededores del agujero negro ha debido producirse una intensa fulguración, quizá debido a la ruptura de una estrella en las proximidades (posibilidad que contempla otro artículo que se publica en la misma edición de Science Express).
Observatorios empleados en la campaña de observación:
Satélite Swift (NASA), Gran Telescopio Canarias (GTC, La Palma), Gemini-North Telescope (Hawaii), Nordic Optical Telescope (NOT, La Palma), , Keck Telescope (Hawaii), United Kingdom Infrared Telescope (UKIRT, UK), Peters Automated Infrared Imaging Telescope (PAIRITEL), Chandra X Ray Observatory, Institut de Radioastronomie Milimétrique (IRAM), Westerbork Synthesis Radio Telescope (WSRT), Hubble Space Telescope y Very Large Baseline Array (VLBA).
REFERENCIA
A.J.Levan et al. An extremely luminous panchromatic outburst from the nucleus of a distant galaxy. Science Express16/06/2011
IMÁGENES EN ALTA RESOLUCIÓN Y PIES DE FOTOS
Imagen artística de un agujero negroImagen en alta resolución (JPG, 4,3 MB) Impresión artística de un agujero negro que absorbe en espiral los restos de una estrella. Las altas energías generadas producen una emisión electromagnética intensa en forma de dos chorros altamente colimados. Fuente: University of Warwick/Dr. Andrew Levan.
Imagen artística de un agujero negroImagen en alta resolución (JPG, 4,3 MB) Impresión artística de un agujero negro absorbiendo una estrella mediante fuerzas de mareas destructivas. La gravedad del agujero negro distorsiona la forma de la estrella hasta que la despedaza. Fuente: University of Warwick/Dr Mark Garlick.

viernes, 17 de junio de 2011

Un diodo LED nanoestructurado capaz de emitir luz con cualquier color del arcoiris

Fuente: Francis (th)E mule news

Piensa en un diodo LED. Te lo imaginas rojo, verde, azul, o incluso capaz de emitir en dos colores, rojo y verde. Pero un diodo LED capaz de emitir en cualquier color del arcoiris parece imposible, pero unos investigadores coreanos han logrado lo imposible. Un diodo LED microestructurado formado por un conjunto de micropivotes nanoestructurados de nitruro de galio (GaN) capaz de emitir en cualquier color del espectro, desde el rojo al azul, pasando por el amarillo y el verde, que cambia de color de forma continua, con alto brillo y un consumo energético bajo. Otro ejemplo más de que la nanotecnología está haciendo posible lo que parece imposible. ¿Para qué servirán estos LEDs? Obviamente su aplicación natural son las pantallas (displays) de dispositivos móbiles. El artículo técnico es Young Joon Hong et al., “Visible-Color-Tunable Light-Emitting Diodes,” Advanced Materials, published online 3 JUN 2011; me he enterado gracias a “Photonics: Rainbow from a single LED,” Research Highlights, Nature 474: 254, 16 June 2011.
La figura de arriba muestra el proceso de fabricación de estos LEDs. No entraré en detalles técnicos, pero muchos sabéis que tengo cierto cariño hacia lo nanoestructurado y me encantan estas figuras con microscopio electrónico de dispositivos nanotecnológicos. Los micropivotes de GaN tienen una longitud media de 520 nm, un diámetro de 220 nm y están separados los unos de los otros por una distancia de unos 550 nm (recuerda que nm significa nanómetros). Las paredes laterales de los micropivotes y la parte superior (pico) están nanoestructurados, formados por capas alternas de InxGa1-xN (pozo cuántico) y GaN (barrera cuántica). La parte superior está formada por capas alternas de InxGa1-xN y GaN con un grosor de 8±2 nm y 22±3 nm, respectivamente. Las caras laterales tienen capas alternas de InxGa1-xN y GaN con un grosor de 1,4±0,3 nm y 2,2±0,3 nm, respectivamente.

martes, 14 de junio de 2011

Branas y burbujas anteriores al Big Bang

Fuente: Ciencia Kanija

Artículo publicado por Ron Cowen el 23 de abril de 2011 en la web Science News.
¿Qué sucedió antes del Big Bang?
Los cosmólogos Paul Steinhardt y Neil Turok ven el inicio de la historia del universo como una obra en la que los protagonistas – materia y radiación – se mueven a través del escenario de acuerdo con las leyes de la física. Los astrónomos son actores que llegaron a escena 13 700 millones de años tarde para ver lo que sucedió.
Pero esto no ha detenido a Steinhardt, Turok y otros investigadores de pensar si el universo nació en una gigantesca bola de fuego en esa época, o pudo haber existido anteriormente.
Branas

La noción actual del tumultuoso inicio del cosmos—conocido como Big Bang – tiene sus raíces en el descubrimiento de 1929 de Edwin Hubble de que el universo se expande. En esa época, los científicos imaginaban el universo creándose explosivamente a partir de un único punto del espacio y el tiempo.
Aunque esta versión simple de la idea del Big Bang no puede explicar por completo lo que se ve hoy en el cosmos, Alan Guth del MIT añadió un nuevo ingrediente en 1981. En los inicios de su historia, el universo pasó por un breve periodo de expansión más rápido que el de la luz, conocido como inflación, según propuso. En los años que han pasado desde la sugerencia de Guth, la inflación ha tenido un gran éxito al explicar la estructura del universo y su ordenación de galaxias.
Burbujeante
Algunos científicos creen que si la inflación tuvo lugar una vez, podría suceder muchas más veces – apuntando a un cosmos sano y salvo eones antes del Big Bang. La expansión rápida, en estas interpretaciones, no está confinada a sólo un rincón del bosque cósmico, como un único globo en expansión. En lugar de esto, distintas zonas del espacio sigue inflándose, como un niño que sopla sin parar creando burbujas de jabón, dice Alex Vilenkin de la Universidad Tufts en Medford, Massachusetts.
Cada zona inflada se convierte en un universo distinto, con su propio inicio del Big Bang (SN: 6/7/08, p. 22). En este escenario de “inflación eterna”, la bola de fuego que engendró el universo que vemos hoy desde nuestros telescopios, vino precedido de una multitud de otros, así como seguramente se verá seguido por otros muchos más, cada uno apareciendo en distintas épocas en diferentes partes del cosmos, comenta Vilenkin.
Así como el Sol es sólo una de las miles de millones de estrellas en la Vía Láctea, el universo visible puede ser uno entre incontables en el firmamento cósmico. Los cosmólogos llaman a este ensamblaje de universos el multiverso.
No sólo podría haber una plétora de universos que precedieron al que conocemos, sino que cada uno puede haber sido también distinto al resto. Al combinar inflación eterna con la Teoría de Cuerdas, una idea que se ha hecho popular debido a que podría ayudar a unificar las cuatro fuerzas conocidas de la naturaleza, cada universo inflacionado tendría su propio conjunto de propiedades físicas. Aunque el universo conocido está abarrotado de galaxias, por ejemplo, la gravedad en otro universo anterior podría haber sido demasiado débil para formar galaxias.
Rebote, no estallido
La propia Teoría de Cuerdas – que propone un espacio con muchas dimensiones enrolladas – puede sugerir un tipo distinto de descripción anterior al Big Bang. En un modelo desarrollado por Steinhardt, ahora en la Universidad de Princeton, y Turok, ahora director del Instituto Perimeter en Waterloo, Canadá, el Big Bang se reemplaza con un ciclo infinito de contracciones y rebotes; 13 700 millones es simplemente el tiempo desde el último “Big Bounce”.
En esta descripción, el universo conocido reside en una versión tridimensional de una lámina, conocida como brana, que puede viajar a lo largo de una dimensión extra. Otra brana se encuentra a una minúscula distancia.
Cuando se separan, las dos branas son perfectamente lisas, representando un universo casi carente de materia. Cuando las dos branas se unen, forman pequeñas arrugas. Estas arrugas son las semillas de las galaxias. Cuando las branas finalmente colisionan y rebotan, liberan una enorme cantidad de energía, parte de la cual es convertida en materia y radiación. Para un observador en una de las branas, este Big Bounce se vería igual que un Big Bang (SN: 9/22/01, p. 184).
Mientras las branas estén separadas, se estiran y alisan; el cosmos se expande de la misma forma que lo hace hoy. Pero finalmente, las dos branas se vuelven a unir para otra ronda de colisiones y rebotes. Cada ciclo puede durar un billón de años o más.
En el modelo del Big Bounce, el universo no sólo existía antes del Big Bang, sino que guarda memoria de lo que sucedió antes. Todas las estrellas, galaxias, y estructuras a gran escala ahora presentes deben su existencia a la composición del universo en el ciclo anterior. Aunque los detalles podrían ser diferentes, la física subyacente a las leyes seguiría siendo la misma.
Pistas cósmicas
Si el Big Bounce o el multiverso captan la realidad – si es que alguno de ellos lo hace – sigue siendo un misterio. Una observación, sin embargo, podría distinguir entre el Big Bounce y algún escenario inflacionario, señala Steinhardt. Las ondas gravitatorias, diminutas olas en el tejido del espacio tiempo, se generan durante cada ciclo del Big Bounce. Pero en este escenario, las ondas serían demasiado débiles para detectarse. La inflación, por el contrario, produciría un conjunto de ondas mucho más potentes – lo bastante para dejar una huella visible en el fondo de microondas cósmico, la radiación dejada por el Big Bang.
La nave Planck de la Agencia Espacial Europea está ahora buscando la huella reveladora que las ondas gravitatorias dejarían en el fondo de microondas cósmico (SN: 4/11/09, p. 16). Si se encuentra la huella, “lo logramos”, dice Steinhardt. Nos daríamos de bruces con el Big Bounce.
Si la inflación implica o no un multiverso es otra historia, pero Planck puede ofrecer pistas sobre eso también.
Conforme los universos burbuja se expanden, pueden colisionar entre sí. Si otro universo resulta haber impactado con aquel en el que vive gente, Planck podría ser capaz de detectar un patrón particular de puntos calientes y fríos en el fondo de microondas.
Incluso si no pueden observarse signos de colisión, aún podrían existir otros universos burbuja. Las subidas podrían ser tan poco frecuentes que los observadores tendrían que esperar un milenio para encontrar el patrón.
Si esta prolongada incertidumbre sobre el génesis cósmico te suena a purgatorio, ten en cuenta las palabras del anónimo citado en las Confesiones de San Agustín. Cuando preguntó qué hacía Dios antes de crear el cielo y la Tierra, el hombre respondió: “Estaba preparando el Infierno para aquellos que curiosean demasiado”.
El propio San Agustín encontró la respuesta graciosa: “De buena gana habría contestado: ‘No sé lo que no sé’”.

Autor: Ron Cowen
Fecha Original: 23 de abril de 2011
Enlace Original

No parece haber nueva partícula

Fuente: Neofronteras

El grupo independiente D0 del Fermilab dice no tener datos que respalden la supuesta señal de una nueva partícula propuesta por el grupo CDF.
Foto
En el pasado abril vimos por aquí la posibilidad de la existencia de una nueva partícula elemental. El título se puso entre interrogaciones porque el resultado era muy preliminar y la estadística no era perfecta (4 σ en lugar de 5 σ). El resultado fue lanzado por el grupo CDF del Fermilab y prometía una nueva física más allá del modelo estándar. Se lanzaron incluso explicaciones teóricas exóticas para explicar el asunto que incluían incluso la resurrección del tecnicolor.
Ahora, el grupo independiente D0, también en el Fermilab, no confirma esos resultados. Dicen no tener datos que respalden esa supuesta señal. “Simplemente no vemos nada”, dice Dmitri Denisov, que es portavoz del grupo.
Según Denivos, quizás haya algo erróneo el modo en el que la gente del CDF modela los eventos de fondo al extraer “su señal”. La estadística de este grupo es ligeramente mejor (4,3 σ frente a 4,1 σ) que la del grupo del CDF, así que el problema no parece ser estadístico. Recordemos que se necesita una estadística de 5 σ para poder reclamar el descubrimiento de una nueva partícula.
Pero este desacuerdo entre los grupos que comparten un mismo colisionador (aunque distintos experimentos) es muy rara. En los 500 artículos publicados por los dos experimentos (se suele llamar “experimentos” a los detectores) en la pasada década sólo ha habido dos o tres desacuerdos significativos.
El próximo paso será que miembros de ambos grupos se sienten juntos para debatir sus técnicas de análisis con cuidado. Aunque el Tevatrón se cerrará en septiembre, los análisis de datos continuarán y se espera que haya suficientes datos como para solventar el conflicto.
Por otro lado, en el CERN tampoco han conseguido ver nada en el experimento CMS del LHC en la gama de energías en la que el grupo CDF vio su partícula, pero en este caso la estadística es la peor de momento.
En resumidas cuentas, esto es un jarro de agua fría para aquellos que esperaban una nueva partícula no predicha por el modelo estándar y para los teóricos que se apresuraron en dar una explicación. Pero la ciencia es así, sin la validación experimental ni la reproducibilidad de los resultados no habría ciencia.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3521
Fuentes y referencias:
Noticia en Nature.
Artículo en ArXiv.
Foto: Fred Ullrich/ Fermilab

Almacenan antiátomos durante 1000 segundos

Fuente: Neofronteras

El equipo internacional ALPHA han conseguido almacenar antiátomos, algunos de ellos durante casi 17 minutos.
Foto
Esquema de la trampa magnética utilizada por ALPHA.
Hace un poco más de medio año relatábamos en NeoFronteras que se había conseguido atrapar y almacenar antiátomos por primera vez. Sólo fueron 38 antihidrógenos por separado durante una fracción de segundo cada uno, pero ese resultado nos decía que el día en el que se consiguiese almacenar los suficientes átomos como para hacer experimentos estaba cerca.
Los resultados se han ido mejorando hasta que ahora los miembros del equipo internacional ALPHA han conseguido almacenar 309 antiátomos, algunos de los cuales durante 1000 segundos (casi 17 minutos). Es decir, en estos meses se ha multiplicado el tiempo de confinamiento por 5000.
Lo interesante es que al cabo de 1 segundo estos antihidrógenos habrán dejado de estar excitados para alcanzar el estado fundamental (el de mínima energía) y que 1000 segundos son más que suficientes para hacer medidas sobre este tipo materia. Esto abre la puerta a nuevos experimentos en antimateria, ya que muchos de los experimentos necesitan átomos en ese estado durante tiempo suficiente.
Para ver cómo funciona ALPHA lo mejor es remitirse al post publicado en su día y referenciado abajo.
ALPHA sólo es capaz de capturar átomos cada 15 minutos en su trampa magnética y hasta ahora la única manera que tienen los investigadores de saber si han tenido éxito es desactivar la trampa y que los antiátomos atrapados (y ahora liberados) se aniquilen contra las paredes y emitan radiación en el proceso.
Además de mejorar el tiempo de almacenamiento este grupo de investigadores ha mejorado el rendimiento del proceso. Antes sólo conseguían atrapar 1 átomo de cada diez intentos, ahora la relación es casi de uno a uno.
Aunque 17 minutos no parezca mucho, es un tiempo superior al que se ha conseguido por confinamiento magnético para átomos ordinarios en otros laboratorios.
Aparte de este logro, en este caso ya se ha conseguido medir la distribución de energía de los antiátomos almacenados por primera vez.
Ya sólo quedaría aumentar el número de antiátomos atrapados a la vez y efectuar medidas. Este verano se espera inducir cambios en antiátomos usando microondas para así determinar las propiedades del antihidrógenos y tratar medir la asimetría entre materia y antimateria con precisión.
Ya hay un programa para actualizar el instrumental de ALPHA y realizar nuevos experimentos, como el uso de láseres para hacer espectroscopía y para enfriar átomos de antihidrógeno. En 2012 esperan moverse hasta este nivel.
Si consiguen realizar ese tipo de experimentos por fin sabremos si la física de antimateria es igual a la de materia o si se comportan igual frente al campo gravitatorio. Cualquier discrepancia en este sentido nos podría dar pistas importantes sobre por qué hay más materia que antimateria en el Universo observable.
Se trata, en definitiva, de ver violaciones de la simetría CPT. Si eso se da podría significar que no necesita mantenerse la invarianza Lorentz de la Relatividad Especial.
No está claro quién conseguirá hacer estas primeras medidas “interesantes” en el antihidrógeno. Un competidor de ALPHA es ATRAP, que también trata de confinar antiátomos durante largo tiempo, pero de momento su marca es inferior a la de ALPHA. Quieren conseguir del orden de 100 antiátomos atrapados por intento. La idea es conseguir muchos más átomos atrapados para realizar experimentos del tipo relatado con alta precisión.
Obviamente en ningún caso se conseguirá suficiente antimateria como para fabricar bombas al estilo Dan Brown ni para el vuelo interestelar.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3524
Fuentes y referencias:
Nota de prensa.
Artículo original.
Atrapan antiátomos.

Primera observación de 8 fotones entrelazados bate el récord de entrelazamiento

Fuente: Ciencia Kanija

Artículo publicado el 2 de junio de 2011 en The Physics ArXiv Blog
Un “Gato de Schrödinger” de 8 fotones está entre las primeros nuevos objetos cuánticos que son posibles gracias a este avance, comentan los físicos.
El entrelazamiento es el extraño fenómeno cuántico en el cual los objetos quedan tan estrechamente vinculados que comparten la misma existencia. En el lenguaje de la física, se describen mediante la misma función de onda.
Entrelazamiento de 8 fotones

El entrelazamiento no es en realidad tan difícil. La mayor parte de interacciones implican entrelazamiento de un tipo u otro.
El problema está en precisarlo. El entrelazamiento es un fenómeno frágil y efímero. Parpadeas y se filtra al entorno. Por esto es por lo que es tan difícil de conservar, observar y, en última instancia, que los físicos jueguen con él.
En los últimos años, los físicos han aprendido cómo entrelazar todo tipo de objetos en parejas – fotones, electrones, átomos, etc. En 1999, crearon un qutrit entrelazando tres fotones. El año pasado, incluso entrelazaron 6 fotones.
Hoy, sin embargo, Xing-Can Yao y sus colegas de la Universidad de Ciencia y Tecnología de China en Hefei, dicen que han batido este récord entrelazando 8 fotones, luego manipulándolos y observándolos simultáneamente.
Ésta no es una hazaña fácil. Conseguir que ocho fotones se encuentren exactamente donde tú quieres al mismo tiempo es el equivalente mecánico cuántico de pastorear gatos (claramente del tipo de Schrödinger).
El truco está en enviar primero un fotón de alta energía a través de un cristal no lineal que lo convierte en dos fotones entrelazados de menor energía. Uno de ellos, el fotón A, entre en el aparato experimental mientras que el otro se divide de nuevo en dos gracias a otro cristal.
Este par está, desde luego, entrelazado con el fotón A. Uno de este par entre en el aparato mientras que el otro se divide de nuevo, creando otro par que está entrelazado con el fotón A. Uno de ellos entra en el aparato mientras que el otro se divide, y así sucesivamente, hasta que hay ocho fotones en el aparato, todos entrelazados entre sí y con el fotón A.
El problema de este proceso es que da como resultado un haz muy débil. Con el tipo de láseres disponible hasta hace poco, lo mejor que se podría lograr era una tasa de recuento de unos 10-5 hertz. Esto es una ráfaga simultánea de 8 fotones cada cien mil segundos, o aproximadamente un recuento por día. Ni siquiera los postdocs tienen ese tipo de paciencia.
Xing-Can Yao y sus colegas dicen que han solventado esto usando una fuente láser ultravioleta mucho más brillante, la cual genera pares de fotones entrelazados a un ritmo mucho más alto. Por supuesto, también han tenido que aprender a manipular ocho fotones entrelazados.
Esto es algo significativo. Tener ocho fotones entrelazados es lo más cerca que han estado los físicos de tener al gato de Schrödinger en un laboratorio. Esto “puede proporciona una nueva visión a nuestra comprensión de las intrigantes cuestiones de la transición clásica a cuántica”, dicen Xing-Can Yao  y sus colegas.
Pero también permite una gran cantidad de otros trucos cuánticos. Por ejemplo, un estado de ocho fotones debería permitirles demostrar una potente forma de corregir errores cuánticos conocida como corrección de errores topológica. Muchos físicos creen que la corrección de errores topológica será una de las primeras tecnologías permitidas por la computación cuántica, pero nadie ha sido capaz de ponerla a prueba, hasta ahora.
Y ser capaz de manipular un estado de ocho fotones les permitirá simular otros sistemas cuánticos. Esto debería posibilitar la simulación, por primera vez, de varios fenómenos de la química cuántica e incluso de la biofísica.
Y hacerlo usando nada más que luz (con un poco de humo y espejos).

Fecha Original: 2 de junio de 2011
Enlace Original

lunes, 13 de junio de 2011

Luna roja

Fuente: http://danielmarin.blogspot.com/2011/05/luna-roja.html

En los años 60 del siglo XX tuvo lugar un acontecimiento único en la historia de la humanidad. Espoleadas por su enfrentamiento mundial en plena Guerra Fría, las dos superpotencias decidieron llevar su rivalidad al espacio con el fin de intentar poner un hombre en la Luna. La competición finalizaría cuando Neil Armstrong puso un pie en el Mar de la Tranquilidad en julio de 1969. Durante años, la Unión Soviética negó que hubiese participado en la carrera lunar y muchos pensaron que Estados Unidos había competido en solitario. Pero estaban equivocados. La URSS se esforzó por adelantarse al programa Apolo de la NASA… aunque no se puede decir que lo intentara con todas sus fuerzas. Ésta es la historia del programa lunar soviético.

Esta entrada ha sido realizada conjuntamente por Paco Arnau de Ciudad Futura y Daniel Marín de Eureka. Vuestros comentarios serán bienvenidos en ambos sitios. Este trabajo común parte de nuestra convicción de que la Red debe servir para colaborar y compartir ideas, conocimientos e iniciativas.


Viajar a la Luna

En
1960, la oficina de diseño OKB-1 del mítico ingeniero jefe Serguéi
Pávlovich Koroliov había conseguido lo inimaginable. En el transcurso de
sólo tres años fue capaz de poner en órbita el primer satélite
artificial de la Tierra (el Sputnik), el primer ser vivo en el espacio
(Laika) y las primeras sondas hacia la Luna, entre otros muchos logros.
El siguiente objetivo era lanzar un hombre al espacio y para ello estaba
diseñando un nuevo tipo de nave, la Vostok 3KA

(Восток, "oriente"). Todos estos éxitos eran el resultado directo de la
enorme potencia del cohete R-7 Semiorka, el primer misil
intercontinental de la historia, también obra de Koroliov.

En
realidad, en un principio el gobierno soviético no había mostrado
ningún interés especial en explorar el espacio. El trabajo de Koroliov
debía limitarse a diseñar misiles para los militares, que eran los que
pagaban las costosas facturas del proyecto. Pero la impresionante
repercusión mediática del Sputnik pronto hizo cambiar de opinión a
Jruschov, quien vio en las hazañas espaciales una magnífica oportunidad
para promocionar los triunfos del modelo soviético en el mundo entero.
Al otro lado del Atlántico, los políticos estadounidenses llegaron a la
misma conclusión, aunque quizás un poco más tarde. El espacio se había
convertido en el nuevo campo de batalla mediático de la Guerra Fría.

Gagarin y el Apolo

El 12 de abril de 1961 despegaba la primera nave tripulada de la humanidad, la Vostok 1. El vuelo de Yuri Gagarin
desataría una serie de acontecimientos que cambiarían la historia de la
exploración del espacio para siempre. A veces se habla del "momento
Sputnik" para definir la sensación de impotencia y humillación que
sufrió EEUU cuando la URSS se les adelantó a la hora de poner en órbita
el primer satélite artificial. Sin embargo, el "momento Gagarin" fue
mucho peor. En esta ocasión, los estadounidenses no podían esgrimir la
excusa de que el lanzamiento les había cogido por sorpresa.

El
gobierno norteamericano había creado en 1958 una agencia espacial
civil, la NASA, con el objetivo expreso de ganar a "los rusos" en la
carrera por poner un hombre en órbita. La conmoción en todo el país fue
mayúscula. Quizás, después de todo, la URSS era una nación mucho más
avanzada tecnológicamente y no había nada que hacer al respecto.

Intentando
refutar esta idea, el 25 de mayo de 1961 el presidente John F. Kennedy
pronunció su famoso discurso ante el Congreso de EEUU, embarcando a toda
la nación en una aventura increíble. “Antes de que termine la década”,
anuncia Kennedy, “pondremos un hombre en la superficie lunar y lo
traeremos de vuelta sano y salvo”. Un desafío simple a la vez que
ambicioso. Visto desde la perspectiva actual, el discurso de Kennedy
quizás no parezca demasiado revolucionario, pero hay que tener en cuenta
que en el momento de pronunciarlo ningún ciudadano estadounidense había
alcanzado la órbita terrestre. 

Kennedy
había lanzado el reto y ahora había que llevarlo a cabo. Poco después,
la NASA aprobaría el programa Apolo para poner un hombre en la Luna.
Nadie sabía cuál sería la respuesta soviética... aunque estaba claro que
aceptarían el desafío.

Alrededor de la Luna: 1L y 7K-9K-11K

En
la URSS los primeros planes realistas para viajar a la Luna se
remontaban a 1958, cuando Koroliov había encargado un estudio sobre la
viabilidad de una misión de este tipo. En 1959, el Departamento nº 9 de
la OKB-1, dirigido por Mijaíl Tijonrávov, había propuesto un proyecto de
sobrevuelo lunar utilizando varios cohetes R-7 para ensamblar en órbita
baja una nave capaz de dirigirse hacia la Luna.

En
un principio se pensó en utilizar la nueva Vostok 3KA para esta misión,
pero la Vostok no era la mejor nave para misiones más allá de la órbita
baja. Su forma esférica era inadecuada para soportar la tremenda
deceleración que debía sufrir un cosmonauta al regresar de la Luna
durante una reentrada atmosférica a 11 km/s, cercana a veinte veces la
aceleración de la gravedad terrestre. 

Por
suerte, la OKB-1 finalizó en 1962 el diseño de la siguiente nave
tripulada soviética, la Soyuz (Союз, “Unión”), dotada de una cápsula en
forma de campana que le permitiría cierta capacidad de maniobra durante
el descenso a través de la atmósfera. A diferencia de las Gemini y Apolo
norteamericanas, formadas por dos módulos (la cápsula tripulada y el
módulo de servicio), la Soyuz estaba dividida en tres secciones: módulo
orbital (BO), aparato de descenso (SA) y módulo propulsivo (PAO); lo que
permitía maximizar el volumen interno de la nave al mismo tiempo que se
limitaba la masa total del vehículo. Curiosamente, la NASA descartó un
diseño similar para su nave Apolo (la Apollo D-2
de General Electric), prefiriendo una configuración mucho más conservadora propuesta por la empresa North American.

Pronto
se propuso usar la Soyuz —por aquel entonces todavía denominada Séver
(Север, “norte”)— para realizar una misión de sobrevuelo de nuestro
satélite. El proyecto se llamó 1L y preveía el lanzamiento de tres
cohetes derivados del R-7 con el fin de poner en órbita dos módulos no
tripulados con combustible y una nave Séver. El proyecto 1L permitía
realizar una misión lunar usando solamente cohetes R-7 y pequeños
módulos, pero por aquel entonces las operaciones de acoplamiento y
trasvase de combustible en órbita baja eran un desafío tecnológico de
primer orden. No obstante, Koroliov cambió repentinamente de opinión y
ante los retrasos en el desarrollo de la Soyuz decidió modificar el
programa 1L sustituyendo la nave Séver por una nave Vostok modificada
denominada 7K. Este plan sería presentado el 10 de marzo de 1962 y en él
aparece por primera vez el nombre de "Soyuz", aunque como vemos se
utilizó para designar un proyecto protagonizado por una variante de la
nave Vostok. Para evitar confusiones, este plan suele recibir el nombre
de Vostok-7.


Pero
este proyecto no duraría mucho y a mediados de 1962 Koroliov vuelve a
cambiar de idea. Como resultado, el 24 de diciembre de 1964 sería
aprobado un nuevo plan de sobrevuelo lunar denominado 7K-9K-11K para
mandar a dos cosmonautas alrededor de la Luna. La 7K —no confundir con
la Vostok 7K anterior— sería una variante de la nave Séver con una masa
de 5,5-5,8 toneladas y una longitud de 7,7 metros. Su forma sería
básicamente similar a la Soyuz que todos conocemos, aunque el módulo
orbital tenía forma cilíndrica y no esférica. La 9K sería un módulo de
propulsión que aceleraría la nave 7K hasta los 11 km/s y la situaría en
una trayectoria hacia la Luna. La 9K tendría una masa de 5.800 kg, 7,8
metros de longitud y estaría dividida en dos secciones: 9KN —desechable—
y 9KM. Los tanques de combustible de la 9K estarían vacíos, por lo que
se tendría que acoplar con cuatro naves 11K para trasvasar los
propergoles necesarios. Cada una de las 11K tendría una masa de 6.100 kg
y 4,5 metros de longitud. Conviene señalar que en ocasiones se suele
denominar incorrectamente al proyecto 7K-9K-11K como Soyuz A-B-V (A, B y
V son las tres primeras letras del alfabeto cirílico), pero ésta es una
clasificación inventada por algunos autores soviéticos a principios de
los años 80 cuando el proyecto 7K-9K-11K era aún secreto de Estado.

Objetivo: pisar la Luna

De izquierda a derecha: Serguéi Koroliov, Vasili Mishin, Valentin Glushko y
Vladímir Cheloméi

El
proyecto 7K-9K-11K era ambicioso pero no lo suficiente. Mientras los
soviéticos ideaban planes para circunnavegar la Luna, la NASA tenía como
objetivo poner un hombre sobre nuestro satélite. Si la URSS no hacía
nada para remediarlo, el triunfo de la NASA sería aplastante. Porque una
cosa es lanzar una nave
alrededor de la Luna y otra muy distinta aterrizar en
su superficie. Las inexorables leyes de la mecánica celeste implican
que el gasto energético en este último caso es increíblemente mayor.
Para pisar la Luna sería necesario emplear un cohete mucho más grande y
potente que el venerable R-7
Semiorka. A principios de los años 60, la NASA ya había comenzado a diseñar los cohetes gigantes Nova y Saturno bajo la supervisión del ingeniero alemán Wernher von Braun, artífice del tristemente famoso misil nazi V-2 (A-4).

Por
supuesto, la OKB-1 era consciente de este problema y desde 1960 venía
diseñando un cohete gigante denominado N1 (la "N" viene de носитель;
nositel,
"portador", "lanzador") u 11A51 y que debía servir como base para una
familia de lanzadores más pequeños, como el N2 y el N3. El N1 fue
diseñado en principio para una misión a Marte, el objetivo preferido de
Koroliov, pero la competición con los norteamericanos y la proximidad de
nuestro satélite hacían del N1 un candidato perfecto para ser usado en
una misión lunar y terminaría por convertirse en la réplica soviética al
famoso Saturno V

de la NASA. No obstante, el proyecto N1 pronto tuvo que enfrentarse a
un conflicto que resultaría decisivo y que en última instancia sellaría
el destino del programa lunar soviético.

Glushkó y Koroliov: el enfrentamiento lunar

El
principal fabricante de motores cohete en la Unión Soviética era la
oficina OKB-456, dirigida por Valentín Petróvich Glushkó. Koroliov y
Glushkó tenían a sus espaldas una turbulenta relación que se remontaba a
los años 30, cuando fueron colegas de trabajo en el RNII, el primer
instituto de investigación del mundo dedicado exclusivamente al
desarrollo de cohetes. En 1938, en pleno apogeo del terror estalinista,
ambos fueron arrestados por el NKVD bajo la absurda acusación de ser
saboteadores a sueldo de una potencia extranjera. Para complicar las
cosas, Glushkó sería uno de los ingenieros que delató a Koroliov durante
los interrogatorios. 

Sin embargo, tras una brutal estancia en el Gulag
que estuvo a punto de costarle la vida en varias ocasiones, Koroliov
volvería a trabajar con Glushkó durante la Segunda Guerra Mundial,
aunque esta vez como subordinado suyo. Terminada la guerra, los dos
hombres se convertirían en los protagonistas del esfuerzo soviético para
hacerse con la tecnología del cohete V-2 alemán, aunque el proceso
culminaría con la construcción del R-7, un lanzador multietapa que
dejaba muy atrás el diseño de los V-2 y cuyos motores RD-107 y RD-108
serían obra de Glushkó.

Koroliov se mostraba partidario de emplear queroseno y oxígeno líquido en sus cohetes debido a su gran eficiencia (alto impulso específico),
mientras que Glushkó prefería el uso de combustibles hipergólicos (la
mayoría derivados del ácido nítrico y la hidracina). Este tipo de
propergoles es capaz de entrar en ignición cuando se mezclan, motivo por
el cual permiten en principio la construcción de motores más simples.
Además pueden permanecer casi indefinidamente almacenados en el interior
de un cohete, una característica muy útil para un misil balístico. Pero
hay que pagar un precio muy alto por estas ventajas: los combustibles
hipergólicos son menos eficientes además de ser altamente tóxicos.
Koroliov se oponía vehementemente a emplear en sus ingenios “el veneno
del diablo”, como los solía llamar. 

Koroliov
pensaba que el rechazo de Glushkó a este tipo de combustibles se basaba
en su incapacidad a la hora de diseñar motores criogénicos potentes. De
hecho, el ingeniero jefe había quedado bastante decepcionado con el
trabajo de Glushkó en el proyecto R-7. En realidad —y aunque el punto de
vista de Koroliov no era del todo equivocado— la decisión de Glushkó
tenía un origen más pragmático. En aquella época la mayor parte de
motores de la OKB-456 se destinaba a misiles hipergólicos fabricados por
las oficinas de Mijaíl Yangel (OKB-586) y Vladímir Cheloméi (OKB-52).
Consecuentemente, Glushkó consideraba que la construcción de grandes
motores criogénicos era una pérdida de tiempo y de recursos para su
oficina, así que presionó con todas sus fuerzas para que Koroliov
también emplease combustibles hipergólicos como el resto de sus
"clientes".

La
rivalidad entre Koroliov y Glushkó ha adquirido con el tiempo la
categoría de leyenda y no resulta extraño que algunos autores confundan
los hechos con medias verdades. Contrariamente a lo que mucha gente
piensa, el conflicto entre los dos ingenieros no nació con el cohete N1,
sino que se remonta a la fase de diseño del misil R-9
. El R-9 debía ser la respuesta de la OKB-1 al exitoso R-16 de
Yangel (el primer misil intercontinental soviético operativo), pero el
enfrentamiento por el tipo de combustible obligó a Koroliov a recurrir a
otro fabricante. Cansado de las disputas con Glushkó, Koroliov se
dirigió a la oficina OKB-276 de Nikolái Kuznetsov. La OKB-276 tenía por
entonces una gran experiencia en la construcción de motores a reacción
para aviones pero era una recién llegada al campo de los motores
cohete. 

Nikolái Kuznetsov, a la izquierda, con un motor NK-33 derivado del NK-15. A la derecha, un N1 es transportado hasta una de las dos rampas construidas para el programa en Baikonur.

Pese
a todo, la OKB-276 logró diseñar en un tiempo récord el motor NK-9
(8D517) para el misil R-9, una verdadera maravilla de la ingeniería. El
NK-9 usaba un novedoso esquema de combustión por etapas (también
denominado de ciclo cerrado), gracias al cual todo el combustible y el
oxidante participan en la propulsión. Este sistema ya se había empleado
en el prototipo D-33 de la OKB-1 y permitía construir motores mucho más
eficientes que los de ciclo abierto diseñados hasta entonces. Eso sí, a
cambio de una complejidad significativamente mayor. El NK-9 sería el
primer motor cohete de ciclo cerrado rico en oxígeno de la historia, un
diseño altamente capaz pero que presenta numerosos problemas prácticos
debido a la corrosión que sufre el metal en contacto con el oxígeno a
alta presión.

A
partir del NK-9, de 38 toneladas de empuje, Kuznetsov crearía el NK-15
(11D51) para el proyecto N1, un motor de 154 toneladas de empuje que
usaba el mismo diseño avanzado de ciclo cerrado rico en oxidante. El
NK-15 sería el punto de partida de los motores NK-15V, NK-19 y NK-21
usados en el resto de etapas del cohete lunar N1. La leyenda nos cuenta
que Kuznetsov no estuvo a la altura del desafío lunar y que sus motores
terminarían siendo la causa del fracaso del N1, algo que es
completamente falso. Cuando décadas después los ingenieros
estadounidenses conocieron las prestaciones de los motores de Kuznetsov y
pensaron que no podían ser ciertas. De hecho, Estados Unidos jamás
desarrolló un motor similar creyendo que las dificultades técnicas no
compensaban el incremento en prestaciones. En los años 70 la oficina de
Kuznetsov crearía el NK-33, una versión mejorada del NK-15 que todavía
se usa en la actualidad. 

Lamentablemente,
por muy bueno que fuese el trabajo de Kuznetsov, la OKB-276 carecía de
la experiencia y de las instalaciones de la oficina de Glushkó. Como
resultado, el NK-15 sólo tendría un empuje de 1500 kN, frente a los 7700
kN del motor F-1
empleado
en la primera etapa del Saturno V del programa Apolo. Para compensar el
bajo empuje del NK-15, el N1 debería hacer uso de un enorme número de
motores en su primera fase (Blok A), complicando sobremanera un diseño
de por sí bastante complejo.

Uno
de los mitos más persistentes relativos al programa lunar soviético es
que la URSS carecía de la tecnología necesaria para diseñar un motor
similar al F-1 del Saturno V. Sin embargo, a principios de los años 60
Glushkó concibió el RD-270
,
un motor hipergólico con una potencia comparable a la del F-1.
Desgraciadamente el desacuerdo con Koroliov impidió que esta tecnología
se aplicase al N1. Por otro lado —como hemos visto—, los NK-15 de
Kuznetsov eran unas maravillosas piezas de ingeniería únicas en el
mundo. De haber contado con más tiempo y dinero —especialmente esto
último— no cabe duda que Kuznetsov podría haber terminado construyendo
un digno rival del F-1 estadounidense.

Cómo viajar a la Luna

Mientras
el N1 iba tomando forma, había que decidir cómo llegar a nuestro
satélite. Hasta ese momento, la mayor parte de los planes lunares
soviéticos contemplaban el uso de varios lanzamientos para ensamblar una
nave en órbita baja terrestre antes de partir hacia la Luna. Este
esquema, denominado EOR (
Earth Orbit Rendezvous)
en la terminología de la NASA, permitía usar cohetes relativamente
pequeños, pero a cambio era necesario efectuar múltiples acoplamientos y
trasvases de combustible en órbita, algo considerado muy arriesgado
para la tecnología de la época. 

La
otra alternativa era el ascenso directo, que requería un único
lanzamiento. El problema era que en este caso el cohete debía ser
excepcionalmente grande y, por lo tanto, increíblemente complejo y caro.
Aunque éste fue originalmente el plan elegido para el programa Apolo,
la NASA optó en 1962 por una técnica intermedia llamada LOR (
Lunar Orbit Rendezvous)
que incluía acoplamientos en órbita lunar. Con LOR sólo era necesario
un lanzamiento, aunque la nave lunar debía dividirse en dos vehículos
distintos para disminuir la masa total del sistema. La NASA introdujo
así el módulo lunar (LM), una nave diseñada exclusivamente para poner
dos hombres en la superficie de nuestro satélite mientras el módulo de
mando y servicio (CSM) del Apolo esperaba en órbita con un tercer
astronauta.

Mientras
la NASA decidía su futuro, en la URSS no existía ningún plan de
alunizaje definido. Habría que esperar al 23 de septiembre de 1963 para
poder ver la primera respuesta soviética al programa Apolo, aunque sin
ningún apoyo oficial. Koroliov presentó entonces tres proyectos
distintos, llamados L1, L2 y L3. El L1 era en realidad el nuevo nombre
que recibiría el antiguo complejo 7K-9K-11K y que aún requería seis
lanzamientos del R-7 Semiorka. El L2 preveía el lanzamiento de varios
vehículos automáticos 13K, antecesores de las sondas lunares con
vehículos Lunojod. Por último, L3 debía ser la respuesta soviética al
Apolo, una respuesta que llegaba mal y tarde y sin la financiación
adecuada... pero una respuesta al fin y al cabo.

En
un principio, L3 utilizaría la técnica EOR para una misión de
alunizaje. Para ello serían necesarios tres lanzamientos del N1 y uno
del R-7 con una Soyuz tripulada. Ante la complejidad logística que
presentaba un número tan elevado de lanzamientos, Koroliov flirteó
brevemente con la idea de utilizar una nave Soyuz sin módulo orbital en
una misión de ascenso directo, pero pronto rechazó esta idea por ser
demasiado arriesgada. Al mismo tiempo, la OKB-1 propuso los proyectos L4
—para situar una nave Soyuz en órbita lunar— y L5, consistente en el
lanzamiento de un Lunojod pesado mediante un N1.
Frente
a la sencillez del plan LOR del Apolo, el programa L3 soviético
original resultaba especialmente complicado. Tras numerosas discusiones,
el 27 de julio de 1963 Koroliov y su lugarteniente, Vasili Mishin,
decidieron adoptar la técnica LOR usando un único lanzamiento del N1.

Nacía
así el proyecto N1-L3, que terminaría por convertirse en el equivalente
soviético del programa Apolo, aunque no sería aprobado formalmente
hasta un año más tarde. Los motivos que provocaron este cambio de EOR a
LOR siguen sin estar nada claros en la actualidad, aunque parece ser que
la decisión de la NASA tuvo una gran influencia en la opinión de
Koroliov.

 

Al
igual que el programa Apolo, N1-L3 preveía utilizar dos naves
distintas, el módulo lunar LK y la Soyuz LOK. La LOK (Лунный Орбитальный
Корабль;
Lunni Orbitalni Korabl,
"nave orbital lunar") u 11F93 era una Soyuz dotada de un módulo de
servicio más grande y con mayor capacidad de combustible. A diferencia
de la Soyuz 7K-OK orbital usaría células de combustible para generar
electricidad en vez de paneles solares. En su parte superior dispondría
de un módulo propulsivo adicional denominado DOK para maniobras
orbitales. El LK (Лунный Корабль;
Lunni Korabl,
"nave lunar") u 11F94 era un módulo lunar con una cápsula presurizada
de forma esférica y con dos motores de 2,05 toneladas de empuje: un
motor principal RD-858 —con una sola cámara con capacidad para regular
el empuje— y un motor de reserva RD-859 —con dos cámaras y de empuje
fijo—. Ambos motores formarían el llamado Blok E (o Blok Ye). A
diferencia del Apolo y para simplificar el diseño, la misión N1-L3
tendría una tripulación de dos cosmonautas. Sólo uno de ellos
descendería hasta la superficie lunar, algo que suponía un riesgo
considerable. Además del LK y la Soyuz LOK, el N1-L3 utilizaría una fase
adicional denominada Blok D para entrar en órbita lunar y descender
hasta la superficie con el módulo lunar LK.


Una típica misión N1-L3 seguiría las siguientes etapas:
  • El
    cohete N1 despegaría desde Baikonur con dos cosmonautas dentro de la
    Soyuz LOK, situada en el extremo superior del cohete. El módulo LK
    estaría situado bajo el LOK en el interior de un compartimento
    cilíndrico durante todo el viaje hasta la Luna.
  • Pocos
    minutos después del despegue, el N1 situaría en órbita baja terrestre
    al Blok G y al conjunto N1-L3 (formado por la Soyuz LOK, el LK y el Blok
    D), con una masa total de 92 toneladas como mínimo.
  • La
    cuarta etapa del N1, el Blok G, encendería su motor NK-19 durante 480
    segundos para situar al conjunto N1-L3 en una trayectoria lunar.
  • Cuando
    el complejo sobrevolase la cara oculta de la Luna, el Blok D se
    encendería para frenar el conjunto en órbita lunar. Después realizaría
    varios encendidos para circularizar la órbita.
  • Para
    ahorrar peso, las dos naves no estarían comunicadas por un túnel como
    en el Apolo, así que el cosmonauta que debía descender a la Luna se
    pondría un traje espacial Krechet ("halcón") y realizaría una actividad
    extravehicular (EVA) para ir desde LOK hasta el LK. El segundo
    cosmonauta usaría un traje Orlán ("águila") para ayudarle en la tarea si
    fuera necesario.
  • Tras
    comprobar que los sistemas funcionan correctamente, el LK con el Blok D
    se alejaría de la LOK y comenzaría el descenso hacia la superficie
    lunar mediante un encendido continuo de su motor. Antes de alunizar
    tendría lugar una maniobra altamente arriesgada, considerada por muchos
    como el talón de Aquiles de la misión. A tan sólo 1,5-2 kilómetros de
    altura, el Blok D se separaría del LK para estrellarse contra la
    superficie. Al mismo tiempo, los motores principales del LK debían
    encenderse para realizar la fase final de descenso. El cosmonauta sólo
    tendría 25 segundos para controlar la nave y buscar un lugar para
    aterrizar antes de que se agotase el combustible.
  • Una
    vez en la superficie el cosmonauta podría realizar una única EVA de
    hasta seis horas de duración para explorar los alrededores y plantar la
    bandera soviética sobre el suelo lunar. El LK estaba dotado con un
    taladro y otros instrumentos para estudiar la superficie desde el
    interior de la cabina.
  • Terminada
    la misión, el Blok E del LK se encendería otra vez y la nave se
    elevaría hasta la órbita usando la estructura de aterrizaje como
    plataforma de lanzamiento. Una vez en órbita, el LK se acoplaría con la
    Soyuz LOK gracias al sistema Kontakt y el cosmonauta realizaría otra
    EVA, esta vez con las rocas lunares, para pasar del LK a la LOK.
  • Por
    último, la Soyuz LOK encendería el Blok I (formado por un motor 5D51 de
    3,388 toneladas de empuje) para abandonar la órbita lunar. Unos tres
    días más tarde la cápsula reingresaría en la atmósfera terrestre sobre
    el Océano Índico a 11,2 km/s, aterrizando finalmente en territorio
    soviético después de una reentrada doble.

Los 30 motores NK-15 de la primera etapa (Blok A) del N1.

Además
de una grave falta de redundancia, el mayor problema al que se
enfrentaba el plan N1-L3 era la masa. Las escasas 75 toneladas de
capacidad del gran cohete N1 hacían casi imposible llevar a cabo una
misión de tipo LOR. Koroliov y Serguéi Kriukov, el responsable del
diseño del N1 dentro de la OKB-1, iniciaron entonces un programa de
choque para aumentar la capacidad de carga del cohete hasta las 92-95
toneladas en órbita baja, consideradas lo mínimo para una misión LOR en
condiciones. Para ello se incrementó el ya de por sí elevado número de
motores NK-15 de la primera etapa de 24 a 30 unidades. Al mismo tiempo
se introdujo el sistema automático KORD para controlar el funcionamiento
de esta
pléyade
de motores. En caso de que algún motor fallase, el sistema KORD debía
redistribuir el empuje de las restantes unidades para evitar que el
cohete se saliese de su rumbo.

Con
el fin de ahorrar peso los tanques de combustible tendrían forma
esférica, un novedoso diseño que le daría al N1 una inconfundible
apariencia cónica. Esta decisión estaba motivada por las limitaciones de
la industria metalúrgica soviética de la época, incapaz de producir
láminas de aluminio de más de 13 milímetros de grosor.

Debido
a su gran tamaño no se podían mandar hasta el cosmódromo las piezas del
N1 por ferrocarril como en el caso de otros lanzadores; así que se
decidió ensamblarlo en Baikonur en posición horizontal dentro de un
gigantesco edificio de montaje (MIK-112) construido
ex profeso (el equivalente al VAB de la NASA en el Centro Espacial Kennedy). 



La indiferencia del gobierno

Más allá de las disputas infantiles
entre ingenieros, el principal responsable del retraso del programa
lunar soviético fue el propio gobierno. Mientras el proyecto Apolo
pronto contó con una organización centralizada y recursos financieros
más que adecuados para el programa lunar, a principios de 1964 la Unión
Soviética aún carecía de un plan oficial para alcanzar la Luna. La
financiación del programa N1 era claramente insuficiente comparada con
el Apolo, pero lo peor fue que el gobierno permitió que otras oficinas
de diseño —especialmente la OKB-52 de Vladímir Cheloméi— siguieran
adelante con planes lunares alternativos, derrochando así los escasos
recursos disponibles y creando una enorme confusión en el plano
organizativo. 

El
3 de agosto de 1964 —tres años más tarde que en Estados Unidos—
llegaría por fin la tan esperada aprobación gubernamental al programa
lunar soviético. Sin embargo, lejos de poner orden, el secretario
general Jruschov complicó aún más el panorama espacial al transferir el
programa L1 de Koroliov a la OKB-52. Vladímir Cheloméi proponía lanzar
su nave LK-1 alrededor de la Luna usando un único lanzamiento del nuevo
cohete UR-500K Protón frente a los seis cohetes
Semiorka
requeridos por la OKB-1 para lograr el mismo objetivo. El jefe de la
OKB-52 se había convertido en el niño mimado de Jruschov y la decisión
del 
premier había
que interpretarla como un triunfo más de Cheloméi en su vertiginoso
ascenso hacia el control del programa espacial soviético.

Como resultado, en 1964 la URSS no tiene uno, sino dos programas
 

lunares: el L1 de Cheloméi para sobrevuelos lunares y el programa de
 

alunizaje N1-L3 de Koroliov. Pero lo cierto es que, a pesar de la
 

aprobación oficial, prácticamente no se destinan fondos adicionales para
 

el N1-L3. Para empeorar las cosas, el gobierno decidió seguir adelante
 

con el programa Vosjod (naves Vostok modificadas) con el fin de llevar a
 

cabo varias misiones de gran impacto mediático.