miércoles, 25 de abril de 2012

El flujo de muones en Gran Sasso podría explicar la oscilación anual en el detector de materia oscura DAMA/LIBRA

Fuente: Francis (th)E mule
La ciencia avanza sin pausa como una locomotora, arrasando resultados previos que no estén asentados de forma firme. “La modulación anual de la señal en los detectores directos de materia oscura” observada por DAMA/LIBRA y confirmada por CoGeNT, podría ser explicada gracias al flujo de muones de los rayos cósmicos que penetran en el Laboratorio de Gran Sasso, donde está situado DAMA/LIBRA. Tres experimentos que se encuentran allí, MACRO, LVD y Borexino, han encontrado una oscilación anual compatible (en fase) con la de DAMA/LIBRA en el flujo de muones capaces de atravesar la montaña que protege este laboratorio subterráneo. El resultado se ha observado tras analizar los datos de estos tres detectores en los últimos 20 años y confirma la oscilación a 5,2 sigmas de confianza estadística. Por ahora no se puede afirmar que este nuevo resultado explique la oscilación de DAMA/LIBRA sin necesidad de materia oscura, ya que varios estudios teóricos apoyan la hipótesis contraria (que los muones no podían explicar la señal observada). El nuevo estudio además ha encontrado una sorpresa, el flujo oscilatorio observado encontrado presenta una modulación entre 10 y 11 años en fase con el ciclo solar; nadie esperaba que el Sol pudiera producir un flujo de muones con la energía observada que fuera capaz de alcanzar un laboratorio subterráneo como Gran Sasso. Además, los datos de la temperatura de la estratosfera no muestran la existencia de esta oscilación, por lo que los autores del estudio se atreven a calificar como “la anomalía de los muones” a esta discrepancia. Este nuevo resultado dará mucho que hablar en los próximos meses. El artículo, para los interesados en los detalles técnicos del análisis, es Enrique Fernandez-Martinez, Rakhi Mahbubani, “The Gran Sasso muon puzzle,” arXiv:1204.5180.
Esta figura ilustra por qué la modulación de los muones no explica fuera de toda duda la modulación observada por DAMA/LIBRA y cómo aún se mantiene cierta tensión entre ambas modulaciones. La fase de la modulación de muones es de 177,4 ± 2,2 días (con respecto al 1 de enero de 1991) mientras que la de la modulación anual de DAMA/LIBRA es algo menor (de unos 140 días); cambiar el punto de referencia para la medida de la fase no altera esta discrepancia. Este resultado va en la línea de resultados previos basados en un menor número de datos sobre los muones. Aún así, es muy sugerente la existencia de ambas modulaciones en el mismo laboratorio (LNGS). Ahora es el turno de los físicos teóricos que tendrán que darle al coco para tratar de explicar cómo es posible que la modulación anual de los muones explique el resultado observado en los detectores de materia oscura de DAMA/LIBRA. La ciencia, como siempre, apasionante y repleta de sorpresas.

martes, 24 de abril de 2012

Edición 3.141 Carnaval Matemáticas: ¿Cómo puedes contar hasta doce con los dedos de una sola mano?

Fuente: Francis (th)E mule


Pregunté en Twitter: ”Atención, pregunta: ¿Cómo puedes contar hasta doce con los dedos de una sola mano?” No pretendía que nadie me contestara, así que incluí la respuesta en el mismo tuit: “Señalando las falanges con el pulgar.” Algunos seguidores, como gerardo sanz (@conelhuracan) lo pusieron en práctica (“ese es el espíritu cientifico”). Esta manera de contar, que ilustra esta figura, es muy típica de India, Pakistán y Bangladesh. El hecho de que somos humanos, y a diferencia de otros primates tenemos un pulgar oponible a los demás dedos, nos permite contar hasta 12 gracias a las tres falanges de cada dedo de la mano utilizando el pulgar como indicador; por supuesto, podemos llegar hasta 24 utilizando las dos manos. El profesor Yutaka Nishiyama (Universidad de Economía de Osaka, Japón) ha descrito 27 maneras de contar con las manos en su artículo “Counting with the Fingers,” Osaka Keidai Ronshu 60, 2010. Permíteme revisar algunas de estas maneras.
Nos cuenta Nishiyama que de viaje por Europa trató de pedir una cosa en Francia levantando el dedo índice con el puño cerrado pero que no le entendieron. Por lo que parece en ciertas zonas de Japón y China se cuenta de esta manera, empezando por el dedo índice y usan el pulgar tras el meñique. Curioso. Yo he de confesar que no lo sabía.
Nishiyama se sorprendió cuando descubrió que en Francia (y en Alemania) se dice uno levantando el dedo pulgar, como muestra esta imagen, porque se cuenta empezando por el pulgar y acabando por el meñique (yo creo que en España también es la forma más habitual de contar).
En Filipinas por lo que parece se cuenta al revés, empezando por el dedo meñique y acabando por el pulgar. Nishiyama confiesa que le extraña mucho esta forma de contar porque en Japón el puño cerrado con el meñique levantado significa mujer.
Pero resulta que en Japón también se utiliza otra forma de contar doblando los dedos, empezando por el pulgar, luego el índice, etc., como ilustra esta figura. Contar así a mí no me resulta cómodo, debe ser la falta de costumbre.
El más difícil aún es cómo cuentan en China hasta 10 con una sola mano. Utilizan el mismo sistema japonés para contar de 1 a 5 (empezando por el índice y acabando por el pulgar), pero de 6 a 10 utilizan gestos que parecen sacados de un lenguaje para sordomudos.
No os aburro más. El que quiera seguir jugando con sus dedos que se lea el artículo de Nishiyama, que he visto, como no, en “Prof. Nishiyama – #3 – Finger Counting,” Improbable Research, March 28th, 2012.
Por cierto, en el Carnaval de Matemáticas 3.14 nos explicaron cómo contar hasta 31 utilizando una sola mano: “Conteo con los dedos al estilo binario,” La Covacha Matemática, 21 Mar. 2012. Por ello, esta entrada participa en la Edición 3,141 del Carnaval de Matemáticas (web del Carnaval), albergado en esta ocasión por DesEquiLIBROS. Lectura y Cultura (anuncio oficial, lunes 9 de abril de 2012). “Las fechas de celebración del Carnaval serán del 23 al 29 de abril. Y el Día 30 publicará en su blog el resumen con todas las contribuciones que se haya producido. (…) Esta edición del Carnaval de Matemáticas está dedicado al profesor y amigo Giorgio Israel, matemático e historiador de la ciencia.”
PS: Gran entrada de Jeibros, “¿Por qué un segundo dura un segundo?,” Idea secundaria, 12 abr. 2012. “Hay una explicación lógica a usar el número 60 y es que los sumerios con una mano contaban hasta 12 y con las dos, hasta 60. ¿Cómo es eso? Los sumerios usaban los huesos de una mano de la siguiente manera para contar hasta 12. El pulgar se usa como marcador, luego se entenderá en el ejemplo.”

La modulación anual de la señal en los detectores directos de materia oscura

Fuente: Francis (th)E Mule

El resultado más impresionante de todos los experimentos de búsqueda directa de la materia oscura es la modulación anual observada por el experimento DAMA/LIBRA, situado en el Laboratorio Nacional de Gran Sasso, a 120 km de Roma, que alcanza las 8,9 sigmas de confianza estadística (recuerda que 5 sigmas son suficientes para un descubrimiento científico). El Sol se mueve a unos 220 km/s a través del halo galáctico de materia oscura de la Vía Láctea; en junio la velocidad de la Tierra (unos 30 km/s) está a favor de la velocidad del Sol y en diciembre está en contra, como resultado el choque (scattering) entre partículas de materia oscura y un blanco de ioduro de sodio (NaI) dopado con talio (Tl) de 250 kg muestra una oscilación anual. El último artículo técnico que presentó este resultado es R. Bernabei et al., “New results from DAMA/LIBRA,” Eur. Phys. J. C 67: 39-49, 2010 [arXiv:1002.1028].
No hay ninguna explicación convincente para esta modulación anual que no sea la existencia de partículas de materia oscura que interaccionan con el blanco; por ahora, todas las demás posibles explicaciones han sido descartadas. Por ejemplo, la posibilidad de que los muones de los rayos cósmicos sean los responsables ha sido claramente descartada comparando los resultados de DAMA/LIBRA con los obtenidos por otros experimentos de Gran Sasso (R. Bernabei et al., “No role for muons in the DAMA annual modulation results,” arXiv:1202.4179).
Para el público general, tras el fiasco de OPERA y sus neutrinos superlumínicos, cualquier resultado que provenga de Gran Sasso sugiere la posibilidad de que haya un error experimental sutil no detectado. Hasta que otros experimentos no confirmen de forma definitiva la modulación observada por DAMA/LIBRA y su hipótesis de que la materia oscura es la responsable, el resultado seguirá en la antesala de los Premio Nobel de Física. Se ha propuesto un experimento similar en el Polo Sur, también con 250 kg de NaI(Tl) pero todavía está en fase final de diseño; hay un prototipo con 17 kg instalado en una de las varillas de IceCube, pero aún no se han publicado sus resultados (J. Cherwinka et al., “A Search for the Dark Matter Annual Modulation in South Pole Ice,” arXiv:1106.1156).
La modulación anual DAMA/LIBRA ha sido observada en algunos experimentos, como CoGeNT, pero con una confianza estadística, por ahora, mucho más pequeña, el problema es que otros experimentos no la han visto, como CDMS-II (CDMS Collaboration, “Search for annual modulation in low-energy CDMS-II data,” arXiv:1203.1309). ¿Por qué algunos experimentos han visto la modulación y otros no? La opinión de algunos expertos es que estos experimentos no tienen la sensibilidad suficiente para observar la modulación, aunque según los responsables de CDMS II (Cryogenic Dark Matter Search, situado en el Laboratorio Subterráneo de la mina de Sudán (Soudan Underground Laboratory), en Minnesota, EEUU, debería tenerla. Una manera de resolver este problema es suponer que la materia oscura interacciona de forma diferente con protones y neutrones de los núcleos, lo que justificaría que los experimentos con xenón, como CDMS II, no observen la modulación.
La interacción entre la materia oscura y los núcleos de los átomos debe depender del espín, ya que el mejor límite de exclusión obtenido hasta el momento en dicho caso, por el experimento XENON 100, también situado en Gran Sasso, excluye la región de parámetros que explica el resultado de DAMA/LIBRA y CoGeNT (XENON100 Collaboration, “Dark Matter Results from 100 Live Days of XENON100 Data,” Phys. Rev. Lett. 107: 131302, 2011 [arXiv:1104.2549]). Sin embargo, algunos autores consideran que la sensibilidad de XENON100 en la región de partículas WIMP de baja masa no es suficiente para excluir un resultado compatible con DAMA/LIBRA.
El análisis de todos los experimentos de detección directa de la materia oscura requiere un modelo teórico subyacente y este modelo está sustentado en ciertas hipótesis estadísticas. El contorno (a) en esta figura es similar al obtenido por la colaboración XENON100, sin embargo, cambios en el modelo permiten mover esta curva hasta la posición (g), donde la compatibilidad con DAMA/LIBRA y CoGeNT es bastante buena. Esta figura está extraída de J.I. Collar, “A Realistic Assessment of the Sensitivity of XENON10 and XENON100 to Light-Mass WIMPs,” arXiv:1106.0653. El experimento XENON1T, actualmente en fase de construcción, decidirá fuera de toda dudas esta cuestión en un par de años.
En resumen, el resultado más impresionante en las búsquedas directas de la materia oscura apunta a partículas WIMP con una masa de pocos GeV, pero se encuentra en tensión con otros experimentos. En menos de un lustro sabremos si este resultado se confirma o se refuta. La materia oscura es mucho más sutil de lo que parece y las evidencias experimentales parece que se contradicen entre sí. Sabemos que existe pero cada día es más difícil construir un modelo teórico que la explique bien. Los jóvenes físicos tienen un gran filón con la materia oscura y la segunda década del s. XXI quizás pase a la historia por la solución de este problema.

Memoria de nanopuntos de silicio: 100 veces más rápida

Fuente: Neoteo

Los últimos desarrollos en memoria se han concentrado principalmente en aumentar el ancho de banda y reducir el voltaje, y aunque también se ha registrado un incremento en la velocidad, el beneficio final para el usuario tal vez no haya sido tan tangible como se esperaba. Aún así, se siguen explorando diferentes mejoras, y en esta ocasión, investigadores del Laboratorio Nacional de Nanodispositivos de Taiwán y la Universidad de California Berlekey han creado una memoria basada en nanopuntos de silicio, que puede ser escrita y borrada hasta cien veces más rápido que los productos de memoria actuales.
Muchos usuarios están sorprendidos por la velocidad que pueden ofrecer hoy las unidades de estado sólido. Sin embargo, dicha velocidad se hace palpable en comparación con lo que pueden hacer los discos duros convencionales. Ahora, frente a algo como la memoria RAM, se hace muy difícil pensar que los SSD no son tortugas. Los mejores SSD del mercado ofrecen cifras de 500 o 600 megabytes por segundo en lectura y unos 400-500 megabytes por segundo de escritura, pero a modo de ejemplo, la memoria DDR3 operando a una frecuencia de 100 Mhz tiene un máximo de transferencia de 6,400 megabytes por segundo. Dicho de otra manera, la tecnología de memoria no volátil que usamos hoy tiene aún mucho espacio para madurar y evolucionar. La velocidad es un punto fundamental, pero tampoco hay que descuidar detalles como la durabilidad.
Parece un mancha en la ropa, pero podría convertirse en el futuro del almacenamiento de datos - Memoria de nanopuntos de silicio
Parece un mancha en la ropa, pero podría convertirse en el futuro del almacenamiento de datos
Recientemente, un grupo de investigadores del Laboratorio Nacional de Nanodispositivos de Taiwán y la Universidad de California Berlekey presentaron información sobre un nuevo tipo de memoria no volátil basado en nanopuntos de silicio. Cada nanopunto, que no posee un diámetro mayor a tres nanómetros, cumple el rol de un bit. Los puntos son luego cubiertos con una capa metálica, y a través del disparo de un láser verde de alta precisión (tiene un intervalo inferior al microsegundo), se puede alternar entre la carga y la descarga de los nanopuntos, generando de forma efectiva los “1” y los “0” que se necesitan. De acuerdo a la información publicada, la memoria de nanopuntos podría escrita y borrada hasta cien veces más rápido que las memorias Flash actuales, y el método de fabricación de esta memoria sería compatible con las líneas de producción CMOS actuales, por lo que la transición a dicha tecnología no debería ser tan traumática para los fabricantes.
Por supuesto, todavía quedan muchos detalles por resolver y aclarar. En primer lugar, la memoria utiliza un promedio de siete voltios, un número que si bien no sería un problema, probablemente los desarrollos futuros sobre esta tecnología busquen reducir. Y en segundo lugar, tampoco se ha dicho nada en lo que se refiere a densidad de almacenamiento. Actualmente, los nanopuntos tienen un diámetro de tres nanómetros, pero si se planea su implementación a gran escala, uno de los objetivos más importantes será buscar la manera de reducir ese tamaño. Un aumento de cien veces en la velocidad de escritura es ciertamente tentador, pero esperamos que puedan explotar este descubrimiento eficientemente, en especial si hablamos del costo.

viernes, 20 de abril de 2012

Atención, pregunta: ¿Hay que tenerle miedo a las tormentas geomagnéticas fuertes?

Fuente: Francis (th)E Mule
La mayor tormenta geomagnética registrada en la Tierra en las últimas décadas fue el 13-14 de marzo de 1989; una lluvia partículas ionizadas que causó estragos en el campo magnético de la Tierra y en nuestros sistemas eléctricos (causó un apagón en Quebec, Canadá, dejando a 5 millones de personas sin electricidad durante 9 horas en pleno invierno y causando daños y pérdidas por unos 2 mil millones de dólares a las empresas del sector; en EEUU y en el Reino Unido causó daños menores). Muchas voces claman que debemos estar preparados para tormentas mucho peores, similares a la que ocurrió en septiembre de 1859 que afectó a las oficinas de telégrafos, induciendo chispas eléctricas en los equipos que produjeron algunos incendios. Se cree que una tormenta de esa escala hoy en día podría resultar desastrosa para nuestra sociedad; un estudio realizado por la Red Eléctrica Nacional del Reino Unido sugiere que una repetición del evento de 1859 dejaría a algunas regiones sin energía eléctrica durante varios meses; estudios realizados en Estados Unidos cuantifican el impacto económico en varios billones de dólares. La fuente de estas terribles tormentas geomagnéticas son las eyecciones de masa coronal, enormes erupciones de plasma que se producen durante las tormentas magnéticas en la atmósfera del Sol. Nos lo cuenta Mike Hapgood, “Astrophysics: Prepare for the coming space weather storm,” Nature 484, 311–313, 19 April 2012. Permíteme un breve resumen.
Los sistemas de predicción de tormentas geomagnéticas fuertes pueden alertar de su llegada con una antelación entre 10 y 60 minutos de antelación gracias a la sonda espacial ACE (Advanced Composition Explorer) de la NASA y con una antelación de unas 6 horas gracias al observatorio STEREO (Solar Terrestrial Relations Observatory) también de la NASA. Sin embargo, hay que mejorar estos pronósticos, ya que su fiabilidad a más largo tiempo es bastante baja. Todos recordamos la falsa alarma de marzo de 2012, cuando se predijo con una antelación de 18 horas una fuerte tormenta geomagnética que al final se quedó solo en un susto.
Los medios de comunicación de masas nos recuerdan a menudo que nos estamos aproximando a un máximo en el ciclo solar actual (que se repite cada 11 años más o menos) y que ello podría ser causa de gigantescas erupciones solares (como algunas de las que se han producido desde enero de 2012 y que hemos visto en todos los telediarios). Sin embargo, como muestra la figura de arriba, no hay una clara entre el ciclo solar y las tormentas geomagnéticas más importantes de las que se tienen registros (el evento de 1859 ocurrió fuera de un máximo del ciclo correspondiente). De hecho, se espera que el próximo máximo solar, alrededor de 2013 o 2014, será bastante débil.
Los modelos de ordenador para predecir las tormentas geomagnéticas están todavía en su infancia. Entender cómo las eyecciones de masa coronal se propagan por el espacio interplanetario, inyectan energía en la magnetosfera de la Tierra y cómo afecta la tormenta geomagnética resultante a la composición, las temperaturas y las velocidades de la parte alta de la atmósfera todavía está lejos. Los modelos actuales simplifican mucho toda la complejidad de la física implicada en estos fenómenos en aras a una mayor eficiencia computacional. Bajo estas restricciones el poder predictivo de los modelos es muy limitado.
Por todo ello es importante que la industria de la generación y transporte de la energía eléctrica sea consciente de la amenaza que suponen las tormentas geomagnéticas (como la de 1989 en Quebec) y tome medidas para evitar o al menos minimizar sus consecuencias. Un diseño más adecuado de las redes de transporte de la energía eléctrica puede lograr que sean mucho más robustas ante fluctuaciones de potencia y mediante el uso de suficientes generadores de reserva se podría capear en gran medida los efectos de la tormenta geomagnética. La industria de la aviación también tendría que tomar medidas. En la actualidad múltiples estudios están considerando cuáles son las medidas más rentables, tanto a priori como a posteriori.
Las tormentas geomagnéticas constituyen una seria amenaza a nuestra sociedad tecnológica y se requieren de fuertes inversiones en ciencia básica para avanzar en nuestro conocimiento sobre ellas. Sin esta ciencia básica será difícil que podamos predecir cuándo van a ocurrir y diseñar los sistemas de prevención que minimizarán sus consecuencias.

Se ha observado por primera vez el orbitón en un aislante Mott unidimensional

Fuente: Francis (th)E Mule
En un medio unidimensional un electrón se comporta como si fuera la superposición de tres cuasipartículas que se mueven de forma independiente; cada una de ellas está asociada a sus números cuánticos de espín, carga y momento angular, por ello se llaman espinón, cargón (u holón) y orbitón. Hace 15 años se observaron el espinón y el cargón; hoy se publica en Nature la primera observación del orbitón. Schlappa y sus colegas han observado orbitones en un óxido de cobre (Sr2CuO3) que contiene cadenas unidimensionales de moléculas de óxido de cobre (CuO3); los electrones de valencia pueden residir en las capas electrónicas de tipo 3d de los átomos de cobre centrales de la cada molécula. En un átomo libre hay cinco orbitales 3d, todos degenerados (todos con la misma energía), pero mediante iluminación por rayos X se puede lograr que se rompa esta degeneración. Si la irradiación es la adecuada, Schlappa y sus colegas han mostrado que los estados resultantes se dividen en dos fragmentos independientes, que se mueven en direcciones opuestas. Cuando se comparan sus propiedades con las estimaciones teóricas (desarrolladas hace más de 10 años) se observa que uno se porta como un espinón y el otro como un orbitón. Este último es la primera vez que se observa de forma clara e indiscutible. ¿Para qué pueden servir los orbitones? Se cree que estas cuasipartículas que solo existen en medios unidimensionales podrán tener aplicaciones en microelectrónica de alta integración permitiendo el desarrollo de cables integrados formados por un ristra de átomos (cuyo comportamiento está regido por las leyes de la física cuántica). Nos lo ha contado Ralph Claessen, “Solid-state physics: Electrons do the split,” Nature, Published online 18 April 2012, que se hace eco del artículo técnico de J. Schlappa et al., ”Spin–orbital separation in the quasi-one-dimensional Mott insulator Sr2CuO3,” Nature, Published online 18 April 2012.
PS: Zeeya Merali, “Not-quite-so elementary, my dear electron. Fundamental particle ‘splits’ into quasiparticles, including the new ‘orbiton’,” Nature News, 18 April 2012.

Un transistor basado en nanotubos de carbono con un canal de menos de 10 nanómetros

Fuente: Francis (th)E Mule
El ordenador que utilizas para ver esta página está fabricado mediante transistores que funcionan como interruptores on/off que permiten procesar información codificada en binario mediante ceros y unos. Se publica en Nano Letters un nuevo transistor basado en nanotubos de carbono cuyas prestaciones son mejores que los transistores convencionales y cuyo canal es de solo 9 nanómetros, valor que hay que comparar con los 32 nm de los transistores comerciales de silicio con el canal más pequeño del mercado (en laboratorios de investigación el récord actual ronda los 18 nm). El nuevo transistor tiene varias ventajas, además del menor tamaño, ya que conmuta más rápidamente y consume menor potencia; quizás esta última sea su mayor ventaja. El gran inconveniente es que la fabricación masiva y rápida de este tipo de transistores todavía está lejos; pero en este campo los avances a veces son muy rápidos. El artículo técnico es Aaron D. Franklin et al., “Sub-10 nm Carbon Nanotube Transistor,” Nano Letters 12: 758–762, 2012; lo he visto en Franz Kreupl, “Electronics: Carbon nanotubes finally deliver,” Nature 484: 321–322, 19 April 2012.

¿La primera mujer de Einstein fue coautora en secreto de su artículo de 1905 sobre la Relatividad?

Fuente: Ciencia Kanija

Artículo publicado el 18 de abril de 2012 en The Physics ArXiv Blog
Distintos historiadores han concluido que la primera mujer de Einstein, Mileva, pudo haber contribuido en secreto a su trabajo. Un nuevo análisis busca zanjar el asunto.
A finales de la década de 1980, el físico estadounidense Evan Walker Harris publicó en la revista Physics Today un artículo que sugería que la primera mujer de Einstein, Mileva Maric, fue una coautora no reconocida de su artículo de 1905 sobre la relatividad especial.
La idea generó una considerable controversia en esa época, aunque la mayor parte de físicos e historiadores la han rechazado.

Albert Einstein y Mileva Maric

Hoy, Galina Weinstein, investigadora visitante en el Centro de Estudios Einstein en la Universidad de Boston, espera zanjar el tema con un nuevo análisis.
La historia empieza después de la muerte de Einstein en 1955, cuando el físico soviético Abram Fedorovich Joffe comentó cierta correspondencia que había mantenido con Einstein al inicio de sus respectivas carreras en un artículo publicado en ruso.
Joffe había pedido a Einstein algunos borradores de sus artículos y escribió: “El autor de estos artículos – una persona desconocida en esa época, era un burócrata de la Oficina de Patentes en Berna, Einstein-Marity (Marity era el apellido de soltera de su esposa, que según la constumbre suiza se añadía al apellido de su marido)”. (Marity es una variante húngara de Maric).
Las teorías de la conspiración se inician con esta referencia a Einstein como Einstein-Marity, dice Weinstein. El resultado fue una compleja maraña de malos entendidos deliberados o accidentales.
El problema parece haber empezado con un famoso escritor científico ruso llamado Daniil Semenvich Danin, que interpretó que la cita de Joffe significaba que Einstein y Maric colaboraron en el trabajo. Esto más tarde se transformó en la idea de que Maric había sido originalmente coautora del artículo de 1905, pero su nombre fue eliminado en la versión final publicada.
Esto es claramente una mala interpretación, sugiere Weinstein.
Walker reinició esta controversia en su artículo de Physics Today. Sugería que Einstein pudo haber robado las ideas de su esposa.
Hay otra interesante línea para los teóricos de la conspiración. Los historiadores han traducido las cartas entre Einstein y Maric al inglés, permitiendo un análisis más detallado de su relación. Sin embargo, una de estas cargas incluye la frase: ”¡llevando nuestro trabajo sobre el movimiento relativo a una conclusión con éxito!”. Esto parece respaldar la idea de que ambos debían haber colaborado.
Sin embargo, Weinstein ha analizado las cartas en detalle y dice que las dos líneas de pruebas sugieren que esto era muy improbable. Primero, las cartas de Einstein están llenas de ideas sobre física, mientras que las de Maric no contenían ninguna, lo que sugiere que él la usaba como consejera más que colaboradora.
Segundo, Maric no era una física o matemática de especial talento. Suspendió sus exámenes finales y nunca logró un diploma.
Weinstein defiende que Maric podría, por tanto, no haber realizado ninguna contribución significativa y cita a otro historiador sobre el tema, que dice que no hay pruebas de que Maric estuviese dotada para las matemáticas, mientras que hay ciertas pruebas de que no lo estaba.
Sin embargo, queda un fleco suelto. Maric y Einstein se divorciaron en 1919, pero como parte del acuerdo de divorcio, Einstein acordó pagar a su ex-esposa cada corona que pudiese ganar por cualquier Premio Nobel con el que pudiera ser galardonado.
Weinstein sugiere que todo el mundo sabía que Einstein era uno de los favoritos para ganar el premio y que en el entorno de la Alemania de la posguerra, esta era una petición normal de una esposa que no quería el divorcio y sufría una depresión.
Walker, por otra parte, dice: “Veo difícil resistirse a la conclusión de que Mileva, justa o injustamente, vio esto como su recompensa por el papel que había desempeñado en el desarrollo de la teoría de la relatividad”.
Sin más pruebas, es difícil posicionarse. Pero es innegable que hay suficiente incertidumbre sobre qué sucedió en realidad para mantener ardiendo las llamas de la conspiración durante un poco más.

Artículo de Referencia: arxiv.org/abs/1204.3551: Did Mileva Marić Assist Einstein In Writing His 1905 Path Breaking Papers?
Fecha Original: 18 de abril de 2012
Enlace Original

martes, 17 de abril de 2012

La teoría del caos

Fuente: El Tamiz

Hablando de… es la serie caótica (hoy más que nunca) en la que recorremos el pasado saltando de asunto en asunto casi al azar, enlazando cada artículo con el siguiente y tratando de mostrar cómo todo está conectado de una manera u otra; los primeros veinte artículos de la serie están disponibles, además de en la web, en forma de libro, pero esto no tiene pinta de terminarse pronto. En los últimos artículos hemos hablado acerca del debate Huxley-Wilberforce sobre la evolución, en el que participó el “bulldog de Darwin”, Thomas Henry Huxley, que utilizó para defender las ideas de su amigo un cráneo de Homo neanderthalensis, nombre científico según el sistema creado por Carl Linneo y empleado en su obra magna, el Systema Naturae, que acabó en el Index Librorum Prohibitorum, lo mismo que todas las obras de Giordano Bruno, prohibidas por el Papa Clemente VIII, quien en cambio tres años antes dio el beneplácito de la Iglesia al café, bebida protagonista de la Cantata del café de Johann Sebastian Bach, cuya aproximación intelectual y científica a la música fue parecida a la de Vincenzo Galilei, padre de Galileo Galilei, quien a su vez fue padre de la paradoja de Galileo en la que se pone de manifiesto lo extraño del concepto de infinito, cuyo tratamiento matemático sufrió duras críticas por parte de Henri Poincaré, el precursor de la teoría del caos. Pero hablando de la teoría del caos…
A pesar de que pocos comprendieron su enorme relevancia, las conclusiones de Poincaré sobre el problema de los n cuerpos cambiarían nuestra concepción, si no del Universo, de nuestra capacidad para comprenderlo de manera absoluta. Como recordarás, el francés se había topado, al estudiar ese problema físico aparentemente simple, con el hecho de que una modificación levísima de los datos iniciales llevaba a soluciones que divergían en el tiempo. Además de eso, Poincaré se percató de otras características del problema que se convertirían, con el paso de los años, en los requisitos básicos de un sistema caótico — pero a esas otras características llegaremos un poco más adelante, cuando definamos un sistema caótico.
Porque, a pesar de que Poincaré fue el precursor de la teoría del caos, pasarían muchos años hasta que comprendiéramos las consecuencias de su descubrimiento. No es que la comunidad científica despreciase las conclusinoes de Poincaré ni mucho menos (ya vimos que era profundamente admirado), pero se pensaba que lo que había descubierto el francés era algo restringido a este sistema físico. Era posible que hubiese otros sistemas con un comportamiento impredecible en la práctica, desde luego, pero lo que nadie comprendió aún es que todos esos sistemas, por el mero hecho de comportarse así, tuviesen tantísimas cosas en común como realmente tienen, y que algunas de esas cosas fueran tan extrañas como realmente son.
Remolino
El estudio del flujo turbulento tuvo un antes y un después de la creación de la teoría del caos (dominio público).
Me parece irónico que el primer sistema en el que observamos –aunque no nos diésemos cuenta de su auténtica relevancia– un comportamiento caótico fuese uno tan simple como un conjunto de masas sometidas únicamente a la fuerza gravitatoria. En cierto sentido se trataba de un sistema casi diseñado para ser predecible, como la “niña bonita” del mecanicismo determinista newtoniano… pero se convertiría en el umbral de algo muy diferente. Dada la arrogancia del ser humano, no resulta sorprendente que, tal vez de manera inconsciente, intentásemos o bien olvidarlo o quitarle importancia. Poincaré publicó sus conclusiones en la década de 1880, y podrías pensar que la teoría del caos surgiría unos pocos años más tarde, pero no fue así en absoluto: tras Poincaré, durante muchas décadas, prácticamente nada.

De hecho, esto se repetiría a lo largo de los años: alguien descubriría un sistema de este tipo, y se quedaría asombrado; estudiaría sus características… y luego la cosa se dormiría de nuevo, o quedaría incluso olvidada durante años, o sería considerada como una curiosidad matemática sin importancia para el “mundo práctico”. Posteriormente, alguien más descubriría un sistema sin la menor relación aparente con el anterior, en una rama diferente de la ciencia, y se quedaría sorprendido; estudiaría sus características… y otra vez la cosa se dormiría. Era como si nos negásemos a aceptar la naturaleza de las cosas, como si dijésemos “¡Anda, que excepción más curiosa!”, “¡Vaya, otra excepción más, parecida a la otra!”, “¡Fíjate, otra excepción más!” “¡Que de excepciones tan parecidas, quién lo hubiera pensado!”, e hiciese falta que la realidad nos diese en los morros una y otra vez para comprender que no eran excepciones.
Mirando hacia atrás, hoy sabemos que varios científicos en la primera mitad del siglo XX, sobre todo durante la elaboración de sus tesis doctorales, se encontraron con lo que luego llamaríamos sistemas caóticos; pero en unos casos fueron incapaces de ver que ahí había algo más que “ruido” o errores de medición y cálculo, y en otros sus directores de tesis les aconsejaron no publicar sus conclusiones para no caer en el ridículo. Hizo falta esperar unos ochenta años tras la solución de Poincaré al problema de los n cuerpos para comprender que había algo que se nos estaba escapando. Hizo falta además la llegada de algo de lo que Poincaré había carecido: los ordenadores.
Edward Norton Lorenz
En la década de los 60, un matemático y meteorólogo estadounidense llamado Edward Lorenz (a la derecha) estaba trabajando con modelos matemáticos del tiempo meteorológico. En esa época ya empezaban a utilizarse ordenadores para predecir el tiempo utilizando ecuaciones bastante complejas: en el caso de Lorenz, disponía de doce ecuaciones interrelacionadas. Comparado con alguna de las máquinas descritas por Macluskey en su impagable historia de un viejo informático, el ordenador LGP-30 de Lorenz era una modernidad — tenía un teclado en vez de usar tarjetas perforadas, y los bits de salida se leían en una especie de pantalla (digo “especie” porque no era una auténtica pantalla, la puedes ver en el enlace anterior si tienes curiosidad). Este monstruo de la computación tenía nade menos que unos 16 KB de memoria y pesaba tan sólo unos cuatrocientos kilos.
Entonces, igual que ahora, predecir el tiempo requería una capacidad de proceso tremenda, de modo que cuando se iniciaba un proceso de este tipo no se obtenía el resultado en unos minutos. Por tanto, el programa de Lorenz iba imprimiendo los resultados intermedios según iba calculando las cosas; por ejemplo, si iba a predecir el tiempo de mañana utilizando incrementos de tiempo de media hora, iba imprimiendo los datos predichos cada media hora hasta llegar al final. Así, si algo iba mal, al menos tenías los datos intermedios en papel.
El caso es que Lorenz necesitaba retomar un conjunto de datos determinado; pero empezar desde el principio otra vez era un rollo, por lo mucho que tardaba la máquina en recorrer todo el tiempo de la predicción. Afortunadamente, en la ejecución anterior el programa había ido imprimiendo los datos intermedios (hombre, no es que fuera cuestión de suerte — el propio Lorenz lo había ordenado así a propósito). Lo único que necesitaba hacer el estadounidense era introducir los datos intermedios y reducir así el tiempo de ejecución, puesto que la primera parte del trabajo ya estaba hecha. En el caso de una variable determinada, por ejemplo, el valor que mostraba el papel era 0,506. De modo que Lorenz puso esos datos en el ordenador como datos iniciales y dejó el programa corriendo y prediciendo el tiempo a partir de ese punto.
Pero, para su sorpresa, el resultado final no era el mismo que la ejecución anterior. No sólo eso: no era ni siquiera parecido. El sistema había evolucionado de una manera absolutamente diferente a la anterior, ¡a pesar de tener los mismos datos iniciales! Sólo que, naturalmente, no se trataba de los mismos datos. El ordenador calculaba las variables con seis decimales, pero para ahorrar espacio en el papel, Lorenz los imprimía con tres decimales. El dato intermedio introducido por el meteorólogo, aunque en el papel había salido como 0,506, había sido en la memoria 0,506127, como Lorenz observó cuando imprimió los datos intermedios con más detalle. De ahí que la solución fuera distinta al descartar los decimales adicionales.
Gráficas de Edward Lorenz
Gráficas del programa de predicción de Lorenz para 0,506 y 0,506127: observa la divergencia en el tiempo.
Sin embargo, la sorpresa seguía estando allí: ¿cómo era posible que en un tiempo de predicción relativamente corto, con una diferencia en el cuarto decimal, la solución fuera completamente distinta de la anterior? Es más: un dato inicial con cuatro cifras decimales era algo, en la práctica, casi inalcanzable. Por lo tanto, si este comportamiento de las ecuaciones era consistente, en la práctica sería imposible predecir el tiempo meteorológico más allá de tiempos muy cortos, cuando las dos soluciones aún no han divergido mucho.
En 1963, Lorenz publicó sus conclusiones en Deterministic Nonperiodic Flow (Flujo no periódico determinista). Hablando con sus colegas, uno de ellos dijo que, de ser esto cierto, el batir de las alas de una gaviota en un lugar determinado podría cambiar el tiempo meteorológico para siempre. Posteriormente, supongo que para ser más poético, Lorenz habló del batir de las alas de una mariposa originando un tornado (y eso es lo que ha perdurado en la imaginación colectiva), pero a mí me gusta más la gaviota.
Sin embargo, como decía al principio, realmente no era algo nuevo: era, una vez más, el problema de Poincaré. Un sistema en el que cada parte afecta a las demás, de modo que las ecuaciones predicen estados diferentes con condiciones iniciales distintas que, a su vez, producen estados más y más diferentes… De hecho, el genial Ray Bradbury ya había escrito, en la década de los 50, una historia corta llamada A Sound of Thunder (El ruido de un trueno), que te recomiendo que leas si no la conoces, en la que la muerte de una simple mariposa en el pasado modifica los acontecimientos futuros.
No, no es una idea nueva: evidentemente, cambiar las condiciones iniciales de un sistema cambia el futuro del sistema. De hecho, hay gente que cree que eso es lo que significa que un sistema sea caótico, y por tanto llega a la conclusión de que es una perogrullada. Sin embargo, hay mucho más que eso — pero hacía falta más tiempo para darnos cuenta. Los ordenadores fueron nuestros aliados en esto, ya que eran capaces de realizar cálculos iterados una infinidad de veces en un tiempo muy corto y con paciencia cibernética.
El propio Lorenz desarrolló otros sistemas de ecuaciones de este tipo pero más simples que el que, por casualidad, lo había llevado a descubrir este extraño comportamiento y que, como decía antes, tenía doce ecuaciones y doce incógnitas. Uno de ellos es tan famoso que tiene nombre propio y recibe el nombre de sistema de Lorenz:
\frac{dx}{dt} = \sigma (y - x)
\frac{dy}{dt} = x (\rho - z) - y
\frac{dz}{dt} = xy - \beta z
Se trata de un sistema de tres ecuaciones diferenciales con tres incógnitas, que modela de una manera muy simple la convección atmosférica. Es un sistema tan simple en su planteamiento, tan determinista en su corazón y tan endiabladamente complejo en sus predicciones que lo hemos venido usando constantemente para entender estas cosas; además, el tener tres incógnitas nos permite “ver” la evolución del sistema de un modo muy intuitivo; luego hablaremos más de este asunto.
Robert May
Unos años después de que Lorenz publicase su artículo, otro científico estaba trabajando en un problema en apariencia completamente diferente del tiempo meteorológico: las poblaciones de animales. Se trataba del australiano Robert May –que, entre otros rimbombantes títulos como Barón May de Oxford y miembro de la Orden del Mérito, ha sido Presidente de la Royal Society, que no es moco de pavo–. En la década de los 70, May (a la derecha) estaba estudiando la evolución de poblaciones de animales, tratando de simularla con ecuaciones relativamente simples.
Entre los muchos factores que determinan la evolución de una población, como el número de individuos iniciales, la cantidad de comida disponible, el nivel de depredación, etc., May jugó con el número de hijos por individuo para observar su efecto sobre el comportamiento poblacional. Y al hacerlo se topó con algo sorprendente, como me imagino que ya te olías que iba a suceder.
Si el número de hijos por individuo era pequeño, la población desaparecía (algo nada sorprendente). Si lo iba aumentando, la población no desaparecía sino que se estabilizaba en un valor determinado, que dependía de la comida disponible y ese número de hijos, pero no dependía en absoluto del número inicial de individuos; una vez más, algo nada sorprendente.
Sin embargo, cuando el número medio de hijos superaba un determinado valor, la población se ponía a oscilar entre dos valores fijos, que dependían precisamente de ese factor y se separaban uno de otro cuando aumentaban los hijos por individuo. Y al superar otro valor determinado, la oscilación era entre cuatro valores de población, luego ocho, luego dieciséis… y en un intervalor muy pequeño de aumento del factor de hijos por individuo, esta especie de “cascada” desembocaba en una miríada de bifurcaciones y un sistema muy raro.
A partir de ese valor crítico, las condiciones iniciales sí afectaban a la evolución del sistema. No sólo eso: al igual que en el caso del tiempo meteorológico de Lorenz, variando ligeramente el número inicial de individuos, el sistema iba evolucionando de manera cada vez más diferente hasta que, en unas cuantas generaciones, cualquier parecido con la solución anterior era pura coincidencia. De hecho, el comportamiento era prácticamente idéntico al del problema de Lorenz: ambos sistemas, aunque de orígenes diferentes, presentaban un comportamiento particular y propio de muchos otros sistemas de la Naturaleza.
Aquí es donde tengo que hacer un paréntesis y una invitación.
En la primera versión de este artículo entré bastante en detalle en las ecuaciones y su comportamiento en el ejemplo de May, con un programita en javascript que predecía la población a lo largo del tiempo y cosas así. El resultado fue un monstruo de artículo infumable, sobre todo teniendo en cuenta que esta serie intenta “picotear” por los asuntos, no entrar de lleno en ellos y menos aún en matemáticas bastante densas. Por lo tanto, he eliminado del artículo la parte más abstracta y matemática para centrarme en las cuestiones generales e históricas: no hace falta leer aquello para entender la importancia y el fundamento de la teoría del caos.
Aquí viene, sin embargo, la invitación: si tras leer este artículo tienes ganas de entrar más en detalle en el asunto, jugar con un caso concreto y ver juntos cómo surge el caos de un sistema aparentemente muy simple, la semana que viene publicaremos esa otra parte eliminada de aquí dentro de la serie Alienígenas matemáticos, que se presta más a artículos largos y abstractos. Como digo, se trata de algo absolutamente opcional, y aquel artículo requerirá de mucho más esfuerzo que éste para entenderlo. Así cada uno puede ir tan lejos como lo lleve su interés.
Hecho este paréntesis, seguimos con la programación habitual…
En diciembre de 1977 ya se habían encontrado los suficientes ejemplos de este tipo de sistemas (el flujo turbulento de aire, la mezcla de distintas tintas en un vaso de agua, la evolución del precio de las cosas o la bolsa…) como para que la comunidad científica realizase un simposio sobre ellos. Estos sistemas se denominaron sistemas caóticos, un término mencionado por primera vez en un artículo de James A. Yorke y Tien-Yien Li titulado Period Three Implies Chaos (El período tres implica caos) en 1975.
Al simposio del 77 acudieron, entre otros, Lorenz, May y Yorke. A partir de entonces se empezó a desarrollar una auténtica teoría del caos que describiese las propiedades de estos sistemas –que resultaron ser muchísimos–. Se trata siempre de sistemas con las siguientes características básicas (dichas mal y pronto, como siempre):
  • Son sistemas determinísticos. En otras palabras, dadas unas condiciones iniciales determinadas siempre se obtiene el mismo resultado. En el caso del tiempo meteorológico, unas condiciones idénticas a otras producen un tiempo idéntico. Un sistema puramente aleatorio, por tanto, no es caótico, y los sistemas caóticos no son la consecuencia de la incertidumbre cuántica ni nada parecido.
  • Son sistemas muy sensibles a las condiciones iniciales, de modo que un cambio ligero en esas condiciones supone un cambio enorme, a largo plazo, en el comportamiento del sistema: el ejemplo del batir de alas de la gaviota (o de la más poética mariposa).
  • Son sistemas que, modificando ligeramente las condiciones iniciales, alcanzan prácticamente cualquier estado válido dentro del sistema. En el caso de las poblaciones de May, por ejemplo, si en un ecosistema de comportamiento caótico pueden existir un máximo de un millón de individuos e inicialmente tenemos diez, modificando ligeramente ese número (a nueve, a once), tarde o temprano tendremos casi cualquier otro valor de población entre 1 y 1 000 000.
A menudo se hace énfasis en la segunda característica, pero quiero dejar claro que el hecho de que un sistema sea sensible a las condiciones iniciales no lo convierte en caótico. Como ejemplo, imagina que pensamos en un sistema simple, como el dinero en un banco a interés compuesto. Si tú empiezas con una cantidad de dinero y yo con otra, al cabo del tiempo la diferencia entre lo que tienes tú y lo que tengo yo se irá haciendo cada vez mayor y, pasado el suficiente tiempo, se hará arbitrariamente grande — enorme sensibilidad a las condiciones iniciales. Sin embargo, no es un sistema caótico.
La tercera condición es clave, porque es la que no cumple, por ejemplo, el sistema de dinero en el banco de arriba. En un sistema caótico suele haber un intervalo válido de estados (como los individuos en una población determinada con un límite definido por la comida disponible) y, al cabo del tiempo, dos estados iniciales muy diferentes acabarán produciendo estados intermedios muy parecidos. Puedes pensar en ello con este otro ejemplo: si en un vaso echas una gota de tinta roja en un sitio y otra de tinta azul en otro, y luego remueves el vaso, al cabo del tiempo cada gotita de tinta roja habrá recorrido prácticamente todo el vaso, lo mismo que cada gotita de tinta azul, de modo que al final todo acaba mezclado.
Observa la especie de simetría entre la segunda y la tercera característica (sí, sí, soy repetitivo pero es la clave de todo): la segunda asegura que, si dos estados no son exactamente iguales, terminarán en algún momento como cosas muy diferentes. Pero la tercera afirma que, aunque dos estados sean muy diferentes, terminarán en algún momento como cosas muy parecidas. No puedes quedarte quieto, pero tampoco puedes escaparte.
La relevancia de la teoría del caos resultó ser extraordinaria porque, al final, ha resultado que casi todos los sistemas complejos presentan un comportamiento caótico, y nuestra incapacidad frecuente para conocer con total exactitud el estado inicial de los sistemas que estudiamos hace que, aunque sean determinísticos, nos sea imposible predecir lo que va a pasar más allá de cierto punto. Entre los sistemas complejos en los que hemos encontrado comportamiento caótico se hallan cosas aparentemente tan distintas como los terremotos, la bolsa, las llamaradas solares, la evolución biológica o la dinámica de fluidos.
Además, las sorpresas aún no se habían terminado. El propio Lorenz se dio cuenta de que, a pesar de la impredecibilidad de los sistemas caóticos, en muchos de ellos el estado del sistema parecía acercarse a algunos estados “privilegiados” y permanecer cercano a esos estados de ahí en adelante. Era como si algunos valores de las variables del sistema fueran muy “atractivos” y el sistema acabase acercándose a ellos tarde o temprano — algo predecible dentro de lo impredecible.
Esas regiones “atractivas” se denominaron, por tanto, atractores. Esto sucede, desde luego, en sistemas no caóticos: por ejemplo, si empiezo con 10€ y cada día me quitas 1€ hasta dejarme sin nada, el estado de mi sistema tiene un atractor clarísimo: 0€. Una vez llego allí, nunca podré salir. Lo curioso no era eso, sino que sistemas aparentemente “locos”, como el propio sistema de Lorenz que hemos mencionado antes, también tengan atractores.
Más curioso aún es que, si un sistema está cerca de un atractor y modificamos las variables ligeramente, no suele alejarse de él o, si lo hace, vuelve cerca posteriormente: una vez más, orden dentro del caos, como si la Naturaleza quisiera llevarnos la contraria ahora que habíamos aceptado el caos como algo sensible a las condiciones iniciales. Y hay otra cosa más curiosa todavía, pero que tengo que mostrar visualmente para que se haga obvia.
A menudo se dibuja la evolución de un sistema representando el estado como un punto cuyas coordenadas son las variables del sistema (en una línea si hay una variable, una superficie si hay dos, un volumen si hay tres…). Al hacerlo, puede visualizarse cómo evoluciona el sistema mirando cómo se mueve ese punto a lo largo del tiempo. Esto no funciona, claro, para un sistema de doce variables diferentes, porque no podemos visualizar cosas en doce dimensiones, pero afortunadamente hay sistemas caóticos, como el de Lorenz, que son de tres variables.
Así, al visualizarlo se tiene un punto que se mueve en tres dimensiones. En el vídeo se empieza con tres estados prácticamente idénticos, lo cual, gráficamente, significa que son tres puntos prácticamente coincidentes, tanto que durante un tiempo es imposible discernir que hay tres puntos y no uno. Pero, según avanzamos, vemos la divergencia propia del caos… y, al mismo tiempo, el orden propio del caos. Estás viendo el atractor de Lorenz, y debería ser evidente por qué se llama así:
Hay muchos tipos diferentes de atractores y, como digo, muchos sistemas dinámicos los tienen, caóticos o no. Pero muy pronto, cuando los matemáticos como Lorenz se dedicaron a determinar, no ya la existencia de un atractor en un sistema caótico determinado como el del vídeo, sino la forma del atractor, se toparon con la sorpresa mayúscula de verdad. Algunos, como digo, eran una línea (una dimensión); otros, cosas como un círculo o un cuadrado, es decir, una superficie (dos simensiones), otros eran volúmenes de tres dimensiones, como el interior de una esfera.
Y otros no tenían una dimensión entera.
Dicho de otra manera, algunos atractores son fractales, y la presencia de atractores fractales es una de las cosas más interesantes de muchos sistemas caóticos. Cuando un atractor tiene dimensión fractal, por cierto, se denomina atractor extraño. El atractor de Lorenz es seguramente el atractor extraño más famoso. Si los fractales te dejan confuso, tal vez te ayude –o te desquicie– leer el artículo en dos partes que les dedicamos al hablar de la baldosa del palacio de Nholeghoveck.
El caso es que seguimos aprendiendo cosas sobre los sistemas caóticos continuamente: date cuenta de lo reciente del nacimiento de esta disciplina, ¡está en pañales! Según pasa el tiempo y, sobre todo, según mejoran nuestros ordenadores, vamos descubriendo cosas nuevas. La clave de la cuestión está en el cambio de paradigma que se produjo gracias a Lorenz, May y similares.
Antes de ellos era como si muchas veces fuéramos “contra corriente”: pensábamos que la Naturaleza debía ser simple. Cuando un sistema no lo era, nos daba rabia, e intentábamos reducirlo a algo simple, resistiéndonos a aceptar su complejidad. Pero, como hizo Poincaré con el problema de los n cuerpos, la solución era dejar de luchar sólo en ese sentido — en cambio, debíamos estudiar la propia complejidad, para comprender lo que puede comprenderse de ella. No quiere decir que dejemos de buscar la simplicidad; quiere decir que, al mismo tiempo que hacemos eso, debemos abrazar la complejidad y aprender también de ella.
En primer lugar, provistos de una teoría del caos, aunque sea incipiente, somos capaces de reconocer sistemas caóticos en vez de simplemente quejarnos de que no se comporten “bien”. Un buen ejemplo de esto es el flujo turbulento de líquidos y gases; cuando los fluidos se mueven bastante despacio, las ecuaciones que describen ese movimiento son predecibles y estupendas. Sin embargo, cuando el flujo se vuelve turbulento, la cosa es mucho más difícil de estudiar: puntos que empiezan muy próximos pueden terminar muy alejados uno de otro, mientras que puntos muy lejanos en un principio, o regiones separadas del fluido, pueden mezclarse rápidamente. ¿Te suena esto?
Flujo turbulento en un fluido
Flujo turbulento en un fluido (C. Fukushima y J. Westerweel, Universidad Técnica de Delft/ Creative Commons Attribution 3.0 License).
Antes de empezar a comprender los sistemas caóticos, nuestras herramientas para estudiar el flujo turbulento y similares eran bastante más limitadas. Tras la elaboración de la teoría del caos, un matemático holandés –Floris Takens– y un físico-matemático belga –David Ruelle– la emplearon para superar la teoría anterior y mejorar enormemente nuestra comprensión del flujo turbulento. Fueron Ruelle y Takens, por cierto, los creadores del término atractor extraño. Para rizar el rizo de las conexiones, en 2006 David Ruelle recibió el Premio Henri Poincaré por sus aportaciones a la física matemática.
Hoy en día podemos reconocer las propiedades de un sistema caótico y, por tanto, aunque seamos incapaces de predecir lo que la propia naturaleza caótica del sistema nos impide, sí podemos hacer cosas como encontrar atractores, con lo que sabemos hacia dónde se dirigirá el sistema tarde o temprano, dentro de ciertos límites. Una vez más, la humildad nos permite llegar un poco más lejos que antes.
Pero, además, comprender el comportamiento caótico no significa rendirse a él, ni dar la batalla por perdida: en muchos casos no queremos un comportamiento caótico. Ahí es donde conocer a nuestro “enemigo” es nuestra mejor herramienta — ya tenemos estudios que determinan, una vez un sistema está en una órbita inestable alrededor de un atractor, cómo debemos perturbarlo constantemente, con pequeños “empujoncitos”, de modo que nunca salga de esa órbita. Si empieza a desviarse un poco por la derecha, por ejemplo –lo que quiera que sea que “la derecha” significa en las variables del sistema–, producimos una minúscula modificación hacia la izquierda, de modo que el estado se va autocorrigiendo y nunca se sale de donde queremos que esté.
Es posible, por cierto, que todo esto de la impredecibilidad, la sensibilidad a las condiciones iniciales y demás te recuerde a la mecánica cuántica; ambas se parecen en la necesidad de la aceptación de que no podemos predecir exactamente lo que va a suceder, pero los sistemas caóticos son clásicos: no hace falta dualidad onda-corpúsculo ni principio de incertidumbre para producir caos. Eso sí, dado que en un sistema caótico no tenemos certidumbres sino más bien probabilidades, sí nos estamos valiendo de nuestro conocimiento de la cuántica –irónicamente bastante más antiguo que el del caos– para ser capaces de estudiar eficazmente los sistemas caóticos.
El caso es que gracias –entre otros, claro– a Poincaré, Lorenz y May, nos hicimos más humildes y más versátiles a la hora de observar el Universo. Y pasamos de ignorar a científicos que apuntaban a la existencia del caos a darles honores como, en el caso de Robert May, la Presidencia de la Royal Society. Pero hablando de la Royal Society…

La conexión Assange-Ellsberg: los hombres que sabían demasiado

Fuente: La aldea irreductible



El 12 de julio de 2007, catorce personas perdieron la vida en un polvoriento y olvidado barrio al sudeste de la ciudad de Bagdad durante un incidente entre el ejército estadounidense y lo que supuestamente era una banda de insurgentes rebeldes iraquíes. Aquel día, en el mismo escarceo armado fallecieron dos periodistas de la Agencia Reuters, el fotógrafo Namir Noor-Eldeen y su enlace y conductor, Saeed Chmagh.

La breve información que el gobierno de los Estados Unidos proporcionó a la opinión pública apenas detallaba nada en claro, salvo la existencia de un tiroteo en el transcurso de una confrontación con rebeldes integristas.

La investigación posterior que el Ejército norteamericano realizó, terminó cerrándose en tan sólo unos días, alegando que no había nada fuera de lo común en la actuación de sus marines que se limitaron a hacer frente a una amenaza armada de insurgentes. En ningún momento de aquella investigación se aclararon los sucesos ni tampoco se aludió a cómo fallecieron los dos reporteros de Reuters. Toda información o documento relativos a este suceso fueron clasificados y declarados "Top secret" por el ejército.

Durante los siguientes meses, Reuters en la búsqueda por aclarar qué había ocurrido exactamente con sus periodistas, supo de la existencia de material gráfico de aquel incidente y realizó diversas peticiones formales a las autoridades militares americanas para obtenerlo... No consiguió nada.

Pasaron más de dos años y Reuters, la agencia de noticias más poderosa e importante de todo el mundo, con miles de corresponsales distribuidos por más de 200 ciudades en 94 países, seguía en blanco, a pesar de haber intentado conseguir respuestas, apelando incluso al Acta de Libertad de Información (FOIA).

De repente, en abril de 2010, y procedente de fuentes anónimas, se hacía público en internet el video completo grabado desde un helicóptero Apache, desde el que se registraron claramente los dramáticos acontecimientos.

Era la primera bomba informativa de Wikileaks.

Las imágenes desmontaban por completo la breve explicación oficial y en ellas se mostraba la cruda realidad: los marines norteamericanos habían abierto fuego desde el aire hacia un grupo de civiles sin mediar ninguna provocación visible.

El video incluía además el audio de las conversaciones entre los soldados en el aire, los tanques de apoyo y el mando que finalmente dio la autorización de abrir fuego. Llevaba por título "Collateral murder" (asesinato colateral) y contenía las claves de lo que realmente había ocurrido aquel fatídico 12 de julio.

Los peligrosos insurgentes eran en realidad civiles desarmados que en ningún momento mostraron actitudes ofensivas. el fotógrafo de Reuters, su acompañante y una docena de personas más fueron tiroteadas desde el helicóptero. Tras una pausa, se acercó a los iraquíes una furgoneta que pasaba por allí y que se detuvo en auxilio de los heridos, convirtiéndose también en objetivo de los disparos mientras se intentaban mover algunos cuerpos. El resultado: varios muertos más y dos niños heridos.



El caso supuso una sacudida en la sociedad y en los medios de medio mundo. Era la primera filtración seria de una organización llamada Wikileaks y de su cabeza visible: Julian Assange.

La segunda no tardaría en llegar. En julio de 2010 más de 90.000 documentos referentes a la guerra de Afganistán aparecían publicados por todo el mundo a través de algunos de los más importantes medios de comunicación; The Guardian, The New York Times o Der Spiegel fueron los periódicos más destacados que dieron cuenta de las filtraciones en un caso que terminaría conociéndose como "los papeles de Afganistán". Un título que aludía claramente a los "Pentagon papers" que décadas atrás revelara nuestro segundo protagonista de hoy: Daniel Elsberg.

Fue la gota que colmó el vaso. Estados Unidos, mediante el general James Jones, consejero de Seguridad Nacional, acusó a Wikileaks de poner en peligro las vidas de norteamericanos en territorio afgano y aquí comenzó un proceso de acoso que dura hasta nuestros días.

La persecución y derribo a Assange había comenzado y la respuesta de Wikileaks no se hizo esperar... y en esta ocasión sería demoledora. La mayor filtración de documentos clasificados de toda la Historia.

En octubre de 2010, y con el sobrenombre de "Irak War logs" se hacían públicos 392.000 documentos del Pentágono sobre la Guerra de Irak poniendo de manifiesto la pésima gestión de EEUU en el conflicto y revelando torturas, bajas por "fuego amigo" y más de 100.000 víctimas, un número de bajas inaceptablemente elevado, en el que para mayor escarnio, el 63% eran bajas civiles.

Las represalias contra Wikileaks.

Es en este momento cuando comienzan los primeros ataques DDoS hacia Wikileaks, un boicot cibernético encabezado por EEUU y seguido posteriormente por sus aliados.

El contraataque de Assange a estas amenazas informáticas nuevamente es contundente: el 28 de noviembre de 2010 Wikileaks filtra a la prensa más de 250.000 cables y comunicaciones entre EEUU y las embajadas de todo el mundo en lo que se conoció como "Cablegates" y que, por la transcendencia de lo allí revelado, supuso sin lugar a dudas la filtración más importante de Assange.



Es el punto culminante de esta confrontación. El gobierno de EEUU pone toda su maquinaria de presión en funcionamiento y el boicot a Wikileaks comienza por las bases.
  • El 1 de diciembre Amazon retira la cobertura y servidores en los que Wikileaks se hallaba alojado.
  • El 2 de diciembre la empresa proveedora EveryDNS corta de un tajo su contrato con Wikileaks.
  • El 3 de diciembre Estados Unidos promulaga la conocida como "Acta Shield" endureciendo significativamente las penas para las publicación de información clasificada.
  • El 4 de diciembre Paypal cancela la cuenta de Wikileaks. Un duro revés para una organización que sólo se financia mediante donaciones y aportaciones económicas personales.
  • El 5 de diciembre Mastercard se suma al boicot denegando todos los pagos y donaciones a Wikileaks.
  • El 7 de diciembre Visa se une al boicot.
  • Ese mismo 7 de diciembre Twitter cancela la cuenta de Anonymus, el más famoso grupo de apoyo a Wikileaks
Una semana verdaderamente fulminante. La preocupación por las filtraciones de Assange llega a extremos de verdadera alarma en el Gobierno de Obama que incluso confirma la existencia de un equipo con más de 120 personas dedicado exclusivamente a "limitar el efecto mediático de las filtraciones". Una decisión que ya tomó Richard Nixon en su época y que no le dio buenos resultados.


"Una sociedad en la que la verdad se convierte en traición a la patria es una sociedad en graves problemas"
Congresista Ron Paul.
El proceso de acoso a Assange llegaba a su momento más delicado el 21 de agosto de 2010 cuando una fiscal sueca, a instancias de la policía del país, ordenaba la detención del activista acusándolo de la violación de una joven. El caso sería archivado pero sólo unos días después, y por expresa indicación de la fiscalía superior de Suecia, se volvía a reabrir.

En la actualidad Assange se encuentra en Londres bajo prisión domiciliaria con una más que evidente posibilidad de ser extraditado a Estados Unidos, lo que significaría su inmediato juicio y posible condena con pena de muerte.

Un desarrollo de acontecimientos tan fascinante como preocupante. Un guión de cine de espías filmado en plena realidad y que a pesar de parecer increíble, no es más que una secuela actualizada de una película rodada varias décadas atrás por un actor diferente en una guerra diferente... o quizá, no tan diferentes.

Dicen que la Historia se repite y aunque es un tópico muy recurrente, hay que reconocer que de vez en cuando sí es cierto que nos regala algunas carambolas caprichosas como la conexión Assange-Ellsberg.

Daniel Ellsberg, el primer gran filtrador de documentos secretos.

Para continuar la historia volveremos la vista atrás hacia julio de 1971, curiosamente tan solo unos días después del nacimiento de Julian Assange, se producía lo que sería la mayor filtración de documentos clasificados hasta el momento. En esta ocasión el responsable sería una pieza de la propia maquinaria de guerra estadounidense y tanto su vida como sus actos son perfectamente extrapolables a los ahora realizados (y sufridos) por Assange.

Daniel Ellsberg

Daniel Ellsberg era un joven y brillante experto en Ciencias Políticas, recien licenciado en Harvard, que en 1959 dedicaba su tesis doctoral a la toma de decisiones en circunstancias de incertidumbre; una tesis que no pasó desapercibida en las altas esferas de la inteligencia estadounidense que vieron en ella numerosas aplicaciones en situaciones de conflictos armados. Aquella teoría de comportamiento y decisión, que hoy se conoce con su propio nombre "paradoja Ellsberg", le abrió numerosas puertas en el Pentágono tan sólo unos años después.

Su talento y sus brillantes ideas (cuentan incluso que en una ocasión propuso una solución táctica basándose en un cuento infantil) le hicieron entrar en 1964 en la Rand Corporation, la institución donde se cocinaban los análisis e informes en los que se basaban gran parte de las decisiones del gobierno de EEUU.

Ellsberg se había covertido en lo que por aquel tiempo se conocía como "un arquitecto de la guerra". Ante cualquier conflicto, batalla o escaramuza, el Departamento de Defensa encabezado por el legendario Robert McNamara, acudiría a sus informes y estudios para tomar una decisión.

Un primer día de trabajo ajetreado.

Sin embargo, desde su ingreso Daniel supo que poco o nada de lo que él creía saber sobre el Pentágono era realmente como suponía. La impresión que le dejó su primer día de trabajo en la Rand Corporation le dejó marcado para el resto de su vida.

Oficinas de la Rand Corporation en Santa Mónica (1958) - Revista Life

Ellsberg cruzó por primera vez las puertas de las oficinas de la Rand Corporation el 04 de agosto de 1964, justamente el día en que se desarrollaba el conflicto del Golfo de Tonkín. Un debut que le enseñaría claramente cómo se hacían las cosas por el Pentágono.

En los días previos, el destructor USS Maddox (DD-731) había tenido algunas escaramuzas con patrulleras de Vietnam del Norte que terminaron en un intercambio de disparos de advertencia en aguas cercanas a la costa. Sin embargo, el desencadenante que daría lugar a repercusiones internacionales trágicas, se produjo durante la noche de ese mismo 4 de agosto. Debido a las difíciles condiciones del mar, el Maddox disparó varios torpedos contra lo que, en la oscuridad y con una casi nula visibilidad, pensó que eran embarcaciones enemigas. Cuando llegó la mañana el comandante del destructor americano John Herrick comprobó que no existían tales enemigos y que realmente no hubo ninguna amenaza.

El mensaje del comandante del Maddox aclarando la confusión del inexistente ataque del día 4 de agosto fue totalmente ignorado por el Pentágono que, ante el asombro del recién llegado Ellsberg, utilizaba aquella "amenaza fantasma" para pedir al Congreso la autorización de iniciar los bombardeos sobre Vietnam. El Presidente Lyndon B. Johnson iniciaba así los preliminares de lo que terminaría convirtiéndose en la guerra de Vietnam.

Otro de los duros golpes que tendría que encajar se presentó apenas unos meses después. Ellsberg lo recuerda aún con culpabilidad y en numerosas entrevistas relata como de madrugada, a finales de ese año 1964, le pidieron urgentemente que realizara un informe en el que diera cuenta de los detalles más sangrientos en el que se hubiera visto envuelto al menos un estadounidense en Vietnam. Ese informe debía ser presentado a primera hora de la mañana al mismísimo presidente.

Durante toda la noche, Ellsberg estuvo buscando entre los archivos con la impresión de que lo que en realidad estaban buscando era una excusa para realizar más bombardeos.

Tras las horas nocturnas de búsqueda y contactos, Ellsberg presentó su informe a McNamara incluyendo un asesinato de un oficial estadounidense en suelo vietnamita. Como más tarde confesara (y felicitara) el propio Robert McNamara, aquel informe del joven analista resultaría fundamental para iniciar el primer envio de tropas a Vietnam... La guerra era ya una realidad.

Ellsberg siempre se sintió responsable por aquello y cargó con esa culpabilidad desde aquel día.

Daniel Ellsberg en Vietnam
Durante los siguientes meses continuó su labor de analista realizando diversos informes, pero conforme los combates se recrudecían, llegó el encargo de John Macnaughton, el segundo de McNamara, para que se trasladase a Vietnam e informara de la situación sobre el terreno... Durante los dos años siguientes, Daniel Ellsberg se convertiría en un soldado en guerra jugando a ser los ojos del Pentágono sobre el terreno.

Pero la guerra no iba bien. A pesar de los discursos y mensajes de optimismo del presidente Johnson, Vietnam se estaba convirtiendo en una trampa mortal para los marines norteamericanos. Los análisis e informes que Ellsberg enviaba no dejaban lugar a dudas: esta guerra no la vamos a ganar.

Vietnam cambió por completo la visión que Ellsberg tenía del conflicto y tan sólo unas semanas después de aterrizar, el arquitecto de la guerra modificó su postura optimista y comenzó a enviar informes cada vez más negativos: Esta guerra es inviable -afirmaba en uno de sus textos-.

Una de las anécdotas que el propio Ellsberg cuenta en el documental de Ehrlich y Goldsmith ilustra a la perfección el verdadero estado del conflicto durante el tiempo que estuvo en Vietnam. A las pocas semanas de llegar al campo norteamericano intentó apuntarse a una de las patrullas nocturnas.

En los informes de campo se enviaban detallados los turnos de patrullas nocturnas, sin embargo aquello tan solo era una ilusión. Ellsberg comprobó que hacía meses que no se realizaban patrullas nocturnas y cuando preguntó la razón, la respuesta le devolvió a la realidad: La noche es suya, salir de noche es morir en la maleza.

Daniel Ellsberg en Vietnam
La lucha armada duraba ya cuatro años y día tras día, informe tras informe, Ellsberg llegaba a una conclusión cada vez más clara: La única manera de salvar vidas es terminar cuanto antes con esta guerra.

Así se lo dijo al mismísimo McNamara cuando al termino de su misión en Vietnam, Ellsberg pudo regresar a Estados Unidos en el avión del propio Asesor de Defensa. Durante las horas que duró el vuelo, Daniel le presentó uno de sus informes más completos y, como en aquel avión McNamara no tenía dónde ir, leyó por completo las más de 100 páginas que Ellsberg le presentó con su análisis de una guerra insostenible.

El Secretario de Defensa leyó todos aquellos papeles y al terminar mantuvo una conversación con Daniel Ellsberg en la que admitía estar totalmente de acuerdo con sus análisis. Aquella guerra no se podía ganar... Aún así, al bajarse del avión y ante una comitiva de periodistas que le esperaban en el aeropuerto, Robert McNamara dibujó su mejor sonrisa y comunicó a los medios su entusiasmo por cómo se estaba desarrollando el conflicto y su convencimiento de que Estados Unidos se impondría pronto en Vietnam.

La cara de tonto que se le quedó a Ellsberg debió ser alucinante.

Contemplar de primera mano y en directo las mentiras que durante meses el gobierno llevaba lanzando a la opinión pública fue algo realmente embarazoso para Daniel, que cada día estaba más convencido de que debía actuar para parar aquella guerra.

7.000 fotocopias que revolucionarían un país.

La decisión estaba tomada. En Octubre de 1969 Daniel Ellsberg comenzó su particular filtración de documentos secretos, su particular operación secreta que le llevaría a revelar a la prensa una completa colección de mentiras y medias verdades involucrando hasta cinco presidentes de Estados Unidos. Desde Harry Truman hasta Richard Nixon, que había conseguido la presidencia en enero de ese año, pasando por Eisenhower, Lyndon B. Johnson e incluso el venerado J.F.Kennedy.

Pentagon Papers 1971

Tras cinco años de infructuosa guerra, Vietnam se había convertido en el asunto prioritario de Estados Unidos. En la campaña electoral Richard Nixon había prometido que si ganaba finalizaría la guerra de manera honrosa para el país.

Sin embargo, todo volvía a quedar en agua de borrajas cuando Nixon, junto con su nuevo Secretario de Estado, Henry Kissinger, aumentaba el número de efectivos en el país asiático e intensificaba los bombardeos cada vez más indiscriminados.

Y allí estaba él... frente a miles de documentos clasificados Top Secret en el que todos y cada uno de los presidentes anteriores quedaban retratados. Cientos de análisis e informes que mostraban claramente las mentiras oficiales que condujeron a Vietnam, la desvergüenza de los arquitectos y planificadores de aquella guerra que estaba costando miles de vidas en ambos bandos.

Con la ayuda de Anthony Russo, otro activista anti-Vietnam y compañero en la Rand Corporation, Ellsberg comenzó a fotocopiar uno tras otro cientos, miles de documentos clasificados como alto secreto... en total, unas 7.000 fotocopias robadas de los archivos de las instalaciones en Santa Mónica con toda nocturnidad y alevosía.

El sistema era sencillo: noche tras noche, Ellsberg sacaba ocultos en su maletín varios capítulos y carpetas clasificadas, y utilizaba la fotocopiadora de su amigo Anthony Russo. Tras la copia, Daniel los devolvía intactos a la caja fuerte de la Rand Corporation y volvía a sacar unos nuevos.

Daniel Ellsberg y Anthony Russo

Tras terminar la laboriosa tarea de fotocopiado, el plan original de Ellsberg y Russo era hacer públicos aquellos documentos buscando una manera legal... debía existir algún resquicio o fórmula legislativa que le permitiera desvelar el contenido de aquellos papeles sin terminar en la cárcel.

Y por un momento creyó haber encontrado la solución. Su nombre era William Fullbright y en aquel momento era el Senador de Estados Unidos por Arkansas. Un político anti-vietnam, que presidía el comité de relaciones exteriores del Senado y que gracias a su condición de senador poseía inmunidad, incluso por difundir secretos oficiales. Sin embargo no funcionó... a Fullbright le pareció buena idea el plan de Ellsberg pero no quiso colaborar porque, a pesar de contar con la inmunidad parlamentaria, se negó a violar la ley.

Ellsberg no se detuvo y lo intentó con más políticos. Entre ellos, George McGovern, senador por Dakota del Sur, que vio con buenos ojos las intenciones de Daniel pero que terminó negándose para "no perjudicar su carrera política".

Los políticos, incluso los más fervientes defensores de las tesis anti-vietnam, no parecían estar muy dispuestos a contravenir la ley filtrando documentos secretos... Ellsberg tuvo que cambiar de estrategia.

Portada del New York Times con los Pentagon Papers - 13 Junio 1971
Fue entonces cuando recordó a Neil Sheehan, un viejo amigo de sus años en Vietnam que ejercía como corresponsal del New York Times. Filtrar los documentos a la prensa sería la decisión final.

El 13 de Junio de 1971 el New York Times abrió su portada con la filtración de Daniel Ellsberg, los Pentagon Papers estaban a disposición de todo el mundo... las consecuencias tanto en elpúblico como en los políticos no se hicieron esperar.

Nixon, a pesar de ser el presidente que menos se veía expuesto en aquellas filtraciones (que afectaban sobre todo a la era de Johnson) puso toda la maquinaria de presión en marcha. Las repercusiones de aquellos documentos eran totalmente imprevisibles e intentó por todos los medios detener aquella avalancha que se le venía encima. Fue entonces cuando Kissinger pronunció su famosa frase calificando a Ellsberg como "el hombre más peligroso de América".

El primer paso del Gobierno Nixon fue intentar detener la publicación de los documentos que, desde el New York Times preveían desvelar en nueve entregas. Para ello, instó al Fiscal General, John Mitchell, para que prohibiera la publicación en el diario, llegando incluso a enviar agentes del FBI a las oficinas del periódico ordenando detener las imprentas.

En un movimiento conjunto sin precedentes de la prensa norteamericana, la gran mayoría de periódicos por todo el país se pusieron de acuerdo y también comenzaron a publicar los Pentagon Papers... si van a demandar al New York Times, tendrán que demandarnos a todos.

Viendo que era imposible detener la filtración, el Gobierno puso en marcha una nueva operativa que, si miráis al principio de este post os sonará familiar con Obama. Nixon les llamó los "fontaneros" y se trataba de una unidad específica dedicada, como su nombre indica, a minimizar el impacto de las filtraciones y, como se sabría posteriormente por el escándalo Watergate, también se encargó de manchar todo lo posible la reputación de Ellsberg y Russo.

El propio FBI se involucró en esta cacería y durante más de un año tuvo a varios agentes especializados en destruir la imagen pública de Daniel Ellsberg al que acusaron de casi cualquier cosa que se les pasó por la mente.

Daniel Ellsberg junto a su esposa a la entrada de los Juzgados
El proceso contra Daniel Ellsberg se iba a convertir en un espectáculo mediático. Cientos de periodistas se arremolinaban ante las puertas del Juzgado en donde se pedían 115 años de cárcel para el ex-analista de Rand Corporation por los delitos de robo, conspiración, espionaje y violación de la Espionage Act.

En declaraciones televisadas a la entrada del Tribunal, un periodista le preguntó sobre la posibilidad de ir a la cárcel durante toda su vida y si lo volvería a hacer... Daniel Ellsberg se giró, miró al reportero y le contestó: ¿Tú no irías a la cárcel para parar esta guerra?



Sin embargo, hay que reconocer que en todo este lio, a Daniel Ellsberg le tocó la lotería...

El 17 de junio de 1972, Frank Willis, un vigilante de seguridad dio la voz de alarma ante la entrada irregular de cinco desconocidos,en las oficinas del Partido Demócrata en el complejo de edificios Watergate. Aquellos individuos resultaron ser agentes de la CIA contratados en secreto por el equipo de campaña de Nixon para su reelección...

El principal instigador de Ellsberg se tambaleaba, un verdadero golpe de suerte que, además de acabar con la primera dimisión de un Presidente de los Estados Unidos, tuvo una repercusión inesperada para nuestro protagonista.

Durante la investigación del Watergate se supo además que "los fontaneros" de Nixon habían realizado numerosos delitos que incluían ocultación de pruebas y testigos, robo información, varios intentos de soborno e incluso habían irrumpido en la consulta del psiquiatra de Ellsberg para sonsacarle información.

Los coletazos del caso Watergate sonrieron a Ellsberg que vio aliviado como el juicio se declaraba nulo y tanto él como Anthony Russo quedaban en libertad sin cargos.

Portada del New York Times con la anulación del Juicio: "Los cargos por los Pentagon Papers se desestiman; El Juez Byrne libera a Ellsberg y Russo alegando conducta impropia del Gobierno"
La guerra de Vietnam, a pesar de todo lo revelado y filtrado... aún duraría hasta 1975.

En la actualidad Daniel Ellsberg sigue siendo un activista pacifista y durante el proceso a Bradley Manning y Julian Assange se ha mostrado muy comprometido con el caso Wikileaks.




-----------------------------
Bibliografía, referencias y más información:

- Daniel Ellsberg, web oficial, biografía y entrevistas

- "The most dangerous man in America" Judith Ehrlich, Rick Goldsmith (2009)

-Sánchez Hernández, C. (2011). Analogías de la Historia I: Julian Assange y Wikileaks vs Daniel Ellsberg y los Pentagon Papers. Nómadas. Revista Crítica De Ciencias Sociales Y Jurídicas, Vol.31(3), 27-48. doi:10.5209/rev_NOMA.2011.v31.n3.36807

-Alvaro de Cozar. "Wikileaks sirve al ciudadano" Diario El País 12 Dic 2010

-Daniel Ballota. Daniel Ellsberg: "La vida de Julian Assange, fundador de WikiLeaks, está en peligro" NacionRed 12 Jun 2010

-Pedro Rodríguez. "El hombre más peligroso de América" Fiebre del Potomac Diario ABC16 Feb 2010