martes, 27 de noviembre de 2012

¿Cuánto se está alejando la Tierra del Sol?

Fuente: Física en la ciencia ficción (+)

La catástrofe se avecina y no hay escapatoria posible. Nuestro Sol se está consumiendo poco a poco, día a día, hora tras hora, minuto a minuto. En su centro tienen lugar procesos violentos de fusión nuclear y los dicharacheros y revoltosos núcleos de hidrógeno se dan de tortas calientes unos contra otros, quedándose embarazados durante un suspiro, y pariendo velozmente núcleos de helio, mientras lanzan gritos de energía luminosa y calorífica en forma de brillantes fotones que viajan lentamente hasta la lejana fotosfera. Una vez allí, acompañados por chorros de otras partículas menos deslumbrantes pero más pesadas como electrones y protones las cuales, a su vez, constituyen el viento solar, disponen de algo más de ocho minutos para alcanzar nuestro planeta azul. De vez en cuando, nuestra estrella, quizá afectada de indigestión, se deshace de materia molesta en forma de eructos violentos llamados eyecciones de masa coronal. Y la respuesta de la Tierra consiste en alejarse paulatinamente, cada vez un poquito más de semejantes actos groseros y maleducados.
La cantidad de energía que emite el Sol por unidad de tiempo recibe el nombre de luminosidad y es debida a los procesos de fusión nuclear que tienen lugar en lo más profundo de su corazón, como os he contado poéticamente en el párrafo anterior. Para nuestra estrella, esta luminosidad asciende nada menos que a 390 cuatrillones de joules cada segundo. Si hacemos uso de la célebre ecuación de Einstein que relaciona la masa y la energía, comprobamos fácilmente que una cantidad de energía como la que emite el Sol equivale a una pérdida de masa de 137 billones de toneladas por año, un porcentaje ridículo de su masa total, unos 1980 cuatrillones de toneladas.
Este no es el único procedimiento por el que nuestra estrella madre lanza materia al espacio. Otro proceso importante, aunque no tanto como la fusión nuclear, es el viento solar, que también aparece en el primer párrafo. Consiste en haces de partículas subatómicas, principalmente protones y electrones, además de otras muchísimo más ligeras, como neutrinos. A partir de datos empíricos, se puede estimar, de forma aproximada, la cantidad de masa estelar que es expulsada en forma de viento solar. Partiendo de que la velocidad de dicho viento ronda los 350 km/s y que la densidad de protones medida en la Tierra alcanza los 9 por centímetro cúbico y despreciando la contribución del resto de partículas, por ser todas mucho menos pesadas que los protones, se llega a que el viento solar se lleva consigo algo menos de 47 billones de toneladas cada año, aproximadamente la tercera parte de la que se pierde por procesos de fusión nuclear.
¿Cuál es la consecuencia inmediata de todo lo expuesto hasta ahora? Veamos, si repasáis vuestra física de bachillerato, quizá recordéis aquel mágico momento en que vuestros malvados y malintencionados profesores os explicaron las leyes de un tal Kepler. Haciendo un poco de memoria, puede que incluso venga a vuestras mentes inocentes aquello de que el momento angular de los planetas se conserva mientras describen sus respectivas y elípticas orbitas alrededor del Sol. Al fin y al cabo, no pocos quebraderos de cabeza le supuso todo esto al bueno de Johannes Kepler y sus tres leyes del movimiento planetario. Y ni aun así sois capaces de rendirle un mínimo homenaje y respeto al entenderlas y aprenderlas de una vez para siempre. Pues bien, dicho de una forma extremadamente simple, la susodicha conservación del momento angular implica que a medida que la masa total del Sol disminuye (y, en consecuencia, su atracción gravitatoria sobre la Tierra y todos los demás cuerpos del sistema solar) la distancia a nuestro planeta debe aumentar. Esto significa que la Tierra se alejará del Sol constantemente, al menos mientras la luminosidad de éste se mantenga uniforme, cosa que sucederá mientras continúe la fase de fusión de hidrógeno y no comience la fase de gigante roja en la evolución de nuestra estrella.
Cuando se introducen en la ecuación de la constancia del momento angular los valores estimados para la pérdida de masa solar, así como la distancia media del radio de la órbita y la masa del Sol, obtenemos que el mundo que habitamos se encuentra cada año un poquito más allá, adentrándose en el tenebroso, frío y oscuro espacio interestelar, a la increíble velocidad de 1,4 centímetros anuales. ¡Vertiginoso!


Fuente:
A Solar Diet Plan D. Staab, E. J. Watkinson, Z. Rogerson and M. Walach. Journal of Physics Special Topics, Vol. 11, No. 1, 2012.

El color de las Tierras extraterrestres

Fuente: Ciencia Kanija

Artículo publicado el 24 de septiembre de 2012 en The Physics ArXiv Blog
La Tierra es un punto de color azul pálido cuando se observa desde el espacio. Ahora, los astrobiólogos han determinado los colores más probables que pueden presentar los planetas similares a la Tierra que orbitan otras estrellas.
Cuando la sonda Voyager 1 estaba a punto de abandonar el Sistema Solar en 1990, el astrónomo estadounidense Carl Sagan sugirió que se girasen las cámaras de la nave espacial hacia su planeta de origen a unos 3000 millones de kilómetros de distancia.
A Pale Blue Dot © by raymaclean

A la fotografía obtenida se le llama el Punto Azul Pálido y muestra a la Tierra como una diminuta mota blanco-azulada sobre el gran vacío del espacio. Más tarde, Sagan utilizó esta frase para el título de un libro sobre su visión del futuro de la humanidad en el espacio.
Debido al color tan peculiar de la Tierra, una pregunta interesante es qué color tendría una Tierra extraterrestre que orbite a otra estrella. Hoy por hoy disponemos de una respuesta con diferentes opciones por parte de Siddharth Hedge del Instituto Max Planck para la Astronomía (Max Planck Institute for Astronomy) en Alemania y de Lisa Kaltenegger del Centro Harvard-Smithsonian para la Astrofísica (Harvard-Smithsonian Center for Astrophysics) en Cambridge, Massachusetts.
Señalan que el color de la Tierra está íntimamente relacionado con su habitabilidad y, en particular, al color del agua que cubre el 70 por ciento de la superficie terrestre. Sin embargo, el color también está determinado por otros factores ambientales como los desiertos, la nieve, la cubierta de líquenes sobre las rocas y la cubierta de vegetación que cubre el 60 por ciento de la tierra.
En particular, la vegetación es la responsable del aumento del famoso “red edge” (borde rojo) que un extraterrestre vería al rotar la Tierra. Es el resultado de un incremento de la absorción de luz roja debido a la fotosíntesis cuando un océano desaparece de la vista siendo remplazado por una superficie cubierta de árboles.
Si un exoplaneta se asemeja a la Tierra, sobre todo en la cantidad de agua líquida sobre su superficie, entonces su color sería una pieza clave, afirman Hedge y Kaltenegger. Asumiendo una atmósfera transparente que permita ver la superficie, hacen una estimación del color de las “Tierras extraterrestres” basándose en el porcentaje de la superficie cubierta de agua, de vegetación arbórea, de lechos bacterianos, de endolitos, que viven en el interior de las rocas, y de muchos más factores.
Llegan a la conclusión de que debería ser posible evaluar la habitabilidad de los exoplanetas que pueden ser observados con estas características, un proceso que debería ayudar a centrar el interés en los exoplanetas más importantes.
Los puntos azulados, por ejemplo, serían más prioritarios que los puntos rojos similares a Marte, mientras que el planeta rojo carezca de vida, que es lo que podemos decir por el momento.
Esto podría convertirse en una técnica muy práctica. Hoy en día, el número de Tierras extraterrestres se sitúa en tres (Gliese 581d, HD 85512b y Gliese 667Cc). Pero ese número está llamado a aumentar de forma drástica en los próximos meses y años cuando las observaciones como las de la sonda Kepler de la NASA nos faciliten más datos. Por lo que encontrar una forma de filtrar a los exoplanetas más interesantes será seguro de gran utilidad.

Fecha Original: 24 de septiembre de 2012
Enlace Original

Observan en tiempo real cómo funciona una batería de litio en la escala nanométrica

Fuente: Francis (th)E mule

Diagrama de fases Fe-F-Li (izda) e ilustración esquemática (dcha) de la propagación del frente de la reacción química a través de una nanopartícula de FeF2. (C) Nature Communications
Seguro que tienes muchas baterías de litio en casa y sabes bien que su vida útil es bastante corta (con recargas diarias aguantan solo un par de años). En muchas aplicaciones (como los automóviles eléctricos) se necesita que tengan una vida útil mucho más larga (al menos una década). Para desarrollar las baterías de litio del futuro es necesario comprender cómo funcionan los electrodos en la nanoescala. Gracias a una nanocelda electroquímica y un microscopio electrónico de transmisión se ha podido observar el transporte de los iones de litio en el electrodo en tiempo real durante la descarga y la recarga. El electrodo de la celda está formado por nanopartículas de FeF2 de unos 10-20 nm de diámetro depositadas sobre una fina capa de carbono; el transporte del litio por la superficie provoca la formación de una capa exterior de nanocristales de LiF y de átomos de Fe de unos 1-3 nm de grosor. Las imágenes en tiempo real permiten ver los detalles de este proceso, que dura solo unos pocos minutos, y cuya morfología recuerda a una descomposición espinodal. La figura que abre esta entrada ilustra la difusión de los iones de litio con carga positiva a través de la superficie de la nanopartícula de FeF2 y la formación de un frente (como el de un fuego en un monte) que barre rápidamente toda la superficie; una vez barrida la superficie, el proceso ocurre hacia el interior, pero de forma mucho más lenta, capa a capa, hasta alcanzar un grosor de unos pocos nanómetros. Este estudio de Feng Wang (BNL, Brookhaven National Laboratory, NY, EEUU) y sus colegas permitirá conocer con sumo detalle el transcurso de las reacciones físico-químicas de los iones de litio en los electrones, lo que se espera que permita optimizar el funcionamiento de las baterías. El artículo técnico es Feng Wang et al., “Tracking lithium transport and electrochemical reactions in nanoparticles,” Nature Communications 3: 1201, 13 Nov 2012 [copia gratis].

Estudios previos ya habían demostrado la formación de una capa de Fe y LiF en la superficie del cátodo de FeF2 durante la conversión del litio; esta red conductora de hierro permite el transporte de los electrones necesario para la recarga de la batería. Para optimizar el diseño de los cátodos es necesario conocer en detalle cómo ocurre este proceso, cuyos defectos son responsables del envejecimiento de la batería. Para lograrlo ha sido necesario usar técnicas in-situ de alta resolución, como el microscopio electrónico de transmisión (TEM), que permiten explorar la morfología y la estructura de los cambios en el electrodo en la nanoescala. El problema que han resuelto estos físicos ha sido desarrollar una nanocelda electroquímica adecuada para su uso en el TEM.

 
Este vídeo ha sido grabado a dos fotogramas por segundo y se ha acelerado 42 veces para acortar su duración (el proceso total dura entre 3-12 minutos dependiendo de la nanocelda). El proceso de conversión del litio conlleva la formación de pequeñas partículas de hierro subnanométricas que reaccionan con el interior de la nanocelda de FeF2 creciendo en volumen hasta generar nanopartículas de hierro con un diámetro entre 1-3 nm. Entre el 41-57% del volumen está formado por partículas de LiF y alrededor del 21% por partículas de Fe, por tanto las partículas de Fe y LiF no están empaquetadas de forma densa (un diseño óptimo de la nanocelda de FeF2 podría mejorar este empaquetamiento). El proceso tiene dos escalas de tiempo. En la más rápida los iones de litio se difunden rápìdamente por la superficie empezando por la región en contacto con el sustrato de carbono hasta recubrir la nanocelda. En la escala de tiempo más lento, el proceso ocurre desde el exterior hacia el interior (su análisis detallado ha requerido el uso de técnicas espectroscópicas y de difracción de rayos X). The reaction within individual particles is surprisingly fast,

Algunos lectores quizás necesiten un breve explicación de cómo funciona una batería de litio. Los iones de Li (cuya carga es positiva) generan electricidad en la pila al pasar de un electrodo con carga negativa a otro con carga positiva. En una batería totalmente cargada todos los iones de Li están almacenados rellenado el electrodo negativo. Una vez descargada (si la descarga es completa) todos han pasado al otro electrodo. Para recargar la batería se invierte este proceso aplicando una corriente eléctrica (electrones) que permite el retorno de los iones de Li hasta el primer electrodo. En una batería nueva este proceso es bastante eficaz, pero el envejecimiento de los electrodos (asociado a un fenómeno de histéresis) hace que en cada ciclo de descarga/recarga se degrade la estructura del material y la eficacia se reduzca hasta que la batería se vuelve inútil (o poco práctica).
Más sobre baterías de litio y otras baterías en este blog: “De Juana la Loca hasta las baterías de litio viajando por algunos carnavales de ciencias,” 28 octubre 2012; “Adiós a las baterías de litio, llegan las baterías recargables de aluminio,” 14 enero 2012; “Nueva batería de Litio para el conejito de Duracell ¡y duran, y duran, …! (o la nanotecnología hasta en la sopa),” 8 febrero 2008; y “Más sobre la nanodinamita: Energía eléctrica gracias a la combustión oscilatoria en nanotubos de carbono recubiertos,” 13 febrero 2012.
Esta entrada participa en la XIX Edición del Carnaval de Química que organiza Leet mi explain, y en la XXXVI Edición del Carnaval de Física que organiza Gravedad Cero.

lunes, 26 de noviembre de 2012

Instalando paquetes DEB fácil y rápidamente

Fuente: Ubuntulog

Instalando paquetes DEB fácil y rápidamente
En Ubuntu la instalación mediante interfaz gráfica de paquetes DEB descargados por el usuario es una tarea bastante simple y sencilla aunque no precisamente rápida pues es una acción que se realiza mediante el Centro de Software.
El Centro de Software está bien para buscar programas pero es demasiado para instalar un simple paquete DEB.
Por suerte existe GDebi, una pequeña herramienta que en el pasado se encargaba de la instalación de paquetes DEB en la distribución de Canonical pero que lamentablemente ha sido reemplazada por el Centro de Software de Ubuntu en las versiones más actuales del sistema operativo. Lo bueno es que sigue estando en los repositorios y su instalación es tan sencilla como abrir una consola y escribir:
sudo apt-get install gdebi
Una vez que GDebi esté instalado en nuestro sistema hay que hacer clic secundario sobre los paquetes DEB que queramos instalar y seleccionar el programa para que sean instalados mediante éste y no mediante el Centro de Software. Nos ahorraremos la carga del Centro de Software y el procedimiento de instalación seguirá siendo igual de sencillo que antes.

Carnaval de Matemáticas: La olvidada prueba del nueve

Fuente: Francis (th)E mule
En el podcast de SciFri, “Steven Strogatz: The Joy Of X,” 23 Nov 2012, le preguntan a Strogatz por qué funciona la prueba del nueve (“casting out nines” en inglés) y no sabe contestar. Como buen matemático y como buen profesor no tiene miedo en confesar que nunca se ha preocupado por buscar la razón detrás de esta prueba, por ello no puede contestar a la pregunta. Todo ello me ha traído a la memoria la prueba del nueve, que no siempre funciona, como muestra este dibujo de Luis Vives, “Aritmética. Segundo Grado,” Zaragoza, 1949. ¡Qué no te acuerdas de la prueba del 9! Solo hay dos opciones, o eres muy joven, o eres un poco desmemoriado. Veamos como nos la explica Vives en su libro.

La prueba del nueve sirve para comprobar sumas, restas, productos y divisiones. En esta figura tienes la explicación para el caso del producto. Sobran más palabras. ¿Cuál es el secreto de la prueba del nueve que Strogatz no ha sido capaz de recordar? Obviamente, utilizar aritmética módulo 9. Nada más simple. En el caso del producto si a = b (mód 9), y c = d (mód 9), entonces ac = bd (mód 9). Lo mismo ocurre con sumas y restas, y con operaciones que involucren un número finito de sumas, restas y productos (como la división).
¿Funciona siempre la prueba? Obviamente, no. ¿Cuál es la probabilidad de fallo? Como nueve posibles resultados, la prueba del nueve fallará 1/9 de las veces (un 11% de las veces). ¿Se puede utilizar una prueba del siete o de cualquier otro número? Por supuesto y combinar dos pruebas asegura la corrección del resultado con mayor probabilidad (1/54 corresponde a un 1,6% de fallos). “Acerca de la prueba del nueve,” y Antonio, “La ¿prueba? del 9,” Tito Eliatron Dixit, 20 mayo 2009, explican cómo aplicarla a la división. Más información en María Luz Callejo de la Vega, “Una nueva mirada a “la prueba del 9″,” SUMA 30: 53-58, feb. 1999, y en Michel Ballieu, “La prueba del nueve,” Investigación y Ciencia 334, Julio 2004. Por cierto, este último artículo reproduce un fragmento de un texto de Al-Khwarizmi del siglo IX donde se explica cómo realizarla, aunque lo que destaca es su contundente inicio…
“En la clase el ambiente es tenso. El maestro, severo pero justo, permanece en un extremo de la tarima. El niño, ante el gran pizarrón negro, gacha la cabeza, trata de esquivar la mirada de reproche que le lanza su instructor. “Vamos a ver… ¿estás seguro de que 171 x 231 son 39.401?”, le pregunta, impaciente la voz. La respuesta es tímida. “Esto… ¿sí, señor?”. El maestro estalla. “¡Pequeño cabestro! ¿No te das cuenta de que te has equivocado? ¿Te has olvidado de la prueba del nueve?” El niño, aterrorizado, guarda un silencio culpable y siente revolotear sobre sí la amenaza del castigo. La sentencia no tarda en llegar. “Abre la mano”, ordena el profesor, que golpea con su larga regla de hierro la palma infantil…”
En inglés recomiendo consultar Peter Hilton, Jean Pedersen, “Casting Out Nines Revisited,” Mathematics Magazine 54: 195-201, Sep. 1981, y Murray Lauber, “Casting Out Nines: An Explanation and Extensions,” The Mathematics Teacher 83: 661-665, Nov. 1990. El uso de la prueba del nueve en Educación Básica ha sido criticado por algunos y defendido por otros. Ver por ejemplo, Maxim Bruckheimer, Ron Ofir, Abraham Arcavi, “The Case for and against “Casting out Nines”,” For the Learning of Mathematics 15: 23-28, Jun. 1995.
Atención, pregunta, ¿merece la pena que los profesores de Educación Básica recuperen la prueba del nueve en lugar del uso de la calculadora para chequear resultados? Utiliza los comentarios para ofrecer tu opinión, si te apetece.
Esta entrada participa en la Edición 3.14159265 del Carnaval de Matemáticas, que en esta ocasión se organiza en PiMedios. La aventura de las matemáticas.
PS: En los comentarios Emm Alva escribe que “Creo que los niños de Educación Básica no deberían utilizar calculadora o algún dispositivo electrónico, porque siento que gracias a esas herramientas su aprendizaje no es tan sólido y cada vez les cuesta más trabajo hacer cosas que se dicen básicas.” Yo soy de la misma opinión. Creo que usar calculadora en Educación Primaria es como usar reglas de letras de molde (ver figura abajo) para aprender a escribir. Nadie puede aprender a escribir de esa manera. Lo que no quita que en Educación Secundaria sea muy recomendable que los alumnos aprendan a usar correctamente la calculadora y el ordenador.

Logran teletransportar el estado cuántico de cien millones de átomos de rubidio

Fuente: Francis (th)E mule
Trozo del esquema del experimento. Click para verlo ampliado y completo.
Físicos chinos han logrado teletransportar el estado (la información cuántica) de un conjunto de unos 100 millones de átomos de rubidio a otro conjunto similar en una distancia de 150 metros; para ello han utlizando fotones entrelazados enviados a través de una fibra óptica. Por supuesto, este experimento no tiene nada que ver con el teletransporte de objetos tipo Star Trek y similares. El logro de Xiao-Hui Bao y sus colegas podría tener aplicaciones en el campo de las redes de comunicación basadas en información cuántica, para el desarrollo de sistemas de enrutado (routers) que requieren almacenar el estado cuántico de un conjunto de cubits sin que haya una demolición previa de su estado. La tasa de éxito alcanzada en el nuevo artículo es de solo un 88%, por lo que todavía se esperan grandes mejoras en el futuro. Nos lo ha contado KFC, “First Teleportation from One Macroscopic Object to Another,” The Physics arXiv Blog, November 15, 2012, quien se hace eco del artículo técnico de Xiao-Hui Bao et al., “Quantum teleportation between remote atomic-ensemble quantum memories,” PNAS, Published online before print, Nov 9, 2012 [arXiv:1211.2892].

viernes, 23 de noviembre de 2012

El método científico, una herramienta maravillosa

Fuente: Naukas



Imagen de previsualización de YouTube
El tema de hoy me lo ha proporcionado un tuitero que me ha incluido un enlace con el desafiante título de ¿Qué demonios es la ciencia? Aunque proviene de un blog muy fuera de mi estilo (se llama “La revolución naturalista”), el provocador título del artículo no pudo menos que llamar mi atención. En él se menciona a Karl Popper y el llamado “problema de la demarcación” referente a la dificultad de definir los límites de eso que denominamos ciencia.
Para mí, que llevo bajo la sombra de la ciencia toda la vida (y no es exageración, mi padre era geólogo del CSIC), la ciencia es algo muy cercano. Tanto, que nunca he tenido problemas en saber qué es. Sin embargo, la ciencia goza de tan buena fama que muchos otros polizones intentan subirse a su tren, a menudo sin pagar billete. Y no me refiero tan sólo a las pseudociencias, que pululan por ahí en busca de reconocimiento y de las que hay mucho que hablar, sino a las “ciencias” de todo tipo que proliferan como setas últimamente. En mi propia Universidad, hay varias licenciaturas (bueno, pronto serán grados) que se denominan ciencias pero que no tienen nada que ver con la Facultad de Ciencias. Tenemos Ciencias de la Salud (Enfermería), Ciencias Económicas, Ciencias Políticas, Ciencias del Trabajo, Ciencias de la Educación, e incluso Ciencias de la Actividad Física y el Deporte.
Y la duda se extiende a otros estudios más o menos científicos. ¿Es la psicología una ciencia? ¿La frenología? ¿La homeopatía? ¿La parapsicología y el ocultismo? ¿Es algo científico lo que intenta hacer Iker Jiménez en sus programas? Constantemente nos habla de mediciones, psicofonías, grabaciones y todo tipo de parloteo tipo Cazafantasmas. Incluso intenta imitar en ocasiones a Carl Sagan ¿o por qué creen que llama a su plató de televisión “la nave del misterio”?). Puede que sí que nos haga falta una demarcación, siquiera somera, de qué entendemos por ciencia.
Cuando comienzo el curso, yo describo la Ciencia como “una rama del saber.” Supongo que, a estas alturas, incluso mis alumnos menos brillantes tendrán una idea de lo diferencia la Ciencia de, digamos, el arte o la religión. Pero como acto seguido les hablo de la Física, les describo el elemento que, en mi opinión, diferencia la Ciencia de lo que no es Ciencia. Hablo del método científico.
En mi opinión, la Ciencia es una rama del saber caracterizada por el uso de un método de búsqueda de la verdad muy concreto y definido. Es ese método lo que marca toda la diferencia. El método científico puede expresarse de varias formas. Yo voy a sintetizarlo así: observación, experimentación, formulación, comunicación, verificación.
Estos pasos no siempre son secuenciales, sino que a menudo se solapan.
1) OBSERVACIÓN. Consiste en un examen crítico y atento de un fenómeno, tal cual se aparece ante nosotros. Una observación puede ser cualitativa (solamente fijarse en qué tenemos) o cuantitativa (es decir, midiendo cantidades). Podemos observar con los sentidos, o bien usar cualquier instrumento de análisis para abarcar lo que el ojo no ve (infrarrojos, ultravioleta, rayos X, ondas sísmicas, etc.).  Ese es el primer paso, y si todo va bien, no será el último.
2) EXPERIMENTACIÓN.  Este paso es una extensión del anterior.  Un experimento es una observación, o serie de observaciones realizadas bajo condiciones controladas por el experimentador.  No se trata de una observación pasiva, sino que en este caso el científico es el que pone las reglas.  La experimentación nos permite inferir qué variables son relevantes en el experimento, y qué variables no lo son.  Por ejemplo, ¿de qué depende el período de un péndulo?  Si usamos muchas cuerdas y muchos objetos atados, comprobaremos que depende de la longitud de la cuerda, pero no de la masa del objeto que cuelga.  Así, poco a poco, vamos estableciendo relaciones entre variables, lo que nos permitirá efectuar hipótesis (paso 3).
3) FORMULACIÓN. En este punto, la cosa se anima. Armados con los datos proporcionados por la observación y la experimentación, podemos pasar ahora a la fase de formulación, en la que creamos hipótesis y teorías para explicar los fenómenos observados, así como para poder efectuar predicciones.  Una hipótesis es un primer intento, una especie de “presunta ley científica”  Si posteriores experimentos la confirman, va afianzándose, denominándose entonces teoría.  Con el tiempo, si validez se ve confirmada y apoyada por nuevas predicciones, pasa a llamarse ley.
Al menos en teoría.  El problema es que los científicos, como personas que son, tienden a ser algo caóticos.  No es como en Derecho, donde un texto legal pasa de borrador a anteproyecto, luego a proyecto y después a ley.  En ocasiones, la Ciencia llama teoría a algo que es una ley, o viceversa.  La evolución de Darwin es un hecho científico bien establecido, pero nadie habla de la Ley de la Evolución.  ¿Por qué?  Pues porque siempre se la ha llamado teoría, y no nos vamos a poner a hacer cambios a estas alturas.  Es este un detalle que en ocasiones es mal entendido por la comunidad no científica, que confunde una teoría con una hipótesis. Ha sido aprovechado con éxito por los grupos creacionistas que niegan la evolución.  Si la evolución es una “teoría,” dicen, en las escuelas deberían también enseñarse las creencias creacionistas, que también son una teoría.  Lo mismo dicen sobre la teoría del cambio climático.  Una teoría es algo sólido, quizá no tanto como una ley, pero ciertamente más que una endeble hipótesis.

Pero nuestra taxonomía es un tanto caótica.  La “Teoría” de la Relatividad, comprobada hasta la saciedad, sustituyó hace tiempo la “Ley” de gravitación de Newton.  Hablamos genéricamente de Teoría Cuántica (que más bien debería ser una ley) y de Teoría de Cuerdas (que es más bien una hipótesis, o eso dice el zombi Feynman).  A la teoría más extendida sobre partículas elementales se le llama Modelo Estándar.   Personalmente, creo que la tendencia es a llamar Ley a una hipótesis concreta, contrastada y confirmada, y a denominar Teoría a un conjunto de leyes e hipótesis más o menos numerosas.
Un ejemplo divertido es el de la Óptica.  Podemos explicar fenómenos ópticos usando Teoría Corpuscular, o bien Teoría Ondulatoria.  Resulta que ninguna de ellas puede explicar todos los fenómenos ópticos, pero lo que explican, lo explican perfectamente bien.  Lo que sucede es que, según la (ejem) Teoría Cuántica, un fotón puede actuar como onda o como partícula, según sea el experimento que diseñemos. Así que la Teoría Ondulatoria nos explica la Ley de Malus, y la Teoría Corpuscular nos da la Ley de Snell.  ¿Que por qué no hablamos de Ley Corpuscular y Ley Ondulatoria?  Pues por lo mismo que les dije antes: inercia cansina.
(Por cierto, a la teoría óptica ondulatoria es costumbre llamarla Óptica Física, nombre que yo aborrezco.  Para mí, tan física es la Óptica Ondulatoria como la Corpuscular).
4) COMUNICACIÓN.  La Ciencia viene a ser como el viejo chiste: ¿de qué sirve acostarse con Elsa Pataki si no lo puedes contar?  Una vez has comprobado la validez de tu teoría, llega el momento de contárselo al mundo.  No se trata solamente de egolatría, aunque a todos nos gusta que se nos atribuya el mérito por nuestro trabajo.  No, es algo mucho más profundo.  En Ciencia, todo es válido mientras no se demuestre lo contrario.  Y la mejor manera de demostrarlo es en el laboratorio, con luz y taquígrafos en todos los rincones.  Cualquier teoría debe ser reproducible, de forma que un científico en el otro extremo del planeta, con los mismos instrumentos y las mismas instrucciones, pueda obtener los mismos resultados.  Y para eso hay que comunicar lo que uno obtiene, sea en forma de artículo científico, contribución a congreso o de otra forma.  Se pone todo encima de la mesa, se da un paso atrás y a esperar el veredicto de tus pares.
Eso es lo que da a la Ciencia una buena parte de su solidez.  Nada se cree porque sí, nada se impone por decreto.  Sí, seguro que usted podrá encontrar contraejemplos de lo que le digo.  Newton, como persona, parece que era un auténtico cabrón, y se pasó años combatiendo a quienes osaban cuestionar su Teoría Corpuscular de la luz.  Era una autoridad científica, y se salió con la suya durante un tiempo.  Pero, a la larga, el peso de la evidencia experimental hace imperativo descartar la teoría incorrecta y sustituirla por una mejor.  Los argumentos de autoridad valen lo que valen, y no más.
Incluso científicos honrados y con buenas intenciones pueden cometer errores, así que la comunidad científica en su conjunto es la encargada de validar, o refutar, sus resultados, en un proceso de autocorrección que nunca acaba.  ¿Creéis que la forma de trabajar en la Wikipedia, o en el mundo Linux, es novedosa? ¡Ja!  La ciencia descubrió el truco hace siglos.  No solamente eso, sino que comunicar las investigaciones propias permite a otros científicos avanzar en sus propias investigaciones.  En clase suelo poner el ejemplo de Henry Cavendish.  Este científico británico del siglo XVIII hubiera podido ser un precursor del electromagnetismo y la teoría de gases, adelantándose en décadas a hombres como Mawxell, Faraday o Dalton.  Pero era de personalidad retraída y asocial, y muchos de sus descubrimientos no fueron nunca publicados.  Sólo después de su muerte, cuando se encontraron sus cuadernos de notas, pudo el mundo conocer el total de su grandeza científica.  Una lástima para el mundo, que pudo haberse aprovechado bien de su mente y sus descubrimientos.  Aunque tranquilos, que al menos Cavendish no murió triste y pobre: cuando fue enterrado en la catedral de Derby, Inglaterra despedía a uno de sus más acaudalados súbditos.
5) VERIFICACIÓN.  Una vez establecida una teoría, hay que verificarla.  No se trata tan sólo de asegurarse que los experimentos ya realizados queden bien explicados, sino que también ha de poder explicar otros fenómenos.  Es decir, que nos permita hacer predicciones.  Estas comprobaciones pueden ser hechas tanto por el científico creador de la teoría como por otros científicos.  De hecho, lo mejor es que lo confirmen grupos de investigadores de otros laboratorios.
Un ejemplo interesante es el de las ondas gravitacionales.  Predichas por la teoría de la relatividad de Einstein, fueron aparentemente detectadas por vez primera en los años 60, de la mano de James Weber.  El problema es que, desde entonces, nadie ha podido volver a detectarlas, a pesar de que los instrumentos recientes son mucho más sensibles.  ¿Mintió Weber y falsificó resultados?  No parece el caso.  ¿Se equivocó y realizó un experimento fallido?  Es posible.  Pero, puesto que tenemos una teoría capaz de explicar las ondas gravitacionales, se están preparando nuevos y muy costosos experimentos para verificarla o refutarla (pueden leer más detalles en este artículo).  Sólo así sabremos si Weber fue un precursor que tuvo la suerte de detectar una onda gravitacional inusitadamente grande, o si sencillamente se equivocó.
Otro ejemplo: la fusión fría.  En la década de los 80, los investigadores Stanley Pons y Martin Fleischmann afirmaron haber obtenido fusión nuclear a temperatura ambiente, mediante una celda electrolítica.  Su descubrimiento fue revolucionario, y ya pueden imaginarse por qué: ¡nada menos que un bote con agua, deuterio y un catalizador, y ya tenemos energía barata e inagotable! Este cliché llegó hasta el cine, con la película El Santo (1997), donde una científica rusa y un pícaro ladrón logran salvar a Rusia del abismo gracias a la fusión fría.  Por desgracia, la verificación experimental de otros equipos fue negativa, nadie fue capaz de reproducir esos resultados. ¿Fraude?  Había miles de millones en juego, y los investigadores parecían más interesados en obtener patentes que en hacer trabajo científico serie.  Sin embargo, no serían tan tontos como para creer que nadie verificaría sus resultados.  En la actualidad, se cree que Pons y Fleischmann pudieron haberse equivocado en sus mediciones, lo que les hizo creer erróneamente que había un exceso de energía de origen nuclear.
Así que ya saben, amigos.  Si tienen alguna duda sobre la validez científica de cualquier área del saber, rama o pseudociencia que pretenda acceder al manto de respetabilidad que otorga la ciencia, hágase las preguntas del método científico:
  • ¿Hay observaciones fiables?
  • ¿Se realizan experimentos en condiciones controladas y reproducibles?
  • ¿Hay alguna teoría, hipótesis o conjetura que permita explicar los fenómenos observados y experimentados?
  • ¿Se comunican dichas teorías y experimentos de forma abierta y fiable?
  • ¿Se ha verificado de forma rigurosa e independiente?
Si no es así, no compre la moto. Seguro que tiene truco.