miércoles, 30 de mayo de 2012

El problema de Newton y la solución que ha obtenido Shouryya Ray (16 años)

Fuente: Francis (th)E mule

Pido perdón a todos los que se han sentido ofendidos con esta entrada. No era mi intención utilizar un tono violento, sino irónico, aunque no debo haberlo hecho bien pues algunos lo han interpretado mal. Así que me gustaría aclarar unos puntos:
1) No tengo nada contra este chaval, ni contra su trabajo, ni contra sus directores los Prof. Dr.-Ing. Jochen Fröhlich y Dr.-Ing. Tobias Kempe, ni contra el tribunal que ha juzgado su trabajo, coordinado por Annett Dargazanli (Wilhelm-Ostwald-Gymnasium Leipzig) y compuesto por Prof. Dr. rer. nat. Udo Hebisch (TU Dresden, Institut für Diskrete Mathematik und Algebra), Sven Hofmann (TU Dresden, Fakultät Informatik, Institut SMT, AG Didaktik der Informatik), y Dr. Bettina Timmermann (TU Dresden Fakultät Informatik Arbeitsgruppe Didaktik der Informatik). El chaval ha obtenido el segundo lugar en una competición a nivel nacional (Alemania) para jóvenes investigadores de secundaria en la sección de Matemáticas e Informática. Me parece estupendo para él y le deseo un futuro prometedor si se dedica a la ciencia (o a lo que él quiera).
2) Tampoco tengo nada en contra de ^DiAmOnD^, autor del blog Gaussianos, ni de todos los autores de blogs que se han hecho eco de la noticia que ha aparecido en muchos medios (web, prensa, radio y TV). Toda noticia en los medios ha de ser tomada con precaución. Aún así, saber que una noticia es sensacionalista no siempre es fácil. En esta noticia yo he de confesar que me dedico profesionalmente a calcular soluciones de ecuaciones diferenciales, investigo e imparto docencia en el tema, con lo que mi posición, en este caso, es de carácter excepcional.
3) A mí me han colado muchas veces noticias como ésta y como a mí a todos nos las cuelan constantemente. Yo no puedo criticar ni a los medios, ni a los periodistas, ni a los blogs, por no contrastar este tipo de noticias con profesionales.  Escribí esta noticia esta mañana, a la prisa y corriendo, y quizás el lenguaje utilizado no fue el adecuado.
No me ha gustado tener que escribir esta entrada. Una noticia del periódico sensacionalista Daily Mail ha copado muchos medios (El Mundo, 20 minutosSur Málaga, La Vanguardia, etc.). Me enteré gracias al blog Gaussianos, el blog de divulgación matemática en español por excelencia:”Shouryya Ray, genio de 16 años que ha resuelto un problema propuesto por Newton hace más de 300 años,” gaussianos, 27 mayo, 2012. Para un experto en resolver ecuaciones diferenciales, basta ver la foto de la solución obtenida por Ray para saber que el ha resuelto un problema de primer curso de física (que viene en muchos libros de texto de física): el movimiento de un proyectil sujeto a la aceleración de la gravedad y a una fuerza de rozamiento. En esta fórmula los símbolos representan lo siguiente: g es la aceleración de la gravedad, (u,v) son las componentes de la velocidad del proyectil, \alpha es la constante que multiplica a la fuerza de rozamiento, y \mbox{arsinh} es la función arcoseno hiperbólico.
A partir de una versión de mayor resolución de esta foto del póster del muchacho, se puede reconstruir fácilmente su logro. Las ecuaciones que ha resuelto el muchacho son las siguientes
Toda persona que haya estudiado un primer curso de física sabrá obtener estas ecuaciones a partir de las leyes de Newton. ¿Te atreves? Toda persona que haya estudiado la resolución de ecuaciones diferenciales de primer orden (primer curso de matemáticas) debería estar en posición para resolver estas ecuaciones sin ninguna dificultad. ¿Te atreves? ¡Ah, qué no las ves bien! Te las copio en LaTeX.
u'(t) + \alpha\,u(t)\,\sqrt{u(t)^2+v(t)^2} = 0, \qquad u(0)=u_0\ne 0,
v'(t) + \alpha\,v(t)\,\sqrt{u(t)^2+v(t)^2} = -g, \qquad v(0)=v_0> 0.
Bueno, si no eres matemático, o físico, o ingeniero, o tienes oxidados tus conocimientos, te recuerdo el cambio de variable conocido para resolver este sistema de ecuaciones desde principios del s. XVIII, que es el mismo utilizado por el chaval.
El cambio de variable estándar \psi = v/u, conduce trivialmente a la ecuación de primer orden
\psi'(t) = - \mbox{sgn}(u_0)\,\alpha\,g\,\sqrt{1+\psi(t)^2}.
La solución de esta ecuación es trivial de obtener [para quien tenga frescos sus conocimientos de resolución de ecuaciones diferenciales de primer orden, ya que es una ecuación en variables separadas y se integra de forma directa]. Si no sabes, ¡qué torpe! [perdón por quien se sienta ofendido, pero lo primero que se aprende en un curso de ecuaciones diferenciales es la resolución de ecuaciones en variables separadas, que no se ofenda quien nunca lo haya cursado, no es mi intención ofender] puedes usar Mathematica [en concreto, el comando DSolve] para obtener la solución que aparece en la primera foto de esta entrada (que en la foto del póster aparece truncada).
¿Por qué se dice que Newton no obtuvo la solución de este sistema? Porque Newton en los Principia presentó varias soluciones en forma de series y en concreto para esta ecuación utilizó una serie [en la época de Newton una solución implícita de una ecuación diferencial no se consideraba apropiada y se desarrollaba de forma explícita utilizando una serie] que aparece en el propio póster del chaval como
Obviamente, esta solución poco satisfactoria fue escrita en forma cerrada unos pocos años después de la publicación de los Principia [cuando se popularizó el uso de soluciones implícitas de ecuaciones diferenciales]. Pero un chaval de 16 años no tiene por qué saberlo [ni sus directores del trabajo, ni el tribunal que lo juzgó, que nadie lea una crítica personal].
¿No dicen que el chaval ha obtenido dos soluciones? ¿Dónde está la otra? En la parte final del póster… huelgan más comentarios.
[Quizás aquí he metido la pata. En el anuncio del premio se dice que Ray también ha resuelto de forma analítica un segundo problema, el rebote o colisión de una partícula contra una pared, utilizando la fuerza de contacto de Hertz y un rozamiento lineal, pero esta solución no es la que aparece en este recorte del póster. La solución analítica (implícita) es bien conocida, tiene dos ramas (antes y después del choque), y se utiliza para calcular el coeficiente de restitución de la energía cinética en el choque; yo mismo impartí un curso hace un par de años a alumnos de informática en el que se presentaba dicha solución; de nuevo una casualidad que me pone en una situación "buena" para valorar el trabajo de Ray].
Si eres profesor de física o matemáticas de primer curso, ¿por qué no le pones este problema a tus alumnos y compruebas si son capaces de emular el gran logro matemático del nuevo “genio” Ray? Es broma… [Espero que el tono irónico de esta última frase no moleste ni a profesores ni a alumnos; los lectores habituales de este blog ya sabéis que me gusta recomendar a los docentes el uso de problemas sencillos de física y matemáticas].
PS: En este foro dicen que la solución de Ray apareció publicada en un artículo de G. W. Parker, “Projectile motion with air resistance quadratic in the speed,” American Journal of Physics 45: 606-610, 1977 [PDF gratis]. Traceando sus referencias he llegado a Jeffrey C. Hayen, “Projectile motion in a resistant medium: Part I: exact solution and properties,” International Journal of Non-Linear Mechanics 38: 357-369, 2003, quien afirma que la solución implícita para este problema se publicó como pronto en el libro de E. J. Routh, “A Treatise on Dynamics of a Particle,” Cambridge University Press (1898) pp. 95 –96, y más recientemente en el famoso E. T. Whittaker, “A Treatise on the Analytical Dynamics of Particles and Rigid Bodies,” 4th Edition, Cambridge University Press, London (1937) pp. 229 –230. Yo la he visto en varios libros sobre física de los deportes (en la parte de deportes de tiro) y en libros sobre simulación de sistemas mecánicos aplicados a gráficos por ordenador.

lunes, 28 de mayo de 2012

Refutado el artículo en Physical Review Letters que afirma que la fuerza de Lorentz viola la relatividad especial

Fuente: Francis (th)E mule

Todos hemos estudiado que la fuerza de Lorentz es un ejemplo de la relación íntima entre la teoría de la relatividad y el electromagnetismo. Esta fórmula nos permite calcular la fuerza ejercida por campos eléctricos y magnéticos sobre una carga. Masud Mansuripur, ingeniero eléctrico de la Universidad de Arizona en Tucson, ha logrado colar en Physical Review Letters (PRL) un artículo que afirma que hay un fallo en todos los libros de texto, según un artículo de Adrian Cho en Science. Hay tanta gente que critica las ideas de Einstein que uno ya no se sorprende cuando lee cosas así, pero lograr publicarlo en PRL son palabras mayores y más aún si se hacen eco en la mismísima Science. No he podido leer el artículo técnico, aún no está disponible en PRL, M. Mansuripur, “The trouble with the Lorentz law of force,” submitted to Physical Review Letters, January 2012. Pero aún estoy sorprendido por Adrian Cho, “Textbook Electrodynamics May Contradict Relativity,” Science 336: 404, 27 April 2012. Por supuesto, Cho nos aclara que muchos físicos tienen serias dudas sobre la afirmación de Mansuripur.
Según cuenta Cho, en el nuevo artículo se demuestra que aplicar una transformación de Lorentz a la fuerza de Lorentz sobre una partícula cargada en un cable produce un resultado incompatible con los experimentos. Según Mansuripur, este resultado indica que la derivación de la fuerza de Lorentz que aparece en los libros de texto es incorrecta y viola la relatividad especial; su artículo presenta una corrección a dicha ley que evita este problema. Esta nueva ley no es nueva, ya que se trata de la fuerza descrita por Albert Einstein y Jakob Laub en 1908, que más tarde Einstein repudió como incorrecta. Hasta que no lea el artículo técnico no quiero decir nada más. Cho acaba su artículo afirmando que “sin lugar a dudas, el debate sobre este resultado va a ser acalorado.”
Esta entrada será completada con más detalles cuando el artículo de Mansuripur esté disponible.
PS (25 de mayo 2012): Ya está disponible el artículo de M. Mansuripur, “The trouble with the Lorentz law of force,” Physical Review Letters 108: 193901, 7 May 2012. La paradoja no es tal y fue resuelta en 1989 por Victor Namias, “Electrodynamics of moving dipoles: The case of the missing torque,” American Journal of Physics 57: 171-177, 1989. El problema es que la fórmula para el momento de fuerzas (torque) introducida por la fuerza de Lorentz que se presenta en muchos libros de texto solo es válida en reposo y debe ser corregida; hay dos posibles correcciones publicadas el dipolo de Gilbert y el dipolo de Ampère, y en ambos casos se puede resolver la “paradoja” de forma trivial.
La pena es que este resultado demuestra que en la actualidad nadie se estudia los artículos clásicos y que en asuntos “clásicos” se redescubren una y otra vez las mismas cosas. El sistema de revisión por pares funciona, pero tiene limitaciones, tiene muchas limitaciones. Un sistema de peer review abierto, en el que cualquier investigador que lea el artículo pueda revisarlo si así lo considera oportuno es cada día más necesario.

viernes, 25 de mayo de 2012

Una cuasipartícula de Majorana observada en un nanohilo semiconductor recubierto de un superconductor

Todas las partículas (elementales) que conocemos son bosones o fermiones. En un sólido se observan excitaciones que se comportan como partículas, las cuasipartículas, que pueden ser bosones o fermiones, pero también hay otras posibilidades. Mourik et al. publican en Science la observación de una cuasipartícula en un superconductor nanoestructurado que se comporta como una partícula de Majorana (dos partículas de Majorana acopladas se comportan como un fermión de Dirac). Una partícula (también llamada fermión) de Majorana es idéntica a su antipartícula, al contrario que un fermión de Dirac, cuyas cargas son opuestas a las de un antifermión. Hoy en día no se sabe si los neutrinos son fermiones (de Dirac) o son partículas de Majorana, pero la mayoría de los físicos apuesta por la primera posibilidad. Poder estudiar cuasipartículas de Majorana en superconductores promete aplicaciones en computación cuántica topológica. Nos lo cuenta Piet W. Brouwer, “Enter the Majorana Fermion,” Science 336: 989-990, 25 May 2012, que se hace del artículo técnico de V. Mourik et al., “Signatures of Majorana Fermions in Hybrid Superconductor-Semiconductor Nanowire Devices,” Science 336: 1003-1007, 25 May 2012.
Los electrones en un superconductor están apareados formando bosones (pares de Cooper) que se encuentran todos en el mismo estado energético +ε (formando un condensado de Bose-Einstein). Además de los electrones, en un superconductor los huecos (la ausencia de un electrón se comporta como una partícula) también se pueden aparear formando pares de Cooper, pero de energía opuesta −ε. La teoría predice la posible existencia de un par de Cooper con ε=0, que se comporta como una partícula de Majorana. La existencia de este estado está protegida topológicamente porque no hay ninguna perturbación continua que pueda deformar el espectro de energía de los pares de Cooper con y sin este estado. La figura muestra los niveles de energía del superconductor sin el estado de Majorana (izquierda) y con dicho estado (derecha); no hay ninguna transformación continua que transforme los niveles energéticos a la izquierda ne los de la derecha, pues siempre faltará un nivel energético dado. En el experimento de Mourik et al. se ha utilizado un nanohilo semiconductor de InSb recubierto con un superconductor NbTiN colocado en un gran campo magnético paralelo al nanohilo. Para cierta densidad de electrones, el nanohilo de InSb se vuelve superconductor y muestra el estado de Majorana; una vez que aparece este estado es robusto ante cambios en el campo magnético aplicado lo que demuestra que se trata de un estado topológico. Los resultados obtenidos por los autores se corresponden  con las predicciones teóricas, lo que confirma que se trata de un estado de Majorana.

lunes, 21 de mayo de 2012

Universos bebé

Fuente: Neofronteras

Siguen explorando el uso de modelos con universos bebé y agujeros negros no singulares a la hora de explicar problemas de la Física moderna.
Foto
A veces los físicos teóricos, a falta de resultados experimentales, pueden caer en cierta metafísica cuando especulan sobre ciertos aspectos. Incluso pueden revisitar los mismos parajes teóricos una y otra vez en busca de místicas respuestas. Uno de estos parajes típicos es el de los universos bebé y los agujeros negros, que ha sido estudiado durante las últimas décadas, incluso por Stephen Hawking. Según este tipo de ideas al final de un agujero negro se generaría otro universo e incluso nuestro propio universo se podría haber generado así.
Como todos sabemos, la Relatividad General (RG) tiene problemas a la hora de decir qué pasa en el centro de un agujero o cómo fue el Big Bang. A esos regímenes se produce una singularidad, un punto de infinita densidad en donde la Física deja de existir (o no podemos describirla). Nikodem Poplawski, de la Universidad de Indiana, comenta en Inside Science su trabajo a la hora de evitar estas singularidades y propone soluciones a otros aspectos de la Física actual que está aún por aclarar, como la flecha del tiempo, la asimetría entre materia y antimateria o la materia y energía oscuras. Según él nuestro universo estaría al final del interior de un agujero negro y no habría singularidades físicamente imposibles en él. Serían lugares de alta densidad, pero no de densidad infinita.
El problema fundamental de la Física moderna es que la RG es una teoría clásica que no tiene en cuenta efectos cuánticos y la Mecánica Cuántica no tiene en cuenta efectos gravitatorios. Pero justo en las supuestas singularidades, lugares de intensa gravedad pero minúsculos, tienen que darse efectos cuánticos. Digamos que a la RG se le exige que funcione por encima de su límite de aplicabilidad y como resultado nos proporciona unos sinsentidos a los que llamamos singularidades. Es de esperar que una teoría cuántica de la gravedad, de la que aún carecemos, explique bien la física a esos regímenes y elimine las singularidades.
Este físico ha estado trabajando con una teoría de la RG modificada que incorpora efectos cuánticos denominada teoría de gravedad Einstein-Cartan-Sciama-Kibble. Se empezó a trabajar en esta teoría en los años sesenta del pasado siglo y es una aproximación a lo que sería una verdadera teoría cuántica de la gravedad.
Uno de los aspectos interesantes que incorpora esta teoría es el concepto de spin, que tanta importancia tiene en el mundo de las partículas elementales. En este esquema las partículas interaccionan con el espacio-tiempo a través de su spin introduciendo una torsión al mismo. Digamos que el espacio puede llegar a retorcerse.
En general esta torsión sería despreciable, pero en el interior de un agujero negro, en el Big Bang o en otros escenarios altamente energéticos la torsión sería muy significativa y se manifestaría como una fuerza repulsiva en contra de la gravedad. De este modo, durante el colapso de un agujero negro, nunca se llegaría a un régimen de densidad infinita, pues esta torsión lo impediría. La torsión sería cada vez más fuerte y evitaría un colapso total. La materia estaría concentrada a una densidad altísima, pero no sería infinita. Esa altísima densidad, sin embargo, tendría como consecuencia una alta energía gravitatoria que daría lugar a una gran producción de partículas que aumentaría la masa en el interior del sistema. Muchas de las partículas generadas tendrían spin y el efecto de todas ellas aumentaría la torsión, lo que aumentaría la fuerza de repulsión. Al final se produciría un rebote y se generaría un Big Bang al “otro lado” del agujero negro que produciría otro universo que se expandiría. Además la teoría produce, según este modelo, un universo que encaja con el universo observado en forma, geometría y distribución de masa.
Poplawski una metáfora para simbolizar el modelo que emplea dos botellas conectadas a modo de reloj de arena (ver foto). La botella de arriba sería el agujero negro y la conexión entre las dos un agujero de gusano que daría lugar a otro universo en crecimiento. El vórtice que se forma simbolizaría la torsión en el sistema.
Según esta idea cada agujero negro produciría un universo o contendría un “universo bebé”. Un observador no puede comprobar si esto es así, pues no sobreviviría ni a la caída en el agujero negro ni al estado de máxima densidad en donde se produce quizás un “reinicio” de la física.
Esto sugiere que nuestro propio universo se podría haber generado de la misma manera. No podemos esperar vivistas de los habitantes del universo previo al nuestro, ni ellos sabrán nunca qué es lo que está pasando aquí. Pero bajo esta perspectiva se pueden solucionar muchos aspectos que trae de cabeza a la Física moderna, según este investigador.
La materia cayendo a través del horizonte de sucesos imprime una dirección del tiempo. Por tanto la flecha del tiempo de nuestro universo sería una herencia de un agujero negro en colapso de un universo padre previo.
La torsión explicaría el desequilibrio entre materia y antimateria, porque la torsión haría que la materia estuviera compuesta por partículas ordinarias y la antimateria por materia oscura (aunque no parece que explique las proporciones de una y otra).
La torsión sería además la fuente de la energía oscura, porque una geometría con torsión produce de manera natural una constante cosmológica que funcionaría como una energía oscura. Así que, según este investigador, la aceleración de la expansión sería una prueba de la existencia de la torsión.
Naturalmente queda por saber cuántas capas de universos hay. Si hubo un universo primigenio o si en realidad hay una infinidad de estas capas. Tampoco se sabe qué queda del universo padre en el hijo si es que queda algo.
Lo que es complicado es la falsabilidad de la teoría, pues queda descartado todo experimento en el interior de un agujero negro por definición. Sin embargo, si nuestro universo proviene del colapso de un agujero negro y como toda estrella gira (incluidas la que generan agujeros negros) quizás se haya heredado cierta dirección de rotación preferente. Algunas observaciones parecen indicar que las galaxias podrían tener una distribución de rotaciones que encajaría con esta idea.
Por otro lado, Lee Smolin ya trabajó en su día sobre la idea de los universos bebé como solución al supuesto ajuste fino de las constantes físicas. Según este otro físico, cada universo produciría agujeros negros que a su vez producirían otros universos, pero en distinto número. Aquellos universos con constantes físicas que favorecieran la formación de estrellas masivas (y por tanto vida) producirían más agujeros negros que a su vez producirían más estrellas y así sucesivamente. En cada colapso la física se podría reajustar, pero sólo prosperarían aquellos linajes con mayor producción de estrellas. Esta evolución “darwiniana” (no hay presión de selección ni reproducción sexual) produciría cada vez más y más universos propicios para la vida.Al igual que en el caso de la vida terrestre, es fácil explicar la aparición de nuevas especies, pero no la génesis de la propia vida.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3834
Fuentes y referencias:
Artículo en Inside Science.
Web de Nikodem_Poplawski.
Artículo en ArXiv.

Foto de cabecera: Universidad de Indiana.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

La mejor estrategia para Batalla Naval

Fuente: Neoteo

Seguramente has jugado innumerables partidas a la Batalla Naval. Fácil de implementar -solo hace falta lápiz y papel- y con reglas sencillas, este juego puede ser más complejo de lo que parece, o al menos lo será si queremos jugar como verdaderos campeones. Como en todo juego de este tipo, la estrategia utilizada a la hora de disponer sobre el tablero nuestra propia flota e intentar hundir los barcos del oponente tiene una enorme importancia. Pero ¿cual es la mejor estrategia para la Batalla Naval?

Es bastante difícil encontrar alguien que no sepa de que se trata el antiguo juego conocido como “Batalla Naval”. Se trata de un aparentemente sencillo juego de estrategia en el que cada jugador tiene a su disposición una hoja de papel en la que se  dibujan dos tableros de juego,  generalmente de 10×10 casilleros cada uno, En el primero de ello se ubican la “flota” propia, constituida por una serie de “barcos” que ocupan de dos a cinco casilleros (estos tamaños dependen un poco del reglamente utilizado, pero no importa por ahora). A lo largo del juego en el segundo tablero se va ubicando las embarcaciones que constituyen la flota rival. El juego propiamente dicho transcurre por turnos, y cada oponente va cantando coordenadas ( por ejemplo, “B-3”) y el otro le responde con “averiado” en caso de que hayamos impactado en una de sus naves, “hundido” si todos los casilleros del buque han sido ya impactados o “agua” en caso de que no le hayamos dado a nada. ¿Sencillo, verdad? Bien, detrás de esta aparente simplicidad es posible encontrar estrategias que pueden ayudarnos a ganar casi siempre este juego.
  • También existen "tableros profesionales" de Batalla Naval. También existen "tableros profesionales" de Batalla Naval.
    Uno de los primeros trucos que podemos utilizar es colocar los barcos “pegados” unos con los otros. En efecto, y aunque el reglamento establece que los barcos no pueden solaparse -esto es, superponerse unos con los otros- nada impide que se “toquen” entre si. Esto suele confundir mucho al adversario, ya que lo que puede aparecer en su tablero como un “portaaviones” de longitud cinco es en realidad un “acorazado” de longitud 4 y parte de un crucero de longitud 3. La imagen siguiente muestra dos tableros de juego, el primero de ellos con los barcos dispuesto como casi todo el mundo los coloca, y el segundo con la flota anclada con este sistema:
    El reglamento no impide que los barcos se “toquen” entre si. El reglamento no impide que los barcos se “toquen” entre si.
    La forma más simple en que se puede realizar el ataque es efectuando disparos al azar. Se selecciona una coordenada cualquiera y se la transmite al rival, esperando tener suerte y darle a algo. Lamentablemente, esta es la estrategia más pobre de todas. Si bien puede ser útil para efectuar el primer disparo del juego, luego conviene ir “afinando la puntería”. En efecto, si el disparo a “tocado” una embarcación enemiga, lo mejor es intentar con los casilleros aledaños y no elegir un nuevo punto al azar. Simulaciones hechas en un ordenador, reproduciendo millones de partidas virtuales, demuestran que para hundir la totalidad de la flota enemiga disparando al azar hace falta -en promedio- disparar más de 95 veces. Por lo general, nuestra flota habrá sido destruida mucho antes.
    Utilizando el azar hay que disparar más de 95 veces. Utilizando el azar hay que disparar más de 95 veces.
    Como decíamos, es bastante fácil de mejorar la efectividad de nuestro ataque si una vez que hemos golpeado una nave enemiga disparamos arriba, abajo, a la izquierda y a la derecha de ese casillero en busca del resto de la misma nave. Aunque lejos de ser una genialidad, este sistema de juego  produce resultados significativamente mejores a los disparos al azar, y es una de las estrategias adoptadas por casi todos los jugadores ocasionales de este juego. El análisis por ordenador de 10 millones de partidas jugadas con este algoritmo revela que se puede vencer al enemigo utilizando unos 60 o 70 disparos en promedio. Si nuestro contrincante utiliza una estrategia basada en el azar, no será difícil ganarle de esta forma.
    Sin embargo, se puede mejorar, aunque no mucho, este sistema. Aplicando lo que se conoce como “paridad”, se puede reducir enormemente la cantidad de casilleros a analizar. En efecto, como la longitud mínima de los barcos es de dos casilleros, no necesitamos ir efectuando disparos en todos ellos, sino que podemos hacerlo “uno por medio”, solo en los cuadritos azules (o blancos, por supuesto) de la imagen siguiente. Si recorremos el tablero "por filas", podemos disparar casillero por medio por que sabemos que un barco de longitud 2 será dañado lo mismo, y ahorramos unos cuantos disparos al "agua".
    No necesitamos disparar en todos los casilleros. No necesitamos disparar en todos los casilleros.
    El análisis de partidas efectuadas con este sistema demuestra que es posible derrotar a un enemigo que no utiliza una estrategia basada en la paridad, pero no siempre. En efecto, la mejora que supone utilizar este sistema es lo suficientemente pequeña -ahorra solo un par de disparos en promedio- que es bastante posible que nuestro oponente nos borre del mapa antes que nosotros consigamos destruirlo. La gráfica siguiente compara las tres estrategias mencionadas hasta aquí:
    Utilizar la "paridad" mejora un poco nuestro juego. Utilizar la "paridad" mejora un poco nuestro juego.
    Pero los mejores resultados son los que se consiguen mediante una técnica conocida como “función de densidad de probabilidad”. Un jugador que emplee esta técnica será prácticamente imbatible, y a veces incluso parecerá que “sabe” donde tenemos nuestros barcos. Se basa en aprovechar la información que se obtiene a partir de las longitudes de los barcos hundidos, ya que al permitirnos deducir el tamaño de los que quedan sobre el tablero nos proporciona información muy importante sobre los sitios en que buscar. Así como fuimos capaces de eliminar buena parte del tablero gracias a la “paridad”, si sólo quedan barcos mayores a 3 cuadritos de largo, es posible reducir aún más la cantidad de disparos necesarios para tocarlos. Lamentablemente es una estrategia que para ser utilizada al 100% de su potencial requiere de un ordenador, que asigna una probabilidad a cada casillero libre del tablero y la va recalculando con cada disparo. Eso hace que sea tan dificil derrotar a un ordenador (que esté bien programado, claro está) jugando a este juego.
    En naranja, el nuevo e impresionante algoritmo. En naranja, el nuevo e impresionante algoritmo.
    Como se ve en el gráfico anterior, esta última estrategia permite mandar al fondo del mar la flota enemiga en unos 40 disparos en promedio, por lo que resulta imbatible frente a cualquiera de las estrategias mencionadas antes. Como puedes ver, aún en un juego aparentemente sencillo como este la matemática tiene mucho que decir. ¿No te dieron ganas de jugar una partida de Batalla Naval?

miércoles, 16 de mayo de 2012

El ciclo vital de las ideas

http://fc00.deviantart.net/fs70/i/2012/090/c/a/la_muerte_de_una_idea_by_osukaruart-d4uhotd.png

Prueban con éxito la primera terapia para prolongar la vida

Fuente: Biblioteca del instituto Química-Física "Rocasolano"

Investigadores del Centro Nacional de Investigaciones Oncológicas (CNIO) han probado con éxito la primera terapia génica contra el decaimiento del organismo asociado al envejecimiento. Por el momento, la 'terapia antienvejecimiento' ha conseguido, con un solo tratamiento, prolongar la vida de ratones hasta en un 24 por ciento. 

El trabajo, que publica mañana en la revista 'EMBO Molecular Medicine', desarrolla una estrategia nunca antes empleada para combatir el envejecimiento, se trata de un tratamiento efectivo y seguro -en el modelo animal-, que actúa directamente sobre los genes, pero que se aplica a animales adultos, y una única vez.

Liderado por la directora del CNIO, Maria A. Blasco, y Bruno M. Bernardes de Jesús, coautor del trabajo, en colaboración con Eduard Ayuso y Fátima Bosch, del Centro de Biotecnología Animal y Terapia Génica de la Universidad Autónoma de Barcelona (UAB), trataron a ratones adultos, de un año de edad; y viejos, de dos años. En ambos casos la terapia génica tuvo un efecto "rejuvenecedor", escriben los autores.

Los ratones que fueron tratados al cumplir el año vivieron, de media, un 24 por ciento más; los de dos años, un 13 por ciento más. Así, la terapia consistiría en lograr que las células expresen telomerasa, la enzima que 'ralentiza' el 'reloj biológico'. 

En general, la terapia mejoró sensiblemente la salud de los animales, retrasando la aparición de enfermedades asociadas a la edad -como la osteoporosis y la resistencia a la insulina- y mejorando los valores de indicadores de envejecimiento, como la coordinación neuromuscular. 

Este trabajo "demuestra que es posible desarrollar una terapia génica antienvejecimiento con telomerasa sin aumentar por ello la incidencia de cáncer", escriben los autores. "Los organismos adultos acumulan daños en el ADN resultado del acortamiento de los telómeros, este trabajo muestra que una terapia génica basada en la producción de telomerasa es capaz de reparar o retrasar este tipo de daño", añaden. 


LA TELOMERASA: TRATADA COMO UN VIRUS 
 
La terapia se basa en tratar al animal con un virus cuyo ADN ha sido modificado, concretamente ha sido sustituido por la enzima telomerasa, uno de los genes más importantes para el envejecimiento. La telomerasa repara los extremos de los cromosomas, los llamados telómeros, y al hacerlo frena el reloj biológico de la célula y por ende del organismo. El virus, al infectar al animal, actúa como un vehículo que deposita el gen de la telomerasa en las células.

Los telómeros son estructuras que protegen los extremos de los cromosomas, pero de forma limitada en el tiempo: con cada división de la célula, los telómeros se acortan, hasta que se reducen demasiado y ya no pueden desempeñar su función. Como resultado, la célula deja de dividirse y envejece, o muere. Esto se evita con la telomerasa, que frena el acortamiento de los telómeros o incluso los reconstruye de nuevo.

El gen de la telomerasa, no obstante, sólo está activo en la mayoría de las células antes del nacimiento; las células del organismo adulto, salvo excepciones, no tienen telomerasa. La excepción son las células madres adultas y las cancerígenas, que se dividen sin límite y son por tanto inmortales. Precisamente, riesgo de promover el desarrollo de tumores siempre había supuesto un obstáculo a la hora de plantear terapias antienvejecimiento basadas en la telomerasa.

Por esta razón, los investigadores destacan que los animales de este ensayo no han desarrollado cáncer. Los investigadores lo atribuyen a que la terapia comienza cuando los animales ya son adultos, y por tanto no tienen tiempo de acumular el número de multiplicaciones aberrantes necesarias para la aparición de tumores.

El virus empleado para llevar el gen de la telomerasa a la células derivan de otros no patógenos en humanos y que no tienen capacidad para replicarse. Por tanto son "muy seguros, ampliamente usados en terapia génica con un gran éxito en el tratamiento de la hemofilia y enfermedades oculares".

VIA AL TRATAMIENTOS DE ENFERMEDADES 
 
Los investigadores Virgina Boccardi, de la Universidad Segunda de Nápoles, y Utz Herbig, del New Jersey Medical School-University Hospital Cancer Centre, han señalado que este trabajo se considera ante todo una "prueba de concepto de que la terapia génica con el gen de la telomerasa es una estrategia factible y en general segura para prolongar la vida en buenas condiciones de salud y tratar enfermedades relacionadas con presencia de telómeros cortos".

Así, destacan que aunque a corto plazo su aplicación en humanos contra el envejecimiento no es posible, sí podría abrir una nueva vía al tratamiento de enfermedades relacionadas con la presencia en los tejidos de telómeros anómalamente cortos, como algunos casos de fibrosis pulmonar humana.

Del trabajo Blaco destaca que, aunque "el envejecimiento hoy no se considera una enfermedad, cada vez más los investigadores tendemos a verlo como la causa común de enfermedades como la resistencia a la insulina o las cardiovasculares, cuya incidencia aumenta con la edad", por tanto, si se trata el envejecimiento de las células se podrían tratar también las enfermedades.

Por su parte, Bosch señala que el decubrimiento "podría ser imprescindible para una terapia antienvejecimiento, ya que cualquier otra estrategia requeriría de una administración constante del fármaco durante toda la vida del paciente, aumentando el riesgo de efectos adversos".  

La teoría que podría explicar el surgimiento, organización y origen de la vida

Fuente: Kiencia Kanija

La teoría que podría explicar el surgimiento, organización y origen de la vida

Escrito por Kanijo en Biologí­a, Matemáticas, Quí­mica, tags: , ,
Artículo publicado el 7 de mayo de 2012 en The Physics ArXiv Blog
Los bioquímicos han imaginado desde hace mucho que los conjuntos autocatalíticos pueden explicar el origen de la vida. Ahora, un nuevo enfoque matemático a estos conjuntos puede tener unas implicaciones incluso mayores.
Una de las cuestiones más desconcertantes sobre el origen de la vida es lo rico que era el paisaje químico que hizo posible que apareciese la vida.

vida © by olga.palma

Este paisaje habría consistido, entre otras cosas, en aminoácidos, proteínas y moléculas complejas de ARN. Es más, estas moléculas deben haber sido parte de una rica red de reacciones químicas interrelacionadas que las generaron de una manera sencilla.
Claramente, todo esto debe haber pasado antes de que surgiese la vida. ¿Pero cómo?
Una idea es que los grupos de moléculas pueden formar conjuntos autocatalíticos. Estos son fábricas químicas autosostenibles, en las que el producto de una reacción es la materia prima para otra. El resultado es un ciclo autocontenido de reacciones químicas.
Hoy, Stuart Kauffman de la Universidad de Vermont en Burlington y un par de colegas echaron un vistazo a las más amplias propiedades matemáticas de los conjuntos autocatalíticos. Al examinar esta descripción más extensa, llegaron a la asombrosa conclusión de que podría tener notables consecuencias para nuestra comprensión de la complejidad, evolución y el fenómeno de la emergencia.
Empiezan derivando algunas propiedades matemáticas generales de los conjuntos autocatalíticos, demostrando que tales conjuntos pueden crearse a partir de subconjuntos autocatalíticos de distintos tipos, algunos de los cuales pueden solaparse.
En otras palabras, los conjuntos autocatalíticos pueden tener una estructura compleja por sí mismos.
Pasan a demostrar cómo la evolución puede trabajar sobre un único conjunto autocatalítico, produciendo nuevos subconjuntos dentro de los que son mutuamente dependientes entre sí.  Este proceso configura un entorno en el que pueden evolucionar los nuevos subconjuntos.
“En otras palabras, las estructuras autosostenibles funcionalmente cerradas pueden surgir a un nivel mayor (un conjunto autocatalítico de conjuntos autocatalíticos), es decir, verdadera emergencia”, comentan.
Este es un interesante punto de vista sobre la emergencia y ciertamente parece una aproximación sensata al problema del origen de la vida. No es difícil imaginar a un grupo de moléculas que funcionan juntas de esta forma. Y, es más, los bioquímicos recientemente han descubierto conjuntos autocatalíticos simples que se comportan exactamente de esta forma.
Pero lo que hace que este enfoque sea tan potente es que las matemáticas no dependen de la naturaleza de la química – es independiente del sustrato. Por lo que los bloques básicos de un conjunto autocatalítico no tienen por qué ser siquiera moléculas sino que pueden ser unidades que puedan manipular otras unidades de la forma requerida.
Estas unidades pueden ser entidades complejas por sí mismas. “Tal vez no es demasiado aventurado pensar, por ejemplo, en el conjunto de especies bacterianas de tu intestino (varios cientos de ellas) como un gran conjunto autocatalítico”, dicen Kauffman y sus colegas.
Y van incluso más lejos. Señalan que la economía es básicamente el proceso de transformar materia prima en productos tales como martillos y palas que a su vez facilitan una posterior transformación de materia prima, y así sucesivamente. “Tal vez podemos ver también la economía como un conjunto autocatalítico (emergente), que muestra algún tipo de cierre funcional”, especulan.
¿Podría ser que la misma idea – la teoría general de conjuntos autocatalíticos – explique el origen de la vida, la naturaleza de la emergencia y proporcione unas bases matemáticas para la organización de la economía?
Tal y como Kauffman y sus colegas comentan modestamente: “Creemos que merece la pena trabajar en estas ideas y desarrollarlas más”.
Estamos ansiosos por seguir los progresos en este trabajo.

Artículo de Referencia: arxiv.org/abs/1205.0584: The Structure of Autocatalytic Sets: Evolvability, Enablement, and Emergence
Fecha Original: 7 de mayo de 2012
Enlace Original

Un tipo de supernova, dos fuentes distintas

Fuente: Ciencia Kanija

Artículo publicado el 7 de mayo de 2012 en CfA
Las estrellas en explosión conocidas como supernovas de Tipo Ia desempeñan un papel importante para medir el universo, y se usaron para descubrir la existencia de la energía oscura. Son lo bastante brillantes como para verse a través de grandes distancias, y lo bastante parecidas como para actuar como “candelas estándar” – un objeto de luminosidad conocida. El Premio Nobel de Física de 2011 fue galardonado por el descubrimiento de un universo en aceleración usando las supernovas de Tipo Ia. Sin embargo, el vergonzante hecho es que los astrónomos aún no saben qué sistemas estelares crean las supernovas de Tipo Ia.

Supernova Tycho de Tipo Ia Crédito: NASA

Dos modelos muy distintos explican el posible origen de las supernovas de Tipo Ia, y distintos estudios apoyan cada modelo. Las nuevas pruebas demuestran que ambos modelos son correctos – algunas de estas supernovas se crean de una forma y otras de otra.
“Los estudios anteriores han generado resultados discordantes. El conflicto desaparece si tienen lugar ambos tipos de explosión”, explica el astrónomo del Smithsonian Ryan Foley (Centro para Astrofísica Harvard-Smithsonian).
Las supernovas de Tipo Ia se sabe que se originan a partir de enanas blancas – los densos núcleos de estrellas muertas. Las enanas blancas también se conocen como estrellas degeneradas debido a que se apoyan en la presión de degeneración cuántica.
En el modelo degenerado simple para supernovas, una enana blanca recopila material de una estrella compañera hasta que alcanza un punto crítico donde se dispara una reacción nuclear desbocada y la estrella estalla. En el modelo degenerado doble, dos enanas blancas se fusionan y estallan. Los sistemas degenerados simples deberían tener gas procedente de la estrella compañera alrededor de la supernova, mientras que los sistemas degenerados dobles carecerían de dicho gas.
“Al igual que el agua mineral puede tener gas o no, en las supernovas también sucede”, dice Robert Kirshner, Profesor Clowes de Astronomía en la Universidad de Harvard y coautor del estudio.
Foley y sus colegas estudiaron 23 supernovas de Tipo Ia para buscar signos de gas alrededor de las supernovas, que deberían estar presentes sólo en los sistemas degenerados simples. Encontraron que las explosiones más potentes tendían a proceder  de sistemas “gaseosos”, o sistemas con flujos de salida de gas. Sin embargo, sólo una fracción de supernovas mostraba pruebas de flujos de salida. El resto parecía proceder de sistemas degenerados dobles.
“Definitivamente hay dos tipos de entornos – con y sin flujo de salida de gas. Ambas se encuentran alrededor de supernovas de Tipo Ia”, señala Foley.
Este hallazgo tiene importantes implicaciones para las medidas de la energía oscura y la expansión del universo. Si hay en marcha dos mecanismos distintos en las supernovas de Tipo Ia, entonces los dos tipos deben considerarse de forma separada cuando se calculan distancias cósmicas y tasas de expansión.
“Es como medir el universo con una mezcla de reglas de yardas y metros – más o menos llegas a la misma respuesta, pero no exactamente. Para lograr una respuesta precisa tienes que separar las yardas de los metros”, explica Foley.
Este estudio genera una pregunta interesante – si dos mecanismos distintos crearon las supernovas de Tipo Ia, ¿por qué son lo bastante homogéneas como para servir como candelas estándar?
“¿Cómo pueden las supernovas procedentes de distintos sistemas tener un aspecto tan similar? No tengo una respuesta para eso”, dice Foley.
El artículo que describe esta investigación aparecerá en la revista Astrophysical Journal y está disponible en línea.

Fecha Original: 7 de mayo de 2012
Enlace Original

El calentamiento por marea disminuye la ‘zona Ricitos de Oro’

Fuente:Ciencia Kanija

Artículo publicado por Richard A. Lovett el 8 de mayo de 2012 en Nature News
Un factor que se pasó por alto apunta a menos planetas habitables de lo que se pensaba.
Un efecto de calentamiento poco tenido en cuenta anteriormente podría disminuir las estimaciones de las zonas habitables del tipo de estrellas más numerosas de la Vía Láctea — las de tipo ‘M’ o enanas rojas — a la mitad, dice Rory Barnes, astrobiólogo en la Universidad de Washington en Seattle. Este factor — el calentamiento gravitatorio a través de marea — sugiere una pléyade de planetas en los cuales el calentamiento por marea es una fuente principal de calor interno. Barnes presentó su trabajo ayer en una reunión de la División de Astronomía Dinámica de la Sociedad Astronómica Americana en Timberline Lodge, Oregón.

Erupción volcánica en Ío captada por New Horizons © by RDPixelShop

La zona habitable es la región de la órbita lo bastante cercana a una estrella para que un planeta tenga agua líquida, pero no tan cerca como para que el agua se evapore. Para nuestro Sol, la zona se extiende aproximadamente desde el borde interior de la órbita de Marte al borde exterior de la de Venus. Para estrellas más pequeñas y frías, tales como las enanas de clase M, la zona puede estar considerablemente más cerca de la estrella de lo que Mercurio está del Sol. Y debido a que los planetas cercanos son más fáciles de detectar que los lejanos, tales estrellas han sido un objetivo principal para los buscadores de planetas que persiguen mundos similares a la Tierra.
Simplemente hay un problema con la búsqueda de planetas habitables alrededor de tales estrellas, dice Barnes. Debido a que las fuerzas de marea varían drásticamente con la distancia entre un planeta y su estrella, unas órbitas más cercanas también dan como resultado fuerzas de marea mucho mayores.
Dado que los planetas no tienen órbitas perfectamente circulares, estas fuerzas de marea provocan que el planeta se estire y comprima cada vez que se acerca o aleja de su estrella; amasando su interior y produciendo masivas cantidades de calor por fricción. Puede producirse una buena cantidad de calor, añade, incluso con las desviaciones más leves respecto a una órbita circular perfecta. Y, señala Barnes, otros factores — tales como la tasa de rotación del planeta y la inclinación de su eje — también pueden influir en la producción de calor.
Un proceso similar de marea hace que Ío, la luna de Júpiter, sea el cuerpo de mayor actividad volcánica del Sistema Solar. “Simplemente estoy escalando lo que pasa en el sistema Ío-Júpiter en un factor de 1000 en masa”, apuntó Barnes en la conferencia. “Es el mismo proceso, pero a lo grande”.
Efectos calientes
Barnes añade que este proceso puede también cambiar la órbita de un planeta, haciéndola más circular. Esto reduciría la cantidad de calor generado. Pero incluso si el planeta orbita en un camino casi circular, señala Barnes, sus cálculos muestran que podría haber sufrido suficiente calentamiento como para perder toda su agua hacia el espacio. “Los planetas terrestres pueden quedar esterilizados de manera permanente”, comenta.
Tales planetas podrían también orbitar en lo que se cree que es la zona habitable, apareciendo a los ojos de los buscadores de exoplanetas como mundos similares a la Tierra. “Parecería lo que estamos buscando”, dice. “Pero, ¿es un gemelo de la Tierra, o un Venus en la zona habitable?”.
Para las enanas rojas de menor tamaño, añade Barnes, el calentamiento por marea podría reducir la zona habitable en aproximadamente un 50% sobre las actuales estimaciones, pero estrellas más brillantes tendrían zonas habitables de mayor alcance donde esto no sería un factor tan importante. “A un cuarto de la masa solar, el efecto desaparece”, afirma Barnes.
Pero incluso para planetas no esterilizados por el proceso, puede haber serios efectos. “Esta es una fuente de energía que no existe en la Tierra”, dice.
Si el efecto es fuerte, podría producir un Ío de tamaño planetario. O, si el planeta estuviese congelado, las fuerzas de marea podrían mantener un océano líquido bajo la capa de hielo que cubre la superficie del planeta, como una versión a escala planetaria de Europa, la luna de Júpiter, que tiene un océano bajo una gruesa capa de hielo el cual se mantiene líquido por el calor de marea.
“Nadie trabajó en serio con esto antes”, dice Douglas Hamilton, astrónomo en la Universidad de Maryland en College Park.
El siguiente paso, añade Sylvio Ferraz Mello, astrónomo en la Universidad de Sao Paulo en Brasil, es buscar las consecuencias geológicas de un calentamiento por marea comparativamente más leve en mundos similares a la Tierra — un factor que podría tener desconocidas, pero posiblemente importantes, ramificaciones para la tectónica de placas.
Hamilton advierte, no obstante, que estos hallazgos aún son teóricos. E incluso si hay formas de determinar si un planeta terrestre que orbita en la zona habitable de una estrella de clase M es un gemelo de la Tierra o un Venus de marea, añade, “esto está más allá de cualquier misión [de telescopios espaciales] que tenemos ahora mismo en planificación”.

Autor: Richard A. Lovett
Fecha Original: 8 de mayo de 2012 en
Enlace Original

Novedades en Juegos de Rol para GNU/Linux

Por un lado el proyecto "FLARE" continua su evolución.

"Arx Libertatis" ya es jugable e incluso con mejoras con respecto al juego original.

Finalmente el "OpenMW" (es decir el motor open source de Morrowind) aunque aún incompleto, se muestra muy prometedor.

Vídeo con leche y huevos

jueves, 10 de mayo de 2012

Sobre la realidad de la función de ondas

 Fuente: Neofronteras


Otro trabajo apunta que la función de ondas describe plenamente la realidad física y deja de lado las interpretaciones subjetivas de la misma.
Foto
En Física muchas veces no estamos muy seguros sobre si algo algo tiene existencia propia por sí mismo o es un modelo de la realidad. Digamos que en el primer caso se trataría de un hecho ontológico y en el segundo caso de algo más bien epistemológico.
Creemos que los átomos son reales, así que tendrían existencia ontológica, de hecho, incluso ya los podemos ver con distintas técnicas. Sin embargo, hay modelos que han ido explicando el comportamiento de los átomos y que se han sucedido unos a otros. Según el más moderno explicaba mejor que el anterior los datos experimentales lo sustituía. Ya nadie utiliza el modelo de Borh para explicar el átomo de uranio y mucho menos el modelo de Thomson.
La gravedad (como la evolución) es un hecho. Si usted tiene dudas sobre ese hecho ontológico pruebe a subir a un edificio muy alto y lanzarse al vacío. Le garantizo que al final ya no tendrá ninguna duda al respecto (ni sobre la gravedad ni sobre cualquier otra cosa). Sin embargo, para explicar la gravedad tenemos varios modelos.
Podemos conformarnos con la gravedad newtoniana o usar la Relatividad General (que sigue siendo clásica y no cuántica). Ambas explican la gravedad bastante bien en sus respectivos regímenes. Pero si queremos explicar el desplazamiento anómalo del perihelio de Mercurio no tenemos más remedio que usar la Relatividad General (RG). Por desgracia, no contamos todavía con una teoría cuántica de gravedad, así que no podemos afirmar muchas más cosas. Se ha propuesto que la gravedad estaría mediada por una partícula de spin 2 denominada gravitón. Si esto es así, ¿en que lugar quedaría la distorsión del espacio-tiempo que propone la RG? ¿Es esa distorsión un mero modelo de realidad para realizar cálculos y en realidad tal distorsión no existe? ¿Es la distorsión espacio-temporal real y ontológica mientras que los gravitones son epistemológicos? ¿Existen realmente los gravitones o como máximo son sólo cuasipartículas conceptuales? Podremos creer en lo que dice la RG o creer en los gravitones, pero no en los dos a la vez, al menos desde el punto de vista ontológico. Epistemológicamente podemos creer en ambos a la vez.
Incluso cuando nos vamos a la Física de Altas Energías surgen las dudas sobre la ontología de la existencia de ciertas partículas. En los propios sistemas de detección e informáticos se presuponen cosas y se admiten ciertos modelos de tal modo que al final quizás tal o cual partícula realmente no exista y sólo tengamos un modelo de algo, aunque la hayamos “detectado”. Obviamente este punto no es compartido por los físicos que trabajan en el LHC y similares, pues su modo de pensar (y de vida) está ya asimilado por el sistema.
Demostrar cualquiera de lo puntos anteriores es muy difícil, pues el método científico permite comprobar modelos de realidad y no distingue entre comprobar modelos y comprobar entes “reales”. No suele haber datos experimentales o experimentos que distingan una situación de otra.
Este problema es aún más acusado cuando abandonamos el mundo clásico y nos adentramos en el cuántico. Aquí el problema no está en los objetos que se describen, sean átomos, electrones o quarks, sino en el marco teórico mismo. La Mecánica Cuántica (MC) funciona tan bien para calcular cantidades que durante 80 años casi se han dejado de lado sus aspectos fundacionales. El problema de interpretación de la MC se acarrea desde los inicios de la misma.
En MC se asignan funciones de onda Ψ al estado de los objetos cuánticos y se calculan valores esperados de un observable a través de un operador autoadjunto. La posición x de una partícula es un observable y le corresponde un operador autoadjunto, la cantidad de movimiento p también. El tiempo, sin embargo, no es un observable, sino que aparece en la ecuación de evolución (la ecuación de Schrödinger). Esta ecuación nos dice que si en un instante Ψ corresponde a un estado determinado al cabo de un tiempo corresponderá a otro según dicha ecuación.
Además, las funciones de ondas matemáticamente “viven” en un espacio abstracto de dimensión infinita denominado “espacio de Hilbert”.
Si queremos calcular la posición de una partícula en un sistema cuántico en un momento dado tendremos que calcular el valor esperado del operador x mediante una operación que podríamos definir como “estadística”. En su versión más sencilla tal cosa se simboliza así: < ψ|x|ψ>. Digamos que la función de onda se usa para calcular los valores de cosas que sí se pueden medir, pero la función de ondas en sí no se puede medir, aunque sí calcular.
Si seguimos con nuestro ejemplo de la posición, nos tenemos que dar cuenta de que al ser un cálculo probabilístico no obtenemos la posición exacta de la partícula, sino su posición más probable. La función de onda de la partícula es extensa, no puntual, y tiene un valor dado (que puede ser incluso en el plano complejo) para cada punto del espacio y evoluciona en el tiempo según la ecuación de Schrödinger. Bajo este punto de vista en realidad no hay una “partícula puntual” sino algo extenso sobre lo que se pueden calcular cosas, como la posición más probable de una “partícula” si imponemos que tiene que ser como un punto, aunque no sea tal punto. Se puede decir que la función de ondas es algo “borroso” que al medir colapsa a un valor determinado.
Recordemos aquí que el colapso de la función de ondas no es lo mismo que el valor esperado de un observable, ni en el mundo físico ni matemáticamente (una proyección sobre un subespacio de Hilbert o un valor esperado respectivamente)
Usando la función de ondas podemos calcular el comportamiento de los sistemas cuánticos, pero sólo con cierta probabilidad. Esta naturaleza probabilística difiere de cómo los físicos describen el mundo clásico no microscópico.
Es ahora cuando tenemos el problema de interpretación de la MC, algo que se remonta a los años treinta del pasado siglo (e incluso antes). Podemos asumir que la función de ondas es un objeto que representa una realidad física (visión ontológica) o asumir que sólo representa el conocimiento subjetivo que el observador tiene sobre la realidad (visión epistemológica).
En el primer caso la función de ondas corresponde a un elemento de la realidad que existe objetivamente, tanto si el observador mide como si no lo hace. Mientras que en la otra visión la función de ondas no representa la realidad, sino el conocimiento subjetivo del observador acerca de una realidad que está por debajo. La interpretación de Copenhague es precisamente esta última y la función de onda no es más que cierta idea de probabilidad que sólo asume un valor real cuando el observador realiza una medición del sistema.
A partir de este y otros problemas fue cuando Einstein, Podolsky y Rosen afirmaron que la función de ondas no proporcionaba una descripción completa de la realidad física y que la MC era incompleta. Debía de haber una información inaccesible (variables ocultas) que nos obligaba a calcular probabilidades, tal y como se hace en Física Estadística, y la realidad última sería clásica. Si así fuera Dios no jugaría a los dados.
Hace unos meses llegó a Nature un estudio que apunta a la primera posibilidad. Sus autores mostraban que una interpretación subjetiva de la función de ondas violaría ciertas asunciones plausibles [1]. Ahora un trabajo publicado en Physical Review Letters de Roger Colbeck y Renato Renner (Perimeter Institute y ETH Zurich respectivamente) apunta en la misma dirección: la función de ondas representa la realidad objetiva. Es decir, es un elemento de realidad del sistema.
Para apoyar su punto de vista usan una analogía sobre la predicción del tiempo atmosférico que reproducimos a continuación casi como viene en el artículo. Según esta analogía habría dos meteorólogos tratando de predecir el tiempo que hará mañana en un lugar. Por ejemplo, que será nuboso con una probabilidad del 67% y soleado con una probabilidad del 33% (ver ilustración de cabecera). La Mecánica Clásica describe con precisión los procesos relevantes que se dan en este sistema, así que el tiempo que hará mañana se podrá calcular determinísticamente a partir de las condiciones iniciales que se den ahora. El hecho de que la predicción sea en realidad probabilística refleja la carencia de conocimiento de los meteorólogos sobre parte de las condiciones iniciales. La predicción meteorológica no es pues un elemento de la realidad asociada con la atmósfera, sino que refleja el conocimiento subjetivo del que hace la predicción. Un segundo meteorólogo con un conocimiento diferente sobre las condiciones iniciales puede llegar a un pronóstico distinto.
Si ahora nos fijamos en la MC nos podemos preguntar si la función de ondas Ψ, que asignamos al estado de un sistema cuántico, tiene que ser vista como un objeto subjetivo como el pronóstico meteorológico o si es un elemento de la realidad del sistema (una Ψ ontológica).
El problema es que la MC es inherentemente probabilística, incluso teniendo una descripción completa de la función de ondas del sistema. La teoría no nos permite predecir el resultado de un medida con certeza. Esto ha motivado interpretaciones subjetivas de la MC como la de Copenhague. Según esta visión Ψ sería un mero objeto matemático usado para calcular cosas. Sería una Ψ epistemológica.
Estos autores ya mostraron recientemente [2] que, bajo ciertas asunciones de libre elección y si la MC es correcta, entonces la MC es “no extensible” en el sentido de que ser máximamente informativa acerca de lo que se puede obtener en las medidas. Toda información en la lista de elementos de realidad esta ya contenida en la función de ondas. Esto es, la función de ondas incluye todos los elementos de la realidad.
En este nuevo trabajo [3] muestran que la lista de elementos de la realidad incluye la función de ondas. Por tanto, la función de ondas de un sistema cuántico se puede poner en correspondencia uno a uno o con los elementos de la realidad, esto es, con las variables que describen el comportamiento del sistema. Para ello sólo se necesita asumir que los parámetros de medición pueden ser elegidos libremente y que la teoría produce una predicción estadística correcta. Estos dos aspectos están siempre implícitos en la Física.
Foto
El razonamiento es más o menos como sigue (ver dibujo de arriba). Si un sistema es preparado en un estado cuántico particular Ψ, el conjunto o lista de los elementos de la realidad, denotado por Λ, dependen de esa preparación. Una determinada disposición de medidas A es elegida al azar y se produce un resultado X. Se puede asumir que Λ es completa para la descripción del sistema en el sentido de que no hay otros parámetros que produzcan información adicional acerca del resultado de cualquier medida elegida. En particular, Ψ no proporciona más información que Λ acerca de un resultado. La no-extensibilidad de la MC implica, además, que Λ no puede proporcionar más información acerca de un resultado que Ψ. Tomados estos dos argumentos juntos se concluye que Λ y Ψ son informativamente equivalentes. Además, si se tiene en cuenta el hecho de que estados cuánticos diferentes generalmente dan medidas estadísticas diferentes, entonces se puede concluir que Ψ debe ser incluida en el conjunto o lista Λ y por tanto ser considerada un elemento de realidad del sistema.
La función de ondas incluye, por tanto, toda la información acerca del sistema que en principio está disponible y que no hay nada que se escapa (a diferencia del meteorólogo que no dispone de toda la información). Pese a todo, una medida nos proporcionará una valor con cierta aleatoridad, lo que significa que la Naturaleza es inherentemente probabilística a ese nivel.
En la analogía de los meteorólogos los datos y el modelo usados por ellos serían la función de onda y la realidad se correspondería con el tiempo presente (nublado, lluvioso, soleado, etc.). Si en esa analogía hubiera una correspondencia uno a uno (como la que proponen estos físicos para el caso de la MC) entre los datos meteorológicos y el tiempo meteorológico, entonces estaríamos en una buena situación, pues el pronóstico (aunque esta predicción sea probabilística) serían tan preciso como máximamente puede ser, en el sentido de que no hay información extra que nos falte. No sabremos exactamente el tiempo que hará mañana, pero nuestro pronóstico será el mejor posible. Recordemos una vez más que la MC es determinista en su evolución porque la ecuación de Schrödinger lo es, así que la analogías no es perfecta. La aleatoriedad de la MC no está en su evolución del presente al futuro, sino en la medida, sea ahora o mañana. Es aleatoria incluso en el momento actual en el que se tiene toda la información y el paso del tiempo no mejora ni empeora sustancialmente tal problema.
Los autores afirman que su resultado es definitivo si se acepta el principio de libre elección. Sin embargo, sería legítimo cuestionar esta asunción y por eso ya trabajan en una demostración en la que la libre elección puede ser reemplazada por una premisa más débil, una libertad de elección parcial. Estos prerrequisitos más débiles serían una causalidad local y que sólo se requiera que la elección sea independiente de parámetros ocultos preexistentes (en el sentido que ya hizo Bell en su tiempo).
Los asuntos de interpretación de la MC son arenas movedizas que en general no suelen ser falsables. Sin embargo, Colbeck y Renner argumentan que los resultados experimentales podrían avalar sus resultados. Aunque en el caso de la libre elección admiten que la cosa sería más complicada, sostienen que aún así se podría falsar en algunos casos.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3822
Fuente de los dibujos: Colbeck y Renner

Universo con un principio

Fuente: Neofronteras
 

Recientes estudios apuntan a que el Universo tuvo que tener un principio, incluso cuando se considera la inflación eterna, el universo cíclico o la singularidad desnuda eterna.
Foto
Hay una situación incómoda para todo físico sobre Big Bang. Los modelos con los que contamos no pueden evitar un momento singular en el mismo instante de producirse. Una vez eliminados los modelos de estado estable debido a la abrumadora importancia de las pruebas encontradas, sólo parece haber lugar para un Big Bang.
Según las teorías físicas con la que contamos debería de haber una singularidad en el momento 0 del tiempo, el momento en el que se dio el Big Bang. El tiempo, el espacio, la materia y la energía surgirían en ese momento. No habría habido antes. La Relatividad General no puede decir mucho más si hay una singularidad inicial.
Algunos modelos cosmológicos rudimentarios de la teoría cuántica de lazos evitan una singularidad inicial y apuntan a un universo previo en el infinito pasado que se colapsó y rebotó hasta producir lo que llamamos Big Bang.
Para evitar este problema de momento inicial se han propuesto otras soluciones. Una propuesta sería que el Universo sufriera una inflación eterna. Otra que fuera cíclico de alguna manera. Y otra que la singularidad inicial sería una especie de singularidad desnuda que existiría previamente desde el infinito pasado. Pero según Alexander Vilenkin, de Tufts University, muchos de estos modelos todavía necesitan un principio, un momento singular.
Uno de esos modelos propuestos en el pasado sería aquel en que el Universo podría sufrir una inflación eterna en la que surge un universo tras otro. Según esta idea podría haber un tiempo infinito hacia el pasado. La inflación eterna es una consecuencia natural de la idea de inflación que introdujo Alan Guth en 1981. El universo se expande y, mientras tanto, se van produciendo burbujas con otros universos que van sufriendo sus respectivamente inflaciones. Habría una especie de “universo” que serviría de “semilla” para otros universos y que existiría desde siempre y para siempre. Incluso se ha especulado con la posibilidad de que se formen estas burbujas tanto hacia atrás como hacia adelante del tiempo. Un multiverso de este tipo no necesitaría de un principio aunque cada universo en particular lo tuviera.
Sin embargo, ya en un trabajo de 2003 varios físicos encontraron que había un límite que evitaba la inflación en ambas direcciones del tiempo, simplemente la inflación no podía ser eterna hacia el pasado y debe de haber un borde. Por tanto, la inflación podía ser eterna hacia el futuro, pero no hacia el pasado.
La opción del universo “cíclico” parece que tampoco funciona en este aspecto. Según esta idea el Big Bang no sería más que el momento de rebote del colapso de un universo previo. El Universo sufriría un ciclo infinito de expansiones y contracciones que darían infinitos Big Bangs. La idea tiene atractivo, pero algunas pegas. La primera es que todavía no hemos encontrado el mecanismo que permita el colapso del Universo, pues no parece contener suficiente masa que pare la expansión, e incluso parece que esta expansión se está acelerando.
La segunda pega es la entropía, que mide el grado de desorden de un sistema. No se ha encontrado la manera de evitar que el desorden se vaya acumulando. Al cabo de un tiempo infinito este desorden sería enorme, sería máximo. Si hemos pasado por infinitos ciclos entonces necesariamente estaríamos rodeados de un desorden que simplemente no vemos. Si en cada ciclo el Universo se hace más grande el desorden se puede diluir, pero esto tampoco puede funcionar, según Vilenkin. Al final resulta que el Universo debe de haberse formado en algún momento del pasado.
Otra propuesta es la del huevo cósmico, idea que básicamente mantiene que el Universo siempre ha existido en cierto estado singular y que finalmente explotó en lo que llamamos Bing Bang. Según Vilenkin este “huevo cósmico” no puede haber existido por siempre, ya que las inestabilidades cuánticas le hubieran forzado a colapsarse en un tiempo finito. Según Vilenin todo indica que el Universo tuvo un principio.
Este investigador ha seguido explorando este aspecto llegando a nuevas conclusiones al respecto y todas apuntan en la misma dirección. Según él los datos observacionales con los que contamos no son compatibles con un Universo sin principio ni fin.
Pero Vilenkin no es el único con esta opinión. Leonard Susskind, de Stanford University, también cree que es el Universo tuvo un principio. Según argumentos termodinámicos el Universo no puede haber existido por siempre. De nuevo es el argumento de la entropía. Como el Universo tiene cierto orden tiene que haber tenido un principio.
Desde el punto de vista filosófico, el que el Universo tenga o no un principio es importante, pues algunos siempre pueden colocar ahí a un creador. Lo malo de ir colocando a Dios en entes físicos es que tarde o temprano hay que quitarlo.
Pero no importa si tenemos o no un modelo falsable y correcto que nos explique estos asuntos, sino si podemos concebir mecanismos que permitan explicar un Universo que surja desde la nada con o sin un principio.
La malo es que carecemos de una teoría de la gravedad cuántica satisfactoria (las cuerdas no explican nada, como todo el mundo sabe) y ni siquiera tenemos una buena idea de la causalidad, de lo que es el tiempo, si es existe o si realmente es una propiedad emergente.
No obstante, nadie sensato que piense “a la Zenón” puede concebir un pasado infinito en una línea temporal con flecha de tiempo que llegue hasta un momento presente específico.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3823
Fuentes y referencias:
Artículo en ArXiv I.
Artículo en ArXiv II.
Artículo en ArXiv III.

miércoles, 9 de mayo de 2012

La administración por vía oral de fullereno C60 disuelto en aceite de oliva podría duplicar la esperanza de vida en ratas


En ciencia hay muchos descubrimientos casuales que parecen imposibles de creer; mientras no haya una explicación convincente, debemos ser escépticos. Un estudio publicado en la revista Biomaterials de la editorial Elsevier afirma que administrar por vía oral un aceite que contiene buckybolas (fulerenos esféricos C60) logra duplicar la esperanza de vida en ratas. Investigadores de la Universidad de París  y sus colegas sugieren que la razón es el efecto del C60 como antioxidante. Estudios farmacocinéticos realizados durante los últimos 25 años han mostrado que el C60 disuelto es absorbido por el tracto gastrointestinal y eliminado en unas pocas horas, por lo que su toxicidad es muy baja; por ello, se había propuesto su uso para la encapsulación de ciertos fármacos (en aplicaciones biomédicas como las terapias contra el cáncer y enfermedades neurodegenerativas). Pero de ahí a que la administración oral de C60 disuelto en aceite de oliva (0,8 mg/ml) en dosis reiteradas pueda duplicar la esperanza de vida de las ratas hay un paso enorme; por ello creo que debemos ser escépticos respecto a este estudio hasta que no sea confirmado por otros investigadores. Aún así, me ha llamado la atención y me han sorprendido mucho sus resultados. El artículo técnico es Tarek Baati et al., “The prolongation of the lifespan of rats by repeated oral administration of [60]fullerene,” Biomaterials 33: 4936–4946, June 2012 [copia pdf gratis]. Me he enterado gracias a un tuit de J.J. Gallego ‏ (@Raven_neo): “Esto es coña, ¿no? “Duplican esperanza de vida de ratones usando fulerenos”.” Ciertamente, lo parece. Pero ya sabéis que a mí me encantan los resultados dignos de un Ig Nobel.
Lo primero que quiero destacar de este estudio es un dato importante que hay que tener presente. Las ratas de control fueron tratadas con agua. Puede parecer un dato de menor importancia pero no lo es. La esperanza de vida media estimada para las ratas tratadas con C60 fue de 42 meses, para las tratadas solo con aceite de oliva fue de 26 meses y para las tratadas solo con agua de solo 22; pero hay que recordar que la esperanza de vida de esta especie animal está entre 30 y 36 meses. Estos datos, que aparecen en la página 4 del artículo, columna derecha, arriba, dan que pensar, al menos a mí, que no soy experto en estas lides. Las ratas tratadas con C60 vivieron un 30% más de lo esperado, pero el doble que las ratas tratadas con agua (que vivieron menos de lo esperado). Como decimos los “borrachos,” beber agua mata (quiero decir beber agua en exceso). Un médico una vez me dijo que un “borracho” es quien bebe más de una copa de vino o una cerveza al día (me lo dijo para recomendarme beber más agua y menos cerveza); así que lo confieso, soy un “borracho” pues es raro el día que no bebo dos cervezas (también es raro el día que bebo más de tres). Al grano, el aceite de oliva extiende la vida de las ratas con respecto al agua con una probabilidad de 0,99, mientras que aceite de oliva con C60 disuelto la extiende (respecto a las tratadas con agua) con una probabilidad de 0,999 (y respecto a las tratadas con aceite de oliva de 0,995).
Lo segundo que vemos en la figura que abre esta entrada es que la administración de aceite de oliva incrementa la esperanza de vida de las ratas. Me gustaría recordar que en humanos ya se han realizado estudios sobre este tema que han concluido lo mismo, pero con una “pequeña” salvedad. En humanos se estima que el incremento debido a un consumo diario de aceite de oliva es de unos 2 años, como mucho; es decir, si en Alemania, pongamos, donde se consume poco aceite de oliva, la esperanza de vida es de 78 años, en Andalucía, pongamos también, donde se consume mucho aceite de oliva, la esperanza de vida alcanza unos 80 años. Sin embargo, la figura que abre esta entrada muestra que el aceite de oliva, solo, sin C60, logra incrementar la esperanza de vida de las ratas en un 30%. A mí este resultado me sugiere cautela a la hora de extender los resultados del estudio a nuestra especie.
Y lo tercero que se observa es que se ha comparado la esperanza de vida entre ratas a las que se ha administrado agua (de forma forzada y en mayor cantidad de la que demandan de forma natural), aceite de oliva y aceite de oliva con C60 disuelto. Administrar más agua de la cuenta puede ser tóxico. Cuentan los autores del artículo que tras cinco meses de tratamiento (mes 15) se observó que una rata tratada solo con agua mostró tumores palpables en la región del abdomen y murió en el mes 17. Por esta razón los autores suspendieron el tratamiento en todas las ratas (el mes 15). Todos los animales sobrevivieron hasta el mes 25, en el que los animales de control (alimentados con agua) mostraron signos de dermatitis ulcerosa asociados al envejecimiento, mientras que los animales tratados con aceite de oliva y con C60 se mantuvieron normales. Hasta el mes 30, todos los animales tuvieron un comportamiento y una alimentación similar. Todas las ratas de control (tratadas con agua) ya estaban muertas en el mes 38. En este momento, el 67% de las tratadas con aceite de oliva y el 100% de las tratadas con C60 estaban vivas.
En resumen, no soy experto en biomedicina, pero este estudio demuestra claramente que el “agua mata” (es broma).

lunes, 7 de mayo de 2012

La burbuja del ladrillo en la ciencia española

Fuente: Francis (th)E mule

El gran problema de la ciencia en España es que muchos políticos piensan que basta con invertir en infraestructura para lograr ciencia de calidad internacional. La inversión estrella es la construcción de edificios para centros de investigación; da puestos de trabajo (de baja cualificación), da buena imagen (tanto entre científicos como entre quienes no lo son) y permite hacerse una foto que aparecerá en todos los medios (qué bonito es ver al político de turno inaugurando un nuevo edificio). El problema viene una vez que se ha construido el edificio, hay que llenarlo de equipamiento e infraestructura científica. En época de vacas flacas, como ahora con la crisis, el edificio queda abandonado y punto. En época de vacas gordas, como hace un lustro, no hay ningún problema, se equipa el edificio con la última tecnología disponible en el mercado internacional; ahora bien, los contratos públicos y la “burrocracia” conducen a que lo último de lo último acabe siendo instalado con un retraso de uno o dos años (lo que en ciertas tecnologías implica haber perdido uno o dos años de amortización de los equipos, e incluso que cuando estén instalados ya sean algo obsoletos). Pero no acaban aquí los problemas. El gran problema es quien usa los equipos y quien ocupa los nuevos edificios. Todo el mundo se pega ostias por ver cómo se repartirán los despachos y laboratorios, pero los políticos no dan un euro para contratar nuevo personal y para formar en el uso de los nuevos equipos al personal disponible. Como resultado las nuevas infraestructuras se infrautilizan, en el mejor caso. Eso sí, como algún científico adscrito al nuevo centro publique algún artículo en una revista de referencia (como Nature o Science), el político de turno le visita y se hace una foto dándole la mano. Recomiendo la lectura de Antonio Martínez Ron, ”La Ciencia abandonada,” lainformacion.com, 7 mayo 2012.
“La falta de inversión ha dejado algunos centros de investigación en una situación paradójica. Instalaciones desiertas, laboratorios sin investigadores y megainfraestructuras, como el Instituto de Medicina Molecular Príncipe de Asturias (IMMPA), que costaron millones de euros, el IMMPA fue presupuestada en 50 millones de euros, pero permanecen cerradas y vacías. Son las consecuencias de la falta de dinero, pero también de la ausencia de una planificación seria en materia científica. El IMMPA brilla en mitad del campus de Alcalá de Henares como la silueta de un trasatlántico. Ocupa 50.000 metros cuadrados de superficie y alberga más de 30 laboratorios, congeladores, incubadoras de CO2 y un animalario completo, pero en su interior no hay ni un solo investigador, el edificio está completamente vacío.”
“Amaya Moro-Martín, portavoz de la plataforma Investigación Digna dice que “En la universidad hay miles de ejemplos;la política expansiva del ladrillo también se puso en práctica para construir universidades. Hemos sufrido con los centros de investigación de las mismas malas costumbres que el resto de la sociedad y la burbuja del ladrillo, la costumbre de gastarte por encima de tus posibilidades”. La falta de previsión ha conducido a una situación en la que tenemos grandes infraestructuras pero no hay dinero para pagar las investigaciones y centros como el CSIC están pidiendo a sus trabajadores que ahorren en papel o agua caliente. Invertir sin un horizonte estable produce escenarios tan paradójicos como el que vivimos, con una flota de trasatlánticos vacíos y laboratorios que cogen telarañas, mientras la tripulación de investigadores se marchan con su conocimiento fuera de España porque no hay dinero para apostar por ellos.”