martes, 28 de febrero de 2012

Diálogos verídicos escuchados en los juzgados.

Fuente: El mono mudo

Diálogos varios
- “Doctor, ¿cuántas autopsias ha realizado usted sobre personas fallecidas?”
- “Todas mis autopsias las realicé sobre personas fallecidas”
- “Cada una de sus respuestas debe ser verbal, ¿de acuerdo?” “¿A qué escuela fue usted?”
- “Verbal” (Risas y comentarios jocosos en la sala)
- “¿Recuerda usted la hora a la que examinó el cadáver?”
- “Sí, la autopsia comenzó alrededor de las 8:30 p.m.”
- “¿Mr. Dennington estaba muerto en ese momento?”
- “No, estaba sentado en la mesa preguntándose por que estaba yo haciéndole una autopsia.” (El Sr. Juez tiene que imponer orden en la sala, el alboroto es tremendo, se escuchan carcajadas por todas partes)
Le dispararon en medio del follón?”
- “No, me dispararon entre el follón y el ombligo.”
- “Doctor, ¿antes de realizar la autopsia, verificó si había pulso?”
- “No”
- “¿Verificó la presión sanguínea?”
- “No”
- “¿Verificó si había respiración?”
- “No”
- “¿Entonces, es posible que el paciente estuviera vivo cuando usted comenzó la autopsia?”
- “No”
- “¿Cómo puede usted estar tan seguro, Doctor?”
- “Porque su cerebro estaba sobre mi mesa, en un tarro”
- “¿Pero podría, no obstante, haber estado aún vivo el paciente?”
- “Es posible que hubiera estado vivo y ejerciendo de abogado en alguna corte.”
- ¿Puede usted describir al individuo?
- Sí, era alto y usaba barba.
- ¿Y era hombre o mujer?
- ¿Como terminó su primer matrimonio?
- Por la muerte.
- ¿Por la muerte de quién?
- ¿Alguna vez durmió con él en Nueva York?
- Me rehuso a contestar esa pregunta.
- ¿Alguna vez durmió con él en Chicago?
- Me rehuso a contestar esa pregunta.
- ¿Alguna vez durmió con él en Miami?
- No.
- Esta “miastenia gravis”, ¿afecta de alguna forma su memoria?
- Sí.
- ¿Y de qué forma la afecta?
- Olvido cosas.
- Olvida cosas. ¿Puede darnos un ejemplo de algo que se haya olvidado?
- Agente, cuando detuvo a la acusada, ¿tenía las luces azules y rojas encendidas?
- Sí.
- ¿Y la acusada dijo algo cuando salió del auto?
- Sí.
- ¿Qué dijo?
- “¿En qué discoteca estoy?”
- Entonces la fecha en que su bebé fue concebido es el 8 de agosto.
- Sí.
- ¿Y qué estaba haciendo usted en ese momento? – Dijo que las escaleras bajaban hacia el sótano, ¿correcto?
- Sí.
- Y esas escaleras, ¿también subían?
Preguntas sagaces
- “¿Estaba usted presente cuando le tomaron la foto?”
- “¿A qué distancia estaban uno del otro los vehículos en el momento de la colisión?”
- “Usted estuvo allí hasta el momento en que salió, ¿es eso cierto?”
- “Entonces, ¿cuántas veces ha cometido usted suicidio?”
- “¿Es cierto, doctor, que cuando una persona muere en el momento del sueño, no llega a saberlo hasta la mañana siguiente?”
- “¿Estaba usted solo, o era el único?”
- “¿Fue usted, o su hermano menor, quien murió en la guerra?”
- “¿El le mató a usted?”
- “Estuvo allí hasta que se fue, ¿no es así?”

lunes, 27 de febrero de 2012

¿Solución al problema del litio?

Fuente: Neofronteras

Proponen que la abundancia de litio observada podría deberse a la presencia de condensados de axiones durante el Big Bang.
Foto
Mapa preliminar del fondo cósmico de microondas elaborado por la misión Planck. Fuente: ESA.
Una de las pruebas que indican la existencia del Big Bang está relacionada con la nucleosíntesis primordial. Justo al principio, cuando el Universo era caliente y denso los protones y neutrones se fusionaban para producir elementos más ligeros que el hidrógeno. De este modo se produjo helio en cantidad apreciable o deuterio, así como elementos muy ligeros en pequeñas proporciones, como el litio.
Según el Universo se expandía y enfriaba y la densidad disminuía estas reacciones nucleares dejaron de darse. Cuando se enfrió aún más, los electrones se asociaron a los núcleos que había para formar átomos neutros y el Universo se hizo transparente por primera vez. A esta etapa se la llama recombinación.
La cantidad de hidrógeno, deuterio y helio que hay en el Universo se pueden medir y sus proporciones encajan con las predicciones del modelo de Big Bang. Conforme el Universo envejezca las estrellas habrán destruido casi todo el deuterio y producido suficiente helio como para esta prueba de la existencia del Big Bang desaparezca.
Pero en todo esto hay una pequeña excepción: el problema del litio. Al parecer la cantidad de litio 7 (el isótopo más común de este elemento) que hay en el Universo es menor de la que debería haber. Este problema ha intrigado a los científicos durante más de una década. Ahora parece que algunos han encontrado una nueva explicación: la presencia de axiones en el Universo primitivo habría cambiado la proporción de litio 7. Esta explicación también supone otra solución al problema de la materia oscura, pues ésta estaría constituida por axiones, partículas que, de momento, son sólo hipotéticas.
A partir de las fluctuaciones en el fondo cósmico de microondas los cosmólogos pueden inferir la proporción entre bariones (protones, neutrones, etc) y fotones. Es precisamente la razón entre bariones y fotones la que permite predecir la abundancia de elementos ligeros primordiales creados durante el Big Bang. Pero para el litio 7 la predicción arroja una abundancia tres veces superior a la cantidad real observada.
Aunque se han propuesto varias teorías para explicar esta contradicción, ninguna parece ser plenamente satisfactoria. Ahora, Pierre Sikivie, de la Universida de Florida, y sus colaboradores proponen una nueva explicación. Según esta nueva teoría la presencia de axiones habría alterado la producción de litio 7.
Los axiones son unas partículas hipotéticas que fueron propuestas en los setenta para resolver ciertos problemas con la simetría CP. En concreto se propusieron como parte de una teoría que explicase por qué la fuerza nuclear fuerte, a diferencia de otras, no cambia cuando en las reacciones se sustituyen las partículas por sus antipartículas y se observan especularmente.
Todavía los axiones (si es que existen) no han sido detectados porque interaccionarían débilmente con la materia ordinaria. Desde hace un tiempo se les ha propuesto como constituyentes de la famosa materia oscura, pero no son los candidatos favoritos.
Estos investigadores han señalado un punto que hasta ahora se había pasado por alto: los axiones podrían formar condensados de Bose-Einstein. Estos condensados se producen cuando un grupo de partículas de spin entero (bosones) caen en el estado de mínima energía. A diferencia de fermiones (partículas de spin semientero) pueden todas ocupar el mismo estado cuántico, sólo hace falta que la temperatura sea los suficientemente baja.
La temperatura de transición a la que se forma el condensado depende de la densidad, de tal modo que a altas densidades la temperatura puede ser relativamente alta. Según estos investigadores los axiones podrían formar condensados incluso a las altas temperaturas posteriores al Big Bang, cuando se daba la nucleosíntesis primordial.
Los condensados de axiones afectarían las predicciones sobre la nucleosíntesis. Los fotones transferirían calor a los condensados haciendo que disminuyera el número de fotones y, por tanto, cambiaría la razón entre bariones y fotones, dando a los cosmólogos una falsa impresión sobre la cantidad de litio que se debería haber creado.
La teoría no es definitiva y requiere (además de los axiones en sí) solventar problemas relativos a la producción de deuterio y la cantidad de neutrinos efectivos.
Quizás, cuando los del equipo de la misión Planck tengan a bien y liberen los datos que tienen, se pueda medir mejor la cantidad de neutrinos entre otras cosas. Se especula que esto podría suceder en 2013. También podría suceder que, si los axiones existen, el experimento ADMX mejorado los pudiera detectar o incluso puede que se detecten en el LHC.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3754
Fuentes y referencias:
Noticia en Physics World.
Artículo original.
Artículo en ArXiv.
Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

viernes, 24 de febrero de 2012

Se encuentran errores en las medidas de los neutrinos superlumínicos

Fuente: Ciencia Kanija

Artículo publicado por Eugene Samuel Reich el 22 de febrero de 2012 en Nature News
Descubiertas dos posibles fuentes de error.
La colaboración OPERA, que saltó a los titulares en septiembre con la afirmación revolucionaria de que había medido unos neutrinos viajando más rápido que la velocidad de la luz, ha identificado dos posibles fuentes de error en su experimento. De ser cierto, su resultado habría violado la Teoría de la Relatividad Especial de Einstein, una piedra angular de la física moderna.
OPERA había recopilado datos que sugerían que los neutrinos generados en el CERN, cerca de Ginebra, y enviados a 730 km a los detectores del Laboratorio Nacional Gran Sasso, llegaban 60 nanosegundos antes de lo que un haz de luz necesitaría para viajar la misma distancia. Muchos físicos eran escépticos, pero la medida parecía realizada cuidadosamente y alcanzaba un nivel estadísticamente significativo.

Neutrinos en una cámara de burbujas © Crédito: Argonne National Laboratory

Pero de acuerdo con un comunicado de OPERA que empezó a circular hoy, se han encontrado dos posibles problemas en su configuración. Como muchos físicos habían especulado que podría ser la causa, ambos están relacionados con el uso pionero en el experimento de señales del Sistema de Posicionamiento Global (GPS) para sincronizar los relojes atómicos en cada extremo del haz de neutrinos. Primero, el paso del tiempo en los relojes entre la llegada de la señal sincronizada tiene que interpolarse y OPERA ahora dice que esto no se ha hecho de la forma adecuada. Segundo, hubo un posible fallo en la conexión entre la señal del GPS y el reloj maestro de OPERA.
Una fuente anónima habló con Science Insider y empezaron a aparecer las noticias de que OPERA podía haber cometido algún error. El informe dice que la conexión defectuosa puede tener en cuenta de manera exacta el efecto de los 60 nanosegundos. El comunicado oficial de OPERA no fue tan tajante, diciendo que en lugar de esto hay dos posibles fuentes de error que señalan en sentidos opuestos y que aún están trabajando en ello. El comunicado es el que sigue:
“La Colaboración OPERA, continuando con su campaña de verificación de las medidas de la velocidad de los neutrinos, ha identificado dos problemas que podrían afectar significativamente a los resultados de los que se informó. El primero está vinculado al oscilador usado para producir los eventos de marcas temporales entre las sincronizaciones GPS. El segundo punto está relacionado con la conexión de la fibra óptica que lleva la señal externa del GPS al reloj maestro de OPERA.
Estos dos problemas pueden modificar el tiempo de vuelo de los neutrinos en sentidos opuestos. Mientras continúan nuestras investigaciones, para cuantificar de manera inequívoca el efecto sobre el resultado observado, la colaboración tiene previsto realizar una nueva medida de la velocidad de los neutrinos tan pronto como esté disponible un nuevo haz en 2012. Pronto estará disponible para agencias y comités científicos un informe exhaustivo sobre las verificaciones y resultados mencionados anteriormente”.
Caren Hagner, miembro de OPERA de la Universidad de Hamburgo en Alemania, dice que: “Por el momento la colaboración decidió no hacer un comunicado cuantitativo, dado que tenemos que volver a comprobar y debatir los hallazgos con más detalle”.
En Fermilab, miembros de la colaboración MINOS siguen tratando de realizar sus propias medidas independientes sobre la velocidad de los neutrinos, y se espera que tengan los resultados iniciales a finales de año.
Más información:
Francis (th)E mule Science’s News
Migui.com

Artículo de Referencia: Nature doi:10.1038/nature.2012.10099
Autor: Eugene Samuel Reich
Fecha Original: 22 de febrero de 2012
Enlace Original

miércoles, 22 de febrero de 2012

Se predice la existencia de cristales temporales

Fuente: Ciencia Kanija

Artículo publicado el 16 de febrero de 2012 en The Physics Arvix Blog
Si existen cristales en dimensiones espaciales, entonces deberían existir en la dimensión del tiempo también, dice un físico ganador del Nobel.
Una de las ideas más potentes de la física moderna es que el universo está gobernado por la simetría. Ésta es la idea de que ciertas propiedades de un sistema no cambian cuando pasa por una transformación de algún tipo.
Por ejemplo, si un sistema se comporta de la misma manera sin importar su orientación o movimiento en el espacio, debe obedecer la ley de conservación del momento.

Cristales © by Velo Steve

Si un sistema produce el mismo resultado sin importar cuándo tiene lugar, debe obedecer la ley de conservación de la energía.
Tenemos que agradecer a la matemática alemana Emmy Noether, esta poderosa forma de pensar. De acuerdo con su famoso teorema, cada simetría es equivalente a una ley de conservación. Y las leyes de la física son, básicamente, el resultado de la simetría.
Igualmente potente es la idea de la ruptura de simetría. Cuando el universo muestra menos simetría de la que describen las ecuaciones, los físicos dicen que se ha roto la simetría.
Un conocido ejemplo es la solución de baja energía asociada a la precipitación de un sólido a partir de una solución – la formación de cristales, que tienen una periodicidad espacial. En este caso se rompe la simetría espacial.
Los cristales espaciales están bien estudiados y se comprenden bien. Pero generan una interesante pregunta: ¿permite el universo la formación de periodicidades similares en el tiempo?
Hoy, Frank Wilczek del Instituto Tecnológico de Massachusetts (MIT) y Al Shapere de la Universidad de Kentucky, debaten esta pregunta y concluyen que la simetría temporal parece igual de rompible que la espacial a bajas energías.
Este proceso debería llevar a periodicidades que ellos llaman cristales temporales. Es más, los cristales temporales deberían existir, probablemente justo delante de nuestras narices.
Vamos a explorar esta idea con algo más de detalle. Primero, ¿qué significa que se rompa la simetría en un sistema? Wilczek y Shapere creen que es algo así. Imaginan un sistema en su estado de energía más bajo que está descrito por completo, independientemente del tiempo.
Debido a que está en su menor estado de energía, este sistema debería estar congelado en el espacio. Por tanto, si el sistema se mueve, debe romper la simetría temporal. Ésto  es equivalente a la idea de que el estado de menor energía tiene un valor mínimo en una curva sobre el espacio, en lugar de un punto aislado.
Ésto en realidad no es tan extraordinario. Wilczek señala que un superconductor puede transportar una corriente – el movimiento masivo de electrones – incluso en su estado de energía más bajo.
El resto, básicamente, es matemáticas. De la misma forma que las ecuaciones de la física permiten la formación espontánea de cristales espaciales, periodicidades en el espacio, también deben permitir la formación de periodicidades en el tiempo, o cristales temporales.
En particular, Wilczek considera la ruptura espontánea de la simetría en un sistema mecánico cuántico cerrado. Aquí es donde las matemáticas se hacen un poco extrañas. La mecánica cuántica obliga a los físicos a pensar en valores imaginarios para el tiempo o iTiempo, como lo llama Wilczek.
Demuestra que deberían surgir las mismas periodicidades en el iTiempo y que deberían manifestarse como un comportamiento periódico de distintos tipos de propiedades termodinámicas.
Ésto tiene un número de consecuencias importantes. Primero está la posibilidad de que este proceso proporcione un mecanismo para medir el tiempo, dado que el comportamiento periódico es como un péndulo. “La formación espontánea de un cristal temporal representa el surgimiento espontáneo de un reloj”, dice Wilczek.
Otra posibilidad es que puedan aprovecharse los cristales temporales para realizar cálculos usando energía cero. Como dice Wilczek: “es interesante especular que un…sistema mecánico cuántico cuyos estados pudiesen interpretarse como colecciones de qubits, podrían ajustarse para atravesar un paisaje programado de estados estructurados en un espacio de Hilbert a lo largo del tiempo”.
En conjunto es un argumento simple. Pero la simplicidad, a menudo, es aparentemente potente. Por supuesto, habrá debate sobre algunos de los problemas que se generan. Uno de ellos es que el movimiento que rompe la simetría temporal parece un tanto desconcertante. Wilczek y Shapere lo reconocen: “Hablando con franqueza, lo que estamos buscando se parece mucho al movimiento perpetuo”.
Esto necesitará alguna defensa. Pero si alguien tiene el pedigrí para proponer estas ideas, es Wilczek, que es ganador del Premio Nobel de Física.
Estaremos atentos al debate que se avecina.

Artículos de Referencia:
arxiv.org/abs/1202.2539: Quantum Time Crystals
arxiv.org/abs/1202.2537 Classical Time Crystals

Fecha Original: 16 de febrero de 2012
Enlace Original

¿Por qué la datación por Carbono-14 no sirve para muestras modernas?

Fuente: Amazings

Seguro que has oído alguna vez que se ha usado la “prueba del carbono-14” (C-14) para determinar la antigüedad de alguna muestra biológica, como restos humanos, una pieza de madera o incluso fibras de tejido (como la “sábana santa” de Turín).
El método funciona perfectamente para restos de hace 20 mil años, pero no para los de hace sólo 50 o 60 años. ¿Te imaginas por qué?
Explicación corta
Tan corta, que con una sola imagen de la estupidez humana basta:

Imagen: | Una de las pruebas nucleares de la Operación Crossroads (verano de 1956)
 Explicación larga
Como seguro sabrás, un mismo elemento químico viene en la Naturaleza en distintos “sabores”, con la particularidad de que todos ellos parecen idénticos, reaccionan con las mismas sustancias, etc. Solamente se diferencian entre sí, muy ligeramente, en sus masas atómicas. Son los isótopos de un elemento.
El aire que expulsas al respirar está lleno de dióxido de carbono (CO2), proveniente de la “quema” (reacción con oxígeno, O2) de moléculas ricas en carbono (C) que el cuerpo utiliza para sacar la energía que nos mantiene vivos. Ese carbono, en forma de glucosa o de hidratos de carbono, viene a su vez de lo que comemos que, en última instancia, se origina en las plantas que lo capturan del aire al realizar la fotosíntesis.
Por lo tanto, con cada respiración estás cerrando un largo ciclo, devolviendo a la atmósfera el carbono fijado por plantas dios sabe dónde hace semanas o meses. Lo mismo, pero a escalas industriales y remontándonos al carbono fijado hace millones de años es lo que ocurre al quemar carbón o petróleo.

Imagen: | El ciclo del carbono (créditos)
Lo curioso de este ciclo es que no importa qué isótopos del elemento carbono formen parte de él: ni las plantas ni tu cuerpo discrimina entre ellos, ya que todos le parecen iguales. ¡Recuerda que los isótopos son todos químicamente idénticos!
Por tanto, cabe esperar que el carbono fijado por las plantas contenga, de media (pero de forma muy precisa), la misma proporción de isótopos que el aire de la atmósfera. De los tres isótopos que se encuentran en la naturaleza, el C-12 y el C-13 son estables y representan el 99% del carbono en la Tierra. El 1% restante es radiactivo y, como adivinarás, es el famoso C-14.
Durante la vida de las plantas y animales, estamos continuamente intercambiando carbono con el entorno, por lo que lo normal es que mantengamos un porcentaje de C-14 aproximadamente constante en relación al resto de isótopos, e igual al porcentaje de equilibrio que existe en la Tierra.
Pero al morir, el intercambio cesa y solamente queda la desintegración radiactiva de tipo decaimiento beta por la que el C-14 se convierte, por arte de magia, en nitrógeno.
El proceso de desintegración es aleatorio, pero sigue un patrón perfectamente conocido. Así que si medimos el porcentaje de C-14 que queda en una muestra y conocemos la concentración inicial (la de la última atmósfera que respiró el ser vivo antes de morir) es cuestión de matemáticas despejar el tiempo de la ecuación y voilà, ¡hemos averiguado los años que lleva muerta nuestra muestra!
La pega está, claro, en saber cómo era la atmósfera de tiempos pasados. Los científicos creen que, exceptuando variaciones menores debidos a cambios en el sol y en el clima, el porcentaje de C-14 se ha mantenido bastante estable durante decenas de miles de años… hasta la década de 1950, época en que comenzó la estúpida carrera por ver qué país explotaba la bomba nuclear más gorda en nuestra propia atmósfera.

Imagen | Número de pruebas de detonaciones nucleares en el siglo XX (créditos)
Con cada detonación se liberaron al aire numerosos isótopos radiactivos, muchos de corta vida, y otros como el C-14, de no tan corta (~5700 años de vida media). Durante unos años, la concentración en el hemisferio norte casi llegó a duplicarse.
Lo peor, a efectos de datación mediante C-14 es la gran incertidumbre sobre cuáles fueron los niveles medios del isótopo en cada lugar del planeta durante la segunda mitad del siglo XX, ya que un valor casi constante durante milenios de pronto estaba pegando brincos por semanas. Y sin un valor inicial fiable, la concentración medida en una muestra bajo estudio no nos dice absolutamente nada.

Imagen: | Medidas en los dos hemisferios de la concentración de C-14. Un 1000 significa un incremento al doble del valor de referencia. (fuente)
¿Cuándo dirías que se firmó el primer tratado internacional de prohibición de ensayos nucleares? Fue en 1963, así que imagina hasta dónde podría haber llegado la concentración de isótopos de haber continuado la loca carrera nuclear.
Extras (solo para quisquillosos)
Extra 1: Para los que quieran saber un poco más sobre los métodos para medir cuánto C-14 hay en una muestra, podéis ver esta página donde resume el método “barato” de extracción del carbono por medios químicos. Existe una alternativa, mucho más cara pero más precisa y que permite trabajar con muestras de miligramos, basada en espectroscopia de masas con la luz de un acelerador de partículas.
Extra 2: Quizás te hayas percatado de un punto importante que me he saltado arriba: ¿si el C-14 es inestable, cómo puede existir un equilibrio en la atmósfera? ¿No debería existir alguna fuente de C-14?
Efectivamente, esa fuente natural de C-14 existe y se debe a las reacciones (nucleares) que tienen lugar en las capas altas de la atmósfera. Los rayos cósmicos generan reacciones en cadena al chocar con los núcleos de las moléculas del aire, y algunos de los neutrones que salen despedidos a toda velocidad chocan con núcleos de nitrógeno y se transforman (¡magia de la física!) en carbono, del tipo C-14.

¡Para esta lluvia no hay paraguas que valga! | (fuente)
Extra 3: Realmente, no es imposible datar una muestra posterior al año 1950 por medio del C-14. Pero además del problema de obtener valores de referencia precisos existe una complicación añadida: para un extenso rango de valores de concentraciones existen dos o más “picos de probabilidad” (distribución de probabilidad multimodal) sobre potenciales dataciones.
Como se ve en la gráfica, para un valor medido (una línea horizontal) se cortaría a la gráfica de concentraciones en más de un punto, como el ejemplo que no podríamos saber si data de ~1963 o de ~1985:

Ejemplo de datación post-bombas atómicas. | Fuente: "Discussion: reporting and calibration of post-bomb 14C data", Reimer, P.J., Brown, T.A., Reimer, R.W. (2004) (PDF)
Extra 4: Otra complicación más para dataciones recientes proviene de la quema de combustibles fósiles, que están liberando a la atmósfera isótopos C-14 que llevaban encerrados bajo tierra millones de años.
————————
Este artículo participa en los Premios Nikola Tesla de divulgación científica y nos lo envía Jose Luis Blanco. Como él mismo nos explica en su mail: “Soy Doctor de los que no curan e Ingeniero en Telecomunicaciones, y actualmente trabajo como profesor en la Universidad de Málaga. Con una probabilidad del 99,7% controlo temas de estimación estadística y sus aplicaciones a robótica y visión por ordenador, aunque me encanta divulgar sobre cualquier rama de la física o las matemáticas“. Puedes visitar su blog Ciencia explicada y seguirlo en twitter en @BlogCienciaExpl.

¿Yogourt con prozak? Pues va a ser que no…

Fuente: Amazings

Desde hace unas semanas circula este video por Internet donde en estilo mezcla de bricomanía y teletienda  te explican que es muy fácil modificar las bacterias que hacen el yogurt para que sinteticen prozac y así alegrarte la mañana. El vídeo suena convincente pero ¿es real?
Imagen de previsualización de YouTube Pues no, es un Hoax.
Vayamos primero al donde y al quien. La charla tuvo lugar en un congreso titulado “next nature” que es una especie de congreso interesado en ver como la naturaleza cambia por la mano del hombre, pero más desde un punto de vista filosófico que científico. Por lo demás ¿Quién es Tuur van Balen?, pues no lo sé.
Buscando en la principal base de datos de literaria científica como (Balen T, o Van Balen T) salen tres referencias (una del 2012, una 1988 y otra de 1977) que no parecen tener relación con biología sintética. Buscando en Google si que aparece una página web donde habla de sus proyectos de biología sintética, pero sin referencia a publicaciones, patentes o universidades o centros de investigación donde las esté desarrollando más allá de una colaboración con un bioquímico.
De hecho explorando un poco en su web es fácil darse cuenta que Van Balen es un artista que realiza proyectos artísticos en la línea de los que realiza en España el fotógrafo Joan Fontcuberta, autor de elaborados hoaxes, algunos de los cuales milenio 3 o algún diario ha dado por bueno.
No obstante, a pesar que se lo ha currado y consigue que una práctica de primero de biología (transformación de bacterias) parezca algo muy complejo, mete la pata varias veces:
Minuto 1:00 – Dice que el ADN de la bacteria es un pequeño círculo. Dependería de la bacteria, pero no distingue que las bacterias tiene un ADN genómico (que suele ser circular, pero está superenrollado) y otro ADN circular, pequeño e independiente del genómico (que es al que parece referirse), que son los plásmidos. Estos plásmidos son los utilizados en ingeniería genética para que la bacteria exprese genes foráneos.
Minuto 2:34 – ¡¡Tuur, esa microbiología!! Pone las bacterias en un medio de crecimiento líquido y dice “está hecho de agarosa, que es un alga que sirve de comida para las  bacterias”. Fallo gordo. La agarosa sirve para gelificar los medios de cultivo y hacer el medio sólido, las típicas placas con microbios. Si el medio es líquido, no lleva agarosa, y en ningún caso las bacterias se comen al agarosa.
Minuto 3:47 – Un poco antes ha dicho que la secuencia es open code… utilizando jerga de informáticos. La mayoría de los organismos secuenciados se encuentran en bases de datos públicas y de libre acceso, como por ejemplo, pubmed.
En este minuto lo que dice es que tu mandas la secuencia y te sintetizan el ADN. Esto es carísimo y muy poco práctico. La biología sintética no está desarrollada hasta el punto de hacer genes ex novo con una función nueva, sino que modifica genes existentes en la naturaleza. Lo normal es obtener el gen del organismo donde se expresa, o si es una modificación depositada en una base de datos pública, solicitárselo al laboratorio que la ha hecho. Además también confunde el método de síntesis de nucleótidos con el método de envío. A veces los plásmidos se envían impregnados en papel, pero la síntesis no tiene nada que ver con el funcionamiento de una impresora.
5:12 – Dice que una vez recibes el gen transformas la bacteria. Para que este gen transformado fuera estable el ADN hay que introducirlo previamente en un vector que le permita replicarse y seleccionarlo, pasos que se ha saltado. Además cuando explica como se inserta el gen en bacterias, confunde dos métodos, el choque térmico y la electroporación. Haces uno o el otro, pero no uno después del otro.
Olvidando todos estos errores técnicos. ¿Sería posible que transformando con un gen el yogurt hiciera Prozac? Pues no.
Para que el arroz sintetice vitamina A y se convierta en arroz dorado hay que insertar unos 11 genes foráneos. El prozac (o fluoxentina) no es un péptido o proteína, es decir, no se codifica por un gen. Solo se podría dar el caso si la bacteria de forma natural sintetizara una molécula precursora y que el gen que insertes codifique una proteína que catalizara la conversión de esa molécula precursora a prozac, que no es el caso.
Y por supuesto la reducción al absurdo: a ver, aceptamos pulpo como animal de compañía y asumimos que tu puedes hackear el yogurt y que haga prozac ¿para que todo este rollo? con que alguien te pase o comprar las bacterias hackeadas y con una yogurthera, ya te puedes hacer el yogurt del optimismo tu solo. Con una vez que les metas el ADN, la descendencia ya fabricará Prozac. No es preciso hacerlo cada vez. El señor este se podría forrar vendiendo estas bacterias… si fueran reales.
Todas estas cosas tienen su gracia y no hay que negar que el chico se lo ha currado, sobre toda al final enseñando el yogurt rojo y diciendo que es porque también ha metido beta caroteno, el problema es que dentro de poco alguien en plan alarmista nos dirá que la biotecnología es mala por que el yogurt puede hacer prozac y si lo coge un terrorista cianuro y como prueba irrefutable enseñara este video. Vamos las tonterías habituales.

lunes, 20 de febrero de 2012

Hackea en tu propia casa el ADN de las bacterias del yogur para crear Prozac

Fuente: Gizmodo


Aunque pueda sonar a cachondeo y casi a ciencia ficción propia del Dr. Moreau, lo que vais a ver en el vídeo más abajo es real, y no sólo eso, lo podéis hacer en vuestra propia casa y con todo tipo de combinaciones que se os ocurran. Se trata de introducir código genético en bacterias para que al utilizarlas para hacer yogur uno de sus componentes sea también el Prozac. ¿Qué mejor manera de comenzar el día y alegrarte el desayuno que alimentarte con antidepresivos?
Imagen de previsualización de YouTube Tuur van Balen nos enseña en su presentación en Next Nature, como de rematadamente fácil es adentrarse en el fascinante, pero a la vez alarmante, mundo de la bioingeniería casera. Todo gracias al uso únicamente de código ADN open source, una centrifugadora, un electroporador y un cultivo de bacterias.
No es que la bioingeniería sea fácil, pero hoy en día y gracias a la tecnología y conocimiento libre actual, puedes empezar a jugar con la naturaleza. De hecho Tuur ya ha creado otros experimentos como bacterias que consiguen que las palomas caguen jabón y el código está disponible también gratuitamente.
Os recomiendo que veáis el vídeo completo, podéis ponerle los subtítulos, porque además de instructivos es bastante gracioso. Eso sí, asusta un poco pensar lo que podría llegar a hacerse con esto, a ver si vamos a terminar como en un capítulo de Fringe con yogures mutantes que intenten suplantar nuestra identidad. [Next Nature]

viernes, 17 de febrero de 2012

¿Son eficientes las grandes centrales solares?

Fuente: Neoteo
En la actualidad, un gran número de “enormes” plantas generadoras de electricidad, capaces de entregar muchos MW (Mega – Watts) (o Mega – Vatios) de energía solar fotovoltaica se encuentran funcionando alrededor del mundo, o están en pleno proceso de diseño, desarrollo y/o construcción. Por varias razones válidas, que analizaremos en este artículo, muchos expertos están convencidos de que la instalación de estas grandes plantas centralizadas, que utilizan la energía solar, son una inversión innecesaria y un despilfarro de dinero, además de ser un emprendimiento tecnológicamente inadecuado. Es complicado asumir una afirmación de tamaña naturaleza, pero leamos lo que expresa el artículo y opinemos al respecto, si estamos de acuerdo o no.

  • La energía solar es prácticamente omnipresente en todo el mundo y de ella podemos obtener sus beneficios en el lugar que se nos ocurra, es decir, podemos estar en cualquier lugar (a cielo abierto, por supuesto) y tener una fuente de poder al alcance de nuestra mano, a pesar de estar en pleno desierto o mar. Sin embargo, en el caso de la plantas de energías convencionales, del tipo hidroeléctricas o termoeléctricas por ejemplo, se deben desarrollar y montar en ámbitos cercanos o adyacentes a la fuente de energía que, para el ejemplo dado sería un río, lago o afluente de cualquier tipo. Esto hace que sea necesario transportar la electricidad generada en ese lugar, a un determinado costo (muchas veces elevado) hacia los lugares donde se requiera. Por el contrario, con la energía solar, tenemos una solución potencial para generar energía en el mismo lugar en que se necesite y se quiera utilizar, esto es, desde la cima de las montañas hasta en el medio del mar. La energía solar es, por lo tanto, ideal para la generación de de electricidad distribuida y localizada, con el consiguiente ahorro en el transporte de energía, sumado a las pérdidas que siempre existen en las líneas eléctricas y con la permanente manipulación de tensiones peligrosamente altas. Todos elementos des-favorables que están presentes en el sistema tradicional.
    Las centrales hidroeléctricas deben estar en el mismo lugar donde se concentra la energía motriz, lista a ser transformada - Energía Solar Las centrales hidroeléctricas deben estar en el mismo lugar donde se concentra la energía motriz, lista a ser transformada
    Podemos decir entonces, que la energía fotovoltaica tiene la ventaja de ser verdaderamente modular ya que puede alcanzar eficiencias de costes con instalaciones que vayan desde sólo unos pocos KW a 20 MW o incluso 200 MW. El costo en “insumos” por Watt (o Vatio) de la energía solar es el mismo para una planta de 10 KW que para una de 150MW. De hecho, el costo de la tierra y otros gastos indirectos hacen cada vez más caras a las grandes plantas. De este modo y con este razonamiento, no hay "ventajas de escala" válidas para “necesitar” ir hacia plantas solares fotovoltaicas cada día más grandes. En realidad, todas las plantas de varios MW son básicamente grupos de varias plantas de 500KW, debido a que la capacidad de de los inversores utilizados en energía solar (dispositivos que convierten la corriente continua en corriente alterna lista para ser transportada) se limitan a potencias de alrededor de 500 KW y no más. Entonces, ¿Por qué, en lugar de construir una gigantesca planta de 50 MW en el medio de un desierto alejado, no construimos un centenar de plantas de 500kW en lugares más cercanos a diferentes centros urbanos?
    Enormes parques solares pueden afectar cualquier ecosistema - Energía Solar Enormes parques solares pueden afectar cualquier ecosistema
    Por lógica debemos darnos cuenta de que la conversión a corriente alterna ya provoca un porcentaje de pérdidas desde la cantidad de energía obtenida. A eso debemos sumarle más pérdidas inducidas por los transformadores de potencia encargados de elevar la tensión para su transporte, que también éste agrega pérdidas a todo lo que ya veníamos cayendo. Por último, en la llegada a los centros urbanos, seguimos sumando déficit con estaciones transformadoras que se encargan de adecuar la tensión para ser distribuida en forma domiciliaria. En agudo contraste a esta realidad, nos encontramos con que las pequeñas plantas de energía solar, en la proximidad a sus usuarios, no sufren la tremenda pérdida de energía desde su origen hasta su entrega final. En estos casos, ese alto porcentaje de pérdidas se evita de manera muy sencilla.
    El transporte de la energía eléctrica supone una pérdida de rendimiento que puede evitarse - Energía Solar El transporte de la energía eléctrica supone una pérdida de rendimiento que puede evitarse
    Otra limitación importante para la energía solar fotovoltaica es el gran espacio, que debe ser ocupado, para obtener un KW. La tierra siempre se podría utilizar de manera más rentable en lugar de cubrirla con paneles solares. Las grandes plantas solares, a menudo construidas en los desiertos o zonas remotas, crear problemas ambientales, con alteraciones en micro-climas generados y mantenidos durante miles de años por la naturaleza y que pueden sufrir trastornos potencialmente perjudiciales. En el peor de los casos, hasta se pueden generar conflictos con tierras que podrían ser aprovechadas para la agricultura. Finalmente, el último problema se refiere al desconocimiento del usuario medio, con respecto a la forma en que se opera, comporta  y distribuye la potencia energética dentro de la red eléctrica. Grandes cantidades de energía están circulando siempre en la red, a niveles de 66 Kilo-Volts (o Voltios), 132 KV o 500KV. La inyección energética que podrían significar 200 MW de potencia, por ejemplo, sería sólo una pequeña fracción de la necesaria para abastecer determinados picos de consumo, durante algunos momentos del día o épocas del año, en las grandes ciudades. La alimentación de energía solar a nivel local, con una distribución apropiada de múltiples centrales pequeñas, cercanas a los centros de alto consumo,  ayudarían de manera inmediata a reducir los inconvenientes de la red y entregar energía limpia y estable, al menos a una parte importante de la población. De la otra forma, toda una gran área regional puede caer dentro del problema.
    Las instalaciones pueden ser pequeñas y cercanas a los centros de consumo eléctrico - Energía Solar Las instalaciones pueden ser pequeñas y cercanas a los centros de consumo eléctrico
    Promover la generación local de energía solar fotovoltaica es una solución ideal en países extensos, de bajos recursos económicos y densamente poblados como, por ejemplo, la India donde las personas sufren de apagones y variaciones de voltaje en una forma que algunos no comprenderían que existan personas que pueda vivir así. De hecho, este método de, abundantes y  pequeñas instalaciones es una alternativa significativa y técnicamente positiva respecto a la utilización de una única planta de energía solar fotovoltaica de gran tamaño. Podría ser una de las formas más eficaces y rentables para solucionar los problemas de energía, como apagones y fluctuaciones de tensión de red en el consumidor final.
    ¿Tiene sentido instalar una planta fotovoltaica a cientos de kilómetros del lugar de uso? - Energía Solar ¿Tiene sentido instalar una planta fotovoltaica a cientos de kilómetros del lugar de uso?
    Los gobiernos deberían alentar y fomentar la construcción en masa de pequeñas plantas de energía solar, que entreguen potencias  cercanas (o menores) a los 500 KW (casi lo que consume una familia occidental promedio durante un mes) mediante la instalación de módulos solares distribuidos en las terrazas,  tejados sin usar o espacios verdes deshabitados dentro de un barrio o sector de la ciudad. Este tipo de plantas podrían inyectar su salida trifásica de 380V directamente en los extremos locales de la red, en una subestación de distribución. La inyección de energía solar de alta calidad, aprovechada de esta manera, mejoraría inmediatamente la calidad de la energía local durante el día e inclusive, ayudaría a otros pequeños centros aledaños (de alto consumo) al compartir con ellos excedentes energéticos. La pérdida de energía durante el día, es el problema habitual que enfrentan los agricultores y los consumidores industriales. De hecho, es durante el día en que los transformadores de las subestaciones tienden a fallar debido a sobre-temperaturas. La inyección de energía solar, haría que estos transformadores puedan funcionar con mayor alivio, sin calentar, extendiendo así su vida útil.
    Pequeñas centrales para pequeñas comunas pueden favorecer el equilibrio energético - Energía Solar Pequeñas centrales para pequeñas comunas pueden favorecer el equilibrio energético
    La distribución apropiada de pequeñas centrales fotovoltaicas ayudaría además, a mejorar las condiciones de proliferación de nuevas Pequeñas y Medianas Empresas (PYME) con el beneficio adicional de la creación de nuevas oportunidades laborales para los habitantes de la región. Estas pequeñas empresas, favorecidas por una política gubernamental (sin impuestos asfixiantes), podrían asegurar el mantenimiento y el servicio continuo de las plantas gracias a un seguimiento más cercano y personalizado. A todo esto, hay que sumarle el beneficio más importante, que es el de aumento de la productividad de energía, donde la comunidad podría obtener energía limpia y estable durante las horas de trabajo de, al menos 300 días en un año. El 40% de la población de India (ya que citamos ese ejemplo) no tiene suministro eléctrico en absoluto. Imaginemos por un instante el modo en que cambiaría la calidad de vida de estas 400 millones de personas, si se pudiera (o pudiese) organizar un sistema des-centralizado de generación de energía solar y a estas pequeñas plantas fotovoltaicas, instalarlas en las cercanías y/o en el interior de sus pueblos o aldeas. El aumento de la productividad resultante podría significar un  cambio radical en la economía India. Por supuesto, esta teoría es válida y de aplicación efectiva para todas las demás regiones del mundo.
    El 40% de la población de India, no posee suministro eléctrico - Energía Solar El 40% de la población de India, no posee suministro eléctrico
    Debemos comprender que la energía solarlibre y limpia” es de hecho, un regalo de la naturaleza a la humanidad. El sol produce su propia energía mediante el proceso nuclear. Pero todos los peligros relacionados con la energía nuclear son atendidos por el sol y la "energía limpia", libre de todos los peligros imaginables y los riesgos posibles, están aislados de nosotros de forma gratuita. Partiendo del concepto en que la entrada de energía es gratis, el costo de esta energía solar fotovoltaica es, básicamente, el costo de la amortización del capital. Es decir, llegar al momento en que se genere tanta energía como para pagar la inversión inicial realizada. Como todos sabemos, a medida que surgen nuevas tecnologías, el costo de la energía solar fotovoltaica está cayendo a valores cada vez menores. En un futuro no muy lejano, coincidirá con el costo (siempre creciente) de la energía de los combustibles fósiles. Muchos de nosotros creemos que la energía solar, en última instancia, va a prevalecer como principal fuente mundial de energía. ¿Tú, opinas lo mismo?
    Fuente:  PowerPulse.net

miércoles, 15 de febrero de 2012

La matemática del peinado de cola de caballo publicada en un artículo de Physical Review Letters

Fuente: Francis (th)E mule

¿Por qué es noticia un artículo publicado en Physical Review Letters que describe lo ya ampliamente conocido? Leo esto y no doy crédito: “Una nueva investigación de la Universidad de Cambridge ofrece la primera descripción matemática de la forma de un peinado tipo cola de caballo; podría tener implicaciones para la industria textil, la animación por ordenador y los productos de cuidado personal.” [Fuente] ¿Primera? ¿Útil en gráficos por ordenador? Lo siento, en gráficos todos llevamos observando cabellos en actores virtuales y colas de caballo desde que nació Pixar y los expertos llevamos viéndolos desde los trabajos pioneros de William T. Reeves en sistemas de partículas en 1983. Hoy, hasta mi hijo ha visto la película de Disney “Rapunzel” (“Tangled” en el original). De hecho yo puse hace años a un alumno a trabajar en la línea del artículo de Lieu-Hen Chen, Santi Saeyor, Hiroshi Dohi and Mitsuru Ishizuka, “A system of 3D hair style synthesis based on the wisp model,” The Visual Computer 15: 159-170, 1992. Para los interesados en los detalles, el nuevo artículo es Raymond E. Goldstein, Patrick B. Warren, and Robin C. Ball, “The Shape of a Ponytail and the Statistical Physics of Hair Fiber Bundles,” Phys. Rev. Lett. 108, 078101, February 13, 2012 [preprint gratis]; “Synopsis: Ponytail physics,” APS Physics, Feb. 13, 2012; “Science behind ponytail revealed,” BBC News, 3 February 2012.
Los físicos han determinado la forma de una cola de caballo teniendo en cuenta la rigidez de los cabellos, el efecto de la gravedad y la presencia al azar de rizos u ondulaciones en el cabello. Eso se lleva haciendo en gráficos por ordenador desde hace 30 años (al menos desde los primeros trabajos en cuerpos elásticos deformables de Demetri Terzopoulos, John Platt, Alan Barr y Kurt Fleischer [un paper del SIGGRAPH 1987]). Por supuesto, los físicos que publican en PRL introducen un “nuevo” número adimensional, el número de Rapunzel (no podía ser de otra forma) para predecir la geometría de la cola de caballo.
El profesor Raymond Goldstein (Universidad de Warwick) y sus colegas estarán muy contentos de haber redescubierto la rueda. ”Una ecuación muy simple capaz de resolver un problema que ha desconcertado a los científicos y artistas desde que Leonardo da Vinci estudió en sus cuadernos el asunto hace 500 años.” ¡Me quito el sombrero! ¡Qué descubrimiento!
Obviamente, es envidia. ¿Debo enviar a artículos a PRL con todos los descubrimientos de gráficos de los últimos 30 años? Como es obvio, los físicos no leen los artículos de gráficos por ordenador y no saben lo que se ha hecho en este campo (gracias al motor financiero de la industria cinematográfica y de juegos por ordenador). Lo mismo hasta me publican alguno.

martes, 14 de febrero de 2012

¿Pero, por qué los niños no quieren ser Cientificos?

Tinieblas González: "El cine español está prostituído"

Fuente: El Mezcladillo



Increibles declaraciones de Tinieblas Gonzalez. Acusa los productores en general de estar apropiandose de fondos publicos sin llegar a estrenar peliculas en mas de 1 cine. Critica a la SGAE y al Ministerio de Cultura de estar detras de todo.

Lo mejor empieza en el minuto 13:00

lunes, 13 de febrero de 2012

Herramientas para escritores y guionistas

Fuente: Usemos Linux 
Aunque la mayoría de escritores noveles empiezan a escribir utilizando un editor de textos genérico, como puede ser el Writer de LibreOffice, existen diversos programas que facilitan la tarea de escribir un documento extenso, ya sea éste una novela, un guión, un manual o incluso una tesis doctoral.

Escribas lo que escribas, podés encontrar en programas como los que se citan a continuación herramientas muy útiles para centrarte exclusivamente en la escritura o para organizar la estructura de tu obra.

STORYBOOK

Plataforma: Windows y Linux
Idioma: Multiidioma
Descripción:  Storybook “Organiza tu novela” se describe como un software de código abierto para la escritura de novelas por parte de escritores, autores y creativos. El programa permite organizar la trama de tu obra y todos sus personajes.



sudo apt-get install storybook



CELTX

Plataforma: Mac, Windows, Linux
Idioma: Multiidioma
Descripción:  Enfocado principalmente a la producción de todo tipo de documentos para la creación audiovisual (guiones, storyboards, etc.), puede ser utilizado para la escritura de guiones cinematográficos, obras de teatro, radio y cómics. Herramienta muy potente.


sudo apt-get install celtx



YWRITER

Plataforma: Windows, Linux
Idioma: Inglés
Descripción:  Actualizado recientemente, está enfocado a la escritura de novelas y permite gestión por capítulos, definición de personajes… etc.






KABIKABOO

Plataforma: Windows, Linux
Idioma: Inglés
Descripción: Similar a Storybook o yWriter.






sudo apt-get install kabikaboo



BOOKWRITE

Plataforma: Windows y Linux
Idioma: Inglés
Descripción:  Opción totalmente minimalista. Las opciones justas para que el autor pueda centrarse exclusivamente en la escritura, dentro de un diseño muy parco.




sudo apt-get install bookwrite



Q10

Plataforma: Multiidioma.
Idioma: Inglés
Descripción:  No permite organizar una novela, pero sí elimina todo aquello que pueda distraer al escritor, para permitirle centrarse exclusivamente en la escritura.






DARKROOM

Plataforma: Windows
Idioma: Inglés
Descripción: Como Q10, no permite organizar una novela, pero elimina distracciones.





sudo apt-get install darkroom



Hay otros programas destinados a autores y a facilitar su tarea creadora, como Scrivener (para Mac) o Ulysses (también para Mac) bastante más potentes que los anteriores, pero no son gratuitos.

Como escritor, ¿utilizás este tipo de herramientas? ¿conocés o utilizás alguna otra más allá de los editores de texto? ¿usaste alguna de las nombradas? ¿cómo ha sido tu experiencia al respecto? Me interesa mucho tu opinión.

Fuente: Obrapropia

¿Qué es el valor sigma?

Fuente: Ciencia Kanija

Artículo publicado por David L. Chandler el 9 de febrero de 2012 en MIT News
¿Cómo saber cuándo es significativo un nuevo hallazgo? El valor sigma puede decírtelo – pero cuidado con los peces muertos.
Es una cuestión que surge con virtualmente cada gran nuevo hallazgo en ciencia o medicina: ¿Qué hace que un resultado sea lo bastante fiable como para tomarse en serio? La respuesta tiene que ver con su significado estadístico – pero también con los juicios sobre qué estándares tienen sentido en una situación dada.
La unidad de medida que se ofrece normalmente cuando se habla de significado estadístico es la desviación estándar, expresada con la letra griega minúscula sigma (σ). El término se refiere a la cantidad de variabilidad en un conjunto de datos dado: si los datos apuntan todos a una zona conjunta o están muy dispersos.
Distribución normal
Distribución normal

En muchas situaciones, los resultados de un experimento siguen lo que se conoce como “distribución normal”. Por ejemplo, si lanzas una moneda 100 veces y cuentas cuántas veces sale cara, el resultado medio será 50 veces. Pero si realizas esta prueba 100 veces, la mayor parte de los resultados estará cerca de 50, pero no será exactamente ese valor. Tendrás casi los mismos casos de 49 ó 51. También tendrás unos pocos de 45 o 55, pero casi ninguno de 20 o de 80. Si dibujas las 100 pruebas en una gráfica, tendrás una forma bien conocida llamada curva de campana, que es más alta en el medio y más baja en los extremos. Ésto es una distribución normal.
La desviación es lo lejos que está un punto dado respecto a la media. En el ejemplo de la moneda, un resultado de 47 tiene una desviación de tres respecto al valor medio de 50. La desviación estándar es la raíz cuadrada de la media de todas las desviaciones al cuadrado. Una desviación estándar, o un sigma, dibujado por encima o debajo del valor medio en tal curva de distribución normal, definiría una región que incluye el 68 por ciento de todos los puntos de datos. Dos sigmas por encima o debajo incluirían aproximadamente un 95 por ciento de los datos, y tres sigmas el 99,7 por ciento.
Entonces, ¿cuándo un punto de datos concreto – o resultado de investigación – se considera significativo? La desviación estándar puede ofrecernos una regla: Si un punto de datos está a unas pocas desviaciones estándar del modelo que se está poniendo a prueba, ésto es una prueba sólida de que dicho punto de datos no es consistente con el modelo. Sin embargo, cómo usar esta regla depende de la situación. John Tsitsiklis, Profesor Clarence J. Lebel de Ingeniería Eléctrica en el MIT, que enseña el curso de Fundamentos de Probabilidad, dice que: “la estadística es un arte, con mucho espacio para la creatividad y los errores”. Parte del arte consiste en decidir qué medidas tienen sentido para una configuración dada.
Por ejemplo, si estás haciendo una encuesta sobre cuánta gente planea votar en unas elecciones, la convención aceptada es de dos desviaciones estándar por encima o debajo de la media, lo cual da un nivel de confianza del 95 por ciento, lo que es razonable. El intervalo de dos sigmas es a lo que los encuestadores se refieren cuando dicen “el margen de error de la muestra”, como un 3 por ciento, en sus conclusiones.
Esto significa que si preguntas a toda la población y obtienes un resultado concreto, y haces la misma pregunta a un grupo aleatorio de 1000 personas, hay un 95 por ciento de posibilidades de que los resultados del segundo grupo estén a dos sigma de los resultados del primero. Si una encuesta encuentra que el 55 por ciento de toda la población está a favor del candidato A, entonces el 95 por ciento de las veces, los resultados de la segunda encuesta estarán en algún punto entre el 52 y el 58 por ciento.
Por supuesto, esto también significa que el 5 por ciento de las veces, el resultado estaría fuera del rango de dos sigmas. Este grado de incertidumbre está bien para una encuesta de opinión, pero puede que no para el resultado de un crucial experimento que desafía la comprensión de los científicos sobre un importante fenómeno – como el anuncio del pasado otoño de la detección de neutrinos que se movían más rápido que la velocidad de la luz en un experimento del Centro Europeo de Investigación Nuclear (CERN).
Seis sigmas pueden estar equivocadas
Técnicamente, los resultados de ese experimento tenían un nivel de confianza muy alto: seis sigmas. En la mayor parte de casos, un resultado de cinco sigmas se considera como el estándar de significación, que corresponde aproximadamente a una posibilidad en un millón de que los hallazgos sean sólo el resultado de variaciones aleatorias: seis sigmas se traduce como una posibilidad entre 500 millones de que el resultado sea una fluctuación aleatoria. (Una estrategia común de gestión de negocios conocida como “Seis Sigma” se deriva a partir de este término, y se basa en instaurar procedimientos rigurosos de control de calidad para reducir los residuos).
Pero en ese experimento del CERN, el cual tenía el potencial de dar un vuelco a un siglo de física aceptada y confirmada en miles de pruebas de distintos tipos, aún no es lo bastante bueno. Por una razón, asume que los investigadores han realizado el análisis correctamente y no han pasado por alto alguna fuente de error sistemático. Y debido a que los resultados son tan inesperados y revolucionarios, esto es exactamente lo que la mayoría de físicos creen que ha pasado – alguna fuente de error no detectada.
Es interesante señalar que un conjunto de resultados distinto procedente del mismo acelerador de partículas del CERN se interpretó de manera bastante diferente.
También se anunció el año pasado una posible detección de algo llamado bosón de Higgs – una partícula subatómica teórica que ayudaría a explicar por qué las partículas tienen masa . Este resultado tenía sólo un nivel de confianza de 2,3 sigmas, correspondiente a, aproximadamente, una posibilidad entre 50 de que el resultado fuese un error aleatorio (nivel de confianza del 98 por ciento). Debido a que encaja con lo esperado, basándonos en la física actual, la mayor parte de físicos cree que el resultado probablemente es correcto, a pesar de que su nivel de confianza estadística es mucho menor.
Significativo pero falso
Pero se complica más en otras áreas. “Donde el tema se pone realmente complicado es en las ciencias sociales y en la ciencia médica”, dice Tsitsiklis. Por ejemplo, un artículo de 2005 muy citado y publicado en Public Library of Science – titulado “Why most published research findings are wrong” (Por qué la mayor parte de las conclusiones de investigación publicadas son incorrectas) — daba un análisis detallado de una variedad de factores que podrían llevar a conclusiones injustificadas. Sin embargo, esto no se tiene en cuenta en las medidas estadísticas usadas normalmente, incluyendo el “significado estadístico”.
El artículo señala que al observar grandes conjuntos de datos de formas lo bastante diferentes, es fácil encontrar ejemplos que pasen los criterios habituales de significado estadístico, incluso aunque sean realmente simples variaciones aleatorias. ¿Recuerdas el ejemplo de la encuesta, donde una vez de cada 20 un resultado cae aleatoriamente fuera de los límites “significativos”? Bueno, incluso con un nivel de significación de cinco sigmas, si un ordenador genera millones de posibilidades, se descubrirán patrones totalmente aleatorios que encajen con esos criterios. Cuando esto sucede, “no publicas aquellos que no pasan” el test de significación, dice Tsitsiklis, pero algunas correlaciones aleatorias tendrán la apariencia de ser hallazgos reales – “por lo que finalmente terminarás publicando los errores estadísticos.
Un ejemplo de ésto: Muchos artículos publicados en la última década han afirmado encontrar correlaciones significativas entre cierto tipo de comportamientos o procesos mentales y las imágenes cerebrales captadas en imágenes de resonancia magnética, o IRM. Pero a veces estas pruebas pueden encontrar correlaciones aparentes que simplemente son el resultado de fluctuaciones naturales, o “ruido”, en el sistema. Un investigador en 2009 duplicó uno de dichos experimentos, sobre el reconocimiento de expresiones faciales, sólo que en lugar de sujetos humanos escaneó un pez muerto – y encontró resultados “significativos”.
“Si miras en suficientes lugares, puedes tener un resultado de ‘pez muerto’”, dice Tsitsiklis. Inversamente, en muchos casos un resultado con un bajo significado estadístico puede, sin embargo, “decirte algo que merezca la pena investigar”, comenta.
Así que ten en mente que simplemente porque algo encaje con la definición aceptada de “significativo”, no implica necesariamente que lo sea. Todo depende del contexto.

Autor: David L. Chandler
Fecha Original: 9 de febrero de 2012
Enlace Original

viernes, 10 de febrero de 2012

Observado un tipo propuesto de neutrino solar

Fuente: Ciencia Kanija

Artículo publicado por Alexandra Witze el 8 de febrero de 2012 en Science News
Las partículas, buscadas desde hace tiempo, confirman una reacción de fusión que ayuda a dar energía al Sol.
En un esfuerzo técnico, los físicos han observado unos neutrinos de baja energía, buscados desde hace tiempo, que vuelan a toda velocidad desde el Sol. El descubrimiento confirma uno de los posibles primeros pasos en el ciclo de fusión que ayuda a dar energía a la estrella, dice Cristiano Galbiati, físico en la Universidad de Princeton y miembro del gran equipo internacional que informa del descubrimiento en el ejemplar del 3 de febrero de la revista Physical Review Letters.
Las recién encontradas partículas se producen cuando dos protones y un electrón interactúan para crear deuterio, una forma pesada del hidrógeno que ayuda a alimentar la fusión del Sol. Aproximadamente 1 de cada 400 átomos de deuterio en el Sol se crean en esta reacción de protón-electrón-protón, o pep.

The Dynamic Sun © by NASA Goddard Photo and Video

Los científicos pueden analizar el funcionamiento interno del Sol estudiando las partículas producidas en sus reacciones termonucleares – en particular, los neutrinos que fluyen a través de la Tierra en gran número, pero apenas interactúan con la materia. Los investigadores deben construir detectores bajo el suelo para apantallar estos esquivos neutrinos solares de otras partículas.
En 2007, una colaboración liderada por Italia, conocida como Borexino, empezó a intentar hacer esto mismo en el Laboratorio Nacional Gran Sasso, enterrado en una montaña en Italia central. Borexino consta de una gigantesca cuba de líquido, el cual emite minúsculos destellos cuando los neutrinos interactúan con él.
Los científicos del equipo sabían que podrían observar neutrinos procedentes de la reacción protón-protón (pp), más común y de mayor energía. “No esperábamos ser capaces de ver neutrinos pep cuando empezamos”, dice Frank Calaprice, miembro del equipo también de Princeton. “Sabíamos que podría ser posible, pero había enormes obstáculos”.
Por ejemplo, incluso aunque el detector esté enterrado para protegerlo del resto de partículas, algunos rayos cósmicos logran atravesar la montaña y llegar al experimento. Allí pueden producir carbono-11 radiactivo, el cual alcanza al detector en el rango de energía esperado para los neutrinos pep. Pero una nueva forma de eliminar el carbono-11 del análisis permitió a los científicos de Borexino filtrar la señal no deseada, dice Galbiati.
Una vez que se eliminó la interferencia de fondo, los científicos pudieron observar los reveladores signos de los neutrinos pep en el rango de energía esperado, alrededor de 1,4 millones de electronvolts. (En comparación, una partícula de luz común, o fotón, tiene una energía de alrededor de 1 electronvolt). Tuvieron lugar unos tres destellos cada día por cada 100 toneladas de líquido detector.
Los logros técnicos de Borexino al filtrar la señal de fondo ya están ayudando a otros experimentos, tales como los que buscan otros eventos de neutrinos o incluso materia oscura, dice Galbiati. “Este resultado abre la vía para que futuros detectores de neutrinos solares hagan medidas mucho más precisas”, comenta.
Posteriores estudios de neutrinos pep deberían ayudar a los científicos a refinar su comprensión del Sol, dice el físico Mark Chen de la Universidad de Queen’s en Canadá. El detector SNO+, en un laboratorio subterráneo cerca de Sudbury en la provincia canadiense de Ontario, llenará su propio detector este verano, con vistas a recopilar datos en 2013. Este experimento tiene como objetivo medir la tasa de neutrinos pep y también detectar otro tipo de neutrino solar de baja energía conocido como CNO, comenta Chen.

Autor: Alexandra Witze
Fecha Original: 8 de febrero de 2012
Enlace Original

La señal del Higgs gana fuerza

Fuente: Ciencia Kanija

Artículo publicado por Geoff Brumfield el 7 de febrero de 2012 en Nature News
Los últimos análisis del Gran Colisionador de Hadrones apoyan la existencia de la partícula.
Hoy, dos de los principales experimentos del Gran Colisionador de Hadrones (LHC), el acelerador de partículas más potente del mundo, enviaron los resultados de sus últimos análisis. Los nuevos artículos apoyan la existencia, anunciada en diciembre, de una posible señal del Higgs, pero no nos emocionemos demasiado.


Primero, no hay nuevos datos – el LHC dejó de colisionar protones el pasado noviembre, y estos últimos resultados son simplemente un refrito de ejecuciones anteriores. En el caso del Compact Muon Solenoid (CMS), los físicos han sido capaces de observar otro posible tipo de desintegración del Higgs, y esto les permite aumentar la señal del Higgs de 2,5 sigma a 3,1 sigma. Uniendo estos datos con los del otro detector, ATLAS, la señal general del Higgs ahora se coloca oficialmente en aproximadamente 4,3 sigma. En otras palabras, si creemos en la estadística, la señal tiene un 99,996% de posibilidades de ser cierta.
Todo esto suena muy convincente, pero mantén la cabeza fría, debido a que las coincidencias estadísticas son algo cotidiano. En Cosmic Variance, Sean Carroll señala que hay una señal 3,8 sigma en el lanzamiento de la moneda de la Super Bowl. ¿Significa eso que se ha descubierto una super-compañera del bowl? No. (Si no has pillado el chiste, no te preocupes, se escribió sólo como castigo para aquellos que sí lo pillan).
Después de que el LHC empiece de nuevo a funcionar en primavera, estaremos mucho más cerca de saber qué esta pasando realmente. Justo ahora, los científicos se reunen en Chamonix, Francia, para decidir a qué energía poner en marcha el colisionador el próximo año. Los últimos rumores son que la máquina pasará de 7 a 8 teraelectronvolts, y que aumentará también su luminosidad (el número de colisiones por pasada).
Para algo más de contexto sobre lo que está pasando, mira el video de mi viaje el pasado noviembre.

Artículo de Referencia: Nature doi:10.1038/nature.2012.9992
Autor: Geoff Brunfield
Fecha Original: 7 de febrero de 2012
Enlace Original

miércoles, 8 de febrero de 2012

Videojuegos, cibernética y futuro.

En Game-theory tenemos una explicación (en inglés) de cómo el videojuego "Deus Ex:Human Revolution" no anda muy desencaminado de lo que nos depara el futuro.

Y ya que estamos, también Bioshock.