jueves, 30 de agosto de 2012

El dulce hallazgo de ALMA

Fuente: Ciencia Kanija
 
Artículo publicado el 29 de agosto de 2012 en ESO
Se encuentran elementos esenciales para la vida alrededor de una estrella joven.
Usando el radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array), un grupo de astrónomos detectó moléculas de azúcar presentes en el gas que rodea a una estrella joven, similar al sol. Esta es la primera vez que se ha descubierto azúcar en el espacio alrededor de una estrella de estas características.
Tal hallazgo demuestra que los elementos esenciales para la vida se encuentran en el momento y lugar adecuados para poder existir en los planetas que se forman alrededor de la estrella.
Moléculas de azúcar en el cosmos
Moleculas de azúcar en el cosmos © Crédito: ESO

Los astrónomos encontraron moléculas de glicolaldehído (un azúcar simple) en el gas que rodea a una joven estrella binaria joven llamada IRAS 16293-2422, que posee una masa similar a la del Sol. El glicolaldehído ya se había divisado en el espacio interestelar anteriormente, sin embargo, esta es la primera vez que se localiza tan cerca de una estrella de este tipo, a distancias equivalentes a las que separan Urano del Sol en nuestro propio Sistema Solar. El descubrimiento prueba que algunos de los compuestos químicos necesarios para la vida, ya existían en este sistema al momento de la formación de los planetas.
“En el disco de gas y polvo que rodea esta estrella de formación reciente encontramos glicolaldehído, un azúcar simple que no es muy distinto al que ponemos en el café”, señala Jes Jørgensen (Instituto Niels Bohr, Dinamarca), autor principal del trabajo. “Esta molécula es uno de los ingredientes en la formación del ácido ribonucleico (ARN), que como el ADN, con el cual está relacionado, es uno de los ingredientes fundamentales para la vida”.
La gran sensibilidad de ALMA (incluso en las longitudes de onda más cortas a las que opera — que representan grandes desafíos técnicos) fue esencial para estas observaciones, las que se realizaron con un conjunto parcial de antenas durante la llamada fase de verificación científica del observatorio.
“Lo que es realmente fascinante de nuestros hallazgos es que las observaciones realizadas con ALMA revelan que las moléculas de azúcar están cayendo en dirección a una de las estrellas del sistema”, comenta Cécile Favre, miembro del equipo (Universidad de Aarhus, Dinamarca). “Las moléculas de azúcar no sólo se encuentran en el lugar indicado para encontrar su camino hacia un planeta, sino que además van en la dirección correcta”.
Las nubes de gas y polvo que colapsan para formar nuevas estrellas son extremadamente frías, por lo que muchos de estos gases se solidifican formando hielo en las partículas de polvo, donde luego se combinan y originan moléculas más complejas. Sin embargo, una vez que una estrella se forma en medio de una nube de gas y polvo, ésta calienta el interior de la nube giratoria elevándo su temperatura. Cuando esto ocurre, las moléculas químicamente complejas se evaporan en forma de gas. Este gas emite radiación en forma de ondas de radio, las que pueden ser captadas utilizando poderosos radiotelescopios como ALMA.
La estrella IRAS 16293-2422 se encuentra ubicada a unos 400 años- luz aproximadamente (relativamente cerca de la Tierra), lo que la hace un excelente objeto de estudio para los astrónomos que investigan la química y las moléculas que rodean a las estrellas jóvenes. Al aprovechar la gran capacidad de una nueva generación de telescopios como ALMA, hoy en día los astrónomos tienen la oportunidad de estudiar detalles precisos, dentro de las nubes de gas y polvo que originan sistemas planetarios.
“Se plantea una gran interrogante: ¿Cuán complejas pueden llegar a ser estas moléculas antes de que se incorporen a nuevos planetas? Esto podría darnos una idea con respecto a la forma en que la vida pudiese originarse en otras partes, y las observaciones de ALMA serán de vital importancia para develar este misterio”, indica Jes Jørgensen.
El trabajo será publicado en un artículo de la revista ‘Astrophysical Journal Letters‘.

Fecha Original: 29 de agosto de 2012
Enlace Original

Un par de exoplanetas orbitan a dos estrellas

Fuente: Ciencia Kanija
 
Artículo publicado por Nadia Drake el 28 de agosto de 2012 en Science News
Los planetas se sitúan en la zona habitable del sistema binario estelar.
Y entonces, aparecieron dos. La nave Kepler ha localizado el primer par de planetas que pasan frente a un sistema binario estelar a lo largo de su órbita. Para añadir un poco de pimienta, el planeta más externo – un potencial mundo similar a Neptuno – habita en la zona adecuada para la vida alrededor de las dos estrellas.
“Recibe aproximadamente un 88 por ciento de la cantidad de energía que recibe la Tiera del Sol”, dice William Welsh de la Universidad Estatal de San Diego, que tiene previsto informar de su hallazgo el 29 de agosto en la reunión de la Unión Astronómica Internacional. “Y es un sistema planetario múltiple. Ya es bastante complicado imaginar cómo tener un planeta en un sistema binario; ahora tenemos dos”.
Exoplaneta circumbinario

El sistema, conocido como Kepler-47, podría tener incluso más planetas: una pista tentadora, pero aún sin confirmar, apunta a un mundo adicional descubierto gracias al parpadeo de la luz estelar que se produce cuando los compañeros planetarios pasan entre ambas estrellas y la Tierra. El parpadeo adicional se ha visto claramente solo una vez, por lo que se necesitaría más tiempo de observación para confirmar el tercer planeta. Kepler-47 está a aproximadamente 5000 años luz de distancia en la constelación de Cygnus.
Los resultados también aparecen en la edición en línea del 28 de agosto de la revista Science.
Hasta el momento, los científicos saben que el planeta más exterior, Kepler-47c, es unas 4,6 veces más grande que la Tierra y orbita a su estrella cada 303 días. El planeta más interno tiene tres veces el diámetro de la Tierra, y orbita a su estrella cada 49 días. Una de las estrellas es similar al Sol, y la otra es mucho más pequeña y tenue. Las dos estrellas se  orbitan entre sí aproximadamente cada siete días.
Determinar los límites de la zona habitable en los sistemas binarios normalmente no es fácil, debido a que el movimiento de las estrellas crea una región que se desplaza en la que podría haber agua líquida sobre un planeta en órbita. Pero este par de estrellas cooperó. “Son una estrella similar al Sol y una estrella realmente débil”, dice Welsh. En el caso de la más pequeña, “simplemente puedes ignorarla”.
Kepler-47c probablemente es demasiado grande y gaseoso para albergar vida, pero si tuviese una luna del tamaño de la tierra podría servir como potencial exo-incubadora. “Es pura especulación”, comenta Welsh. “Pero estando en la zona habitable, y si tuviese una luna a su alrededor, estaría la situación adecuada para tener las condiciones necesarias para la vida”.
No hay pruebas de tal luna, pero podría tener alguna más pequeña, como Titán, la luna de Saturno. “Si este objeto tuviese una luna del tamaño de Titán, sería muy interesante”, dice Welsh.

Autor: Nadia Drake
Fecha Original: 28 de agosto de 2012
Enlace Original

Enanas blancas deforman el espacio y producen ondas gravitatorias

Fuente: Ciencia Kanija
 
Artículo publicado el 28 de agosto de 2012 en CfA
Las ondas gravitatorias, al igual que el recientemente descubierto bosón de Higgs, son notablemente difíciles de observar. Los científicos detectaron estas ondas por primera vez en el tejido del espacio-tiempo de manera indirecta, usando señales de radio procedentes de un sistema binario de estrella de neutrones-púlsar. El hallazgo, que requirió de una sincronización exquisitamente precisa de las señales de radio, otorgó a sus descubridores el premio Nobel. Ahora, un equipo de astrónomos ha detectado el mismo efecto en longitudes de onda ópticas en un par de estrellas enanas blancas que se eclipsan entre sí.
“Este resultado marca una de las detecciones más claras y convincentes del efecto de las ondas gravitatorias”, dice el miembro del equipo Warren Brown del Smithsonian Astrophysical Observatory (SAO).
Ondas gravitatorias © by NASA Goddard Photo and Video

El equipo descubrió el par de enanas blancas el año pasado. (Las enanas blancas son el núcleo que queda tras la muerte de estrellas como nuestro Sol). El sistema, conocido como SDSS J065133.338+284423.37 (J0651 para abreviar), contiene dos estrellas enanas blancas muy cerca una de otra – a un tercio de la distancia Tierra-Luna – que completan una órbita en menos de 13 minutos.
“Cada seis minutos las estrellas de J0651 se eclipsan entre sí vistas desde la Tierra, lo que nos ofrece un reloj de una precisión sin parangón a 3000 años luz de distancia”, dice el autor principal del estudio J.J. Hermes, estudiante graduado que trabaja con el Profesor Don Winget en la Universidad de Texas en Austin.
La teoría general de la relatividad de Einstein predice que un objeto en movimiento crea sutiles ondulaciones en el tejido del espacio-tiempo, conocidas como ondas gravitatorias. Las ondas gravitatorias transportarían energía, provocando que las estrellas se acerquen cada vez más y se orbiten con mayor rapidez. El equipo pudo detectar este efecto en J0651.
“En comparación con abril de 2011, cuando descubrimos este objeto, los eclipses aparecen ahora seis segundos antes de lo esperado”, dice el miembro del equipo Mukremin Kilic de la Universidad de Oklahoma.
“Este es un efecto de la relatividad general que podrías medir con un reloj de pulsera”, añade Warren Brown de SAO.
J0651 proporcionará una oportunidad para comparar futuras detecciones espaciales directas de ondas gravitatorias con aquellas que se deducen del decaimiento orbital, ofreciendo un importante banco de pruebas para nuestra comprensión del funcionamiento de la gravedad.
El equipo espera que el periodo se reduzca aún más cada año, con eclipses más de 20 segundos antes de lo esperado para mayo de 2013. Las estrellas finalmente se fusionarán, dentro de dos millones de años. Futuras observaciones continuarán midiendo el decaimiento orbital del sistema, e intentarán comprender cómo afectan las mareas a la fusión de tales estrellas.
Los resultados del equipo se publicarán en la revista The Astrophysical Journal Letters y ya están disponibles en línea.

Fecha Original: 28 de agosto de 2012
Enlace Original

miércoles, 29 de agosto de 2012

Un brillo de rayos gamma que da pistas de la materia oscura

Escrito por Ernesto Avelino Sáez Buitrago en Astronomía, Fí­sica, tags: ,
Artículo publicado por Adrian Cho el 27 de julio de 2012 en Science Now
La próxima década será la década de la materia oscura, según afirman algunos científicos, dado que los esfuerzos para detectar este material extraño demostrarán o descartarán las más prometedoras hipótesis acerca de lo que es. Pero los astrónomos puede que hayan detectado señales de materia oscura en el corazón de nuestra propia galaxia, la Vía Láctea, según afirmaron hoy un par de astrofísicos.
Datos recopilados por el telescopio espacial de rayos gamma Fermi de la NASA revelan un exceso de rayos gamma procedentes del centro galáctico, que podrían estar producidos por la aniquilación de partículas de materia oscura entre sí. Kevork Abazajian y Manoj Kaplinghat de la Universidad de California en Irvine, lo recogen en un artículo publicado en el servidor de preimpresión arXiv. “Definitivamente hay una fuente ahí y encaja con la interpretación de que es materia oscura”, afirmó Abazajian. Pero otros investigadores dicen que el exceso pueden ser artefactos por la forma en la que Abazajian y Kaplinghat modelan el flujo de rayos gamma, o quizás pueda generarse a partir de otras fuentes más mundanas.
Rayos gamma en la Vía Láctea Way © by NASA Goddard Photo and Video

Los astrónomos tienen suficientes pruebas de que la materia oscura provee la mayor parte de la gravedad necesaria para hacer que las estrellas no escapen de las galaxias. y los cosmólogos han demostrado que compone el 85% de toda la materia del universo. Pero los físicos no saben qué es la materia oscura.
La hipótesis más aceptada es que la materia oscura puede estar compuesta de partículas masivas que interactúan muy débilmente, también llamadas WIMPs, predichas por algunas teorías. Las WIMPs serían lo bastante masivas para producir mucha gravedad pero por otra parte interactuarían con la materia ordinaria muy débilmente. Cada galaxia se formaría dentro de una vasta nube de WIMPs.
Los físicos buscan WIMPs de varias formas distintas. Algunos tratan de localizarlas utilizando sensores muy sensibles bajo tierra, otros esperan producirlas en el colisionador de átomos más grande, el Gran Colisionador de Hadrones, en Suiza. Las WIMPs también se aniquilarían entre sí al chocar, produciendo partículas ordinarias como los rayos gamma, por lo que los astrofísicos están peinando los cielos buscando señales de estas aniquilaciones.
Abazajian y Kaplinghat afirman que más de 400 investigadores que trabajan con el observatorio espacial Fermi pueden haber encontrado esta prueba. Los dos teóricos analizaron datos recopilados entre agosto de 2008 y junio de 2012 centrándose en una zona de 7 por 7 grados de cielo alrededor del centro galáctico. Para cada uno de los cuatro rangos de energía cartografiaron las emisiones a lo largo del firmamento. Ajustaron cada uno de los mapas con un “modelo de línea base” que incluía 17 fuentes puntuales de rayos gamma que Fermi ya había encontrado en el área, además de un fondo “difuso” que tiene en cuenta la emisión general del centro galáctico y un fondo espacial uniforme.
Luego combinaron los datos con otro modelo que incluía contribuciones de las aniquilaciones de materia oscura, incluyendo estimaciones teóricas de su distribución y de cómo las aniquilaciones de partículas producen rayos gamma. Encontraron que al añadir las aniquilaciones de materia oscura se mejoraba el ajuste, sugiriendo que hay un exceso de rayos gamma que tienen origen en la materia oscura.
Otros investigadores, incluyendo a Daniel Hooper, del Laboratorio Nacional del Acelerador Fermi en Batavia, Illinois, han realizado afirmaciones similares. De hecho, el mismo Abazajian se había posicionado previamente contra esta interpretación. Pero los nuevos análisis demuestran que la hipótesis de la materia oscura se ajusta a los datos de tres formas clave distintas, según dice el propio Abazajian: tiene la distribución energética adecuada, la distribución espacial adecuada, y la intensidad correcta. “Cuando lo vi me dije, ¡Dios mío!” aseguró. Abazajian, no obstante, advierte que los rayos gamma pueden emanar de una fuente menos exótica como púlsares no detectados previamente.
También podrían explicarse de manera más sencilla, afirma Stefano Profumo, físico teórico de la Universidad de California en Santa Cruz, y miembro del equipo del satélite Fermi. Los análisis de Abazajian y de Hooper dependen críticamente del modelo de fondo galáctico difuso, declaró Profumo. Este modelo se ha derivado para describir un área mucho mayor alrededor del centro galáctico, dijo, y “es completamente ciego a los detalles del centro galáctico”. Por lo que su uso para ajustar los datos puede producir resultados confusos, advirtió. Aun así, Profumo está de acuerdo en que el centro galáctico es el primer lugar al que hay que mirar para buscar pruebas de la materia oscura.

Autor: Adrian Cho
Fecha Original: 27 de julio de 2012
Enlace Original

El Observatorio Pierre Auger pone a prueba nuestro conocimiento de las partículas más allá de los límites del LHC

Fuente: Ciencia Kanija
 
Artículo publicado por Kathryn Jepsen el 27 de agosto de 2012 en Symmetry Breaking
Antes de que los físicos que trabajan con aceleradores puedan declarar el descubrimiento de un bosón de Higgs, o de cualquier otro añadido al zoo de partículas, tienen que demostrar que comprenden las partículas que hacen colisionar.
Los científicos del Observatorio de Rayos Cósmicos Pierre Auger en Argentina pusieron a prueba recientemente la teoría que gobierna el comportamiento de los protones, las partículas que colisionan en el Gran Colisionador de Hadrones. Lo hicieron a energías mucho mayores de lo que pueden alcanzar los aceleradores creados por la humanidad.
Contador de rayos cósmicos © by µµ

Buenas noticias: La teoría se confirma.
En el tema de la comprensión de los protones, “Auger toma el relevo donde lo deja el LHC”, dice la físico del Fermilab Eun-Joo Ahn. Ahn presentó sus resultados, que se publicaron en el ejemplar de este mes de la revista Physical Review Letters, en un seminario el 24 de agosto en el Fermilab.
En el LHC, los científicos dirigen dos haces de protones alrededor de un anillo en una ruta de colisión. Cuando interactúan los dos protones, la energía de la colisión se convierte en masa, generando brevemente partículas que no estaban presentes antes del impacto de los protones. Esas partículas pueden entonces desintegrarse.
Para que los científicos puedan predecir el resultado de estas colisiones, tienen que comprender la cromodinámica cuántica, o QCD, la teoría de las interacciones entre los quarks y los gluones que forman un protón.
“La QCD normaliza los datos que nos dirán si esperamos ver 10 o 10 millones de partículas”, dice el físico del Fermilab Brendan Casey, miembro del experimento Muon g-2. “Si esperamos 10 bosones de Higgs y en su lugar vemos 10 millones de una nueva partícula, sabremos que no es el Higgs”.
Los teóricos han llegado a varios modelos de QCD. La mejor forma de poner a prueba estos modelos es hacer colisionar protones y medir la tasa a la que interactúan entre sí. La tasa de interacción depende de la energía; protones de mayor energía interactúan con más frecuencia.
“Es como si cuanto más rápido se movieran, más se hinchasen, y más probable fuese su interacción”, dice el físico del Fermilab Paul Lebrun de la colaboración Pierre Auger.
Los científicos quieren medir las interacciones protón-protón en distintas energías debido a que, a veces, las partículas hacen cosas inesperadas. Si haces impactar un haz de neutrinos en un objetivo a corta distancia, tendrás un resultado muy diferente que si colocas el objetivo a larga distancia. Esto se debe a que los neutrinos oscilan, o cambian su tipo, cuando viajan.
Si los protones interactuaban de manera distinta a lo esperado en energías altas, podría ser una señal de la supersimetría o de dimensiones adicionales.
En la Tierra, los científicos pueden poner a prueba las tasas de interacción protón-protón hasta a una energía de 7 TeV, la máxima energía lograda hasta el momento en el LHC. Cuando alcance la máxima energía para la que fue diseñado, el LHC elevará ese límite hasta los 14 TeV.
Nada de esto tiene importancia para los protones del espacio. Las rayos cósmicos impactan en la atmósfera de la Tierra a energías que los físicos que trabajan en los aceleradores apenas pueden imaginar. Los científicos pueden extrapolar medidas de interacciones protón-protón de mayor energía a esas colisiones de protón-aire.
El Observatorio Pierre Auger estudió recientemente los rayos cósmicos para realizar la medida más precisa hasta la fecha de las interacciones protón-protón a una energía inaccesible en el LHC, 57 TeV.
Las medidas se ajustan bien a los actuales modelos de QCD.
“No es probable que se realicen jamás medidas a energías mucho mayores”, dice Martin Block, profesor de física y astronomía en la Universidad Northwestern, cuyo artículo predice correctamente las medidas de Pierre Auger que se aceptaron recientemente para su publicación en la revista Physical Review D. “Es en final del camino”.

Autor: Kathryn Jepsen
Fecha Original: 27 de agosto de 2012
Enlace Original

martes, 28 de agosto de 2012

Big Bang y Graficidad

Fuente: Neofronteras

El Big Bang se podría haber dado a través de un proceso de enfriamiento de la estructura del espacio que daría lugar a las tres dimensiones espaciales conocidas con defectos cristalinos cuya existencia podría ser inferida.
Foto
a) Dos dominios se forman de manera independiente, donde se encuentran se da un defecto de borde inestable. b) Después del enfriamiento el defecto de borde se congela en un estado amorfo metaestable.
El monopolio académico de las cuerdas ha relegado injustamente el desarrollo de otras aproximaciones a una teoría cuántica de la gravedad. Sin embargo, según pasan las décadas sin que las cuerdas proporcionen algo parecido a una teoría, pequeños grupos de físicos están empezando a explorar otras ideas. Una de esas nuevas ideas es la de “Graficidad”.
La Graficidad es un modelo independiente del fondo que proporciona un punto de vista alternativo a la noción de espacio. Está basado en conceptos tomados de la Materia Condensada, pero extendido a redes cuánticas dinámicas.
Si la materia ordinaria no se puede dividir indefinidamente debido a la existencia de los átomos, al espacio le podría pasar algo similar. A la escala de Planck podría haber algo así como “átomos de espacio”. Hay varios modelos que exploran esta idea, la Graficidad es uno de ellos.
James Q. Quach y sus colaboradores de la Universidad de Melbourne han explorado las posibilidades de la Graficidad, llegando a interesantes resultados.
Han explorado las estructuras de dominio metaestables y los defectos de borde en la estructura del espacio. Básicamente han estudiado las grietas y defectos equivalentes a los que se forman en los cristales al formarse o en el agua cuando sufre una transformación de fase y pasa de líquida a hielo.
Estos átomos o bloques individuales de espacio son, según la Graficidad, “píxeles” definidos por las aristas de un grafo. Las aristas se crean y destruyen o “saltan” según ciertas reglas formando diferentes grafos. En un proceso de enfriamiento se pueden producir “defectos” en la formación de aristas de tal modo que el grafo no es regular o bien se puede dar una frontera de domino de tal modo que a un lado y a otro se tienen subgrafos con diferente “orientación”.
Obviamente, al tener estos bloques un tamaño del orden de la escala de Planck, no se pueden ver directamente. Sin embargo, estos investigadores han investigado la propagación de bosones (partículas de spin entero) a través de estas estructuras y han encontrado fenómenos de dispersión, doble imagen y lente gravitatoria. Lo interesante de estos resultados es que proporcionan un marco observacional contra el que se podría contrastar experimentalmente la teoría.
Digamos que la existencia de los átomos de espacio podría verse inferida gracias al efecto sobre la luz que tendrían los defectos de la estructura cristalina espacio-temporal que forman. Recordemos que los fotones que componen la luz son también bosones.
Según este modelo y el trabajo de estos físicos, el Big Bang podría haber sido un fenómeno de cambio de fase similar al paso de agua a hielo. De este modo, el Universo primitivo sería como un líquido y según se “enfriaba” se cristalizó en las tres dimensiones espaciales que vemos hoy en día. En ese proceso se tuvieron que formar defectos como los mencionados y similares a las grietas y dominios (regiones con distinta orientación de cristalización) que se forman en el hielo cuando el agua se congela. Esos defectos se habrían mantenido “congelados” hasta la actualidad y podrían inferirse.
Este equipo de investigadores ha calculado el efecto que tendrían estos defectos sobre la luz y otras partículas para así verificar experimentalmente el modelo. Así por ejemplo, han encontrado que habría efectos de lente gravitatoria similares a los habituales predichos por la Relatividad General y observados por los astrónomos, pero en este caso el ángulo de refracción sería invariante respecto a la distancia al eje óptico.
Todavía queda, naturalmente, encontrar este tipo de fenómenos en el Universo real. Si se hallaran entonces estaríamos más cerca de saber la verdadera estructura del espacio.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3900
Fuentes y referencias:
Artículo original.
Copia en ArXiv.

lunes, 27 de agosto de 2012

Top 10 de las herramientas que son mejores en la línea de comandos

Fuente: Kuboosoft

Al escribir comandos en un terminal puede parecer tedioso, pero con las herramientas adecuadas, la línea de comandos puede ser increíblemente poderosa. Aquí están nuestras herramientas favoritas o que hemos usado muchas veces de línea de comandos y que hacen cosas increíbles que simplemente no pueden igualarse en una GUI.


10. Top


Cuando el ordenador se empiezan a congelar, retrasar, o simplemente se porta mal, el comando top le puede ayudar a enderezar las cosas. Con sólo escribir la parte top en una terminal, puede obtener una lista de todos los programas ejecutándose en el sistema, así como la cantidad de recursos del sistema que están tomando.
Entonces, si usted encuentra uno que se ha ido un poco loco, lo puede matar y restaurar el sistema a su estado normal,  asi de rápido. Todo esto toma unos pocos segundos y no es necesario esperar a que todas las ventanas o gráficos de lujo carguen.



9. ifconfig

Si tiene más de un ordenador en su casa, es probable que usted tendrá que excavar en la configuración de la red de vez en cuando. Conociendo su red puede ayudarle a controlar su HTPC, el seguimiento de sus descargas BitTorrent o compartir archivos entre ordenadores. Cuando llegue ese momento, ifconfig será su mejor amigo. Le muestra la dirección IP de su ordenador, la dirección MAC de su tarjeta Ethernet y Wi-Fi, y un montón de cosas más.




8. Chmod y chown

De vez en cuando, te encuentras con un "permiso denegado" error al intentar acceder a un archivo, y puede ser exasperante. Ejecutando chmod podrá editar los permisos de un archivo, lo que le permitirá leer, escribir y / o ejecutar un archivo determinado de acuerdo con sus especificaciones. Esto se puede hacer desde la interfaz gráfica, pero chmod es un poco más potente, especialmente si usted está trabajando con varios archivos.




7. SSH

¿Por qué establecer un sistema de intercambio de pantalla completa cuando todo lo que tienes que hacer es comprobar para lo anterior en una cosa tan simple? SSH se conecta a otro ordenador y le permite utilizar su terminal como si estuviera sentado frente a ella (no se vayan a crer Matrix). Usted puede comprobar los procesos en ejecución, cambiar permisos y acceder a archivos en su máquina remota. Se puede hacer mucho más también.




6. Wget

Sin duda una de las que mas utilizo y del cual el PostInstallerF lo explota ;)
Con cualquier gui, navegador podemos dirigirnos a un sitio web y descargar un archivo con un solo clic, pero si usted desea tener un control serio sobre sus descargas wget es el mejor para el trabajo. Con unas pocas pulsaciones de teclas que puede descargar automáticamente toda la música en un sitio web, reanudar las descargas , o incluso descargar todo los archivos de "Astronomy Picture of the Day" de la NASA (una descarga de 2.4gb aprox ;P ).




5. Vi y Vim

A pesar de todos los instrumentos de escritura de lujo por ahí Vi/Vim sigue siendo una de las formas más útiles para la gestión de información. Se puede hacer una muy versátil lista de tareas, que le ayudaran  ajustar la configuración de su aplicación favorita, o incluso le permite construir un sitio web completo. Y si bien hay una gran cantidad de editores de texto, muchos de los usuarios le van a Vi y Vim por su alto poder. Vi y Vim son editores de texto de línea de comandos que son totalmente basados en teclado, lo que le permite navegar por grandes bloques de texto con sólo pulsar unas teclas. Si usted es serio sobre la edición de texto, estos editores son el camino a seguir, a pesar de su curva de aprendizaje.




4. Grep

No todo el trabajo de la línea de comandos es limpia y simple. A veces, usted estará manejando un comando y obtener una pared gigante de texto a cambio de que es imposible de atravesarla. Por suerte, grep le ayudará a encontrar lo que está buscando. Por sí solo, puede buscar a través de todo el texto dentro de un archivo en el sistema de una frase específica (por ejemplo, grep todo.txt colada). Sin embargo, el poder real grep viene cuando se utiliza junto con otros comandos. ¿No encuentras lo que estás buscando en la salida del comando Top? Usted puede utilizar grep para buscar el programa (vaga la redundancia) que está buscando.






3. Pipes

Pipes no es el nombre de una herramienta específica, sino más bien una clase de herramientas que le ayudan a enviar la salida de un comando a otro comando. Tome el ejemplo del # 4, en donde queríamos encontrar algo específico en la salida de la parte Top. Para ello, deberá ejecutar algo así como 2 top-l | grep firefox. Los símbolos | pipes de la salida de arriba a grep,  busca entonces firefox y  encuentra la información pertinente. También puede canalizar la salida de un comando a un archivo de texto con el símbolo>, como por ejemplo: ifconfig> myip.txt.





2. Find

A diferencia de grep, que busca texto dentro de los archivos, tenemos una herramienta que le ayuda a encontrar archivos en función de criterios-al igual que otros nombres, tipo de archivo, o cuando se editó por última vez.  Es la mejor manera de encontrar rápidamente los archivos en su sistema. Además, si usted quiere buscar algo dentro de un archivo, se puede canalizar la salida de grep en encontrar la manera de resolverla. Para ver cómo se hace, echa un vistazo a este gran tutorial para el comando find.




1. Yum Install, Apt-get y otros gestores de paquetes

Si usted está cansado de abrir un navegador web y visitar un sitio web sólo para descargar un programa, los gestores de paquetes son un regalo del cielo. Package managers como  Fedora "yum install", Ubuntu "apt-get", Arch Linux "pacman" ,  hacen que la instalación sea muy fácil. Con ellos, usted puede buscar en una gran base de datos de aplicaciones, así como descargarlas e instalarlas con sólo pulsar unas teclas. Todo lo que necesitas saber es el nombre de la aplicación que estás buscando. Incluso te permite instalar los requisitos previos necesarios para ese programa similar a Java, para que usted no tenga que hacerlo usted mismo.
¿Qué gestor de paquetes se utiliza generalmente? depende de su distribución Linux. Algo que esta de moda son los programas tuning para facilitar también la instalación de aquellos programas que por su tipo de licencias no puede ser incluidas en los gestores de paquetes de sus distribución, para ello Ubuntu cuenta con muchos programas de ellos, así también Fedora (EasyLife, Fedora Utils, PostInstallerF etc.)

jueves, 23 de agosto de 2012

l futuro puede afectar al pasado?

Fuente: Ciencia Kanija 
 
Artículo publicado por Philip Ball el 3 de agosto de 2012 en physicsworld.com
Lo que haces hoy podría afectar a lo que sucedió ayer – esta es la extravagante conclusión de un experimento mental de física cuántica que se describe en el borrador de un artículo de Yakir Aharonov de la Universidad de Tel-Aviv en Israel y sus colegas.
Parece imposible, de hecho parece violar uno de los principios más valiosos de la ciencia – la causalidad – pero los investigadores dicen que las reglas del mundo cuántico conspiran para preservar la causalidad “ocultando” la influencia de las elecciones futuras hasta que realmente se realizan dichas elecciones.
El Tiempo © by Lanpernas 2.0

En el corazón de la idea está el fenómeno cuántico de la “no localidad”, en el cual hay dos o más partículas en estados interrelacionados o “entrelazados” que permanecen indeterminados hasta que se realiza una medida en una de ellas. Una vez tienen lugar las medidas, el estado de la otra partícula queda también fijado instantáneamente, sin importar lo lejos que esté. Albert Einstein señaló por primera vez esta “acción a distancia” instantánea en 1935, cuando defendió que esto significaba que la teoría cuántica debía ser incompleta. Los experimentos modernos han confirmado que esta acción instantánea es, de hecho, real, y ahora resulta clave para tecnologías prácticas de la cuántica tales como la criptografía y la computación cuántica.
Aharonov y sus colaboradores describen un experimento para un gran grupo de partículas entrelazadas. Defienden que, bajo ciertas condiciones, la elección del experimentador de una medida de los estados de las partículas pueden afectar a los estados de las partículas que estaban en un momento anterior, cuando se realizó una medida muy débil. En efecto, la medida “débil” anterior anticipa la elección realizada en la posterior medida “fuerte”.
4D en lugar de 3D
El trabajo se basa en una forma de pensar sobre el entrelazamiento conocida como “formalismo de vector de dos estados” (TSVF), propuesta por Aharonov hace tres décadas. El TSVF considera las correlaciones entre partículas en un espacio-tiempo 4D en lugar de en un espacio 3D. “En tres dimensiones parece algún tipo de influencia milagrosa entre dos partículas lejanas”, dice el colega de Aharonov, Avshalom Elitzur del Instituto Weizmann de Ciencia en Rehovot, Israel. “En un espacio-tiempo completo, es una interacción continua que se extiende entre eventos pasados y futuros”.
Aharonov y su equipo han descubierto ahora una notable implicación del TSVF que está relacionada con la cuestión de cuál es el estado de una partícula entre dos medidas – una versión cuántica del famoso problema de Einstein sobre cómo podemos estar seguros de si la Luna sigue ahí cuando no la estamos mirando. ¿Cómo saber cosas sobre las partículas sin hacer mediciones sobre ellas?. El TSVF demuestra que es posible lograr una información intermedia – haciendo una medida suficientemente “débil” sobre un grupo de partículas entrelazadas preparadas de la misma forma y calculando la media estadística.
Medidas sutiles
La teoría de la medida débil – propuesta y desarrollada inicialmente por Aharonov y su grupo en 1988 – define que es posible medir “sutilmente” o “débilmente” un sistema cuántico para lograr algo de información sobre una propiedad (por ejemplo, posición) sin perturbar apreciablemente la propiedad complementaria (momento) y, por tanto, la evolución futura del sistema. Aunque la cantidad de información obtenida para cada medida es minúscula, un promedio de múltiples medidas nos da una estimación precisa de las medidas de la propiedad sin perturbar su valor final.
Cada medida débil puede decirte algo sobre la probabilidad de distintos estados (valor de espín arriba o abajo, por ejemplo) – aunque con un gran margen de error – sin colapsar realmente las partículas en estados definidos, como sucedería con una medida fuerte. “Una medida débil cambia el estado medido y te da información sobre el estado localizado resultante”, dice Elitzur. “Pero realiza ambas tareas muy débilmente, y el cambio que genera en el sistema es más débil que la información que te proporciona”.
Como resultado, explica Elitzur, “cada medida débil aislada, por sí misma no te dice casi nada. Las medidas proporcionan un resultado fiable solo después de reunirlas todas. Entonces los errores se cancelan y pueden extraer algo de información sobre el conjunto como un todo”.
En el experimento mental de los investigadores, los resultados de estas medidas débiles están de acuerdo con aquellas de las posteriores medidas fuertes, en las que el experimentador elige libremente qué medida de orientación del espín medir – incluso aunque los estados de las partículas aún estén indeterminados tras las medidas débiles. Lo que esto significa, explica, es que dentro del TSVF “una partícula entre dos medidas posee los dos estados indicados por ambas, la pasada y la futura”.
La naturaleza es exigente
El inconveniente es que, solo añadiendo información adicional procedente de las medidas fuertes, se puede revelar lo que dice la medida débil “realmente”. La información ya estaba allí – pero codificada y solo mostrada en retrospectiva. Por lo que se conserva la causalidad, incluso aunque sea de una forma algo distinta a como la conocemos habitualmente. El porqué de esta censura no está claro, salvo desde una perspectiva metafísica. “Se sabe que la naturaleza es exigente con todo aquello que no parece consistente”, dice Elitzur. “Por lo que no va a manifestar un aprecio por la causalidad hacia el pasado – personas matando a sus abuelos y todo eso”.
Elitzur dice que algunos especialistas en óptica cuántica han expresado interés en llevar a cabo el experimento en laboratorio, lo que cree que no debería ser más difícil que en anteriores estudios sobre entrelazamiento.
Charles Bennett del Centro de Investigación T J Watson de IBM en Yorktown Heights, Nueva York,especialista en teoría de la información cuántica, no está convencido. Ve el TSVF simplemente como una forma de observar los resultados, y cree que los hallazgos pueden interpretarse sin ninguna “causalidad hacia el pasado”, por lo que los autores están creando un hombre de paja. “Para hacer que su hombre de paja parezca más fuerte, usan un lenguaje que oscurece la diferencia clave entre comunicación y correlación”, dice. Añade que es como un experimento de criptografía cuántica en el cual el emisor envía al receptor la clave de descifrado antes de enviar (o incluso decidir si envía) el mensaje, y luego afirma que es una especie de “anticipo” del mensaje.
Sin embargo, Aharonov y sus colegas sospechan que sus hallazgos podrían incluso tener implicaciones para el libre albedrío. “Nuestro grupo sigue dividido en cierto modo sobre estas cuestiones filosóficas”, dice Elitzur. La opinión de Aharonov, dice, “es algo talmúdica: todo lo que vas a hacer ya es conocido por Dios, pero aún tienes la capacidad de elección”.
El borrador del trabajo está disponible en el servidor de arXiv.

Autor: Philip Ball
Fecha Original: 3 de agosto de 2012
Enlace Original

El Big Bang fue en realidad un cambio de fase

Fuente:

Artículo publicado por Natalie Wolchover el 21 de agosto de 2012 en SPACE.com
¿Cómo se inició el universo? Tradicionalmente se ve al Big Bang como el momento en el que un paquete de energía infinitamente denso estalla súbitamente, expandiendo las tres direcciones espaciales y enfriándose gradualmente conforme lo hace.
Ahora, un equipo de físicos dice que el Big Bang debería modelarse como un cambio de fase: el momento en que un universo amorfo análogo al agua líquida enfriada, cristaliza repentinamente para formar un espacio-tiempo de cuatro dimensiones, que sería análogo al hielo.
Big Bang © by { pranav }

En el nuevo estudio, el autor principal James Quach y sus colegas de la Universidad de Melbourne en Australia dicen que la hipótesis puede ponerse a prueba buscando defectos en la estructura del espacio-tiempo cuando se cristalizó el universo. Actualmente, el universo tiene unos 13 700 millones de años.
“Piensa en los inicios del universo como en un líquido”, dice Quach en un comunicado. “Luego, cuando se enfría el universo, ‘cristaliza’ en las tres dimensiones espaciales y una temporal que vemos hoy. Imaginado de esta forma, cuando se enfría el universo, esperaríamos que se formasen grietas, similares a las que se forman en el hielo cuando se congela el agua”.
De existir, estas grietas serían detectables, dicen los investigadores, debido a que la luz y otras partículas se curvarían o reflejarían cuando cubren su camino a través del cosmos.
La idea de que el espacio y el tiempo son propiedades emergentes que se materializan repentinamente a partir de un estado amorfo, se propuso inicialmente por físicos del Instituto Perimeter de Canadá en 2006. Conocida como “quantum graphity”, la teoría mantiene que la geometría de cuatro dimensiones del espacio-tiempo descubierta por Albert Einstein no es fundamental; en su lugar, el espacio-tiempo es más similar a una retícula construida a partir de bloques básicos discretos de espacio-tiempo, de la misma forma que la materia tiene aspecto continuo, pero en realidad está hecha de bloques básicos llamados átomos.
Originalmente, a temperaturas extremadamente altas, los bloques básicos eran como el agua líquida: no tenían estructura, “representando un estado sin espacio”, escriben los investigadores en su artículo. En el momento del Big Bang, cuando la temperatura del universo empezó a bajar hasta el “punto de congelación” de los bloques básicos de espacio-tiempo, cristalizaron en la forma de retícula tetradimensional que vemos hoy.
Las matemáticas que describen la teoría cuadran bien, pero “el desafío ha sido que estos bloques básicos de espacio son muy pequeños, por lo que es imposibles verlos directamente”, explica Quach. Desde el punto de vista humano, el espacio-tiempo parece suave y continuo.
No obstante, aunque los propios bloques básicos podrían ser demasiado pequeños para detectarlos, los físicos esperan observar los límites que se habrían formado cuando las regiones de cristalización de los bloques básicos chocaron entre sí en el momento del Big Bang, creando “grietas” en el universo. Se requiere más trabajo para predecir la distancia media entre grietas – no se sabe si es microscópica o de años luz – para caracterizar sus efectos sobre las partículas.
La investigación de Quach y su equipo se detalla en el ejemplar de este mes de la revista Physical Review D.

Autor: Natalie Wolchover
Fecha Original: 21 de agosto de 2012
Enlace Original

martes, 21 de agosto de 2012

Más pruebas del origen extraterrestre de los cuasicristales

Fuente: Ciencia Kanija
 
Artículo publicado por Colin Stuart el 13 de agosto de 2012 en physicsworld.com
Un equipo internacional de investigadores ha encontrado nueve muestras nuevas de cuasicristales naturales. El trabajo también proporciona pruebas de que los cuasicristales llegaron a la Tierra en un meteorito. El descubrimiento del equipo desafía nuestra comprensión tanto de la cristalografía como de la formación del sistema solar.
Las estructuras de cristal convencional están hecha de átomos, o cúmulos de átomos, que se repiten periódicamente. Estos patrones normalmente se restringen a dos, tres, cuatro o seis simetrías rotacionales – los números corresponden a cuántas veces el cristal tiene el mismos aspecto durante una rotación a lo largo de 360°. Durante mucho tiempo estas reglas se consideraron reglas inflexibles, y no se pensaba que hubiera ningún cristal que rompiese estas condiciones.
Meteorito con cuasicristales

Ordenado, pero no periódico
Sin embargo, el físico israelí Daniel Shechtman encontró un cristal que rompía dicha norma en 1984 y fue galardonado con el premio Nobel de química en 2011 por su trabajo. Shechtman había descubierto un cuasicristal – un cristal que, aunque estaba ordenado, no contenía estructuras que se repetían periódicamente. El cristal de Schectman también tenía una simetría rotacional de 10. Incluso tras su descubrimiento, hubo mucho escepticismo acerca de la existencia de dicho material. Pero conforme pasaron los años, otros físicos empezaron a construir cuasicristales por sí mismos y ahora se han encontrado más de 100 tipos diferentes. Estos, sin embargo, son sistéticos y se han creado bajo condiciones de laboratorio controladas con precisión. Tal como se supuso en un principio que no podían existir los cuasicristales, tras su descubrimiento se supuso que no podían aparecer en la naturaleza.
Esta suposición se puso en duda en 2009, cuando Paul Steinhardt, de la Universidad de Princeton – el hombre que acuñó originalmente el término “cuasicristal” – parecía haber descubierto una variedad natural en una muestra de roca procedente de Rusia. Steinhardt y su colega Luca Bindi, de la Universidad de Florencia en Italia, midieron la proporción de isótopos de oxígeno dentro de la muestra y sus resultados sugerían que la roca pertenece a un tipo de meteoritos conocido como condritas carbonáceas. No solo esta roca contenía cuasicristales naturales, sino que procedía del espacio exterior.
Un emocionante pasado
Pero se mantuvo el escepticismo que había perseguido a los cuasicristales desde su descubrimiento. La muestra de roca se rastreó hasta Valery Kryachko, un ruso que en 1979 había estado bateando en busca de platino en un río que cruzaba las montañas Koryak en el extremo oriental de Siberia. La roca había aparecido de algún modo en la colección del museo de Bindi en Italia. “La gente era escéptica respecto a la historia de la roca dado que el relato de cómo llegó hasta Florencia implica diarios secretos, traficantes y agentes del KGB”, comenta Steinhardt a physicsworld.com.
“La única forma de zanjar el debate era tratar de encontrar más muestras”, explica Steinhardt. Reunió un equipo de 10 científicos, dos conductores y un cocinero que se embarcaron en una expedición de 4 días a lo largo de Siberia hasta el río donde Kryachko había encontrado la muestra original. Una vez allí, batieron 1,5 toneladas de sedimentos del lecho del río, aislando finalmente unos kilos para su análisis.
Tras seis semanas de laborioso análisis grano a grano, dieron con algo especial. “Encontramos un grano con una mota de metal en él. No solo contenía cuasicristales, sino que la proporción de isótopos de oxígeno era exactamente la misma [que en la muestra original]“, dice Steinhardt. “Fue un momento increíble. En el campo nadie apostaba a que tuviésemos más de un 1% de posibilidades de éxito”, añade. El equipo aisló un total de nueve muestras de cuasicristales. Se cree que estas muestras proceden todas del mismo meteorito, y el análisis de las capas de sedimentos sugiere que aterrizó en los últimos 15 000 años.
Formación extrema
Dado que los cuasicristales proceden de un meteorito condrita carbonácea, deben haberse formado en los primeros días del sistema solar. Las condritas carbonáceas se cree que han colisionado entre sí para formar los núcleos de los planetas rocosos, y por tanto, los cuasicristales de Steinhardt son más antiguos que la propia Tierra. Sin embargo, los actuales modelos no pueden explicar la presencia de estos cuasicristales. “Necesitamos un nuevo tipo de proceso geológico que los forme, y por tanto esto desafía nuestras ideas sobre la formación del sistema solar”, comenta Steinhardt.
Las intensas condiciones presentes en el joven sistema solar también desafían la visión predominante de los cuasicristales como objetos que tienen que producirse en configuraciones de laboratorio cuidadosamente controladas. “Los cuasicristales no son los delicados materiales que pensábamos que eran. Los que encontramos deben haberse formado bajo robustas y duras condiciones en los inicios del sistema solar”, apunta Steinhardt.
Otros están de acuerdo en que el mundo de los cuasicristales podría cambiar con este incremento de 10 en el número de ejemplos naturales. “Este resultado enfatiza lo normales que son los cuasicristales y espero que los haga un poco menos extravagantes”, dice Renee Diehl, investigadora de física de superficie en la Universidad Estatal de Pennsylvania, en Estados Unidos, a physicsworld.com. “Nos abre los ojos al hecho de que pueden haber estado a nuestro alrededor y no nos hemos dado cuenta”, explica.
La investigación se publica en la revista Reports on Progress in Physics.

Autor: Colin Stuart
Fecha Original: 13 de agosto de 2012
Enlace Original

Instalar programas en Ubuntu desde el código fuente

Fuente: emsLinux

Instalar programas o aplicaciones nuevas en Ubuntu es una de las tareas mas sencillas que podemos encontrar en la vida, más que todo cuando se usa una herramienta como el Centro de Software de Ubuntu que nos pone todas las aplicaciones disponibles en los repositorios de Ubuntu a un solo clic de distancia.
Otra historia es cuando queremos o nos vemos en la obligación a utilizar el sistema tradicional de instalación de paquetes en Linux que usa las fuentes o código fuente de la aplicación, disponible generalmente en los sitios web oficiales de cada una de estas, ya sea porque no podemos encontrarla en los repositorios oficiales o simplemente porque queremos instalar una versión más reciente o de desarrollo de la aplicación en cuestión.

A continuación aprenderemos en cuatro sencillos pasos cómo instalar programas en Ubuntu directamente desde el código fuente provisto por los desarrolladores de estos programas.

Paso 1 – Preparar el sistema para la construcción de paquetes

Instalar programas en Ubuntu desde el código fuenteUbuntu no trae de forma predeterminada los paquetes necesarios para la compilación o contrucción de paquetes, por lo que es necesario instalar los paquetes build-essential y checkinstall para poder comenzar a instalar programas desde el código fuente de forma exitosa.
Estos paquetes podemos encontrarlos en el CD de instalación de Ubuntu o bien podemos hacer uso de la aplicación apt-get para instalarlos directamente desde los repositorios oficiales por medio del siguiente comando:
sudo apt-get install build-essential checkinstall
Probablemente necesites descargar archivos fuentes de proyectos que no cuentan con una versión de lanzamiento oficial directamente desde los servidores que los almacenan, en ese caso las siguientes herramientas te serán útiles:
sudo apt-get install cvs subversion git-core mercurial
Por motivos de organización, es recomendable tener un directorio especifico donde construir todos los paquetes a instalar, sin embargo, puedes utilizar cualquier directorio disponible en tu disco duro.
En caso de querer tener un directorio particular para estos menesteres, Ubuntu recomienda utilizar el directorio /usr/local/src y puedes dejarlo listo mediante la ejecución de los siguientes comandos:
sudo chown $USER /usr/local/src
sudo chmod u+rwx /usr/local/src
Recuerda reemplazar la palabra $USER con tu nombre de usuario.
Ya estamos listos entonces para comenzar a descargar los paquetes necesarios e instalar programas en Ubuntu desde el código fuente.

Paso 2 – Conseguir el software que quieres

Instalar programas en Ubuntu desde el código fuenteNormalmente el software descargado en forma de código fuente viene en paquetes llamados tarballs, los cuales no son más que los archivos de la aplicación archivos comprimidos en formatos .tar.gz o .tar.bz2.
Si has descargado un archivo de este tipo, primero muévelo al directorio que hemos creado en el paso anterior y desempaquetalo haciendo clic derecho sobre el archivo y eligiendo la opción “Extraer aquí” o bien ejecutando alguno de los siguientes comandos.
Para archivos .gz
tar -xzvf nombredeltarball.tar.gz
Para archivos .bz2
tar -xjvf nombredeltarball.tar.bz2
Al desempaquetar los archivos descargados, generalmente se creará un nuevo directorio con el nombre y la versión de la aplicación que deseamos instalar, podemos entonces ubicarnos en este directorio para comenzar con el proceso de construcción del paquete.
Normalmente los desarrolladores incluyen una lista de procedimientos a realizar para instalar programas desde el código fuente de forma exitosa contenidos en el archivo README, así que es altamente recomendable que leas este archivo antes de comenzar con la construcción, pues los procedimientos pueden variar con cada aplicación.

Paso 3 – Resolviendo las dependencias

Instalar programas en Ubuntu desde el código fuenteUn problema común cuando de instalar programas desde el código fuente se trata es que no contamos con todas las dependencias necesarias para construir los paquetes de la aplicación que queremos instalar, podemos darnos cuenta de esto al momento de ejecutar el comando ./configure dentro del directorio de la aplicación o programa que hemos descargado.
Para hacernos la vida un poco más sencilla al momento de instalar programas desde el código fuente en Ubuntu contamos con una aplicación llamada apt-file, aplicación que nos permite conocer cuales son los paquetes que contienen los archivos o dependencias necesarias para construir correctamente el paquete e instalar programas desde el código fuente sin inconvenientes.
Para usar apt-file primero debemos instalarlo y actualizar su base de datos mediante la ejecución del siguiente comando:
sudo apt-get install apt-file && sudo apt-file update
Ten en cuenta que la actualización de la base de datos no devuelve ningún tipo de texto en la terminal, así que no vallas a cancelar el proceso pensando que esta bloqueado o que no funcionó.
Si ya tenemos apt-file instalado, vamos a continuar con el proceso de construcción mediante la ejecución del siguiente comando estando ubicados dentro del directorio principal de la aplicación descargada:
./configure
Este comando ejecutará la verificación del sistema para garantizar la correcta instalación de la aplicación en cuestión y nos informará si existe algún archivo o dependencia no cumplida para la correcta construcción del paquete.
En caso de que esto ocurra, haremos uso de la aplicación apt-file de la siguiente manera para encontrar el paquete que nos hace falta para la correcta construcción de la aplicación:
apt-file search nombredelpaquete.extensión
Este comando nos permitirá conocer cual es el paquete que necesitamos para luego instalarlo por medio de apt-get antes de poder comenzar a instalar programas desde el código fuente.
sudo apt-get install paqueterequerido
Después de instalar la dependencia, corremos de nuevo el comando ./configure para verificar de nuevo que todo este bien.
Es importante entender que el comando ./configure configurará la aplicación con los valores predeterminados que esta trae, sin embargo, la mayoría de aplicaciones ofrecen a sus usuarios la posibilidad de configurar aspectos importantes de la misma a través de este comando. Para conocer más acerca de las opciones de configuración que ofrece la aplicación, lee cuidadosamente el archivo README o INSTALL que se encuentra en el directorio principal de la aplicación descargada.

Paso 4 – Construir e instalar programas en Ubuntu desde el código fuente

En este punto ya hemos pasado por lo más difícil, ahora solo queda ejecutar un par de comandos y esperar un buen rato dependiendo de la aplicación y tu computadora para instalar programas en Ubuntu desde el código fuente de forma exitosa.
El primero de estos comando es make, el cual comenzar con la compilación del código fuente descargado en tu computadora, así que lo único que tienes que ejecutar en la terminal estando ubicado en el directorio principal de la aplicación es el siguiente comando:
make
Después de un buena rato de espera dependiendo del tamaño de la aplicación o la velocidad de tu computadora, podemos continuar con el siguiente comando, el cual nos permitirá finalmente instalar programas en Ubuntu después de haberlos compilado o construido correctamente:
sudo checkinstall
La forma tradicional de instalar programas ya compilados en Linux es haciendo uso del comando make install, sin embargo, el comando checkinstall pone la aplicación en el administrador de paquetes, haciendo su manejo y posterior desinstalación mucho más sencilla.
En caso de que tengas problemas de instalación usando checkinstall, ejecuta el siguiente comando en la terminal el cual debería permitir la correcta instalación de los paquetes compilados:
sudo checkinstall --fstrans=0
Eso es todo, si los pasos descritos anteriormente han finalizado sin problema alguno, ya puedes ejecutar la aplicación en Ubuntu y comenzar a utilizarla.
Esta es una adaptación libre del excelente manual de instalación de paquetes desde el código fuente provisto por el equipo de Ubuntu en su sitio web.

lunes, 20 de agosto de 2012

Experimentos revelan nuevas técnicas para estudiar el plasma de quarks-gluones


Artículo publicado por Kathryn Jepsen el 15 de agosto de 2012 en Symmetry Breaking
Un detallado examen de las moléculas de H2O a temperatura ambiente te dirá mucho sobre la estructura del agua. Pero tienes que cambiar las condiciones para lograr una mejor perspectiva de cómo se convierte en vapor o hielo.
En el último año, los científicos de dos grandes aceleradores de partículas han estado realizando este tipo de ajustes, estudiando la materia en un amplio rango de energías. Salvo que ellos no cambian la temperatura del agua; están trabajando con un estado de la materia 100 000 veces más caliente que el interior del Sol – el plasma de quarks-gluones (QGP).
Plasma de quarks-gluones
Plasma de quarks-gluones

“Estamos entrando rápidamente en una era de investigación detallada”, dice el físico teórico del CERN Urs Wiedemann. “Por el momento, la naturaleza nos ha dado las herramientas adecuadas para estudiar las propiedades del QGP”.
El plasma de quarks-gluones es un estado de la materia en el que los quarks, que normalmente aparecen en parejas o tríos, flotan libremente en una sopa caliente cósmica. Los teóricos creen que el universo estaba en este estado unos microsegundos tras el Big Bang, justo antes de enfriarse y pasar al estado normal de materia que vemos actualmente.
Comprender las propiedades del QGP no explica por completo cómo se formó el universo de la forma en que lo hizo, dice Wiedemann.
“Es como preguntarse cómo afectó la alimentación de un niño a la edad de 10 años a su altura a los 18”, comenta. “Está claro que su nutrición afectó a la altura, pero es solo uno entre mucho factores”.
Aun así, dice, merece la pena estudiarlo. De las múltiples transiciones de fase que los teóricos creen que sufrió el universo tras el Big Bang, solo la de QGP a materia normal está actualmente accesible a los experimentos creados por la humanidad.
El Colisionador de Iones Pesados Relativistas, o RHIC, en el Laboratorio Nacional Brookhaven y el Gran Colisionador de Hadrones, o LHC, en el CERN se complementan bien en el estudio del plasma de quarks-gluones. El RHIC puede crear el QGP en colisiones en un amplio rango de energías, aunque dura apenas unos momentos antes de enfriarse y volver a seer materia común. El LHC puede crear plasma de quarks-gluones a altas energías, que duran más antes de volver a estado normal.
Los experimentos STAR y PHENIX en el RHIC y ALICE, CMS y ATLAS en el LHC presentaron resultados preliminares de sus últimos estudios del QGP esta semana en la conferencia Quark Matter en Washington D.C.
El LHC ha pasado un mes cada uno de los dos últimos años colisionando iones pesados de plomo para estudiar el QGP a alta energía. Este año el RHIC diversificó, colisionando iones de uranio entre sí, e iones de oro con otros de cobre, entre otras combinaciones. Hicieron esto a energías que van desde los 7,7 a los 200 GeV.
“Lo realmente genial y nuevo es que tenemos una gran cantidad de pulsadores que ahora sabemos cómo controlar”, dice la portavoz de PHENIX Barbara Jacak. “Esto es lo que me apasiona de este campo ahora mismo”.
Además, los científicos del RHIC presentaron nuevos datos procedentes de experimentos de control en los que no se creó plasma de quarks-gluones.
Los experimentos del RHIC han empezado a estudiar un posible límite entre la materia normal y el QGP, que podría tener lugar por debajo de los 39 GeV.
Ellos y los experimentos en el LHC también han realizado avances significativos en el estudio de los quarks encantados (charm), las partículas pesadas afectadas por el QGP. Del mismo modo que observar la fusión de un cubito de hielo pueden decirte algo sobre la temperatura del aire a su alrededor, observar la separación de un quark encantado y su antipartícula puede decirte algo sobre las características del QGP a su alrededor.
“Hemos recorrido un largo camino para comprender cómo funciona todo esto”, dice el físico de ALICE Peter Jacobs del Laboratorio Nacional Lawrence de Berkeley.
El experimento ALICE se benefició este año de tener acabada una pieza significativa de su detector, el calorímetro electromagnético, que permitió a los científicos de ALICE hacer un estudio mucho más detallado de los chorros de partículas que son eliminados al intentar moverse a través del plasma de quarks-gluones.
Los resultados de la conferencia de este año puede que solo sean preliminares, pero los científicos se ven animados por el progreso que han realizado en múltiples frentes en su camino hacia la comprensión del nacimiento del universo.

Autor: Kathryn Jepsen
Fecha Original: 15 de agosto de 2012
Enlace Original

viernes, 17 de agosto de 2012

Desarrollado el primer máser de temperatura ambiente

Artículo publicado por Tim Wogan el 15 de agosto de 2012 en physicsworld.com
Investigadores británicos han logrado por primera vez construir un prototipo de máser de estado sólido que funciona a temperatura ambiente, sin necesidad de aplicar un campo magnético permanente. Los máseres, que hacen con las microondas lo mismo que hacen los láseres con la luz visible, no se han usado ampliamente debido a su complejas condiciones de uso – algunos requieren refrigeración criogénica o cámaras de vacío y, a veces, potentes campos magnéticos. Los investigadores afirman que su dispositivo podría tener una variedad de usos en el futuro – desde la detección de explosivos a detectar los estados de los átomos usados en computación cuántica.
Núcleo del máser
Núcleo del máser Crédito: NPL

Condiciones extremas
Hay dos tipos básicos de máseres. Los máseres atómico y molecular fueron los primeros tipos en inventarse allá por el año 1958. Requerían voluminosas cámaras de vacío y solo podían emitir potencias muy bajas. El segundo tipo, y el más útil – los máseres de estado sólido – aprovechan las transiciones entre estados de espín de iones paramagnéticos en un cristal sólido. Son mucho más potentes y pueden producir los detectores de tenues señales de microondas más sensibles y de menor ruido jamás construidos. Por desgracia, para mantener la inversión de población necesaria en un máser convencional de estado sólido, se requiere una refrigeración con helio líquido, que normalmente viene acompañada por un potente campo magnético de corriente directa.
La necesidad de estas condiciones extremas nos ha llevado a que, aunque la NASA ha estado interesada en invertir en el mantenimiento de máseres de estado sólido para recibir las débiles señales transmitidas por las sondas espaciales Voyager, se han descartado aplicaciones más cotidianas. “Por ejemplo, podría usarse un máser para mejorar la precisión de un esćaner corporal de un aeropuerto”, dice el autor principal Mark Oxborrow del Laboratorio Nacional de Física en Teddington, Reino Unido, “pero esto aumentaría considerablemente el coste del dispositivo. Por tanto, creo que hay muchas aplicaciones que simplemente se han vuelto irrealizables debido a los requerimientos de criogenia”.
Nuevo mecanismo de funcionamiento
Oxborrow y sus colegas del Imperial College de Londres crearon su máser colocando un polímero blando – p-terfenilo dopado con pentaceno – en lugar del habitual rubí cristalino como medio de ganancia. Además, en lugar de bombearlo con una fuente de microondas, como es lo habitual en un máser de estado sólido, usaron un láser médico de 585 nm diseñado para el tratamiento de lesiones vasculares. Estos cambios les permitieron utilizar un fenómeno conocido como “cruce intersistémico selectivo de espín”, que nunca se había usado en un máser, y que aún no se comprende por completo, para mantener la inversión de población en ausencia de temperaturas criogénicas o un potente y permanente campo magnético. “No es solo que hayamos tomado la tecnología tradicional y hayamos mejorado cosas en distintos sentidos para lograr que funcione a temperatura ambiente”, explica Oxborrow. “El mecanismo de funcionamiento de nuestro máser de temperatura ambiente es completamente distinto de los máseres convencionales de estado sólido”.
Impresionante pero, ¿potencialmente problemático?
Aharon Blank, químico del Instituto Technion-Israel de Tecnología en Haifa, Israel, que fue parte de un proyecto anterior que no tuvo éxito hace 10 años para desarrollar un máser de estado sólido de temperatura ambiente, está impresionado por la investigación. Sin embargo, señala distintos aspectos del diseño que podrían ser potencialmente problemáticos. Primero, aunque el dispositivo puede funcionar en un campo magnético nulo, se necesita un campo magnético para ajustar el campo magnético en el que funciona. Aunque inconveniente,no cree que esto sea un problema definitivo para un dispositivo comercial basado en esta tecnología. “Hay muchos dispositivos comerciales actualmente que usan un campo magnético estático para variar la frecuencia”, dice, “por lo que no es un gran problema”.
Sin embargo, hay otro que sí lo es. Actualmente, como en los primeros láseres, el dispositivo solo es capaz de funcionar en pulsos, no en modo continuo. Los máseres se usan principalmente para detectar y amplificar radiación incidente de microondas muy débil, y el uso de un detector que no puede mantenerse en funcionamiento continuamente es limitado. Por otra parte, Oxborrow sugiere que podría usarse para escuchar ecos de radar, por ejemplo. El equipo está actualmente experimentando con su dispositivo para ver si puede funcionar o no en modo continuo, y de ser así, cómo puede lograrse.
La investigación se publica en la revista Nature.

Autor: Tim Wogan
Fecha Original: 15 de agosto de 2012
Enlace Original

Identificado el cúmulo de galaxias más masivo y luminoso

Fuente: Ciencia Kanija
 Artículo publicado por Jennifer Chu el 15 de agosto de 2012 en MIT
Su detección puede confirmar una antigua teoría.
A pesar de lo enorme que puede parecer la Vía Láctea, nuestra gran galaxia no es más que una mota de polvo en comparación con las mayores estructuras del universo: los cúmulos de galaxias – grupos de cientos de miles de galaxias ligadas por la gravedad. En el corazón de la mayoría de cúmulos galácticos se encuentran galaxias viejas masivas, dentro de las cuales apenas naces unas pocas estrellas cada año.
Ahora, un equipo formado por personal de múltiples instituciones y liderado por investigadores del MIT, ha identificado un cúmulo de galaxias a 7000 millones de años luz de distancia que empequeñece a la mayor parte de cúmulos conocidos, creando el asombroso número de 740 nuevas estrellas por año en la galaxia central. El cúmulo galáctico está entre los más masivos y luminosos del universo. Aunque los científicos han catalogado formalmente el cúmulo por el nombre SPT-CLJ2344-4243, el grupo encabezado por el MIT le ha dado un apodo más informal: el cúmulo Fénix, que toma su nombre de la constelación en la que reside.
Cúmulo Fénix
Impresión artística del cúmulo Fénix. Crédito: NASA/CXC/M. Weiss

Michael McDonald, Becario Hubble en el Instituto Kavli para Astrofísica e Investigación Espacial del MIT, dice que, aparte de su masa y brillo, el cúmulo Fénix tiene otra cualidad excepcional: mientras que los núcleos de la mayor parte de galaxias parecen rojos, lo que indica que sus estrellas son muy antiguas, la galaxia en el núcleo del cúmulo Fénix es de un azul brillante — un indicador de que el gas que la rodea se enfría rápidamente, generando las condiciones ideales para un nacimiento estelar masivo.
“Las galaxias centrales normalmente se conocen como ‘rojas y muertas’ – simplemente un puñado de viejas estrellas orbitando un agujero negro masivo, y no sucede nada nuevo”, dice McDonald. “Pero la galaxia central de este cúmulo ha logrado, de algún modo, volver a la vida, y está generando un prodigioso número de nuevas estrellas”.
McDonald y sus colegas publican sus hallazgos en el ejemplar de esta semana de Nature.
Buscando un núcleo frío
El nuevo cúmulo galáctico puede arrojar luz sobre un problema astrofísico que dura ya décadas, conocido como el “problema del flujo de enfriamiento”. El gas en el núcleo de un cúmulo, expulsado desde las galaxias cercanas y las explosiones de supernova, debería enfriarse con el tiempo de forma natural, formando un flujo lo bastante frío como para condensarse y formar nuevas estrellas. Sin embargo, los científicos no han podido identificar ningún cúmulo de galaxias que, de hecho, se enfríe a la velocidad predicha.
Una explicación, señala McDonald, puede ser que el enfriamiento natural del cúmulo se interrumpa de alguna manera. Cita como ejemplo al cúmulo de Perseo: el agujero negro en el centro de este cúmulo emite chorros de partículas que pueden recalentar el núcleo, evitando que se enfríe por completo.
“Lo interesante del cúmulo Fénix es que vemos casi todo el enfriamiento que se predijo”, comenta McDonald. “Podría ser que esté en una etapa anterior de la evolución, donde nada lo detenga, por tanto se enfría e inicia la creación de estrellas… de hecho, hay pocos objetos en el universo que formen estrellas más rápidamente que esta galaxia”.
Lograr una visión completa
El cúmulo Fénix se detectó por primera vez en 2010 por investigadores que usaban el South Pole Telescope, un telescopio de 10 metros de diámetro situado en la Antártida que estudia enormes zonas de cielo buscando nuevos cúmulos galácticos. McDonald y sus colegas usaron recientemente el Observatorio Espacial de Rayos X Chandra para estudiar los cúmulos más masivos identificados por el South Pole Telescope. El cúmulo Fénix apareció inmediatamente en los datos de rayos X como el cúmulo más brillante — un hallazgo que llevó a McDonald a realizar un seguimiento del cúmulo con más observaciones usando más telescopios.
El equipo finalmente consiguió imágenes del cúmulo Fénix de 10 telescopios distintos tanto espaciales como por todo el mundo. Cada telescopio observó el cúmulo en distintas longitudes de onda, iluminando distintas características del mismo.
“El agujero negro central es muy brillante en rayos X, pero la formación estelar lo es en el rango óptico y ultravioleta”, dice McDonald. “Por lo que tienes que trabajar en conjunto con todos estos telescopios distintos para lograr una visión completa”.
El equipo combinó datos de los 10 telescopios para determinar la masa y luminosidad del cúmulo de galaxias. Para calcular la masa, el grupo midió inicialmente la temperatura del cúmulo, que se estimó observando la longitud de onda máxima del cúmulo. McDonald explica que la longitud de onda máxima de un objeto revela información sobre su temperatura – por tanto, los investigadores identificaron el pico de longitud de onda del cúmulo Fénix en el espectro de rayos X y luego calcularon su temperatura.
A partir de la temperatura del cúmulo, el grupo calculó su masa: cuanto más caliente está una bola de gas, mayor es su masa global. Los investigadores hallaron que el cúmulo Fénix está fácilmente entre los cúmulos más masivos del universo.
Luego el grupo pasó a buscar señales de formación estelar; las nuevas estrellas son particularmente brillantes en el ultravioleta, y los investigadores encontraron que las imágenes ultravioletas tomadas del cúmulo revelaban cientos de estrellas jóvenes en el núcleo. La extrema luminosidad del cúmulo también indicaba que se enfriaba muy rápidamente, proporcionando muy probablemente el combustible para la formación estelar.
Brian McNamara, profesor de astrofísica en la Universidad de Waterloo, dice que el gran nacimiento estelar identificado por el grupo puede ilustrar cómo se pudieron haber formado las galaxias primigenias más masivas. Añade que el excepcional comportamiento del cúmulo Fénix puede ser el resultado de un problema en el mecanismo de su núcleo.
“Muestra enfriamiento y formación estelar durante una fase en la que el agujero negro supermasivo que merodeaba por el núcleo de la galaxia parece haber estado distraído”, comenta McNamara. “Pero una vez que el agujero negro se ponga en marcha y empiece a apartar la atmósfera caliente, talvez en unos 100 millones de años, debería detener el enfriamiento y reducir la tasa de formación estelar en un proceso de retroalimentación que está activo en la mayor parte de cúmulos de galaxias”.
McDonald espera acceder al Hubble Space Telescope para seguir estudiando este cúmulo galáctico masivo. “Verías estos fantásticos filamentos azules allí donde se forman las estrellas a partir de flujos de enfriamiento”, apunta McDonald. “Debería ser una visión bastante notable, en lugar de las imágenes tomadas desde tierra que muestran una mancha de luz azul”.
Sobre el aparentemente anómalo enfriamiento del cúmulo, McDonald supone que tal vez el fenómeno no es tan excepcional como parece.
“Podría ser un problema de sincronismo, donde el 1 por ciento del tiempo tienes esta vigorosa formación estelar y enfriamiento desbocado”, dice McDonald. “Podría ser que todos los cúmulos que vemos pase por esta fase, pero dura tan poco tiempo que es el único que hemos encontrado. Estuvimos en el lugar correcto en el momento adecuado”.

Autor: Jennifer Chu
Fecha Original: 15 de agosto de 2012
Enlace Original

lunes, 13 de agosto de 2012

Hacia una memoria espintrónica unidimensional con un nanohilo de cobalto sobre un substrato de cobre


 
Almacenar información binaria en un solo átomo es uno de los objetivos de la espintrónica, el problema es cómo acceder a dicho átomo para leer y cambiar cada bit. Una cadena unidimensional de átomos, un nanohilo, podría ser una solución, pero hasta ahora ninguna propuesta es robusta a la presencia de impurezas e inestabilidades de carga lo que impide su uso práctico. Nader Zaki (Universidad de Columbia) y sus colegas han descubierto que en un nanohilo de átomos de cobalto sobre un substrato de cobre, a muy baja temperatura, los átomos de cobalto son acoplan en parejas, formando una cadena de dímeros robusta ante impurezas y capaz de sobrevivir a las inestabilidades de carga. Más aún, para sorpresa de los propios investigadores, la razón por la que se forman estos dímeros es la inestabilidad de carga o CDW (charge-density-wave) que induce una transición de fase en el nanohilo a un estado ferromagnético, lo que han demostrado comparando simulaciones por ordenador y datos experimentales obtenidos mediante un microscopio de efecto túnel de baja temperatura (LT-STM). La longitud del enlace que une dos átomos de cobalto en un dímero es de 2,0 ± 0,1 Å, un valor menor que la distancia entre cada dos átomos de cobre en el substrato, de 2,56 Å, y que la distancia entre dos átomos de cobalto en configuración triangular sobre el mismo substrato, de 2,50 Å. Los dímeros de cobalto son magnéticamente independientes entre sí, aunque no están electrónicamente aislados, por lo que los autores creen que sus nanohilos de cobalto “dimerizados” podrían permitir el desarrollo de memorias binarias unidimensionales en las que el espín de cada dímero almacenaría un bit y su estado se podría controlar aplicando corrientes eléctricas apropiadas; por supuesto, el desarrollo de estas memorias espintrónicas a baja temperatura requerirá avances futuros. El artículo técnico es Nader Zaki (Columbia University) et al., ”Spin-exchange-induced dimerization of an atomic 1-D system,” arXiv:1208.0612, Subm. 2 Aug 2012.
Esta imagen del microscopio de efecto túnel (LT-STM) muestra la interacción de una impureza (una molécula de CO) con la cadena dimerizada de cobalto. Se observa claramente la inactividad de la cadena y la gran robustez de estos nanohilos ante la presencia de la impurezas. La “dimerización” de la cadena ha sido observada a 5 K pero se mantiene hasta temperaturas tan altas como 81 ± 4 K; los autores creen que hay una temperatura crítica alrededor de 91 K a partir de la cual se destruye el efecto y se instabiliza el nanohilo, como muestran las imágenes de abajo obtenidas mediante una técnica de substracción del substrato. La física de esta transición de fase todavía no se entiende en detalle y será objeto de futuros estudios específicos.