viernes, 26 de abril de 2013

Un experimento del CERN observa nuevas diferencias entre materia y antimateria

 Fuente: Astrofísica y física
Instalaciones del detector LHCb. / CERN
Investigadores del experimento LHCb del Laboratorio Europeo de Física de Partículas han detectado la cuarta partícula que al desintegrarse ofrece pistas de por qué la materia domina sobre la antimateria. Se trata de B0s, según un estudio presentado hoy a la revista Physical Review Letters.

La colaboración científica LHCb del CERN ha presentado hoy un estudio en Physical Review Letters sobre la primera observación de la asimetría materia-antimateria en las desintegraciones de una partícula conocida como B0s. Es la cuarta partícula subatómica que muestra este comportamiento, tras detectarse el mismo fenómeno en los kaones, el mesón B0 y el meson B+.

El descubrimiento está relacionado con una ‘preferencia’ de la materia sobre la antimateria conocida como violación de la simetría CP, que podría explicar por qué existe más materia que antimateria en nuestro universo aunque en sus comienzos fuera la misma.

La simetría CP es la suma de la simetría C, que indica que las leyes de la física permanecerían invariables aunque se intercambiasen las partículas de carga positiva con las negativas, y la simetría P, que plantea que tampoco habría cambios si el universo fuera su imagen especular.

Ahora el experimento LHCb ha observado esta violación CP en la desintegración de las partículas B0s neutras. Los resultados se basan en el análisis de los datos recogidos por el experimento en 2011.


"El descubrimiento del comportamiento asimétrico en la partícula B0s viene con un nivel de confianza de 5 sigma, un resultado que sólo fue posible gracias a la gran cantidad de datos proporcionados por el LHC y las capacidades de identificación de partículas del detector LHCb", dice Pierluigi Campana, portavoz de esta colaboración. "Otros experimentos no han podido acumular un número suficientemente grande de desintegraciones de esta partícula".

La violación de la simetría CP fue observado por primera vez en el Laboratorio Brookhaven en los EE.UU. en la década de 1960 en partículas neutras llamadas kaones. Unos 40 años más tarde, los experimentos en Japón y los EE.UU. encontraron comportamiento similar en el mesón B0 .

Más recientemente, los experimentos en las llamadas fábricas B y el experimento LHCb del CERN han descubierto que el mesón B+ también muestra este comportamiento.

Todos estos fenómenos de violación CP puede explicarse en el modelo estándar, aunque existen algunas discrepancias de interés que exigen estudios más detallados. "También sabemos que los efectos totales inducidos por la violación CP del modelo estándar son demasiado pequeños para explicar el universo dominado por la materia", señala Pierluigi Campana.

"Sin embargo, mediante el estudio de estos efectos violación CP estamos buscando las piezas que faltan del puzzle, las cuales proporcionan las pruebas más exigentes de la teoría y representan una buena sonda para revelar la física que hay más allá del modelo estándar".


Enlace original: SINC.

Entrelazan dos cubits de estado sólido en una distancia de tres metros

Fuente: Francis (Th)E mule
Dibujo20130424 Experimental set-up and protocol for generating long-distance entanglement between two solid-state spin qubits
Entrelazar cubits de estado sólido en distancias grandes es difícil pues se requiere un protocolo con un mediador que recorra dicha distancia. H. Bernien (Universidad Técnica de Delft, Holanda) y sus colegas han logrado entrelazar dos cubits codificados en el espín de electrones en dos celdas de diamante utilizando fotones como mediadores. La gran ventaja de la implementación de cubits en estado sólido es la posibilidad de utilizar técnicas de nanotecnología (nanofabricación), lo que facilita la escalabilidad del diseño. Este logro allana el camino hacia el uso de cubits de estado sólido en la futura red de internet cuántica, routers cuánticos y protocolos de teletransporte cuántico. El artículo técnico es H. Bernien et al., “Heralded entanglement between solid-state qubits separated by three metres,” Nature, AOP 24 April 2013.

Un cubit se puede almacenar en el espín electrónico de un átomo de nitrógeno que actúe como defecto en una red cristalina de carbono (diamante). El espín electrónico permite representar los dos estados del cubit como  |↑> y |↓> en los estados S=0 y S=1, resp., que pueden ser controlados de forma individual con pulsos de microondas. El uso de fotones como mediadores en el protocolo tiene el problema de que la eficiencia no es perfecta, hay pérdida de fotones y los detectores pueden fallar. Para reducir estos efectos Bernien y sus colegas han utilizado un sistema redundante de doble vuelta, utilizando dos fotones como mediadores que van y vienen entre los dos cubits en sendas rondas. El resultado es un protocolo robusto contra la pérdida de fotones.
Por cierto, un título más chic para esta entrada sería “La internet cuántica del futuro gracias a los chips de diamante,” en la línea de Richard Van Noorden, “Diamond shows promise for a quantum Internet. Crystal could be used to connect distant quantum networks,” Nature News, 24 Apr 2013, pero me ha parecido demasiado chic. Quizás los futuros ordenadores cuánticos utilicen cubits de estado sólido en cristales de diamante, es decir, sean “chips cuánticos de diamante,” pero, la verdad, me parece un poco sensacionalista decirlo.

Ya lo conté en “Un diamante, el mejor amigo de una mujer, especialmente si es ingeniera en ordenadores cuánticos.” Los cubits de diamante son muy prometedores desde que el año pasado se demostró que podían superar la decoherencia durante decenas de milisegundos y que podían permitir el desarrollo de memorias cuánticas capaces de retener un cubit durante un segundo (“Gran avance en memorias cuánticas para almacenar cubits con el espín nuclear“). Pero, por supuesto, como siempre, sólo el tiempo dirá cuál es la tecnología ganadora que nos llevará hacia la internet cuántica del futuro y hacia los ordenadores cuánticas (ambas tecnologías no tienen por qué ser la misma).

miércoles, 24 de abril de 2013

Nuevos transistores transparentes de grafeno y nanotubos de carbono con dieléctrico arrugado

Dibujo20130422 Photographs of stretchable TFT arrays transferred onto various substrates
Fabricar transistores en películas transparentes que se puedan estirar y pegar sobre cualquier superficie no es nada fácil. En los transistores de efecto de campo (FET) el mayor problema es el dieléctrico, poco robusto ante deformaciones y estiramientos. Se ha publicado en Nature Materials una nueva propuesta de transistor de grafeno y nanotubos de carbono que soluciona el problema del dieléctrico usando una capa de Al2O3 arrugada que atrapa aire, capaz de resistir estiramientos de hasta el 20% sin degradación apreciable de sus propiedades. Gracias a ello se puede pegar a superficies arrugadas como un tubo de pasta de dientes. El artículo técnico es Sang Hoon Chae et al., “Transferred wrinkled Al2O3 for highly stretchable and transparent graphene–carbon nanotube transistors,” Nature Materials 12: 403–409, 2013.

Dibujo20130422 stretchable FET graphene al2O3 SWCNT
El mayor desafío a la hora de fabricar el nuevo tipo de transistor ha sido cómo depositar una capa de 50 nm de espesor de Al2O3 sobre un sustrato de grafeno logrando que quede arrugada; para ello se utiliza un soporte rugoso de cobre que luego tiene que ser eliminado. Las arrugas con una amplitud de unos 50 nm retienen en su interior aire que ayuda a funcionamiento del dispositivo, reduciendo en un orden de magnitud las corrientes de fuga en el electrodo de puerta (gate) del transistor.
Dibujo20130422 Schematic illustration and the finite element method simulation of the inhomogeneous field distribution between SWCNT channel and graphene gate electrode
Lo más delicado del dispositivo es que su funcionamiento depende de la densidad (o concentración) de nanotubos colocados encima del dieléctrico. Durante los estiramientos del dispositivo mayores del 20%, esta densidad se reduce localmente degradando el funcionamiento del dispositivo; pero si se incrementa la densidad inicial también se degradan las prestaciones incluso sin estiramiento.
En resumen, un dispositivo muy curioso que muestra que los transistores del futuro pueden ser diseñados utilizando ideas que hace unos años nos habrían parecido absurdas, como una capa nanométrica de material arrugado que retiene aire en su interior.

Superredes de pnicturos superconductores

Fuente: Francis (Th)E mule

Dibujo20130422 Schematic representations of various structures of superconductor epitaxial thin films
Las superredes (también llamadas heteroestructuras) son dispositivos electrónicos formados por capas alternas de dos materiales; las capas suelen tener un grosor nanométrico (cientos de átomos de grosor) y su estructura se acopla de forma íntima en las interfaces. Por ello fabricar superredes con capas de materiales superconductores de alta temperatura, como los cupratos, es muy difícil. Se ha publicado en Nature Materials la fabricación de una superred con capas superconductoras de pnicturos (la familia de superconductores basados en el compuesto de hierro descubierta en 2008). Los superconductores permiten que estas superredes pueden ser usadas en aplicaciones que requieren campos eléctricos muy altos, grandes densidades de corriente crítica y/o que produzcan intensos campos magnéticos. Las aplicaciones de las superredes (o heteroestructuras) son muy variadas, como la fabricación de diodos de efecto túnel para aplicaciones optoelectrónicas (la mayoría de los láseres de los lectores de CD y DVD están fabricados con heteroestructuras semiconductoras). El artículo técnico es S. Lee et al., “Artificially engineered superlattices of pnictide superconductors,” Nature Materials 12: 392–396, 2013.

Dibujo20130422 Microstructure of Co-doped BaFe2As2 superlattice thin films investigated by TEM
Las nuevas superredes están formadas por 24 capas que alternan un pnicturo superconductor (entre 14 y 16 nm de grosor) y una capa de óxido de titanato de estroncio. Lo más difícil de la fabricación de este tipo de dispositivos es ajustar la disposición de los átomos para la compatibilidad química entre sus superficies. No entraré en los detalles de fabricación, quizás sólo de interés técnico, pero quisiera destacar es que se ha logrado la inserción controlada de defectos (los nanohilos verticales de color verde en la figura que abre esta entrada); estos defectos pueden interaccionar con los vórtices de flujo magnético en el superconductor de diferentes formas, por ejemplo, pueden atrapar estos vórtices permitiendo combinar intensos campos magnéticos con un flujo de corriente limitado a través del dispositivo.
Las superredes se utilizan mucho pero están muy limitadas en aplicaciones de alta potencia y grandes campos magnéticos. Gracias a la incorporación de un material superconductor estos límites serán menos drásticos y se podrán utilizar en muchas nuevas aplicaciones. Pero quizás su aplicación más importante será estudiar los límites intrínsecos de la superconductividad en estos materiales (los pnicturos), ya que controlar la distancia entre capas alternas en la superred es similar a diseñar nuevos materiales superconductores (lo que podríamos bautizar como “ingeniería de superconductores artificiales” siguiendo la línea de Renee Meiller, “
Artificially-engineered material pushes the bounds of superconductivity,” Phys.Org, Mar 03, 2013). ¿Se podrá incrementar la temperatura crítica de estas superredes por encima de la del pnicturo de sus capas? ¿Cómo afectarán diferentes óxidos a sus propiedades superconductoras? La verdad es que se abren muchas posibilidades que podrían ofrecer muchas sorpresas. Todo nuevo material “artificial” (cuya estructura nanométrica se puede diseñar) tiene un futuro muy prometedor.

martes, 23 de abril de 2013

¿Ha detectado WIMPs el CDMS II?

Fuente: Neofronteras


El experimento CDMS II ha detectado tres supuestas partículas WIMPs ligeras. Esto apoyaría la idea del sector oscuro.
Foto
Uno de los cristales empleados en el detector CDMS. Foto: Fermilab. Ampliar foto.
El asunto de materia oscura es cada vez más intrigante, sobre todo porque parece que ya se están obteniendo algunos resultados, aunque sean contradictorios. Hace unos días hablábamos de la posibilidad de que el experimento AMS vea indicios de materia oscura, en concreto un exceso de positrones que serían el producto de partículas de materia oscura con una masa de cientos de GeV/c2, aunque se necesita confirmar el resultado con una estadística mejor, sobre todo a altas energías.
Se ha propuesto que la materia oscura podría estar formada por WIMPs, o partículas débilmente interactuantes. Éstas casi no interaccionan con la materia ordinaria, pero muy raramente lo pueden hacer. Si se espera lo suficiente y se tiene suficiente masa que haga de blanco se puede ver algún evento de este tipo de vez en cuando.
Ahora unos resultados hechos públicos hace poco comentan la detección directa de tres partículas por parte del experimento CDMS II que podrían ser de materia oscura. Se trataría de partículas con una masa de 8,6 GeV/c2.
Este experimento se encuentra en la mina de Soudan, en donde también se encuentra el experimento CoGeNT. De momento los casos son tan escasos que no se le puede llamar descubrimiento. Es decir, no se llega a las 5 sigmas de significación estadística para proclamar un descubrimiento (sólo llega a las tres sigmas).
CoGeNT usa cristales de germanio enfriados hasta cerca del cero absoluto de temperatura y mide la carga que pueda desplazar una colisión con una WIMP. Mientras que CDMS II usa cristales de silicio y germanio, también enfriados hasta cerca de 0 K, y puede medir tanto carga como calor.
Ambos experimentos tratan de detectar WIMPs, pero CDMS II es más sensible a WIMPs ligeras, mientras que CoGeNT es más sensibles a las pesadas.
Lo interesante de los resultados recientes de CDMS-II es que encajan con la masa de una supuesta WIMPs medida por CoGeNT en 2011. Se trataría de la región de masas que explora CoGeNT.
Lo contradictorio es que se esperaban WIMPs con una masa de 100 GeV/c2 y se están detectando (parece) muchos más ligeras. Pero AMS parece señalar que sí son pesadas.
Según algunos físicos, esto podría apoyar la idea de la existencia de un sector oscuro compuesto, no por un solo tipo de partículas, sino por muchos tipos y con sus propias fuerzas de interacción. Si la materia oscura constituye la mayor parte de la masa del Universo, ¿por qué va a estar compuesta por un único tipo de partícula? ¿No sería demasiado aburrido?
Según Kathryn Zurek, de University of Michigan, podría haber toda una miriada de partículas oscuras de manera similar al sector visible. Sería como un reflejo del mundo visible.
Uno de los modelos más sencillos de sector oscuro propone el mismo número de partículas y antipartículas de materia oscura, como en el sector visible. Sus masas estarían entre 1 y 10 GeV/c2 y esto encajaría con lo supuestamente detectado por CDMS-II.
Mientras tanto, el experimento XENON 100 en Gran Sasso (Italia) no parece haber detectado nada interesante desde que hace casi un año parecía que había detectado algo. Se supone que debía detectar estas partículas de 8,6 GeV/c2, pero no lo hace. Quizás la interacción con los núcleos de Xenon es diferente a la que se da con germanio o silicio. Otra cosa curiosa: si esas partículas de 8,6 GeV/c2 existen, ¿por qué no se detectaron en el LEP?
Hay muchos físicos respetables que son escépticos con este asunto. A día de hoy no se puede no se puede afirmar nada con rotundidad, pero es de esperar que conforme la sensibilidad de este tipo de experimentos vaya aumentando podamos saber finalmente algo sobre este asunto tan oscuro.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4087
Fuentes y referencias:
Artículo en ArXiv.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.

lunes, 8 de abril de 2013

El Higgs sugiere un universo metaestable

Fuente: Neofrontera


Según algunos estudios un Higgs de 126 GeV/c2 daría lugar a un universo metaestable.
Foto
Potencial del Higgs. Fuente: UC Irvine.
Los últimos resultados publicados por el CERN parecen confirmar la existencia del bosón de Higgs, cuyo descubrimiento se anunció hace unos meses. El Higgs descubierto tiene una masa de 126 GeV/c2. Sin embargo, no se descarta que existan otros bosones de Higgs más pesados. Incluso a la energía a la que ha operado el LHC se podrían crear esas versiones más pesadas del Higgs, pero la estadística no es buena de momento. Una vez se actualice este acelerador y opere a mayor energía quizás se puedan descubrir esas partículas, o no.
Como ya todos sabemos, el Higgs permite dotar de masa al resto de las partículas dependiendo de lo fuerte que sea su interacción. Así por ejemplo, los fotones no interaccionan con el Higgs y por eso no tienen masa. Sin embargo un protón (o los quarks que lo constituyen) lo hace fuertemente y por eso es pesado. Para ello no hace falta que el Higgs tenga un consciencia real, sino virtual. En la Teoría Cuántica de Campos las fuerzas aparecen debido al intercambio de partículas virtuales, partículas que aparecen y desaparecen constantemente en el vacío. De este modo, si frotamos un plástico y con el atraemos unos papelitos, la fuerza electromagnética que aparece y atrae esos papelitos está formada por fotones virtuales. La fuerza fuerte que mantiene la cohesión nuclear se basa en el intercambio de gluones y así para el resto de las otras fuerzas. Cada fuerza está mediada por su propio bosón (partículas de spin entero). El vacío está lleno de partículas virtuales y un campo no es más que una alteración de ese mar de partículas virtuales.
Pero si queremos manifestar esas partículas y que tomen consistencia real no queda más remedio que poner energía hasta alcanzar la masa-energía necesaria. Para el caso el Higgs 126 GeV/c2, es decir el equivalente a 126 protones, más o menos.
El vacío cuántico es una cosa curiosa, como acabamos de ver. Parece que la realidad huye de la nada y siempre manifiesta algo, incluso en el vacío. Podemos despojar la espacio de toda materia y, sin embargo, contendrá todo tipo da partículas virtuales que le dotaran de sus propiedades. Incluso si consideramos uuna teoría cuántica de la gravedad se puede concebir un vacío en el que no haya ni espacio ni tiempo y que se pueda generarlos mediante algún mecanismo en un Big Bang. La idea de la nada, o más bien de vacío, evoluciona según vamos adquiriendo conocimientos.
El gran problema de las cuerdas es la gran cantidad de estados de vacío (vacua) que proponen (unos 10500), por lo que su capacidad de predicción es casi nula.
Nuestro universo puede estar en un determinado estado de vacío que posea una determinada energía potencial. El asunto de la energía potencial es un asunto curioso, pues siempre es relativa y puede no tener fondo. De este modo, el Universo puede pasar de un estado de vacío a otro en el que la energía potencial sea más baja. Se han propuesto este tipo de transiciones para explicar la inflación e incluso una suerte de procesos de inflación que se dan eternamente.
Lo ideal es que un universo caiga a un estado de energía potencial que sea un mínimo local. En ese caso ese universo será estable, a no ser que consiga suficiente energía como para saltar la barrera de energía potencial y que se deslice hasta otro mínimo. En el caso de haber un mínimo absoluto ya no habría más transiciones de este tipo.
Ahora que parece que ya tenemos confirmado al Higgs (o al menos a uno de ellos) se puede especular sobre cómo afecta al asunto de los estados de energía potencial del Universo.
Joseph Lykken, del Fermilab National Accelerator Laboratory, dice que si usamos la Física conocida para realizar cálculos, el resultado es que el Universo en el que vivimos es inherentemente inestable.
Según Lykken el vacío en el que se asienta nuestro Universo podría no corresponder a un mínimo, al fondo de un valle de esa energía potencial. Si fuera al contrario, el valor del potencial de Higgs estaría en el punto más bajo de ese valle de energía.
La forma del potencial de Higgs viene determinada por la masa del Higgs. Matthew Strassler (Rutgers University) dice que los 126 GeV/c2 del Higgs recientemente descubierto implican que el Universo no está en un estado tal que ocupe el punto más bajo posible de energía, sino en un lugar inusual: un mínimo local. El valle de energía en el que se encontraría estaría a una altura mayor que el valle adyacente y separado de él por una colina (barrera de energía). Si de algún modo el Universo se las apañara para cruzar esa barrera de energía entonces caería hacia ese otro valle y se liberaría mucha energía.
En Mecánica clásica esto no supone ningún problema, pues se necesitaría energía que no hay para subir esa barrera de energía y el Universo estaría a salvo. Pero en Mecánica Cuántica existe lo que se llama el “efecto túnel”. Según este efecto (medible fácilmente en el laboratorio) existe una probabilidad no nula de que una partícula cruce ese tipo de barrera de potencial. Esa probabilidad será mayor cuando más estrecha y baja sea la barrera. Si se espera el tiempo suficiente al final siempre terminará cruzando. El proceso es básicamente aleatorio e impredecible.
Pero al igual que una partícula solitaria en el laboratorio el Universo en su conjunto podría cruzar la barrera de potencial que el separa del estado de vacío vecino con una energía potencial más baja, así que podemos decir que el Universo podría ser meta-estable.
Si eso ocurriera las consecuencias serían catastróficas y toda la vida del Universo desaparecería.
Puede ocurrir mañana mismo, al tratarse de un proceso aleatorio, pero los cálculos realizados indican que en promedio habría que esperar mucho más tiempo que la edad actual del Universo.
Esto también proporciona escenarios en los que el Universo se “reinicia” y se rellena de nuevo de materia-energía. Así por ejemplo, se han propuesto un modelo en el que un universo cíclico alteraría fases de contracción y expansión que sería consistente con esa meta-estabilidad sugerida con la observada masa del Higgs.
Pero todo depende de lo que no sabemos. En los cálculos sólo se tiene en cuenta lo conocido. Si aparecen otros Higgs el panorama puede cambiar y el Universo puede resultar más estable. Además puede que dicha estabilidad dependa de otras partículas como el quark top, con sus 180 GeV/c2 de masa. Algunos físicos sugieren que finalmente el Universo podría ser totalmente estable y descansar en un buen mínimo de energía.
O puede que todo dependa del tiempo que transcurra. Quizás en trillones de años, cuando esté disuelto en la nada, el Universo tenga una segunda oportunidad y vuelva a florecer a través de una transición de este tipo. Mientras tanto no hay que preocuparse por un posible cataclismo universal.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4075
Fuentes y referencias:
Nota en Scientific American.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.