Busqueda

Mostrando entradas con la etiqueta fisica. Mostrar todas las entradas
Mostrando entradas con la etiqueta fisica. Mostrar todas las entradas

martes, 28 de diciembre de 2010

Consiguen Crear un Superfotón

24 de Diciembre de 2010. Foto: (c) Jan Klaers, University of BonnSe ha logrado desarrollar una fuente del todo nueva de luz, descrita como un condensado de Bose-Einstein integrado por fotones. Hasta hace poco, todo experto lo habría considerado imposible.
Bookmark and Share

Este método puede potencialmente ser adecuado para el diseño de nuevas fuentes de luz, parecidas a los láseres, que funcionen en la banda de los rayos X. Otra aplicación podría estar en la creación de chips más potentes.

Enfriando a muy baja temperatura átomos de rubidio y concentrando un número suficiente de ellos en un espacio compacto, se vuelven indistinguibles. Pasan a comportarse como una sola y gran "superpartícula".

Los físicos llaman a esto un condensado de Bose-Einstein.

Para las partículas de luz, o fotones, esto también debería funcionar. Pero había un problema fundamental. Cuando los fotones son "enfriados", desaparecen.

Hasta hace unos meses, parecía imposible enfriar la luz y concentrarla al mismo tiempo.

Sin embargo, un equipo de físicos de la Universidad de Bonn, Jan Klars, Julian Schmitt, Frank Vewinger y Martin Weitz, hallaron un modo de hacerlo. Han logrado concentrar de tal modo fotones enfriados que se condensan en un "superfotón".

Este condensado de Bose-Einstein fotónico es una fuente de luz completamente nueva que tiene características similares a las de los láseres, pero con una ventaja decisiva: Por ahora, no es posible producir láseres prácticos que generen luz de onda muy corta, como por ejemplo la de la banda de los rayos X; en cambio, con un condensado fotónico de Bose-Einstein esto sí sería posible.

Información adicional en:

domingo, 3 de octubre de 2010

Medir los Efectos de la Gravedad a Distancias Cortísimas

27 de Septiembre de 2010. Foto: K. Talbott/NISTUn nuevo experimento propuesto por físicos en el Instituto Nacional estadounidense de Estándares y Tecnología (NIST) podría hacer posible que los científicos comprobasen con una precisión sin precedentes los efectos de la gravedad a muy cortas distancias, en una escala espacial en la que podrían detectarse nuevos y exóticos detalles del comportamiento de ésta.
Bookmark and Share

De las cuatro fuerzas fundamentales que gobiernan las interacciones en el universo, la gravedad puede resultarnos la más familiar, pero irónicamente es la menos comprendida por los físicos. A pesar de que la influencia de la gravedad sobre cuerpos separados por distancias astronómicas está bien estudiada, apenas ha sido comprobada a escalas muy pequeñas, en el orden de las millonésimas de metro, un ámbito en el que a menudo predominan las fuerzas electromagnéticas. Esta ausencia de datos ha generado años de debate científico.
Hay muchas teorías distintas sobre si la gravedad se comporta de modo distinto a distancias tan cortas. Pero resulta bastante difícil acercar tanto a dos objetos y medir con la precisión necesaria el movimiento de uno respecto al otro.

Tratando de superar este problema, el equipo del físico Andrew Geraci del NIST ha diseñado un experimento en el cual se suspendería una pequeña cuenta de cristal en una "botella" láser, permitiéndola moverse de un lado a otro dentro de la botella. Como habría muy poca fricción, el movimiento de la cuenta sería extremadamente sensible a las fuerzas que la rodeasen, incluyendo la fuerza de gravedad ejercida por un objeto pesado situado en las cercanías.

Según el equipo de investigación, el experimento propuesto permitiría comprobar los efectos de la gravedad sobre partículas separadas por una milésima parte del grosor de un cabello humano, lo cual podría finalmente posibilitar que se comprobara la ley de Newton con una sensibilidad 100.000 veces mejor que con los experimentos realizados hasta ahora.

Información adicional en:

sábado, 28 de agosto de 2010

Una idea que resuelve los misterios de la energía oscura y la abundancia de litio

Escrito por Kanijo en Astrobiología, Fí­sica, tags: , , ,

Gran Nube de MagallanesUna simple idea explica dos de los mayores problemas de la cosmología, pero introduce un nuevo obstáculo.

Uno de los mayores retos de la ciencia moderna es explicar las observaciones que apuntan a una expansión acelerada del universo.

Éstas llegaron cuando los astrónomos dijeron que las supernovas más lejanas son más tenues y por lo tanto están más lejos de lo que deberían si el universo simplemente se estuviese expandiendo. Pero en lugar de eso, la expansión debe estar acelerando, dicen.

La explicación convencional para esta aceleración es que el universo debe estar repleto de una invisible energía oscura que fuerza este proceso.

Esto es algo con lo que muchos científicos no se sienten a gusto. Los cálculos convencionales de la energía del vacío del universo dan un número que es 120 órdenes de magnitud menor de lo que tendría que tener la energía oscura. Y luego tenemos el pequeño problema de la conservación de la energía, que parece violarse con la energía oscura. Todo junto deja un estado de la situación bastante poco satisfactorio.

Hay otro problema, aparentemente no conectado, con el que luchan los cosmólogos: la abundancia de elementos que debe haberse creado en el Big Bang.

Nuestros modelos para el Big Bang y cómo el universo creció en sus primeros minutos hacen predicciones muy precisas sobre la abundancia de elementos que deben haberse creado en el proceso.

Por ejemplo, debe haber enormes cantidades de hidrógeno, deuterio y helio-4. Y las medidas de estos materiales más o menos encajan con exactitud con las predicciones.

No obstante, la teoría también predice que también debería haberse formado una cierta cantidad de litio. El problema es que, hasta donde podemos ver, el universo contiene sólo un tercio de esta cantidad. Esto ha provocado más de un dolor de cabeza.

Ahora, Marco Regis y Chris Clarkson de la Universidad de Ciudad del Cabo en Sudáfrica dicen que pueden explicar esta escasez de litio. Lo extraordinario, sin embargo, es que la misma idea explica también las observaciones de supernovas sin necesidad de expansión acelerada o energía oscura.

Su nueva idea es que la abundancia de litio puede explicarse abandonando una de las suposiciones fundamentales de la cosmología moderna: El Principio Copernicano. Es la idea de que nos humanos no tenemos una posición privilegiada en el universo. Para los cosmólogos, esto significa que el universo debe ser más o menos igual en todos sitios y a todas escalas.

Distintos cosmólogos han señalado que si abandonamos este principio, sería bastante fácil explicar los datos de las supernovas. Simplemente indican que el universo no es homogéneo a las escalas más grandes. En lugar de esto, debemos estar situados en el centro de algún tipo de gigantesco vacío en un universo mucho mayor.

Ahora, Regis y Clarkson dicen que el mismo tipo de pensamiento – que hay distintas irregularidades en la forma en que la materia se distribuye por el universo – puede explicar la falta de litio.

Ésta es una interesante contribución al debate. Que la misma idea parezca explicar dos observaciones aparentemente no conectadas, es una poderosa razón para echarle un vistazo más en detalle.

A la vista de esto, parece una pérdida menor abandonar el Principio Copernicano a esta escala. Después de todo, ¿por qué debería estar distribuida equitativamente la materia del universo a esta escala?

No obstante, esto introduce un incómodo problema. La afirmación de Regis y Clarkson es que el universo contiene una región a la que le falta litio. Esto no es difícil de aceptar. Lo difícil de tragar, en caso de ser cierto, son que las observaciones indican que la Tierra está en el mismo centro de la misma.

Esto sería una extraordinaria coincidencia, una que Regis y Clarkson dicen que tiene apenas 1 posibilidad entre 108 de suceder.

Pero también señalan que esto tiene que compararse con los problemas del modelo estándar de la física, que está 120 órdenes de magnitud por debajo de la energía oscura.

Haz tu elección. Sea cual sea, parece que los cosmólogos tendrán que seguir pensando mucho para sacarnos del aprieto.


Artículo de Referencia: arxiv.org/abs/1003.1043: Do Primordial Lithium Abundances Imply There’s No Dark Energy?

Fecha Original: 23 de agosto de 2010
Enlace Original

El ‘solitón’ de Peregrine observado por fin

Solitón de PeregrineUna antigua solución matemática propuesta como prototipo para las famosas olas errantes oceánicas, responsables de muchas catástrofes marinas, se ha observado por primera vez en un sistema físico continuo.

El ‘solitón’ de Peregrine, descubierto hace 25 años por el fallecido Howell Peregrine (1938-2007), profesor de renombre internacional de Matemáticas Aplicadas anteriormente con sede en la Universidad de Bristol, es una solución localizada para una ecuación diferencial parcial compleja conocida como la ecuación de Schrödinger no lineal (NLSE).

La solución de Peregrine es de una gran relevancia física debido a que su intensa localización ha llevado a que se proponga como prototipo de olas errantes oceánicas y también representa un límite matemático especial de una amplia clase de soluciones periódicas a la NLSE.

Aunque a pesar de su lugar central como objeto definitorio de la ciencia no lineal durante unos 25 años, las características únicas de esta especial onda no lineal nunca se habían observado directamente en un sistema físico continuo – hasta ahora.

Un equipo internacional de investigación procedente de Francia, Irlanda, Australia y Finlandia informa de la primera observación de ondas altamente localizadas que poseen características casi ideales del solitón de Peregrine en la prestigiosa revista, Nature Physics.

Los investigadores llevaron a cabo sus experimentos usando luz en lugar de agua, pero fueron capaces de probar rigurosamente la predicción de Peregrine aprovechando la equivalencia matemática entre la propagación de ondas no lineales en el agua y la evolución de pulsos intensos de luz en fibras ópticas.

Basándose en décadas de desarrollo avanzado en fibra óptica e instrumentación óptica ultra-rápida, los investigadores fueron capaces de medir explícitamente las propiedades temporales ultra-rápidas de la onda solitón generada, y compararla cuidadosamente con los resultados de la predicción de Peregrine.

Sus resultados representan la primera medida directa de la localización del solitón de Peregrine en un entorno de ondas continuo en la física. De hecho, los autores tienen cuidado en resaltar que un solitón matemáticamente perfecto puede que nunca llegue a observarse en la práctica, pero también demuestran que su intensa localización aparece incluso bajo condiciones de excitación no ideales.

Este es un resultado especialmente importante para la comprensión de cómo las ondas errantes de alta intensidad pueden formarse en un entorno muy ruidoso e imperfecto como es el océano abierto.

Los hallazgos también destacan el importante papel que desempeñan los experimentos en óptica para clarificar las ideas de otros dominios de la ciencia. En particular, dado que la la dinámica relacionado gobernada por el mismo modelo de propagación NLSE también se observa en muchos otros sistemas como plasmas y Condensados Bose Einstein, se espera que los resultados estimules nuevas direcciones de investigación en muchos otros campos.


Artículo de referencia: http://dx.doi.org/10.1038/NPHYS1740.
Fecha Original: 22 de agosto de 2010
Enlace Original

martes, 17 de agosto de 2010

En Busca de la Cuarta Propiedad de los Electrones


16 de Agosto de 2010. Foto: Forschungszentrum JuelichLos electrones son partículas elementales con carga negativa. Forman una cubierta alrededor de los núcleos de átomos e iones. Esto o algo similar es lo que se puede leer en los libros de texto. Sin embargo, pronto esta información podría tener que ser modificada. La razón es que muchos físicos consideran que los electrones pueden tener un momento dipolar eléctrico permanente. Un modo de comprobarlo está siendo ahora desarrollado.
Bookmark and Share

Normalmente se crea un momento dipolar eléctrico cuando existen cargas positivas y negativas separadas espacialmente. De modo similar a los polos norte y sur de un imán, existen dos polos eléctricos. En el caso de los electrones, la situación es mucho más complicada porque en realidad no deberían tener ninguna dimensión espacial. A pesar de esto, diversas teorías que van más allá del modelo estándar de la física de partículas elementales se basan en la existencia del momento dipolar. Estas teorías a su vez explicarían, si finalmente se demuestra que alguna es correcta, cómo pudo haber sido creado el universo en la forma en que lo conocemos.

Según las teorías con mayor aceptación, hace unos 13.700 millones de años, el Big Bang creó tanta materia como antimateria. Sin embargo, debido a que materia y antimateria se aniquilan entre ellas, no habría quedado nada de ninguna de ellas. En cambio, la abundancia de materia en el universo actual, y la existencia sólo fugaz y en cantidades minúsculas de antimateria en el cosmos de hoy, parecen demostrar que en realidad se creó más materia que antimateria. Un momento dipolar eléctrico del electrón podría explicar esta desigualdad.

Por ahora, nadie ha podido demostrar la existencia de este supuesto y diminuto momento dipolar. Los métodos de medición usados hasta hoy no son lo bastante sensibles.

Una pequeña pieza de cerámica dará a los científicos la oportunidad de cambiar esto muy pronto. Marjana Lezaic y Konstantin Rushchanskii del Instituto de Física del Estado Sólido en Alemania, y Nicola Spaldin de la Universidad de California en Santa Bárbara, Estados Unidos, diseñaron esta cerámica, la cual tiene propiedades muy especiales. Ahora debería ser posible hacer mediciones 10 veces más sensibles que las realizadas hasta el momento. Esto podría ser suficiente para encontrar el momento dipolar eléctrico del electrón.

Información adicional en:


martes, 10 de agosto de 2010

Las Extremas Condiciones Que Conducen a la Sonoluminiscencia
9 de Agosto de 2010. Foto: Hangxun Xu y Ken SuslickLas ondas de ultrasonido de alta intensidad que viajan a través de un líquido dejan burbujas en su estela. Bajo las condiciones correctas, estas burbujas implosionan de modo espectacular, emitiendo luz y alcanzando muy altas temperaturas, en un fenómeno que se conoce como sonoluminiscencia. Los científicos han observado implosionar a burbujas sometidas a temperaturas tan altas que el gas dentro de ellas se ioniza formando plasma, pero cuantificar con la debida precisión la temperatura y la presión ha sido poco viable hasta ahora.
Bookmark and Share

En un nuevo estudio, Kenneth S. Suslick, profesor de química en la Universidad de Illinois, y David Flannigan, actualmente en el Instituto Tecnológico de California, han determinado, mediante experimentos, la temperatura y otros parámetros.

Suslick y Flannigan observaron por primera vez la sonoluminiscencia superbrillante en el 2005, al enviar ondas de ultrasonido a través de soluciones de ácido sulfúrico para crear las burbujas
En los nuevos experimentos, se ha hecho básicamente lo mismo, sólo que ahora se ha realizado un análisis detallado de la forma del espectro observado, lo que proporciona información precisa sobre las condiciones existentes en la región alrededor de los átomos dentro de la burbuja cuando ésta se derrumba sobre sí misma.

La temperatura puede ser varias veces mayor que la reinante en la superficie del Sol, y la presión puede superar a la existente en el fondo de la fosa abisal más profunda del océano.

Lo que es más, los investigadores consiguieron determinar cómo estas propiedades son afectadas por la violencia con que se derrumba la burbuja, y encontraron que las condiciones del plasma generado pueden ser muy extremas.

El dúo observó temperaturas por encima de los 16.000 grados Celsius, cerca de tres veces la temperatura en la superficie del Sol. También midieron durante la implosión de la burbuja densidades de electrones similares a las generadas en experimentos de fusión por láser. Sin embargo, Suslick aclara que su grupo no ha observado evidencia alguna de que durante la sonoluminiscencia tenga lugar la fusión que algunos científicos han teorizado como posible en tales circunstancias.

Los investigadores comprobaron además que las propiedades del plasma muestran una fuerte dependencia hacia la violencia de la implosión de la burbuja, y que el grado de ionización, o sea cuánto gas se convierte en plasma, aumenta cuando se incrementa la presión acústica.

Información adicional en:

miércoles, 4 de agosto de 2010

El Puente Entre el Mundo Cuántico y el Convencional

4 de Agosto de 2010. Foto: ASUUn equipo de investigadores cree haber abierto una puerta hacia un conocimiento más detallado de cómo el mundo cotidiano que captamos a través de nuestros sentidos emerge del etéreo mundo cuántico.
Bookmark and Share

Los físicos llaman "mundo clásico" a nuestro entorno familiar cotidiano. Éste es el mundo en el que nosotros y las cosas que nos rodean parecemos tener características medibles como masa, altura, color, peso, textura y forma.

El mundo cuántico es el mundo de las piezas fundamentales con las que está hecha la materia: los átomos. Estos son combinaciones de neutrones y protones formando un núcleo, y electrones girando alrededor de él, atraídos por éste a causa de la atracción eléctrica.

Pero la mayor parte de un átomo, más del 99 por ciento de éste, es espacio vacío lleno de energía invisible.
Así que desde el punto de vista del mundo cuántico, nosotros y las cosas que nos rodean somos mayormente espacio vacío. El modo en que experimentamos las cosas que nos rodean y a nosotros mismos en el mundo clásico es en realidad tan sólo una representación mental moldeada por nuestros sentidos, tal como indica el profesor David Ferry de la Universidad Estatal de Arizona.

Durante más de un siglo, los científicos e ingenieros han tratado de llegar a una conclusión satisfactoria sobre el eslabón perdido que une los mundos clásico y cuántico, y permite una transición desde ese mundo de principalmente espacio vacío al entorno familiar que experimentamos a través de nuestros sentidos.

Una hipótesis sobre estas cuestiones ha sido investigada recientemente por Adam Burke, David Ferry, Tim Day, Richard Akis, Gil Speyer y Brian Bennett.

Ellos describen la transición desde el mundo cuántico al clásico como un proceso de "decoherencia" que implica un tipo de progresión evolutiva que en cierto modo es análoga al concepto de selección natural de Charles Darwin.

Los autores se basaron en dos teorías, la de la decoherencia y la del darwinismo cuántico, ambas propuestas por Wojciech Zurek, investigador del Laboratorio Nacional de Los Álamos.

Información adicional en:

domingo, 4 de julio de 2010

Los relojes cósmicos podrían tener la llave a los secretos del universo

RadiotelescopioUn equipo internacional de científicos han desarrollado una nueva y prometedora técnica que podría convertir a los púlsares – relojes cósmicos naturales excelentes – en registradores del tiempo todavía más precisos.

Este importante avance, liderado por científicos de la Universidad de Manchester y que ha aparecido el 24 de junio en la revista Science Express, podría mejorar la búsqueda de ondas gravitatorias y ayudar en los estudios del origen del universo.

Las ondas gravitatorias son misteriosas y poderosas perturbaciones que no han sido todavía observadas directamente, aunque se sabe que existen y fueron predichas por Einstein.

El descubrimiento directo de ondas gravitatorias, que llegan a los relojes cósmicos, modificándolos, podría permitir a los científicos estudiar eventos violentos como los procesos de fusión de agujeros negros supermasivos y ayudar a entender el universo poco después de su formación en el Big Bang.

Los científicos progresaron usando observaciones de púlsares realizadas durante décadas con el radiotelescopio Lovell, en el observatorio Jodrell Bank de la Universidad de Manchester.

Los púlsares son estrellas que han colapsado y que rotan, estudiadas con gran detalle desde su descubrimiento en 1967. La rotación extremadamente estable de estos volantes cósmicos ha conducido previamente al descubrimiento del primer planeta orbitando otras estrellas, y proporcionado rigurosos tests para las teorías de la gravedad que dan forma al universo.

Sin embargo, esta estabilidad rotacional no es perfecta y hasta ahora, pequeñas irregularidades en su rotación han reducido significativamente su utilidad como herramientas de precisión.

El equipo, liderado por el profesor Andrew Lyne de la Universidad de Manchester, ha usado observaciones del telescopio Lovell para explicar estas variaciones y mostrar un método por el cual éstas pueden ser corregidas.

El profesor Lyne explica: “Los mejores relojes humanos necesitan correcciones por diferentes motivos. Cambios en la temperatura, en la presión atmosférica, en la humedad, o en el campo magnético local. Ahora, hemos encontrado un medio potencial de corregir un reloj astrofísico”.

Se sabe que la tasa a la que los púlsares rotan decrece muy lentamente. Lo que el equipo ha encontrado es que las desviaciones surgen porque en realidad hay dos tasas de decrecimiento y no una, y que los púlsares cambian de tasa de modo impredecible y abrupto.

Estos cambios están asociados a un cambio en la forma del pulso emitido por el púlsar. Debido a esto, las medidas de precisión de la forma del pulso en un instante dado indican exactamente a cuál de las dos tasas corresponde y permite el calculo de una “corrección”. Esto mejora significativamente sus propiedades como relojes.

Los resultados dan una nueva visión sobre las extremas condiciones cerca de las estrellas de neutrones y ofrecen el potencial de mejorar los ya muy precisos experimentos en gravitación.

Se espera que este nuevo entendimiento de la rotación de los púlsares mejorará las probabilidades de que los púlsares que giran más rápido sean usados para detectar por primera vez las ondas gravitatorias.

El equipo de la universidad de Manchester colaboró en el proyectó con el Dr. George Hobbs del Australia Telescope National Facility, con el profesor Michael Kramer del Instituto Max Planck de Radioastronomía, y con la profesora Ingrid Stairs de la Universidad de British Columbia.

La investigación fué financiada por el Consejo de Instalaciones Científicas y Tecnológicas.

Su director científico, el profesor John Womersley, dijo: “La astronomía no es como la mayoría de las otras ciencias, ya que no podemos medir directamente las propiedades de las estrellas y las galaxias. Éstas tienen que ser calculadas basándose en nuestro conocimiento de cómo funciona el universo – lo que significa que algo tan significativo como ser capaz de usar los púlsares como relojes cósmicos, un nuevo estándar para la medida del tiempo, tendrá importantes consecuencias para el avance de la ciencia y el conocimiento del universo”.

Muchos observatorios a lo largo del mundo están intentando usar los púlsares para detectar las ondas gravitatorias que son predichas como consecuencia de los agujeros negros supermasivos del universo.

Con la nueva técnica, los científicos pueden ser capaces de revelar las señales de ondas gravitatorias que permanecen ocultas por las irregularidades en la rotación de los púlsares.

El director del grupo de púlsares de la Universidad de Manchester, Dr. Ben Stappers, dijo: “Estos excitantes resultados fueron posibles gracias a la calidad y duración de la única base de datos de tiempos de púlsares del telescopio Lovell.


Autor: Dan Cochlin
Fecha Original: 25 de junio de 2010
Enlace Original

Hallan Evidencias de Asimetría Materia-Antimateria

Foto: DZero collaborationUnos científicos del programa internacional DZero en el Laboratorio del Acelerador Nacional Fermi (Fermilab), en Estados Unidos, han encontrado evidencia de una violación significativa de la simetría materia-antimateria en el comportamiento de partículas que contienen quarks Bottom, una vulneración que rebasa lo predicho en la teoría actual, el Modelo Estándar de la física de partículas.
Bookmark and Share

El nuevo resultado muestra un 1 por ciento de diferencia entre la producción de pares de muones y pares de antimuones en la desintegración de mesones B resultado de colisiones de alta energía en el acelerador de partículas Tevatron del Fermilab.

El predominio de la materia sobre la antimateria, que observamos en el universo actual, es posible sólo si hay diferencias entre el comportamiento de las partículas y el de las antipartículas.
A pesar de que los físicos han observado diferencias en el comportamiento de las partículas durante décadas, estas diferencias conocidas son demasiado pequeñas como para explicar el predominio observado en el universo de la materia sobre la antimateria,

Si llega a confirmarse mediante observaciones y análisis adicionales, el efecto visto por los físicos del programa DZero podría representar otro paso hacia el esclarecimiento de ese predominio de la materia sobre la antimateria, al desvelar la existencia de fenómenos físicos de los que hoy no se tiene constancia más allá de lo especulativo.

Cuando colisionan partículas de materia con otras de antimateria en colisiones de alta energía, se convierten en energía y producen nuevas partículas y antipartículas. En el acelerador de protones y antiprotones del Fermilab, los científicos observan cientos de millones cada día.

Los procesos similares que tuvieron lugar poco después de la formación del universo debieron habernos dejado un cosmos con iguales cantidades de materia y antimateria. Pero cuanto nos rodea está compuesto sólo por materia, y las antipartículas sólo pueden ser producidas en aceleradores o en algunos fenómenos naturales de gran energía. "¿Qué pasó con la antimateria?" es una de las preguntas cruciales de la física de partículas del siglo XXI.

En el programa DZero trabajan cerca de 500 físicos de 86 instituciones en 19 países.

Información adicional en:

domingo, 30 de mayo de 2010

12 Attosegundos: Un nuevo récord para el tiempo más corto controlable

Escrito por Nicolás Pérez

Los lásers pueden generar ahora pulsos de luz de menos de 100 attosegundos, lo que permite mediciones en tiempo real de escalas de tiempo ultracortas que son inaccesibles por cualquier otro método. Los científicos del Max Born Institute for Nonlinear Optics and Short Time Spectroscopy (MBI) en Berlín han demostrado cómo medir el tiempo con una incertidumbre residual de 12 atto-segundos, un nuevo récord mundial para la menor escala de tiempo controlable.


La luz es una onda electromagnética de muy alta frecuencia y en el espectro visible una única oscilación del campo eléctrico sólo toma entre 1200-2500 attosegundos. Un pulso de láser ultracorto se compone de unas pocas de estas oscilaciones, pero los pulsos de las fuentes convencionales de láser de pulsación corta muestran fuertes fluctuaciones de las posiciones del máximo de campo relativo al centro del pulso. Para una intensidad de campo máxima, el centro del pulso tiene que coincidir con un máximo del campo eléctrico, que se muestra en la figura como una curva roja. En consecuencia, se han desarrollado métodos para estabilizar la posición del máximo de campo, es decir, la fase del pulso.

Pulso de 12 attosegundos
Pulso de luz ultracorto con fase de estabilización óptica. Un pulso de láser ultracorto se compone de unas pocas de estas oscilaciones. (Curva de color rojo o azul). Curvas negras: campo envolvente del pulso. La intensidad máxima de campo se obtiene si el máximo de campo coincide con el centro del pulso. (Curva roja). El nuevo método ideado estabiliza el patrón del campo del pulso. Dos ampliaciones de la imagen muestran las más pequeñas fluctuaciones temporales mostradas previamente (círculo verde, estabilización del láser, desviación de 100 attosegundos) en comparación con las que mostró el nuevo método de síntesis directa del campo (cuadro amarillo, desviación de 12 attosegundos) Créditos: Instituto Max Born.

Junto con el fabricante de lásers Femtolasers con base en Viena, los investigadores del MBI en el grupo de Günter Steinmeyer han desarrollado ahora un nuevo método para controlar la fase del pulso de salida del láser. En contraste con los enfoques anteriores, no es necesaria ninguna manipulación en el interior del láser, lo que elimina totalmente las fluctuaciones de la potencia del mismo y la duración del pulso y garantiza una estabilidad mucho mayor a largo plazo. La corrección de la fase del pulso se basa en un variador de frecuencia llamado acusto-óptico, que se acciona directamente por la señal medida.

Dice Steinmeyer: “Esta corrección directa de la fase simplifica drásticamente muchos experimentos en física de attosegundos y metrología de frecuencias.”

Anteriormente, la estabilización de la posición de los máximos de campo sólo era posible con una precisión de unos 100 attosegundos (10-16s., correspondiente a 1/20 de la longitud de onda), que es comparable a la duración mínima de los pulsos de attosegundos mostrados hasta ahora. El nuevo método permite llevar esta limitación hasta 12 atto-segundos (1,2×10-17s., 1/200 de la longitud de onda), lo que sobrepasa la unidad atómica de tiempo (24 attosegundos) en un factor de dos. Como la unidad atómica de tiempo marca la escala de tiempo más rápida posible de los procesos en las capas exteriores de un átomo, el nuevo método de estabilización permitirá importantes avances en la investigación sobre los procesos más rápidos de la naturaleza.

Los investigadores apuntan que su éxito se basó en una colaboración muy estrecha con el fabricante de láseres Femtolasers, que proporcionó un láser específicamente optimizado para el experimento conjunto y actualmente están desarrollando productos basados en este nuevo método.


Cita: Doi: 10.1038/NPHOTON.2010.91
Fecha Original: 11 de mayo de 2010
Enlace Original

viernes, 21 de mayo de 2010

Crean un "Imán" de un Solo Polo
21 de Mayo de 2010. Foto: ICLSe ha conseguido crear una estructura que actúa como un imán de un solo polo. Este logro técnico había sido perseguido, sin éxito hasta ahora, desde hace muchas décadas.
Bookmark and Share

Los investigadores que lo han conseguido, del University College de Londres, creen que su nueva investigación les lleva un paso más cerca de aislar un "monopolo magnético".

Los imanes tienen dos polos magnéticos, norte y sur. Dos polos iguales, ya sean dos polos norte o dos polos sur, se repelen entre sí, en tanto que los polos opuestos se atraen; uno norte con otro sur. De cualquier manera que un imán sea cortado, siempre tendrá estos dos polos.

Los científicos han teorizado durante muchos años que debe ser posible aislar un monopolo magnético, sólo norte o sólo sur, pero hasta muy recientemente los investigadores han sido incapaces de demostrar esto por medio de experimentos.

Ahora, los investigadores de la citada universidad han logrado que pequeños imanes de tamaño nanométrico se comporten como monopolos magnéticos, gracias a posicionarlos del modo idóneo en una estructura parecida a un panal.

A finales del 2009, varios equipos de científicos consiguieron inducir un comportamiento como el de un monopolo en un material especial.

Sin embargo, en ese material y los de su clase, los monopolos sólo se forman a temperaturas sumamente bajas, de 270 grados Celsius bajo cero, o sea sólo 3 grados por encima del Cero Absoluto.

En cambio, la estructura creada por los investigadores del University College de Londres contiene monopolos magnéticos a la temperatura ambiente.

Información adicional en:




sábado, 15 de mayo de 2010

Descubrimiento del Elemento 117


12 de Mayo de 2010. Foto: Kwei-Yu Chu/LLNLUn equipo de científicos de Rusia y Estados Unidos ha detectado por vez primera al elemento superpesado conocido como elemento 117.
Bookmark and Share

El equipo que ha hecho posible el hallazgo incluye a científicos del Instituto Conjunto de Investigación Nuclear (Dubna, Rusia), el Instituto de Investigación para Reactores Avanzados (Dimitrovgrado), el Laboratorio Nacional Lawrence Livermore, el Laboratorio Nacional de Oak Ridge, la Universidad Vanderbilt, y la Universidad de Nevada en Las Vegas.

El equipo estableció la existencia del elemento 117 a partir de patrones de desintegración observados después del bombardeo de un objetivo de berkelio (elemento químico que es radiactivo) con iones de calcio en el ciclotrón U400 en Dubna. Parte del éxito del experimento se debió al mucho tiempo que el acelerador le dedicó al experimento. También resultaron decisivas las instalaciones de detección especiales en Dubna, las instalaciones de producción de isótopos en Oak Ridge, y las capacidades de análisis de datos nucleares en Livermore.
La campaña experimental de dos años comenzó en el Reactor de Isótopos de Alto Flujo en Oak Ridge con una irradiación de 250 días para producir 22 miligramos de berkelio. A este periodo le siguió otro de 90 días de procesamiento en Oak Ridge para separar y purificar el berkelio. Luego vino la preparación del objetivo en Dimitrovgrado, la fase de 150 días de bombardeo en uno de los aceleradores de iones pesados más potentes del mundo en Dubna, el análisis de los datos en Livermore y Dubna, y la evaluación y revisión de los resultados por el equipo. El proceso completo fue guiado por el periodo de semidesintegración de 320 días del berkelio.

En el proyecto fueron producidos seis átomos del elemento 117. Para cada átomo, el equipo observó una desintegración alfa desde el elemento 117 hasta el 115, luego hasta el 113, y así sucesivamente hasta que el núcleo acabó dividido en dos elementos más ligeros. En total, se produjeron 11 nuevos isótopos "ricos en neutrones", acercando a los investigadores un paso más hacia la supuesta "isla de estabilidad" de los elementos superpesados.

La isla de estabilidad es un término en la física nuclear que se refiere a la posible existencia de una región más allá de la tabla periódica actual donde nuevos elementos superpesados con números especiales de neutrones y protones exhibirían una mayor estabilidad. Tal isla extendería la tabla periódica hasta elementos aún más pesados y gracias a la mayor duración de los isótopos sería posible realizar experimentos químicos con estos elementos.

Información adicional en:



El universo imperfecto: Adiós, teoría del todo

GalaxiaHace quince años, yo era un físico que trabajaba duro en la búsqueda de una teoría de la naturaleza que unificase lo muy grande con lo muy pequeño. Había una buena razón para la esperanza. Lo grande y lo bueno se encontraban. Incluso Einstein, que reconoció que nuestra comprensión de la realidad es necesariamente incompleta, pasó 20 años de su vida buscando una Teoría de Campo Unificado que describiría las dos fuerzas principales que vemos actuando a nuestro alrededor – la gravedad y el electromagnetismo – como manifestaciones de una única fuerza. Para él, tal teoría matemática representaba la expresión más pura y elegante de la naturaleza y el mayor logro del intelecto humano.


Cincuenta años después de la muerte de Einstein, la búsqueda de esta esquiva Teoría de Campo Unificado continúa. Para los físicos Stephen Hawking y muchos otros, encontrar una “Teoría del Todo” sería equivalente a conocer la “mente de Dios”. La metáfora no es accidental.

Los críticos modernos dicen que Einstein y otros gigantes de la física del siglo XX (incluyendo a Wolfgang Pauli, Erwin Schrödinger y Werner Heisenberg) fallaron debido a que en sus modelos no se incluían todas las partículas de materia y sus interacciones fundamentales. Ponlos en la ecuación, dicen, y tendremos una posibilidad de éxito mucho más alta. Los sueños de una teoría final (como se titulaba un libro sobre el tema, del Premio Nobel Steven Weinberg) están ahora más vivos que nunca.

Pero, ¿estamos realmente acercándonos? ¿Nos atrevemos siquiera a preguntar si la búsqueda está fundamentalmente equivocada? ¿Podría la creencia en una teoría física que unifique los secretos del mundo material – un “código oculto” – ser el equivalente científico a las creencias religiosas en una deidad mantenida por los miles de millones de personas que van a iglesias, mezquitas y sinagogas cada día?

Incluso antes de que existiera lo que ahora llamamos física, los antiguos filósofos griegos pensaban si la diversidad de la naturaleza podría irradiar de una única fuente, una sustancia primigenia. Thales, reconocido por Aristóteles como el primer filósofo de la tradición griega, propuso que todo estaba hecho de agua, una sustancia que creía que representaba la esencia dinámica de la naturaleza. Más tarde, Pitágoras y sus seguidores creían que la naturaleza era un misterio matemático, construida a través de razones y patrones que combinaban enteros, y que la geometría era la clave para descifrarla.

La idea de las matemáticas como una puerta fundamental a los secretos de la naturaleza, resurgieron a finales del Renacimiento. Galileo Galilei, René Descartes, Johannes Kepler e Isaac Newton dejaron claro que la descripción matemática de la naturaleza sólo tiene éxito a través de la laboriosa aplicación del método científico, donde las hipótesis son comprobadas mediante experimentos y observaciones y luego son aceptadas o rechazadas. La física se convierte en la ciencia del “cómo”, dejando el “porqué” a la filosofía y la religión. Cuando se preguntaba a Newton por qué la materia atrae a otra materia con una fuerza que se debilita con el cuadrado de la distancia, respondía que “no había desarrollado una hipótesis”; era suficiente proporcionar una descripción cuantitativa del fenómeno.

Esto, no obstante, sólo es la mitad de la historia. Para Newton, Dios era el matemático supremo y las leyes matemáticas de la naturaleza eran un borrador de la Creación. Conforme avanzó la ciencia, la idea de que dios interfería explícitamente con los fenómenos naturales se fue apagando, pero no la idea de que la naturaleza tenía un código oculto que yacía en una teoría matemática que lo abarcaba todo. El “dios” de Einstein estaba mucho más lejos que el de Newton, como dijo en su famosa cita: “Creo en el dios de Spinoza que se revela a sí mismo en la ordenada armonía de lo que existe”. Su búsqueda de una Teoría de Campo Unificado era mucho más una búsqueda de la esencia de este dios natural.

Las encarnaciones modernas de las Teorías de Campo Unificado aparecen en dos tipos. La versión más tradicional, la conocida como Gran Teoría Unificada (GUT), busca describir el electromagnetismo y las fuerzas nucleares débil y fuerte como una única fuerza. La primera de estas teorías se propuso en 1974 por parte de Howard Georgi, de la Universidad de Harvard, y Sheldon Glashow, ahora en la Universidad de Boston. Las versiones más ambiciosas buscan incluir la gravedad en el marco de trabajo de la unificación. Las teorías de supercuerdas intentan hacer esto abandonando el viejo paradigma de que la materia está hecha de pequeños bloques indivisibles, sustituyéndolo por cuerdas vibrantes que viven en espacios de más dimensiones.

Como todas las buenas teorías físicas, las GUTs hacen predicciones. Una es que el protón, la partícula que habita en todos los núcleos atómicos, es inestable. Durante décadas, los experimentos cada vez con mayor sensibilidad han buscado el decaimiento de los protones sin encontrarlo. Como consecuencia, los modelos tienen que ser ajustados dado que los protones decaen tan raramente que deben estar fuera del actual límite de detección. Otra predicción que no tuvo mejor suerte: los campos de interacción envuelta conocidos como monopolos magnéticos nunca se han hallado.

Para las supercuerdas, la situación es aún peor. A pesar de su elegancia matemática, la teoría está tan desacoplada de la realidad física que es extremadamente difícil determinar qué efecto medible podría tener una cuerda.

Ahora pienso que la propia idea de una teoría final es un error. Incluso si tenemos éxito al unificar las fuerzas que actualmente conocemos, sólo podríamos afirmar haber logrado una unificación parcial. Nuestros instrumentos tienen límites. Dado que el conocimiento de la realidad física depende de lo que podemos medir, nunca sabremos todo lo que hay que saber. ¿Quién se atrevería a decir que sólo hay cuatro fuerzas fundamentales? La ciencia está llena de sorpresas. Es mucho mejor aceptar que nuestro conocimiento de la realidad física es necesariamente incompleto. De esta forma, la ciencia se entenderá como una empresa humana y la “mente de Dios” quedará exorcizada de una vez por todas.

Desde el descubrimiento de la violación de paridad en la interacción débil hace unos 50 años, los experimentos en física de partículas han demostrado que nuestras esperanzas en la perfección son sólo eso – esperanzas. Las simetrías se violan a diestro y siniestro; en la naturaleza, al contrario que en el famoso poema de John Keats, la belleza no siempre es la verdad.

Pero hay más. Propongo que las asimetrías fundamentales son una parte necesaria del universo, al que determinan con su propia existencia. Considera lo siguiente. El universo tuvo que tener unas propiedades especiales para mantener su expansión durante 14 000 millones de años. Y las partículas de materia tuvieron que dominar sobre la antimateria poco después del Big Bang, o el universo consistiría en su mayor parte en radiación.

La propia vida es producto de las imperfecciones, desde la asimetría espacial de los aminoácidos a las mutaciones durante la reproducción. Las asimetrías forjaron el largo, complejo y errático camino de las partículas a los átomos y las células, de las simples células procariotas sin núcleo a las más sofisticadas eucariotas, y luego a los organismos unicelulares y pluricelulares.

La historia de la vida está profundamente entrelazada con los cambios ambientales de la Tierra, desde el incremento de la disponibilidad del oxígeno, a la llegada de la tectónica de placas que ayuda a regular el dióxido de carbono. La vida (por no mencionar la inteligencia) en las extraordinariamente complejas formas que hemos llegado a conocer es posiblemente bastante rara, un producto de asimetrías, imperfecciones y accidentes.

En última instancia, llegar a una teoría final no hará de la física – o de la ciencia – algo menos apasionante. La naturaleza está llena de misterios que nos tendrán ocupados durante mucho tiempo.


Autor: Marcelo Gleiser
Fecha Original: 10 de mayo de 2010
Enlace Original

Los físicos estudian cómo evoluciona el comportamiento moral

Teoría de JuegosUn nuevo modelo basado en la física estadística puede arrojar luz sobre la vieja cuestión de: “¿Cómo puede la moralidad enraizarse en un mundo donde todas las personas piensan en sí mismas?” Las simulaciones por ordenador de un equipo internacional de científicos sugieren que la respuesta está en cómo la gente interactúa con sus vecinos más cercanos, en lugar de con la población como un todo.

Liderados por Dirk Helbing del ETH Zurich en Suiza, el estudio también sugiere que bajo ciertas condiciones, el comportamiento deshonesto de algunos individuos puede realmente mejorar el tejido social.

Los bienes públicos tales como recursos ambientales o beneficios sociales, a menudo se agotan debido a que los individuos egoistas ignoran el bien común. El comportamiento cooperativo puede reforzarse a través del castigo, pero los cooperadores finales que ejercen el castigo perderán frente a aquellos que no castigan debido a que el castigo requiere de tiempo y esfuerzo. Estos cooperadores sin castigo pierden a su vez respecto a los no cooperadores, o gorrones. Con un predominio de gorrones, los recursos se agotan, para el detrimento de todos – un escenario conocido como “la tragedia de los comunes”.

¿Cómo, entonces, surge la cooperación? Algunos investigadores han propuesto que los cooperadores que castigan podrían sobrevivir a través de la “reciprocidad indirecta”, la idea de que el trabajo por el bien común mejorará la reputación de la persona y asegura su beneficio en el futuro. El grupo de Helbing, sin embargo, ha demostrado que esto no es necesario para que florezca la cooperación.

Fenómeno emergente

Llegaron a esta conclusión centrándose en cómo se comportan los individuos con sus vecinos más cercanos, en lugar de con un grupo más amplio que es representativo de toda la población. Como en los modelo de magnetismo del vecino más cercano – que son a menudo más realistas que las aproximaciones de media del campo – dicen que esta aproximación capta el fenómeno “emergente” que se pasaría por alto en otro caso.

Su modelo basado en la teoría de juegos, comprende una retícula cuadrada de decenas de miles de puntos, cada uno representando un individuo. Cada individuo podría adoptar una entre cuatro estrategias – cooperar sin castigo a los gorrones; cooperar y castigar (“moralistas”); gorronear; o gorronear pero también castigar a otros gorrones (“immoralista”). Inicialmente, las cuatro estrategias se distribuyen de forma aleatoria entre los individuos y el sistema evoluciona para encontrar qué comportamiento es el mejor a largo plazo.

Esta evolución está influida por tres variables – las multas que penalizan a los gorrones; el coste de administrar el castigo; y el “factor de sinergia”, que estipula cuánto se mejora la suma de las constribuciones de los individuos por la acción colectiva.

El programa de ordenador selecciona un individuo de forma aleatoria y calcula cuánto va a ganar en relación con sus vecinos más cercanos, dadas las estrategias empleadas por cada vecino. El ejercicio se repite entonces para los propios vecinos. La estrategia empleada por cada individuo se modifica entonces a la luz del éxito de sus vecinos, de forma que los individuos podrían imitar aquellos que tuvieron un mejor resultado que el suyo.

Intrigantes resultados

Ejecutar la simulación hasta 10 millones de veces, arrojó algunos resultados intrigantes. Como se esperaba, si la proporción entre la multa y el coste y el factor de sinergia eran bajos, finalmente todos se convertirían en gorrones, de la misma forma que los moralistas predominarían si la multa era lo bastante alta. No obstante, también encontraron que los moralistas podrían ganar sobre los cooperadores que no castigan incluso si el coste de administrar el castigo era relativamente alto. Esto se debía a que la imitación de los vecinos con mejor resultados pronto lleva a pequeños cúmulos de cooperadores y moralistas en un mar de gorrones. Con los moralistas lidiando mejor con los gorrones que los cooperadores, se hacen predominantes, incluso aunque perderían si se les coloca en una competición directa con los que no castigan.

También se observó una “colaboración impía” entre moralistas e inmoralistas donde los individuos que adoptan estas estrategias pueden existir a costa de cooperadores y gorrones. Esto, según encontraron los investigadores, ocurriría su el coste del castigo es bajo, la sinergia no muy alta y las multas moderadamente altas. Como señalan, este escenario se ve apoyado por la existencia en la vida real de inmoralistas.

Nuevo tipo de comportamiento colectivo

El colega de Helbing, Attila Szolnoki del Isntituto de Física Técnica y Ciencias de los Materiales en Budapest resume el trabajo: “La contribución de la física estadística a este campo de investigación podría ser el de darnos cuenta de un gran número de jugadores pueden dar como resultado un nuevo tipo de comportamiento colectivo que no puede derivarse a partir del análisis de dos jugadores. Los modelos por ordenador pueden por tanto considerarse como pre-experimentos que ayudan a diseñar experimentos de laboratorio más sofisticados”.

El equipo está actualmente construyendo un laboratorio capaz de llevar a cabo experimentos de la teoría de juegos con hasta 36 personas, lo cual les permitiría estudiar las predicciones de su modelo.

Herbert Gintis, economista y experto en teoría de juegos en el Instituto Santa Fe y la Universidad Europea Central en Budapest, cree que Helbing y sus colegas están en lo correcto al incorporar interacciones de pequeña escala en su modelo. Pero dice que deberían también tener en cuenta el factor de las relaciones genéticas entre individuos, debido a que el comportamiento de los individuos depende de si están tratando con un pariente cercano o no.


Autor: Edwin Cartlidge
Fecha Original: 5 de mayo de 2010
Enlace Original

jueves, 29 de abril de 2010

Se acumulan las evidencias para los tetraquarks


Se acumulan las evidencias para los tetraquarks


Hadrones permitidos en la QCDLa existencia de una nueva forma de materia denominada “tetraquark” ha sido recibido más apoyo en un reanálisis de un experimento que ha desconcertado a los físicos de partículas desde hace dos años.

En 2008, investigadores del experimento BELLE, en el laboratorio KEK, en Japón, observaron cómo un estado excitado del mesón “bottomonio” se desintegraba y se sorprendieron al encontrar que un modo de desintegración determinado era mucho más frecuente de lo esperado.

Ahora, físicos en Alemania y Pakistán han propuesto una explicación extraordinaria – en vez de producir “bottomonio”, el experimento ha creado una nueva partícula conteniendo cuatro quarks. Tales tetraquarks nos llevarían a un modelo de quarks extendido. Daría también a los físicos un conocimiento más profundo de la cromodinámica cuántica (QCD) – la teoría de los quarks y de la fuerza nuclear fuerte que los mantiene unidos del modelo estándar.

En la década de 1960, los físicos comprendieron que los hadrones – protones, neutrones, mesones, etc. – podían describirse en términos de sus partículas constituyentes, los quarks. Los mesones son un estado ligado de un par quark-antiquark, mientras que los bariones (incluyendo protones y neutrones) están formados por tres quarks o tres antiquarks. El modelo de quarks le valió a su pionero, Murray Gell-Mann, el premio nobel de física en 1969, y ha continuado prediciendo la existencia y propiedades de muchos otros hadrones.

Estados exóticos ligados

Sin embargo, la QCD permite la existencia de estados ligados éxoticos. Uno de éstos es el tetraquark, que contiene dos quarks y dos antiquarks. Durante décadas, los físicos de partículas se han preguntado por la existencia de tetraquarks, y en estos años los experimentos se han vuelto suficientemente sensibles para tener señales de ellos.

Si los tetraquarks existen, hay oportunidades de que los vean los físicos que trabajan en colisionadores electrón-positrón en KEK, en Japón, y en SLAC (California). Ambos experimentos pueden ajustarse para producir estados excitados de mesones como el “bottomonio”, que está formado por un quark bottom y un antiquark anti-bottom. Tanto BELLE como BaBar, en SLAC, están diseñados para medir las desintegraciones de estas partículas de vida corta. Y buscan pequeñas desviaciones de las predicciones teóricas. Hasta la fecha, ambos experimentos han indicado sin errores, varias anomalías.

Resultados asombrosos

En 2008 los físicos de BELLE estaban estudiando las desintegraciones del estado altamente excitado Y(5S) del bottomonio. De acuerdo con la QCD, un estado excitado de Y se desintegra raramente en uno de sus estados menos excitados y un par de piones. Sin embargo, cuando BELLE midió este modo de desintegración del Y(5S), las tasas observadas eran varios órdenes de magnitud mayores de lo experado.

Una explicación posible es que las colisiones electrón-positrón ajustadas para formar Y(5S) pueden haber producido también partículas diferentes – un tetraquark mesón Yb(10890). Ahmed Ali y Christian Hambrock de la colaboración DESY, y Jamil Aslam, de la universidad Quaid-i-Azam en Pakistán, han estado investigando esta hipótesis.

Ali explica el porqué: “Si asumimos que los tetraquarks existen, podemos considerar qué masas son posibles, y cómo se desintegrarán. Encontramos que Yb(10890), un tetraquark mesón formado de un diquark up (un par quark anti-quark de quarks up) y un diquark bottom, tiene una masa muy cercana a la de Y(5S). Puede decaer a Y(2S) y un par de píones de diferentes formas, y si calculamos éstas podemos reproducir los datos experimentales”.

Aunque no es concluyente, la evidencia apoya la posibilidad de la existencia de los tetraquarks. “Si es cierto”, dice Ali, “ésto es una nueva forma de materia.”

¿Misterio resuelto?

¿Está entonces el misterio resuelto? Todavía no, de acuerdo con Hambrock, que explica: “Esto es una indicación, pero no una prueba. Con este resultado solo no podemos estar seguros de que los dos diquarks estén en un estado verdaderamente ligado”. Hay otras ideas acerda de qué podría estar causando éstas tasas, como dice Tom Browder, co-portavoz de BELLE, de la universidad de Hawaii. “Quizás otros mecanismos [en la interacción de Y(5S)] podrían explicar estos resultados. Nosotros somos físicos experimentales y tenemos que mantener nuestras mentes abiertas”.

Si Yb(10890) es la causa de la anomalía, hay otra pista esperando a ser descubierta, según Ali. “Si estamos en lo cierto, debería ser una combinación de dos apenas distinguibles tetraquarks, el otro formado por un diquark down y un diquark bottom, con masas prácticamente iguales”, explicó. Con una toma de datos corta fijada para mayo de este año, los físicos de BELLE intentarán deducir si la predicción de Ali es correcta.

If Yb(10890) es la causa de la anomalía, hay otra pista esperando ser descubierta, de acuerdo con Ali. “Si estamos en lo cierto, deberían haber una combinación real de dos tetraquarks apenas distinguibles, el otro formado por un diquark down y un diquark botton, con una masa casi idéntica”, explica. Con una corta ejecución de datos prevista para mayo de este año, los físicos de BELLE intentará deducir si la predicción de Ali es correcta.

La investigación se describe en el artículo Phys. Rev. Lett. 104 162001.
Autor: Zoe Matthews
Fecha Original: 27 de abril de 2010
Enlace Original

lunes, 26 de abril de 2010

El científico Stephen Hawking alerta sobre los peligros del contacto con extraterrestres


El científico, en una rueda de prensa en la Universidad de  Potsdam. | Markus Schreiber | AP

El científico, en una rueda de prensa en la Universidad de Potsdam. | Markus Schreiber | AP

  • Para el profesor es "racional" asumir que hay vida fuera de la Tierra
  • Advierte de que los 'aliens' llegarán a nuestro planeta en busca de recursos
  • Compara la llegada extraterrestre con el descubrimiento de América

El científico británico y astrofísico, Stephen Hawking, ha afirmado en una serie televisiva para el canal de televisión 'Discovery Channel' que los extraterrestres "casi seguramente existen" aunque aconseja que los humanos eviten mantener el contacto con ellos.

El profesor ha asegurado que es "perfectamente racional" asumir vida inteligente en otros lugares, aunque advierte de que los 'aliens' posiblemente harán incursión en la Tierra para proveerse de recursos y luego se irán.

"Algunos extraterrestres evolucionados podrían haberse convertido en nómadas y tener intención de colonizar los planetas a los que llegaran", afirma en la serie 'En el universo con Stephen Hawking".

Para él, si los extraterrestres visitaran la Tierra el resultado sería similar a cuando Cristóbal Colón llegó a América, un encuentro en el cual los nativos del continente americano no fueron los más beneficiados.

Así, el profesor piensa que en lugar de tratar de comunicarse activamente con seres alienígenas los humanos deberían hacer todo lo posible por evitar el contacto. A su juicio, las personas sólo tienen que observarse a sí mismas para darse cuenta de cómo un organismo inteligente puede tornarse en algo que no se quisiera conocer.

Comunicación con el espacio

Según explica la BBC, en el pasado se han enviado sondas al espacio con información acerca del planeta Tierra y de los seres humanos. Además, se han lanzado al Universo transmisiones radiales, con la esperanza de que sean captadas por alguna civilización alienígena.

"Para mi cerebro matemático sólo los números me hacen creer que la existencia de los extraterrestres es perfectamente posible. El gran reto es predecir qué forma tendrían los extraterrestre", asegura el científico británico, aunque supone que, probablemente, la mayor parte de la vida en otros rincones del universo consistirá en simples microbios.

martes, 6 de abril de 2010

Finalmente fijada la masa del quark común

Escrito por Kanijo en Fí­sica

Colisiones de núcleos de oro

No todos los días los científicos reducen la incertidumbre en una constante fundamental de la naturaleza de un 30% a un 1,5%, pero un grupo de físicos teóricos afirman haber hecho justo eso. Usando supercomputadores y simulaciones asombrosamente complejas, los investigadores calcularon la masa de partículas conocidas como quarks “up” (arriba) y “down” (abajo) que forman los protones y neutrones con 20 veces más precisión que el estándar anterior. Las nuevas cifras podrían ser un impulso para los teóricos que tratan de descifrar las colisiones de partículas en impactadores de átomos como el Gran Colisionador de Hadrones (LHC) europeo o que intentan desarrollar teorías más profundas sobre la estructura de la materia.

“Es una afirmación osada, y tendremos que estudiarla con detalle, pero creo que los resultados son robustos”, dice Paul Mackenzie, teórico del Laboratorio del Acelerador Nacional Fermi en Batavia, Illinois, que no estuvo implicado en el trabajo.

Los científicos han sabido desde 1968 que los protones y neutrones contenían quarks unidos entre sí por la conocida como fuerza nuclear fuerte. No obstante, los experimentadores nunca han sido capaces de medir las masas de estos quarks de forma directa, y los teóricos no han sido capaces de calcularla con gran precisión. La razón para el impás es simple: Los quarks se sostienen unos sobre otros tan estrechamente que es imposible aislarlos y estudiarlos por sí mismos. “No puedes poner un quark en una balanza y decir ‘Tiene tal masa’”, dice Christine Davies, teórica de la Universidad de Glasgow en el Reino Unido.

Para empeorar las cosas, las partículas hechas de quarks son notablemente complejas. Se puede decir que un protón consta de dos quarks up y uno down que se mantienen unidos intercambiando gluones. (Un neutrón consta de dos quarks down y uno up). En realidad, los propios gluones intercambian gluones. Y miríadas de pares quark-antiquark aparecen y desaparecen. Por lo que el protón es en realidad una molesta infinidad de quarks y gluones en el que los tres quarks de “valencia” originales, que determinan la identidad del protón, forman menos de un 2% de la masa. Los quarks también aparecen en cuatro tipos más pesados o “sabores” — strange (extraño), charm (encantado), bottom (fondo), y top (cima) — por lo que los teóricos no pueden analizar una partícula como el protón en aislamiento. En lugar de esto, deben explicar simultáneamente las propiedades de toda una familia de partículas relacionadas, tales como la Λ, que consiste en un quark up, uno down y uno strange.

No obstante, en los últimos años, los físicos han hecho grandes progresos al calcular las propiedades de las partículas hechas de quarks, a las que se conoce colectivamente como hadrones. Una aproximación clave es simular las partículas usando una red de cromodinamica cuántica o red QCD. En estas simulaciones, los investigadores modelan el espacio continuo dentro de un hadrón como una parrila de puntos llamados red. También imaginan que el tiempo pasa de forma discreta, y todo esto hace que las matemáticas sean mucho más fáciles. Los investigadores colocan los quarks y gluones en los puntos de la red y usan supercomputadores para simular sus interacciones con espaciados cada vez menores para aproximar al hadrón real. En noviembre de 2008, un equipo distinto de teóricos usó una red QCD para calcular con gran precisión las masas del protón, neutrón y otras tres partículas de quark.

Ahora, Davies y sus colegas básicamente han dado la vuelta al proceso y usan la red QCD para calcular las masas del quark up y down. Las masas de los quarks aislados sirven como entrada que son ajustadas al valor apropiado durante el cálculo de las propiedades del hadrón. Parece que los físicos simplemente podrían calcular unos valores y decir que el problema está resuelto, pero es algo más complejo. Los valores exactos de las masas de los quarks dependen de los métodos matemáticos usandos en la simulación. Además, cada masa de quark aparece con una incertidumbre notable. Davies y sus colegas han encontrado una forma de solventar tales problemas. En lugar de calcular la masa de cada tipo de quark independientemente, calcular las proporciones de esas masas.

Específicamente, calcularon la propoción de masa del quark charm a la del quark strange. Combinaron estos cálculos con otros procedentes de otro grupo de proporciones de masa de quark strange a quarks up y para el quark down. Esas proporciones aparecen con incertidumbres mucho menores, explica G. Peter Lepage, miembro del equipo de la Universidad de Cornell. Y pueden combinarse con el valor ya conocido de la masa del quark charm — que es más fácil de determinar debido a que es unas 500 veces más grande — para obtener por fin las masas de los quarks más ligeros, como señalan los investigadores esta semana en la revista Physical Review Letters. El equipo encontró que un quark up pesa 2,01 +/- 0,14 megaelectrón-voltios, mientras que un quark down pesa 4,79 +/- 0,16 MeV. Esto es 0,214% y 0,510% de la masa del protón, respectivamente.

Conocer las masas de los quarks ligeros es “absolutamente esencial para muchas cosas”, dice Mackenzie. Esas masas ayudan a predecir qué aspecto tendrían las colisiones de partículas del LHC y otros de acuerdo con el ‘modelo estándar’ teórico”. A su vez, esos cálculos son claves para observar discrepancias que podrían apuntar a nuevas partículas o fenómenos, comenta. Es más, mientras que el modelo estándar trata las masas de los quarks como arbitrarias, los físicos esperan desarrollar teorías más profundas que puedan explicar, por ejemplo, por qué tienen los valores que tienen. Las masas de los quarks proporcionarían un importante banco de pruebas para tal esfuerzo, señala Mackenzie.

Aún así, Norman Christ, teórico de la Universidad de Columbia, dice que Davies y sus colegas hacer ciertas suposiciones y aproximaciones en sus cálculos que tienen que ser comprobadas. “Quieres que se confirme por medios independientes, con suerte por un grupo competidor que intenta demostrar que este grupo está equivocado y que se ve arrastrado a admitir que sus resultados concuerdan”.


Autor: Adrian Cho
Fecha Original: 2 de abril de 2010
Enlace Original

¿Qué ha que avance el tiempo? Culpa al Big Bang

Escrito por Kanijo en Fí­sica

Big Bang

Una oportuna entrevista con el físico Sean Carroll sobre cómo nuestro viaje de ida desde el pasado hacia el futuro está entrelazado con la entropía y el origen del universo.

Los físicos a menudo describen el tejido del universo en el que habitamos como un espacio-tiempo de cuatro dimensiones, con tres dimensiones espaciales y una temporal. Pero mientras que pasamos nuestros días viajando por el espacio en la dirección que deseamos (siempre que la gravedad y los obstáculos sólidos lo permitan), el tiempo nos empuja, queramos o no, a lo largo de una única dirección predeterminada del tiempo: hacia el futuro.

Esta es la flecha del tiempo — la vida nos lleva desde el pasado, a través del presente, hacia el futuro. El argumento de Back to the Future (Regreso al futuro) trata de esto, aunque nadie sabe cómo invertir la flecha – cómo movernos hacia atrás en el tiempo – y las paradojas lógicas que darían como resultado de tal viaje al pasado que nos colocarían, en el mejor caso, en una situación peliaguda. (Gracias a la predicción de la relatividad especial llamada dilatación temporal, el viaje al futuro lejano es relativamente fácil: simplemente muévete rápido, realmente rápido).

En su nuevo libro, From Eternity to Here (De la eternidad a aquí) (Dutton, 2010), el físico teórico Sean Carroll del Instituto Tecnológico de California se propone explicar por qué la flecha del tiempo sigue adelante inexorable en una dirección. Expandiendo los conceptos de su artículo de junio de 2008 para Scientific American, Carroll defiende la necesidad de casar tres ideas aparentemente dispares: tiempo, entropía y cosmología.

La entropía, que en términos comunes es la medida del desorden de un sistema, aumenta con el tiempo, tal y como dicta la segunda ley de la termodinámica. Para ilustrar el inexorable crecimiento de la entropía, Carroll nos lleva a la mesa del desayuno – no puedes des-revolver los huevos, señala, y no se puede des-remover la leche del café. Estos sistemas invariablemente llevan a configuraciones desordenadas, o de alta entropía. Cada uno de estos ejemplos muestra cómo el continuo crecimiento de la entropía llena el mundo de procesos irreversibles que dividen el pasado del futuro: Hacer una tortilla o mezclar leche en una taza de café son eventos que funcionan sólo en una dirección temporal.

Pero, ¿por qué debería incrementarse siempre la entropía? Aquí es donde Carroll se vuelve hacia la cosmología, la cual debe explicar por qué se inició el universo en un estado de insólita baja entropía. Hablamos con el físico sobre su nuevo libro y los retos de presentar física de vanguardia a una audiencia amplia.

¿Qué suscita tanto interés por el tiempo? Para un observador simplista es algo que simplemente pasa y con el que no podemos hacer nada; no cambia.

Hay dos cosas que me inspiraron para escribir el libro. Una es que el tiempo es algo que nos es familiar. Todos lo usamos – no tenemos problemas en leer un reloj. Pero entonces, cuando se actúa como un buen científico o filósofo y se le intenta dar sentido, surge un problema: Las leyes fundamentales de la física tratan el pasado y el futuro como si fuesen exactamente iguales, mientras que el mundo no lo hace. Hay una gran diferencia — el pasado ya sucedió, y el futuro está aún por llegar. Por lo que estaría bien reconciliar eso. Ése es el problema de la flecha del tiempo en el que se ha pensado durante al menos los últimos dos siglos.

Creo que es un problema interesante e importante, y es tan bueno para escribir sobre él como cualquier otro. Pero hay algo que creo que hace de este problema algo especial, y es que la respuesta a por qué el pasado es diferente el futuro, sea cual sea su final, no trata sólo de lo que sucede aquí mientras estamos hablando, conforme pasa el tiempo en nuestras vidas cotidianas. Está íntimamente conectado con todo el universo – con lo que sucedió en el Big Bang, con las condiciones especiales en las que se inició nuestro universo.

Una comprensión total de lo que sucede en nuestras vidas cotidianas tiene que tener en cuenta lo que sucedió en el Big Bang. Y no sólo es que sea intrínsecamente interesante y algo divertido en lo que pensar, sino también un misterio al que no se ha prestado mucha atención por parte de los científicos que trabajan en él; está un poco subestimado. Estamos tan lejos de saber la respuesta que no pensamos mucho sobre eso. Por lo que quiero llevar la atención a esta conexión entre la flecha del tiempo y la cosmología, tanto a los lectores cotidianos como a mis amigos científicos. Creo que es algo que deberíamos realmente tener en mente como uno de los misterios fundamentales que afronta la ciencia moderna.

Como lector cotidiano, aprecio mucho las citas introductorias de los capítulos desde Annie Hall, Vladimir Nabokov, o Dos tontos muy tontos. ¿Qué reto supuso tratar de mantener el libro como algo accesible y divertido?

Lo intenté con todas mis fuerzas, y creo que tuve éxito en algunos lugares más que en otros. Gran parte del material no era exactamente en lo que yo trabajaba, por lo que tuve que aprender mucho sobre un montón de cosas de las que era apenas consciente. En realidad creo que lo hice mejor haciendo esas secciones animadas, interesantes y accesibles que las secciones que comprendía mejor. Debido a que sabía que tenía que sentarme y pensar muy profundamente sobre ello; no pude dar mi charla habitual.

Las buenas noticias son que, excepto por unas pocas cosas sobre mecánica cuántica y el multiverso, la mayor parte de ideas básicas son bastante captables. No son drásticamente abstractas; no tenemos que trabajar en dimensiones superiores o cosas como esas. Puedes ver las ideas básicas de las que estamos hablando trabajando por sí mismas en la vida cotidiana.

Soy un convencido de que la ciencia es parte de algo cultural mayor. La ciencia no es todo por sí misma. Por lo que definitivamente quiero dar la sensación de que cuando pensamos sobre el universo y el espacio y la experiencia y la memoria y el libre albedrío y todas esas cosas de las que hablo en el libro, son tanto ciencia como nuestras vidas cotidianas y la cultura en la que vivimos, por lo que ¿por qué no divertirnos y unirlas?

Volviendo a la ciencia por un momento, ¿cómo interviene el concepto de entropía con la flecha del tiempo?

Bien, creo que la gente probablemente haya escuchado la palabra entropía. Aumenta; esa es la segunda ley de la termodinámica. Tienes ese famoso – al menos famoso entre los científicos — episodio con [el novelista y físico inglés] C. P. Snow, donde trataba de convencer a la gente de que no deberían ser sólo ilustrados en literatura sino también en ciencia. Y el ejemplo que elige Snow como algo que todo el mundo debería conocer es la segunda ley de la termodinámica, la ley que dice que la entropía se incrementa.

Y esto es cierto, y creo que es un gran ejemplo, pero lo que pienso que en realidad está subestimado es todo lo que concierne a la flecha del tiempo – lo que pensaríamos sobre “cómo funciona el tiempo”, el hecho de que el pasado está escrito en piedra mientras que el futuro aún puede alterarse – todo debido a la entropía. El hecho de que puedas recordar ayer pero no mañana es debido a la entropía. El hecho de que siempre naces joven y mueres viejo, y no al revés como Benjamin Button — es todo debido a la entropía. Por lo que creo que la entropía no es apreciada como algo que tiene un papel crucial en cómo pasamos por nuestra vida.

Usted tiene una especie de momento de sinceridad en el libro cuando habla sobre un veterano físico al que no nombra que tuvo algunas quejas con sus teorías sobre el tiempo y la segunda ley.

Su objeción era con la idea de que la comología tenía algo que ver.

La siguiente frase es totalmente cierta: Para comprender la segunda ley de la termodinámica, o cómo funciona la flecha del tiempo en nuestras vidas cotidianas, no tenemos que hablar sobre cosmología. Si tomas un libro de mecánica estadística, no habrá nada de cosmología en absoluto. Por lo que sería incorrecto decir que tenemos que comprender el Big Bang para usar la segunda ley de la termodinámica, para saber cómo funciona. El problema es que para comprender por qué existe, se requiere un conocimiento de la cosmología y lo que sucedió en el Big Bang.

Una vez asumes que el universo tiene una entropía baja por la razón que sea, todo lo demás se sigue, y sobre esto es sobre lo que siempre hablamos en los libros de texto. Pero vamos a ser un poco más ambiciosos que eso. Queremos comprender por qué era de esta forma – ¿por qué la entropía era ayer menor que hoy?

Comprender por qué la entropía era menor ayer requiere de la cosmología. Y creo que si te sientas y lo piensas con cuidado no hay ninguna duda de que esto es cierto, aunque mucha gente no lo acepta aún.

Si se toma esta aproximación y se mira al tiempo desde una perspectiva cosmológica, ¿qué era esta condición de baja entropía en el pasado? ¿Qué aspecto tendría?

No aprendemos nada sobre el inicio del universo haciendo esta observación. Ya sabemos qué aspecto tenía el inicio del universo. Era liso, se expandía muy rápidamente, era un estado denso y caliente, y había una gran cantidad de materia en el universo. Ahora, esta parece que era una configuración del universo de entropía muy baja, y ese es el misterio. Por lo que no se trata de aprender qué aspecto tenía el universo joven, algo que ya sabemos – se trata de que al intentar explicarlo, al tratar de llegar a una teoría, sea la inflación o el universo cíclico o un gran rebote, no se ha tenido éxito al explicar los inicios del universo a menos que expliques por qué tenía entropía baja. Y puedo pensar en un tremendo número de teorías cosmológicas contemporáneas que fallan tal requisito; dan un paso lateral para rodear la cuestión en lugar de abordarla frontalmente.

¿Estas teorías hacen predicciones que puedan ser probadas basándonos en nuestra comprensión del tiempo y la entropía?

Aún no. Nos encantaría hacerlo. Todo lo que puedo decir es que espero que lo hagan. Hablo de este tema en el epílogo del libro.

Por una parte, si estas ideas no se conectan con las cosas que observamos, es inútil hablar de ellas. Pero esto no es lo mismo que decir que, debido a que no podemos conectarlas actualmente con predicciones observables, es inútil hablar de ellas. Son parte de un cuadro mucho mayor – tenemos que comprender cómo se unen la mecánica cuántica y la gravedad mucho antes de que podamos decir definitivamente que tenemos la respuesta correcta a estas cuestiones.


Autor: John Matson
Fecha Original: 7 de enero de 2010
Enlace Original

sábado, 20 de marzo de 2010

Los científicos agrandan la mecánica cuántica

Redoble tambor
Manos en movimiento haciendo un redoble de tambor. Un redoble cuántico se ha convertido en el primer objeto visible en ser puesto en una superposición de estados cuánticos. A. Olsen/iStockphoto

El mayor objeto colocado en un estado cuántico.

Un equipo de científicos ha tenido éxito al colocar un objeto lo bastante grande para ser visible a simple vista en un estado cuántico mezclado de movimiento y estático.

Andrew Cleland de la Universidad de California en Santa Barbara, y su equipo enfriaron un diminuto remo de metal hasta alcanzar su ‘estado base’ mecánico cuántico — el estado de menor energía permitido por la mecánica cuántica. Entonces usaron las extrañas reglas de la mecánica cuántica para colocar simultáneamente el remo en movimiento mientras que se mantenía quieto. El experimento demuestra que los principios de la mecánica cuántica se aplican a objetos cotidianos aparte de las partículas de escala atómica.

Este trabajo se publica simultáneamente on-line en Nature y se presentó en la reunión en Portland de la Sociedad Física Americana1.

De acuerdo con la teoría cuántica, las partículas actúan como ondas en lugar de puntos masivos a escalas muy pequeñas. Esto tiene docenas de consecuencias extrañas: Es imposible saber la posición exacta de una partícula y su velocidad en el espacio, aunque es posible que la partícula haga dos cosas contradictorias a la vez. A través de un fenómeno conocido como ’superposición’ una partícula puede moverse y permanecer estacionaria al mismo tiempo – al menos hasta que una fuerza externa actúe sobre ella. Entonces, instantáneamente elige una de las dos posiciones contradictorias.

Pero aunque las reglas de la mecánica cuántica parecen aplicarse a escalas pequeñas, nadie ha visto pruebas de la misma a gran escala, donde las influencias externas pueden destruir más fácilmente los frágiles estados cuánticos. “Nadie ha demostrado hasta la fecha que, si tomas un objeto grande, con billones de átomos, la mecánica cuántica se aplique a su movimiento”, dice Cleland.

No hay una razón obvia para que las reglas de la mecánica cuántica no puedan aplicarse a objetos grandes. Erwin Schrödinger, uno de los padres de la mecánica cuántica, estaba tan inquieto por la extrañeza cuántica a gran escala que propuso su famoso experimento mental del “gato de Schrödinger”. Se coloca un gato en una caja con una vía de cianuro y una fuente radiactiva. Si la fuente decae, dispara un dispositivo que romperá la vía, matando al gato. Durante el tiempo que la caja está cerrada, defiende Schrödinger, el gato está en una superposición de vivo y muerto — un absurdo por lo que a él respectaba.

Extrañeza maravillosa

Cleland y su equipo tomaron una medida más directa de la extrañeza cuántica a gran escala. Comenzaron con un diminuto remo mecánico, o ‘baqueta cuántica’, de unos 30 micrómetros de longitud que vibra cuando se coloca en movimiento en un rango concreto de frecuencias. Luego conectaron el remo a un circuito eléctrico superconductor que obedecía las leyes de la mecánica cuántica. Entonces enfriaron el sistema hasta temperaturas por debajo de una décima de kelvin.

A esta temperatura, el remo entró en su estado base mecánico cuántico. Usando el circuito cuántico, Cleland y su equipo verificaron que el remo no tenía energía vibratoria en absoluto. Entonces usaron el circuito para dar al remo un empujón y verlo vibrar a una energía específica.

Luego, los investigadores colocaron el circuito cuántico en una superposición de “empuje” y “no empuje”, y lo conectaron al remo. A través de una serie de cuidadosas medidas, fueron capaces de demostrar que el remo estaba, simultáneamente, vibrando y no vibrando.

“Es maravilloso”, dice Hailin Wang, un físico de la Universidad de Oregon en Eugene ha estado trabajando en una técnica rival para poner un oscilador en estado cuántico. El trabajo muestra que las leyes de la mecánica cuántica se mantienen, como se esperaba, a gran escala. “Esto, con seguridad, es bueno para la física”, dice Wang.

Entonces, si billones de átomos pueden colocarse en un estado cuántico, ¿por qué no vemos a un autobus de dos pisos, andando y deteniéndose a la vez? Cleland cree que el tamaño importa: cuanto mayor es el objeto, más fácil es para las fuerzas externas perturbar el estado cuántico.

“El entorno es algo enorme y complejo”, dice Cleland. “Es esa interacción de este sistema increíblemente complejo lo que hace que se desvanezca la coherencia cuántica”.

Aún así, dice, hay una gran cantidad de razones para seguir intentando tener objetos grandes en estados cuánticos. Los estados cuánticos grandes dicen a los investigadores más sobre las relaciones entre la mecánica cuántica y la gravedad — algo que aún no se comprende bien. Y los resonadores cuánticos podrían ser útiles para algo, aunque Cleland admite que no está seguro de para qué”. Podrían tener alguna aplicación interesante”, comenta. “Pero francamente, no tengo una”.