Latest Posts:

Mostrando las entradas con la etiqueta mundo cuantico. Mostrar todas las entradas
Mostrando las entradas con la etiqueta mundo cuantico. Mostrar todas las entradas

21 de noviembre de 2012

Secretos cuánticos para proteger la información

Instalaciones de fibra óptica

Miles de kilómetros de cables de fibra óptica podrían ser usados para transmitir claves cuánticas.

Códigos secretos creados aplicando física cuántica fueron transmitidos por primera vez a distancias de kilómetros utilizando banda ancha común. 

Hasta ahora los llamados códigos cuánticos requerían una infraestructura separada y costosa, la llamada fibra oscura, diferente de la utilizada normalmente para transmitir información.

Laboratorio Toshiba

La mayoría de los sistemas de distribución cuántica de claves están aún restringidos al laboratorio. 

El avance es un paso más en la revolución de la llamada criptografía cuántica, que permite transmitir información de manera segura fundamentada en la física cuántica, en lugar de métodos convencionales, basados generalmente en problemas computacionalmente difíciles.

Pulsos diminutos de láser se utilizan para dar a los fotones una determinada alineación o polarización. Polarizaciones diferentes actúan como los 0s y 1s de la información digital, permitiendo compartir una clave criptográfica.

Lo que hace segura la clave es que cuando los fotones son observados, cambian en forma irrevocable, por lo que un intruso que intenta interceptar la clave sería detectado.

Andrew Shields, del Laboratorio de Investigaciones de Toshiba en Cambridge, Inglaterra, y sus colegas lograron ahora enviar esta información en la infraestructura de fibra óptica existente, desarrollando detectores que captan un fotón por vez y se abren sólo durante una décima de mil millonésima de segundo. La transmisión se logró a lo largo de 90 kms de cable.

El trabajo de Shields es como "intentar distinguir las estrellas mientras se mira de frente al Sol", señaló el experto en seguridad digital Alan Woodward, de la Universidad de Surrey.

"Lo que han logrado estos investigadores es usar una técnica que rápidamente pasa de una a otra de las fuentes de luz que utilizan la fibra al mismo tiempo, de modo que una se distinga de la otra".

Polarización

Fibra óptica

El uso de la infraestructura existente, en lugar de fibras exclusivas, permitiría abaratar costos.

La Distribución Cuántica de Claves (DCC o QKD por sus siglas en inglés) permite crear claves de manera segura entre dos partes que comparten un canal cuántico (usando fibra óptica, por ejemplo), ya que la mecánica cuántica proporciona modos de realizar cómputos o transferir información de manera completamente distinta a los sistemas de seguridad clásicos, explica el sitio sobre investigación en computación cuántica de la Universidad Politécnica de Madrid.

Mediante un complejo protocolo, emisor y receptor intercambian una serie de qubits (unidad mínima de información cuántica) codificados en fotones, lo que les permite acordar una clave secreta, ya que, según los principios de la física cuántica, cualquier intento de observación de un qubit será detectado por el receptor, lo que otorga una completa seguridad al intercambio de información.

"Cuando se trabaja en escalas muy pequeñas, las leyes de la fisica clásica dejan de tener validez y son sustituidas por las leyes de la mecanica cuántica", le explicó a BBC Mundo el Dr. Vicente Martín Ayuso, director del Centro de Supercomputación y Visualización de Madrid y miembro del Grupo de Investigación en Información y Computación Cuántica de la Universidad Politécnica de Madrid.
"Si alguien intenta manipular los qubits, esto se traduce en un nivel de error adicional y su intrusion puede ser detectada"
Dr. Vicente Martín Ayuso

"La naturaleza en estas escalas se comporta a veces de manera poco intuitiva: un átomo puede estar en dos sitios a la vez, las correlaciones entre objetos cuánticos pueden ser muy distintas de las que estamos acostumbrados, etc. El proceso de la medición de propiedades de objetos cuánticos lleva emparejada en ciertos casos una alteración de los mismos", señaló el científico.

"Cuando medimos un qubit o bien obtenemos un "0" o un "1", pero no ambos. Lo que obtengamos depende además de en que base elijamos medirlo. Un ejemplo típico de sistema cuántico seria un fotón y un ejemplo de propiedades seria la polarización. La polarización hay que medirla de una manera determinada que implica ciertas elecciones sobre cómo se mide. Por ejemplo, podemos medir la polarización usando un polarizador con una orientacion que decidamos que es la "horizontal" y su perpendicular "vertical".

Estas dos orientaciones definen una base de medida, explicó el científico español, pero también podría usarse un polarizador girado 45 grados con respecto al "horizontal" y otro girado -45 grados. Un qubit seria un fotón sobre el que se ha codificado un estado usando la polarización.

Costo

La polarizacion se ha usado en la práctica para hacer sistemas de criptografia y la idea básica, según el Dr. Ayuso, es que si alguien intenta manipular los qubits, esto se traduce en un nivel de error adicional y su intrusión puede ser detectada.
"Compartir la infraestructura de fibra óptica existente abarata mucho la criptografia cuántica y la pone a un nivel económicamente competitivo con otras técnicas convencionales"
Dr. Vicente Martín Ayuso

"En el articulo de Shields se tiene una transmisión cuántica de alta velocidad y larga distancia a la vez que dos canales de informacion clásica, con lo que se podría usar una fibra preexistente para hacer criptografia cuántica, sin necesidad de usar una nueva de manera exclusiva. En la practica es el costo de una fibra oscura lo que es realmente caro, mas que los equipos de criptografia cuántica. Compartir la infraestructura de fibra óptica existente abarata mucho la criptografia cuántica y la pone a un nivel económicamente competitivo con otras técnicas convencionales".

Entre los siguientes pasos para llevar la criptografía cuántica a las redes fuera del laboratorio, el Dr. Ayuso destaca que "la conexión sigue siendo punto a punto. Para ampliar más el campo, se necesitaría también poner este tipo de sistemas en redes ópticas multipunto".

Además, "idealmente, se necesitarían alcanzar distancias todavia mayores, pero esto es complicado con la tecnología actual. Un campo en desarrollo es el de los repetidores cuánticos, que permitirian precisamente el alcance ilimitado, pero esta es una tecnología que no se espera que esté diponible ni siquiera en un futuro a medio plazo".

Fuente:

BBC Ciencia


Contenido relacionado

17 de noviembre de 2012

James Gillies: ´La gente debe saber qué es el Bosón de Higgs´



"Es importante comunicar la ciencia a la sociedad ya que de ella depende todo lo que hacemos", afirma el director de comunicación del CERN, el laboratorio europeo que alberga el mayor acelerador de partículas.


James Gillies es director de comunicación del CERN, el laboratorio europeo en el que se encuentra el mayor acelerador de partículas del mundo y donde se materializó el descubrimiento del Bosón de Higgs, uno de los mayores hallazgos científicos. Pese a la trascendencia de este hito, Gillies cree que el ciudadano común desconoce su alcance, a pesar de que descubrimientos como este cambiarán en el futuro su vida diaria en la práctica. 

El Bosón de Higgs es la piedra angular de las leyes físicas que intentan explicar el funcionamiento del Universo. Su existencia teórica se propuso en 1964 por el científico británico Peter Higgs. Sin el Bosón, de acuerdo con la teoría de Higgs, el universo sería una sopa gigante. Sin estrellas, planetas ni vida. Durante décadas, el célebre Bosón fue tan solo una teoría sin demostrar, hasta que el acelerador de partículas del CERN descubrió su existencia real.
 
–¿Cree que la población en general es conocedora de lo que significa el Bosón de Higgs y su descubrimiento? 
–No, no lo creo. Y ese es el verdadero reto. Hemos visto que hay muchos factores que determinan que la gente lo desconozca. Hemos trabajado duro para que aumente la población que es consciente de lo que es el Bosón de Higgs. Necesitamos un giro en cuanto al reconocimiento que la sociedad da a un descubrimiento como este y que sepan por qué realmente es importante, ya que hasta ahora la gente ha oído hablar de ello y sabe que es importante porque los medios le han dicho que es importante, pero no tienen claro por qué. Necesitamos que lo sepan.
 
–¿Por qué debería ser importante para un ciudadano ajeno al trabajo científico saber qué es esta partícula? ¿En qué puede mejorar su vida diaria?
–Cuanto más he trabajado en comunicación científica más me he convencido de que todo el mundo es curioso por naturaleza. Forma parte de lo que nos hace humanos y al investigar estamos satisfaciendo una necesidad humana básica de entender dónde estamos, los misterios de nuestro universo. Todo lo que hacemos simplemente depende de la ciencia.
 
–¿Qué es el famoso Bosón?
–Todo tiene masa y es atraído por ella, es lo que nos hace estar en la tierra. El bosón es una partícula elemental que explica la existencia de la masa, la materia de la que estamos hechos, y sin ella no existiríamos. Por eso algunos, no nosotros, la han llamado la partícula de Dios.
 
–¿Y por qué se necesitaba un acelerador como el del CERN para descubrir su existencia?
–El acelerador permite acelerar los protones a mucha velocidad, hacerlos colapsar, porque de esos colapsos pueden salir nuevas partículas (como el Bosón). También se puede descubrir de la caída de partículas del espacio, pero es más difícil.
 
–¿Y qué puede aportar esa curiosidad a la vida diaria del ciudadano común?
–Por un lado, simplemente satisfacer una necesidad que ya he dicho que es humana. Por otro lado, también es muy importante trasladar a la sociedad el mensaje de que, realmente, este u otros descubrimientos van a mejorar su vida diaria de forma práctica. No puedo decirle ahora lo que dentro de 50 años se va a lograr gracias al descubrimiento del Bosón de Higgs, pero sí le aseguro que algo importante se hará con él. Por ejemplo, si nadie hubiera tenido una curiosidad inicial por la luz y la posibilidad de que existieran las bombillas, aún estaríamos con velas y no tendríamos electricidad. En el corto plazo, también hay una aplicación directa porque la clase de gente que tiene más curiosidad y que investiga requiere a otros investigadores que desarrollen tecnología de la que no dispone para su investigación. De modo que se retroalimenta y esta tecnología pasa a beneficiar también a la sociedad.
 
–¿Qué hace tan relevante aplicar una buena comunicación científica a la sociedad?
–Que la sociedad sea conocedora es importante. Siempre pongo el ejemplo sobre un estudio aislado que se comunicó de forma equivocada desde algunos medios y que se malinterpretó también por el público. El estudio hablaba de ciertos efectos negativos de la vacuna triple vírica (sarampión, rubeola y polio), que es una vacuna muy importante para los niños. Era una información incompleta que pudo generar mucho riesgo a muchos niños si los padres decidían no vacunarlos. En un nivel más alto de los puestos de decisión, conocer sobre la ciencia es fundamental para tomar decisiones sobre políticas mundiales, tales como qué hacemos frente al cambio climático, que evidentemente puede tener una influencia del ser humano y podemos hacer algo al respecto.
 
–¿Hay Dios dentro del Bosón de Higgs ?
–Es una partícula que explica la vida dentro del universo, pero no, Dios no está en ella.

Fuente:


Lea también:


31 de octubre de 2012

Una de dos: O la información es mas rápida que la luz, o todo el Universo está relacionado entre sí

20120801012312I[1]

El entrelazamiento cuántico debe ser una de los fenómenos más sorprendentes de la física: Al enlazar dos o más partículas en un solo estado cuántico, cuando posteriormente se observa el estado de una de las partículas, uno puede prever el estado de la otra partícula sin importar la distancia que las separe. Es como si una supiera lo que hace la otra instantáneamente y se comunicaran entre sí.

Lo interesante es que numerosos experimentos han demostrado que las dos partículas ‘comunican’ su estado entre dos lugares de medición distintos a una velocidad que superaría a la de la luz. La explicación estándar a este fenómeno –la no-localidad– es considerar que las partículas entrelazadas son realmente un sólo sistema cuántico, aunque estén muy separadas. Es una idea que incomoda a muchos (incluso a Albert Einstein) pero que preserva el principio de la relatividad.

Para encontrar otra explicación, muchas ideas se han propuesto en las ultimas décadas, las que en su mayoría caían en la categoría de variables escondidas que no podemos observar directamente mediante experimentos, por lo que no habríamos podido ocupar este fenómeno para la comunicación.

Sin embargo, un nuevo análisis de un equipo de académicos que publicó la revista Nature Physics nos indicaría que cualquier explicación a este fenómeno inevitablemente nos abriría a la posibilidad de comunicaciones mas rápidas que la luz, pues el entrelazamiento cuántico no puede traspasar información, a cualquier velocidad –incluso si es inaccesible por medio de la experimentación porque es interna–, sin involucrar también otros tipos de interacciones que sí violarían la teoría de la relatividad.

Esto es debido a que hay dos opciones: O existen estas variables escondidas y el entrelazamiento cuántico implica intercambiar información a una velocidad mayor a la de la luz, desafiando a la relatividad; o no hay influencias invisibles por lo que las existentes pueden ser infinitamente rápidas, lo que implicaría que el Universo completo es no-local, o sea que todos sus puntos se pueden conectar entre sí instantáneamente.

Uno de los miembros del equipo de académicos, el profesor de la Universidad de Ginebra, Nicolas Gisin, asegura que “nuestros resultados nos dan la idea de que, de alguna forma, las correlaciones cuánticas surgen desde afuera del espacio-tiempo“. Algo nada menor.


Fuente:

FayerWayer

15 de octubre de 2012

¿Qué hay después del bosón de Higgs?

¿Es curioso y le gustaría saber cómo está hecho todo lo que vemos en el universo? El descubrimiento del bosón de Higgs es, si se confirman sus características, la pieza que faltaba para conseguirlo. Sin él no existiríamos. Pero ¿qué más sorpresas nos esperan?



El físico teórico Peter Higgs durante una visita en el detector CMS, del acelerador de partículas LHC en 2008. / CERN

“¿Por qué se emocionó la gente con la relatividad de Einstein, cuando yo era un niño, allá por los años treinta? ¿Por qué la gente adora las buenas fotos de Saturno? ¿Por qué tantas personas se preocuparon tanto cuando Plutón fue degradado como planeta? ¿Por qué fascina la materia oscura y la energía oscura del universo?”, comenta el premio Nobel de Física Sheldon Lee Glashow al plantearse la repentina popularidad, todo un exitazo mundial, de una nueva partícula elemental, minúscula, pero esencial para comprender de qué estamos hechos, bautizada con el extraño nombre de bosón de Higgs y recién descubierta, o casi. El hallazgo, anunciado el pasado 4 de julio en el Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra, culmina más de medio siglo de búsqueda científica con enormes esfuerzos de investigación en el mayor complejo de máquinas de experimentación científica que se ha construido jamás. Y ahora ¿Qué hay después Higgs? ¿Qué nuevos fenómenos de la naturaleza pueden surgir en el gran acelerador de partículas LHC y sus detectores, en los que el Higgs se ha hecho realidad por fin?

Los físicos, por supuesto, siguen en la brecha, intentado siempre desvelar los enigmas de la naturaleza. Y para ellos un descubrimiento es siempre un escalón más, nunca el final de la escalera. Pero a veces el hallazgo es tan importante que condiciona los siguientes pasos a dar. El bosón de Higgs no es una partícula cualquiera, dice Glashow, es la última pieza que faltaba en la teoría contemporánea que describe como están hechas las cosas, todo lo que vemos en el universo. “Y juega un gran papel”, añade, con su habitual entusiasmo este físico estadounidense de la Universidad de Boston.


Una colisión de partículas registrada en el detector Atlas en el que se ha producido un posible bosón de Higgs. / CERN / ATLAS

“Sin el Higgs no existiríamos”, apunta el director del CERN, el alemán Rolf Heuer. “Cuando estudiamos los componentes más pequeños de la materia, abordamos las mayores preguntas del universo, y el bosón de Higgs nos dirá cómo las partículas fundamentales de las que todos estamos hechos adquieren su masa y, por tanto, permiten la existencia de cosas complejos, como los seres humanos”, comenta.
Heuer fue quién presentó, el 4 de julio, en el auditorio del CERN y con transmisión por internet a todo el mundo, las charlas de Joe Incandela y Fabiola Gianotti, los portavoces de los dos enormes detectores Atlas y CMS en los que habían por fin aparecido las huellas del ansiado bosón de Higgs. Daniel Froidevaux dice que “fue un momento mágico”. Para este físico suizo que empezó a proyectar y trabajar en el experimento Atlas hace 25 años “ha sido una suerte inmensa, porque nadie te puede garantizar que en tu vida profesional vayas a presenciar un descubrimiento así”. Se emocionó, reconoce, hasta las lágrimas, el 4 de julio, pero ya mira hacia adelante, como todos los expertos, confiando en que el LCH proporciones señales de un universo desconocido. Ese es realmente el objetivo del gran acelerador, dice.
La idea básica de este tipo de máquinas (y el LHC es la más potente jamás construida) es hacer chocar frontalmente partículas –protones, en el acelerador de Ginebra- aceleradas hasta casi la velocidad de la luz de manera que en las colisiones y, siguiendo las leyes de la física, formen otras partículas, casi siempre conocidas, pero a veces, muy de vez en cuando, nuevas, como el bosón de Higgs.

Encontrar el famoso bosón ha sido muy difícil, “como dar con un tipo especial de copo de nieve en una gran nevada”, señala Heuer.

Pero pueden desvelarse más secretos de la naturaleza. Nuevas familias de partículas que ahora solo son hipótesis de los teóricos, incluso huellas de nuevas dimensiones espaciales que puedan existir además de las tres en las que vivimos (alto, ancho y largo) y que estén escondidas en el microcosmos, son algunas posibles piezas a cazar en el CERN en los próximos años.

Conviene hacer un somero repaso de cómo es y cómo funciona el microcosmos. La materia de nosotros mismos, de todo lo que nos rodea y lo que vemos en el cosmos, incluidos planetas, estrellas y galaxias, está formada por partículas elementales gobernadas por fuerzas fundamentales. Los átomos son objetos compuestos por un núcleo rodeado de electrones (que parecen ser partículas fundamentales, indivisibles), y el núcleo esta hecho de protones y neutrones (en muchos casos), a su vez formados por quarks, estos si indivisibles (por lo que ahora se sabe). Pues bien, los físicos, a lo largo del siglo XX y con la estrategia eficaz de combinar observaciones, experimentos y teorías que los expliquen, han logrado describir esas partículas y sus interacciones en el llamado Modelo Estándar (MS), verificado y comprobado con una precisión enorme.

“El bosón de Higgs nos dirá cómo las partículas adquieren su masa y permiten la existencia de cosas complejas”

El modelo estándar describe las partículas elementales y como funcionan. Es un poco como un kit con distintas piezas y las instrucciones para montarlas. Las piezas son las partículas que constituyen la materia y las instrucciones describen como funcionan, es decir las fuerzas entre ellas, que curiosamente, consisten en intercambios también de partículas. Las piezas son 12 partículas (como los quarks o los electrones) organizadas en tres familias, y las fuerzas de interacción del MS son también tres: el común electromagnetismo, la fuerza débil responsable de las desintegraciones radiactivas y la fuerza fuerte que mantiene unidos los quarks en los protones y neutrones del núcleo atómico.

Pero el MS no es perfecto y una de sus deficiencias importantes, además de no lograr acomodar en ella la cuarta fuerza, la gravedad, es su incapacidad de explicar por qué unas partículas tienen masa y otras no, y por qué las primeras tienen masas diferentes. Y aquí se incorporó el bosón de Higgs al MS como solución teórica, hace casi medio siglo. Esta partícula es la manifestación del denominado campo de Higgs con el que interaccionan más o menos intensamente las partículas que tienen masa, y nada las que no la tienen (como el fotón de la luz). Este mecanismo fue propuesto por varios físicos teóricos (el británico Peter Higgs, entre otros), pero ha sido muy difícil comprobar si era correcto, si la naturaleza funciona realmente así, y sólo con el descubrimiento experimental del bosón concreto empiezan a aclararse las cosas.
La partícula que los físicos de Atlas y CMS anunciaron el 4 de julio es un bosón (un tipo de partículas) y muy posiblemente el que se estaba buscando, pero los expertos no están aún seguros, así que lo primero es estudiarlo con más detalle y salir de dudas. “Determinar si es exactamente esa partícula o si hay más bosones de Higgs adicionales requerirá analizar los datos del LCH durante las próximas una o dos décadas y el estudio, probablemente, continuará en un futuro acelerador diseñado especialmente para medir con alta precisión sus propiedades”, dice Aurelio Juste Rozas, investigador del Instituto de Física de Altas Energías (IFAE, en Barcelona) y miembro del experimento Atlas.

También considera que la cosa llevará tiempo Marcos Cerrada, del Ciemat, físico del CMS. “Pero si se trata precisamente del bosón de Higgs, sabemos perfectamente qué características debe tener”, añade.

Igualmente pide paciencia Froidevaux: “A finales de ese año sabremos un poco más, pero bien podemos tardar diez años en caracterizar el nuevo bosón y verificar que sus propiedades son compatibles con el Modelo Estándar”. De manera que el camino inmediato a seguir con el LHC esta claro, no así lo que se puede descubrir.

“El LHC tiene mucho recorrido. La nueva etapa que aumentará la energía nos abre una región inexplorada”

Hay que tener presente que el descubrimiento “se ha alcanzado mucho antes de lo esperado inicialmente tras analizar tan solo un 1% de las datos que se esperan acumular con este acelerador, lo cual es prometedor de cara a unos futuros descubrimientos que puedan estar aguardándonos”, advierte Juste Rozas.

El LHC seguirá funcionando hasta diciembre; luego, a principios de 2013 se apagará para realizar, durante dos años, las adaptaciones necesarias antes de encenderlo de nuevo a finales 2014 con el doble de energía. “Yo no esperaría otro gran descubrimiento antes del próximo diciembre, pero yo no decido, decide la naturaleza, así que uno nunca sabe…”, reconoce Heuer.

“Después del Higgs, ¿El diluvio?”, se pregunta con ironía el físico teórico del CERN Luis Álvarez Gaumé. “Esperemos que sea un diluvio lleno de sorpresas y descubrimientos nuevos. El análisis de lo que podría ser la partícula de Higgs continúa y hay que poner mucha atención para ver si existen anomalías sistemáticas en los datos que indiquen de forma indirecta la existencia de una realidad más allá de la que conocemos”.

Lo interesante de la física de partículas a principios del siglo XXI es que si es asombroso lo mucho que conocen y entienden los científicos de cómo es el universo en sus componentes más elementales, más asombroso aún es lo muchísimo que desconocen y que intenta desvelar con teorías e hipótesis y, necesariamente, con experimentos que demuestren su veracidad. Se refieren a todo esto como “nueva física”, porque saben que el Modelo Estandar, por bien que funcione, no es la última palabra, no es perfecto, dejan cabos sueltos…. Luego no puede ser la descripción definitiva del mundo subatómico.

“Personalmente espero que si hay otro descubrimiento sea una sorpresa, algo que no esperamos, pero tengo muchas esperanzas de encontrar indicios, por ejemplo, de partículas supersimétricas”, dice Incandela. “La filosofía es no dejar ninguna piedra sin levantar: buscamos indicios de partículas supersimétricas, indicación de dimensiones extra, una cuarta generación de partículas, etcétera. Se busca sistemáticamente lo esperado por todo tipo de teorías, pero también lo inesperado, intentado simplemente observar desviaciones de las predicciones del modelo estándar”, apunta Martine Bosman, del IFAE.

De esas partículas supersimétricas no ha aparecido aún señal alguna en los experimentos, pero abundan en las discusiones entre los físicos teóricos, en los artículos científicos, los congresos y las charlas en las instituciones de física de todo el mundo, incluido el CERN. Se trata de un nuevo modelo teórico que engloba al Modelo Estándar y que supera en parte sus limitaciones. Y, según las predicciones de esas teorías supersimétricas, llamadas SUSY, debe existir todo un conjunto de nuevas partículas primas de las ya conocidas, pero con características propias, denominadas supersimétricas. Nadie sabe si realmente existen, ni siquiera aparecerían en los experimentos del gran acelerador de Ginebra, caso de existir. Pero se buscan con ahínco. “El LHC tiene mucho recorrido todavía: la etapa siguiente en la que se aumentará la energía, nos abre una nueva región inexplorada hasta ahora”, avanza Cerrada.

Lea el artículo completo en:

El País Ciencia

9 de octubre de 2012

Nobel de Física para pioneros en física cuántica

    Serge Haroche y David J. Wineland, galardonados con el Premio Nobel de Física 2012

    Serge Haroche y David J. Wineland ganaron por su aporte a la óptica cuántica.

    Los expertos en física cuántica Serge Haroche, de Francia, y David J. Wineland, de Estados Unidos, fueron galardonados este martes con el Premio Nobel de Física 2012.

    La Real Academia de Ciencias de Suecia dijo que ambos científicos fueron seleccionados por sus trabajos sobre la interacción entre la luz y la materia y por haber abierto la puerta "a una nueva era de experimentación en la física cuántica al lograr la observación directa de partículas cuánticas individuales sin destruirlas".
    Sus investigaciones podrían llevar a la creación de una nueva computadora superrápida basada en la física cuántica.
    "Tal vez la computadora cuántica cambiará nuestras vidas en este siglo al igual que la computadora clásica lo hizo en el siglo pasado"
    Real Academia de Ciencias de Suecia

    "Tal vez la computadora cuántica cambiará nuestras vidas en este siglo al igual que la computadora clásica lo hizo en el siglo pasado", dijo la Academia.

    Trabajar con la luz y la materia a este nivel era algo impensable hasta que Haroche y Wineland lograron un mecanismo para seleccionar, manipular y medir fotones de forma individual, abriendo una ventana a un mundo microscópico relegado hasta entonces al debate teórico.

    La Academia destacó los "métodos revolucionarios" de los expertos que han permitido "la medición y la manipulación de sistemas cuánticos individuales".

    "Tuve que sentarme"

    Bjorn Jonson, miembro del comité seleccionador, enfatizó la importancia del campo de investigación de los científicos premiados.

    "El campo de la física llamado física cuántica es muy activo hoy en día y estudia las interacciones fundamentales entre los fotones (las partículas de luz) y la materia. Es más, es la interacción entre la luz y la materia lo que permite que podamos vernos unos a otros en esta habitación".

    La física cuántica es uno de los grandes avances del siglo XX. Al explicar el comportamiento de la materia y de la energía ha posibilitado nuevas tecnologías como los transistores, utilizados en la mayoría de los aparatos electrónicos.

    Computadora cuántica, ilustración SPL

    La óptica cuántica podría llevar a la creación de computadoras ultrarrápidas.

    Haroche nació en 1944 en Casablanca, Marruecos, y en la actualidad es catedrático de Física Cuántica en el Colegio de Francia y en la Escuela Normal Superior, ambos en París.

    Por su parte, el estadounidense Wineland nació en 1944 y trabaja en el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) en Boulder, Colorado.

    Haroche recibió la noticia por teléfono apenas 20 minutos después del anuncio.

    "Tuve suerte, estaba caminando en la calle y estaba cerca de un banco, así que inmediatamente tuve que sentarme por un momento", señaló el científico.

    "Estaba caminando con mi esposa rumbo a casa cuando vi una llamado con el código de Suecia y me di cuenta de que era algo que estaba ocurriendo en la realidad. Fue sobrecogedor".

    Desde 1901

    Los premios Nobel han sido concedidos anualmente desde 1901. El primer galardón de Física fue dado a Wilhelm Roentgen, de Alemania, por su descubrimiento de los rayos X.

    Los ganadores del Premio Nobel de Física 2012, dotado con ocho millones de coronas suecas (cerca de US$ 1,2 millones), siguen en este campo a los astrónomos estadounidenses Saul Perlmutter, Brian P. Schmidt y Adam G. Riess, que fueron seleccionados en 2011 por sus estudios sobre el aceleramiento de la expansión del Universo.

    La presente edición de los Nobel comenzó el lunes con la concesión del premio de Medicina al británico John B. Gurdon y al japonés Shinya Yamanaka por sus investigaciones en el campo de las células madre, que han "revolucionado" la comprensión científica de cómo "se desarrollan las células y los organismos".

    Este miércoles se anunciarán los ganadores en Química, el jueves en Literatura y el viernes el Nobel de la Paz. El último en ser anunciado, el próximo lunes, es el premio de Economía.

    La entrega de los Nobel se realizará en ceremonias paralelas el 10 de diciembre, en Oslo para el premio de la Paz y en Estocolmo para los otros. La fecha coincide con el aniversario de la muerte de Alfred Nobel.

    Fuente:

    BBC Ciencia 

    Lea también:

    2012 -  Nobel de Medicina a la investigación de células madre

    21 de agosto de 2012

    Físicos demuestran que 15 es 3x5...¡casi el 50% de las veces!

    A pesar del cachondeito en el título no debemos restarle mérito a la investigación, ya que el cálculo se ha realizado con un prototipo de ordenador cuántico de estado sólido. La publicación ha sido aceptada en Nature Physics por ser la primera implementación que usa esta tecnología, en lugar de p.ej. NMR. La relevancia de avances en la solución de este problema matemático son tales que tarde o temprano acabarán afectando a nuestra vida diaria, nuestras empresas y la seguridad de las transacciones financieras.
    Se llama factorizar un número N a averiguar de qué números primos P,Q,... está compuesto, tal que si sólo existiesen dos factores, tendríamos N=P x Q. Por ejemplo, del número 9 sacamos que es 3x3; o del 15 que es 3x5.
    La teoría es muy fácil. Solamente que se la cosa se complica un poquito cuando intentamos factorizar números más grandes. ¿Cómo factorizarías este numerazo?:

    N = 31074182404900437213507500358885679300373460228427275457 20161948823206440518081504556346829671723286782437916272 83803341547107310850191954852900733772482278352574238645 4014691736602477652346609   


    A pesar de ser trivial comprobar si un número dado es un factor correcto o no (basta con dividir y ver si el resto es cero), es obviamente una locura intentar adivinar los factores "al tuntún". Hacerlo con un ordenador no arregla mucho las cosas. Desde hace décadas se conoce un algoritmo (el 
    GNFS) para abordar el problema de factorizar números tan grandes como éste, pero el tiempo que necesita para obtener una respuesta crece casi exponencialmente (sub-exponential) con la longitud del número dado.

    Para hacerse una idea de la magnitud del problema, el número de arriba fue
    propuesto como un reto en 1991 y no fue hasta 2005 que consiguieron factorizarlo, ¡ganando un premio de 10,000$!. Si te interesa la solución que costó 14 años en obtener, aquí está (aunque necesitarás una calculadora especial para probarlo):

    N = 16347336458092538484431338838650908598417836700330923121 81110852389333100104508151212118167511579 

     × 
    19008712816648221131268515739354139754718967899685154936 66638539088027103802104498957191261465571


    Tan difíciles son de factorizar los números grandes que, hoy día, se puede afirmar que prácticamente
    toda la seguridad en comunicaciones electrónicas (Internet, TV de pago por satélite, etc.) depende en último extremo de ese simple hecho.

    Cuando navegas por Internet y aparece junto a la dirección un "candado" que muestra que la comunicación no puede ser espiada y que el servidor es quien dice ser, por debajo existe un formidable aparato matemático y tecnológico que, al fin y al cabo, se apoya en un único punto seguro: la dificultad de factorizar una
    clave pública (e.g. RSA).

    Aquí entran en juego los
    computadores cuánticos. De entre los poquísimos algoritmos teóricos existentes para ellos, da la casualidad que el algoritmo de Shor sirve precisamente para factorizar números enteros:
    Representación esquemática con bloques (a) y en detalle (b) del algoritmo cuántico de Shor para factorización. Los bloques "H" son puertas de Hadamard; los 45 y 90 son puertas de desplazamientos de fase y los "circulitos" de abajo son puertas C-NOT, el equivalente cuántico del clásico XOR. (Créditos: Sambit Bikas Pal)

    La potencia de usar un algoritmo cuántico radica en que su complejidad de ejecución es polinomial en lugar de sub-exponencial, lo que quiere decir que sería muy fácil factorizar números enormes...
    ¡si tuvieramos ya un ordenador cuántico capaz de ejecutar el programa necesario!

    El experimento de factorizar el número 15 usando un computador cuántico se ha realizado con éxito en el pasado, pero la novedad hoy es que 
    Andre Cleland y su equipo han diseñado una implementación de estado sólido, mucho más pequeño y manejable que anteriores diseños, aunque eso sí, necesita temperaturas cercanas al 0K. La siguiente microfotografía muestra el chip, que completo ocupa unos 1,6cm2:
    El circuito cuántico, compuesto de 9 elementos cuánticos: 4 qubits de fase y 5 resonadores superconductores (las pistas que "serpentean"). El patrón se repite alrededor del cuadrado enfocado en la foto, una técnica común al diseñar circuitos integrados para aprovechar y construir varios circuitos en una misma oblea. (Créditos: UCSB)

    Naturalmente, al igual que en cualquier computador cuántico el resultado de la operación de factorización no se obtiene tras una ejecución determinista, sino que debe repetirse un elevado número de veces y hacer un post-procesado de los datos.

    Los científicos dicen que han repetido el cálculo 150.000 veces, obteniendo los factores correctos (15=3x5) casi un 50% de las veces. Ya que el límite teórico está en exactamente 50%, consideran su implementación todo un éxito.

    Explicación de las partes del circuito por los autores (fuente)

    ¿Llegaremos a ver chips cuánticos capaces de factorizar números más grandes? ¿En qué momento empezarán a
    resultar una amenaza seria para la seguridad de las telecomunicaciones?

    Antes de que llegue, seguro que
    la alternativa habrá dado lugar a nuevas empresas generando un importante volumen de negocio a nivel mundial. Solamente los países y empresas que hayan apostado fuerte por el I+D recogerán esos bien merecidos beneficios.

    Fuente:

    La discordia de las partículas hará posibles los ordenadores cuánticos

    Científicos muestran cómo aprovechar recursos alternativos para el desarrollo de este tipo de computación

    Siempre se ha pensado que el entrelazamiento cuántico (fenómeno por el que las partículas entrelazadas no se definen como individuales sino como un sistema) resultaba imprescindible para el desarrollo de los ordenadores cuánticos. Dos equipos de científicos de diversas nacionalidades proponen ahora alternativas para la fabricación de este tipo de computación: aprovechar la “discordia cuántica” y emplear recursos menos exigentes.


    Fuente: PhotoXpress.


    Hasta hace poco, se pensaba que el entrelazamiento cuántico (fenómeno por el que las partículas entrelazadas no se definen como individuales sino como un sistema) era imprescindible para hacer funcionar un ordenador cuántico.

    Pero aunque este entrelazamiento, calificado de forma notoria por Albert Einstein como una “estremecedora acción a distancia”, se puede facilitar en el laboratorio en condiciones cuasi-ideales, fuera de éste se vuelve frágil y fugaz, cuando las condiciones dejan de ser las ideales.

    No obstante, en los últimos años se ha descubierto que el entrelazamiento podría no ser necesario en todos los casos y se han hallado nuevos ejemplos de tecnologías que podrían aprovechar las ventajas que ofrece la física cuántica sin necesidad de este fenómeno.

    Del entrelazamiento a la discordia

    Investigadores de Australia, Singapur y Reino Unido han publicado un estudio en la revista Nature Physics sobre cierta tecnología basada en el fenómeno de la discordia cuántica (quantum discord, (correlaciones entre partículas debidas a los efectos de la física cuántica).

    Este fenómeno, mucho más sólido y de más fácil acceso que el entrelazamiento, también puede otorgar una ventaja cuántica y podría, de hecho, aprovecharse para poner a tiro las tecnologías cuánticas mucho antes de lo previsto.

    El equipo internacional mencionado se propuso descubrir la procedencia de la energía cuántica que conlleva la discordia cuántica y hallaron indicios de un vínculo directo entre ambas.

    Uno de los autores, Mile Gu de la Universidad Nacional de Singapur (NUS), comentó: “Hemos demostrado que la discordia cuántica es un recurso del que podremos beneficiarnos si empleamos las herramientas cuánticas adecuadas”.

    Los autores codificaron información en luz láser para demostrar la activación de este recurso cuántico. Así demostraron la posibilidad de recuperar más información utilizando la discordia cuántica que sin acceder a ella.

    Otro de los autores, Ping Koy Lam de la Universidad Nacional de Australia (ANU), comparó su experimento con “descodificar música de una radio de AM/FM emitida por transmisión simultánea con mucha energía estática”. 
    Los científicos descubrieron que la discordia es similar a la energía estática cuántica compartida y que se puede extraer más “música” de dicha transmisión simultánea de radio si se usan las herramientas cuánticas adecuadas.

    La presencia de la discordia cuántica ha sido demostrada ya en numerosos sistemas. Anteriormente, puede haberse descrito como ruido no deseado y por ello algunos científicos albergan dudas sobre su posible utilidad, pero estos nuevos descubrimientos vienen a confirmarla.

    El experimento realizado no se considera una computación cuántica, pero sí muestra que la discordia posee un potencial aprovechable en las tecnologías cuánticas.

    Actualmente se están buscando otras tareas que podrían mejorarse empleando la discordia cuántica. Se espera que ésta ofrezca una vía de acceso más sencilla a las tecnologías cuánticas del futuro que el entrelazamiento. Ping Koy Lam destacó que su estudio “sugiere la posibilidad de aligerar los requisitos relativos a ciertas tecnologías cuánticas”.

    Recursos menos exigentes

    Otro estudio publicado en el mismo número de Nature Physics muestra también la posibilidad de utilizar recursos menos exigentes para hacer realidad la informática cuántica.

    En este trabajo participaron investigadores de Austria, Singapur y Reino Unido y se contó con dos subvenciones de la Unión Europea. Una provino del proyecto Q-Essence («Interfaces, sensores y comunicación basados en el entrelazamiento cuántico»), financiado a su vez con 4,7 millones de euros en virtud del tema de Tecnologías de la información y la comunicación (TIC) del Séptimo Programa Marco (7PM) de la UE. Q-Essence, que estará en marcha hasta 2013, cuenta con la participación de investigadores de Australia, Austria, Dinamarca, Alemania, Italia, Países Bajos, Polonia, Eslovaquia, España, Suiza y Reino Unido.

    La otra fuente de financiación fue una subvención avanzada (Advanced Grant) del Consejo Europeo de Investigación (CEI) por valor de 1,75 millones de euros concedida a uno de los autores del estudio, Anton Zeilinger de la Universidad de Viena, para llevar a cabo el proyecto QIT4QAD («Tecnología de la información cuántica fotónica y fundamentos de la física cuántica en dimensiones superiores»).


    Referencias Bibliográficas:

    Mile Gu et al., Observing the operational significance of discord consumption, Nature Physics. doi:10.1038/NPHYS2376.

    Dakic, B. et al., Quantum discord as resource for remote state preparation, Nature Physics. doi:10.1038/NPHYS2377. 
    Tomado de:

    3 de mayo de 2012

    Niño, cuantas veces te tengo que decir que no cambies el pasado…

    El día de ayer publiqué un artículo que originalmente había aparecido en ABC de España, donde se anunciaba que se podía cambiar un episodio del pasado desde el presente. Esta noticia merece una aclaración.

    Pero antes conozcamos un poco a Asher Peres

    Asher Peres

    (1934-2005) Científico hebreo. Es considerado un pionero en la Teoría de la Información Cuántica. Obtuvo su doctorado en física en 1955 y se dedicó, en adelante, a realizar estudios sobre elmundo cuántico. En el 2004 ganó el Premio Rothschild de Física. Sus numerosos trabajos versan sobre el entrelazamioento cuántico y la teletransportación cuántica. Sus escritos son una combinación de física y filosofía.

    De todas sus publicaciones, Asher estaba más orgulloso de su libro Teoría Cuántica: Conceptos y Métodos . El libro es un ejemplo de estilo científico Asher: una comprensión profunda y sin concesiones de las cuestiones fundamentales se expresan en una forma que sea lo más simple y accesible como sea posible. Le tomó seis años para Asher cuidado tejer los hilos de su libro. La gran calidad del trabajo es reconocido por cualquiera que conozca el resultado final.

    Ahora sí. Los dejo con el artículo que apareció en Cuentos Cuánticos...

    Ha salido esta noticia en el ABC :Logran cambiar, desde el presente, un evento del pasado Vamos a explicar lo que significa todo esto, o lo vamos a intentar al menos. De hecho no estamos seguros de si ya lo hemos intentado en el pasado, ¡¡qué mas da!!.

    La motivación

    La noticia hace referencia a un experimento basado en este trabajo:
    Delayed choice for entanglement swapping  de Asher Peres (este es uno de los grandes en el tema de la cuántica, sus fundamentos y los temas de entrelazamiento)

    Que más o menos viene a decir:  Elección retardada por entrelazamiento de intercambio.

    Vamos a ver si podemos entender lo que propuso el profesor Peres. La situación es la siguiente:

    -  Tenemos tres observadores, con los nombres típicos:
    • Alice
    • Bob
    • Eve
    -  Alice prepara un sistema de dos partículas entrelazadas entre sí. (Para saber lo que significa esto os recomendamos: No me creo la mecánica cuántica… así que demostraré que es cierta y Duendes entrelazados)

    - Bob hace lo mismo, prepara dos partículas entrelazadas.

    -  Alice y Bob están separados por una gran distancia, así que sus pares de partículas entrelazadas nunca se han “visto” ni han interactuado entre si.

    -  Alice y Bob miden el espín de una de las partículas de su correspondiente par entrelazado. Con la otra tienen a bien mandárselas a Eve.

    - Con los datos previos, ni Alice ni Bob saben si sus correspondientes pares estaban entrelazados.

    -  El punto clave es que Eve ahora decide qué tipo de experimento hacer con las partículas recibidas de Alice y Bob. El caso es que puede elegir medir el espín en  alguna dirección o cualquier otro tipo de experimento.  Entonces Eve recolecta los datos de su experimento y se los manda a Alice y Bob.

    -  Con estos datos Alice y Bob pueden determinar cuales de sus partículas estaban entrelazadas en sus correspondientes pares.  Y esto lo pueden hacer mucho después de que estas partículas ya hayan sido absorbidas o hayan desaparecido.

    Hasta aquí nada sorprende, pero…

    El punto clave es el siguiente:

    ¿Qué pasa si Eve decide entrelazar las dos partículas que tiene entre manos (una de Alice y otra de Bob)?

    Según Peres lo que pasaría es que entonces las partículas que tenían Alice y Bob estarían entrelazadas y si compararan a posteriori sus medidas del espín en distintas direcciones pues encontrarían que satisfacen las desigualdades de Bell.

    Esto es fabuloso, porque lo que nos están diciendo es que el entrelazamiento se realiza a posteriori porque en ningún momento inicialmente las partículas de Alice y Bob han podido interactuar entre si para provocar el entrelazamiento.  Es cuando Eve decide entrelazar las partículas que ha recibido en un instante posterior a las medidas de Alice y Bob cuando se realiza este entrelazamiento.

    El experimento

    El trabajo al que hace referencia ABC (no he encontrado la cita en su entrada) es este:

    Donde se dice que por primera vez se ha logrado llevar a cabo experimentalmente este fenómeno tan sorprendente que si no me equivoco fue propuesto por Peres en el 1999.  Lo han hecho creando dos pares de fotones en dos puntos distintos y enviando un componente del par a otro observador distinto, siguiendo la descripción anterior.

    Tendremos que estar atentos a estos trabajos, la cuántica nunca dejará de sorprendernos.  Lo único que esperamos es que no proliferen las noticias de que hemos abierto la puerta a cambiar el pasado, porque simplemente esto no es cierto.  No se puede mandar información a través de entrelazamiento cuántico, así que tranquilos la historia seguirá siendo la que es.

    Nos seguimos leyendo...

    Tomado de:

    2 de mayo de 2012

    Logran cambiar, desde el presente, un evento del pasado



    Un grupo de físicos acaba de lograr lo que parecía imposible: modificar desde el presente un evento que ya había sucedido con anterioridad. La hazaña se ha conseguido aprovechando una extraña capacidad de las partículas subatómicas que ya había sido predicha, pero que jamás hasta ahora había podido ser demostrada. El espectacular hallazgo se publica en Nature Physics.

    A la larga lista de propiedades extraordinarias de las partículas subatómicas habrá que añadir, a partir de ahora, su capacidad para influir en el pasado. O, dicho de otra forma, para modificar acontecimientos ya sucedidos. El concepto clave que permite este nuevo y sorprendente comportamiento es un viejo conocido de los físicos: el entrelazamiento cuántico, un fenómeno aún no del todo comprendido y que consiste en una suerte de "unión íntima" entre dos partículas subatómicas sin importar a qué distancia se encuentren la una de la otra. Cuando dos partículas están "entrelazadas", cualquier modificación que llevemos a cabo sobre una se reflejará de inmediato en la otra, aunque ésta se encuentre en el otro extremo de la galaxia.

    Ahora, y por primera vez, un grupo de investigadores ha conseguido entrelazar partículas después de haberlas medido, es decir, a posteriori y en un momento en que alguna de ellas podría haber dejado ya de existir.

    Suena desconcertante, es cierto. Incluso los propios autores del experimento se refieren a él como "radical" en el artículo que aparece esta semana en Nature Physics. "Que estas partículas estén o no entrelazadas -reza el artículo, cuyo primer firmante es Xiao-song Ma, del Instituto de Óptica Cuántica de la Universidad de Viena- es algo que se decidió después de haberlas medido".

    En esencia, los investigadores han conseguido demostrar que acciones llevadas a cabo en el futuro pueden ejercer influencia en eventos del pasado. Siempre y cuando, claro, limitemos la experiencia al ámbito de la Física Cuántica.

    Allí, en el extraño mundo de las partículas subatómicas, las cosas suceden de forma muy diferente a como lo hacen en el mundo "real" y macroscópico que podemos ver y tocar cada día a nuestro alrededor. De hecho, cuando el entrelazamiento cuántico fue predicho por primera vez, el mismísimo Albert Einstein expesó su disgusto por la idea calificándola de "acción fantasmal a distancia".

    Después, durante las últimas décadas, el entrelazamiento fue probado cientos de veces en laboratorio, sin que hasta el día de hoy los físicos hayan podido averiguar cómo puede producirse esa especie de "comunicación instantánea" entre dos partículas que no están en contacto físico. Ahora, el equipo de la Universidad de Viena ha llevado el entrelazamiento un paso más allá, y ha conseguido lo que nadie había podido hacer hasta ahora.

    Para realizar su experimento, los físicos partieron de dos parejas de partículas de luz, esto es, de dos "paquetes" de dos fotones cada uno. Cada una de las dos partículas de cada  pareja de fotones estaban entrelazadas entre sí. Más tarde, un fotón de cada pareja fue enviado a una persona hipotética llamada Victor. Y de las dos partículas (una por pareja) que quedaron detrás, una fue entregada a Bob y la otra a Alice. (Bob y Alice son los nombres que se utilizan habitualmente para ilustrar los experimentos de Física Cuántica).

    Víctor, al tener un fotón de cada pareja entrelazada, tiene pleno control sobre las partículas de Bob y Alice. Pero qué sucedería si Victor decidiese entrelazar a su vez sus dos partículas? Al hacerlo, también los fotones de Bob y Alice (ya entrelazados con cada uno de los dos fotones en poder de Víctor), se entrelazarían el uno con el otro. Lo bueno es que Víctor puede decidir llevar a cabo esta accíon en cualquier momento que quiera, incluso después de que Bob y Alice hubieran medido, modificado o incluso destruído sus propios fotones.

    "Lo realmente fantástico -afirma Anton Zellinger, también de la Universidad de Viena y coautor del experimento- es que esa decisión de entrelazar los dos fotones puede ser tomada en un momento muy posterior. Incluso en uno en que los otros fotones podrían haber dejado de existir".

    La posibilidad de llevar a cabo este experimento había sido predicha en el año 2000, pero hasta ahora nadie había conseguido realizarlo. "La forma en que entrelazamos las partículas -explica Zeilinger- es enviándolas hacia un cristal cuya mitad es un espejo. El cristal, por lo tanto, refleja la mitad de los fotones y deja pasar a la otra mitad. Si tu envías dos fotones, uno a la izquierda y otro a la derecha, cada uno de ellos olvidará de dónde procede. Es decir, perderán sus identidades y ambos quedarán entrelazados".

    Zeilinger asegura que la técnica podrá ser usada algún día para la comunicación ultrarápida entre dos computadoras cuánticas, capaces de usar el entrelazamiento para almacenar información. Por supuesto, una máquina así no existe todavía, aunque experimentos como el descrito suponen un paso muy firme hacia ese objetivo.

    "La idea -asegura Zeilinger- es crear dos pares de partículas, y enviar una a un ordenador y la otra al otro. Entonces, si entrelazamos esas partículas (como en el experimento), los dos ordenadores podrán utilizarlas para intercambiar información"


    Fuente:

    El Blog de Ciencia y Tecnología (ABC)

    12 de marzo de 2012

    El Universo es como un gato: determinismo y teorías físicas


    La mecánica cuántica es realmente imponente. Pero una voz interior me dice que aún no es la buena. La teoría dice mucho, pero no nos aproxima realmente al secreto del “viejo”. Yo, en cualquier caso, estoy convencido de que Él no tira dados.

    Esta es la primera ocasión en la que Albert Einstein expresa su convicción de que el universo es determinista con la conocida analogía de “Dios no juega a los dados”. Aparece en una carta a su colega y amigo Max Born fechada el 4 de diciembre de 1926.

    Para muchos físicos, filósofos y religiosos la irrupción de la mecánica cuántica y su interpretación supuso una liberación de las limitaciones que la mecánica newtoniana imponía a su forma de ver el mundo. Para otros supuso un terremoto de consecuencias indeseables. Los casos más llamativos sin duda son los de los físicos que contribuyeron a crearla, como el propio Einstein (efecto fotoeléctrico, paradoja Einstein-Podolsky-Rosen) o Erwin Schrödinger (ecuación de onda), pero que no podían compartir las implicaciones no deterministas de esta teoría.

    El determinismo está íntimamente relacionado no sólo con cómo funciona el universo en sí, sino que tiene implicaciones prácticas muy inmediatas: si todo está determinado, ¿qué responsabilidad moral tengo? Quizás por ello, muchos filósofos y religiosos abrazaron entusiasmados la propuesta de que en la raíz misma de todo lo que existe reina la indeterminación. Con el principio de indeterminación tanto unos como otros recuperaban el terreno perdido por el libre albedrío a manos de la teoría newtoniana y encontraban huecos para la moral, el alma y algunos dioses.

    Y, sin embargo, un pequeño análisis muestra que todos aquellos que piensan que la mecánica cuántica abre las puertas al libre albedrío o que la física newtoniana es absolutamente determinista, se equivocan completamente. Invitamos al inteligente lector a explorar con nosotros la esencia del universo y los límites de nuestro conocimiento sobre ella a la luz de las distintos modelos físicos. Exigirá un pequeño esfuerzo, pero será gratificante o, al menos, eso pensamos.

    Algunos conceptos

    Empecemos dejando claras dos ideas. La primera está implícita en el párrafo anterior: el determinismo es una doctrina acerca de una característica del universo que, en el caso de ser cierta, no implica necesariamente que los estados del sistema sean predecibles. Es decir, el determinismo es una cuestión ontológica, algo intrínseco al universo, independientemente de si lo podemos conocer nosotros o no, lo que es una cuestión epistemológica. Trataremos ambas cuestiones en este orden.

    La segunda es el propio concepto de determinismo. Un profesor mío solía repetir que si la hipótesis es cierta los acontecimientos futuros están tan fijados como los pasados. Pero como vamos a hablar sobre qué nos dicen las teorías físicas sobre el universo necesitaremos una definición más apropiada. Como primera aproximación podemos decir que una teoría es determinista siempre que el estado de un sistema en un momento inicial, más las leyes de la teoría, fijan el estado del sistema en cualquier momento posterior.

    Esa definición de determinismo es intuitiva, pero podemos ir un pasito más allá y hacerla algo más rigurosa. Es un esfuerzo extra que después nos compensará permitiendo aplicarla a cualquier teoría física.

    Imagina dos regiones cualesquiera del espaciotiempo, R1 y R2, incluyendo esta habitación ahora y dentro de una hora o un acontecimiento poco tiempo después del Big Bang y el resto del universo. A R1 la llamaremos la región determinante y a R2 la determinada. Si una teoría asigna un estado a R2 que está fijado por el estado de R1 y sus propias leyes, entonces diremos que la teoría es determinista. Es lo mismo de antes dicho de otra manera. La diferencia está en que ahora podemos hablar de grados de determinismo: cuanto más grande tenga que ser R1 para que una teoría satisfaga esta definición, más débil es esa forma de determinismo. Pero veamos como la usamos en la práctica.

    Los invasores del espacio matan al demonio de Laplace

    Tiempo después de que Newton propusiese sus leyes del movimiento y gravitación, Laplace señaló que si un intelecto poderosísimo (conocido como el demonio de Laplace) conociese las leyes de Newton, fuese un consumado matemático y tuviese acceso a una descripción de la posición actual y el momento de cada partícula del universo, dicho intelecto sería capaz de calcular cualquier acontecimiento futuro o pasado de la historia del universo. Esta visión del “universo de relojería” fue la que dominó el mundo durante doscientos años y la que causó tantos problemas a teólogos y filósofos morales.

    Pero, ¿realmente es tan determinista la física de Newton? Hagamos un pequeño experimento mental. Imagina un mundo newtoniano compuesto por partículas masivas puntuales que se mueven por su mutua atracción gravitatoria. Parece una obviedad decir en este punto que las ecuaciones del movimiento calculadas por el demonio de Laplace nos proporcionan las posiciones y las velocidades de todas las partículas en un momento dado, tanto del futuro como del pasado. Tenemos así un sistema completamente determinista: R1 puede ser una simple muestra del espaciotiempo newtoniano que incluya un conjunto de acontecimientos absolutamente simultáneos, y R2, el resto de este universo con todas las trayectorias completas, queda absolutamente fijado.

    Y entonces llegaron los invasores del espacio. Imaginemos ahora una partícula de la que no hay constancia en R1 de ningún tipo, está infinitamente lejos. La mecánica clásica no impide que la partícula aparezca en las proximidades de nuestro sistema en un tiempo finito a pesar de venir de la infinitud espacial, recordemos que en mecánica newtoniana no hay límite superior para la velocidad que puede alcanzar una partícula. Por tanto R1 y las leyes de la teoría ya no estarían fijando R2. La teoría newtoniana, pues, no es determinista según nuestra definición.

    Si damos un pasito más, e incorporamos la teoría general de la relatividad, no pensemos que hemos solucionado el problema. Los invasores del espacio podrían saltar desde una singularidad desnuda sin ni siquiera haber dejado su señal en cualquier fracción de tiempo precedente.

    El universo es como un gato

    Centrémonos ahora en la mecánica cuántica. Podemos estar seguros de que el estado cuántico asociado a cualquier región R1 del espaciotiempo, no importa lo grande que sea, no fija (en general) el resultado de las mediciones hechas en otras regiones R2; si acaso, en el mejor de los casos, sus probabilidades. Según la definición de arriba estaríamos ante una teoría no determinista, ¿correcto? No tan rápido.

    Estamos considerando el aspecto ontológico, cómo las cosas son en sí. Bien, la ecuación de Schrödinger nos asegura que los estados cuánticos mismos evolucionan de forma determinista con el tiempo, siempre y cuando no haya mediciones. Desde este punto de vista la teoría es perfectamente determinista.

    De hecho, nos encontramos con una curiosa mezcla de determinismo con indeterminismo, la misma que aparece en la paradoja del gato de Schrödinger. La pregunta del millón es, entonces, ¿cuándo y cómo toma el control el indeterminismo para producir un resultado concreto a partir de una superposición?

    La bola de la ruleta

    Démonos cuenta de que los fenómenos cuánticos, si bien afectan a todo el universo, sólo ponen de relieve sus paradojas en tamaños muy pequeños, a nivel de átomos. Todo el azar y la incertidumbre que parece implicar la mecánica cuántica comienzan a hacerse menos evidentes conforme más partículas entran en los cálculos, esos valores discretos tan dispares comienzan a hacerse estadísticamente continuos. Para números de partículas importantes, como el del número de átomos de una neurona, la probabilidad de una desviación con respecto al comportamiento esperado es tan ridículamente baja que no cabe esperarla en períodos de tiempo mucho mayores que una vida humana. A efectos prácticos su comportamiento es determinista.

    Habrá personas que afirmen que todavía queda un resquicio, por minúsculo que éste sea para la indeterminación. Y habría que admitir que es así. Pero, y esto es relevante, ello no supone ningún tipo de concesión al libre albedrío. La mecánica cuántica habla de indeterminación, no de indeterminismo, ya que de existir éste sería puro azar. Pero, si mis acciones se libran del determinismo sólo haciéndose aleatorias, ¿cómo puede haber responsabilidad moral? El que mi brazo sufra un espasmo aleatorio y te abofetee es el tipo de acción que me excusa desde un punto de vista moral.

    Para estas personas que buscan en la física un resquicio donde tengan cabida sus creencias y su responsabilidad moral asociada se le ofrecen dos opciones. Ya mencionamos que lo de ser parte de un mecanismo de relojería no es de especial agrado de filósofos morales y teólogos pues reserva a los dioses sólo un papel en la puesta en marcha y elimina por tanto de facto toda responsabilidad moral. La alternativa a la que se agarran como un clavo ardiendo es, no un reloj, sino una ruleta de casino o, mejor aún, la bola en una ruleta de casino que aún no está construida, puro azar; ni siquiera hay espacio para impredicibilidad práctica. Y ya hemos visto que la aleatoriedad nos exime también de la responsabilidad moral.

    El entierro del demonio de Laplace

    Para finalizar veamos muy brevemente el indeterminismo desde un punto de vista epistemológico. Esto nos da la visión práctica del asunto: primero una respuesta a “¿qué puedo conocer?” para poder después responder a “¿qué puedo hacer?” y “¿qué debo hacer?”.

    Ya hemos mencionado que en la mecánica cuántica el conocimiento, la intervención del observador, nos lleva a la indeterminación en los resultados. Nos vemos abocados a un universo estadístico, en el que todo lo que no está prohibido es posible que ocurra, si bien con probabilidades muy diferentes. El demonio de Laplace no tiene cabida en este universo.

    En el espaciotiempo de la relatividad especial, el estado del universo en cualquier momento (relativo a cualquier observador) fija la totalidad de los acontecimientos en el espaciotiempo. Pero el hecho de que la información no pueda ser transmitida más rápido que la luz garantiza que ningún observador, ni siquiera el demonio de Laplace, pueda reunir todos los datos que necesitaría para predecir un acontecimiento antes de que éste ocurra realmente.

    Pero es que el demonio de Laplace no tiene siquiera cabida en un universo newtoniano. Porque aún admitiendo que éste fuese determinista también es caótico. Esto quiere decir que no importa la precisión con la que especifiquemos su estado inicial con objeto de predecir su estado final, siempre habrá variaciones minúsculas, impredecibles y no mensurables que harán que los resultados sean muy diferentes.

    En conclusión, si bien el universo en su conjunto no es predecible para un observador y se pueden discutir muchos detalles y matices, podemos afirmar que nuestras mejores teorías físicas nos aportan una dosis alta de determinismo y que donde no hay determinismo hay puro azar. Comprendemos que esto puede resultar muy incómodo para algunos. Lo único que cabe desear es que no pasen 30 años negando lo evidente, como hizo Einstein.

    Fuente:

    Amazings en español

    10 de enero de 2012

    ¿Qué hay en un femtosegundo de luz láser?

    Iluminar una pieza de metal, como el cobre o la plata, y los electrones excitados. Estas partículas excitables a su vez alteran los campos electromagnéticos que dan lugar a explotar muchas de sus propiedades tecnológicas, como el excelente desempeño del cobre como conductor de electricidad.


    Los esfuerzos por observar los electrones se han vuelto algo más fácil en los últimos años, gracias a los avances con los pulsos láser cortos, pese a los principios fundamentales de la mecánica cuántica que dominan esta escala. La mecánica cuántica y sus funciones de onda sugieren que se puede observar el movimiento de un electrón, pero no sin introducir la incertidumbre sobre su posición, por ejemplo. Y, es mucho más frecuente observar la pérdida de energía de los electrones que observar la ganancia. No obstante, para una mejor comprensión de lo que ocurre con los electrones excitados por la luz incidente, se facilita un mejor diseño fotovoltaico de los sistemas electrónicos que emplean la luz, así como algunos chips avanzados de informática.

    Ahora, un equipo de investigadores del Instituto de Tecnología de California ha observado a los electrones en acción, y han crado mapas que muestran los campos de energía de los electrones excitados a través del tiempo, sobre la plata y las superficies de cobre. Utilizando un microscopio de electrones, centraron el haz de una nanopartícula de plata con un respaldo más grande de grafeno durante un femtosegundo (una millonésima de una mil millonésima de segundo, ¿hace falta insistir en que es muy corto?). La ganancia de energía (o la pérdida) se calcula a partir del tiempo de retardo entre los pulsos de luz láser y los electrones. Los investigadores llaman a esta técnica "imagen ultrarrápida del espectro", que en realidad no logra llevar al lenguaje lo rápido que es.

    La idea es crear un mapa con la ganancia o pérdida de energía de los electrones de un compuesto específico elemental. Dicho mapa muestra la posición probable de los electrones excitados (incluso la cantidad de energía ganada), sin revelar otras propiedades (de esta manera se mantiene la búsqueda de línea con el principio de incertidumbre de Heisenberg). Por ejemplo, esta nueva investigación muestra que las nanopartículas triangulares de plata ganan la mayoría de su energía a lo largo de su margen izquierda y la esquina inferior derecha (debido al grosor de la partícula y al tamaño del borde, los cuales son más pequeños que las longitudes de onda de los fotones incidentes). La técnica ultrarrápida podría permitir a los científicos ver las interacciones de las moléculas, las propiedades de las partículas y, en última instancia, el funcionamiento interno de las células. No está nada mal para tan súper corto pulso de luz láser.

    Fuente:

    Bit Navegantes
    google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0