2008/01/28

Siete monedas y una teoría del TODO (II)

Resulta sorprendente como la resolución de problemas aparentemente intrascendentes, como colocar 6 monedas iguales tangentes a otra del mismo tamaño, puede llevar a solucionar cuestiones tan importantes como la propia estructura del universo. La clave última de esta conexión está en la simetría: en términos matemáticos, debajo de todo objeto simétrico yace una estructura matemática llamada grupo . Ejemplos típicos de objetos tridimensionales simétricos son la esfera, el cilindro o el cono.

Todos sabemos como colocar 6 monedas iguales tangentes a otra moneda del mismo tamaño. En una dimensión superior podemos colocar doce esferas, cuidadosamente apiladas, de forma que cada una de las cuales toca a una esfera central. Pero no se conoce cual es el número óptimo en ninguna dimensión superior a 3, excepto en dimensión 8, donde el grupo E8 nos proporciona un retículo en el que cada esfera toca a otras 240 (y en dimensión 24, que el retículo de Leech nos permite colocar 196560 esferas de dimensión 24 tangentes a una esfera central). El objeto matemático que permite esta proeza en 8 dimensiones se cree, desde hace tiempo, que puede jugar un papel importante en la teoría capaz de unificar todas las interacciones y partículas elementales existentes.

Garrett Lisi en su trabajo publicado en la web arXiv explica como ha podido "colocar", dentro del E8 dada su configuración extraordinariamente simétrica y compacta, los diferentes grupos de Lie SU(3), que representa las simetrías asociadas a la fuerza nuclear fuerte, los SU(2) x U(1) referentes a la fuerza electrodébil y el grupo de Lorentz SO(3,1) asociado a las matemáticas de la relatividad general. Todas las partículas y las fuerzas conocidas expresadas en una bella estructura matemática unificada, concisa y elegante.

Un poquito sobre teoría de grupos:

El grupo es una estructura matemática, en principio muy sencilla, que se establece a partir de un conjunto G con una operación " º " tal que aplicada a sus miembros da como resultado otro miembro del conjunto (operación interna). Esta operación tiene las siguientes propiedades:

Asociativa: Para todo g1,g2,g3 pertenecientes a G se cumple que (g1 º g2) º g3 = g1 º (g2 º g3).
Elemento neutro: Existe un elemento neutro e, perteneciente a G, tal que para cualquier elemento g del conjunto G : e º g = g º e = g . Como ocurre con la unidad para el producto, o el cero para la suma de números enteros.
Elemento inverso o simétrico: Para todo g perteneciente a G, existe un elemento llamado inverso_de_g tal que: g º (inverso_de_g) = (inverso_de_g) º g = e ( donde e es el elemento neutro).

Si además se cumple que g1 º g2 = g2 º g1 , o propiedad conmutativa, entonces el grupo se llama abeliano.Esto que en el instituto nos creíamos que sólo valía para enredar y darnos la lata, nos puede ayudar a desentrañar los misterios de la composición íntima de nuestro universo.

Como ejemplo, podemos ver en la figura un grupo compuesto por cuatro elementos, las potencias del número imaginario i que es la ráiz cuadrada de -1, o las rotaciones de 0º, 90º,180º ó 270º. Bien con la suma o con el producto, como operaciones de composición interna, vemos que podemos establecer un cuadro en donde observamos todas las relaciones entre los elementos del grupo. La propiedad conmutativa le confiere una simetría completa al cuadro.

En este grupo sólo necesitamos una tabla de 4 x 4, imáginemos la complejidad y la simetría tan maravillosa que encierra el grupo E8 que necesita de una tabla 453060 x 453060 para expresar las relaciones entre sus elementos. Para darnos una idea del tamaño y complejidad del E8, se ha comparado con el Proyecto del Genoma Humano.Su estructura posee 248 dimensiones y toda la información que se ha necesitado y generado para resolver el problema ocupa alrededor de 60 Gigabytes y según uno de los integrantes del grupo de matemáticos que ha desentrañado su estructura: "después de comprender las matemáticas subyacentes tardamos unos 2 años en implementarlo en un ordenador", la supercomputadora "Sage".

El cálculo del E8 es parte de un proyecto llamado Atlas de los Grupos de Lie y Representaciones que tiene por objetivo determinar las representaciones unitarias de todos los grupos de Lie, uno de los problemas sin resolver en matemáticas.

Como nos ayuda la estructura de grupo:

Apoyándonos en el grupo sencillo de la figura podemos hacernos una idea de como nos ayudan los grupos en nuestra búsqueda del conocimiento de las partículas elementales y sus interacciones. Supongamos que este grupo nos muestra una simetría que refleja la relación de tres partículas conocidas relacionadas mediante cierta interacción. Cuando analizamos el problema nos damos cuenta de que para completar la relación entre ellas necesitamos de otra partícula desconocida para completar el cuadro. En base a simetrías matemáticas podemos saber como será esa partícula y como se relaciona con las demás, además ese conocimiento nos permitirá diseñar experimentos para detectarla.

Si conseguimos relacionar todas las partículas y sus interacciones mediante simetrías matemáticas podemos obtener una serie de grupos capaces de representarlas. Si esos grupos conseguimos encuadrarlos en otro grupo superior habremos conseguido lo que intenta hacer Lisi con el grupo E8.

Volviendo a la teoría de Lisi:

Algunos físicos argumentan que la idea de Lisi podría ser complementaria de la teoría de cuerdas. De hecho, los físicos que han trabajado en esta teoría, ya han utilizado el modelo E8 para describir un patrón de espacio extra-dimensional llamado Variedad de Calabi-Yau, que se supone existiría al lado de las tres dimensiones que vemos.

Como decía en el anterior post, el futuro y los nuevos experimentos en base a las conjeturas que permite su teoría nos dirán si se equivoca o no. Tal como se dice en la cabecera de este blog : La aventura científica se convierte en la búsqueda de las más sencillas y potentes simetrías (belleza) capaces de descifrar, de la forma más simple, la aparente complejidad del mundo que nos rodea.

2008/01/19

Físico surfista busca Teoría del TODO ( I )

Un físico norteamericano independiente y surfista, llamado Garrett Lisi, parece que está dando mucho que hablar desde que, el 6 de noviembre del año pasado, colgara un trabajo de 30 páginas llamado "Una excepcionalmente simple teoría del Todo", en la página web arXiv.org de la Universidad de Cornell, donde se pueden aportar y leer libremente trabajos inéditos sobre física, matemáticas, computación , biología, etc. La base matemática de su teoría la ha encontrado en el llamado E8, el mayor de los grupos de Lie simples excepcionales, que se "manifestó" por primera vez en 1889 ante los ojos incrédulos del matemático Wilhelm Killing que estudiaba las llamadas álgebras de Lie. Curiosamente, a pesar de la expectación despertada, la posible conexión entre este grupo y una futura teoría del TODO no es ninguna novedad. Se pueden encontrar artículos de divulgación de hace como 15, 20 años, o más, donde se habla sobre las grandes esperanzas depositadas en este excepcional, extraordinariamente simétrico, y compacto grupo.

La variedad de partículas elementales que se encontraron a lo largo del siglo pasado, necesitó del uso de simetrías para entender las relaciones entre ellas. Una simetría existe cuando la expresión matemática de las leyes de la física es independiente o invariante del sistema de referencia, ya sea espacio-temporal o del espacio abstracto donde varían los números cuánticos que caracterizan a las partículas. Y el lenguaje apropiado para manejar simetrías es la teoría de grupos.

Existen simetrías de tipo general y otras de tipo local, en las que se exige que las transformaciones que forman el grupo correspondiente varíen de punto a punto en el espacio cuatridimensional cotidiano. A estas simetrías se les denomina simetrías de norma o gauge y para que sean exactas se requiere la existencia de campos que representan las fuerzas. Campos asociados a partículas cuyo intercambio entre las partículas ordinarias son la causa de las interacciones: en la interacción electromagnética esas partículas son los fotones, consecuancia de la simetría gauge asociada al grupo llamado U(1). Las interacciones débiles junto con las electromagnéticas resultan de la simetría gauge SU(2) X U(1), y las interacciones entre quarks de una simetría gauge SU(3) que opera en el espacio tridimensional llamado de color.

Garrett Lisi ha encontrado un mecanismo, todavía no verificado y no exclusivo, por el que las matemáticas subyacentes en todas las fuerzas y sus partículas fundamentales asociadas quedan incluidas en el marco matemático del E8, el mayor de los grupos de Lie simples (de ahí que titule su teoría como "excepcionalmente simple"). También aporta una solución (no la solución) para el problema de la gravedad cuántica y predice el número exacto de partículas fundamentales, sus propiedades y sus masas, la naturaleza del espacio-tiempo y la constante cosmológica. Sin embargo, su teoría dista de ser completa, no es definitiva sobre la cuestión de la gravedad cuántica y sobre todo trata de explicar a posteriori, sin demostrar que las soluciones encontradas son únicas y las que, ineludiblemente, tuvo que adoptar nuestro universo. Así y todo, hay opiniones serias y positivas sobre las posibilidades de su teoría, en principio más sencilla que la teoría de cuerdas, pues no serían necesarias las dimensiones extras sino sólamente las cuatro dimensiones espacio-temporales conocidas.

Predice una serie de partículas alguna de las cuales se podría encontrar en los proximos experimentos del acelerador LHC (Gran Colisionador de Hadrones). Sería un serio indicador de que la teoría apunta hacia el camino correcto.


Continuará...

2008/01/07

Atrapando un rayo de luz, ¿cuento de hadas o esperanza tecnológica?

Hace algún tiempo recuerdo que lo leí en el periódico. En 1999, la doctora danesa Lene Vestergaard Hau de la Universidad de Harvard dirigió un equipo que consiguió retrasar la velocidad de la luz hasta unos 17 metros por segundo (unos 60 Km./hora), en un condensado de Bose-Einstein. Poco después, en 2001 consiguió detenerla por completo en el condensado y volverla a activar poco después - otro equipo independiente dirigido por los doctores Ronald Walsworth y Mijail Lukin, también lo consiguió.

Este fenómeno podría utilizarse como interruptor óptico en futuros ordenadores cuánticos y en las comunicaciones superseguras basadas en la encriptación cuántica de la información. Deteniendo la luz, se almacena un bit cuántico, conceptualmente hablando, es una nueva clase de unidad de memoria. Un concepto casi poético, realmente bello y completamente irreal hace tan sólo unos años: atrapar un rayo de luz.

El rayo de luz es capaz de transmitir su estado cuántico a una nueva forma de materia llamada condensado de Bose-Einstein, es retrasado, detenido y nuevamente activado por un nuevo de rayo de luz láser. El condensado es una especie de superátomo formado por miles o millones de átomos en un mismo estado cuántico coherente. Cada átomo pierde, por completo, su individualidad para contribuir al conjunto del condensado, la función de onda es única para todo el sistema.

Curiosamente semejantes estados de coherencia macroscópica son los responsables de la superconductibidad y de la propia luz láser. Son estos estados tan característicos los que nos permiten observar propiedades cuánticas en sistemas macroscópicos y trasladan a nuestro mundo cotidiano la magia de lo cuántico. Esa magia transformará, a medio plazo, la ciencia y la tecnología de nuestro mundo.


No se me ocurre nada más bonito para empezar el nuevo año 2008. Atrapar un rayo de luz para alumbrar un futuro, casi mágico, apoyándonos en la coherencia cuántica de un montón de átomos ciegos ( aunque la coherencia, ciertamente, podríamos decir que vuelve a los átomos un poco menos ciegos. En la superconductividad se hace más patente este hecho).

Detalle

Retraso del haz : Los átomos del condensado están fijados por un campo magnético e iluminados por un láser acoplador que vuelve el condensado transparente a una frecuencia específica. Cuando un breve pulso proveniente de otro láser (sondeador), con fotones de esa frecuencia, incide sobre el condensado, aparece un estado cuántico oscuro. Lo que significa que los átomos del condensado entran en superposición, es decir, se encuentran simultáneamente en dos estados de energía. Al topar con esos átomos, los fotones quedan entrelazados con ellos. El borde delantero del pulso luminoso se frena, y el borde trasero se le acerca, de modo que la luz se comprime en el condensado, de cien micrómetros de espesor, como un fuelle.

Frenado y nueva puesta en marcha : Posteriormente, se descubrió que apagando el láser acoplador el pulso de luz desaparecía en el condensado, sin embargo, su forma característica, su amplitud y su fase quedaban impresas en los átomos del mismo. Cuando se volvía a encender el láser acoplador, el aporte de energía provocaba que los átomos del condensado saltaran de nivel de energía, liberando en el proceso un pulso de luz con la misma fase y amplitud que el láser sondeador original. Estos trabajos son importantes porque abordan los fundamentos mismos del almacenamiento y procesamiento de la información mediante la luz.

¡ Feliz año amigos !


2007/12/27

Gravitación cuántica, distancia fundamental, y teoría de cuerdas

La teoría de la relatividad general de Einstein establece una relación directa entre la gravitación y la geometría del espaciotiempo. Esto supone que una teoría cuántica de la gravitación implicará una estructura cuántica del propio espaciotiempo. Y en esta estructura deberá jugar un papel importante una especie de "cuanto espacial", o mínima distancia de interacción. Un nuevo límite fundamental en la Naturaleza, similar a la velocidad de la luz o al cuanto de acción, ahora en la escala de las distancias.

Las dos grandes teorías físicas de las que disponemos, la relatividad general y la mecánica cuántica parecen no llevarse bien entre ellas. La relatividad general está formulada de una manera clásica y esa esencia choca con la formulación cuántica. De hecho, la aplicación directa de las reglas de la mecánica cuántica a la teoría de gravitación de Einstein da lugar a inconsistencias matemáticas. El camino más fácil es intentar formular una teoría cuántica de las ondas gravitacionales, o "arrugas" o vibraciones de la geometría espaciotemporal similares a las ondas electromagnéticas. Cuánticamente, se pueden ver como conjuntos coherentes de partículas, de la misma forma que una onda electromagnética es un conjunto coherente de fotones. Los equivalentes gravitacionales de los fotones se denominan gravitones.

---Distancia fundamental---

A medida que consideramos distancias cada vez menores, las interacciones entre gravitones producen cascadas de creación y aniquilación demasiado violentas, de tal forma que la delicada estructura que funcionaba para las demás partículas fracasa estrepitosamente para los gravitones. Existe una especie de realimentación en la interacción entre gravitones, pues interactúan mediante otros gravitones y esto hace que se pierda la sencilla linealidad que presentan otras fuerzas. Esta cuestión es la causante de que la teoría cuántica de los gravitones no sea renormalizable.

Lo más asombroso es que, por lo que se sabe en otros casos similares de teorías no renormalizables, una explicación posible es que el gravitón no sea una partícula fundamental, sino que tenga componentes a una escala de distancias determinada por la intensidad intrínseca de la interacción gravitacional. Si esto es correcto, el gravitón revelaría sus componentes en la vecindad de al escala de Planck, la única magnitud con dimensiones de longitud que se puede formar con las tres constantes fundamentales de la física, c, h y G (unos 10-33 centímetros).

Para que nos hagamos idea de la dificultad a la que nos enfrentamos en la formulación de una teoría cuántica de la gravitación, a la distancia de Planck las fluctuaciones cuánticas cambian la estructura geométrica e incluso topológica del espaciotiempo, pudiendo crear agujeros incluso negros microscópicos, de ahí que sean tan importantes a esas distancias como los gravitones. Esta es la vieja idea de Wheeler, que habló de la estructura "espumosa" del espaciotiempo cuántico.

---Teoría de cuerdas y agujeros negros---

Otra vez nos encontramos con nuestros viejos amigos lo agujeros negros, ahora en forma microscópica como resultado de las fluctuaciones cuánticas a escalas de la distancia de Planck. Lo que hemos aprendido de ellos, pero sobre todo la teoría de cuerdas, o la idea de que las partículas que denominamos elementales son en realidad objetos extensos en una dimensión, cuerdas diminutas cuya dinámica esta especificada por sus modos de vibración: cada modo de vibración independiente representaría un tipo diferente de partícula. Esta teoría, básicamente muy sencilla en sus planteamientos iniciales, conduce a una estructura matemática de riqueza insospechada, cuya exploración por parte de físicos y matemáticos aún pertenece a las generaciones futuras.

Hay dos clases básicas de cuerdas, según sean cerradas sobre sí mismas o abiertas, con los extremos libres. Las cuerdas cerradas siempre tienen un modo de vibración que se puede identificar con el gravitón, mientras que las cuerdas abiertas siempre tienen un fotón. El resultado es que las cuerdas predicen la existencia de gravitación en el sector cerrado, y de interacciones del tipo de la interacción electromagnética en el sector abierto. Pero se ha descubierto que las cuerdas no son los únicos objetos fundamentales de la teoría, existen regiones singulares a las cuales las cuerdas abiertas estarían enganchadas, se conocen como D-branas: pueden ser objetos puntuales (D-partículas), tener una dimensión (D-cuerdas), dos dimensiones extendidas (D-membranas), etc.

Cuando las cuerdas o D-branas (generalizando) alcanzan un alto grado de excitación sobre su estado de mínima energía, se convierten en agujeros negros. Esto se entiende bastante bien a nivel cuantitativo gracias a un importante cálculo de Andrew Strominger y Cumrum Vafa, de la Universidad de Harvard, aunque sólo en el caso de agujeros negros con mucha simetría. En este caso el número de estados de un agujero negro, según los cálculos independientes (no cuerdísticos) de Bekenstein y Hawking, coincide con el de un sistema adecuado de D-branas.

---Espaciotiempo no conmutativo, el principio básico---

Como en el caso de la mecánica cuántica, en que el principio básico del que emanaba las propias relaciones de indeterminación de Heisenberg era la no conmutatividad entre posiciones y velociadades, la imposibilidad por principio de conocer ambas cantidades con total definición, en nuestro caso de una teoría de la gravitación cuántica se busca un principio de no conmutatividad puramente espaciotemporal. El tipo de estructura matemática necesaria fue descubierto por el matemático francés Alain Connes en los años ochenta, una geometría cuántica en la cual las coordenadas espaciales son matrices que no conmutan entre sí, en analogía exacta con las posiciones y velocidades de una partícula. De hecho ya se ha comprobado que las cuerdas abiertas poseen propiedades matemáticas que recuerdan esta geometría no conmutativa. Posteriormente se ha llegado a la conclusión de que las D-branas son los propios ladrillos del espaciotiempo: el espaciotiempo adquiere así una naturaleza granular a la escala de Planck, una especie de retículo de D-branas trenzadas mediante las cuerdas abiertas.

Una propiedad matemática tan elemental como es la no conmutatividad está en la base de lo que será la futura teoría de gravitación cuántica. Los retículos espaciales que sustituyen a las coordenadas no conmutan, es decir si X es el operador cuántico de la coordenada x e Y es el operador de la y, el producto XY es diferente al producto YX. Las coordenadas clásicas son simples números reales que por descontado son conmutables, pues da lo mismo multiplicar las coordenadas xy en ese orden o en el contrario yx. Esta diferencia tan abismal nos da una idea de la nueva complejidad necesaria para poder describir
correctamente la realidad del espaciotiempo.

2007/12/12

Sobre la ciencia de la información cuántica

La ciencia de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información.

Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si llegamos a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica sabremos interpretar la complejidad de los sistemas cuánticos.

La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, practicamente todos los objetos que nos encontramos a nuestro alrededor por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico. Como decía en el anterior post esa es la mayor dificultad a la hora de construir un ordenador cuántico, los qubits cuanto más sean tanto más difícil será mantener su coherencia y su funcionamiento cuántico.

Existen fenómenos que ofrecen ejemplos de sistemas cuánticos grandes bien aislados, entre ellos la superconductividad, el efecto Hall cuántico y el condensado de Bose-Einstein. Estos fenómenos demuestran que las reglas sencillas de la mecánica cuántica pueden dar lugar a principios emergentes que gobiernan comportamientos complejos.

El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos, tal como veíamos en el post anterior al definir el qubit. El continuo de estados entre el 0 y el 1 causa muchas de las extraordinarias propiedades de la información cuántica.

Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger, el del famoso gato, el entrelazamiento no era un rasgo característico, sino el rasgo carcterístico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas.


Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, nos proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.

En 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas:
1. Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales (en nuestro caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit).
2.Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso (1).
3.Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2).

La pregunta fundamental de la ciencia de la información dice, pues:¿Cuál es la mínima cantidad de recurso físico (1) que necesitamos para realizar la tarea de procesado de información (2) cumpliendo el criterio de éxito (3)?.

En 1948 Claude E. Shannon resolvió el problema fundamental sobre la información clásica: ¿Cuál es el mínimo número de bits necesarios para almacenar la información producida por una fuente?. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon. La clave de nuestra nueva ciencia la tiene la calibración del entrelazamiento de los qubits(*). Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Podemos analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como estudiamos el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.

Información y física:

Como ya pasó con la entropía termodinámica que se ha demostrado íntimamente relacionada con la cantidad de información soportada por un sistema físico, y que nos ha dado una referencia inestimable para estudiar la propia física de los agujeros negros, y con ellos para avanzar con la intrincada y aún no resuelta gravedad cuántica, el concepto de entrelazamiento en relación con el tratamiento de la información cuántica puede ayudarnos a desentrañar los secretos de la extraña mecánica cuántica. Algo tan etéreo como el concepto de la información parece estar íntimamente relacionado con las leyes más fundamentales de la física.

(*)El E-Bit estándar:

Cuando dos qubits están entrelazados, ya no tienen estados cuánticos individuales. En su lugar, se define una relación entre qubits. En un par de qubits máximamente entrelazado, los qubits dan resultados opuestos cuando se los mide. Si uno da 0, el otro da 1, y viceversa. Un par máximamente entrelazado tiene un "e-bit" de entrelazamiento, una especie de unidad de medida del entrelazamiento de un sistema cuántico.

Algo de "mágia" mecanico-cuántica:

- Si dos monedas pudieran estar "entrelazadas" como dos partículas cuánticas, cada par entrelazado daría el mismo resultado, aún cuando se lanzaran a años luz de distancia o en instantes muy diferentes: una moneda daría cara y la otra cruz.

Fenómenos Cuánticos. Investigación y Ciencia. Temas 31

2007/12/05

Coherencia y computación mecanico-cuántica

La computación mecanico-cuántica se basa en una propiedad misteriosa de la mecánica cuántica: la coherencia cuántica. En un ordenador actual la información se codifica en ceros (0) y unos (1). El estado de un bit (unidad mínima de información) sólo puede encontrarse en (1) o en (0).

Explicación del QUBIT:

En un ordenador cuántico la unidad mínima de información es el qubit, un estado entrelazado, mezcla de los dos estados a la vez, de forma coherente.


Para visualizarlo (observar el dibujo y pinchar) podemos imaginar una esfera, en el polo norte situariamos el (1) y en el polo sur el (0) : el qubit representaría cualquier punto de la esfera como una combinación de los dos estados a(0) + b(1). El (0) y el (1) constituirían lo que en música son los tonos puros musicales, en cambio, una superposición de (0) y (1) sería un acorde.



La potencia de la computación cuántica se basa en la coherencia o superposición que permite un efecto de paralelismo : Colocamos todos los qubits de entrada en una superposición coherente de ceros y unos. Si hacemos pasar esta entrada a través de un circuito lógico que ejecute un determinado cómputo, el resultado es una superposición de todos los posibles resultados de ese cómputo: la computadora efectúa a la vez todos los cómputos posibles.

Símil musical:
Una computadora cuántica que realice un cómputo ordinario, en el que no haya superposición de bits, genera una secuencia de ondas (mecanico-cuánticas) análogas al sonido de un "cambio de repique" de los campanarios, en que las campanas se tañen una por vez. Un cómputo realizado en modo cuántico paralelo viene a ser como una sinfonía, su sonido corresponde a una multitud de ondas que se interfieren entre sí.


Los dispositivos físicos que se podrían utilizar para procesar la información serían partículas individuales como átomos, moléculas, fotones, etc. Cualquier partícula o partículas de tamaño atómico o subatómico capaz de contar, al menos, con dos estados que pueden identificarse con los valores de un bit. En el caso del átomo se podrían utilizar dos de sus niveles energéticos. De forma natural este átomo presentaría un estado enlazado o coherente de estos dos estados constituyendo la mínima unidad de información cuántica o QUBIT.


Mientras que en un procesador clásico la entrada se verifica con N bits y solamente se pueden representar y procesar, cada vez, una de las posibles combinaciones de los mismos, en un computador cuántico con N qubits se podrían manejar en forma simultánea la combinación coherente o superpuesta de todos los posibles valores 2N . En un procesador actual se necesitaría repetir
2N veces la misma operación o utilizar 2N procesadores en paralelo.


En 1994 Peter W. Shor de AT&T se dio cuenta de cómo sacarle partido a los fenómenos de coherencia y superposición cuántica para descomponer un entero en sus factores primos. Descubrió que un ordenador cuántico podría realizar la tarea de un modo muchísimo más veloz que cualquier ordenador clásico. Para hacernos una idea, mientras que un ordenador o superordenador actual tardaría varios miles de millones de años en factorizar un número de unos 1000 dígitos, un ordenador cuántico tardaría unos 20 minutos. Teniendo en cuenta que los sistemas de encriptación basan su seguridad en la dificultad de descomponer en primos números muy grandes, es fácil entender que el algoritmo de Shor para computación cuántica sacudió los cimientos del mundo de la economía electrónica.


En la búsqueda aleatoria de N elementos en una base de datos,
también es evidente la ventaja de un ordenador cuántico. Mientras que uno clásico logra el resultado en N/2 intentos, otro cuántico lo consigue en N1/2 intentos. En 1 000 000 elementos el clásico conseguirá resultados en 500 000 intentos mientras que el cuántico lo hará en 1000.

Pero la construcción de ordenadores cuánticos es sumamente difícil, porque los estados de coherencia y superposición cuánticos son de una fragilidad superlativa. Pueden quedar destruidos por las más diminutas interacciones con el medio circundante. Este es el gran caballo de batalla en el camino para conseguir el ordenador cuántico. (Continuará en próximos posts)




2007/11/28

La bella teoría en la revista Espacio



Gracias a Carlos Martín, blogger de Novedades Científicas me enteré, con gran satisfacción, que la revista Espacio nos ha dedicado este mes de noviembre una reseña en el apartado Ciberespacio (página 20): "En esta bitácora se ofrece una ventana a todas las teorías que intentan explicar cómo es nuestro Universo y por qué es de esa manera. Su autor las desgrana de manera sencilla y también encuentra un hueco para comentar libros o noticias al respecto".

Junto a La bella teoría, se citan otros tres blogs científicos muy interesantes: Novedades Ciéntíficas, Curioso pero inútil y El Tamiz .

En los últimos meses he dedicado algunas entradas a temas relacionados directamente con el espacio. Aprovecho la ocasión para hacer un recordatorio. Se ha hablado del

Big Bang como una explosión en "perfecto orden", sobre
Las corrientes de estrellas,

El misterio de la matería-antimateria o sobre

"Antes" del Big Bang.

La muerte del universo,

Las estrellas como fuente de orden o baja entropía,

Los agujeros negros y su "pelo",

El universo elegante,

Los tres primeros minutos del universo,



Gracias a la revista Espacio y a los pacientes lectores.