2007/12/27

Gravitación cuántica, distancia fundamental, y teoría de cuerdas

La teoría de la relatividad general de Einstein establece una relación directa entre la gravitación y la geometría del espaciotiempo. Esto supone que una teoría cuántica de la gravitación implicará una estructura cuántica del propio espaciotiempo. Y en esta estructura deberá jugar un papel importante una especie de "cuanto espacial", o mínima distancia de interacción. Un nuevo límite fundamental en la Naturaleza, similar a la velocidad de la luz o al cuanto de acción, ahora en la escala de las distancias.

Las dos grandes teorías físicas de las que disponemos, la relatividad general y la mecánica cuántica parecen no llevarse bien entre ellas. La relatividad general está formulada de una manera clásica y esa esencia choca con la formulación cuántica. De hecho, la aplicación directa de las reglas de la mecánica cuántica a la teoría de gravitación de Einstein da lugar a inconsistencias matemáticas. El camino más fácil es intentar formular una teoría cuántica de las ondas gravitacionales, o "arrugas" o vibraciones de la geometría espaciotemporal similares a las ondas electromagnéticas. Cuánticamente, se pueden ver como conjuntos coherentes de partículas, de la misma forma que una onda electromagnética es un conjunto coherente de fotones. Los equivalentes gravitacionales de los fotones se denominan gravitones.

---Distancia fundamental---

A medida que consideramos distancias cada vez menores, las interacciones entre gravitones producen cascadas de creación y aniquilación demasiado violentas, de tal forma que la delicada estructura que funcionaba para las demás partículas fracasa estrepitosamente para los gravitones. Existe una especie de realimentación en la interacción entre gravitones, pues interactúan mediante otros gravitones y esto hace que se pierda la sencilla linealidad que presentan otras fuerzas. Esta cuestión es la causante de que la teoría cuántica de los gravitones no sea renormalizable.

Lo más asombroso es que, por lo que se sabe en otros casos similares de teorías no renormalizables, una explicación posible es que el gravitón no sea una partícula fundamental, sino que tenga componentes a una escala de distancias determinada por la intensidad intrínseca de la interacción gravitacional. Si esto es correcto, el gravitón revelaría sus componentes en la vecindad de al escala de Planck, la única magnitud con dimensiones de longitud que se puede formar con las tres constantes fundamentales de la física, c, h y G (unos 10-33 centímetros).

Para que nos hagamos idea de la dificultad a la que nos enfrentamos en la formulación de una teoría cuántica de la gravitación, a la distancia de Planck las fluctuaciones cuánticas cambian la estructura geométrica e incluso topológica del espaciotiempo, pudiendo crear agujeros incluso negros microscópicos, de ahí que sean tan importantes a esas distancias como los gravitones. Esta es la vieja idea de Wheeler, que habló de la estructura "espumosa" del espaciotiempo cuántico.

---Teoría de cuerdas y agujeros negros---

Otra vez nos encontramos con nuestros viejos amigos lo agujeros negros, ahora en forma microscópica como resultado de las fluctuaciones cuánticas a escalas de la distancia de Planck. Lo que hemos aprendido de ellos, pero sobre todo la teoría de cuerdas, o la idea de que las partículas que denominamos elementales son en realidad objetos extensos en una dimensión, cuerdas diminutas cuya dinámica esta especificada por sus modos de vibración: cada modo de vibración independiente representaría un tipo diferente de partícula. Esta teoría, básicamente muy sencilla en sus planteamientos iniciales, conduce a una estructura matemática de riqueza insospechada, cuya exploración por parte de físicos y matemáticos aún pertenece a las generaciones futuras.

Hay dos clases básicas de cuerdas, según sean cerradas sobre sí mismas o abiertas, con los extremos libres. Las cuerdas cerradas siempre tienen un modo de vibración que se puede identificar con el gravitón, mientras que las cuerdas abiertas siempre tienen un fotón. El resultado es que las cuerdas predicen la existencia de gravitación en el sector cerrado, y de interacciones del tipo de la interacción electromagnética en el sector abierto. Pero se ha descubierto que las cuerdas no son los únicos objetos fundamentales de la teoría, existen regiones singulares a las cuales las cuerdas abiertas estarían enganchadas, se conocen como D-branas: pueden ser objetos puntuales (D-partículas), tener una dimensión (D-cuerdas), dos dimensiones extendidas (D-membranas), etc.

Cuando las cuerdas o D-branas (generalizando) alcanzan un alto grado de excitación sobre su estado de mínima energía, se convierten en agujeros negros. Esto se entiende bastante bien a nivel cuantitativo gracias a un importante cálculo de Andrew Strominger y Cumrum Vafa, de la Universidad de Harvard, aunque sólo en el caso de agujeros negros con mucha simetría. En este caso el número de estados de un agujero negro, según los cálculos independientes (no cuerdísticos) de Bekenstein y Hawking, coincide con el de un sistema adecuado de D-branas.

---Espaciotiempo no conmutativo, el principio básico---

Como en el caso de la mecánica cuántica, en que el principio básico del que emanaba las propias relaciones de indeterminación de Heisenberg era la no conmutatividad entre posiciones y velociadades, la imposibilidad por principio de conocer ambas cantidades con total definición, en nuestro caso de una teoría de la gravitación cuántica se busca un principio de no conmutatividad puramente espaciotemporal. El tipo de estructura matemática necesaria fue descubierto por el matemático francés Alain Connes en los años ochenta, una geometría cuántica en la cual las coordenadas espaciales son matrices que no conmutan entre sí, en analogía exacta con las posiciones y velocidades de una partícula. De hecho ya se ha comprobado que las cuerdas abiertas poseen propiedades matemáticas que recuerdan esta geometría no conmutativa. Posteriormente se ha llegado a la conclusión de que las D-branas son los propios ladrillos del espaciotiempo: el espaciotiempo adquiere así una naturaleza granular a la escala de Planck, una especie de retículo de D-branas trenzadas mediante las cuerdas abiertas.

Una propiedad matemática tan elemental como es la no conmutatividad está en la base de lo que será la futura teoría de gravitación cuántica. Los retículos espaciales que sustituyen a las coordenadas no conmutan, es decir si X es el operador cuántico de la coordenada x e Y es el operador de la y, el producto XY es diferente al producto YX. Las coordenadas clásicas son simples números reales que por descontado son conmutables, pues da lo mismo multiplicar las coordenadas xy en ese orden o en el contrario yx. Esta diferencia tan abismal nos da una idea de la nueva complejidad necesaria para poder describir
correctamente la realidad del espaciotiempo.

2007/12/12

Sobre la ciencia de la información cuántica

La ciencia de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información.

Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si llegamos a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica sabremos interpretar la complejidad de los sistemas cuánticos.

La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, practicamente todos los objetos que nos encontramos a nuestro alrededor por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico. Como decía en el anterior post esa es la mayor dificultad a la hora de construir un ordenador cuántico, los qubits cuanto más sean tanto más difícil será mantener su coherencia y su funcionamiento cuántico.

Existen fenómenos que ofrecen ejemplos de sistemas cuánticos grandes bien aislados, entre ellos la superconductividad, el efecto Hall cuántico y el condensado de Bose-Einstein. Estos fenómenos demuestran que las reglas sencillas de la mecánica cuántica pueden dar lugar a principios emergentes que gobiernan comportamientos complejos.

El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos, tal como veíamos en el post anterior al definir el qubit. El continuo de estados entre el 0 y el 1 causa muchas de las extraordinarias propiedades de la información cuántica.

Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger, el del famoso gato, el entrelazamiento no era un rasgo característico, sino el rasgo carcterístico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas.


Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, nos proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.

En 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas:
1. Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales (en nuestro caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit).
2.Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso (1).
3.Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2).

La pregunta fundamental de la ciencia de la información dice, pues:¿Cuál es la mínima cantidad de recurso físico (1) que necesitamos para realizar la tarea de procesado de información (2) cumpliendo el criterio de éxito (3)?.

En 1948 Claude E. Shannon resolvió el problema fundamental sobre la información clásica: ¿Cuál es el mínimo número de bits necesarios para almacenar la información producida por una fuente?. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon. La clave de nuestra nueva ciencia la tiene la calibración del entrelazamiento de los qubits(*). Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Podemos analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como estudiamos el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.

Información y física:

Como ya pasó con la entropía termodinámica que se ha demostrado íntimamente relacionada con la cantidad de información soportada por un sistema físico, y que nos ha dado una referencia inestimable para estudiar la propia física de los agujeros negros, y con ellos para avanzar con la intrincada y aún no resuelta gravedad cuántica, el concepto de entrelazamiento en relación con el tratamiento de la información cuántica puede ayudarnos a desentrañar los secretos de la extraña mecánica cuántica. Algo tan etéreo como el concepto de la información parece estar íntimamente relacionado con las leyes más fundamentales de la física.

(*)El E-Bit estándar:

Cuando dos qubits están entrelazados, ya no tienen estados cuánticos individuales. En su lugar, se define una relación entre qubits. En un par de qubits máximamente entrelazado, los qubits dan resultados opuestos cuando se los mide. Si uno da 0, el otro da 1, y viceversa. Un par máximamente entrelazado tiene un "e-bit" de entrelazamiento, una especie de unidad de medida del entrelazamiento de un sistema cuántico.

Algo de "mágia" mecanico-cuántica:

- Si dos monedas pudieran estar "entrelazadas" como dos partículas cuánticas, cada par entrelazado daría el mismo resultado, aún cuando se lanzaran a años luz de distancia o en instantes muy diferentes: una moneda daría cara y la otra cruz.

Fenómenos Cuánticos. Investigación y Ciencia. Temas 31

2007/12/05

Coherencia y computación mecanico-cuántica

La computación mecanico-cuántica se basa en una propiedad misteriosa de la mecánica cuántica: la coherencia cuántica. En un ordenador actual la información se codifica en ceros (0) y unos (1). El estado de un bit (unidad mínima de información) sólo puede encontrarse en (1) o en (0).

Explicación del QUBIT:

En un ordenador cuántico la unidad mínima de información es el qubit, un estado entrelazado, mezcla de los dos estados a la vez, de forma coherente.


Para visualizarlo (observar el dibujo y pinchar) podemos imaginar una esfera, en el polo norte situariamos el (1) y en el polo sur el (0) : el qubit representaría cualquier punto de la esfera como una combinación de los dos estados a(0) + b(1). El (0) y el (1) constituirían lo que en música son los tonos puros musicales, en cambio, una superposición de (0) y (1) sería un acorde.



La potencia de la computación cuántica se basa en la coherencia o superposición que permite un efecto de paralelismo : Colocamos todos los qubits de entrada en una superposición coherente de ceros y unos. Si hacemos pasar esta entrada a través de un circuito lógico que ejecute un determinado cómputo, el resultado es una superposición de todos los posibles resultados de ese cómputo: la computadora efectúa a la vez todos los cómputos posibles.

Símil musical:
Una computadora cuántica que realice un cómputo ordinario, en el que no haya superposición de bits, genera una secuencia de ondas (mecanico-cuánticas) análogas al sonido de un "cambio de repique" de los campanarios, en que las campanas se tañen una por vez. Un cómputo realizado en modo cuántico paralelo viene a ser como una sinfonía, su sonido corresponde a una multitud de ondas que se interfieren entre sí.


Los dispositivos físicos que se podrían utilizar para procesar la información serían partículas individuales como átomos, moléculas, fotones, etc. Cualquier partícula o partículas de tamaño atómico o subatómico capaz de contar, al menos, con dos estados que pueden identificarse con los valores de un bit. En el caso del átomo se podrían utilizar dos de sus niveles energéticos. De forma natural este átomo presentaría un estado enlazado o coherente de estos dos estados constituyendo la mínima unidad de información cuántica o QUBIT.


Mientras que en un procesador clásico la entrada se verifica con N bits y solamente se pueden representar y procesar, cada vez, una de las posibles combinaciones de los mismos, en un computador cuántico con N qubits se podrían manejar en forma simultánea la combinación coherente o superpuesta de todos los posibles valores 2N . En un procesador actual se necesitaría repetir
2N veces la misma operación o utilizar 2N procesadores en paralelo.


En 1994 Peter W. Shor de AT&T se dio cuenta de cómo sacarle partido a los fenómenos de coherencia y superposición cuántica para descomponer un entero en sus factores primos. Descubrió que un ordenador cuántico podría realizar la tarea de un modo muchísimo más veloz que cualquier ordenador clásico. Para hacernos una idea, mientras que un ordenador o superordenador actual tardaría varios miles de millones de años en factorizar un número de unos 1000 dígitos, un ordenador cuántico tardaría unos 20 minutos. Teniendo en cuenta que los sistemas de encriptación basan su seguridad en la dificultad de descomponer en primos números muy grandes, es fácil entender que el algoritmo de Shor para computación cuántica sacudió los cimientos del mundo de la economía electrónica.


En la búsqueda aleatoria de N elementos en una base de datos,
también es evidente la ventaja de un ordenador cuántico. Mientras que uno clásico logra el resultado en N/2 intentos, otro cuántico lo consigue en N1/2 intentos. En 1 000 000 elementos el clásico conseguirá resultados en 500 000 intentos mientras que el cuántico lo hará en 1000.

Pero la construcción de ordenadores cuánticos es sumamente difícil, porque los estados de coherencia y superposición cuánticos son de una fragilidad superlativa. Pueden quedar destruidos por las más diminutas interacciones con el medio circundante. Este es el gran caballo de batalla en el camino para conseguir el ordenador cuántico. (Continuará en próximos posts)




2007/11/28

La bella teoría en la revista Espacio



Gracias a Carlos Martín, blogger de Novedades Científicas me enteré, con gran satisfacción, que la revista Espacio nos ha dedicado este mes de noviembre una reseña en el apartado Ciberespacio (página 20): "En esta bitácora se ofrece una ventana a todas las teorías que intentan explicar cómo es nuestro Universo y por qué es de esa manera. Su autor las desgrana de manera sencilla y también encuentra un hueco para comentar libros o noticias al respecto".

Junto a La bella teoría, se citan otros tres blogs científicos muy interesantes: Novedades Ciéntíficas, Curioso pero inútil y El Tamiz .

En los últimos meses he dedicado algunas entradas a temas relacionados directamente con el espacio. Aprovecho la ocasión para hacer un recordatorio. Se ha hablado del

Big Bang como una explosión en "perfecto orden", sobre
Las corrientes de estrellas,

El misterio de la matería-antimateria o sobre

"Antes" del Big Bang.

La muerte del universo,

Las estrellas como fuente de orden o baja entropía,

Los agujeros negros y su "pelo",

El universo elegante,

Los tres primeros minutos del universo,



Gracias a la revista Espacio y a los pacientes lectores.

2007/11/22

La omnipresente matemática, o la ciencia es vida

Lo dicho en el post anterior para la ciencia física vale, corregido y aumentado, para las matemáticas. Es asombrosa la absoluta ignorancia que tiene nuestra sociedad tecnológica de todo lo que le debe a esta ciencia. Me atrevo a decir, y no exagero,que si dispusiéramos de una varita mágica capaz de absorber la esencia matemática de los objetos cotidianos que nos rodean, y dejarlos sin ese aliento fundamental, desaparecería de cuajo todo cuanto vemos y tocamos en nuestra vida cotidiana, construido por el hombre.

Si la física es una ciencia fundamental para nuestra tecnología, esta ciencia no sería nada sin las matemáticas: ni la física cuántica, ni la relatividad, ninguna teoría ni tecnología sería nada, y ni siquiera podría haber nacido. La bella teoría, cualquiera que sea, tiene alma matemática . Somos puras matemáticas, sin ellas no hay principios físicos ni de ningún tipo. Eso es así y no creo que esté descubriendo nada nuevo, sólo ocurre que cuando algo nos rodea por completo y lo llena todo tendemos a ignorarlo. El ordenador que manejo para escribir esto, la mesa sobre la que escribo, la silla, mis ropas, mi teléfono móvil, mis zapatos, el edificio en el que trabajo, el coche que conduzco, cualquier tecnología o máquina que se haya necesitado para construirlos necesita, ineludiblemente, de las matemáticas.

Como muestra un botón: Google utiliza un algoritmo (secuencia de pasos que pueden llevarse a cabo mecánicamente) de búsqueda llamado PageRank (TM) y los reproductores de mp3 utilizan otro algoritmo llamado de codificación perceptual desarrollado por el consorcio MPEG ( Moving Picture Expert Group) junto con el Instituto Tecnológico Fraunhofer . Pura matemática expresada como programas en lenguajes de programación.

Pero hay más, muchísimo más, el cálculo diferencial por ejemplo (¡¡¡¡¿para qué vale eso?!!!!) se utiliza hasta para construir cualquiera de nuestros utensilios de cocina, como las cacerolas, y conseguir optimizar su construcción con el menor gasto de material.

Los protocolos de comunicación o transmisión de datos, los sistemas de numeración ( decimal y binario, por ejemplo), los futuros ordenadores cuánticos, los teléfonos móviles actuales o futuros.... podríamos llenar infinidad de entradas del blog pormenorizando lo que le debe cualquier objeto cotidiano o tecnología a las matemáticas.

Matemáticas e ingeniería: Las matemáticas permiten tratar los conceptos de ingeniería con lógica rigurosa. Estos conceptos se asocian con objetos matemáticos tales como puntos, curvas, superficies y conjuntos de números. Se selecciona un modelo matemático formado por dichos objetos y un conjunto de reglas para asociarles y, así, poder operar con ellos. La decisión acerca del modelo que se debe utilizar se basa en el criterio del modelo que pueda representar mejor el mundo físico. Se aplican los teoremas y relaciones del modelo para encontrar una solución matemática, que se convierten nuevamente en conceptos de ingeniería.

Todo esto, la íntima relación de las matemáticas con lo cotidiano, lo deberían saber los chicos y chicas desde la escuela primaria, pero en lugar de eso se encuentran con un montón de garabatos incomprensibles y totalmente desconectados de su vida cotidiana. No podemos seguir así y pretender que les guste la ciencia. El único camino es enseñarles que la ciencia es vida, en el sentido de que gracias a ella disfrutan de todas las comodidades y de todos los artefactos que nos hacen la vida más agradable y divertida.

Un amigo me dice que no dramaticemos, pero sucede que la situación de ciencias tan básicas como las matemáticas y la física es dramática. A nivel mundial está cayendo alarmantemente el número de personas que eligen estudiarlas. Y supongo que tendremos que hacer algo.

2007/11/18

La omnipresente ciencia física

Para la mayoría de los chavales de hoy en día la física es un verdadero rollo, de hecho cuando dices que vas a estudiar la carrera de física la pregunta más normal es :¿y eso para qué sirve?. Y esto sucede en plena sociedad tecnológica, cuando ellos mismos consideran -sin saberlo- como una parte importante de su vida los frutos directos de los logros tecnológicos de esta ciencia. Nuestra sociedad se lo debe casi todo, y casi todo el mundo lo ingnora en mayor o menor grado. Además, en infinidad de fenómenos naturales próximos o lejanos la física es imprescindible para su correcta comprensión.


La física está presente en infinidad de aspectos en nuestra sociedad:




Nuestros conocimientos sobre la ciencia física han permitido las actuales telecomunicaciones tales como la televisión o la telefonía móvil, la tecnología de los ordenadores, internet, el trasporte, la industria y otros numerosos aspectos de nuestra vida moderna como la propia iluminación eléctrica de nuestras casa y ciudades. En el aspecto médico, el diagnóstico precoz mediante el uso de la moderna tecnología, como rayos X, ultrasonidos, tomografía axial computerizada (TAC), o los tratamientos físicos sofisticados como la radiación o los láseres. Su influencia en todos los ámbitos de nuestra sociedad es incuestionable, y, a pesar de ello, muchas veces desconocida.




En la propia biología, en la vida:
Las propias reglas básicas de la química, tal como se entiene hoy, son también básicamente físicas pues, al menos en sus principios, son pura física cuántica. De ella dependen las propiedades de los orbitales atómicos y de las propiedades de éstos las reglas básicas de la química. Incluso en la biología, podemos encontrar una física profundamente subyacente, el ADN que controla el crecimiento de los seres vivos es una molécula, y la persistencia y fiabilidad de su estructura depende de forma crucial de las reglas de la mecánica cuántica, como señaló el propio Schrödinger en 1944 en su influyente librito ¿Qué es la vida?. Además, su crecimiento también está controlado en última estancia por las mismas fuerzas físicas que gobiernan las partículas individuales de las que están compuestos. Las relevantes son principalmente de origen electromagnético, pero la fuerza nuclear fuerte es vital para determinar qué núcleos son posibles, y por lo tanto qué átomos pueden existir.




En los sucesos más espectaculares de la Tierra:
En otro orden de cosas, y aunque no lo parezca, también la fuerza débil tiene su papel en los fenómenos que vemos a gran escala, a pesar de su debilidad (diez millones de veces menor que la fuerza fuerte y cien mil veces menor que la intensidad del electromagnetismo), esta fuerza puede dar como resultado algunos de los sucesos más espectaculares que ha experimentado la humanidad. Pues la fuerza débil es la responsable, a través de las desintegraciones radiactivas en el interior de la Tierra, del calentamiento del magma terrestre. En particular, las erupciones volcánicas son su legado. Aproximadamente, a partir del 535 d.C. hubo un período de unos cuantos años durante el que se registraron hambrunas globales y un clima anormalmente frío, debido a una capa prácticamente continua de polvo que había sido arrojado en una enorme explosión volcánica. La influencia de los volcanes a lo largo de la historia geológica de la Tierra - y en la historia humana- resulta bien patente, su origen en último extremo es la fuerza débil.



En el inmenso Universo al que pertenecemos:

Pero las más violentas explosiones vistas en el universo son causadas por la fuerza más débil de todas, la gravitación (aproximadamente 10-38 de la intensidad de la fuerza débil) causante de la formación de los agujeros negros. Estos alimentan las increíblemente poderosas fuentes de energía de los lejanos cuásares, una energía equivalente a la luz que pueden emitir miles de galaxias juntas.Aparte de esto, la débil fuerza de la gravedad tiene nada menos que la responsabilidad de mantener la organización y armonía en el Universo. En las distancias astronómicas es la fuerza dominante entre los elementos del cosmos.

2007/11/09

Ellas, las partículas, nunca bailan solas

A toda partícula siempre le acompañan sus interacciones con los campos cuánticos, dentro de una bruma confusa de actividad sin fin: una especie de baile frenético que nunca cesa.



Por obra y gracia de la existencia del cuanto de acción, las partículas elementales como el electrón, ya no pueden considerarse como cosas aisladas. Ya no podemos pensar en un electrón independiente de sus interacciones, cuya fuerza y naturaleza se manifiestan por una especie de nube envolvente de partículas virtuales, que aparecen y desaparecen siempre que se cumpla que el producto de su energía por el tiempo de su existencia sea inferior al cuanto de acción h. Al fotón le ocurre lo mismo, nunca está solo, tiene también su nube de partículas virtuales. Toda partícula lleva sus interacciones con ella, dentro de una bruma confusa de actividad sin fin.

Lo esencial en esta actividad es la creación y aniquilación de partículas. Aún más, las partículas pueden tener todas las posibles energías y sus momentos relacionados. Para seguir la pista de lo que está pasando tenemos que especificar todos los estados dinámicos que una partícula dada puede tener y describir las tasas a las que una partícula es creada o aniquilada en un estado dado. Cuando hemos hecho eso tenemos un modelo teórico, algo a lo que llamamos campo cuántico. Existen, por ejemplo, los campos del fotón y del electrón-positrón (campo de Dirac).

La creación virtual de partícula y antipartícula significa que una partícula real está atada físicamente al campo y que nunca puede ser considerada como una entidad separada. Mientras que en los campos clásicos de la gravitación y del electromagnetismo se piensa que una región del espacio tiene propiedades especiales que influencian el movimiento del cuerpo de prueba, y hablamos de la fuerza que un cuerpo experimenta y de su energía potencial, en cada punto del campo, identificando necesariamente la fuente del mismo, en los campos cuánticos es diferente. Independientemente de la fuente, los campos se encuentran presentes por todas partes. Se manifiestan en la creación y aniquilación de partículas elementales, tanto reales como virtuales, en conformidad con las regla de la mecánica cuántica. Una partícula se ha de considerar teoricamente como una excitación del campo y, de ninguna manera, independiente de él.

El rasgo más curioso de los campos cuánticos es su incapacidad total para quedarse quietos. Como niños vigorosos siempre están zangoloteando, la serenidad, la calma o la inactividad reposada no son posibilidades para ellos. Por todas partes en el Universo, el campo electromagnético se encuentra ocupado creando de manera fantasmal fotones de la nada y casi tan ocupado aniquilándolos. De la misma forma, el campo de Dirac crea y aniquila, en forma demoníaca, pares electrón-positrón. Ningún lugar está libre de actividad: el vacío es extremadamente activo.

Dedico este post a Marta y a Marilia, el duo musical Ella baila sola. Lo último que se imaginan es que se ha utilizado el nombre artístico de su duo para ilustrar una propiedad fundamental de los campos cuánticos.

Algunas de sus canciones en You Tube.

2007/11/04

Libertad cuántica

Las partículas elementales parecen poseer una cierta "libertad cuántica". Para ellas los sucesos no están estrictamente determinados, como lo fueron para las partículas en la física clásica del siglo XIX, y poseen un elemento de elección dentro de ciertos límites, siempre que en promedio obedecezcan las leyes clásicas. El cuanto de acción, h, les da esa libertad.

Tratemos de confinar un electrón dentro de un núcleo atómico. Después de todo ¿por qué no deben los electrones ser un componente de los núcleos como los protones y los neutrones? Los neutrones experimentan una desintegración radiactiva que los convierte en un protón y un electrón (radiación beta). Por tanto, un electrón atrapado por un protón para formar un neutrón parecería una idea razonable, pero el electrón rehúsa cooperar, se niega a ser confinado.

Un electrón confinado a un espacio de dimensiones nucleares debe tener longitudes de onda asociadas a él tan cortas, al menos, como el diámetro del núcleo. Si las ondas fueran mayores significaría que el electrón consume la mayor parte de su tiempo fuera del núcleo, y eso no funcionaría. Sin embargo, las longitudes de onda cortas implican una restricción en espacio, y ello debe estar equilibrado por un incremento del momento con objeto de conservar su cuanto de acción fundamental, h ( (incremento de espacio) x (incremento de momento) = cuanto de acción (h)) . El electrón tendría tanta energía cinética que saldría de su jaula nuclear. El encarcelamiento no puede realizarse. Los electrones no pueden existir dentro del núcleo en un estado estable, a menos que se ejerza una tremenda fuerza para vencer su empuje hacia la libertad.

Sólo una fuerza tan inmensa como la presión de una estrella que se desintegra bajo su propia gravedad puede apiñar electrones en núcleos para formar un cuerpo compuesto completamente por neutrones: la estrella de neutrones. Y ello es una medida gráfica de lo fuerte que es la urgencia de libertad del electrón. Necesita que un cuerpo del tamaño de una estrella se siente sobre él.

Cada vez que tratamos de restringir la libertad cuántica de un electrón, ya sea forzándolo a entrar en algún espacio o dirigiéndolo a través de hendiduras, éste insiste en su libertad de acción y la manifiesta de una forma característica, y no sólo de forma pasiva. Puede promover su libertad violando las leyes ( clásicas) de la conservación de la energía y el momento.


Del estupendo librito " Tiempo, espacio y cosas", de B.K. Ridley, título original "Time, space and things", publicado por Cambridge University Press. Traducción de 1989 del Fondo de Cultura Económica. Pura belleza al servicio de la divulgación científica.

2007/10/29

Dimensiones y ley de gravedad: un matrimonio indisoluble

La forma que adopta la ley de la gravitación universal lleva impreso el número de dimensiones del espacio en el que está definida. Cuando Newton la propuso en 1687, no decía solamente que la fuerza de atracción entre dos objetos se hace más débil a medida que la distancia entre ellos aumenta, sino que especificó que esa fuerza disminuye proporcionalmente al inverso del cuadrado de esa distancia. Precisamente el exponente de la distancia está ligado íntimamente al número de dimensiones del espacio, concretamente, el exponente es igual al número de dimensiones menos uno.

Para entenderlo nos fijaremos en las llamadas líneas del campo gravitatorio que vienen a ser una especie de mapa del campo. En el sitio donde se juntan y son más densas el campo es mayor, donde se separan y son menos densas el campo es menor. Estas líneas salen de forma radial desde el objeto, por ejemplo la Tierra, y atravesarían una superficie esférica que rodeara el objeto. A una distancia determinada dicha superficie será proporcional al cuadrado de esa distancia, y si doblamos la distancia la nueva superficie será cuatro veces mayor pero sin embargo las líneas que la atraviesan serán las mismas. Si triplicamos la distancia tendremos una superficie nueve veces mayor y las mismas líneas de fuerza, y así observamos que las líneas de fuerza que atraviesan la unidad de superficie irán disminuyendo con el cuadrado de la distancia.

En un universo bidimensional tendríamos algo semejante, pero ahora las líneas de fuerza atravesarían una circunferencia que rodearía al objeto. En este caso, al duplicar el radio de la circunferencia, su longitud se duplica; si lo triplicamos su longitud se triplica y se observa que las mismas líneas de fuerza atraviesan una circunferencia que aumenta de forma proporcional con el radio. En este universo la fuerza de gravedad sería inversamente proporcional a la distancia.

En un universo de sólo una dimensión, observaríamos algo sumamente curioso. Desde un punto (el objeto con masa) sólo saldrían dos líneas de fuerza, cada una en sentido opuesto, y esas líneas ocuparían toda la dimensión sin depender de la distancia. No tendrían espacio para esparcirse y debilitar el campo, por lo que la fuerza de la gravedad sería constante, independiente de la distancia, por tanto, en todos sítios tendría la misma intensidad.


En un universo con nueve dimensiones espaciales, el universo de la teoría de cuerdas, la fuerza de gravedad debería depender del inverso de la octava potencia de la distancia, y precisamente, para intentar detectar las supuestas dimensiones enrolladas se ha experimentado hasta la distancia de una décima de milímetro, para detectar desviaciones en la ley del inverso del cuadrado. Pero el problema con el que nos encontramos es que a esas distancias los efectos cuánticos y la debilidad de la gravedad complican, extraordinariamente, los experimentos. Más aún si pensamos que para poder detectarlas por este método deberíamos verificar la ley de la gravedad para distancias millones de veces más pequeñas, pues las seis dimensiones extras, enrolladas, se supone que tienen un radio del orden de 10-35 metros.

Utilizando las otras tres fuerzas no gravitatorias podemos sondear hasta aproximadamente una trillonésima de metro, pero en el escenario de la teoría de supercuerdas y teoría M, las fuerzas no gravitatorias son impotentes en la búsqueda de dimensiones extras, pues están atrapadas en la propia brana, la membrana que forma nuestro universo cuadrimensional flotando en un universo de dimensiones superiores. Sólo la gravedad puede trascender la propia membrana que supuestamente forma nuestro Universo y dar idea de la naturaleza de las dimensiones extras.

A todos los efectos (suponiendo correcta la teoría M), las dimensiones extras podrían ser tan gruesas como un cabello humano y ser completamente invisibles, actualmente, para nuestros instrumentos más sofisticados.

Ver post: El universo elegante.


2007/10/15

La magia del número 2

Después del duro post anterior, vuelvo a editar este viejo post que creo más asequible y que puede ayudar a entender el otro. Espero que sea así. Un saludo.


Si consideramos una partícula moviéndose de forma aleatoria sobre un plano supondremos que no podemos observar ningún tipo de orden, pero nos estaremos equivocando. Tomando P como la media de amplitud de sus pasos y fijándonos después de un número grande N, de dichos pasos, observaremos que para que se aleje N1 pasos efectivos, de un punto arbitrario, habrá tenido que dar (N1)2 pasos totales. El exponente 2 representa, realmente, la dimensión fractal de este movimiento llamado movimiento browniano.


El azar puro y duro está gobernado por ese número mágico. En nuestro caso nos dice que si bien la trayectoria de cualquier partícula es una línea y como tal tiene dimensión topológica 1, la trayectoria aleatoria es de tal desorden que es capaz, en cierta forma, de cubrir el plano por el que se mueve (la dimensión topológica del plano es 2).


La acción (producto de energía por el tiempo) de las fluctuaciones cuánticas del vació está, también, gobernada por ese número mágico. Si representáramos sus valores, observaremos que van llenando una región del plano (E) x (t) acotada por la hipérbola (E) x (t) < cuanto de acción de Planck.


Laurent Nóttale complementó la definición de Richard Feynman (1965) y A. Hibbs sobre las trayectorias virtuales típicas de una partícula cuántica, indicando que los caminos cuánticos posibles son, en número infinitos, y todos son curvas fractales caracterizadas por una propiedad geométrica común: su dimensión fractal es 2.

2007/10/10

La estabilización del vacío cuántico y las dimensiones enrolladas

La dimensión fractal, tal como hemos visto en algunas anotaciones de esta bitácora, está formada por dos sumandos, la dimensión aparente o topológica más un factor dimensional tanto mayor cuanto más irregular es el fractal. Este factor aditivo en las fluctuaciones del incipiente Universo podría haber sido contrarrestado por las llamadas dimensiones enrolladas, que en cierta forma suponen una resta dimensional, en el momento en que nuestro Universo adoptó la configuración geométrica de tres dimensiones ordinarias y otras seis compactadas. El resultado pudo ser la propia existencia del cuanto de acción como factor de estabilidad de las fluctuaciones, pues su naturaleza las hace depender del inverso de la distancia permitiendo el vacío cuántico estable que conocemos. Resumiendo: Es posible que la configuración geométrica adoptada por nuestro Universo (tres dimensiones ordinarias y seis compactadas) haya sido determinante en la propia naturaleza del cuanto de acción y en la estabilidad del vacío cuántico. De esta cuestión trata el siguiente artículo publicado en la revista Ciencia Abierta de la Universidad de Chile, en el volumen 23, de marzo de 2004.


La existencia del cuanto de acción es la causa de que desaparezca el concepto clásico de trayectoria continua y deba ser sustituido por el de "trayectoria" fractal (discontinua, fracturada). El vacío absoluto y continuo de Newton, como marco estable de referencia, es sustituido por un vacío discontinuo y cambiante, merced a la propia estructura de la energía de sus fluctuaciones cuánticas. Nos encontramos, pues, ante un inmenso fractal, el propio vacío cuántico, modelado por sus fluctuaciones de energía de las que queremos extraer una información preciosa, que nos dará pistas sobre el propio Universo y su formación: su dimensión fractal.

El estudio de un fractal sencillo nos ayudará. En concreto, es interesante fijarnos en el que representa al llamado “movimiento browniano”, descubierto por Robert Brown, un botánico escocés que vivió entre finales del siglo XVIII y primera mitad del XIX. Estudió la flora de Australia y Nueva Zelanda y descubrió el llamado “movimiento browniano” de las partículas coloidales, que ha servido de base para el estudio de la cinética de los gases. Este movimiento browniano tiene mucho que ver con nuestro problema, su dimensión fractal es 2 , el típico de una variable puramente aleatoria que, en cierta forma, sobre un plano ( dimensión topológica o aparente 2) sería capaz de recubrirlo.

Para variables con dimensión topológica distinta de la unidad es conveniente hablar del cociente D/ δ ( dimensión fractal (D)/ dimensión topológica o aparente (δ) ) más que, simplemente, de su dimensión fractal. Reducimos así la dispersión de resultados y encontramos más fácilmente símiles con ejemplos sencillos como trayectorias unidimensionales. Dicho cociente para el fractal que representa al movimiento browniano será:

(1) D/ δ = ( δ + ε ) / δ = ( 1 +1 ) / 1 =2, donde el sumando positivo ε , que se añade a la dimensión topológica, es la dimensión del factor de arrugamiento y nos da una medida de su irregularidad, de su fractura y “arrugamiento”. En este caso ε = 1 .

La variable que representa el producto acotado:
(2) ( ∆ E ) ( ∆ x )< constante ( principio de incertidumbre, en donde ∆ t se ha sustituido por ∆ x / c ), es del mismo tipo que la relativa al movimiento browniano. El valor de este producto acotado es equivalente al paso que dan las partículas coloidales antes de chocar, puede tener cualquier valor aleatorio aunque acotado, por lo que su cociente D/δ es igualmente 2. Intuitivamente, este valor 2 nos indica que se deben dar n2 pasos para poder alejarse de un punto arbitrario tan sólo n pasos efectivos.

En cierta forma, la dimensión fractal nos da una idea de magnitud encubierta, de compactación. Una trayectoria de dimensión fractal 3 es mucho más intrincada, más compacta que otra de dimensión fractal 2. Si hubiéramos seguido la trayectoria con un hilo ideal muy fino, en el primer caso el diámetro del ovillo resultante sería del orden de la raíz cúbica de la longitud total del hilo utilizado, en el segundo del orden de su raíz cuadrada. Observamos que existe una íntima relación entre la magnitud del ovillo, es decir su dependencia con la distancia, y su dimensión fractal. Cualquier fenómeno que modifique su dependencia con la distancia incidirá directamente en su dimensión fractal y viceversa.

Para nuestro caso, la energía de las fluctuaciones del vacío ( la magnitud del “ovillo” ) depende del inverso de la distancia, lo que supone un cociente D/δ igual a -1, que resulta completamente irregular e induce a pensar en la existencia de un factor desconocido que está influyendo en el cálculo e introduciendo una distorsión considerable.

El factor negativo, que supone una resta de dimensiones, me hizo pensar en las dimensiones enrolladas previstas por la teoría de supercuerdas, la más prometedora teoría que trata de unificar las cuatro interacciones fundamentales: gravedad, electromagnetismo, fuerza débil y fuerte. Dicha teoría necesita de 9 dimensiones espaciales para ser consistente, y ,dado que sólo conocemos 3, se ha especulado con la existencia de otras 6 que, supuestamente, estarían “enrolladas” sobre si mismas ,compactadas alrededor de un radio extremadamente pequeño (del orden de la longitud de Planck,10-35 metros ). Así para distancias mucho mayores que ese radio sólo serían perceptibles las 3 dimensiones ordinarias.

En cierta forma, para esas distancias, el número de dimensiones enrolladas se resta al total de las topológicas para dejar tan sólo 3 dimensiones aparentes. Una operación contraria al efecto de la dimensión del factor de arrugamiento, que se suma a la dimensión topológica.
En la expresión (1) si hallamos el cociente D/δ para un Universo con el mismo número de dimensiones enrolladas que la dimensión del factor de arrugamiento (transformación : δ −> δ − ε ) , encontramos:

(3) D/δ = (δ ) / (δ - ε). Para ε = 6 , δ =3, el cociente D/δ toma el valor -1 de forma natural y lógica. Sin dimensiones enrolladas el factor ε = 6 supone una dimensión fractal 9 y una dependencia de la energía de las fluctuaciones con la raíz cúbica de la distancia (D/δ = 3) . El efecto de las dimensiones enrolladas la corrige hasta dejarla dependiente del inverso de la distancia, lo que repercute en la forma en que advertimos el vacío cuántico: completamente vacío y estable.
Para un universo con un número de dimensiones enrolladas (coeficiente dimensional negativo) igual a la dimensión del factor de arrugamiento (coeficiente positivo) de la energía de las fluctuaciones , se consigue la estabilización de esta energía que de otra forma dependería de la raíz cúbica de la distancia y no de su inverso. El vacío y toda la materia que contiene estarían deformados y serían inestables .

La especial geometría formada por las dimensiones ordinarias, las enrolladas y el tiempo permite un vacío cuántico estable que de otra forma haría imposible el Universo tal como lo conocemos, pues la turbulencia creada a todos los niveles impediría cualquier tipo de coherencia. Conforme nos acercamos a las distancias del orden de la longitud de Planck, este efecto estabilizador desaparece y se nos presenta un vacío deformado e inestable.

La transparencia del vacío, tal como la advertimos, puede que sea la mejor prueba de la existencia de las 6 dimensiones enrolladas.

Artículo completo en Ciencia Abierta.
También se puede leer un esbozo de la teoría en la revista Elementos de la Universidad de Puebla.

2007/10/02

Impredecibilidad en la mecánica clásica

Independientemente de la precisión con que conozcamos el estado inicial de un sistema clásico (no cuántico) las imprecisiones tienden a crecer, de forma natural, con el tiempo y nuestra información inicial puede llegar a ser inútil para predecir su evolución futura. La mecánica clásica no es tan predecible como podría parecer a primera vista, tal como veremos en este post. Esta impredecibilidad se advierte claramente en el llamado problema de los tres cuerpos y se acentúa de forma dramática en los sistemas muy sensibles a las condiciones iniciales (caóticos).

El esquema de la mecánica newtoniana ha dado lugar a un impresionante cuerpo de ideas matemáticas conocido como mecánica clásica, de hecho, los nombres de muchos de los grandes matemáticos de los siglos XVIII y XIX están asociados a este desarrollo. Lo que se conoce como "teoría hamiltoniana", debida al matemático irlandés William Rowan Hamilton (1805-1865), resume gran parte de esa obra y, curiosamente, su formulismo fue muy importante para el desarrollo posterior de la mecánica cuántica. En el esquema hamiltoniano las posiciones y los momentos (producto de la velocidad por la masa) de cada partícula se tratan como si fueran variables independientes. De esta forma se obtienen dos conjuntos de ecuaciones, uno nos dice cómo cambian con el tiempo los momentos de todas las partículas (segunda ley del movimiento de Newton: fuerza = ritmo de cambio del momento), y el otro nos dice cómo cambian con el tiempo las posiciones. Y todas estas ecuaciones se derivan simplemente de una cantidad importante llamada función hamiltoniana H, que es la expresión para la energía total del sistema en términos de todas las variables de posición y momento.

Las ecuaciones hamiltonianas permiten visualizar de un modo muy potente y general la evolución de un sistema físico en un espacio abstracto llamado espacio de fases. Este espacio tiene para n partículas 6n dimensiones, tres coordenadas de posición y tres coordenadas de momento por cada partícula, y un simple punto representa el estado global del sistema físico, incluyendo los movimientos instantáneos de cada una de sus partículas.Las ecuaciones nos están diciendo cómo debe moverse este punto, cómo evoluciona el sistema en cada momento, y nos informan sobre su estabilidad. Esta estabilidad está íntimamente ligada a la posible dispersión de los puntos inicialmente próximos, es decir, si el sistema permanece localizado en cierta región R, a medida que pasa el tiempo, entonces estos puntos seguirán proximos y las imprecisiones en su especificación no se amplificarán con el tiempo. Por el contrario, cualquier dispersión indebida implicará una "impredecibilidad efectiva" en el comportamiento del sistema.

Sobre la dispersión de los sistemas hamiltonianos, y por tanto sobre la capacidad para predecir su comportamiento, existe un hermoso teorema debido al matemático francés Joseph Liouville (1809-1882) que nos dice que el volumen de cualquier región del espacio de fases debe permanecer constante en cualquier evolución hamiltoniana. Sin embargo, normalmente este volumen se dispersa debido a la extrema complejidad de su evolución (como los hilos del humo de un cigarro en una habitación). Aunque la región mantiene su volumen, se distorsiona y se estira hasta grandes distancias en el espacio de fases, y además el problema es mucho más grave en alta dimensión que en baja dimensión, porque hay muchas más direcciones en las que dipersarse.

El teorema de Liouville nos sitúa ante un problema fundamental, pues de no existir todavía podríamos pensar que la tendencia de una región a extenderse por el espacio de fases podría quedar compensada por una reducción de volumen global, pero el teorema nos dice que eso es imposible, siendo ésta una característica universal de todos los sistemas dinámicos clásicos. Llegando más lejos con esta característica universal, nos hemos dado cuenta de que, precisamente, por esta tendencia a la difusión en el espacio de fases y a la dificultad que esto supone para mantener la organización de un sólido formada por millones de partículas, la mecánica clásica necesita de la mecánica cuántica para poder comprender, adecuadamente, la estructura real de los sólidos. Algo semejante al equilibrio que se mantiene en un átomo entre los electrones y el núcleo. Sólo la mecánica cuántica es capaz de explicarlo, para la mecánica clásica el resultado sería catastrófico pues sus leyes impedirían el equilibrio.



Los efectos cuánticos pueden impedir esta difusión en el espacio de fases. Paradójicamente, la solidez de un objeto que está compuesto de muchas partículas necesita de este efecto cohesionador de la mecánica cuántica
. Si la mecánica clásica ha tenido tanto éxito en las predicciones sobre los cuerpos celestes es porque, para todos los cálculos, son considerados como puntuales y, por tanto, la dispersión de sus partes en el espacio de fases es practicamente despreciable.

2007/09/16

El Big Bang, una explosión en perfecto orden


La curvatura del espacio-tiempo se manifiesta como un efecto marea. Si caemos hacia una gran masa sentiremos que nuestro cuerpo se estira en la dirección de caida y se aplasta en las direcciones perpendiculares a aquella. Esta distorsión de marea aumenta a medida que nos acercamos, de forma que para un cuerpo que caiga a un agujero negro de varias masas solares el efecto lo destrozaría, destrozaría sus moléculas, sus átomos, después, sus núcleos y todas las partículas subatómicas que lo constituyeran. Un verdadero efecto desorganizador, y motor de desorden, de la gravedad en su máximo exponente. No sólo la materia, sino el propio espacio-tiempo encuentran su final en las llamadas singularidades del espacio-tiempo que representan los agujeros negros. Son consecuencias que se deducen de las ecuaciones clásicas de la relatividad general de Einstein y de los teoremas de singularidad de Penrose y Hawking.

Si los agujeros negros son singularidades en donde colapsa la materia y el propio espacio-tiempo, existen otro tipo de singularidades. Utilizando la dirección inversa del tiempo nos encontramos con la singularidad incial en el espacio-tiempo que llamamos Big Bang. Esta singularidad representa todo lo contrario, la creación del espacio-tiempo y de la materia. Aunque podríamos pensar que hay una completa simetría entre los dos fenómenos, cuando los estudiamos con detenimiento encontramos que no pueden ser exactamente inversos en el tiempo. La diferencia entre ellos contiene la clave del origen de la segunda ley de la termodinámica, la famosa ley que dice que :"La cantidad de entropía, o desorden, de cualquier sistema aislado termodinámicamente tiende a incrementarse con el tiempo, hasta alcanzar un valor máximo". También contine la clave de la llamada flecha del tiempo.

La entropía (o medida del desorden) en un agujero negro es elevadísima. De hecho, para hacernos una idea, la compararemos con la entropía que suponíamos que contribuía en mayor manera al total del Universo, la correspondiente a la radiación de fondo. Esta entropía, en unidades naturales, considerando la constante de Boltzman como unidad, es del orden de 108 por cada barión del Universo, mientras que la entropía por barión en el Sol es del orden de la unidad. Mediante la fórmula de Bekenstein-Hawking se encuentra que la entropía por barión en un agujero negro de masa solar (en agujeros más masivos es todavía mayor) es del orden de 1020 en unidades naturales.

Para un Big Crunch, o "crujido" final en que colapsara todo el Universo en un gigantesco agujero negro, la entropía por barión sería del orden de 1031. La existencia de la segunda ley de la termodinámica sería imposible en un universo que emergiera con ese desorbitado desorden,siguiendo una simetría temporal entre singularidades de colapso y de creación. De hecho el Big Bang fue una gran explosión en completo orden. Dio lugar a nuestro espacio-tiempo y a la materia de nuestro Universo y desde entonces ha ido aumentando la entropía, según la segunda ley, y marcando una flecha del tiempo que va desde este inicio al final del Universo.





El orden inicial, tal como apunta Penrose y se comenta en la entrada "las estrellas, fuente de orden y de baja entropía", es el responsable de todo nuestro orden actual y futuro, y de la organización que presentan nuestros organismos vivos.


Hasta tal punto fue ordenada la explosión inicial, que la distorsión destructiva a la que me refería al principio, que tiende a infinito en un agujero negro, fue igual a cero en el Big Bang. Esta distorsión del espacio-tiempo, con conservación de volumen, debida al tensor de curvatura espacio-temporal llamado Weyl, fue nula.

Comentario del autor (18-09-2007):
A diferencia de lo que ocurre en la implosión de la materia para formar un agujero negro, que es un fenómeno capaz de crear cantidades inmensas de entropía (o desorden), en el momento de la "explosión" del Big Bang la entropía fue mínima, de hecho es la única forma en que se puede dar un Universo con la segunda ley de la termodinámica. A partir de entonces la entropía no ha dejado de crecer.

Lo que ocurre es que la "explosión" del Big Bang no lo fue en el sentido que conocemos: algo que estalla en el espacio y en el tiempo, fue el propio "estallido" del espacio-tiempo. Para entenderlo se suele poner el ejemplo de un globo cuando se hincha. Debemos imaginar que la superficie del globo es el propio espacio-tiempo que se ensancha aunque de forma muy violenta, formando el propio espacio-tiempo que conocemos. No hay un centro estático de la explosión, porque todo se aleja de todo, tal como observamos en la expansión actual del Universo.

2007/09/04

Corrientes de estrellas y materia oscura

Contrariamente a lo que se pensaba sobre que las galaxias experimentaron, en una época temprana, un crecimiento rápido que les dio su forma presente, hoy se cree que sólo las galaxias enanas (con masas de hasta mil millones de soles) pasaron por ese período abrupto de formación. Las galaxias grandes, como la Vía Láctea, con su billón de soles, se crearon después de la absorción progresiva de galaxias enanas, en un proceso que hoy en día todavía continúa. Las galaxias absorbidas forman las llamadas corrientes de estrellas, que con el tiempo (después de millones de años) se dispersan y acaban desvaneciendo su estructura espacial. Sin embargo, ciertos rasgos sutiles de su movimiento y su composición estelar son capaces de rebelar su origen.

Métodos de identificación de corrientes estelares
Dinámico: Solemos caracterizar el movimiento de los cuerpos por su posición y velocidad, pero el movimiento también tiene otras propiedades, como son la energía y el momento angular. Mientras que la posición se especifica en un espacio tridimensional, la posición más el momento se definen en un espacio de seis dimensiones, llamado el espacio de fases. La ventaja del espacio fásico es que la disposición de las estrellas, en él, se mantiene más tiempo que en el espacio real. Al medir la energía, el momento angular y la densidad en el espacio de fases de muestras aleatorias de estrellas se descubren agrupamientos que no se perciben directamente.

Químico: Otro método que se empieza ahora a probar es el de la huella química. Dado que las estrellas no nacen aisladas, sino suelen ser creadas en una misma nuve de gas, cada nube tiene una mezcla única de elementos químicos e isótopos que deja su huella en la composición de las estrellas. Siguiendo esa huella se es capaz de identificar las estrellas con los mismos "genes" estelares y se puede identificar su origen local o foráneo.

Cuando hace algo más de diez años se descubrió la corriente estelar de la galaxia enana Sagitario, muchos lo consideraron una simple curiosidad, pero pronto se convirtió en el emblema de una historia compleja de fusiones y acreciones de la Vía Láctea, procesos que hoy sabemos que son los motores de la formación y la evolución de las galaxias. Además, el estudio de estas corrientes galácticas nos están ayudando a conocer, un poco más, algo tan misterioso como la llamada materia oscura.

Sobre corrientes y materia oscura
Las estrellas representan una fracción pequeña de las galaxias, que en su mayor parte se componen de materia oscura, de naturaleza desconocida. Una forma de saber la distribución, y la posible composición, de esta materia es seguir y analizar el movimiento de una estrella (que está sujeta a su influencia gravitatoria) a medida que describe una órbita alrededor del centro de la galaxia, pero deberíamos realizar una observación que duraría millones de años. Sin embargo el estudio de las corrientes estelares nos revelan los mismos datos, pues nos describen las trayectorias, durante millones de años, de centenares de miles de estrellas pertenecientes a galaxias enanas absorbidas por galaxias mayores. El equipo de los astrofísicos Rodrigo Ibata y Brad Gibson en base a los datos obtenidos con la corriente estelar Sagitario ha descubierto que la materia oscura no se reparte alrededor de la Vía Láctea en forma de un elipsoide, como predecían las simulaciones numéricas, sino en forma de una esfera.

Se puede llegar a descubrir si la materia oscura se reparte de forma homogénea o se crea grumos. Según sea su composición cabría esperar lo uno o lo otro. Si la materia oscura está formada por partículas que sólo interactúan de forma gravitatoria, no hay nada que impida su agrupamiento, pero si se compone de partículas que interactúan de otra forma, podrían resistirse a la atracción gravitatoria y extenderse de forma homogénea.


Satélite de exploración Gaia
Desde finales de 2011 hasta 2020, el satélite Gaia, el telescopio espacial más ambicioso que se haya concebido, explorará en detalle las posiciones y velocidades de las estrellas en las corrientes delgadas, y deberá confirmar o descartar la existencia de grumos de materia oscura. “ De esta manera, corrientes estelares más extensas que una galaxia entera pondrían de manifiesto las propiedades de partículas más pequeñas que los átomos.




Fuentes:
-"La huella de galaxias destruidas", Rodrigo Ibata y Brad Gibson. INVESTIGACIÓN Y CIENCIA. Junio de 2007
- Astroseti