2017/07/09

Los tres primeros minutos del universo


Este es el título de un clásico de la divulgación científica. El Premio Nobel de Física de 1979 y profesor de la Universidad de Harvard Steven Weinberg nos explica en unos cuantos "fotogramas" la evolución de los tres primeros minutos del universo, previa introducción sobre la expansión del universo y sobre el fondo de radiación. Sus conocimientos sobre el microcosmos, sobre las partículas más pequeñas que forman la materia, nos abren las puertas a un espectáculo grandioso y único. Admite que no se puede empezar la "película" en el tiempo cero y con temperatura infinita, pero las cosas parecen bastante claras ya en el:


Primer fotograma: Cuando apenas ha transcurrido una centésima de segundo y la temperatura se ha enfriado hasta unos cien mil millones de grados Kelvin o absolutos ( el cero está sobre los -273 ºC), el universo está lleno de una sopa indiferenciada de materia y radiación, en estado de casi perfecto equilibrio térmico. Las partículas que más abundan son el electrón y su antipartícula, el positrón, fotones, neutrinos y antineutrinos. El universo es tan denso que incluso los huidizos neutrinos, que apenas interactúan con la materia, se mantienen en equilibrio térmico con el resto de la materia y radiación debido a sus rápidas colisiones. La densidad de la masa-energía en ese momento es del orden de 3,8 mil millones de veces la densidad del agua en condiciones terrestres normales. El tiempo característico de expansión del universo es de 0,02 segundos y el número de partículas nucleares (protones y neutrones) es del orden de un nucleón por 1000 millones de fotones, electrones o neutrinos. Las reacciones más importantes son: (a)Un antineutrino más un protón dan un positrón más un neutrón y viceversa.(b) Un neutrino más un neutrón dan un electrón más un protón y a la inversa.

Segundo fotograma: La temperatura ahora es de 30.000 millones de grados Kelvin y desde el primer fotograma han pasado 0,11 segundos. Nada ha cambiado cualitativamente, aunque la densidad de la energía ha disminuido con la cuarta potencia de la temperatura y el ritmo de expansión ha disminuido con su cuadrado. El tiempo característico de expansión es ahora de 0,2 segundos y las partículas nucleares todavía no se hallan ligadas a núcleos, aunque con la caída de la temperatura es ahora más fácil que los neutrones, más pesados, se conviertan en protones que al revés. Su balance es del 38% de neutrones por el 62% de protones.







Tercer fotograma: La temperatura del universo es de 10.000 millones de grados Kelvin. desde el primer fotograma han pasado 1,09 segundos y la densidad y la temperatura han aumentado el tiempo libre medio de los neutrinos y antineutrinos que empiezan a desacoplarse de la radiación, electrones y positrones y a comportarse como partículas libres. La densidad total de la energía es menor que en el fotograma anterior en la cuarta potencia de la razón de las temperaturas, por lo que viene a ser unas 380.000 veces mayor que la del agua. El tiempo característico de expansión es ahora de unos 2 segundos y los positrones y electrones comienzan a aniquilarse con mayor rapidez de la que pueden ser recreados a partir de la radiación. Todavía no se pueden formar núcleos estables, y la proporción neutrón-protón es ahora 24-76 %.

Cuarto fotograma: La temperatura es ahora de 3.000 millones de grados Kelvin, han pasado 13,82 segundos del primer fotograma y los electrones y positrones empiezan a desaparecer como componentes destacados del universo. El universo está lo bastante frío para que se formen diversos núcleos estables, como el helio común formado por dos protones y dos neutrones (He4). Los neutrones aún se convierten en protones, aunque más lentamente. La proporción de nucleones es ahora del 17% de nuetrones y del 83% de protones.

Quinto fotograma: La temperatura es de 1.000 millones de grados, sólo 70 veces más caliente que el Sol.Desde la primera imagen han pasado tres minutos y dos segundos. Los electrones y positrones han desaparecido, en su mayor parte, y los principales componentes del universo son ahora fotones, neutrinos y antineutrinos. Ahora el universo está lo suficientemente frío para que se mantengan unidos los núcleos del tritio y helio tres, así como los del helio ordinario, pero no se pueden formar, todavía, cantidades apreciables de núcleos más pesados. El balance neutrón-protón es ahora del 14-86 %.


 Un poco más tarde: A los tres minutos y cuarenta y seis segundos del primer fotograma, la temperatura es de 900 millones de grados Kelvin y comienza la nucleosíntesis, la proporción en peso de helio es ya el doble de la proporción de neutrones entre las partículas nucleares, es decir del orden del 26%. A los 34 minutos y cuarenta segundos del primer fotograma (300 millones de grados) los procesos nucleares se han detenido y las partículas nucleares están ahora en su mayoría ligadas a núcleos de helio o son protones libres. hay un electrón por cada protón libre o ligado, pero la temperatura es todavía alta para que formen átomos estables.

Durante 700.000 años más el universo seguirá expandiendose y enfriándose, pero no ocurrirá nada de interés.Después podrán formarse núcleos y átomos estables y la falta de electrones libres hará que el contenido del universo sea transparente a la radiación. El desacoplamento de la materia y la radiación permitirá a la materia comenzar a crear galaxias y estrellas."Después de otros 10.000 millones de años, aproximadamente, los seres vivos comenzarán a reconstruir esta historia".

El primer fotograma podría resumirse como:" Al principio fue la luz". La radiación (luz) y la materia en equilibrio térmico y estado indiferenciado. Es la impresión más fuerte que guardo de cuando leí el libro la primera vez.

Libro:
"Los tres primeros minutos del universo". Steven Weinberg. Madrid 1980. Alianza Universidad. 

Nota: La segunda figura es el mapa de las anisotropías del fondo de radiación cósmica.

Reedición de uno de mis post clásicos. ¡Feliz verano amigos!

2017/06/26

Parábolas y catástrofes


No es posible encontrar una noción mas estética que la reciente
Teoría de las Catástrofes de René Thom, que se aplica tanto a la
geometría del ombligo parabólico como a la deriva de los continentes.
La Teoría de René Thom ha encantado todos mis átomos desde que la
conocí ....
Dalí, 1985.
La teoría topológica de las singularidades y bifurcaciones, conocida como Teoría de Catástrofes (TC), fue introducida por el matemático y filósofo francés René Thom para estudiar los saltos o cambios que se producen en los sistemas dinámicos. Estudia desde el punto de vista matemático lo que vulgarmente se conoce como la "gota que colma el vaso", esa mínima gota que provoca que el agua se derrame y se pase de un estado inestable a otro estable.


Intuitivamente, y de forma simplificada (topología “superelemental”), los puntos interiores de un conjunto continuo serían puntos regulares y los puntos que forman su frontera serían puntos catastróficos. Los puntos regulares están rodeados de puntos que tienen la misma apariencia cualitativa en los que no "ocurre nada", todo sigue igual (continuidad). En lospuntos de la frontera o catastróficos siempre"ocurre algo", pasa de haber una continuidad del sistema a encontrarnos con un cambio radical.__Esta distinción entre puntos regulares y catastróficos es preliminar no sólo para la teoría de las catástrofes, sino para cualquier disciplina que establezca descripciones sobre cualquier forma teórica__. René Thom demostró que para los sistemas en los que interviene una o dos variables y en los que influyen hasta cuatro parámetros (tiempo, temperatura, gradientes...), hay siete rupturas o catástrofes elementales (morfologías o formas), a las que se han dado nombres muy plásticos e intuitivos: pliegues, cúspides, colas de milano, mariposas y ombligos elíptico, hiperbólico y parabólico.


En palabras suyas:" La TC se esfuerza por describir las discontinuidades que pudieran presentarse en la evolución del sistema.. Intuitivamente, se admite que la evolución global de un sistema se presenta como una sucesión de evoluciones continuas, separadas por saltos bruscos de naturaleza cualitativamente diferente. Para cualquier tipo de evolución continua subsiste el marco del tipo diferencial clásico, pero los saltos hacen que se pase de un sistema diferencial a otro. Se salta de una evolución continua descrita por un sistema de ecuaciones diferenciales a otra evolución continua descrita por otro sistema y no se puede excluir que un número finito de sistemas no sea suficiente para describir la situación por completo." Realmente, aclara que más que una teoría, es una metodología, o acaso una especie de lenguaje, que permite organizar los datos de la experiencia en las condiciones más diversas.


René Thom ha sabido acercar las Matemáticas a las «morfologías», y ha estudiado con herramientas topológicas la aparición, la estabilidad y la desaparición de formas; ha encontrado el sentido de las cosas, en tanto en cuanto son formas o morfologías, a partir de ciertos invariantes que son las rupturas o singularidades. Así ha podido clasificar las maneras de proceder ante esas rupturas –las famosas «catástrofes» elementales– en sistemas dinámicos, tan variados que pueden ser físicos, linguísticos, biológicos o sociales.



A pesar del fracaso –según los cánones del positivismo– de la TC como teoría científica aplicada, Thom ha abierto las matemáticas a las formas o morfologías del mundo, con el fin de comprenderlo, de encontrar su sentido, y no sólo movidas por el interés de predecir sucesos, clásico ejercicio decimonónico de la ciencia. Y ha empezado a mostrar su poder para hacerlo al permitir acercarse a través de muchos de su conceptos fundamentales –estabilidad estructural, bifurcaciones, atractores...– a la comprensión de fenómenos naturales tan complejos y tan corrientes como «la forma de una nube, la caída de una hoja, la espuma de un vaso de cerveza».



-->Libro : "Parábolas y catástrofes", de René Thom. Una larga entrevista en la que consigue aclarar el sentido profundo de las analogías ("parábolas") que explican algunos de los más enigmáticos y fascinantes fenómenos discontínuos (o "catástrofes"). René Thom, en los años setenta, desafió en su propio terreno a físicos y biólogos, a economistas y lingüistas, proponiendo, con su teoría de catástrofes, una nueva manera de considerar todas las transformaciones que se producen de modo brusco, imprevisto, dramático.


-->Web : Matemáticas y ciencias morfológicas. Homenaje a René Thom.


Reedición de un antiguo post de 2007. Os añado una pequeña reflexión humorística sobre el tema. Feliz verano amigos, me reclama la familia.

La estupidez y la teoría de catástrofes


Normalmente, lo que vivimos en un determinado momento es capaz de ser predicho con un margen razonable , lo que origina una cierta conciencia de continuidad (normalidad) . Esta continuidad suele ser rota por acontecimientos inesperados que, en muchas ocasiones por nuestra propia ignorancia, solemos meter en una especie de saco llamado azar. Un porcentaje de estos suele tener el origen en la estupidez humana.

La vida se compone de una parte racional, continua y ,por tanto, esperada y de otra parte discontinua que, en muchos casos, la enriquece. La estupidez puede ser muy destructiva (a priori casi siempre lo es) , pero la ruptura que introduce puede tener efectos enriquecedores y muy positivos. En este sentido puede entenderse su contribución no como “motor” sino como moduladora de los acontecimientos. El motor creo que siempre es la voluntad.

La rotura de la continuidad es estudiada por la llamada teoría de las catástrofes (entendiendo por catástrofe la simple ruptura de esa continuidad). En ese sentido la estupidez como la capacidad opuesta a la razón , y a la continuidad que ella representa, podría entenderse como catastrófica.

Catástrofes aparte, el mejor libro escrito nunca sobre la estupidez humana es, sin duda, el libro del profesor italiano Carlo M. cipolla:"Allegro ma non troppo". Incluye dos ensayos, "El papel de la pimienta en el desarrollo económico de la Edad Media" y "Las leyes fundamentales de la estupidez humana", cuya Primera ley Fundamental dice así: "Siempre e inevitablemente cada uno de nosotros subestima el número de indivíduos estúpidos que circulan por el mundo". Es un librito de 85 páginas editado por Mondadori (1999), ISBN:8439703058.

2017/06/07

Sobre gravitación cuántica y agujeros negros

Algunas notas, casi al azar, sobre gravitación cuántica y agujeros negros
Sobre espacio-tiempo y paradigma holográfico:
Conforme avanza nuestro conocimiento sobre el universo aparecen más interrogantes, vuelven las eternas preguntas que se han hecho los filósofos de todos los tiempos, aunque la perspectiva ha cambiado sustancialmente. Los principios básicos que vislumbramos sobre la gravedad cuántica nos indican que el propio espacio-tiempo no es el fundamental, eterno e inmóvil referente que siempre hemos creído sino que emerge de una entidad fundamental discreta (no continua) y su propia geometría debe estar inextricablemente ligada a las relaciones causales entre sucesos.
Leer más...

.............................
Extraña luz de agujero negro:
Un agujero negro del que no salga nada (el caso clásico), ni presente al exterior ninguna manifestación cuando engulle materia con mucha entropía, sugiere una forma demasiado fácil de disminuir la entropía de la materia exterior al mismo. Conforme arrojáramos al agujero materia con gran entropía haríamos disminuir la entropía exterior. Serían agujeros por los que se “escaparía” el cumplimiento de la segunda ley de la termodinámica, la tendencia natural al aumento de entropía o desorden (ver nota final sobre la entropía). Desde el Bing Bang, una explosión en perfecto orden , la entropía total del Universo no ha dejado de crecer y así será hasta la llamada muerte térmica .


La extraña luz de los agujeros negros, bautizada como radiación de Hawking que fue quien la descubrió, devuelve desorden, entropía, a nuestro Universo que sigue degradándose sin remedio hasta su muerte final (la energía de la radiación calorífica es la energía más degradada). Sin esa tenue luz los agujeros negros engullirían, además de materia, desorden. El determinismo clásico los hace más negros pero menos reales… la realidad, por una vez, no es tan “negra” como la pintan.

Leer más...
..................

Dragones alados y agujeros negros:
Agujeros negros, agujeros de gusano, túneles en el espacio-tiempo, viajes en el tiempo, distorsión espacial y temporal, todos estos conceptos que parecen sacados de una novela de ciencia ficción, forman parte ya de la ciencia seria que se investiga en la actualidad, y no deja de ser una paradoja que la física, la ciencia más pura y dura, se ocupe de cuestiones, en otro tiempo, esotéricas. La materia a la que nos agarramos como lo más sólido, simple y real que tenemos se está convirtiendo, cada vez más, en algo lleno de misterio y complejidad. La física cuántica y la teoría de la relatividad general nos la presentan como algo siempre en movimiento que se confunde con el propio espacio y tiempo. Conforme tratamos de entender sus propias entrañas se nos aparece como formando una especie de entidad compleja que algún premio Nóbel no ha dudado en llamar: la materia-espacio-tiempo. Las extrañas criaturas que son los agujeros negros, con la curiosidad que han despertado entre los físicos, a comprender mejor el mundo que nos rodea. En cierta forma su negra belleza ha arrojado un rayo de luz sobre nuestro conocimiento del universo que nos cobija.



Leer más ...
......................

Antes del Big Bang, la espuma cuántica:

La mecánica cuántica nos prepara en cierta forma la mente para imaginar la creación del Universo a partir de una nada cuajada de fluctuaciones cuánticas pre-espaciotemporales. Ya en el Universo actual nos enseña que el vacío es un verdadero hervidero de creación y aniquilación de partículas virtuales que, a distancias del orden de Planck, se convierte en la llamada "espuma" cuántica del espacio-tiempo. En ella nada de lo que conocemos y nos es familiar cuenta pues entramos en los dominios de la desconocida, hasta ahora, gravedad cuántica.
Leer más ...

...................

Radiación de Hawking:
Conforme más sabemos de estas exóticas criaturas estelares, más nos sorprenden. Hemos descubierto que emiten radiación (llamada de Hawking) y no son tan negros como nos los pintaban; que el área de su horizonte de sucesos nos mide toda su entropía y nos delata la magnitud del desorden exterior que ha devorado, y que mueren en medio de un estallido de energía brutal. Parecía que nos lo querían esconder todo, y, sin embargo, nos cuentan cosas que sin ellos nunca habríamos sabido sobre el propio nacimiento del Universo y de su final, pues sus propiedades llevan años alumbrando la dirección que debemos tomar para descubrir la futura teoría de la gravedad cuántica: la llave del pasado y del futuro del Universo.

Leer más ...
................


Gravitación cuántica, distancia fundamental y teoría de cuerdas:
Una propiedad matemática tan elemental como es la no conmutatividad está en la base de lo que será la futura teoría de gravitación cuántica. Los retículos espaciales que sustituyen a las coordenadas no conmutan, es decir si X es el operador cuántico de la coordenada x e Y es el operador de la y, el producto XY es diferente al producto YX. Las coordenadas clásicas son simples números reales que por descontado son conmutables, pues da lo mismo multiplicar las coordenadas xy en ese orden o en el contrario yx. Esta diferencia tan abismal nos da una idea de la nueva complejidad necesaria para poder describir correctamente la realidad del espaciotiempo.

Leer más ...

Un abrazo amigos.

2017/04/25

El ritmo justo del azar


El azar, el puro azar tiene su "ritmo" justo de cambio. Ni más, ni menos. Lo podremos "tentar" ofreciéndole más y más grados de libertad ... él los tomará, pero no conseguiremos ni retrasar, ni acelerar su ritmo bajo ningún concepto. Siempre seguirá fiel a sus "principios", que básicamente son muy sencillos. En cierta forma nos está dando una lección que deberíamos aprender. Referido al movimiento browniano y a su capacidad de recubrir dos dimensiones. Cuando lo trasladamos a dimensiones superiores sigue desplazándose por todas las dimensiones posibles, pero sólo es capaz de seguir recubriendo dos, contra lo que podría parecer.

Cada vez que lanzamos una moneda al azar puede salir cara o cruz, independientemente del resultado que hayamos obtenido en un lanzamiento anterior. Así de simples son las leyes que rigen el puro azar.

A partir de los resultados que vayamos obteniendo en sucesivos lanzamientos podemos confeccionar una tabla como la de la figura, que se corresponde con una tanda de 100 lanzamientos. Esta tabla y la que vamos a considerar, que en general puede contener miles de resultados es algo estático, sin movimiento, pero nos ayudará a desentrañar los entresijos del movimiento al azar que llamamos movimiento browniano, en honor al naturalista escocés Robert Brown que lo observó a principios del siglo XIX, cuando estudiaba suspensiones en el agua de granos de polen y esporas de musgos. Es un movimiento en zig zag, arbitrario, hacia cualquier dirección posible de desplazamiento.

A partir de una tabla, como la de la figura, tomaremos parejas consecutivas de unos y ceros.La primera parte de la pareja será la x y la otra la coordenada y. Los unos significarán "avanza 1" y los ceros querrán decir "retrocede 1". En un plano partiremos del punto (0,0) y conforme vayamos traduciendo la tabla a movimientos en el plano estaremos representando el movimiento aleatorio que hemos llamado browniano.



Azar y dimensión fractal
En un movimiento lineal cada uno de los puntos de su trayectoria viene definido por un solo número que nos indica su distancia al origen, se habla de que tiene una dimensión (el largo). En un plano necesitamos dos números para identificar cada uno de sus puntos, las coordenadas x/y o el largo y el ancho, por lo que decimos que tiene dos dimensiones. El movimiento browniano, como movimiento lineal que es tiene dimensión topológica 1, pero asombrosamente es capaz de recubrir el plano, de llenarlo. De ahí que digamos que su dimensión como fractal sea 2, porque es capaz de recubrir un espacio de dimensión 2. A las figuras tan tortuosas e intrincadas como este movimiento aleatorio, Benoit Mandelbrot las llamó fractales, del latín "fractus" que significa fracturado o roto, discontinuo.Y este movimiento es, sin lugar a dudas, muy buen representante de esta nueva categoría de objetos geométricos omnipresentes en la naturaleza.

Cada momento el movimiento aleatorio avanza o retrocede en sus coordenadas x ó y, independientemente de lo que hiciera en el instante anterior, tiene absoluta libertad para desplazarse a través de cada una de las coordenadas. Esta idea se tiende a trasladar cuando el movimiento ocurre en un espacio de tres dimensiones como nuestro espacio ordinario, o de más dimensiones, y es correcta. De la misma forma tendemos a pensar que, también, en un espacio tridimensional el movimiento browniano será capaz de llenarlo, o cubrirlo, por completo. Esa es la idea que tenía yo al empezar a estudiarlo y la idea que ha tratado de defender algún lector, en alguna ocasión, a capa y espada, pero como demostraremos es una idea equivocada.

La magia del número 2
El valor 2 que caracteriza la dimensión fractal de este movimiento, también se puede definir de una manera muy intuitiva: necesita realizar N2 pasos para alejarse de un punto cualquiera de referencia, sólo, N pasos efectivos. En tres dimensiones debería efectuar N3 pasos totales para alejarse, sólo, N pasos efectivos, pero como veremos eso no depende del número de dimensiones o grados de libertad sino de una característica independiente de las propias del espacio en que se mueve. Para demostrar esto nos fijaremos en la definición intuitiva que relaciona la distancia total con la efectiva.


La distancia total que recorre la partícula animada por un movimiento browniano es proporcional al número de pasos N, sin embargo la distancia efectiva se encontraría después de sumar los desplazamientos positivos y negativos. Para definir el resultado de esa suma existe una medida de dispersión apropiada que llamamos desviación típica, que para la distribución binomial con la que se corresponde el azar como lo hemos considerado resulta ser la raíz_cuadrada(N/4), pues es igual a raíz_cuadrada(Npq), siendo n = p = 1/2, ya que la posibilidad de que salga 0 ó 1 es la misma, y su suma debe ser la unidad.

Después de N pasos, la distancia efectiva para cada dimensión, considerada independiente, será raíz_cuadrada(N/4). Si consideramos 3 dimensiones la distancia efectiva será raíz_cuadrada(3 N/4). Esta magnitud la comparamos con la distancia total recorrida después de los N pasos: N raíz_cuadrada(3). Para N suficientemente grande sólo resulta significativa la comparación entre N y raíz_cuadrada de N, independientemente de que multipliquemos los dos términos por 3, 4, 5, ... d, cualquiera que sean las dimensiones del espacio considerado. De la comparación anterior resulta el valor de 2 de su dimensión fractal, o la consideración de realizar N2 pasos totales para sólo conseguir N efectivos.

RecapitulandoEl movimiento browniano sólo es capaz de recubrir un espacio de 2 dimensiones (un plano). En un espacio de 3 ó más dimensiones su "ritmo" de distanciamiento de cualquier punto arbitrario, que consideremos como referencia, no es lo suficientemente "lento" para poderlo recubrir. Para recubrir un espacio de 3 dimensiones su ritmo de distanciamiento debería ser de N3 pasos totales para recorrer sólo N (dimensión fractal 3), para un espacio de 4 dimensiones serían N4 pasos totales para sólo N efectivos, y así sucesivamente. Sin embargo, el ritmo del movimiento lo imprime la desviación típica de la distribución binomial, que no depende de la dimensión del espacio, y cuyo valor es invariablemente igual a la raíz_cuadrada (N/4). Por eso, sea cualquiera el espacio considerado con tres o más dimensiones la dimensión fractal del movimiento browniano seguirá siendo 2. Para aumentar la dimensión fractal del movimiento deberíamos conseguir que cada nuevo paso tuviera "memoria" del resultado de los pasos anteriores y así disminuir su "ritmo" de alejamiento. Es como si en una carrera de 2 Km. nos obligaran a cumplimentar 200 tareas diferentes a lo largo de diferentes puntos del trayecto. Para una cierta velocidad conseguimos cumplimentar sólo 100 tareas y nos damos cuenta que para cumplimentar las 200 debemos disminuir el ritmo, o de lo contrario será imposible. De la misma manera el azar tiene su "ritmo" y ese ritmo sólo le permite recubrir un plano, no un espacio de 3 ó más dimensiones.

2017/04/03

Sobre la ciencia de la información cuántica


La ciencia de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información.

Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si llegamos a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica sabremos interpretar la complejidad de los sistemas cuánticos.

La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, practicamente todos los objetos que nos encontramos a nuestro alrededor por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico. Esa es la mayor dificultad a la hora de construir un ordenador cuántico, los qubits cuanto más sean tanto más difícil será mantener su coherencia y su funcionamiento cuántico.

Existen fenómenos que ofrecen ejemplos de sistemas cuánticos grandes bien aislados, entre ellos la superconductividad, el efecto Hall cuántico y el condensado de Bose-Einstein. Estos fenómenos demuestran que las reglas sencillas de la mecánica cuántica pueden dar lugar a principios emergentes que gobiernan comportamientos complejos.


El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos, tal como veíamos en el post anterior al definir el qubit. El continuo de estados entre el 0 y el 1 causa muchas de las extraordinarias propiedades de la información cuántica.

Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger, el del famoso gato, el entrelazamiento no era un rasgo característico, sino el rasgo carcterístico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas.

Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, nos proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.


En 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas:
1. Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales (en nuestro caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit).
2.Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso (1).
3.Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2).

La pregunta fundamental de la ciencia de la información dice, pues:¿Cuál es la mínima cantidad de recurso físico (1) que necesitamos para realizar la tarea de procesado de información (2) cumpliendo el criterio de éxito (3)?.

En 1948 Claude E. Shannon resolvió el problema fundamental sobre la información clásica: ¿Cuál es el mínimo número de bits necesarios para almacenar la información producida por una fuente?. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon.La clave de nuestra nueva ciencia la tiene la calibración del entrelazamiento de los qubits(*). Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Podemos analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como estudiamos el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.

Información y física:

Como ya pasó con la entropía termodinámica que se ha demostrado íntimamente relacionada con la cantidad de información soportada por un sistema físico, y que nos ha dado una referencia inestimable para estudiar la propia física de los agujeros negros, y con ellos para avanzar con la intrincada y aún no resuelta gravedad cuántica, el concepto de entrelazamiento en relación con el tratamiento de la información cuántica puede ayudarnos a desentrañar los secretos de la extraña mecánica cuántica. Algo tan etéreo como el concepto de la información parece estar íntimamente relacionado con las leyes más fundamentales de la física.

(*)El E-Bit estándar:

Cuando dos qubits están entrelazados, ya no tienen estados cuánticos individuales. En su lugar, se define una relación entre qubits. En un par de qubits máximamente entrelazado, los qubits dan resultados opuestos cuando se los mide. Si uno da 0, el otro da 1, y viceversa. Un par máximamente entrelazado tiene un "e-bit" de entrelazamiento, una especie de unidad de medida del entrelazamiento de un sistema cuántico.

Algo de "mágia" mecanico-cuántica:

- Si dos monedas pudieran estar "entrelazadas" como dos partículas cuánticas, cada par entrelazado daría el mismo resultado, aún cuando se lanzaran a años luz de distancia o en instantes muy diferentes: una moneda daría cara y la otra cruz.

Fenómenos Cuánticos. Investigación y Ciencia. Temas 31

Nueva edición de un antiguo post, dada la actualidad de la computación cuántica. Un abrazo amigos.

2017/02/21

Fractales por dislocación o desplazamiento (de dimensión entera)

Fractal by displacement

 
Georg Cantor
En 1884, Cantor, y en 1904, Koch engendraron una especie de monstruos o quimeras, unas figuras intermedias entre puntos y líneas, líneas y superficies, o superficies y volúmenes, a las que Mandelbrot llamó fractales. Para ellas, en general, su dimensión de Hausdorff (y Besicovitch) o dimensión fractal es una fracción, y su valor es diferente a su dimensión topológica y normalmente mayor.


La dimensión fractal nos indica la parte del espacio que es capaz de cubrir un fractal. De hecho, cuando decimos que un fractal tiene dimensión 1,237 queremos decir que ocupa más que una recta (dimensión 1) y menos que un plano (dimensión 2). El valor de la dimensión fractal podría decirse que se forma a partir de dos sumandos, uno es la dimensión topológica del objeto matemático que lo forma y el otro depende de la irregularidad que presente el fractal. Existen curvas fractales de dimensión 2, capaces por tanto de cubrir el plano. El movimiento browniano de hecho tiene dimensión fractal 2 y es sumamente intrincado e irregular, el factor dimensional que se suma a la dimensión topológica (dimensión 1) es, también, de valor 1.


Durante más de 50 años se han estudiado fractales cuya dimensión suele ser no entera, y uno de los primeros fue el monstruo de Cantor (polvo de Cantor) que vemos en la figura siguiente. Se parte de un segmento al que quitamos su tercio central. En las siguientes iteraciones volvemos a repetir la operación con los segmentos resultantes y así hasta el infinito. Se obtienen infinitos segmentos que tienden a cero longitud (infinitos puntos). Su dimensión fractal es:

 Dim_fractal = log (2)/ log (3) = 0,6309297 , pues del segmento original de valor 3 sólo tomamos los 2 tercios extremos.






¿Pero qué pasaría si el tercio central no lo eliminamos sino que sólo lo desplazamos? Ahora tendríamos un polvo de Cantor modificado tal como lo vemos en la figura siguiente. ¿Cuál sería ahora su dimensión fractal? Fijándonos en cómo la hemos calculado antes, ahora del segmento original de valor 3 no eliminamos ningún tercio, por lo que su dimensión sería:




Dim_fractal = log (3) / log (3) = 1. Y es lógico, porque el fractal sigue ocupando el mismo espacio que el segmento original, aunque pulverizado. El resultado es un polvo fractal de dimensión entera.



Helge von Koch

Hemos realizado la dislocación o desplazamiento de un objeto matemático de una dimensión, un segmento, y hemos obtenido así una especie de polvo de Cantor modificado, pero puede conseguirse el mismo efecto con una figura geométrica de dimensión 2 ó de dimensión 3. En sucesivos post veremos un caso de dislocación de un cuadrado (dos dimensiones) y de un cubo (tres dimensiones). 


Los objetos geométricos que conseguimos de esta forma tienen autosemejanza en todas las escalas como los típicos fractales geométricos, pero su dimensión sigue siendo la misma que la de la figura inicial de la que proceden, es decir siguen siendo de dimensión entera.

Un saludo amigos.Os remito a un antiguo post en el que ya trataba este tema. La curva de Koch, también llamada copo de nieve de Koch, veremos que nos permite construir un fractal por desplazamiento similar a dicha curva. También podéis consultar un trabajo reciente que me ha publicado la revista Inglomayor de la Universidad Mayor de Chile. Hay que puntualizar que como indico se pueden lograr polvos fractales de dimensión entera por dislocación o desplazamiento de figuras autosemejantes de 1, 2 ó 3 dimensiones, pero mientras sus dimensiones fractales siguen siendo las dimensiones de la figura inicial, la dimensión topológica del polvo resultante no puede ser otra que cero.

2017/01/02

Fractales, una geometría natural

La geometría tan intuitiva que nos enseñan en la escuela, basada en líneas, puntos y superficies supone, en realidad, un gran esfuerzo de abstracción porque estos elementos idealizados no existen en el mundo cotidiano. Una línea real o una superficie están llenas de irregularidades que pasamos por alto para abstraer su esencia y plasmarla en conceptos más sencillos como recta y plano. 


Con los fractales, en cierta manera, deshacemos esa abstracción y nos acercamos un poco más al objeto real. Benoït Mandelbrot utiliza el ejemplo sencillo de un objeto real, como son las costas de los países, para aproximarnos a los fractales. Son líneas quebradas que siguen teniendo un aspecto parecido cuando cambiamos de escala. Precisamente estas dos propiedades son las que definen a un fractal: discontinuidad (rotura, fractura, de ahí su nombre) y autosemejanza con el cambio de escala. Medimos su grado de fractura e irregularidad con un simple número que llamamos dimensión fractal.

Repasando intuitivamente el concepto de dimensión, observamos que un punto no tiene medida (dimensión cero); a una recta la medimos en metros o centímetros lineales, lo que significa asignarle dimensión uno (una sola medida: largo); a una superficie la debemos medir en metros o centímetros cuadrados (dimensión dos: largo por ancho) y a un volumen lo medimos en metros o centímetros cúbicos (dimensión tres: largo por ancho por alto). Un fractal, generalmente, tendrá una dimensión (su dimensión fractal) que estará entre cero y uno, entre uno y dos o entre dos y tres.
Supongamos el caso más sencillo, una recta fractal representada por un hilo arrugado, e imaginemos que tiene dimensión fractal 1,25. Si otro hilo tiene dimensión fractal 1,35, la simple comparación de sus dimensiones fractales supone que este segundo hilo está más arrugado que el primero, presenta más irregularidades. La parte entera de la dimensión fractal (en este caso 1) nos está informando que el objeto con el que tratamos es una recta, la parte fraccionaria nos mide su grado de irregularidad.

La dimensión fractal también da la capacidad que tiene el objeto de ocupar el espacio. El hilo con dimensión fractal 1,35 es capaz de llenar el plano mejor que el de dimensión 1,25. De hecho, si seguimos arrugándolo más aumentaremos su dimensión fractal y cuando esté cercana a 2 habremos conseguido llenar, casi por completo, una superficie con el hilo. Un fractal clásico de este tipo es la llamada curva de Peano.


Los fractales son objetos esencialmente sencillos, se generan fácilmente por ordenador. Mediante muy pocas órdenes de programación, y a partir de un número mínimo de datos, se crean verdaderas maravillas de una riqueza y complejidad extraordinarias. El fractal de Mandelbrot es un ejemplo. Conforme intentamos ampliar, con medios informáticos, cualquiera de sus partes nos encontramos con un nuevo paisaje similar al original pero con nuevos y sorprendentes detalles. Podemos seguir así cuanto deseemos y nos permita la potencia de nuestro ordenador, se nos seguirá mostrando un nuevo mundo fantástico, que nunca llega a repetirse, en cada nueva ampliación. Un mundo surgido casi de la nada, de una sencilla expresión que se encadena y realimenta con nuevos datos.

Como curiosidad, la expresión es así de sencilla: Valor posterior = (valor anterior) 2 + constante (Con una condición restrictiva).

La observación de estos fractales creados por ordenador, nos recuerda siempre a algún objeto natural desconocido pero cercano, posiblemente, porque esa economía de medios para lograr complejidad es una característica muy propia de la Naturaleza. Es la estrategia adoptada para lograr la mejor distribución de los vasos sanguíneos por todo el cuerpo, la disposición óptima del ramaje de los árboles o de los pliegues del cerebro para conseguir la mayor superficie en el mínimo espacio.

Verdaderas maravillas de arte fractal.

De mi colaboración con Libro de Notas, la columna mensual cienciasyletras.

Feliz año amigos!!!