2017/09/26

Cantor, el infinito y más allá


Mi hija Alba cuando tenía cinco años me sorprendía con afirmaciones, aparentemente trascendentes, sobre el infinito y algunas otras cuestiones peliagudas. Recuerdo que un día me dejó perplejo al soltarme a bocajarro: " Papá, el infinito nunca para, siempre se está haciendo". No sé cómo llegó a esa conclusión ni en base a qué, pero en su mente infantil parecía una evidencia pura e incontestable. Después las matemáticas no han sido, precisamente, su fuerte pero aquellas afirmaciones parecían relacionadas con las cuestiones sobre la vida, la muerte o el mundo que parecen preocupar en un momento determinado de la primera infancia a muchos niños. El post sobre los números primos, su infinitud y su "misteriosa" distribución me hizo reflexionar sobre algunos aspectos del infinito que me han hecho recordar esta anécdota y publicar este post.



En la Grecia antigua Platón, Pitágoras y Aristóles entre otros, se planteaban la existencia del infinito y las contradicciones generadas a partir de la aceptación de su existencia. Aristóteles rechazó la idea del infinito dada las contradicciones que generaba. Sin embargo, lo concibió de dos formas diferentes las cuales son las nociones que tenemos actualmente de este concepto: el infinito potencial y el infinito actual. La noción de infinito potencial se centra en la operación reiterativa e ilimitada, es decir, en la recursividad interminable, por muy grande que sea un número natural, siempre podemos concebir uno mayor, y uno mayor que este y así sucesivamente donde esta última expresión "así sucesivamente'' encierra la misma idea de reiteración ilimitada, al infinito. Por otra parte, el infinito actual se refiere al un infinito existente como un todo o unidad y no como un proceso. Kant aceptaba la posición de Aristoteles y rechazaba el infinito actual por ser imposible de ser alcanzado por la experiencia. 

Georg Cantor:
El gran matemático alemán Georg Cantor dedicó gran parte de su vida al estudio del infinito, los distintos infinitos y el llamado continuo, y en el siglo XIX desarrolló la teoría de conjuntos intimamente relacionada con la teoría de números transfinitos. Cantor fundamentó una axiomática consistente que permite construir los conjuntos y posteriormente establecer el concepto de infinito. Para esto definió el concepto de "cardinalidad'' o "potencia'' de un conjunto.Dos conjuntos se dicen que tienen el mismo número de elementos, que tienen la misma cardinalidad o son equipotentes, si existe una función definida entre ellos de forma que a cada elemento de uno sólo le corresponde otro elemento del otro conjunto, y viceversa.



A partir de esta definición se puede establecer la idea de conjunto infinito. Se dice que un conjunto es infinito si existe un subconjunto con la misma cardinalidad o que es equipotente con él. Esta definición plantea una contradicción con la intuición, pues todo subconjunto como parte del conjunto total parece que deba tener menos elementos. Eso es así, efectivamente, en los conjuntos finitos, pero no en los infinitos como podemos observar con un ejemplo sencillo dentro del conjunto de los números naturales. Supongamos que al número natural 100.000.001 le hacemos corresponder el número 1, al 100.000.002 el 2, al 100.000.003 el 3 y así establecemos una correspondencia número a número tan extensa como queramos. Vemos que a cada elemento del subconjunto de números naturales que comienzan con el 100.000.001 le hacemos corresponder un número, y sólo un número del conjunto total de los números naturales, y viceversa.

Cantor se dio cuenta de que existen diferentes grados de infinitud comparando los infinitos de los números naturales N {1,2,3,...n}, racionales Q (fracciones) y reales R(racionales + irracionales). Al cardinal infinito del conjunto de los números naturales le asignó el número llamado Aleph-0 y vio que era del mismo orden que el correspondiente a los números racionales, aunque estos son mucho más densos en la recta. Pero en el caso de los números reales su cardinal transfinito es de mayor orden pues su conjunto no es numerable (no se pueden poner en correspondencia, uno a uno, con los números naturales). A este cardinal le asignó el nombre de Aleph-1 y se supone que R es capaz de llenar la recta por completo, si se admite la hipótesis del continuo (a diferencia de lo que ocurre con los números racionales, los enteros o los naturales).

El descubrimiento de la existencia de cardinales transfinitos supuso un desafío para un espíritu tan religioso como el de Georg Cantor. Y las acusaciones de blasfemia por parte de ciertos colegas envidiosos o que no entendían su trabajo no le ayudaron. Sufrió de depresión, y fue internado repetidas veces en hospitales psiquiátricos. Su mente luchaba contra varias paradojas de la teoría de los conjuntos, que parecían invalidar toda su teoría (hacerla inconsistente o contradictoria, en el sentido de que una cierta propiedad podría ser a la vez cierta y falsa). Trató durante muchos años de probar la hipótesis del continuo, lo que se sabe hoy que es imposible, y que tiene que ser aceptada (o rehusada) como axioma adicional de la teoría, como ocurre con el llamado quinto postulado euclidiano sobre las rectas paralelas. Si se admite tenemos una geometría plana consistente, y si no se admite tenemos nuevas geometrías no planas también consistentes.

Cantor al desarrollar la que él mismo bautizó "aritmética de los números transfinitos", dotó de contenido matemático al concepto de infinito actual. Y al hacerlo así puso los cimientos de la teoría de conjuntos abstractos, contribuyendo además, de forma importante, a fundamentar el cálculo diferencial y el continuo de los números reales. El más notable logro de Cantor consistió en demostrar, con rigor matemático, que la de infinito no era una noción indiferenciada. Sus resultados fueron tan chocantes a la intuición de sus contemporáneos, que el eminente matemático francés Henri Poincaré condenó la teoría de números transfinitos como una "enfermedad", de la que algún día llegarían las matemáticas a curarse.Y Leopold Kronecker, que fue uno de los maestros de Cantor, y miembro preeminente de la matemática institucional alemana, llegó incluso a atacarle directa y personalmente, calificándolo de "charlatán científico", " renegado" y "corruptor de la juventud".

Empezó a interpretar e identificar el infinito absoluto (que no es concebible por la mente humana) con Dios, y escribió artículos religiosos sobre el tema. Murió en una clínica psiquiátrica, aquejado de una enfermedad maníaco-depresiva.Hoy en día, la comunidad matemática reconoce plenamente su trabajo, y admite que significó un salto cualitativo importante en el raciocinio lógico.


Reflexiones:
Lo infinitamente pequeño o lo infinitamente grande, las iteraciones hasta el infinito en límites continuos o en fractales parecen conceptos ajenos a lo cotidiano, pero no es así. En las funciones continuas el cálculo infinitesimal (lo infinitamente pequeño) es una herramienta imprescindible para la ciencia y la tecnología, con ella parece que casi conseguimos tocar el propio infinito. Recuerdo la fascinación que consiguieron ejercer sobre mi mente adolescente los límites infinitos y las sumas infinitas de funciones que se aproximan a una función dada (series de Taylor), así como los cálculos de máximos y mínimos aplicados a cosas cotidianas (como el cálculo del mínimo material con el que construir un cazo de un litro de capacidad). Cuando todos estos cálculos lograban materializarse en algo concreto parecía pura magia.


Toda la revolución cuántica se basa en el cuanto de acción, la mínima acción no puede ser infinitamente pequeña o cero, como suponía la física clásica, y de esa propiedad básica emerge el mundo cuántico y toda su "magia". Por otra parte, se creía infinita la velocidad de la luz, pero de su finitud y de la constatación de que es una magnitud constante, independientemente del sistema de referencia, se ha llegado a la más bella teoría física creada por el hombre: la teoría de la relatividad. En estas dos teorías, en su necesaria conjunción descansa la esperanza de poder desentrañar los secretos más íntimos de la materia y del espacio-tiempo.

Para consultar:
- Revista Números : El infinito en las matemáticas.
-"Dios creó los números, los descubrimientos matemáticos que cambiaron la historia" de Stephen Hawking. Una biografía de los 17 mayores genios matemáticos (entre ellos Cantor) Ed. Crítica. ISBN:978-84-8432-753-0
-Muy interesante y completo, desde varios puntos de vista, el tomo 23 de la Revista Investigación y ciencia (año 2001):"Ideas del infinito".
-Joseph W. Dauben, su libro:"George Cantor, Su Filosofía de la matemática y el Infinito" (Cambridge, Mass.: Harvard University Press, 1979; rep. Princeton, NJ: Princeton University Press, 1989).

Reedición de uno de mis post clásicos.

2017/09/03

¿Universo máquina o universo mente?


Cada átomo que forma nuestra materia y los pensamientos que surgen de nuestra mente los sentimos muy dentro y muy nuestros, pero realmente provienen del exterior. Somos sistemas abiertos auto-organizados que necesitamos de la materia y de la información del entorno.
A diferencia de los sistemas cerrados, que no intercambian ni materia ni información con el exterior, nuestra entropía (una medida del desorden) es capaz de disminuir, o, lo que es lo mismo, nuestra información y organización capaces de aumentar. Tomamos la información del exterior y ganamos en complejidad a costa de aumentar el desorden del entorno. En eso se basan los fundamentos de nuestra existencia.

Visto así, 
resulta difícil pensar que pudiera existir la vida y la inteligencia, tal como las conocemos, a partir de un entorno-máquina, con un orden muy básico (maquinal), como se suele sugerir desde la asepsia de la ciencia. Sería completamente imposible, pues nuestro orden viene del entorno ordenado que nos rodea. De igual forma parece imposible pensar que nuestra inteligencia sea una pura casualidad, una isla entre un mundo sin inteligencia. Creo que nuestra inteligencia no puede aparecer en un mundo sin inteligencia, sin una inteligencia mucho mayor que la que disfrutamos en la actualidad. Los hombres del futuro y los seres mucho más inteligentes que nos sustituyan, sólo tienen una referencia que les permitirá seguir enseñándose y siendo cada vez más y más inteligentes. Esta referencia es su propio entorno, este universo, en cierta forma, inteligente que es capaz de transmitirnos orden e inteligencia. ¿Puede seguir haciendo seres cada vez más inteligentes un universo pura máquina-no-inteligente?Nuestros genes transportan una información preciosa conseguida del entorno a través de millones de años de intercambio y evolución. Nacemos, casi, como una hoja de papel en blanco, y a partir de entonces seguimos aprendiendo de nuestro exterior. De nuestros padres, de las demás personas y seres, del comportamiento de los otros, de todo lo que nos pasa y de la información que nos llega. Lo externo, como un todo, nos hace como somos.
La baja entropía, el orden-información, nos llega a través de la luz del Sol. “Pocos” rayos de radiación energética de baja entropía que nuestro planeta absorbe, y devuelve en forma de “muchos” rayos de radiación electromagnética de alta entropía. En el intercambio la Tierra se queda con la información, la baja entropía, suficiente para seguir soportando la vida y el orden que comporta: las plantas verdes que “fabrican” su propio alimento a partir de la energía del Sol están en la base de la vida. Por otra parte, también gracias a las estrellas, y a la fusión de los elementos primigenios, se formaron en su seno los elementos más pesados que forman nuestro cuerpo: carbono, nitrógeno, oxígeno, hierro, calcio, fósforo, etc.
Y todo comenzó con el Big Bang, que no fue una explosión de la materia tal como entendemos que debe ser una explosión. Fue una explosión a partir de la cual se formó la materia y el espacio-tiempo. En cualquier explosión de un artefacto, se proyecta materia de forma desordenada hacia todas las direcciones, sobre un espacio ya existente, pero en la explosión inicial no fue así. El sistema, que es el propio Universo, comenzó su particular degradación entrópica, a partir de un mínimo de entropía, o de un máximo orden, que ha permitido el orden posterior de los sistemas que lo forman. Desde las galaxias o las estrellas hasta nuestro própio orden e inteligencia. Todo un misterio extraordinario, difícilmente entendible como pura casualidad.

2017/08/13

¿Ser/no ser, crear/destruir, orden/caos?


¿Desde un punto de vista  filosófico qué se puede decir sobre la preponderancia entre uno u otro de los contrarios que aparecen en el título de esta columna?... Quizás el propio Universo, su historia y sus leyes puedan orientarnos. Después de todo él nos ha hecho como somos (aportando la materia y la coherencia necesaria para que se pudiera desarrollar nuestro intelecto) y, en última instancia, cuando formulamos teorías es el propio Universo, mediante la comprobación experimental de las mismas, quien nos indica si la teoría es correcta o errónea.

Sabemos que nuestro Universo se creó con una gran explosión o Big Bang a partir de una especie de micro vacío cuántico, regido por leyes de la gravedad cuántica que todavía desconocemos. Esa gran explosión también sabemos que fue extremadamente ordenada al contrario de lo que son las explosiones que conocemos, pues en ese momento se creó el propio espacio-tiempo: fue el propio "estallido" del espacio-tiempo. En cierta forma fue el momento en que se dio cuerda al Universo y de esa cuerda surgiría todo: las estrellas, las galaxias y el orden que conocemos, incluso la vida. Pero para llegar a todo esto tuvo que intervenir, al menos localmente, un impulso destructor (no ser, caos): la destrucción de las estrellas, y el nacimiento de otras nuevas que aprovechan sus despojos gracias a los cuales se pudieron ir creando todos los elementos químicos que conocemos, el carbono, el calcio, el hierro, el selenio, la plata, el oro, el plomo…Con el hidrógeno primigenio no habríamos llegado al Universo que conocemos, se han necesitado varias generaciones de estrellas para crear todos los elementos químicos que conocemos y la complejidad de estructuras que han dado lugar: Un gran impulso creador que aprovecha la destrucción a nivel local para seguir escalando en complejidad y en calidad de creación.

Hasta tal punto fue ordenada la explosión del Big Bang que la distorsión destructiva del espacio-tiempo, que tiende a infinito en el interior de un agujero negro, fue igual a cero en el Big Bang. Es lo que llamamos desorden cero, o dicho con un término termodinámico, entropía nula. A partir de ese momento la entropía (la medida del desorden de un sistema) no ha parado de crecer y según la segunda ley de la termodinámica acabará con la llamada muerte térmica del Universo, la cuerda recibida en el momento inicial se agotará dando lugar a un máximo desorden, una especie de equilibrio final, del que no se podrá recuperar ninguna energía útil.

En el equilibrio o cerca de él, vemos que no se produce nada interesante, todo es lineal. Cuando pueden ocurrir cosas sorprendentes es lejos del equilibrio: si llevamos un sistema lo bastante lejos del equilibrio, entra en un estado inestable con relación a las perturbaciones en un punto llamado de bifurcación. A partir de entonces la evolución del sistema está determinada por la primera fluctuación, al azar, que se produzca y que conduzca al sistema a un nuevo estado estable. Lejos del equilibrio, la materia se auto organiza de forma sorprendente y pueden aparecer espontáneamente nuevas estructuras y tipos de organización que se denominan estructuras disipativas. Aparece un nuevo tipo de orden llamado orden por fluctuaciones: si las fluctuaciones del ambiente aumentan fuera de límite, el sistema, incapaz de disipar entropía a ese ambiente, puede a veces "escapar hacia un orden superior" emergiendo como sistema más evolucionado.

La colaboración entre los contrarios, entre el orden y el caos, nos ha llevado al Universo en el que vivimos, a la propia vida, a los ecosistemas y, en cierta forma, a las propias organizaciones y sociedades humanas.

2017/07/24

Gravedad cuántica, continuando la revolución de Einstein



Kip S Thorne
La llamada gravedad cuántica trata de fundir en una sola las dos teorías físicas más soberbias con las que contamos, la relatividad general y la mecánica cuántica, que en el estado actual de nuestro conocimiento parecen incompatibles. Su estudio, ahora mismo, es en algunos aspectos análogo a la física de hace cien años, cuando se creía en los átomos, pero se ignaraban los detalles de su estructura. A pesar de ello, Boltzmann, Einstein y otros pudieron comprender muchas cosas sobre la materia utilizando únicamente el hecho de que estaba compuesta por átomos. Sin conocer nada más que su tamaño aproximado fueron incluso capaces de realizar predicciones de efectos observables. De forma parecida se han podido derivar resultados importantes a partir de modelos sencillos basados en tres principios que suponemos básicos: que el espacio es "emergente", no fundamental, que la descripción más esencial debe ser "discreta" (no continua) y que esta descripción supone "causalidad" de una forma fundamental, es decir, que las relaciones causales pueden determinar la propia geometría del espacio-tiempo.


Cuando se dice que el espacio es emergente y no fundamental, se quiere decir que el continuo del espacio es una ilusión y que, del mismo modo que la materia está compuesta de átomos, el espacio emerge como una aproximación de alguna entidad formada por elementos esenciales discretos. Pero las ideas sobre el espacio o sobre el espacio-tiempo son mucho más radicales todavía. Desde la relatividad general sabemos que el espacio-tiempo no es la entidad absoluta e inamovible que siempre se había creído y que su esencia está ligada a la de la matería-energía, de manera que en las proximidades de una gran masa se deforma como una membrana lo haría por la acción de un peso. Esta geometría del espacio-tiempo, ligada a la materia-energía indica a los rayos de luz como propagarse (el camino más corto) pues nada puede viajar más rápido que la luz, y una vez conocemos cómo se propaga ésta, podemos determinar qué acontecimientos pueden haber causado otro acontecimiento concreto, de lo que se deduce que la geometría del espacio-tiempo contiene información de cuáles son los acontecimientos que pueden causar otros y de cuáles son estos últimos. Es lo que llamamos la estructura causal del espacio-tiempo.

Núcleo activo de una galaxia

En el ámbito de la gravedad cuántica se cree que en realidad ocurre al contrario de lo que parece, es decir que son las relaciones causales las que deben determinar la geometría del espacio-tiempo. Se cree que la propia causalidad es lo fundamental y significativo incluso a un nivel donde la noción del espacio haya desaparecido. La idea fundamental es que la geometría de espacio-tiempo está compuesta por una gran cantidad de bloques o ladrillos apilados, cada uno de los cuales representa un sencillo proceso causal. Las reglas que gobiernan cómo se apilan los bloques son sencillas y también una sencilla fórmula proporciona la probabilidad mecánico-cuántica para cada uno de estos modelos de un espacio-tiempo cuántico.

Una de las reglas que se imponen es que cada espacio-tiempo cuántico tiene que entenderse como una secuencia de espacios posibles que se suceden los unos a los otros, igual que los tic-tacs de un reloj universal. La coordenada temporal es arbitraria, igual que sucede en la relatividad general, pero el hecho de que la historia del mundo pueda ser vista como una sucesión de geometrías que se suceden las unas a las otras no lo es. Con esta restricción y unas sencillas reglas, ya se han conseguido pruebas de que el espacio-tiempo clásico emerge de un simple juego de construcción a partir de un mundo puramente cuántico fundamentado tan sólo en lo discreto y en la causalidad.
Gravedad, curvatura del espacio-tiempo


La gravedad cuántica supondrá la completa reformulación del espacio y del tiempo, y nos dará una nueva mirada sobre lo fundamental y lo accesorio en la propia esencia de las cosas.

Reedición de un post clásico. Felices vacaciones amigos.

2017/07/09

Los tres primeros minutos del universo


Este es el título de un clásico de la divulgación científica. El Premio Nobel de Física de 1979 y profesor de la Universidad de Harvard Steven Weinberg nos explica en unos cuantos "fotogramas" la evolución de los tres primeros minutos del universo, previa introducción sobre la expansión del universo y sobre el fondo de radiación. Sus conocimientos sobre el microcosmos, sobre las partículas más pequeñas que forman la materia, nos abren las puertas a un espectáculo grandioso y único. Admite que no se puede empezar la "película" en el tiempo cero y con temperatura infinita, pero las cosas parecen bastante claras ya en el:


Primer fotograma: Cuando apenas ha transcurrido una centésima de segundo y la temperatura se ha enfriado hasta unos cien mil millones de grados Kelvin o absolutos ( el cero está sobre los -273 ºC), el universo está lleno de una sopa indiferenciada de materia y radiación, en estado de casi perfecto equilibrio térmico. Las partículas que más abundan son el electrón y su antipartícula, el positrón, fotones, neutrinos y antineutrinos. El universo es tan denso que incluso los huidizos neutrinos, que apenas interactúan con la materia, se mantienen en equilibrio térmico con el resto de la materia y radiación debido a sus rápidas colisiones. La densidad de la masa-energía en ese momento es del orden de 3,8 mil millones de veces la densidad del agua en condiciones terrestres normales. El tiempo característico de expansión del universo es de 0,02 segundos y el número de partículas nucleares (protones y neutrones) es del orden de un nucleón por 1000 millones de fotones, electrones o neutrinos. Las reacciones más importantes son: (a)Un antineutrino más un protón dan un positrón más un neutrón y viceversa.(b) Un neutrino más un neutrón dan un electrón más un protón y a la inversa.

Segundo fotograma: La temperatura ahora es de 30.000 millones de grados Kelvin y desde el primer fotograma han pasado 0,11 segundos. Nada ha cambiado cualitativamente, aunque la densidad de la energía ha disminuido con la cuarta potencia de la temperatura y el ritmo de expansión ha disminuido con su cuadrado. El tiempo característico de expansión es ahora de 0,2 segundos y las partículas nucleares todavía no se hallan ligadas a núcleos, aunque con la caída de la temperatura es ahora más fácil que los neutrones, más pesados, se conviertan en protones que al revés. Su balance es del 38% de neutrones por el 62% de protones.







Tercer fotograma: La temperatura del universo es de 10.000 millones de grados Kelvin. desde el primer fotograma han pasado 1,09 segundos y la densidad y la temperatura han aumentado el tiempo libre medio de los neutrinos y antineutrinos que empiezan a desacoplarse de la radiación, electrones y positrones y a comportarse como partículas libres. La densidad total de la energía es menor que en el fotograma anterior en la cuarta potencia de la razón de las temperaturas, por lo que viene a ser unas 380.000 veces mayor que la del agua. El tiempo característico de expansión es ahora de unos 2 segundos y los positrones y electrones comienzan a aniquilarse con mayor rapidez de la que pueden ser recreados a partir de la radiación. Todavía no se pueden formar núcleos estables, y la proporción neutrón-protón es ahora 24-76 %.

Cuarto fotograma: La temperatura es ahora de 3.000 millones de grados Kelvin, han pasado 13,82 segundos del primer fotograma y los electrones y positrones empiezan a desaparecer como componentes destacados del universo. El universo está lo bastante frío para que se formen diversos núcleos estables, como el helio común formado por dos protones y dos neutrones (He4). Los neutrones aún se convierten en protones, aunque más lentamente. La proporción de nucleones es ahora del 17% de nuetrones y del 83% de protones.

Quinto fotograma: La temperatura es de 1.000 millones de grados, sólo 70 veces más caliente que el Sol.Desde la primera imagen han pasado tres minutos y dos segundos. Los electrones y positrones han desaparecido, en su mayor parte, y los principales componentes del universo son ahora fotones, neutrinos y antineutrinos. Ahora el universo está lo suficientemente frío para que se mantengan unidos los núcleos del tritio y helio tres, así como los del helio ordinario, pero no se pueden formar, todavía, cantidades apreciables de núcleos más pesados. El balance neutrón-protón es ahora del 14-86 %.


 Un poco más tarde: A los tres minutos y cuarenta y seis segundos del primer fotograma, la temperatura es de 900 millones de grados Kelvin y comienza la nucleosíntesis, la proporción en peso de helio es ya el doble de la proporción de neutrones entre las partículas nucleares, es decir del orden del 26%. A los 34 minutos y cuarenta segundos del primer fotograma (300 millones de grados) los procesos nucleares se han detenido y las partículas nucleares están ahora en su mayoría ligadas a núcleos de helio o son protones libres. hay un electrón por cada protón libre o ligado, pero la temperatura es todavía alta para que formen átomos estables.

Durante 700.000 años más el universo seguirá expandiendose y enfriándose, pero no ocurrirá nada de interés.Después podrán formarse núcleos y átomos estables y la falta de electrones libres hará que el contenido del universo sea transparente a la radiación. El desacoplamento de la materia y la radiación permitirá a la materia comenzar a crear galaxias y estrellas."Después de otros 10.000 millones de años, aproximadamente, los seres vivos comenzarán a reconstruir esta historia".

El primer fotograma podría resumirse como:" Al principio fue la luz". La radiación (luz) y la materia en equilibrio térmico y estado indiferenciado. Es la impresión más fuerte que guardo de cuando leí el libro la primera vez.

Libro:
"Los tres primeros minutos del universo". Steven Weinberg. Madrid 1980. Alianza Universidad. 

Nota: La segunda figura es el mapa de las anisotropías del fondo de radiación cósmica.

Reedición de uno de mis post clásicos. ¡Feliz verano amigos!

2017/06/26

Parábolas y catástrofes


No es posible encontrar una noción mas estética que la reciente
Teoría de las Catástrofes de René Thom, que se aplica tanto a la
geometría del ombligo parabólico como a la deriva de los continentes.
La Teoría de René Thom ha encantado todos mis átomos desde que la
conocí ....
Dalí, 1985.
La teoría topológica de las singularidades y bifurcaciones, conocida como Teoría de Catástrofes (TC), fue introducida por el matemático y filósofo francés René Thom para estudiar los saltos o cambios que se producen en los sistemas dinámicos. Estudia desde el punto de vista matemático lo que vulgarmente se conoce como la "gota que colma el vaso", esa mínima gota que provoca que el agua se derrame y se pase de un estado inestable a otro estable.


Intuitivamente, y de forma simplificada (topología “superelemental”), los puntos interiores de un conjunto continuo serían puntos regulares y los puntos que forman su frontera serían puntos catastróficos. Los puntos regulares están rodeados de puntos que tienen la misma apariencia cualitativa en los que no "ocurre nada", todo sigue igual (continuidad). En lospuntos de la frontera o catastróficos siempre"ocurre algo", pasa de haber una continuidad del sistema a encontrarnos con un cambio radical.__Esta distinción entre puntos regulares y catastróficos es preliminar no sólo para la teoría de las catástrofes, sino para cualquier disciplina que establezca descripciones sobre cualquier forma teórica__. René Thom demostró que para los sistemas en los que interviene una o dos variables y en los que influyen hasta cuatro parámetros (tiempo, temperatura, gradientes...), hay siete rupturas o catástrofes elementales (morfologías o formas), a las que se han dado nombres muy plásticos e intuitivos: pliegues, cúspides, colas de milano, mariposas y ombligos elíptico, hiperbólico y parabólico.


En palabras suyas:" La TC se esfuerza por describir las discontinuidades que pudieran presentarse en la evolución del sistema.. Intuitivamente, se admite que la evolución global de un sistema se presenta como una sucesión de evoluciones continuas, separadas por saltos bruscos de naturaleza cualitativamente diferente. Para cualquier tipo de evolución continua subsiste el marco del tipo diferencial clásico, pero los saltos hacen que se pase de un sistema diferencial a otro. Se salta de una evolución continua descrita por un sistema de ecuaciones diferenciales a otra evolución continua descrita por otro sistema y no se puede excluir que un número finito de sistemas no sea suficiente para describir la situación por completo." Realmente, aclara que más que una teoría, es una metodología, o acaso una especie de lenguaje, que permite organizar los datos de la experiencia en las condiciones más diversas.


René Thom ha sabido acercar las Matemáticas a las «morfologías», y ha estudiado con herramientas topológicas la aparición, la estabilidad y la desaparición de formas; ha encontrado el sentido de las cosas, en tanto en cuanto son formas o morfologías, a partir de ciertos invariantes que son las rupturas o singularidades. Así ha podido clasificar las maneras de proceder ante esas rupturas –las famosas «catástrofes» elementales– en sistemas dinámicos, tan variados que pueden ser físicos, linguísticos, biológicos o sociales.



A pesar del fracaso –según los cánones del positivismo– de la TC como teoría científica aplicada, Thom ha abierto las matemáticas a las formas o morfologías del mundo, con el fin de comprenderlo, de encontrar su sentido, y no sólo movidas por el interés de predecir sucesos, clásico ejercicio decimonónico de la ciencia. Y ha empezado a mostrar su poder para hacerlo al permitir acercarse a través de muchos de su conceptos fundamentales –estabilidad estructural, bifurcaciones, atractores...– a la comprensión de fenómenos naturales tan complejos y tan corrientes como «la forma de una nube, la caída de una hoja, la espuma de un vaso de cerveza».



-->Libro : "Parábolas y catástrofes", de René Thom. Una larga entrevista en la que consigue aclarar el sentido profundo de las analogías ("parábolas") que explican algunos de los más enigmáticos y fascinantes fenómenos discontínuos (o "catástrofes"). René Thom, en los años setenta, desafió en su propio terreno a físicos y biólogos, a economistas y lingüistas, proponiendo, con su teoría de catástrofes, una nueva manera de considerar todas las transformaciones que se producen de modo brusco, imprevisto, dramático.


-->Web : Matemáticas y ciencias morfológicas. Homenaje a René Thom.


Reedición de un antiguo post de 2007. Os añado una pequeña reflexión humorística sobre el tema. Feliz verano amigos, me reclama la familia.

La estupidez y la teoría de catástrofes


Normalmente, lo que vivimos en un determinado momento es capaz de ser predicho con un margen razonable , lo que origina una cierta conciencia de continuidad (normalidad) . Esta continuidad suele ser rota por acontecimientos inesperados que, en muchas ocasiones por nuestra propia ignorancia, solemos meter en una especie de saco llamado azar. Un porcentaje de estos suele tener el origen en la estupidez humana.

La vida se compone de una parte racional, continua y ,por tanto, esperada y de otra parte discontinua que, en muchos casos, la enriquece. La estupidez puede ser muy destructiva (a priori casi siempre lo es) , pero la ruptura que introduce puede tener efectos enriquecedores y muy positivos. En este sentido puede entenderse su contribución no como “motor” sino como moduladora de los acontecimientos. El motor creo que siempre es la voluntad.

La rotura de la continuidad es estudiada por la llamada teoría de las catástrofes (entendiendo por catástrofe la simple ruptura de esa continuidad). En ese sentido la estupidez como la capacidad opuesta a la razón , y a la continuidad que ella representa, podría entenderse como catastrófica.

Catástrofes aparte, el mejor libro escrito nunca sobre la estupidez humana es, sin duda, el libro del profesor italiano Carlo M. cipolla:"Allegro ma non troppo". Incluye dos ensayos, "El papel de la pimienta en el desarrollo económico de la Edad Media" y "Las leyes fundamentales de la estupidez humana", cuya Primera ley Fundamental dice así: "Siempre e inevitablemente cada uno de nosotros subestima el número de indivíduos estúpidos que circulan por el mundo". Es un librito de 85 páginas editado por Mondadori (1999), ISBN:8439703058.

2017/06/07

Sobre gravitación cuántica y agujeros negros

Algunas notas, casi al azar, sobre gravitación cuántica y agujeros negros
Sobre espacio-tiempo y paradigma holográfico:
Conforme avanza nuestro conocimiento sobre el universo aparecen más interrogantes, vuelven las eternas preguntas que se han hecho los filósofos de todos los tiempos, aunque la perspectiva ha cambiado sustancialmente. Los principios básicos que vislumbramos sobre la gravedad cuántica nos indican que el propio espacio-tiempo no es el fundamental, eterno e inmóvil referente que siempre hemos creído sino que emerge de una entidad fundamental discreta (no continua) y su propia geometría debe estar inextricablemente ligada a las relaciones causales entre sucesos.
Leer más...

.............................
Extraña luz de agujero negro:
Un agujero negro del que no salga nada (el caso clásico), ni presente al exterior ninguna manifestación cuando engulle materia con mucha entropía, sugiere una forma demasiado fácil de disminuir la entropía de la materia exterior al mismo. Conforme arrojáramos al agujero materia con gran entropía haríamos disminuir la entropía exterior. Serían agujeros por los que se “escaparía” el cumplimiento de la segunda ley de la termodinámica, la tendencia natural al aumento de entropía o desorden (ver nota final sobre la entropía). Desde el Bing Bang, una explosión en perfecto orden , la entropía total del Universo no ha dejado de crecer y así será hasta la llamada muerte térmica .


La extraña luz de los agujeros negros, bautizada como radiación de Hawking que fue quien la descubrió, devuelve desorden, entropía, a nuestro Universo que sigue degradándose sin remedio hasta su muerte final (la energía de la radiación calorífica es la energía más degradada). Sin esa tenue luz los agujeros negros engullirían, además de materia, desorden. El determinismo clásico los hace más negros pero menos reales… la realidad, por una vez, no es tan “negra” como la pintan.

Leer más...
..................

Dragones alados y agujeros negros:
Agujeros negros, agujeros de gusano, túneles en el espacio-tiempo, viajes en el tiempo, distorsión espacial y temporal, todos estos conceptos que parecen sacados de una novela de ciencia ficción, forman parte ya de la ciencia seria que se investiga en la actualidad, y no deja de ser una paradoja que la física, la ciencia más pura y dura, se ocupe de cuestiones, en otro tiempo, esotéricas. La materia a la que nos agarramos como lo más sólido, simple y real que tenemos se está convirtiendo, cada vez más, en algo lleno de misterio y complejidad. La física cuántica y la teoría de la relatividad general nos la presentan como algo siempre en movimiento que se confunde con el propio espacio y tiempo. Conforme tratamos de entender sus propias entrañas se nos aparece como formando una especie de entidad compleja que algún premio Nóbel no ha dudado en llamar: la materia-espacio-tiempo. Las extrañas criaturas que son los agujeros negros, con la curiosidad que han despertado entre los físicos, a comprender mejor el mundo que nos rodea. En cierta forma su negra belleza ha arrojado un rayo de luz sobre nuestro conocimiento del universo que nos cobija.



Leer más ...
......................

Antes del Big Bang, la espuma cuántica:

La mecánica cuántica nos prepara en cierta forma la mente para imaginar la creación del Universo a partir de una nada cuajada de fluctuaciones cuánticas pre-espaciotemporales. Ya en el Universo actual nos enseña que el vacío es un verdadero hervidero de creación y aniquilación de partículas virtuales que, a distancias del orden de Planck, se convierte en la llamada "espuma" cuántica del espacio-tiempo. En ella nada de lo que conocemos y nos es familiar cuenta pues entramos en los dominios de la desconocida, hasta ahora, gravedad cuántica.
Leer más ...

...................

Radiación de Hawking:
Conforme más sabemos de estas exóticas criaturas estelares, más nos sorprenden. Hemos descubierto que emiten radiación (llamada de Hawking) y no son tan negros como nos los pintaban; que el área de su horizonte de sucesos nos mide toda su entropía y nos delata la magnitud del desorden exterior que ha devorado, y que mueren en medio de un estallido de energía brutal. Parecía que nos lo querían esconder todo, y, sin embargo, nos cuentan cosas que sin ellos nunca habríamos sabido sobre el propio nacimiento del Universo y de su final, pues sus propiedades llevan años alumbrando la dirección que debemos tomar para descubrir la futura teoría de la gravedad cuántica: la llave del pasado y del futuro del Universo.

Leer más ...
................


Gravitación cuántica, distancia fundamental y teoría de cuerdas:
Una propiedad matemática tan elemental como es la no conmutatividad está en la base de lo que será la futura teoría de gravitación cuántica. Los retículos espaciales que sustituyen a las coordenadas no conmutan, es decir si X es el operador cuántico de la coordenada x e Y es el operador de la y, el producto XY es diferente al producto YX. Las coordenadas clásicas son simples números reales que por descontado son conmutables, pues da lo mismo multiplicar las coordenadas xy en ese orden o en el contrario yx. Esta diferencia tan abismal nos da una idea de la nueva complejidad necesaria para poder describir correctamente la realidad del espaciotiempo.

Leer más ...

Un abrazo amigos.

2017/04/25

El ritmo justo del azar


El azar, el puro azar tiene su "ritmo" justo de cambio. Ni más, ni menos. Lo podremos "tentar" ofreciéndole más y más grados de libertad ... él los tomará, pero no conseguiremos ni retrasar, ni acelerar su ritmo bajo ningún concepto. Siempre seguirá fiel a sus "principios", que básicamente son muy sencillos. En cierta forma nos está dando una lección que deberíamos aprender. Referido al movimiento browniano y a su capacidad de recubrir dos dimensiones. Cuando lo trasladamos a dimensiones superiores sigue desplazándose por todas las dimensiones posibles, pero sólo es capaz de seguir recubriendo dos, contra lo que podría parecer.

Cada vez que lanzamos una moneda al azar puede salir cara o cruz, independientemente del resultado que hayamos obtenido en un lanzamiento anterior. Así de simples son las leyes que rigen el puro azar.

A partir de los resultados que vayamos obteniendo en sucesivos lanzamientos podemos confeccionar una tabla como la de la figura, que se corresponde con una tanda de 100 lanzamientos. Esta tabla y la que vamos a considerar, que en general puede contener miles de resultados es algo estático, sin movimiento, pero nos ayudará a desentrañar los entresijos del movimiento al azar que llamamos movimiento browniano, en honor al naturalista escocés Robert Brown que lo observó a principios del siglo XIX, cuando estudiaba suspensiones en el agua de granos de polen y esporas de musgos. Es un movimiento en zig zag, arbitrario, hacia cualquier dirección posible de desplazamiento.

A partir de una tabla, como la de la figura, tomaremos parejas consecutivas de unos y ceros.La primera parte de la pareja será la x y la otra la coordenada y. Los unos significarán "avanza 1" y los ceros querrán decir "retrocede 1". En un plano partiremos del punto (0,0) y conforme vayamos traduciendo la tabla a movimientos en el plano estaremos representando el movimiento aleatorio que hemos llamado browniano.



Azar y dimensión fractal
En un movimiento lineal cada uno de los puntos de su trayectoria viene definido por un solo número que nos indica su distancia al origen, se habla de que tiene una dimensión (el largo). En un plano necesitamos dos números para identificar cada uno de sus puntos, las coordenadas x/y o el largo y el ancho, por lo que decimos que tiene dos dimensiones. El movimiento browniano, como movimiento lineal que es tiene dimensión topológica 1, pero asombrosamente es capaz de recubrir el plano, de llenarlo. De ahí que digamos que su dimensión como fractal sea 2, porque es capaz de recubrir un espacio de dimensión 2. A las figuras tan tortuosas e intrincadas como este movimiento aleatorio, Benoit Mandelbrot las llamó fractales, del latín "fractus" que significa fracturado o roto, discontinuo.Y este movimiento es, sin lugar a dudas, muy buen representante de esta nueva categoría de objetos geométricos omnipresentes en la naturaleza.

Cada momento el movimiento aleatorio avanza o retrocede en sus coordenadas x ó y, independientemente de lo que hiciera en el instante anterior, tiene absoluta libertad para desplazarse a través de cada una de las coordenadas. Esta idea se tiende a trasladar cuando el movimiento ocurre en un espacio de tres dimensiones como nuestro espacio ordinario, o de más dimensiones, y es correcta. De la misma forma tendemos a pensar que, también, en un espacio tridimensional el movimiento browniano será capaz de llenarlo, o cubrirlo, por completo. Esa es la idea que tenía yo al empezar a estudiarlo y la idea que ha tratado de defender algún lector, en alguna ocasión, a capa y espada, pero como demostraremos es una idea equivocada.

La magia del número 2
El valor 2 que caracteriza la dimensión fractal de este movimiento, también se puede definir de una manera muy intuitiva: necesita realizar N2 pasos para alejarse de un punto cualquiera de referencia, sólo, N pasos efectivos. En tres dimensiones debería efectuar N3 pasos totales para alejarse, sólo, N pasos efectivos, pero como veremos eso no depende del número de dimensiones o grados de libertad sino de una característica independiente de las propias del espacio en que se mueve. Para demostrar esto nos fijaremos en la definición intuitiva que relaciona la distancia total con la efectiva.


La distancia total que recorre la partícula animada por un movimiento browniano es proporcional al número de pasos N, sin embargo la distancia efectiva se encontraría después de sumar los desplazamientos positivos y negativos. Para definir el resultado de esa suma existe una medida de dispersión apropiada que llamamos desviación típica, que para la distribución binomial con la que se corresponde el azar como lo hemos considerado resulta ser la raíz_cuadrada(N/4), pues es igual a raíz_cuadrada(Npq), siendo n = p = 1/2, ya que la posibilidad de que salga 0 ó 1 es la misma, y su suma debe ser la unidad.

Después de N pasos, la distancia efectiva para cada dimensión, considerada independiente, será raíz_cuadrada(N/4). Si consideramos 3 dimensiones la distancia efectiva será raíz_cuadrada(3 N/4). Esta magnitud la comparamos con la distancia total recorrida después de los N pasos: N raíz_cuadrada(3). Para N suficientemente grande sólo resulta significativa la comparación entre N y raíz_cuadrada de N, independientemente de que multipliquemos los dos términos por 3, 4, 5, ... d, cualquiera que sean las dimensiones del espacio considerado. De la comparación anterior resulta el valor de 2 de su dimensión fractal, o la consideración de realizar N2 pasos totales para sólo conseguir N efectivos.

RecapitulandoEl movimiento browniano sólo es capaz de recubrir un espacio de 2 dimensiones (un plano). En un espacio de 3 ó más dimensiones su "ritmo" de distanciamiento de cualquier punto arbitrario, que consideremos como referencia, no es lo suficientemente "lento" para poderlo recubrir. Para recubrir un espacio de 3 dimensiones su ritmo de distanciamiento debería ser de N3 pasos totales para recorrer sólo N (dimensión fractal 3), para un espacio de 4 dimensiones serían N4 pasos totales para sólo N efectivos, y así sucesivamente. Sin embargo, el ritmo del movimiento lo imprime la desviación típica de la distribución binomial, que no depende de la dimensión del espacio, y cuyo valor es invariablemente igual a la raíz_cuadrada (N/4). Por eso, sea cualquiera el espacio considerado con tres o más dimensiones la dimensión fractal del movimiento browniano seguirá siendo 2. Para aumentar la dimensión fractal del movimiento deberíamos conseguir que cada nuevo paso tuviera "memoria" del resultado de los pasos anteriores y así disminuir su "ritmo" de alejamiento. Es como si en una carrera de 2 Km. nos obligaran a cumplimentar 200 tareas diferentes a lo largo de diferentes puntos del trayecto. Para una cierta velocidad conseguimos cumplimentar sólo 100 tareas y nos damos cuenta que para cumplimentar las 200 debemos disminuir el ritmo, o de lo contrario será imposible. De la misma manera el azar tiene su "ritmo" y ese ritmo sólo le permite recubrir un plano, no un espacio de 3 ó más dimensiones.

2017/04/03

Sobre la ciencia de la información cuántica


La ciencia de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información.

Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si llegamos a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica sabremos interpretar la complejidad de los sistemas cuánticos.

La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, practicamente todos los objetos que nos encontramos a nuestro alrededor por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico. Esa es la mayor dificultad a la hora de construir un ordenador cuántico, los qubits cuanto más sean tanto más difícil será mantener su coherencia y su funcionamiento cuántico.

Existen fenómenos que ofrecen ejemplos de sistemas cuánticos grandes bien aislados, entre ellos la superconductividad, el efecto Hall cuántico y el condensado de Bose-Einstein. Estos fenómenos demuestran que las reglas sencillas de la mecánica cuántica pueden dar lugar a principios emergentes que gobiernan comportamientos complejos.


El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos, tal como veíamos en el post anterior al definir el qubit. El continuo de estados entre el 0 y el 1 causa muchas de las extraordinarias propiedades de la información cuántica.

Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger, el del famoso gato, el entrelazamiento no era un rasgo característico, sino el rasgo carcterístico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas.

Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, nos proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.


En 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas:
1. Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales (en nuestro caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit).
2.Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso (1).
3.Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2).

La pregunta fundamental de la ciencia de la información dice, pues:¿Cuál es la mínima cantidad de recurso físico (1) que necesitamos para realizar la tarea de procesado de información (2) cumpliendo el criterio de éxito (3)?.

En 1948 Claude E. Shannon resolvió el problema fundamental sobre la información clásica: ¿Cuál es el mínimo número de bits necesarios para almacenar la información producida por una fuente?. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon.La clave de nuestra nueva ciencia la tiene la calibración del entrelazamiento de los qubits(*). Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Podemos analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como estudiamos el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.

Información y física:

Como ya pasó con la entropía termodinámica que se ha demostrado íntimamente relacionada con la cantidad de información soportada por un sistema físico, y que nos ha dado una referencia inestimable para estudiar la propia física de los agujeros negros, y con ellos para avanzar con la intrincada y aún no resuelta gravedad cuántica, el concepto de entrelazamiento en relación con el tratamiento de la información cuántica puede ayudarnos a desentrañar los secretos de la extraña mecánica cuántica. Algo tan etéreo como el concepto de la información parece estar íntimamente relacionado con las leyes más fundamentales de la física.

(*)El E-Bit estándar:

Cuando dos qubits están entrelazados, ya no tienen estados cuánticos individuales. En su lugar, se define una relación entre qubits. En un par de qubits máximamente entrelazado, los qubits dan resultados opuestos cuando se los mide. Si uno da 0, el otro da 1, y viceversa. Un par máximamente entrelazado tiene un "e-bit" de entrelazamiento, una especie de unidad de medida del entrelazamiento de un sistema cuántico.

Algo de "mágia" mecanico-cuántica:

- Si dos monedas pudieran estar "entrelazadas" como dos partículas cuánticas, cada par entrelazado daría el mismo resultado, aún cuando se lanzaran a años luz de distancia o en instantes muy diferentes: una moneda daría cara y la otra cruz.

Fenómenos Cuánticos. Investigación y Ciencia. Temas 31

Nueva edición de un antiguo post, dada la actualidad de la computación cuántica. Un abrazo amigos.