2018/07/11

Algo más sobre los fractales, su dependencia espacial


La dimensión de un fractal está íntimamente relacionada con la manera en que éste se extiende por el espacio. Su dimensión nos da la capacidad del fractal de recubrir un espacio de dimensión topológica superior a la suya, de hecho, una trayectoria fractal de dimensión 2 es capaz de recubrir el plano, y de dimensión 3 el espacio tridimensional. 


Imaginemos que en un espacio de tres dimensiones nos encontramos con una especie de diablillo virtual moviéndose aleatoriamente, con total libertad, y tratando de recubrirlo por completo. Su trayectoria será una línea quebrada, con infinidad de recovecos, cuyo fin será pasar por todos los puntos del espacio. Como línea de trayectoria que es su dimensión topológica será la unidad, pero su capacidad de recubrir el espacio nos indica que estamos ante un objeto geométrico diferente a los típicos objetos euclidianos que hemos estudiado en la escuela, como el punto, la línea o el plano de dimensiones cero, uno o dos. Este tipo de objetos es lo que Benoît Mandelbrot llamaba en 1975 objetos fractales, palabra que inventó a partir del adjetivo latino “fractus” (roto, fracturado). 

Dimensión fractal. La dimensión que define la trayectoria del diablillo ya no es la dimensión clásica de una línea (la unidad), sino que a ella debemos añadir un coeficiente dimensional que nos indica su grado de irregularidad. La suma de los dos coeficientes nos da un nuevo valor dimensional al que llamamos dimensión fractal. En este caso hacemos la siguiente suma: dimensión geométrica clásica (1) + coeficiente dimensional (2) = dimensión fractal (3). 


Dependencia con la distancia. Hay un detalle más que nos da una idea del movimiento que lleva el diablillo. La distancia total que recorre al cabo de N de sus pasos debe ser sólo la raíz cúbica de su alejamiento efectivo a un punto arbitrario, es decir para alejarse una distancia efectiva d, de un punto cualquiera, su recorrido total deberá ser d3. Este exponente (3) nos está dando, también, la dimensión fractal del movimiento. En cierta forma es lógico que sea así, pues el volumen que intersecta y recubre la trayectoria es del orden del cubo de su distancia característica (Volumen = Lado3). 

En una trayectoria espacial fractal: 

(1) Distancia total recorrida = Distancia efectiva(dimensión fractal) 

Siendo la dimensión fractal igual a la dimensión topológica más un coeficiente dimensional positivo, tanto mayor cuanto más intrincado sea el fractal, la expresión (1) quedaría: 

(1) Distancia total recorrida = Distancia efectiva(dimensión topol. + coef. dimensional) 


¿Puede la geometría del espacio modificar la dimensión fractal?.Imaginemos una trayectoria fractal que pasa desde un espacio de 3 dimensiones a otro de 2. En la realidad podría ser el paso gradual de una tubería de 10 cm. x 10 cm. a otra de 0,1 cm. x 1000 cm., del mismo caudal. Para, depende que movimiento, el paso podría suponer cambiar, prácticamente, de 3 a 2 dimensiones. En la nueva situación la dimensión topológica habría descendido en una unidad, por lo que para el mismo coeficiente dimensional (que depende de la irregularidad del fractal), la nueva dimensión fractal sería menor. La disminución de dimensiones topológicas actúa de forma opuesta (restando) a como actúa el coeficiente dimensional (sumando). Al final obtendríamos, en la práctica, un movimiento menos irregular e intrincado. 


Y sobre todo esto, en plan un tanto informal, añado un articulito que se publicó en la web de la Real Sociedad Española de Física, en el foro de debate sobre Física Divertida . Pocos meses antes se había publicado en la revista ImasD de ciencia y tecnología (revista en papel, posteriormente electrónica y hoy desaparecida: www.ImasD-tecnología.com).Otro articulo posterior, también muy sencillo, publicado por la Revista Elementos, de la Universidad Autónoma de Puebla: El sorprendente vacío cuántico. 


El diablo Aleaxis y el efecto de ocultación de masa.
Aleaxis es un simpático e inconsciente diablillo que no para de dar pasos, a tontas y a locas de forma aleatoria, en cualquier dirección del plano. Su trayectoria es discontinua, puede ser representada por una línea quebrada que acabaría recubriendo todo el plano. En su torpeza, para recorrer una distancia efectiva de “n” pasos debe dar como media n x n , es decir n2pasos: su trayectoria, en realidad, representa un fractal, una estructura quebrada y discontinua de dimensión 2, la dimensión fractal que caracteriza al azar puro.

De forma similar, las fluctuaciones de energía del vacío (principio de incertidumbre) representan a otro diablo, esta vez real y poderoso, que hace mucho más interesante nuestro universo. Sin él el vacío estaría vacío, además de parecerlo, sería plano y estaría absolutamente quieto. Este diablo, un tanto escurridizo y nada torpe, arruga el espacio-tiempo y lo convierte en un fractal similar a la trayectoria de Aleaxis. Esta vez, para que nosotros observemos “n pasos” de fluctuación efectiva de energía, el diablo “da“ n x n x n pasos, es decir n3 .

Observando, solamente, los pasos efectivos de Aleaxis y sabiendo que su trayectoria es un fractal podemos inferir que existe un “efecto de ocultación de pasos”. De la misma forma, al observar las fluctuaciones efectivas de energía del vacío (son las únicas que podemos observar) deducimos que hay un poderoso “efecto de ocultación de energía “ (o masa, por el principio de equivalencia entre masa y energía).

El poderoso diablo de las fluctuaciones, además de arrugar el espacio-tiempo, enrolla parte de sus dimensiones para acentuar el “efecto de ocultación”. Si sólo se limitara a arrugarlo las fluctuaciones de la energía interferirían lo suficiente para no dejarnos ver el vacío como tal (al no depender del inverso de la distancia sino de su raiz cúbica). En la realidad dependen del inverso de la distancia: a grandes distancias su valor es despreciable, a pequeñas distancias es impresionantemente grande, contribuyendo a la impresión de un paradójico vacío “superdenso”. El diablo actúa como un verdadero mago: esconde ingentes cantidades de masa, detrás de sus arrugas enrolladas, hasta que hace “aparecer” el vacío. Sólo al acercarnos, “en las pequeñas distancias “, advertimos su truco. 



Reedición de un post de 2009. Un abrazo amigos.

2018/06/16

Nota al margen: Paisaje por el infinito de los números primos

                NDensidad_primos_N     = e     para N tendiendo a infinito

De los números primos sabemos que son infinitos, como ya demostró Euclides sobre el 300 a.C, pero su distribución, aparentemente, aleatoria sigue siendo una incógnita. Sobre el particular conocemos una expresión que nos da su cantidad aproximada hasta un determinado número. Esta expresión se llama teorema de los números primos y nos dice que: 

La cantidad de números primos=(Número)/Logaritmo Neperiano(Número

(La expresión del principio es una forma diferente de esta misma)

Aplicando la fórmula para (Número)=1000, obtenemos 145 primos, cuando en realidad hay 168. Para 5000 nos acercamos un poquito más la expresión nos da 587 y en realidad existen 669, y conforme probamos números mayores nos acercamos más, aunque las cifras convergen muy lentamente: para 1000 el 86,3%, para 5000 el 87,7% y para 50000 el 90%.


Infinito potencial e infinito actual (***):
Se entiende que los números primos sean infinitos, como también lo son los números naturales, y el hecho de que su principal propiedad dependa de que sólo sean divisibles por la unidad o por ellos mismos no plantea ningún problema esencial en el ámbito finito, por muy grandes que sean, pero no parece que pueda ocurrir lo mismo en el infinito… El crecimiento sin fin, lo que Aristóteles llamaba infinito potencial nunca ha planteado grandes problemas en las matemáticas: un número natural siempre tiene otro posterior que es mayor y así podemos seguir sin llegar nunca a un final (infinito). El infinito actual ya ha sido otra cosa. Tuvo que llegar Cantor y la teoría de conjuntos para considerar un infinito en acto:” En el conjunto N de los números naturales, no tiene sentido decir que los elementos de N devienen o que se hacen cada vez más grandes. Están todos allí, simplemente, actualmente (acto/potencia). Todos los conjuntos matemáticos tienen existencia actual, en ese sentido los conjuntos están dados, y con ellos la totalidad de sus elementos (Palacios et al.,1995 Los matematicuentos. ISBN 950-550-182).


Vista del infinito desde el la zona finita:
Cuando escribí el post sobre los números primos como hechos de una pieza, me llamó la atención la cantidad de extensas lagunas que podemos encontrar sin números primos. Conforme se hacen mayores los números primos es de suponer que se encontraran lagunas más y más extensas porque en el límite, conforme consideremos números mayores, la densidad de números primos tiende a cero, tal como se desprende de la expresión del teorema de números primos (densidad para N= 1/Log.Nep.(N) ver nota final). Cada vez más, las lagunas serán más grandes y más frecuentes, se presentarán en todas las combinaciones posibles: ¿muchas pequeñas, muchas grandes, algunas pequeñas con alguna grande, algunas grandes con muchas pequeñas… hasta que la mayor de todas las lagunas tenderá a limitar con el propio infinito?… ¿El infinito, como una especie de agujero negro matemático, sólo puede limitar con una cierta protección que lo separe de lo finito: una inmensa laguna sin números primos?


Vista del infinito desde la zona infinita:
Dado que el conjunto total de los números primos tiene infinitos elementos,el subconjunto de primos infinitos debe ser, a su vez, un conjunto con un número infinito de elementos. Infinitas “piezas” de longitud infinita que, en cierta forma, no se pueden “doblar” ni por la mitad ni por un tercio ni por ninguna de sus partes, porque no tiene partes. Infinitas “barras” con una cierta y perfecta “rigidez” que les confiere su propia longitud: un valor diferente en algunas unidades, más o menos, hará que esa rigidez se rompa y se desmorone en infinitas barras de longitudes diversas, también rígidas (números primos).


En la región de los números primos de valor infinito se irán sucediendo, supuestamente, de una forma igualmente irregular y sin ningún tipo de ley conocida los progresivos números primos:



InfinitoPrimo_n, InfinitoPrimo_n+1, InfinitoPrimo_n+2, ...InfinitoPrimo_n+m…Pero aquí, además, ¿podría ocurrir que entre un primo y su posterior número primo exista una completa sucesión infinita de números naturalesy que a esta le suceda una sucesión finita hasta el siguiente?…


De hecho, tal como indicaba en el post sobre “los números primos, números de una pieza”, en el ámbito finito podemos encontrar tantas lagunas con ausencia de números primos como queramos, y tan grandes como deseemos. Si ello es así, ¿podemos extender las inmensas lagunas finitas que podemos encontrar en el ámbito finito a lagunas infinitas en el ámbito infinito? En ese dominio nunca podremos entrar hasta que no conozcamos más sobre estos fascinantes números. La aleatoriedad que presentan y su infinitud es una combinación capaz de despertar la imaginación de los matemáticos, y siempre supondrá un acicate para estudiarlos y permitir así progresar las matemáticas y la ciencia. 


Reflexiones:
A la vista de estos paisajes infinitos y las reflexiones sobre ellos, una pregunta que me hacía, suponiéndonos en los dominios del infinito”, hasta donde llegan los números primos, ¿entre un número primo y su posterior número primo puede existir una sucesión infinita de números naturales? no se puede plantear así, pues, en el ámbito infinito no pueden sucederse los números primos tal como se suceden en el ámbito finito. Nada es igual:  A un número primo en el ámbito finito le sigue otro primo que resulta de sumar al primero una cantidad finita. En el ámbito infinito se tendrían que sumar cantidades infinitas (o finitas más infinitas) y a partir de sumas infinitas no conseguiríamos nada… infinito más infinito (o más finito) es, también, infinito…


Repitiendo lo dicho más arriba: “Dado que el conjunto total de los números primos tiene infinitos elementos, el subconjunto de primos infinitos debe ser, a su vez, un conjunto con un número infinito de elementos”. Esta reflexión nos presenta un panorama extraño, pues parece indicarnos que la inmensa mayoría de los números primos (los números primos infinitos) permanece alejado de nuestro alcance. La solución creo que está cerca de lo que se indicaba antes al decir: “Cada vez más, las lagunas (de ausencia de primos) serán más grandes y más frecuentes, se presentarán en todas las combinaciones posibles: ¿muchas pequeñas, muchas grandes, algunas pequeñas con alguna grande, algunas grandes con muchas pequeñas… hasta que la mayor de todas las lagunas tenderá a limitar con el propio infinito?… (El número de primos es cada vez menor hasta que en el límite, en el infinito, tiende a cero).

- - - - - - - - - - - - - - - - - - - -      Sobre el infinito actual        - - - - - - - - - - - - - - - - - - - - - - -

(***)El texto de Borges (2002), que es un fragmento del relato “El Aleph”, nos acerca a la idea del infinito actual:
“Aclaró que un Aleph es uno de los puntos del espacio que contiene todos los puntos. [...] –Sí, el lugar donde están, sin confundirse, todos los lugares del orbe, vistos desde todos los ángulos.”

Y más abajo continúa:

Lo que vieron mis ojos fue simultáneo: lo que transcribiré, sucesivo, porque el lenguaje lo es. Algo, sin embargo, recogeré.

En la parte inferior del escalón, hacia la derecha, vi una pequeña esfera tornasolada, de casi intolerable fulgor. Al principio la creí giratoria; luego comprendí que ese movimiento era una ilusión producida por los vertiginosos espectáculos que encerraba. El diámetro del Aleph sería de dos o tres centímetros, pero el espacio cósmico estaba ahí, sin disminución de tamaño. Cada cosa (la luna del espejo, digamos) era infinitas cosas, porque yo claramente la veía desde todos los puntos del universo. Vi el populoso mar, vi el alba y la tarde, vi las muchedumbres de América, vi una plateada telaraña en el centro de una negra pirámide, vi un laberinto roto (era Londres), vi interminables ojos inmediatos escrutándose en mí como en un espejo, vi todos los espejos del planeta y ninguno me reflejó, vi en un traspatio de la calle Soler las mismas baldosas que hace treinta años vi en el zaguán de una casa en Fray Bentos, vi racimos, nieve, tabaco, vetas de metal, vapor de agua, vi convexos desiertos ecuatoriales y cada uno de los granos de arena [...]”. http://funes.uniandes.edu.co/5592/1/FrancoDosconcepcionesAlme2006.pdf


--------------------Nota final sobre densidad de números primos----------------------------------

La expresión que nos da la densidad de los números primos, densidad para N = 1/Log.Nep.(N),  y que supone que para N tendiendo a infinito dicha densidad es cero, nos acerca a una visión un tanto extraña. Los números primos que más conocemos, los que podemos encontrar hasta N=100 ó N=1000, vemos que están intercalados entre los no primos y son, relativamente, numerosos (hasta 1000 hay hasta168 números primos) pero la expresión nos indica que son extremadamente escasos. Si como media existiera  uno entre 1000 millones, su densidad sería 10-9 , si fuera de uno entre un billón su densidad sería de 10-12  y si fuera de uno entre un trillón sería de 10-18. Estos valores aunque pequeñísimos son infinitamente mayores que cero.


2018/05/16

El ritmo justo del azar


El azar, el puro azar tiene su "ritmo" justo de cambio. Ni más, ni menos. Lo podremos "tentar" ofreciéndole más y más grados de libertad ... él los tomará, pero no conseguiremos ni retrasar, ni acelerar su ritmo bajo ningún concepto. Siempre seguirá fiel a sus "principios", que básicamente son muy sencillos. En cierta forma nos está dando una lección que deberíamos aprender. Referido al movimiento browniano y a su capacidad de recubrir dos dimensiones. Cuando lo trasladamos a dimensiones superiores sigue desplazándose por todas las dimensiones posibles, pero sólo es capaz de seguir recubriendo dos, contra lo que podría parecer.

Cada vez que lanzamos una moneda al azar puede salir cara o cruz, independientemente del resultado que hayamos obtenido en un lanzamiento anterior. Así de simples son las leyes que rigen el puro azar.

A partir de los resultados que vayamos obteniendo en sucesivos lanzamientos podemos confeccionar una tabla como la de la figura, que se corresponde con una tanda de 100 lanzamientos. Esta tabla y la que vamos a considerar, que en general puede contener miles de resultados es algo estático, sin movimiento, pero nos ayudará a desentrañar los entresijos del movimiento al azar que llamamos movimiento browniano, en honor al naturalista escocés Robert Brown que lo observó a principios del siglo XIX, cuando estudiaba suspensiones en el agua de granos de polen y esporas de musgos. Es un movimiento en zig zag, arbitrario, hacia cualquier dirección posible de desplazamiento.

A partir de una tabla, como la de la figura, tomaremos parejas consecutivas de unos y ceros.La primera parte de la pareja será la x y la otra la coordenada y. Los unos significarán "avanza 1" y los ceros querrán decir "retrocede 1". En un plano partiremos del punto (0,0) y conforme vayamos traduciendo la tabla a movimientos en el plano estaremos representando el movimiento aleatorio que hemos llamado browniano.



Azar y dimensión fractal
En un movimiento lineal cada uno de los puntos de su trayectoria viene definido por un solo número que nos indica su distancia al origen, se habla de que tiene una dimensión (el largo). En un plano necesitamos dos números para identificar cada uno de sus puntos, las coordenadas x/y o el largo y el ancho, por lo que decimos que tiene dos dimensiones. El movimiento browniano, como movimiento lineal que es tiene dimensión topológica 1, pero asombrosamente es capaz de recubrir el plano, de llenarlo. De ahí que digamos que su dimensión como fractal sea 2, porque es capaz de recubrir un espacio de dimensión 2. A las figuras tan tortuosas e intrincadas como este movimiento aleatorio, Benoit Mandelbrot las llamó fractales, del latín "fractus" que significa fracturado o roto, discontinuo.Y este movimiento es, sin lugar a dudas, muy buen representante de esta nueva categoría de objetos geométricos omnipresentes en la naturaleza.

Cada momento el movimiento aleatorio avanza o retrocede en sus coordenadas x ó y, independientemente de lo que hiciera en el instante anterior, tiene absoluta libertad para desplazarse a través de cada una de las coordenadas. Esta idea se tiende a trasladar cuando el movimiento ocurre en un espacio de tres dimensiones como nuestro espacio ordinario, o de más dimensiones, y es correcta. De la misma forma tendemos a pensar que, también, en un espacio tridimensional el movimiento browniano será capaz de llenarlo, o cubrirlo, por completo. Esa es la idea que tenía yo al empezar a estudiarlo y la idea que ha tratado de defender algún lector, en alguna ocasión, a capa y espada, pero como demostraremos es una idea equivocada.

La magia del número 2
El valor 2 que caracteriza la dimensión fractal de este movimiento, también se puede definir de una manera muy intuitiva: necesita realizar N2 pasos para alejarse de un punto cualquiera de referencia, sólo, N pasos efectivos. En tres dimensiones debería efectuar N3 pasos totales para alejarse, sólo, N pasos efectivos, pero como veremos eso no depende del número de dimensiones o grados de libertad sino de una característica independiente de las propias del espacio en que se mueve. Para demostrar esto nos fijaremos en la definición intuitiva que relaciona la distancia total con la efectiva.


La distancia total que recorre la partícula animada por un movimiento browniano es proporcional al número de pasos N, sin embargo la distancia efectiva se encontraría después de sumar los desplazamientos positivos y negativos. Para definir el resultado de esa suma existe una medida de dispersión apropiada que llamamos desviación típica, que para la distribución binomial con la que se corresponde el azar como lo hemos considerado resulta ser la raíz_cuadrada(N/4), pues es igual a raíz_cuadrada(Npq), siendo n = p = 1/2, ya que la posibilidad de que salga 0 ó 1 es la misma, y su suma debe ser la unidad.

Después de N pasos, la distancia efectiva para cada dimensión, considerada independiente, será raíz_cuadrada(N/4). Si consideramos 3 dimensiones la distancia efectiva será raíz_cuadrada(3 N/4). Esta magnitud la comparamos con la distancia total recorrida después de los N pasos: N raíz_cuadrada(3). Para N suficientemente grande sólo resulta significativa la comparación entre N y raíz_cuadrada de N, independientemente de que multipliquemos los dos términos por 3, 4, 5, ... d, cualquiera que sean las dimensiones del espacio considerado. De la comparación anterior resulta el valor de 2 de su dimensión fractal, o la consideración de realizar N2 pasos totales para sólo conseguir N efectivos.

RecapitulandoEl movimiento browniano sólo es capaz de recubrir un espacio de 2 dimensiones (un plano). En un espacio de 3 ó más dimensiones su "ritmo" de distanciamiento de cualquier punto arbitrario, que consideremos como referencia, no es lo suficientemente "lento" para poderlo recubrir. Para recubrir un espacio de 3 dimensiones su ritmo de distanciamiento debería ser de N3 pasos totales para recorrer sólo N (dimensión fractal 3), para un espacio de 4 dimensiones serían N4 pasos totales para sólo N efectivos, y así sucesivamente. Sin embargo, el ritmo del movimiento lo imprime la desviación típica de la distribución binomial, que no depende de la dimensión del espacio, y cuyo valor es invariablemente igual a la raíz_cuadrada (N/4). Por eso, sea cualquiera el espacio considerado con tres o más dimensiones la dimensión fractal del movimiento browniano seguirá siendo 2. Para aumentar la dimensión fractal del movimiento deberíamos conseguir que cada nuevo paso tuviera "memoria" del resultado de los pasos anteriores y así disminuir su "ritmo" de alejamiento. Es como si en una carrera de 2 Km. nos obligaran a cumplimentar 200 tareas diferentes a lo largo de diferentes puntos del trayecto. Para una cierta velocidad conseguimos cumplimentar sólo 100 tareas y nos damos cuenta que para cumplimentar las 200 debemos disminuir el ritmo, o de lo contrario será imposible. De la misma manera el azar tiene su "ritmo" y ese ritmo sólo le permite recubrir un plano, no un espacio de 3 ó más dimensiones.

Nueva edición de uno de mis post clásicos. Un saludo amigos.



Se ha publicado en la revista AlephZero No. 85: El Ritmo Justo del Azar.


2018/05/03

Tiempo, espacio-tiempo y paradigma holográfico


Conforme avanza nuestro conocimiento sobre el universo aparecen más interrogantes, vuelven las eternas preguntas que se han hecho los filósofos de todos los tiempos, aunque la perspectiva ha cambiado sustancialmente. Los principios básicos que vislumbramos sobre la gravedad cuántica nos indican que el propio espacio-tiempo no es el fundamental, eterno e inmóvil referente que siempre hemos creído sino que emerge de una entidad fundamental discreta (no continua) y su propia geometría debe estar inextricablemente ligada a las relaciones causales entre sucesos.

El libro "The trouble with physics", titulado en español " Las dudas de la física en el siglo XXI. ¿Es la teoría de cuerdas un callejón sin salida?", escrito por un gran físico, Lee Smolin, me hizo pensar en su momento, cuando lo leí, en muchas cosas (es un libro crítico con la teoría de cuerdas y un buen libro de física) pero sobre todo en una de gran calado sobre la propia naturaleza del tiempo. Smolin, reflexionando sobre la futura teoría capaz de armonizar la relatividad general de Einstein y la mecánica cuántica (gravedad cuántica), habla de que tiene la sensación de que tanto una como la otra teoría están profundamente equivocadas sobre la naturaleza del tiempo. Piensa que estamos pasando por alto algo muy importante y esencial sobre el mismo.

¿Solución o problema? El tiempo.
Sitúa el arranque del problema a principios del siglo XVII, cuando Descartes y Galileo introdujeron, de forma realmente genial, el tiempo como una especie de otra dimensión nueva del espacio. En una gráfica situaban el espacio en el eje de las x y el tiempo en el eje de las y, de forma que el propio movimiento aparecía como una curva estática. El movimiento, en cierta forma, se congelaba y el cambio se presentaba estático e inmutable. Desde entonces esta forma de entender el tiempo, según Smolin, ha influido de forma notable en nuestra propia concepción del mismo y, posiblemente, nos ha desviado de su esencia que todavía desconocemos.

Esta reflexión me llevó a escribir el post sobre el ritmo justo del azar. A partir de un conjunto completamente aleatorio de números construimos un movimiento aleatorio browniano cuyo ritmo o velocidad de alejamiento de un punto arbitrario queda perfectamente determinado: cada NxN pasos que da el movimiento sólo lo alejan una distancia efectiva N. Tomemos como tomemos los números aleatorios para construir el movimiento obtendremos el mismo ritmo, una especie de velocidad de alejamiento, obtenida a partir de un conjunto amorfo de números. Establecemos una velocidad fundamental, un ritmo, a los que está ligada tiempo y distancia (pasos). Además este ritmo está directamente relacionado con una característica puramente geométrica, la dimensión fractal de la trayectoria del movimiento.

Universo conexo y paradigma holográfico
Para mi, fenómenos como la no-localidad y la coherencia cuántica nos dan una clave de lo que estamos pasando por alto. No sólo nos equivocamos con el tiempo sino con nuestra percepción de la realidad. La realidad formada por realidades completamente separadas nos ha ayudado a avanzar, a establecer y asentar nuestras verdades científicas, pero quizás ha llegado el momento de considerar que la única forma de seguir adelante sea descartar esa desconexión, si queremos de verdad profundizar en la esencia de nuestro mundo.

¿Es posible que el paradigma holográfico sea el nuevo camino? Personalmente creo que sí, pero no es es significativo porque yo lo crea, sino porque lo piensan así importantes físicos como Jacob D. Bekenstein, el Premio Nobel Gerard `t Hooft, de la Universidad de Utrech, Leonard Susskind, Juan Maldacena, de la Universidad de Harvard, o David Bohm.

Mucho antes de conocer los resultados que da la gravedad cuántica a la singularidad que representa un agujero negro, en base al paradigma holográfico deduje una solución similar (que por otra parte, no es difícil de deducir). De la misma forma que una parte de un holograma, separada del mismo, es capaz de reproducir (aunque con menor nitidez) el holograma completo, supuse que un agujero negro representaba esa misma separación o desconexión del total del universo. En base a esto pensé que en el interior de la singularidad que representa la materia vuelve a proyectarse hacia nuevas regiones del espacio-tiempo, en cierta forma, como un nuevo universo con sus propias características. Siempre siguiendo este hipotético paradigma, se podría suponer que su constante de acción de Planck sería bastante más grande que en el nuestro, lo que supondría una menor definición y mayor incertidumbre (se correspondería con la menor nitidez en la holografía).


Materia-energía e información
No sabemos con total seguridad si todavía existe un nivel de estructuración de la materia aún oculto para nosotros. En este caso los quarks y leptones serían formaciones compuestas de partículas todavía más elementales, pero, independientemente de ese nivel de elementalidad, del estudio de las propiedades de los agujeros negros se han deducido los límites absolutos que acotan la información que cabe en una región determinada del espacio. Teniendo en cuenta que esos límites dependen de la materia y energía contenida en ese espacio es asombroso que se pueda deducir un límite sin conocer ni siquiera, con absoluta certeza, el último componente de la materia.
Sea cual sea el último componente de la materia existe un límite en la información que es capaz de soportar una región determinada del espacio y curiosamente ese límite depende directamente de la superficie capaz de englobar esa región. Si esa superficie la consideramos como el área del horizonte de sucesos de un agujero negro, es como si la información estuviese escrita sobre esta superficie, de suerte que cada bit (cada 0 ó 1 de la codificación digital) correspondiera a 4 áreas de Planck (10 –66 centímetros cuadrados), como en una especie de holograma.

Nueva edición de uno de mis post clásicos. Un abrazo amigos.

2018/03/28

La muerte del Universo


La entropía es un concepto sumamente interesante, y en cierta forma enigmático, ligado al grado de desorden de la materia y la energía de un sistema. El segundo principio de la termodinámica establece que en un sistema cerrado, tal como el propio Universo, sus parámetros característicos se desarrollarán de tal forma que tenderán a maximizarla, es decir, a llevar al sistema a un máximo desorden. Dado que la forma más degradada de energía es la energía térmica, en cualquier sistema cerrado, toda la energía tenderá a acabar de esa manera: en un estado de total equilibrio termodinámico y a una temperatura cercana al cero absoluto, que impedirán cualquier posibilidad de extracción de energía útil. Es la llamada “muerte térmica”, el estado de mayor desorden posible o de máxima entropía.
Nuestro Universo como sistema cerrado está sujeto a ese destino de forma irremediable. La entropía esta aumentando incesantemente en las estrellas tanto como en nuestro planeta. Esto significa que, con el tiempo, las estrellas agotarán su combustible nuclear y morirán, convirtiéndose en masas muertas de materia nuclear. El universo se oscurecerá a medida que las estrellas, una a una, dejen de centellear. Todas las estrellas se convertirán en agujeros negros, estrellas de neutrones o estrellas enanas frías, dependiendo de su masa.
Posteriormente, según las Teorías de Gran Unificación,toda la materia tal como la conocemos, nuestros cuerpos, la Tierra o el sistema solar se desintegrará en partículas más pequeñas tales como electrones y neutrinos.
Después de un periodo, prácticamente inimaginable en nuestra escala temporal, la temperatura del universo se acercará al cero absoluto, pero incluso en un universo desolado y frío, a temperaturas próximas al cero absoluto, existe una última fuente remanente de energía: los agujeros negros. Según Hawking, no son completamente negros, dejan escapar energía lentamente al exterior.Pero ¿y después, cuando los agujeros negros en evaporación hayan agotado la mayor parte de su energía?.
Para un universo según la física clásica la muerte es irremediable, pero para un universo mecanocuántico sujeto a escalas temporales tan formidables no se puede descartar ningún tipo de raro suceso cuántico-cósmico, capaz de trastocar el más triste de los destinos.
El Universo nació con el mínimo de entropía y el máximo orden. En cierta forma partía como un reloj con la máxima cuerda. Conforme avanzamos en el tiempo la cuerda se va acabando y va apareciendo más y más desorden hasta la muerte térmica. Como ejemplo nos valdría imaginar un enorme tubo lleno de monedas perfectamente ordenadas, una encima de otra. Así sería el nacimiento del Universo. Las dejamos caer sobre una gran mesa de forma que todavía tengamos bastantes montoncitos ordenados, por ejemplo, con la cara de las monedas hacia arriba, y la mayoría del resto de las monedas sueltas también con la cara conservando la misma orientación. Esa situación podría asemejarse al estado del Universo actual. Finalmente, si imaginamos el final, estarían todas las monedas sueltas sobre la mesa, sin formar ningún montón y con la orientación de la cara/cruz totalmente aleatoria: un completo desorden.
La probabilística mecánica cuántica no descarta que después de miles de millones, de millones… y millones de años, dando una “palmada a la mesa”, vuelvan a ordenarse nuevamente las monedas de forma “milagrosa”. Es lo que tiene la mecánica cuántica. Parafraseando a Humphrey Bogart, en Casablanca, podríamos decir que “siempre nos quedará la mecánica cuántica”.

Post de mi antigua columna "Ciencias y letras", en Libro de notas.

2018/03/16

La radiación de agujero negro o de Hawking


Por su propia definición los agujeros negros son objetos que se supone que no emiten nada, y durante mucho tiempo científicos de la talla de Stephen Hawking se resistieron a pensar que de ellos pudiera salir cualquier tipo de radiación. Sin embargo el hecho de que el propio Hawking descubriera que el área del horizonte de sucesos de un agujero negro aumentaba cada vez que caía materia, sugirió a un estudiante de investigación en Princeton, llamado Jacob Bekenstein, que dicha área era una medida de la entropía del agujero negro.

Esto impediría que los agujeros negros violaran la segunda ley de la termodinámica, el aumento de entropía o desorden, pero si se admitía que un agujero negro tiene entropía también debería tener una temperatura y y por tanto emitir cierta radiación. La cuestión de la entropía no era vana, pues un agujero negro del que no salga nada, ni presente al exterior ninguna manifestación cuando engulle materia con mucha entropía sugiere una forma demasiado fácil de disminuir la entropía de la materia exterior al mismo. Conforme arrojáramos al agujero materia con gran entropía haríamos disminuir la entropía exterior.

Los primeros cálculos que parecían demostrar que los agujeros negros eran capaces de emitir ciertas radiaciones los efectuaron dos físicos soviéticos, Yakov Zeldovich y Alexander Starobinski al principio de los años setenta. Pero su cálculo se refería a agujeros negros en rotación. Ellos convencieron a Hawking de que, según el principio de incertidumbre mecanocuántico, los agujeros negros en rotación deberían crear y emitir partículas. Hawking mediante un tratamiento matemático mejorado descubrió que no sólo debían emitir partículas los agujeros en rotación sino todos. Lo que le convenció de que la emisión era real fue que el espectro de las partículas emitidas era exactamente el que sería emitido por un cuerpo caliente (aquí, caliente es considerada la temperatura superior al cero absoluto ó 273,15 grados centígrados bajo cero).

Todos los cálculos posteriores que se han hecho confirman que un agujero negro debe emitir partículas y radiación como si fuera un cuerpo caliente con una temperatura que depende solo de la masa del agujero negro: Cuanto mayor es la masa, menor es la temperatura. El origen de esa emisión son las fluctuaciones cuánticas del vacío, pares de partículas que aparecen juntas en cierto instante, se separan y luego se juntan de nuevo y se aniquilan mútuamente. Estas partículas se denominan virtuales y por la conservación de la energía, una de las componentes de un par tendrá energía positiva y la otra negativa. Si la partícula con energía negativa cae en el agujero su compañera con energía positiva tiene la posibilidad de escapar del agujero como una partícula real. Para un observador exterior parecerá haber sido emitida desde el agujero negro.

Cuanto menor es la masa de un agujero negro, más alta es su temperatura, por tanto, a medida que el agujero negro pierde masa, su temperatura y el ritmo de emisión aumentan y con ello pierde masa con mayor rapidez. Se supone que cuando su masa se reduce lo suficiente el agujero negro desaparecerá en un tremendo estallido final de emisión que podría ser equivalente a la explosión de millones de bombas H.

Conforme más sabemos de estas exóticas criaturas estelares, más nos sorprenden. Hemos descubierto que emiten radiación (llamada de Hawking) y no son tan negros como nos los pintaban; que el área de su horizonte de sucesos nos mide toda su entropía y nos delata la magnitud del desorden exterior que ha devorado, y que mueren en medio de un estallido de energía brutal. Parecía que nos lo querían esconder todo, y, sin embargo, nos cuentan cosas que sin ellos nunca habríamos sabido sobre el propio nacimiento del Universo y de su final, pues sus propiedades llevan años alumbrando la dirección que debemos tomar para descubrir la futura teoría de la gravedad cuántica: la llave del pasado y del futuro del Universo.



Hasta siempre








Descanse en paz, el gran científico y mejor persona. Hasta siempre querido profesor Hawking.

2018/03/06

Un café, unas dimensiones extras, las fuerzas fundamentales y la vida


Un café:
Esta mañana, aunque estoy de vacaciones, o precisamente por eso, me he levantado pronto y mientras saboreaba un delicioso café en el bar de mi amigo Juanito, en el Centro Comercial las Américas de Torrent, me ha dado tiempo de "picotear" en dos textos que me han parecido muy interesantes. Curiosamente, versaban los dos sobre las cuatro fuerzas fundamentales, el uno hacía una reflexión sobre la precisión necesaria de sus intensidades para que se haya podido desarrollar la vida en este Universo y el otro sobre la necesidad, presumible, de la existencia de dimensiones extra para explicar lo que les sucede a estas fuerzas capaces de moverlo todo.

Unas dimensiones extras:
Los humanos vivimos en un mundo cuadrimensional, formado por tres dimensiones espaciales, más la temporal que añadió Einstein con su Teoría de la Relatividad. Todo lo que nos sucede se puede explicar en estas cuatro dimensiones, pero parece ser que no ocurre lo mismo cuando se intenta explicar lo que les sucede a las cuatro fuerzas fundamentales que mueven el Universo.

La existencia de dimensiones extra, que no vemos, permitirían la unificación de las fuerzas de la naturaleza, es decir, entender las cuatro fuerzas como una manifestación a diferentes escalas de una única fuerza.

La gravedad, la interacción más débil y paradójicamente la primera en ser formulada, juega un papel muy importante en la búsqueda de esas dimensiones extras. Parece ser que es precisamente esta fuerza la que podría propagarse por estas dimensiones y explicaría por qué es tan bébil: se dispersa en las dimensiones que no vemos en lugar de estar confinada, como sucede con las otras tres fuerzas, a nuestro mundo tridimensional.

Si formulamos la gravedad en un lenguaje cuántico, se habla del gravitón como la partícula portadora de la fuerza gravitatoria, al igual que el fotón lo es de la fuerza electromagnética. Este gravitón nunca se ha podido observar, tal vez porque precisamente se propaga por las dimensiones extras. En los experimentos del LHC, el gran colisionador de hadrones que se pondrá en marcha proximamente en el CERN, se producirán colisiones entre protones a energías muy elevadas. Si en estos choques se produce algún gravitón podremos verlo, no directamente, porque desaparecerá en las dimensiones extras, pero sí por el rastro que dejará en el detector: un chorro de partículas que no tendrían un balance de energía y momento en la dirección opuesta.

Este hallazco significaría el descubrimiento de la nueva física que, a diferencia de descubrimientos anteriores, no desmentiría el modelo actual, el modelo estándar de la física de partículas, sino que lo extendería simplificado a los principios fundamentales. El modelo estándar actual, a pesar de que ha sido capaz de describir la mayoría de los procesos conocidos y predecir otros nuevos, deja demasiados parámetros libres y preguntas por responder. El descubrimiento de nuevas dimensiones y la cuantización de la gravedad serían el primer paso hacia la unificación de todas las fuerzas.

Las fuerzas fundamentales y la vida:
En muchos casos, bastaría un pequeño cambio porcentual en el valor de una constante física, manteniéndose inalteradas las demás, para desarrollarse un Universo inhóspito para la vida.

Fuerza electromagnética.- Si la fuerza electromagnética hubiera sido ligeramente más intensa con respecto a las demás fuerzas fundamentales, todas las estrellas serían enanas rojas y no se habrían formado los planetas. Si la fuerza electromagnética hubiera sido ligeramente menos intensa, todas las estrellas serían muy calientes y, por tanto, de corta vida.

Fuerza nuclear fuerte.- Si la interacción nuclear fuerte hubiera sido ligeramente más intensa, todo el hidrógeno que hubiere en el Universo primitivo se habría convertido en helio; si hubiera sido ligeramente menos intensa, no se habría formado el helio, dejándonos un Universo de sólo hidrógeno.

Fuerza nuclear débil.- Si la fuerza nuclear débil hubiera sido ligeramente más débil, no se habrían desarrollado las supernovas y, por consiguiente, los elementos más pesados no se habrían creado.


Gravedad.- Si la intensidad de la gravedad fuera ligeramente mayor o ligeramente menor que su valor real la vida basada en la química del carbono no podría haber evolucionado. Para un valor ligeramente mayor, sólo podrían existir estrellas enanas rojas, que son demasiado frías para permitir que, en su zona aledaña, hubiera planetas aptos para sustentar la vida. Para un valor ligeramente menor, todas las estrellas serían gigantes azules y persistirían durante un intervalo temporal demasiado corto para que pudiera desarrollarse la vida.

Barry Collins y Stephen Hawking en 1973 llegaron a la conclusión de que debió darse una densidad de energía exactamente equilibrada entre valores que condujeran a un Universo en expansión indefinida (universo abierto) o a un Universo en colapso (universo cerrado), la así llamada densidad crítica. Ni Collins ni Hawking creían que una restricción tan específica fuera mera coincidencia. Pero, ¿cómo explicar ese ajuste fino?. Brandon Carter en 1974 publicó su idea del principio antrópico, que en su forma fuerte sugiere que la existencia del observador impone restricciones sobre las propias constantes físicas; la realidad material no puede existir, a menos que haya observadores para conocerla; el universo tiene que tener aquellas propiedades que permitan que la vida se desarrolle en él dentro de alguna etapa de su historia.

La tesis antrópica, en particular su versión fuerte, fue recibida con desdén por muchos físicos, que no le reconocían estatuto científico. Los cosmólogas se han percatado de que existen muchos contextos en que nuestro Universo podría ser sólo uno (de un conjunto de infinitos posibles) de los universos "paralelos" en los que las constantes físicas varían. Ese conjunto se denomina a veces multiverso.

Nueva edición de la entrada del mismo nombre. Un abrazo amigos.

2018/02/15

La información, el azar y el número Pi


La información se nos presenta como una entidad fundamental, no sólo a nivel de la estructura física de la materia (entropía) sino de la propia estructura de los números trascendentes, tales como Pi , y también del resto de los números irracionales, que constan de infinitos decimales dispuestos de forma aleatoria, como por ejemplo la raíz cuadrada de 2. El azar que encontramos en infinidad de procesos naturales, o en los números, es extraordinariamente difícil de simular de forma artificial, lleva asociado un nivel de información neutro (cero información añadida), que en cierta forma es una restricción poderosa y de gran calado.

El número Pi es, junto con el número e, uno de los números llamados trascendentes más famoso. Es la relación entre la longitud de la circunferencia y su diámetro, y aparece en infinidad de expresiones matemáticas o físicas. Desde la antiguedad, muchas veces por cuestiones prácticas, se ha tratado de calcular el mayor número de decimales para conseguir más precisión en las medidas (en la figura, Arquímedes de Siracusa - 250 a.C - lo calculó con la aproximación: entre 3+10/71 y 3+1/7). Casi a semejanza de los alquimistas que trataban de conseguir la piedra filosofal, los geómetras de todos los tiempos han tratado de hallar la cuadratura del círculo. Actualmente gracias a la potencia de cálculo de nuestros ordenadores se han conseguido millones de sus decimales. Teóricamente tiene infinitos decimales y deben estar situados de forma completamente aleatoria, de manera que al cabo de miles de millones de trillones de decimales que busquemos podremos encontrar cualquier combinación, que convenientemente codificada podría contener: El Quijote, Romeo y Julieta, la Biblia o este propio escrito.

Existen varias páginas que encuentran cualquier combinación de números entre las cifras de Pi, y nos dicen a partir de qué decimal se puede encontrar. Al reflexionar sobre ello, pensé que se podría codificar, de forma ventajosa, cualquier información sobre esta base y me puse manos a la obra. Busqué la posición de una codificación al azar, el número 11, y la encontré a partir del decimal 94. El número 111 a partir del decimal 153 y así hasta el 11111111 que se encuentra a partir de la posición 159 090 113, en la ristra de decimales del número Pi. Pronto me di cuenta de que no significaba ninguna simplificación pues para dar la posición dentro de Pi de un determinado código, se necesitarían, en general, un número de dígitos igual o superior a la propia codificación que se busca. Repetí la búsqueda para la codificación 121212 que se encuentra a partir de la posición 241 987 (seis dígitos para definir la búsqueda del código 121212) : 3,14 .......28979301308065657163 121212 07914290705421508889........ En base a esta suposición el Quijote se encontraría codificado, en los dígitos del número Pi, alrededor del decimal 4x101000000 (un 4 seguido de un millón de ceros), más o menos.

En cierta forma, podríamos decir que la información mínima ni se crea ni se destruye, simplemente se transforma. El azar no debe llevar implícitamente ninguna información que pueda después utilizarse y esto lo encontramos en infinidad de procesos naturales, o en los números. Supongo que debe ser así, pues no sería lógico que pudiésemos codificar El quijote, por dar un código como ejemplo, con otro código mucho menor, irrazonablemente menor. Si codificamos y comprimimos ese código, la forma de indicar su posición dentro de Pi deberá contener una información similar. Al menos eso es lo lógico, y en base a esa lógica de cero información añadida, o información neutra, deben estar distribuidos al azar los dígitos de Pi y de los innumerables números irracionales con infinitos dígitos.


Nueva edición del post de fecha 27/06/2011. Un saludo amigos.

2018/02/01

Parábolas y catástrofes

 No es posible encontrar una noción mas estética que la reciente
Teoría de las Catástrofes de René Thom, que se aplica tanto a la
geometría del ombligo parabólico como a la deriva de los continentes.
La Teoría de René Thom ha encantado todos mis átomos desde que la
conocí ....
Dalí, 1985.

La teoría topológica de las singularidades y bifurcaciones, conocida como Teoría de Catástrofes (TC), fue introducida por el matemático y filósofo francés René Thom para estudiar los saltos o cambios que se producen en los sistemas dinámicos. Estudia desde el punto de vista matemático lo que vulgarmente se conoce como la "gota que colma el vaso", esa mínima gota que provoca que el agua se derrame y se pase de un estado inestable a otro estable.


Intuitivamente, y de forma simplificada (topología “superelemental”), los puntos interiores de un conjunto continuo serían puntos regulares y los puntos que forman su frontera serían puntos catastróficos. Los puntos regulares están rodeados de puntos que tienen la misma apariencia cualitativa en los que no "ocurre nada", todo sigue igual (continuidad). En lospuntos de la frontera o catastróficos siempre"ocurre algo", pasa de haber una continuidad del sistema a encontrarnos con un cambio radical.__Esta distinción entre puntos regulares y catastróficos es preliminar no sólo para la teoría de las catástrofes, sino para cualquier disciplina que establezca descripciones sobre cualquier forma teórica__. René Thom demostró que para los sistemas en los que interviene una o dos variables y en los que influyen hasta cuatro parámetros (tiempo, temperatura, gradientes...), hay siete rupturas o catástrofes elementales (morfologías o formas), a las que se han dado nombres muy plásticos e intuitivos: pliegues, cúspides, colas de milano, mariposas y ombligos elíptico, hiperbólico y parabólico.


En palabras suyas:" La TC se esfuerza por describir las discontinuidades que pudieran presentarse en la evolución del sistema.. Intuitivamente, se admite que la evolución global de un sistema se presenta como una sucesión de evoluciones continuas, separadas por saltos bruscos de naturaleza cualitativamente diferente. Para cualquier tipo de evolución continua subsiste el marco del tipo diferencial clásico, pero los saltos hacen que se pase de un sistema diferencial a otro. Se salta de una evolución continua descrita por un sistema de ecuaciones diferenciales a otra evolución continua descrita por otro sistema y no se puede excluir que un número finito de sistemas no sea suficiente para describir la situación por completo." Realmente, aclara que más que una teoría, es una metodología, o acaso una especie de lenguaje, que permite organizar los datos de la experiencia en las condiciones más diversas.


René Thom ha sabido acercar las Matemáticas a las «morfologías», y ha estudiado con herramientas topológicas la aparición, la estabilidad y la desaparición de formas; ha encontrado el sentido de las cosas, en tanto en cuanto son formas o morfologías, a partir de ciertos invariantes que son las rupturas o singularidades. Así ha podido clasificar las maneras de proceder ante esas rupturas –las famosas «catástrofes» elementales– en sistemas dinámicos, tan variados que pueden ser físicos, linguísticos, biológicos o sociales.



A pesar del fracaso –según los cánones del positivismo– de la TC como teoría científica aplicada, Thom ha abierto las matemáticas a las formas o morfologías del mundo, con el fin de comprenderlo, de encontrar su sentido, y no sólo movidas por el interés de predecir sucesos, clásico ejercicio decimonónico de la ciencia. Y ha empezado a mostrar su poder para hacerlo al permitir acercarse a través de muchos de su conceptos fundamentales –estabilidad estructural, bifurcaciones, atractores...– a la comprensión de fenómenos naturales tan complejos y tan corrientes como «la forma de una nube, la caída de una hoja, la espuma de un vaso de cerveza».



-->Libro : "Parábolas y catástrofes", de René Thom. Una larga entrevista en la que consigue aclarar el sentido profundo de las analogías ("parábolas") que explican algunos de los más enigmáticos y fascinantes fenómenos discontínuos (o "catástrofes"). René Thom, en los años setenta, desafió en su propio terreno a físicos y biólogos, a economistas y lingüistas, proponiendo, con su teoría de catástrofes, una nueva manera de considerar todas las transformaciones que se producen de modo brusco, imprevisto, dramático.


-->Web : Matemáticas y ciencias morfológicas. Homenaje a René Thom.

Reedición de un antiguo post de 2007. Os añado una pequeña reflexión humorística sobre el tema. 

La estupidez y la teoría de catástrofes


Normalmente, lo que vivimos en un determinado momento es capaz de ser predicho con un margen razonable , lo que origina una cierta conciencia de continuidad (normalidad) . Esta continuidad suele ser rota por acontecimientos inesperados que, en muchas ocasiones por nuestra propia ignorancia, solemos meter en una especie de saco llamado azar. Un porcentaje de estos suele tener el origen en la estupidez humana.

La vida se compone de una parte racional, continua y ,por tanto, esperada y de otra parte discontinua que, en muchos casos, la enriquece. La estupidez puede ser muy destructiva (a priori casi siempre lo es) , pero la ruptura que introduce puede tener efectos enriquecedores y muy positivos. En este sentido puede entenderse su contribución no como “motor” sino como moduladora de los acontecimientos. El motor creo que siempre es la voluntad.

La rotura de la continuidad es estudiada por la llamada teoría de las catástrofes (entendiendo por catástrofe la simple ruptura de esa continuidad). En ese sentido la estupidez como la capacidad opuesta a la razón , y a la continuidad que ella representa, podría entenderse como catastrófica.

Catástrofes aparte, el mejor libro escrito nunca sobre la estupidez humana es, sin duda, el libro del profesor italiano Carlo M. cipolla:"Allegro ma non troppo". Incluye dos ensayos, "El papel de la pimienta en el desarrollo económico de la Edad Media" y "Las leyes fundamentales de la estupidez humana", cuya Primera ley Fundamental dice así: "Siempre e inevitablemente cada uno de nosotros subestima el número de indivíduos estúpidos que circulan por el mundo". Es un librito de 85 páginas editado por Mondadori (1999), ISBN:8439703058.