2009/03/20

El ritmo justo del azar

El azar, el puro azar tiene su "ritmo" justo de cambio. Ni más, ni menos. Lo podremos "tentar" ofreciéndole más y más grados de libertad ... él los tomará, pero no conseguiremos ni retrasar, ni acelerar su ritmo bajo ningún concepto. Siempre seguirá fiel a sus "principios", que básicamente son muy sencillos. En cierta forma nos está dando una lección que deberíamos aprender. Referido al movimiento browniano y a su capacidad de recubrir dos dimensiones. Cuando lo trasladamos a dimensiones superiores sigue desplazándose por todas las dimensiones posibles, pero sólo es capaz de seguir recubriendo dos, contra lo que podría parecer.

Cada vez que lanzamos una moneda al azar puede salir cara o cruz, independientemente del resultado que hayamos obtenido en un lanzamiento anterior. Así de simples son las leyes que rigen el puro azar.


A partir de los resultados que vayamos obteniendo en sucesivos lanzamientos podemos confeccionar una tabla como la de la figura, que se corresponde con una tanda de 100 lanzamientos. Esta tabla y la que vamos a considerar, que en general puede contener miles de resultados es algo estático, sin movimiento, pero nos ayudará a desentrañar los entresijos del movimiento al azar que llamamos movimiento browniano, en honor al naturalista escocés Robert Brown que lo observó a principios del siglo XIX, cuando estudiaba suspensiones en el agua de granos de polen y esporas de musgos. Es un movimiento en zig zag, arbitrario, hacia cualquier dirección posible de desplazamiento.

A partir de una tabla, como la de la figura, tomaremos parejas consecutivas de unos y ceros.La primera parte de la pareja será la x y la otra la coordenada y. Los unos significarán "avanza 1" y los ceros querrán decir "retrocede 1". En un plano partiremos del punto (0,0) y conforme vayamos traduciendo la tabla a movimientos en el plano estaremos representando el movimiento aleatorio que hemos llamado browniano.



Azar y dimensión fractal
En un movimiento lineal cada uno de los puntos de su trayectoria viene definido por un solo número que nos indica su distancia al origen, se habla de que tiene una dimensión (el largo). En un plano necesitamos dos números para identificar cada uno de sus puntos, las coordenadas x/y o el largo y el ancho, por lo que decimos que tiene dos dimensiones. El movimiento browniano, como movimiento lineal que es tiene dimensión topológica 1, pero asombrosamente es capaz de recubrir el plano, de llenarlo. De ahí que digamos que su dimensión como fractal sea 2, porque es capaz de recubrir un espacio de dimensión 2. A las figuras tan tortuosas e intrincadas como este movimiento aleatorio, Benoit Mandelbrot las llamó fractales, del latín "fractus" que significa fracturado o roto, discontinuo.Y este movimiento es, sin lugar a dudas, muy buen representante de esta nueva categoría de objetos geométricos omnipresentes en la naturaleza.

Cada momento el movimiento aleatorio avanza o retrocede en sus coordenadas x ó y, independientemente de lo que hiciera en el instante anterior, tiene absoluta libertad para desplazarse a través de cada una de las coordenadas. Esta idea se tiende a trasladar cuando el movimiento ocurre en un espacio de tres dimensiones como nuestro espacio ordinario, o de más dimensiones, y es correcta. De la misma forma tendemos a pensar que, también, en un espacio tridimensional el movimiento browniano será capaz de llenarlo, o cubrirlo, por completo. Esa es la idea que tenía yo al empezar a estudiarlo y la idea que ha tratado de defender algún lector, en alguna ocasión, a capa y espada, pero como demostraremos es una idea equivocada.

La magia del número 2
El valor 2 que caracteriza la dimensión fractal de este movimiento, también se puede definir de una manera muy intuitiva: necesita realizar N2 pasos para alejarse de un punto cualquiera de referencia, sólo, N pasos efectivos. En tres dimensiones debería efectuar N3 pasos totales para alejarse, sólo, N pasos efectivos, pero como veremos eso no depende del número de dimensiones o grados de libertad sino de una característica independiente de las propias del espacio en que se mueve. Para demostrar esto nos fijaremos en la definición intuitiva que relaciona la distancia total con la efectiva.


La distancia total que recorre la partícula animada por un movimiento browniano es proporcional al número de pasos N, sin embargo la distancia efectiva se encontraría después de sumar los desplazamientos positivos y negativos. Para definir el resultado de esa suma existe una medida de dispersión apropiada que llamamos desviación típica, que para la distribución binomial con la que se corresponde el azar como lo hemos considerado resulta ser la raíz_cuadrada(N/4), pues es igual a raíz_cuadrada(Npq), siendo n = p = 1/2, ya que la posibilidad de que salga 0 ó 1 es la misma, y su suma debe ser la unidad.

Después de N pasos, la distancia efectiva para cada dimensión, considerada independiente, será raíz_cuadrada(N/4). Si consideramos 3 dimensiones la distancia efectiva será raíz_cuadrada(3 N/4). Esta magnitud la comparamos con la distancia total recorrida después de los N pasos: N raíz_cuadrada(3). Para N suficientemente grande sólo resulta significativa la comparación entre N y raíz_cuadrada de N, independientemente de que multipliquemos los dos términos por 3, 4, 5, ... d, cualquiera que sean las dimensiones del espacio considerado. De la comparación anterior resulta el valor de 2 de su dimensión fractal, o la consideración de realizar N2 pasos totales para sólo conseguir N efectivos.

Recapitulando
El movimiento browniano sólo es capaz de recubrir un espacio de 2 dimensiones (un plano). En un espacio de 3 ó más dimensiones su "ritmo" de distanciamiento de cualquier punto arbitrario, que consideremos como referencia, no es lo suficientemente "lento" para poderlo recubrir. Para recubrir un espacio de 3 dimensiones su ritmo de distanciamiento debería ser de N3 pasos totales para recorrer sólo N (dimensión fractal 3), para un espacio de 4 dimensiones serían N4 pasos totales para sólo N efectivos, y así sucesivamente. Sin embargo, el ritmo del movimiento lo imprime la desviación típica de la distribución binomial, que no depende de la dimensión del espacio, y cuyo valor es invariablemente igual a la raíz_cuadrada (N/4). Por eso, sea cualquiera el espacio considerado con tres o más dimensiones la dimensión fractal del movimiento browniano seguirá siendo 2. Para aumentar la dimensión fractal del movimiento deberíamos conseguir que cada nuevo paso tuviera "memoria" del resultado de los pasos anteriores y así disminuir su "ritmo" de alejamiento. Es como si en una carrera de 2 Km. nos obligaran a cumplimentar 200 tareas diferentes a lo largo de diferentes puntos del trayecto. Para una cierta velocidad conseguimos cumplimentar sólo 100 tareas y nos damos cuenta que para cumplimentar las 200 debemos disminuir el ritmo, o de lo contrario será imposible. De la misma manera el azar tiene su "ritmo" y ese ritmo sólo le permite recubrir un plano, no un espacio de 3 ó más dimensiones.

2009/03/04

Cuántica fácil (II).Lo clasico y lo cuantico, ecuación de Schrödinger y unificación

La resistencia a la compresión de los átomos, al contrario de lo que pueda parecer, es un efecto cuántico. Al comprimir un material, los átomos cada vez están más próximos y se obliga a confinar a sus electrones en regiones cada vez más pequeñas. Al disminuir el espacio, por el principio de incertidumbre, los electrones reaccionan moviéndose cada vez más rápido ( la variación de [espacio] más pequeña implica que el producto [masa] x [velocidad] sea más grande), lo que conlleva una mayor energía cinética. Se necesita una energía cada vez mayor para continuar comprimiendo los átomos. Consecuencia: la resistencia a la compresión por parte de los átomos es un efecto cuántico y no clásico. Curiosamente, la propia cohesión de la materia no se puede explicar con la física clásica. Atendiendo a principios puramente clásicos la estabilidad de la materia que conocemos sería, practicamente, imposible. ( Ver)

La ecuación de Schrödinger
De acuerdo con el principio de incertidumbre, las partículas no tienen posiciones y momentos bien definidos. En general, esta teoría no predice un único valor como resultado de una medida. En su lugar, predice un conjunto de posibles resultados cada uno con una cierta probabilidad. El comportamiento de una partícula viene descrito por la función de onda asociada, que, a su vez, está relacionada con la probabilidad de que la partícula esté en un estado determinado. La ecuación de Schrödinger proporciona un método para determinar estas probabilidades. Si en un momento dado, conocemos la función de ondas, la ecuación de Scherödinger predice su evolución de modo totalmente determinista. El indeterminismo sólo aparece cuando tratamos de medir en qué estado se encuentra la partícula.

Electrodinámica cuántica
Las partículas subatómicas suelen moverse a velocidades próximas a la luz, por lo que su descripción cuántica tiene que ser compatible con la relatividad especial. La electrodinámica cuántica cumple estos requisitos, y suministra unos resultados de una coincidencia extraordinaria con los experimentos en todo lo que se refiere al estudio de la interacción de la luz con la materia o, más específicamente, de la luz con los electrones. En esta teoría, sólo interviene la interacción electromagnética, que es la que juega un papel relevante. Una de las grandes predicciones de esta teoría fue realizada en 1929 por Dirac sobre la existencia de la antimateria.


Unificación
La mecánica cuántica ha conducido a una visión más unificada al considerar las partículas y los campos, como el gravitatorio y el electromagnético. Cuánticamente, la energía y el momento del campo electromagnético vienen en paquetes (cuantos), que denominamos fotones, y que se comportan como partículas, aunque sin masa en reposo. En el caso del campo gravitatorio, los cuantos se llaman gravitones. La distinción entre fuerza y materia (partículas de fuerza o bosones y de materia o fermiones(*)) se ha hecho menos rígida; cualquier partícula puede utilizarse como cuerpo de prueba sobre la que actúan las fuerzas y, recíprocamente, puede actuar como partícula mediadora dando lugar a fuerzas.

Sin embargo existe una dificultad para unificar la gravitación con las otras tres fuerzas, pues el principio de incertidumbre no se ha logrado incorporar a la formulación de la interacción gravitatoria (su cuantificación da lugar a la aparición de infinitos). Como paso previo se necesita combinar la relatividad general, que es la teoría más completa sobre la gravitación, con dicho principio. Esta combinación puede hacer que desaparezca la singularidad predicha por la relatividad general en el origen del Universo y que los agujeros negros permitan que algo pueda escapar de su interior (gravedad cuántica). Una teoría en que se combine la cuantización con la gravedad, requiere de un espaciotiempo tanto deformable como probabilístico, lo que se ha hecho difícil de poder concretar. En la teoría de las supercuerdas, la fusión es lograda imaginándose que el último eslabón de la materia está constituido por diminutas cuerdas. En la teoría de la gravedad cuántica de lazos, la fusión es intentada imaginándose que el espacio en sí mismo consiste en diminutos lazos móviles. Se ha considerado la posibilidad de que el espaciotiempo sondeado a diminutas escalas de longitud esté cuantizado en discretos y diminutos volúmenes semejantes a pliegues conformados por pequeños lazos.

En palabras del propio Einstein:" Pensamientos e ideas, no fórmulas, constituyen el principio de toda teoría física. Las ideas deben, después, adoptar la forma matemática de una teoría cuantitativa, para hacer posible su confrontación con la experiencia". Detrás de cualquiera de las ideas válidas que nos harán avanzar, se encuentran principios de simetrías. Estos principios permiten establecer que las leyes de la física no dependen de la orientación ni de la posición. Las leyes deben adoptar la misma forma para observadores que se muevan o no a velocidad constante, sea cual sea su sistema de referencia.La teoría final del todo descansará en principios complejos de simetría capaces de unificar las cuatro interacciones y la mecánica cuántica.

(*)Las partículas de fuerza o bosones se llaman así en honor de Satyendranath N.Bose. Los fermiones o partículas de materia deben su nombre a Enrico Fermi.

2009/02/20

Física cuántica fácil (I)

Lo continuo y lo discreto
Ciertas magnitudes varían de forma continua, mientras otras lo hacen de forma discreta o discontinua. Al pesar grandes cantidades de granos de arroz, se pueden considerar sus masas como continuas, aunque es evidente su composición granular. Sin embargo, si analizamos pequeñas cantidades de arroz, usando una balanza de gran precisión, tenemos que tener en cuenta el hecho de que la masa varía a saltos; la magnitud mínima de cada salto es el peso de un grano de arroz, aproximadamente 0,025 gramos. Cada uno de estos pasos mínimos indivisibles es lo que denominamos cuantos elementales de la magnitud en cuestión. En este ejemplo, el peso de un grano de arroz sería el cuanto elemental.

A principios del siglo XX, Max Planck sugirió que la radiación electromagnética estaba formada por pequeños paquetes, o cuantos de energía indivisibles, que, posteriormente, se denominaron fotones. Su valor sería igual a una constante llamada h (mínima acción de Planck) multiplicada por la frecuencia de la radiación. Algunos años más tarde Einstein, basándose en esta idea, proporcionó una explicación satisfactoria de la extracción de electrones de un metal por la luz que incide sobre el mismo, en lo que se llama efecto el efecto fotoeléctrico.

Principio de complementariedad
En general, el comportamiento de las partículas subatómicas no se puede explicar con los conceptos clásicos de partículas y ondas del mundo macroscópico. Bohr expresó esta idea básica nueva con su principio de complementariedad. La concepción corpuscular y la descripción ondulatoria, que siempre se habían creído excluyentes, son complementarias. Se necesitan los dos conceptos para tener una descripción completa sobre las partículas subatómicas, tales como protones o electrones, pues se comportan, según las circunstancias, como ondas o como partículas. Pueden difractarse por una red cristalina, lo que constituye un fenómeno típicamente ondulatorio. De acuerdo con la hipótesis de De Broglie, toda partícula tiene asociada una onda, cuya longitud característica es inversamente proporcional a su momento lineal (masa x velocidad).

Principio de incertidumbre
Las magnitudes asociadas a las partículas subatómicas no están siempre bien definidas. Por ejemplo, si conocemos la posición de un electrón o un fotón, su momento lineal no está bien definido. Podemos realizar un experimento para encontrar la posición y otro para medir su momento, pero estas dos medidas se excluyen mutuamente; esto es, no se pueden determinar simultáneamente la posición y el momento de una partícula cuántica. Este hecho tan asombroso constituye el llamado principio de incertidumbre de Heisenberg.

Para entender las razones de esta incertidumbre, consideremos que deseamos hallar la posición de un electrón. Para saber dónde se encuentra necesitamos observarlo enviando, por ejemplo, un fotón que se refleje en el electrón. Pero el electrón tiene una masa muy pequeña, por lo que el fotón tiene suficiente energía para hacerlo retroceder en una dirección impredecible. Por tanto, no importa lo cuidadoso que seamos al tratar de medir la posición exacta del electrón, siempre introduciremos una indeterminación en la velocidad y momento del electrón.

Una forma de establecer este principio es afirmar que las cantidades medibles están sometidas a fluctuaciones impredecibles que hacen que sus valores no estén bien determinados. Las magnitudes aparecen reunidas en parejas incompatibles tales como posición y momento, energía y tiempo, etc. La incertidumbre en la medida de una de estas magnitudes multiplicada por la incertidumbre de la correspondiente en la pareja no puede ser nunca menor que h. Puesto que h tiene un valor muy pequeño, el grado de indeterminación es sólo importante en el mundo subatómico, aunque, en principio, se aplica a todos los sistemas. Para la física clásica la constante h no tiene ningún sentido, por lo que la incertidumbre puede ser, perfectamente, cero (como cero es la mínima acción considerada para la física clásica de Newton).

Principio de incertidumbre para la energía. Pares de partículas virtuales
De este principio se deriva que cuanto menor es el tamaño de la región que queremos explorar, mayor es el momento y, en consecuencia, la energía para poder hacerlo. Por esta razón, para estudiar regiones muy pequeñas se necesitan partículas con una gran energía; de ahí, la necesidad de contar con grandes aceleradores de partículas.


Análogamente, existe una incertidumbre relacionada con la energía y el tiempo. No podemos conocer con toda precisión la energía que tiene un sistema mecanocuántico en un instante determinado. La incertidumbre en el valor de la energía del sistema multiplicado por la incertidumbre del valor del instante de tiempo en que se realiza la medida tiene que ser nuevamente mayor que la constante de Planck. Si tenemos en cuenta la famosa ecuación de equivalencia entre masa y energía E = mc2, la incertidumbre en la medida de la energía se traduce en incertidumbre en el valor de la masa del sistema. En un instante muy corto de tiempo, no podemos estar seguros de cuál es la masa de nuestro sistema. La materia puede aparecer y desaparecer espontáneamente en el vacío. Puesto que siempre que aparece una partícula de materia se debe crear otra de antimateria, el tiempo durante el cual puede existir el par partícula-antipartícula es extraordinariamente corto; tanto menor cuanto mayor es la masa de las partículas. Aplicando la expresión del principio de incertidumbre para un par electrón-positrón se obtiene que este intervalo es de 6.5x10-22 seg. Este proceso puede ocurrir en cualquier sitio y en cualquier instante de tiempo, pero sólo durante un intervalo de tiempo extraordinariamente corto. Por ello es imposible una observación directa de estas partículas, aunque se pueden detectar sus efectos. Esta es la razón por lo que a estos pares de partícula-antipartícula se les da el nombre de virtuales.

Del libro "Física para jusristas, economistas... y demás gente curiosa", de Roberto González Amado (Catedrático de física aplicada en la Universidad Carlos III de Madrid). Ed. Critica. Barcelona 1996.

2009/02/10

Entalpía y entropía, la física de la vida

Cuando mis obligaciones me lo permiten me paso por la librería París-Valencia de la Gran Vía del Marqués del Turia (Valencia), la de la calle Pelayo o la de la Glorieta. Allí suelo encontrar verdaderas oportunidades en libros científicos (y en cualquier otro tipo de libros). El otro día encontré un hermoso libro muy bien encuadernado, con buenas ilustraciones a todo color y no menos llamativas y detalladas explicaciones sobre los procesos básicos de la vida. En la primera de las seis partes de que se compone comienza con una introducción a las reacciones químicas de la célula, y habla sobre las variables termodinámicas de estado, entalpía y entropía, esenciales para comprender este tipo de reacciones. Precisamente sobre esto hablaremos en este post, sobre los factores energéticos que influyen y posibilitan las reacciones bioquímicas y, por tanto, la propia vida.


La vida y la energía:
La vida es un complejo proceso físico-químico en el que están implicadas miles de reacciones diferentes que se llevan a cabo de un modo organizado. Estas reacciones se llaman reacciones metabólicas y al conjunto de ellas metabolismo. Las estrategias que han debido perfeccionarse a lo largo de millones de años de evolución son ciertamente elegantes y fascinantes, pero la consideración fundamental ante cualquier aspecto relacionado con la vida viene referido a una serie de aportes o pérdidas de energía. Son, pues, las consideraciones energéticas las que determinan si una reacción se puede producir a velocidad significativa, o si la misma puede o no producirse en sentido opuesto.

Entalpía H(*):
En los sistemas moleculares del interior de las células, donde tienen lugar las reacciones químicas, las variaciones de energía no son tan evidentes como en los sistemas físicos más usuales y sencillos sujetos a cambios de energía potencial y cinética, como puedan ser los que se refieren a movimientos de cuerpos en un campo gravitatorio. Un sistema químico comprende una gran cantidad de moléculas diferentes que contienen una cierta cantidad de energía en función de su estructura. Esta energía puede ser descrita como el contenido en calor o entalpía (H) de la molécula. Cuando una molécula se transforma en una estructura diferente mediante una reacción química, su contenido energético puede cambiar. Su variacion de entalpía puede ser negativa, cuando se pierde calor de la molécula, y éste se libera elevando la temperatura exterior, o positiva, cuando se capta calor del exterior.


A primera vista, parece sorprendente que puedan producirse reacciones con una variación de entalpía positiva, lo que podría compararse, en cierta forma, con un cuerpo que se elevara a sí mismo del suelo, absorbiendo la energía necesaria del exterior espontáneamente. Precisamente, en las reacciones químicas una variación negativa de la entalpía favorece la reacción, mientras que una variación positiva tiene el efecto opuesto. De todas formas, la variación de la entalpía no es el único árbitro que determina la viavilidad de las reacciones, la variación de la entropía (S) tiene mucho que decir en el asunto.

Entropía (S):
La entropía puede definirse como el grado de desorden de un sistema. En una reacción bioquímica, este desorden puede adoptar tres formas:

- Las moléculas no suelen ser rígidas ni permanecer fijas, por lo que pueden vibrar, girar o rotar. Cuanto mayor es la libertad para consentir estos movimientos moleculares, mayor es el desorden o la entropía.
- En un sistema bioquímico están implicadas un gran número de moléculas individuales que pueden encontrarse distribuidas de modo disperso y desordenado o adoptar algún tipo de disposición ordenada como ocurre en gran medida en las células vivas.
- El número de moléculas individuales o iones pueden cambiar como resultado de la transformación química. Cuanto mayor es su número, mayor es el desorden y por tanto la entropía.

Tanto la variación de entalpia como la variación de la entropía intervienen en la decisión para determinar si una reacción química puede producirse o no:

- Pérdida de entalpía y ganancia de entropía => refuerzan ambos la decisión: SÍ a la reacción química.

- Ganancia de entalpía y pérdida de entropía => refuerzan ambos la decisión: No a la reacción química.


Energía libre (G):
Sin embargo, en los sistemas biológicos es difícil si no imposible, en muchas ocasiones, medir el término de la variación de entropía. La solución se hace más fácil con la introducción del concepto de energía libre de Gibbs que combina los dos términos en uno solo. El cambio de energía libre o G, según Gibbs, viene dado por la expresión: (variación de G) = (variación de H) - T (variación de S), donde T es la temperatura absoluta. Esta ecuación se aplica a los sistemas en los que la temperatura y la presión permanecen constantes durante el proceso, como es el caso de los sistemas biológicos.

Al hablar de energía libre nos referimos a energía disponible para realizar un trabajo útil. Representa la máxima cantidad de energía procedente de una reacción química disponible para realizar trabajo útil. Este incluye la contracción muscular, la síntesis química en la celula y los trabajos osmóticos y eléctrico, sus valores se expresan en unidades de calorías o julios ( 1 caloría = 4,19 julios) por unidades de masa molecular.

El término de mayor importancia:
La variación de energía libre es el término de mayor importancia termodinámica en una reacción, hasta tal punto que sólo puede ocurrir si dicha variación de energía libre es negativa, es decir, si en las condiciones predominantes los productos de la reacción tienen menos energía libre que los reactivos.


(*)Entalpía termodinámica:

La entalpía (simbolizada generalmente como "H", también llamada contenido de calor, y calculada en Julios en el sistema internacional de unidades o también en kcal ), es una variable de estado, (lo que quiere decir que, sólo depende de los estados inicial y final) que se define como la suma de la energía interna de un sistema termodinámico y el producto de su volumen y su presión.
La entalpía total de un sistema no puede ser medida directamente, al igual que la energía interna, en cambio, la variación de entalpía de un sistema sí puede ser medida experimentalmente. El cambio de la entalpía del sistema causado por un proceso llevado a cabo a presión constante, es igual al calor absorbido por el sistema durante dicho proceso.
La entalpía se define mediante la siguiente fórmula: H = U + p V (energía interna + presión por volumen).

2009/02/02

El siglo del electromagnetismo: Faraday y Maxwell

Aunque la electricidad y el magnetismo eran conocidos desde la antigüedad, fue en el siglo XIX cuando se descubrió que no son fenómenos separados y forman parte de un fenómeno más general llamado electromagnetismo. Su estudio en profundidad dio paso a una transformación completa de nuestra sociedad: motores eléctricos, distribución y aplicación a gran escala de la electricidad, telégrafo, radio, televisión y miles de aplicaciones cotidianas que han cambiado nuestras vidas para siempre. Además, la identificación de la luz como fenómeno electromagnético puso las bases de la revolución que ha supuesto la teoría de la relatividad.
El punto de partida fue un sencillo experimento que realizó el físico-químico danés Hans Christian Oersted en 1820, en presencia de sus alumnos. Al acercar un hilo conductor, por el que circulaba electricidad, a una brújula observó que ésta se movía. Esto demostraba que podía haber interacción entre uno y otro fenómeno lo que en aquella época resultaba revolucionario. Pero hasta que no se interesó por el fenómeno el matemático y físico francés André-Marie Ampère, y estableció las bases teóricas del electromagnetismo, los resultados obtenidos por Oersted no fueron valorados como se merecían.
En 1821 Michael Faraday, un aprendiz de encuadernador que ascendió de ayudante en la Royal Institution londinense a catedrático del mismo centro, demostró que un hilo por el que pasaba una corriente eléctrica podía girar de manera contínua, con lo que se vió que era posible obtener efectos mecánicos. Había sentado las bases del motor eléctrico. Sin embargo lo que le interesaba a Faraday no eran tanto las aplicaciones prácticas sino los principios que gobiernan la naturaleza, y en particular las relaciones mútuas entre fuerzas, en principio, diferentes. En 1831 descubrió la inducción electromagnética, un fenómeno que liga los movimientos mecánicos y el magnetismo con la producción de corriente eléctrica. Había sentado, también, las bases de los generadores eléctricos.
Faraday era un experimentador extraordinariamente hábil, que hizo avanzar el estudio de los fenómenos electromagnéticos, pero para desarrollar una teoría del electromagnetismo se necesitaba otro tipo de científico. Este científico, que iba a complementar el genio de Faraday, fue el escocés James Clerk Maxwell. Valiéndose de la noción de líneas de fuerza introducida por Faraday, así como de los resultados experimentales y teóricos de un buen número de investigadores, Maxwell logró desarrollar un conjunto de ecuaciones en derivadas parciales que rigen el comportamiento del campo electromagnético (un nuevo medio) que él supuso transportaba las fuerzas eléctricas y magnéticas, ecuaciones que hoy denominamos en su honor ecuaciones de Maxwell.

Con su teoría del campo electromagnético, Maxwell logró unir electricidad, magnetismo y óptica, pues demostró que el sustrato electromagnético se comporta como una onda mientras que la propia luz es una onda electromagnética.Esto último fue realmente un resultado completamente inesperado. En su artículo, “Sobre las líneas físicas de fuerza”, en el que presentó esta idea, afirmaba con excitación:“Difícilmente podemos evitar la inferencia de que la luz consiste de ondulaciones transversales del mismo medio que es la causa de los fenómenos eléctricos y magnéticos”.

Faraday, además de un gran científico, fue un magnífico divulgador en conferencias que desde 1826 pronunció en Navidad, especialmente para jóvenes, en la sede de la Royal Institution londinense. Además de sus tratados eminentemente técnicos (“Experimental Researches in Electricity” y “Experimental Researches in Chemistry and Physics), un pequeño libro llamado “Historia química de una vela”, ilustra a la perfección esta faceta.


Maxwell escribió su tratado sobre electromagnetismo” Treatise on Electricity and Magnetism”, un texto difícil por su tratamiento y por las matemáticas que utiliza (Maxwell era un gran matemático), que fue capital para la física del siglo XX. La relatividad einsteniana, en la que es tan importante la velocidad de referencia de la luz en el vacío, no habría sido posible sin sus ecuaciones que llevaban implícita la existencia de un nuevo medio tan importante como es el campo electromagnético y la “muerte” de otro medio imaginario llamado éter.

Un sencillo experimento de un profesor ante sus alumnos nos abrió las puertas a la sociedad moderna. Una sociedad impensable sin la electricidad, sin los motores y generadores eléctricos, donde un simple apagón parece que nos devuelve a la edad de las cavernas.


Artículo de mi colaboración con Libro de notas (Ciencias y letras)


Nota al margen: A mi padre.

Creo que nunca llegamos a entender ni lo que significa una nueva vida ni lo que significa la muerte. Como mucho nos acostumbramos. Nos acostumbramos al nuevo ser o nos acostumbramos a la ausencia de la persona querida, pero no llegamos  de verdad a entenderlo.

Hoy hace una semana enterraba a mi padre y, recordando algo tan sencillo como el último café que nos tomamos y del que disfruté de verdad porque sabía que nos quedaban pocos, no puedo entender que fuera el último, que no lo volveré a ver ni volveré a disfrutar del candor  de su compañía.

Fue un hombre sencillo y cariñoso. La enfermedad nos trajo dolor y sufrimiento, pero también dulcificó su carácter y nos mostró al mejor ser humano que llevaba dentro. Descanse en paz.



2009/01/15

Cantor, el infinito y más allá

Mi hija Alba cuando tenía cinco años me sorprendía con afirmaciones, aparentemente trascendentes, sobre el infinito y algunas otras cuestiones peliagudas. Recuerdo que un día me dejó perplejo al soltarme a bocajarro: " Papá, el infinito nunca para, siempre se está haciendo". No sé cómo llegó a esa conclusión ni en base a qué, pero en su mente infantil parecía una evidencia pura e incontestable. Después las matemáticas no han sido, precisamente, su fuerte pero aquellas afirmaciones parecían relacionadas con las cuestiones sobre la vida, la muerte o el mundo que parecen preocupar en un momento determinado de la primera infancia a muchos niños. El post sobre los números primos, su infinitud y su "misteriosa" distribución me hizo reflexionar sobre algunos aspectos del infinito que me han hecho recordar esta anécdota y publicar este post.


En la Grecia antigua Platón, Pitágoras y Aristóles entre otros, se planteaban la existencia del infinito y las contradicciones generadas a partir de la aceptación de su existencia. Aristóteles rechazó la idea del infinito dada las contradicciones que generaba. Sin embargo, lo concibió de dos formas diferentes las cuales son las nociones que tenemos actualmente de este concepto: el infinito potencial y el infinito actual. La noción de infinito potencial se centra en la operación reiterativa e ilimitada, es decir, en la recursividad interminable, por muy grande que sea un número natural, siempre podemos concebir uno mayor, y uno mayor que este y así sucesivamente donde esta última expresión "así sucesivamente'' encierra la misma idea de reiteración ilimitada, al infinito. Por otra parte, el infinito actual se refiere al un infinito existente como un todo o unidad y no como un proceso. Kant aceptaba la posición de Aristoteles y rechazaba el infinito actual por ser imposible de ser alcanzado por la experiencia.

Georg Cantor:
El gran matemático alemán Georg Cantor dedicó gran parte de su vida al estudio del infinito, los distintos infinitos y el llamado continuo, y en el siglo XIX desarrolló la teoría de conjuntos intimamente relacionada con la teoría de números transfinitos. Cantor fundamentó una axiomática consistente que permite construir los conjuntos y posteriormente establecer el concepto de infinito. Para esto definió el concepto de "cardinalidad'' o "potencia'' de un conjunto.Dos conjuntos se dicen que tienen el mismo número de elementos, que tienen la misma cardinalidad o son equipotentes, si existe una función definida entre ellos de forma que a cada elemento de uno sólo le corresponde otro elemento del otro conjunto, y viceversa.



A partir de esta definición se puede establecer la idea de conjunto infinito. Se dice que un conjunto es infinito si existe un subconjunto con la misma cardinalidad o que es equipotente con él. Esta definición plantea una contradicción con la intuición, pues todo subconjunto como parte del conjunto total parece que deba tener menos elementos. Eso es así, efectivamente, en los conjuntos finitos, pero no en los infinitos como podemos observar con un ejemplo sencillo dentro del conjunto de los números naturales. Supongamos que al número natural 100.000.001 le hacemos corresponder el número 1, al 100.000.002 el 2, al 100.000.003 el 3 y así establecemos una correspondencia número a número tan extensa como queramos. Vemos que a cada elemento del subconjunto de números naturales que comienzan con el 100.000.001 le hacemos corresponder un número, y sólo un número del conjunto total de los números naturales, y viceversa.

Cantor se dio cuenta de que existen diferentes grados de infinitud comparando los infinitos de los números naturales N {1,2,3,...n}, racionales Q (fracciones) y reales R(racionales + irracionales). Al cardinal infinito del conjunto de los números naturales le asignó el número llamado Aleph-0 y vio que era del mismo orden que el correspondiente a los números racionales, aunque estos son mucho más densos en la recta. Pero en el caso de los números reales su cardinal transfinito es de mayor orden pues su conjunto no es numerable (no se pueden poner en correspondencia, uno a uno, con los números naturales). A este cardinal le asignó el nombre de Aleph-1 y se supone que R es capaz de llenar la recta por completo, si se admite la hipótesis del continuo (a diferencia de lo que ocurre con los números racionales, los enteros o los naturales).

El descubrimiento de la existencia de cardinales transfinitos supuso un desafío para un espíritu tan religioso como el de Georg Cantor. Y las acusaciones de blasfemia por parte de ciertos colegas envidiosos o que no entendían su trabajo no le ayudaron. Sufrió de depresión, y fue internado repetidas veces en hospitales psiquiátricos. Su mente luchaba contra varias paradojas de la teoría de los conjuntos, que parecían invalidar toda su teoría (hacerla inconsistente o contradictoria, en el sentido de que una cierta propiedad podría ser a la vez cierta y falsa). Trató durante muchos años de probar la hipótesis del continuo, lo que se sabe hoy que es imposible, y que tiene que ser aceptada (o rehusada) como axioma adicional de la teoría, como ocurre con el llamado quinto postulado euclidiano sobre las rectas paralelas. Si se admite tenemos una geometría plana consistente, y si no se admite tenemos nuevas geometrías no planas también consistentes.

Cantor al desarrollar la que él mismo bautizó "aritmética de los números transfinitos", dotó de contenido matemático al concepto de infinito actual. Y al hacerlo así puso los cimientos de la teoría de conjuntos abstractos, contribuyendo además, de forma importante, a fundamentar el cálculo diferencial y el continuo de los números reales. El más notable logro de Cantor consistió en demostrar, con rigor matemático, que la de infinito no era una noción indiferenciada. Sus resultados fueron tan chocantes a la intuición de sus contemporáneos, que el eminente matemático francés Henri Poincaré condenó la teoría de números transfinitos como una "enfermedad", de la que algún día llegarían las matemáticas a curarse.Y Leopold Kronecker, que fue uno de los maestros de Cantor, y miembro preeminente de la matemática institucional alemana, llegó incluso a atacarle directa y personalmente, calificándolo de "charlatán científico", " renegado" y "corruptor de la juventud".

Empezó a interpretar e identificar el infinito absoluto (que no es concebible por la mente humana) con Dios, y escribió artículos religiosos sobre el tema. Murió en una clínica psiquiátrica, aquejado de una enfermedad maníaco-depresiva.Hoy en día, la comunidad matemática reconoce plenamente su trabajo, y admite que significó un salto cualitativo importante en el raciocinio lógico.

Reflexiones:
Lo infinitamente pequeño o lo infinitamente grande, las iteraciones hasta el infinito en límites continuos o en fractales parecen conceptos ajenos a lo cotidiano, pero no es así. En las funciones continuas el cálculo infinitesimal (lo infinitamente pequeño) es una herramienta imprescindible para la ciencia y la tecnología, con ella parece que casi conseguimos tocar el propio infinito. Recuerdo la fascinación que consiguieron ejercer sobre mi mente adolescente los límites infinitos y las sumas infinitas de funciones que se aproximan a una función dada (series de Taylor), así como los cálculos de máximos y mínimos aplicados a cosas cotidianas (como el cálculo del mínimo material con el que construir un cazo de un litro de capacidad). Cuando todos estos cálculos lograban materializarse en algo concreto parecía pura magia.

Toda la revolución cuántica se basa en el cuanto de acción, la mínima acción no puede ser infinitamente pequeña o cero, como suponía la física clásica, y de esa propiedad básica emerge el mundo cuántico y toda su "magia". Por otra parte, se creía infinita la velocidad de la luz, pero de su finitud y de la constatación de que es una magnitud constante, independientemente del sistema de referencia, se ha llegado a la más bella teoría física creada por el hombre: la teoría de la relatividad. En estas dos teorías, en su necesaria conjunción descansa la esperanza de poder desentrañar los secretos más intimos de la materia y del espacio-tiempo.

Para consultar:
-Revista Mundo de las Matemáticas del Instituto Tecnológico de Costa Rica.
-"Dios creó los números, los descubrimientos matemáticos que cambiaron la historia" de Stephen Hawking. Una biografía de los 17 mayores genios matemáticos (entre ellos Cantor) Ed. Crítica. ISBN:978-84-8432-753-0
-Muy interesante y completo, desde varios puntos de vista, el tomo 23 de la Revista Investigación y ciencia (año 2001):"Ideas del infinito".
-Estupenda web (de prueba) de Geocites sobre Cantor y los números transfinitos, por Joseph W. Dauben, de su libro:"George Cantor, Su Filosofía de la matemática y el Infinito" (Cambridge, Mass.: Harvard University Press, 1979; rep. Princeton, NJ: Princeton University Press, 1989).

2009/01/07

El último experimento, científicos ante la muerte


Hace unas semanas leí el libro " El arco iris de Feynman" de Leonard Mlodinow, el autor junto con Stephen Hawking de "Una brevísima historia del mundo". En el libro Mlodinow describe su relación con Feynman durante su primer año en el California Institute of Technology, el lugar de trabajo de aquel físico genial. Con su doctorado bajo el brazo, inseguro e intimidado en un centro tan distinguido y competitivo, Mlodinow encontró en Feynman algo más que un colega experimentado: descubrió un hombre sin prejucicios que atesoraba un maravilloso universo de experiencias e ideas, muchas de las cuales compartió con él precisamente durante los últimos meses de vida de aquel gran genio.

Feynman, aquejado por un tumor terminal se refería a la muerte como "el último experimento". Para una persona que vivía tan intensamente la ciencia toda su vida parecía ser un gran y complejo experimento y la muerte el final y la última etapa de ese experimento. Hace ya un par de años escribí sobre el mismo tema con relación al científico, poeta y ensayista en lengua catalana/valenciana, fallecido en 2005 , Dr. Alfred Giner-Sorolla. Sólo un verdadero investigador podría decir lo que decía él sobre la muerte, que es el último experimento.Un dramaturgo diría, con el mismo sentimiento, que es el fin del último acto.

Se retiró oficialmente en la década de 1990, y se instaló en su tierra valenciana, junto al mar que tanto quería. Pero un científico nunca deja de investigar. En el laboratorio que investigó en sus últimos años era el laboratorio de la vida. En él, ciertamente no podía aplicar el método científico y la mayoría de experimentos son irrepetibles, pero la ciencia también avanza por la observación y él era un gran observador de la realidad. En su libro de ensayo La sombra y los sueños (1993), escribía: "Una cierta curiosidad se mezcla con la angustia y la aprensión, el miedo de perecer. Para el filósofo y el científico constituye[...] una necesidad y un anhelo de explicación que sólo se puede dilucidar en el acto mismo. Es el último experimento que efectúa el hombre de ciencia que se ha pasado la vida haciendo muchos otros." Feynman, después de una intensa vida personal y profesional dominada por su pasión por la ciencia pensaba de la misma manera.

Randy Pausch fue un profesor de informática, de interacción hombre-máquina y de diseño en la Universidad Carnegie Mellon (CMU) en Pittsburgh, Pensilvania, Estados Unidos. En agosto del 2006, a Pausch se le diagnosticó un cáncer de páncreas.El 18 de septiembre de 2007 el profesor Pausch pronunció una conferencia titulada: "Alcanzar realmente tus sueños de la infancia". Se trata de una de las llamadas "últimas conferencias", en las que se propone al ponente que exponga su testamento intelectual. Para Pausch, se trataba, literalmente, de su última conferencia, puesto que los médicos habían confirmado que su cáncer era incurable.El coraje de Pausch y sus reflexiones han convertido el vídeo de la conferencia, disponible en YouTube, en un fenómeno de masas, pues ya ha sido visto por millones de personas.También disponible una versión completa con subtítulos en español y en forma de libro.


A Steve Jobs, co-fundador de Apple junto con Steve Wozniak, también se le diagnosticó un cáncer de páncreas, que se pensaba sería fatal, pero consiguió superarlo.Es conocido también su discurso en la ceremonia de graduación, de junio de 2005, de la Universidad de Stanford. Una pequeña parte del mismo:" A veces la vida te pega en la cabeza con un ladrillo. No pierdas la fé. Estoy convencido que lo único que me mantuvo en pie era el hecho que amo hacer lo que hago. Tienes que encontrar eso que amas; esto aplica en tu trabajo como en tus relaciones amorosas. Una gran parte de tu vida estará enfocada en tu trabajo y la única manera de sentirte realmente satisfecho es creer que lo que haces es un excelente trabajo. La única manera de lograr un excelente trabajo es amando lo que haces. Si no lo encuentras todavía sigue buscando. No te rindas. Como todas las cosas relacionadas con el corazón, sabrás exactamente cuando lo encuentres. Y, como en cualquier gran relación se va poniendo mejor y mejor a medida que el tiempo pasa. Así que sigue buscándolo hasta que lo encuentres, no te rindas. ..[..]."

Richard Feynman consiguió darle, también, una última lección a Leonard Mlodinow sobre cuál es la naturaleza de la ciencia, qué es la creatividad, el amor, la matemática, la felicidad, el arte, Dios, además de su visión sobre las últimas teorías físicas. Ya en el plano personal, mi padre e inspirador de este post me está dando una última lección sobre la alegría de vivir y el buen humor, cuando ya parece que no puede quedar ni esperanza ni alegría ni buen humor. Lo que me recuerda las palabras de un gran sabio sobre la vida " Vívela como tu mejor representación en el gran teatro, nunca una farsa, sabiendo que el público es un ser poderoso y extremadamente benevolente".