2009/02/10

Entalpía y entropía, la física de la vida

Cuando mis obligaciones me lo permiten me paso por la librería París-Valencia de la Gran Vía del Marqués del Turia (Valencia), la de la calle Pelayo o la de la Glorieta. Allí suelo encontrar verdaderas oportunidades en libros científicos (y en cualquier otro tipo de libros). El otro día encontré un hermoso libro muy bien encuadernado, con buenas ilustraciones a todo color y no menos llamativas y detalladas explicaciones sobre los procesos básicos de la vida. En la primera de las seis partes de que se compone comienza con una introducción a las reacciones químicas de la célula, y habla sobre las variables termodinámicas de estado, entalpía y entropía, esenciales para comprender este tipo de reacciones. Precisamente sobre esto hablaremos en este post, sobre los factores energéticos que influyen y posibilitan las reacciones bioquímicas y, por tanto, la propia vida.


La vida y la energía:
La vida es un complejo proceso físico-químico en el que están implicadas miles de reacciones diferentes que se llevan a cabo de un modo organizado. Estas reacciones se llaman reacciones metabólicas y al conjunto de ellas metabolismo. Las estrategias que han debido perfeccionarse a lo largo de millones de años de evolución son ciertamente elegantes y fascinantes, pero la consideración fundamental ante cualquier aspecto relacionado con la vida viene referido a una serie de aportes o pérdidas de energía. Son, pues, las consideraciones energéticas las que determinan si una reacción se puede producir a velocidad significativa, o si la misma puede o no producirse en sentido opuesto.

Entalpía H(*):
En los sistemas moleculares del interior de las células, donde tienen lugar las reacciones químicas, las variaciones de energía no son tan evidentes como en los sistemas físicos más usuales y sencillos sujetos a cambios de energía potencial y cinética, como puedan ser los que se refieren a movimientos de cuerpos en un campo gravitatorio. Un sistema químico comprende una gran cantidad de moléculas diferentes que contienen una cierta cantidad de energía en función de su estructura. Esta energía puede ser descrita como el contenido en calor o entalpía (H) de la molécula. Cuando una molécula se transforma en una estructura diferente mediante una reacción química, su contenido energético puede cambiar. Su variacion de entalpía puede ser negativa, cuando se pierde calor de la molécula, y éste se libera elevando la temperatura exterior, o positiva, cuando se capta calor del exterior.


A primera vista, parece sorprendente que puedan producirse reacciones con una variación de entalpía positiva, lo que podría compararse, en cierta forma, con un cuerpo que se elevara a sí mismo del suelo, absorbiendo la energía necesaria del exterior espontáneamente. Precisamente, en las reacciones químicas una variación negativa de la entalpía favorece la reacción, mientras que una variación positiva tiene el efecto opuesto. De todas formas, la variación de la entalpía no es el único árbitro que determina la viavilidad de las reacciones, la variación de la entropía (S) tiene mucho que decir en el asunto.

Entropía (S):
La entropía puede definirse como el grado de desorden de un sistema. En una reacción bioquímica, este desorden puede adoptar tres formas:

- Las moléculas no suelen ser rígidas ni permanecer fijas, por lo que pueden vibrar, girar o rotar. Cuanto mayor es la libertad para consentir estos movimientos moleculares, mayor es el desorden o la entropía.
- En un sistema bioquímico están implicadas un gran número de moléculas individuales que pueden encontrarse distribuidas de modo disperso y desordenado o adoptar algún tipo de disposición ordenada como ocurre en gran medida en las células vivas.
- El número de moléculas individuales o iones pueden cambiar como resultado de la transformación química. Cuanto mayor es su número, mayor es el desorden y por tanto la entropía.

Tanto la variación de entalpia como la variación de la entropía intervienen en la decisión para determinar si una reacción química puede producirse o no:

- Pérdida de entalpía y ganancia de entropía => refuerzan ambos la decisión: SÍ a la reacción química.

- Ganancia de entalpía y pérdida de entropía => refuerzan ambos la decisión: No a la reacción química.


Energía libre (G):
Sin embargo, en los sistemas biológicos es difícil si no imposible, en muchas ocasiones, medir el término de la variación de entropía. La solución se hace más fácil con la introducción del concepto de energía libre de Gibbs que combina los dos términos en uno solo. El cambio de energía libre o G, según Gibbs, viene dado por la expresión: (variación de G) = (variación de H) - T (variación de S), donde T es la temperatura absoluta. Esta ecuación se aplica a los sistemas en los que la temperatura y la presión permanecen constantes durante el proceso, como es el caso de los sistemas biológicos.

Al hablar de energía libre nos referimos a energía disponible para realizar un trabajo útil. Representa la máxima cantidad de energía procedente de una reacción química disponible para realizar trabajo útil. Este incluye la contracción muscular, la síntesis química en la celula y los trabajos osmóticos y eléctrico, sus valores se expresan en unidades de calorías o julios ( 1 caloría = 4,19 julios) por unidades de masa molecular.

El término de mayor importancia:
La variación de energía libre es el término de mayor importancia termodinámica en una reacción, hasta tal punto que sólo puede ocurrir si dicha variación de energía libre es negativa, es decir, si en las condiciones predominantes los productos de la reacción tienen menos energía libre que los reactivos.


(*)Entalpía termodinámica:

La entalpía (simbolizada generalmente como "H", también llamada contenido de calor, y calculada en Julios en el sistema internacional de unidades o también en kcal ), es una variable de estado, (lo que quiere decir que, sólo depende de los estados inicial y final) que se define como la suma de la energía interna de un sistema termodinámico y el producto de su volumen y su presión.
La entalpía total de un sistema no puede ser medida directamente, al igual que la energía interna, en cambio, la variación de entalpía de un sistema sí puede ser medida experimentalmente. El cambio de la entalpía del sistema causado por un proceso llevado a cabo a presión constante, es igual al calor absorbido por el sistema durante dicho proceso.
La entalpía se define mediante la siguiente fórmula: H = U + p V (energía interna + presión por volumen).

2009/02/02

El siglo del electromagnetismo: Faraday y Maxwell

Aunque la electricidad y el magnetismo eran conocidos desde la antigüedad, fue en el siglo XIX cuando se descubrió que no son fenómenos separados y forman parte de un fenómeno más general llamado electromagnetismo. Su estudio en profundidad dio paso a una transformación completa de nuestra sociedad: motores eléctricos, distribución y aplicación a gran escala de la electricidad, telégrafo, radio, televisión y miles de aplicaciones cotidianas que han cambiado nuestras vidas para siempre. Además, la identificación de la luz como fenómeno electromagnético puso las bases de la revolución que ha supuesto la teoría de la relatividad.
El punto de partida fue un sencillo experimento que realizó el físico-químico danés Hans Christian Oersted en 1820, en presencia de sus alumnos. Al acercar un hilo conductor, por el que circulaba electricidad, a una brújula observó que ésta se movía. Esto demostraba que podía haber interacción entre uno y otro fenómeno lo que en aquella época resultaba revolucionario. Pero hasta que no se interesó por el fenómeno el matemático y físico francés André-Marie Ampère, y estableció las bases teóricas del electromagnetismo, los resultados obtenidos por Oersted no fueron valorados como se merecían.
En 1821 Michael Faraday, un aprendiz de encuadernador que ascendió de ayudante en la Royal Institution londinense a catedrático del mismo centro, demostró que un hilo por el que pasaba una corriente eléctrica podía girar de manera contínua, con lo que se vió que era posible obtener efectos mecánicos. Había sentado las bases del motor eléctrico. Sin embargo lo que le interesaba a Faraday no eran tanto las aplicaciones prácticas sino los principios que gobiernan la naturaleza, y en particular las relaciones mútuas entre fuerzas, en principio, diferentes. En 1831 descubrió la inducción electromagnética, un fenómeno que liga los movimientos mecánicos y el magnetismo con la producción de corriente eléctrica. Había sentado, también, las bases de los generadores eléctricos.
Faraday era un experimentador extraordinariamente hábil, que hizo avanzar el estudio de los fenómenos electromagnéticos, pero para desarrollar una teoría del electromagnetismo se necesitaba otro tipo de científico. Este científico, que iba a complementar el genio de Faraday, fue el escocés James Clerk Maxwell. Valiéndose de la noción de líneas de fuerza introducida por Faraday, así como de los resultados experimentales y teóricos de un buen número de investigadores, Maxwell logró desarrollar un conjunto de ecuaciones en derivadas parciales que rigen el comportamiento del campo electromagnético (un nuevo medio) que él supuso transportaba las fuerzas eléctricas y magnéticas, ecuaciones que hoy denominamos en su honor ecuaciones de Maxwell.

Con su teoría del campo electromagnético, Maxwell logró unir electricidad, magnetismo y óptica, pues demostró que el sustrato electromagnético se comporta como una onda mientras que la propia luz es una onda electromagnética.Esto último fue realmente un resultado completamente inesperado. En su artículo, “Sobre las líneas físicas de fuerza”, en el que presentó esta idea, afirmaba con excitación:“Difícilmente podemos evitar la inferencia de que la luz consiste de ondulaciones transversales del mismo medio que es la causa de los fenómenos eléctricos y magnéticos”.

Faraday, además de un gran científico, fue un magnífico divulgador en conferencias que desde 1826 pronunció en Navidad, especialmente para jóvenes, en la sede de la Royal Institution londinense. Además de sus tratados eminentemente técnicos (“Experimental Researches in Electricity” y “Experimental Researches in Chemistry and Physics), un pequeño libro llamado “Historia química de una vela”, ilustra a la perfección esta faceta.


Maxwell escribió su tratado sobre electromagnetismo” Treatise on Electricity and Magnetism”, un texto difícil por su tratamiento y por las matemáticas que utiliza (Maxwell era un gran matemático), que fue capital para la física del siglo XX. La relatividad einsteniana, en la que es tan importante la velocidad de referencia de la luz en el vacío, no habría sido posible sin sus ecuaciones que llevaban implícita la existencia de un nuevo medio tan importante como es el campo electromagnético y la “muerte” de otro medio imaginario llamado éter.

Un sencillo experimento de un profesor ante sus alumnos nos abrió las puertas a la sociedad moderna. Una sociedad impensable sin la electricidad, sin los motores y generadores eléctricos, donde un simple apagón parece que nos devuelve a la edad de las cavernas.


Artículo de mi colaboración con Libro de notas (Ciencias y letras)


Nota al margen: A mi padre.

Creo que nunca llegamos a entender ni lo que significa una nueva vida ni lo que significa la muerte. Como mucho nos acostumbramos. Nos acostumbramos al nuevo ser o nos acostumbramos a la ausencia de la persona querida, pero no llegamos  de verdad a entenderlo.

Hoy hace una semana enterraba a mi padre y, recordando algo tan sencillo como el último café que nos tomamos y del que disfruté de verdad porque sabía que nos quedaban pocos, no puedo entender que fuera el último, que no lo volveré a ver ni volveré a disfrutar del candor  de su compañía.

Fue un hombre sencillo y cariñoso. La enfermedad nos trajo dolor y sufrimiento, pero también dulcificó su carácter y nos mostró al mejor ser humano que llevaba dentro. Descanse en paz.



2009/01/15

Cantor, el infinito y más allá

Mi hija Alba cuando tenía cinco años me sorprendía con afirmaciones, aparentemente trascendentes, sobre el infinito y algunas otras cuestiones peliagudas. Recuerdo que un día me dejó perplejo al soltarme a bocajarro: " Papá, el infinito nunca para, siempre se está haciendo". No sé cómo llegó a esa conclusión ni en base a qué, pero en su mente infantil parecía una evidencia pura e incontestable. Después las matemáticas no han sido, precisamente, su fuerte pero aquellas afirmaciones parecían relacionadas con las cuestiones sobre la vida, la muerte o el mundo que parecen preocupar en un momento determinado de la primera infancia a muchos niños. El post sobre los números primos, su infinitud y su "misteriosa" distribución me hizo reflexionar sobre algunos aspectos del infinito que me han hecho recordar esta anécdota y publicar este post.


En la Grecia antigua Platón, Pitágoras y Aristóles entre otros, se planteaban la existencia del infinito y las contradicciones generadas a partir de la aceptación de su existencia. Aristóteles rechazó la idea del infinito dada las contradicciones que generaba. Sin embargo, lo concibió de dos formas diferentes las cuales son las nociones que tenemos actualmente de este concepto: el infinito potencial y el infinito actual. La noción de infinito potencial se centra en la operación reiterativa e ilimitada, es decir, en la recursividad interminable, por muy grande que sea un número natural, siempre podemos concebir uno mayor, y uno mayor que este y así sucesivamente donde esta última expresión "así sucesivamente'' encierra la misma idea de reiteración ilimitada, al infinito. Por otra parte, el infinito actual se refiere al un infinito existente como un todo o unidad y no como un proceso. Kant aceptaba la posición de Aristoteles y rechazaba el infinito actual por ser imposible de ser alcanzado por la experiencia.

Georg Cantor:
El gran matemático alemán Georg Cantor dedicó gran parte de su vida al estudio del infinito, los distintos infinitos y el llamado continuo, y en el siglo XIX desarrolló la teoría de conjuntos intimamente relacionada con la teoría de números transfinitos. Cantor fundamentó una axiomática consistente que permite construir los conjuntos y posteriormente establecer el concepto de infinito. Para esto definió el concepto de "cardinalidad'' o "potencia'' de un conjunto.Dos conjuntos se dicen que tienen el mismo número de elementos, que tienen la misma cardinalidad o son equipotentes, si existe una función definida entre ellos de forma que a cada elemento de uno sólo le corresponde otro elemento del otro conjunto, y viceversa.



A partir de esta definición se puede establecer la idea de conjunto infinito. Se dice que un conjunto es infinito si existe un subconjunto con la misma cardinalidad o que es equipotente con él. Esta definición plantea una contradicción con la intuición, pues todo subconjunto como parte del conjunto total parece que deba tener menos elementos. Eso es así, efectivamente, en los conjuntos finitos, pero no en los infinitos como podemos observar con un ejemplo sencillo dentro del conjunto de los números naturales. Supongamos que al número natural 100.000.001 le hacemos corresponder el número 1, al 100.000.002 el 2, al 100.000.003 el 3 y así establecemos una correspondencia número a número tan extensa como queramos. Vemos que a cada elemento del subconjunto de números naturales que comienzan con el 100.000.001 le hacemos corresponder un número, y sólo un número del conjunto total de los números naturales, y viceversa.

Cantor se dio cuenta de que existen diferentes grados de infinitud comparando los infinitos de los números naturales N {1,2,3,...n}, racionales Q (fracciones) y reales R(racionales + irracionales). Al cardinal infinito del conjunto de los números naturales le asignó el número llamado Aleph-0 y vio que era del mismo orden que el correspondiente a los números racionales, aunque estos son mucho más densos en la recta. Pero en el caso de los números reales su cardinal transfinito es de mayor orden pues su conjunto no es numerable (no se pueden poner en correspondencia, uno a uno, con los números naturales). A este cardinal le asignó el nombre de Aleph-1 y se supone que R es capaz de llenar la recta por completo, si se admite la hipótesis del continuo (a diferencia de lo que ocurre con los números racionales, los enteros o los naturales).

El descubrimiento de la existencia de cardinales transfinitos supuso un desafío para un espíritu tan religioso como el de Georg Cantor. Y las acusaciones de blasfemia por parte de ciertos colegas envidiosos o que no entendían su trabajo no le ayudaron. Sufrió de depresión, y fue internado repetidas veces en hospitales psiquiátricos. Su mente luchaba contra varias paradojas de la teoría de los conjuntos, que parecían invalidar toda su teoría (hacerla inconsistente o contradictoria, en el sentido de que una cierta propiedad podría ser a la vez cierta y falsa). Trató durante muchos años de probar la hipótesis del continuo, lo que se sabe hoy que es imposible, y que tiene que ser aceptada (o rehusada) como axioma adicional de la teoría, como ocurre con el llamado quinto postulado euclidiano sobre las rectas paralelas. Si se admite tenemos una geometría plana consistente, y si no se admite tenemos nuevas geometrías no planas también consistentes.

Cantor al desarrollar la que él mismo bautizó "aritmética de los números transfinitos", dotó de contenido matemático al concepto de infinito actual. Y al hacerlo así puso los cimientos de la teoría de conjuntos abstractos, contribuyendo además, de forma importante, a fundamentar el cálculo diferencial y el continuo de los números reales. El más notable logro de Cantor consistió en demostrar, con rigor matemático, que la de infinito no era una noción indiferenciada. Sus resultados fueron tan chocantes a la intuición de sus contemporáneos, que el eminente matemático francés Henri Poincaré condenó la teoría de números transfinitos como una "enfermedad", de la que algún día llegarían las matemáticas a curarse.Y Leopold Kronecker, que fue uno de los maestros de Cantor, y miembro preeminente de la matemática institucional alemana, llegó incluso a atacarle directa y personalmente, calificándolo de "charlatán científico", " renegado" y "corruptor de la juventud".

Empezó a interpretar e identificar el infinito absoluto (que no es concebible por la mente humana) con Dios, y escribió artículos religiosos sobre el tema. Murió en una clínica psiquiátrica, aquejado de una enfermedad maníaco-depresiva.Hoy en día, la comunidad matemática reconoce plenamente su trabajo, y admite que significó un salto cualitativo importante en el raciocinio lógico.

Reflexiones:
Lo infinitamente pequeño o lo infinitamente grande, las iteraciones hasta el infinito en límites continuos o en fractales parecen conceptos ajenos a lo cotidiano, pero no es así. En las funciones continuas el cálculo infinitesimal (lo infinitamente pequeño) es una herramienta imprescindible para la ciencia y la tecnología, con ella parece que casi conseguimos tocar el propio infinito. Recuerdo la fascinación que consiguieron ejercer sobre mi mente adolescente los límites infinitos y las sumas infinitas de funciones que se aproximan a una función dada (series de Taylor), así como los cálculos de máximos y mínimos aplicados a cosas cotidianas (como el cálculo del mínimo material con el que construir un cazo de un litro de capacidad). Cuando todos estos cálculos lograban materializarse en algo concreto parecía pura magia.

Toda la revolución cuántica se basa en el cuanto de acción, la mínima acción no puede ser infinitamente pequeña o cero, como suponía la física clásica, y de esa propiedad básica emerge el mundo cuántico y toda su "magia". Por otra parte, se creía infinita la velocidad de la luz, pero de su finitud y de la constatación de que es una magnitud constante, independientemente del sistema de referencia, se ha llegado a la más bella teoría física creada por el hombre: la teoría de la relatividad. En estas dos teorías, en su necesaria conjunción descansa la esperanza de poder desentrañar los secretos más intimos de la materia y del espacio-tiempo.

Para consultar:
-Revista Mundo de las Matemáticas del Instituto Tecnológico de Costa Rica.
-"Dios creó los números, los descubrimientos matemáticos que cambiaron la historia" de Stephen Hawking. Una biografía de los 17 mayores genios matemáticos (entre ellos Cantor) Ed. Crítica. ISBN:978-84-8432-753-0
-Muy interesante y completo, desde varios puntos de vista, el tomo 23 de la Revista Investigación y ciencia (año 2001):"Ideas del infinito".
-Estupenda web (de prueba) de Geocites sobre Cantor y los números transfinitos, por Joseph W. Dauben, de su libro:"George Cantor, Su Filosofía de la matemática y el Infinito" (Cambridge, Mass.: Harvard University Press, 1979; rep. Princeton, NJ: Princeton University Press, 1989).

2009/01/07

El último experimento, científicos ante la muerte


Hace unas semanas leí el libro " El arco iris de Feynman" de Leonard Mlodinow, el autor junto con Stephen Hawking de "Una brevísima historia del mundo". En el libro Mlodinow describe su relación con Feynman durante su primer año en el California Institute of Technology, el lugar de trabajo de aquel físico genial. Con su doctorado bajo el brazo, inseguro e intimidado en un centro tan distinguido y competitivo, Mlodinow encontró en Feynman algo más que un colega experimentado: descubrió un hombre sin prejucicios que atesoraba un maravilloso universo de experiencias e ideas, muchas de las cuales compartió con él precisamente durante los últimos meses de vida de aquel gran genio.

Feynman, aquejado por un tumor terminal se refería a la muerte como "el último experimento". Para una persona que vivía tan intensamente la ciencia toda su vida parecía ser un gran y complejo experimento y la muerte el final y la última etapa de ese experimento. Hace ya un par de años escribí sobre el mismo tema con relación al científico, poeta y ensayista en lengua catalana/valenciana, fallecido en 2005 , Dr. Alfred Giner-Sorolla. Sólo un verdadero investigador podría decir lo que decía él sobre la muerte, que es el último experimento.Un dramaturgo diría, con el mismo sentimiento, que es el fin del último acto.

Se retiró oficialmente en la década de 1990, y se instaló en su tierra valenciana, junto al mar que tanto quería. Pero un científico nunca deja de investigar. En el laboratorio que investigó en sus últimos años era el laboratorio de la vida. En él, ciertamente no podía aplicar el método científico y la mayoría de experimentos son irrepetibles, pero la ciencia también avanza por la observación y él era un gran observador de la realidad. En su libro de ensayo La sombra y los sueños (1993), escribía: "Una cierta curiosidad se mezcla con la angustia y la aprensión, el miedo de perecer. Para el filósofo y el científico constituye[...] una necesidad y un anhelo de explicación que sólo se puede dilucidar en el acto mismo. Es el último experimento que efectúa el hombre de ciencia que se ha pasado la vida haciendo muchos otros." Feynman, después de una intensa vida personal y profesional dominada por su pasión por la ciencia pensaba de la misma manera.

Randy Pausch fue un profesor de informática, de interacción hombre-máquina y de diseño en la Universidad Carnegie Mellon (CMU) en Pittsburgh, Pensilvania, Estados Unidos. En agosto del 2006, a Pausch se le diagnosticó un cáncer de páncreas.El 18 de septiembre de 2007 el profesor Pausch pronunció una conferencia titulada: "Alcanzar realmente tus sueños de la infancia". Se trata de una de las llamadas "últimas conferencias", en las que se propone al ponente que exponga su testamento intelectual. Para Pausch, se trataba, literalmente, de su última conferencia, puesto que los médicos habían confirmado que su cáncer era incurable.El coraje de Pausch y sus reflexiones han convertido el vídeo de la conferencia, disponible en YouTube, en un fenómeno de masas, pues ya ha sido visto por millones de personas.También disponible una versión completa con subtítulos en español y en forma de libro.


A Steve Jobs, co-fundador de Apple junto con Steve Wozniak, también se le diagnosticó un cáncer de páncreas, que se pensaba sería fatal, pero consiguió superarlo.Es conocido también su discurso en la ceremonia de graduación, de junio de 2005, de la Universidad de Stanford. Una pequeña parte del mismo:" A veces la vida te pega en la cabeza con un ladrillo. No pierdas la fé. Estoy convencido que lo único que me mantuvo en pie era el hecho que amo hacer lo que hago. Tienes que encontrar eso que amas; esto aplica en tu trabajo como en tus relaciones amorosas. Una gran parte de tu vida estará enfocada en tu trabajo y la única manera de sentirte realmente satisfecho es creer que lo que haces es un excelente trabajo. La única manera de lograr un excelente trabajo es amando lo que haces. Si no lo encuentras todavía sigue buscando. No te rindas. Como todas las cosas relacionadas con el corazón, sabrás exactamente cuando lo encuentres. Y, como en cualquier gran relación se va poniendo mejor y mejor a medida que el tiempo pasa. Así que sigue buscándolo hasta que lo encuentres, no te rindas. ..[..]."

Richard Feynman consiguió darle, también, una última lección a Leonard Mlodinow sobre cuál es la naturaleza de la ciencia, qué es la creatividad, el amor, la matemática, la felicidad, el arte, Dios, además de su visión sobre las últimas teorías físicas. Ya en el plano personal, mi padre e inspirador de este post me está dando una última lección sobre la alegría de vivir y el buen humor, cuando ya parece que no puede quedar ni esperanza ni alegría ni buen humor. Lo que me recuerda las palabras de un gran sabio sobre la vida " Vívela como tu mejor representación en el gran teatro, nunca una farsa, sabiendo que el público es un ser poderoso y extremadamente benevolente".




2008/12/27

El espín, el misterioso giro de las partículas cuánticas

En la física clásica las partículas como el electrón eran consideradas puntuales. Sin embargo, años antes de que en 1922 Stern y Gerlach realizaran un experimento que permitía deducir que los electrones tienen un momento magnético intrínseco (por giro sobre sí mismo) con sólo dos valores posibles, ya eran conocidas ciertas anomalías (efecto Zeeman anómalo) con relación al desdoblamiento de líneas espectrales esperado. Esto, por muy extraño que pareciera entonces, sólo podía ocurrir si los electrones giraban sobre sí mismos (observación, al final del post) y no eran, por tanto, partículas puntuales. En 1926 los jóvenes físicos Goudsmit y Uhlenbeck propusieron la atrevida idea de que el electrón tiene un momento angular (o cinético) intrínseco (el espín), es decir, que la partícula gira "de alguna manera" sobre sí misma de modo que produce precísamente ese momento magnético anómalo observado.

La ecuación de Dirac:

Durante algún tiempo no se supo cómo incluir ese espín en la ecuación de ondas del electrón, hasta que Dirac trabajando para construir una teoría cuántica-relativista del electrón encontró, sin buscarlo, justamente el mismo campo magnético que surge del modelo de electrón con espín. En sus propias palabras: " No me interesaba incluir el espín en la ecuación de onda, ni siquiera consideré esa cuestión. Fue una gran sorpresa para mi descubrir después que el caso más simple ya implicaba el espín."

La obtención por Dirac de una ecuación que, partiendo de primeros principios, permite deducir el espín fue recibida con enorme expectación entre sus colegas en las navidades de 1927, antes de su publicación en los Proceedings of the Royal Society a principios de 1928. Esta ecuación proporcionaba la explicación de los niveles energéticos esperados para el átomo de hidrógeno (sus líneas espectrales : cada tipo de átomo emite un conjunto único de colores, estas líneas de color o líneas espectrales son la "firma" de los átomos).

El espín es un concepto puramente cuántico, realmente no un giro físico:

Estableciendo con precisión la teoría cuántica del momento cinético (o angular), se halla que los valores pueden ser múltiplos semienteros de h (+1/2h ó -1/2h). Esto que puede ser paradójico, pues sugiere la existencia de una acción menor que h o mínimo cuanto de acción, se resuelve precisamente introduciendo el concepto de espín (o momento cinético intrínseco). Mientras que el momento cinético orbital siempre es entero, el espín puede ser semientero.

El espín es un concepto puramente cuántico: clásicamente, el momento angular intrínseco de una partícula puntual sólo puede ser nulo (un punto no puede girar sobre sí mismo). Con relación a los campos cuánticos el espín está relacionado con el número de componentes del campo. siendo S es espín del campo, el número de componentes será igual a 2S+1. Así, un campo escalar es un campo de un componente, es decir, un operador definido en cada punto del espacio-tiempo, y un solo observable o magnitud medible de tipo escalar; los cuantos asociados son partículas de espín cero. Un campo vectorial, como el campo eléctrico, por ejemplo, es un campo de tres componentes: tres operadores en cada punto del espacio-tiempo (tres observables o magnitudes a medir asociadas cada una a un operador). Los cuantos asociados son partículas de espín 1. Las partículas de espín 1/2 son los cuantos de un campo de dos componentes o campo espinorial. Un campo tensorial es un campo de cinco componentes, como el gravitatorio; los cuantos asociados son partículas de espín 2, como el llamado gravitón.

Partículas de fuerza y partículas de materia:

Gracias a la ley de conservación del momento cinético, no hay problema de "semicuanto de acción": si, en una transición, el momento cinético es semientero en el estado inicial, lo es también en el estado final y, por tanto, toda interacción implica un múltiplo necesariamente entero del cuanto de acción. Esta ley de conservación del carácter semientero del momento cinético indica que las partículas de espín semientero encierran una propiedad, en cierto modo indestructible. De hecho, todas las partículas de materia, los fermiones, son partículas de espín semientero, mientras que los cuantos de los campos de interacción o fuerza, los bosones, son partículas de espín nulo o entero. Respecto a los fermiones, el principio de exclusión de Pauli manifiesta la impenetrabilidad de la materia. Mientras que dos o más bosones pueden estar en el mismo estado y la magnitud de la fuerza que representan aumenta, dos fermiones no pueden estar en el mismo estado a la vez según el principio de exclusión de Pauli. Los bosones son partículas de fuerza y los fermiones de materia.

El misterioso "giro" de las partículas cuánticas las convierte en fermiones o partículas de materia, o en bosones o partículas de fuerza. En partículas impenetrables o en partículas capaces de sumar su fuerza para dar mayor o menor intensidad a las interacciones de la materia.

Es recomendable leer el post:La extraña medida cuántica en un espacio de infinitas dimensiones: el espacio de Hilbert.
También el post sobre el condensado Bose-Einstein.

(**) Observación importante: En un principio la explicación lógica era pensar en un giro físico de las partículas que originaría el momento observado, pero la explicación correcta era la introducción de un número cuántico adicional con sólo dos valores posibles, +1/2 h y -1/2 h. Realmente el espín es una propiedad puramente cuántica que se manifiesta como un giro, con su momento correspondiente asociado. No es físicamente un giro de la partícula.

2008/12/16

Números primos, números de una sola pieza

Entre los números naturales 1, 2, 3 ,4 , 5, 6, 7, ,..., , n, existen unos números especiales que sólo son divisibles por la unidad y por ellos mismos. Estos números son llamados números primos y desde que se conocen han producido una extraña fascinación entre los matemáticos. Existen infinitos, Euclides realizó la primera demostración conocida de su infinitud alrededor del 300 a.C., pero su distribución, aparentemente aleatoria, sigue siendo una incógnita.

En cierta forma, estos números podríamos decir que son "de una pieza", y todos los demás números naturales se pueden construir a partir de ellos mediante un proceso llamado factorización. Los primeros números primos menores de cien son: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89 y 97. Cada uno de ellos sólo se puede escribir como: 2 = 2, 3 = 3,..., 29 = 29,..., 67=67, ..., etc. Mientras que el resto de números naturales necesitan expresarse en función de los números primos: 4 = 2x2, 9 = 3x3, 6 = 3x2, 8 = 2x2x2, ...,30 = 2x3x5, etc.


Se conoce una importante expresión llamada teorema de los números primos que nos da la cantidad de números primos que existen hasta un determinado número. Aproximadamente, para números suficientemente grandes, la expresión es: cantidad de números primos = (número)/Logaritmo Neperiano(número). Aplicando la fórmula para (número)=1000, obtenemos 145 primos, cuando en realidad hay 168. Para 5000 nos acercamos un poquito más, la expresión nos da 587 y en realidad existen 669, y conforme probamos números mayores nos acercamos más, aunque las cifras convergen muy lentamente: para 1000 el 86,3%, para 5000 el 87,7% y para 50000 el 90%.

Lagunas con ausencia de números primos:

Entre 1 y 100 existen 25 números primos, como hemos visto, y en la lista observamos grupos de números compuestos, una especie de lagunas con ausencia de números primos: del 24 al 28 y del 90 al 96. Entre el 100 y el 200 hay 23 primos: 101, 103, 107, 109, 113, 127, 131, 137, 139, 149,151, 157, 163, 167, 173, 179, 181, 191,193, 197, 199. Y encontramos lagunas como la del 182 al 190. Nos podemos preguntar si existen lagunas más grandes entre números primos. A simple vista, parece que no vamos a encontrar ninguna de estas lagunas de forma clara con una suficiente cantidad de números, pero no es así. Podemos encontrar tantas como queramos y de la longitud que deseemos, para ello utilizaremos la siguiente expresión (pueden encontrarse muchas más): n!+2 , desde 2 hasta n. Vamos a ver algunos ejemplos: para n=3, 3!=3x2x1=6; 6+2=8 y 6+3=9. Hemos encontrado la primera laguna formada por el 8 y el 9. Seguimos con n=4: 4!=4x3x2x1=24; 24+2=26, 24+3=27 y 24+4=28. Hemos encontrado tres números compuestos seguidos, pero con esta expresión podemos encontrar cuantos queramos, por ejemplo 101 números seguidos (al menos): 102!+2, 102!+3, 102!+3, ..., 102!+101,102!+102.

¿De cuántas piezas están hechos los números?

Volviendo al título del post, se pueden ver los números compuestos como formados por piezas de números primos. Un número compuesto cualquiera, por ejemplo, el 6 es igual al producto de dos números primos 2x3, podemos considerarlo como formado por dos piezas, la pieza 2 y la pieza 3. En cambio los números primos, como el 7, están formados por sólo una pieza. En un símil musical el número primo podría considerarse como armónico principal y único, y el número compuesto como una composición de armónicos primos que formarían su espectro o descomposición factorial.

Analizando la factorización de un número como producto de números primos, podríamos imaginar que cualquier número está formado por tantas piezas como factores primos lo componen. Se observa como curiosidad que los números del orden de 100 estarían formados, como media, por un producto de 2,7 números primos, los del orden de 1000 por un producto de 2,96 números primos, los de 10000 por un producto de 3,16 números, los de 100000 por 3,3, los de 1000000 por 3,42 y los de 10000000 por 3,64. Observamos que la cantidad de "piezas" necesarias para formar cualquier número aumentan muy lentamente, y ese aumento, además, decrece. Es un tanto asombroso que mientras un número de 3 cifras necesita tres primos para factorizarse (está hecho de tres piezas), uno de 10 cifras sólo necesita cuatro (está hecho de cuatro piezas). Claro que al hablar de piezas estas son tan dispares como el 3 y el 2000003, ambos son números primos.

En un extraño (e imaginario) mundo cuántico formado por números enteros, sería fácil descubrir los números primos. Todos los números compuestos se verían como una borrosa superposición de armónicos primos mientras que los números primos aparecerían claros y estables con una sola configuración fácilmente distinguible. Algo de esto debe le debe ocurrir a Daniel Tammet, un joven autista inglés con una sorprendente capacidad para los números. Cuando piensa en ellos ve formas, colores y texturas que le permiten distinguirlos de una manera asombrosa. Al multiplicar dos números ve dos sombras; al instante aparece una tercera sombra que se corresponde con la respuesta a la pregunta. Cuando piensa en algún número sabe reconocerlo como primo o compuesto. Estuve viendo el reportaje sobre su vida, sus facultades como matemático y su prodigiosa memoria. Sus capacidades son asombrosas. En una semana logró aprender, desde cero, suficiente islandés (un idioma catalogado como muy difícil) para mantener perfectamente una entrevista en la televisión de Islandia.

A alguien le podría parecer que el estudio de los números primos no tiene ninguna utilidad, desde luego se equivoca (ojo, el algoritmo de encriptación RSA nos permite las transacciones fiables). Cualquier saber matemático, por muy absurdo que nos parezca está relacionado con infinidad de campos aparentemente inconexos. Cualquier avance en el conocimiento sobre los números primos, por ejemplo, podría ser decisivo para resolver algún problema del campo más increible que se nos ocurra, tanto matemático como físico. La realidad es conexa y conforme la vamos comprendiendo vemos que el conocimiento que tenemos de ella también lo es.


Una novela sobre investigación de números primos:

Sobre los números primos recuerdo haber leído una novela interesantísima titulada "El tío Petros y la conjetura de Goldbach". La trama discurre a través de las vicisitudes de un matemático obsesionado por comprobar la famosa conjetura de Goldbach sobre los números primos, uno de los problemas abiertos más antiguos en matemáticas. Su enunciado es el siguiente: Todo número par mayor que 2 puede escribirse como suma de dos números primos. Confieso que logró atraparme al igual que le ha pasado a infinidad de lectores. Es muy entretenida y recomendable.

... Mi agradecimiento a la página Descartes, del Ministerio de Educación, que me ha facilitado los cálculos de factorización de grandes números que he necesitado.
... Recomiendo visitar esta magnífica página sobre números primos (en inglés).

Nuestro amigo Tito Eliatron nos envía dos interesantísimos enlaces de su blog a una charla del matemático, Medalla Fields, Terry Tao: Primera parte de la charla, segunda parte. Gracias Tito.

2008/12/01

Relatividad y espaciotiempo

Hay un antes y un después de la teoría de relatividad especial de Einstein (1905). Es significativo lo que dice Leslie Pearce Williams, profesor Emeritus de la Historia de la Ciencia en la Cornell University de New York, en el prólogo del excelente libro (recopilación de textos) La teoría de la relatividad: sus orígenes y su impacto: “Antes de 1905 era posible explicar la ciencia al profano utilizando términos verbales que, aunque difusos, podían entenderse. Desde entonces esto resultaba ya imposible, porque la cualidad peculiar de la teoría especial de la relatividad era que violaba todos los principios del sentido común… a partir de entonces los modelos ya no eran mecánicos sino matemáticos”.

El tiempo y el espacio absoluto de la mecánica clásica de Newton pasaron a la historia cuando se demostró que no existía realmente una referencia espacial inmóvil, una especie de sustrato que lo llenaba todo llamado “éter lumínico”, ni existía un tiempo universal. Cada sistema pasaba a tener un tiempo y pasaba a ser la referencia para la medida de los demás. Bien es verdad que esto sólo se puede apreciar en los sistemas que se mueven a velocidades no despreciables respecto a la velocidad de la luz, por lo que cualquier medición que realizemos en nuestra vida cotidiana no se ve afectada por las correcciones relativistas.

Trescientos años antes, el gran Galileo Galilei en su notable principio de relatividad ya había observado que no existe modo alguno de distinguir localmente el movimiento uniforme, es decir el movimiento no acelerado, respecto a algún supuesto absoluto inmóvil. Mucho antes que Einstein utilizara los trenes en sus experimentos mentales, de forma similar, Galileo pensaba en la cabina principal bajo la cubierta de un gran barco. Allí no habría forma de distinguir, en los movimientos de los animales encerrados, si el barco permanecía quieto o en movimiento uniforme.

Mucho después, ya en el siglo XIX, el desencadenante de la revolución que supuso la teoría de la relatividad fueron una serie de experimentos que se realizaron en la segunda mitad de la centuria para detectar las corrientes del “éter” sobre la superficie de la Tierra y la influencia de las mismas sobre la velocidad de la luz. El éter era un supuesto material que se creía necesario para la propagación de las vibraciones de la luz en el vacío. En 1887 Albert A. Michelson y Edward W. Morley realizaron en Cleverland (Ohio) un experimento que desde entonces ha adquirido la categoría de clásico. Sus resultados fueron negativos, la velocidad de la luz medida a favor y en contra del supuesto éter resultó ser la misma, y aunque poco después el físico holandés H. A. Lorentz logró salvar la existencia del éter a costa de postular la contracción de los objetos al moverse a través del éter, la vieja concepción del tiempo y el espacio absolutos había sido herida de muerte. La ciencia contemporánea no podía explicar la razón de que la velocidad de la luz fuera siempre la misma, tanto si emanaba de un cuerpo en reposo como si lo hacía de un cuerpo moviéndose a gran velocidad.

Poincaré y Einstein descubrieron, independientemente, que las ecuaciones de Maxwell, relativas a la propagación de las ondas electromagnéticas (la luz es una onda electromagnética) también satisfacen un principio de relatividad similar al galileano sobre su invarianza, al pasar de un sistema de referencia en reposo a uno en movimiento (Lorentz también había abordado esta cuestión hacia 1895).


Einstein tuvo que elegir entre el principio de relatividad (invarianza de las leyes físicas en cualquier sistema de referencia en reposo o en movimiento uniforme) y la física de Galileo-Newton. Si bien estas leyes se habían verificado, siempre había sido a velocidades muy pequeñas comparadas con la velocidad de la luz y eso le dio la clave: la relatividad válida debía ser la inherente a las ecuaciones de la propagación de la luz de J.K.Maxwell.

Poco después de que Einstein publicara el artículo en el que describía su teoría especial de la relatividad (1905) Sobre la electrodinámica de cuerpos en movimiento, su antiguo profesor Hermann Minkowski ponía la guinda que faltaba. En un histórico discurso de inauguración de la 80 reunión de la Asamblea general alemana de científicos naturales y físicos el 21 de septiembre de 1908 pronunció una célebre frase: “Las ideas sobre el espacio y el tiempo que deseo mostrarles hoy descansan en el suelo firme de la física experimental, en la cual yace su fuerza. Son ideas radicales. Por lo tanto, el espacio y el tiempo por separado están destinados a desvanecerse entre las sombras y tan sólo una unión de ambos puede representar la realidad”.

La relatividad especial de Einstein mantiene el principio según el cual las leyes de la física se expresan de la misma manera en dos referenciales en movimiento rectilineo uniforme, en relación uno con el otro. Pero, para que la velocidad de la luz sea la misma en los dos referenciales, como de hecho y según todos los experimentos así ocurre, hay que renunciar al caracter absoluto del tiempo y del espacio (de su métrica espacial). El espacio ya no es independiente del tiempo, ni éste lo es del espacio. Además en las expresiones que ligan los dos conceptos aparece una constante ligada a ambos de forma indisoluble: la velocidad de la luz. Esto hace que las longitudes medidas en un sistema ya no sean invariantes y dependan de la velocidad del mismo, y lo mismo ocurre con los tiempos.

Nuestra percepción basada en el espacio de tres dimensiones que conocemos, con un tiempo independiente del espacio no es exacta. Es válida para nuestro mundo cotidiano (de bajas velocidades comparadas con la de la luz), pero dista de ser la realidad. Hasta tal punto que lo que conocemos como la paradoja de los gemelos no es ni siquiera una paradoja en el nuevo marco del espaciotiempo. En esta paradoja se explica que un gemelo se queda en la tierra mientras el otro sale a viajar, en una nave interplanetaria a velocidades cercanas a la luz, y al volver al cabo de un año encuentra a su hermano veinte o treinta años mayor que él. En la geometría relativista del espaciotiempo de Minkowski, que es una geometría no plana (no euclidiana), el intervalo de tiempo del gemelo que se queda es mayor que los dos intervalos temporales (ida más vuelta) del gemelo que viaja. El gemelo que viaja toma “un simple atajo” en el espaciotiempo. El camino temporal más recto, en el espaciotiempo, no consiste en quedarse en tierra sino en viajar a velocidades elevadas, aunque entonces también intervienen aceleraciones y esto queda dentro del marco de la relatividad general.

Texto extraído de mi columna mensual de Libro de notas: Ciencias y letras.