Lo continuo y lo discreto
Ciertas magnitudes varían de forma continua, mientras otras lo hacen de forma discreta o discontinua. Al pesar grandes cantidades de granos de arroz, se pueden considerar sus masas como continuas, aunque es evidente su composición granular. Sin embargo, si analizamos pequeñas cantidades de arroz, usando una balanza de gran precisión, tenemos que tener en cuenta el hecho de que la masa varía a saltos; la magnitud mínima de cada salto es el peso de un grano de arroz, aproximadamente 0,025 gramos. Cada uno de estos pasos mínimos indivisibles es lo que denominamos cuantos elementales de la magnitud en cuestión. En este ejemplo, el peso de un grano de arroz sería el cuanto elemental.
A principios del siglo XX, Max Planck sugirió que la radiación electromagnética estaba formada por pequeños paquetes, o cuantos de energía indivisibles, que, posteriormente, se denominaron fotones. Su valor sería igual a una constante llamada h (mínima acción de Planck) multiplicada por la frecuencia de la radiación. Algunos años más tarde Einstein, basándose en esta idea, proporcionó una explicación satisfactoria de la extracción de electrones de un metal por la luz que incide sobre el mismo, en lo que se llama efecto el efecto fotoeléctrico.
Principio de complementariedad
En general, el comportamiento de las partículas subatómicas no se puede explicar con los conceptos clásicos de partículas y ondas del mundo macroscópico. Bohr expresó esta idea básica nueva con su principio de complementariedad. La concepción corpuscular y la descripción ondulatoria, que siempre se habían creído excluyentes, son complementarias. Se necesitan los dos conceptos para tener una descripción completa sobre las partículas subatómicas, tales como protones o electrones, pues se comportan, según las circunstancias, como ondas o como partículas. Pueden difractarse por una red cristalina, lo que constituye un fenómeno típicamente ondulatorio. De acuerdo con la hipótesis de De Broglie, toda partícula tiene asociada una onda, cuya longitud característica es inversamente proporcional a su momento lineal (masa x velocidad).
Principio de incertidumbre
Las magnitudes asociadas a las partículas subatómicas no están siempre bien definidas. Por ejemplo, si conocemos la posición de un electrón o un fotón, su momento lineal no está bien definido. Podemos realizar un experimento para encontrar la posición y otro para medir su momento, pero estas dos medidas se excluyen mutuamente; esto es, no se pueden determinar simultáneamente la posición y el momento de una partícula cuántica. Este hecho tan asombroso constituye el llamado principio de incertidumbre de Heisenberg.
Para entender las razones de esta incertidumbre, consideremos que deseamos hallar la posición de un electrón. Para saber dónde se encuentra necesitamos observarlo enviando, por ejemplo, un fotón que se refleje en el electrón. Pero el electrón tiene una masa muy pequeña, por lo que el fotón tiene suficiente energía para hacerlo retroceder en una dirección impredecible. Por tanto, no importa lo cuidadoso que seamos al tratar de medir la posición exacta del electrón, siempre introduciremos una indeterminación en la velocidad y momento del electrón.
Una forma de establecer este principio es afirmar que las cantidades medibles están sometidas a fluctuaciones impredecibles que hacen que sus valores no estén bien determinados. Las magnitudes aparecen reunidas en parejas incompatibles tales como posición y momento, energía y tiempo, etc. La incertidumbre en la medida de una de estas magnitudes multiplicada por la incertidumbre de la correspondiente en la pareja no puede ser nunca menor que h. Puesto que h tiene un valor muy pequeño, el grado de indeterminación es sólo importante en el mundo subatómico, aunque, en principio, se aplica a todos los sistemas. Para la física clásica la constante h no tiene ningún sentido, por lo que la incertidumbre puede ser, perfectamente, cero (como cero es la mínima acción considerada para la física clásica de Newton).
Principio de incertidumbre para la energía. Pares de partículas virtuales
De este principio se deriva que cuanto menor es el tamaño de la región que queremos explorar, mayor es el momento y, en consecuencia, la energía para poder hacerlo. Por esta razón, para estudiar regiones muy pequeñas se necesitan partículas con una gran energía; de ahí, la necesidad de contar con grandes aceleradores de partículas.
Análogamente, existe una incertidumbre relacionada con la energía y el tiempo. No podemos conocer con toda precisión la energía que tiene un sistema mecanocuántico en un instante determinado. La incertidumbre en el valor de la energía del sistema multiplicado por la incertidumbre del valor del instante de tiempo en que se realiza la medida tiene que ser nuevamente mayor que la constante de Planck. Si tenemos en cuenta la famosa ecuación de equivalencia entre masa y energía E = mc2, la incertidumbre en la medida de la energía se traduce en incertidumbre en el valor de la masa del sistema. En un instante muy corto de tiempo, no podemos estar seguros de cuál es la masa de nuestro sistema. La materia puede aparecer y desaparecer espontáneamente en el vacío. Puesto que siempre que aparece una partícula de materia se debe crear otra de antimateria, el tiempo durante el cual puede existir el par partícula-antipartícula es extraordinariamente corto; tanto menor cuanto mayor es la masa de las partículas. Aplicando la expresión del principio de incertidumbre para un par electrón-positrón se obtiene que este intervalo es de 6.5x10-22 seg. Este proceso puede ocurrir en cualquier sitio y en cualquier instante de tiempo, pero sólo durante un intervalo de tiempo extraordinariamente corto. Por ello es imposible una observación directa de estas partículas, aunque se pueden detectar sus efectos. Esta es la razón por lo que a estos pares de partícula-antipartícula se les da el nombre de virtuales.
Del libro "Física para jusristas, economistas... y demás gente curiosa", de Roberto González Amado (Catedrático de física aplicada en la Universidad Carlos III de Madrid). Ed. Critica. Barcelona 1996.
Sobre el ESPACIO-TIEMPO FRACTAL, sobre física cuántica, fractales... ciencia desde un punto de vista humano. La aventura científica se convierte en la búsqueda de las más sencillas y potentes simetrías (belleza) capaces de descifrar, de la forma más simple, la aparente complejidad del mundo que nos rodea.
2009/02/20
2009/02/10
Entalpía y entropía, la física de la vida
Cuando mis obligaciones me lo permiten me paso por la librería París-Valencia de la Gran Vía del Marqués del Turia (Valencia), la de la calle Pelayo o la de la Glorieta. Allí suelo encontrar verdaderas oportunidades en libros científicos (y en cualquier otro tipo de libros). El otro día encontré un hermoso libro muy bien encuadernado, con buenas ilustraciones a todo color y no menos llamativas y detalladas explicaciones sobre los procesos básicos de la vida. En la primera de las seis partes de que se compone comienza con una introducción a las reacciones químicas de la célula, y habla sobre las variables termodinámicas de estado, entalpía y entropía, esenciales para comprender este tipo de reacciones. Precisamente sobre esto hablaremos en este post, sobre los factores energéticos que influyen y posibilitan las reacciones bioquímicas y, por tanto, la propia vida.
La vida y la energía:
La vida es un complejo proceso físico-químico en el que están implicadas miles de reacciones diferentes que se llevan a cabo de un modo organizado. Estas reacciones se llaman reacciones metabólicas y al conjunto de ellas metabolismo. Las estrategias que han debido perfeccionarse a lo largo de millones de años de evolución son ciertamente elegantes y fascinantes, pero la consideración fundamental ante cualquier aspecto relacionado con la vida viene referido a una serie de aportes o pérdidas de energía. Son, pues, las consideraciones energéticas las que determinan si una reacción se puede producir a velocidad significativa, o si la misma puede o no producirse en sentido opuesto.
Entalpía H(*):
En los sistemas moleculares del interior de las células, donde tienen lugar las reacciones químicas, las variaciones de energía no son tan evidentes como en los sistemas físicos más usuales y sencillos sujetos a cambios de energía potencial y cinética, como puedan ser los que se refieren a movimientos de cuerpos en un campo gravitatorio. Un sistema químico comprende una gran cantidad de moléculas diferentes que contienen una cierta cantidad de energía en función de su estructura. Esta energía puede ser descrita como el contenido en calor o entalpía (H) de la molécula. Cuando una molécula se transforma en una estructura diferente mediante una reacción química, su contenido energético puede cambiar. Su variacion de entalpía puede ser negativa, cuando se pierde calor de la molécula, y éste se libera elevando la temperatura exterior, o positiva, cuando se capta calor del exterior.
A primera vista, parece sorprendente que puedan producirse reacciones con una variación de entalpía positiva, lo que podría compararse, en cierta forma, con un cuerpo que se elevara a sí mismo del suelo, absorbiendo la energía necesaria del exterior espontáneamente. Precisamente, en las reacciones químicas una variación negativa de la entalpía favorece la reacción, mientras que una variación positiva tiene el efecto opuesto. De todas formas, la variación de la entalpía no es el único árbitro que determina la viavilidad de las reacciones, la variación de la entropía (S) tiene mucho que decir en el asunto.
Entropía (S):
La entropía puede definirse como el grado de desorden de un sistema. En una reacción bioquímica, este desorden puede adoptar tres formas:
- Las moléculas no suelen ser rígidas ni permanecer fijas, por lo que pueden vibrar, girar o rotar. Cuanto mayor es la libertad para consentir estos movimientos moleculares, mayor es el desorden o la entropía.
- En un sistema bioquímico están implicadas un gran número de moléculas individuales que pueden encontrarse distribuidas de modo disperso y desordenado o adoptar algún tipo de disposición ordenada como ocurre en gran medida en las células vivas.
- El número de moléculas individuales o iones pueden cambiar como resultado de la transformación química. Cuanto mayor es su número, mayor es el desorden y por tanto la entropía.
Tanto la variación de entalpia como la variación de la entropía intervienen en la decisión para determinar si una reacción química puede producirse o no:
- Pérdida de entalpía y ganancia de entropía => refuerzan ambos la decisión: SÍ a la reacción química.
- Ganancia de entalpía y pérdida de entropía => refuerzan ambos la decisión: No a la reacción química.
Energía libre (G):
Sin embargo, en los sistemas biológicos es difícil si no imposible, en muchas ocasiones, medir el término de la variación de entropía. La solución se hace más fácil con la introducción del concepto de energía libre de Gibbs que combina los dos términos en uno solo. El cambio de energía libre o G, según Gibbs, viene dado por la expresión: (variación de G) = (variación de H) - T (variación de S), donde T es la temperatura absoluta. Esta ecuación se aplica a los sistemas en los que la temperatura y la presión permanecen constantes durante el proceso, como es el caso de los sistemas biológicos.
Al hablar de energía libre nos referimos a energía disponible para realizar un trabajo útil. Representa la máxima cantidad de energía procedente de una reacción química disponible para realizar trabajo útil. Este incluye la contracción muscular, la síntesis química en la celula y los trabajos osmóticos y eléctrico, sus valores se expresan en unidades de calorías o julios ( 1 caloría = 4,19 julios) por unidades de masa molecular.
El término de mayor importancia:
La variación de energía libre es el término de mayor importancia termodinámica en una reacción, hasta tal punto que sólo puede ocurrir si dicha variación de energía libre es negativa, es decir, si en las condiciones predominantes los productos de la reacción tienen menos energía libre que los reactivos.
(*)Entalpía termodinámica:
La entalpía (simbolizada generalmente como "H", también llamada contenido de calor, y calculada en Julios en el sistema internacional de unidades o también en kcal ), es una variable de estado, (lo que quiere decir que, sólo depende de los estados inicial y final) que se define como la suma de la energía interna de un sistema termodinámico y el producto de su volumen y su presión.
La entalpía total de un sistema no puede ser medida directamente, al igual que la energía interna, en cambio, la variación de entalpía de un sistema sí puede ser medida experimentalmente. El cambio de la entalpía del sistema causado por un proceso llevado a cabo a presión constante, es igual al calor absorbido por el sistema durante dicho proceso.
La entalpía se define mediante la siguiente fórmula: H = U + p V (energía interna + presión por volumen).
La vida y la energía:
La vida es un complejo proceso físico-químico en el que están implicadas miles de reacciones diferentes que se llevan a cabo de un modo organizado. Estas reacciones se llaman reacciones metabólicas y al conjunto de ellas metabolismo. Las estrategias que han debido perfeccionarse a lo largo de millones de años de evolución son ciertamente elegantes y fascinantes, pero la consideración fundamental ante cualquier aspecto relacionado con la vida viene referido a una serie de aportes o pérdidas de energía. Son, pues, las consideraciones energéticas las que determinan si una reacción se puede producir a velocidad significativa, o si la misma puede o no producirse en sentido opuesto.
Entalpía H(*):
En los sistemas moleculares del interior de las células, donde tienen lugar las reacciones químicas, las variaciones de energía no son tan evidentes como en los sistemas físicos más usuales y sencillos sujetos a cambios de energía potencial y cinética, como puedan ser los que se refieren a movimientos de cuerpos en un campo gravitatorio. Un sistema químico comprende una gran cantidad de moléculas diferentes que contienen una cierta cantidad de energía en función de su estructura. Esta energía puede ser descrita como el contenido en calor o entalpía (H) de la molécula. Cuando una molécula se transforma en una estructura diferente mediante una reacción química, su contenido energético puede cambiar. Su variacion de entalpía puede ser negativa, cuando se pierde calor de la molécula, y éste se libera elevando la temperatura exterior, o positiva, cuando se capta calor del exterior.
A primera vista, parece sorprendente que puedan producirse reacciones con una variación de entalpía positiva, lo que podría compararse, en cierta forma, con un cuerpo que se elevara a sí mismo del suelo, absorbiendo la energía necesaria del exterior espontáneamente. Precisamente, en las reacciones químicas una variación negativa de la entalpía favorece la reacción, mientras que una variación positiva tiene el efecto opuesto. De todas formas, la variación de la entalpía no es el único árbitro que determina la viavilidad de las reacciones, la variación de la entropía (S) tiene mucho que decir en el asunto.
Entropía (S):
La entropía puede definirse como el grado de desorden de un sistema. En una reacción bioquímica, este desorden puede adoptar tres formas:
- Las moléculas no suelen ser rígidas ni permanecer fijas, por lo que pueden vibrar, girar o rotar. Cuanto mayor es la libertad para consentir estos movimientos moleculares, mayor es el desorden o la entropía.
- En un sistema bioquímico están implicadas un gran número de moléculas individuales que pueden encontrarse distribuidas de modo disperso y desordenado o adoptar algún tipo de disposición ordenada como ocurre en gran medida en las células vivas.
- El número de moléculas individuales o iones pueden cambiar como resultado de la transformación química. Cuanto mayor es su número, mayor es el desorden y por tanto la entropía.
Tanto la variación de entalpia como la variación de la entropía intervienen en la decisión para determinar si una reacción química puede producirse o no:
- Pérdida de entalpía y ganancia de entropía => refuerzan ambos la decisión: SÍ a la reacción química.
- Ganancia de entalpía y pérdida de entropía => refuerzan ambos la decisión: No a la reacción química.
Energía libre (G):
Sin embargo, en los sistemas biológicos es difícil si no imposible, en muchas ocasiones, medir el término de la variación de entropía. La solución se hace más fácil con la introducción del concepto de energía libre de Gibbs que combina los dos términos en uno solo. El cambio de energía libre o G, según Gibbs, viene dado por la expresión: (variación de G) = (variación de H) - T (variación de S), donde T es la temperatura absoluta. Esta ecuación se aplica a los sistemas en los que la temperatura y la presión permanecen constantes durante el proceso, como es el caso de los sistemas biológicos.
Al hablar de energía libre nos referimos a energía disponible para realizar un trabajo útil. Representa la máxima cantidad de energía procedente de una reacción química disponible para realizar trabajo útil. Este incluye la contracción muscular, la síntesis química en la celula y los trabajos osmóticos y eléctrico, sus valores se expresan en unidades de calorías o julios ( 1 caloría = 4,19 julios) por unidades de masa molecular.
El término de mayor importancia:
La variación de energía libre es el término de mayor importancia termodinámica en una reacción, hasta tal punto que sólo puede ocurrir si dicha variación de energía libre es negativa, es decir, si en las condiciones predominantes los productos de la reacción tienen menos energía libre que los reactivos.
(*)Entalpía termodinámica:
La entalpía (simbolizada generalmente como "H", también llamada contenido de calor, y calculada en Julios en el sistema internacional de unidades o también en kcal ), es una variable de estado, (lo que quiere decir que, sólo depende de los estados inicial y final) que se define como la suma de la energía interna de un sistema termodinámico y el producto de su volumen y su presión.
La entalpía total de un sistema no puede ser medida directamente, al igual que la energía interna, en cambio, la variación de entalpía de un sistema sí puede ser medida experimentalmente. El cambio de la entalpía del sistema causado por un proceso llevado a cabo a presión constante, es igual al calor absorbido por el sistema durante dicho proceso.
La entalpía se define mediante la siguiente fórmula: H = U + p V (energía interna + presión por volumen).
2009/02/02
El siglo del electromagnetismo: Faraday y Maxwell
Aunque la electricidad y el magnetismo eran conocidos desde la antigüedad, fue en el siglo XIX cuando se descubrió que no son fenómenos separados y forman parte de un fenómeno más general llamado electromagnetismo. Su estudio en profundidad dio paso a una transformación completa de nuestra sociedad: motores eléctricos, distribución y aplicación a gran escala de la electricidad, telégrafo, radio, televisión y miles de aplicaciones cotidianas que han cambiado nuestras vidas para siempre. Además, la identificación de la luz como fenómeno electromagnético puso las bases de la revolución que ha supuesto la teoría de la relatividad.
El punto de partida fue un sencillo experimento que realizó el físico-químico danés Hans Christian Oersted en 1820, en presencia de sus alumnos. Al acercar un hilo conductor, por el que circulaba electricidad, a una brújula observó que ésta se movía. Esto demostraba que podía haber interacción entre uno y otro fenómeno lo que en aquella época resultaba revolucionario. Pero hasta que no se interesó por el fenómeno el matemático y físico francés André-Marie Ampère, y estableció las bases teóricas del electromagnetismo, los resultados obtenidos por Oersted no fueron valorados como se merecían.
En 1821 Michael Faraday, un aprendiz de encuadernador que ascendió de ayudante en la Royal Institution londinense a catedrático del mismo centro, demostró que un hilo por el que pasaba una corriente eléctrica podía girar de manera contínua, con lo que se vió que era posible obtener efectos mecánicos. Había sentado las bases del motor eléctrico. Sin embargo lo que le interesaba a Faraday no eran tanto las aplicaciones prácticas sino los principios que gobiernan la naturaleza, y en particular las relaciones mútuas entre fuerzas, en principio, diferentes. En 1831 descubrió la inducción electromagnética, un fenómeno que liga los movimientos mecánicos y el magnetismo con la producción de corriente eléctrica. Había sentado, también, las bases de los generadores eléctricos.
Faraday era un experimentador extraordinariamente hábil, que hizo avanzar el estudio de los fenómenos electromagnéticos, pero para desarrollar una teoría del electromagnetismo se necesitaba otro tipo de científico. Este científico, que iba a complementar el genio de Faraday, fue el escocés James Clerk Maxwell. Valiéndose de la noción de líneas de fuerza introducida por Faraday, así como de los resultados experimentales y teóricos de un buen número de investigadores, Maxwell logró desarrollar un conjunto de ecuaciones en derivadas parciales que rigen el comportamiento del campo electromagnético (un nuevo medio) que él supuso transportaba las fuerzas eléctricas y magnéticas, ecuaciones que hoy denominamos en su honor ecuaciones de Maxwell.
Con su teoría del campo electromagnético, Maxwell logró unir electricidad, magnetismo y óptica, pues demostró que el sustrato electromagnético se comporta como una onda mientras que la propia luz es una onda electromagnética.Esto último fue realmente un resultado completamente inesperado. En su artículo, “Sobre las líneas físicas de fuerza”, en el que presentó esta idea, afirmaba con excitación:“Difícilmente podemos evitar la inferencia de que la luz consiste de ondulaciones transversales del mismo medio que es la causa de los fenómenos eléctricos y magnéticos”.
Faraday, además de un gran científico, fue un magnífico divulgador en conferencias que desde 1826 pronunció en Navidad, especialmente para jóvenes, en la sede de la Royal Institution londinense. Además de sus tratados eminentemente técnicos (“Experimental Researches in Electricity” y “Experimental Researches in Chemistry and Physics), un pequeño libro llamado “Historia química de una vela”, ilustra a la perfección esta faceta.
Maxwell escribió su tratado sobre electromagnetismo” Treatise on Electricity and Magnetism”, un texto difícil por su tratamiento y por las matemáticas que utiliza (Maxwell era un gran matemático), que fue capital para la física del siglo XX. La relatividad einsteniana, en la que es tan importante la velocidad de referencia de la luz en el vacío, no habría sido posible sin sus ecuaciones que llevaban implícita la existencia de un nuevo medio tan importante como es el campo electromagnético y la “muerte” de otro medio imaginario llamado éter.
Un sencillo experimento de un profesor ante sus alumnos nos abrió las puertas a la sociedad moderna. Una sociedad impensable sin la electricidad, sin los motores y generadores eléctricos, donde un simple apagón parece que nos devuelve a la edad de las cavernas.
El punto de partida fue un sencillo experimento que realizó el físico-químico danés Hans Christian Oersted en 1820, en presencia de sus alumnos. Al acercar un hilo conductor, por el que circulaba electricidad, a una brújula observó que ésta se movía. Esto demostraba que podía haber interacción entre uno y otro fenómeno lo que en aquella época resultaba revolucionario. Pero hasta que no se interesó por el fenómeno el matemático y físico francés André-Marie Ampère, y estableció las bases teóricas del electromagnetismo, los resultados obtenidos por Oersted no fueron valorados como se merecían.
En 1821 Michael Faraday, un aprendiz de encuadernador que ascendió de ayudante en la Royal Institution londinense a catedrático del mismo centro, demostró que un hilo por el que pasaba una corriente eléctrica podía girar de manera contínua, con lo que se vió que era posible obtener efectos mecánicos. Había sentado las bases del motor eléctrico. Sin embargo lo que le interesaba a Faraday no eran tanto las aplicaciones prácticas sino los principios que gobiernan la naturaleza, y en particular las relaciones mútuas entre fuerzas, en principio, diferentes. En 1831 descubrió la inducción electromagnética, un fenómeno que liga los movimientos mecánicos y el magnetismo con la producción de corriente eléctrica. Había sentado, también, las bases de los generadores eléctricos.
Faraday era un experimentador extraordinariamente hábil, que hizo avanzar el estudio de los fenómenos electromagnéticos, pero para desarrollar una teoría del electromagnetismo se necesitaba otro tipo de científico. Este científico, que iba a complementar el genio de Faraday, fue el escocés James Clerk Maxwell. Valiéndose de la noción de líneas de fuerza introducida por Faraday, así como de los resultados experimentales y teóricos de un buen número de investigadores, Maxwell logró desarrollar un conjunto de ecuaciones en derivadas parciales que rigen el comportamiento del campo electromagnético (un nuevo medio) que él supuso transportaba las fuerzas eléctricas y magnéticas, ecuaciones que hoy denominamos en su honor ecuaciones de Maxwell.
Con su teoría del campo electromagnético, Maxwell logró unir electricidad, magnetismo y óptica, pues demostró que el sustrato electromagnético se comporta como una onda mientras que la propia luz es una onda electromagnética.Esto último fue realmente un resultado completamente inesperado. En su artículo, “Sobre las líneas físicas de fuerza”, en el que presentó esta idea, afirmaba con excitación:“Difícilmente podemos evitar la inferencia de que la luz consiste de ondulaciones transversales del mismo medio que es la causa de los fenómenos eléctricos y magnéticos”.
Faraday, además de un gran científico, fue un magnífico divulgador en conferencias que desde 1826 pronunció en Navidad, especialmente para jóvenes, en la sede de la Royal Institution londinense. Además de sus tratados eminentemente técnicos (“Experimental Researches in Electricity” y “Experimental Researches in Chemistry and Physics), un pequeño libro llamado “Historia química de una vela”, ilustra a la perfección esta faceta.
Maxwell escribió su tratado sobre electromagnetismo” Treatise on Electricity and Magnetism”, un texto difícil por su tratamiento y por las matemáticas que utiliza (Maxwell era un gran matemático), que fue capital para la física del siglo XX. La relatividad einsteniana, en la que es tan importante la velocidad de referencia de la luz en el vacío, no habría sido posible sin sus ecuaciones que llevaban implícita la existencia de un nuevo medio tan importante como es el campo electromagnético y la “muerte” de otro medio imaginario llamado éter.
Un sencillo experimento de un profesor ante sus alumnos nos abrió las puertas a la sociedad moderna. Una sociedad impensable sin la electricidad, sin los motores y generadores eléctricos, donde un simple apagón parece que nos devuelve a la edad de las cavernas.
Artículo de mi colaboración con Libro de notas (Ciencias y letras)
Nota al margen: A mi padre.
Creo que nunca llegamos a entender ni lo que significa una nueva vida ni lo que significa la muerte. Como mucho nos acostumbramos. Nos acostumbramos al nuevo ser o nos acostumbramos a la ausencia de la persona querida, pero no llegamos de verdad a entenderlo.
Hoy hace una semana enterraba a mi padre y, recordando algo tan sencillo como el último café que nos tomamos y del que disfruté de verdad porque sabía que nos quedaban pocos, no puedo entender que fuera el último, que no lo volveré a ver ni volveré a disfrutar del candor de su compañía.
Fue un hombre sencillo y cariñoso. La enfermedad nos trajo dolor y sufrimiento, pero también dulcificó su carácter y nos mostró al mejor ser humano que llevaba dentro. Descanse en paz.