EDPSF

Si un acrónimo no es una buena manera de captar la atención, desarrollar lo que significa EDPSF seguro que no es mucho mejor: Ecuaciones en Derivadas Parciales y Series de Fourier, la asignatura del Grado en Matemáticas que he estado impartiendo durante los últimos tres cursos y que abandono para abordar nuevos proyectos docentes. Puede deducirse de lo que digo, que en mi departamento, los profesores no nos eternizamos en las asignaturas y que, cada cierto tiempo, tenemos la oportunidad de impartir y aprender cosas nuevas. En el caso de EDPSF, desde mis tiempos de estudiante, allá por el siglo pasado, no había vuelto a tratar con esta materia. Por eso, me apetecía dejar aquí al lector no matemático un poco de lo que he aprendido (o recordado) en estos tres años.

Uno de los libros de EDPs que tengo en mi biblioteca.

Ecuaciones en Derivadas Parciales

Es evidente que el título se compone de dos tópicos diferenciados, pero suficientemente próximos para que tenga sentido mezclarlos en una misma asignatura. Las Ecuaciones en Derivadas Parciales (EDP) son Ecuaciones Diferenciales donde la incógnita es una función de varias variables, conteniendo derivadas respecto a varias de ellas (derivadas parciales). Este tipo de objeto matemático aparece, principalmente, en problemas de Física, pero no únicamente. En general, cualquier proceso en el tiempo que tenga una componente espacial es susceptible de ser modelizado por una EDP. Por ejemplo, la interacción entre dos especies o el crecimiento de un tumor pueden describirse con EDPs. Hay que advertir que una misma EDP tiene, en general, infinitas soluciones y muy diferentes, por lo que es de la máxima importancia establecer condiciones adicionales que limiten a una única función la solución del problema.

Imagen tomada de «Partial Diferencial Equations» de F. John ilustrando la teoría geométrica de las EDPs de primer orden con los llamados «conos de Monge».

Al igual que con las ecuaciones algebraicas, las EDPs más sencillas son las de primer orden. Para ellas hay desde finales del siglo XVIII una teoría bastante satisfactoria con fuerte sabor geométrico, desarrollada por Joseph-Louis Lagrange y Gaspard Monge, entre otros. Lamentablemente, el estudio de las EDPs de primer orden no es de mucha ayuda en las EDPs de orden superior, particularmente, las de segundo orden que aparecen ligadas a problemas físicos. En los próximos epígrafes hablaremos de las siguientes: la ecuación de ondas, la ecuación de Laplace y la ecuación del calor. No por la relevancia de los problemas que describen o su importancia histórica, que es mucha, sino por que son las que se estudian habitualmente por su sencillez matemática y por ser representante de tres grandes grupos de EDPs.

La ecuación de ondas

La llamada ecuación de la cuerda vibrante (de violín, por ejemplo), versión sencilla (dimensión 1) de la ecuación de ondas, fue propuesta en el año 1746 por Jean le Rond d’Alembert que, además, proporcionó de manera ingeniosa su solución general. La ecuación de ondas se presenta en muchas situaciones en las que se describe la propagación de una perturbación en un medio elástico o un campo, tal como el electromagnético. Esto último es muy importante para la Ciencia, ya que cuando James C. Maxwell descubrió en 1867 que las ecuaciones del campo electromagnético implicaban la propagación de perturbaciones de acuerdo con la ecuación de ondas, calculó su velocidad (expresable en términos de las constantes para las atracciones eléctrica y magnética), encontrando que coincidía con la de la luz. Esto permitió reconocer la luz como una manifestación del campo electromagnético, dando lugar a un desarrollo tecnológico cuyo pistoletazo de salida podemos situar en 1887 con los experimentos de Heinrich R. Hertz.

Frentes de onda producidos por una piedra en un estanque (foto tomada de Internet).

Es un hecho notable que los Pitagóricos descubrieran experimentalmente una relación entre Matemáticas y Música (bendecida por el Quadrivium) que más de 2000 años después se justificó rigurosamente con el estudio de la EDP de la cuerda vibrante. El sonido también se transmite por el aire y lo hace de acuerdo con la ecuación de ondas en 3 dimensiones, en la que el factor de elasticidad del medio gaseoso debe tener en cuenta consideraciones termodinámicas. La solución de Gustav Kirchhoff permite deducir una característica del sonido que tenemos tan interiorizada que no reparamos en ella: los sonidos los escuchamos una sola vez, salvo que reboten (eco). En dimensión 2 esto mismo no ocurre, como muestra la solución de Jacques Hadamard, y el sonido se repite después de ocurrido disipándose lentamente, como con la piedra que se arroja al estanque: aunque una onda circular se propague aumentando su radio, en el lugar donde se arrojó la piedra el agua sigue temblando.

La ecuación de Laplace

De la figura de Pierre-Simon Laplace dimos una pincelada anecdótica en nuestro post Ecuaciones diferenciales. Además, la ecuación de Laplace ya la hemos tratado en Circunferencias y esferas, aunque allí no la mencionamos con ese nombre, sino con el de ecuación de Poisson, que es más general, y el llamado Problema de Dirichlet, que es más particular. Ahora nos ocuparemos de ciertas variaciones. En efecto, la ecuación de ondas nos remite a una ecuación emparentada con la de Laplace cuando se investiga el problema de la membrana vibrante, o sea, el tambor. Si la cuerda de un violín puede producir determinadas frecuencias, la membrana de un tambor de contorno arbitrario puede hacer lo mismo. Pero con dos salvedades: las frecuencias en general no guardan las relaciones «armoniosas» que los Pitagóricos reconocieron, y además dependen fuertemente de la geometría de la membrana. «¿Se puede oír la forma de un tambor?» preguntaba Mark Kac en 1966 y la respuesta, negativa, llegó en 1992.

Parte de la resolución del problema de Dirichlet por métodos de espacio de Hilbert, tomado de H. Brezis «Analyse Fonctionnelle».

La ecuación emparentada con la de Laplace a la que nos referíamos es la de valores propios del operador laplaciano. Sin entrar es detalles y desde un punto de vista formal, dicha ecuación guarda muchas similitudes con el problema de diagonalizar una matriz simétrica, o equivalentemente, llevar una forma cuadrática a su expresión canónica, que no es otra cosa que describir, por ejemplo, una elipse según unas coordenadas paralelas a sus ejes. Así, la intuición geométrica se convierte en la guía que permite resolver una EDP como si fuera un problema de Álgebra Lineal, y ese desarrollo formal se lleva a cabo en el marco del espacio de Hilbert con algunos ingredientes que aún no introduciremos. Es inevitable no mencionar que espacio de Hilbert proporciona también soporte a la Mecánica Cuántica y la resolución de la ecuación de Schrödinger se reduce, en muchos casos, a la búsqueda de valores propios del operador hamiltoniano (una complicación del laplaciano, matemáticamente hablando).

La ecuación de calor

La ecuación que modeliza la difusión del calor y evolución de la temperatura en un cuerpo fue propuesta por Joseph Fourier en 1822 en una famosa memoria que a la Académie de Sciencies de Francia le costó mucho digerir. De hecho, Fourier vio publicada su obra gracias a que se convirtió en secretario de la institución científica. El motivo de tanta dificultad fue una audaz afirmación sobre la posibilidad de desarrollo de una función «arbitraria» en serie trigonométrica. En efecto, los mejores matemáticos de la época no entendían como una superposición de funciones tan regulares como seno y coseno podía producir gráficas con picos o, peor aún, discontinuidades. El resultado de la «bomba» que lanzó Fourier fue una profunda revisión de los fundamentos del Análisis Matemático: qué son las funciones, qué son los límites, qué son realmente los números. Ese proceso se completaría 80 años después con la introducción de la integral de Lebesgue.

Gráfico del movimiento browniano generado por mi compañero Francisco Esquembre, Fu-Kwun y Lookang obtenido en Wikipedia https://commons.wikimedia.org/wiki/File:Brownian_motion_large.gif

No hemos dicho nada todavía de la ecuación del calor, que se llama también de difusión porque rige la distribución de probabilidad de una partícula que sufre perturbaciones aleatorias de su posición en el tiempo. La solución de la ecuación nos dice, por medio de la integración, la probabilidad de encontrar la partícula en una determinada región en el instante t>0, si para t=0 se encontraba en el origen. Naturalmente, una partícula en el instante t se encuentra en un único sitio, pero al ser las perturbaciones aleatorias, cada vez que se repite el experimento, el resultado es distinto y lo único que puede establecerse con precisión es la probabilidad. Lo más curioso es que este proceso puede observarse en la naturaleza: Robert Brown se dio cuenta de lo errático de las trayectorias de los granos de polen en suspensión en una gota de agua. En un famoso trabajo, Albert Einstein dio una explicación: en la escala de tamaño del grano de polen, se percibe la discretitud del intercambio de energía cinética con las moléculas de agua. El propio Einstein derivó la ecuación de difusión y demostró como la naturaleza atómica de la materia se manifiesta visiblemente a nuestros ojos.

Series de Fourier

Antes hemos dicho que Joseph Fourier afirmó la posibilidad de desarrollar una función arbitraria en serie trigonométrica y que esto desencadenó un proceso de revisión de los fundamentos del Análisis Matemático. En su honor, dichas expresiones en serie se conocen como series de Fourier, aunque la teoría fue desarrollada por otros autores, notablemente Dirichlet y Riemann. A finales del siglo XIX, un joven matemático realizaba su tesis doctoral sobre la unicidad de la expresión trigonométrica para una función dada. Sus investigaciones le llevaron al desarrollo de las nociones básicas de topología conjuntista (Topología General) y las bases de la Teoría de Conjuntos, lo que incluía la diferenciación entre distintos tamaños de infinitud y la teoría de números ordinales transfinitos, casi nada. Se llamaba Georg Cantor, y ahora toda la Matemática se fundamenta en la su Teoría de Conjuntos, el paraíso que Cantor ha creado para nosotros según David Hilbert, que como acabamos de ver es un spin-off de las series de Fourier.

Ejemplos de desarrollos en serie de Fourier, tomado de I. Bronshtein y K. Semendiaev «Manual de Matemáticas para ingenieros y estudiantes».

La teoría de las series de Fourier queda englobada dentro del llamado Análisis Armónico, que investiga la expresión general de una función como superposición de componentes periódicas. Esto es particularmente interesante en aplicaciones tecnológicas, como el análisis de señales, procesado y compresión de sonidos (mp3) o imágenes (jpg), o los más sofisticados métodos de imagen médica, utilizan las matemáticas del Análisis Armónico. Naturalmente, la implementación de estas técnicas se hace con algoritmos que optimizan el volumen de cálculos y proporcionan el resultado en un tiempo razonablemente breve. Uno de los más famosos, la transformada rápida de Fourier (FFT) fue usado por Carl Friedrich Gauss, antes incluso de la aparición es escena de Joseph Fourier, para descubrir periodicidades ocultas en los datos sobre el planetoide Ceres proporcionados por las observaciones astronómicas, ver nuestro post El Sistema Solar para más detalles.

Una nueva visión de la realidad

Volviendo a las EDPs, la investigación de la existencia de soluciones puede llevar por caminos extraños. Ocurre que los métodos de Análisis Funcional, consistentes en considerar una EDP como un problema de Álgebra Lineal (esto no es así para EDPs no lineales) requieren la completitud del espacio de funciones que sirve de marco teórico. Pero la completitud de los espacios de funciones integrables suele conllevar la presencia de elementos altamente discontinuos, lo que está reñido con la derivabilidad inherente a las soluciones de EDPs. Esto se traduce en la necesidad de darle significado al concepto de solución no diferenciable. Pero esto es como abrir la caja de Pandora, porque muy pronto tendremos que considerar soluciones de EDPs que no son siquiera funciones 😕 ¿Cómo se come esto? Para el lector con cultura matemática, estamos hablando de las funciones generalizadas o distribuciones de Sergéi Sóbolev y Laurent Schwartz.

Un libro de texto por L. Schwartz con la teoría de distribuciones aplicada a las EDPs de la Física.

Al igual que la Teoría de la Relatividad o la Mecánica Cuántica nos obligan a alterar nuestra percepción de la realidad (la separación entre tiempo y espacio depende del observador, o que partícula y onda son dos caras de la misma moneda), las soluciones distribucionales de una EDP nos invitan a reflexionar sobre si las funciones «clásicas» son el mejor modelo para algunos problemas. Por ejemplo, en el planteamiento de la ecuación del calor se habla de la temperatura en un punto de un cuerpo, pero la temperatura realmente se mide con un termómetro que no se sitúa exactamente sobre un punto sino sobre una región limitada alrededor del punto. Podríamos decir que esto es problema del aparato de medida, pero el hecho es que la temperatura es un resultado de tipo estadístico sobre el estado de agitación molecular de cuerpo. Así la temperatura modelizada por la EDP no es una función que toma un valor en cada punto, sino una función definida sobre un conjunto de termómetros con distintos tamaños y posiciones con los que se puede examinar el cuerpo. Ésta es la idea esencial de las distribuciones, sólo que en lugar de termómetros hay funciones test.

Farewell PDEs!

Como decía el gran Paco Umbral, yo he venido a hablar aquí de mi libro de EDPSF. Aunque las EDPs y las series de Fourier son teorías muy asentadas y con muchos grandes textos escritos por matemáticos de primer orden, es siempre difícil encontrar un libro que refleje exactamente el punto de vista que uno desea darle y tenga en cuenta los conocimientos previos de los estudiantes. Por eso decidí redactar unos apuntes que doy por acabados justo al final de estos tres años, cuando ya no me harán falta para dar clase. El motivo por el que están en inglés así como otras consideraciones didácticas lo explico en los enlaces de mi web corporativa.

Ilustración del principio de Huygens sobre la propagación de ondas, una de las imágenes que me gusta(ba) destacar durante el curso.

Con esto me despido de la Ecuaciones en Derivadas Parciales y las Series de Fourier, de momento… y de las Matemáticas, hasta el nuevo curso 🙂

Un Nobel en la familia

El mes pasado se hizo pública la noticia: Michel Talagrand ha sido galardonado con el Premio Abel de Matemáticas 2024. Es una noticia excelente para la Teoría de Espacios de Banach, de la que Talagrand es uno de sus más insignes representantes, si bien para el Premio Abel se han tenido también en cuenta otras contribuciones del matemático francés, como sus esfuerzos por dotar de rigor matemático a las teorías de Giorgio Parisi, Premio Nobel de Física en 2021. Pero es también una noticia muy buena para mí. Aunque no tengo trato con Michel Talagrand, su nombre ha aparecido frecuentemente en todo lo que he tenido que estudiar durante mi doctorado y años después. Es más, para mí, Michel Talagrand es sinónimo de ideas profundas y argumentos muy difíciles parcamente explicados: tengo un artículo suyo desde 1994 y todavía me atasco al pasar al segundo párrafo.

Michel Talgrand, con un sorprendente estilo «biker grandpa» (foto tomada de la nota de prensa tras la concesión del Premio Abel, compárese con la foto de Wikipedia).

¿Nobel de Matemáticas?

Es bien sabido que no existe un Premio Nobel de Matemáticas. No entraré en las leyendas sin fundamento para tal ausencia. Lo cierto es que no entraba en los planes de Alfred Nobel, que estableció cinco premios originalmente en 1895: Física, Química, Fisiología/Medicina, Literatura y Paz. Tras la instauración del Nobel de Economía en 1968, que algunos sostienen que no es un auténtico Premio Nobel (aunque lo gestiona la Fundación Nobel y se entrega en la misma ceremonia que los demás), se cerró definitivamente la posibilidad de añadir nuevos premios. El matemático Sophus Lie, muy decepcionado con la decisión de Alfred Nobel, propuso en 1897 la creación del Premio Abel (en honor de Niels Abel). Sin embargo, no sería hasta 2002 que se establecería este galardón. El Premio Abel es concedido por la Academia Noruega de Ciencias y Letras y se entrega en Oslo (como el Nobel de la Paz). A pesar de esto, los periodistas suelen contribuir a la ambigüedad etiquetando como «Nobel de Matemáticas» otros premios.

Premio Nobel vs Premio Abel (foto tomada de internet).

Tradicionalmente se venía identificando la Medalla Fields como el «Nobel de Matemáticas». Las Medallas Fields se entregan, mayormente y como mucho, de cuatro en cuatro en el Congreso Internacional de Matemáticos, que se celebra cada cuatro años, lo que viene a ser, en media, un premio anual (a veces bianual). Sin duda, las Medallas Fields, concedidas desde 1936, han sido hasta la instauración del Premio Abel, el más importante galardón para matemáticos. Pero hay una diferencia fundamental: sólo se puede recibir la medalla fields si no se han cumplido los 40 años. Esto provoca que la Medalla Fields se vincule más a una trayectoria meteórica en Matemáticas que a un gran descubrimiento, si bien todos los galardonados, Abel o Fields, han hecho grandes descubrimientos, o han resuelto importantes problemas, que viene a ser casi lo mismo 😉 Andrew Wiles, tras resolver el «Último Teorema de Fermat» no pudo recibir la Medalla Fields por madurito, pero recibió el Premio Abel muy merecidamente unos años después.

Espacios de Banach, Topología y Medida

Michel Talagrand realizó su tesis doctoral bajo la dirección de Gustave Choquet, a quien ya conocemos de Historias tras un libro. En un artículo de matemáticas muy posterior a esa época de estudiante, Talagrand reconoce que Choquet le puso diez problemas sobre los que no pudo realizar ninguna contribución. De hecho, el artículo en cuestión está destinado a una solución parcial y extemporánea de uno de esos diez problemas. Su tesis doctoral titulada Mesures invariantes, compacts de fonctions mesurables et topologie faible des espaces de Banach da una idea del tipo de Matemáticas con las que comenzó Talagrand: un mix de Teoría de la Medida, Topología General y Teoría de Espacios de Banach. No es una reunión de tres tópicos ajenos, sino que hay fuertes conexiones entre ellos cuyo estudio resulta tremendamente fecundo (cross-fertilization en palabras de Namioka). Reconozco que soy muy parcial en este tema porque es donde se ubica mi propia investigación.

El primer artículo de Talagrand que cayó en mis manos.

Uno de los primeros resultados de Talagrand en espacios de Banach resuelve un problema propuesto por Corson: los espacios débilmente compactamente generados son (débilmente) K-analíticos y, por lo tanto, también débilmente Lindelöf (demostrado independientemente por David Preiss). Este resultado forma parte de la clasificación de los espacios de Banach no separables, cuyo leitmotif es generalizar y aislar las propiedades que tienen los espacios separables de «forma gratuita». Concretamente se relacionan propiedades lineales con otras estrictamente topológicas. Los espacios de Banach pueden motivar resultados topológicos muy profundos. Por ejemplo, el teorema l1 de Rosenthal es el origen de los resultados de Bourgain, Fremlin y Talagrand sobre compactos de funciones medibles. Señalemos aquí que Jean Bourgain fue galardonado con la Medalla Fields en 1994.

Probabilidad y más allá

Existe una tendencia en las universidades españolas a vincular las áreas de Probabilidad y Estadística. La diferencia es que la Probabilidad es una teoría matemática alrededor del concepto de aleatoriedad mientras que la Estadística es un conjunto de técnicas para analizar datos bajo la hipótesis de que los muestreos para obtenerlos y las perturbaciones en las medidas son aleatorios. Evidentemente, la Probabilidad y la Estadística están muy relacionadas, pero un analista como yo ve la Probabilidad como algo más propio de su campo. Hay muchos motivos para sostener esta afirmación, pero sólo mencionaré dos de ellos: importantes resultados de Análisis Funcional, como el teorema de Dvoretzky o el lema de Johnson-Lindenstrauss admiten demostraciones probabilísticas; otro motivo es que el comportamiento de las variables aleatorias en un espacio de Banach se relaciona con la geometría del mismo, por ejemplo, el uso que hace Pisier de las martingalas para renormar un espacio súper-reflexivo.

El lema de Johnson-Lindenstrauss es un resultado fundamental en Ciencia de Datos… con esta foto quiero dejar patente a qué especialidad matemática se dedicaban sus autores (Joram Lindenstrauss falleció en 2012, Bill Johson acaba de jubilarse)

El comité del Premio Abel menciona explícitamente la contribución de Talagrand al estudio del fenómeno de concentración de la medida. Intentaremos dar una idea de en qué consiste. Para una función continua f definida en el intervalo [0,1] tenemos que su promedio «más justo» es la integral de ésta. Si ahora consideramos la función compuesta f(n-1(x1+ … + xn)) definida en el producto de intervalos [0,1]n, podemos demostrar que a medida que n crece, el promedio de esta función se aproxima a f(1/2). Es decir, que aunque los valores de f y de la función compuesta sobre [0,1]n son los mismos, para la segunda se produce una «concentración» alrededor de un determinado valor. Más sorprendente es saber que la medida de en una esfera en el espacio euclídeo de n dimensiones se concentra alrededor de diámetros o que los valores de una función definida sobre ella lo hacen alrededor de su mediana.

Libro fundamental de Talgrand y Ledoux sobre Probabilidad.

No trataré de describir aquí las aportaciones más recientes de Michel Talagrand y que han pesado mucho en la concesión del premio. Hace bastantes años, buscando información sobre Talagrand llegué a su página personal. Allí decía, entre otras cosas, que en adelante sólo le interesaban los spin glasses, que por ignorancia pensaba que tenían que ver más con Swarovski que con las Matemáticas.

Un apunte personal

He aclarado al principio la identificación del Premio Abel con un Nobel de Matemáticas, lo que explica la mitad del título. Hablaremos ahora de la otra mitad, la familia. Existe una web llamada The Mathematics Genealogy Project donde se muestra el «árbol genealógico matemático», expresado éste como la relación maestro-discípulo aunque realmente se trate más de la formalidad director (o advisor) de tesis-doctorando. Este árbol genealógico está más o menos completo en la medida que se suministra a los administradores la información necesaria. Puede verse que Gustave Choquet tiene como alumnos, entre un total de 23, a Michel Talagrand y a Gilles Godefroy. Gilles Godefroy tiene, a su vez, como estudiante a Robert Deville. Finalmente, yo mismo soy alumno de Robert Deville, además de Gabriel Vera, lo que me proporciona también una buen puñado de ilustres antecesores. Si en lugar del Maths Genealogy Project se hubiera tratado del Génesis bíblico, Talagrand sería mi tío abuelo.

Dedicatoria de «mi abuelo» Gilles Godefroy en uno de sus libros.

Por eso estoy especialmente feliz: hay un Nobel en la familia 🙂

Los cuatro apellidos de Alexandra

Nunca la conocí en persona. Sólo a través de sus trabajos, cuando me estaba formando en Teoría de la Medida durante mis años de estudiante de doctorado. Tenía que leer varios artículos de «un» tal A. Ionescu-Tulcea sobre existencia de liftings. Intentaré explicar un poco esto, sin entrar demasiado en detalles técnicos. En espacios de funciones medibles se consideran como elementos clases de funciones, ya que se identifican como iguales las que difieren en un conjunto de medida nula. Esto implica, por ejemplo, que la evaluación puntual (de funciones) no se puede usar para definir nada. Un lifting en un espacio de funciones medibles es una selección que extrae de cada clase de funciones una única función, de manera que se preservan las propiedades algebraicas. Esto sí que permite el uso de las evaluaciones puntuales y, en cierto modo, reconcilia Medida con Topología.

Alexandra, en una foto de juventud (tomada de la prensa Rumana).

No espero que el lector ocasional entienda absolutamente nada de lo anterior, pues es difícil incluso para los profesionales. Los teoremas de lifting son muy profundos. Siguiendo una regla no escrita en la investigación matemática que dice «nunca usar teoremas cuya demostración no haya sido comprendida completamente» evité citar a Ionescu-Tulcea en mi tesina. No obstante, unos años después tuve que usar esta teoría en un artículo, por lo que me referí a un trabajo firmado por A. Bellow, que resultó ser la misma persona. Fue entonces que comencé a atar cabos… No es el único caso de una mujer científica que firma en cada momento con el apellido «que le toca por casamiento», pero ciertamente es una gran matemática y su interesante vida merece ser conocida.

Alexandra Bagdasar

Alexandra nació en 1935 en Bucarest. Sus padres, ambos médicos, fueron pioneros de la Neurociencia en Rumanía. El punto de inflexión de sus carreras ocurre cuando en 1927 se desplazaron a Boston. El padre de Alexandra, Dumitru Bagdasar, estudió neurocirugía con Harvey Cushing. Mientras, su madre, Florica Bagdasar, se formaba como psiquiatra con una beca Rockefeller. Aunque podrían haber iniciado una carrera profesional en USA, el matrimonio Bagdasar regresó a Rumanía en 1929. Muy comprometidos con las clases más desfavorecidas, ingresaron en el partido comunista desempeñando cargos importantes, aunque el contacto con occidente los mantendría bajo sospecha a los ojos del aparato de Stalin.

La familia Bagdasar.

Dumitru trabajó intensamente atendiendo heridos durante la Segunda Guerra Mundial y fue nombrado ministro de Sanidad en 1945. Un cáncer de pulmón acabó prematuramente con su vida en 1946 y su esposa lo sucedió en el cargo. Así Florica Bagdasar se convirtió en la primera mujer en formar parte de un gobierno rumano. Pero a comienzos de los años 50 comenzó una campaña de desprestigio contra ella. Apartada del cargo, posteriormente fue detenida sin explicación ninguna y encarcelada durante dos años, lo que fue tremendamente duro para Alexandra que era recibida en la escuela como una «apestada». Cuando terminó el terror stalinista en 1956, mejoró la situación de Florica. Le ofrecieron reincorporarse al partido, pero ella rehusó. En 1957 fue nombrada vicepresidenta de Cruz Roja en Rumanía. Su estatus le permitió viajar varias veces a USA, donde Alexandra se estableció. Florica murió en 1978, todavía tras el Telón de Acero.

Alexandra Ionescu-Tulcea

Alexandra ingresa en 1953 en la Universidad de Bucarest para estudiar Matemáticas. Su profesor de Análisis Matemático durante el primer curso fue Cassius Ionescu Tulcea, notable probabilista, aunque con el tiempo sería eclipsado por Alexandra. Se casaron en 1956, antes de que ella concluyera los estudios (un mensaje tranquilizador a los padres de estudiantes de Matemáticas: esto no ocurre hoy día, y mucho menos en la Universidad de Murcia). Al año siguiente acompaña a su marido a la Universidad de Yale, donde ella realiza el doctorado bajo la dirección de Shizuo Kakutani, famoso matemático muy conocido por su teorema de punto fijo, y un poco menos conocido por demostrar la propiedad de Banach-Saks en los espacios uniformemente convexos (disculpas por barrer para casa).

Escultura móvil de Alexander Calder, que puede verse como una interpretación artística del concepto de martingala (obra de 1960, foto tomada de una página de subastas).

Alexandra y Cassius firmarían un total de diez artículos, con un repetido Ionescu Tulcea en el encabezado. Durante la estancia en Yale, la pareja resolvió un problema importante en Teoría de Martingalas. Esto les permitió mejorar sus aspiraciones profesionales, desplazándose como profesores titulares (associate professor) a la Universidad de Illinois Urbana-Champaign, donde tuvieron que hacer una excepción en su reglamento interno contra el nepotismo. Posteriormente, se establecieron en la Northwestern University, también en Illinois. Allí, en 1969 la pareja pondría fin a su matrimonio.

Alexandra Bellow

Saul Bellow, escritor canadiense que renovó la narrativa norteamericana en la década de los 50, se convirtió en 1974 en el segundo marido de Alexandra. Sin embargo, para él era su cuarto matrimonio. Dos años después, en 1976, Saul recibió el premio Nobel de literatura. Tras el divorcio de Cassius, Alexandra estuvo sometida a presiones de su exmarido para que dejara de usar su apellido y adoptó Bellow como gesto de confianza en su nuevo matrimonio. De esta decisión reconoce haberse arrepentido después y recomienda a las mujeres que deseen labrarse una carrera en investigación que publiquen con sus apellidos de nacimiento. Los veinte años de diferencia entre Alexandra y Saul no fueron tanto problema como los diferentes intereses de sus profesiones. Se divorciarían en 1985, no sin que antes Alexandra sirviera de inspiración para varias obras del literato.

Alexandra con Joram Lindenstrauss en Oberwolfach 1975 (foto tomada del archivo fotográfico del propio centro)

Como Alexandra Bellow firmó sus trabajos más importantes, particularmente en Teoría Ergódica, una disciplina matemática con aplicación en Física Estadística. Los matemáticos, además de demostrar teoremas y, eventualmente, construir teorías, proponen problemas. Los problemas no son únicamente resultados que no salen o conjeturas, sino que pueden indicar nuevos caminos interesantes para la investigación matemática. La solución dada por Jean Bourgain a uno de los problemas propuesto por Alexandra en 1981 en  Oberwolfach es parte de los méritos por los que recibió la Medalla Fields en 1994. Elon Lindenstrauss, hijo de Joram Lindenstrauss (autoridad en espacios de Banach, en la foto arriba) recibió también la Medalla Fields en 2010 por sus contribuciones a la Teoría Ergódica.

Alexandra Calderón

El mejor matemático argentino comenzó su carrera profesional como ingeniero para la petrolera YPF, convencido por su padre que con la Matemáticas no se podría ganar la vida. Afortunadamente, la trayectoria de Alberto Calderón fue reconducida para las Matemáticas por el profesor bonaerense Alberto González Domínguez y nuestro insigne don Julio Rey Pastor. Calderón viajó a Chicago en 1949, donde realizaría la tesis bajo la dirección de Antoni Zygmund y, junto con él, fundaría la Chicago School of Hard Analysis, nombre oficioso pero muy descriptivo. Alexandra y Alberto se conocieron en 1975 en el MIT como consecuencia de tener que compartir despacho durante un semestre.

Alexandra con Alberto Calderón en Oberwolfach 1990 (foto tomada del archivo fotográfico del propio centro).

Cuando se casaron en 1989, Alberto llevaba cuatro años viudo de su primera esposa. En noviembre de ese mismo año cayó el muro de Berlín y en diciembre el régimen comunista de Nicolae Ceaușescu en Rumanía. Alexandra siguió firmando con el apellido Bellow, aunque en algún artículo añadió Calderón. Alberto fue un gran estímulo intelectual para Alexandra y discutían frecuentemente sobre matemáticas, aunque eso se materializó únicamente en dos artículos firmados juntos. Alexandra se jubiló anticipadamente en 1997 con la esperanza de poder pasar más tiempo y viajar con Alberto, pero él enfermó y murió en la primavera del año siguiente. Alexandra vive todavía. El último reconocimiento que recibió, por parte de la AMS, fue en 2017.

Para saber más

Si os ha gustado Los cuatro apellidos de Alexandra, podréis encontrar más información en Internet. Además de la entrada en Wikipedia y sus enlaces, si se va cambiando adecuadamente el idioma, para elaborar este post he consultado el artículo autobiográfico de Alexandra Bellow en la Gaceta de la RSME publicado en 2002, y una entrevista para Adevarul (en rumano) publicada en 2014.

Mi primer «contacto» con Alexandra, antes de saber como se llamaba… mi admiración por ella no ha hecho más que aumentar a medida que he ido sabiendo sobre sus logros y su vida.

Minerales estratégicos

Hace unos días tuve el honor de asistir al acto de graduación de la última promoción de Ingenieros de Minas en la Universidad Politécnica de Cartagena, invitado por mi amigo Pedro Martínez Pagán. El programa incluía una conferencia de José María González Jiménez (Instituto Andaluz de Ciencias de la Tierra – CSIC) titulada «Metales estratégicos: pasado, presente y futuro.» El término metales estratégicos viene a ser casi sinónimo de elementos estratégicos, porque casi todos son metales (de hecho, la mayor parte de los elementos presentes en la tabla periódica son metales a efectos químicos y físicos), y también equivale a minerales estratégicos, porque se obtienen de la minería.

Mineral de Sierra de Filabres. Hace 100 años fue explotado por el hierro (siderita) y el cobre (calcopirita), pero contiene otros metales a los que no se les dio importancia entonces… quien sabe si las viejas minas no guardan una sorpresa.

El matiz que aporta el término estratégico varía con las necesidades humanas. En este sentido, nos ocuparemos de algunos de los elementos que son fundamentales para las tecnologías del siglo XXI, principalmente electrónica y la llamada «descarbonización de la economía». Un pequeño apunte personal: no existe todavía nada más eficiente para conservar y disponer de la energía que el enlace covalente del carbono. La Evolución Darwiniana ha determinado que esa sea la forma de energía que usamos todos los organismos pluricelulares del planeta. Otra cuestión es si el uso tecnológico del carbono puede hacerse mucho mejor de lo que se hace. Pero hay una cosa clara: el componente de un automóvil más proclive a dejarte tirado es, y seguirá siendo, la batería.

Murcia, España y mi casa

En mi despacho de la Universidad de Murcia tengo una pequeña colección de menas de los metales más corrientes con fines «pedagógicos». Por eso, tras escuchar la conferencia de José María, me pregunté si podría preparar una muestra similar (y virtual) de minerales estratégicos con ejemplares de mi colección. Complicando un poco más la cosa, intentar que sean ejemplares de proximidad, preferiblemente Murcia. Esto no siempre ha sido posible y, además, he considerado oportuno fotografiar muestras que poseo pero no pertenecen a la colección, técnicamente hablando (la diferencia entre ser de la colección o no está explicada aquí). Esos ejemplares se reconocerán por no tener lugar de procedencia. Los metales elegidos están basados en la charla de José María y varias listas e informes obtenidos de internet. Una observación, no he incluido el hierro, que no parece ser estratégico, supongo que por su abundancia, ni el grafito, que no es metal. Estoy abierto a incluir nuevos metales en el post que me sean sugeridos si realmente son estratégicos y dispongo de muestras ilustrativas.

Ver mi post Libros de Mineralogía

Cobre

El cobre es un elemento que no ha dejado de ser estratégico desde hace milenios. Es el primer metal cuya metalurgia dominamos, nunca ha dejado de usarse y, de cara al futuro, resulta fundamental en electricidad y electrónica. Obviamente, automóvil eléctrico necesita mucho más cobre que el de combustibles fósiles. En lo que respecta a Murcia, en el pasado se explotaron unas pocas minas de cobre y tendría que estar la economía global realmente mal para que se replantee la extracción de cobre en la Región, ya que este metal es mucho más abundante en otros lugares del planeta.

Mineral de cobre de Santomera, principalmente bornita.

Como muestras he seleccionado dos procedentes de minas de cobre genuinas, es decir, los minerales de cobre constituyen la mineralización principal de los filones. Concretamente, las minas de Santomera y Las Balsicas de Mazarrón.

Mineral de cobre de Las Balsicas (Mazarrón). Se trata de un filoncillo de calcopirita y cobres grises parcialmente alterado en carbonatos.

Aluminio

El aluminio es un metal fundamental por aunar ligereza y resistencia en sus aleaciones. Es un elemento relativamente abundante en la corteza terrestre (forma parte de abundantes silicatos, incluyendo componentes de la arcilla), pero no es fácil de obtener. El principal mineral de aluminio es la bauxita, una mezcla terrosa de hidróxidos del metal que tiene su origen en antiguos suelos tropicales. Se requiere mucha energía para liberar el aluminio de la bauxita, por lo que el reciclaje del liviano metal es particularmente importante.

Mineral de aluminio, bauxita, procedente de Zarzadilla de Totana.

Existe en la Región de Murcia un pequeño yacimiento de bauxita cerca de Zarzadilla de Totana, descubierto y estudiado por don Bartolomé García Ruiz. Debido a su poca extensión se trata más de una curiosidad mineralógica que de un recurso explotable. Acompaño esta reseña con una muestra del óxido natural cristalizado de aluminio, el corindón, que según variedades y colores, recibe también los nombres de zafiro y rubí.

Cristal hexagonal de rubí, corindón rojo. Químicamente es óxido de aluminio.

Níquel

Muy abundante en el núcleo de la tierra, el níquel es un elemento escaso en la corteza terrestre. Tradicionalmente se ha usado en la elaboración de aceros especiales, sin embargo ahora tiene un papel destacado en la fabricación de baterías para automóviles eléctricos. Los yacimientos de níquel suelen estar ligados a segregaciones de las rocas profundas del manto. No nos consta la presencia de minerales de níquel en la Región de Murcia, aunque sospechamos que este metal podría aparecer en la geoquímica de los volcanes de Tallante (Cartagena). Así pues, las muestras son de otros lugares.

Mineral de níquel de Ojén (Málaga), los puntos dorados esparcidos en la roca son de niquelita. La piedra ha sido mojada para destacar el mineral de níquel sobre los otros componentes.

En primer lugar, una muestra de Ojén (Málaga) donde se explotó una mena compuesta de minerales de cromo y níquel. En segundo lugar, una pieza procedente de la mina Aguablanca en Monesterio (Badajoz), la principal mina de níquel de España. Consiste en una masa de pirrotina con cristales de pirita, conteniendo una fracción de cobre y níquel que hace rentable su explotación.

Mena de Aguablanca en Monesterio (Badajoz) formada principalmente por sulfuros de hierro con cantidades apreciables de cobre y níquel.

Cobalto

Este metal se ha usado tradicionalmente en la fabricación de pigmento azul y algunas aleaciones. Las necesidades del automóvil eléctrico han multiplicado la demanda de cobalto, cuyo principal productor es la República Democrática del Congo. El mejor yacimiento de España, explotado en el pasado, se sitúa en el Pirineo Oscense (en Donde te lleven las piedras cuento mi visita a esas minas). Las muestras elegidas no son murcianas, pero sí de lugares más cercanos.

Cristales de eritrina «flores de cobalto» sobre una superficie de dolomía, con otros minerales de Huércal-Overa (Almería).

En primer lugar, cerca de Huércal-Overa (Almería), en el llamado Cerro Minado, se explotaron unas minas de cobre que contienen bastante cobalto, principalmente en forma de eritrina (flores de Cobalto). En la Sierra del Segura, cerca de Cazorla (Jaén) quedan vestigios de unas minas con una paragénesis muy compleja que incluye algunos minerales de cobalto: asbolana, eritrina y cobaltocalcita.

Asbolana, mineral de manganeso con cantidades variables de cobalto, de la Sierra del Segura.
Cobaltocalcita (calcita teñida con sales de cobalto) acompañada de carbonatos de cobre, de la Sierra del Segura.

Litio

Seguro que ha todo el mundo le suena el uso de este elemento en fármacos psiquiátricos. Además de eso, el litio es un componente esencial en las baterías de los automóviles eléctricos. El litio proviene de dos tipos de yacimientos: como metal alcalino, sus sales forman parte de las evaporitas de ciertas cuencas endorreicas (salares sudamericanos, por ejemplo); pero también es componente de algunos silicatos de las pegmatitas, principalmente la mica lepidolita.

Cristal de mica lepidolita, fuente de litio, al trasluz.

No estando seguro de si el litio evaporítico es totalmente descartable en la Región de Murcia, las pegmatitas hay que buscarlas en otros lugares de España. Conservo un gran trozo de pegmatita de litio de La Fregeneda (Salamanca), recogida en una mina de estaño. La otra muestra es peculiar, se trata de kunzita, una piedra semipreciosa rosada, variedad de espumodena, que contiene litio en su composición.

Pegmatita de litio, de La Fregeneda (Salamanca).
Cristal de kunzita, piedra semipreciosa de curioso color.

Cromo

Muy conocido por los revestimientos galvanoplásticos de otros metales, especialmente cuando toca renovar la grifería del baño. Pero el cromo es algo más que estética, ya que es componente esencial en aleaciones, siendo la más corriente el acero inoxidable. Sus yacimientos, al igual que los de níquel, están ligados a afloramientos de rocas profundas del manto. Por ese motivo, las que fueron las minas de cromo más importantes de España se encuentran en las peridotitas de Málaga. No obstante, se han identificado minerales de cromo a nivel microscópico en los volcanes de Tallante.

Mineral de cromo, cromita, de Ojén (Málaga).

Como muestras presentamos una cromita de Ojén (Málaga), y un mineral de fascinante color verde, la uvarovita o granate de cromo.

Granate de cromo (uvarovita) sobre cromita.

Manganeso

Este metal es un componente importante de algunas aleaciones, pero se consume en mucha mayor cantidad como ingrediente en las baterías desechables. Las mayores reservas se encuentran en Sudáfrica, siendo explotado también en otros países del continente africano. En los fondos oceánicos se forman nódulos de óxido de manganeso que son interesantes por su contenido en otros metales, singularmente cobalto, níquel y titanio (nódulos polimetálicos). Los minerales de manganeso son frecuentes en Murcia y han sido explotados en algunos lugares. Destaca el yacimiento sedimentario de La Parroquia (Lorca), pero mis muestras son de dos lugares que frecuento mucho más.

Masa escoriforme de mineral de manganeso, de Espinardo.

La primera es una masa escoriforme de pirolusita de Espinardo, recogida en el Campus Universitario. La segunda, un arbolito de manganeso, forma de presentación de la manganita, procedente de Mazarrón.

Agregado de manganita tipo «arbolito» de Mazarrón.

Tierras raras

Se llama tierras raras a un conjunto de elementos dispuestos en la parte baja de la tabla periódica que son fundamentales en aplicaciones electrónicas, producción de energía y catalizadores. Como su nombre parece indicar, son en general escasos, excepto el cerio que es un ingrediente de las piedras de mechero, y quizás el neodimio, popular componente de una aleación para potentes imanes. Algunos elementos integrantes de las tierras raras se obtienen directamente de la familia de fosfatos llamada monacitas, otros aparecen como contaminaciones en ciertos minerales.

Apatito, con cierto contenido en tierras raras, de La Celia (Jumilla).

El mayor yacimiento de tierras raras de Europa se encuentra en la provincia de Ciudad Real, dispersas en el suelo en una gran llanura. Su explotación ha sido desestimada por cuestiones medioambientales. En la Región de Murcia se han identificado tierras raras en los apatitos de La Celia (Jumilla).

Jumillita, la peculiar roca volcánica que porta el apatito y minerales raros.

Epílogo

La promoción de ingenieros de minas a cuyo acto de graduación asistí no era muy numerosa. Por eso la presencia entre los jóvenes graduados de una chica de origen latinoamericano y de un chico de familia eslava resultó más llamativa. Es muy probable que estos futuros ingenieros tengan que desarrollar su carrera profesional en el extranjero porque España no es país para mineros. Esto nos pone en una situación peculiar como nación: queremos energías limpias, smart cities, transición ecológica, amén de otras expresiones tan rimbombantes como ridículas, pero no queremos ser parte del correspondiente desarrollo tecnológico. Hemos pasado del ¡qué inventen ellos! de Unamuno al ¡qué también fabriquen ellos! La dejación gubernamental en los sectores productivos de la economía es más que evidente y nos encaminamos hacia un modelo de país de (malos) servicios y funcionarios.

Salón de actos en la Escuela de Minas de la UPCT al comienzo de la charla de José María.

Convendría pararse un momento a pensar de dónde salen los materiales con los que se elabora la tecnología que nos gusta tener alrededor para hacer nuestra vida más fácil, comenzando por el móvil. A nadie le agrada tener una mina cerca de su casa, pero la situación actual es que países como China queman petróleo a espuertas y contaminan sin escrúpulos sus ríos (por ende nuestros mares) para producir baterías y componentes con los que tranquilizar nuestras conciencias ecoburguesas europeas haciéndonos pensar que avanzamos por el buen camino.

Ecuaciones diferenciales

El propósito de este post es dar una idea de esta importante herramienta matemática, lo qué significa y sus aplicaciones. Desde un punto de vista técnico-didáctico, tratar de explicar las ecuaciones diferenciales a un público general es meterse en un jardín del que difícilmente se podrá salir airoso. Pido a mis lectores que, llegado el momento, sean capaces de desligar la divulgación del entretenimiento en lo que sigue. Parafraseando a Euclides, no hay un camino fácil en Matemáticas.

Los ingredientes

Antes de explicar en qué consiste una ecuación diferencial es necesario especificar las nociones matemáticas involucradas. Realmente lo que voy a hacer aquí es recordar a mis lectores cosas que ya saben porque forman parte del curriculum obligatorio de matemáticas.

Ecuación

Ecuación significa igualdad entre cantidades resultantes de diferentes operaciones, simplemente. Lo que ocurre es que, normalmente, se reserva el nombre ecuación cuando la igualdad contiene algún término desconocido: la incógnita, representada habitualmente con una letra. Cuando esto ocurre, el objetivo es resolver la ecuación, es decir, calcular los valores que puede tomar la incógnita de manera que la ecuación sea cierta, si es que existe alguno. Por ejemplo, la ecuación x2+5=6x es cierta únicamente cuando x toma los valores 1 o 5. Podemos considerar ecuaciones con más variables, pero si queremos llegar a una solución determinada, como regla general se necesita el mismo número de ecuaciones que de incógnitas. Para ilustrar esto, planteamos un sencillo problema: en un corral hay conejos y gallinas, habiendo en total 10 animales y 28 patas ¿Cuántos animales hay de cada?

Función

Si los problemas matemáticos se redujeran simplemente a averiguar valores numéricos, como resolver ecuaciones del tipo descrito en el apartado anterior, no tendría sentido mi profesión. Por fortuna, especialmente para mí, las matemáticas operan con nociones más complejas. La relación entre cantidades numéricas variables (de ahora en adelante, simplemente variables) se describe por medio de una función. Por ejemplo, la variación de temperatura en Murcia a lo largo del día (o año) es una función, siendo las variables temperatura y tiempo. Más aún, podemos introducir otras variables, como la posición (a través de coordenadas, geográficas o geométricas), y examinar como varía la temperatura cuando nos movemos a otro lugar. De esta manera podemos ver la temperatura como una función del tiempo y la posición. Con frecuencia, se identifica una función f con su gráfica y=f(x).

Cálculo diferencial

Para el estudio de las funciones se han desarrollado herramientas específicas. Una de ellas es la derivación, que es un procedimiento por el cual a una función se le asigna otra función, llamada su derivada. Si la función es f su derivada es denotada f’, aunque por abuso de lenguaje escribimos y’. La derivada de una función proporciona información sobre la variación de ésta. Una interpretación intuitiva de la derivada es que expresa la velocidad con la que la función crece o decrece, según sea positiva o negativa. Por ese motivo, cuando la función alcanza un máximo o un mínimo, la derivada se anula en él. En efecto, máximo o mínimo representan la transición entre crecimiento y decrecimiento para la función, así como el cero la frontera entre los números positivos y negativos. Los lectores con conocimientos más avanzados podrían discutirme lo dicho hasta ahora, pero las matemáticas tienen recursos para extender la validez de las afirmaciones hasta extremos insospechados.

¿Qué es una ecuación diferencial?

Una función podría ser la incógnita en una ecuación. Por ejemplo, si queremos saber qué forma adopta una cadena suspendida por sus extremos, esta forma puede ser descrita con una función. La ecuación diferencial, que no intentaremos calcular aquí, resulta de aplicar las leyes del equilibrio estático a la cadena. En principio, una ecuación cuya incógnita es una función se llama ecuación funcional. Si la ecuación puede ser escrita en términos de una relación entre la función desconocida y su derivada (o derivadas de órdenes superiores) se llama ecuación diferencial. Por ejemplo, y’ = F(x, y), donde y es la función incógnita, x la variable independiente, y F una fórmula que contiene a ambas . El problema de la cadena colgante involucra en su planteamiento una integral de la función desconocida, pero una sencilla manipulación lo reduce a una ecuación diferencial de segundo orden, es decir, una relación entre la función incógnita y sus derivadas primera y segunda.

Al igual que existen métodos para resolver ecuaciones algebraicas sencillas, hay procedimientos para resolver ecuaciones diferenciales suficientemente sencillas. Podría decirse que los casos para los que una ecuación diferencial ordinaria de primer orden se resuelve explícitamente se cuentan con los dedos de la mano. Por este motivo, las aplicaciones, más o menos relacionadas con la realidad, se suelen repetir de unos libros a otros y algunos problemas son incluso famosos, como el de la máquina quitanieves: Una mañana comienza a nevar, de manera uniforme y continuada. A las 12 del mediodía una máquina quitanieves sale a limpiar la carretera. Si la máquina recorre durante la primera hora de trabajo dos kilómetros y solamente un kilómetro durante la segunda hora ¿a qué hora comenzó a nevar? (ver la solución en el libro de mi antiguo profesor Manuel López Rodríguez, Problemas resueltos de ecuaciones diferenciales, Thomson 2006).

Un ejemplo

Llega un momento en el que hay que mojarse: no se puede escribir un post sobre ecuaciones diferenciales sin mostrar una de ellas. Elegiremos una muy sencilla: y’ = k y, donde k es una constante. Es decir, buscamos una función f(x) positiva cuya derivada satisface f’(x) = k f(x). Notemos que no hemos especificado si la constante k es positiva o negativa, pues de ello dependerá que la solución sea creciente o decreciente. Sin embargo, ello no altera el aspecto formal de las soluciones. Quien conozca la teoría elemental de derivadas observará que la función f(x)=ax satisface la ecuación si k=ln(a) (logaritmo natural o neperiano). Más aún, dicha función multiplicada por una constante sigue satisfaciendo la ecuación diferencial, es decir, cualquier función de la forma f(x)= c ax, siendo c un número real (y positivo, para satisfacer nuestro requerimiento inicial). Notemos que con esto podemos encontrar una solución de la ecuación que satisfaga una condición del tipo y(x0)= y0.

Ejemplos de funciones exponenciales crecientes (Wikipedia).

Aunque sencilla, la ecuación anterior es muy interesante porque sirve para resolver varios problemas. Por ejemplo, describir el crecimiento de un cultivo celular o la desintegración de un material radiactivo. En efecto, en ambos casos la tasa de crecimiento (o decrecimiento) es proporcional a la cantidad de sustancia presente (número células o masa del material radiactivo) que es lo que expresa, simplemente, la ecuación y’ = k y. Otra interpretación de la misma ecuación viene del problema siguiente: ¿Qué forma debe tener la concha de un animal para que siempre mantenga la misma forma mientras crece por un extremo? Obviamente, pensamos en los moluscos (el crecimiento de la concha de las tortugas no satisface la hipótesis). Este problema, interpretado en coordenadas polares, conduce a la misma ecuación r’ = k r, que geométricamente significa la constancia del ángulo entre la curva y las rectas radiales que parten del origen. La representación de la función exponencial en coordenadas polares es la llamada espiral logarítmica descubierta por Jakob Bernoulli y que mandó grabar en su tumba con el epitafio eadem mutata resurgo.

Espiral logarítmica… modelización matemática de los caracoles (Wikipedia).

Los teoremas

¿Qué ocurre cuando una ecuación diferencial no puede resolverse de manera explícita? Según lo dicho antes, nos encontramos en el escenario más probable. Quizás no nos interese saber la solución con todo detalle, sino conocer algunos aspectos de ella. Para ello, lo primero es estar seguros de que la solución, aunque «incalculable», existe. Después, saber si, fijadas las condiciones a satisfacer por la función incógnita, la solución es única (por ejemplo, para y’ = F(x, y) podemos tomar y(x0) = y0). De lo contrario, poco sentido tendría hacer previsiones sobre su comportamiento. Esta incertidumbre queda resuelta gracias a los llamados teoremas de existencia y/o unicidad que nos garantizan el poder trabajar con la solución de una ecuación diferencial sin necesidad de tenerla explícitamente.

Los llamados teoremas de punto fijo tienen aplicaciones a la existencia de soluciones de ecuaciones diferenciales.

Demostrar que un problema tiene solución sin resolverlo es una de las características de las Matemáticas superiores que más sorprenden a los legos. Pondré un ejemplo sencillo para ilustrar esto. Consideremos la afirmación “existe un número real positivo x cuyo cuadrado es 3”, en otras palabras, existe la raíz cuadrada de 3. Tal número x , si existe, debería de estar entre 1 y 2, ya que sus cuadrados 1 y 4 comprenden al 3. Por el mismo motivo, x debería estar comprendido entre 1.7 y 1.8, pues sus cuadrados son, respectivamente 2.89 y 3.34. Siguiendo de esta manera, obtendríamos una sucesión de cifras decimales tras el 1 inicial: 1.7320508075… Con la propiedad de que cortada a cualquier altura y sumando 1 al último dígito del número resultante, define dos números racionales entre cuyos cuadrados se encuentra el al 3. Omitiendo alguna sutileza matemática, resulta que la sucesión de cifras anterior 1.7320508075… define un número irracional cuyo cuadrado es 3, el deseado x. Pues bien, las demostraciones de existencia para ecuaciones diferenciales son similares: se obtiene como límite de una sucesión de «soluciones aproximadas».

Página del libro «Ecuaciones diferenciales y cálculo variacional» de L. Elsgoltz, MIR 1969.

¿Qué entendemos por solución aproximada de una ecuación diferencial? Hay varias formas de proceder, pero quizás la más intuitiva sea la «discretización» que consiste en lo siguiente (aplicado a una ecuación de primer orden). La variable independiente tomará una cantidad finita de valores x0, x1, x2 espaciados por una distancia h (es decir, h= x1 – x0 = x-x1). Los valores correspondientes de la función a determinar serán y0, y1, y2 (sólo y0 es conocido por ser condición inicial). La derivada en un punto xn será sustituida por la expresión (yn+1yn)/(xn+1xn) = (yn+1yn)/h, que de acuerdo con la ecuación diferencial se puede expresar en términos de xn e yn. En consecuencia, yn+1 puede ser calculado a partir de yn, ya que xn = x0 + nh no tiene inconveniente. Partiendo de y0 se calcularán sucesivamente y1, y2, y3… Lo que puede verse como una línea quebrada con nodos en los puntos (xn, yn), que aproxima a la solución verdadera, mejor cuanto más pequeño sea h.

Sistemas dinámicos

Al final de la sección anterior hemos alcanzado el zenit de dificultad técnica del post. A partir de aquí seremos más cualitativos. Una ecuación diferencial, sea del orden que sea, puede reducirse a una ecuación de primer orden haciendo que la función incógnita tome valores vectoriales (tradicionalmente llamado sistema de ecuaciones diferenciales). Aunque esto puede parecer una enorme complicación práctica, desde el punto del vista teórico se gana en simplicidad. Más simple resultará si, además, la variable independiente no aparece explícitamente. De esta manera, la evolución de una solución dependerá solamente de por dónde pasa y no de cuándo lo hace (es habitual identificar la variable independiente con el tiempo en la discusión de sistemas de ecuaciones). A este tipo de ecuaciones vectoriales que no contienen la variable independiente «t» se les llama sistemas dinámicos (o autónomos): si la variable independiente se identifica con tiempo, la variable vectorial incógnita representa movimiento: de ahí el nombre. Una forma muy adecuada de pensar en un sistema dinámico es el mapa de vientos de la predicción meteorológica: según donde te encuentres, se te empuja en una cierta dirección y con una determinada velocidad.

Mapa de vientos… así se ve un sistema dinámico en dos variables. Un globo, por su gran rozamiento frente a muy poca inercia, seguiría una trayectoria solución del sistema (fuente INM, a través de tiempo.com).

Naturalmente, las ecuaciones del movimiento de un sistema mecánico (masas unidas por palancas, bisagras, muelles… o fuerzas a distancia) pueden ser escritas en forma de sistema dinámico. Sin embargo, al ser la segunda ley de Newton, de hecho, una ecuación diferencial de segundo orden, la reducción a un sistema de primer orden implica duplicar el número de variables espaciales (grados de libertad). La manera más sencilla de hacerlo es considerar las velocidades junto con las posiciones, dando lugar al llamado espacio de fases. En el espacio de fases usado en Mecánica Analítica están representadas variables de posición, no necesariamente cartesianas, y sus variables conjugadas, que no siempre se corresponden con velocidades. Este punto de vista arroja resultados sorprendentes, como el siguiente descubierto por Henri Poincaré: un sistema confinado en el espacio y que no pierde energía, volverá, con precisión arbitraria, a su posición inicial infinitas veces.

¿Determinismo?

A lo largo de la Historia han aparecido religiones y doctrinas filosóficas que afirman que el futuro está completamente determinado y, por lo tanto, niegan el libre albedrío. Curiosamente, el libre albedrío estuvo también en cuestión por parte de la Ciencia y, en ello, las ecuaciones diferenciales jugaron un papel relevante. Las Leyes de la Mecánica reducen el problema del movimiento de un sistema de masas interactuantes a ecuaciones diferenciales mostrando que la evolución del sistema está determinada a partir de las posiciones y velocidades iniciales. El universo entero es un sistema de masas en interacción, por fuerzas gravitatorias y electromágneticas, gobernado por la Mecánica newtoniana; la Química se reduce a la mecánica de las moléculas animadas por fuerzas electromagnéticas; la Biología se reduce al estudio de la Química Orgánica; finalmente, el pensamiento son impulsos electroquímicos en una estructura, el cerebro, que, aunque compleja, se reduce a una cantidad finita, aunque enorme, de átomos. Somos pura química: la ingesta de ciertas substancias puede cambiar nuestro estado de ánimo, por no decir más cosas.

Pierre-Simon Laplace, retratado con los honores que le concedió Napoleón.

El hecho de que el que la evolución del universo con todo su contenido pueda reducirse a unas pocas leyes tuvo consecuencias importantes en nuestra visión del mundo. Cuando Laplace presentó su gran obra sobre Mecánica Celeste a Napoleón, el emperador le hizo una observación: «Me cuentan que en esta gran obra sobre el universo no menciona al Creador en ninguna parte.» El matemático le replicó: «Sire, no he necesitado de esa hipótesis.» Si Dios ya no era necesario para gobernar el universo ¿seguiría siendo necesario para crearlo? Aparentemente, lo único que nos impide hacer una predicción certera sobre el futuro son dos detalles nimios: (1) conocer la posición y velocidad de cada partícula del universo en un instante dado; (2) resolver un sistema de 2n ecuaciones diferenciales, siendo n el número de partículas del universo. Sin embargo, aunque todo esto sea irrealizable en la práctica, no excluye la validez del teorema de existencia y unicidad que nos dice que sólo hay un resultado posible: el libre albedrío no existe… ¿o sí?

Sensibilidad, caos y desorden

El que hayas leído mi post hasta aquí es una decisión tuya, personal y consciente, que no tiene absolutamente nada que ver con la posición de las partículas del universo hace un par de horas. Podemos señalar varios errores en los argumentos de la sección anterior. El primero es que el modelo matemático es una idealización de la realidad tanto o más como Las señoritas de Avignon representa un grupo de mujeres. En segundo lugar, es sabido que la solución de una ecuación diferencial, en general, depende continuamente de las condiciones iniciales. Esto quiere decir que con valores iniciales parecidos se tendrán una soluciones próximas sobre intervalos prefijados de la variable. Sin embargo, si no se mantiene la variable confinada en un intervalo, podría observarse una tremenda divergencia entre dos soluciones por próximas que comiencen (sensibilidad respecto a las condiciones iniciales). Gracias a eso, el resultado de lanzar una moneda al aire se puede considerar un suceso aleatorio.

Péndulo doble construido por el autor para la Semana de la Ciencia (Murcia, noviembre 2023). En YouTube hay vídeos de péndulos que funcionan mejor y durante mucho más tiempo 😕

No obstante, en sistemas en una o dos dimensiones el comportamiento cualitativo de las soluciones no cambiará. Por ejemplo, un péndulo sencillo siempre oscila periódicamente, aunque cambie la frecuencia de dichas oscilaciones. Pero a partir de tres dimensiones pueden aparecer diferencias substanciales que afectan a la predicibilidad del sistema y que reciben el nombre caos, también conocido como efecto mariposa (una descripción poética puede escucharse en este enlace). Por ejemplo, un péndulo doble goza de dos grados de libertad, así que su espacio de fases tiene cuatro dimensiones… el caos está garantizado. Además de eso, en los sistemas con un gran número de partículas hay una componente estadística que debe ser adecuadamente tratada. Esto es el objeto de la Mecánica Estadística, donde los sistemas no evolucionan por la inercia, sino hacia estados con mayor probabilidad. Una baraja de cartas está bien ordenada de una sola manera, pero desordenada puede estarlo de tantas formas que se requiere un número de 60 cifras para expresarlo. El desorden es la esencia de nuestro libre albedrío, en la Física Clásica… no hablemos ya de principios de incertidumbre y gatos zombies.

EDPs

Hasta ahora hemos considerado ecuaciones diferenciales donde la incógnita depende de una única variable, respecto a la que realiza la derivación. Esto es algo bastante evidente cuando la ecuación diferencial describe un proceso que depende únicamente del tiempo, tal como sucede en los sistemas dinámicos. Este tipo de ecuaciones diferenciales con una sola variable independiente se llaman ecuaciones diferenciales ordinarias (EDOs). Naturalmente, el mundo es mucho más complejo. Por ejemplo, un proceso que dependa del tiempo y el espacio requerirá una ecuación con varias variables independientes respecto a las que se realizan derivaciones, necesariamente parciales. Por este motivo son llamadas ecuaciones en derivadas parciales (EDPs). Es una materia que aprecio bastante, ya que he estado impartiendo sus contenidos en una asignatura del Grado de Matemáticas (los apuntes son accesibles aquí). También hemos aludido a una cierta EDP en nuestro post Circunferencias y esferas.

Página de Mathematical Biology, J. D. Murray, Springer 2003.

Un aspecto interesante de las EDPs es, que a pesar de representar procesos continuos (por no decir derivables), son capaces de explicar fenómenos discretos o cuantificados. Las notas musicales se explican con ayuda de la ecuación de la cuerda vibrante. El hecho de que las variaciones de energía en un átomo estén cuantizadas se explica, por motivos análogos, a partir de la ecuación de Schrödinger, que rige la Mecánica Cuántica. Los llamados procesos de reacción-difusión encierran la clave de la aparición de patrones en Biología como las manchas de leopardos, cebras y jirafas. Esta compleja teoría de la Morfogénesis fue iniciada por Alan Turing, matemático conocido principalmente por su papel en el descifrado del código Enigma durante la Segunda Guerra Mundial, y que también sentó las bases de la Teoría de la Computación

Para acabar

Las ecuaciones diferenciales permiten, entre muchas aplicaciones, modelizar y estudiar la evolución sistemas y procesos que dependen continuamente del tiempo y, eventualmente, también del espacio. Lamentablemente, no se puede profundizar mucho más en este tema si no es a costa de un mayor despliegue matemático. Espero que la selección de temas que he presentado en este post despierte la curiosidad de los lectores.

La divulgación de ayer

La sección de ciencia en las librerías de los centros comerciales suele estar dedicada, principalmente, a libros de divulgación. Siempre que tengo ocasión me entretengo en ver las novedades y me alegro de comprobar que el sector goza de buena salud, a pesar de que los libros no estén de moda. En efecto, ¿para qué leer un libro si lo que quieres saber te lo puede explicar un fulano en su canal de TikTok? Mi respuesta es que si el fulano tiene algo interesante que contar, probablemente lo haya leído antes en un libro. Pero no voy hoy a hablar de los libros de divulgación contemporáneos, sino de algunos, más bien obsoletos, que habitan en mis estanterías, ejemplos de la divulgación de ayer, donde «ayer» se encuentra a caballo entre los siglos XIX y XX.

Posiblemente el mejor libro de divulgación científica del siglo XXI: destaca la cantidad de disciplinas que cubre, la manera en la que son enlazadas, el sentido del humor y la calidad de su prosa, en versión original, of course… Sí, ya sé que este libro no va con el tema de hoy. Por favor, sigan a la siguiente imagen.

He seleccionado 10 libros para este post… o, más bien, ellos me han seleccionado a mí, pues son el resultado aleatorio de visitar librerías de viejo, mercadillos y ferias. Algunas de estas obras están claramente orientadas a un público joven, en una época en la que regalar un libro producía más ilusión que un móvil hoy día. De hecho, al menos tres de estos libros son ediciones especiales para servir como premio a alumnos en los colegios donde estudiaban. Otros, destinados a un público adulto eran la única forma de estar al corriente de la ciencia, salvo que se tuviera cerca un ateneo con un buen programa de conferencias. Como viene siendo costumbre en el blog, el idioma no será una barrera.

Éstos sí son los libros de los que voy a hablar.

Viajes y Naturaleza

En el siglo XIX aún quedaba mundo por descubrir y los libros de viajes excitaban la imaginación de los niños y, quizás, las ansias por conocer otras formas de vida y culturas. Sin embargo, no es necesario viajar a los confines del mundo para ver cosas nuevas. A veces, basta con fijarse mejor en lo que tenemos cerca, como, por ejemplo, la esquiva vida de algunos animales del campo.

Au pays des nègres – V. Tissot y C. Améro – 1888

Este libro destinado a los jóvenes describe aspectos geográficos y culturales de África (aquí pays habría que traducirlo por territorio). Victor Tissot escribió fundamentalmente sobre viajes, alcanzando la fama con un libro sobre Prusia. Mi ejemplar de Au pays des nègres lleva estampado en la cubierta Collège de Perpignan, lo que indica que posiblemente fuera un premio ofrecido a un estudiante excelente, si bien no hay otra evidencia ni firma.

Aunque el punto de vista de los autores es bastante discutible, incluso para su época, el primer capítulo se dedica a la lacra que supone el comercio de esclavos. En 1888, la esclavitud ya había sido abolida oficialmente en las potencias coloniales europeas y en USA. Sin embargo, se siguió «cazando esclavos» en África con destino hacia el Mar Rojo y el Océano Índico.

Caza de esclavos.

El libro contiene 93 ilustraciones, muchas de ellas a página completa, de gran calidad y dramatismo. Se me hace muy difícil elegir… paisajes y poblados, son mis favoritas porque al sumergirme en los grabados me proporcionan una sensación mística de viaje. También, porque, salvando las distancias, paisajes similares pueden encontrarse todavía en África (ver mis posts Burkina Faso y Out of Africa).

Capital de Uganda… debe de haber cambiado mucho en el último siglo.
Paisaje con palmeras..

No obstante, reconozco que los grabados con tipos y costumbres pueden ser más significativos. Me gusta mucho, por ejemplo, la mirada desafiante del guerrero nubio en el último grabado.

Cent récits d’Histoire Naturelle – Ch. Delon – 1879

Destaca la magnífica edición de Hachette en un formato poco habitual. A diferencia de un libro de historia natural sistemático, éste hace una selección de cien animales, o tipos de ellos, describiéndolos a doble página con grabados de gran calidad y apretadísima letra. Suponemos que los jóvenes, a los que estaba destinada esta obra tenían buena vista.

En el libro se tratan indistintamente animales domésticos como salvajes, de los bosques europeos como de exóticos lugares. Principalmente vertebrados terrestres, pero también peces, insectos… incluso corales y foraminíferos tienen su lugar. De manera significativa, el primer capítulo se dedica a los grandes simios, mientras que el último a los animales fósiles.

Cerdos pastando, conducidos por un pastor y su perro.
Capítulo dedicado a las tortugas.
Vida microscópica, dedicado a Tere 🙂

Ciencia y tecnología

Si bien los libros de de viajes e historia natural resultan muy atractivos a un público joven, en un momento en el que los descubrimientos científicos están cambiando rápidamente el mundo, cobra una importancia máxima la divulgación de la Física, Química o las tecnologías a las que dan lugar.

Simple science – E. N. C. Andrade y J. Huxley – 1936

El único libro en inglés de esta selección es un recuerdo de mi estancia en Reino Unido hace muchos años. Mi ejemplar lleva impreso el escudo del Marlborough College, un lugar parecido al Hogwarts donde estudiaba Harry Potter y a sólo dos horas de coche de Londres. Fue entregado como premio a un estudiante en verano de 1941, en plena Guerra Mundial. Los autores fueron científicos reconocidos, particularmente Julian Huxley, hermano del autor de Un mundo feliz y creador de varios neologismos, entre ellos transhumanismo, por lo que Yuval Noah Harari le estará siempre en deuda.

El libro se dedica a algunos temas de Física, Química y Biología, entremezclados de una manera peculiar que pretende acentuar la interacción entre estas disciplinas. He seleccionado dos ilustraciones. La primera tiene que ver con la falta de semejanza en la variación del tamaño de los vertebrados, algo que normalmente no se tiene en cuenta en la películas de ciencia-ficción. La otra, un par de experimentos caseros sobre el equilibrio que da una idea del carácter lúdico del libro.

El grosor de las patas de los mamíferos no aumenta en la misma proporción que su tamaño.
Experimentos con objetos cotidianos, hasta cierto punto, sobre el centro de gravedad y el equilibrio.

Les grandes inventions – L. Figuier – 1870

Louis Figuier fue un prolífico autor de obras de divulgación, muchas de ellas en varios volúmenes y gran formato, cuya reunión es motivo de frustración para el coleccionista. Por eso he elegido uno de los pocos libros que publicó en un solo volumen. Mi ejemplar lleva grabado el escudo del Lycée Impérial de Napoléonville (nombre eventual de Pontivy), por el mismo motivo que en los casos anteriores: el premio por un excelente aprovechamiento del curso escolar.

La imprenta, la litografía, la pólvora, la brújula, el reloj… por decir sólo algunos de los primeros grandes inventos tratados en este libro. Se dedica bastantes páginas a la electricidad y sus aplicaciones, y eso que todavía no se había inventado la bombilla.

Experimento de conmoción eléctrica en grupo… antecedente del TASER.
Instalación del cable submarino para telégrafo entre Francia e Inglaterra.

Tú y el motor – E. P. A. Heinze – 1942

Publicado por la editorial Labor en España, la edición alemana (original, Du und der Motor… no puedo evitar recordar a Rammstein) de este libro se publicó en 1939, en el zénit de la producción industrial bélica germana justo antes del estallido de la Segunda Guerra Mundial. La divulgación se hacía eco de los avances en los motores de combustión interna, que en esa década recibieron muchas innovaciones. Por ejemplo, cuatro años antes de la publicación del libro comenzó a usarse el motor diesel en turismos gracias a una substancial reducción del sistema de inyección.

Pocos libros he visto que hablen con más entusiasmo sobre los motores de explosión. En sus páginas se examinan aspectos conceptuales y constructivos, con abundante ejemplos, no sólo de motores orientados al transporte terrestre, sino también de aviación, a la que el autor era bastante aficionado.

Fabricación de motores de aviación, que se usarían en bombarderos alemanes durante la Segunda Guerra Mundial.

El último capítulo está destinado al Volkswagen Escarabajo. Sobre un proyecto de Ferdinand Porche y promovido por Hitler en persona, se presentó con el nombre «Kraft durch Freude» que se traduciría como «la fuerza por la alegría». De ahí las siglas KdF, y el pánico que yo siento cada vez que los políticos acuñan expresiones con palabras que apelan a sentimientos.

Comienzo del capítulo dedicado al Volkswagen Escarabajo, con la República de Weimar implícita.
Motor del Volkswagen Escarabajo: cuatro cilindros en disposición boxer, refrigerado por aire.

State of the art

En algunas obras de divulgación científica se pone énfasis en los más recientes descubrimientos de cada disciplina. Esto suele nombrarse con el feo anglicismo «estado del arte». Para esta sección he reservado dos tesoros… ojo, hablo desde desde mi valoración personal, no la que dan las webs de reventa de libros viejos.

La ciencia moderna – J. Broutá – 1897

Lo primero que llama la atención en este libro, magníficamente editado por Montaner y Simón, es su portada Art Nouveau. Cuando lo abrimos vemos que, entre temas más habituales de Física, Química o Biología, dedica algunas páginas a la Prehistoria y un capítulo a la Antropología del crimen. Del autor, Julio Broutá, no podemos decir mucho, salvo que tuvo una polémica con doña Emilia Pardo Bazán, acerca de unas naranjas, de la que da cuenta en el libro.

He seleccionado como ilustraciones una extraída de la parte de Prehistoria, otra relativa a la tecnología de los dirigibles y, para acabar, una sobre la mencionada Antropología criminal donde el autor se desmarca de las teorías de Lombroso.

Ilustración con artefactos prehistóricos.
Producción de hidrógeno, algo que se ha vuelto a poner de moda un siglo más tarde.
Ilustración que hace referencia a la Frenología, teoría enviada al cajón del olvido.

Ciencia popular – J. Echegaray – 1905

Se trata de una colección de artículos sobre Ciencia aparecidos en prensa (El Imparcial, El Liberal) y recopilados en este volumen como homenaje a su autor con motivo de la concesión del Premio Nobel de Literatura. Aunque la mayor parte de los artículos se hacen eco de descubrimientos o tecnologías novedosas en el momento de la publicación, también hay algunos de tipo biográfico, como un homenaje a un Pasteur recientemente fallecido.

Entre las muchas cosas de las que escribe el polifacético José Echegaray y que fueron novedad en su época están los rayos X, la telegrafía inalámbrica, la transmisión de imágenes por cable, la radiactividad natural… el último artículo de esta recopilación se titula «El espacio de muchas dimensiones», pero no incluye referencias a Hilbert 😕

Parte del índice, que muestra la diversidad temática.
Artículo alusivo al reciente descubrimiento de los Curie, sin mencionarlos.

Los padres jesuitas

En un momento dado, empecé a ser consciente de la proliferación de autores cuyos nombres van seguidos de las siglas S. J. entre mis libros. Incluso, alguno de Matemáticas, como unas «Ecuaciones Diferenciales Ordinarias» va firmado por Alberto Dou, S. J. Esas siglas indican que el autor pertenece a la Compañía de Jesús, posiblemente la orden religiosa cristiana más comprometida con la Ciencia, como puede verse aquí. Contrariamente a lo que pudiera parecer, no es frecuente el proselitismo religioso en las obras científicas de jesuitas.

El firmamento – L. Rodés – 1939

Luis Rodés fue un astrónomo de primer nivel que se formó y desarrolló parte de su actividad en USA. La obra de la que hablamos aquí, aunque es de divulgación, contiene una gran cantidad de detalles técnicos que envidiaría un libro de estudio universitario.

De sus 690 páginas, no es hasta el la parte final del último capítulo donde se menciona al Creador. Y esto solamente lo hace en relación con la estabilidad y evolución del universo.

Ilustración de lo que conocemos normalmente como velocidad de escape.
Observaciones de Sirio que mostrando que realmente se trata de un sistema estelar doble.

Cosmologia – J. Donat – 1944

Este no es un libro de divulgación en su concepción, aunque sí en su temática, pues abarca todas las ciencias como manera de entender la creación. El libro está publicado en Barcelona y redactado en latín, lengua vehicular en los seminarios católicos. Cuenta también con el nihil obstat del obispo de Barcelona. Todo esto es muy curioso, habida cuenta de que Josef Donat era alemán.

Asoma parte de la firma del anterior propietario, que según he averiguado, fue canónigo en la Catedral de Murcia.

Hace mucho tiempo que la Iglesia Católica no busca la explicación de las cosas terrenales en La Biblia. Por eso he seleccionado dos páginas bastante elocuentes a este respecto. Frente al mito de que el mundo hizo en seis días, ofrezco unos cortes geológicos que debían estudiar los futuros sacerdotes. En cuanto a Adán y Eva, la página del libro donde se menciona a Darwin no contenía dibujos, así que en su lugar pongo la de un gráfico explicando las leyes de Mendel.

Cortes geológicos, explicados en latín.
Hibridación de dos plantas de distintos colores y repartición de las características en las siguientes generaciones.

A Dios por la Ciencia – J. Simón – 1954

Si bien he dicho que no es frecuente el proselitismo religioso en las obras de Ciencia escritas por jesuitas, no significa que éste no exista. Este libro, de llamativa sobrecubierta y destinado a un público juvenil, busca a Dios en los complejos detalles técnicos del universo y la vida. A pesar de sus años, esta obra sigue teniendo mucho predicamento en internet.

No entraré en detalles sobre el tipo de argumentos que expone el padre Jesús Simón. Dejaré que sea él mismo el nos proporcione un resumen. Nótese que en lo relativo a la Biología, hay una reminiscencia del llamado “Diseño Inteligente”.

Como ilustraciones he elegido, en primer lugar, una alegoría del papel de la boca en el ser humano. En segundo lugar, y por alusiones, una relativa a un problema de Matemáticas resuelto por las abejas. Otro día, en otro post, hablaremos de libros de divulgación matemática.

Trate el lector de identificar aquí los elementos de una cara humana.
Optimización de material en la construcción de una colmena.

Epílogo

Si tengo que señalar una fecha para el comienzo de esta afición bibliófila científica, he de remontarme al otoño de 1996 cuando llegué a Burdeos. En el Cours de l’Argonne, la calle que salía del centro de la ciudad (Place de la Victoire, para más precisión) hacia el campus universitario de Talence había una pequeña bouquinerie, atestada de libros viejos, como es de esperar por el significado del término francés. Destacaba al entrar, una pequeña urna rectangular de cristal con unos siniestros objetos colgados de hilos que parecían ser fetos de animales cubiertos de cera blanca y rosa. En aquella tienda encontré este librito, que considero el primero, conscientemente, de la colección.

Les plantes qui guérissent et les plantes qui tuent – Olivier de Rawton – 1884

Su título era muy sugerente: Las plantas que curan y las plantas que matan. La calidad de sus grabados y el acabado en pan de oro de su encuadernación me fascinaban tanto como lo que podría aprender en él. Su precio, 120 francos, era más que excesivo para el presupuesto de un estudiante. Durante varios meses estuve pasando de vez en cuando por allí, curioseando sin comprar nada, hasta que un día, el viejo librero ya no estaba. La persona en su lugar me dice que el patron había muerto y estaban liquidando la mercancía. Aproveché la luctuosa oportunidad para comprar el libro, considerablemente rebajado de precio. No sé que pasaría al final con los fetos encerados colgantes.

Una planta que cura… y también puede matar.

Amianto

Amianto serpentínico (crisotilo) superficialmente deshilachado procedente de Alhaurín (Málaga).

En mi post La Fiebre del Plomo, acabé mencionando algunos despropósitos hacia el final. Uno de ellos consistía en un jardín municipal decorado con rocas conteniendo amianto. Algunas personas que reconocieron el lugar lo pusieron en conocimiento de las autoridades. Yo, por mi parte, tuve una reunión con representantes de varias asociaciones cívicas de la población, cuyo nombre tampoco diré ahora. El caso es que me siento responsable del revuelo causado. Con este post espero informar un poco más sobre el amianto y reubicar el epicentro de la polémica en otro lugar.

Parte de los Viajes de Marco Polo (edición en inglés de 1968) donde explica la manufactura del amianto, dejando especialmente claro que no procede de la piel de salamandra.

Recordemos brevemente que la cualidad más significativa del amianto es que sus fibras se pueden tejer, resultando un material flexible e ignífugo. Esta propiedad es conocida desde la antigüedad remota. Al parecer, Carlomagno tenía un mantel de amianto con el que impresionaba a sus invitados. Marco Polo, en su relato de viajes por Asia, nos habla de unas prendas que se limpiaban y quedaban blancas echándolas al fuego. La idea de añadir amianto al cemento para darle más resistencia (fibrocemento, popularizado en España por la empresa Uralita, rebautizada Coemac desde 2015, para hacer borrón y cuenta nueva) tampoco es demasiado moderna, ya que se ha encontrado cerámica prehistórica que lo incorpora.

Minerales de amianto

Por amianto o asbesto se designan ciertos silicatos cristalizados en fibras que gozan de flexibilidad cuando son separadas. Hay básicamente dos grupos mineralógicamente hablando: el serpentínico, por su composición química similar a las serpentinas y frecuente las rocas a las que dan lugar, siendo el crisotilo el amianto más representativo del grupo; y el anfibolítico, englobado por su estructura entre los anfíboles, siendo la tremolita el asbesto más significativo en esta clase. Hay más minerales entre los amiantos, pero afinar en la clasificación más allá de los dos grupos descritos es difícil.

Crisotilo en fibras compactas, Alhaurín (Málaga).

Las rocas serpentínicas se forman por alteración de materiales procedentes del manto de la Tierra, como las peridotitas y ofiolitas. Su típico color verde está presente en las fachadas de muchos edificios. Cerca de Lubrín (Almería) hay una cantera abandonada de serpentina y cantos rodados de esta roca procedentes de Sierra Nevada llegan hasta a la cuenca de Orce (Granada). Esto lo digo como simple curiosidad, ya que raramente contienen amiantos. Es en Málaga donde está la mayor concentración de serpentina del país, producida por una gran masa de peridotitas en grado variable de alteración. Por allá, entre Alhaurín de la Torre y Alhaurín el Grande, en un corte de la carretera encontré un filón de crisotilo blanco de donde proceden las muestras de mi colección.

Tremolita, con las fibras deshilachadas en el extremo izquierdo, Carrascoy (Murcia).

En cuanto al amianto anfibolítico, lo he encontrado asociado a las metabasitas de Carrascoy. Las metabasitas son rocas intrusivas que han sufrido metamorfismo posterior. En la Región de Murcia aparecen ligadas a materiales béticos de edad triásica. A pesar de su color verde, no hay que confundir las metabasitas con las ofitas, también de edad triásica y composición mineralógica similar, que aparecen en el prebético pero sin metamorfizar. En las metabasitas de la Región se encuentran filoncillos de epidota y tremolita, esta última en fibras de color gris. Adjunto un artículo firmado por Rafael Arana, entre otros, mencionando la serie actinolita-tremolita en un afloramiento de metabasitas de la sierra de Carrascoy.

Riesgos del amianto

El amianto es nocivo por inhalación de su polvo. Las fibras del mineral quedan en los pulmones, provocando inflamación en primer lugar, produciendo tejido cicatrizado que reduce la capacidad respiratoria (asbestosis) y llegando, en casos de exposición persistente, a cáncer de pulmón y mesotelioma. Por este motivo el uso y comercialización del amianto están prohibidos en España y gran parte de los países civilizados. No obstante, la legislación fue muy progresiva: prohibición del amianto azul (crocidolita, el más nocivo de los amiantos) 1984, la del amianto marrón (amosita) 1993, la del amianto blanco (crisotilo) 2001, finalmente, la prohibición de todo tipo de amianto en 2006 (fuente Gestión Del Amianto). Entre la gente famosa cuya muerte es achacable al amianto destaca el actor Steve McQueen.

Cubierta de fibrocemento en una antigua instalación industrial.

Una vez establecida la peligrosidad del amianto, hay que insistir en que su toxicidad se limita a la vía respiratoria. No se trata de una substancia radiactiva o difusible químicamente. Y sin embargo, se trata como tal a la hora de eliminarlo… si es que se hace legalmente, claro. La mayor parte del amianto a retirar procede de cubiertas, canalones, tuberías, depósitos y similares fabricados con fibrocemento. También lo hay en forma de aislamiento para edificios, pero ese uso nunca ha sido muy popular por estos lares, así como en algunos componentes de automoción por su estabilidad a altas temperaturas.

Canteras con amianto en la Región de Murcia

Mientras las autoridades centran su política anti-amianto en el desmantelamiento de cubiertas de edificios, parecen olvidar que el amianto es un mineral que puede aparecer de manera natural entre las rocas de uso industrial. Este es el caso de las canteras de metabasitas, comercializadas como pórfidos, en distintos grados de trituración: balasto para carreteras o ferrocarriles, rocas para cimentaciones y mampostería, incluso ornamentales.

Cantera FULSAN «Pórfidos Internacionales de Alhama», en un extremo de la Sierra de Carrascoy. Los acopios de metabasita se pueden distinguir a la derecha por el color grisáceo. A la izquierda, materiales carbonatados con gran impacto visual.

La cantera FULSAN de Alhama de Murcia ha sido una de las principales fuentes de difusión de amianto de la Región de Murcia. Supongo que esto es justificable desde la ignorancia, al igual que la brutal ampliación de la cantera acometida en 2013 (ver el comunicado de ANSE) lo es desde la prepotencia. Desconozco la situación actual de la explotación. Al parecer, la empresa entró en concurso de acreedores en 2019, pero su balasto con amianto gris (tremolita) puede verse todavía en las vías de tren de la Región (ver la foto abajo tomada hace unos días). Una metabasita parecida se explota en canteras de la Sierra de Enmedio, no muy lejos de Puerto Lumbreras.

Vetilla de tremolita en fragmento de metabasita procedente del balasto de una vía de tren de la Región de Murcia. En ese mismo tramo de vía recuerdo haber visto masas mayores de tremolina deshilachada.

Actualmente, según me informan, en las canteras realizan un seguimiento periódico de los productos extraídos que incluye un estudio mineralógico donde se puede detectar las substancias peligrosas. Esto se lleva a cabo incluso en las canteras de caliza, a priori, más inofensivas. Ignoro si la tremolita está repartida más o menos regularmente en la masa de metabasitas explotables, pero una supervisión es necesaria para descartar el material o darle un uso adecuado.

Despropósitos finales

Mi intención con este post no es alimentar el pánico ni la paranoia sobre el amianto. Tampoco quiero contribuir al buen balance económico de las empresas descontaminadoras nacidas al abrigo de la normativa anti-asbestos. No obstante, aún podemos encontrarnos situaciones como la mostrada en la última foto: una enorme acumulación de balasto de metabasita, posiblemente procedente del desmantelamiento de vías de tren, removida por la maquinaria en las inmediaciones de una población murciana.

Acumulación de balasto de metabasita en las inmediaciones de una población murciana.

En general, el uso que se le da a las metabasitas con posible contenido en amianto no implica ningún riesgo para la mayor parte de la población. Sólo los trabajadores, ya sea en las canteras o en la manipulación, son los que tienen mayor riesgo de exposición al tóxico polvo. No obstante, en caso de tener que retirar metabasitas sospechosas de asbesto, no hay mejor sitio para una roca que volver al suelo de donde salió. Rociar abundante agua para evitar el polvo durante la manipulación, con algún aglomerante cuyo efecto dure tras la evaporación: sulfato o carbonato cálcicos, que precipiten sobre las fibras, o engrudo de almidón diluido, dependiendo de la situación.

Minerales y Matemáticas

Con motivo de la declaración de marzo como mes de las Matemáticas disfrutamos en el vestíbulo de nuestra Facultad una exposición fotográfica titulada «Geometría Natural», cuyo comisario es el Prof. Ángel Ferrández. Entre la selección no había imágenes de minerales. Desconozco si es por que ésta se ha limitado a organismos vivientes, o quizás porque las fotos de cristales imitando poliedros es un recurso demasiado manido… A mí no me cabe la menor duda de que los minerales son tan naturales como la tela de una araña. Para remediar la situación, decidí seleccionar algunas fotos de mis minerales con connotaciones matemáticas y añadirlas de extranjis, como Banksy en sus buenos tiempos, antes de cotizar en Sotheby’s. Esas fotos aparecen aquí, junto con unas cuantas más, para ilustrar la relación entre Minerales y Matemáticas.

Minerales: ¿únicamente poliedros?

Hay que decir que los poliedros que aparecen como cristales no son poliedros arbitrarios, sino que siguen ciertos patrones estudiados por la Cristalografía. Las formas aparecen como consecuencia del empaquetamiento regular de las moléculas condicionando la disposición de los planos que limitan las caras y los elementos de simetría. Pero además de cristales, hay agregados de estos que muestran otro tipo de patrones que evocan igualmente nociones matemáticas como la de fractal. Animo al lector que visite la galería por si descubre más motivos matemáticos entre las fotos de mi colección.

El icosaedro de pirita de casi 4 cm de diámetro recogido en Puebla de Lillo (León), una de las piezas más icónicas de mi colección. En este artículo describo matemáticamente la disposición de sus veinte caras.
Piritoedros (rombo-dodecaedros) de pirita en matriz, Caravaca (Murcia). Los piritoedros de Caravaca (Rambla del Piscalejo) son para mí los más bellos de la mineralogía española.
Octaedro de magnetita en matriz, Torre Pacheco (Murcia). Las piezas masivas de magnetita del Cabezo Gordo están consisten frecuentemente en agregados de octaedros milimétricos.
Curioso cristal cúbico compuesto de agregados octaédricos, Ricote (Murcia). La formación de esta pieza debió ocurrir en condiciones físico-químicas inestables oscilando alrededor de la frontera entre las dos formas..
Cristal de pirita, forma combinada de cubo y octaedro, Navajún (La Rioja). En este caso, las condiciones de formación fueron más estables, pero también en la frontera entre ambas formas.
Macla de cristales cúbicos de pirita, con leve pátina de óxido, Navajún (La Rioja). A veces el criterio para seleccionar ejemplares es más bien de tipo artístico y en este caso me he dejado llevar por el parecido con algunas obras de Chillida.
Pseudo-tetraedro de calcopirita, dentro de una geoda de siderita en romboedros, procedente de la Sierra de Filabres (Almería). Con el tetraedro, completamos la aproximación mineral a los cinco sólidos platónicos.
Granate almandino, en forma de trapezoedro de 24 caras, Níjar (Almería). La Luz transmitida permite apreciar su extraordinario color, pero hace difícil ver las aristas del poliedro.
Cristal de cuarzo hialino rematado en pirámide hexagonal, Albatera (Alicante). Lo bonito de esta pieza es que el cristal sólo se ve a gracias al reflejo de sus caras.
Agregados esferoidales de prehnita (Cehegín, Murcia). Las esferas aparecen como resultado del crecimiento radial de los cristales de este silicato.
Aragonito en prisma pseudo-hexagonal, Minglanilla (Cuenca). Si se miran bien sus caras laterales descubriremos por qué nos referimos como pseudo-hexagonal. En efecto, estos cristales son el resultado del agregado de tres primas rómbicos.
Yeso, cristal totalmente desarrollado, Utrillas (Teruel). El yeso cristaliza en el sistema monoclínico, que no tiene demasiados elementos de simetría, si bien da para varios pares de caras paralelas y un “centro”.
Cuarzo, prisma hexagonal rematado por sendas pirámides en matriz de yeso, Ricote (Murcia). Aunque el primas es hexagonal en una buena aproximación geométrica, realmente su simetría es ternaria.
Nódulo elipsoidal de barita iluminado con luz UV mostrando una trama fractal, Caravaca (Murcia). Es posible (me quedo con la hipótesis en lugar de partir el nódulo) que la trama sea consecuencia de un agrietado por retracción, como el de los nódulos septarios.
Granate melanito, cristal rombo-dodecaédrico, Cehegín (Murcia). Como se puede ver, la palabra dodecaedro en mineralogía resulta confusa si no se especifica la forma de las caras.
Cubo deformado de pirita, Navajún (La Rioja). Es innegable la estética de este tipo de piezas.
El cristal de la izquierda es un octaedro tallado de fluorita, mineral que en la naturaleza se presenta generalmente en cubos, pero se exfolia siguiendo planos paralelos al octaedro. El cristal de la derecha no es tallado, sino natural y se trata de magnetita de Brasil. Ambas piezas proceden del comercio.
Crecimiento fractal de psilomelana, observado en una fachada de Bolnuevo (Mazarrón). Las dendritas de óxido de manganeso, mal llamadas «de pirolusita» en muchos textos, se desarrollan en planos de diaclasado como fractal que imita motivos vegetales.
Fragmento de un nódulo esférico de marcasita alterado en limonita, Picos de Europa (Cantabria). Queda el vestigio de los cristales radiales que convergen en un único punto.
Ágata, Iguazú (Brasil). A pesar de la exótica procedencia, la recogí yo mismo. La roca volcánica alrededor de las famosas cataratas estaba repleta de ágata, pero no pude recoger un trozo mayor. Las líneas recuerdan las curvas de nivel de una función de dos variables.
Quiastolita, una variedad de andalucita que presenta un dibujo cruciforme en sección (pulida), Boal (Asturias). La aparición de la cruz se debe a la variación en «contaminantes» durante el crecimiento del cristal.
Cristales de barita, Mazarrón (Murcia). Los cristales tabulares rómbicos se han replicado en una especie de macla repetitiva, produciendo un borde aserrado.
Cristal de casiterita de localidad desconocida procedente de una colección antigua. Consiste en un prima cuadrangular rematado en pirámide, forma propia del sistema tetragonal.
Cubos de fluorita violeta, Berbes (Asturias). El biselado que se aprecia en las aristas del cubo se debe a una leve combinación con el rombo-dodecaedro.
Romboedro de exfoliación de espato de Islandia, purísima variedad de calcita, procedente del comercio. Por la parte de la izquierda incide la luz solar, que es descompuesta en colores elementales a la derecha.
Rinconcito de los minerales en le exposición fotográfica de la Facultad de Matemáticas de la Universidad de Murcia.

El Sistema Solar

Imagen toda de un viejo libro de texto, explicación al final.

El propósito de este post es destacar ciertos aspectos del Sistema Solar que, como matemático, me resultan interesantes y con la esperanza de alguno resulte novedoso para mis queridos lectores. Esto último no va a ser sencillo… La observación del cielo es tan antigua como la Historia, así como la curiosidad por saber lo que hay ahí arriba (o afuera) es tan inmensa como el Universo. La Astronomía, desde que se diferenció de la Astrología, es una disciplina bien desarrollada y su divulgación una de las populares. También, algunos de los divulgadores de la astronomía alcanzaron una gran fama en vida: Camille Flammarion en el siglo XIX, Carl Sagan en el XX, y más recientemente, Neil deGrasse Tyson. Por este motivo, no es fácil contar algo realmente sorprendente sobre el Sistema Solar.

Uno de los libros con el que aprendí mucha Astronomía en mi juventud… y que ahora apenas recuerdo.

El cielo desde un zigurat

En la antigua Babilonia, los sacerdotes escrutaban los cambios que se producían en el firmamento y lo anotaban todo, de manera que, tras siglos de observaciones, habían descubierto la periodicidad de numerosos fenómenos, incluidos los eclipses. La aplicación más básica era el dominio del calendario, que administraban como un saber hermético, pues el conocimiento del momento preciso de las siembras era fundamental para la economía del estado. Además del sol, la luna y las estrellas, había unos objetos cuya posición y ritmos no seguían las mismas pautas: los planetas. De manera tácita se asumió que sus ciclos debían tener alguna repercusión en lo que ocurría en el suelo y a la búsqueda de esa influencia se la llamó Astrología. Esta conexión resultaba tan “evidente”, que la Astrología no sólo fue tolerada por la Iglesia medieval, sino que también se llegó a enseñar en las universidades.

Maqueta de un zigurat (foto de Wikipedia).

Algunos planteamientos de la Astrología pueden parecernos ahora ridículos desde la ciencia moderna, pero estimularon la observación cuidadosa y cuantitativa del cielo, dando lugar a una disciplina matemática: la Trigonometría. En particular, la llamada Trigonometría Esférica tiene que ver con las relaciones entre las distintas magnitudes de un triángulo esférico, cuyos lados son segmentos de circunferencia máxima. Resulta curioso que los lados de un triángulo esférico se midan como ángulos, pero es lo más adecuado porque esa es la única referencia que podemos tener entre los astros que observamos desde la Tierra. El área de un triángulo esférico es también una medida angular, es decir, relativa, pero recibe el nombre de ángulo sólido. Al igual que la longitud de la circunferencia de radio unitario, 2pi, señala el ángulo lineal máximo, el área de la esfera de radio unidad, 4pi, es el valor del ángulo sólido máximo.

Triángulo esférico, dibujo tomado de Wikipedia.

Quizás el hecho más fascinante (al menos para mí) de los triángulos esféricos es que su área se obtiene simplemente sumando sus ángulos y restando pi al resultado. Esta misma operación daría cero en un triángulo plano (véase mi post Circunferencias y esferas), pero no en un esférico. En un globo terráqueo es fácil trazar un triángulo con un vértice en el Polo Norte y los otros dos en el ecuador, de manera que sus tres ángulos son rectos. La fórmula del área arroja un valor de pi/2, que es una octava parte de la esfera (y de 4pi, obviamente). Curiosamente, la fórmula del área de los triángulos esféricos se puede deducir sin apenas conocimientos geométricos usando una fórmula combinatoria que expresa la medida de la unión de tres conjuntos: súmense todas las áreas, réstense las áreas de las intersecciones dos a dos y, finalmente, súmese el área de la intersección de los tres conjuntos.

Demostración de la fórmula del área de un triángulo esférico.

Dice con bastante ironía Jean Dieudonné, uno de los miembros del influyente grupo matemático Bourbaki, que la Trigonometría actualmente sólo interesa a tres colectivos: a los astrónomos, a los agrimensores y a los autores de libros de Trigonometría. No obstante, la Trigonometría Esférica proporciona un modelo fácilmente comprensible de una Geometría no euclidiana en la que los triángulos de pequeñas dimensiones son muy parecidos a los triángulos planos, pero a medida que aumenta la escala también aumentan las diferencias. ¿No pasará lo mismo en el Universo? En efecto, a nuestra escala (o la de nuestros instrumentos de medida) nos parece euclidiano, pero podría no serlo globalmente… Albert Einstein nos abrió ese melón.

La cuarta ley de Kepler

Si pensamos en las leyes de Kepler, recordaremos al menos tres de ellas: la primera describe la forma de las órbitas de los planetas alrededor del sol; la segunda explica las variaciones de velocidad de un planeta a lo largo de su órbita; finalmente la tercera relaciona los tamaños de las órbitas de dos planetas con la duración de su revolución alrededor del sol. Pongamos un ejemplo de esta última, si un planeta tiene una órbita cuyas dimensiones duplican las de, por ejemplo, la Tierra, su año será 2.83 veces mayor que el nuestro (1033 días terrestres). Ya comentamos en nuestro post Elipse que Isaac Newton dio la demostración matemática de las leyes de Kepler a partir de su ley de Gravitación Universal.

Ilustración del Mysterium Cosmographicum de Kepler (foto de Wikipedia).

¿Qué es lo que falta en el conjunto de las tres leyes de Kepler? La respuesta más obvia, quizá, es que no proporcionan ninguna información sobre la disposición relativa de los planetas. En aquel momento, sólo se conocían seis: Mercurio, Venus, Tierra, Marte, Júpiter y Saturno. A falta de una hipótesis mejor, Kepler relacionó los planetas con los sólidos platónicos, es decir, los cinco poliedros regulares (convexos, hay que especificar), que inscritos y/o circunscritos en cierto orden en seis esferas producen unos radios cuyas proporciones, dentro de cierto margen de error, coincidían con las de las órbitas planetarias. Desde el punto de vista moderno, el modelo Kepleriano puede parecernos algo carente de fundamento, pero en realidad está haciendo algo que los matemáticos seguimos haciendo todavía: buscar patrones.

Tabla comparando las distancias predichas por la ley de Titius-Bode con las reales, tomada de J. Febrer Carbó y E. Cabal Dalby «Lecciones de Astronomía Elemental», Reverté Barcelona (1948).

Encontrar un buen patrón depende mucho del conocimiento acumulado. La hipótesis de la elipse, por ejemplo, funcionó y pudo justificarse a posteriori, pero la distancia relativa entre planetas del Sistema Solar necesitaba una aproximación menos mística. El astrónomo alemán Johann E. Titius propuso que las distancias relativas al Sol estaban en progresión (esencialmente) geométrica, salvo por dos detalles: una corrección particular para Mercurio; y una “laguna” entre Marte y Júpiter. Otro alemán, Johann D. Bode que da también su nombre a esta ley, propuso que el hueco entre Marte y Júpiter correspondía a un planeta que aún no había sido observado. Hay que decir que en ese momento no se había descubierto aún Neptuno, planeta para que la ley de Titius-Bode falla estrepitosamente. Un grupo de 24 astrónomos, en su mayoría alemanes, se lanzó a la búsqueda del supuesto planeta intermedio entre Marte y Júpiter. En la Nochevieja de 1800 a 1801 apareció, por fin, un diminuto planeta: Ceres.

Ceres, más pequeño que nuestra luna, no tiene atmósfera ni actividad geológica, por lo que su superficie está cubierta de cráteres producidos por el impacto de meteoritos (foto de Wikipedia, como no).

El descubridor de Ceres fue el italiano Giuseppe Piazzi que pudo seguir al planetoide durante un mes aproximadamente, hasta que cayó enfermo. Después, la pista de Ceres se perdió y nadie fue capaz de encontrarlo… Hasta que llegó Carl Friedrich Gauss, el más grande matemático del siglo XIX (por no decir de todos los tiempos, estas comparaciones son delicadas), y con las observaciones de Piazzi, que representaban un 1% de la órbita de Ceres, realizó complejos cálculos con un método de su propia invención y dijo a los astrónomos hacia dónde debían enfocar sus telescopios en diciembre de ese mismo año. El planeta apareció exactamente donde dijo Gauss que aparecería… bueno, con medio grado de error 😕

Carl Friedrich Gauss

El misterioso método de Gauss incluía el ajuste con mínimos cuadrados, que hoy día es una técnica estándar para hacer predicciones a partir de cierto número de medidas experimentales. Sabemos también que Gauss en su estudio de las órbitas planetarias usó un algoritmo llamado transformada rápida de Fourier (FFT), años antes de que Joseph Fourier en persona definiera su transformada (sin la etiqueta “rápida”) y con más de un siglo de anticipación sobre Cooley y Tucker, los “inventores oficiales” de la FFT: así era Gauss. Para cerrar esta sección, después de Ceres, se descubrió en órbitas cercanas otros pequeños planetas: Palas, Juno, Vesta… la cuenta va por miles, pero cada vez más diminutos y ya nada redondos. Es esas circunstancias, la noción de planeta debía definirse de manera precisa por lo que Ceres quedó fuera de la lista y nos referimos en su lugar al cinturón de asteroides. Por cierto, el mismo criterio provocó la expulsión de Plutón en 2006 de la lista oficial de planetas del Sistema Solar. Plutón resulta ser parte de un cinturón de asteroides exterior llamado de Kuiper.

El problema de los tres cuerpos

Nos ocuparemos ahora de una cuestión de Mecánica Celeste. Notemos primero que, realmente, las elipses son soluciones exactas para las ecuaciones Newtonianas del movimiento cuando se considera un sistema de dos cuerpos (el Sol y un planeta). Matemáticamente, el problema se reduce al de una sola masa en un campo gravitatorio central y puede resolverse dando la posición exacta del planeta en cada momento. Cuando hay tres cuerpos interactuando mútuamente entre sí, la dificultad del problema aumenta considerablemente y no es posible dar una solución explícita de las órbitas… y no digamos ya cuando se tiene un número mayor de cuerpos como el propio Sistema Solar.

ISS, foto tomada de Wikipedia.

El llamado problema de los tres cuerpos se puede abordar con distintas simplificaciones. Una de ellas es suponer que dos de los cuerpos no son demasiado masivos para despreciar su interacción mutua. Evidentemente, cada uno de los cuerpos pequeños seguirá el modelo elíptico, si es que permanecen confinados en sus órbitas, pero es posible que nos interese saber como se moverá uno respecto al otro. Si las órbitas de estos dos cuerpos son suficientemente próximas, podemos considerar una como perturbación de la otra. Esto permite deducir resultados aparentemente sorprendentes como el siguiente: imaginemos que un astronauta da un salto desde la Estación Espacial Internacional (ISS) de manera que se aleja de ella flotando en el vacío. No pasa nada, en alrededor de 45 minutos volverá a la ISS. En efecto, la trayectoria del astronauta (alrededor de la Tierra) es una elipse de dimensiones similares a la que traza la ISS y, por lo tanto, con el mismo periodo.

Situación de los puntos de Lagrange, los estables son L4 y L5 (tomado de Wikipedia).

Consideremos ahora un sistema compuesto de dos objetos masivos y un tercero mucho menor. En este caso, el problema de los tres cuerpos admite unas soluciones curiosas: existen dos puntos relativos a la posición de las masas mayores (moviéndose con ellas) donde una tercera masa quedaría en una posición estable. Estos son los llamados puntos de Lagrange estables (hay otros puntos estacionarios, pero son inestables), que actúan como receptáculos de pequeñas masas a la deriva, los llamados asteroides troyanos. Desde la predicción hecha por el matemático ítalo-francés Joseph-Louis Lagrange, se tardó casi un siglo en poder observarlos. En el Sistema Solar, Júpiter acapara casi todos los troyanos. Obviamente, es el segundo cuerpo más masivo después del Sol, y junto con él forma un potente atractor de troyanos.

Kolmogorov, Arnold y Moser

Lo cierto es que los planetas del Sistema Solar se influyen unos a otros, quizás no tanto como para marcar la vida de un recién nacido, pero sí como para inquietar a los astrónomos sobre un cataclismo en el futuro. Por ejemplo, el descubrimiento de Neptuno fue posible gracias a las perturbaciones que provocaba en la órbita de Urano. A su vez, el planetoide Plutón fue descubierto por las perturbaciones que provocaba sobre Neptuno. Las elipses que describirían teóricamente los planetas alrededor del sol según el modelo de dos cuerpos, están “abolladas” consecuencia de esta mutua interacción.

Neptuno, fotografiado por el Voyager (foto de Wikipedia)

Si bien el efecto de la interacción entre dos planetas dados puede parecer pequeño puntualmente, su efecto prolongado a lo largo del tiempo podría acumularse. A medida que los dos planetas orbitan alrededor del sol se producen alternativamente situaciones de máximo acercamiento y máximo distanciamiento. La atracción gravitatoria entre ellos, mayor durante la máxima proximidad, se convierte en una fuerza pulsante. Hay situaciones en las que una pequeña fuerza ejercida periódicamente causa un gran efecto a largo plazo: imaginemos un columpio al que se le da un pequeñísimo impulso cada vez que comienza a alejarse. Al cabo de un rato, el columpio ejecuta grandes oscilaciones. Este fenómeno se conoce como resonancia y ocurre cuando la frecuencia de la fuerza coincide o está muy próxima a la frecuencia natural del sistema al que se aplica.

Uno de los párrafos del libro de V. I. Arnold «Mecánica Clásica» (Paraninfo, Madrid, 1983) del apéndice donde explica la teoría KAM. La dificultad del tema, unida a una peculiar traducción, produce un cierto desánimo…

Andrei Kolmogorov, uno de los matemáticos rusos más importantes del siglo XX, comenzó el estudio de la posible resonancia en sistemas dinámicos como el constituido por el Sistema Solar. Este estudio fue continuado por su discípulo Vladimir Arnold y el alemán Jürgen Moser. El teorema KAM (por las iniciales de los matemáticos mencionados) dice, aplicado a los planetas, que las órbitas serán estables cuando el cociente de sus frecuencias es muy irracional en un sentido tan preciso como técnico para ser expuesto aquí. A mis colegas matemáticos puedo decirles que la condición KAM recuerda ligeramente la definición de los números transcendentes de Liouville. En lo que respecta al Sistema Solar, la mayor parte de los cataclismos por resonancia ocurrieron en una etapa inicial, y los cocientes de las frecuencias de los planetas actuales están lejos de ser conmensurables. No hace mucho, la matemática italiana Gabriella Pinzari realizó una mejora substancial del teorema KAM.

Concluyendo

Recuerdo como si fuera ayer aquella noche de invierno de 1976 cuando vi por primera vez la ilustración* con la que he comenzado este post. Todavía me dura el abrumador sentimiento de pequeñez y vacío que me provocó. Por eso no puedo evitar tener cierto apuro cuando miro la noche estrellada reconociendo constelaciones y buscando luceros. A pesar de que cada vez es más difícil disfrutar del cielo nocturno, que se le ha declarado la guerra a la oscuridad, la noche estrellada está ahí, envolviéndonos, para que mientras miramos al infinito, sigamos haciéndonos las preguntas más fundamentales de nuestra existencia.

La noche estrellada de Van Gogh.

(*) El libro es «Geografía Universal» (Antonio M. Zubia, Ed. S.M. 1967) de 2º de bachillerato, un libro de texto que usó mi hermana.

Área

Hubo un tiempo en el que el referente en divulgación matemática era Martin Gardner. Es difícil encontrar a alguien que haya hecho más por hacer llegar las curiosidades y paradojas de las Matemáticas, clásicas o contemporáneas, al público en general. Lo más curioso, es que Martin Gardner no tenía estudios reglados de Matemáticas más allá de la high school. Ahora la divulgación matemática se ha erigido en disciplina y los divulgadores profesionales son básicamente monologuistas temáticos. No sé hasta que punto los divulgadores especializados más conocidos de nuestro país (Claudi Alsina, Clara Grima, Eduardo Sáenz de Cabezón, Marta Macho, Santi García Cremades…) están contribuyendo a las vocaciones matemáticas. En este sentido, yo sólo puedo hablar del tipo de cosas con las que a mí me «engancharían» si fuera un joven indeciso. Este post es un ejemplo: hablemos del área.

Portada de uno de los libros más populares de Martin Gardner, «Paradojas», Labor (1989).

Matemáticas en la barra de un bar

En mi post Matemáticas y matemáticos di una versión excesivamente pesimista de qué significa ser matemático entre gente que no lo es. Lo cierto es que muchas veces disfrutamos tanto con nuestro oficio que podemos llegar a hacer apostolado de nuestra ciencia en los bares y entre cervezas. Mucha gente recuerda el Teorema de Pitágoras de los triángulos rectángulos con detalle suficiente como para enunciarlo en términos de catetos e hipotenusa. Pero nadie recuerda el motivo por el cual el teorema es cierto, en muchos casos, porque nunca le han enseñado una demostración. Es decir, como se deduciría el Teorema de Pitágoras a partir de hechos más elementales.

Esto es una prueba del teorema de Pitágoras basada en la noción de área. El dibujo es algo cutre, tal como quedaría tras dos cervezas o más…

En ese momento se saca el bolígrafo y sobre una servilleta se hacen los dos dibujos representados arriba con la idea de demostrar que el triángulo rectángulo de lados a, b, c satisface el Teorema de Pitágoras. Los dos cuadrados grandes, de lado a+b, tienen igual área porque son iguales. Si de cada cuadrado se retiran los cuatro triángulos, todos ellos iguales al triángulo rectángulo de lados a, b, c original, lo que quede tras la sustracción deberá tener igual área: a la izquierda quedan dos cuadrados de lados a y b; a la derecha queda un cuadrado de lado c. Por lo tanto ab2 = c2 ¿No es sorprendentemente sencillo?

Demostración del Teorema de Pitágoras basada en semejanza de triángulos, tomada de Coxeter «Fundamentos de Geometría», LIMUSA-WHILEY (1971).

Sin embargo, el «principio de conservación del área» al que hemos apelado parece más sencillo que el Teorema de Pitágoras porque es una extrapolación de nuestra experiencia cotidiana: si un kilo de harina se separa en tres porciones y se pesan cada una de ellas con la mayor precisión posible que puede proporcionar una báscula digital de cocina podemos asegurar que los tres números sumaran 1000 gramos, y si el resultado es inferior (999 ó 998) será culpa del redondeo o de algo de polvo de harina que se ha derramado. La Ley de Conservación de la Materia en el contexto químico fue formulada por Lavoisier y Lomonosov, independientemente en el siglo XVIII, y corregida por Einstein añadiendo el balance energético por medio de la fórmula de conversión E=mc2.

Unas cervezas después…

Queremos convencer a nuestro interlocutor de que la noción de área en Matemáticas posiblemente no se comporte con la misma fiabilidad que la materia en el mundo real. Le preguntamos por el área del triángulo y responde casi sin pensar «la mitad de la base por altura»… Pero eso dependerá de como esté apoyado el triángulo ¿no? – podríamos argumentarle. Aprovechamos el breve momento de desconcierto para tomar una nueva servilleta de papel y lanzar un nuevo ataque en forma del siguiente dibujo.

Cuadrado de lado 13 descompuesto en triángulos y trapecios.

Partimos de un cuadrado de lado 13 y se descompone en piezas tal como se muestra arriba. Si se tuviera una regla y unas tijeras, se podría llevar a la práctica la reorganización de los trozos de papel que ilustra el siguiente dibujo.

Reorganización de los trozos de la descomposición del cuadrado de lado 13.

¿Qué tiene esto de particular? El cuadrado original de lado 13 tiene área 169 mientras que el rectángulo de dimensiones 21×8 tiene área 168… algo no cuadra. Tenemos tanta confianza en la conservación del área que seguro que hay truco. En efecto, la aparente diagonal del rectángulo no es una línea, sino que tiene área positiva, ya que los triángulos y los trapecios no están perfectamente alineados. Sin embargo, la diferencia es tan sutil que queda encubierta por la tinta del bolígrafo, o por la imperfección del corte del papel si se ha llevado a la práctica. Por cierto, este ejemplo lo aprendí en el libro de Martin Gardner que menciono al principio.

Otro «truco» de recomposición de rectángulos en el libro de Martin Gardner, en este caso, para hacer desaparecer una quemadura de un alfombra.

El área de los polígonos

A nuestros colegas del bar hay que dejarles claro que si bien el área satisface un cierto principio de conservación, se trata de una cuestión delicada y que es preferible remitir la prueba del teorema de Pitágoras a argumentos más simples como la semejanza de triángulos. En cuanto a las magnitudes, es decir, longitudes, ángulos, áreas, volúmenes…, lo que se hace es atribuir un número, llamado su medida, que dependerá de la unidad que se establezca y de la complejidad del objeto a medir. Para no desviarnos mucho del asunto, seguiremos con la fundamentación rigurosa de la noción de área.

Comienzo del capítulo dedicado al área en el «Curso de Geometría Métrica» de Pedro Puig Adam.

En un nivel elemental, puede demostrarse que a los polígonos del plano se les puede asignar una medida de área que cumple la «ley de conservación» siguiente: si un polígono se descompone como unión de una cantidad finita de polígonos que no se solapan, entonces la suma de sus áreas es la del polígono inicial. Esto es un teorema, como el de Pitágoras, que debe ser demostrado en el marco de las Matemáticas, es decir, sin pretender que los polígonos puedan ser recortados en chapa de acero, por ejemplo, y apelar a la Ley de Conservación de la Materia.

Página de «Figuras equivalentes y equicompuestas» de V. G. Boltianski, Ed. MIR (1981).

Naturalmente, si dos polígonos pueden descomponerse en los mismos trozos no solapados deben tener igual área. El recíproco resulta ser también cierto, es decir, si dos polígonos tienen igual área, entonces es posible descomponer uno de ellos en trozos de manera que, reorganizados convenientemente, se obtiene el otro polígono. Este es el llamado teorema de Bolyai-Gerwien. Notemos que «reorganizado convenientemente» significa que los trozos son trasladados y rotados, como haríamos con las piezas de un puzzle. Un refinamiento debido a Hadwiger y Glur establece que bastan traslaciones y rotaciones de 180 grados. Los matemáticos son bastante dados a los “refinamientos”, en este caso no referimos a buscar las hipótesis más débiles a partir de las cuales se puede obtener una misma conclusión.

Los problemas de Hilbert

Durante el Congreso Internacional de Matemáticos de 1900 en París, el insigne matemático alemán David Hilbert formuló 23 problemas que él consideraba interesantes como “propósitos de siglo nuevo”. Y, en cierto modo, alguno de esos problemas fue fundamental como guía o inspiración de las Matemáticas del siglo XX. Sin embargo, el problema número 3 fue resuelto ese mismo año por, Max Dehn, un alumno del propio Hilbert. El problema consistía en saber si un cubo se podía descomponer el poliedros de manera que reorganizándolos se pudiera obtener un tetraedro, obviamente del mismo volumen.

Descomposición de un cubo en varios poliedros, tomado del libro de Boltianski citado arriba.

La solución de dada por Dehn fue negativa, es decir, cubo y tetraedro del mismo volumen no son equidescomponibles. Las pruebas de imposibilidad son, por lo general, mucho más sutiles que las de posibilidad. De manera similar, las desigualdades en Matemáticas suelen ser más profundas que las igualdades (hablo de fórmulas). El resultado de Dehn muestra que no puede haber una «teoría elemental» del volumen de poliedros análoga a la del área de polígonos del plano. Para relacionar el volumen de una pirámide con el de un prisma de igual base y altura hay que cruzar un abismo conceptual parecido al que separa un círculo de un polígono regular de igual área. Hay que hacerse a la idea de que los polígonos o los poliedros no llegan demasiado lejos… Pero ¿qué objetos geométricos son susceptibles de ser medidos?

La Teoría de Conjuntos

Los polígonos y otros objetos geométricos del plano son conjuntos de puntos. Esto puede parecer una obviedad, pero adoptar el punto de vista conjuntista fue uno de los mayores avances en las Matemáticas. A partir de conjuntos dados, se pueden formar otros usando operaciones como la unión o la intersección, resultando conjuntos cada vez más complejos. La Teoría de Conjuntos creada por George Cantor a finales del siglo XIX tuvo un profundo efecto en la fundamentación de las teorías matemáticas en el siglo XX, que alcanzó incluso a las matemáticas escolares.

G. Pappy «Matemática Moderna», EUDEBA (1972), libro de Matemáticas para las escuelas con una notable insistencia en el leguaje de la Teoría de Conjuntos.

Podemos plantearnos si el área de un conjunto tiene relación con la cantidad de puntos que contiene, ya que, aparentemente, un conjunto mayor tiene más puntos que uno más pequeño, a pesar de que ambos pueden tener infinitos puntos. Aunque este no es el sitio para reproducir las discusiones de los antiguos filósofos griegos sobre la noción de infinito, la infinitud de los números o los puntos de una recta nos resulta obvia. Uno de los descubrimientos de Cantor fue que había infinitos de distintos tamaños. De hecho, demostrar que hay más puntos en un segmento de recta que números naturales (1, 2, 3…), o que un cuadrado y un segmento tienen la misma cantidad de puntos, se puede hacer en la barra de un bar sobre una servilleta…

El «Hotel del Infinito», historieta inventada por David Hilbert para ilustrar la noción de infinitud, tal como se encuentra expuesta en el libro de Martin Gardner.

Las paradojas a las que da lugar el infinito son muy interesantes (véanse las Paradojas de Zenón o el Hotel del Infinito de Hilbert, ilustración de arriba), pero no quiero desviarme demasiado del tema. El área, realmente, no tiene mucho que ver con la cantidad de puntos (como se pudo mostrar sobre una servilleta), pero entre los diferentes infinitos usaremos el más pequeño, esto es, el de los números naturales (insisto, los números de contar: 1,2,3…). Diremos que un conjunto es numerable si sus elementos se pueden etiquetar usando los números naturales. Notemos que esta definición incluye los conjuntos finitos, pero no insistiremos mucho en la diferencia, ça va de soi.

Viñeta, «politicamente incorrecta» hoy día, tomada de George Gamow «One, two, three… infinity», Dover (1974).

La Teoría de la Medida

Un círculo puede expresarse como una unión numerable de triángulos: primero un triángulo equilátero inscrito; después se añaden tres triángulos isósceles cuyas bases sean los del primero y sus vértices tocan la circunferencia; después, seis triángulos más ocupando cada una de las lúnulas no cubiertas por el hexágono resultante… El proceso de rellenado por triángulos del círculo puede verse en la siguiente ilustración. La numerabilidad es consecuencia de que en cada paso se añade una cantidad finita de triángulos.

Cómo rellenar un círculo con triángulos (imagen tomada de Scielo http://ve.scielo.org/scielo.php)

Aunque es un ejemplo particular, el mismo argumento se puede emplear para rellenar con polígonos cualquier figura limitada por curvas. Esto nos induce a pensar que si el área fuera «numerablemente aditiva» se simplificaría, por lo menos a nivel teórico, las relaciones entre las áreas de conjuntos del plano, a costa de sustituir las sumas finitas por series. Es decir, si un conjunto se expresa como una unión numerable de partes disjuntas, el área del total se expresará como la suma finita o infinita (serie) de las áreas de las partes. No es razonable tratar de ir más lejos, a la hora de tomar uniones, del infinito numerable. En efecto, cualquier polígono es una unión de puntos, cada uno con área cero, y no hay forma de conseguir un número positivo a base de sumar ceros 😕

Ejemplos de series (sumas infinitas) tomado de Brohshtein y Semendiaev «Manual de Matemáticas para ingenieros y estudiantes», MIR (1973).

A la vez que se admiten uniones numerables, la complejidad de los conjuntos aumenta y la noción de «área» se vuelve menos intuitiva. No obstante, Henri Lebesgue demostró en 1904 que hay una forma coherente de asignar medida a familias de conjuntos de la recta, del plano o el espacio, sin restricción por operaciones conjuntistas (uniones, intersecciones, diferencias) en cantidad numerable. La Teoría de la Medida de Lebesgue se continúa y complementa con la integral que lleva su nombre, que es una de las principales herramientas en Análisis Funcional.

El milagro de los panes, los peces y las esferas

El procedimiento que empleó Lebesgue para definir una medida de área aplicable a un gran número de conjuntos del plano era esencialmente constructivo. Si se admite cierta regla no constructiva para la formación de conjuntos, es posible encontrar (realmente, «fabricar») un conjunto no medible. Las regla no constructiva a la que nos referimos es el llamado «Axioma de Elección» de la Teoría de Conjuntos, al que pondremos en contexto en la próxima sección. A pesar de la existencia de conjuntos no medibles en el plano, es todavía posible asignar una medida finitamente aditiva (renunciamos a las uniones numerables y a las series) a los conjuntos del plano de manera que se comporta como el área. Esto fue demostrado en 1923 por Stefan Banach, padre de los espacios que llevan su nombre, haciendo uso del Axioma de Elección.

Ilustración de la Paradoja de Banach-Tarski tomada de Wikipedia.

Pero si nos situamos en el espacio tridimensional, la cosa cambia drásticamente. Banach y Tarski demostraron que una esfera puede descomponerse en una cantidad finita de trozos (10, sin ir más lejos) de tal manera que, convenientemente trasladados y rotados, componen dos esferas, exactamente iguales a la original. Este resultado conocido como la «Paradoja de Banach-Tarski» es el equivalente matemático del célebre milagro de los panes y los peces recogido en los evangelios. Insistimos en que esto es un resultado puramente matemático y no viola la Ley de Conservación de la Materia. La Paradoja de Banach-Tarski implica la imposibilidad de una medida de volumen definida para todos los conjuntos del espacio: asunto cerrado. Por cierto, dije más arriba que las demostraciones de no existencia eran en general más sutiles que las de existencia… me retracto 😉

Y dijo Gödel…

La Teoría de Conjuntos que fundó Cantor se conoce como la «Teoría Ingenua de Conjuntos» (Naive Set Theory, por el libro de Halmos) en la que los conjuntos se manejan como objetos compuestos de elementos previamente existentes y con propiedades nítidas. El carácter sumamente elemental de la noción de conjunto, a partir de la cual se pueden definir las relaciones, los números, las funciones… motivó tomar la Teoría de Conjuntos como «piedra fundacional» de las Matemáticas. Para ello, sería necesario definirla axiomáticamente. La dificultad de la tarea fue puesta de manifiesto por la Paradoja de Russell, que no es más que la versión conjuntista de la más popular «Paradoja del Barbero» (ver ilustración).

La Paradoja del Barbero, según Martin Gardner.

La versión de la Teoría de Conjuntos más aceptada se debe a Zermelo y Fraenkel, siendo el último de los axiomas el de Elección. Por motivos que no voy a desentrañar aquí, el Axioma de Elección se considera como algo opcional por lo que su uso se hace explícito denotando la Teoría de Conjuntos como ZFC (Zermelo-Fraenkel + Choice). Sin embargo, ZFC no es un cimiento de las Matemáticas tan firme como sería deseable. Kurt Gödel en su breve tesis doctoral (1930) demostró que cualquier teoría axiomática que incluya a la Aritmética (dese ZFC por aludida) contiene «proposiciones indecidibles», es decir, afirmaciones cuya veracidad o falsedad no puede ser establecida dentro de los límites de la teoría.

Kurt Gödel con Albert Einstein, en el Instituto de Estudios Avanzados de Princeton (Science Photo Library).

El así llamado Teorema de Incompletitud de Gödel abre la puerta a seguir añadiendo axiomas a ZFC, aunque la teoría seguirá siendo incompleta. Tampoco parece algo necesario, porque estas sutilezas afectan únicamente a la Teoría de Conjuntos y no perjudican a las «Matemáticas normales» ni al «mundo real»… ¿O quizás sí? En 2016 tres matemáticos, entre ellos nuestro apreciado David Pérez García (UCM-ICMAT), publicaron un artículo en Nature en el que demuestran que cierto problema de la Mecánica Cuántica (la teoría Física que rige los fenómenos a nivel atómico) es indecidible. Esto fue nada menos que un shock: el principio de Gödel interviene también en las leyes que rigen el Mundo. Sin embargo, que las leyes de los Hombres serán siempre incompletas, es algo que ya tenía más que asumido.

Epílogo

Martin Gardner fue una gran influencia para mí antes de comenzar a estudiar la carrera de Matemáticas. Podría atribuirle parte de responsabilidad en esta decisión, incluso. Ahora yo intento hacer divulgación a mi manera, pero sin olvidar a mis maestros. Sobre el tema de este post, reconozco que por la razonable limitación de espacio, la longitud de los párrafos y la prudencia a la hora de introducir nuevos conceptos, me he dejado innumerables (esta vez la palabra en el sentido de la RAE) detalles, anécdotas, conexiones con otros temas… sin tratar. Si quieren saber más, ¡llévenme a un bar!

También se pueden leer libros… el de la derecha contiene la prueba de la Paradoja de Banach-Tarski.