Se ha afirmado en ocasiones que la verdad sólo existe en Matemáticas, por ser sus afirmaciones generales, irrefutables y eternas. Si bien esto es discutible desde distintos puntos de vista, hoy no es el día en el que entraremos en ese jardín. Esa verdad en Matemáticas emana de la posibilidad de demostrar las afirmaciones, de razonar a partir de lo que se da por sentado o resulta evidente, para llegar resultados complejos y, en ocasiones, nada obvios. Posiblemente, el primer resultado que se comprendió y motivó la necesidad de argumentar, dando así al comienzo de las Matemáticas como ciencia, fue la observación por Thales de que la igualdad de ángulos implica la semejanza (o proporcionalidad) de triángulos. El conocimiento acumulado en los tres siglos siguientes, sistematizado por Euclides en sus Elementos, se convirtió en el paradigma de teoría matemática. Esto último es también otro asunto muy interesante que no abordaremos aquí. Hoy sólo quiero comentar tres teoremas de triángulos que me llaman particularmente la atención.
¿Por qué el triángulo?
El triángulo (me referiré únicamente a los triángulos planos en este post) es un objeto muy sencillo y que, sin embargo, da mucho de sí. Para empezar, sus ángulos internos suman siempre dos rectos (0 ángulo llano) y las longitudes de dos de sus lados suman más que la del lado restante, manifestando así que el segmento rectilíneo es siempre el camino más corto entre dos puntos. Platon prohibía la entrada en su Academia a quien no supiera Geometría, y la enrevesada prueba de Euclides para demostrar la igualdad de los ángulos opuestos a los dos lados iguales de un triángulo isósceles recibía el nombre de pons asinorum, por ser el puente que debían cruzar los estudiantes para desasnarse.
De izquierda a derecha y de arriba a abajo, baricentro, incentro, circuncentro y ortocentro. Los dibujos del incentro y el circuncentro incluyen la idea para la prueba de su existencia, apoyada en la construcción de ciertas circunferencias. El dibujo relativo al ortocentro incluye la construcción del llamado triángulo órtico, de notables propiedades. Los dibujos están tomados de Wikipedia.
Los triángulos tienen cuatro puntos notables: el baricentro, donde concurren las medianas (líneas que unen cada vértice con el punto medio del lado opuesto); el circuncentro, donde concurren las mediatrices (líneas que bisecan perpendicularmente cada lado); el incentro, donde concurren las bisectrices (líneas que bisecan cada ángulo); y el ortocentro, donde concurren las tres alturas (líneas que pasan por cada vértice siendo perpendiculares al lado opuesto). Estos cuatro puntos coinciden para un triangulo equilátero (y en este caso se llama simplemente centro), pero en general son diferentes. Demostrar su existencia o, lo que es lo mismo, convencerse de que cada una de esas cuatro ternas de rectas coincide en un punto, es una de las primeras satisfacciones que un joven estudiante podría tener con las Matemáticas…
Libro de Jean Dieudonné, gran matemático y enemigo acérrimo del triángulo.
… si esto se contara en algún momento del currículo educativo. El cambio de punto de vista en Geometría, que está muy bien para los matemáticos profesionales, ha tenido una incidencia negativa en la formación matemática escolar. Con la Geometría Analítica, toda relación geométrica puede reducirse a ecuaciones, dando la impresión de que es el método universal para abordar problemas y demostraciones, pero a costa de la intuición y la elegancia. Más «recientemente», hace sólo 150 años, Felix Klein concibió cada tipo de Geometría (euclídea, afín, proyectiva…) como el estudio de los invariantes asociados a un grupo de transformaciones. De este modo, la manera griega de hacer Geometría se fue arrinconando, y su sentencia definitiva tuvo lugar en 1960 cuando Jean Dieudonné exaltado gritó en un congreso ¡Abajo Euclides! ¡Muerte al triángulo! En ese momento, Bourbaki entraba en las escuelas con el pseudónimo eufemístico de Matemática Moderna.
Primer teorema: fórmula de Herón
Casi todo el mundo sabe que el área de un triángulo se calcula como la mitad del producto de la base por la altura. Sin embargo, casi nadie se para a reflexionar que base y altura dependen de la posición del triángulo, si bien el área obtenida no cambia. Además, la altura es un dato de carácter práctico si el triángulo está en posición vertical ya que se puede trazar la vertical con una plomada. Cuando el triángulo se presenta en forma de solar o parcela de ciertas dimensiones, no es sencillo averiguar lo que mide la altura de un triángulo respecto a una de sus bases (salvo que sea un triángulo rectángulo). Esto lo sabían de sobra los antiguos topógrafos, antes de que los datos del teodolito electrónico (estación total) se volcaran directamente en el ordenador, por lo que ellos solían utilizar la fórmula de Herón para calcular las áreas de los triángulos que aparecen en la descomposición de una parcela poligonal.
Fórmula de Herón (izquierda) para el área de un triángulo, siendo a, b y c los lados. La fórmula alcanza su máxima elegancia escrita en términos del semiperímetro s, definición a la derecha.
La fórmula de Herón puede ser deducida fácilmente a partir de relaciones trigonométricas (véase una prueba aquí). Su descubridor, Herón de Alejandría vivió en dicha ciudad en el siglo I y ha pasado a la historia como un reputado científico e inventor. Se le reconoce como el descubridor de la fuerza motriz del vapor, aunque sus artefactos fueran considerados como meras curiosidades: para qué inventar motores si tenemos esclavos 😕 También se le atribuye la invención de la primera máquina de vending, siendo agua bendita el producto dispensado a cambio de monedas en los templos de Alejandría.
Ilustración de Herón con su artefacto a vapor, tomada de National Geographic.
Segundo teorema: Napoleón
La figura de Napoleón Bonaparte puede resultar controvertida, sobre todo si se juzga con la óptica woke. Sin embargo, no se puede negar que fue una persona de gran inteligencia, y sabemos, además, que le gustaban las Matemáticas. Por todo esto resulta plausible atribuirle un teorema de Geometría, aunque no existe ninguna evidencia que confirme la autoría del Empereur. El llamado teorema de Napoleón dice que si se construyen triángulos equiláteros (exteriores) sobre los lados de un triángulo cualquiera, los centros de los triángulo añadidos forman, a su vez, un triángulo equilátero (el dibujo lo explica claramente).
A partir del triángulo ABC se añaden los puntos X, Y y Z de manera que los triángulos ABZ, ACY y BCX son equiláteros. Entonces los centros de estos triángulos, N, M y L forman un nuevo triángulo equilátero (dibujo de Wikipedia).
La prueba del teorema de Napoleón puede ser endiablada con técnicas de geometría analítica (también pueden usarse números complejos), pero resulta muy sencilla usando semejanza de triángulos y rotaciones. Para demostrar que los centros de los triángulos equiláteros son equidistantes se comparan dos a dos, observando que guardan la misma proporción de la longitud de cierto segmento. Para una explicación más detallada ver el siguiente dibujo hecho a tiza.
La línea roja une los baricentros del triángulo superior izquierdo y del triángulo inferior. Una rotación de 30º con centro en O la lleva hasta la línea amarilla, que resulta ser paralela a la línea azul porque la distancias de cada baricentro a O es proporcional a la longitud del lado del triángulo.
Tercer teorema: Morley
La trisección del ángulo, junto a la duplicación del cubo y la cuadratura del círculo, fue uno de los grandes problemas abiertos que dejaron los matemáticos de la antigua Grecia. Realmente, el principal inconveniente para su resolución eran las estrechas condiciones impuestas por Platón: sólo se admite en Geometría lo que puede ser construido con regla y compás, ya que la recta y la circunferencia son las formas perfectas, las únicas admisibles. Quizás por este motivo, los griegos no se plantearon nunca un enunciado que tuviera como punto de partida la trisección de ángulos, ni aparentemente nadie, hasta 1899, año en el que Frank Morley encontraba un sorprendente resultado que ahora se conoce como el Milagro de Morley, o simplemente Teorema de Morley, posiblemente el último gran teorema que quedaba por descubrir en Geometría euclídea plana.
Teorema de Morley: el dibujo habla por sí solo (tomado de Wikipedia).
El Teorema de Morley, establece que las trisectrices de los ángulos de un triángulo cualquiera, tomadas dos a dos entre las más próximas a un mismo lado, se encuentran en tres puntos que forman un triángulo equilátero. A pesar de la sencillez del resultado, no se puede decir que exista una demostración fácil. Varios matemáticos de renombre como John Conway o Alain Connes han hecho aportaciones interesantes intentando conseguir una prueba más sencilla. Yo personalmente me quedo con el argumento que aparece en el libro «Fundamentos de Geometría» de Coxeter, donde tuve conocimiento de este resultado por primera vez. La idea es partir de un triángulo equilátero y construir alrededor de él un triángulo de ángulos cualesquiera que satisface la tesis del teorema.
Esquema de la prueba del teorema de Morley tomada de Coxeter. Puede verse que con una adecuada elección de los ángulos alfa, beta y gamma se consigue construir cualquier triángulo alrededor de uno equilátero.
Epílogo
Es posible que algún lector haya echado de menos al teorema de Pitágoras, pero el «teorema por antonomasia» no se refiere a triángulos generales sino únicamente a los triángulos rectángulos. Tampoco hemos dicho que tres de los puntos notables de un triángulo están alineados: se trata de la llamada recta Euler, una lamentable omisión de Euclides y los geómetras de la antigüedad. Finalmente, hemos comenzado con la idea de que la verdad sólo se puede encontrar en las Matemáticas. Curiosamente, la noción de «verdad» que se utiliza en Matemáticas se ha ido destilando a lo largo del tiempo. El primer cambio substancial tuvo lugar en el siglo XIX, precisamente con el descubrimiento de las geometrías no euclídeas, que pusieron de manifiesto por primera vez que la validez de un teorema no es universal sino que es relativa al sistema de axiomas que se adopte.
Pequeño geómetra examinando la prueba de la existencia del baricentro de un triángulo.
Si un acrónimo no es una buena manera de captar la atención, desarrollar lo que significa EDPSF seguro que no es mucho mejor: Ecuaciones en Derivadas Parciales y Series de Fourier, la asignatura del Grado en Matemáticas que he estado impartiendo durante los últimos tres cursos y que abandono para abordar nuevos proyectos docentes. Puede deducirse de lo que digo, que en mi departamento, los profesores no nos eternizamos en las asignaturas y que, cada cierto tiempo, tenemos la oportunidad de impartir y aprender cosas nuevas. En el caso de EDPSF, desde mis tiempos de estudiante, allá por el siglo pasado, no había vuelto a tratar con esta materia. Por eso, me apetecía dejar aquí al lector no matemático un poco de lo que he aprendido (o recordado) en estos tres años.
Uno de los libros de EDPs que tengo en mi biblioteca.
Ecuaciones en Derivadas Parciales
Es evidente que el título se compone de dos tópicos diferenciados, pero suficientemente próximos para que tenga sentido mezclarlos en una misma asignatura. Las Ecuaciones en Derivadas Parciales (EDP) son Ecuaciones Diferenciales donde la incógnita es una función de varias variables, conteniendo derivadas respecto a varias de ellas (derivadas parciales). Este tipo de objeto matemático aparece, principalmente, en problemas de Física, pero no únicamente. En general, cualquier proceso en el tiempo que tenga una componente espacial es susceptible de ser modelizado por una EDP. Por ejemplo, la interacción entre dos especies o el crecimiento de un tumor pueden describirse con EDPs. Hay que advertir que una misma EDP tiene, en general, infinitas soluciones y muy diferentes, por lo que es de la máxima importancia establecer condiciones adicionales que limiten a una única función la solución del problema.
Imagen tomada de «Partial Diferencial Equations» de F. John ilustrando la teoría geométrica de las EDPs de primer orden con los llamados «conos de Monge».
Al igual que con las ecuaciones algebraicas, las EDPs más sencillas son las de primer orden. Para ellas hay desde finales del siglo XVIII una teoría bastante satisfactoria con fuerte sabor geométrico, desarrollada por Joseph-Louis Lagrange y Gaspard Monge, entre otros. Lamentablemente, el estudio de las EDPs de primer orden no es de mucha ayuda en las EDPs de orden superior, particularmente, las de segundo orden que aparecen ligadas a problemas físicos. En los próximos epígrafes hablaremos de las siguientes: la ecuación de ondas, la ecuación de Laplace y la ecuación del calor. No por la relevancia de los problemas que describen o su importancia histórica, que es mucha, sino por que son las que se estudian habitualmente por su sencillez matemática y por ser representante de tres grandes grupos de EDPs.
La ecuación de ondas
La llamada ecuación de la cuerda vibrante (de violín, por ejemplo), versión sencilla (dimensión 1) de la ecuación de ondas, fue propuesta en el año 1746 por Jean le Rond d’Alembert que, además, proporcionó de manera ingeniosa su solución general. La ecuación de ondas se presenta en muchas situaciones en las que se describe la propagación de una perturbación en un medio elástico o un campo, tal como el electromagnético. Esto último es muy importante para la Ciencia, ya que cuando James C. Maxwell descubrió en 1867 que las ecuaciones del campo electromagnético implicaban la propagación de perturbaciones de acuerdo con la ecuación de ondas, calculó su velocidad (expresable en términos de las constantes para las atracciones eléctrica y magnética), encontrando que coincidía con la de la luz. Esto permitió reconocer la luz como una manifestación del campo electromagnético, dando lugar a un desarrollo tecnológico cuyo pistoletazo de salida podemos situar en 1887 con los experimentos de Heinrich R. Hertz.
Frentes de onda producidos por una piedra en un estanque (foto tomada de Internet).
Es un hecho notable que los Pitagóricos descubrieran experimentalmente una relación entre Matemáticas y Música (bendecida por el Quadrivium) que más de 2000 años después se justificó rigurosamente con el estudio de la EDP de la cuerda vibrante. El sonido también se transmite por el aire y lo hace de acuerdo con la ecuación de ondas en 3 dimensiones, en la que el factor de elasticidad del medio gaseoso debe tener en cuenta consideraciones termodinámicas. La solución de Gustav Kirchhoff permite deducir una característica del sonido que tenemos tan interiorizada que no reparamos en ella: los sonidos los escuchamos una sola vez, salvo que reboten (eco). En dimensión 2 esto mismo no ocurre, como muestra la solución de Jacques Hadamard, y el sonido se repite después de ocurrido disipándose lentamente, como con la piedra que se arroja al estanque: aunque una onda circular se propague aumentando su radio, en el lugar donde se arrojó la piedra el agua sigue temblando.
La ecuación de Laplace
De la figura de Pierre-Simon Laplace dimos una pincelada anecdótica en nuestro postEcuaciones diferenciales. Además, la ecuación de Laplace ya la hemos tratado en Circunferencias y esferas, aunque allí no la mencionamos con ese nombre, sino con el de ecuación de Poisson, que es más general, y el llamado Problema de Dirichlet, que es más particular. Ahora nos ocuparemos de ciertas variaciones. En efecto, la ecuación de ondas nos remite a una ecuación emparentada con la de Laplace cuando se investiga el problema de la membrana vibrante, o sea, el tambor. Si la cuerda de un violín puede producir determinadas frecuencias, la membrana de un tambor de contorno arbitrario puede hacer lo mismo. Pero con dos salvedades: las frecuencias en general no guardan las relaciones «armoniosas» que los Pitagóricos reconocieron, y además dependen fuertemente de la geometría de la membrana. «¿Se puede oír la forma de un tambor?» preguntaba Mark Kac en 1966 y la respuesta, negativa, llegó en 1992.
Parte de la resolución del problema de Dirichlet por métodos de espacio de Hilbert, tomado de H. Brezis «Analyse Fonctionnelle».
La ecuación emparentada con la de Laplace a la que nos referíamos es la de valores propios del operador laplaciano. Sin entrar es detalles y desde un punto de vista formal, dicha ecuación guarda muchas similitudes con el problema de diagonalizar una matriz simétrica, o equivalentemente, llevar una forma cuadrática a su expresión canónica, que no es otra cosa que describir, por ejemplo, una elipse según unas coordenadas paralelas a sus ejes. Así, la intuición geométrica se convierte en la guía que permite resolver una EDP como si fuera un problema de Álgebra Lineal, y ese desarrollo formal se lleva a cabo en el marco del espacio de Hilbert con algunos ingredientes que aún no introduciremos. Es inevitable no mencionar que espacio de Hilbert proporciona también soporte a la Mecánica Cuántica y la resolución de la ecuación de Schrödinger se reduce, en muchos casos, a la búsqueda de valores propios del operador hamiltoniano (una complicación del laplaciano, matemáticamente hablando).
La ecuación de calor
La ecuación que modeliza la difusión del calor y evolución de la temperatura en un cuerpo fue propuesta por Joseph Fourier en 1822 en una famosa memoria que a la Académie de Sciencies de Francia le costó mucho digerir. De hecho, Fourier vio publicada su obra gracias a que se convirtió en secretario de la institución científica. El motivo de tanta dificultad fue una audaz afirmación sobre la posibilidad de desarrollo de una función «arbitraria» en serie trigonométrica. En efecto, los mejores matemáticos de la época no entendían como una superposición de funciones tan regulares como seno y coseno podía producir gráficas con picos o, peor aún, discontinuidades. El resultado de la «bomba» que lanzó Fourier fue una profunda revisión de los fundamentos del Análisis Matemático: qué son las funciones, qué son los límites, qué son realmente los números. Ese proceso se completaría 80 años después con la introducción de la integral de Lebesgue.
Gráfico del movimiento browniano generado por mi compañero Francisco Esquembre, Fu-Kwun y Lookang obtenido en Wikipedia https://commons.wikimedia.org/wiki/File:Brownian_motion_large.gif
No hemos dicho nada todavía de la ecuación del calor, que se llama también de difusión porque rige la distribución de probabilidad de una partícula que sufre perturbaciones aleatorias de su posición en el tiempo. La solución de la ecuación nos dice, por medio de la integración, la probabilidad de encontrar la partícula en una determinada región en el instante t>0, si para t=0 se encontraba en el origen. Naturalmente, una partícula en el instante t se encuentra en un único sitio, pero al ser las perturbaciones aleatorias, cada vez que se repite el experimento, el resultado es distinto y lo único que puede establecerse con precisión es la probabilidad. Lo más curioso es que este proceso puede observarse en la naturaleza: Robert Brown se dio cuenta de lo errático de las trayectorias de los granos de polen en suspensión en una gota de agua. En un famoso trabajo, Albert Einstein dio una explicación: en la escala de tamaño del grano de polen, se percibe la discretitud del intercambio de energía cinética con las moléculas de agua. El propio Einstein derivó la ecuación de difusión y demostró como la naturaleza atómica de la materia se manifiesta visiblemente a nuestros ojos.
Series de Fourier
Antes hemos dicho que Joseph Fourier afirmó la posibilidad de desarrollar una función arbitraria en serie trigonométrica y que esto desencadenó un proceso de revisión de los fundamentos del Análisis Matemático. En su honor, dichas expresiones en serie se conocen como series de Fourier, aunque la teoría fue desarrollada por otros autores, notablemente Dirichlet y Riemann. A finales del siglo XIX, un joven matemático realizaba su tesis doctoral sobre la unicidad de la expresión trigonométrica para una función dada. Sus investigaciones le llevaron al desarrollo de las nociones básicas de topología conjuntista (Topología General) y las bases de la Teoría de Conjuntos, lo que incluía la diferenciación entre distintos tamaños de infinitud y la teoría de números ordinales transfinitos, casi nada. Se llamaba Georg Cantor, y ahora toda la Matemática se fundamenta en la su Teoría de Conjuntos, el paraíso que Cantor ha creado para nosotros según David Hilbert, que como acabamos de ver es un spin-off de las series de Fourier.
Ejemplos de desarrollos en serie de Fourier, tomado de I. Bronshtein y K. Semendiaev «Manual de Matemáticas para ingenieros y estudiantes».
La teoría de las series de Fourier queda englobada dentro del llamado Análisis Armónico, que investiga la expresión general de una función como superposición de componentes periódicas. Esto es particularmente interesante en aplicaciones tecnológicas, como el análisis de señales, procesado y compresión de sonidos (mp3) o imágenes (jpg), o los más sofisticados métodos de imagen médica, utilizan las matemáticas del Análisis Armónico. Naturalmente, la implementación de estas técnicas se hace con algoritmos que optimizan el volumen de cálculos y proporcionan el resultado en un tiempo razonablemente breve. Uno de los más famosos, la transformada rápida de Fourier (FFT) fue usado por Carl Friedrich Gauss, antes incluso de la aparición es escena de Joseph Fourier, para descubrir periodicidades ocultas en los datos sobre el planetoide Ceres proporcionados por las observaciones astronómicas, ver nuestro postEl Sistema Solar para más detalles.
Una nueva visión de la realidad
Volviendo a las EDPs, la investigación de la existencia de soluciones puede llevar por caminos extraños. Ocurre que los métodos de Análisis Funcional, consistentes en considerar una EDP como un problema de Álgebra Lineal (esto no es así para EDPs no lineales) requieren la completitud del espacio de funciones que sirve de marco teórico. Pero la completitud de los espacios de funciones integrables suele conllevar la presencia de elementos altamente discontinuos, lo que está reñido con la derivabilidad inherente a las soluciones de EDPs. Esto se traduce en la necesidad de darle significado al concepto de solución no diferenciable. Pero esto es como abrir la caja de Pandora, porque muy pronto tendremos que considerar soluciones de EDPs que no son siquiera funciones 😕 ¿Cómo se come esto? Para el lector con cultura matemática, estamos hablando de las funciones generalizadas o distribuciones de Sergéi Sóbolev y Laurent Schwartz.
Un libro de texto por L. Schwartz con la teoría de distribuciones aplicada a las EDPs de la Física.
Al igual que la Teoría de la Relatividad o la Mecánica Cuántica nos obligan a alterar nuestra percepción de la realidad (la separación entre tiempo y espacio depende del observador, o que partícula y onda son dos caras de la misma moneda), las soluciones distribucionales de una EDP nos invitan a reflexionar sobre si las funciones «clásicas» son el mejor modelo para algunos problemas. Por ejemplo, en el planteamiento de la ecuación del calor se habla de la temperatura en un punto de un cuerpo, pero la temperatura realmente se mide con un termómetro que no se sitúa exactamente sobre un punto sino sobre una región limitada alrededor del punto. Podríamos decir que esto es problema del aparato de medida, pero el hecho es que la temperatura es un resultado de tipo estadístico sobre el estado de agitación molecular de cuerpo. Así la temperatura modelizada por la EDP no es una función que toma un valor en cada punto, sino una función definida sobre un conjunto de termómetros con distintos tamaños y posiciones con los que se puede examinar el cuerpo. Ésta es la idea esencial de las distribuciones, sólo que en lugar de termómetros hay funciones test.
Farewell PDEs!
Como decía el gran Paco Umbral, yo he venido a hablar aquí de mi libro de EDPSF. Aunque las EDPs y las series de Fourier son teorías muy asentadas y con muchos grandes textos escritos por matemáticos de primer orden, es siempre difícil encontrar un libro que refleje exactamente el punto de vista que uno desea darle y tenga en cuenta los conocimientos previos de los estudiantes. Por eso decidí redactar unos apuntes que doy por acabados justo al final de estos tres años, cuando ya no me harán falta para dar clase. El motivo por el que están en inglés así como otras consideraciones didácticas lo explico en los enlaces de mi web corporativa.
Ilustración del principio de Huygens sobre la propagación de ondas, una de las imágenes que me gusta(ba) destacar durante el curso.
Con esto me despido de la Ecuaciones en Derivadas Parciales y las Series de Fourier, de momento… y de las Matemáticas, hasta el nuevo curso 🙂
El mes pasado se hizo pública la noticia: Michel Talagrand ha sido galardonado con el Premio Abel de Matemáticas 2024. Es una noticia excelente para la Teoría de Espacios de Banach, de la que Talagrand es uno de sus más insignes representantes, si bien para el Premio Abel se han tenido también en cuenta otras contribuciones del matemático francés, como sus esfuerzos por dotar de rigor matemático a las teorías de Giorgio Parisi, Premio Nobel de Física en 2021. Pero es también una noticia muy buena para mí. Aunque no tengo trato con Michel Talagrand, su nombre ha aparecido frecuentemente en todo lo que he tenido que estudiar durante mi doctorado y años después. Es más, para mí, Michel Talagrand es sinónimo de ideas profundas y argumentos muy difíciles parcamente explicados: tengo un artículo suyo desde 1994 y todavía me atasco al pasar al segundo párrafo.
Michel Talgrand, con un sorprendente estilo «biker grandpa» (foto tomada de la nota de prensa tras la concesión del Premio Abel, compárese con la foto de Wikipedia).
¿Nobel de Matemáticas?
Es bien sabido que no existe un Premio Nobel de Matemáticas. No entraré en las leyendas sin fundamento para tal ausencia. Lo cierto es que no entraba en los planes de Alfred Nobel, que estableció cinco premios originalmente en 1895: Física, Química, Fisiología/Medicina, Literatura y Paz. Tras la instauración del Nobel de Economía en 1968, que algunos sostienen que no es un auténtico Premio Nobel (aunque lo gestiona la Fundación Nobel y se entrega en la misma ceremonia que los demás), se cerró definitivamente la posibilidad de añadir nuevos premios. El matemático Sophus Lie, muy decepcionado con la decisión de Alfred Nobel, propuso en 1897 la creación del Premio Abel (en honor de Niels Abel). Sin embargo, no sería hasta 2002 que se establecería este galardón. El Premio Abel es concedido por la Academia Noruega de Ciencias y Letras y se entrega en Oslo (como el Nobel de la Paz). A pesar de esto, los periodistas suelen contribuir a la ambigüedad etiquetando como «Nobel de Matemáticas» otros premios.
Premio Nobel vs Premio Abel (foto tomada de internet).
Tradicionalmente se venía identificando la Medalla Fields como el «Nobel de Matemáticas». Las Medallas Fields se entregan, mayormente y como mucho, de cuatro en cuatro en el Congreso Internacional de Matemáticos, que se celebra cada cuatro años, lo que viene a ser, en media, un premio anual (a veces bianual). Sin duda, las Medallas Fields, concedidas desde 1936, han sido hasta la instauración del Premio Abel, el más importante galardón para matemáticos. Pero hay una diferencia fundamental: sólo se puede recibir la medalla fields si no se han cumplido los 40 años. Esto provoca que la Medalla Fields se vincule más a una trayectoria meteórica en Matemáticas que a un gran descubrimiento, si bien todos los galardonados, Abel o Fields, han hecho grandes descubrimientos, o han resuelto importantes problemas, que viene a ser casi lo mismo 😉 Andrew Wiles, tras resolver el «Último Teorema de Fermat» no pudo recibir la Medalla Fields por madurito, pero recibió el Premio Abel muy merecidamente unos años después.
Espacios de Banach, Topología y Medida
Michel Talagrand realizó su tesis doctoral bajo la dirección de Gustave Choquet, a quien ya conocemos de Historias tras un libro. En un artículo de matemáticas muy posterior a esa época de estudiante, Talagrand reconoce que Choquet le puso diez problemas sobre los que no pudo realizar ninguna contribución. De hecho, el artículo en cuestión está destinado a una solución parcial y extemporánea de uno de esos diez problemas. Su tesis doctoral titulada Mesures invariantes, compacts de fonctions mesurables et topologie faible des espaces de Banach da una idea del tipo de Matemáticas con las que comenzó Talagrand: un mix de Teoría de la Medida, Topología General y Teoría de Espacios de Banach. No es una reunión de tres tópicos ajenos, sino que hay fuertes conexiones entre ellos cuyo estudio resulta tremendamente fecundo (cross-fertilization en palabras de Namioka). Reconozco que soy muy parcial en este tema porque es donde se ubica mi propia investigación.
El primer artículo de Talagrand que cayó en mis manos.
Uno de los primeros resultados de Talagrand en espacios de Banach resuelve un problema propuesto por Corson: los espacios débilmente compactamente generados son (débilmente) K-analíticos y, por lo tanto, también débilmente Lindelöf (demostrado independientemente por David Preiss). Este resultado forma parte de la clasificación de los espacios de Banach no separables, cuyo leitmotif es generalizar y aislar las propiedades que tienen los espacios separables de «forma gratuita». Concretamente se relacionan propiedades lineales con otras estrictamente topológicas. Los espacios de Banach pueden motivar resultados topológicos muy profundos. Por ejemplo, el teorema l1 de Rosenthal es el origen de los resultados de Bourgain, Fremlin y Talagrand sobre compactos de funciones medibles. Señalemos aquí que Jean Bourgain fue galardonado con la Medalla Fields en 1994.
Probabilidad y más allá
Existe una tendencia en las universidades españolas a vincular las áreas de Probabilidad y Estadística. La diferencia es que la Probabilidad es una teoría matemática alrededor del concepto de aleatoriedad mientras que la Estadística es un conjunto de técnicas para analizar datos bajo la hipótesis de que los muestreos para obtenerlos y las perturbaciones en las medidas son aleatorios. Evidentemente, la Probabilidad y la Estadística están muy relacionadas, pero un analista como yo ve la Probabilidad como algo más propio de su campo. Hay muchos motivos para sostener esta afirmación, pero sólo mencionaré dos de ellos: importantes resultados de Análisis Funcional, como el teorema de Dvoretzky o el lema de Johnson-Lindenstrauss admiten demostraciones probabilísticas; otro motivo es que el comportamiento de las variables aleatorias en un espacio de Banach se relaciona con la geometría del mismo, por ejemplo, el uso que hace Pisier de las martingalas para renormar un espacio súper-reflexivo.
El lema de Johnson-Lindenstrauss es un resultado fundamental en Ciencia de Datos… con esta foto quiero dejar patente a qué especialidad matemática se dedicaban sus autores (Joram Lindenstrauss falleció en 2012, Bill Johson acaba de jubilarse)
El comité del Premio Abel menciona explícitamente la contribución de Talagrand al estudio del fenómeno de concentración de la medida. Intentaremos dar una idea de en qué consiste. Para una función continua f definida en el intervalo [0,1] tenemos que su promedio «más justo» es la integral de ésta. Si ahora consideramos la función compuesta f(n-1(x1+ … + xn)) definida en el producto de intervalos [0,1]n, podemos demostrar que a medida que n crece, el promedio de esta función se aproxima a f(1/2). Es decir, que aunque los valores de f y de la función compuesta sobre [0,1]n son los mismos, para la segunda se produce una «concentración» alrededor de un determinado valor. Más sorprendente es saber que la medida de en una esfera en el espacio euclídeo de n dimensiones se concentra alrededor de diámetros o que los valores de una función definida sobre ella lo hacen alrededor de su mediana.
Libro fundamental de Talgrand y Ledoux sobre Probabilidad.
No trataré de describir aquí las aportaciones más recientes de Michel Talagrand y que han pesado mucho en la concesión del premio. Hace bastantes años, buscando información sobre Talagrand llegué a su página personal. Allí decía, entre otras cosas, que en adelante sólo le interesaban los spin glasses, que por ignorancia pensaba que tenían que ver más con Swarovski que con las Matemáticas.
Un apunte personal
He aclarado al principio la identificación del Premio Abel con un Nobel de Matemáticas, lo que explica la mitad del título. Hablaremos ahora de la otra mitad, la familia. Existe una web llamada The Mathematics Genealogy Project donde se muestra el «árbol genealógico matemático», expresado éste como la relación maestro-discípulo aunque realmente se trate más de la formalidad director (o advisor) de tesis-doctorando. Este árbol genealógico está más o menos completo en la medida que se suministra a los administradores la información necesaria. Puede verse que Gustave Choquet tiene como alumnos, entre un total de 23, a Michel Talagrand y a Gilles Godefroy. Gilles Godefroy tiene, a su vez, como estudiante a Robert Deville. Finalmente, yo mismo soy alumno de Robert Deville, además de Gabriel Vera, lo que me proporciona también una buen puñado de ilustres antecesores. Si en lugar del MathsGenealogy Project se hubiera tratado del Génesis bíblico, Talagrand sería mi tío abuelo.
Dedicatoria de «mi abuelo» Gilles Godefroy en uno de sus libros.
Por eso estoy especialmente feliz: hay un Nobel en la familia 🙂
Nunca la conocí en persona. Sólo a través de sus trabajos, cuando me estaba formando en Teoría de la Medida durante mis años de estudiante de doctorado. Tenía que leer varios artículos de «un» tal A. Ionescu-Tulcea sobre existencia de liftings. Intentaré explicar un poco esto, sin entrar demasiado en detalles técnicos. En espacios de funciones medibles se consideran como elementos clases de funciones, ya que se identifican como iguales las que difieren en un conjunto de medida nula. Esto implica, por ejemplo, que la evaluación puntual (de funciones) no se puede usar para definir nada. Un lifting en un espacio de funciones medibles es una selección que extrae de cada clase de funciones una única función, de manera que se preservan las propiedades algebraicas. Esto sí que permite el uso de las evaluaciones puntuales y, en cierto modo, reconcilia Medida con Topología.
Alexandra, en una foto de juventud (tomada de la prensa Rumana).
No espero que el lector ocasional entienda absolutamente nada de lo anterior, pues es difícil incluso para los profesionales. Los teoremas de lifting son muy profundos. Siguiendo una regla no escrita en la investigación matemática que dice «nunca usar teoremas cuya demostración no haya sido comprendida completamente» evité citar a Ionescu-Tulcea en mi tesina. No obstante, unos años después tuve que usar esta teoría en un artículo, por lo que me referí a un trabajo firmado por A. Bellow, que resultó ser la misma persona. Fue entonces que comencé a atar cabos… No es el único caso de una mujer científica que firma en cada momento con el apellido «que le toca por casamiento», pero ciertamente es una gran matemática y su interesante vida merece ser conocida.
Alexandra Bagdasar
Alexandra nació en 1935 en Bucarest. Sus padres, ambos médicos, fueron pioneros de la Neurociencia en Rumanía. El punto de inflexión de sus carreras ocurre cuando en 1927 se desplazaron a Boston. El padre de Alexandra, Dumitru Bagdasar, estudió neurocirugía con Harvey Cushing. Mientras, su madre, Florica Bagdasar, se formaba como psiquiatra con una beca Rockefeller. Aunque podrían haber iniciado una carrera profesional en USA, el matrimonio Bagdasar regresó a Rumanía en 1929. Muy comprometidos con las clases más desfavorecidas, ingresaron en el partido comunista desempeñando cargos importantes, aunque el contacto con occidente los mantendría bajo sospecha a los ojos del aparato de Stalin.
La familia Bagdasar.
Dumitru trabajó intensamente atendiendo heridos durante la Segunda Guerra Mundial y fue nombrado ministro de Sanidad en 1945. Un cáncer de pulmón acabó prematuramente con su vida en 1946 y su esposa lo sucedió en el cargo. Así Florica Bagdasar se convirtió en la primera mujer en formar parte de un gobierno rumano. Pero a comienzos de los años 50 comenzó una campaña de desprestigio contra ella. Apartada del cargo, posteriormente fue detenida sin explicación ninguna y encarcelada durante dos años, lo que fue tremendamente duro para Alexandra que era recibida en la escuela como una «apestada». Cuando terminó el terror stalinista en 1956, mejoró la situación de Florica. Le ofrecieron reincorporarse al partido, pero ella rehusó. En 1957 fue nombrada vicepresidenta de Cruz Roja en Rumanía. Su estatus le permitió viajar varias veces a USA, donde Alexandra se estableció. Florica murió en 1978, todavía tras el Telón de Acero.
Alexandra Ionescu-Tulcea
Alexandra ingresa en 1953 en la Universidad de Bucarest para estudiar Matemáticas. Su profesor de Análisis Matemático durante el primer curso fue Cassius Ionescu Tulcea, notable probabilista, aunque con el tiempo sería eclipsado por Alexandra. Se casaron en 1956, antes de que ella concluyera los estudios (un mensaje tranquilizador a los padres de estudiantes de Matemáticas: esto no ocurre hoy día, y mucho menos en la Universidad de Murcia). Al año siguiente acompaña a su marido a la Universidad de Yale, donde ella realiza el doctorado bajo la dirección de Shizuo Kakutani, famoso matemático muy conocido por su teorema de punto fijo, y un poco menos conocido por demostrar la propiedad de Banach-Saks en los espacios uniformemente convexos (disculpas por barrer para casa).
Escultura móvil de Alexander Calder, que puede verse como una interpretación artística del concepto de martingala (obra de 1960, foto tomada de una página de subastas).
Alexandra y Cassius firmarían un total de diez artículos, con un repetido Ionescu Tulcea en el encabezado. Durante la estancia en Yale, la pareja resolvió un problema importante en Teoría de Martingalas. Esto les permitió mejorar sus aspiraciones profesionales, desplazándose como profesores titulares (associate professor) a la Universidad de Illinois Urbana-Champaign, donde tuvieron que hacer una excepción en su reglamento interno contra el nepotismo. Posteriormente, se establecieron en la Northwestern University, también en Illinois. Allí, en 1969 la pareja pondría fin a su matrimonio.
Alexandra Bellow
Saul Bellow, escritor canadiense que renovó la narrativa norteamericana en la década de los 50, se convirtió en 1974 en el segundo marido de Alexandra. Sin embargo, para él era su cuarto matrimonio. Dos años después, en 1976, Saul recibió el premio Nobel de literatura. Tras el divorcio de Cassius, Alexandra estuvo sometida a presiones de su exmarido para que dejara de usar su apellido y adoptó Bellow como gesto de confianza en su nuevo matrimonio. De esta decisión reconoce haberse arrepentido después y recomienda a las mujeres que deseen labrarse una carrera en investigación que publiquen con sus apellidos de nacimiento. Los veinte años de diferencia entre Alexandra y Saul no fueron tanto problema como los diferentes intereses de sus profesiones. Se divorciarían en 1985, no sin que antes Alexandra sirviera de inspiración para varias obras del literato.
Alexandra con Joram Lindenstrauss en Oberwolfach 1975 (foto tomada del archivo fotográfico del propio centro)
Como Alexandra Bellow firmó sus trabajos más importantes, particularmente en Teoría Ergódica, una disciplina matemática con aplicación en Física Estadística. Los matemáticos, además de demostrar teoremas y, eventualmente, construir teorías, proponen problemas. Los problemas no son únicamente resultados que no salen o conjeturas, sino que pueden indicar nuevos caminos interesantes para la investigación matemática. La solución dada por Jean Bourgain a uno de los problemas propuesto por Alexandra en 1981 en Oberwolfach es parte de los méritos por los que recibió la Medalla Fields en 1994. Elon Lindenstrauss, hijo de Joram Lindenstrauss (autoridad en espacios de Banach, en la foto arriba) recibió también la Medalla Fields en 2010 por sus contribuciones a la Teoría Ergódica.
Alexandra Calderón
El mejor matemático argentino comenzó su carrera profesional como ingeniero para la petrolera YPF, convencido por su padre que con la Matemáticas no se podría ganar la vida. Afortunadamente, la trayectoria de Alberto Calderón fue reconducida para las Matemáticas por el profesor bonaerense Alberto González Domínguez y nuestro insigne don Julio Rey Pastor. Calderón viajó a Chicago en 1949, donde realizaría la tesis bajo la dirección de Antoni Zygmund y, junto con él, fundaría la Chicago School of Hard Analysis, nombre oficioso pero muy descriptivo. Alexandra y Alberto se conocieron en 1975 en el MIT como consecuencia de tener que compartir despacho durante un semestre.
Alexandra con Alberto Calderón en Oberwolfach 1990 (foto tomada del archivo fotográfico del propio centro).
Cuando se casaron en 1989, Alberto llevaba cuatro años viudo de su primera esposa. En noviembre de ese mismo año cayó el muro de Berlín y en diciembre el régimen comunista de Nicolae Ceaușescu en Rumanía. Alexandra siguió firmando con el apellido Bellow, aunque en algún artículo añadió Calderón. Alberto fue un gran estímulo intelectual para Alexandra y discutían frecuentemente sobre matemáticas, aunque eso se materializó únicamente en dos artículos firmados juntos. Alexandra se jubiló anticipadamente en 1997 con la esperanza de poder pasar más tiempo y viajar con Alberto, pero él enfermó y murió en la primavera del año siguiente. Alexandra vive todavía. El último reconocimiento que recibió, por parte de la AMS, fue en 2017.
Para saber más
Si os ha gustado Los cuatro apellidos de Alexandra, podréis encontrar más información en Internet. Además de la entrada en Wikipedia y sus enlaces, si se va cambiando adecuadamente el idioma, para elaborar este post he consultado el artículo autobiográfico de Alexandra Bellow en la Gaceta de la RSME publicado en 2002, y una entrevista paraAdevarul (en rumano) publicada en 2014.
Mi primer «contacto» con Alexandra, antes de saber como se llamaba… mi admiración por ella no ha hecho más que aumentar a medida que he ido sabiendo sobre sus logros y su vida.
El propósito de este post es dar una idea de esta importante herramienta matemática, lo qué significa y sus aplicaciones. Desde un punto de vista técnico-didáctico, tratar de explicar las ecuaciones diferenciales a un público general es meterse en un jardín del que difícilmente se podrá salir airoso. Pido a mis lectores que, llegado el momento, sean capaces de desligar la divulgación del entretenimiento en lo que sigue. Parafraseando a Euclides, no hay un camino fácil en Matemáticas.
Los ingredientes
Antes de explicar en qué consiste una ecuación diferencial es necesario especificar las nociones matemáticas involucradas. Realmente lo que voy a hacer aquí es recordar a mis lectores cosas que ya saben porque forman parte del curriculum obligatorio de matemáticas.
Ecuación
Ecuación significa igualdad entre cantidades resultantes de diferentes operaciones, simplemente. Lo que ocurre es que, normalmente, se reserva el nombre ecuación cuando la igualdad contiene algún término desconocido: la incógnita, representada habitualmente con una letra. Cuando esto ocurre, el objetivo es resolver la ecuación, es decir, calcular los valores que puede tomar la incógnita de manera que la ecuación sea cierta, si es que existe alguno. Por ejemplo, la ecuación x2+5=6x es cierta únicamente cuando x toma los valores 1 o 5. Podemos considerar ecuaciones con más variables, pero si queremos llegar a una solución determinada, como regla general se necesita el mismo número de ecuaciones que de incógnitas. Para ilustrar esto, planteamos un sencillo problema: en un corral hay conejos y gallinas, habiendo en total 10 animales y 28 patas ¿Cuántos animales hay de cada?
Función
Si los problemas matemáticos se redujeran simplemente a averiguar valores numéricos, como resolver ecuaciones del tipo descrito en el apartado anterior, no tendría sentido mi profesión. Por fortuna, especialmente para mí, las matemáticas operan con nociones más complejas. La relación entre cantidades numéricas variables (de ahora en adelante, simplemente variables) se describe por medio de una función. Por ejemplo, la variación de temperatura en Murcia a lo largo del día (o año) es una función, siendo las variables temperatura y tiempo. Más aún, podemos introducir otras variables, como la posición (a través de coordenadas, geográficas o geométricas), y examinar como varía la temperatura cuando nos movemos a otro lugar. De esta manera podemos ver la temperatura como una función del tiempo y la posición. Con frecuencia, se identifica una función f con su gráfica y=f(x).
Cálculo diferencial
Para el estudio de las funciones se han desarrollado herramientas específicas. Una de ellas es la derivación, que es un procedimiento por el cual a una función se le asigna otra función, llamada su derivada. Si la función es f su derivada es denotada f’, aunque por abuso de lenguaje escribimos y’. La derivada de una función proporciona información sobre la variación de ésta. Una interpretación intuitiva de la derivada es que expresa la velocidad con la que la función crece o decrece, según sea positiva o negativa. Por ese motivo, cuando la función alcanza un máximo o un mínimo, la derivada se anula en él. En efecto, máximo o mínimo representan la transición entre crecimiento y decrecimiento para la función, así como el cero la frontera entre los números positivos y negativos. Los lectores con conocimientos más avanzados podrían discutirme lo dicho hasta ahora, pero las matemáticas tienen recursos para extender la validez de las afirmaciones hasta extremos insospechados.
¿Qué es una ecuación diferencial?
Una función podría ser la incógnita en una ecuación. Por ejemplo, si queremos saber qué forma adopta una cadena suspendida por sus extremos, esta forma puede ser descrita con una función. La ecuación diferencial, que no intentaremos calcular aquí, resulta de aplicar las leyes del equilibrio estático a la cadena. En principio, una ecuación cuya incógnita es una función se llama ecuación funcional. Si la ecuación puede ser escrita en términos de una relación entre la función desconocida y su derivada (o derivadas de órdenes superiores) se llama ecuación diferencial. Por ejemplo, y’ = F(x, y), donde y es la función incógnita, x la variable independiente, y F una fórmula que contiene a ambas . El problema de la cadena colgante involucra en su planteamiento una integral de la función desconocida, pero una sencilla manipulación lo reduce a una ecuación diferencial de segundo orden, es decir, una relación entre la función incógnita y sus derivadas primera y segunda.
Al igual que existen métodos para resolver ecuaciones algebraicas sencillas, hay procedimientos para resolver ecuaciones diferenciales suficientemente sencillas. Podría decirse que los casos para los que una ecuación diferencial ordinaria de primer orden se resuelve explícitamente se cuentan con los dedos de la mano. Por este motivo, las aplicaciones, más o menos relacionadas con la realidad, se suelen repetir de unos libros a otros y algunos problemas son incluso famosos, como el de la máquina quitanieves: Una mañana comienza a nevar, de manera uniforme y continuada. A las 12 del mediodía una máquina quitanieves sale a limpiar la carretera. Si la máquina recorre durante la primera hora de trabajo dos kilómetros y solamente un kilómetro durante la segunda hora ¿a qué hora comenzó a nevar? (ver la solución en el libro de mi antiguo profesor Manuel López Rodríguez, Problemas resueltos de ecuaciones diferenciales, Thomson 2006).
Un ejemplo
Llega un momento en el que hay que mojarse: no se puede escribir un post sobre ecuaciones diferenciales sin mostrar una de ellas. Elegiremos una muy sencilla: y’ = k y, donde k es una constante. Es decir, buscamos una función f(x) positiva cuya derivada satisface f’(x) = kf(x). Notemos que no hemos especificado si la constante k es positiva o negativa, pues de ello dependerá que la solución sea creciente o decreciente. Sin embargo, ello no altera el aspecto formal de las soluciones. Quien conozca la teoría elemental de derivadas observará que la función f(x)=ax satisface la ecuación si k=ln(a) (logaritmo natural o neperiano). Más aún, dicha función multiplicada por una constante sigue satisfaciendo la ecuación diferencial, es decir, cualquier función de la forma f(x)= cax, siendo c un número real (y positivo, para satisfacer nuestro requerimiento inicial). Notemos que con esto podemos encontrar una solución de la ecuación que satisfaga una condición del tipo y(x0)= y0.
Ejemplos de funciones exponenciales crecientes (Wikipedia).
Aunque sencilla, la ecuación anterior es muy interesante porque sirve para resolver varios problemas. Por ejemplo, describir el crecimiento de un cultivo celular o la desintegración de un material radiactivo. En efecto, en ambos casos la tasa de crecimiento (o decrecimiento) es proporcional a la cantidad de sustancia presente (número células o masa del material radiactivo) que es lo que expresa, simplemente, la ecuación y’ = k y. Otra interpretación de la misma ecuación viene del problema siguiente: ¿Qué forma debe tener la concha de un animal para que siempre mantenga la misma forma mientras crece por un extremo? Obviamente, pensamos en los moluscos (el crecimiento de la concha de las tortugas no satisface la hipótesis). Este problema, interpretado en coordenadas polares, conduce a la misma ecuación r’ = k r, que geométricamente significa la constancia del ángulo entre la curva y las rectas radiales que parten del origen. La representación de la función exponencial en coordenadas polares es la llamada espiral logarítmica descubierta por Jakob Bernoulli y que mandó grabar en su tumba con el epitafio eadem mutata resurgo.
Espiral logarítmica… modelización matemática de los caracoles (Wikipedia).
Los teoremas
¿Qué ocurre cuando una ecuación diferencial no puede resolverse de manera explícita? Según lo dicho antes, nos encontramos en el escenario más probable. Quizás no nos interese saber la solución con todo detalle, sino conocer algunos aspectos de ella. Para ello, lo primero es estar seguros de que la solución, aunque «incalculable», existe. Después, saber si, fijadas las condiciones a satisfacer por la función incógnita, la solución es única (por ejemplo, para y’ = F(x, y) podemos tomar y(x0) = y0). De lo contrario, poco sentido tendría hacer previsiones sobre su comportamiento. Esta incertidumbre queda resuelta gracias a los llamados teoremas de existencia y/o unicidad que nos garantizan el poder trabajar con la solución de una ecuación diferencial sin necesidad de tenerla explícitamente.
Los llamados teoremas de punto fijo tienen aplicaciones a la existencia de soluciones de ecuaciones diferenciales.
Demostrar que un problema tiene solución sin resolverlo es una de las características de las Matemáticas superiores que más sorprenden a los legos. Pondré un ejemplo sencillo para ilustrar esto. Consideremos la afirmación “existe un número real positivo x cuyo cuadrado es 3”, en otras palabras, existe la raíz cuadrada de 3. Tal número x , si existe, debería de estar entre 1 y 2, ya que sus cuadrados 1 y 4 comprenden al 3. Por el mismo motivo, x debería estar comprendido entre 1.7 y 1.8, pues sus cuadrados son, respectivamente 2.89 y 3.34. Siguiendo de esta manera, obtendríamos una sucesión de cifras decimales tras el 1 inicial: 1.7320508075… Con la propiedad de que cortada a cualquier altura y sumando 1 al último dígito del número resultante, define dos números racionales entre cuyos cuadrados se encuentra el al 3. Omitiendo alguna sutileza matemática, resulta que la sucesión de cifras anterior 1.7320508075… define un número irracional cuyo cuadrado es 3, el deseado x. Pues bien, las demostraciones de existencia para ecuaciones diferenciales son similares: se obtiene como límite de una sucesión de «soluciones aproximadas».
Página del libro «Ecuaciones diferenciales y cálculo variacional» de L. Elsgoltz, MIR 1969.
¿Qué entendemos por solución aproximada de una ecuación diferencial? Hay varias formas de proceder, pero quizás la más intuitiva sea la «discretización» que consiste en lo siguiente (aplicado a una ecuación de primer orden). La variable independiente tomará una cantidad finita de valores x0, x1, x2… espaciados por una distancia h (es decir, h= x1 – x0 =x2 -x1 …). Los valores correspondientes de la función a determinar serán y0, y1, y2… (sólo y0 es conocido por ser condición inicial). La derivada en un punto xn será sustituida por la expresión (yn+1 – yn)/(xn+1 – xn) = (yn+1 – yn)/h, que de acuerdo con la ecuación diferencial se puede expresar en términos de xn e yn. En consecuencia, yn+1 puede ser calculado a partir de yn, ya que xn = x0 + nh no tiene inconveniente. Partiendo de y0 se calcularán sucesivamente y1, y2, y3… Lo que puede verse como una línea quebrada con nodos en los puntos (xn, yn), que aproxima a la solución verdadera, mejor cuanto más pequeño sea h.
Sistemas dinámicos
Al final de la sección anterior hemos alcanzado el zenit de dificultad técnica del post. A partir de aquí seremos más cualitativos. Una ecuación diferencial, sea del orden que sea, puede reducirse a una ecuación de primer orden haciendo que la función incógnita tome valores vectoriales (tradicionalmente llamado sistema de ecuaciones diferenciales). Aunque esto puede parecer una enorme complicación práctica, desde el punto del vista teórico se gana en simplicidad. Más simple resultará si, además, la variable independiente no aparece explícitamente. De esta manera, la evolución de una solución dependerá solamente de por dónde pasa y no de cuándo lo hace (es habitual identificar la variable independiente con el tiempo en la discusión de sistemas de ecuaciones). A este tipo de ecuaciones vectoriales que no contienen la variable independiente «t» se les llama sistemas dinámicos (o autónomos): si la variable independiente se identifica con tiempo, la variable vectorial incógnita representa movimiento: de ahí el nombre. Una forma muy adecuada de pensar en un sistema dinámico es el mapa de vientos de la predicción meteorológica: según donde te encuentres, se te empuja en una cierta dirección y con una determinada velocidad.
Mapa de vientos… así se ve un sistema dinámico en dos variables. Un globo, por su gran rozamiento frente a muy poca inercia, seguiría una trayectoria solución del sistema (fuente INM, a través de tiempo.com).
Naturalmente, las ecuaciones del movimiento de un sistema mecánico (masas unidas por palancas, bisagras, muelles… o fuerzas a distancia) pueden ser escritas en forma de sistema dinámico. Sin embargo, al ser la segunda ley de Newton, de hecho, una ecuación diferencial de segundo orden, la reducción a un sistema de primer orden implica duplicar el número de variables espaciales (grados de libertad). La manera más sencilla de hacerlo es considerar las velocidades junto con las posiciones, dando lugar al llamado espacio de fases. En el espacio de fases usado en Mecánica Analítica están representadas variables de posición, no necesariamente cartesianas, y sus variables conjugadas, que no siempre se corresponden con velocidades. Este punto de vista arroja resultados sorprendentes, como el siguiente descubierto por HenriPoincaré: un sistema confinado en el espacio y que no pierde energía, volverá, con precisión arbitraria, a su posición inicial infinitas veces.
¿Determinismo?
A lo largo de la Historia han aparecido religiones y doctrinas filosóficas que afirman que el futuro está completamente determinado y, por lo tanto, niegan el libre albedrío. Curiosamente, el libre albedrío estuvo también en cuestión por parte de la Ciencia y, en ello, las ecuaciones diferenciales jugaron un papel relevante. Las Leyes de la Mecánica reducen el problema del movimiento de un sistema de masas interactuantes a ecuaciones diferenciales mostrando que la evolución del sistema está determinada a partir de las posiciones y velocidades iniciales. El universo entero es un sistema de masas en interacción, por fuerzas gravitatorias y electromágneticas, gobernado por la Mecánica newtoniana; la Química se reduce a la mecánica de las moléculas animadas por fuerzas electromagnéticas; la Biología se reduce al estudio de la Química Orgánica; finalmente, el pensamiento son impulsos electroquímicos en una estructura, el cerebro, que, aunque compleja, se reduce a una cantidad finita, aunque enorme, de átomos. Somos pura química: la ingesta de ciertas substancias puede cambiar nuestro estado de ánimo, por no decir más cosas.
Pierre-Simon Laplace, retratado con los honores que le concedió Napoleón.
El hecho de que el que la evolución del universo con todo su contenido pueda reducirse a unas pocas leyes tuvo consecuencias importantes en nuestra visión del mundo. Cuando Laplace presentó su gran obra sobre Mecánica Celeste a Napoleón, el emperador le hizo una observación: «Me cuentan que en esta gran obra sobre el universo no menciona al Creador en ninguna parte.» El matemático le replicó: «Sire, no he necesitado de esa hipótesis.» Si Dios ya no era necesario para gobernar el universo ¿seguiría siendo necesario para crearlo? Aparentemente, lo único que nos impide hacer una predicción certera sobre el futuro son dos detalles nimios: (1) conocer la posición y velocidad de cada partícula del universo en un instante dado; (2) resolver un sistema de 2n ecuaciones diferenciales, siendo n el número de partículas del universo. Sin embargo, aunque todo esto sea irrealizable en la práctica, no excluye la validez del teorema de existencia y unicidad que nos dice que sólo hay un resultado posible: el libre albedrío no existe… ¿o sí?
Sensibilidad, caos y desorden
El que hayas leído mi post hasta aquí es una decisión tuya, personal y consciente, que no tiene absolutamente nada que ver con la posición de las partículas del universo hace un par de horas. Podemos señalar varios errores en los argumentos de la sección anterior. El primero es que el modelo matemático es una idealización de la realidad tanto o más como Las señoritas de Avignon representa un grupo de mujeres. En segundo lugar, es sabido que la solución de una ecuación diferencial, en general, depende continuamente de las condiciones iniciales. Esto quiere decir que con valores iniciales parecidos se tendrán una soluciones próximas sobre intervalos prefijados de la variable. Sin embargo, si no se mantiene la variable confinada en un intervalo, podría observarse una tremenda divergencia entre dos soluciones por próximas que comiencen (sensibilidad respecto a las condiciones iniciales). Gracias a eso, el resultado de lanzar una moneda al aire se puede considerar un suceso aleatorio.
Péndulo doble construido por el autor para la Semana de la Ciencia (Murcia, noviembre 2023). En YouTube hay vídeos de péndulos que funcionan mejor y durante mucho más tiempo 😕
No obstante, en sistemas en una o dos dimensiones el comportamiento cualitativo de las soluciones no cambiará. Por ejemplo, un péndulo sencillo siempre oscila periódicamente, aunque cambie la frecuencia de dichas oscilaciones. Pero a partir de tres dimensiones pueden aparecer diferencias substanciales que afectan a la predicibilidad del sistema y que reciben el nombre caos, también conocido como efecto mariposa (una descripción poética puede escucharse en este enlace). Por ejemplo, un péndulo doble goza de dos grados de libertad, así que su espacio de fases tiene cuatro dimensiones… el caos está garantizado. Además de eso, en los sistemas con un gran número de partículas hay una componente estadística que debe ser adecuadamente tratada. Esto es el objeto de la Mecánica Estadística, donde los sistemas no evolucionan por la inercia, sino hacia estados con mayor probabilidad. Una baraja de cartas está bien ordenada de una sola manera, pero desordenada puede estarlo de tantas formas que se requiere un número de 60 cifras para expresarlo. El desorden es la esencia de nuestro libre albedrío, en la Física Clásica… no hablemos ya de principios de incertidumbre y gatos zombies.
EDPs
Hasta ahora hemos considerado ecuaciones diferenciales donde la incógnita depende de una única variable, respecto a la que realiza la derivación. Esto es algo bastante evidente cuando la ecuación diferencial describe un proceso que depende únicamente del tiempo, tal como sucede en los sistemas dinámicos. Este tipo de ecuaciones diferenciales con una sola variable independiente se llaman ecuaciones diferenciales ordinarias (EDOs). Naturalmente, el mundo es mucho más complejo. Por ejemplo, un proceso que dependa del tiempo y el espacio requerirá una ecuación con varias variables independientes respecto a las que se realizan derivaciones, necesariamente parciales. Por este motivo son llamadas ecuaciones en derivadas parciales (EDPs). Es una materia que aprecio bastante, ya que he estado impartiendo sus contenidos en una asignatura del Grado de Matemáticas (los apuntes son accesibles aquí). También hemos aludido a una cierta EDP en nuestro postCircunferencias y esferas.
Página de Mathematical Biology, J. D. Murray, Springer 2003.
Un aspecto interesante de las EDPs es, que a pesar de representar procesos continuos (por no decir derivables), son capaces de explicar fenómenos discretos o cuantificados. Las notas musicales se explican con ayuda de la ecuación de la cuerda vibrante. El hecho de que las variaciones de energía en un átomo estén cuantizadas se explica, por motivos análogos, a partir de la ecuación de Schrödinger, que rige la Mecánica Cuántica. Los llamados procesos de reacción-difusión encierran la clave de la aparición de patrones en Biología como las manchas de leopardos, cebras y jirafas. Esta compleja teoría de la Morfogénesis fue iniciada por Alan Turing, matemático conocido principalmente por su papel en el descifrado del código Enigma durante la Segunda Guerra Mundial, y que también sentó las bases de la Teoría de la Computación.
Editado 24/12/2024. He dedicado un post específico a las EDPs con motivo de haber dejado de impartir la asignatura correspondiente en el Grado de Matemáticas de la UMU.
Para acabar
Las ecuaciones diferenciales permiten, entre muchas aplicaciones, modelizar y estudiar la evolución sistemas y procesos que dependen continuamente del tiempo y, eventualmente, también del espacio. Lamentablemente, no se puede profundizar mucho más en este tema si no es a costa de un mayor despliegue matemático. Espero que la selección de temas que he presentado en este post despierte la curiosidad de los lectores.
Con motivo de la declaración de marzo como mes de las Matemáticas disfrutamos en el vestíbulo de nuestra Facultad una exposición fotográfica titulada «Geometría Natural», cuyo comisario es el Prof. Ángel Ferrández. Entre la selección no había imágenes de minerales. Desconozco si es por que ésta se ha limitado a organismos vivientes, o quizás porque las fotos de cristales imitando poliedros es un recurso demasiado manido… A mí no me cabe la menor duda de que los minerales son tan naturales como la tela de una araña. Para remediar la situación, decidí seleccionar algunas fotos de mis minerales con connotaciones matemáticas y añadirlas de extranjis, como Banksy en sus buenos tiempos, antes de cotizar en Sotheby’s. Esas fotos aparecen aquí, junto con unas cuantas más, para ilustrar la relación entre Minerales y Matemáticas.
Minerales: ¿únicamente poliedros?
Hay que decir que los poliedros que aparecen como cristales no son poliedros arbitrarios, sino que siguen ciertos patrones estudiados por la Cristalografía. Las formas aparecen como consecuencia del empaquetamiento regular de las moléculas condicionando la disposición de los planos que limitan las caras y los elementos de simetría. Pero además de cristales, hay agregados de estos que muestran otro tipo de patrones que evocan igualmente nociones matemáticas como la de fractal. Animo al lector que visite la galería por si descubre más motivos matemáticos entre las fotos de mi colección.
El icosaedro de pirita de casi 4 cm de diámetro recogido en Puebla de Lillo (León), una de las piezas más icónicas de mi colección. En este artículo describo matemáticamente la disposición de sus veinte caras.Piritoedros (rombo-dodecaedros) de pirita en matriz, Caravaca (Murcia). Los piritoedros de Caravaca (Rambla del Piscalejo) son para mí los más bellos de la mineralogía española.Octaedro de magnetita en matriz, Torre Pacheco (Murcia). Las piezas masivas de magnetita del Cabezo Gordo están consisten frecuentemente en agregados de octaedros milimétricos.Curioso cristal cúbico compuesto de agregados octaédricos, Ricote (Murcia). La formación de esta pieza debió ocurrir en condiciones físico-químicas inestables oscilando alrededor de la frontera entre las dos formas..Cristal de pirita, forma combinada de cubo y octaedro, Navajún (La Rioja). En este caso, las condiciones de formación fueron más estables, pero también en la frontera entre ambas formas.Macla de cristales cúbicos de pirita, con leve pátina de óxido, Navajún (La Rioja). A veces el criterio para seleccionar ejemplares es más bien de tipo artístico y en este caso me he dejado llevar por el parecido con algunas obras de Chillida.Pseudo-tetraedro de calcopirita, dentro de una geoda de siderita en romboedros, procedente de la Sierra de Filabres (Almería). Con el tetraedro, completamos la aproximación mineral a los cinco sólidos platónicos.Granate almandino, en forma de trapezoedro de 24 caras, Níjar (Almería). La Luz transmitida permite apreciar su extraordinario color, pero hace difícil ver las aristas del poliedro.Cristal de cuarzo hialino rematado en pirámide hexagonal, Albatera (Alicante). Lo bonito de esta pieza es que el cristal sólo se ve a gracias al reflejo de sus caras.Agregados esferoidales de prehnita (Cehegín, Murcia). Las esferas aparecen como resultado del crecimiento radial de los cristales de este silicato.Aragonito en prisma pseudo-hexagonal, Minglanilla (Cuenca). Si se miran bien sus caras laterales descubriremos por qué nos referimos como pseudo-hexagonal. En efecto, estos cristales son el resultado del agregado de tres primas rómbicos.Yeso, cristal totalmente desarrollado, Utrillas (Teruel). El yeso cristaliza en el sistema monoclínico, que no tiene demasiados elementos de simetría, si bien da para varios pares de caras paralelas y un “centro”.Cuarzo, prisma hexagonal rematado por sendas pirámides en matriz de yeso, Ricote (Murcia). Aunque el primas es hexagonal en una buena aproximación geométrica, realmente su simetría es ternaria.Nódulo elipsoidal de barita iluminado con luz UV mostrando una trama fractal, Caravaca (Murcia). Es posible (me quedo con la hipótesis en lugar de partir el nódulo) que la trama sea consecuencia de un agrietado por retracción, como el de los nódulos septarios.Granate melanito, cristal rombo-dodecaédrico, Cehegín (Murcia). Como se puede ver, la palabra dodecaedro en mineralogía resulta confusa si no se especifica la forma de las caras.Cubo deformado de pirita, Navajún (La Rioja). Es innegable la estética de este tipo de piezas.El cristal de la izquierda es un octaedro tallado de fluorita, mineral que en la naturaleza se presenta generalmente en cubos, pero se exfolia siguiendo planos paralelos al octaedro. El cristal de la derecha no es tallado, sino natural y se trata de magnetita de Brasil. Ambas piezas proceden del comercio.Crecimiento fractal de psilomelana, observado en una fachada de Bolnuevo (Mazarrón). Las dendritas de óxido de manganeso, mal llamadas «de pirolusita» en muchos textos, se desarrollan en planos de diaclasado como fractal que imita motivos vegetales.Fragmento de un nódulo esférico de marcasita alterado en limonita, Picos de Europa (Cantabria). Queda el vestigio de los cristales radiales que convergen en un único punto.Ágata, Iguazú (Brasil). A pesar de la exótica procedencia, la recogí yo mismo. La roca volcánica alrededor de las famosas cataratas estaba repleta de ágata, pero no pude recoger un trozo mayor. Las líneas recuerdan las curvas de nivel de una función de dos variables.Quiastolita, una variedad de andalucita que presenta un dibujo cruciforme en sección (pulida), Boal (Asturias). La aparición de la cruz se debe a la variación en «contaminantes» durante el crecimiento del cristal.Cristales de barita, Mazarrón (Murcia). Los cristales tabulares rómbicos se han replicado en una especie de macla repetitiva, produciendo un borde aserrado.Cristal de casiterita de localidad desconocida procedente de una colección antigua. Consiste en un prima cuadrangular rematado en pirámide, forma propia del sistema tetragonal.Cubos de fluorita violeta, Berbes (Asturias). El biselado que se aprecia en las aristas del cubo se debe a una leve combinación con el rombo-dodecaedro.Romboedro de exfoliación de espato de Islandia, purísima variedad de calcita, procedente del comercio. Por la parte de la izquierda incide la luz solar, que es descompuesta en colores elementales a la derecha.Rinconcito de los minerales en le exposición fotográfica de la Facultad de Matemáticas de la Universidad de Murcia.
Imagen toda de un viejo libro de texto, explicación al final.
El propósito de este post es destacar ciertos aspectos del Sistema Solar que, como matemático, me resultan interesantes y con la esperanza de alguno resulte novedoso para mis queridos lectores. Esto último no va a ser sencillo… La observación del cielo es tan antigua como la Historia, así como la curiosidad por saber lo que hay ahí arriba (o afuera) es tan inmensa como el Universo. La Astronomía, desde que se diferenció de la Astrología, es una disciplina bien desarrollada y su divulgación una de las populares. También, algunos de los divulgadores de la astronomía alcanzaron una gran fama en vida: Camille Flammarion en el siglo XIX, Carl Sagan en el XX, y más recientemente, Neil deGrasse Tyson. Por este motivo, no es fácil contar algo realmente sorprendente sobre el Sistema Solar.
Uno de los libros con el que aprendí mucha Astronomía en mi juventud… y que ahora apenas recuerdo.
El cielo desde un zigurat
En la antigua Babilonia, los sacerdotes escrutaban los cambios que se producían en el firmamento y lo anotaban todo, de manera que, tras siglos de observaciones, habían descubierto la periodicidad de numerosos fenómenos, incluidos los eclipses. La aplicación más básica era el dominio del calendario, que administraban como un saber hermético, pues el conocimiento del momento preciso de las siembras era fundamental para la economía del estado. Además del sol, la luna y las estrellas, había unos objetos cuya posición y ritmos no seguían las mismas pautas: los planetas. De manera tácita se asumió que sus ciclos debían tener alguna repercusión en lo que ocurría en el suelo y a la búsqueda de esa influencia se la llamó Astrología. Esta conexión resultaba tan “evidente”, que la Astrología no sólo fue tolerada por la Iglesia medieval, sino que también se llegó a enseñar en las universidades.
Maqueta de un zigurat (foto de Wikipedia).
Algunos planteamientos de la Astrología pueden parecernos ahora ridículos desde la ciencia moderna, pero estimularon la observación cuidadosa y cuantitativa del cielo, dando lugar a una disciplina matemática: la Trigonometría. En particular, la llamada Trigonometría Esférica tiene que ver con las relaciones entre las distintas magnitudes de un triángulo esférico, cuyos lados son segmentos de circunferencia máxima. Resulta curioso que los lados de un triángulo esférico se midan como ángulos, pero es lo más adecuado porque esa es la única referencia que podemos tener entre los astros que observamos desde la Tierra. El área de un triángulo esférico es también una medida angular, es decir, relativa, pero recibe el nombre de ángulo sólido. Al igual que la longitud de la circunferencia de radio unitario, 2pi, señala el ángulo lineal máximo, el área de la esfera de radio unidad, 4pi, es el valor del ángulo sólido máximo.
Triángulo esférico, dibujo tomado de Wikipedia.
Quizás el hecho más fascinante (al menos para mí) de los triángulos esféricos es que su área se obtiene simplemente sumando sus ángulos y restando pi al resultado. Esta misma operación daría cero en un triángulo plano (véase mi postCircunferencias y esferas), pero no en un esférico. En un globo terráqueo es fácil trazar un triángulo con un vértice en el Polo Norte y los otros dos en el ecuador, de manera que sus tres ángulos son rectos. La fórmula del área arroja un valor de pi/2, que es una octava parte de la esfera (y de 4pi, obviamente). Curiosamente, la fórmula del área de los triángulos esféricos se puede deducir sin apenas conocimientos geométricos usando una fórmula combinatoria que expresa la medida de la unión de tres conjuntos: súmense todas las áreas, réstense las áreas de las intersecciones dos a dos y, finalmente, súmese el área de la intersección de los tres conjuntos.
Demostración de la fórmula del área de un triángulo esférico.
Dice con bastante ironía Jean Dieudonné, uno de los miembros del influyente grupo matemático Bourbaki, que la Trigonometría actualmente sólo interesa a tres colectivos: a los astrónomos, a los agrimensores y a los autores de libros de Trigonometría. No obstante, la Trigonometría Esférica proporciona un modelo fácilmente comprensible de una Geometría no euclidiana en la que los triángulos de pequeñas dimensiones son muy parecidos a los triángulos planos, pero a medida que aumenta la escala también aumentan las diferencias. ¿No pasará lo mismo en el Universo? En efecto, a nuestra escala (o la de nuestros instrumentos de medida) nos parece euclidiano, pero podría no serlo globalmente… Albert Einstein nos abrió ese melón.
La cuarta ley de Kepler
Si pensamos en las leyes de Kepler, recordaremos al menos tres de ellas: la primera describe la forma de las órbitas de los planetas alrededor del sol; la segunda explica las variaciones de velocidad de un planeta a lo largo de su órbita; finalmente la tercera relaciona los tamaños de las órbitas de dos planetas con la duración de su revolución alrededor del sol. Pongamos un ejemplo de esta última, si un planeta tiene una órbita cuyas dimensiones duplican las de, por ejemplo, la Tierra, su año será 2.83 veces mayor que el nuestro (1033 días terrestres). Ya comentamos en nuestro postElipse que Isaac Newton dio la demostración matemática de las leyes de Kepler a partir de su ley de Gravitación Universal.
Ilustración del Mysterium Cosmographicum de Kepler (foto de Wikipedia).
¿Qué es lo que falta en el conjunto de las tres leyes de Kepler? La respuesta más obvia, quizá, es que no proporcionan ninguna información sobre la disposición relativa de los planetas. En aquel momento, sólo se conocían seis: Mercurio, Venus, Tierra, Marte, Júpiter y Saturno. A falta de una hipótesis mejor, Kepler relacionó los planetas con los sólidos platónicos, es decir, los cinco poliedros regulares (convexos, hay que especificar), que inscritos y/o circunscritos en cierto orden en seis esferas producen unos radios cuyas proporciones, dentro de cierto margen de error, coincidían con las de las órbitas planetarias. Desde el punto de vista moderno, el modelo Kepleriano puede parecernos algo carente de fundamento, pero en realidad está haciendo algo que los matemáticos seguimos haciendo todavía: buscar patrones.
Tabla comparando las distancias predichas por la ley de Titius-Bode con las reales, tomada de J. Febrer Carbó y E. Cabal Dalby «Lecciones de Astronomía Elemental», Reverté Barcelona (1948).
Encontrar un buen patrón depende mucho del conocimiento acumulado. La hipótesis de la elipse, por ejemplo, funcionó y pudo justificarse a posteriori, pero la distancia relativa entre planetas del Sistema Solar necesitaba una aproximación menos mística. El astrónomo alemán Johann E. Titius propuso que las distancias relativas al Sol estaban en progresión (esencialmente) geométrica, salvo por dos detalles: una corrección particular para Mercurio; y una “laguna” entre Marte y Júpiter. Otro alemán, Johann D. Bode que da también su nombre a esta ley, propuso que el hueco entre Marte y Júpiter correspondía a un planeta que aún no había sido observado. Hay que decir que en ese momento no se había descubierto aún Neptuno, planeta para que la ley de Titius-Bode falla estrepitosamente. Un grupo de 24 astrónomos, en su mayoría alemanes, se lanzó a la búsqueda del supuesto planeta intermedio entre Marte y Júpiter. En la Nochevieja de 1800 a 1801 apareció, por fin, un diminuto planeta: Ceres.
Ceres, más pequeño que nuestra luna, no tiene atmósfera ni actividad geológica, por lo que su superficie está cubierta de cráteres producidos por el impacto de meteoritos (foto de Wikipedia, como no).
El descubridor de Ceres fue el italiano Giuseppe Piazzi que pudo seguir al planetoide durante un mes aproximadamente, hasta que cayó enfermo. Después, la pista de Ceres se perdió y nadie fue capaz de encontrarlo… Hasta que llegó Carl Friedrich Gauss, el más grande matemático del siglo XIX (por no decir de todos los tiempos, estas comparaciones son delicadas), y con las observaciones de Piazzi, que representaban un 1% de la órbita de Ceres, realizó complejos cálculos con un método de su propia invención y dijo a los astrónomos hacia dónde debían enfocar sus telescopios en diciembre de ese mismo año. El planeta apareció exactamente donde dijo Gauss que aparecería… bueno, con medio grado de error 😕
Carl Friedrich Gauss
El misterioso método de Gauss incluía el ajuste con mínimos cuadrados, que hoy día es una técnica estándar para hacer predicciones a partir de cierto número de medidas experimentales. Sabemos también que Gauss en su estudio de las órbitas planetarias usó un algoritmo llamado transformada rápida de Fourier (FFT), años antes de que Joseph Fourier en persona definiera su transformada (sin la etiqueta “rápida”) y con más de un siglo de anticipación sobre Cooley y Tukey, los “inventores oficiales” de la FFT: así era Gauss. Para cerrar esta sección, después de Ceres, se descubrió en órbitas cercanas otros pequeños planetas: Palas, Juno, Vesta… la cuenta va por miles, pero cada vez más diminutos y ya nada redondos. Es esas circunstancias, la noción de planeta debía definirse de manera precisa por lo que Ceres quedó fuera de la lista y nos referimos en su lugar al cinturón de asteroides. Por cierto, el mismo criterio provocó la expulsión de Plutón en 2006 de la lista oficial de planetas del Sistema Solar. Plutón resulta ser parte de un cinturón de asteroides exterior llamado de Kuiper.
El problema de los tres cuerpos
Nos ocuparemos ahora de una cuestión de Mecánica Celeste. Notemos primero que, realmente, las elipses son soluciones exactas para las ecuaciones Newtonianas del movimiento cuando se considera un sistema de dos cuerpos (el Sol y un planeta). Matemáticamente, el problema se reduce al de una sola masa en un campo gravitatorio central y puede resolverse dando la posición exacta del planeta en cada momento. Cuando hay tres cuerpos interactuando mútuamente entre sí, la dificultad del problema aumenta considerablemente y no es posible dar una solución explícita de las órbitas… y no digamos ya cuando se tiene un número mayor de cuerpos como el propio Sistema Solar.
ISS, foto tomada de Wikipedia.
El llamado problema de los tres cuerpos se puede abordar con distintas simplificaciones. Una de ellas es suponer que dos de los cuerpos no son demasiado masivos para despreciar su interacción mutua. Evidentemente, cada uno de los cuerpos pequeños seguirá el modelo elíptico, si es que permanecen confinados en sus órbitas, pero es posible que nos interese saber como se moverá uno respecto al otro. Si las órbitas de estos dos cuerpos son suficientemente próximas, podemos considerar una como perturbación de la otra. Esto permite deducir resultados aparentemente sorprendentes como el siguiente: imaginemos que un astronauta da un salto desde la Estación Espacial Internacional (ISS) de manera que se aleja de ella flotando en el vacío. No pasa nada, en alrededor de 45 minutos volverá a la ISS. En efecto, la trayectoria del astronauta (alrededor de la Tierra) es una elipse de dimensiones similares a la que traza la ISS y, por lo tanto, con el mismo periodo.
Situación de los puntos de Lagrange, los estables son L4 y L5 (tomado de Wikipedia).
Consideremos ahora un sistema compuesto de dos objetos masivos y un tercero mucho menor. En este caso, el problema de los tres cuerpos admite unas soluciones curiosas: existen dos puntos relativos a la posición de las masas mayores (moviéndose con ellas) donde una tercera masa quedaría en una posición estable. Estos son los llamados puntos de Lagrange estables (hay otros puntos estacionarios, pero son inestables), que actúan como receptáculos de pequeñas masas a la deriva, los llamados asteroides troyanos. Desde la predicción hecha por el matemático ítalo-francés Joseph-Louis Lagrange, se tardó casi un siglo en poder observarlos. En el Sistema Solar, Júpiter acapara casi todos los troyanos. Obviamente, es el segundo cuerpo más masivo después del Sol, y junto con él forma un potente atractor de troyanos.
Kolmogorov, Arnold y Moser
Lo cierto es que los planetas del Sistema Solar se influyen unos a otros, quizás no tanto como para marcar la vida de un recién nacido, pero sí como para inquietar a los astrónomos sobre un cataclismo en el futuro. Por ejemplo, el descubrimiento de Neptuno fue posible gracias a las perturbaciones que provocaba en la órbita de Urano. A su vez, el planetoide Plutón fue descubierto por las perturbaciones que provocaba sobre Neptuno. Las elipses que describirían teóricamente los planetas alrededor del sol según el modelo de dos cuerpos, están “abolladas” consecuencia de esta mutua interacción.
Neptuno, fotografiado por el Voyager (foto de Wikipedia)
Si bien el efecto de la interacción entre dos planetas dados puede parecer pequeño puntualmente, su efecto prolongado a lo largo del tiempo podría acumularse. A medida que los dos planetas orbitan alrededor del sol se producen alternativamente situaciones de máximo acercamiento y máximo distanciamiento. La atracción gravitatoria entre ellos, mayor durante la máxima proximidad, se convierte en una fuerza pulsante. Hay situaciones en las que una pequeña fuerza ejercida periódicamente causa un gran efecto a largo plazo: imaginemos un columpio al que se le da un pequeñísimo impulso cada vez que comienza a alejarse. Al cabo de un rato, el columpio ejecuta grandes oscilaciones. Este fenómeno se conoce como resonancia y ocurre cuando la frecuencia de la fuerza coincide o está muy próxima a la frecuencia natural del sistema al que se aplica.
Uno de los párrafos del libro de V. I. Arnold «Mecánica Clásica» (Paraninfo, Madrid, 1983) del apéndice donde explica la teoría KAM. La dificultad del tema, unida a una peculiar traducción, produce un cierto desánimo…
Andrei Kolmogorov, uno de los matemáticos rusos más importantes del siglo XX, comenzó el estudio de la posible resonancia en sistemas dinámicos como el constituido por el Sistema Solar. Este estudio fue continuado por su discípulo Vladimir Arnold y el alemán Jürgen Moser. El teorema KAM (por las iniciales de los matemáticos mencionados) dice, aplicado a los planetas, que las órbitas serán estables cuando el cociente de sus frecuencias es muy irracional en un sentido tan preciso como técnico para ser expuesto aquí. A mis colegas matemáticos puedo decirles que la condición KAM recuerda ligeramente la definición de los números transcendentes de Liouville. En lo que respecta al Sistema Solar, la mayor parte de los cataclismos por resonancia ocurrieron en una etapa inicial, y los cocientes de las frecuencias de los planetas actuales están lejos de ser conmensurables. No hace mucho, la matemática italiana Gabriella Pinzari realizó una mejora substancial del teorema KAM.
Concluyendo
Recuerdo como si fuera ayer aquella noche de invierno de 1976 cuando vi por primera vez la ilustración* con la que he comenzado este post. Todavía me dura el abrumador sentimiento de pequeñez y vacío que me provocó. Por eso no puedo evitar tener cierto apuro cuando miro la noche estrellada reconociendo constelaciones y buscando luceros. A pesar de que cada vez es más difícil disfrutar del cielo nocturno, que se le ha declarado la guerra a la oscuridad, la noche estrellada está ahí, envolviéndonos, para que mientras miramos al infinito, sigamos haciéndonos las preguntas más fundamentales de nuestra existencia.
La noche estrellada de Van Gogh.
(*) El libro es «Geografía Universal» (Antonio M. Zubia, Ed. S.M. 1967) de 2º de bachillerato, un libro de texto que usó mi hermana.
Hubo un tiempo en el que el referente en divulgación matemática era Martin Gardner. Es difícil encontrar a alguien que haya hecho más por hacer llegar las curiosidades y paradojas de las Matemáticas, clásicas o contemporáneas, al público en general. Lo más curioso es que Martin Gardner no tenía estudios reglados de Matemáticas más allá de la high school. Ahora la divulgación matemática se ha erigido en disciplina y los divulgadores profesionales son básicamente monologuistas temáticos. No sé hasta que punto los divulgadores especializados más conocidos de nuestro país (Claudi Alsina, Clara Grima, Eduardo Sáenz de Cabezón, Marta Macho, Santi García Cremades…) están contribuyendo a las vocaciones matemáticas. En este sentido, yo sólo puedo hablar del tipo de cosas con las que a mí me «engancharían» si fuera un joven indeciso. Este post es un ejemplo: hablemos del área.
Portada de uno de los libros más populares de Martin Gardner, «Paradojas», Labor (1989).
Matemáticas en la barra de un bar
En mi postMatemáticas y matemáticos di una versión excesivamente pesimista de qué significa ser matemático entre gente que no lo es. Lo cierto es que muchas veces disfrutamos tanto con nuestro oficio que podemos llegar a hacer apostolado de nuestra ciencia en los bares y entre cervezas. Mucha gente recuerda el Teorema de Pitágoras de los triángulos rectángulos con detalle suficiente como para enunciarlo en términos de catetos e hipotenusa. Pero nadie recuerda el motivo por el cual el teorema es cierto, en muchos casos, porque nunca le han enseñado una demostración. Es decir, como se deduciría el Teorema de Pitágoras a partir de hechos más elementales.
Esto es una prueba del teorema de Pitágoras basada en la noción de área. El dibujo es algo cutre, tal como quedaría tras dos cervezas o más…
En ese momento se saca el bolígrafo y sobre una servilleta se hacen los dos dibujos representados arriba con la idea de demostrar que el triángulo rectángulo de lados a, b, c satisface el Teorema de Pitágoras. Los dos cuadrados grandes, de lado a+b, tienen igual área porque son iguales. Si de cada cuadrado se retiran los cuatro triángulos, todos ellos iguales al triángulo rectángulo de lados a, b, c original, lo que quede tras la sustracción deberá tener igual área: a la izquierda quedan dos cuadrados de lados a y b; a la derecha queda un cuadrado de lado c. Por lo tanto a2 + b2 = c2 ¿No es sorprendentemente sencillo?
Demostración del Teorema de Pitágoras basada en semejanza de triángulos, tomada de Coxeter «Fundamentos de Geometría», LIMUSA-WHILEY (1971).
Sin embargo, el «principio de conservación del área» al que hemos apelado parece más sencillo que el Teorema de Pitágoras porque es una extrapolación de nuestra experiencia cotidiana: si un kilo de harina se separa en tres porciones y se pesan cada una de ellas con la mayor precisión posible que puede proporcionar una báscula digital de cocina podemos asegurar que los tres números sumaran 1000 gramos, y si el resultado es inferior (999 ó 998) será culpa del redondeo o de algo de polvo de harina que se ha derramado. La Ley de Conservación de la Materia en el contexto químico fue formulada por Lavoisier y Lomonosov, independientemente en el siglo XVIII, y corregida por Einstein añadiendo el balance energético por medio de la fórmula de conversión E=mc2.
Unas cervezas después…
Queremos convencer a nuestro interlocutor de que la noción de área en Matemáticas posiblemente no se comporte con la misma fiabilidad que la materia en el mundo real. Le preguntamos por el área del triángulo y responde casi sin pensar «la mitad de la base por altura»… Pero eso dependerá de como esté apoyado el triángulo ¿no? – podríamos argumentarle. Aprovechamos el breve momento de desconcierto para tomar una nueva servilleta de papel y lanzar un nuevo ataque en forma del siguiente dibujo.
Cuadrado de lado 13 descompuesto en triángulos y trapecios.
Partimos de un cuadrado de lado 13 y se descompone en piezas tal como se muestra arriba. Si se tuviera una regla y unas tijeras, se podría llevar a la práctica la reorganización de los trozos de papel que ilustra el siguiente dibujo.
Reorganización de los trozos de la descomposición del cuadrado de lado 13.
¿Qué tiene esto de particular? El cuadrado original de lado 13 tiene área 169 mientras que el rectángulo de dimensiones 21×8 tiene área 168… algo no cuadra. Tenemos tanta confianza en la conservación del área que seguro que hay truco. En efecto, la aparente diagonal del rectángulo no es una línea, sino que tiene área positiva, ya que los triángulos y los trapecios no están perfectamente alineados. Sin embargo, la diferencia es tan sutil que queda encubierta por la tinta del bolígrafo, o por la imperfección del corte del papel si se ha llevado a la práctica. Por cierto, este ejemplo lo aprendí en el libro de Martin Gardner que menciono al principio.
Otro «truco» de recomposición de rectángulos en el libro de Martin Gardner, en este caso, para hacer desaparecer una quemadura de un alfombra.
El área de los polígonos
A nuestros colegas del bar hay que dejarles claro que si bien el área satisface un cierto principio de conservación, se trata de una cuestión delicada y que es preferible remitir la prueba del teorema de Pitágoras a argumentos más simples como la semejanza de triángulos. En cuanto a las magnitudes, es decir, longitudes, ángulos, áreas, volúmenes…, lo que se hace es atribuir un número, llamado su medida, que dependerá de la unidad que se establezca y de la complejidad del objeto a medir. Para no desviarnos mucho del asunto, seguiremos con la fundamentación rigurosa de la noción de área.
Comienzo del capítulo dedicado al área en el «Curso de Geometría Métrica» de Pedro Puig Adam.
En un nivel elemental, puede demostrarse que a los polígonos del plano se les puede asignar una medida de área que cumple la «ley de conservación» siguiente: si un polígono se descompone como unión de una cantidad finita de polígonos que no se solapan, entonces la suma de sus áreas es la del polígono inicial. Esto es un teorema, como el de Pitágoras, que debe ser demostrado en el marco de las Matemáticas, es decir, sin pretender que los polígonos puedan ser recortados en chapa de acero, por ejemplo, y apelar a la Ley de Conservación de la Materia.
Página de «Figuras equivalentes y equicompuestas» de V. G. Boltianski, Ed. MIR (1981).
Naturalmente, si dos polígonos pueden descomponerse en los mismos trozos no solapados deben tener igual área. El recíproco resulta ser también cierto, es decir, si dos polígonos tienen igual área, entonces es posible descomponer uno de ellos en trozos de manera que, reorganizados convenientemente, se obtiene el otro polígono. Este es el llamado teorema de Bolyai-Gerwien. Notemos que «reorganizado convenientemente» significa que los trozos son trasladados y rotados, como haríamos con las piezas de un puzzle. Un refinamiento debido a Hadwiger y Glur establece que bastan traslaciones y rotaciones de 180 grados. Los matemáticos son bastante dados a los “refinamientos”, en este caso no referimos a buscar las hipótesis más débiles a partir de las cuales se puede obtener una misma conclusión.
Los problemas de Hilbert
Durante el Congreso Internacional de Matemáticos de 1900 en París, el insigne matemático alemán David Hilbert formuló 23 problemas que él consideraba interesantes como “propósitos de siglo nuevo”. Y, en cierto modo, alguno de esos problemas fue fundamental como guía o inspiración de las Matemáticas del siglo XX. Sin embargo, el problema número 3 fue resuelto ese mismo año por, Max Dehn, un alumno del propio Hilbert. El problema consistía en saber si un cubo se podía descomponer el poliedros de manera que reorganizándolos se pudiera obtener un tetraedro, obviamente del mismo volumen.
Descomposición de un cubo en varios poliedros, tomado del libro de Boltianski citado arriba.
La solución de dada por Dehn fue negativa, es decir, cubo y tetraedro del mismo volumen no son equidescomponibles. Las pruebas de imposibilidad son, por lo general, mucho más sutiles que las de posibilidad. De manera similar, las desigualdades en Matemáticas suelen ser más profundas que las igualdades (hablo de fórmulas). El resultado de Dehn muestra que no puede haber una «teoría elemental» del volumen de poliedros análoga a la del área de polígonos del plano. Para relacionar el volumen de una pirámide con el de un prisma de igual base y altura hay que cruzar un abismo conceptual parecido al que separa un círculo de un polígono regular de igual área. Hay que hacerse a la idea de que los polígonos o los poliedros no llegan demasiado lejos… Pero ¿qué objetos geométricos son susceptibles de ser medidos?
La Teoría de Conjuntos
Los polígonos y otros objetos geométricos del plano son conjuntos de puntos. Esto puede parecer una obviedad, pero adoptar el punto de vista conjuntista fue uno de los mayores avances en las Matemáticas. A partir de conjuntos dados, se pueden formar otros usando operaciones como la unión o la intersección, resultando conjuntos cada vez más complejos. La Teoría de Conjuntos creada por George Cantor a finales del siglo XIX tuvo un profundo efecto en la fundamentación de las teorías matemáticas en el siglo XX, que alcanzó incluso a las matemáticas escolares.
G. Pappy «Matemática Moderna», EUDEBA (1972), libro de Matemáticas para las escuelas con una notable insistencia en el leguaje de la Teoría de Conjuntos.
Podemos plantearnos si el área de un conjunto tiene relación con la cantidad de puntos que contiene, ya que, aparentemente, un conjunto mayor tiene más puntos que uno más pequeño, a pesar de que ambos pueden tener infinitos puntos. Aunque este no es el sitio para reproducir las discusiones de los antiguos filósofos griegos sobre la noción de infinito, la infinitud de los números o los puntos de una recta nos resulta obvia. Uno de los descubrimientos de Cantor fue que había infinitos de distintos tamaños. De hecho, demostrar que hay más puntos en un segmento de recta que números naturales (1, 2, 3…), o que un cuadrado y un segmentotienen la misma cantidad de puntos, se puede hacer en la barra de un bar sobre una servilleta…
El «Hotel del Infinito», historieta inventada por David Hilbert para ilustrar la noción de infinitud, tal como se encuentra expuesta en el libro de Martin Gardner.
Las paradojas a las que da lugar el infinito son muy interesantes (véanse las Paradojas de Zenón o el Hotel del Infinito de Hilbert, ilustración de arriba), pero no quiero desviarme demasiado del tema. El área, realmente, no tiene mucho que ver con la cantidad de puntos (como se pudo mostrar sobre una servilleta), pero entre los diferentes infinitos usaremos el más pequeño, esto es, el de los números naturales (insisto, los números de contar: 1,2,3…). Diremos que un conjunto es numerable si sus elementos se pueden etiquetar usando los números naturales. Notemos que esta definición incluye los conjuntos finitos, pero no insistiremos mucho en la diferencia, çava de soi.
Viñeta, «politicamente incorrecta» hoy día, tomada de George Gamow «One, two, three… infinity», Dover (1974).
La Teoría de la Medida
Un círculo puede expresarse como una unión numerable de triángulos: primero un triángulo equilátero inscrito; después se añaden tres triángulos isósceles cuyas bases sean los del primero y sus vértices tocan la circunferencia; después, seis triángulos más ocupando cada una de las lúnulas no cubiertas por el hexágono resultante… El proceso de rellenado por triángulos del círculo puede verse en la siguiente ilustración. La numerabilidad es consecuencia de que en cada paso se añade una cantidad finita de triángulos.
Cómo rellenar un círculo con triángulos (imagen tomada de Scielo http://ve.scielo.org/scielo.php)
Aunque es un ejemplo particular, el mismo argumento se puede emplear para rellenar con polígonos cualquier figura limitada por curvas. Esto nos induce a pensar que si el área fuera «numerablemente aditiva» se simplificaría, por lo menos a nivel teórico, las relaciones entre las áreas de conjuntos del plano, a costa de sustituir las sumas finitas por series. Es decir, si un conjunto se expresa como una unión numerable de partes disjuntas, el área del total se expresará como la suma finita o infinita (serie) de las áreas de las partes. No es razonable tratar de ir más lejos, a la hora de tomar uniones, del infinito numerable. En efecto, cualquier polígono es una unión de puntos, cada uno con área cero, y no hay forma de conseguir un número positivo a base de sumar ceros 😕
Ejemplos de series (sumas infinitas) tomado de Brohshtein y Semendiaev «Manual de Matemáticas para ingenieros y estudiantes», MIR (1973).
A la vez que se admiten uniones numerables, la complejidad de los conjuntos aumenta y la noción de «área» se vuelve menos intuitiva. No obstante, Henri Lebesgue demostró en 1904 que hay una forma coherente de asignar medida a familias de conjuntos de la recta, del plano o el espacio, sin restricción por operaciones conjuntistas (uniones, intersecciones, diferencias) en cantidad numerable. La Teoría de la Medida de Lebesgue se continúa y complementa con la integral que lleva su nombre, que es una de las principales herramientas en Análisis Funcional.
El milagro de los panes, los peces y las esferas
El procedimiento que empleó Lebesgue para definir una medida de área aplicable a un gran número de conjuntos del plano era esencialmente constructivo. Si se admite cierta regla no constructiva para la formación de conjuntos, es posible encontrar (realmente, «fabricar») un conjunto no medible. Las regla no constructiva a la que nos referimos es el llamado «Axioma de Elección» de la Teoría de Conjuntos, al que pondremos en contexto en la próxima sección. A pesar de la existencia de conjuntos no medibles en el plano, es todavía posible asignar una medida finitamente aditiva (renunciamos a las uniones numerables y a las series) a los conjuntos del plano de manera que se comporta como el área. Esto fue demostrado en 1923 por Stefan Banach, padre de los espacios que llevan su nombre, haciendo uso del Axioma de Elección.
Ilustración de la Paradoja de Banach-Tarski tomada de Wikipedia.
Pero si nos situamos en el espacio tridimensional, la cosa cambia drásticamente. Banach y Tarski demostraron que una esfera puede descomponerse en una cantidad finita de trozos (10, sin ir más lejos) de tal manera que, convenientemente trasladados y rotados, componen dos esferas, exactamente iguales a la original. Este resultado conocido como la «Paradoja de Banach-Tarski» es el equivalente matemático del célebre milagro de los panes y los peces recogido en los evangelios. Insistimos en que esto es un resultado puramente matemático y no viola la Ley de Conservación de la Materia. La Paradoja de Banach-Tarski implica la imposibilidad de una medida de volumen definida para todos los conjuntos del espacio: asunto cerrado. Por cierto, dije más arriba que las demostraciones de no existencia eran en general más sutiles que las de existencia… me retracto 😉
Y dijo Gödel…
La Teoría de Conjuntos que fundó Cantor se conoce como la «Teoría Ingenua de Conjuntos» (Naive Set Theory, por el libro de Halmos) en la que los conjuntos se manejan como objetos compuestos de elementos previamente existentes y con propiedades nítidas. El carácter sumamente elemental de la noción de conjunto, a partir de la cual se pueden definir las relaciones, los números, las funciones… motivó tomar la Teoría de Conjuntos como «piedra fundacional» de las Matemáticas. Para ello, sería necesario definirla axiomáticamente. La dificultad de la tarea fue puesta de manifiesto por la Paradoja de Russell, que no es más que la versión conjuntista de la más popular «Paradoja del Barbero» (ver ilustración).
La Paradoja del Barbero, según Martin Gardner.
La versión de la Teoría de Conjuntos más aceptada se debe a Zermelo y Fraenkel, siendo el último de los axiomas el de Elección. Por motivos que no voy a desentrañar aquí, el Axioma de Elección se considera como algo opcional por lo que su uso se hace explícito denotando la Teoría de Conjuntos como ZFC (Zermelo-Fraenkel + Choice). Sin embargo, ZFC no es un cimiento de las Matemáticas tan firme como sería deseable. Kurt Gödel en su breve tesis doctoral (1930) demostró que cualquier teoría axiomática que incluya a la Aritmética (dese ZFC por aludida) contiene «proposiciones indecidibles», es decir, afirmaciones cuya veracidad o falsedad no puede ser establecida dentro de los límites de la teoría.
Kurt Gödel con Albert Einstein, en el Instituto de Estudios Avanzados de Princeton (Science Photo Library).
El así llamado Teorema de Incompletitud de Gödel abre la puerta a seguir añadiendo axiomas a ZFC, aunque la teoría seguirá siendo incompleta. Tampoco parece algo necesario, porque estas sutilezas afectan únicamente a la Teoría de Conjuntos y no perjudican a las «Matemáticas normales» ni al «mundo real»… ¿O quizás sí? En 2016 tres matemáticos, entre ellos nuestro apreciado David Pérez García (UCM-ICMAT), publicaron un artículo en Nature en el que demuestran que cierto problema de la Mecánica Cuántica (la teoría Física que rige los fenómenos a nivel atómico) es indecidible. Esto fue nada menos que un shock: el principio de Gödel interviene también en las leyes que rigen el Mundo. Sin embargo, que las leyes de los Hombres serán siempre incompletas, es algo que ya tenía más que asumido.
Epílogo
Martin Gardner fue una gran influencia para mí antes de comenzar a estudiar la carrera de Matemáticas. Podría atribuirle parte de responsabilidad en esta decisión, incluso. Ahora yo intento hacer divulgación a mi manera, pero sin olvidar a mis maestros. Sobre el tema de este post, reconozco que por la razonable limitación de espacio, la longitud de los párrafos y la prudencia a la hora de introducir nuevos conceptos, me he dejado innumerables (esta vez la palabra en el sentido de la RAE) detalles, anécdotas, conexiones con otros temas… sin tratar. Si quieren saber más, ¡llévenme a un bar!
También se pueden leer libros… el de la derecha contiene la prueba de la Paradoja de Banach-Tarski.
Ilustración de Lecciones de Geometría de Cirodde, Madrid 1905.
Hoy voy a hacer “divulgación matemática”. En particular, hablaré de circunferencias y esferas, en el sentido más euclídeo de la palabra. El detonante de esta ocurrencia ha sido el vídeo que me envió mi querido amigo Luis Arrufat por WhatsApp, que podréis ver a continuación (el vídeo está incrustado en la página, en caso de problemas para visualizarlo podéis verlo también en YouTube). Sólo una advertencia, las hipnóticas imágenes enganchan.
Si habéis visto con detenimiento el vídeo, cada bola blanca («pelota» en la lamentable traducción) se mueve en una línea recta, pero conjuntamente se «perciben» como rodando dentro del círculo rojo. Yo trataría de discernir aquí si el problema es realmente la percepción o lo que se entiende normalmente por rodar. Por ejemplo, considerad la rueda de una bicicleta que se desplaza por un camino recto y llano. Pues bien, ni uno sólo de sus puntos describe una trayectoria circular: el buje se mueve en línea recta, mientras que un punto en el neumático describe una trayectoria con forma de cicloide. Sin embargo, nadie discute si la rueda da vueltas o si está rodando ¿no?
Curva cicloide producida por la rueda de una bicicleta (imagen tomada de https://robadabambini.blogspot.com)
Una discusión tan similar como infructuosa es la de si la luna gira sobre sí misma, o no lo hace, ya que en su recorrido mensual alrededor de la tierra siempre presenta a un observador terrestre la misma cara. Como esto no va de Psicología ni Filosofía o Astronomía, sino de Matemáticas, lo primero que haré será aclarar por qué si una circunferencia rueda dentro de un círculo con el doble de diámetro todos sus puntos describen trayectorias rectilíneas.
Una explicación sencilla
En la escuela se enseña que los tres ángulos (internos) de un triángulo suman un ángulo llano (180 grados sexagesimales). Otra cosa bien diferente es si alguna vez nos han dado una explicación razonada, o razonable, de este aserto. En Geometría, como en cualquier otra teoría matemática hay que partir de unos principios que se dan por ciertos (postulados o axiomas). El hecho de que la suma de ángulos de un triángulo arroja siempre el mismo valor emana directamente del llamado «Postulado de las Paralelas» (también conocido como El Quinto Postulado) que afirma que, en el plano, dados una recta y un punto fuera de ella, sólo se puede trazar una paralela a la recta dada pasando por dicho punto. El dibujo a continuación ilustra como se relaciona la suma de ángulos con el Postulado de las Paralelas.
Tras trazar una paralela a un lado del triángulo por el vértice opuesto, resulta que los ángulos rojos (alfa) son iguales, y lo mismo ocurre con los azules (beta), por lo que se pueden transportar a la parte superior del dibujo y sumados al ángulo negro dan como resultado un ángulo llano.
No voy a engañar al lector: estoy ocultando algunas dificultades de manera deliberada. Por ejemplo, lo que se entiende por «ángulo» en Matemáticas. No entraré en ese jardín porque todo el mundo entiende de manera intuitiva el ángulo como cierto tipo de magnitud geométrica expresable en una escala numérica (de hecho, en la práctica se mide con un goniómetro o un transportador de ángulos). Ahora mostraré una curiosa propiedad de los ángulos en una circunferencia.
El ángulo rojo «beta» es exactamente el doble del ángulo negro «alfa».
El dibujo arriba ilustra la siguiente propiedad: cada vez que se da una circunferencia de centro X, un diámetro de ella con uno de sus extremos llamado O y un punto A en la circunferencia, el ángulo que forma el segmento XA con el diámetro por la parte opuesta a O es exactamente el doble del ángulo que forma el segmento OA con el diámetro en O. La prueba es muy sencilla, pero el limitado editor de texto de la web no me permite usar símbolos, así que daré el esquema argumental insertando una nota manuscrita, como si estuviera en clase usando una pizarra.
Argumento de mi puño y letra… lo siento, no soy calígrafo.
He apelado a otro resultado que en la práctica parece evidente, pero no lo es tanto su demostración: si un triángulo tiene dos lados iguales (llamado en tal caso isósceles), los ángulos opuestos a ellos son iguales entre sí. El propio Euclides dio una demostración bastante aparatosa que incluía como «bonus track» una construcción geométrica que lejanamente puede parecer un puente. Pons asinorum (el puente de los burros) se ha llamado popularmente, porque había que pasar por él para «desasnarse» y aprender la Geometría. Ya estamos en condiciones de explicar lo que pasa en el vídeo con el que comenzábamos el post de hoy.
Los arcos coloreados tienen la misma longitud por que el de la circunferencia cuyo diámetro es la mitad corresponde a un ángulo que es el doble.
El dibujo muestra dos círculos siendo el diámetro del grande el doble del pequeño. Los dos ángulos marcados están también en relación de ser uno el doble del otro, sólo que el ángulo mayor está en la circunferencia pequeña. Eso hace que los dos arcos coloreados tengan la misma longitud, los que puede interpretarse de la manera siguiente: si el circulo pequeño rueda hacia abajo, el punto B irá a parar directamente al O, y de hecho se situará siempre sobre el diámetro vertical porque el razonamiento se puede hacer con cualquier ángulo o posición de partida.
Ángulos inscritos y fútbol
El resultado sobre ángulos que ha sido clave en la sección anterior, tiene más consecuencias. Si dada una circunferencia con uno de sus diámetros, hacemos la construcción anterior del ángulo y su doble a cada lado obtenemos sumándolos un ángulo con un vértice en la circunferencia y otro que mide exactamente el doble con su vértice en el centro. Esta construcción es reversible en el sentido que si partimos de un ángulo con un vértice sobre la circunferencia y que engloba al centro de ésta podemos deducir que el ángulo con vértice en el centro de la circunferencia y que abarca el mismo arco de ésta debe ser el doble. A los ángulos con un vértice en una circunferencia nos referiremos como inscritos en ella.
A cada lado del diámetro se aplica la regla anterior: el ángulo inscrito que tiene un diámetro por lado es la mitad del ángulo centrado. La suma sigue guardando la misma proporción, pero también la diferencia.
La restricción de que el centro de la circunferencia esté comprendido en el ángulo inscrito puede evitarse. En efecto, igual que se argumenta con la suma se puede hacer también con la diferencia. Así cualquier ángulo inscrito es exactamente la mitad del ángulo centrado en la circunferencia que abarca el mismo arco. Consecuentemente, todos los ángulos inscritos que abarcan el mismo arco de circunferencia son iguales entre sí (suele llamarse capaz a este arco). El dibujo explica muy bien este hecho.
Todos los ángulos que abarcan el mismo arco de circunferencia (el que va entre A y B) miden lo mismo (alfa).
Este bonito principio geométrico tiene una inesperada aplicación al fútbol… OMG! 😕 Empiezo a parecerme a José Manuel López Nicolás (espero que para bien). Un jugador corre con el balón por una línea paralela a la banda ¿en qué momento verá la portería rival con un ángulo máximo? El problema tiene una solución trivial si la línea entra en la portería: una vez que está dentro. En otro caso, nuestras consideraciones sobre ángulos inscritos en circunferencias permiten resolver el problema de forma muy elegante.
El jugador (punto rojo) avanza por la línea negra horizontal hacia la portería (azul). La verá bajo un ángulo máximo cuando se sitúe en el punto de tangencia de la circunferencia que pasa por los postes de la portería y es tangente al recorrido del jugador.
El motivo por el que el punto de tangencia da la solución al problema del jugador es el siguiente: cualquier otro punto antes o después de éste corresponderá a un ángulo inscrito en una circunferencia de radio mayor. El correspondiente arco capaz tiene la misma cuerda (la anchura de la portería) pero al ser más grande la circunferencia el ángulo es menor.
Newton y la atracción de las esferas
Estamos lejos de haber sacado todo el pringue a los ángulos inscritos y a los arcos capaces. Observemos la construcción dada el el siguiente esquema: dos cuerdas de una circunferencia se cortan en un punto y las completamos con sendos segmentos para formar dos triángulos: A y B. Resulta que los triángulos son semejantes, es decir, tienen iguales sus tres ángulos. En efecto, los ángulos opuestos por el vértice son iguales. Pero también los otros pues pueden verse como ángulos inscritos con el mismo arco capaz.
Los triángulos A y B son semejantes. Es decir, serían semejantes si el dibujo estuviera bien hecho.
Newton andaba tratando de resolver el problema de la atracción gravitoria entre los astros, sabiendo que las masas puntuales satisfacen la ley del inverso del cuadrado de la distancia. Los planetas y las estrellas son asimilables a bolas sólidas que pueden considerarse compuestas de capas esféricas al igual que una cebolla. El genio inglés sabía que le bastaba resolver el problema para una esfera hueca cuya masa está repartida homogéneamente en su superficie. El caso más sencillo de tratar es la evaluación de la fuerza atractiva cuando la masa está dentro de la esfera, que no responde a una situación astronómica.
El arco azul azul atraería al punto P con la misma fuerza, pero opuesta, que el arco rojo si la intensidad fuera inversamente proporcional a la distancia.
La solución del problema viene dada por una lectura adecuada de la semejanza de los triángulos enfrentados con la que hemos comenzado la sección. Si el ángulo que forman las cuerdas entre sí es pequeño, podemos cambiar los sendos lados de los triángulos por arcos de circunferencia. Si cada arco (A, B) atrajera al punto P con una fuerza inversamente proporcional a la distancia a la que se encuentra, ambas fuerzas se compensarían por la semejanza de los triángulos anteriormente descrita. Como la circunferencia se puede descomponer completamente en pares de arcos similares, la fuerza neta sobre el punto P es nula. Ahora bien ¿no era la Ley de Gravitación proporcional al cuadrado del inverso de la distancia? Si abandonamos en contexto plano para ir al espacial, en lugar de arcos de circunferencia tendremos casquetes de esfera. Las áreas son proporcionales al cuadrado de las longitudes, por lo que la compensación se producirá si la fuerza es inversamente proporcional al cuadrado de la distancia. Ahora todo cuadra.
Página de la edición en español de los Principia de Newton donde discute la atracción dentro de una esfera homogénea (Tecnos 2011).
Insistamos en que la diferencia entre los triángulos rectilíneos y los que usan arcos de circunferencia es que los primeros son realmente semejantes, mientras que los segundos sólo lo son de manera aproximada. Esta aproximación es mejor cuanto más estrecho es el ángulo, lo que viene a ser como sustituir el arco de circunferencia por su cuerda en el razonamiento. Esto es un argumento de tipo infinitesimal como los que ya empleaba Arquímedes en el cálculo de áreas, volúmenes y centros de masa. Después de Newton, los métodos infinitesimales se sistematizaron dando lugar a la rama de las Matemáticas llamada Análisis.
En el estudio del efecto gravitatorio de las esfera homogénea sobre un punto exterior es útil notar que se vuelve a producir una semejanza de triángulos, tal como indica el dibujo. Se puede deducir de ello que el arco más lejano atrae con la misma fuerza que el más cercano. Sin embargo, aún quedaría algo de trabajo por hacer hasta poder deducir, como hizo Newton, que la atracción neta de la esfera homogénea sobre un punto exterior es equivalente a la que produciría toda la masa de la esfera así estuviera concentrada en su centro.
Página de la edición en español de los Principia de Newton donde discute la atracción dentro de una esfera homogénea (Tecnos 2011).
El universo confinado en un círculo
Al comienzo de este post hemos mencionado, y apelado, al Postulado de la Paralelas, uno de los axiomas sobre los que se fundamenta la Geometría plana clásica. Una característica común de los sistemas axiomáticos en Matemáticas es tratar de ser lo más escuetos posible: si algo puede deducirse de principios más básicos, no debe estar en la lista de axiomas. Durante mucho tiempo se pensó que el Postulado de la Paralelas era demasiado complicado para ser un principio fundamental y debía de ser consecuencia de los otros axiomas. Sin embargo, en el siglo XIX varios matemáticos llegaron a la conclusión de que era indispensable porque existen «geometrías planas» diferentes de la euclídea que cumplen todos los axiomas menos el Postulado de las Paralelas. ¿Cómo es posible tener otras geometrías planas? Realmente, lo que llamamos geometría plana no son los dibujos con los que ilustramos los resultados, sino dos conjuntos de objetos, «puntos» y «rectas», que satisfacen unas ciertas relaciones de incidencia descritas por los axiomas. En principio, los «puntos» no tienen por qué parecer puntos, ni las «rectas» parecer rectas.
Libro fundamental, nunca mejor dicho, para la Geometría y el Método Axiomático en Matemáticas, edición en español del CSIC 1991.
Un descubrimiento notable del siglo XVII, la llamada Geometría Proyectiva, que encuentra sus raíces en el estudio renacentista de la perspectiva en dibujo y pintura. En Geometría Proyectiva plana no existen las paralelas: dos rectas diferentes siempre se cortan en un único punto, al igual que por dos puntos diferentes pasa una única recta. Los axiomas de la Geometría Proyectiva son simétricos respecto al papel que juegan puntos y rectas, de tal manera, que si uno demuestra un resultado y después cambia en su enunciado puntos por rectas y rectas por puntos, el enunciado resultante será automáticamente cierto. En otras palabras, si tratando de interpretar un teorema de Geometría Proyectiva de un libro escrito en sueco, confundimos puntos con rectas y viceversa en el texto, no lo notaremos. Sin embargo, no es la Geometría Proyectiva nuestro objetivo, ya que en ella no hay ni métrica ni ángulos, ni mucho menos, paralelismo.
Ejemplo de resultados duales en Geometría Proyectiva plana (F. Enriques, Lecciones de Geometría Proyectiva, EEE Madrid 1946). Quien desee saber como sigue el enunciado (y la prueba) puede verlo aquí.
Carl F. Gauss, Janos Bolyai y Nikolai Lobachevski descubrieron de manera independiente la Geometría Hiperbólica, Gauss antes que los otros dos, aunque no lo publicó. En la Geometría Hiperbólica hay distancias y ángulos, pero no se cumple el Postulado de las Paralelas. Una forma relativamente sencilla de construir un modelo del plano hiperbólico es la siguiente: tomemos un círculo al que llamaremos «disco», los puntos interiores del disco serán los puntos del plano hiperbólico y los arcos de circunferencia contenidos en el disco y perpendiculares a su frontera serán las «rectas» del plano hiperbólico. Hay otras construcciones, pero la que acabamos de describir es la que más ha inspirado al artista neerlandés M. C. Escher.
Ángeles y Demonios, no de Dan Brown, sino de Escher, teselando el plano hiperbólico.
El siguiente dibujo (abajo) muestra una «triangulación» del plano hiperbólico. Realmente cada supuesto triángulo está delimitado por tres rectas y todas las rectas que aparecen son mutuamente paralelas: en efecto, son arcos de circunferencia perpendiculares a la frontera del disco y que no se cortan en el interior. A pesar de ser el disco un objeto limitado para nuestra intuición euclídea, cada triángulo es infinito (desde el punto de vista hiperbólico) y se requiere, además, un número infinito de triángulos para rellenarlo. Se oye entre mis lectores una voz que dice: – ¡Normal! Si cada vez son más pequeños…-. Pero, insisto, eso vuelve a ser nuestra intuición euclídea tratando de orientarse en un universo que no es el suyo.
«Triangulación» del plano hiperbólico representado como un disco.
De hecho, todos esos triángulos tienen las mismas dimensiones y son simétricos unos de otros desde el punto de vista de la Geometría Hiperbólica. Esta simetría hiperbólica se puede llevar a cabo mediante una operación euclídea llamada “inversión”. Dada una circunferencia de radio r, el inverso respecto a ella de un punto P distinto del centro O, es otro punto P* situado en el mismo radio (O, P, P* están alineados y O no está entre los otros dos) tal que el producto de OP por OP* es r2. Como el inverso de P* es, a su vez, P decimos que P y P* son simétricos entre sí respecto a la circunferencia. En el caso que nos ocupa del disco hiperbólico, cada par de triángulos contiguos puede ser llevado el uno en el otro mediante una inversión respecto a la circunferencia cuyo arco comparten como lado. Asombrosamente, el disco se aplica en sí mismo por la inversión. La clave de esto está en un dibujo, que apareció hace rato, completado con otra circunferencia.
Respecto a la circunferencia mayor, los puntos A y B’ son simétricos. También los puntos B y A’, y todos los puntos de la circunferencia menor agrupados convenientemente por pares. El motivo es la constancia del producto de distancias a O que se deduce de la semejanza de los triángulos AOB y A’OB’.
La triangulación mostrada en el dibujo del disco hiperbólico tiene una peculiaridad. Imaginemos que en cada lado separando dos triángulos se abre una puerta que permite ir de un triángulo al otro. Ahora, supongamos que partiendo de cierto triángulo, hemos hecho un viaje cruzando un buen número de puertas sin volver atrás. Pues bien, si queremos volver al punto de partida la única forma de hacerlo es desandar el recorrido realizado. Debido a que la inversión, ligeramente modificada, es una función compleja holomorfa (no quiero dar definiciones excesivamente técnicas), la triangulación hiperbólica es la clave de un profundo teorema de É. Picard: una función holomorfa no constante definida en el plano complejo toma todos los valores, excepto posiblemente uno. La idea de esta prueba consiste en suponer que deja de tomar dos valores, lo que permitiría, sabiendo algo más de Análisis Complejo, almacenar convenientemente todos sus valores en los triángulos del plano hiperbólico para convertirla, momentáneamente, en una función inyectiva. Hay otras pruebas del teorema de Picard, pero carecen de la belleza caleidoscópica del plano hiperbólico.
La frontera metálica de Mr. Green
La fuerza entre cargas eléctricas, al igual que la gravedad, también responde a la ley del inverso del cuadrado de la distancia. Sin embargo, hay varias diferencias. Una de ellas es que la fuerza puede ser repulsiva o atractiva dependiendo del signo de las cargas. Una determinada distribución de cargas eléctricas se manifiesta en cualquier punto del espacio como un efecto (fuerza) sobre una carga test que se sitúe sobre dicho punto. Este noción recibe el nombre de campo eléctrico y se puede abordar matemáticamente por medio de una función llamada potencial. Dada una distribución de cargas, se puede hallar el potencial que genera usando una integralde volumen. Y, a su vez, dado el potencial se puede recuperar la densidad de carga por medio de la llamada ecuación de Poisson.
La ecuación de Poisson al estilo matemático contiene el signo menos y 4pi, pero no contiene la constante de permitividad del vacío (que alegremente suponemos igual a 1). Los físicos suelen evitar las dos primeras en la propia definición del potencial.
Pero otra de las diferencias que el campo eléctrico tiene respecto al gravitatorio es la existencia de los llamados “conductores”. Se trata de materiales por los que las cargas se pueden mover libremente, de manera que el potencial en ellos es siempre constante al poco de situarlos en un campo eléctrico estático. Esto se traduce en que las cargas se sitúan en la superficie del conductor: la ecuación de Poisson arroja valor cero para la densidad de carga en el interior. Es más interesante conocer la función potencial en el espacio libre de conductores y cargas al que llamaremos dominio. Tratar de conocer el potencial a partir de la ecuación diferencial que satisface y el valor que toma en la frontera de su dominio, se conoce como Problema de Dirichlet.
Efecto del campo eléctrico sobre cuerpos conductores, ilustración de G. Bruhat – Électricité, Masson, Paris 1956. Las líneas de campo son perpendiculares a los conductores por su superficie tiene potencial constante.
Del Problema de Dirichlet se sabe que tiene solución única, cuando la tiene. Pero no se sabe si tiene solución en general, si bien los matemáticos no han cesado en su empeño de resolverlo. George Green propuso una fórmula que solamente requería determinar una función dependiente del dominio (llamada función de Green en su honor) con ciertas propiedades especiales. Para construirla, era preciso demostrar que el campo producido por una carga en el interior del dominio coincide en la frontera del dominio con otro campo producido por cargas fuera del dominio. Green tuvo la siguiente idea: supongamos que la frontera del dominio es un conductor, en cuyo caso las cargas se moverán por la frontera para compensar el campo producido por la carga puntual. Así, el campo sobre la frontera será constante, y si se conecta a una toma de tierra, se puede hacer la constante igual a cero. De esta manera, «galvanizando» el conjunto y con ayuda de cables, estableció Green la resolubilidad del problema de Dirichlet.
Enunciado del Problema de Dirichlet en el espacio.
Naturalmente, el rigor de las Matemáticas tal como las entendemos ahora no admite el razonamiento de Green: no se puede probar un teorema de Geometría basándose en que los triángulos están hechos de madera, por ejemplo. El propio Dirichlet erró en sus razonamientos al apelar a la intuición física. Dirichlet formuló el problema en términos equivalentes a la minimización de cierta cantidad interpretable como una energía, el así llamado Principio de Dirichlet. Si bien la Naturaleza es un ejemplo de sostenibilidad porque se rige por principios de mínima energía, el razonamiento tampoco es admisible como Karl Weierstrass señaló, afeándole la conducta al mismísimo Bernhard Riemann. Los métodos desarrollados por los matemáticos de finales del siglo XIX para eliminar la heurística física de las pruebas de existencia de soluciones dieron lugar al Análisis Funcional.
Las línea desde cada punto de la circunferencia a B (azul) miden el doble que la correspondiente línea hacia A (roja).
Para acabar este post volveremos a la Geometría elemental con la que comenzamos viendo como se puede utilizar para resolver el problema de Dirichlet para el círculo, o la esfera, dependiendo de las dimensiones. No escribiremos la fórmula de Green, que no viene al caso, sino que veremos como evitar el «razonamiento eléctrico». Asumamos que el efecto de la carga es inversamente proporcional a la distancia (no es el caso de la fuerza, pero sí el del potencial en tres dimensiones). Si dos puntos A y B son simétricos respecto a una circunferencia, ocurre una curiosa propiedad: desde cada punto de la circunferencia las distancias a A y B guardan una misma relación constante. En el dibujo, el cociente de distancias a B entre las distancias a A es 2. Eso implica, en particular, que si en A hubiera una carga eléctrica, su efecto sobre los puntos de la circunferencia sería el mismo que si situamos el doble de carga sobre B.
No daré la prueba del último argumento empleado… pero quien quiera detalles podrá encontrarla en este excelente libro, ya clásico, de Pedro Puig Adam
Conclusión
Con este post he querido mostrar la unidad de las Matemáticas y su continuidad en el tiempo. Resultados relativamente modernos como el Teorema de Picard o la solución del Problema de Dirichlet para el círculo entroncan directamente con las propiedades métricas de las circunferencias que estudiaba Euclides dos milenios antes. Circunferencias y esferas siguen estando en el centro de las Matemáticas. No en vano, las últimas palabras de Arquímedes antes de que un soldado romano le quitara la vida (para disgusto de Marcelo, todo hay que decirlo) fueron: Noli turbare circulos meos! (¡No toquéis mis círculos!).
¡Qué no cunda el pánico! No voy a dar una lección sobre la elipse partiendo de cero. Para eso ya está la Wikipedia e innumerables blogs didácticos. Este post será sólo una reflexión sobre esta curva clásica, en el que contaré algunas curiosidades. Una cosa… si esto fuera una conferencia con un público con el que pudiera interactuar (en tiempo real), añadiría detalles que aquí he omitido de manera deliberada. Espero que estas ausencias no sean un problema para el lector que sepa leer entre líneas.
Enciclopedia de Grado Medio de la editorial Dalmau Carles Pla (Gerona 1950) en la que estudió mi padre. El dibujo de la izquierda ilustra la definición métrica de la elipse.
La elipse y yo
Es un hecho comúnmente aceptado que los libros de texto escolares van reduciendo su contenido (y aumentando su precio) año tras año. Esto ya debía de ser cierto hace por lo menos cuatro décadas porque los libros de mis hermanos, que son mayores que yo, o incluso los de mi padre, parecían más interesantes que los míos (hablaremos algún día de esta manía de privar de información a los niños en el cénit de su curiosidad). Con esos libros abandonados por sus usuarios que recuperé del trastero monté mi «primera biblioteca» en El Cañarico, en la que pasaba largas horas hojeándolos. En esos libros supe por primera vez de la elipse.
Aprendí que la elipse, junto con la parábola, la hipérbola y la circunferencia (realmente un caso particular de la elipse), son las llamadas curvas cónicas porque se obtienen como secciones de un cono (de revolución). Esto lo sabía Apolonio de Perga en el s. III de nuestra era, pero a mí me resultaba muy extraño… ¿Cómo es posible que un corte oblicuo del cono sea una curva con dos líneas de simetría (una de ellas es evidente) en lugar de una figura ovoide? Sólo había una forma de comprobarlo… cortar un cono.
Exin Castillos, foto tomada de Wikipedia.
Y así hice. Corté con un serrucho uno de los tejados cónicos que cubren las almenas de un popular juego de construcción de castillos en los años 70. Aparte de destrozar una pieza que ahora sería bastante valiosa entre los coleccionistas frikis, el experimento no me convenció mucho. Podría haber «seccionado» más cómodamente el cono proyectando oblicuamente el haz de luz de una linterna en sobre una pared. Años después aprendí como hacer eso mismo con Geometría Analítica, que reduce los objetos geométricos elementales a ecuaciones algebraicas.
Esquema del argumento de Dandelin, tomado de Courant-Robins ¿Qué es la Matemática? (Aguilar 1979)
Si pudiera viajar al pasado, le contaría a mi joven yo el argumento de Dandelin, la elegante demostración con Geometría elemental de que la sección oblicua (pero no más oblicua que la generatriz) de un cono de revolución satisface la definición métrica de la elipse. Los focos resultan ser los puntos donde dos esferas adecuadas tocan el plano (mejor dicho, son tangentes) que realiza la sección. Todo lo que hay que saber es que si desde un punto se traza una recta tangente a una esfera, la distancia al punto de tangencia no depende la recta escogida. El argumento se puede adaptar igualmente a la hipérbola y la parábola, por lo que Germinal P. Dandelin alcanzó la gloria redemostrando hechos conocidos durante más de 1500 años.
Ilustración del libro «Algebra lineal y algunas de sus aplicaciones» de L.I. Golovina (MIR 1983) que muestra los efectos de una transformación afín consistente en un acortamiento horizontal (x 1/3) y un alargamiento vertical (x 2). Así podemos convertir un cocodrilo en un monstruo de Dungeons and Dragons.
Después de haber estudiado matemáticas tantos años me sigo sorprendiendo con algunas cosas. Por ejemplo, el hecho elemental de que aplicando a la circunferencia una transformación afín siempre se obtenga una elipse. ¿Qué tiene esto de sorprendente? Me explico. Una transformación afín deforma el plano según dos direcciones no necesariamente perpendiculares, estropeando distancias y ángulos (un cuadrado puede transformarse en cualquier paralelogramo). Sin embargo, aplicada la transformación afín a una circunferencia, el resultado es siempre una elipse, con sus dos ejes perpendiculares y sus notables propiedad métricas. Más aún, esto que acabo de decir es sólo un caso particular de que cualquier forma cuadrática puede expresarse canónicamente (únicamente combinaciones lineales de cuadrados de las variables) mediante una transformación ortogonal en cualquier dimensión.
El mecánico celeste
El paso del sistema geocéntrico de Ptolomeo al heliocéntrico de Copérnico no sólo simplificó la comprensión de la dinámica planetaria, sino que también marcó el momento en el que Ciencia y Religión debían tomar caminos diferentes (es bien sabido que el «divorcio» se llevó unos años: eppur si muove). En el sistema de Copérnico los planetas giraban alrededor del sol el órbitas circulares. Johannes Kepler estudió los datos recopilados minuciosamente por Tycho Brahe y llegó a la conclusión de que las órbitas de los planetas realmente son elípticas y el sol ocupa uno de los focos. Esta es la primera ley de Kepler. La segunda ley describe la variación de la velocidad para un planeta en su órbita elíptica, y la tercera relaciona la duración del «año» para dos planetas diferentes en función del tamaño de la órbita.
Posiblemente el libro más importante de la historia de la Ciencia (edición en español, Tecnos 2011)… puesto disputado con «El origen de las especies» de Darwin.
Isaac Newton inventó el Cálculo Infinitesimal (derivadas, integrales, series de potencias, ecuaciones diferenciales…), descubrió las Leyes de la Mecánica, descubrió la Ley de Gravitación Universal explicando el funcionamiento del sistema solar, descompuso la luz explicando así los colores y la formación del arco iris, construyó el telescopio reflector tal como se usa hoy día en los grandes observatorios y en el Hubble… Nunca se ha contribuido más a la Ciencia (ni a la Humanidad) trabajando en solitario entre cuatro paredes. Aún así, de vez en cuando aparece algún «iluminado» de la autoayuda diciendo que todos podemos ser genios, que tenemos el mismo potencial y que desarrollarlo es cuestión de motivación… bullshit!
Parte de Los Principios Matemáticos de Filosofía Natural donde Newton trata la relación entre la ley del inverso del cuadrado de la distancia y las órbitas según curvas cónicas.
Un día de agosto de 1684, Edmund Halley (el dude del cometa) le preguntó a Newton cómo serían las trayectorias de los planetas si estos fueran atraídos por el sol con una fuerza inversamente proporcional al cuadrado de la distancia que los separa. Newton le dio la solución al instante: elipses. Asombrado, Halley le preguntó la razón para ello. Newton le dijo simplemente «lo he calculado». Newton sabía todo eso, y más, desde 1666. Hoy conocemos que uno de los motivos por los que Newton fue tan prudente, por así decirlo, es que estaba intentando resolver el problema de la atracción gravitatoria entre esferas sólidas (y no masas puntuales) que es lo que son, aproximadamente, los grandes astros. Halley insistió a Newton para que publicara sus descubrimientos y llegó a financiar de su bolsillo la edición de los «Philosophiæ naturalis principia mathematica» (el latín era la lengua científica, como hoy día lo es el inglés).
Lápida bajo la que reposan los resto de Newton, en la Abadía de Westminster. Cerca de Newton están otros físicos como Lord Kelvin, James C. Maxwell, Paul Dirac y Stephen Hawking. A poca distancia está también Charles Darwin, que debe aburrirse mucho con sus vecinos.
La imaginería popular representa a Newton bajo un manzano contemplando la caída de la fruta o, peor aún, siendo golpeado por ella. La grandeza de Newton consiste en haberse dado cuenta que la fuerza que hace caer la manzana es la misma que mantiene «atada» la Luna alrededor de la Tierra; que la Luna traza una órbita cerrada alrededor de la Tierra porque está «continuamente cayendo» sobre ella; que lo mismo ocurre con la Tierra y los otros planetas que giran alrededor del sol; y que la gravedad es la fuerza que mueve la máquinaria del universo, más allá de donde puede llegar a mirar con su telescopio reflector.
La lección perdida de Feynman
Hacia el final de La Novena Puerta, adaptación cinematográfica del Club Dumas de Arturo Pérez Reverte, el protagonista, interpretado por Johnny Depp, regresa al establecimiento de los hermanos Ceniza en Toledo. Allí se encuentra con unos obreros que están desmontando el local y, mientras estos mueven un pesado armario, una lámina vuela suavemente desde lo alto del mueble hasta sus pies: se trata de la página (con un grabado) que completa el libro por el que Boris Balkan (el villano de la historia) ha estado matando a lo largo de la película (spoiler, sorry).
Portada de mi ejemplar de «Feynman’s lost lecture», por D.L. Goodstein y J.R. Goodstein.
Más o menos, así podría haber ocurrido, cuando Judith R. Goodstein entró en el despacho de Robert B. Leighton, profesor retirado de Caltech, mientras estaban desalojando sus cosas para reutilizar el espacio: apareció una carpeta polvorienta que contenía la lección perdida de Feynman. Leighton, junto con Matthew Sands, había sido el encargado de transcribir las lecciones de Física que Richard Feynman impartió en Caltech entre 1961 y 1963, y que dieron lugar a una aclamada obra muy usada en primeros cursos universitarios. Esa lección extraviada de Feynman, que no había sido incluida en el libro, trataba sobre las órbitas de los planetas.
Edición conmemorativa de «The Feynman Lectures on Physics», o la manera de conciliar el amor a la Ciencia con la bibliofilia.
La manera moderna de resolver el problema de las órbitas planetarias consiste en escribir las ecuaciones del movimiento en coordenadas polares (las leyes de conservación ayudan en esta tarea), cambiar la variable r (distancia al origen de la fuerza) por 1/r y observar como la ecuación, salvo una constante es la del oscilador armónico. La Geometría Analítica nos permite identificar ahí la elipse en términos de las coordenadas polares. El problema real, con dos masas, es más complicado porque ambas se mueven, pero puede ser reducido con un truco matemático a una sola masa atraída desde un punto inmóvil. Sin embargo, la introducción de una tercera masa complica infinitamente el sistema (problema de los tres cuerpos).
Uno de los dibujos del libro «Feynman’s lost lecture».
Curiosamente, Feynman aborda el problema de las órbitas de los planetas siguiendo los pasos de Newton, con Geometría a la antigua usanza. Pero Feynman, al igual que Newton, era un genio y aportó su original visión a la demostración de la primera ley de Kepler. En lugar de estudiar únicamente la trayectoria del planeta (elipse), trazó el diagrama vectorial de las velocidades demostrando que estas se sitúan sobre una circunferencia, pero parten de un punto entre el centro y el borde de ésta. La trayectoria del planeta se recupera como la envolvente de una familia de rectas que ilustran la propiedad de que cualquier tangente a la elipse forma ángulos iguales con los dos segmentos que parten del punto de tangencia a los focos. No es mi intención entrar en detalles aquí, pero se puede decir que hay, en cómo argumenta aquí Feynman, una cierta reminiscencia de las ideas con las ideas que él mismo expone (o trata de exponer) de manera elemental la Electrodinámica Cuántica, teoría por la que obtuvo el Nobel en 1965.
En ocasiones veo elipses
La relación geométrica entre la circunferencia y la elipse empleada por Feynman puede ser usada para obtener elipses como experimento casero. Tome un disco circular de papel, marque un punto que no sea el centro ni esté en el borde y doble el papel de manera que el borde del disco se sitúe sobre el punto marcado. Esto se puede hacer de infinitas maneras, pero bastan unos cuantos dobleces bien repartidos para que la elipse comience a aparecer como envolvente de estos. El centro de la circunferencia y el punto marcado serán los focos de la elipse así obtenida.
Experimento casero para obtener un elipse como envolvente de líneas dadas por dobleces en el papel. Están marcados el centro de la circunferencia y el punto elegido. Tiempo de realización (incluyendo cortar el disco) 5 minutos.
Pero aunque no las busque en libros o las fabrique en papel, no puedo evitar seguir viendo elipses cuando salgo a la calle. Las veo incluso en la charcutería: los chorizos o salchichones de grandes dimensiones son aproximadamente cilíndricos, y cortados al bies producen sabrosas elipses. El argumento de Dandelin es mucho más sencillo de seguir para una sección cilíndrica (animo al lector a que lo haga) mientras disfruta un buen bocadillo de salchichón ibérico.
Sección elíptica producida en un salchichón ibérico (foto de Internet).
También, en un día soleado (o con una fuente de luz puntual), sobre una chapa de acero inoxidable arañada aleatoriamente o el capó de un coche con la pintura gastada por el tiempo, los arañazos iluminados forman patrones elípticos. La explicación es sencilla conociendo algunos conceptos: los arañazos que se iluminan son los que están contenidos en planos que son tangentes a algún elipsoide cuyos focos son la fuente luminosa y nuestro ojo. Las elipses formadas como envolventes de arañazos iluminados resultan ser la intersección de la superficie (arañada) con la familia de elipsoides confocales mencionada (prometo escribir en algún momento las cuentas para mis colegas de profesión).
Reflejo con arañazos en una chapa de acero inoxidable (foto de Internet hasta que pueda hacer una suficientemente buena del capó de mi coche).
La propiedad de reflexión de la elipse, o el elipsoide, respecto a los focos no solamente ocurre para la luz, sino también para el sonido. Existen varios lugares en el mundo donde se puede experimentar un curioso fenómeno: dos personas en lugares opuestos de una espaciosa sala llena de gente relativamente ruidosa pueden conversar entre ellos en susurros hablando y escuchando a la pared. Uno de esos lugares es la Sala de los Secretos de la Alhambra de Granada, pero hay más como puede consultar aquí. La bóveda elipsoidal, no sólo permite la adecuada reflexión del sonido, sino que además los diferentes trayectos de las ondas tienen la misma longitud. Esto contribuye a que el sonido no se distorsione. El paraboloide de revolución es esencialmente un elipsoide con un foco infinitamente alejado, por lo que goza de propiedades similares para: la luz (espejos cóncavos, faros halógenos), otras ondas electromagnéticas (antenas parabólicas) y ondas sonoras (micrófonos de escucha a larga distancia de los espías).
Para acabar, haré una pequeña mención a la Geometría de los espacios de Banach, mi tema de investigación en Matemáticas. Un cubo (hexaedro) cortado de manera conveniente, produce un hexágono regular. Todos podemos estar de acuerdo en que un hexágono regular está más cerca de ser «redondo» que un cubo. Si «cortáramos» con un plano un cubo en cuatro o más dimensiones (esto es difícil de imaginar, lo reconozco) podríamos obtener un poliedro regular con más lados que aproxima mejor a la circunferencia. El matemático israelí A. Dvoretzky demostró en 1961 que un cuerpo convexo simétrico en espacio n-dimensional al ser cortado aleatoriamente por un plano que pase por su centro producirá con una probabilidad alta elipses aproximadas, siendo más aproximadas y la probabilidad más alta a medida que la dimensión n crece.