ENTRADAS

26 jun 2017

INTRODUCCIÓN HISTÓRICA AL ANÁLISIS FUNCIONAL

ESPACIOS DE HILBERT EN MECÁNICA CUÁNTICA

Durante el primer apartado discutiremos las principales motivaciones que llevaron a unificar la teoría matemática conocida como Análisis Funcional. La ciencia, desde sus orígenes, posee dos caracteres: el empírico y el teórico. El primero de ellos es el que nos lleva a adquirir hipótesis sobre comportamientos generales que pueden ser contrastadas con un sólido soporte abstracto, que conforma el segundo carácter. Sin embargo, por su rápida adquisición, fue el primero el que se desarrolló con anterioridad.

Dieudonne

Dieudonne

En el caso particular del Análisis Funcional, surge como respuesta a una serie de problemas físicos de finales del s. XIX y comienzos del s. XX, los cuales supusieron un cambio de la perspectiva de la Física de aquel tiempo, y por ello el marco matemático en el que desenvolverse no iba a ser menos expuesto a la innovación.

Soluciones de ecuaciones diferenciales

Sería conveniente comenzar con una prematura aunque bastante precisa definición de J. Diedonne del Análisis Funcional como

…el estudio de los espacios vectoriales topológicos y de las aplicaciones definidas entre subconjuntos de los mismos, sujetas a distintas condiciones algebraicas y topológicas.

En ella, se aprecia la cada vez mayor presencia del Álgebra en el Análisis, así como la inconmensurable influencia de la Topología en dicha rama. Por otra parte, algunas de las motivaciones del estudio de nuevos problemas surgen dentro del propio Análisis, concretamente dentro del Cálculo Diferencial, considerando la estructura del espacio de soluciones de una ecuación diferencial; a modo de ejemplo sirva la ecuación de ondas unidimensional

Bernouilli

Bernouilli

\frac{\partial^2 u}{\partial x^2}=\frac{\partial^2 u}{\partial t^2},\quad u(x,0)=\varphi(x),\,\frac{\partial u}{\partial t}(x,0)=\phi(x),

El principio de superposición de J. Bernouilli (1750) afirma que la solución general es de la forma

u(x,t)=\sum_{n=1}^{+\infty}a_n sen{(nx)} cos{(n(t-b_n))}

para convenientes \{a_n\}_{n\in\mathbb{N}} y \{b_n\}_{n\in\mathbb{N}}. En un lenguaje moderno, esto significa que el conjunto de soluciones de la anterior ecuación es un espacio vectorial generado por una familia numerable de funciones.

Ejemplo de solución de la ecuación del calor.

Ejemplo de solución de la ecuación del calor.

Sistemas de infinitas ecuaciones
Fourier

Fourier

Como parte de la algebrización del Análisis, podríamos destacar los sistemas de infinitas ecuaciones lineales. Esta idea de pasar de métodos algebraicos sobre conjuntos finitos a considerar ecuaciones funcionales como casos límites de ecuaciones algebraicas (cuya solución es más sencilla) fue utilizada por J. B. Fourier para obtener soluciones de la ecuación del calor en su trabajo “La theorie analytique de la chaleur” (1822)

\frac{\partial^2 u}{\partial x^2}+\frac{\partial^2 u}{\partial y^2}=0,\quad (x,y)\in\mathbb{R}^{+}\times]-\frac{\pi}{2},\frac{\pi}{2}[

con las condiciones de contorno u(x,-\frac{\pi}{2})=0=u(x,\frac{\pi}{2}) y u(0,y)=1. El método de separación de variables nos determina que

u(x,y)=\sum_{n=1}^{+\infty}a_n u_n(x,y) donde u_n(x,y)=e^{-(2n-1)x}\cos{(2n-1)y},\quad a_n=\frac{4}{\pi}\frac{(-1)^{n-1}}{2n-1}

Resaltaremos que la contribución de Fourier no sólo fue novedosa por el método de obtener tal solución, para la cual también fueron convenientes los trabajos de L. Lagrange al respecto, sino que reside en el hecho de que aportó una nueva forma de entender el concepto de convergencia, más tarde profundizado por A. L. Cauchy, esencialmente.

Riesz

Riesz

Este método de Fourier de truncar series fue muy importante en relación con el problema de resolver infinitas ecuaciones lineales; sin embargo, como en la mayoría de estos procesos analíticos, una nueva concepción del concepto de solución será precisa a la hora de poder adaptar las situaciones que se dan en el caso finito. Por ejemplo, si tomamos en el sentido tradicional el sistema infinito \sum_{n=k}^{+\infty}x_n=1,\quad k\in\mathbb{N}, sus soluciones truncadas son obviamente (0,0,\ldots,1), que convergen a (0,0,\ldots0,\ldots), lo cual no puede ser. No fue hasta la aparición del trabajo de F. Riesz Les systemes d’equations linéaires à une infinité d’inconnues” (1913) cuando se le pudo conceder un marco teórico satisfactorio.

Nacimiento de la teoría espectral

La herencia del trabajo de Fourier a través del método de separación de variables condujo directamente al estudio de ecuaciones diferenciales del tipo y''-q(x)y+\lambda y=0, donde \lambda es un parámetro complejo, q(x) es real y la función incógnita es de clase \mathcal{C}^2([a,b]) junto con las condiciones de contorno \alpha_1y(a)+\beta_1y'(a)=0,\quad \alpha_2y(b)+\beta_2y'(b)=0. Los matemáticos Ch. Sturm (1836) y J. Liouville (1837) desarrollaron una teoría general para abordar este tipo de problemas, llamados desde entonces, problemas de Sturm-Liouville.

Sturm

Sturm

La principal contribución de Sturm fue la demostración de que el problema planteado sólo tiene solución para una sucesión estrictamente creciente \{\lambda_n\}_{n\in\mathbb{N}} de valores reales del parámetro \lambda (los autovalores del problema), con los que se fundamenta la teoría espectral. Las propiedades de ortogonalidad de las correspondientes autofunciones \{u_n\}_{n\in\mathbb{N}} llevaron a Liouville a tratar de generalizar el desarrollo en serie de Fourier, y expresar cualquier función continua u como una serie \sum_{n\in\mathbb{N}}a_nu_n, donde a_n=\frac{\int u\,u_n}{\int u_n^2}.

Liouville

Liouville

Liouville logra demostrar la convergencia de la serie siempre que la serie de Fourier de u sea convergente. Finalmente, la demostración de que U=\sum_{n\in\mathbb{N}}a_n u_n coincide con u se reduce a probar que si \int_a^b (U-u)\,u_n=0,\,\forall n\in\mathbb{N}, entonces U=u, primera muestra de la propiedad de completitud de un sistema ortonormal), lo que consigue probar para condiciones muy restrictivas. Buena parte de los analistas de la época se centraron en desarrollar estas técnicas en otro tipo de ecuaciones en derivadas parciales con tres o más incógnitas.

Cálculo de variaciones

Bajo esta terminología se recogen problemas en los que se trata de minimizar (o maximizar, aquí siempre haremos referencia por fijar notación al problema de mínimo) una expresión del tipo \Phi(x)=\int_a^b L(t,x(t),x'(t))\,dx donde x satisface una serie de condiciones de regularidad (concretamente es de clase \mathcal{C}^2) y con unas condiciones de contorno x(a)=c,\,x(b)=d. Para ello es preciso entonces modificar el concepto de extremo relativo a uno que sea compatible con la estructura del espacio que consideramos; entenderemos como tal al que para toda función \eta\in\mathcal{C}^2([a,b]) con h(a)=h(b)=0 cumpla que \Phi(x)\leq \Phi (x+\varepsilon h), para todo \varepsilon>0. Este tipo de funciones h parece natural denominarlas perturbaciones de la función original. Tendremos entonces que (en terminología actual) la derivada en el sentido de Gateaux de \Phi en x es cero, de donde

\begin{array}{ccl}{\displaystyle \left.\frac{d}{d\varepsilon}\right|_{\varepsilon=0}\Phi[x+\varepsilon h](t)} & = &  {\displaystyle\left.\frac{d}{d\varepsilon}\right|_{\varepsilon=0}\int_0^1L(t,x(t)+\varepsilon h(t),x'(t)+\varepsilon h'(t))\,dt }\\ & = &{\displaystyle \int_0^1 \left(\frac{\partial L}{\partial x}h(t)+\frac{\partial L}{\partial \xi}h'(t)\right)\,dt }\\ & = & {\displaystyle \int_0^1 \frac{\partial L}{\partial x}h(t)\,dt+\underbrace{\left[ \frac{\partial L}{\partial h'}h(t) \right]_0^1}_{=0}-\int_0^1\frac{d}{dt}\left(\frac{\partial L}{\partial \xi}\right)h(t)\,dt }\\ & = &  {\displaystyle \int_0^1 \frac{\partial L}{\partial x}h(t)\,dt-\int_0^1\frac{d}{dt}\left(\frac{\partial L}{\partial \xi}\right)h(t)\,dt }\\ & = & {\displaystyle \int_0^1 \left(\frac{\partial L}{\partial x}(t,x(t),x'(t))-\frac{d}{dt}\frac{\partial L}{\partial \xi}(t,x(t),x'(t))\right)h(t)\,dt}\end{array}

Usando el lema fundamental del cálculo de variaciones, llegamos a la ecuación de Euler-Lagrange:

\frac{\partial L}{\partial x}(t,x(t),x'(t))-\frac{d}{dt}\frac{\partial L}{\partial \xi}(t,x(t),x'(t))=0

Weierstrass

Weierstrass

Hasta ahora, todo parecía indicar que una extensión del tipo de razonamientos empleados en el caso de funciones reales era razonable. Sin embargo, fue K. Weierstrass quien puso de manifiesto la necesidad de redefinir más conceptos aparte del de extremo relativo. Por ejemplo (Weierstrass,1870), tras minimizar la expresión \Phi(x)=\int_{-1}^1 [t^2x'(t)]^2\,dx entre las funciones de clase 1 en [-1,1] con x(-1)=a\ne b=x(1), no existe ninguna en la que alcance tal valor. En efecto, para cada \varepsilon>0, la función x_{\varepsilon}(t)=\frac{1}{2}(a+b)+\frac{1}{2}(b-a)\frac{\text{arctan}(t/\varepsilon)}{\text{arctan}(1/\varepsilon)} es admisible y cumple que \lim_{\varepsilon\rightarrow 0}\Phi(x_{\varepsilon})=0, luego \inf{\Phi(x)}=0. Sin embargo, si x\in\mathcal{C}^1([-1,1]) y \Phi(x)=0, de la continuidad de x' resulta que ha de ser x'=0 en [-1,1], con lo cual x es constante pero, como era a\ne b, no existe función alguna admisible. Otro problema que atrajo la atención de muchos matemáticos del siglo XIX relacionado con el cálculo de variaciones fue el Problema de Dirichlet

Ecuaciones integrales
Abel

Abel

El ejemplo quizás más influyente en el establecimiento del Análisis Funcional es el de las ecuaciones integrales. Motivado (como muchas otras ramas) por un problema físico, N. Abel resolvió en 1823 la ecuación f(x)=\int_0^x\frac{\phi(x)}{\sqrt{x-y}}\,dy relacionada con la tautócrona. En notación contemporánea, diríamos que ésta es una ecuación integral de primera especie, ya que la función incógnita \phi aparece sólo bajo el signo integral. Posteriormente apareció, mediante una interpretación física del problema de Dirichlet (obtención de un potencial correspondiente a una capa de dipolos normal en cada punto de una superficie \Lambda del dominio \Omega.), llegó a una ecuación para obtener una cierta función de densidad \sigma sobre \Lambda como \sigma(x)+\int_a^b k(x,y)\sigma(y)\,dy=f(x), siendo k un núcleo continuo y simétrico, y f una función dada sobre \Lambda. Este tipo de ecuaciones, en las que la incógnita aparece tanto dentro como fuera de la integral, se conocen como ecuaciones integrales de segunda especie

Tomando como K el operador integral definido sobre un conveniente espacio de funciones, la ecuación anterior resulta ser (I+K)\sigma=f, cuya solución formal es

\sigma=(I+K)^{-1}f=\sum_{n=0}^{+\infty}(-1)^nK^n\,f.

Sobre esta idea fue en la que Beer utiliza el método de las aproximaciones sucesivas:

\sigma_0=f,\quad\sigma_n=(-K)\sigma_{n-1}=(-K)^nf

Sin embargo, fue C. Neumann quien aportó unos primeros resultados de convergencia de tal serie (1877) para dominios convexos y acotados. El establecimiento de esta rama como teoría general y la obtención de sus primeros resultados generales vino dada por J.M. Le Roux (1894) y V. Volterra (1896).

Fredholm

Fredholm

La persona que tuvo el mayor impacto sobre este Área e interesó a matemáticos de su época fue sin duda I. Fredholm. En 1900 publicó una nota titulada “Sur une nouvelle méthode pour la résolution du problème de Dirichlet”, que causó un enorme impacto. De forma resumida, y siguiendo unas ideas previas de Poincaré, introduce un parámetro complejo \lambda en la última ecuación y la escribe como f(x)+\lambda\int_a^bk(x,t)f(x)\,dt=g(x) para estudiar las propiedades de la solución en función de \lambda. Considerando una partición de [a,b] \{y_j\}_{j=1}^n, sustituimos integrales por sumas de Riemann

f(y_j)+\lambda\frac{b-a}{n}\sum_{i=1}^nk(y_i,y_j)f(y_i)=g(y_j),\quad 1\leq j\leq n.

A continuación se usa una fórmula de Von Koch para escribir el determinante del sistema como

 1+\lambda\frac{b-a}{n}\sum_{i=1}^nk(y_i,y_j)+\lambda^2\frac{(b-a)^2}{2!n^2}\sum_{k_1,\,k_2}\left|\begin{array}{cc}k(y_{k_1},y_{k_1}) & k(y_{k_1},y_{k_2})\\k(y_{k_2},y_{k_1}) & k(y_{k_2},y_{k_2}) \end{array}\right|+\ldots

Si hacemos tender n a infinito, formalmente las sumas se convierten en integrales y obtenemos el determinante del núcleo:

\Delta(\lambda)=1+\lambda\int_a^bk(s,s)\,ds+\frac{\lambda^2}{2!}\int_a^b\int_a^bK\left(\begin{array}{cc}s_1&s_2\\s_1&s_2\end{array}\right)\,ds_1\,ds_2+\ldots

Tras un estudio análogo a la teoría de sistemas de ecuaciones lineales, concluye que:

  • Si \Delta(\lambda_0)\ne 0, la ecuación tiene solución única f=(I-\lambda_0R_{\lambda_0})g, donde R_{\lambda_0} es el operador integral de núcleo r(x,y,\lambda_0)=\frac{D(x,y,\lambda_0)}{\Delta(\lambda_0)}.
  • La ecuación tiene solución única para cada función g si, y sólo si, la ecuación homogénea posee solamente la solución trivial, lo que es equivalente a que \Delta(\lambda_0)\ne 0.

Como consecuencia del principio del máximo de funciones armónicas, Fredholm deduce además que el problema de Dirichlet tiene solución única para todo dominio \Omega acotado del plano con frontera suficientemente regular.

Aportaciones de los principales autores

David Hilbert
Hilbert

Hilbert

Tras las contribuciones de Fredholm, D. Hilbert se interesó por el tema y publicó seis artículos sobre ecuaciones integrales entre 1904 y 1910, que pasamos a detallar a continuación.

En el primero, siguiendo el razonamiento de Fredholm para ecuaciones de segunda especie, llega más lejos introduciendo las formas cuadráticas

Q_n(x)=\sum_{i=1}^n\sum_{j=1}^nK(x_i,x_j)x_ix_j,

y las reduce a sus ejes principales. A continuación, demuestra que el paso al límite conduce a la obtención de al menos un autovalor (en términos modernos, el inverso de un autovalor) de la ecuación integral, prueba la ortogonalidad de las funciones \psi_n y \psi_m correspondientes a autovalores distintos, y generaliza el teorema de reducción de ejes principales de una cuádrica:

\int_a^b\int_a^b k(x,y)f(x)h(y)\,dxdy=\sum_{n=1}^{+\infty}\frac{1}{\lambda_n}(f,\psi_n)(h,\psi_n),

donde

(f,\psi_n)=\int_a^b f(s)\psi_n(s)\,ds

son los coeficientes de Fourier de la función f respecto al sistema ortogonal normalizado (\psi_n), (\psi_n,\psi_m)=\delta_{nm} y el segundo miembro de esta ecuación converge uniformemente cuando \int_a^b f^2\leq 1,\,\int_a^b g^2\leq 1; esto es, pertenecen a la bola unidad de L^2([a,b]).

Los trabajos segundo y tercero de Hilbert sobre Ecuaciones Integrales se dedican a aplicar los resultados a distintos problemas de contorno en ecuaciones diferenciales y a la teoría de Sturm-Liouville.

En el resto es donde aparece el espíritu actual del Análisis Funcional y la Teoría Espectral. En efecto, introduce la noción de sistema ortogonal completo de funciones como una sucesión (\psi_n) de funciones continuas en [a,b] tal que (\psi_n,\psi_m)=\delta_{nm} y que cumple la relación de completitud:

(f,g)=\sum_{n\in\mathbb{N}}(f,\psi_n)(g,\psi_n)

para todo par de funciones continuas f y g. Considerando los coeficientes de Fourier

k_{pq}=\int_a^b\int_a^bk(x,y)\psi_p(x)\psi_q(y)\,dxdy,\quad b_p=(g,\psi_p),\quad x_p=(f,\psi_p)

los (x_p) satisfacen el sistema infinito

x_p+\sum_{n\in\mathbb{N}}k_{pn}x_n=b_p,\quad p\in\mathbb{N}.

 

John von Neumman

Las mayores contribuciones de Neumann a la mecánica cuántica son su desarrollo del entorno matemático de la teoría y su estudio formal a través de la física estadística, procesos de medida cuánticos y su relación. Mientras que sus últimos estudios fueron completados en 1927 (salvo por el teorema ergódico en 1929), el trabajo Mathematical foundations of quantum mechanics culminó en 1929 con el teorema espectral para operadores maximales simétricos en espacios de Hilbert.

neumann

Neumann

En la época en la que Neumann comenzó sus investigaciones en el marco formal de la mecánica cuántica, eran conocidas dos formulaciones: la mecánica matricial de Heisenberg, Born y Jordan, y la mecánica de ondas de Schrödinger. La equivalencia matemática de ambas fue probada por este último matemático, y ambas fueron más tarde enmarcadas en un contexto más general conocido como Teoría de Transformación, desarrollada por Dirac y Jordan. Aunque Neumann intentó al principio, en colaboración con Hilbert y Nordheim, edificar el formalismo de esta nueva ciencia en lineas similares, pronto encontraron una línea más natural de proveer un entorno natural a estos nuevos conceptos mediante la teoría axiomática de los espacios de Hilbert y los operadores lineales. A pesar de que las funciones delta de Dirac y sus derivadas fueron débilmente consideradas en su época, fue L. Schwartz quien las acogió con pleno sentido en su teoría de distribuciones.

Una característica esencial de los espacios de Hilbert para la formulación de la mecánica cuántica es que las cantidades físicas más importantes como la posición, momento o energía venían representados por operadores herméticos no acotados. Puesto que la predicción teórica de medidas hace esencial el uso de una resolución espectral del operador representando tales cantidades, Neumann trató en primer lugar de extender la conocida teoría espectral a tal tipo de operadores, que encontró su solución en 1929. Para ello, introdujo el concepto de operador simétrico hipermaximal, siendo el operador hermitiano más general sobre el que es aplicable una resolución espectral.

Otra contribución de Neumann a la teoría cuántica fue el teorema que nos indica (bajo condiciones de irreducibilidad y tras una conveniente reformulación) que las reglas de conmutación Q_jP_k-P_kQ_j=\hbar i\delta_{jk} determinan los operadores \{Q_j\}_{j=1}^n y \{P_k\}_{k=1}^n de forma única excepto para una transformación arbitraria. Aunque no es frecuentemente conocido como tal, este teorema atribuido inicialmente a Dirac y Stone es fundamental para la comprensión de muchas investigaciones en este área donde el Análisis Matemático emplea únicamente estas reglas en la forma anterior o en su equivalente en teoría de campos

 A_jA_l^{*}-A_l^{*}A_j=\hbar\delta_{jl},\quad \sqrt{2}A_j=P_j-iQ_j.

Dentro de lo que podríamos entender como aspectos estadísticos de la teoría cuántica, es a Neumann a quien se le debe esta interpretación. Este contexto abarca el resultado de la medida de una cantidad física en un sistema en un cierto estado cuántico  y expresando su distribución de probabilidad en términos de una sencilla fórmula que contiene el vector que representa el estado y la resolución espectral del operador que representa tal cantidad. Para ello introdujo el concepto de matriz estocástica, convirtiéndose rápidamente en una de las mayores herramientas de la mecánica estadística, y es por ella por la que su nombre fue tan extendido entre los científicos de la época.

En el mismo artículo Neumann investiga también un problema que es actualmente una línea de trabajo activa, a saber, la descripción teórica de un proceso de medida cuántica y los elementos que conlleva. Concretamente, aportó el equivalente cuántico S=-k\text{Sp}(\rho\log{(\rho)}),\quad \rho\text{ matriz estocastica}, de la bien conocida fórmula de entropía S=-k\int f\log{(f)}\,d\omega , donde f es la función de distribución en el espacio físico.

Más tarde, expresó la matriz de densidad para una temperatura T

 \rho=Z^{-1}\exp{(-H/kT)},\quad Z=\text{Sp}[\exp{(-H/kT)}]

donde H es el operador de Hamilton. Todo este trabajo fue publicado por Neumann en el libro anteriormente citado, que se ha convertido en la mayor referencia para estudiar los fundamentos matemáticos de la mecánica cuántica.

Stefan Banach
Banach

Banach

Las contribuciones a las que se ha ido haciendo referencia preparan el camino para el desarrollo de una teoría general de espacios normados, funcionales y de operadores lineales entre ellos. Esto aconteció en la tesis de S. Banach, en cuya introducción Banach declara su intención de demostrar una serie de resultados válidos para distintos campos funcionales, con un cierto toque de brillantez:

El objetivo de este trabajo es demostrar algunos teoremas que son ciertos

para diferentes espacios funcionales (champs fonctionneles). En lugar de

probar los resultados para cada espacio funcional particular, he optado por

enfoque diferente: considero en general un conjunto de elementos abstractos, para los que postulo una serie de propiedades y demuestro los teoremas

para esos conjuntos. Entonces pruebo que los distintos espacios funcionales

particulares en los que estoy interesado, satisfacen los axiomas postulados…

Tal marco general es lo que hoy conocemos como espacio normado completo. Banach da la definición de espacio vectorial real, normado y completo, y comprueba que numerosos campos funcionales verifican esos axiomas. Seguidamente, pasamos a discutir lo que hoy se conoce como principios fundamentales del Análisis Funcional.

  • Principio de acotación uniforme: en su tesis, Banach prueba el principio de la acotación uniforme para una sucesión de operadores lineales entre espacios de Banach. La continuidad del límite puntual de la sucesión la derivó de un resultado general sobre puntos de continuidad de los límites puntuales de una sucesión de funciones continuas; i.e., el método sliding hump. En 1927, Banach y Steinhaus probaron el resultado para una familia arbitraria de operadores entre espacios de Banach, extendiendo un teorema de Baire a espacios de Banach y comenzando así la aplicación de técnicas de categoría de Baire al Análisis Funcional.
  • Teorema de Hahn-Banach: en 1927, H. Hahn prueba que toda forma lineal continua sobre un subespacio de un espacio de Banach real se puede extender al total conservando su norma. Su demostración utiliza por primera vez la inducción transfinita en lugar de la ordinaria. Dos años más tarde, Banach redescubre el teorema de extensión de Hahn con una demostración similar.
  • Teorema de la aplicación abierta: una versión previa de este resultado aparece en el mencionado artículo de 1929 de extensión. La versión general para espacios de Frêchet aparece en el libro Théorie dés operations linéaires aparecido en 1932. Según Dieudonne es, de hecho, el resultado más destacable de tal libro. Banach también obtiene como consecuencia el Teorema de la Gráfica Cerrada y, a lo largo del libro, muchas aplicaciones de estos resultados a distintos problemas del Análisis y la Física Matemática.

Pascual Jordan

Pascual_Jordan_1920s

Pascual Jordan 1920s

A lo largo de estas notas ya se ha mencionado a P. Jordan por sus aportaciones a algunos aspectos de la mecánica cuántica; sin embargo, sus contribuciones son mucho más notorias hasta tal punto que fue candidato al premio Nobel de física en 1954. Junto con Max Born y Werner Heisenberg fue coautor de una serie importante de artículos sobre Mecánica cuántica. Prosiguió hasta convertirse en uno de los pioneros de la Teoría cuántica de campos, para interesarse luego por la Cosmología, antes de la Segunda Guerra Mundial, en la que fue rechazado por numerosas instituciones y personalidades por su marcada actitud política.

Por otra parte, el Álgebra de Jordan no asociativa se llama así en honor suyo. Se definió como un intento de crear un Álgebra de observables para la mecánica cuántica y la teoría cuántica de campos. Actualmente este objetivo se trata con más frecuencia mediante las Álgebras de von Neumann. Por su parte, las Álgebras de Jordan se aplican en geometría proyectiva y en la teoría de números.

Bibliografía

  • Bombal, Functional analysis: a historical perspective. Seminar of Mathematical Analysis, 2002-2003. Secretariado de Publicaciones Universidad de Sevilla (2003), 81-117. http://eprints.ucm.es/20122/1/bombal77.pdf
  • https://projecteuclid.org/download/pdf_1/euclid.bams/1183522374
  • https://arxiv.org/pdf/hep-th/0303241.pdf

AUTOR: ANTONIO ZARÁUZ MORENO

Más entradas del autor para FdeT

Si quieres participar en el blog como colaborador en alguna de las secciones o realizar alguna pregunta para que un especialista te responda, envíanos un email a info@fdet.es

Grupo FdeT

Compartir:
Facebooktwittergoogle_pluslinkedin

Leave a Reply

A %d blogueros les gusta esto: