You are currently browsing the category archive for the ‘Álgebra’ category.

El viernes 13 de noviembre de 2014 murió Alexander Grothendieck, un genio matemático a la altura de los mas grandes, capaz de reformular el solo toda una área de las matemáticas desde sus mismos cimientos: la geometría algebraica. Sobre el escribí lo siguiente en esta entrada que dediqué al premio Abel del año pasado:

Alexander Grothendieck es el siguiente personaje importante en el área, pues reescribió la geometría algebraica subsumiendo el concepto de variedad algebraica en el de esquema, entendiendo que cualquier anillo conmutativo puede ser un objeto geométrico, dotando de esta manera, de un nuevo lenguaje y una fundamentación, mucho mas potente que la de Weil, para la geometría algebraica.

A pesar de su abstracción, o precisamente por ella, esta última visión es la que ha permanecido, pues permite conectar dos mundos, el de la geometría algebraica y el de la álgebra conmutativa.

Una anécdota que he leído en estos días, que muestran el despertar de su genialidad es la siguiente. Cuando empezó a trabajar en su tesis doctoral bajo la supervisión de Laurent Schwartz y Jean Dieudonné, dos de los mejores matemáticos de la época, le entregaron una lista con 14 problemas para que escogiera uno en el que trabajar los tres o cuatro años siguientes. A los pocos meses los había resuelto todos.

Cosechas y Siembras. Reflexiones y testimonios sobre un pasado de matemático, obra de su puño y letra y, según sus propias palabras:

…una reflexión sobre mí mismo y mi vida. Por eso mismo también es un testimonio…

da una visión de la profundidad e inmensidad de su pensamiento. Algunos extractos de la misma:

.Sus doce “grandes ideas” (su aportación a las matemáticas):

  1. Productos tensoriales topológicos y espacios nucleares.
  2. Dualidad “continua” y “discreta” (categorías derivadas, “seis operaciones”).
  3. Yoga Riemann-Roch-Grothendieck (teoría K, relación con la teoría de intersecciones).
  4. Esquemas.
  5. Topos.
  6. Cohomología étal y l-ádica.
  7. Motivos y grupo de Galois motívico (\otimes-categorías de Grothendieck).
  8. Cristales y cohomología cristalina, yoga “coeficientes de De Rham”, “coeficientes de Hodge”…
  9. “Algebra topológica”:\infty-campos, derivadores; formalismo cohomológico en los topos, como inspiración para una nueva álgebra homotópica.
  10. Topología moderada.
  11. Yoga de geometría algebraica anabeliana, teoría de Galois-Teichmüller.
  12. Punto de vista “esquemático” o “aritmético” en los poliedros regulares y las configuraciones regulares de todo tipo.

.Metaforas:

“Habló sobre dos tipos de matemáticos, el que abriría una nuez con martillo y cincel y el que, pacientemente, la sumerge en agua y espera, con el paso de los meses, a que el líquido penetre y se pueda partir cerrando la mano sin más”.

“Lo ignoto que quiere ser conocido se me presentaba como una porción de tierra, o una dura magra, resistiéndose a la penetración… El océano avanza insensible en silencio, nada parece suceder, nada se mueve, el agua está tan lejos que apenas puedes escucharlo… Y sin embargo finalmente rodea la sustancia resistente”.

.Importancia de las preguntas, nociones y puntos de vista frente a las respuestas propiamente dichas:

Es realmente por el descubrimiento sobre todo de preguntas nuevas, de nociones nuevas, o aún de puntos de vista nuevos, o de nuevos “mundos”, que mi obra matemática ha resultado ser fecunda, más que por las “soluciones” que he aportado a preguntas ya planteadas. Esta pulsión muy fuerte que me lleva hacia el descubrimiento de las buenas preguntas, más que hacia el de las respuestas, y hacia el descubrimiento de buenas nociones y enunciados, mucho más que hacia el de las demostraciones, son otros trazos “yin” fuertemente marcados en mi aproximación a las matemáticas

.Sensibilidad en el manejo del lenguaje e invención de nueva terminología:

Desde un punto de vista cuantitativo, a lo largo de mis años de productividad intensa, mi trabajo se ha concretado sobre todo en unas doce mil páginas de publicaciones, bajo la forma de artículos, monografías o seminarios, y por medio de centenares, si no miles, de nociones nuevas que han entrado en el patrimonio común, con los nombres mismos que les había dado al despejarlas [dégagées]. En la historia de las matemáticas, creo ser aquel que ha introducido en nuestra ciencia el mayor número de nociones nuevas y, a la vez, ser aquel que se ha visto llevado a inventar el mayor número de nombres nuevos, para expresar esas nociones con delicadeza y de la manera más sugestiva posible.

Un resumen en  http://finiterank.com/docs/grothendieck-zalamea.pdf:

Una sitio web dedicado a Grothendieck: http://www.grothendieckcircle.org/

Cuando trabajamos en \mathbb{K}^n, con \mathbb{K}=\mathbb{R} o \mathbb{K} = \mathbb{C}, podemos hacerlo en distintos sistemas de coordenadas. Por ejemplo, en \mathbb{R}^2 puedo trabajar en coordenadas cartesianas (x,y) o en coordenadas polares (r,\theta); 0 en \mathbb{R}^3 lo puedo hacer en cartesianas (x,y,z), en cilíndricas (r,\theta,z) o en esféricas (r,\theta,\varphi).

En el cálculo vectorial, en la geometría diferencial o en las ecuaciones en derivadas parciales, lo que hacemos es trabajar con el concepto de diferenciación y lo hacemos en el espacio tangente, que como tiene estructura de espacio vectorial, dispone del concepto de base:

(x,y) \longrightarrow \{ \partial_x, \partial_y \},

(r,\theta) \longrightarrow \{ \partial_r, \partial_\theta \},

(x,y,z) \longrightarrow \{ \partial_x, \partial_y, \partial_z \},

(r,\theta,z) \longrightarrow \{ \partial_r, \partial_\theta, \partial_z \},

(r,\theta,\varphi) \longrightarrow \{ \partial_r, \partial_\theta, \partial_\varphi \},

y es aquí donde tienen sentido las bases holonómicas, todas las anteriores, los cambios de base que comentamos en este post. Las compactificaciones de aquí, por contra, solo tienen sentido al especificar el sistema de coordenadas.

Para nuestras ecuaciones en derivadas parciales, el primer paso será fijar que coordenadas utilizamos en la variedad (compactificaciones) y, hecho esto, determinar que base (holonómica, ortonormal, etc.) queremos utilizar en su fibrado tangente. Por ejemplo, podríamos tener:

(r, \theta, \varphi) \longrightarrow (\partial_r, \frac{1}{r} \partial_\theta, \frac{1}{r \sin \theta} \partial_\varphi),

porque nos resulta comodo tener una bases ortonormal en el espacio tangente.

En la geometría de Riemann, podemos calcular una connexión \nabla a partir de su tensor métrico (la conexión de Levi-Civita). Esta derivación covariante es libre de torsión, por lo que el tensor de Ricci R_{\alpha \beta} debe ser simétrico. Hoy el profesor Juan Antonio Morales me ha introducido en la geometría de Riemann-Cartan, donde el tensor de Ricci puede ser asimétrico gracias a la existencia de un campo de torsión afín sobre la variedad. Lo que tenemos entonces es una conexión de Cartan.

Parece ser que esto permite el intercambio, para la conservación total del momento, entre espín y momento angular orbital.

Básicamente, podemos pensar la geometría diferencial desde el punto de vista de las bases coordenadas (naturales u holonómicas), donde los conmutadores (las derivadas de Lie \mathcal{L}_X Y := [X,Y] entre los campos coordenados, que intuitivamente miden la diferencia entre el arrastre del segundo campo mediante el primero respecto de su valor real en el punto final) son nulos, o pensarla desde el punto de vista de bases no coordenadas formadas por n campos vectoriales cualesquiera, si estamos en dimensión n, donde los corchetes de Lie ahora no son nulos.

Todo esto enlaza con este post y la manera de calcular los coeficientes de la conexión \gamma^{i}_{\phantom{i}jk}, introducidos en este post, para una base dada.

La fórmula para los símbolos de la conexión de Levi-Civita en una base \{e_i\} cualquiera es:

\gamma^{l}_{\phantom{l}jk} = \frac{1}{2} g^{lm} (e_k(g_{mj}) + e_j(g_{mk}) - e_m(g_{jk}) + c_{mjk} + c_{mkj} - c_{jkm}),

donde:

c_{jkm} = g_{mi}c_{jk}^{\phantom{jk}i} y [e_j,e_k] = c_{jk}^{\phantom{jk}i} e_i.

En una base coordenada \{ \partial_i \} tenemos que c_{mjk} = c_{mkj} = c_{jkm} = 0, por lo que:

\Gamma^{l}_{\phantom{l}jk} = \frac{1}{2} g^{lm} (\partial_k(g_{mj}) + \partial_j(g_{mk}) - \partial_m(g_{jk})),

mientras que en una base ortonormal \{ \hat{e}_i\} tenemos que \hat{e}_i(g_{jk}) = 0 y, por tanto:

\hat{\gamma}^{l}_{\phantom{l}jk} = \frac{1}{2} \eta^{lm} (c_{mjk} + c_{mkj} - c_{jkm}).

Ya hace casi dos meses que no escribo nada en el blog :-(. Es hora de añadir algo.

El Block Cyclic Reduction es un algoritmo rápido para resolver sistemas de ecuaciones de manera directa cuya matriz tiene estructura tridiagonal por bloques.

Supongamos que tenemos una discretización de un volumen mediante cinco puntos para las x, tres puntos para las y y siete puntos para las z (necesitamos que sean números impares).

Para la dimensión z tenemos:

A_3 = \left(  \begin{array}{ccccccc}  6 & -1 & 0 & 0 & 0 & 0 & 0 \\  -1 & 6 & -1 & 0 & 0 & 0 & 0 \\  0 & -1 & 6 & -1 & 0 & 0 & 0 \\  0 & 0 & -1 & 6 & -1 & 0 & 0\\  0 & 0 & 0 & -1 & 6 & -1 & 0 \\  0 & 0 & 0 & 0 & -1 & 6 & -1\\  0 & 0 & 0 & 0 & 0 & -1 & 6  \end{array}  \right)

-I_3 =\left(  \begin{array}{ccccccc}  -1 & 0 & 0 & 0 & 0 & 0 & 0 \\  0 & -1 & 0 & 0 & 0 & 0 & 0 \\  0 & 0 & -1 & 0 & 0 & 0 & 0 \\  0 & 0 & 0 & -1 & 0 & 0 & 0 \\  0 & 0 & 0 & 0 & -1 & 0 & 0 \\  0 & 0 & 0 & 0 & 0 & -1 & 0 \\  0 & 0 & 0 & 0 & 0 & 0 & -1  \end{array}  \right)

Para la dimensión y no queda:

A_2 = \left(  \begin{array}{ccc}  A_3 & -I_3 & 0 \\  -I_3 & A_3 & -I_3 \\  0 & -I_3 & A_3  \end{array}  \right); \,\,\, -I_2 = \left(  \begin{array}{ccc}  -I_3 & 0 & 0 \\  0 & -I_3 & 0 \\  0 & 0 & -I_3  \end{array}  \right)

Y, finalmente, para la dimensión x obtenemos:

A_1 = \left(  \begin{array}{ccccc}  A_2 & -I_2 & 0 & 0 & 0 \\  -I_2 & A_2 & -I_2 & 0 & 0 \\  0 & -I_2 & A_2 & -I_2 & 0 \\  0 & 0 & -I_2 & A_2 & -I_2 \\  0 & 0 & 0 & -I_2 & A_2  \end{array}  \right).

Ahora todo es fácilmente generalizable a n dimensiones x_1, x_2, \ldots, x_n con t_1, t_2, \ldots, t_n puntos en cada dimensión, ya que nos queda A_i una matriz tridiagonal por bloques con t_i \times t_i bloques donde cada uno está formado por matrices A_{i-1} en la diagonal, -I_{i-1} arriba y debajo de la diagonal y 0 en el resto, todas de dimensión t_{i-1} \times t_{i-1} con i=1,\ldots, n. En A_n tenemos el stencil (-1,2n,-1).

En el caso que estamos tratando, para cada fila par de A_1 podemos multiplicarla por A_2 y sumarla a las filas impares anterior y posterior, de manera que eliminamos las variables pares:

-v^1_{j-2} + ((A_2)^2 - 2I_2)v^1_j - v^1_{j+2} = b^1_{j-1} + A_2 b^1_j + b^1_{j+1},

(el ^1 hace referencia a las x y no corresponde a potencias… Para resolver las k impares simplemente:

A_2 v^1_k = b^1_{k} + v^1_{k-1} + v^1_{k+1}. )

Y resulta que definiendo B_2:=(A_2)^2 - 2 I_2, nos queda una matriz B_1 de la misma estructura que A_1, por lo que podemos aplicar este metodo de manera recursiva hasta llegar a tener una sola ecuación (para esto, no basta con que tengamos un número impar de nodos, necesitamos algo como N=2^{k+1}-1).

Llegados a este punto, si estamos con v^n, resolvemos como queramos, pero si estamos en otra variable v^i con i\neq n, la matriz vuelve a tener la misma estructura, pero con una dimensión menos, y volvemos a aplicar el mismo algoritmo.

Tenemos dos lugares distintos donde aplicar recursividad: el primero por ir agrupando de tres en tres las ecuaciones de una dimensión de trabajo (A_i \rightarrow B_i \rightarrow \ldots \rightarrow F_i, F por poner algo :-)); el otro cuando, llegados a una sola ecuación aplicando la recursividad anterior, nos quedan mas dimensiones por resolver (B_{j+1}, B_{j+2}, \ldots ).

Un salto cualitativo en las matemáticas se produce al introducir las estructuras algebraicas: un conjunto de elementos con unas operaciones cumpliendo ciertas propiedades, ya que nos permiten abstraernos de los objetos concretos y sacar conclusiones generales a partir de las propiedades que cumplen, de manera que podemos demostrar teoremas que seran tan validos en los enteros como en los polinomios, por decir algo.

Los elementos pueden ser números (\mathbb{N}, \mathbb{Z}, \mathbb{Q}, \mathbb{R}, \mathbb{C}, …) o no (polinomios, matrices, funciones, …). Las operaciones (o leyes de composición) pueden ser internas (la suma, el producto, la composición, …) o externas (producto por escalar, …) y las propiedades son la asociatividad, la existencia de neutro, de inverso, la conmutatividad, distributividad, etc.

Pero como en las matemáticas siempre podemos abstraer mas, podemos convertir a las propias estructuras algebraicas en nuevos objetos de estudio e intentar buscar que tienen en común entre ellas, dando origen al álgebra universal.

En el álgebra universal tenemos categorías. Una categoría \mathcal{C} está formada por:

  • Obj(\mathcal{C}): un conjunto de objetos, que denotaremos mediante X, Y, \ldots

Una q-forma o una forma multilineal \Phi (una métrica, por ejemplo, es una 2-forma, una forma bilineal) es invariante si es invariante por la izquierda, o sea, si L_a^* \Phi = \Phi (recordar que L_a es un desplazamiento en el grupo G, (L_a)_* es un desplazamiento en el espacio tangente TG y L_a^* lo es en el espacio cotangente T^*G) e invariente por la derecha. Son, por tanto, invariantes respecto a las transformaciones del grupo adjunto.

En el caso de formas bilineales, \Phi es invariante si:

\Phi(Ad(a) u, Ad(a) v) = \Phi(u,v),

o, lo que es lo mismo, si:

\Phi([w,u],v) + \Phi(u,[w,v]) = 0.

Cuando un grupo de Lie admite una forma bilineal simétrica invariante definida positiva o negativa, entonces su álgebra de Lie es equivalente a un espacio euclideo con métrica g(u,v) = \Phi(u,v). Son las álgebras de Lie compactas, y se corresponden con los grupos de Lie compactos.

La forma de Killing es un ejemplo importante de forma bilineal simétrica invariante:

B(u,v) = tr (ad(u) ad(v)),

que, en componentes, queda:

B(u,v) = g_{ij} u^i u^j. Como (ad(u))^i_j = c^i_{kj}u^k, entonces g_{ij} = c^k_{is} c^s_{jk}.

Por ejemplo, la forma de Killing del grupo GL(n,\mathbb{K}) quedaria:

B(u,v) = 2n\,tr(uv) - 2\,tr(u)\,tr(v),

que es degenerada. Para hallarla, tomamos la base de matrices E^\alpha_\beta (matrices con todas las componentes a cero excepto en la componente de fila \alpha y  columna \beta que contiene la unidad) del álgebra de Lie correspondiente y como:

ad(u) E^\alpha_\beta = (\delta^\alpha_\sigma u^\tau_\beta - \delta^\tau_\beta u^\alpha_\sigma) E^\sigma_\tau,

entonces:

ad(u) \cdot ad(v) E^\alpha_\beta = (\delta^\alpha_\sigma u^\tau_\gamma v^\gamma_\beta + \delta^\tau_\beta v^\alpha_\gamma u^\gamma_\sigma - u^\alpha_\sigma v^\tau_\beta - v^\alpha_\sigma u^\tau_\beta) E^\sigma_\tau.

Una representación lineal de un grupo G es un homomorfismo \varphi de G en el grupo de Lie GL(\mathbb{V}) donde \mathbb{V} es un espacio vectorial que se puede asociar de manera natural a GL(n,\mathbb{K}) escogiendo una base. Podemos hablar entonces de la acción del grupo G sobre el espacio vectorial \mathbb{V} de la que, con la base, tenemos una representación matricial.

Un homomorfismo \varphi es una aplicación entre grupos \varphi: G \longrightarrow G' que conserva el producto \varphi(ab) = \varphi(a)\varphi(b). Hablamos de automorfismo cuando G = G'.

Por ejemplo, si consideramos:

\varphi: GL(n,\mathbb{K}) \longrightarrow \mathbb{K}_0 \,/\, \varphi(A) = \det A,

entonces \det A es un polinomio respecto de las componentes de A, por lo que es analítica, y es homomorfismo de grupos de Lie ya que:

\det AB = \det A \det B.

Además, su nucleo son aquellas matrices con \det A = 1, por lo que \ker \varphi = SL(n,\mathbb{K}), el grupo lineal especial. Si calculamos ahora su diferencial, con las reglas de diferenciacion de un determinante y calculando su valor en la unidad de GL(n,\mathbb{K}) tenemos:

det_* U = tr U,

por lo que tenemos un homomorfismo del algebra de Lie \mathfrak{gl}(n,\mathbb{K}) sobre el álgebra \mathbb{K} cuyo núcleo, las matrice de traza nula, es el ideal \mathfrak{sl}(n,\mathbb{K}).

En el estudio de las representaciones destacan los caracteres de las representaciones. Dada una representación \varphi, el carácter de esta es

\chi_\varphi(a) = tr \varphi(a).

que no depende de la base.

Sea G un grupo de Lie y \mathfrak{g} su álgebra de Lie. El conjunto Aut(G) de los automorfismos de G es un grupo de Lie si G es conexo.

Dos elementos x y x' diremos que son conjugados si:

x' = a x a^{-1}.

Los automorfismos internos son aquellos automorfismos que relacionan elementos conjugados. Sus diferenciales se denotan mediante Ad(a) con a \in G y forman un subgrupo de Lie: el grupo adjunto Ad(G) \subset Aut(\mathfrak{g}).

Si \varphi_* es la diferencial del homomorfismo \varphi, dado un campo vectorial u(a) invariante por la izquierda en G entonces \varphi_* u es un campo vectorial invariante por la izquierda de G', por lo que todo homomorfismo de grupos de Lie genera un homomorfismo de sus álgebras de Lie ya que:

\varphi_*[u,v] = [\varphi_* u, \varphi_* v].

Construimos la aplicación:

\Phi: Aut(G) \longrightarrow Aut(\mathfrak{g}) \,/\, \varphi \mapsto \varphi_*

que pone en correspondencia cada automorfismo \varphi con su diferencial \varphi_*, que es una representación lineal del grupo Aug(G) en el álgebra de Lie \mathfrak{g}. Si consideramos la diferencial de su restricción a los automorfismos internos, obtenemos:

Ad: G \longrightarrow Aut(\mathfrak{g}) \,/\, a \mapsto Ad(a) = Int_*(a),

que es la representación adjunta del grupo G en el álgebra \mathfrak{g} y que, como todos los automorfismos del álgebra, conserva el conmutador:

Ad(a)[u,v] = [Ad(a)u, Ad(a) v].

Dado el campo vectorial invariante por la izquierda

u(a) = (L_a)_* u del grupo de Lie G,

llamamos trayectorias del campo a la soluciones de la ODE:

\frac{d}{dt}a = u(a),

y que, fijada una condición inicial a(0) = a, la trayectoria queda unívocamente determinada en forma de serie exponencial:

a(t) = \exp (tu) a con \exp(tu) = I + tu + \frac{t^2}{2}u^2 + \ldots,

donde u^r(a) = u(a) \circ u^{r-1}(a).

Las trayectorias:

  1. son analíticas  y esta definidas para todo valor de t por el carácter anaítico y completo de los campos invariantes.
  2. que pasan por la unidad del grupo de Lie, a(0) = e, son grupos uniparamétricos de G, ya que cumplen la propiedad a(s+t)=a(s)a(t). En este caso:

\exp: \mathfrak{g} \longrightarrow G \, / \, u \mapsto \exp u = a(1).

En el caso de GL(n,\mathbb{K}), hemos visto que los campos invariantes a la izquierda tienen la forma:

U(A) = AU con A \in GL(n,\mathbb{K}) y U \in M(n,\mathbb{K}).

El subgrupo uniparamétrico A(t) es la solución a:

\frac{d}{dt}A = AU con A(0)=I,

y que es:

A(t) = \exp(tU) = \Sigma_{s=0}^{\infty}\frac{t^s}{s!}U^s.

De esta manera, tenemos:

\exp: \mathfrak{g}(n,\mathbb{K}) \longrightarrow GL(n,\mathbb{K}) \, / \, A = e^U,

es decir, la exponencial matricial habitual.

En el caso de GL(n,\mathbb{K}), un desplazamiento a la izquierda tiene la forma:

L_A X = AX

donde AX es el producto de matrices y cuya diferenciación, que es lo que nos interesa, es:

(L_A)_* U = AU con U \in M(n,\mathbb{K}).

De esta manera, todo campo vectorial invariante por la izquierda en GL(n,\mathbb{K}) tiene la forma U(A)= AU. Si tomamos como U los elementos e_\alpha^\beta (las matrices con todos los elementos nulos excepto en la fila \alpha-ésima y la columna \beta-ésima que contiene a la unidad), obtenemos una base de estos campos:

e_\alpha^\beta (A) = A e_\alpha^\beta

que son las matrices de orden n donde los elementos no nulos forman la columna \beta-ésima.

Sean U(A)=AU y V(A)=AV un par de campos invariantes por la izquierda. Teniendo en cuenta que:

\frac{\partial}{\partial a_\mu^\nu}a_\alpha^\beta = \delta_\mu^\alpha \delta_\beta^\nu

obtenemos:

[U(A),V(A)] = A(UV-VU).

Tomando A=I, obtenemos un álgebra de Lie que podemos identificarla con el espacio tangente a la unidad del grupo GL(n,\mathbb{K}) que coincide con el espacio M(n,\mathbb{K}) de todas las matrices de orden n con conmutador:

[U,V] = UV-VU,

y que denotaremos mediante \mathfrak{gl}(n,\mathbb{K}).

Las álgebras de Lie aparecen al estudiar los grupos de Lie compactos, aunque adquieren entidad propia dada su importancia en el estudio de los grupos y sus representaciones.

Se utilizan, entre otras cosas, para el análisis de esquemas de ruptura de la simetría gauge, al estudiar el modelo quark de los hadrones, en la reducción dimensional de teorías multidimensionales,…

Dado un grupo de Lie G podemos asociarle un álgebra de Lie \mathfrak{g}. En este post vamos a ver como.

Sea v(x) un campo vectorial en el grupo de Lie G. Diremos que el campo v(x) es invariante por la izquierda si lo es respecto a los desplazamientos a la izquierda:

(L_a)_* v(x) = v(ax) con a \in G.

Antes de seguir, clarifiquemos el significado de la expresión anterior. Para empezar, si a \in G es un elemento del grupo, L_a x = ax representan las traslaciones a la izquierda de valor a. Como v(x) es un campo vectorial, lo que tenemos es una aplicación:

v: G \longrightarrow TG,

donde TG es la variedad tangente a G. Finalmente, para la aplicación:

L_a: G \longrightarrow G

de las traslaciones a izquierda, podemos construir su aplicación diferencial:

(L_a)_*: TG \longrightarrow TG.

De esta manera, todo tiene sentido: como x \in G entonces v(x) \in TG y podemos aplicarle (L_a)_* que nos devuelve un elemento de TG. Por otro lado, ax \in G y v(ax) \in TG.

Con todo lo visto, dado un grupo de Lie G, el subconjunto \mathfrak{g} del conjunto de todos los campos diferenciables \chi(G) en G es un subespacio vectorial. Como:

(L_a)_*[u(x),v(x)] = [(L_a)_* u(x), (L_a)_* v(x)],

entonces \mathfrak{g} es un álgebra de Lie del grupo de Lie G con conmutador [u(a), v(a)].

Ya hemos visto que, dado un espacio vectorial, es fácil dotarlo de estructura de variedad diferenciable. Vamos a ver que podemos dotarlo de mas estructura.

Sea \mathfrak{g} un espacio vectorial. Diremos que \mathfrak{g} es un álgebra de Lie si tenemos definido un conmutador, o sea, una aplicación bilineal

\mathfrak{g} \times \mathfrak{g} \rightarrow \mathfrak{g}

tal que:

  1. [u,v] = -[v,u] para todo u, v \in \mathfrak{g},
  2. cumple la identidad de Jacobi: [u,[v,w]] + [w,[u,v]] + [v,[w,u]] = 0 para todo u, v, w \in \mathfrak{g}.

Si además [u,v]=0 para todo u,v \in \mathfrak{g} entonces tenmos un álgebra de Lie conmutativa.

Un ejemplo muy conocido de álgebra de Lie es el espacio euclideo tridimensional \mathbb{E}^3 donde tomamos como conmutador el producto vectorial. Otro ejemplo que nos interesa, por su relación con los grupos de Lie ya vistos, es el álgebra de Lie lineal general \mathfrak{gl}(n,\mathbb{K}) de las matrices de orden n sobre \mathbb{K} con el conmutador:

[A,B] = AB - BA.

Ya veremos que los grupos de Lie y las álgebra de Lie están estrechamente relacionadas.

Algunas cuestiones mas al respecto:

  • Dadas dos álgebras de Lie \mathfrak{g} y \mathfrak{g'} sobre un mismo cuerpo, diremos que son isomorfas si existe un isomorfismo lineal \varphi: \mathfrak{g} \rightarrow \mathfrak{g'} que conserva el conmutador: \varphi([u,v]) = [\varphi(u),\varphi(v)].
  • Si \{ e_i \} es una base del álgebra de Lie, podemos escribir los conmutadores [e_j,e_k] respecto de esta base: [e_j,e_k] = c_{jk}^i e_i que reciben el nombre de ecuaciones estructurales y los coeficientes c_{jk}^i el de constantes de estructura.

En este post empezamos a ver algunos grupos topológicos importantes en física. Lo que vamos a hacer ahora es, sencillamente, dotarlos de estructura de grupo de Lie.

Para empezar, dado que todos los grupos ya son topológicos, lo único que necesitamos es que sean una variedad diferenciable. Esto no es complicado ya que, por una parte, \mathbb{K}^n es una variedad de dimensión n y clase C^\infty con el atlas \mathcal{A} formado por la única carta \mathcal{A} = \{ id: \mathbb{K}^n \rightarrow \mathbb{K}^n \}, y por otra, por la propiedad que ahora enunciaremos, todo espacio vectorial es una variedad diferenciable:

Sea (M,\mathcal{A}) una variedad diferenciable de dimensión n y clase C^k. Si \mathcal{A} = \{ \Phi_\alpha: U_\alpha \rightarrow \mathbb{K}^n \}_{\alpha \in I} y f: M \rightarrow N una aplicación biyectiva, entonces (N,\mathcal{A}_f) es una variedad diferenciable del mismo tipo, donde:

\mathcal{A}_f = \{ (\Phi_\alpha \circ f^{-1}): f(U_\alpha) \rightarrow \mathbb{K}^n \}_{\alpha \in I}.

Esta propiedad se cumple, en particular, cuando V es un espacio vectorial de dimensión n y base \{ u_1, \ldots, u_n\}, dado que existe un único isomorfismo lineal f: \mathbb{K}^n \rightarrow V determinado por f(e_i) = u_i, donde \{ e_1, \ldots, e_n\} es la base canónica de \mathbb{K}^n.

En resumen, sea M = End_{\mathbb{K}^n}(\mathbb{K}^n) el conjunto de endomorfismos de \mathbb{K}^n en \mathbb{K}^n, entonces es una variedad diferenciable por ser un espacio vectorial. Además, el grupo general lineal también lo es por ser un subconjunto abierto de M. Para los grupos ortogonales y unitarios necesitamos una proposición adional que permite construir grupos de Lie a partir de cocientes.

En el post anterior hemos comentado algunos grupos topológicos, que veremos en posteriores entradas que están dotados de mas estructura (grupos de Lie), que son importantes para la física. Introducimos brevemente aquí el modelo estandar de la física de partículas. Concretamente, estaremos interesados en:

SU(3) \times SU(2) \times U(1),

que hace referencia a las simetrías del lagrangiano correspondiente.

Las partículas tienen masa, espín y carga como características principales.

En el modelo estandar tenemos:

  • 12 fermiones (o partículas de materia) con espín \frac{1}{2}: los 6 leptones (electrón e, muón \mu y tauón \tau con sus respectivos neutrinos \nu_e, \nu_\mu y \nu_\tau), y los 6 quarks (up u y down d, charm c y strange s, top t y bottom b).
  • 4 bosones (o partículas mediadoras de fuerzas) con espín 1: el fotón \gamma para la interacción electromagnética, cuyo grupo gauge es U(1); los bosones W^+, W^- y Z^0 para las interacciones nucleares débiles, con grupo SU(2); y los 8 gluones para la interacción nuclear fuerte, con grupo SU(3).

La siguiente imagen es un excelente resumen de todo lo escrito:

Standard_Model_of_Elementary_Particles-es

Cuando decimos que G es un grupo topológico queremos decir que G, además de cumplir con las condiciones de grupo (operación interna . asociativa con neutro e inversos) también es un espacio topológico separable y las funciones f(a,b)=ab y g(a)=a^{-1} son contínuas (por ejemplo, en el primer caso, para todo entorno W de c = ab existen entornos U y V con a \in U y b \in V tales que UV \subset W ).

El conjunto GL(n,\mathbb{K}) de todas las matrices regulares de orden n con elementos en \mathbb{K}, un cuerpo de característica 0, es un grupo respecto a la multiplicación de matrices: el grupo lineal general.

Es sencillo comprobar que la matriz identidad I es el elemento neutro y que A^{-1} es el inverso de A.

Como los elementos de A = a^{i}_{j} los podemos vectorizar, resulta que GL(n,\mathbb{K}) \subset \mathbb{K}^{n^{2}} tal que \det A \neq 0. Llamaremos topología natural de G a la topología inducida por la topología natural de \mathbb{K}^{n^2}:

U_k = \{ C \in GL(n,\mathbb{K}): |c^{i}_{j} - a^{i}_{j} < \frac{1}{k}| \}

es una base de entornos del elemento A \in GL(n,\mathbb{K}).

Finalmente, las aplicaciones f^{i}_{j}(A,B)=a^{i}_{k} b^{k}_{j} y g^{i}_{j} = \frac{A^{i}_{j}}{det A}, donde A^{i}_{j} son los adjuntos de los elementos a^{i}_{j}, son contínuas por ser polinomios.

Tomando bases, para cualquier \mathbb{K} espacio vectorial \mathbb{V} de dimension n, podemos identificar GL(\mathbb{V}) con GL(n,\mathbb{K}).

Los grupos lineales son subgrupos cerrados de GL(n,\mathbb{K}) que se distinguen por dejar invariante una forma bilineal \Phi. El grupo seudoortogonal O(p,q), el grupo ortogonal O(n) y el grupo ortogonal especial SO(n), que aparecen cuando \mathbb{K}=\mathbb{R} y el grupo seudounitario U(p,q), el grupo unitario U(n) y el grupo unitario especial SU(n) que lo hacen cuando \mathbb{K} = \mathbb{C}.

Simplemente un reblog de nuestro crack Terry Tao sobre como capturar los conceptos esenciales de la derivación y la integración de manera algebraica para permitir su utilización sobre otros sistemas numéricos distintos de aquellos que soportan el concepto de límite, o sea, los reales y los complejos.

Posteriormente comenta como puede utilizar éstas cuando trabaja en teoría cuántica de campos para calcular integrales con variables bosónicas y fermiónicas (variables conmutativas y anticonmutativas en álgebra superconmutativa).

En n dimensiones, el operador Laplaciano queda como:

\Delta u= \sum_{i=1}^n \frac{\partial^2}{\partial x_i^2}u

en coordenadas cartesianas, y como:

\Delta u = \frac{\partial}{\partial r^2}u + \frac{n-1}{r}\frac{\partial}{\partial r}u + \frac{1}{r^2}\Delta_{S^{n-1}}u

en esféricas, donde \Delta_{S^{n-1}} es el operador de Laplace-Beltrami, una generalización del Laplaciano para funciones definidas sobre variedades,  en la (n-1)-esfera (S^{n-1}), el operador Laplaciano esférico.

Un punto es un tensor sin índices, un vector es un tensor con 1 índice, una matriz es un tensor con 2 índices, etc. Cuando discreticemos una PDE en n dimensiones, llegaremos a un tensor con n índices y 2n tensores con n-1 índices para las condiciones en las fronteras.

A continuación se muestra el fragmento de código de la app RadSol que resuelve por radicales la ecuación cuártica (pulsar para ampliar):

La idea, como se puede apreciar en el código, es que resuelve una ecuación cuadrática en la que aparece la solución real de la cúbica resolvente.

Para la resolvente, dada la ecuación de tercer grado x^3 + bx^2 + cx+d = 0, la fórmula de las soluciones es:

-\frac{b}{3}+\frac{t}{3}+\frac{b^2-3c}{3t} con t = E^{\frac{1}{3}}

donde:

E=\frac{9bc - 2b^3 -27d + \sqrt{D}}{2} y D = (9bc -2b^3-27d)^2 + 4(3c-b^2)^3

Uno de los grandes logros de la variable compleja es su efectividad a la hora de permitir demostrar resultados muy alejadas de su aparente alcance. Un claro ejemplo de esto es su aplicación a la demostración del teorema fundamental del algebra. A continuación presentamos una demostración del mismo junto con unos resultados previos que necesitaremos para la misma.

Desigualdad de Cauchy

Sea f una función analítica, es decir, f = \sum_{n=0}^\infty a_n(z-z_0)^n con z \in D(z_0,R). Sea 0 < r < R y

M(r) := \max (|f(z)|:|z-z_0|=r).

Entonces

|a_n| \leq \frac{M(r)}{r^n}

demostración:

a_n = \frac{f^{n)}(z_0)}{n!}

ya que f'(z) = \sum_{n=1}^\infty n\,a_n (z-z_0)^{n-1}, por lo que f'(z_0) = 1 \cdot a_1. De la misma manera, f''(z) = \sum_{n=2}^\infty (n-1)n\,a_n (z-z_0)^{n-2}, por lo que f''(z_0) = 2 \cdot 1 \cdot a_2, etc.

Si aplicamos ahora la fórmula integral de Cauchy para las derivadas:

f^{n)}(z) = \frac{n!}{2 \pi i} \int_{C(z_0,R)} \frac{f(u)}{(u-z)^{n+1}} du,\, \forall z \in D(z_0,R)

tenemos:

a_n = \frac{1}{2 \pi i} \int_{C(z_0,r)} \frac{f(z)}{(z-z_0)^{n+1}} dz

por lo que si aplicamos la propiedad de que |int_\gamma f(z) dz| \leq L(\gamma) \, \max \{ |f(z)| : z \in \gamma([a,b]) \}, nos queda:

|a_n| \leq \big | \frac{1}{2 \pi i} \big | (2 \pi r) \max_{|z-z_0|=r} \big | \frac{f(z)}{(z-z_0)^{n+1}} \big |.

Como |\frac{1}{2 \pi i}| = \frac{1}{2 \pi} y

\max_{|z-z_0|=r} \big | \frac{f(z)}{(z-z_0)^{n+1}} \big | = \max_{|z-z_0|=r} \frac{|f(z)|}{r^{n+1}}

entonces:

|a_n| \leq \frac{r}{r^{n+1}} \max_{|z-z_0|=r} |f(z)| = \frac{M(r)}{r^n} \,\Box

Teorema de Liouville

Sea f \in \mathcal{H}(\mathbb{C}), f no constante. Entonces f no está acotada.

demostración:

Vamos a demostrar el reciproco, es decir, que si f\in \mathcal{H}(\mathbb{C}) y f está acotada, entonces f es necesariamente constante.

Para empezar, como f es holomorfa, entonces es analítica y

f(z) = \sum_{n=0}^\infty a_n z^n, \, \forall z \in \mathbb{C}.

Fijamos 0 < r < +\infty. Si le aplicamos ahora la desigualdad de Cauchy, nos queda

|a_n| \leq \frac{M(r)}{r^n}.

que, como f está acotada, es decir, \exists C > 0: |f(z)| \leq C, \, \forall z \in \mathbb{C}, que no depende de r, nos queda:

|a_n| \leq \frac{C}{r^n}.

Finalmente, si n \geq 1 entonces |a_n| \leq \lim_{r \rightarrow \infty} \frac{C}{r^n} = 0, por lo que f(z) = a_0 que implica que f es constante \forall z \in \mathbb{C} \, \Box

Lo que nos está diciendo el teorema de Liouville, por ejemplo, es que la función sin(z) no está acotada (a diferencia de lo que ocurre en variable real), pues solo lo estan las funciones constantes.

Teorema fundamental del Álgebra

Sea p(z) = a_0 + a_1 z + a_2 z^2 + \ldots + a_n z^n un polinomio no constante. Entonces la ecuación p(z)=0 tiene solución.

demostración:

Vamos a proceder por reducción al absurdo. Supondremos que p(z) \neq 0, \, \forall z \in \mathbb{C} y consideraremos la función f(z) = \frac{1}{p(z)}. Es fácil ver que f(z) \in \mathcal{H}(\mathbb{C}) y que no es constante.

Veremos que f(z) está acotada, lo que supondra una contradicción con Liouville. Efectivamente, para p(z) = a_0 + a_1 z + a_2 z^2 + \ldots + a_n z^n, como n \geq 1 y a_n \neq 0, tiene sentido escribir p(z) como:

p(z) = z^n (a_n + \frac{a_{n-1}}{z} + \ldots + \frac{a_0}{z^n})

con lo que, si tomamos valores absolutos y utilizando que |a+b| \geq |a|-|b|, nos queda:

|p(z)| \geq |z|^n (|a_n| - \frac{|a_{n-1}|}{|z|} - \ldots - \frac{|a_0|}{|z|^n})

\,\Box

Proposición:

Sea p(z) un polinomio de grado n \geq 1. Entonces:

p(z) = a(z-z_1)^{k_1}(z-z_2)^{k_2}\ldots (z-z_m)^{k_m} con \sum_{i=1}^m k_i = n.

demostración: (por inducción sobre n)

a) Si n=1 entonces p(z)=az+b con a \neq 0. Sea z_1 tal que p(z_1) =0. Entonces:

p(z) = az -az_1 + az_1 + b = a(z-z_1), pues az_1 + b = 0.

b) Suponemos que para grado \leq n es cierto y sea p(z) un polinomio de grado n+1.

agosto 2017
L M X J V S D
« Jul    
 123456
78910111213
14151617181920
21222324252627
28293031