You are currently browsing the monthly archive for marzo 2013.

El operador D’Alambartiano generaliza el Laplaciano a cualquier métrica. Por ejemplo, en cartesianas en Minkowski con signatura (-,+,+,+) tendríamos (c=1):

\square = -\partial_{tt} + \partial_{xx} + \partial_{yy} + \partial_{zz} = -\partial_{tt} + \nabla,

que, numerando las variables, tenemos:

\square = \partial^\alpha \partial_\alpha = g^{\alpha \beta} \partial_\beta \partial_\alpha.

Para empezar, empezaremos escribiendo las ecuaciones en coordenadas de cada uno de los elementos que queremos calcular.

El tensor de curvatura de Riemann:

R^{a}_{bcd} = \partial_c \Gamma^{a}_{bd} - \partial_d \Gamma^{a}_{bc} + \Gamma^{a}_{ec} \Gamma^{e}_{bd} - \Gamma^{a}_{ed} \Gamma^{e}_{bc},

el tensor de Ricci:

R_{ab} = R^{c}_{acb} = \partial_c \Gamma^{c}_{bd} - \partial_d \Gamma^{c}_{bc} + \Gamma^{c}_{ec} \Gamma^{e}_{bd} - \Gamma^{c}_{ed} \Gamma^{e}_{bc},

la curvatura escalar:

R = R^{a}_{a}

y el tensor de Weyl:

C_{abcd} = R_{abcd} -

- \frac{1}{2}(g_{ac}R_{bd}-g_{ad}R_{bc}-g_{bc}R_{ad}+g_{bd}R_{ac}) + \frac{1}{6}(g_{ac}g_{bd}-g_{ad}g_{bc}) R

Empezamos con la esfera S^2(\frac{1}{r^2}). Recordamos los símbolos de Christoffel que encontramos:

\Gamma^{\theta}_{\theta \theta} = 0, \Gamma^{\theta}_{\theta \varphi} = \Gamma^{\theta}_{\varphi \theta} = 0, \Gamma^{\theta}_{\varphi \varphi} = -\sin \theta \cos \theta,

\Gamma^{\varphi}_{\theta \theta} = 0, \Gamma^{\varphi}_{\theta \varphi} = \Gamma^{\varphi}_{\varphi \theta} = \cot \theta, \Gamma^{\varphi}_{\varphi \varphi} = 0

(Escribir ahora las ecuaciones de las geodésicas es inmediato: una equacion por variable contravariante donde aparece la segunda derivada de esta y un termino para cada símbolo no nulo de la fila con la primera derivada de las variables covariantes:

\begin{cases} \ddot{\theta} - \dot{\varphi}^2 \sin \theta \cos \theta = 0 \\ \ddot{\varphi} + 2 \dot{\theta} \dot{\varphi} \cot \theta = 0 \end{cases}

que coincide con lo que calculamos en este post de otra manera sin necesidad de los símbolos de Christoffel).

Tenemos cuatro índices y cada uno puede tomar dos valores, pues estamos trabajando con superificies, variedades de dos dimensiones, por lo que tenemos un tensor de con 16 componentes (en el caso de estar trabajando con una variedad de cuatro dimensiones como es espacio-tiempo, el tensor de Riemann tiene 256 componentes..). Aunque existe una serie de propiedades que minimizan el número de componentes de n^4 a \frac{1}{12}n^2(n^2-1) (simetrías, antisimetrías e identidades de Bianchi) vamos a calcularlos todos aquí para practicar.

R^{\theta}_{ \theta \theta \theta} = \partial_\theta \Gamma^{\theta}_{\theta \theta} -\partial_\theta \Gamma^{\theta}_{\theta \theta} + \Gamma^{\theta}_{\theta \theta} \Gamma^{\theta}_{\theta \theta} + \Gamma^{\theta}_{\varphi \theta} \Gamma^{\varphi}_{\theta \theta} - \Gamma^{\theta}_{\theta \theta} \Gamma^{\theta}_{\theta \theta} - \Gamma^{\theta}_{\varphi \theta} \Gamma^{\varphi}_{\theta \theta} = 0

R^{\theta}_{ \theta \theta \varphi} = \partial_\theta \Gamma^{\theta}_{\theta \varphi} -\partial_\varphi \Gamma^{\theta}_{\theta \theta} + \Gamma^{\theta}_{\theta \theta} \Gamma^{\theta}_{\theta \varphi} + \Gamma^{\theta}_{\varphi \theta} \Gamma^{\varphi}_{\theta \varphi} - \Gamma^{\theta}_{\theta \varphi} \Gamma^{\theta}_{\theta \theta} - \Gamma^{\theta}_{\varphi \varphi} \Gamma^{\varphi}_{\theta \theta} = 0

R^{\theta}_{ \theta \varphi \theta} = \partial_\varphi \Gamma^{\theta}_{\theta \theta} -\partial_\theta \Gamma^{\theta}_{\theta \varphi} + \Gamma^{\theta}_{\theta \varphi} \Gamma^{\theta}_{\theta \theta} + \Gamma^{\theta}_{\varphi \varphi} \Gamma^{\varphi}_{\theta \theta} - \Gamma^{\theta}_{\theta \theta} \Gamma^{\theta}_{\theta \varphi} - \Gamma^{\theta}_{\varphi \theta} \Gamma^{\varphi}_{\theta \varphi} = 0

R^{\theta}_{ \theta \varphi \varphi} = \partial_\varphi \Gamma^{\theta}_{\theta \varphi} -\partial_\varphi \Gamma^{\theta}_{\theta \varphi} + \Gamma^{\theta}_{\theta \varphi} \Gamma^{\theta}_{\theta \varphi} + \Gamma^{\theta}_{\varphi \varphi} \Gamma^{\varphi}_{\theta \varphi} - \Gamma^{\theta}_{\theta \varphi} \Gamma^{\theta}_{\theta \varphi} - \Gamma^{\theta}_{\varphi \varphi} \Gamma^{\varphi}_{\theta \varphi} = 0

R^{\theta}_{ \varphi \theta \theta} = 0

R^{\theta}_{ \varphi \theta \varphi} =

= \partial_\theta \Gamma^{\theta}_{\varphi \varphi} -\partial_\varphi \Gamma^{\theta}_{\varphi \theta} + \Gamma^{\theta}_{\theta \theta} \Gamma^{\theta}_{\varphi \varphi} + \Gamma^{\theta}_{\varphi \theta} \Gamma^{\varphi}_{\varphi \varphi} - \Gamma^{\theta}_{\theta \varphi} \Gamma^{\theta}_{\varphi \theta} - \Gamma^{\theta}_{\varphi \varphi} \Gamma^{\varphi}_{\varphi \theta} = \sin^2 \theta

R^{\theta}_{ \varphi \varphi \theta} =

= \partial_\varphi \Gamma^{\theta}_{\varphi \theta} -\partial_\theta \Gamma^{\theta}_{\varphi \varphi} + \Gamma^{\theta}_{\theta \varphi} \Gamma^{\theta}_{\varphi \theta} + \Gamma^{\theta}_{\varphi \varphi} \Gamma^{\varphi}_{\varphi \theta} - \Gamma^{\theta}_{\theta \theta} \Gamma^{\theta}_{\varphi \varphi} - \Gamma^{\theta}_{\varphi \theta} \Gamma^{\varphi}_{\varphi \varphi} = -\sin^2 \theta

R^{\theta}_{\varphi \varphi \varphi} = 0

R^{\varphi}_{ \theta \theta \theta} = 0

R^{\varphi}_{ \theta \theta \varphi} = \partial_\theta \Gamma^{\varphi}_{\theta \varphi} -\partial_\varphi \Gamma^{\varphi}_{\theta \theta} + \Gamma^{\varphi}_{\theta \theta} \Gamma^{\theta}_{\theta \varphi} + \Gamma^{\varphi}_{\varphi \theta} \Gamma^{\varphi}_{\theta \varphi} - \Gamma^{\varphi}_{\theta \varphi} \Gamma^{\theta}_{\theta \theta} - \Gamma^{\varphi}_{\varphi \varphi} \Gamma^{\varphi}_{\theta \theta} = -1

R^{\varphi}_{ \theta \varphi \theta} = \partial_\varphi \Gamma^{\varphi}_{\theta \theta} -\partial_\theta \Gamma^{\varphi}_{\theta \varphi} + \Gamma^{\varphi}_{\theta \varphi} \Gamma^{\theta}_{\theta \theta} + \Gamma^{\varphi}_{\varphi \varphi} \Gamma^{\varphi}_{\theta \theta} - \Gamma^{\varphi}_{\theta \theta} \Gamma^{\theta}_{\theta \varphi} - \Gamma^{\varphi}_{\varphi \theta} \Gamma^{\varphi}_{\theta \varphi} = 1

R^{\varphi}_{ \theta \varphi \varphi} = 0

R^{\varphi}_{ \varphi \theta \theta} = 0

R^{\varphi}_{ \varphi \theta \varphi} = 0

R^{\varphi}_{ \varphi \varphi \theta} = 0

R^{\varphi}_{\varphi \varphi \varphi} = 0

Continuamos con el tensor de Ricci. Podemos calcularlo a partir de la formula o a partir del tensor de Riemann, que ya lo tenemos. Lo haremos de esta última manera:

R_{\theta \theta} = R^{a}_{\theta a \theta} = R^{\theta}_{\theta \theta \theta} + R^{\varphi}_{\theta \varphi \theta} = 1

R_{\theta \varphi} = R^{a}_{\theta a \varphi} = R^{\theta}_{\theta \theta \varphi} + R^{\varphi}_{\theta \varphi \varphi} = 0

R_{\varphi \theta} = R^{a}_{\varphi a \theta} = R^{\theta}_{\varphi \theta \theta} + R^{\varphi}_{\varphi \varphi \theta} = 0

R_{\varphi \varphi} = R^{a}_{\varphi a \varphi} = R^{\theta}_{\varphi \theta \varphi} + R^{\varphi}_{\varphi \varphi \varphi} = \sin^2 \theta.

Finalmente, calculamos la curvatura escalar:

g^{cb}R_{ab} = R^c_a,

R^a_a = g^{\theta \theta}R_{\theta \theta} + g^{\theta \varphi}R_{\theta \varphi} + g^{\varphi \theta}R_{\varphi \theta} + g^{\varphi \varphi}R_{\varphi \varphi} = \frac{1}{r^2}1+\frac{1}{r^2 \sin^2 \theta} \sin^2 = \frac{2}{r^2},

que es, tal y como esperabamos, la mitad de la curvatura de Gauss (R = 2K).

Seguimos ahora con la pseudoesfera \mathbb{H}^2(-\frac{1}{r^2}). Los símbolos de Christoffel eran:

\Gamma^{\theta}_{\theta \theta} = -\csc \theta \sec \theta, \Gamma^{\theta}_{\theta \varphi} = \Gamma^{\theta}_{\varphi \theta} = 0, \Gamma^{\theta}_{\varphi \varphi} = -\sin^2 \theta \tan \theta,

\Gamma^{\varphi}_{\theta \theta} = 0, \Gamma^{\varphi}_{\theta \varphi} = \Gamma^{\varphi}_{\varphi \theta} = \cot \theta, \Gamma^{\varphi}_{\varphi \varphi} = 0

(Aprovechamos otra vez, conocidos los símbolos de Christoffel, para escribir las ecuaciones de las geodésicas:

\begin{cases} \ddot{\theta} - \dot{\theta}^2 \csc \theta \sec \theta - \dot{\varphi}^2 \sin^2 \theta \tan \theta = 0 \\ \ddot{\varphi} + 2 \dot{\theta} \dot{\varphi} \cot \theta = 0 \end{cases}

que debería coincidir con la de aquí).

Como es bastante laborioso, aquí otro programita, esta vez para el tensor de Riemann:

tensorRiemann

y los resultados:

tensorRiemannPseudoesfera

por tanto, Ricci es:

R_{\theta \theta} = R^{a}_{\theta a \theta} = R^{\theta}_{\theta \theta \theta} + R^{\varphi}_{\theta \varphi \theta} = - \cot^2 \theta

R_{\theta \varphi} = R^{a}_{\theta a \varphi} = R^{\theta}_{\theta \theta \varphi} + R^{\varphi}_{\theta \varphi \varphi} = 0

R_{\varphi \theta} = R^{a}_{\varphi a \theta} = R^{\theta}_{\varphi \theta \theta} + R^{\varphi}_{\varphi \varphi \theta} = 0

R_{\varphi \varphi} = R^{a}_{\varphi a \varphi} = R^{\theta}_{\varphi \theta \varphi} + R^{\varphi}_{\varphi \varphi \varphi} = -\sin^2 \theta.

y la curvatura escalar:

R=R^a_a = g^{\theta \theta}R_{\theta \theta} + g^{\theta \varphi}R_{\theta \varphi} + g^{\varphi \theta}R_{\varphi \theta} + g^{\varphi \varphi}R_{\varphi \varphi} =

= \frac{1}{r^2 \cot^2 \theta}(-\cot^2 \theta)+\frac{1}{r^2 \sin^2 \theta} (-\sin^2) = -\frac{2}{r^2},

que vuelve a ser R = 2K. Aquí es resultado con dos nuevas funciones programadas para el tensor de Ricci y la curvatura escalar:

RiemannRicciRH2

Por último, para \mathbb{R}^2 todo es 0.

Finalmente una gráfica de todas las curvaturas escalares que hemos encontrado:

curvaturaEscalar2D

Los colores son los mismos que los de las superficie correspondiente de este post y añadiendo en rojo la curvatura escalar del toro. Recordar que, en superficies, la curvatura escalar es el doble de la curvatura Gauss o curvatura intrínseca y esta, a su vez, es el producto de las dos curvaturas principales.

Cuando hablamos de soluciones analíticas de las ecuaciones de Einstein hablamos de los agujeros negros estacionarios en rotación y sin carga eléctrica (J \neq 0 y Q = 0). A esta solución analítica se la conoce  como métrica de Kerr.

Procedemos a buscar calcular los símbolos de Christoffel, la conexión de Levi-Civita y las geodésicas de la métrica de Kerr:

g = - (1-\frac{2Mr}{\Sigma})dt \otimes dt - \frac{4aMr\sin^2\theta}{\Sigma}dt \tilde{\otimes} d\varphi +

+ \frac{\Sigma}{\Delta}dr \otimes dr + \Sigma d\theta \otimes d\theta + (r^2+a^2+\frac{2a^2Mr\sin^2\theta}{\Sigma})sin^2\theta d\varphi \otimes d\varphi

donde a:=\frac{J}{M}, \Delta:= r^2 - 2Mr + a^2 y \Sigma = r^2 + a^2 \cos^2 \theta. El agujero negro está rotando en la dirección +\varphi y el espín está restringido al rango 0 \leq \frac{a}{M} \leq 1. Notar que recuperamos la métrica de Schwarzschild cuando a=0.

Modificamos ligeramente el programa que teniamos de manera que nos permita trabajar con metricas sobre variedades en 4 dimensiones (si el índices ic empieza en ib nos ahorramos los cálculos simétricos):


Simbolos[] := 
For[ia = 1, ia <= 4, ia++, 
  For[ib = 1, ib <= 4, ib++,
    For[ic = 1, ic <= 4, ic++,
      r = 0;
      For[ii = 1, ii <= 4, ii++,
        r = r + 
            FullSimplify[
                         1/2*Inverse[g][[ii]][[ia]]*(
                         D[g[[ii]][[ib]], x[[ic]]] + 
                         D[g[[ii]][[ic]], x[[ib]]] - 
                         D[g[[ib]][[ic]], x[[ii]]])
            ]
      ];
      Print["Gamma[", ia, ",", ib, ",", ic, "] = ", r]
    ]
  ]
]

Introducimos la métrica como siempre:

\left(  \begin{array}{cccc}  -1+\frac{2 M \text{x2}}{\text{x2}^2+\frac{J^2 \text{Cos}[\text{x3}]}{M^2}} & 0 & 0 & -\frac{2 J \text{x2} \text{Sin}[\text{x3}]^2}{\text{x2}^2+\frac{J^2 \text{Cos}[\text{x3}]}{M^2}} \\  0 & \frac{\text{x2}^2+\frac{J^2 \text{Cos}[\text{x3}]}{M^2}}{\frac{J^2}{M^2}-2 M \text{x2}+\text{x2}^2} & 0 & 0 \\  0 & 0 & \text{x2}^2+\frac{J^2 \text{Cos}[\text{x3}]}{M^2} & 0 \\  -\frac{2 J \text{x2} \text{Sin}[\text{x3}]^2}{\text{x2}^2+\frac{J^2 \text{Cos}[\text{x3}]}{M^2}} & 0 & 0 & \text{Sin}[\text{x3}]^2 \left(\frac{J^2}{M^2}+\text{x2}^2+\frac{2 J^2 \text{x2} \text{Sin}[\text{x3}]^2}{M \left(\text{x2}^2+\frac{J^2 \text{Cos}[\text{x3}]}{M^2}\right)}\right)  \end{array}  \right)

y en un momento obtenemos:

\Gamma^{1}_{\alpha \beta}:

Gamma1

\Gamma^2_{\alpha \beta}:

Gamma2

\Gamma^3_{\alpha \beta}:

Gamma3

\Gamma^4_{\alpha \beta}:

Gamma4

Calculamos ahora las ecuaciones de las geodesicas partiendo del hecho de que conocemos los símbolos de Christoffel. Como ya vimos, la ecuación en coordenadas a partir de estos es:

\frac{d^2}{dt^2}x^i + \Gamma^i_{jk} \frac{d}{dt}x^j \frac{d}{dt}x^k = 0.

Si nos fijamos, la estructura es sencilla: una ecuación por cada variable y, en esta, utilizamos los símbolos de Christoffel que la tienen como coordenada contravariante y cada símbolo acompañado del producto de las derivadas primeras de las variables que aparecen como covariantes.

Obviamente, y debido al tamaño de las expresiones, solo vamos a escribir de manera explícita alguna. Así pues, las ecuaciones de las geodésicas son:

\begin{cases} \ddot{t} + \ldots = 0 \\ \ddot{r} + \ldots = 0 \\ \ddot{\theta} + \ldots = 0 \\ \ddot{\varphi} + \ldots = 0 \end{cases}

donde, por ejemplo, para \theta tenemos (algunas expresiones no caben pero al pinchar y arrastrar se ven completas):

\ddot{\theta} -

- \frac{J^2 M^5 r \text{Sin}[\theta]}{\left(M^2 r^2+J^2 \text{Cos}[\theta]\right)^3} \dot{t}^2 + \frac{J^2 M^2 \text{Sin}[\theta]}{2 \left(J^2+M^2 r (-2 M+r)\right) \left(M^2 r^2+J^2 \text{Cos}[\theta]\right)} \dot{r}^2 - \frac{J^2 \text{Sin}[\theta]}{2 M^2 r^2+2 J^2 \text{Cos}[\theta]} \dot{\theta}^2 -

-\frac{\left(J^2+M^2 r^2\right) \text{Cos}[\theta] \left(M^2 r^2+J^2 \text{Cos}[\theta]\right)^2 \text{Sin}[\theta]+4 J^2 M^3 r \text{Cos}[\theta] \left(M^2 r^2+J^2 \text{Cos}[\theta]\right) \text{Sin}[\theta]^3+J^4 M^3 r \text{Sin}[\theta]^5}{\left(M^2 r^2+J^2 \text{Cos}[\theta]\right)^3} \dot{\varphi}^2 +

+ \frac{J M^4 r \left(4 M^2 r^2 \text{Cos}[\theta]+J^2 (3+\text{Cos}[2 \theta])\right) \text{Sin}[\theta]}{\left(M^2 r^2+J^2 \text{Cos}[\theta]\right)^3} \dot{t} \dot{\varphi} + \frac{r}{r^2+\frac{J^2 \text{Cos}[\theta]}{M^2}} \dot{r} \dot{\theta} = 0

Calculamos ahora los símbolos de Christoffel de la esfera y de la pseudoesfera. La formula general es:

\Gamma_{ij}^k = \frac{1}{2} g^{rk} \{ \frac{\partial}{\partial x^j}g_{ir} + \frac{\partial}{\partial x^i}g_{jr} - \frac{\partial}{\partial x^r}g_{ij} \}.

Empezamos con la esfera donde teniamos un embedding:

f: S^2(\frac{1}{a^2}) \longrightarrow \mathbb{R}^3 \,/\, (\theta,\varphi) \mapsto a(\cos \theta \cos \varphi, \cos \theta \sin \varphi, \sin \theta)

y la métrica inducida medainte el pullback era:

f^*h: a^2 d\theta^2 + a^2 \sin^2 \theta d\varphi^2

Tenemos que calcular:

\Gamma^{\theta}_{\theta \theta}, \Gamma^{\theta}_{\theta \varphi} = \Gamma^{\theta}_{\varphi \theta}, \Gamma^{\theta}_{\varphi \varphi}, \Gamma^{\varphi}_{\theta \theta}, \Gamma^{\varphi}_{\theta \varphi} = \Gamma^{\varphi}_{\varphi \theta}, \Gamma^{\varphi}_{\varphi \varphi}

Calculamos, por ejemplo, \Gamma^{1}_{22} = \Gamma^{\theta}_{\varphi \varphi}:

\Gamma_{\varphi \varphi}^\theta = \frac{1}{2} \{ \frac{\partial}{\partial d\varphi}g_{\varphi \theta} + \frac{\partial}{\partial \varphi}g_{\varphi \theta} + \frac{\partial}{\partial \theta}g_{\varphi \varphi} \} g^{\theta \theta} + \frac{1}{2} \{ \frac{\partial}{\partial d\varphi}g_{\varphi \varphi} + \frac{\partial}{\partial \varphi}g_{\varphi \varphi} + \frac{\partial}{\partial \varphi}g_{\varphi \varphi} \} g^{\varphi \theta},

que, teniendo en cuenta que las bases son ortogonales, es decir, que métrica es diagonal, queda:

\Gamma^{\theta}_{\varphi \varphi} = \frac{1}{2} (\frac{\partial}{\partial \theta} g_{\varphi \varphi}) g^{\theta \theta} = -\frac{1}{2 a^2} a^2 \, 2 \sin \theta \cos \theta = - \sin \theta \cos \theta.

Como son cálculos largos y tediosos donde es muy fácil equivocarse, he escrito una pequeña función en Mathematica que nos los calcula:


 Simbolos[] := For[ia = 1, ia <= 2, ia++,
   For[ib = 1, ib <= 2, ib++,
     For[ic = 1, ic <= 2, ic++,
       r = 0;
       For[ii = 1, ii <= 2, ii++,
         r = r + FullSimplify[
                              1/2*Inverse[g][[ii]][[ia]]*
                              (D[g[[ii]][[ib]],u[[ic]]] + 
                               D[g[[ii]][[ic]],u[[ib]]] - 
                               D[g[[ib]][[ic]], u[[ii]]])
                 ]
       ];
       Print["Gamma[", ia, ",", ib, ",", ic, "] = ", r]
     ]
   ]
 ]
 

Para utilizarla, simplemente inicializamos previamente a su llamada una matriz con nombre g de dimensión 2 \times 2 con la métrica (por ejemplo introducimos la de la esfera, las variables sobre las que deriva deben llamarse u_1 y u_2)

g=\{\{a{}^{\wedge}2,0\},\{0,a{}^{\wedge}2*\text{Sin}[\text{u1}]{}^{\wedge}2\}\}

y, a continuación, llamamos a la función Simbolos sin parámetros:

\text{Simbolos}[]

y obtenemos:

\text{Gamma[}1,1,1\text{] = }0

\text{Gamma[}1,1,2\text{] = }0

\text{Gamma[}1,2,1\text{] = }0

\Gamma^{1}_{22} = \text{Gamma[}1,2,2\text{] = }-\text{Cos}[\text{u1}] \text{Sin}[\text{u1}]

\text{Gamma[}2,1,1\text{] = }0

\text{Gamma[}2,1,2\text{] = }\text{Cot}[\text{u1}]

\text{Gamma[}2,1,2\text{] = }\text{Cot}[\text{u1}]

\text{Gamma[}2,2,2\text{] = }0

De la misma manera, para la pseudoesfera \mathbb{H}^2(-\frac{1}{a^2}) tenemos:

g=\{\{a{}^{\wedge}2*\text{Cot}[\text{u1}]{}^{\wedge}2,0\},\{0,a{}^{\wedge}2*\text{Sin}[\text{u1}]{}^{\wedge}2\}\}

que nos da, al ejecutar \text{Simbolos}[],

\text{Gamma[}1,1,1\text{] = }-\text{Csc}[\text{u1}] \text{Sec}[\text{u1}]

\text{Gamma[}1,1,2\text{] = }0

\text{Gamma[}1,2,1\text{] = }0

\text{Gamma[}1,2,2\text{] = }-\text{Sin}[\text{u1}]^2 \text{Tan}[\text{u1}]

\text{Gamma[}2,1,1\text{] = }0

\text{Gamma[}2,1,2\text{] = }\text{Cot}[\text{u1}]

\text{Gamma[}2,2,1\text{] = }\text{Cot}[\text{u1}]

\text{Gamma[}2,2,2\text{] = }0.

Finalmente, si hacemos todos los cálculos finalmente para \mathbb{R}^2 obtenemos que todos los símbolos de Christoffel son 0, de manera que, en este caso, y como era de esperar, la derivación parcial y la derivación covariante coinciden.

Conocidos los símbolos de Christoffel, la derivación covariante de cualquier tensor, por ejemplo T^a_b, queda:

\nabla_c T^a_b = \partial_c T^a_b + \Gamma^a_{dc} T^d_b - \Gamma^d_bc T^a_d,

que corresponde a la parcial a la que sumamos por cada índice covariante del tensor y restamos por cada índice contravariante. En cada caso, lo que se se suma o se resta, proviene del recorrerido sobre el otro índice y el correspondiente del símbolo de Christoffel por el criterio de sumación y fijando el resto.

Tomamos el toro \mathbb{T}^2 como variedad diferenciable sobre el que construiremos dos variedades de Riemann no isométricas.

Por una parte, si consideramos \mathbb{T}^2 = S^1(\frac{1}{a^2}) \times S^1(\frac{1}{b^2}). Como a S^1(\frac{1}{a^2}) le corresponde la métrica \theta_1^2 y a S^1(\frac{1}{b^2}) le corresponde \theta_2^2, podemos construir una variedad de Riemann con la métrica producto:

(\mathbb{T}^2, (d\theta^1)^2 + (d\theta^2)^2)

Por otra, podemos considerar el embedding (la parametrización) de \mathbb{T}^2 en \mathbb{R}^3 siguiente:

f: \mathbb{T}^2 \longrightarrow \mathbb{R}^3 \,/\, (\theta^1,\theta^2) \mapsto (a+b\cos \theta^1) \cos \theta^2, (a + b \cos \theta^1) \sin \theta^2, b \sin \theta^2)

de manera  que, mediante el pullback, podemos construir la métrica f^*h donde h es la métrica ordinaria de \mathbb{R}^3:

f^*h = b^2 (d\theta_1)^2 + (a+b \cos \theta^1)^2 (d\theta^2)^2.

Estas dos variedades de Riemann no son isométricas (la primera tiene k=0, por lo que es isométrica al plano y la variedad recibe el nombre de toro plano, mientras que la segunda tiene k \neq 0 y es el toro habitual).

El teorema de Whitney nos dice que toda variedad diferenciable admite una métrica. La idea es sencilla: como toda variedad M admite una inmersión f:M \longrightarrow \mathbb{R}^m en un espacio euclideo de dimensión apropiada m entonces f^*h es una métrica de Riemann en M donde h es la métrica ordinaria de \mathbb{R}^m.

Dada una variedad de Riemann (M,g), siempre podemos construir una conexión \nabla compatible con la métrica, \nabla_g = 0, y libre de torsión, T(\nabla) = 0 a la que llamaremos conexión de Levi-Civita.

¿Cómo es su expresión en coordenadas? La condición \nabla_g = 0 hace que

X(g(Y,Z)) = g(\nabla_X Y,Z) + g(Y,\nabla_X Z).

Si la escribimos tres veces permutando los campos X, Y, Z obtenemos:

X(g(Y,Z)) = g(\nabla_X Y,Z) + g(Y,\nabla_X Z),

Z(g(X,Y)) = g(\nabla_Z X,Y) + g(X,\nabla_Z Y),

Y(g(Z,X)) = g(\nabla_Y Z,X) + g(Z,\nabla_Y X).

Sumando las dos primeras, restando la última y aplicando que T(\nabla)=0, es decir, que \nabla_X Y - \nabla_Y X = [X,Y] nos queda:

X(g(Y,Z)) + Z(g(X,Y)) - Y(g(Z,X)) =

= g([X,Y],Z) + g([Z,Y],X) + g([X,Z],Y) + 2g(\nabla_Z X, Y),

por lo que, despejando:

g(\nabla_Z X, Y) =

= \frac{1}{2} \{ X(g(Y,Z)) + Z(g(X,Y) + Y(g(Z,X)) -

- g([X,Y],Z) - g([Z,Y],X) + g([X,Z],Y) )\}.

Si (U,(x^i))  es un abierto de coordenadas de (M,g), veamos la expresión de los símbolos de Christoffel de la conexión de Levi-Civita \nabla. En la expresión anterior hacemos Z = \frac{\partial}{\partial x^i}, X = \frac{\partial}{\partial x^j} y Y = \frac{\partial}{\partial x^r} y como el claudator de Lie para estos campos es cero, nos queda:

g(\nabla_{\frac{\partial}{\partial x^i}} \frac{\partial}{\partial x^j}, \frac{\partial}{\partial x^r} ) = \frac{1}{2} \{ \frac{\partial}{\partial dx^j}g_{ir} + \frac{\partial}{\partial x^i}g_{jr} + \frac{\partial}{\partial x^j}g_{ij} \} =

es decir:

\Gamma_{ij}^l g_{lr} = \frac{1}{2} \{ \frac{\partial}{\partial x^j} g_{ir} + \frac{\partial}{\partial x^i} g_{jr} + \frac{\partial}{\partial x^r} g_{ij} \}

y utilizando la matriz inversa g^{ij} de g_{ij} obtenemos:

\Gamma_{ij}^l g_{lr}g^{rk} = \Gamma_{ij}^l \delta_l^k = \Gamma_{ij}^k = \frac{1}{2} \{ \frac{\partial}{\partial dx^j}g_{ir} + \frac{\partial}{\partial x^i}g_{jr} + \frac{\partial}{\partial x^r}g_{ij} \} g^{rk},

Por lo que los símbolos de Christoffel de la conexión de Levi-Civita se obtienen a partir de la métrica y de sus primeras derivadas.

Ya escribimos al respecto en este post. Aquí lo que haremos es reescribir las expresiones allí introducidas

En primer lugar, teniamos:

 \Delta X^i = 8 \pi f^{ij}S_j^* - \frac{1}{3}\mathcal{D}^i \mathcal{D}_j X^j

donde:

S_j^* := \sqrt{ \frac{\gamma}{f} } S = \psi^6 S_j,

S_j := \rho h w^2 v_j.

En el caso de estar trabajando en cartesianas y teniendo en cuenta todo el trabajo realizado en el artículo, nos queda:

\partial_{xx} X^x + \partial_{yy} X^x + \partial_{zz} X^x = 8 \pi \psi^6 \rho h w^2 v_x - \frac{1}{3} \partial_x (\partial_x X^x + \partial_y X^y + \partial_z X^z),

\partial_{xx} X^y + \partial_{yy} X^y + \partial_{zz} X^y = 8 \pi \psi^6 \rho h w^2 v_y - \frac{1}{3} \partial_y (\partial_x X^x + \partial_y X^y + \partial_z X^z),

\partial_{xx} X^z + \partial_{yy} X^z + \partial_{zz} X^z = 8 \pi \psi^6 \rho h w^2 v_z - \frac{1}{3} \partial_z (\partial_x X^x + \partial_y X^y + \partial_z X^z).

A continuación, y para la siguiente ecuación, necesitamos:

\hat{A}^{ij} = \mathcal{D}^i X^j + \mathcal{D}^j X^i - \frac{2}{3} \mathcal{D}_k X^k f^{ij}

que queda como:

\hat{A}^{xx} = 2 \partial_x X^x - \frac{2}{3} (\partial_x X^x + \partial_y X^y + \partial_z X^z),

\hat{A}^{xy} = \hat{A}^{yx}= \partial_x X^y + \partial_y X^x,

\hat{A}^{xz} = \hat{A}^{zx} = \partial_x X^z + \partial_z X^x,

\hat{A}^{yy} = 2 \partial_y X^y - \frac{2}{3} (\partial_x X^x + \partial_y X^y + \partial_z X^z),

\hat{A}^{yz} = \hat{A}^{zy} = \partial_y X^z + \partial_z X^y,

\hat{A}^{zz} = 2 \partial_z X^z - \frac{2}{3} (\partial_x X^x + \partial_y X^y + \partial_z X^z),

por lo que:

\Delta \psi = -2 \pi \psi^{-1} E^* - \psi^{-7} \frac{f_{il}f_{jm}\hat{A}^{lm}\hat{A}^{ij}}{8}

donde:

E^*:= \sqrt{ \frac{\gamma}{f} } E = \psi^6 E,

E:= D + \tau

es:

\Delta \psi = -2 \pi \psi^{-1} (D + \tau) - \psi^{-7} \frac{(\hat{A}^{xx})^2+(\hat{A}^{yy})^2+(\hat{A}^{zz})^2+2(\hat{A}^{xy})^2+2(\hat{A}^{xz})^2+2(\hat{A}^{yz})^2}{8}.

La siguiente:

\Delta (\alpha\psi) = 2 \pi (\alpha\psi)^{-1} (E^* + 2S^*) + \frac{7}{8} (\alpha\psi)^{-7} (f_{il} f{jm} \hat{A}^{lm} \hat{A}^{ij})

con:

S^*:= \sqrt{ \frac{\gamma}{f} } S = \psi^6 S,

S:= \rho h (w^2-1) + 3 p

queda:

\Delta (\alpha\psi) = 2 \pi (\alpha\psi)^{-1} ( D + \tau + 2 \rho h (w^2-1) + 6 p) +

+ \frac{7}{8}(\alpha\psi)^{-7} ((\hat{A}^{xx})^2+(\hat{A}^{yy})^2+(\hat{A}^{zz})^2+2(\hat{A}^{xy})^2+2(\hat{A}^{xz})^2+2(\hat{A}^{yz})^2)

Y la última:

\Delta \beta^i = \mathcal{D}_j (2 (\alpha\psi)^{-6} \hat{A}^{ij}) - \frac{1}{3} \mathcal{D}^i (\mathcal{D}_j \beta^j),

que escribimos como:

\Delta \beta^x = \partial_x (2 (\alpha \psi)^{-6} \hat{A}^{xx}) + \partial_y (2 (\alpha \psi)^{-6} \hat{A}^{xy}) + \partial_z (2 (\alpha \psi)^{-6} \hat{A}^{xz}) -

- \frac{1}{3} \partial_x (\partial_x \beta^x + \partial_y \beta^y + \partial_z \beta^z)

\Delta \beta^y = \partial_x (2 (\alpha \psi)^{-6} \hat{A}^{yx}) + \partial_y (2 (\alpha \psi)^{-6} \hat{A}^{yy}) + \partial_z (2 (\alpha \psi)^{-6} \hat{A}^{yz}) -

- \frac{1}{3} \partial_y (\partial_x \beta^x + \partial_y \beta^y + \partial_z \beta^z)

\Delta \beta^z = \partial_x (2 (\alpha \psi)^{-6} \hat{A}^{zx}) + \partial_y (2 (\alpha \psi)^{-6} \hat{A}^{zy}) + \partial_z (2 (\alpha \psi)^{-6} \hat{A}^{zz}) -

- \frac{1}{3} \partial_z (\partial_x \beta^x + \partial_y \beta^y + \partial_z \beta^z)

Sigamos con lo que empezamos en el post anterior.

Empezamos trabajando ahora suponiedo que, inicialmente, nos dan la variedad de Riemann (S^2(1/a^2),g) con

g = \left(  \begin{array}{cc}  a^2 & 0 \\  0 & a^2 \sin^2 \theta  \end{array}  \right)

y veremos como calcular, a partir de aquí, como encontrar longitudes, áreas, ángulos, la conexión de Levi-Civita correspondiente a la métrica dada, es decir, como realizar la derivación covariante o transporte paralelo, como encontrar las geodésicas, la calcular la curvatura intrínseca, etc.

Para empezar, dada una curva \gamma:I \longrightarrow M diferenciable, \forall a,b \in I, a < b, se define la longitud del segmento de curva \alpha, desde a hasta b, como:

L [\gamma]_a^b=\int_a^b || \gamma'||dt con ||\gamma'|| = \sqrt{g(\gamma',\gamma')},

es decir:

L [\gamma]_a^b=\int_a^b \sqrt{g_{ij} \gamma'^i \gamma'^j} dt

En este primer caso que nos ocupa, vamos a medir la longitud de medio meridiano, \varphi=0 ,parametrizado sobre la esfera como \gamma(\theta,0)=a(\sin \theta, 0, \cos \theta) con \theta \in ]0,\pi[. Pero hay que realizar los cálculos de manera intrínseca, por lo que la curva que nos interesa es \gamma(\theta)=(\theta,0) con \theta \in ]0,\pi[. Calculamos \dot{\gamma}(t) = (1,0), de manera que \dot{\gamma}^1(t) = 1\dot{\gamma}^2(t)=0. Entonces:

L[\gamma]_0^{\pi} = \int_0^{\pi} \sqrt{\sum_{i=0}^1 \sum_{j=0}^1 g_{ij} \dot{\gamma}^i(t) \dot{\gamma}^j(t)} dt = \int_0^{\pi} \sqrt{ a^2 } dt = a \int_0^{\pi} dt = a \pi

De la misma manera, para los habitantes de la hiperesfera \mathbb{H}^2(-\frac{1}{a^2}), pueden medir la longitud de una sección apropiada (recordar que tenemos comportamiento asintótico en 0 y cambio discontínuo de la normal a la superfície en \theta = \frac{\pi}{2}) de su meridiano 0 sabiendo su parametrización en coordenadas (\theta, \phi) sobre la hiperesfera y conociendo la métrica de esta variedad en donde viven:

\gamma(\theta,\varphi) = (\theta, 0) con \theta \in ]b,c[

g = \left(  \begin{array}{cc}  a^2 \cot^2 \theta & 0 \\  0 & a^2 \sin^2 \theta  \end{array}  \right)

de manera que, procediendo como antes:

L[\gamma]_b^c = a \int_b^{c} \sqrt{cot^2 \theta} d\theta = a \sqrt{cot^2 \theta} \tan \theta \ln[\sin \theta]|_{b}^{c}.

Por ejemplo, para a=1, b = \frac{\pi}{4} y c = \frac{\pi}{2} nos queda L[\gamma]_{\frac{\pi}{4}}^{\frac{\pi}{2}} = \frac{\ln{2}}{2} y para L[\gamma]_{\frac{\pi}{8}}^{\frac{\pi}{2}} = -\ln{\sin \frac{\pi}{8}}.

¿Necesitamos calcular la conexión de Levi-Civita \nabla, que es la única libre de torsión (dados dos campos vectoriales X, Y, como T(X,Y) = \nabla_X Y - \nabla_Y X - [X,Y], lo que tenemos es que \nabla_X Y - \nabla_Y X = [X,Y]) que preserva la métrica (\nabla_g = 0) para calcular las geodésicas?

Pues no.  En el libro Geometría Diferencial y Relatividad de J. Girbau encontramos una receta del procedimiento para calcular las geodésicas basada en, a grandes rasgos:

  • Llamamos geodésica a toda curva x(t) tal que \nabla_{\dot{x(t)}} \dot{x(t)} = 0.
  • En coordenadas, \nabla_X Y = ( X(Y^k) + Y^j X^i \Gamma_{ij}^k) e_k.
  • En una carta local (U,x^i), le ecuación \nabla_{\dot{x(t)}} \dot{x(t)} se escribe \frac{d^2 x^i}{dt^2}+\Gamma_{jk}^i \frac{dx^j}{dt} \frac{dx^k}{dt} = 0 donde \Gamma_{jk}^i son los símbolos de Christoffel relativos a la base \partial_{x^i}.
  • “muchos matemáticos alejados del mundo de la física o del cálculo de variaciones en su formulación primitiva de Euler”, como es mi caso :-), “tienen la firme convicción de que para escribir explícitamente las ecuaciones de las geodésicas de una determinada métrica de Riemann es indispensable haber calculado previamente la derivada covariante \nabla asociada a la métrica, ya sea por sus símbolos de Christoffel o per algun otro método equivalente. Nada mas lejos de la realidad”.
  • Tendremos la métrica g que depende de x^1,\ldots,x^n. Escribimos, formalmente, la función de 2n variables x^i, \dot{x}^i que volvemos a denotar g abusando de la notación. Entonces, con la convención \frac{d}{dt}x^i = \dot{x}^i y \frac{d}{dt}\dot{x}^i = \ddot{x}^i, las ecuaciones de las geodésicas son: \frac{d}{dt} \frac{\partial}{\partial \dot{x}^i} g = \frac{\partial}{\partial x ^i} g .

Vamos a aplicarlo, en primer lugar, a la esfera S^2(\frac{1}{a^2}). Como:

g = a^2 d\theta \otimes d\theta + a^2 \sin^2 \theta d\varphi \otimes d\varphi,

entonces:

g(\theta,\varphi,\dot{\theta},\dot{\varphi}) = a^2 \dot{\theta}^2+ a^2 \sin^2 \theta \dot{\varphi}^2,

de manera que:

\partial_\theta g = a^2 \, 2 \sin \theta \cos \theta \dot{\varphi}^2

\partial_\varphi g = 0

\partial_{\dot{\theta}} g = a^2 \, 2 \dot{\theta} y entoces \frac{d}{dt} \partial_{\dot{\theta}} g = a^2 2 \ddot{\theta}

\partial_{\dot{\varphi}} g = a^2 \sin^2 \theta 2 \dot{\varphi} y entonces \frac{d}{dt} \partial_{\dot{\varphi}} g = 2 a^2 \sin \theta (\cos \theta \dot{\theta} \dot{\varphi} + \sin \theta \ddot{\varphi}).

Así pués, las ecuaciones de las geodésicas son:

\begin{cases}\ddot{\theta} - \dot{\varphi}^2 \sin \theta \cos \theta = 0 \\ \sin \theta (2 \dot{\theta} \dot{\varphi} \cos \theta + \ddot{\varphi} \sin \theta) = 0 \end{cases}

En el caso de la pseudoesfera \mathbb{H}^2(-\frac{1}{a^2}) tenemos:

g = a^2 \cot^2 \theta d\theta \otimes d\theta + a^2 \sin^2 \theta d\varphi \otimes d\varphi,

entonces:

g(\theta,\varphi,\dot{\theta},\dot{\varphi}) = a^2 \cot^2 \theta \dot{\theta}^2+ a^2 \sin^2 \theta \dot{\varphi}^2,

de manera que:

\partial_\theta g = 2 a^2 (-\dot{\theta}^2 \cot \theta \csc^2 \theta + \dot{\varphi}^2 \cos \theta \sin \theta )

\partial_\varphi g = 0

\partial_{\dot{\theta}} g = 2 a^2 \dot{\theta} \cot^2 \theta y entoces \frac{d}{dt} \partial_{\dot{\theta}} g = 2 a^2 \cot \theta (\ddot{\theta} \cot \theta - 2 \dot{\theta}^2 \csc^2 \theta )

\partial_{\dot{\varphi}} g = 2 a^2 \dot{\varphi} \sin^2 \theta y entonces \frac{d}{dt} \partial_{\dot{\varphi}} g =2 a^2 \sin \theta (\ddot{\varphi} \sin \theta + 2 \dot{\theta} \dot{\varphi} \cos \theta ).

Así pues, las geodésicas cumplen:

\begin{cases} \cot \theta (\ddot{\theta} \cot \theta - 2 \dot{\theta}^2 \csc^2 \theta) - (-\dot{\theta}^2 \cot \theta \csc^2 \theta + \dot{\varphi}^2 \cos \theta \sin \theta ) = 0 \\ \sin \theta (\ddot{\varphi} \sin \theta + 2 \dot{\theta} \dot{\varphi} \cos \theta ) = 0 \end{cases}

Para terminar, procediento de la misma manera para \mathbb{R}^2 obtenemos que las geodésicas satisfacen:

\begin{cases} \ddot{\theta} = 0 \\ \ddot{\varphi} = 0 \end{cases}

Existe un teorema que nos dice que dada una variedad de Riemann M conexa, completa y simplemente conexa con curvatura constante k es isométrica a:

  • el Espacio Hiperbólico: \mathbb{H}^n(k) si k<0,
  • el Espacio Euclídeo: \mathbb{R}^n si k=0,
  • la Hipersuperfície Esférica: S^n(k) si k>0.

En particular, cuando la dimensión sea n=2, tenemos las superfícies \mathbb{H}^2(k), trabajaremos con la pseudoesfera, el plano \mathbb{R}^2 y la esfera S^2(k).

En este caso, existe una forma sencilla de calcular la primera forma fundamental I \equiv ds^2, la métrica inducida por la métrica Euclidea del espacio ambiente \mathbb{R}^3 en el que las superficies pueden ser embebidas, a partir de su parametrización (Una parametrización f es un embedding y si h es la métrica del espacio ambiente entonces tenemos la métrica f^*h en la variedad):

S(u,v)=(x(u,v),y(u,v),z(u,v)),

I(u,v) = E(u,v) du \otimes du + F(u,v) du \otimes dv +

+ F(u,v) dv \otimes du + G(u,v) dv \otimes dv

o, lo que es lo mismo,

ds^2 = g_{00} du^2 + g_{01} du dv + g_{10} dv du + g_{11} dv^2

donde

g_{00}=\frac{\partial}{\partial u}S(u,v) \cdot \frac{\partial}{\partial u}S(u,v) = \partial_u S \cdot \partial_u S

g_{01}=g_{10} = \partial_u S \cdot \partial_v S

g_{11} = \partial_v S \cdot \partial_v S.

Si en lugar de u y v trabajamos con u_1 y u_2 entonces podemos escribir

ds^2 = \sum_{i=0}^1 g_{ij}du^i du^j = g_{ij}du^i du^j,

donde al final aplicamos el C \sum E con i=1,2 y j=1,2.

También son sencillas de calcular el vector normal \boldsymbol{n}, la segunda forma fundamental II y la curvatura de Gauss o intrínseca k:

\boldsymbol{n} = \frac{\partial_u S \times \partial_v S}{|| \partial_u S \times \partial_v S||},

II(u,v) = L(u,v) du \otimes du + M(u,v) du \otimes dv +

+ M(u,v) dv \otimes du + N(u,v) dv \otimes dv

o, lo que es lo mismo,

\amalg = b_{00} du^2 + b_{01} du dv + b_{10} dv du + b_{11} dv^2 o \amalg = b_{ij}du^i du^j

donde

b_{00}=\partial_{uu} \cdot \boldsymbol{n}

b_{01}=b_{10} = \partial_{uv} S \cdot \boldsymbol{n}

b_{11} = \partial_{vv} S \cdot \boldsymbol{n},

k = \frac{LN-M^2}{EG-F^2} = \frac{b_{11}b_{22}-b_{12}^2}{g_{11}g_{22}-g_{12}^2}

Calculamos a continuación todos estos valores en las superficies que nos interesan.

Plano \mathbb{R}^2

Utilizamos la parametrización S(u,v)=(u,v,0) con u \in \mathbb{R} y v \in \mathbb{R} (desde el punto de vista de las variedades, tenemos un atlas  con una única carta que es la identidad. Recordar que las cartas van en sentido contrario)

plaR2

g_{00} = \partial_u S \cdot \partial_u S = (1,0,0) \cdot (1,0,0) = 1

g_{01} = g_{10} = 0, g_{11}=1

\boldsymbol{n} = (0,0,1)

\partial_{uu} S = \partial_{uv} S = \partial_{vv} S = 0 y, por tanto, b_{ij}=0

k = \frac{0.0 - 0^2}{1.1 - 0^2} = 0.

Esfera S^2(k)

Parametrizamos según indica la figura:

esfera

g_{00} = a^2, g_{01} = g_{10} = 0, g_{11}=a^2 \sin^2 \theta

\boldsymbol{n} = (\sin \theta \cos \varphi, \sin \theta \sin \varphi ,\cos \theta)

b_{00} = -a, b_{01} = b_{10} = 0, b_{11}=-a \sin^2 \theta

y, por tanto, k = \frac{-a.-a \sin^2 \theta - 0^2}{a^2.a^2 \sin^2 \theta - 0^2} = \frac{1}{a^2}.

Pseudoesfera \mathbb{H}^2(k)

pseudoesfera

g_{00} = a^2 \cot^2 \theta, g_{01} = g_{10} = 0, g_{11}=a^2 \sin^2 \theta

\boldsymbol{n} = (-|\cos \theta| \cos \varphi, - |\cos \theta| \sin \varphi, sgn(\cos \theta) \sin \theta)

k = -\frac{1}{a^2}.

Para terminar, ¿que tiene de curioso la siguiente aparente parametrización como superficie de revolución de \mathbb{R}^2 para que nos de g_{11} = \theta^2?

plano

Hasta aquí calculamos de manera clásica.

Pierre Deligne es el ganador del Premio Abel de este año 2013:

“for seminal contributions to algebraic geometry and for their transformative impact on number theory, representation theory, and related fields”

Dos de los blogs que sigo también se hacen eco de la noticia, el de Francisthemulenews y el de Gowers, que de hecho es el encargado oficial de presentar su trabajo al público general. El resumen oficial en español aquí.

El premio Abel es el Nobel de las matemáticas. Era extraño que no existiera un Nobel para esta disciplina fundamental. La Medalla Fields cubre esa ausencia, aunque busca premiar a jovenes talentos, no a matemáticos consagrados. De ahí el premio Abel, creado en el bicentenario del nacimiento del matemático noruego Niels Henrik Abel el año 2002 y otorgado por la Academia Noruega de las Ciencias y las Letras de Noruega, con una dotación económica de 750000 euros similar a la del Nobel.

La geometría algebraica trata de los conjuntos de soluciones de sistemas de ecuaciones polinómicas en varias variable. Al igual que el conjunto de soluciones de los sistemas de ecuaciones lineales en una variable determinan una variedad lineal (puntos, rectas, planos, etc.), las soluciones de los sistemas de ecuaciones polinómicas no lineales determinan variedades algebraicas.

Andre Weil hizo grandes aportaciones a la geometría algebraica, desarrollando todo un lenguaje y una fundamentación para la misma. En un momento propuso cuatro afirmaciones que no pudo demostrar, conocidas a partir de entonces como las Conjeturas de Weil, siendo la última la mas dificil y la mas profunda. Son las siguientes:

Sea Z(x) la función zeta asociada a un sistema de ecuaciones polinómicas de grado n y sea q un primo. Entonces:

  1. Z(x) puede escribirse de la forma \frac{P(x)}{Q(x)} para dos polinomios P y Q con coeficientes enteros.
  2. Concretamente, existe una fórmula de la forma Z(x)=\frac{P_1(x) P_3(x) \ldots P_{2n-1}(x)}{P_0(x) P_2(x) \ldots P_{2n}(x)} donde cada P_i tiene coeficientes enteros y los reciprocos de las raices de P_i son enteros algebraicos y las raices tienen módulo q^{\frac{-i}{2}}.
  3. La función z \mapsto 1/q^n z intercambia las raices de P_i con las de P_{2n-1}.
  4. Bajo condiciones apropiadas, el grado de P_i es igual al i-ésimo Número de Betti del conjunto determinado por el sistema de ecuaciones polinómicas con coeficientes sobre \mathbb{C}.

Alexander Grothendieck es el siguiente personaje importante en el area, pues reescribió la geometría algebraica subsumiendo el concepto de variedad algebraica en el de esquema, entendiendo que cualquier anillo conmutativo puede ser un objeto geométrico, dotando de esta manera, de un nuevo lenguaje y una fundamentación, mucho mas potente que la de Weil, para la geometría algebraica.

A pesar de su abstracción, o precisamente por ella, esta última visión es la que ha permanecido, pues permite conectar dos mundos, el de la geometría algebraica y el de la álgebra conmutativa. Fué gracias a ella que Grothendieck pudo demostrar la ecuación funcional y tenía ideas, demostrar las conjeturas estandar, para abordar la última conjetura.

Es aquí cuando entra en escena Pierre Deligne, discípulo aventajado de Grothendieck. que la demostró pero sin seguir el guión propuesto por Grothendieck, es decir, sin demostrar las conjeturas estandar (de hecho hay gente que piensa que fue capaz de demostrarla porque era el único que realmente comprendía toda la reformulación de su maestro).

Yo no entiendo mucho, y Gowers dice que tampoco, aunque muchísimo mas que yo, por supuesto. pero la demostración dicen que es asombrosa, pues utiliza muchos resultados muy profundos y complidos del area, en palabras del propio Gowers:

  • A theorem of Kazhdan and Margulis about monodromy groups of Lefschetz pencils.
  • A method of Rankin for estimating Ramanujan’s tau function.
  • A cohomology theory of Grothendieck for certain L-functions.
  • The classical invariant theory of the symplectic group.
  • A Leray spectral sequence argument.
  • The “tensor-power trick”

De hecho, esta demostración ya le valió en su momento la medalla Fields. En fin, casi nada… Nuestra felicitación a Pierre Deligne.

Alguna definicion previa (mantendremos la nomenclatura inglesa):

Un workspace es un lugar donde el desarrollador tiene todos las entidades que necesita para realizar su tarea. En concreto, puede ser un arbol de directorios en disco en el area de trabajo del desarrollador o una colección de ficheros mantenidad en un espacio abstracto por una herramienta. Está asociado con versiones particulares de las entidades. Debe disponer de un mecanismo para construir ejecutables a partir de su contenido.

Una codeline es un conjunto de fichero fuente y otras entidades que forman parte y que cambia a lo largo del tiempo. Cada vez que modificamos un fichero u otra entidad en el sistema de control de versiones, creamos una revisión de los mismos. Una codeline contiene cada versión de cada entidad a lo largo de un camino de evolución.

Dado que las ramas en las que se trabaja en paralelo no constituyen conjuntos disjuntos, el merge siempre tiene un overhead debido a posibles conflictos.

En cada uno de los patrones aparecen los problemas que intenta resolver y el esquema de solución.

Mainline
¿Cómo mantener el numero de codelines activas de manera que sea un conjunto manejable, y evitar que el crecimiento del arbol de versiones deproyecto lo lleve a ser demasiado amplio o demasiado denso? ¿Como evitar el overhead del merging?

mainlineDevelopment

Active Development Line
¿Cómo conseguir una codeline rapidamente evolucionable pero lo suficientemente estable para poder utilizarse?

labelingNamedStableBases

Private Workspace

Acabo de conseguir el libro Software Configuration Management Patterns: Effective Teamwork, Practical Integration de Stephen P. Berczuk, Brad Appleton y Kyle Brown en el que se abordan diferentes patrones para la Gestión de Configuración de Software. Además, encontre una presentación de G. Serrano basada en el libro que cubre sobradamente nuestros intereses.

En la práctica, la SCM se preocupa de como construir y lanzar un producto, así como de la identificación y el seguimiento de sus modificaciones.

Para empezar, ¿qué entendemos por patrón? La idea de patrón tal y como la utilizaremos aparece originalmente en el trabajo que el arquitecto Christopher Alexander hizo en construcción arquitectónica para describir las cualidades de un buen diseño arquitectónico. Define patrón como una “solución a un problema en un contexto”, como algo que “describe un problema que ocurre una y otra vez en nuestro entorno, y describe la esencia de la solución a dicho problema, de manera que puedes utilizar esa solución millones de veces sin tenerlo que hacer dos veces de la misma manera”.

El esquema de patrones que seguiremos es:

SCMPatternLanguage

Acabo de descubrir Prezi, un programa que nos permite crear presentaciones online.

Por una parte, como acabamos de decir, permite tanto su creación como su exposición sin necesidad de ninguna instalación local. Por otra, el punto mas original, es que nos permite crearla a partir de un único esquema por el que podremos navegar líbremente, un complejo gráfico por el que nos iremos desplazando, acercando y alejando a lo largo de nuestra exposición.

Existen tres modalidades, una de ellas gratuita, para darnos de alta en el sistema. A partir de ahí, podemos crear tantas presentaciones como queramos (tenemos un límite de almacenamiento) y disponemos de unas cuantas plantillas, que parecen meditadas, que nos facilitarán la iniciación en el sistema.

Las presentaciones, la verdad, quedan resultonas.

Para los que utilizamos latex, tenemos que añadirlo como imagen (generada, por ejemplo, mediante LatexIt).

Tensor de energía impulso

Energía del campo electromagnético

En la Lecture III del curso sobre GR de C. Hirata nos comenta, por una parte, operaciones sobre tensores, y por otra, electrodinámica en relatividad especial.

La primera operación que define es el producto tensorial. Dados dos tensores A y B de tipo \binom{m}{n} y \binom{p}{q} respectivamente, podemos construir un nuevo tensor A \otimes B de tipo \binom{m+p}{n+q} haciendo:

(\boldsymbol{A} \otimes \boldsymbol{B})(\boldsymbol{\tilde{k}},\ldots,\boldsymbol{u},\boldsymbol{\tilde{l}},\ldots,\boldsymbol{v}):=\boldsymbol{A}(\boldsymbol{\tilde{k}}\ldots\boldsymbol{u})\boldsymbol{B}(\boldsymbol{\tilde{l}},\ldots,\boldsymbol{v})

que en components queda:

(A \otimes B)^{\alpha_1 \ldots \alpha_m\,\,\gamma_1 \ldots \gamma_p}_{\beta_1 \ldots \beta_n \,\, \delta_1 \ldots \delta_q} = A^{ \alpha_1 \ldots \alpha_m}_{\beta_1 \ldots \beta_n} B^{\gamma_1 \ldots \gamma_p}_{\delta_1 \ldots \delta_q}

Comenta la idea intuitiva que lo que estamos haciendo es la generalización  a tensores de rango arbitrario del hecho de construir la matriz \boldsymbol{u}\boldsymbol{v^T} a partir de los dos vectores (columna, siempre columna los vectores…) \boldsymbol{u} y \boldsymbol{v}.

Ya comentamos que:

\boldsymbol{d}f(\boldsymbol{v}) = \frac{d}{dt}(\boldsymbol{x}(t) \circ f)|_{t=0}.

Podemos generalizarlo para un tensor \boldsymbol{T} de rango cualquiera. Por ejemplo, con rango \binom{1}{1} tendriamos T^{\alpha}_{\beta} y:

(\boldsymbol{\nabla T}

Contracción de un tensor

Transposición de un tensor

Simetrización y antisimetrización de un tensor

Producto exterior

Tensor de volumen

Derivada exterior

Con respecto a la parte de electrodinámica, empezamos con la fuerza de Lorentz clásica, que es la fuerza que experiementa una particula de masa m y carga e sometida a un cambo electromagnético:

m \frac{d}{dt} \boldsymbol{v} = e( \boldsymbol{E} + \boldsymbol{v} \times \boldsymbol{B} ).

Para su generalización en SR necesitamos, por una parte, que la ecuación sea invariante Lorentz, y por otra, pensar como se generaliza el producto vectorial. La opción mas simple y que funciona es, pensando en 4-aceleraciones, el campo electromagnético y las 4-velocidades, la siguiente:

\frac{d}{d\tau}p^{\alpha} = m^{\alpha} = e F^{\alpha}_{\beta} u^{\beta}

Tenemos ahora 16 ecuaciones mientras que, hasta ahora, teniamos 6: 3 para el campo eléctrico y 3 para el campo magnético.

Ecuaciones de Maxwell

En su Lecture II, Christopher empieza hablando del gradiente \boldsymbol{d}f de un campo escalar f como una 1-forma (transformable en vector subiendo un índice) importante que nos permitirá definir bases de vectores y 1-formas en espacios curvados.

La explicación está bastante clara y lo que hace es traducir lo que nos encontrariamos trabajando con variedades a un lenguaje comprensible para aquellos que aun no las conocen, es decir, existe una manera general de construir la diferencial en un punto de una función con dominio en una variedad y los espacios planos con los que estamos trabajando no son mas que casos particulares de variedades donde las cartas son la identidad (podemos pensar \mathbb{R}^3 como una variedad diferenciable con la carta identidad: (\mathbb{R}^3,id). A partir de ahí podemos construir las variedades tangentes, T_m\mathbb{R}^3 \cong \mathbb{R}^3, y cotangente y en esta última aparece la diferencial como una 1-forma).

El resumen es, sean \alpha(t) una trayectoria y f un campo escalar en el espacio plano considerado, entonces podemos construir una función (f \circ \alpha)(t) = f(\alpha(t)) que, por ser una función de una variable, podemos derivar y evaluar en t=0:

\frac{d}{dt}(f \circ \alpha)(t)|_{t=0},

por lo que podemos escribir:

\frac{\partial}{\partial \boldsymbol{v}} f := \frac{d}{dt} (f \circ \alpha)(t) = \langle \boldsymbol{d}f, \boldsymbol{v} \rangle

donde \boldsymbol{v} = \frac{d}{dt}\alpha(t) y \boldsymbol{d}f es la 1-forma diferencial o gradiente de f.

En un espacio plano se puede escoger un sistema de referencia en el que las coordenadas x^\alpha son las componentes de vector de posición \boldsymbol{x} = x^\alpha \boldsymbol{e}_\alpha. En este caso:

\langle \boldsymbol{d}(x^\alpha) , \boldsymbol{v} \rangle = \frac{d}{dt}x^\alpha = v^\alpha,

por lo que $latex $, formando una base. Definimos \boldsymbol{d}(x^\alpha) := \boldsymbol{\omega}^\alpha.

Dada una partícula que sigue una trayectoria \boldsymbol{\alpha}(t) = x^{\alpha}(t), podemos parametrizarla mediante el tiempo propio \tau que es aquel que cumple:

|\frac{d}{d\tau}\boldsymbol{\alpha}(\tau)|^2 = \frac{d}{d\tau}x^{\alpha}(\tau) \cdot \frac{d}{d\tau}x^{\alpha}(\tau) = -1.

Siempre podemos reparametrizar haciendo:

\frac{d}{dt}\tau = \sqrt{-\frac{d}{dt}\alpha(t) \cdot \frac{d}{dt}\alpha(t)}.

La idea, desde el punto de vista de curvas sobre variedades, es que la parametrización mediante el tiempo propio no es mas que el equivalente a la parametrización por longitud de arco de manera de manera que nos permita medir la longitud de la misma que en este caso corresponde a medir tiempos (lo del reloj propio y estas cosas).

Para tener un invariante Lorentz de la velocidad \boldsymbol{v} definimos la 4-velocidad \boldsymbol{u} como:

\boldsymbol{u}:=\frac{d}{d\tau}\alpha(\tau),

ya que, como acabamos de ver, por construcción tenemos \boldsymbol{u} \cdot \boldsymbol{u} = -1.

Para un objeto con masa m definimos el 4-momento como \boldsymbol{p} = m \boldsymbol{v}, de manera que \boldsymbol{p} \cdot \boldsymbol{p} = -m^2. La componente temporal p^0 del 4-momento es la energía y las componentes espaciales p^i son los 3-momentos.

Finalmente, si hay fuerzas tenemos aceleraciones. La 4-aceleración \boldsymbol{a} se define como

\boldsymbol{a} = \frac{d}{d\tau}\boldsymbol{v} o a^{\mu} = \frac{d}{d\tau}v^{\mu}.

En variedades generales, para que la aceleración tenga sentido, necesitaremos trabajo extra, pues necesitaremos ser capaces de trasladar paralelamente vectores sobre la variedad.

Para finalizar, nos habla de algunos conceptos mas de algebra tensorial. En primer lugar define un tensor \boldsymbol{T} de tipo \binom{m}{n} como un operador lineal que actua sobre m 1-formas y n vectores y nos devuelve un escalar:

\boldsymbol{T}(\boldsymbol{\tilde{k}},\ldots, \boldsymbol{\tilde{l}}, \boldsymbol{u},\ldots, \boldsymbol{v})

y que, fijada una referencia, queda determinada por su actuación sobre los elementos de esta base:

\boldsymbol{T}(\boldsymbol{w}^{\alpha_1},\ldots,\boldsymbol{w}^{\alpha_m},\boldsymbol{e}_{\beta_1},\ldots,\boldsymbol{e}_{\beta_n}) = T^{\alpha_1,\ldots,\alpha_m}_{\beta_1,\ldots,\beta_n}.

Podemos ver una métrica \boldsymbol{g} como un tensor de tipo \binom{0}{2}, o 2 veces covariante, pues actua sobre 2 vectores y devuelve g_{\alpha \beta}u^{\alpha}v^{\beta}. Podemos pensar una 1-forma \boldsymbol{\tilde{k}} como un tensor de tipo \binom{0}{1}, o 1 vez covariante, pues a partir de un vector \boldsymbol{v} nos devuelve el escalar \langle \boldsymbol{\tilde{k}},\boldsymbol{v}\rangle. Sus componentes son \tilde{k}_{\alpha}. Por el contrario, podemos pensar un vector \boldsymbol{v} como un tensor de tipo \binom{1}{0}, o 1 vez contravariante, pues a partir de una 1-forma \boldsymbol{\tilde{k}} nos devuelve el escalar \langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle. Las componentes de \boldsymbol{v} son v^{\alpha} = \langle \boldsymbol{w}^{\alpha},\boldsymbol{v} \rangle.

Finalmente, es útil recordar que, por una parte, los tensores de tipo \binom{m}{n} no necesitan de las métricas para existir y, por otra, que en el caso de existir, entonces gracias a ésta, todos los tensores de rango m+n son equivalentes entre si, es decir, el mismo tensor lo podemos escribir de 2^{m+n} maneras en función de donde aparece cada índice, si arriba o abajo, contravariante o covariante. Por ejemplo, si T es un tensor de tipo \binom{1}{2} podemos transformalo a uno de tipo \binom{0}{3} de la siguiente manera:

T^{\alpha}_{\beta \gamma} = \boldsymbol{T}(\boldsymbol{w}^{\alpha},\boldsymbol{e}_{\beta},\boldsymbol{e}_{\gamma}) = \boldsymbol{T}(g^{\delta \alpha}\boldsymbol{e}_{\delta},\boldsymbol{e}_{\beta},\boldsymbol{e}_{\gamma}) = g^{\delta \alpha} \boldsymbol{T}(\boldsymbol{e}_\delta,\boldsymbol{e}_\beta,\boldsymbol{e}_\gamma) = g^{\delta \alpha}T_{\delta \beta \gamma}.

Desde la geometria diferencial y Riemanniana, subir y bajar índices equivale a construir el isomorfismo musical, \sharp y \flat ,entre el fibrado tangente TM y el cotangente T^*M de una variedad M inducido por una métrica g. Básicamente son contracciones entre el tensor métrico o el co-tensor métrico con un tensor arbitrario. Permite, por ejemplo, la generalización del gradiente.

En su Lecture I nos habla de vectores, 1-formas, tensores y espacio-tiempos planos. Para empezar, un vector, a diferencia de un escalar, no solo tiene magnitud sino tambien dirección y sentido. En un contexto mas abstracto, son los elementos de un espacio vectorial fínito $latex V$ (en realidad, un espacio euclideo, es decir, un espacio vectorial normado con una norma procedente de un producto escalar).

Por ejemplo, dada una curva \alpha(t) \in \mathbb{R}^3, siendo t un parámetro, el tiempo absoluto Newtoniano, podemos definir su vector velocidad como:

\boldsymbol{v} = \boldsymbol{v}(t) = \frac{d}{dt} \alpha(t) = \frac{d}{dt}\alpha (= \alpha_t).

O, en relatividad, \beta(\tau) \in \mathbb{M}^4, con \tau el tiempo propio:

\boldsymbol{v} = \boldsymbol{v}(\tau) = \frac{d}{d\tau} \beta(\tau) = \frac{d}{d\tau}\beta (= \beta_\tau).

Al introducir los espacio vectoriales, podemos sumar/restar vectores entre si, multiplicarlos por un escalar y disponemos de los conceptos de bases (conjuntos de vectores linealmente independientes que forman un sistema generador)  y coordenadas. Sean \{\boldsymbol{e}_1, \boldsymbol{e}_2, \boldsymbol{e}_3\} y \{ \boldsymbol{e}_0, \boldsymbol{e}_1, \boldsymbol{e}_2, \boldsymbol{e}_3\} las bases de \mathbb{R}^3 y \mathbb{M}^4 respectivamente. Entonces podemos escribir, por ejemplo:

\boldsymbol{v} = v^0 \boldsymbol{e}_0 + v^1 \boldsymbol{e}_1 + v^2 \boldsymbol{e}_2 + v^3 \boldsymbol{e}_3 = \sum_\alpha v^\alpha \boldsymbol{e}_\alpha = v^\alpha \boldsymbol{e}_\alpha = v^0 \boldsymbol{e}_0 + v^i \boldsymbol{e}_i.

Aunque muchas veces no se escriba explicitamente, tener en cuenta que las coordenadas pueden ser, como en el ejemplo anterior, funciones:

v(\tau) = v^\alpha (\tau) \boldsymbol{e}_\alpha.

Para cambiar de un sistema de coordenadas \{ \boldsymbol{e}_\alpha \} a otro \{ \boldsymbol{e}_{\tilde{\alpha}} \} basta expresar los vectores de una base  en la otra:

\boldsymbol{e}_{\tilde{\alpha}} = \sum_\alpha A^\alpha_{\tilde{\alpha}} \boldsymbol{e}_{\alpha} = A^\alpha_{\tilde{\alpha}} \boldsymbol{e}_{\alpha},

\boldsymbol{e}_{\alpha} = \sum_{\tilde{\alpha}} B_\alpha^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}} = B_\alpha^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}},

donde B_\alpha^{\tilde{\alpha}} = (A^{-1})_\alpha^{\tilde{\alpha}}, de manera que si \boldsymbol{v} = v^{\alpha} \boldsymbol{e}_\alpha entonces:

\boldsymbol{v} = v^\alpha \boldsymbol{e}_\alpha = v^\alpha B^{\tilde{\alpha}}_{\alpha} \boldsymbol{e}_{\tilde{\alpha}} = v^\alpha (A^{-1})^{\tilde{\alpha}}_{\alpha} \boldsymbol{e}_{\tilde{\alpha}} = v^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}}

con:

v^{\tilde{\alpha}} = v^{\alpha}(A^{-1})^{\tilde{\alpha}}_{\alpha} = (A^{-1})^{\tilde{\alpha}}_{\alpha} v^{\alpha}.

Como ya hemos comentado, disponemos de un producto escalar \cdot y podemos definir una norma

|\boldsymbol{u}|^2 = \boldsymbol{u} \cdot \boldsymbol{u}.

Volviendo a la idea de que tenemos una base \{ e_{\alpha}\}, entonces basta determinar el comportamiento del producto escalar respecto de los elementos de la base:

\boldsymbol{u} \cdot \boldsymbol{v} = u^{\alpha} \boldsymbol{e}_{\alpha} \cdot v^{\beta} \boldsymbol{e}_{\beta} =

\bigg( = \sum_{\alpha} u^{\alpha} \boldsymbol{e}_{\alpha} \cdot \sum_{\beta} v^{\beta} \boldsymbol{e}_{\beta} = \sum_{\alpha} \sum_{\beta} u^{\alpha} \boldsymbol{e}_{\alpha} \cdot v^{\beta} \boldsymbol{e}_{\beta} =

= \sum_{\alpha} \sum_{\beta} u^{\alpha} v^{\beta} (\boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} ) = \sum_{\alpha} \sum_{\beta} (\boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} ) u^{\alpha} v^{\beta} = \bigg)

= g_{\alpha \beta} u^{\alpha} v^{\beta}

La conmutatividad del producto escalar nos lleva a que g_{\alpha \beta} = g_{\beta \alpha} y un cambio de coordenadas de g_{\alpha \beta} a nuevas coordenadas tilde queda:

g_{\tilde{\alpha} \tilde{\beta}} = \boldsymbol{e}_{\tilde{\alpha}} \cdot \boldsymbol{e}_{\tilde{\beta}} = A^{\alpha}_{\tilde{\alpha}} \boldsymbol{e}_{\alpha} \cdot A^{\beta}_{\tilde{\beta}} \boldsymbol{e}_b = A^{\alpha}_{\tilde{\alpha}} A^{\beta}_{\tilde{\beta}} \boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} = A^{\alpha}_{\tilde{\alpha}} A^{\beta}_{\tilde{\beta}} g_{\alpha \beta}

Podemos definir el producto escalar como:

g(u,v) := u \cdot v

que es una 2-forma, g:T_pM \times T_pM \longrightarrow \mathbb{K} , o un tensor dos veces covariante, ya hablaremos.

En el caso particular de \mathbb{R}^3  tenemos:

g_{i j} = \delta_{i j} := \left(  \begin{array}{ccc}  1 & 0 & 0 \\  0 & 1 & 0 \\  0 & 0 & 1  \end{array}  \right)

donde, si tenemos \boldsymbol{u} = \boldsymbol{u}^i = (u^1, u^2, u^3)^T en la base \{ \boldsymbol{e}_i\}:

|\boldsymbol{u}|^2 = \boldsymbol{u} \cdot \boldsymbol{u} = \delta(\boldsymbol{u},\boldsymbol{u}) = \delta_{ij} u^i u^j = (\sum_i \sum_j \delta_{ij} u^i u^j) = u_j u^j =

= (u^1)^2 + (u^2)^2 + (u^3)^2.

que es siempre positiva para todos los vectores salvo para el \boldsymbol{0}. Nos ha aparecido en el cálculo, al multiplicar la matriz de la métrica por el primer vector, el mismo vector pero ahora como 1-forma: u_i = (u^1, u^2, u^3), en la base {\boldsymbol{e}^i}. Además, hemos visto como la métrica nos a permitido bajar un índice. Ya volveremos sobre esto.

y en \mathbb{M}^4:

g_{\alpha \beta} = \eta_{\alpha \beta} := \left(  \begin{array}{cccc}  -1 & 0 & 0 & 0 \\  0 & 1 & 0 & 0 \\  0 & 0 & 1 & 0 \\  0 & 0 & 0 & 1  \end{array}  \right).

En este caso, \eta_{\alpha \beta} u^\alpha u^{\beta} = -(u^0)^2 + (u^1)^2 + (u^2)^2 + (u^3)^2, dado lugar a tres clases de vectores en función del valor de su norma: espaciales, con norma positiva, temporales, con norma negativa y luminosos, con norma 0.

Para terminar, nos habla de las 1-formas, que nos son mas que operadores lineales \tilde{\boldsymbol{k}} que a partir de un vector \boldsymbol{v} nos devuelve un escalar \phi:

\phi = \langle \tilde{\boldsymbol{k}}, \boldsymbol{v} \rangle.

Desde el punto de vista del espacio vectorial V, las 1-formas son elementos del espacio dual V^* (elementos del tipo \boldsymbol{\tilde{k}}: V \longrightarrow \mathbb{K}). Si volvemos a mirar componentes, la acción de la 1-forma queda totalmente determinada, debido a la linealidad, por su acción sobre los elementos de la base \{ \boldsymbol{e}_\alpha\}:

\tilde{k_{\alpha}} = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle

de manera que si \boldsymbol{v} = v^{\alpha} \boldsymbol{e}_{\alpha} tenemos:

\langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \langle \boldsymbol{\tilde{k}}, v^{\alpha}\boldsymbol{e}_{\alpha} \rangle = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle v^{\alpha} = \tilde{k_{\alpha}}v^{\alpha}.

Por tanto,

Como tenemos una métrica, podemos relacionar cualquier vector \boldsymbol{k} con una 1-forma \boldsymbol{\tilde{k}} de manera que:

\langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \boldsymbol{k} \cdot \boldsymbol{v}

es decir, que dado \boldsymbol{k} \in V entonces le asociamos \boldsymbol{\tilde{k}} \in V^*:

\boldsymbol{\tilde{k}}: V \longrightarrow \mathbb{K} \,/\, v \mapsto \boldsymbol{\tilde{k}}(v) = \langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \boldsymbol{k} \cdot \boldsymbol{v}

¿Y cuales son sus componentes \tilde{k}_{\alpha}? Sencillamente:

\tilde{k}_{\alpha} = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle = \boldsymbol{k} \cdot \boldsymbol{e}_{\alpha} = k^{\beta} \boldsymbol{e}_{\beta} \cdot \boldsymbol{e}_{\alpha} = g_{\alpha \beta} k^{\beta}.

De la misma manera:

k^{\alpha} = g^{\alpha \beta} \tilde{k}_{\beta}, donde g^{\alpha \beta} es la inversa de g_{\alpha \beta} (g^{\alpha \beta}g_{\beta \gamma} = \delta^{\alpha}_{\gamma}).

Finalmente, se puede demostrar que g^{\alpha \beta} \tilde{k}_{\alpha} \tilde{l}_{\beta} = \boldsymbol{k} \cdot \boldsymbol{l}.

Acabo de “tropezarme” por primera vez con Christopher Hirata. La verdad, no lo conocía. Me han sorprendido muchisimo algunas similitudes entre su vida y la de Terry Tao cambiando, obviamene, las matemáticas por la física.

Hirata nace en 1982, Tao en 1975. Hirata gana una medalla de oro en la IPhO en 1996 a los 13 años y Tao gana la de oro en la IMO del 1988 también con los mismos años. Hirata entra en el Calthec a los 14 y recibe un PhD en física a los 22 en Princeton mientras que Tao entra con 14 en Flinders y recibe un PhD en matemáticas a los 20 años también en Princeton. Sorprendente… (Para los que crean en el IQ, yo tengo mis reservas sobre estos índices de inteligencia, dicen que Hirata tiene 225 y Tao 230).

Al margen de curiosidades, vamos a ir comentando a lo largo de unos cuantos posts  su curso sobre relatividad general (GR: General Relativity). Comentaremos lo allí expuesto y lo intentaremos completar desde un punto de vista de la geometría diferencial y Riemanniana.

¿Qué tenemos que hacer para visualizar localmente datos compatibles con VisIt que tenemos en algun host? Para empezar, necesitamos tener la misma versión de VisIt instalada tanto local como remotamente. En segundo lugar, necesitamos crear un New Host en Options->Host profiles... y configurar, básicamente, el Remote host name y el Username (nombre completo de la máquina y nuestro usuario en ella) en la pestaña Host Settings, y un New Profile en la de Launch Profiles con las opciones por defecto.
Un detalle muy importante es que en el campo Path to VisIt installation, en el caso de tener un Mac, lo que necesita es:

/Applications/VisIt.app/Contents/Resources/

Finalmente, tanto para abrir fichero locales como remotos, le daremos a Open y seleccionaremos el localhost o el nuevo host configurado.

marzo 2013
L M X J V S D
« Feb   Abr »
 123
45678910
11121314151617
18192021222324
25262728293031