You are currently browsing the tag archive for the ‘tensor’ tag.

En su Lecture II, Christopher empieza hablando del gradiente \boldsymbol{d}f de un campo escalar f como una 1-forma (transformable en vector subiendo un índice) importante que nos permitirá definir bases de vectores y 1-formas en espacios curvados.

La explicación está bastante clara y lo que hace es traducir lo que nos encontrariamos trabajando con variedades a un lenguaje comprensible para aquellos que aun no las conocen, es decir, existe una manera general de construir la diferencial en un punto de una función con dominio en una variedad y los espacios planos con los que estamos trabajando no son mas que casos particulares de variedades donde las cartas son la identidad (podemos pensar \mathbb{R}^3 como una variedad diferenciable con la carta identidad: (\mathbb{R}^3,id). A partir de ahí podemos construir las variedades tangentes, T_m\mathbb{R}^3 \cong \mathbb{R}^3, y cotangente y en esta última aparece la diferencial como una 1-forma).

El resumen es, sean \alpha(t) una trayectoria y f un campo escalar en el espacio plano considerado, entonces podemos construir una función (f \circ \alpha)(t) = f(\alpha(t)) que, por ser una función de una variable, podemos derivar y evaluar en t=0:

\frac{d}{dt}(f \circ \alpha)(t)|_{t=0},

por lo que podemos escribir:

\frac{\partial}{\partial \boldsymbol{v}} f := \frac{d}{dt} (f \circ \alpha)(t) = \langle \boldsymbol{d}f, \boldsymbol{v} \rangle

donde \boldsymbol{v} = \frac{d}{dt}\alpha(t) y \boldsymbol{d}f es la 1-forma diferencial o gradiente de f.

En un espacio plano se puede escoger un sistema de referencia en el que las coordenadas x^\alpha son las componentes de vector de posición \boldsymbol{x} = x^\alpha \boldsymbol{e}_\alpha. En este caso:

\langle \boldsymbol{d}(x^\alpha) , \boldsymbol{v} \rangle = \frac{d}{dt}x^\alpha = v^\alpha,

por lo que $latex $, formando una base. Definimos \boldsymbol{d}(x^\alpha) := \boldsymbol{\omega}^\alpha.

Dada una partícula que sigue una trayectoria \boldsymbol{\alpha}(t) = x^{\alpha}(t), podemos parametrizarla mediante el tiempo propio \tau que es aquel que cumple:

|\frac{d}{d\tau}\boldsymbol{\alpha}(\tau)|^2 = \frac{d}{d\tau}x^{\alpha}(\tau) \cdot \frac{d}{d\tau}x^{\alpha}(\tau) = -1.

Siempre podemos reparametrizar haciendo:

\frac{d}{dt}\tau = \sqrt{-\frac{d}{dt}\alpha(t) \cdot \frac{d}{dt}\alpha(t)}.

La idea, desde el punto de vista de curvas sobre variedades, es que la parametrización mediante el tiempo propio no es mas que el equivalente a la parametrización por longitud de arco de manera de manera que nos permita medir la longitud de la misma que en este caso corresponde a medir tiempos (lo del reloj propio y estas cosas).

Para tener un invariante Lorentz de la velocidad \boldsymbol{v} definimos la 4-velocidad \boldsymbol{u} como:

\boldsymbol{u}:=\frac{d}{d\tau}\alpha(\tau),

ya que, como acabamos de ver, por construcción tenemos \boldsymbol{u} \cdot \boldsymbol{u} = -1.

Para un objeto con masa m definimos el 4-momento como \boldsymbol{p} = m \boldsymbol{v}, de manera que \boldsymbol{p} \cdot \boldsymbol{p} = -m^2. La componente temporal p^0 del 4-momento es la energía y las componentes espaciales p^i son los 3-momentos.

Finalmente, si hay fuerzas tenemos aceleraciones. La 4-aceleración \boldsymbol{a} se define como

\boldsymbol{a} = \frac{d}{d\tau}\boldsymbol{v} o a^{\mu} = \frac{d}{d\tau}v^{\mu}.

En variedades generales, para que la aceleración tenga sentido, necesitaremos trabajo extra, pues necesitaremos ser capaces de trasladar paralelamente vectores sobre la variedad.

Para finalizar, nos habla de algunos conceptos mas de algebra tensorial. En primer lugar define un tensor \boldsymbol{T} de tipo \binom{m}{n} como un operador lineal que actua sobre m 1-formas y n vectores y nos devuelve un escalar:

\boldsymbol{T}(\boldsymbol{\tilde{k}},\ldots, \boldsymbol{\tilde{l}}, \boldsymbol{u},\ldots, \boldsymbol{v})

y que, fijada una referencia, queda determinada por su actuación sobre los elementos de esta base:

\boldsymbol{T}(\boldsymbol{w}^{\alpha_1},\ldots,\boldsymbol{w}^{\alpha_m},\boldsymbol{e}_{\beta_1},\ldots,\boldsymbol{e}_{\beta_n}) = T^{\alpha_1,\ldots,\alpha_m}_{\beta_1,\ldots,\beta_n}.

Podemos ver una métrica \boldsymbol{g} como un tensor de tipo \binom{0}{2}, o 2 veces covariante, pues actua sobre 2 vectores y devuelve g_{\alpha \beta}u^{\alpha}v^{\beta}. Podemos pensar una 1-forma \boldsymbol{\tilde{k}} como un tensor de tipo \binom{0}{1}, o 1 vez covariante, pues a partir de un vector \boldsymbol{v} nos devuelve el escalar \langle \boldsymbol{\tilde{k}},\boldsymbol{v}\rangle. Sus componentes son \tilde{k}_{\alpha}. Por el contrario, podemos pensar un vector \boldsymbol{v} como un tensor de tipo \binom{1}{0}, o 1 vez contravariante, pues a partir de una 1-forma \boldsymbol{\tilde{k}} nos devuelve el escalar \langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle. Las componentes de \boldsymbol{v} son v^{\alpha} = \langle \boldsymbol{w}^{\alpha},\boldsymbol{v} \rangle.

Finalmente, es útil recordar que, por una parte, los tensores de tipo \binom{m}{n} no necesitan de las métricas para existir y, por otra, que en el caso de existir, entonces gracias a ésta, todos los tensores de rango m+n son equivalentes entre si, es decir, el mismo tensor lo podemos escribir de 2^{m+n} maneras en función de donde aparece cada índice, si arriba o abajo, contravariante o covariante. Por ejemplo, si T es un tensor de tipo \binom{1}{2} podemos transformalo a uno de tipo \binom{0}{3} de la siguiente manera:

T^{\alpha}_{\beta \gamma} = \boldsymbol{T}(\boldsymbol{w}^{\alpha},\boldsymbol{e}_{\beta},\boldsymbol{e}_{\gamma}) = \boldsymbol{T}(g^{\delta \alpha}\boldsymbol{e}_{\delta},\boldsymbol{e}_{\beta},\boldsymbol{e}_{\gamma}) = g^{\delta \alpha} \boldsymbol{T}(\boldsymbol{e}_\delta,\boldsymbol{e}_\beta,\boldsymbol{e}_\gamma) = g^{\delta \alpha}T_{\delta \beta \gamma}.

Desde la geometria diferencial y Riemanniana, subir y bajar índices equivale a construir el isomorfismo musical, \sharp y \flat ,entre el fibrado tangente TM y el cotangente T^*M de una variedad M inducido por una métrica g. Básicamente son contracciones entre el tensor métrico o el co-tensor métrico con un tensor arbitrario. Permite, por ejemplo, la generalización del gradiente.

En su Lecture I nos habla de vectores, 1-formas, tensores y espacio-tiempos planos. Para empezar, un vector, a diferencia de un escalar, no solo tiene magnitud sino tambien dirección y sentido. En un contexto mas abstracto, son los elementos de un espacio vectorial fínito $latex V$ (en realidad, un espacio euclideo, es decir, un espacio vectorial normado con una norma procedente de un producto escalar).

Por ejemplo, dada una curva \alpha(t) \in \mathbb{R}^3, siendo t un parámetro, el tiempo absoluto Newtoniano, podemos definir su vector velocidad como:

\boldsymbol{v} = \boldsymbol{v}(t) = \frac{d}{dt} \alpha(t) = \frac{d}{dt}\alpha (= \alpha_t).

O, en relatividad, \beta(\tau) \in \mathbb{M}^4, con \tau el tiempo propio:

\boldsymbol{v} = \boldsymbol{v}(\tau) = \frac{d}{d\tau} \beta(\tau) = \frac{d}{d\tau}\beta (= \beta_\tau).

Al introducir los espacio vectoriales, podemos sumar/restar vectores entre si, multiplicarlos por un escalar y disponemos de los conceptos de bases (conjuntos de vectores linealmente independientes que forman un sistema generador)  y coordenadas. Sean \{\boldsymbol{e}_1, \boldsymbol{e}_2, \boldsymbol{e}_3\} y \{ \boldsymbol{e}_0, \boldsymbol{e}_1, \boldsymbol{e}_2, \boldsymbol{e}_3\} las bases de \mathbb{R}^3 y \mathbb{M}^4 respectivamente. Entonces podemos escribir, por ejemplo:

\boldsymbol{v} = v^0 \boldsymbol{e}_0 + v^1 \boldsymbol{e}_1 + v^2 \boldsymbol{e}_2 + v^3 \boldsymbol{e}_3 = \sum_\alpha v^\alpha \boldsymbol{e}_\alpha = v^\alpha \boldsymbol{e}_\alpha = v^0 \boldsymbol{e}_0 + v^i \boldsymbol{e}_i.

Aunque muchas veces no se escriba explicitamente, tener en cuenta que las coordenadas pueden ser, como en el ejemplo anterior, funciones:

v(\tau) = v^\alpha (\tau) \boldsymbol{e}_\alpha.

Para cambiar de un sistema de coordenadas \{ \boldsymbol{e}_\alpha \} a otro \{ \boldsymbol{e}_{\tilde{\alpha}} \} basta expresar los vectores de una base  en la otra:

\boldsymbol{e}_{\tilde{\alpha}} = \sum_\alpha A^\alpha_{\tilde{\alpha}} \boldsymbol{e}_{\alpha} = A^\alpha_{\tilde{\alpha}} \boldsymbol{e}_{\alpha},

\boldsymbol{e}_{\alpha} = \sum_{\tilde{\alpha}} B_\alpha^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}} = B_\alpha^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}},

donde B_\alpha^{\tilde{\alpha}} = (A^{-1})_\alpha^{\tilde{\alpha}}, de manera que si \boldsymbol{v} = v^{\alpha} \boldsymbol{e}_\alpha entonces:

\boldsymbol{v} = v^\alpha \boldsymbol{e}_\alpha = v^\alpha B^{\tilde{\alpha}}_{\alpha} \boldsymbol{e}_{\tilde{\alpha}} = v^\alpha (A^{-1})^{\tilde{\alpha}}_{\alpha} \boldsymbol{e}_{\tilde{\alpha}} = v^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}}

con:

v^{\tilde{\alpha}} = v^{\alpha}(A^{-1})^{\tilde{\alpha}}_{\alpha} = (A^{-1})^{\tilde{\alpha}}_{\alpha} v^{\alpha}.

Como ya hemos comentado, disponemos de un producto escalar \cdot y podemos definir una norma

|\boldsymbol{u}|^2 = \boldsymbol{u} \cdot \boldsymbol{u}.

Volviendo a la idea de que tenemos una base \{ e_{\alpha}\}, entonces basta determinar el comportamiento del producto escalar respecto de los elementos de la base:

\boldsymbol{u} \cdot \boldsymbol{v} = u^{\alpha} \boldsymbol{e}_{\alpha} \cdot v^{\beta} \boldsymbol{e}_{\beta} =

\bigg( = \sum_{\alpha} u^{\alpha} \boldsymbol{e}_{\alpha} \cdot \sum_{\beta} v^{\beta} \boldsymbol{e}_{\beta} = \sum_{\alpha} \sum_{\beta} u^{\alpha} \boldsymbol{e}_{\alpha} \cdot v^{\beta} \boldsymbol{e}_{\beta} =

= \sum_{\alpha} \sum_{\beta} u^{\alpha} v^{\beta} (\boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} ) = \sum_{\alpha} \sum_{\beta} (\boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} ) u^{\alpha} v^{\beta} = \bigg)

= g_{\alpha \beta} u^{\alpha} v^{\beta}

La conmutatividad del producto escalar nos lleva a que g_{\alpha \beta} = g_{\beta \alpha} y un cambio de coordenadas de g_{\alpha \beta} a nuevas coordenadas tilde queda:

g_{\tilde{\alpha} \tilde{\beta}} = \boldsymbol{e}_{\tilde{\alpha}} \cdot \boldsymbol{e}_{\tilde{\beta}} = A^{\alpha}_{\tilde{\alpha}} \boldsymbol{e}_{\alpha} \cdot A^{\beta}_{\tilde{\beta}} \boldsymbol{e}_b = A^{\alpha}_{\tilde{\alpha}} A^{\beta}_{\tilde{\beta}} \boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} = A^{\alpha}_{\tilde{\alpha}} A^{\beta}_{\tilde{\beta}} g_{\alpha \beta}

Podemos definir el producto escalar como:

g(u,v) := u \cdot v

que es una 2-forma, g:T_pM \times T_pM \longrightarrow \mathbb{K} , o un tensor dos veces covariante, ya hablaremos.

En el caso particular de \mathbb{R}^3  tenemos:

g_{i j} = \delta_{i j} := \left(  \begin{array}{ccc}  1 & 0 & 0 \\  0 & 1 & 0 \\  0 & 0 & 1  \end{array}  \right)

donde, si tenemos \boldsymbol{u} = \boldsymbol{u}^i = (u^1, u^2, u^3)^T en la base \{ \boldsymbol{e}_i\}:

|\boldsymbol{u}|^2 = \boldsymbol{u} \cdot \boldsymbol{u} = \delta(\boldsymbol{u},\boldsymbol{u}) = \delta_{ij} u^i u^j = (\sum_i \sum_j \delta_{ij} u^i u^j) = u_j u^j =

= (u^1)^2 + (u^2)^2 + (u^3)^2.

que es siempre positiva para todos los vectores salvo para el \boldsymbol{0}. Nos ha aparecido en el cálculo, al multiplicar la matriz de la métrica por el primer vector, el mismo vector pero ahora como 1-forma: u_i = (u^1, u^2, u^3), en la base {\boldsymbol{e}^i}. Además, hemos visto como la métrica nos a permitido bajar un índice. Ya volveremos sobre esto.

y en \mathbb{M}^4:

g_{\alpha \beta} = \eta_{\alpha \beta} := \left(  \begin{array}{cccc}  -1 & 0 & 0 & 0 \\  0 & 1 & 0 & 0 \\  0 & 0 & 1 & 0 \\  0 & 0 & 0 & 1  \end{array}  \right).

En este caso, \eta_{\alpha \beta} u^\alpha u^{\beta} = -(u^0)^2 + (u^1)^2 + (u^2)^2 + (u^3)^2, dado lugar a tres clases de vectores en función del valor de su norma: espaciales, con norma positiva, temporales, con norma negativa y luminosos, con norma 0.

Para terminar, nos habla de las 1-formas, que nos son mas que operadores lineales \tilde{\boldsymbol{k}} que a partir de un vector \boldsymbol{v} nos devuelve un escalar \phi:

\phi = \langle \tilde{\boldsymbol{k}}, \boldsymbol{v} \rangle.

Desde el punto de vista del espacio vectorial V, las 1-formas son elementos del espacio dual V^* (elementos del tipo \boldsymbol{\tilde{k}}: V \longrightarrow \mathbb{K}). Si volvemos a mirar componentes, la acción de la 1-forma queda totalmente determinada, debido a la linealidad, por su acción sobre los elementos de la base \{ \boldsymbol{e}_\alpha\}:

\tilde{k_{\alpha}} = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle

de manera que si \boldsymbol{v} = v^{\alpha} \boldsymbol{e}_{\alpha} tenemos:

\langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \langle \boldsymbol{\tilde{k}}, v^{\alpha}\boldsymbol{e}_{\alpha} \rangle = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle v^{\alpha} = \tilde{k_{\alpha}}v^{\alpha}.

Por tanto,

Como tenemos una métrica, podemos relacionar cualquier vector \boldsymbol{k} con una 1-forma \boldsymbol{\tilde{k}} de manera que:

\langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \boldsymbol{k} \cdot \boldsymbol{v}

es decir, que dado \boldsymbol{k} \in V entonces le asociamos \boldsymbol{\tilde{k}} \in V^*:

\boldsymbol{\tilde{k}}: V \longrightarrow \mathbb{K} \,/\, v \mapsto \boldsymbol{\tilde{k}}(v) = \langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \boldsymbol{k} \cdot \boldsymbol{v}

¿Y cuales son sus componentes \tilde{k}_{\alpha}? Sencillamente:

\tilde{k}_{\alpha} = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle = \boldsymbol{k} \cdot \boldsymbol{e}_{\alpha} = k^{\beta} \boldsymbol{e}_{\beta} \cdot \boldsymbol{e}_{\alpha} = g_{\alpha \beta} k^{\beta}.

De la misma manera:

k^{\alpha} = g^{\alpha \beta} \tilde{k}_{\beta}, donde g^{\alpha \beta} es la inversa de g_{\alpha \beta} (g^{\alpha \beta}g_{\beta \gamma} = \delta^{\alpha}_{\gamma}).

Finalmente, se puede demostrar que g^{\alpha \beta} \tilde{k}_{\alpha} \tilde{l}_{\beta} = \boldsymbol{k} \cdot \boldsymbol{l}.

En n dimensiones, el operador Laplaciano queda como:

\Delta u= \sum_{i=1}^n \frac{\partial^2}{\partial x_i^2}u

en coordenadas cartesianas, y como:

\Delta u = \frac{\partial}{\partial r^2}u + \frac{n-1}{r}\frac{\partial}{\partial r}u + \frac{1}{r^2}\Delta_{S^{n-1}}u

en esféricas, donde \Delta_{S^{n-1}} es el operador de Laplace-Beltrami, una generalización del Laplaciano para funciones definidas sobre variedades,  en la (n-1)-esfera (S^{n-1}), el operador Laplaciano esférico.

Un punto es un tensor sin índices, un vector es un tensor con 1 índice, una matriz es un tensor con 2 índices, etc. Cuando discreticemos una PDE en n dimensiones, llegaremos a un tensor con n índices y 2n tensores con n-1 índices para las condiciones en las fronteras.

Sean V_1, \cdots, V_r espacios vectoriales de dimensión finita sobre \mathbb{R} y sean V_1^*, \cdots, V_r^* sus espacios duales.

Definimos el producto tensorial como el espacio vectorial de aplicaciones multilineales de V_1^* \times \ldots \times V_r^* en \mathbb{R}, es decir:

V_1 \otimes \ldots \otimes V_r := \mathcal{L}(V_1^* \times \ldots \times V_r^*, \mathbb{R})

Si v_1 \in V_1, \ldots , v_r \in V_r y \sigma_1 \in V_1^*, \ldots, \sigma_r \in V_r^*, entonces definimos v_1 \otimes , \ldots , \otimes v_r \in V_1 \otimes , \ldots , \otimes V_r como:

v_1 \otimes \ldots \otimes v_r (\sigma_1, \ldots, \sigma_r)= \sigma_1(v_1) \ldots \sigma_r(v_r)

Si \dim V_j = n_j y sea \{ e_i^j\}_{i=1}^{n_j} una base de V_j con j=1,\ldots,r, entonces:

\{e_{i_1}^1 \otimes \ldots \otimes e_{i_r}^r \}_{1 \leq i_j \leq n_j, 1 \leq j \leq r }

es una base de V_1 \otimes \ldots \otimes V_r, de manera que \dim V_1 \otimes \ldots \otimes V_r = n_1\ldots n_r.

Sea V un espacio vectorial de dimensión \dim V = n y V^* su dual. Construimos el espacio vectorial

V^{(r,s)}:=(\otimes^r V) \otimes (\otimes^s V^*)

donde \otimes^k E:= E \otimes \overset{k)}{\ldots} \otimes E es la késima potencia tensorial de E. A los elementos de V^{(r,s)} se les llama tensores r veces contravariantes y s veces covariantes sobre V. Si \{ e_1, \ldots, e_n\} es una base de V y \{ e^1, \ldots, e^n\} su base dual (los elementos e^i son 1-formes: e^i: V \longrightarrow \mathbb{R} \in V^*), entonces todo elemento de V^{(r,s)} lo podemos escribir como:

t = t^{i_1,\ldots, i_r}_{j_1,\ldots, j_s}e_{i_1} \otimes \ldots \otimes e_{i_r} \otimes e^{j_1} \otimes \ldots \otimes e^{j_s}

No es dificil demostrar \mathcal{L}(V,V) \cong V \otimes V^*, \mathcal{L}(V \times V, \mathbb{R}) \cong V^* \otimes V^* y, en general:

\mathcal{L}(V \times \overset{k)}{\ldots} \times V, V) \cong V \otimes (\otimes^k V^*).

Sea M una variedad diferenciable y m \in M. Entonces:

T_m^{(r,s)} = (\otimes^r T_mM) \otimes (\otimes^s T_m^*M)

es un tensor r veces contravariante y s veces covariante de M en m y

T^{(r,s)}M = \bigsqcup_{m \in M} T_m^{(r,s)}M

es la variedad de tensores de tipo (r,s) de M. Denotamos por \pi : T^{(r,s)}M \longrightarrow M a la proyección que a cada tensor en m le hace corresponder el punto m.

Un campo tensorial r veces contravariante y s veces covariante en M, de tipo (r,s), es una aplicación diferenciable K : M \longrightarrow T^{(r,s)}M tal que \pi \circ K = id, es decir, que para cada m\in M tenemos que K_m := K(m) \in T_m^{(r,s)}M (tenemos un campo tensorial definido en cada punto de la variedad).

Si (U, \varphi) es una carta, entonces:

K|_U = K^{i_1,\ldots,i_r}_{j_1,\ldots,j_s} \frac{\partial}{\partial \varphi^{i_1}} \ldots \otimes \frac{\partial}{\partial \varphi^{i_r}} \otimes d\varphi^{j_1} \otimes \ldots \otimes d\varphi^{j_s}

Los campos tensoriales son una generalización de:

  1. funciones: una función diferenciable h:M \longrightarrow \mathbb{R} determina un campo tensorial de tipo (0,0).
  2. campos vectoriales: un campo vectorial X: M \longrightarrow TM es un campo tensorial de tipo (1,0), pues TM = T^{(1,0)}.
  3. 1-formas: una 1-forma w: M \longrightarrow T^*M es un campo tensorial de tipo (0,1), ya que T^*M = T^{(0,1)}.
May 2024
L M X J V S D
 12345
6789101112
13141516171819
20212223242526
2728293031