You are currently browsing the tag archive for the ‘métrica’ tag.

Vamos a expresar las ecuaciones covariantes de la aproximación CFC en las coordenadas \bar{r}, \theta, \varphi a las que llamaremos esféricas compactificadas, puesto que son coordenadas esféricas donde la coordenada radial r la hemos cambiado por la coordenada \bar{r} cuyo dominio [0,1] es compacto:

r=\frac{a \bar{r}}{a-\bar{r}}.

Como teniamos:

\phi_1(r,\theta,\varphi) = r (\sin \theta \cos \varphi, \sin \theta \sin \varphi, \cos \theta) con (r,\theta,\varphi) \in [0,+\infty[ \times [0,\pi] \times [0,2\pi],

y ahora tenemos:

\phi_2(\bar{r},\theta,\varphi) = (\frac{a \bar{r}}{a-\bar{r}},\theta,\varphi),

entonces:

\phi_1 \circ \phi_2 =: \phi(\bar{r},\theta,\varphi) = \frac{a \bar{r}}{a-\bar{r}} (\sin \theta \cos \varphi, \sin \theta \sin \varphi, \cos \theta) con (\bar{r},\theta,\varphi) \in [0,1] \times [0,\pi] \times [0,2\pi].

Ahora, llamando a nuestra función \phi en Mathematica obtenemos los coeficientes de Laplaciano, la métrica y los inversos de los coeficientes de Lamé :

esfericasCompactificadas.

El operador Laplaciano queda:

\frac{(a-\bar{r})^4}{a^4} \partial_{\bar{r}\bar{r}} + \frac{2}{\bar{r}}\frac{(a-\bar{r})^4}{a^4} \partial_{\bar{r}} + \frac{(a-\bar{r})^2}{a^2 \bar{r}^2} \partial_{\theta \theta} + \cot \theta \frac{(a-\bar{r})^2}{a^2 \bar{r}^2} \partial_{\theta} + \csc \theta \frac{(a-\bar{r})^2}{a^2 \bar{r}^2} \partial_{\varphi \varphi},

la métrica queda:

\frac{a^4}{(a-\bar{r})^4} d\bar{r} \otimes d\bar{r} + \frac{a^2 \bar{r}^2}{(a-\bar{r})^2} d\theta \otimes d\theta + \frac{a^2 \bar{r}^2 \sin^2 \theta}{(a-\bar{r})^2} d\varphi \otimes d\varphi,

en la base coordenada \{ \partial_{\bar{r}}, \partial_{\theta}, \partial_{\varphi}\} para la variedad tangente.

En este punto, y utilizando los coeficientes de Lamé, podemos construir una tetrada ortonormal con la que trabajaremos:

\{ \hat{e}_i \} = \{ \frac{(a-\bar{r})^2}{a^2} \partial_{r}, \frac{a-\bar{r}}{a\bar{r}} \partial_\theta, \csc \theta \frac{a-\bar{r}}{a\bar{r}} \partial_{\varphi}\}.

Los símbolos de Christofel, calculados con nuestra función Mathematica, son:

ChristoffelEC,

\Gamma^{\bar{r}}_{\phantom{r}\bar{r} \bar{r}} = \frac{2}{a-\bar{r}},\,\, \Gamma^{\bar{r}}_{\phantom{r}\theta \theta}=\frac{\bar{r}(\bar{r}-a)}{a},\,\, \Gamma^{\bar{r}}_{\phantom{r}\varphi \varphi} = \frac{\bar{r}(\bar{r}-a)}{a}\sin^2 \theta,

\Gamma^{\theta}_{\phantom{\theta}\bar{r} \theta} = \Gamma^{\theta}_{\phantom{\theta}\theta \bar{r}} = \frac{a}{\bar{r}(a-\bar{r})},\,\, \Gamma^{\theta}_{\phantom{\theta}\varphi\varphi} = -\sin \theta \cos \theta ,

\Gamma^{\varphi}_{\phantom{\varphi}\bar{r}\varphi} = \Gamma^{\varphi}_{\phantom{\varphi} \varphi \bar{r}}= \frac{a}{\bar{r}(a-\bar{r})},\,\, \Gamma^{\varphi}_{\phantom{\varphi}\theta\varphi} = \Gamma^{\varphi}_{\phantom{\varphi}\varphi \theta} = \cot \theta,

Por lo que las derivadas covariantes de un tensor una vez contravariante quedan, gracias a otra función que tenemos programada:

CDEC,

\mathcal{D}_{\bar{r}} T^{\bar{r}} = \partial_{\bar{r}} T^{\bar{r}} + \frac{2}{a-\bar{r}} T^{\bar{r}},

\mathcal{D}_{\bar{r}} T^{\theta} = \partial_{\bar{r}} T^{\theta} + \frac{a}{a\bar{r}-\bar{r}^2} T^{\theta}

\mathcal{D}_{\bar{r}} T^{\varphi} = \partial_{\bar{r}} T^{\varphi} + \frac{a}{a\bar{r}-\bar{r}^2} T^{\varphi},

\mathcal{D}_{\theta} T^{\bar{r}} = \partial_{\theta} T^{\bar{r}} + \frac{\bar{r}(\bar{r}-a)}{a} T^{\theta},

\mathcal{D}_{\theta} T^{\theta} = \partial_{\theta} T^{\theta} + \frac{a}{a\bar{r}-\bar{r}^2} T^{\bar{r}},

\mathcal{D}_{\theta} T^{\varphi} = \partial_{\theta} T^{\varphi} + \cot \theta T^{\varphi} ,

\mathcal{D}_{\varphi} T^{\bar{r}} = \partial_{\varphi} T^{\bar{r}} + \frac{\bar{r}(\bar{r}-a)\sin^2 \theta}{a} T^{\varphi},

\mathcal{D}_{\varphi} T^{\theta} = \partial_{\varphi} T^{\theta} - \sin \theta \cos \theta T^{\varphi},

\mathcal{D}_{\varphi} T^{\varphi} = \partial_{\varphi} T^{\varphi} + \frac{a}{a\bar{r}-\bar{r}^2} T^{\bar{r}} + \cot \theta T^{\theta},

Anuncios

Hace un tiempo que andaba pensando en transformadas de Fourier y en su generalización en variedades, había leido y comentado cosas con profesores y, finalmente, tengo algo de luz en mi cabeza :-). A ver si nos entendemos enumerando las ideas:

  1. Cuando pensamos en la transformada de Fourier clásica, para pasar al dominio de frecuencias una señal f(t), ésta se encuentra en el espacio euclideo \mathbb{R}^2.
  2. El espacio euclideo \mathbb{R}^2 tiene el producto escalar habitual \langle u, v \rangle = u_1 v_1 + u_2 v_2, una métrica.
  3. En general, en \mathbb{K}^n, para reales o complejos, tenemos el producto escalar \langle u, v \rangle = \Sigma_{i=1}^{n} u_i \bar{v_i}.
  4. Pensando en transformadas, aunque la función f(x) \subset \mathbb{R}^2, en realidad la estamos pensando como un elemento de un espacio mas general: un espacio de funciones.
  5. El espacio en cuestión es L^2(\mathbb{R}):=\{ f: \mathbb{R} \rightarrow \mathbb{R} medible \,|\, \int_{\mathbb{R}} |f|^2 < +\infty \}.
  6. Este espacio forma parte de una familia, los espacios de Lebesgue L^p(\Omega):=\{ f: \Omega \rightarrow \mathbb{C} \,|\, \int_{\Omega} |f|^p < +\infty \}, donde p \in [0,+\infty) y \Omega es un conjunto medible en el sentido de Lebesgue. Esta familia de espacios normados, con norma ||\,\,||_{p}:=(\int_{\Omega} |f|^p)^{\frac{1}{p}}, son espacios de Banach.
  7. En realidad, L^2(\Omega) es un espacio de Hilbert, pues su norma deriva del producto escalar B(f,g):= \int_{\Omega} f\bar{g}, pues para cualquier producto escalar B: H\times H \rightarrow \mathbb{K} siempre podemos definir su norma asociada q_{B}: H \rightarrow \mathbb{R}^+ \cup {0} \,/\, u \mapsto q_B(u):=\sqrt{B(u,u)} con u \in H.
  8. En el caso particular de la tranformada de Fourier de una función f(t), podemos entenderla como el producto escalar de esta por la exponencial compleja e^{-2 \pi i \xi t}: f(\xi):=B(f(t),e^{-2 \pi i \xi t}) = \int_{\mathbb{R}} f(t) e^{-2 \pi i \xi t} dt.
  9. De esta manera, en \mathbb{R}^2 tenemos vectores, y podemos hacer geometría mediante el producto escalar habitual, pero también tenemos funciones, y también con éstas podemos hacer geometría mediante el último producto escalar definido, o podriamos definir l^p:=\{ \{a_n\}_{n=1}^\infty \,|\, \Sigma_{n=1}^\infty |\{ a_n\}|^p < +\infty\} con B: l \times l \rightarrow \mathbb{K} \,/\, (\{a_n\}_{n=1}^\infty,\{b_n\}_{n=1}^\infty) \mapsto \Sigma_{n=1}^\infty a_n \bar{b_n} y hacer geometría con sucesiones.
  10. Por tanto, puedo definir diferentes entidades sobre un mismo espacio, definir su correspondiente producto escalar y hacer geometría con éstas.
  11. Al igual que utilizamos el producto escalar habitual del plano tangente para trabajar en un punto de la variedad, tendríamos que hacer lo mismo con el resto de entidades.
  12. Cuando hablamos de teoría espectral, necesitamos un sistema ortonormal \{ x_i \}_{i \in I}, es decir, un conjunto de vectores que forman una base y  que B(u_i,u_j) = \delta_{ij}. ¿Cómo encontrar un sistema de este tipo?
  13. Sabemos que vectores propios asociados a valores propios diferentes son linealmente independientes. Por tanto, podemos construir un sistema de este tipo diagonalizando un operador. De hecho, podemos relacionar la base utilizada en Fourier con el operador diferenciación.
  14. Cuando tenemos diversas variables, el operador equivalente sería el Laplaciano. Por tanto, podriamos construir una base ortonormal infinita en una variedad encontrando una base de vectores propios asociados al operador Laplaciano definido en la variedad.
  15. En realidad, al trabajar con una variedad M, por un lado tengo el operador de Laplace-Beltrami, que es una generalización del Laplaciano al caso de variedades, y por otra tendré que considerar funciones sobre éste, por lo que ahora trabajaré con el espacio L^2(M) := \{ f: M \rightarrow \mathbb{C} \,|\, \int_M |f|^2 < +\infty \}.

El operador D’Alambartiano generaliza el Laplaciano a cualquier métrica. Por ejemplo, en cartesianas en Minkowski con signatura (-,+,+,+) tendríamos (c=1):

\square = -\partial_{tt} + \partial_{xx} + \partial_{yy} + \partial_{zz} = -\partial_{tt} + \nabla,

que, numerando las variables, tenemos:

\square = \partial^\alpha \partial_\alpha = g^{\alpha \beta} \partial_\beta \partial_\alpha.

En su Lecture I nos habla de vectores, 1-formas, tensores y espacio-tiempos planos. Para empezar, un vector, a diferencia de un escalar, no solo tiene magnitud sino tambien dirección y sentido. En un contexto mas abstracto, son los elementos de un espacio vectorial fínito $latex V$ (en realidad, un espacio euclideo, es decir, un espacio vectorial normado con una norma procedente de un producto escalar).

Por ejemplo, dada una curva \alpha(t) \in \mathbb{R}^3, siendo t un parámetro, el tiempo absoluto Newtoniano, podemos definir su vector velocidad como:

\boldsymbol{v} = \boldsymbol{v}(t) = \frac{d}{dt} \alpha(t) = \frac{d}{dt}\alpha (= \alpha_t).

O, en relatividad, \beta(\tau) \in \mathbb{M}^4, con \tau el tiempo propio:

\boldsymbol{v} = \boldsymbol{v}(\tau) = \frac{d}{d\tau} \beta(\tau) = \frac{d}{d\tau}\beta (= \beta_\tau).

Al introducir los espacio vectoriales, podemos sumar/restar vectores entre si, multiplicarlos por un escalar y disponemos de los conceptos de bases (conjuntos de vectores linealmente independientes que forman un sistema generador)  y coordenadas. Sean \{\boldsymbol{e}_1, \boldsymbol{e}_2, \boldsymbol{e}_3\} y \{ \boldsymbol{e}_0, \boldsymbol{e}_1, \boldsymbol{e}_2, \boldsymbol{e}_3\} las bases de \mathbb{R}^3 y \mathbb{M}^4 respectivamente. Entonces podemos escribir, por ejemplo:

\boldsymbol{v} = v^0 \boldsymbol{e}_0 + v^1 \boldsymbol{e}_1 + v^2 \boldsymbol{e}_2 + v^3 \boldsymbol{e}_3 = \sum_\alpha v^\alpha \boldsymbol{e}_\alpha = v^\alpha \boldsymbol{e}_\alpha = v^0 \boldsymbol{e}_0 + v^i \boldsymbol{e}_i.

Aunque muchas veces no se escriba explicitamente, tener en cuenta que las coordenadas pueden ser, como en el ejemplo anterior, funciones:

v(\tau) = v^\alpha (\tau) \boldsymbol{e}_\alpha.

Para cambiar de un sistema de coordenadas \{ \boldsymbol{e}_\alpha \} a otro \{ \boldsymbol{e}_{\tilde{\alpha}} \} basta expresar los vectores de una base  en la otra:

\boldsymbol{e}_{\tilde{\alpha}} = \sum_\alpha A^\alpha_{\tilde{\alpha}} \boldsymbol{e}_{\alpha} = A^\alpha_{\tilde{\alpha}} \boldsymbol{e}_{\alpha},

\boldsymbol{e}_{\alpha} = \sum_{\tilde{\alpha}} B_\alpha^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}} = B_\alpha^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}},

donde B_\alpha^{\tilde{\alpha}} = (A^{-1})_\alpha^{\tilde{\alpha}}, de manera que si \boldsymbol{v} = v^{\alpha} \boldsymbol{e}_\alpha entonces:

\boldsymbol{v} = v^\alpha \boldsymbol{e}_\alpha = v^\alpha B^{\tilde{\alpha}}_{\alpha} \boldsymbol{e}_{\tilde{\alpha}} = v^\alpha (A^{-1})^{\tilde{\alpha}}_{\alpha} \boldsymbol{e}_{\tilde{\alpha}} = v^{\tilde{\alpha}} \boldsymbol{e}_{\tilde{\alpha}}

con:

v^{\tilde{\alpha}} = v^{\alpha}(A^{-1})^{\tilde{\alpha}}_{\alpha} = (A^{-1})^{\tilde{\alpha}}_{\alpha} v^{\alpha}.

Como ya hemos comentado, disponemos de un producto escalar \cdot y podemos definir una norma

|\boldsymbol{u}|^2 = \boldsymbol{u} \cdot \boldsymbol{u}.

Volviendo a la idea de que tenemos una base \{ e_{\alpha}\}, entonces basta determinar el comportamiento del producto escalar respecto de los elementos de la base:

\boldsymbol{u} \cdot \boldsymbol{v} = u^{\alpha} \boldsymbol{e}_{\alpha} \cdot v^{\beta} \boldsymbol{e}_{\beta} =

\bigg( = \sum_{\alpha} u^{\alpha} \boldsymbol{e}_{\alpha} \cdot \sum_{\beta} v^{\beta} \boldsymbol{e}_{\beta} = \sum_{\alpha} \sum_{\beta} u^{\alpha} \boldsymbol{e}_{\alpha} \cdot v^{\beta} \boldsymbol{e}_{\beta} =

= \sum_{\alpha} \sum_{\beta} u^{\alpha} v^{\beta} (\boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} ) = \sum_{\alpha} \sum_{\beta} (\boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} ) u^{\alpha} v^{\beta} = \bigg)

= g_{\alpha \beta} u^{\alpha} v^{\beta}

La conmutatividad del producto escalar nos lleva a que g_{\alpha \beta} = g_{\beta \alpha} y un cambio de coordenadas de g_{\alpha \beta} a nuevas coordenadas tilde queda:

g_{\tilde{\alpha} \tilde{\beta}} = \boldsymbol{e}_{\tilde{\alpha}} \cdot \boldsymbol{e}_{\tilde{\beta}} = A^{\alpha}_{\tilde{\alpha}} \boldsymbol{e}_{\alpha} \cdot A^{\beta}_{\tilde{\beta}} \boldsymbol{e}_b = A^{\alpha}_{\tilde{\alpha}} A^{\beta}_{\tilde{\beta}} \boldsymbol{e}_{\alpha} \cdot \boldsymbol{e}_{\beta} = A^{\alpha}_{\tilde{\alpha}} A^{\beta}_{\tilde{\beta}} g_{\alpha \beta}

Podemos definir el producto escalar como:

g(u,v) := u \cdot v

que es una 2-forma, g:T_pM \times T_pM \longrightarrow \mathbb{K} , o un tensor dos veces covariante, ya hablaremos.

En el caso particular de \mathbb{R}^3  tenemos:

g_{i j} = \delta_{i j} := \left(  \begin{array}{ccc}  1 & 0 & 0 \\  0 & 1 & 0 \\  0 & 0 & 1  \end{array}  \right)

donde, si tenemos \boldsymbol{u} = \boldsymbol{u}^i = (u^1, u^2, u^3)^T en la base \{ \boldsymbol{e}_i\}:

|\boldsymbol{u}|^2 = \boldsymbol{u} \cdot \boldsymbol{u} = \delta(\boldsymbol{u},\boldsymbol{u}) = \delta_{ij} u^i u^j = (\sum_i \sum_j \delta_{ij} u^i u^j) = u_j u^j =

= (u^1)^2 + (u^2)^2 + (u^3)^2.

que es siempre positiva para todos los vectores salvo para el \boldsymbol{0}. Nos ha aparecido en el cálculo, al multiplicar la matriz de la métrica por el primer vector, el mismo vector pero ahora como 1-forma: u_i = (u^1, u^2, u^3), en la base {\boldsymbol{e}^i}. Además, hemos visto como la métrica nos a permitido bajar un índice. Ya volveremos sobre esto.

y en \mathbb{M}^4:

g_{\alpha \beta} = \eta_{\alpha \beta} := \left(  \begin{array}{cccc}  -1 & 0 & 0 & 0 \\  0 & 1 & 0 & 0 \\  0 & 0 & 1 & 0 \\  0 & 0 & 0 & 1  \end{array}  \right).

En este caso, \eta_{\alpha \beta} u^\alpha u^{\beta} = -(u^0)^2 + (u^1)^2 + (u^2)^2 + (u^3)^2, dado lugar a tres clases de vectores en función del valor de su norma: espaciales, con norma positiva, temporales, con norma negativa y luminosos, con norma 0.

Para terminar, nos habla de las 1-formas, que nos son mas que operadores lineales \tilde{\boldsymbol{k}} que a partir de un vector \boldsymbol{v} nos devuelve un escalar \phi:

\phi = \langle \tilde{\boldsymbol{k}}, \boldsymbol{v} \rangle.

Desde el punto de vista del espacio vectorial V, las 1-formas son elementos del espacio dual V^* (elementos del tipo \boldsymbol{\tilde{k}}: V \longrightarrow \mathbb{K}). Si volvemos a mirar componentes, la acción de la 1-forma queda totalmente determinada, debido a la linealidad, por su acción sobre los elementos de la base \{ \boldsymbol{e}_\alpha\}:

\tilde{k_{\alpha}} = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle

de manera que si \boldsymbol{v} = v^{\alpha} \boldsymbol{e}_{\alpha} tenemos:

\langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \langle \boldsymbol{\tilde{k}}, v^{\alpha}\boldsymbol{e}_{\alpha} \rangle = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle v^{\alpha} = \tilde{k_{\alpha}}v^{\alpha}.

Por tanto,

Como tenemos una métrica, podemos relacionar cualquier vector \boldsymbol{k} con una 1-forma \boldsymbol{\tilde{k}} de manera que:

\langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \boldsymbol{k} \cdot \boldsymbol{v}

es decir, que dado \boldsymbol{k} \in V entonces le asociamos \boldsymbol{\tilde{k}} \in V^*:

\boldsymbol{\tilde{k}}: V \longrightarrow \mathbb{K} \,/\, v \mapsto \boldsymbol{\tilde{k}}(v) = \langle \boldsymbol{\tilde{k}}, \boldsymbol{v} \rangle = \boldsymbol{k} \cdot \boldsymbol{v}

¿Y cuales son sus componentes \tilde{k}_{\alpha}? Sencillamente:

\tilde{k}_{\alpha} = \langle \boldsymbol{\tilde{k}}, \boldsymbol{e}_{\alpha} \rangle = \boldsymbol{k} \cdot \boldsymbol{e}_{\alpha} = k^{\beta} \boldsymbol{e}_{\beta} \cdot \boldsymbol{e}_{\alpha} = g_{\alpha \beta} k^{\beta}.

De la misma manera:

k^{\alpha} = g^{\alpha \beta} \tilde{k}_{\beta}, donde g^{\alpha \beta} es la inversa de g_{\alpha \beta} (g^{\alpha \beta}g_{\beta \gamma} = \delta^{\alpha}_{\gamma}).

Finalmente, se puede demostrar que g^{\alpha \beta} \tilde{k}_{\alpha} \tilde{l}_{\beta} = \boldsymbol{k} \cdot \boldsymbol{l}.

Cuando especificamos una variedad de Riemann escribimos (M,g), donde M es una variedad diferencial abstracta y g es la métrica, una generalización de la primera forma fundamental de las superficies, un tensor. ¿Determina la métrica una variedad? Obviamente no, ya que podemos hablar de variedades (cartas, coordenadas, fibrados tangentes y cotangentes, teoremas de función inversa e implicita, campos vectoriales, campos tensoriales, conexiones, corchetes y derivada de Lie, grupos de Lie, etc.) sin referirnos en ningún momento a métricas. Sin embargo, lo que si que determina es la variedad de Riemann. La métrica nos permite hablar de longitudes, angulos, areas y en general cualquier cantidad íntrinseca de la superficie. Dos variedades extrínsecamentes diferentes son equivalentes desde el punto de vista intrínseco, es decir, desde el punto de vista de los habitantes de la variedad, si las medidas que pueden tomar dentro de la variedad son iguales y, por tanto, indistinguibles por éstos. Desde este punto de vista, que es el nuestro, son indistinguibles.

Se pueden pensar las geodésicas de una variedad M como curvas \gamma que minimizan distancias o como curvas de aceleración nulas.

Como la segunda opción, su definición en función de segundas derivadas, resulta mas operativa, y las derivadas direccionales (D_{\vec{v}} Y , que podemos ver como (\nabla Y) \cdot \vec{v}, que nos permite definir D_X Y) no tiene porque estar en el espacio tangente de una variedad arbitraria, necesitamos aprender a derivar campos vectoriales en éstas.

Si la variedad está contenida en un espacio ambiente, siempre podemos quedarnos con la parte tangente de las derivadas direccionales, es decir, siempre podemos proyectar (D_X^T Y), pero ¿qué pasa cuando no tenemos la variedad embebida en un espacio ambiente? o, equivalentemente, ¿qué pasa cuando queremos trabajar de manera intrínseca? Necesitamos introducir el concepto de conexión.

Una conexión nos permitirá derivar campos vectoriales sobre variedades abstractas y definir así la aceleración de una curva como la variación del campo velocidad a lo largo de ésta. Se puede definir una conexión sobre una variedad M como una aplicación:

\nabla: \mathcal{X}(M) \times \mathcal{X}(M) \longrightarrow \mathcal{X}(M)

cumpliendo:

  1. \nabla es \mathcal{C}^\infty (M)-lineal en la primera variable.
  2. \nabla es \mathbb{R}-lineal en la segunda variable.
  3. \nabla_X (fY) = X(f) Y + f \nabla_X Y para toda función f.

Llamamos al nuevo campo vectorial \nabla_X Y derivada covariante de Y con respecto a X y \nabla_{X_p} Y es la derivada direccional de Y en la dirección X_p sobre la variedad abstracta.

Esta definición es poco operativa. Si expresamos los campos en una carta (U,\phi), entonces \nabla_X Y queda totalmente determinado por los símbolos de conexión \Gamma_{ij}^k determinados mediante:

\nabla_{\frac{\partial}{\partial \phi^i}} \frac{\partial}{\partial \phi^j} = \sum_k \Gamma_{ij}^k \frac{\partial}{\partial \phi^k}

en las coordenadas de la carta.

Una consideración importante es que las conexiones existen sin la necesidad de las métricas, es decir, que podemos hacer referencia a transporte paralelo y a geodésicas en una variedad sin necesidad de tener definida una métrica sobre ésta. Sin embargo, un resultado sorprendente, fundamental, nos garantiza la construcción de una conexión única coherente con la métrica: la conexión de Levi-Civita.

Como ya comentamos, de la tesis de Bauswein, adoptando la foliación 3+1 del espacio-tiempo la métrica queda:

ds^2 = (- \alpha^2 + \beta_i \beta^i) dt^2 + 2 \beta_i dx^i dt + \gamma_{ij} dx^i dx^j

En la aproximación CFC resolvemos repetidamente el problema de valor inicial. De acuerdo con esta aproximación, la parte espacial de la métrica se puede escribir como:

\gamma_{ij} = \psi^4 \delta_{ij}

donde \psi es el factor conforme (una transformación conforme preserva los ángulos. En geometría Riemanniana, dos métricas de Riemann g y h sobre una variedad M son conformemente equivalentes si g=uh para alguna función positiva u sobre M. La función u es el factor conforme).

De esta manera, las ecuaciones de Einstein, asumiendo K := tr(K_{ij}) = K_i^i =0, se reducen al sistema de cinco PDE elipticas no lineales acopladas:

\Delta \psi = -2 \pi \psi^5 E - \frac{1}{8} \psi^5 K_{ij}K^{ij}

\Delta(\alpha \psi) = 2 \pi \alpha \psi^5 (E + 2S) + \frac{7}{8} \alpha \psi^5 K_{ij}K^{ij}

\Delta \beta^i + \frac{1}{3}\partial^i \partial_j \beta^j = 16 \pi \alpha \rho W + 2 \psi^{10} K^{ij} \partial_j (\frac{\alpha}{\psi^6}) =: S_\beta

donde E = \rho h W^2 - P, S = \rho h (W^2 -1) + 3P y

K_{ij} = \frac{\psi^4}{2 \alpha} (\delta_{il} \partial_j \beta_l + \delta_{jl} \partial_i \beta^l - \frac{2}{3} \delta_{ij} \partial_k \beta^k )

que podemos escribir de manera mas compacta como:

\Delta B^i = S_\beta

\Delta \chi = \partial_i B^i

si definimos \beta^i = B^i - \frac{1}{4} \partial_i \chi y que es un sistema tipo Poisson que puede ser resuelto iterativamente hasta la convergencia con un método multigrid.

Las condiciones en la frontera se dan mediante desarrollo multipolar () de los terminos fuente, que son no compactas, hasta el armónico quadrupolar.

En [Monaghan 1992] comenta el caso del método SPH en relatividad especial.

Para empezar asumimos que el fluido está constituido por bariones, por lo que el tensor de energia-momento es:

T^{\mu \nu} = (n m_0 c^2 + n \tau + P) U^\mu U^\nu + P g^{\mu \nu}

donde los indices griegos van de 0 a 3 y los coeficientes de la métrica se definen

g_{00} = -1 y g_{ij} = 1

En estas ecuaciones, n representa la densidad de bariones, P es la presión, \tau la energía térmica, c la velocidad del sonido, U^\nu la 4-velocidad con U_\nu U^\nu = -1 y m_0 la masa.

Las ecuaciones del momento se siguen de:

\frac{\partial}{\partial x^\nu} T^{i \nu} = 0

que es:

\frac{d}{dt} q = - \frac{1}{N} \nabla P

y en forma SPH queda:

\frac{d}{dt}q_a = -\sum_b \nu_b (\frac{P_a}{n_a^2} + \frac{P_b}{N_b^2}) \nabla_a W_{ab}

donde \nu_b es el número de bariones asociados a la partícula b.

Y la de la energía se sigue de:

\frac{\partial}{\partial x^j} T^{0j} = 0

que es:

\frac{d}{dt} \epsilon = - \frac{1}{N} \nabla \cdot (Pv)

y en foma SPH queda:

\frac{d}{dt} \epsilon_a = -\sum_b m_b (\frac{P_a v_a}{N_a^2} + \frac{P_b v_b}{N_b^2}) \nabla W_{ab}

octubre 2017
L M X J V S D
« Ago    
 1
2345678
9101112131415
16171819202122
23242526272829
3031