You are on page 1of 312

Notas del curso “Temas

Selectos de la Mecánica
Clásica” impartido por el
Dr. Jesús Toscano

Mauro Huerta Leal


ii
Índice general

1. Definiciones de Estructuras Algebraicas Fundamentales 3


1.1. Grupo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Campo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Espacio Vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Álgebra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2. Elementos de Teoría de Grupos. 7


2.1. Grupos finitos. . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1. Grupos y representaciones. . . . . . . . . . . . . . . . . 7
2.1.2. Representaciones irreducibles. . . . . . . . . . . . . . . 10
2.1.3. Subgrupos. . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Grupos de Lie. . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1. Generadores. . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2. Álgebras de Lie. . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3. La identidad de Jacobi. . . . . . . . . . . . . . . . . . . 17
2.2.4. Representación adjunta. . . . . . . . . . . . . . . . . . 18

3. Cálculo tensorial. 25
3.1. Vectores y uno-formas. . . . . . . . . . . . . . . . . . . . . . . 25
3.1.1. Vectores y espacio tangente. . . . . . . . . . . . . . . . 25

iii
iv ÍNDICE GENERAL

3.1.2. Uno-formas y espacio dual. . . . . . . . . . . . . . . . . 27


3.2. Tensores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.1. Tensor métrico. . . . . . . . . . . . . . . . . . . . . . . 31
3.2.2. Vectores base y uno-formas. . . . . . . . . . . . . . . . 33
3.2.3. Álgebra tensorial. . . . . . . . . . . . . . . . . . . . . . 35
3.2.4. Cambio de Base. . . . . . . . . . . . . . . . . . . . . . 37
3.2.5. Base de coordenadas . . . . . . . . . . . . . . . . . . . 39
3.3. Diferenciación e integración. . . . . . . . . . . . . . . . . . . . 44
3.3.1. Gradiente de un escalar. . . . . . . . . . . . . . . . . . 44
3.3.2. Gradiente de un vector: Derivada covariante. . . . . . . 44
3.3.3. Símbolos de Christoffel. . . . . . . . . . . . . . . . . . 45
3.3.4. Gradiente de uno-formas. . . . . . . . . . . . . . . . . . 45
3.3.5. Transformación a coordenadas localmente planas. . . . 51
3.3.6. Integración en espacios curvos. . . . . . . . . . . . . . . 53
3.4. Transporte paralelo. . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.1. Diferenciación a lo largo de una curva. . . . . . . . . . 56
3.4.2. Transporte paralelo. . . . . . . . . . . . . . . . . . . . 58
3.4.3. Geodésicas. . . . . . . . . . . . . . . . . . . . . . . . . 60
3.5. Curvatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.6. Formas diferenciales y teorema de Stokes. . . . . . . . . . . . . 67

4. Simetrías en Física Fundamental 73


4.1. Grupos Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . 73
4.2. Grupos unitarios . . . . . . . . . . . . . . . . . . . . . . . . . 81

5. Simetrías del espacio-tiempo plano. 89


5.1. Operaciones discretas . . . . . . . . . . . . . . . . . . . . . . . 90
5.2. Álgebra de Poincaré . . . . . . . . . . . . . . . . . . . . . . . 96
ÍNDICE GENERAL v

6. Descripción clásica de los sistemas regulares 103


6.1. Grados de libertad bosónicos . . . . . . . . . . . . . . . . . . . 103
6.1.1. Formulación lagrangiana . . . . . . . . . . . . . . . . . 103
6.1.2. Formulación hamiltoniana . . . . . . . . . . . . . . . . 105
6.1.3. Los paréntesis de Poisson . . . . . . . . . . . . . . . . . 107
6.1.4. Transformaciones canónicas . . . . . . . . . . . . . . . 108
6.1.5. Transformaciones canónicas infinitesimales . . . . . . . 110
6.1.6. Constantes de movimiento . . . . . . . . . . . . . . . . 112
6.2. Grados de libertad fermiónicos . . . . . . . . . . . . . . . . . . 113
6.2.1. Álgebra de Grassmann . . . . . . . . . . . . . . . . . . 114
6.2.2. Superfunciones . . . . . . . . . . . . . . . . . . . . . . 116
6.2.3. Diferenciación . . . . . . . . . . . . . . . . . . . . . . . 117
6.2.4. Paridad de Grassmann . . . . . . . . . . . . . . . . . . 118
6.2.5. Propiedades de diferenciación izquierda y derecha . . . 119
6.2.6. Conjugación compleja . . . . . . . . . . . . . . . . . . 120
6.3. Formalismo canónico para variables bosónicas y fermiónicas . 123
6.3.1. El paréntesis de Poisson generalizado . . . . . . . . . . 125
6.3.2. Ejemplo de sistema bosónico-fermiónico . . . . . . . . 129

7. Descripción clásica de los sistemas singulares 133


7.1. Formalismo de Dirac para los sistemas singulares . . . . . . . 136
7.1.1. Clasificación de las constricciones . . . . . . . . . . . . 141
7.1.2. Ejemplos de sistemas singulares . . . . . . . . . . . . . 146
7.1.3. Más sobre constricciones . . . . . . . . . . . . . . . . . 151
7.1.4. Constricciones de segunda clase y paréntesis de Dirac . 156
7.1.5. Constricciones de primera clase y transformaciones de
norma . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
7.1.6. Fijación de la norma . . . . . . . . . . . . . . . . . . . 166
vi ÍNDICE GENERAL

8. Fundamentos de la teoría clásica de los campos 167


8.1. Formulación lagrangiana . . . . . . . . . . . . . . . . . . . . . 167
8.1.1. El campo como límite de un sistema discreto . . . . . . 167
8.1.2. La formulación lagrangiana para un sistema de campos
relativistas . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.1.3. Principio de Hamilton y ecuaciones de movimiento . . 172
8.2. Formulación hamiltoniana . . . . . . . . . . . . . . . . . . . . 174
8.2.1. El principio de Hamilton en el espacio fase . . . . . . . 175
8.2.2. El paréntesis de Poisson . . . . . . . . . . . . . . . . . 175

9. Teoría relativista de campos clásicos 179


9.1. Covariancia relativista de la teoría de Maxwell . . . . . . . . . 179
9.2. El campo escalar real . . . . . . . . . . . . . . . . . . . . . . . 182
9.3. Campo escalar complejo . . . . . . . . . . . . . . . . . . . . . 186
9.4. El campo de Proca . . . . . . . . . . . . . . . . . . . . . . . . 195
9.4.1. Soluciones a las ecuaciones de Proca y de Maxwell . . . 197
9.4.2. Estados de polarización . . . . . . . . . . . . . . . . . . 198
9.4.3. Electrodinámica vcetorial . . . . . . . . . . . . . . . . 203
9.5. El campo de Dirac . . . . . . . . . . . . . . . . . . . . . . . . 205
9.5.1. Soluciones a la ecuación de Dirac . . . . . . . . . . . . 212
9.6. Teorías de Yang-Mills . . . . . . . . . . . . . . . . . . . . . . . 217

10.Sistemas de campos con libertad de norma 225


10.1. Constricciones de la teoría de Maxwell . . . . . . . . . . . . . 227
10.1.1. Hamiltonización de la teoría . . . . . . . . . . . . . . . 228
10.1.2. Generadores de transformaciones de norma . . . . . . . 233
10.2. Constricciones de la teoría de Yang-Mills . . . . . . . . . . . . 234
10.2.1. El generador de Castellani . . . . . . . . . . . . . . . . 243
ÍNDICE GENERAL vii

11.La teoría de Einstein 245


11.1. Acción de Einstein-Hilbert . . . . . . . . . . . . . . . . . . . . 247
11.2. Gravedad linealizada . . . . . . . . . . . . . . . . . . . . . . . 250
11.2.1. Invariancia de norma en gravedad linealizada . . . . . . 257
11.2.2. Deducción de la lagrangiana . . . . . . . . . . . . . . . 264
11.3. Constricciones de la teoría de Einstein linealizada . . . . . . . 267

12.El teorema de Noether para simetrías globales 271


12.1. Grupo de Poincaré . . . . . . . . . . . . . . . . . . . . . . . . 272
12.1.1. Grupo de las traslaciones . . . . . . . . . . . . . . . . . 272
12.1.2. Grupo de Lorentz . . . . . . . . . . . . . . . . . . . . . 275

13.Rompimiento espontáneo de una simetría continua 279


13.1. El teorema de Goldstone . . . . . . . . . . . . . . . . . . . . . 282
13.2. El mecanismo de Higgs . . . . . . . . . . . . . . . . . . . . . . 289
13.2.1. El sector cinético de Higgs . . . . . . . . . . . . . . . . 297
13.2.2. La teoría bajo la perspectiva de SU(2) . . . . . . . . . 299
viii ÍNDICE GENERAL
Prefacio

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Duis risus ante, auc-
tor et pulvinar non, posuere ac lacus. Praesent egestas nisi id metus rhoncus
ac lobortis sem hendrerit. Etiam et sapien eget lectus interdum posuere sit
amet ac urna.

1
2 ÍNDICE GENERAL
1

Definiciones de Estructuras
Algebraicas Fundamentales

“If you are receptive and humble, mathematics will lead you by the
hand.”
– Paul Adrien Maurice Dirac.

Partiendo de la noción de conjunto, es posible definir operaciones que dan


lugar a diversas estructuras matemáticas.

1.1. Grupo
Un grupo G es un conjunto con elementos gi , el cual ha sido dotado con una
operación “·”, la cual satisface:

1. Cerradura: La operación “·” es cerrada, i.e. si g1 , g2 ∈ G, entonces g1 ·g2 ∈


G.

2. Existencia del neutro: Existe un elemento único e ∈ G tal que ∀gi ∈


G : e · gi = gi · e = gi .

3
4 1. DEFINICIONES DE ESTRUCTURAS ALGEBRAICAS FUNDAMENTALES

3. Existencia del inverso: Para todo gi ∈ G existe gi−1 ∈ G tal que gi−1 ·gi =
gi · gi−1 = e.

4. Asociatividad: La operación “·” es asociativa, i.e. para gi , gj , gk ∈ G :


gi · (gj · gk ) = (gi · gj ) · gk .

Si, además, resulta que:

∀gi , gj ∈ G : gi · gj = gj · gi ,

se dice que el grupo es conmutativo o Abeliano.

1.2. Campo.
Un campo F es un conjunto con elementos fi , junto con dos operaciones:

+: F × F → F ∗ : F × F → F;

con las siguientes propiedades:

1. F es un grupo Abeliano bajo la operación “+”, con f0 como identidad.

2. F \ {f0 } es un grupo bajo “∗”.

3. Existe una ley distributiva:

fi ∗ (fj + fk ) = fi ∗ fj + fi ∗ fk ,
(fi + fj ) ∗ fk = fi ∗ fk + fj ∗ fk .

Los números reales y complejos, con las operaciones usuales de suma y pro-
ducto, son ejemplos importantes de campos.
1.3. ESPACIO VECTORIAL. 5

1.3. Espacio Vectorial.


Un espacio vectorial consiste de un conjunto V con elementos vi y un campo
F, junto con dos operaciones:

+: V × V → V ∗ : V × V → V,

y tiene las siguientes propiedades:

1. (V, +) es un grupo Abeliano.

2. La operación “∗” cumple:

fi ∗ (fj ∗ fk ) = (fi ∗ fj ) ∗ fk ,
1 ∗ vi = vi = vi ∗ 1,
fi ∗ (vj + vk ) = fi ∗ vj + fi ∗ vk ,
(fi + fj ) ∗ vk = fi ∗ vk + fj ∗ vk .

Definiciones importantes respecto a un espacio


vectorial.
Un conjunto de vectores vk es linealmente dependiente si y sólo si existe
fi ∈ F tal que:

X
fk vk 6= 0.
k

La dimensión del espacio vectorial se define como el máximo número


de vectores linealmente independientes.

En todo espacio vectorial de dimensión D existen conjuntos de vectores


base {ei }, en términos de los cuales todo v ∈ V se descompone como:

D
X
v= fi ei .
i=1
6 1. DEFINICIONES DE ESTRUCTURAS ALGEBRAICAS FUNDAMENTALES

1.4. Álgebra.
Un álgebra A consiste de un conjunto V con elementos vi con un campo F
con tres operaciones: +, ∗, . El álgebra es un espacio vectorial respecto a
(V, F, +, ∗). La operación “” es un mapeo:

 : V × V → V,

tal que:

(vi + vj )  vk = vi  vk + vj  vk ,

vi  (vj + vk ) = vi  vj + vi  vk .

Un ejemplo muy importante en lo sucesivo son las Álgebras de Lie, las


cuales satisfacen:

Si a, b ∈ F, entonces vi  (avj + bvk ) = avi  vj + bvi  vk ,

vi  vj = −vj  vi ,

vi  (vj  vk ) = (vi  vj )  vk + vj  (vi  vk ),

esta última es la Identidad de Jacobi.


2

Elementos de Teoría de
Grupos.

2.1. Grupos finitos.


Son de interés los grupos continuos o grupos de Lie. Se aprovechará la es-
tructura más simple de los grupos finitos para introducir las principales ideas
sobre estructuras algebraicas.

Para un grupo finito se puede establecer una tabla multiplicativa:

e g1 g2 ...
e e g1 g2 ...
g1 g1 g1 g1 g1 g2 ...
g2 g2 g2 g1 g2 g2 ...
.. .. .. .. ..
. . . . .

2.1.1. Grupos y representaciones.

Una representación de G es un mapeo D de elementos de G en un conjunto


de operadores lineales, con las siguientes propiedades:

7
8 2. ELEMENTOS DE TEORÍA DE GRUPOS.

1. D(e) = 1, siendo 1 el operador identidad;

2. D(g1 )D(g2 ) = D(g1 g2 );

en palabras: la ley de multiplicación del grupo es mapeada en la multiplica-


ción natural del espacio lineal en el cual actúan los operadores.

Un grupo es finito si tiene un número finito de elementos. El número de


elementos de G es llamado “orden de G”.

A continuación se ilustra con un grupo finito de tres elementos:

e a b
e e a b
a a b e
b b e a

Este es el grupo cíclico Z3 , de orden 3. Nótese que cada renglón o columna


contiene a cada elemento de Z3 exactamente una vez. Además, como a ∗ b =
e = b ∗ a, y el resto de productos también conmutan, Z3 es Abeliano.

La siguiente es una representación de Z3 :

2π 4π
D(e) = 1, D(a) = ei 3 , D(b) = ei 3 .

Se sabe que debe ocurrir que D(a)D(b) = D(ab):

2π 4π
D(a)D(b) = ei 3 ei 3 = ei2π = 1 = D(e) = D(ab).

La dimensión de una representación es la dimensión del espacio sobre el cual


actúa.

La representación anterior es de dimensión 1; esta es la representación trivial.


2.1. GRUPOS FINITOS. 9

Representación regular.
La siguiente representación de Z3 también es válida:

     
1 0 0 0 0 1 0 1 0
D(e) = 0 1 0 , D(a) = 1 0 0 , D(b) = 0 0 1 .
     

0 0 1 0 1 0 1 0 0

Esta emerge de la tabla multiplicativa mediante el siguiente procedimiento:


se asigna un vector a cada elemento del grupo, es decir |ei, |ai, |bi. Se define:

D(g1 ) |g2 i = |g1 g2 i .

Aplicando a este grupo:

D(e) |ai = |eai = |ai , D(a) |ai = |aai = |bi ,

y así sucesivamente.

Se define la base ortonormal:

|e1 i = |ei , |e2 i = |ai , |e3 i = |bi ,


hei |ej i = δij .

Entonces, en esta base la representación tiene las matrices:

[D(g)]ij = hei | D(g) |ej i ,

por ejemplo:

[D(e)]ij = hei | D(e) |ej i = hei |eej i = hei |ej i = δij .

Ahora nótese lo siguiente:


10 2. ELEMENTOS DE TEORÍA DE GRUPOS.

[D(g1 g2 )]ij = [D(g1 )D(g2 )]ij ,


= hei | D(g1 )D(g2 ) |ej i = hei | D(g1 )1D(g2 ) |ej i ,
X X
= hei | D(g1 ) |ek i hek | D(g2 ) |ej i = [D(g1 )]ik [D(g2 )]kj ,
k k
X
⇒ [D(g1 g2 )]ij = [D(g1 )]ik [D(g2 )]kj ;
k

este último es el elemento del producto matricial.

En un grupo finito se puede definir una base en la que cada vector es etique-
tado por el elemento del grupo:

{g1 , g2 , . . .} −→ {|g1 i , |g2 i , . . .}.

Finalmente D(g1 ) |g2 i = |g1 g2 i define la representación regular.

2.1.2. Representaciones irreducibles.


La idea de representación de un grupo tiene su poder en el hecho de que se
realiza en un espacio vectorial:

gi −→ D(gi ) −→ [D(gi )].


elemento del grupo operador lineal matriz

Pero esta matriz no es única, pues se puede hacer un mapeo lineal que lleve
a otra base. Se puede elegir el más conveniente.

Dado que la transformación es invertible, una será tan buena como la otra.
De esta forma, todo se reduce a una transformación de similaridad:

D(g) −→ D0 (g) = S −1 D(g)S,


2.1. GRUPOS FINITOS. 11

en donde D(g) y D0 (g) tienen la misma regla de multiplicación; se dirá que


ambas son representaciones equivalentes, pues se relacionan con un cambio
de base.

Los operadores unitarios U † = U −1 son de particular importancia: una


representación será unitaria si los D(g) son unitarios.

Una representación es reducible si tiene un subespacio invariante. Esto


significa que la acción de algún D(g) sobre cualquier vector de este subespacio
está aún en dicho subespacio. Así, una representación es irreducible si no
es reducible.

Una representación es completamente reducible si es equivalente a una


representación cuyos elementos de matriz tienen la siguiente forma:

 
D1 (g) 0 ...
 0 D2 (g) . . .


,
 0 0 . . .

.. .. ..
 
. . .

en donde Dj (g) es irreducible para toda j. Esta es la llamada forma diago-


nal, y se dice que es la suma directa de las representaciones Dj (g):

D1 (g) ⊕ D2 (g) ⊕ . . .

Al transformar una representación a la forma de bloques se está descompo-


niendo la representación original como una suma directa.

2.1.3. Subgrupos.
Un grupo H, cuyos elementos están completamente en otro grupo G, es un
subrgupo de G.
12 2. ELEMENTOS DE TEORÍA DE GRUPOS.

El conjunto con únicamente el elemento identidad y G mismo son subgru-


pos de G, trivialmente. Sin embargo, muchos grupos tienen subgrupos no
triviales.

Se puede usar A ⊂ G para dividir a G en subconjuntos llamados cosets.

Un coset derecho de H en el grupo G es un conjunto de elementos formado


por la acción de los elementos de H sobre la izquierda de un elemento de
G, i.e. todos los elementos de la forma:

Hg,

con g fijo.

El número de elementos en cada coset es igual al orden de H.

Todo elemento de G debe pertenecer a uno y sólo uno de los cosets. Para un
grupo finito, el orden de H debe ser un factor del orden de G.

En ocasiones es útil pensar en el espacio coset: G/H, definido mediante el


reconocimiento de cada coset como un elemento simple del espacio.

Un subgrupo H de G es llamado subgrupo invariante o subgrupo normal


si Hg ∈ G:

gH = Hg,

lo anterior también se anota como:

∀g ∈ G, h1 ∈ H, ∃h2 ∈ H : h1 g = gh2 ⇔ h1 = gh2 g −1 .

Los subgrupos triviales {e} y G son invariantes en cualquier grupo.


2.2. GRUPOS DE LIE. 13

Si H es invariante, entonces el espacio coset G/H es un grupo.

La ley multiplicativa en G da la ley multiplicativa sobre cosets Hg:

(Hg1 )(Hg2 ) = Hg1 Hg1−1 g1 g2 ,


= (Hg1 Hg1−1 )(g1 g2 ) = (Hg1 g1−1 H)(g1 g2 ) = Hg1 g2 .

En este caso, el espacio coset G/H es llamado el grupo factor de G por


H.

El centro de un grupo G es el conjunto de elementos de G que conmutan


con todos los elementos de G. El centro es siempre un grupo abeliano, el
cual es un subgrupo invariante de G.

Existe otro concepto relacionado con la idea de subgrupo invariante que es


útil. Nótese que la condición para que un grupo sea invariante puede ser
anotada como:

gHg −1 = H, ∀g ∈ G.
.

2.2. Grupos de Lie.


Suponga que los elementos de G dependen suavemente de un conjunto de
parámetros continuos: g(α).

2.2.1. Generadores.
La identidad es un elemento importante del grupo. Conviene identificarlo con
el punto α = 0 : g(0) = e.
14 2. ELEMENTOS DE TEORÍA DE GRUPOS.

Se asumirá que en alguna vecindad de la identidad los elementos del grupo


pueden ser descritos por una función de n parámetros reales αa , a = 1, . . . , n,
tales que:


g(α) = e.
α=0

Entonces, si se halla una representación del grupo, los operadores lineales de


la representación serán parametrizados de la misma forma:

= 1.

D(α)
α=0

Así, en alguna vecindad del elemento identidad se puede desarrollar D(α)


en serie de Taylor; y si se consideran pequeñas proximidades, será posible
mantenerlo a primer orden:

D(dα) = 1 + idαa Xa , (2.1)

siendo:




Xa = −i D(α) ,
∂αa α=0

los generadores del grupo. Aquí la unidad imaginaria se introduce debido a


que si la representación es unitaria, D† = D−1 , los Xa serán hermitianos:
Xa† = Xa .

Note que cualquier elemento del grupo se puede construir únicamente con la
información en el entorno de la identidad:

D(α) = D(dα)D(dα) · . . . = lı́m [D(dα)]k ,


k→∞
αa
 k
= lı́m (1 + idα Xa ) = lı́m
a k
1 + i Xa ,
k→∞ k→∞ k
2.2. GRUPOS DE LIE. 15

aX
⇒ D(α) = eiα a
. (2.2)

La expresión anterior dice que es posible expresar todo elemento del grupo
únicamente con el conocimiento de los generadores.

A diferencia de los elementos del grupo, los Xa forman un expacio vectorial.

2.2.2. Álgebras de Lie.


Sean dos elementos del grupo generados por dos combinaciones lineales dife-
rentes de los generadores:

aX bX
eiα a
, eiβ b
.

Entonces encontrar el elemento que resulta del producto de estos elementos


no es tan sencillo, debido a que:

aX bX a +β b )X
eiα a
eiβ b
6= ei(α a
.

Por otro lado, dado que las exponenciales forman una representación del
grupo, debe ser cierto que:

aX bX aX
eiα a
eiβ b
= eiγ a
.

Es posible hallar γ a = γ a (α, β) haciendo desarrollos en series de Taylor de


cada lado y forzando a que se cumpla la igualdad. Pero de esta manera
surge un álgebra entre los generadores bajo conmutación, sólo así funciona.
Tomando logaritmo de ambos lados:

aX aX bX
ln eiγ a
= ln (eiα a
eiβ b
),
⇒ iγ Xa = ln (1 + e
a iαa Xa iβ b Xb
e − 1),

− 1, se tiene:
aX bX
y definiendo: K ≡ eiα a
eiβ b
16 2. ELEMENTOS DE TEORÍA DE GRUPOS.

1
iγ a Xa = ln (1 + K) ≈ K − K 2 .
2
Por otro lado, de acuerdo a la forma de K:

− 1,
aX bX
K = eiα a
eiβ b

1 1
  
= 1 + iαa Xa − (αa Xa )2 + . . . 1 + iβ b Xb − (β b Xb )2 + . . . − 1,
2 2
1 1
= iαa Xa + iβ b Xb − αa Xa β b Xb − (αa Xa )2 − (β b Xb )2 + . . . ,
2 2

y de lo anterior:

1 1
 
iγ Xa = iα Xa + iβ Xb − α Xa β Xb − (αa Xa )2 − (β b Xb )2 + . . .
a a b a b
2 2
1 a
− (iα Xa + iβ b Xb + . . .)2 ,
2
1 1 1
= iαa Xa + iβ b Xb − αa Xa β b Xb − (αa Xa )2 − (β b Xb )2 + (αa Xa + β b Xb )2 + . . . ,
2 2 2
1
= iαa Xa + iβ b Xb − αa Xa β b Xb + (αa Xa β b Xb + β b Xb αa Xa ),
2
1
= iαa Xa + iβ b Xb − [αa Xa , β b Xb ],
2
⇒ [α Xa , β Xb ] = −2i(γ − αc − β c )Xc ≡ iδ c Xc ,
a b c

siendo δ c = αa β b f abc , con las constantes f abc relevantes en lo sucesivo.

Así que, de esta forma:

[Xa , Xb ] = if abc Xc , (2.3)

define un álgebra de Lie.

De la condición anterior se sigue:


2.2. GRUPOS DE LIE. 17

aX bX cX
eiα a
eiβ b
= eiδ c
,

y no debe olvidarse que δ c esta relacionada con las constantes de estru-


crura: f abc .

Las constantes de estructura son antisimétricas:

f abc = −f bac .

A continuación se toma el adjunto en el álgebra:

[Xa , Xb ]† = (if abc Xc )† = −i(f abc )∗ Xc† ,


⇒ (Xa Xb − Xb Xa )† = −i(f abc )∗ Xc† ,
⇒ (Xb† Xa† − Xa† Xb† ) = −i(f abc )∗ Xc† ,
∴ [Xa† , Xb† ] = i(f abc )∗ Xc† ,

y si resulta que la representación es unitaria, i.e. los operadores Xa som


hermitianos, entonces:

[Xa , Xb ] = i(f abc )∗ Xc ,

comparando lo anterior con el criterio del álgebra de Lie (ecuación 2.3),


resulta que:

(f abc )∗ = f abc ,

lo cual significa que las constantes de estructura son reales.

2.2.3. La identidad de Jacobi.


La identidad de Jacobi es la siguiente:

[Xa , [Xb , Xc ]] + [Xb , [Xc , Xa ]] + [Xc , [Xa , Xb ]] = 0, (2.4)


18 2. ELEMENTOS DE TEORÍA DE GRUPOS.

la cual también se puede anotar como:

[Xa , [Xb , Xc ]] = [[Xa , Xb ], Xc ] + [Xb , [Xa , Xc ]],

y también es posible verla como la generalización de:

[Xa , Xb Xc ] = [Xa , Xb ]Xc + Xb [Xa , Xc ].

2.2.4. Representación adjunta.

Las constantes de estructura forman por sí mismas una representación lla-


mada representación adjunta.

Partiendo de la identidad de Jacobi (ecuación 2.4), y del criterio del álgebra


de Lie (ecuación 2.3):

[Xa , [Xb , Xc ]] + [Xb , [Xc , Xa ]] + [Xc , [Xa , Xb ]] = 0,


⇒ if bcd [Xa , Xd ] + if cad [Xb , Xd ] + if abd [Xc , Xd ] = 0,

∴ f bcd f ade + f cad f bde + f abd f cde = 0, (2.5)

esta es una identidad importante de las constantes de estructura.

A continuación se define un conjunto de matrices Ta como:

(Ta )bc ≡ −if abc ,

y se hace la siguiente reconfiguración en los índices dentro de la identidad


2.5:
2.2. GRUPOS DE LIE. 19

f bcd f ade + f cad f bde + f abd f cde = 0,


⇒ f bcd f ade − f acd f bde = f abd f dce ,
⇒ f ade f bcd − f bde f acd = f abd f dce ,
⇒ i2 [(Ta )de (Tb )cd − (Tb )de (Ta )cd ] = −if abd (Td )ce ,
⇒ i2 [(Ta )cd (Tb )de − (Tb )cd (Ta )de ] = −if abd (Td )ce ,
⇒ i2 [(Ta Tb )ce − (Tb Ta )ce ] = −if abd (Td )ce ,
⇒ i2 [Ta , Tb ]ce = −if abd (Td )ce ,

∴ [Ta , Tb ] = if abc Tc , (2.6)

y comparando con la ecuacion 2.3 se ve que las f abc conforman una repre-
sentación, y tal representación define la dimensión del espacio sobre el cual
actúa.

La dimensión de la representación adjunta es igual al número de ge-


neradores, igual al número de parámetros αa , pues hay una relación uno a
uno entre estos últimos.

Más aún, dado que las f abc son reales, los Ta son púramente imaginarios, lo
cual se ve de su definición. Los elementos del grupo:

aT
∼ eiα a
,

lo cual se sigue de la ecuación 2.2.

Producto escalar entre los generadores de la represen-


tación adjunta.
El objetivo es hallar una forma diagonal en T r[Ta , Tb ], i.e. diagonalizar la
traza.
20 2. ELEMENTOS DE TEORÍA DE GRUPOS.

Considérese la siguiente transformación lineal:

Xa0 = Lba Xb ,

entonces, el conmutador:

[Xa0 , Xb0 ] = Lda Leb [Xd , Xe ],


= iLda Leb f dec Xc = iLda Leb f deg (Lhg )−1 Lch Xc ,
= iLda Leb f deg (Lhg )−1 Xh0 ,

de manera tal que:

[Xa0 , Xb0 ] = if 0abc Xc , f 0abc ≡ Lda Leb f deg (Lcg )−1 .

A continuación se define:

(Ta0 )bc ≡ Lda Leb (Td )eg (Lcg )−1 ,


⇒ (Ta0 )bc = Lda (Leb (Td )eg (Lcg )−1 ),
⇒ (Ta0 )bc = Lda (LTd L−1 )bc ,

de manera tal que:

Ta0 = Lda LTd L−1 ,

en donde se halla la transformación de similaridad LTd L−1 .

Así pues, en la traza:

T r(Ta0 Tb0 ) = T r(Lca Ldb LTc L−1 LTd L−1 ) = Lca Ldb T r(LTc Td L−1 ),
∴ T r(Ta0 Tb0 ) = Lca Ldb T r(Tc Td ).
2.2. GRUPOS DE LIE. 21

Y de vuelta a la cuestión de diagonalizar la traza, i.e. ∼ δab , se puede elegir


L, para que en general:

T r[Ta , Tb ] = ka δab ,

como es posible reesclar los generadores con una transformación diagonal,


de manera que ka tenga valor absoluto de 1. Pero no es posible cambiar su
signo, pues este aparece al cuadrado. En lo que sigue se asumirá que los ka
son positivos, esto define las álgebras de Lie compuestas. Se tendrá:

T r[Ta , Tb ] = λδab ,

para un λ > 0. Con esto es posible mostrar que los f abc son completamente
antisimétricos.

Estados y operadores.
Los generadores de una representación pueden ponerse como operadores li-
neales o matrices:

Xa |ii = 1Xa |ii =


X
|ji hj| Xa |ii .
j

Dentro del espacio de Hilbert, en el cual actúa la representación del grupo, los
elementos de este se pueden poner como transformaciones sobre los estados.
El elemento del grupo:

aX
eiα a
,

el cual mapea o transforma a los kets como:

aX
|i0 i = eiα a
|ii ,

y tomando el adjunto, se obtiene el bra correspondiente:

aX
hi0 | = hi| e−iα a
, Xa† = Xa .
22 2. ELEMENTOS DE TEORÍA DE GRUPOS.

Sea O un operador, entonces O |ii es una suma de kets, así que debe trans-
formarse bajo el grupo como:

aX
O |ii −→ eiα a
O |ii ,
0 iαa Xa −iαa Xa iαa Xa
⇒ O |ii = e Oe e |ii ,
0 −iαa Xa iαa Xa 0 aX
∴O =e Oe , |i i = eiα a
|ii .

Así, cualquier operador se transforma como:

aX aX
O0 = eiα a
Oe−iα a
. (2.7)

Por otro lado, se observa que:

a a a aX
hi0 | O0 |j 0 i = hi| e−iα Xa eiα Xa Oe−iα Xa eiα a
|ji ,
= hi| 1O1 |ji = hi| O |ji .

El cambio en un ket bajo una transformación infinitesimal (αa << 1) está


dado por:

|ii = (1 + iαa Xa ) |ii = |ii + iαa Xa |ii ,


aX
|i0 i = eiα a

luego entonces:

δ |ii ≡ |i0 i − |ii = iαa Xa |ii ⇒ −iδ |ii = αa Xa |ii ,

y en cuanto al dual:

i hi| δ = − hi| αa Xa .

Luego, el cambio en el operador O bajo esta transformación:

Oe−iα Xa = (1 + iαa Xa )O(1 − iαa Xa ),


aX a
O0 = eiα a

w O + iαa [Xa , O],


2.2. GRUPOS DE LIE. 23

de donde se tendrá:

−iδO ≡ −i(O0 − O) = αa [Xa , O].

Algunas cosas sobre exponenciales.


a
Considérese la exponencial eiα Xa , siendo Xa matrices en alguna representa-
ción. Siempre es posible hacer:


iαa Xa
X (iαa Xa )n
e = .
n=0 n!

Se debe tener cuidado con la manipulación algebraica de estas cantidades.


Por ejemplo:

∂ iαa Xa a

b
e 6= iXb eiα Xa ,
∂α
pues ocurre que [Xa , Xb ] 6= 0.

Sin embargo, sí es cierto que:

d isαa Xa a a
e = iαb Xb eisα Xa = ieisα Xa αb Xb ,
ds
pues la combinación lineal completa sí conmuta consigo misma.

También es cierto que:

∂ iαa Xa

e = iXb ,
∂αb a
α =0

lo cual se prueba directamente del desarrollo en serie.


24 2. ELEMENTOS DE TEORÍA DE GRUPOS.
3

Cálculo tensorial.

3.1. Vectores y uno-formas.


Se enfocará la discusión sobre la construcción de vectores en el espacio-tiempo
(espacio) curvado.

3.1.1. Vectores y espacio tangente.


Un vector es la abstracción del objeto intuitivo que tiene magnitud y direc-
ción.

En un espacio euclideano se pueden tomar puntos como vectores que van del
origen a dichos puntos. La suma de dos puntos es otro punto del espacio.

Resulta también, que todo vector puede ser trasladado paralelamente a sí


mismo. Sin embargo, no ocurre lo mismo con los puntos sobre una esfera,
i.e. se pierde el transporte paralelo.

Ahora se pensará en el plano tangente a la esfera en un punto y los vec-


tores hallados sobre este. En espacios curvos se debe hablar de los vectores
tangentes a un punto.

25
26 3. CÁLCULO TENSORIAL.

Figura 3.1: Se ilustra un plano tangente a un punto de la esfera.

Los vectores, denotados con una flecha, forman un álgebra lineal o espacio
~ es un vector y α un escalar; αA
vectorial. Así A ~ es un vector y, si B
~ también
es un vector, entonces A~+B ~ es un vector.

Obsérvese que se han introducido las nociones convenientes del concepto


de vector sin pensar en coordenadas ni sus transformaciones. En cuanto a
estas últimas, vectores y escalares son invariantes bajo transformaciones de
coordenadas, pero las componentes de los segundos no.

Se puede pensar en la segunda ley de Newton como un ejemplo, pues sin


importar el sistema de coordenadas, esta siempre tiene la misma forma:

F~ = m~a.

A los puntos en el espacio se les denotará por x; esto no implica coordenadas,


ni tampoco vectores de posición.

En un espacio curvo, o variedad, el concepto de radio-vector ~x no es útil,


pues los vectores en el espacio euclídeo no se suman igual que en el curvo.

Los vectores a los que se hace referencia son tangentes, yacen justamente
3.1. VECTORES Y UNO-FORMAS. 27

Figura 3.2: Dos planos tangentes para diferentes puntos de la variedad.

en el espacio tangente a la variedad en cada punto.


En la definición de variedad diferenciable se asume que el conjunto de puntos
es diferenciable. Entonces es posible hablar de la diferencial d~x entre dos
puntos infinitamente próximos.

Asignando un vector tangente a cada punto del espacio se recupera la noción


de campo vectorial.

Sin embargo, se necesitan más herramientas si se desea comparar vectores en


puntos diferentes del espacio, ya que yacen en espacios tangentes diferentes.

La comparación de vectores en diferentes espacios tangentes requiere de la


noción de transporte paralelo. Hasta ahora sólo se considerarán vectores
tangentes al punto x (un sólo espacio). Para enfatizar esto, suele usarse la
~ x , que representa a un vector en el espacio tangente al punto
notación A
x.

3.1.2. Uno-formas y espacio dual.


Una uno-formaa está definida como una función escalar lineal de un
vector.
28 3. CÁLCULO TENSORIAL.

Las uno-formas asignan a un vector un escalar; si la uno-forma es P̃ y el vector


~v , a P̃ (~v ) se le llama producto punto o producto escalar, y se denota por:

P̃ (~v ) = hP̃ , ~v i.

Una uno-forma será lineal si:

hP̃ , a~v + bwi


~ = P̃ (a~v + bw)
~ = aP̃ (~v ) + bP̃ (w),
~

∴ hP̃ , a~v + bwi


~ = ahP̃ , ~v i + bhP̃ , wi.
~ (3.1)

Se puede asignar una uno-forma a cada punto de la variedad:

P̃ = P̃x .

Así, P̃ (~v ) es el producto escalar definido implícitamente en el punto x. De


forma explícita:

hP̃x , ~vx i.

Las uno-formas, tal como fueron definidas, forman su propia álgebra lineal,
la cual recibe el nombre de espacio vectorial dual o espacio cotangente,
el cual es diferente al de los vectores.

Así, dados los escalares a, b y las uno-formas P̃ y Q̃, se define la siguiente


uno-forma:

haP̃ + bQ̃, ~v i = (aP̃ + bQ̃)(~v ) = aP̃ (~v ) + bQ̃(~v ),

haP̃ + bQ̃, ~v i = ahP̃ , ~v i + bhQ̃, ~v i. (3.2)

Si se comparan las ecuaciones 3.1 y 3.2, se notará que vectores y uno-formas


son aplicaciones lineales actuando uno sobre el otro para producir escalares.
Se puede anotar:
3.1. VECTORES Y UNO-FORMAS. 29

Figura 3.3: Espacio tangente de dos puntos en la variedad.

hP̃ , ~v i = P̃ (~v ) = ~v (P̃ ).

Se recuerda que en el espacio cuántico, que es un espacio de Hilbert, se tiene:

espacio ket |ψi hφ| espacio bra


amplitudes de probabilidad hφ|ψi .

La distinción entre kets y bras se debe a que las amplitudes de probabilidad


son números complejos.

Así, la distinción entre vectores y uno-formas es necesaria, pues el espacio es


curvado.
De esta manera, a cada punto del espacio-tiempo se le asigna un espacio
vectorial Tx (M), llamado espacio tangente, cuyos elementos son vectores. La
dimensión de este espacio vectorial es igual a la de la variedad.

Es posible establecer una conexión entre dos espacios en dos puntos


diferentes, x y x0 , mediante la noción de transporte paralelo. Resulta que la
comparación depende del camino seguido si la curvatura no es cero.
30 3. CÁLCULO TENSORIAL.

El espacio dual, denotado por Tx∗ (M), llamado espacio de uno-formas o es-
pacio cotangente, tiene por elementos a las uno-formas: P̃ ∈ Tx∗ (M). Ya se
sabe que estas son funciones escalares lineales:

Tx∗ (M) × Tx (M) −→ R,


P̃ (~v ) = hP̃ , ~v i.

Nótese que también es posible pensar en el espacio dual a Tx∗ (M), el cual
debe ser Tx∗∗ (M), pero se encuentra que este será igual a Tx (M). De esta
manera:

~v (P̃ ) = h~v , P̃ i.

3.2. Tensores.
Un tensor de rango (m, n), tensor-(m, n), es una función escalar de m
uno-formas y n vectores, la cual es multilineal. Entonces, un tensor T , dadas
las uno-formas y los vectores, produce un escalar:

Un tensor del tipo (0, 1) es una uno-forma P̃ .

Un tensor del tipo (1, 0) es un vector ~v .

Se pueden definir campos tensoriales Tx , asignando un tensor a cada punto


x.

Existen tres formas de cambiar el rango de un tensor:

1. El producto exterior, el cual combina dos tensores de rango (m1 , n1 ) y


(m2 , n2 ) para producir el tensor de rango (m1 +m2 , n1 +m2 ). Por ejemplo,
el producto tensorial de dos vectores A ~yB ~ da como resultado un tensor
de rango (2, 0):
3.2. TENSORES. 31

~⊗B
T =A ~ : ~ P̃ )B(
T (P̃ , Q̃) = A( ~ Q̃),

y se ve que no es conmutativo:

~ ⊗A
T0=B ~: ~ P̃ )A(
T 0 (P̃ , Q̃) = B( ~ Q̃).

~ ⊗ B,
También se nota que P̃ ⊗ T = P̃ ⊗ A ~ es un (2, 1)-tensor:

T 00 = P̃ ⊗ T : ~ Q̃)B(
T (~u, Q̃R̃) = P̃ (~u)A( ~ R̃).

2. La segunda forma de cambiar el rango de un tensor es el producto interior,


el cual reduce el rango de un tensor (m, n) a (m − 1, n − 1). Esta forma
se verá más adelante.

3. La tercera forma de cambiar el rango de un tensor es el gradiente, que


también está por verse en las siguientes secciones.

3.2.1. Tensor métrico.


Se recuerda que el producto escalar requiere de un vector y de una uno-forma.
La cuestión es la siguiente: ¿es posible obtener un escalar de dos vectores o
dos uno-formas?’ La respuesta es afirmativa, y proviene de la definición de
tensor:

Cualquier tensor de rango (0, 2) produce un escalar de dos vectores.

Un tensor de rango (2, 0) combina dos uno-formas para producir un


escalar.

Existe un campo tensorial de rango (0, 2), denotado por gx , y su campo


tensorial asociado, gx−1 , de rango (2, 0), que merece atención especial.

El tensor gx recibe el nombre de tensor métrico,y gx−1 será el tensor mé-


trico inverso.
32 3. CÁLCULO TENSORIAL.

El tensor métrico es una función escalar bilineal, simétrica, de dos vectores,


i.e. dados los vectores ~v y w,
~ se obtendrá un escalar; es llamado producto
punto:

~ = ~v · w
g(~v , w) ~ · ~v = g(w,
~ =w ~ ~v ), (3.3)

en donde se observa la simetría. De manera similar, el g −1 , da un escalar de


dos uno-formas, P̃ y Q̃, y también se le llama producto punto:

g −1 (P̃ , Q̃) = P̃ · Q̃ = Q̃ · P̃ = g −1 (Q̃, P̃ ).

Más adelante se precisará qué distingue a g y g −1 del resto de tensores del


tipo (0, 2) y (2, 0), respectivamente.

Una de las propiedades más importantes del tensor métrico es que permite
convertir uno-formas en vectores y viceversa: si en la ecuación 3.3 se
omite w,
~ se tendrá una cantidad ṽ, la cual se comporta como uno-forma:

ṽ(·) ≡ g(~v , ·) = g(·, ~v ),

en donde el “·” denota que debe insertarse un vector para producir efectiva-
mente un escalar.

Así, la uno-forma es la función escalar de un vector. Nótese que se usaron ~v


y ṽ, duales uno del otro.

Así pues, la métrica g es un mapeo del espacio de vectores al de uno-formas:

g: V~ −→ Ṽ ,

luego entonces:

g −1 : Ṽ −→ V~ .
3.2. TENSORES. 33

De esta forma, es lógico lo siguiente:

~v (·) = g −1 (ṽ, ·) = g −1 (·, ṽ).

Hasta ahora sólo se han mencionado objetos abstractos que son indepen-
dientes de la base: escalares, o tensores de rango (0, 0), vectores, uno-
formas y, en general, tensores de rango (m, n).

En Relatividad General se pueden establecer las ecuaciones en términos de


esta formulación abstracta, pero no es lo más práctico para hacer predicciones
físicas.

3.2.2. Vectores base y uno-formas.


Es posible establecer cierta analogía entre las descripciones abstractas de
Relatividad General y la Teoría Cuántica:

Relatividad General: tensores −→ bases −→ componentes.

Teoría Cuántica: |ψ(t)i, vector de estado −→ bases generadas por


un conjunto completo de observables.

En el espacio-tiempo se busca una base de vectores linealmente independien-


te, cuyo número debe ser igual a la dimensión del espacio-tiempo, es decir:
4.

Denotando al conjunto de campos vectoriales base por {~eµx } en donde


µ etiqueta a los vectores de esta base: µ = 0, 1, 2, 3 y x etiqueta al punto del
espacio-tiempo. Este es un conjunto linealmente independiente de 4 vectores;
no es necesaria la ortogonalidad en esta base.

~ se puede expresar como:


Luego, dada la base {~eµx }, todo vector A

~ x = Aµx~eµx .
A
34 3. CÁLCULO TENSORIAL.

~ Aµ depende
Las Aµ son las componentes contravariantes del vector A.
~ no lo hace.
de la elección de la base, pero A

De manera similar, se puede elegir una base de uno-formas para representar


al objeto abstracto Ã, pero conviene elegir una base especial de uno-formas,
llamada base dual, y denotada por {ẽµx }. Entonces:

{~eµx } {ẽµx },

las cuales no están relacionadas a través de la métrica, es decir:

ẽµ (·) 6= g(~eµ , ·),

en su lugar, la base dual está definida mediante la imposición de los siguientes


16 requerimientos en cada punto del espacio-tiempo:

hẽµx , ~eνx i = δ µν , (3.4)

un sistema de cuatro ecuaciones lineales en cada punto x para cada una de


las cuatro cantidades ẽµ , y tiene solución única.

Es posible expresar cualquier campo uno-forma como:

P̃x = Pµx ẽµx ,

siendo las Pµ componentes covariantes de la uno-forma P̃ , y dependen de


la base dual.

De esta forma, se nota que:

~ µ ) = hẽµ , Ai
A(ẽ ~ = hẽµ , Aν ~eν i = hẽµ , ~eν iAν = Aµ ,

P̃ (~eµ ) = hP̃ , ~eµ i = hPν ẽν , ~eµ i = Pν hẽν , ~eµ i = Pµ .


3.2. TENSORES. 35

3.2.3. Álgebra tensorial.


Todo tensor de rango (m, n) se puede descomponer en un producto directo
de vectores y uno-formas de las bases {~eµ } y {ẽν }, es decir, el producto
tensorial de m vectores y n uno-formas. Por ejemplo, el (0, 2)-tensor se puede
descomponer en la base ẽµ ⊗ ẽν .
Las componentes del tensor métrico (0, 2), del tensor métrico inverso (2, 0) y
del tensor identidad (1, 1) se muestran a continuación:

Tensor métrico: gµν = g(~eµ , ~eν ) = ~eµ · ~eν ,


Tensor métrico inverso: g µν = g(ẽµ , ẽν ) = ẽµ · ẽν ,
Tensor identidad: δ µν = 1(ẽµ , ~eν ) = hẽµ , ~eν i.

Así, los tensores son descompuestos en la forma:

g = gµν ẽµ ẽν g −1 = g µν ~eµ~eν 1 = δ µν ~eµ ẽν .


De esta manera:

~·B
A ~ = Aµ~eµ · B ν ~eν = Aµ B ν ~eµ · ~eν = gµν Aµ B ν ,

~ = hPµ ẽµ , Aν ~eν i = Pµ Aν hẽµ , ~eν i = Pµ Aν δ µ = Pµ Aµ ,


hP̃ , Ai ν

P̃ · Q̃ = Pµ ẽµ · Qν ẽν = Pµ Qν ẽµ · ẽν = g µν Pµ Qν .

El tensor métrico permite relacionar componentes de vectores con uno-formas


y visceversa:

g(~eµ , ~v ) = g(~eµ , v ν ~eν ) = v ν g(~eµ , ~eν )


⇒ vµ = gµν v ν ,

g −1 (ẽµ , ṽ) = g −1 (ẽµ , vν ẽν ) = vν g −1 (ẽµ , ẽν )


⇒ v µ = g µν vν .
36 3. CÁLCULO TENSORIAL.

Y juntando las expresiones anteriores:

vµ = gµν g νκ vκ ,

⇒ gµν g νκ = δ κµ . (3.5)

Luego, entonces:

~ = v µ wν ~eµ · ~eν = gµν v µ wν = v µ wµ = vµ wµ ,


~v · w

esto es:

~ = gµν v µ wν = g µν vµ wν ,
~v · w

pero se recalca que: gµν 6= g µν . El único caso en el cual la distinción no es


necesaria es en un espacio-tiempo plano (Lorentz), con una base cartesiana
ortonormal. En este caso:

gµν ≡ ηµν ,

con η una matriz diagonal:

signatura positiva: (−1, 1, 1, 1) signatura negativa: (1, −1, −1, −1).

Pero la gravedad curva al espacio-tiempo, por lo que es imposible definir un


sistema de coordenadas en donde gµν = g µν en todas partes. Así que se está
obligado a distinguir entre vectores y uno-formas (el espacio y su dual).
~ = Aµ~eµ es llamado espacialoide, tem-
En Relatividad Especial, el vector A
poraloide o nulo, si:

~·A
A ~ = Aµ Aν ηµν ,

es positivo, negativo o cero, respectivamente. Este lenguaje también se adopta


en Relatividad General:
3.2. TENSORES. 37

~·A
A ~ = g(A
~ · A)
~ = gµν Aµ Aν ,

y de forma semejante para las uno-formas. En este sentido, un vector será


unitario si:

~·A
A ~ = ±1.

3.2.4. Cambio de Base.


Dada la base {~eµx }, se puede definir otra base {~eµ0 x } como sigue:

~eµ0 x = Λνxµ0 ~eνx (3.6)

que será linealmente independiente si Λ no es singular, i.e. existe Λ−1 , aun-


que esta no tiene porqué ser una transformación de Lorentz. Los marcos de
referencia definidos por las bases no son necesariamente inerciales (no es un
requerimiento).
Dado que la transformación es regular (no singular), se puede hablar de la
transformación inversa:

0
~eνx = Λµxν ~eµ0 x , (3.7)

la cual da como resultado el siguiente hecho:

0
Λµκ0 Λκν = δ µν .

La condición de dualidad 3.4. Luego, se asume que las condiciones análogas


de 3.6 y 3.7 son:

0 0
ẽµx = Ωµxν ẽνx , (3.8)

0
ẽνx = Ωνxµ0 ẽµx . (3.9)

Así pues, usando la condición de dualidad y las ecuaciones 3.7 y 3.9:


38 3. CÁLCULO TENSORIAL.

0 0
hẽνx , ~exγ i = hΩνxµ0 ẽµx , Λνxγ ~exν 0 i,
0 0 0 0 0
= Ωνxµ0 Λνxγ hẽµx , ~exν 0 i = Ωνxµ0 Λνxγ δ µν 0 = Ωνxµ0 Λµxγ ,
0
⇒ Ωνxµ0 Λµxγ = δ νγ

de esta manera:

Ωνxµ0 = Λνxµ0 . (3.10)

Luego, de las ecuaciones de transformación:

~exµ0 = Λλxµ0 ~exλ ⇒ hẽνx , ~exµ0 i = hẽνx , Λλxµ0 ~exλ i,


⇒ hẽνx , ~exµ0 i = Λλxµ0 hẽνx , ~exλ i = Λνxµ0 ,

esto será:

Λνxµ0 = hẽνx , ~exµ0 i. (3.11)

En contraparte se tendrá:

0 0 0 0
ẽµx = Λµxλ ẽλx ⇒ hẽµx , ~exν i = Λµxλ hẽλx , ~exν i

así:

0 0
Λµxν = hẽµx , ~exν i. (3.12)

Por otro lado, también se sabe que:

~ = Aν 0 ~eν 0 = Aν ~eν ,
A

es decir que los vectores no cambian. De esta forma:


3.2. TENSORES. 39

0 0 0
Aν hẽµ , ~eν 0 i = Aν hẽµ , ~eν i

0 0
∴ Aµ = Λµν Aν , (3.13)

siendo esta la ley contravariante de transformación. Por otro lado, lo


siguiente también se cumple:

0
à = Aν 0 ẽν = Aν ẽν ,

las uno-formas tampoco se modifican. Luego:

0
Aν 0 hẽν , ~eµ0 i = Aν hẽν , ~eµ0 i

∴ Aµ0 = Λνµ0 Aν , (3.14)

siendo esta última la ley de tranformación covariante; ambas transfor-


maciones aplican sobre las componentes de vectores y uno-formas, respecti-
vamente.
En cuanto al tensor métrico, bajo un cambio de base:

gµ0 ν 0 = g(~eµ0 , ~eν 0 ) = ~eµ0 · ~eν 0 = Λµµ0 Λνν 0 ~eµ · ~eν ,


= Λµµ0 Λνν 0 g(~eµ , ~eν ) = Λµµ0 Λνν 0 gµν ,

∴ gµ0 ν 0 = Λµµ0 Λνν 0 gµν , (3.15)

y de forma similar para el tensor métrico inverso.

3.2.5. Base de coordenadas


Un sistema de coordenadas es un conjunto de cuatro campos escalares:
40 3. CÁLCULO TENSORIAL.

xµx ,

se reitera que no son lo mismo que campos vectoriales, esto es, µ etiqueta
coordenadas, no componentes.
Las coordenadas asignan un conjunto único de etiquetas para cada punto x
del espacio-tiempo. Dos puntos distintos deben tener al menos una etiqueta
diferente.
Las coordenadas deben variar continuamente a través del espacio-tiempo.
Es posible elegir coordenadas diferentes, aún en espacios euclídeos. En es-
pacios no euclideanos no existe un sistema cartesiano que pueda cubrirlos
completamente.
Hay algunas razones por las cuales los sistemas cartesianos son útiles, como
las siguientes:

Primero, permiten etiquetar a cada punto del espacio-tiempo:

(x0 , x1 , x2 , x3 ).

Segundo, proporcionan un conjunto especial de vectores base llamado


“base de coordenadas”.
Supóngase que dos puntos del espacio-tiempo infinitesimalmente cer-
canos tienen coordenadas xµ y xµ + dxµ . El vector diferencia entre
ambos puntos, denotado por d~x, es un vector definido en el punto
x.
Se define la base de coordenadas como el conjunto de cuatro vectores
base ~eµx tales que las componentes de d~x son:

d~x = dxµ~eµ . (3.16)

Por ejemplo, el vector ~e0x debe apuntar en la dirección en la que crece


la coordenada x0 en x, esto corresponde a una dirección única. Además
es notable que no todas las bases son bases de coordenadas.
La base de coordenadas definida por 3.16, {~eµx }, tiene su base dual de
uno-formas, definida por {ẽµx }:
3.2. TENSORES. 41

hẽµx , ~eνx i = δ µν ,
la base dual de uno formas tiene que ver con el gradiente, lo cual
se verá en los siguientes párrafos.
Considérese un campo escalar fx , tratando a f como una función de
las coordenadas, la diferencia de f entre dos puntos infinitesimal-
mente próximos es:

∂f µ
df = µ
dx ≡ ∂µ f dxµ , (3.17)
∂x
la cual puede tomarse como la definición de las componentes del gra-
diente. Sin embargo, las derivadas parciales dependen de las coordena-
das, en tanto que el gradiente (derivada covariante) no debería. Enton-
ces ¿qué es el gradiente?, ¿un vector o una uno-forma? De la ecuación
3.17 se nota que df es un escalar y dxµ es la componente del vector d~x,
por lo cual ∂µ f tendrá que ser la componente de una uno-forma.
Se denotará a la uno-forma gradiente como ∇. ˜ Como cualquier uno-
forma, el gradiente puede ser descompuesto en una base de uno-formas
{ẽµ }:

˜ = ẽµ ∂µ ,

y se nota el orden de aparición, pues ẽµ mismo depende de las coorde-
nadas. De esta manera, se puede anotar 3.17 de forma independiente
de las coordenadas:

˜ d~xi.
df = h∇f, (3.18)
Si se desea la derivada direccional de f a lo largo de cierta dirección en
particular, simplemente se reemplaza a d~x por un vector apuntando en
la dirección deseada (por ejemplo, un vector tangente a alguna curva
dada).
Si ahora se hace fx igual a una de las coordenadas, el gradiente arroja
la base correspondiente de las uno-formas:

˜ µ = ẽν ∂ν xµ = ẽν δ µ = ẽµ .


∇x ν
42 3. CÁLCULO TENSORIAL.

Un tercer uso importante de las coordenadas es que pueden ser usa-


das para escribir la distancia entre dos puntos del espacio-tiempo. Sin
embargo, las coordenadas no son suficientes, se necesita del tensor mé-
trico.
El cuadrado de la distancia entre dos puntos del espacio-tiempo es:

ds2 = g(d~x, d~x) = d~x · d~x, (3.19)


el cual es un escalar, independiente de la base y es tomado como la
definición del tensor métrico.
En alguna base particular :

ds2 = g(dxµ~eµ , dxν ~eν ) = g(~eµ , ~eν )dxµ dxν ,


el cual recibe el nombre de elemento de línea, aunque sólo en la base
de coordenadas.
Un cambio de coordenadas implica un cambio en la base de coordenadas
de vectores y uno-formas. Sea el cambio de coordenadas:

0 0 0
xµ = xµ (xµ ) xµ = xµ (xµ ),
de esta manera:

0
∂xµ ν
µ0 ν∂xν µ0
dx = dx dx = dx ,
∂xν ∂xµ0
0 0 0
⇒ dxµ = Λµν dxν dxν = Λνµ0 dxµ ,

siendo la Λµν la matriz jacobiana de transformación.


Ahora bien, se recuerda que d~x = dxµ~eµ , así que, bajo un cambio de
coordenadas:

0 0
d~x = dxν ~eν 0 = dxµ~eµ = Λµν 0 dxν ~eµ ,
de manera tal que para bases:

~eν 0 = Λµν 0 ~eµ . (3.20)


3.2. TENSORES. 43

Por otro lado:

µ0
˜ = ẽµ0 ∂µ0 = ẽν ∂ν = ẽν ∂x ∂µ0 = ẽν Λµ0 ∂µ0 ,
∇ ν
∂xν
así que para la base dual:

0 0
ẽµ = ẽν Λµν . (3.21)

En cuanto a la métrica se observa que:

0 0 0 0
ds2 = gµν dxµ dxν = gµν Λµλ0 Λνρ0 dxλ dxρ = gλ0 ρ0 dxλ dxρ ,

siendo:

gλ0 ρ0 ≡ gµν Λµλ0 Λνρ0 .


44 3. CÁLCULO TENSORIAL.

3.3. Diferenciación e integración.


En este contexto, se continúa discutiendo la diferenciación e integración en
espacios curvos.

3.3.1. Gradiente de un escalar.


Este se refiere a considerar el gradiente de una función escalar fx , sabiendo ya
˜ es una uno-forma, la cual además es invariante ante transformaciones
que ∇
de coordenadas.
Por otro lado, en la base de coordenadas, sus componentes son las derivadas
respecto a las coordenadas:

˜ = ẽµ (∂µ f ) = (∇µ f )ẽµ ,


∇f

en donde se ve que ∂µ f y la derivada covariante ∇µ f coinciden en este


˜ es un tensor de rango (0, 1), el cual cambia el rango de otro tensor
caso. ∇
de rango (m, n) a (m, n + 1).
El campo escalar es un tensor de rango (0, 0), y la aplicación de un gradiente
a cualquier tensor es equivalente al producto tensorial con alguna uno-forma.

3.3.2. Gradiente de un vector: Derivada covariante.


~ cuya descomposición en la base de coordenadas es A
Sea un vector A, ~ = Aµ~eµ ;
~ es:
entonces, el gradiente de A

˜A
∇ ˜ µ~eµ ) = (ẽµ ∂µ ) ⊗ (Aν ~eν ) = ẽµ ⊗ ∂µ (Aν ~eν ),
~ = ∇(A
= (∂µ Aν )ẽµ ⊗ ~eν + Aν ẽµ ⊗ (∂µ~eν ) = (∇µ Aν )ẽµ ⊗ ~eν ,

el cual es un tensor de rango (1, 1). Aquí ya no se cumple la igualdad, esto


es ∂µ 6= ∇µ . Como notación alternativa:

Aν, µ ≡ ∂µ Aν Aν; µ ≡ ∇µ Aν ,
3.3. DIFERENCIACIÓN E INTEGRACIÓN. 45

por lo que el quid ahora será determinar qué es ∇µ en la base de coordenadas.


Se nota que ∂µ~eν es un vector en x: es la diferencia de dos vectores en dos
puntos infinitesimalmente próximos, divididos por un intervalo de coordena-
das.
Así pues, como todo vector, ∂µ~eν debe ser una combinación lineal de vectores
base en x. A continuación se anota tal combinación lineal de la forma más
general posible, indicando el punto en cuestión x:

∂µ~eνx = Γλxµν ~eλx .

La pregunta concreta será: ¿qué son estos coeficientes?

3.3.3. Símbolos de Christoffel.


El conjunto de coeficientes Γλµν recibe el nombre de símbolos de Christoffel o
coeficientes de conexión. Es importante notar que no son las componentes
de un (1, 2) tensor.
De vuelta al gradiente de un vector:

(∇µ Aν )ẽµ ⊗ ~eν = (∂µ Aν )ẽµ ⊗ ~eν + Aν ẽµ ⊗ (∂µ~eν ),


= (∂µ Aν )ẽµ ⊗ ~eν + Aν Γλµν ẽµ ⊗ ~eλ ,
= (∂µ Aν )ẽµ ⊗ ~eν + Γνµλ Aλ ẽµ ⊗ ~eν = (∂µ Aν + Γνµλ Aλ )ẽµ ⊗ ~eν ,

de forma tal que:

∇µ Aν = ∂µ Aν + Γνµλ Aλ , (3.22)

sería la derivada covariante de un vector.

3.3.4. Gradiente de uno-formas.


Considérese un campo uno-forma:
46 3. CÁLCULO TENSORIAL.

Ãx = Aµ ẽµx ,

la cuestión ahora es: ¿cómo sería su derivada covariante? Obsérvese lo si-


guiente:

˜ Ã = ∇(A
∇ ˜ ν ẽν ) = (ẽµ ∂µ ) ⊗ (Aν ẽν ) = ẽµ ⊗ ∂µ (Aν ẽν ),
= (∂µ Aν )ẽµ ⊗ ẽν + Aν ẽµ ⊗ (∂µ ẽν ) = (∇µ Aν )ẽµ ⊗ ẽν ,

y ahora se identifica la siguiente combinación lineal:

∂µ ẽνx = Πνxµλ ẽλx ,

siendo los Πνµλ análogos a los Γλµν .


Ahora nótese:

∂µ hẽν , ~eλ i = 0,

por un lado, y por otro:

∂µ hẽν , ~eλ i = h∂µ ẽν , ~eλ i + hẽν , ∂µ~eλ i = hΠνµρ ẽρ , ~eλ i + hẽν , Γρµλ~eρ i,
= Πνµρ hẽρ , ~eλ i + Γρµλ hẽν , ~eρ i = Πνµρ δ ρλ + Γρµλ δ νρ = Πνµλ + Γνµλ ,

de ambas expresiones se concluye que:

Πνµλ = −Γνµλ , (3.23)

de esta forma se relacionan los coeficientes de los vectores y de las uno-formas,


y en cuanto a estas últimas, la derivada covariante de una uno-forma
queda como sigue:

∇µ Aν = ∂µ Aν − Γλµν Aλ . (3.24)

De esta forma, resulta lo siguiente:


3.3. DIFERENCIACIÓN E INTEGRACIÓN. 47

˜A
∇ ~ = (∇µ Aν )ẽµ ⊗ ~eν = (∂µ Aν + Γν Aλ )ẽµ ⊗ ~eν ,
µλ
˜
∇Ã = (∇µ Aν )ẽ ⊗ ẽ = (∂µ Aν − Γ µν Aλ )ẽµ ⊗ ~eν .
µ ν λ

Ahora se generalizará. Sea T un tensor de rango (m, n), el cual tiene la


siguiente descomposición en la base de coordenadas:

T = T µ1 ···µn ν1 ···νm ẽν1 ⊗ · · · ⊗ ẽνm ⊗ ~eµ1 ⊗ · · · ⊗ ~eµn ,

el objetivo ahora será ver cómo cambia este tensor ante el gradiente, lo cual
se muestra a continuación:

˜ = ẽλ ∂λ ⊗ (T µ1 ···µn ν ···ν ẽν1 ⊗ · · · ⊗ ẽνm ⊗ ~eµ1 ⊗ · · · ⊗ ~eµn ),


∇T 1 m

= (∇λ T µ1 ···µn ν1 ···νm )ẽλ ⊗ ẽν1 ⊗ · · · ⊗ ẽνm ⊗ ~eµ1 ⊗ · · · ⊗ ~eµn ,

en donde se tiene:

∇λ T µ1 ···µn ν1 ···νm = ∂λ T µ1 ···µn ν1 ···νm + Γµλρ1 1 T ρ1 µ2 ···µνn1 ···νm + · · · + Γµλρnn T µ1 ···ρn ν1 ···νm
−Γρλν1 1 T µ1 ···µn ρ1 ν2 ···νm − · · · − Γρλνmm T µ1 ···µn ν1 ···ρm ,

y se observa que se transforma según las ecuaciones 3.22 y 3.24. A continua-


ción se ilustra esta derivada con el tensor métrico g, el tensor identidad 1 y el
tensor métrico inverso g −1 , con rangos (0, 2), (1, 1) y (2, 0), respectivamente:

˜ = (∇λ gµν )ẽλ ⊗ ẽµ ⊗ ẽν ⇒ ∇λ gµν = ∂λ gµν − Γρ gρν − Γρ gµρ ,


∇g λµ λν
˜ −1 µν λ µν µν µ
∇g = (∇λ g )ẽ ⊗ ~eµ ⊗ ~eν ⇒ ∇λ g = ∂λ g + Γ g + Γν g µρ ,
ρν
λρ λρ
˜1 =
∇ (∇λ δ µν )ẽλ ν
⊗ ~eµ ẽ ⇒ ∇λ δ µν = ∂λ δ µν + Γµλρ δ ρν − ρ
Γ λν δ µρ = µ
Γ λν − Γµλν = 0,

eso último, el hecho de que ∇˜ 1 = 0, no es sorprendente, empero tiene con-


secuencias interesantes, pues al ser g y g −1 isomorfos con 1, su gradiente
también es igual a cero.
48 3. CÁLCULO TENSORIAL.

En algún punto x de una variedad suave se puede construir un sistema de


coordenadas totalmente plano (cartesiano).
Se define un sistema de coordenadas localmente planas como aquel cuyos vec-
tores base de coordenadas satisfacen la siguiente condición en una vecindad
entorno a x:

0, µ 6= ν
~exµ · ~exν =
±1, µ = ν

La existencia de un sistema de coordenadas localmente plano puede ser to-


mado como la definción de variedad suave. Aunque, en general, estas coor-
denadas no pueden ser extendidas sobre toda la variedad, son satisfactorias
para medir distancias en el entorno de x usando:

ds2 = gµ̄ν̄ dxµ̄ dxν̄ = ηµ̄ν̄ dxµ̄ dxν̄ ,

en donde se reconoce la ηµ̄ν̄ del espacio plano.


La clave es que esto no es cierto sólo en el punto x, sino en una pequeña
vecindad de este. Pero en un espacio plano, el tensor métrico debe tener
gradiente igual a cero. Más aún, como el gradiente del tensor métrico es
otro tensor por sí mismo, si un tensor tiene componentes iguales a cero en
un sistema de coordenadas, tendrá componentes cero en todos los demás
sistemas coordenados. De esta forma, para toda variedad suave:

˜ =0
∇g ˜ −1 = 0.
∇g

Evaluación de los símbolos de Christoffel.


A continuación se verá que los símbolos de Christoffel son simétricos en este
sentido:

Γλµν = Γλνµ .

La demostración de este hecho se sigue a continuación.


3.3. DIFERENCIACIÓN E INTEGRACIÓN. 49

En el punto x, la base de vectores asociados al sistema de coordenadas plano


tiene derivadas iguales a cero:

∂µ̄~eν̄ = 0,

por lo cual, de la definición de los símbolos de Christoffel se deduce que estos


serán cero en ese sistema de coordenadas:

0 = ∂µ̄~eν̄ = Γλ̄µ̄ν̄ ~eλ̄ ⇐⇒ Γλ̄µ̄ν̄ = 0.

En otro sistema, la transformación daría lo siguiente:

∂xρ µ̄
xρ = xρ (xµ̄ ) ⇒ dxρ = µ̄
dx = Λρµ̄ dxµ̄ ,
∂x
siendo Λρµ̄ la matriz jacobiana. De esta forma, la nueva base se transforma
como:

∂xµ̄
~eρ = Λµ̄ρ~eµ̄ = ~eµ̄ ,
∂xρ

y además es claro que Γλ̄µ̄ν̄ = Γλ̄ν̄ µ̄ , pues en el sistema localmente plano ambas
son iguales a cero, como ya se vio.
El problema ahora será ver si los símbolos de Christoffel conmutan en general.
Para ello se hace lo siguiente:

∂xµ̄
!
Γλφρ~eλ = ∂φ~eρ = ∂φ (Λµ̄ρ~eµ̄ ) = ∂φ ~eµ̄ ,
∂xρ
∂ 2 xµ̄ ∂xµ̄ ∂ 2 xµ̄
= ~
e µ̄ + ∂ ~
e
φ µ̄ = ~eµ̄ + Λµ̄ρ Λν̄φ ∂ν̄ ~eµ̄ ,
∂xφ ∂xρ ∂xρ ∂xφ ∂xρ
∂ 2 xµ̄ µ̄ ν̄ σ̄
0
= ~
e µ̄ + Λ ρ Λ Γ
φ  ν̄ µ̄ ~
>

eσ̄ ,
∂xφ ∂xρ
∂ 2 xµ̄
∴ Γλφρ~eλ = ~eµ̄ .
∂xφ ∂xρ

Y por otro lado se tiene:


50 3. CÁLCULO TENSORIAL.

∂xν̄ ∂ 2 xν̄
!
0
Γλρφ~eλ = ∂ρ~eφ = ∂ρ (Λν̄φ~eν̄ )
= ∂ρ ~
e ν̄ = ~
e ν̄ + Λ ν̄
φ Λ µ̄ σ̄
Γ
ρ  µ̄ν̄ ~
>

eσ̄ ,
∂xφ ∂xρ ∂xφ
∂ 2 xν̄
∴ Γλρφ~eλ = ~eν̄ .
∂xρ ∂xφ

Ahora, si en la segunda igualdad se hace el intercambio ν̄ → µ̄, queda lo


siguiente:

∂ 2 xµ̄
Γλρφ~eλ = ~eµ̄ = Γλφρ~eλ ,
∂xφ ∂xρ
lo cual se cumple para todo ~eλ en esta base. Luego entonces:

Γσφρ = Γσρφ .

El hecho de que los símbolos de Christoffel sean simétricos ante el intercambio


de subíndices, en conjunto con:

(A) ∂λ gµν − Γκλµ gκν − Γκλν gµκ = 0,

son suficientes para escribir a los símbolos en términos de la métrica.


Si en (A) se hace λ ↔ µ:

(B) ∂µ gλν − Γκµλ gκν − Γκµν gλκ = 0,

de la misma manera, en (A) se hace el intercambio λ ↔ ν:

(C) ∂ν gµλ − Γκνµ gκλ − Γκνλ gµκ = 0,

y si ahora se resta (B) de (A):

(D) ∂λ gµν − ∂µ gλν + Γκµν gλκ − Γκλν gµκ = 0,

Finalmente, se suman las ecuaciones (C) y (D):


3.3. DIFERENCIACIÓN E INTEGRACIÓN. 51

∂λ gµν − ∂µ gλν + ∂ν gµλ − 2Γκλν gµκ = 0,


!
1
⇒ Γκλν gµκ g ρµ = g ρµ ∂λ gµν − ∂µ gλν + ∂ν gµλ ,
2

de esta forma resulta:


!
1
Γρλν = g ρµ ∂λ gµν + ∂ν gµλ − ∂µ gλν . (3.25)
2

Así los Γλµν pueden ser cero en un sistema coordenado, pero no nulos en otro,
esto ya es claro, pues no son componentes de un tensor.
Se pueden definir las condiciones que definen a un sistema de coordenadas
localmente plano en el entorno de x0 por:

gµ̄ν̄x0 = ηµ̄ν̄ ,
⇒ Γλ̄x0 µ̄ν̄ = 0 ⇔ ∂µ̄ gµ̄ν̄x0 = 0.

3.3.5. Transformación a coordenadas localmente pla-


nas.
Si se da la métrica gµν y los símbolos de Christoffel Γλµν en cualquier sistema
de coordenadas, ahora el problema será hallar un sistema de coordenadas
localmente plano para algún punto x0 .
El sistema se encontrará desarrollando las componentes de gµν en serie de
Taylor alrededor de x0 y relacionándolas con las componentes del sistema
plano:

∂xµ̄ ∂xν̄
gµν = gµνx0 + (x − x0 )λ ∂λ gµνx0 + O(x − x0 )2 = ηµ̄ν̄ + O(x − x0 )2 .
∂xµ ∂xν
Esto cumple con las dos condiciones requeridas para un sistema de coorde-
nadas localmente plano, empero la segunda derivada del tensor métrico no
necesariamente es igual a cero.
52 3. CÁLCULO TENSORIAL.

Sea el desarrollo en serie de Taylor entorno a x0 :

xµ̄ = xµ̄0 + Aµ̄κ (x − x0 )κ + B µ̄κλ (x − x0 )κ (x − x0 )λ + O(x − x0 )3 ,

con xµ̄0 , Aµ̄κ y B µ̄κλ constantes. El siguiente paso será determinar la relación de
estas constantes con la expresión que relaciona ambos sistemas coordenados.
Nótese lo siguiente:

∂xµ̄
= Aµ̄µ + 2B µ̄µλ (x − x0 )λ ,
∂xµ
y se ve claramente que B µ̄µν = B µ̄νµ . De esta forma:

∂xµ̄ ∂xν̄
µ ν
= Aµ̄µ Aν̄ν + 2(Aµ̄µ B ν̄νλ + Aν̄ν B µ̄µλ )(x − x0 )λ + O(x − x0 )2 ,
∂x ∂x

de manera tal que se tiene:

gµν = ηµ̄ν̄ [Aµ̄µ Aν̄ν + 2(Aµ̄µ B ν̄νλ + Aν̄ν B µ̄µλ )(x − x0 )λ ] + O(x − x0 )2 ,

de donde ya se ve que:

gµνx0 = ηµ̄ν̄ Aµ̄µ Aν̄ν =⇒ gx0 = AT ηA. (3.26)

Ahora se toma la derivada de lo anterior respecto a xρ , evaluada en x0 :

∂ρ gµνx0 = 2ηµ̄ν̄ (Aµ̄µ B ν̄νρ + Aν̄ν B µ̄µρ ),

y haciendo los intercambios µ ↔ ρ y ν ↔ ρ, respectivamente, se obtiene:

∂µ gρνx0 = 2ηµ̄ν̄ (Aµ̄ρ B ν̄νµ + Aν̄ν B µ̄ρµ )


∂ν gµρx0 = 2ηµ̄ν̄ (Aµ̄µ B ν̄ρν + Aν̄ρ B µ̄µν ),

de donde se nota lo siguiente:


3.3. DIFERENCIACIÓN E INTEGRACIÓN. 53

(∂µ gρν + ∂ν gµρ − ∂ρ gµν ) = 2ηµ̄ν̄ (Aµ̄ρ B ν̄νµ + Aν̄ρ B µ̄µν ),


= 2ηµ̄ν̄ Aµ̄ρ (B ν̄νµ + B ν̄µν ) = 4ηµ̄ν̄ Aµ̄ρ B ν̄µν ,

y si se contrae con g κρ :

!
1
2g κρ ηµ̄ν̄ Aµ̄ρ B ν̄µν = g κρ ∂µ gρν + ∂ν gµρ − ∂ρ gµν ,
2
: 1 ν̄
⇒ 2Aκν̄ B ν̄µν = Γκµν ⇒ 2
Aν̄ κ
κ A ν̄ B = Aν̄κ Γκµν ,


µν

de forma tal que resulta:

1
B ν̄µν = Aν̄κ Γκµν . (3.27)
2
Así pues, si se da A, B estará completamente determinada por los símbolos
de Christoffel.
Los símbolos determinan las correcciones cuadráticas a las coordenadas re-
lativas a las coordenadas localmente planas.
La matriz A tiene 16 componentes, mientras que el tensor métrico tiene 10,
por lo cual quedan 6 grados de libertad para cualquier transformación a un
sistema localmente plano, ¿tiene esto algún significado especial? Resulta que
sí, pues son los 3 ángulos que parametrizan a las rotaciones en los planos
x1 x2 , x1 x3 , x2 x3 , y las 3 transformaciones (boosts) en los planos x0 x1 , x0 x2 ,
x 0 x3 .

3.3.6. Integración en espacios curvos.


En espacios planos el elemento de volumen es:

d4 x = dx1 dx2 dx3 dx4 ,

y es una cantidad invariante. Tal cosa no es cierta en espacios curvos.


54 3. CÁLCULO TENSORIAL.

Considérese la transformación de coordenadas localmente planas xµ̄ a coor-


denadas generales xµ . Del cálculo infinitesimal se sabe que:

∂xµ̄
!

4
dω = det d x,

∂xµ

y de la ecuación 3.26:

∂xµ̄
Aµ̄µ = ,
∂xµ
la cual es la matriz jacobiana de la transformación. Tomando el determinante:

  −1
det(g) = det AT ηA = 
det{η}

:
(det(A))2 = −(det(A))2 ,

det(g) = g ⇒ det(A) = −g,

de esta forma:


dω = −gd4 x. (3.28)

Integración sobre superficies.


Supóngase que en lugar de integrar sobre un volumen 4-dimensional , se
desea hacerlo sobre una superficie 3-dimensional, aunque tal superficie tendrá
orientación.
En la geometría euclideana:
En geometría riemanniana, el significado es prácticamente el mismo, salvo
que n̂ es reemplazado por una uno-forma ñ: la superficie es expresada por un
conjunto de vectores tangentes ~t, que son ortogonales a la normal ñ en x:

hñ, ~ti = 0.

Se trata de hallar el elemento de superficie, esto es, se busca la generalización


de d~s en R3 :
3.3. DIFERENCIACIÓN E INTEGRACIÓN. 55

Figura 3.4: Vector normal a una superficie diferencial de una variedad.

d~s = n̂dA = n̂d2 x,

en espacios curvos es similar, salvo que debe aparecer el determinante de la


métrica:


ds̃ = ñ −gd3 x. (3.29)

Ley de Gauss.
Primero se encontrará la expresión general para la divergencia de un campo
~ De la expresión del gradiente de A:
vectorial A. ~

∇ν Aµ = ∂ν Aµ + Γµνλ Aλ ,

se tiene:
!
1
Γµνλ = g µκ ∂ν gλκ + ∂λ gνκ − ∂κ gνλ ,
2

de donde se sigue que:

1
Γµµλ = g µκ (∂λ gµκ ).
2
56 3. CÁLCULO TENSORIAL.

Partiendo de la definición de determinante, es sencillo probar que:


∂µ log −g = g λκ ∂µ gλκ ,

de forma tal que:

∇µ V µ = ∂µ V µ + Γλλµ V µ ,
1 1 √
= ∂µ V µ + g λκ (∂µ gλκ )V µ = ∂µ V µ + ∂µ log −gV µ ,
2 2
1 √
⇒ ∇µ V µ = √ ∂µ ( −gV µ ).
−g

Entonces la forma general de la ley de Gauss es:

Z
√ Z
∇µ V µ dω =
∂µ ( −gV µ )d4 x,
I
~
I

hdã, V i = h −gd3 xñ, V µ~eµ i,
δ νµ
µ√ µ√
I I
3 3 ν
V −g xhñ, ~eµ i = nν V −gd hẽ,
x i
~eµ
:

,

de esta manera:
Z I

∇µ V µ dω = nµ V µ −gd3 x. (3.30)

3.4. Transporte paralelo.

3.4.1. Diferenciación a lo largo de una curva.


Sea x(λ) una curva, con λ un parámetro real que varía continuamente. La
curva tiene un vector tangente dado por:

d~x dxµ
~v = = ~eµ .
dλ dλ
3.4. TRANSPORTE PARALELO. 57

Se asume que se tiene un campo escalar fx definido a lo largo de la curva, y


se define la derivada a lo largo de la curva como:

df ˜ ~v i = hẽµ ∂µ f, v ν ~eν i,
≡ ∇v f = h∇f,

= v ν ∂µ f hẽµ , ~eν i = v ν ∂µ f δνµ = v µ ∂µ f,
df
⇒ = v µ ∂µ f,

y como también se tiene:

dxµ dxµ
~v = ~eµ ⇒ vµ = ,
dλ dλ
entonces:

df dxµ
= ∂µ f. (3.31)
dλ dλ

Así pues, ∇v es la derivada covariante a lo largo de ~v . Esta es una generali-


zación natural de la derivada covariante a lo largo del vector base ~eµ , es decir
∇µ .
Ahora considérese el caso de un campo vectorial ~vx ; en este caso:

~
dA dAµ
= ~eµ ,
dλ dλ

~ a lo largo de ~v . Luego:
es la derivada covariante de A

dA~
= ∇v A ~ = h∇˜ A,
~ ~v i = h∇κ Aρ ẽκ ⊗ ~eρ , v µ~eµ i,

= v µ ∇κ Aρ hẽκ , ~eµ i~eρ = v µ ∇µ Aρ~eρ ,
dxµ
= v µ (∂µ Aρ + Γρµλ Aλ )~eρ = (∂µ Aρ + Γρµλ Aλ )~eρ ,

58 3. CÁLCULO TENSORIAL.

Figura 3.5: Transporte paralelo de un vector sobre una curva en un espacio


euclídeo.

finalmente se tiene que:

~ dAρ dxµ ρ
!
dA
= + Γρµλ A ~eρ . (3.32)
dλ dλ dλ

3.4.2. Transporte paralelo.

Se introduce la noción de transporte paralelo de vectores y tensores a un


espacio curvo.
En un espacio plano se puede mover un vector de un punto a otro mante-
niéndolo constante, figura 3.6.
En un espacio curvo, el transporte paralelo hace uso de la noción de conexión.
El transporte paralelo en un espacio depende de la trayectoria seguida. Tó-
mese el caso de la 2-esfera:
Naturalmente se pueden comparar dos vectores sólo cuando son del mismo
espacio tangente.
No hay forma de evitar el conflicto mostrado: efectivamente, el transporte
de un vector de un espacio tangente a otro depende fundamentalmente de la
trayectoria.
Dada una curva xµ (λ), el requerimiento de consistencia de un tensor T a lo
3.4. TRANSPORTE PARALELO. 59

Figura 3.6: Transporte paralelo de un vector a lo largo de dos geodésicas


sobre una esfera.

largo de esta curva en un espacio plano simplemente es:

dT dxµ
= ∂µ T = 0.
dλ dλ
En un espacio curvo, se define el transporte paralelo del vector ~v a lo largo de
la trayectoria xµ (λ) por el requerimiento de que, a lo largo de la trayectoria:


D~v dxσ dxσ
= µ
∇σ v = (∂σ v µ + Γµσλ v λ ),
Dλ dλ dλ
µ
dv dxσ λ
= + Γµσλ v = 0.
dλ dλ

El transporte paralelo de un tensor T de rango arbitrario requiere de:

!µ1 ···µk
DT dxσ
= (∇σ T µ1 ···µk ν1 ···νl ),
Dλ ν1 ···νl

σ
dx
= (∂σ T µ1 ···µk ν1 ···νl + Γµσρ 1
T ρ1 µ2 ···µνk1 ···νl + · · · + Γµσρ k
T µ1 ···ρk ν1 ···νl
dλ 1 k

−Γρσν1
1
T µ1 ···µk ρ1 ν2 ···νl − · · · − Γρσν l
l
T µ1 ···µk ν1 ···ρl ) = 0,

por ejemplo, un 2-tensor:


60 3. CÁLCULO TENSORIAL.


DT dT µν dxσ ρ dxσ µ
= + Γµσρ T ν − Γρσν T = 0.
Dλ ν
dλ dλ dλ ρ

Las ecuaciones de transporte paralelo pueden ser vistas como ecuaciones


diferenciales de primer orden que definen un problema de valor inicial.

3.4.3. Geodésicas.
El transporte paralelo puede ser usado para definir una clase especial de
curvas llamadas geodésicas.
Una curva geodésica es aquella que transporta paralelamente a su propio
vector tangente:

d~x
~v = .

En este caso la ecuación:

D~v dv µ dxσ ρ
= + Γµσρ v = 0,
dλ dλ dλ

cuando se sustituye v µ por dxµ /dλ:

d 2 xµ σ
µ dx dx
ρ
+ Γ σρ = 0.
dλ2 dλ dλ
Así pues, una geodésica es la extensión natural de la línea recta en
un espacio curvo. En el caso del espacio plano, ya se sabe que Γµσρ = 0, de
manera que:

d 2 xµ
=0 ⇔ x µ = aµ λ + b µ ,
dλ2
y si se asume que el espacio es bidimensional, entonces:
3.5. CURVATURA 61


 x1 = a1 λ + b 1 x1 − b 1
=⇒ λ= ,
 x 2 = a2 λ + b 2 a1
!
2 a2
⇒x = (x1 − b1 ) + b2 ,
a1
!
2 a2 1 2 a2 1
∴ x = 1x + b − 1b ,
a a

esta última es reconocida como la ecuación de la recta en un espacio plano


bidimensional.

3.5. Curvatura
A continuación se discutirá la curvatura del espacio-tiempo. Se notará que
ρ
dicha curvatura es cuantificada por el tensor de Riemann: Rσµν . También
se verá que este tensor está dado en términos de objetos más fundamentales:

g −→ Γ −→ R

La curvatura se puede obtener mediante el transporte paralelo de un vector


a lo largo de un lazo (loop) cerrado; la curvatura mide la diferencia entre
el vector inicial y su transporte a lo largo del loop. Si no hay cambio en el
vector transportado, se dice que el espacio es plano, lo cual equivale a una
métrica constante o la ausencia de conexiones (Γ).
La manera convencional de introducir el tensor de curvatura (o de Riemann)
es considerar un loop infinitesimal. Se ilustra la idea en la figura 3.7.
Imagínese el transporte paralelo de un vector v σ alrededor del loop cerrado
definido por los vectores Aµ y B µ . Las longitudes de los lados infinitesimales
del loop serán δa y δb.
Se usará el hecho de que la noción de transporte paralelo es independiente de
las coordenadas: debe existir un tensor que muestre cómo cambia el vector
cuando regresa a su punto de partida. Debe ser una transformación lineal
sobre un vector, de manera que poseerá un subíndice y un superíndice. El
62 3. CÁLCULO TENSORIAL.

Figura 3.7: Loop infinitesimal

tensor debe depender, además, de los vectores que definen al loop Aµ y B µ ,


así que contendrá otros dos índices más para contraerse con A ~ y B.
~ Más aún,
~ y B,
el tensor deberá ser antisimétrico con los índices que contraen a A ~ pues
el intercambio A~ ↔ B ~ es equivalente a invertir el lazo, lo cual conduce a
un resultado opuesto: consistente con el hecho de que el resultado es cero si
~ = B.
A ~
Se espera, por lo tanto, que el cambio experimentado por v σ cuando es trans-
portado paralelamente a lo largo del loop sea:

δv ρ = (δa)(δb)Aµ B ν Rρσµν v σ ,

donde Rρσµν es el (1,3)-tensor, llamado “tensor de Riemann”, o tensor de


curvatura, como ya se mencionó.
En lugar de obtener el tensor de curvatura mediante la noción de transpor-
te paralelo, se seguirá un camino más rápido: el conmutador de derivadas
covariantes:
Esto debido a la estrecha relación entre el transporte paralelo y la derivada
covariante.
El cálculo es directo; considérese un campo vectorial v ρ :
3.5. CURVATURA 63

[∇µ , ∇ν ]v ρ = ∇µ ∇ν v ρ − ∇ν ∇µ v ρ ,
= ∇µ (∂ν v ρ + Γρνσ v σ ) − ∇ν ∇µ v ρ ,

en donde se considera que el gradiente de v ρ es un 2-tensor, así:

[∇µ , ∇ν ]v ρ = ∂µ (∂ν v ρ + Γρνσ v σ ) + Γρµσ (∂ν v σ + Γσνλ v λ )


−Γλµν (∂λ v ρ + Γρλσ v σ ) − ∇ν ∇µ v ρ ,
= ∂µ ∂ν v ρ + ∂µ (Γρνσ v σ ) + Γρµσ ∂ν v σ + Γρµσ Γσνλ v λ ,
−Γλµν ∂λ v ρ − Γλµν Γρλσ v σ − ∇ν ∇µ v ρ ,
= ∂νvρ − 
∂µ ∂µvρ + ∂µ (Γρνσ v σ ) − ∂ν (Γρµσ v σ )
∂ν
+Γρµσ ∂ν v σ − Γρνσ ∂µ v σ + Γρµσ Γσνλ v λ − Γρνσ Γσµλ v λ
Γλ  ρ Γλ  ρ Γλ Γρσ
Γλ Γρ σ
 
− µν ∂λ v +  νµ ∂λ v −  λσ v +  λσ v ,
 
µν νµ

de esta manera se tendrá que:

[∇µ , ∇ν ]v ρ = (∂µ Γρνσ − ∂ν Γρµσ + Γρµλ Γλνσ − Γρνλ Γλµσ )v σ


⇒ [∇µ , ∇ν ]v ρ = Rρσµν v σ ,

siendo el tensor de Riemann:

Rρσµν = ∂µ Γρνσ − ∂ν Γρµσ + Γρµλ Γλνσ − Γρνλ Γλµσ . (3.33)

Observaciones:

Se puede probar que este tensor es el mismo que el obtenido por el


transporte paralelo.

Aunque R está formado por Γ, las cuales no son tensores, la combina-


ción observada sí lo es.
64 3. CÁLCULO TENSORIAL.

La antisimetría de los dos últimos índices es inmediata de:

[∇µ , ∇ν ]v ρ = Rρσµν v σ .

R depende de las conexiones y sus primeras derivadas. A su vez, Γ


depende de g y sus primeras derivadas. Entonces R está determinado
por la métrica, sus primeras y segundas derivadas. Es g, y no Γ, el
objeto fundamental.

Propiedades algebraicas del tensor de Riemann.


En un espacio n-dimensional R tendría n4 componentes independientes, pero
sus simetrías reducen considerablemente tal número.
En primer lugar, ya se sabe que:

Rρσµν = −Rρσνµ .

Empero R tiene más simetrías; para ver esto:

Rρσµν = gρλ Rλσµν ,

se puede anotar este tensor en términos de la métrica:

1
 
Rρσµν = ∂µ ∂σ gρν −∂µ ∂ρ gνσ −∂ν ∂σ gρµ +∂ν ∂ρ gµσ +gηλ (Γηνρ Γλµσ −Γηµρ Γλσν ).
2

Y se identifican las siguientes simetrías:

Rρσµν = Rµνρσ

Antisimetría:

Rρσµν = −Rσρµν = −Rρσνµ = Rσρνµ .


3.5. CURVATURA 65

Ciclicidad: la suma de las permutaciones cíclicas de los últimos tres


índices es nula:

Rρσµν + Rρνσµ + Rρµνσ = 0, (3.34)

esta última es la primera identidad de Bianchi.

Es también útil considerar contracciones del tensor de Riemann. Una de estas


contracciones define al tensor de Ricci:

Rµν = Rλµλν , (3.35)

el cual es simétrico Rµν = Rνµ , lo cual es consecuencia de las diversas sime-


trías del tensor de Riemann.
Usando la métrica se puede hacer una contracción más paara formar lo que
se conoce como el escalar de Ricci:

R ≡ Rµµ = g µν Rµν . (3.36)

Las simetrías mostradas antes permiten determinar el número total de com-


ponentes independientes del tensor de Riemann, esto es:

1 2 2
n (n − 1),
12
y si n = 4, entonces:

1
(16)(15) = 20.
12

Identidades de Bianchi.
El tensor de curvatura satisface una importante identidad diferencial. Al con-
siderar la derivada covariante del tensor de Riemann evaluada en un sistema
de coordenadas localmente plano, en el cual las conexiones son cero, aunque
sno sus derivadas:
66 3. CÁLCULO TENSORIAL.

∇λ Rρσµν = ∂λ Rρσµν , Γ = 0,
1
⇒ ∇λ Rρσµν = ∂λ (∂µ ∂σ gρν − ∂µ ∂ρ gνσ − ∂ν ∂σ gρµ + ∂ν ∂ρ gµσ ),
2

de donde se llega a:

∇λ Rρσµν + ∇σ Rλρµν + ∇ρ Rσλµν = 0,

pero, dado que esta es una ecuación tensorial, es válida para cualquier sistema
coordenado, aunque se haya derivado en un sistema en particular.
Es la asimetría Rρσµν = −Rσρµν la que permite poner este resultado sinteti-
zado como:

∇[λ Rρσ]µν = 0, (3.37)

la anterior es la identidad de Bianchi (el símbolo con corchetes para los


subíndices indica permutaciones cíclicas).
Ahora hágase la siguiente contracción:

0 = g νσ g µλ (∇λ Rρσµν + ∇σ Rλρµν + ∇ρ Rσλµν ),


= ∇µ Rρµ + ∇ρ Rνµ νµ
+ ∇ν Rρµν
µ
,
= ∇µ Rρµ + ∇ρ R + ∇ν Rρν ,

así que:

1
∇µ Rρµ = ∇ρ R. (3.38)
2
El tensor de Einstein se define como sigue:

1
Gµν ≡ Rµν − Rgµν ,
2
de manera que:
3.6. FORMAS DIFERENCIALES Y TEOREMA DE STOKES. 67

1
 
µ µ
∇ Gµν = ∇ Rµν − Rgµν ,
2
1
= ∇µ Rµν − ∇ν R = 0,
2

lo anterior se sigue de la ecuación 3.38. De esta manera:

∇µ Gµν = 0, (3.39)

son las ecuaciones de Einstein.

3.6. Formas diferenciales y teorema de Sto-


kes.
Para comenzar considérese el caso sencillo de una integral de línea y una de
superficie:

Z Z
I1 = i
F dx = i
F~ · d~x;
ZC ZC
I2 = Gi dsi = ~ · d~s,
G
S S
Z  
= G1 dx2 ∧ dx3 + G2 dx3 ∧ dx1 + G3 dx1 ∧ dx2 ,
S

siendo dxi ∧ dxj el producto wedge, un elemento de área orientado; I1 e I2


son números, i.e. hay cierta dualidad entre lo que se integra y la línea, pues
en conjunto arrojan un número. Lo mismo ocurre con la superficie.
Hay nombres para estos objetos:

C, S, . . . −→ cadenas
objetos que se integran −→ formas diferenciales.

Para las cadenas se tiene lo siguiente:


68 3. CÁLCULO TENSORIAL.

C0 , 0-cadena: punto
C1 , 1-cadena: línea
C2 , 2-cadena: superficie
C3 , 3-cadena: volumen
...
Cn , n-cadena

Ahora, la frontera de una n-cadena es una (n-1)-cadena, e.g. la frontera de


un área es una línea, en tanto que la de una línea son dos puntos.
Se define el operador frontera, ∂, como aquel que mapea Cn en Cn−1 :

Cn −→ Cn−1 ∂Cn = Cn−1 ,

algunas cadenas no tienen frontera: la superficie de una espera es una 2-


cadena (área) sin frontera, y líneas cerradas, como la circunferencia, son
1-cadenas sin frontera. A las cadenas cerradas se les conoce como ciclos,
y se denotan por Zn . Dado que no tienen frontera, es claro que:

∂Zn = 0.

Por otra parte, existen algunas cadenas las cuales son en sí mismas fronteras
de cadenas de más alta dimensión, y se denotan por βn :

βn = ∂Cn+1 .

Combinando estas dos últimas ecuaciones, se tiene:

∂βn = ∂ 2 Cn+1 = 0 → ∂ 2 = 0,

en otras palabras, la frontera de una frontera es cero, i.e. una frontera


que es cadena debe ser cerrada.
Una pregunta interesante es: ¿una cadena cerrada es necesariamente la fron-
tera de otra cadena? En espacios euclideanos la respuesta es sí, ergo:
3.6. FORMAS DIFERENCIALES Y TEOREMA DE STOKES. 69

Figura 3.8: Ni la circunferencia roja, ni la morada son frontera de ninguna


superficie sobre el toro.

Zn = βn .

Sin embargo, en general hay cadenas cerradas las cuales no son fronteras, por
ejemplo, el toro, figura 3.8
Ahora se discuten las formas diferenciales. Como se dijo antes, la integral de
una forma, sobre una cadena es un número. Se anota:
Z Z
ωn ≡ fi1 ···in dxin ∧ · · · ∧ dxin .
Cn Cn

El producto wedge aparece porque la orientación de una curva o superficie


constante es importante.
70 3. CÁLCULO TENSORIAL.

Por ejemplo, en un espacio 3-dimensional se tiene:

ω0 , 0-forma: función

ω1 , 1-forma: Ai dxi , i = 1, 2, 3

ω2 , 2-forma: f3 dx1 ∧ dx2 + f1 dx2 ∧ dx3 + f2 dx3 ∧ dx1

ω3 , 3-forma: F dx1 ∧ dx2 ∧ dx3 ;

en lo anterior se tiene que:

dxi ∧ dxj = −dxj ∧ dxi =⇒ dxi ∧ dxi = 0,

esto es que no se suman con el convenio de sumación.


En un espacio de dimensión n evidentemente hay n-formas, pero no (n+1)-
formas ni formas de dimensión más alto grado.
Se puede mostrar que:

dωn = ωn+1 ,

en el caso 3-dimensional:

dω1 = d(A1 dx1 + A2 dx2 + A3 dx3 ),


∂A1 2 ∂A1 3 ∂A2 1
= 2
dx ∧ dx1 + 3
dx ∧ dx1 + dx ∧ dx2
∂x ∂x ∂x1
∂A2 ∂A3 1 ∂A3 2
+ 3 dx3 ∧ dx2 + 1
dx ∧ dx3 + 2
dx ∧ dx3 ,
∂x ∂x ∂x
∂A2 ∂A1 ∂A2 ∂A3
   
1 2
= − dx ∧ dx + − dx3 ∧ dx2
∂x1 ∂x2 ∂x3 ∂x2
∂A1 ∂A3
 
+ 3
− 1
dx3 ∧ dx1 ,
∂x ∂x

y por otro lado, se tiene:


3.6. FORMAS DIFERENCIALES Y TEOREMA DE STOKES. 71

dω2 = d(f3 dx1 ∧ dx2 + f1 dx2 ∧ dx3 + f2 dx3 ∧ dx1 ),


∂f3 3 ∂f1 ∂f2
= 3
dx ∧ dx1 ∧ dx2 + 1 dx1 ∧ dx2 ∧ dx3 + 2 dx2 ∧ dx3 ∧ dx1 ,
∂x ∂x ∂x
∂f1 ∂f2 ∂f3
 
= + + dx1 ∧ dx2 ∧ dx3 .
∂x1 ∂x2 ∂x3
~ · d~x, dω1 contiene a rotA
Se nota que si ω1 = Ai dxi = A ~ y dω2 contiene a
div f~.
Al operador d se le llama derivada exterior.
Si se calcula la derivada exterior de dω1 se tendrá:

d(dω1 ) = d2 ω1 ,
 2
∂ A2 ∂ 2 A1

= − dx3 ∧ dx1 ∧ dx2
∂x3 ∂x1 ∂x3 ∂x2
 2
∂ A2 ∂ 2 A3

+ − dx1 ∧ dx3 ∧ dx2
∂x1 ∂x3 ∂x1 ∂x2
 2
∂ A1 ∂ 2 A3

+ 2 3
− 2 1 dx2 ∧ dx3 ∧ dx1 ,
∂x ∂x ∂x ∂x
 2
∂ 2 A1
  2
∂ A1 ∂ A2 ∂ 2 A2

= − + −
∂x2 ∂x3 ∂x3 ∂x2 ∂x3 ∂x1 ∂x1 ∂x3
 2
∂ A3 ∂ 2 A3

+ − dx1 ∧ dx2 ∧ dx3 ,
∂x1 ∂x2 ∂x2 ∂x1
de esta forma resulta:

d2 ω1 = 0, (3.40)

lo cual también se puede escribir como div(rot) = 0.


En general, d2 = 0 suele llamarse operador cofrontera para enfatizar el
hecho de que d2 = 0 es el dual de ∂ 2 = 0.
Al d2 = 0 se le suele llamar lema de Poincaré.
La n-forma es cerrada si dωn = 0. Una n-forma ωn es llamada exacta si es
la derivada exterior de alguna (n-1)-forma:
72 3. CÁLCULO TENSORIAL.

ωn = dωn−1 .

El lema de Poincaré dice que todas las formas exactas son cerradas:

dωn = d(dωn−1 ) = d2 ωn−1 = 0,

pero no es cierto en general que toda forma cerrada sea exacta, aunque sí lo
es en un espacio euclideano.
Resultados bien conocidos surgen de la fórmula de Stokes, la cual establece
que si ω es una p-forma y C una (p+1)-cadena, entonces:
Z Z
ω= dω.
∂C C

Por ejemplo, si p = 2, en un espacio tridimensional:

ω2 = A1 dx2 ∧ dx3 + A2 dx3 ∧ dx1 + A3 dx1 ∧ dx2 ,

y sea C el dominio V con frontera ∂V . Entonces:

Z Z
ω2 = ∂i Ai dx1 ∧ dx2 ∧ dx3 ,
∂V I V Z
⇒ ~ · d~s =
A ~
div(A)dV,
∂V V

este último es el teorema de la divergencia.


4

Simetrías en Física
Fundamental

4.1. Grupos Ortogonales


Se discutirá el grupo ortogonal de N-dimensiones, O(N ), y su estructura.
La característica esencial de una rotación en un espacio euclideano de N
dimensiones es que preserva
q la distancia al origen, la distancia del origen al
punto (x , . . . , x ) es (x x ), por lo que xi xi es invariante.
1 n i i

La rotación en N dimensiones se define por:

x0i = Oij xj , i, j = 1, 2, . . . , n,

en donde los Oij son las componentes de matrices reales de N × N , las cuales
en general tienen N 2 componentes, pero la invariancia de la distancia al
origen genera restricciones:

xi xi = x0i x0i = (Oij xj )(Oik xk ) = xj (Oij O>ki )xk ,

por lo tanto Oij debe ser tal que:

Oij O>ki = O>ki Oij = δ kj ,

73
74 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL

esto es:

O> O = 1, (4.1)

es la condición de ortogonalidad, la cual genera 1/2[N (N + 1)] condicio-


nes, por lo tanto, el número de componentes independientes de O será:

1 1
N 2 − N (N + 1) = N (N − 1).
2 2
El número de parámetros del grupo O(N ) es igual al número de planos en el
espacio N-dimensional.
Sea una rotación infinitesimal:

x0i = xi + ω ij xj = (δ ij + ω ij )xj ,

y de la condición de ortogonalidad:

(δ ik + ω ik )(δ kj + ω kj ) = δ ij ,

lo cual indica que:

ω ij = −ω ji . (4.2)

Los ω ij son paarámetros del grupo SO(N ). Por ejemplo, ω 12 es el ángulo que
caracteriza la rotación en el plano x1 x2 .
Se dice que D(θ) es una representación del grupo si satisface la ley de mul-
tiplicación:

D(θ̄)D(θ) = D(θ̄θ).

Entonces, considérese el producto:

D(θ)D(1 + ω)D−1 (θ) = D[θ(1 + ω)θ−1 ] = D(1 + θωθ−1 ),

por otro lado, a primer orden en ω se tiene:


4.1. GRUPOS ORTOGONALES 75

i i
 
D(θ) 1 + ω ij Mij D−1 (θ) = 1 + (θωθ−1 )ij Mij ,
2 2
i ij i
⇒ 1 + ω D(θ)Mij D−1 (θ) = 1 + (θωθ−1 )ij Mij ,
2 2
⇒ ω D(θ)Mij D (θ) = θ (ωθ ) Mij = θik ω kl (θ−1 )lj Mij ,
ij −1 ik −1 kj

= θki ω ij (θ−1 )jl Mkl = ω ij θki θ>lj Mkl ,

de forma tal que:

D(θ)Mij D(θ−1 ) = θ>ik θjl Mkl , (4.3)

como esta es la ley de transformación de un 2-tensor, entonces Mij es un


2-tensor y ω ij también lo sera.
Si ahora se asume que D(θ) también es infinitesimal, entonces la relación 4.3
se convierte en:

i i
   
1 + ω kl Mkl Mij 1 − ω kl Mkl = (δ ki + ω ki )(δ jl + ω jl )Mkl ,
2 2
y como el desarrollo es a primer orden:

i
Mij + ω kl [Mkl , Mij ] = Mij + ω jl Mil + ω ki Mkj ,
2
i kl
⇒ ω [Mkl , Mij ] = ω kl (δjk Mil + δil Mkj ),
2 
1 kl

= ω δjk Mil − δjl Mik + δil Mkj − δik Mlj ,
2

de manera que el álgebra de Lie de SO(N ) es:

i[Mkl , Mij ] = δjk Mil − δjl Mik + δil Mkj − δik Mlj . (4.4)

Así, como δij es el tensor métrico del espacio eculideano, hay 1/2[N (N − 1)]
generadores Mij .
76 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL

El caso con N = 3 es el de las rotaciones en el espacio tridimensional. Sean:

1
Ji = ijk Mjk ,
3!
de manera que si se despeja a la Mij :

1 1
irs Ji = irs ijk Mjk = (δrj δsk − δrk δsj )Mjk ,
3! 3!
1 2
= (Mrs − Msr ) = Mrs ,
3! 3!
⇒ Mrs = 3irs Ji ∴ Mrs = 3rsi Ji ,

y sustituyendo esto último en el álgebra de Lie, 4.4, se tiene:

i9klm ijn [Jm , Jn ] = 3(δjk ilm − δjl ikm + δil kjm + δik ljm )Jm ,

y contrayendo con δki :

i3ilm ijn [Jm , Jn ] = (jlm − 0 + ljm − δii ljm )Jm ,


⇒ i(δlj δmn − δln δmj )[Jm , Jn ] = −ljm Jm ,
⇒ −i[Jj , Jl ] = −ljm Jm ⇒ i[Jj , Jl ] = ljm Jm ,

de esta forma resultará lo siguiente:

[Ji , Jj ] = iijk Jk . (4.5)

Las rotaciones de SO(3):

i ij M
O(ω) = e 2 ω ij
= eiJi θi ,

en donde se tiene:

1 1
Ji = ijk Mjk θi = ijk ωjk ,
3! 3!
4.1. GRUPOS ORTOGONALES 77

por ejemplo:
 
1 0 0
O(θ1 ) = 0 cos θ1 − sin θ1  .
 

0 sin θ1 cos θ1

Espinores
En general existen tres tipos de representaciones del grupo SO(N ):

Tensoriales: las cuales se transforman como el producto directo de


vectores.

Espinoriales.

Productos directos de espinores con tensores.

La representación espinorial consiste en introducir N matrices Γi , las cuales


satisfacen la siguiente regla de anticonmutación:

{Γi , Γj } = 2δ ij , (4.6)

lo cual representa un álgebra de Clifford.


La representación espinorial de los generadores de SO(N ) se define por:

i
M ij ≡ [Γi , Γj ],
4
esta elección particular de los generadores satisface el álgebra de Lie del
grupo.
En general uno puede hallar una representación espinorial de SO(N ) (para
N par) que es compleja y tiene dimensión 2N/2 . En este caso de dimensión
par se puede construir una matriz adicional, definida por:

ΓN +1 ≡ iΓ1 · · · · · ΓN ,
78 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL

esta matriz tiene propiedades especiales.


Se nota que el álgebra de Clifford implica:

Γi Γj = −Γj Γi (Γi )2 = 1,

se puede mostrar que:

(ΓN +1 )2 = 1 {ΓN +1 , Γi } = 0.

Se pueden definir los proyectores:

1 1
   
PL ≡ 1 − ΓN +1 PR ≡ 1 + ΓN +1 ,
2 2

los cuales tienen las propiedades:

PL2 = PL PR2 = PR PL PR = 0.

En esta representación, los elementos de SO(N ) actúan sobre objetos de 2N/2


componentes:
 
ψ1
 . 
 ..  ,
ψ= 
ψ2N/2

llamados espinores.
Los proyectores izquierdo, PL , y derecho, PR , permiten definir dos espinores
diferentes e independientes:

ψL ≡ PL ψ ψR ≡ PR ψ.

Nótese que:

ψL + ψR = PL ψ + PR ψ = (PL + PR )ψ = 1ψ = ψ.
4.1. GRUPOS ORTOGONALES 79

Lo anterior permite introducir en Física el concepto de quiralidad (del griego


χιρ, kheir, mano), cuya definición clásica es la siguiente:

“una figura geométrica o conjunto de punto se dice que presenta quiralidad


si su imagen especular no puede ser superpuesta consigo misma”

Un ejemplo de lo anterior son las letras “b” y “d”, no se superponen mediante


rotaciones o traslaciones. Otro ejemplo, pero de no-quiralidad, es la letra “T”,
la cual se puede superponer con su reflexión especular mediante traslación.
La interacción débil es descrita por una teoría quiral.
Si se tiene SO(N + 1), con N par, la dimensión de la representación sigue
siendo 2N/2 , i.e. las matrices Γi son las mismas introducidas en el contexto
de SO(N ). Sin embargo, para completar las N+1 matrices se tendrá que
introducir la matriz ΓN +1 , de tal suerte que el conjunto de los Γi más ΓN +1
forma un álgebra de Clifford:

{Γi , Γj } = 2δ ij i, j = 1, . . . , N + 1.

Los generadores son como en el caso de la dimensión par, sólo que ahora su
número es mayor:

i 1 1
Mij = [Γi , Γj ] (N + 1)(N + 1 − 1) = N (N + 1).
4 2 2
En un espacio de dimensión impar no se puede introducir quiralidad, ya que es
imposible construir una matriz, aparte de las N+1 Γi , que sea independiente.
Como ejemplo, considérese el caso más simple, SO(2); se puede decir con
facilidad que las matrices:

! !
1 0 1 2 0 −i
Γ = , Γ = ,
1 0 i 0

satisfacen el álgebra de Clifford.


Ahora defínase:
80 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL

! ! !
N +1 3 0 1
1 2 0 −1 1 0
Γ = Γ = −iΓ Γ = = ,
1 0 1 0 0 −1

claramente se cumple que:

(Γ3 )2 = 1 {Γ3 , Γi } = 0,

así que Γ1 , Γ2 , Γ3 forman un álgebra de Clifford.


Los proyectores son:

! !
1 0 0 1 1 0
   
PL = 1 − Γ3 = PR = 1 + Γ3 =
2 0 1 2 0 0
P L + PR = 1 .

También es sencillo verificar lo siguiente:

! ! !
0 0 0 0 0 0
PL2 = = = PL ,
0 1 0 1 0 1
! ! !
1 0 1 0 1 0
PR2 = = = PR ,
0 0 0 0 0 0
! !
0 0 1 0 i
PL PR = = 0, M ij = [Γ1 , Γ2 ] = M 12 .
0 1 0 0 4

Y los espinores se comportarán de la forma que se indicó anteriormente.


En el espacio tridimensional, N = 3, el grupo es S = (3). En este espacio, la
representación espinorial es también de dimensión 2. La matrices que definen
el álgebra de Clifford serán Γ1 , Γ2 , Γ3 . No hay quiralidad y los generadores
son:

i
M ij = [Γi , Γj] → M 12 , M 13 , M 23 .
4
Es posible concluir que la representación fundamental de SO(3) tiene dimen-
sión 2. Resulta, además, que:
4.2. GRUPOS UNITARIOS 81

SO(3) ∼ SU (2).

Ahora se mostrará que las matrices Γi se transforman como vectores. Sea


D(θ) la representación espinorial. Luego, para una rotación infinitesimal:

i i
   
D(θ)Γ D (θ) = 1 + ω kl M kl Γi 1 − ω kl M kl ,
i −1
2 2
i
= Γi + ω jk [M kj , Γi ] = (θ−1 )ij Γi .
2

4.2. Grupos unitarios

El grupo SU(N)
Los elementos de este grupo son las matrices unitarias N × N con deter-
minante +1. Esta representación de dimensión N es llamada representación
fundamental.
Sea U ∈ SU (N ), entonces el número de parámetros independientes de U es:

U † = U −1 ⇒ N 2 condiciones det(U ) = ±1 ⇒ 1 condición


2
∴ N − 1condiciones independientes.

Toda matriz unitaria puede ser escrita como:

a ta
U (α) = eiα ,

siendo:

ta† = ta a = 1, . . . , N 2 − 1,

siendo ta los generadores del grupo y αa los parámetros del grupo.


El elemento inverso será:
82 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL

a ta a ta
U † = (eiα )† = e−iα ,

y como det(U ) = ±1, entonces:

log (det(U )) = T r(U ),

luego:

T r(ta ) = 0,

así que los ta forman un conjunto de N 2 − 1 matrices hermíticas de traza


nula.
En la representación fundamental, los generadores se normalizan a:

1
T r(ta tb ) = δ ab .
2
Ahora sean U (α), U (β) ∈ SU (N ), luego:

a ta b b
U (α)U (β) = eiα eiβ t ,

y usando el hecho de que:

eA eB = eA+B+1/2[A,B]+1/3![[A,B],B]+... ,

se halla que:

U (α)U (β) = U (γ) ∈ SU (N ) ⇔ [ta , tb ] = if abc tc ,

donde se observa el álgebra de Lie. Luego:

[ta , tb ]† = −if abc∗ tc† ⇒ −[ta , tb ] = −if abc∗ tc ,


⇒ −if abc tc = −if abc∗ tc ⇒ f abc∗ = f abc ,
4.2. GRUPOS UNITARIOS 83

así que todas las constantes de estructura son reales.


Por otro lado:

[ta , tb ] = −[tb , ta ] ⇒ f abc = −f bac ,

más aún:

i
T r([ta , tb ]tc ) = if abd T r(td tc ) = if abd (1/2δ dc ) = f abc ,
2
abc a b c
⇒ f = −2iT r([t , t ]t ),

y usando la ciclicidad de la traza:

T r([ta , tb ]tc ) = T r(tc [ta , tb ]) = T r(tc (ta tb − tb ta )),


= T r(tc ta tb ) − T r(tc tb ta ) = T r(tc ta tb ) − T r(ta tc tb ),
1
= T r([tc , ta ]tb ) = −T r([ta , tc ]tb ) = − if acb ,
2
abc acb
∴ f = −f ,

de lo anterior se concluye que las constantes también son antisiméticas.


En el caso de SU (2), las constantes de estructura son ijk , con i, j, k = 1, 2, 3.
El anticonmutadorde los generadores es:

{ta , tb } ≡ ta tb + tb ta = {ta , tb }† ,

luego entonces:

T r({ta , tb }) = 2T r(ta tb ) = 2(1/2δ ab ) = δ ab ,

de manera que:

1 ab
{ta , tb } = δ 1 + dabc tc ,
N
84 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL

siendo dabc constantes reales y simétricas. En principio esto puede ser difícil
de ver, pero nótese lo siguiente:

T r([ta , tb ]) = 0 = T r(if abc tc ) ⇔ T r(tc ) = 0,


1 = 1N ×N ⇒ T r(1) = N,

de manera que sí se corroboran los resultados. Por otro lado, nótese lo si-
guiente:

T r({ta , tb }tc ) = T r(1/N δ ab tc + dabd td tc ),


= dabd T r(td tc ) = 1/2dabd δ ab = 1/2dabc ,
∴ dabc = 2T r({ta , tb }tc ).

Representaciones de SU(N)
La representación de más baja dimensión de SU (N ) es la fundamental, la
cual es de dimensión N. En esta representación, los elementos de SU (N ) son
matrices unitarias de dimensión N × N , U (α), que actúan sobre vectores
complejos N-dimensionales:

 
φ1
φ = . . . φ0 = U (α)φ,
 

φN
φ0i = U ij φj i, j = 1, . . . , N.

Una transformación infinitesimal corresponde a parámetros αa infinitesima-


les:

= 1 + iαa ta
a ta
U (α) = eiα ⇒ U ij = δ i j + iαa (ta )i j ,
∴ φ0i = φi + δφi δφi ≡ iαa (ta )i j φj ,
4.2. GRUPOS UNITARIOS 85

φi se transforma con U , así es completamente contravariante. Pero también


φi se transforma con U † (completamente covariante).
Considérense dos vectores φ y χ. Entonces χ† φ es un invariante. En efecto:

χ0† φ0 = (U χ)† (U φ) = χ† U † U φ = χ† φ.

La representación adjunta
Esta representaición siempre es real. Considérense las propiedades de trans-
formación del objeto φi χ†j , el cual tiene N 2 componentes:

mj i ≡ (φχ† )j i ,

se verá que este objeto se transforma como:

m0ji = (φ0 χ0† )j i = (U φχ† U † )j i ,


= U ki (φχ† )l k U †jl = U ki ml k U †kl ,

el cual es un 2-tensor, y se identifica:

m0 = U mU † ,

la transformación de similaridad. También se nota fácilmente:

T r(m0 ) = T r(U mU † ) = T r(U † U m) = T r(m).

Por otro lado se nota lo siguiente:

1 1
mj i = φi χ†j = φi χ†j − (T r(m))δ ji + (T r(m))δ ji ,
N N
1
⇒ m i = M i + (T r(m))δ ji ,
j j
N

y si se denota T r(m) = S, entonces:


86 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL

m = M + (S/N )1 M = m − (S/N )1 T r(M ) = 0.

Lo que ocurrió es que m, de N 2 componentes, se han separado en 2 objetos


covariantes:

M M0 = UMU† → N 2 − 1 componentes,
S S0 = S → 1 componente,

de manera que M puede ser escrita como una combinación lineal de los N 2 −1
generadores ta :

M = Aa ta a = 1, . . . , N 2 − 1,
⇒ M ji = Aa (ta )j i ,

y bajo una transformación infinitesimal:

M 0 = U M U † = (1 + iαa ta )M (1 − iαa ta ) = M + iαa [ta , M ],


⇒ A0a ta = Aa ta + iαb [tb , Ac tc ] = Aa ta + iαb Ac [tb , tc ],
= Aa ta + iαb Ac (if bca ta ) = Aa ta − f bca αb Ac ta ,
= Aa ta − f abc αb Ac ta ⇒ A0a = Aa − f abc αb Ac ,

de tal manera que:

δAa = A0a − Aa = iαb Ac (if abc ),

esto sugiere que se identifiquen los elementos (T b )ac de un conjunto de N 2 −1


matrices T b de dimensión (N 2 − 1) × (N 2 − 1) como sigue:

(T b )ac = if abc . (4.7)

Nótese que:
4.2. GRUPOS UNITARIOS 87

T r(T b ) = (T b )aa = if aba = 0,

además de que son hermíticas:

(T b )† = (T ∗b )ca = −if cba = if abc = (T b )ac .

Así, los T a son generadores de SU (N ) en la representación adjunta. Estos


generadores deben satisfacer el álgebra de Lie del grupo:

[T a , T b ] = if abc T c ,

para poder probar esto se usa la identidad de Jacobi:

[[ta , tb ], tc ] + [[tb , tc ], ta ] + [[tc , ta ], tb ] = 0,


⇒ if abe [te , tc ] + if bce [te , ta ] + if cae [te , tb ] = 0,
⇒ i2 f abe f ecd td + i2 f bce f ead td + i2 f cae f ebd td = 0,
⇒ f abe f ecd + f bce f ead + f cae f ebd = 0,
⇒ f abe f ecd = −f ace f bed + f bce f aed ,
⇒ (if abe )(−if ecd ) = (−if ace )(−if bed ) − (−if bce )(−if aed ),
⇒ if abe (T e )cd = (T a )ce (T b )ed − (T b )ce (T a )ed ,
= (T a T b )cd − (T b T a )cd = [T a , T b ]cd ,
∴ [T ac , T b ] = if abc T c .
88 4. SIMETRÍAS EN FÍSICA FUNDAMENTAL
5

Simetrías del espacio-tiempo


plano.

Las propiedades geométricas del espacio-tiempo plano surgen de los siguientes


postulados:

1. Las leyes de la Física lucen igual en todos los sistemas de referencia iner-
ciales.

2. Existe una velocidad límite en la naturaleza, la cual tiene un valor absoluto


“c”. (Sólo determinadas partículas se mueven a esta velocidad).

Las coordenadas del espacio-tiempo se denotan por x0 , x1 , x2 , x3 , siendo x0 =


ct:

xµ = (x0 , ~x) = (x0 , x1 , x2 , x3 ) = (x0 , xi ),

este es el 4-vector de posición (cuadrivector).


Ahora interesa estudiar las propiedades físicas que surgen de realizar todos
los posibles tipos de transformaciones en este 4-espacio:

Rotaciones en el espacio: son las rotaciones en los planos x1 x2 , x1 x3 ,


x2 x3 . Es el grupo de las rotaciones SO(3) ∼ SU (2).

89
90 5. SIMETRÍAS DEL ESPACIO-TIEMPO PLANO.

Transformaciones puras de Lorentz: las cuales conectan marcos


de referencia inerciales en movimiento relativo a lo largo de los ejes x1 ,
x2 y x3 . Son transformaciones en los planos x0 x1 , x0 x2 , x0 x3 .

Las dos anteriores, en conjunto, conforman el grupo de Lorentz SO(1,3).

Traslaciones a lo largo de los cuatro ejes: grupo de las traslaciones


T(1,3).

Así pues:

[
{Grupo de Lorentz} {Grupo de las traslaciones} = {Grupo de Poincaré}
SO(1, 3) ∪ T (1, 3) = ISO(1, 3).

5.1. Operaciones discretas


Reflexión de los ejes espaciales, definida como paridad.

Reversión en el tiempo.

En conjunto con estas dos operaciones está el grupo de Poincaré suplemen-


tado con paridad y reversión temporal.
La identificación de las observables asociadas con este grupo de simetrías es
funamental en la construcción de la teoría cuántica relativista y teoría
cuántica de campo.
En el espacio-tiempo los puntos señalan eventos físicos, como la producción
de una partícula en el punto ~x1 al tiempo t1 , y su decaimiento en el punto
~x2 al tiempo t2 .
En este espacio es de interés físico la distancia o separación espacio-temporal
entre dos eventos:

s212 = (x01 − x02 )2 − |~x1 − ~x2 |2 ,


5.1. OPERACIONES DISCRETAS 91

la cual es invariante ante boosts o rotaciones.


Por ejemplo, para movimiento relativo a lo largo del eje x1 , el boost corres-
pondiente está dado por:

 00 
x cosh ξ − sinh ξ 0 0 x0
  
x01  − sinh ξ cosh ξ 0 0  1
 x 
=   2 ,
  
 02 
x   0 0 1 0 x 
x03 0 0 0 1 x3

siendo:

v
β≡ tanh ξ = β γ ≡ (1 − β 2 )−1/2 ,
c
y de esta manera:

x00 = γ(x0 − βx1 ) =⇒ γ = cosh ξ, γβ = sinh ξ


x01 = γ(x1 − βx0 )

Esta transformación puede escribirse como:

x0µ = Λµν xν . (5.1)

Se nota que Λ−1 se obtiene haciendo ξ ↔ −ξ.


El intervalo invariante

s212 = (x01 − x02 )2 − |~x1 − ~x2 |2 ,

muestra que la norma no es definida positiva. De acuerdo con esto, los inter-
valos se clasifican en tres categorías:

s212 > 0 s21 < 0 s212 = 0,

los cuales, dada su invariancia, deben interpretarse físicamente.


92 5. SIMETRÍAS DEL ESPACIO-TIEMPO PLANO.

i. s212 > 0, intervalo temporaloide. Siempre es posible hallar un marco


de referencia inercial en el cual x~0 1 − ~x2 = 0, de tal suerte que:

s212 = (x00 00 2
1 − x2 ) ,

los eventos ocurren en el mismo punto del espacio, pero a tiempos dis-
tintos. Pueden estar relacionados causalmente o no.

ii. s212 < 0: intervalo espacialoide. Siempre es posible hallar un marco


de referencia donde x00 00
1 = x2 , de donde surge:

s212 = −|~x1 − ~x2 |2 ,

los eventos son simultáneos, pero ocurren en puntos distintos del espacio.
No pueden estar relacionados causalmente.

iii. s212 = 0: intervalo luzoide. Son aquellos eventos que están en el deno-
minado “cono de luz”, los cuales son conectados por partículas que se
mueven a la velocidad límite.

Para eventos separados infinitesimalmente:

ds2 = ηαβ dxα dxβ = (dx0 )2 − d~x · d~x,

siendo el tensor métrico plano:

1 0 0 0
 
0 −1 0 0
η= .
 
0 0 −1 0 
0 0 0 −1

La contracción xα xα es un invariante de Lorentz:


5.1. OPERACIONES DISCRETAS 93

x0α x0α = xα xα , x0α = Λαβ xβ


⇒ ηαβ x0α x0β = ηµν xµ xν ,
⇒ ηαβ (Λαµ xµ )(Λβν xν ) = ηµν xµ xν ,
⇒ ηαβ Λαµ Λβν xµ xν = ηµν xµ xν ,
∴ ηαβ Λαµ Λβν = ηµν ,
⇒ Λ>α β >
µ ηαβ Λ ν = ηµν ⇒ (Λ ηΛ)µν = ηµν ,

de esta manera:

η = Λ> ηΛ, (5.2)

así que Λ es una transformación de Lorentz si deja invariante a η en este


sentido.
Y si en la ecuación 5.2 se toma el determinante, se llega a:

det(Λ) = ±1.

El grupo de Lorentz SO(1, 3) consta de todas las Λ tales que:

det(Λ) = 1.

El grupo de Lorentz extendido por paridad y reversión temporal contiene,


además, elementos de la forma:

ΛP Λ = ΛT Λ,

con det(Λ) = 1 y det(ΛP ) = det(ΛT ) = −1. También se tiene:


94 5. SIMETRÍAS DEL ESPACIO-TIEMPO PLANO.

1 0 0 0
 
0 −1 0 0
ΛP =  =η Λ P xµ = xµ ,
 
0 0 −1 0 
0 0 0 −1
−1 0 0 0
 
 0 1 0 0
ΛT =   = −η ΛT xµ = −xµ .
 
 0 0 1 0
0 0 0 1

Es posible construir los 6 generadores a partir de las seis Λ independientes,


las cuales se conforman de tres rotaciones y tres boosts:

Boosts:

cosh ξ1 sinh ξ1 0 0
 
− sinh ξ cosh ξ 0 0
1 1
Λ(ξ1 ) =  correspondiente al eje “x”,
 
0 0 1 0


0 0 0 1
cosh ξ2 0 − sinh ξ2 0
 
 0 1 0 0
Λ(ξ2 ) =  correspondiente al eje “y”,
 
− sinh ξ2 0 cosh ξ2 0

0 0 0 1
cosh ξ3 0 0 − sinh ξ3
 
 0 1 0 0 
Λ(ξ3 ) =  
correspondiente al eje “z”.
0 0 1 0
 
 
− sinh ξ3 0 0 cosh ξ3

Rotaciones:
5.1. OPERACIONES DISCRETAS 95

1 0 0 0
 
0 1 0 0 
Λ(θ1 ) =  plano “yx”,
 
0 0 cos θ1 sin θ1 

0 0 − sin θ1 cos θ1
1 0 0 0
 
0 cos θ
2 0 − sin θ2 
Λ(θ2 ) =  
plano “xz”,
0 0 1 0 
 

0 sin θ2 0 cos θ2
1 0 0 0
 
0 cos θ3 sin θ3 0
Λ(θ3 ) =  “plano xy”.
 
0 − sin θ3 cos θ3 0

0 0 0 1

Los generadores están dados por:

1 d


Ki = Λ(ξi ) ,
i dξi ξi =0
1 d


Ji = Λ(θi ) ,
i dθi ξi =0

luego entonces:

0 −i 0 0 0 0 −i 0
   
−i 0 0 0 0 0 0 0
K1 =  
K2 =  
0 0 0 0 −i 0 0 0
   

0 0 0 0 0 0 0 0
0 0 0 −i 0 0 0 0
   
0 0 0 0 0 0 0 0
K3 =  J1 = 
   
0 0 0 0 0 0 0 −i
 

−i 0 0 0 0 0 i 0
0 0 0 0 0 0 0 0
   
0 0 0 i 0 0 −i 0
J2 =  J3 =  .
   
0 0 0 0 0 i 0 0

0 i 0 0 0 0 0 0
96 5. SIMETRÍAS DEL ESPACIO-TIEMPO PLANO.

De lo anterior se nota fácilmente que:

Ji† = Ji Ki† = Ki T r(Ji ) = T r(Ki ) = 0.

Un cálculo directo permite mostrar:

[Ki , Kj ] = −iijk Jk ,

la cual es la precesión de Thomas, por lo cual los boosts no forman un


grupo. Entre tanto:

[Ji , Jj ] = iijk Jk SO(3)


[Ji , Kj ] = iijk Kk .

Y si a continuación se definen los siguientes generadores:

1 1
Ai = (Ji + iKi ) Bi = (Ji − iKi ),
2 2
de donde ya se nota que A†i = Bi y Bi† = Ai . Luego:

[Ai , Aj ] = ijk Ak SU (2) [Bi , Bj ] = ijk Bk SU (2)


[Ai , Bj ] = 0 SU (2) × SU (2),

el SU(2) corresponde a la “teoría general del momento angular”, y SU(2)×SU(2)


a la suma del momento angular. Las representaciones de SU(2) son de di-
mensión 2j + 1:

j = 0, 1/2, 1, . . . , j m = −j, . . . , 0, . . . , j.

5.2. Álgebra de Poincaré


La transformación continua más general que se puede hacer en el espacio-
tiempo consta de una transformación de Lorentz, SO(1,3), más una trasla-
ción, T(1,3), siendo el resultado un elemento del grupo de Poincaré, ISO(1,3):
5.2. ÁLGEBRA DE POINCARÉ 97

x0µ = Λµν xν + aµ ,

siendo aµ un vector constante. Estas transformaciones forman el grupo ISO(1,3).


Por ejemplo:

x00µ = Λ̄µρ x0ρ + āµ = Λ̄µρ (Λρν xν + aρ ) + āµ = (Λ̄µρ Λρν )xν + (Λ̄a + ā)µ .

Recordando que las transformaciones de Lorentz satisfacen que η = Λ> ηΛ,


entonces:

(Λ̄Λ)> η(Λ̄Λ) = Λ> (Λ̄> η Λ̄)Λ = Λ> ηΛ = η,

por lo cual Λ̄Λ también es una transformación de Lorentz.


Sea U (Λ, a) una representación del grupo de Poincaré, entonces debe cum-
plirse la regla de composición:

U (Λ̄, ā)U (Λ, a) = U (Λ̄Λ, Λ̄a + ā),

y considerando una transformación infinitesimal:

Λµν = δ µν + ω µν , aµ = µ ,

siendo ω µν y µ infinitesimales. Luego, de la condición de Lorentz:

Λ> ηΛ = η ⇔ ηµν Λµρ Λντ = ηρτ


⇒ ηµν (δ µρ + ω µρ )(δ ντ + ω ντ ) = ηρτ
⇒ ηρτ + ωρτ + ωτ ρ = ηρτ
∴ ωρτ = −ωτ ρ ,

se nota que en el grupo de Poincaré se tienen 10 parámetros, ω µν + µ =


6 + 4 = 10; para una transformación infinitesimal la representación puede ser
escrita como:
98 5. SIMETRÍAS DEL ESPACIO-TIEMPO PLANO.

i
U (1 + ω, ) = 1 + ωµν J µν − iµ P µ ,
2
siendo los J µν generadores del grupo de Lorentz, SO(1,3), y que cumplen
J µν = −J νµ , por la antisimetría de ωµν , y P µ los generadores del grupo de
traslaciones T(1,3).
Ahora se considerarán las propiedades de transformación de los generadores.
Para tal fin:

U (Λ, a)U (1 + ω, )U −1 (Λ, a)

por otro lado, de la regla de composición:

U (Λ−1 , −Λ−1 a)U (Λ, a) = U (Λ−1 Λ, Λ−1 a − Λ−1 a) = U (1, 0) = 1


⇒ U (Λ−1 , −Λ−1 a) = U −1 (Λ, a),

de manera que:

U (Λ, a)U (1 + ω, )U −1 (Λ, a) = U (Λ, a)U (1 + ω, )U (Λ−1 , −Λ−1 a)


= U (Λ, a)U (1 + ω)Λ−1 , −(1 + ω)Λ−1 a + 
 

= U Λ(1 + ω)Λ−1 , −Λ(1 + ω)Λ−1 a + Λ + a


 

= U 1 + ΛωΛ−1 , Λ − ΛωΛ−1 a
 

y a primer orden en ω y  se tiene:

i
 
U (Λ, a) 1 + ωρτ J ρτ − iρ P ρ U −1 (Λ, a)
2
i
= 1 + (ΛωΛ−1 )µν J µν − i(Λ − ΛωΛ−1 a)µ P µ ,
2
1
 
⇒ U (Λ, a) ωρτ J − ρ P U −1 (Λ, a)
ρτ ρ
2
1
= (ΛωΛ−1 )µν J µν − (Λ − ΛωΛ−1 a)µ P µ ,
2
5.2. ÁLGEBRA DE POINCARÉ 99

pero se debe notar que:

(ΛωΛ−1 )µν = (λω)µτ (Λ−1 )τν = Λρµ ωρτ Λντ ,

y además:

(Λ − ΛωΛ−1 )µ = Λρµ ρ − (ΛωΛ−1 )νµ aν


= Λρµ ρ − (Λω)λµ (Λ−1 )νλ aν
= Λρµ ρ − Λρµ ω λρ Λλν aν = Λρµ ρ − Λρµ Λντ ωρτ aν ,

lo cual lleva a que:

1
 
U (Λ, a) ωρτ J ρτ − ρ P ρ U −1 (Λ, a)
2
1 1
= ωρτ Λ µ Λν J + ωρτ Λρµ Λντ (aν P µ − aµ P ν ) − ρ Λρµ P µ ,
ρ τ µν
2 2

e igualando coeficientes de ωρτ y ρ se tendrá:

U (Λ, a)J ρτ U −1 (Λ, a) = Λρµ Λντ (J µν + aν P µ − aµ P ν ) (5.3)

y:

U (Λ, a)P ρ U −1 (Λ, a) = Λρµ P µ , (5.4)

para aµ = 0 estas ecuaciones muestran que J µν es un 2-tensor, mientras que


P µ es un 1-tensor. Para traslaciones puras se tiene que Λµν = δ µν . En este
caso se tendría que P µ es invariante ante traslaciones:

U (Λ, a) = U (1, a),

luego entonces:

U (1, a)P ρ U −1 (1, a) = P ρ .


100 5. SIMETRÍAS DEL ESPACIO-TIEMPO PLANO.

Pero esto no ocurre de la misma manera para J µν :

U (1, a)J ρτ U −1 (1, a) = J ρτ + aτ P ρ − aρ P τ ,

en particular:

U (1, a)J ij U −1 (1, a) = J ij + aj P i − ai P j .

Y si ahora se considera una transformación infinitesimal para la ecuación 5.3,


se tiene:

i i
   
1 + ωµν J µν − iµ P µ J ρτ 1 − ωµν J µν + iµ P µ
2 2
= (δ ρµ + ω ρµ )(δ τν + ω τν )(J µν + aν P µ − aµ P ν )
= J ρτ + ω ρµ J µτ + ω τν J ρν − ρ P τ + τ P ρ ,

de esta manera:

i
J ρτ + ωµν [J µν , J ρτ ] + iµ [J ρτ , P µ ]
2
= J + η ωνµ J µτ + η τ µ ωµν J ρν − η ρµ µ P τ + η τ µ µ P ρ ,
ρτ ρν

i
⇒ ωµν [J µν , J ρτ ] + iµ [J ρτ , P µ ]
2
1 1
= ωµν (η τ µ J ρν − η τ ν J ρµ ) − ωµν (η ρν J µτ − η ρµ J ντ ) + µ (η τ µ P ρ − η ρµ P τ )
2 2

de lo anterior se tiene:

i[J ρτ , J µν ] = η ρν J µτ − η ρµ J ντ − η τ µ J ρν + η τ ν J ρµ
i[J ρτ , P µ ] = η τ µ P ρ − η ρµ P τ .

De manera análoga, para la ecuación 5.4 en su forma infinitesimal:


5.2. ÁLGEBRA DE POINCARÉ 101

i i
   
1 + ωµν J µν − iµ P µ P ρ 1 − ωµν J µν + iµ P µ
2 2
= (δ ρµ + ω ρµ )P µ ,
i
⇒ ωµν [J µν , P ρ ] + iµ [P ρ , P µ ] = η ρν ωνµ P µ ,
2
∴ [P ρ , P µ ] = 0.

En resumen, al considerar las transformaciones infinitesimales para las ecua-


ciones 5.3 y 5.4 se obtuvo:

i[J ρτ , J µν ] = η ρν J µτ − η ρµ J ντ − η τ µ J ρν + η τ ν J ρµ (5.5)
i[J ρτ , P µ ] = η τ µ P ρ − η ρµ P τ (5.6)
[P ρ , P µ ] = 0. (5.7)

Los invariantes de Casimir del grupo de Poincaré son:

1
P 2 = Pµ P µ ωµ = − µνρτ J νρ P τ ,
2
y se nota que P µ ωµ = 0. Un ejemplo de lo anterior:

p2 → m2 masa de la partícula
ω 2 → s(s + 1)m2 espín de la partícula.
102 5. SIMETRÍAS DEL ESPACIO-TIEMPO PLANO.
6

Descripción clásica de los


sistemas regulares

6.1. Grados de libertad bosónicos


En física la noción de grado de libertad juega un papel central:

{grados de libertad} −→ q a (t).

6.1.1. Formulación lagrangiana


Se introduce el concepto de acción del sistema. Es una cantidad matemáti-
camente conocida como “funcional”, y depende de los grados de libertad:

S[q a ],

y se define:
Z
a
S[q ] ≡ dt L(q a , q̇ a ),

S es una funcional y L es la función lagrangiana, la cual se construye con


base en los grupos de simetría del sistema: debe ser un invariante. Al sistema

103
104 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

Figura 6.1: Evolución de un sistema.

lo definen el grupo o grupos de simetría.


El sistema evoluciona en el tiempo de acuerdo al principio de Hamilton, el
cual establece que en el espacio de las q’s la trayectoriaa que sigue hace
extrema a la acción, figura 6.1.

δS = 0
Z
δS
δS = dt δq a (t) = 0,
δq a (t)

en analogía con:

∂f i
df = dq ,
∂q i

luego:

δS
= 0, (6.1)
δq a (t)

las cuales son las ecuaciones de movimiento. Más aún:


6.1. GRADOS DE LIBERTAD BOSÓNICOS 105

a
Z
δS
δS[q ] = dt δq a (t)
δq a (t)
δ
Z Z 
a 0 a 0 a 0
= dt δq (t) a dt L(q (t ), q̇ (t )) = 0,
δq (t)

de manera tal que de la ecuación 6.1 y lo anterior se sigue:

d ∂L ∂L
 
a
− a = 0. (6.2)
dt ∂ q̇ ∂q

En la descripción lagrangiana, el estado del sistema a un tiempo dado t se


especifica dando todas las q’s y q̇’s:

(q a (t), q̇ a (t)) −→ estado del sistema.

Las observables f son funciones de q’s y q̇’s:

f = f (q a , q̇ a ).

6.1.2. Formulación hamiltoniana


Este enfoque se formula en el espacio (variedad) de dimensión 2N , siendo
N el número de grados de libertad. Para ello se eliminan las velocidades en
favor de nuevas variables, llamadas momentos generalizados o momentos
canónicos, definidos por:

∂L
pa ≡ , (6.3)
∂ q̇ a

esto requiere resolver las q̇ a como funciones de q’s y p’s, es decir, como funcio-
nes en el nuevo espacio, llamado espacio fase o espacio de estados clásico.
este procedimiento no siempre es posible. Cuando esto ocurre se dice que
se tiene un sistema singular.
Se define la función hamiltoniana como la transformación de Legendre:
106 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

H(q a , pa ) = pa q a − L
a ∂ ∂L 
⇒ dH = 
pa
dq̇ + q a dpa − a Ldq a − a  dq̇ a ,
∂q ∂ q̇


y por las ecuaciones 6.2:

dH = q̇ a dpa − ṗa dq a ,

pero si ahora se ve a H como función de q’s y p’s y se calcula su diferencial:

∂H a ∂H
dH = dq + dpa ,
∂q a ∂pa

y comparando ambas expresiones:

∂H ∂H
q̇ a = ṗa = − , (6.4)
∂pa ∂q a

estas son las ecuaciones de Hamilton, las cuales se obtienen de las de La-
grange, pero también se pueden obtener del principio extremal de Hamilton,
considerando a la acción como funcional de q’s y p’s:

Z Z
S= dt L = dt (pa q a − H)
δS δS
Z  
a
⇒ δS = dt δq (t) a + δpa (t) = 0.
δq (t) δpa (t)

El estado del sistema a un tiempo t se asocia con un punto de la trayectoria


de Hamilton del sistema. Las observables son funciones del espacio fase:

f = f (q a , pa ).
6.1. GRADOS DE LIBERTAD BOSÓNICOS 107

6.1.3. Los paréntesis de Poisson


Sean f y g dos funciones del espacio fase. Su paréntesis de Poisson se define
por:

∂f ∂g ∂f ∂g
{f, g} ≡ − , (6.5)
∂q a ∂pa ∂pa ∂q a
de esta forma:

∂f ∂g
{f, g} = ΓAB , xA = q a , pa ,
∂xA ∂xB
siendo ΓAB una matriz 2N × 2N antisimétrica dada por:

0 1
!
Γ= , 0, 1 matrices N × N ΓAB = −ΓBA .
1 0
En particular, si f = xA y g = xB , se tiene:

{xA , xB } = ΓAB , (6.6)

los cuales son los paréntesis de Poisson fundamentales, también anota-


dos como:

{q a , pb } = δ ab {q a , q b } = 0 = {pa , pb }.

Se dice que el espacio fase está hecho de pares canónicos (q a , pa ).


El paréntesis de Poisson cumple lo siguiente:

1. {f1 , f2 } = −{f2 , f1 } (antisimetría).

2. {f1 , f2 f3 } = {f1 , f2 }f3 + {f1 , f3 }f2 .

3. Identidad de Jacobi.

Nótese ahora que las ecuaciones de Hamilton se pueden reunir como un sólo
tipo de ecuación como sigue:
108 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

∂H ∂xA ∂H
ẋA = ΓAB = ΓBC ,
∂xB ∂xB ∂xC

entonces:

ẋA = {xA , H}. (6.7)

6.1.4. Transformaciones canónicas

Considérese una transformación de coordenadas:

yA = yA (x),

para la cual se asume la existencia de la transformación inversa:

xA = xA (y).

Se sabe que las 2N coordenadas forman pares canónicos:

{xA , xB } = ΓAB .

Interesan sólo aquellos tipos de transformaciones en las que las nuevas coorde-
nadas también forman pares canónicos, i.e. interesan únicamente los mapeos
del espacio fase en el espacio fase:

∂yA ∂yB
{yA , yB } = ΓCD = ΓAB , (6.8)
∂xC ∂xD

esto es:

M > ΓM = Γ.

Así que, tomando la derivada respecto a t:


6.1. GRADOS DE LIBERTAD BOSÓNICOS 109

∂yA ∂yA ∂H
ẏA =ẋB = ΓBC
∂xB ∂xB ∂xC
∂yA ∂H ∂yD ∂H
= ΓBC ⇒ ẏA = {yA , yD }
∂xB ∂yD ∂xC ∂yD
∂H
⇒ ẏA = ΓAD ,
∂yD

así pues, si la transformación es canónica:

ẏA = {yA , H}.

De esta forma, las ecuaciones de Hamilton son invariantes ante transforma-


ciones canónicas.
Las transformaciones canónicas forman un grupo.
El paréntesis de Poisson es un invariante canónico. Sean f y g funciones
del espacio fase, y sea la transformación canónica:

yA = yA (x),

entonces se tendrá:

∂f ∂g ∂f ∂yC ∂g ∂yD
{f, g}x = ΓAB = ΓAB
∂xA ∂xB ∂yC ∂xA ∂yD ∂xB
∂f ∂yC ∂yD ∂g
 
= ΓAB
∂yC ∂xA ∂xB ∂yD
∂f ∂g
= {yC , yD } ,
∂yC ∂yD

y como la transformación es canónica, de 6.8:

∂f ∂g
{f, g}x = ΓCD = {f, g}y . (6.9)
∂yC ∂yD
110 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

6.1.5. Transformaciones canónicas infinitesimales


Interesa introudicr la noción de generadores y, con esto, el concepto de ob-
servable asociado a un grupo de simetría.
Una transformación infinitesimal es aquella que difiere de forma infinitesimal
de la identidad:

yA = xA + δxA ,

o bien:

Qa = q a + δq a Pa = pa + δpa .

La función generadora de la transformación identidad es:

F 2 = q a Pa ,

de manera tal que:

∂F2 ∂F2
Qa = = qa pa = = Pa .
∂Pa ∂q a

Entonces, la función que genera la transformación infinitesimal debe ser de


la forma:

F2 = q a Pa + G(q, P ),

siendo  un parámetro infinitesimal. Luego:

∂F2 ∂G ∂G
pa = a
= Pa +  a ⇒ δpa = Pa − pa = − .
∂q ∂q ∂q a
∂F2 ∂G
Qa = = qa + 
∂Pa ∂Pa
∂G ∂p ∂G ∂ ∂G
 
b
= qa +  = qa +  Pb +  ,
∂pb ∂Pa ∂pb ∂Pa ∂qb
6.1. GRADOS DE LIBERTAD BOSÓNICOS 111

Figura 6.2: Infinitesimal α.

y eliminando los términos con segundo orden en :

∂G ∂G
Qa = q a +  ⇒ δq a = Qa − q a =  .
∂pa ∂pa

En resumen se tiene:

∂G ∂G
δq a =  δpa = − ,
∂pa ∂q a

o de manera general:

∂G
δxA = ΓAB = {xA , G},
∂xB

de esta manera:

δxA = {xA , G},

y si dα = , lo anterior queda como:

dxA
= {xA , G}. (6.10)

112 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

Como caso particular, si G = H y α = t:

ẋA = {xA , H}.

Esto sugiere que cualquier observable puede ser asociada con un generador
G.
Más aún, la transformación infinitesimal es canónica:

{yA , yB } = {xA + δxA , xB + δxB } = {xA + {xA , G}, xB + {xB , G}}


 
= {xA , xB } +  {{xA , G}, xB } + {xA , {xB , G}} ,

y usando la identidad de Jacobi, resulta lo siguiente:

{yA , yB } = {xA , xB } + {{xA , xB }, G} = {xA , xB } + 


{ΓAB

,
G}
∴ {yA , yB } = {xA , xB } = ΓAB .

6.1.6. Constantes de movimiento


Sea f una función del espacio fase. Entonces:

∂f ∂f
f˙ = ẋA +
∂xA ∂t
∂f ∂H ∂f ∂f
⇒ f˙ = ΓAB + = {f, H} + .
∂xA ∂xB ∂t ∂t

Se dice que f es constante de movimiento si:

∂f ∂f
{f, H} + =0 ⇔ {H, f } = ,
∂t ∂t
y si resulta que f no depende explícitamente del tiempo:

{f, H} = 0. (6.11)
6.2. GRADOS DE LIBERTAD FERMIÓNICOS 113

Ahora considérese una transformación canónica con generador G y parámetro


:

δxA = {xA , G},

entonces el cambio generado por G sobre una función f es:

δf = {f, G},

y, en efecto:

∂f
δf ≡ f (x + δx) − f (x) = f (x) + δxA − f (x)
∂xA
∂f ∂G
= ΓAB = {f, G},
∂xA ∂xB

así que:

δf = {f, G}. (6.12)

Y si se hace f = H en 6.12:

dG
δH = {H, G} {H, G} = − ,
dt
esto es:

dG
δH = − , (6.13)
dt
lo anterior dice que las constantes de movimiento generan transformaciones
canónicas que dejan invariante a H.

6.2. Grados de libertad fermiónicos


La conexión entre la teoría clásica y la teoría cuántica se da a través de:
114 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

1
{ , } −→ [ , ]−
i~
pues { , } y [ , ] tienen el mismo tipo de álgebra. Pero en teoría cuántica
existen subsistemas que deben ser cuantizados con anticonmutadores:

1
{ , } −→ [ , ]+
i~
así que también se requiere que { , } tenga las mismas propiedades del anti-
conmutador; se requieren, entonces, números anticonmutantes, los números
de Grassmann.
Así pues, se debe generalizar el paréntesis de Poisson para que posea ambas
propiedades, de conmutador y anticonmutador, pues en teoría cuántica es
necesario. De esta forma se puede aplicar el postulado de cuantización:

1
{ , } −→ [ , ]±
i~
el objetivo será disponer de una mecánica clásica adecuada para poder estu-
diar sistemas con grados de libertad bosónicos y fermiónicos.

6.2.1. Álgebra de Grassmann


Un álgebra de Grassmann Gn , con n generadores, está definida por:

1. Gn es un espacio vectorial sobre los complejos.

2. Se define un producto Gn , el cual es asociativo respecto a la suma y


multiplicación por escalares.

3. Gn contienen al elemento identidad para el producto mencionado.

4. Gn es generado por n elementos ξ A , A = 1, . . . , n, los cuales obedecen:

ξ A ξ B + ξ B ξ A = 0,
6.2. GRADOS DE LIBERTAD FERMIÓNICOS 115

de esta relación se sigue que, como espacio vectorial, Gn tiene dimensión


2n . La base estará formada por:

1, ξ A , ξ A ξ B , . . . , ξ A ξ B · · · ξ n ,

y se nota que se tiene:

(ξ A )2 = 0 ξ A ξ B = −ξ B ξ A .

Un elemento de Gn está dado por:

g = g0 + gA1 ξ A1 + gA1 A2 ξ A1 A2 + · · · + gA1 ···An ξ A1 · · · ξ An ,

donde los coeficientes gA1 , gA1 A2 ξ A1 A2 , etcétera, son todos antisimétricos bajo
cualquier intercambio de índices. El coeficiente g0 es la componente de g a lo
largo de la identidad.
Los generadores ξ A son entes totalmente abstractos, en lo que sigue se hará
una distinción entre variables pares (conmutantes) e impares (anticonmutan-
tes):

par → conmutante o bosónico impar → anticonmutante o bosónico

de esta forma:

ϑα ϑβ + ϑβ ϑα = 0 ambas variables son impares


ϑα q a − q a ϑα = 0 una variable par y otra impar
qaqb − qbqa = 0 ambas variables son pares.

Las variables dinámicas q a y ϑα se tomarán como elementos pares e impares,


respectivamente, de un álgebra de Grassmann con generadores independien-
tes del tiempo ξ A :
116 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

a
q a (t) = q0a (t) + qAB (t)ξ A ξ B + · · · (par)
α
ϑ (t) = ϑαA (t)ξ A + ϑαABC ξ A ξ B ξ C + ··· impar

donde los coeficientes q0a (t), . . . , ϑαA (t), . . . son números complejos. La serie
termina si n es finito. Los generadores ξ A son sólo artefactos abstractos au-
xiliares, no juegan ningún papel, ni clásico ni cuántico.

6.2.2. Superfunciones

Una función de las variables dinámicas q a y ϑα es un elemento del álgebra


de Grassmann. Una función f (q, ϑ) debe ser de la forma:

f = f0 (q0a , qAB
a
, . . . , ϑαA , . . .) + fA (q0a , qAB
a
, . . . , ϑαA , . . .)ξ A
+fAB (q0a , qAB
a
, . . . , ϑαA , . . .)ξ A ξ B + · · · ,

por ejemplo:

~ = Ex (x, y, z)ex + Ey (x, y, z)ey + Ez (x, y, z)ez ,


E

siendo aquí ~x = xex + yey + zez .


De particular importancia son las llamadas “superfunciones”. Este tipo de
funciones dependen de los q a y ϑα , pero ya no de los generadores ξ A . Una su-
perfunción se va a poder expresar como una serie de potencias de las variables
impares:

f (q, ϑ) = f0 (q) + fα (q)ϑα + fαβ (q)ϑα ϑβ + · · ·

donde las funciones fαβ , fαβγ , etc. de las q’s son totalmente antisimétricas en
sus subíndices. En lo sucesivo las superfunciones serán llamadas simplemente
funciones, ya que sólo este tipo de funciones serán consideradas.
6.2. GRADOS DE LIBERTAD FERMIÓNICOS 117

6.2.3. Diferenciación
Con números ordinarios (pares), la diferencial de una función f de varias
variables xi se define por:

X ∂f X ∂f
df = dxi = dxi
i ∂xi i ∂xi

sin importar el orden. Pero en presencia de variables anticonmutantes ϑα ,


por supuesto que el orden sí es importante.
Las derivadas izquierdas se definen como:

∂L f ∂L f ∂~
δf = δϑα ⇒ ≡ f (6.14)
∂ϑα ∂ϑα ∂ϑα
y las derivadas derechas por:

∂R f α ∂R f ∂
δf = δϑ ⇒ ≡ (f ) α , (6.15)
∂ϑα ∂ϑ α ∂ϑ
y como la diferencial debe ser única:

∂L f ∂R f α
δf = δϑα α
= δϑ ,
∂ϑ ∂ϑα
por ejemplo, sea f = ϑα ϑβ , entonces:

∂L f ∂~
= (ϑα ϑβ ) = δ αλ ϑβ + ϑα δ βλ
∂ϑλ ∂ϑλ
∂R f ∂
λ
= (ϑα ϑβ ) α = ϑα δ βλ + δ αλ ϑβ ,
∂ϑ ∂ϑ

entonces:

∂L f α β α β ∂L f α
δf = δϑλ = δϑ λ α β
(δ λ ϑ + ϑ δ λ ) = (ϑ δ λ + δ α β
λ ϑ )δϑ λ
= δϑ .
∂ϑλ ∂ϑλ
118 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

Entonces una función arbitraria f (q, ϑ) siempre podrá expresarse en términos


de una serie de potencias de las variables ϑ’s, donde jamás se repite alguna
de ellas. Así, es claro que calcular la derivada de f respecto a una coordenada
impar se reduce a calcular derivadas de productos de la forma:

ϑα1 ϑα2 · · · ϑαn .

6.2.4. Paridad de Grassmann


Toda función f (q, ϑ) = f0 (q) + fα (q)ϑα + · · · se puede descomponer en su
parte par e impar:

f = fE + fO ,

siendo el fE los productos pares en ϑ’s y fO los productos impares.


La paridad de Grassmann de una función f se define como:

0, mod 2, si f es par
(f ) = f ≡ 
1, mod 2, si f es impar.

De lo anterior se tendrá que:

(f g) = f + g ,

por lo que f g es par si ambas funciones son pares o impares independiente-


mente, e impar en otro caso.
Se denotará colectivamente a las coordenadas como:

z A = q a , ϑα ,

entonces:

∂L,R f parsi f y z A son pares o impares
 
 = f + A =
∂z A impar en otro caso.
6.2. GRADOS DE LIBERTAD FERMIÓNICOS 119

Así que, derivar respecto a coordenadas pares no altera la paridad de f .

6.2.5. Propiedades de diferenciación izquierda y dere-


cha
Si (z A ) = A = 0, es claro que:

∂L f ∂R f
= ,
∂z A ∂z A
lo cual significa que se debe tener cuidado sólo cuando A = 1.
Sea f una función arbitraria de q’s y ϑ’s. Se fijará la atención sobre una
de las coordenadas fermiónicas ϑ, por simplicidad. Entonces, sin pérdida de
generalidad, se puede escribir:

f = ϑg + h,

con g, h independientes de ϑ, pero ϑg y h con la misma paridad que f. Luego:

∂L f ∂L  
= ϑg + f = g,
∂ϑ ∂ϑ
∂R f  ∂   ∂ ∂
  
= ϑg + f = ϑg = (−1)g ϑ gϑ
∂ϑ ∂ϑ ∂ϑ ∂ϑ
∂R f
⇒ = (−1)g ϑ g,
∂ϑ

y como h tiene la misma paridad que f :

f = (ϑg) = ϑ + g ⇒ g = f − ϑ
⇒ g = f − ϑ + 2ϑ ⇒ g = f + ϑ ,

por lo tanto:

∂R f
= (−1)ϑ (f +ϑ ) g = (−1)ϑ (f +1) g,
∂ϑ
120 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

esto úlitmo debido a que 2ϑ = 1. Y tomando el resultado de la derivada


izquierda:

∂L f ∂R f ∂L f
=g ⇒ = (−1)ϑ (f +1) ,
∂ϑ ∂ϑ ∂ϑ

y multiplicando ambos lados por (−1)ϑ (f +1) , resulta:

∂R f ∂L f ∂L f
(−1)ϑ (f +1) = [(−1)ϑ (f +1) ]2 = ,
∂ϑ ∂ϑ ∂ϑ
de esta forma se concluye:

 ∂L f = (−1)ϑ (f +1) ∂∂ϑ
Rf
,
∂ϑ
(6.16)
 ∂R f = (−1) ϑ (f +1) ∂L f
.
∂ϑ ∂ϑ

6.2.6. Conjugación compleja


Es un concepto útil, el cual es el análogo clásico de la conjugación hermitiana
de los operadores. Este tiene las siguientes propiedades:

1. (AB)∗ = B ∗ A∗

2. (A∗ )∗ = A

3. (λA)∗ = λ∗ A∗ , λ ∈ C.

Se dice que A es real si A∗ = A, e imaginario puro si A∗ = −A.


Note que si ϑα y ϑβ son reales, ϑα ϑβ es imaginario:

(ϑα ϑβ )∗ = ϑβ∗ ϑα∗ = ϑβ ϑα = −ϑα ϑβ ,

como se mencionó. Empero, iϑα ϑβ sí es real con las condiciones anteriores.


Las variables dinámicas se asumen reales, es decir q a , ϑα ∈ R.
Las derivadas izquierdas y derechas satisfacen las siguientes propiedades:
6.2. GRADOS DE LIBERTAD FERMIÓNICOS 121

∂ L ∂L ∂L ∂L
a) ∂ϑα ∂ϑβ
= − ∂ϑβ ∂ϑα

∂ L ∂R ∂R ∂L
b) ∂ϑα ∂ϑβ
= ∂ϑβ ∂ϑα
.

Para el inciso a) se muestra que, si f es una función arbitraria:

∂L ∂L ∂L ∂L ∂L ∂L
α β
f = (−1)α β β α f = − β α f.
∂ϑ ∂ϑ ∂ϑ ∂ϑ ∂ϑ ∂ϑ
En cuanto al inciso b) se tendrá:

∂L ∂R ∂~ ∂
f = (f ) ,
∂ϑα ∂ϑβ ∂ϑα ∂ϑβ
y por otro lado:

∂R ∂L ∂~ ∂
β α
f = α
(f ) β ,
∂ϑ ∂ϑ ∂ϑ ∂ϑ
esto es que ambas partes son iguales.
Ahora, si f es una función par y real de ϑα , es posible mostrar que la derivada:

∂f
∂ϑα
es impar e imaginaria. Esto es simple, pues f se puede anotar como sigue:

f = f0 + fαβ ϑα ϑβ + fαβρσ ϑα ϑβ ϑρ ϑσ + · · · .

Y tomando la derivada respecto a ϑα :

∂f ∂  α β ∂  α β ρ σ
= f αβ ϑ ϑ + f αβρσ ϑ ϑ ϑ ϑ + ··· ,
∂ϑα ∂ϑα ∂ϑα
pues los coeficientes son funciones de las q’s. Luego:

∂f
α
= fαβ ϑβ + fαβρσ ϑβ ϑρ ϑσ + · · · ,
∂ϑ
122 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

o de otra forma, la derivada se puede anotar de esta forma:

∂f
= g = gα ϑα + gαβρ ϑα ϑβ ϑρ + · · · ,
∂ϑα
de donde se sigue que es una función impar.
Por otro lado, nótese lo siguiente:

f ∗ = f0∗ + (fαβ ϑα ϑβ )∗ + (fαβρσ ϑα ϑβ ϑρ ϑσ )∗ + · · ·


= f0∗ + fαβ
∗ ∗
ϑβ∗ ϑα∗ + fαβρσ ϑσ∗ ϑρ∗ ϑβ∗ ϑα∗ + · · ·
= f0∗ + fαβ
∗ ∗
ϑβ ϑα + fαβρσ ϑσ ϑρ ϑβ ϑα + · · · ,

y luego de reconocer las permutaciones pares e impares, resultará:

f ∗ = f0∗ − fαβ
∗ ∗
ϑα ϑβ + fαβρσ ϑα ϑβ ϑρ ϑσ − · · · .

Empero, como f es real, entonces f ∗ = f , de manera que:

f0∗ = f0 ∗
fαβ = −fαβ ∗
fαβρσ = fαβρσ ,

y así sucesivamente, resulta que las funciones de q’s no son todas reales, sino
que alternan entre reales e imaginarias.
Y volviendo a la expresión de la derivada de f :

g = fαβ ϑβ + fαβρσ ϑβ ϑρ ϑσ + · · · ,

de manera tal que:

g ∗ = fαβ
∗ ∗
ϑβ∗ + fαβρσ ϑσ∗ ϑρ∗ ϑβ∗ + · · · ,

y de nuevo, usando lo que ya se tiene de las funciones coeficiente e identifi-


cando las permutaciones, resulta:

g ∗ = −fαβ ϑβ − fαβρσ ϑβ ϑρ ϑσ − · · · ,
6.3. FORMALISMO CANÓNICO PARA VARIABLES BOSÓNICAS Y FERMIÓNICAS123

de esta forma se ve que g ∗ = −g, por lo que la derivada de f será imaginaria,


con lo que se demuestra lo que se quería.

6.3. Formalismo canónico para variables bo-


sónicas y fermiónicas
Se asume que la acción del sistema es de la forma:
Z
S[q, ϑ] = L(q, q̇, ϑ, ϑ̇)dt,

y se demandará que L sea par y real, de tal forma que S automáticamente


es par y real.
Los momentos canónicos se definen de la forma usual:

∂L ∂L L
pa ≡ πα ≡ , (6.17)
∂ q̇ a ∂ ϑ̇α

siendo pa par y real, mientras que πα impar e imaginario.


La función hamiltoniana se define a través de la transformación de Legendre:

H = q̇ a pa + ϑ̇α πα − L,

la cual es real y par. Las ecuaciones de Hamilton:

Z 2
0 = δS = δ dt(q̇ a pa + ϑ̇α πα − H),
1

y realizando la variación:

Z 2  
a a α
0= dt q̇ δpa + pa δ q̇ + δ(ϑ̇ πα ) − δH ,
1

pero se nota que:


124 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

∂L  α  ∂L  α 
δ(ϑ̇α πα ) = δ ϑ̇β ϑ̇ π α + δπ β ϑ̇ πα
∂ ϑ̇β ∂π β
= δ ϑ̇β δ αβ πα − δπβ ϑ̇α δ αβ
= δ ϑ̇α πα − δπα ϑ̇α ,

además:

∂H ∂H α ∂L H ∂L H
δH = δq a + δp a + δϑ + δπ α ,
∂q a ∂pa ∂ϑα ∂πα
de manera que resulta:

Z 2
d ∂H ∂H d
    
dt q̇ a δpa + pa δq a − δq a a − δpa + δϑα πα − δπα ϑ̇α
1 dt ∂q ∂pa dt
α ∂L H ∂L H

−δϑ − δπα = 0,
∂ϑα ∂πα

pero también:

2
Z 2 Z 2 Z 2
d d
     
dt pa δq a = dt pa δq a − δq a ṗa = pa δq a − dt δq a ṗa ,
1 dt 1 dt 1 1
Z 2 2 Z 2
d
 
δϑα πα = δϑα πα − dt δϑα π̇α ,

dt
1 dt 1 1

de manera que es posible ordenar:

Z 2
∂H ∂H ∂L H
      
dt − ṗa + a δq a + q̇ a − δpa − δϑα π̇α +
1 ∂q ∂pa ∂ϑα
∂L H
 
−δπα ϑ̇α + =0
∂πα

así que las ecuaciones de movimiento son:

∂H ∂H ∂L H ∂L H
q̇ a = ṗa = − ϑ˙α = − π̇α = − . (6.18)
∂pa ∂q a ∂πα ∂ϑα
6.3. FORMALISMO CANÓNICO PARA VARIABLES BOSÓNICAS Y FERMIÓNICAS125

6.3.1. El paréntesis de Poisson generalizado


Sea f una función arbitraria, f = f (q, ϑ, p, π), entonces su cambio con el
tiempo está dado por:

df ∂f ∂f ∂L f ∂L f
f˙ = = q̇ a a + ṗa + ϑ̇α α + π̇α
dt ∂q ∂pa ∂ϑ ∂πα
∂H ∂f ∂H ∂f ∂L H ∂L f ∂L H ∂L f
   
= − − + ,
∂pa ∂q a ∂q a ∂pa ∂πα ∂ϑα ∂ϑα ∂πα

y demandando que f˙ = {f, H} se puede inferir una redefinición del paréntesis


de Poisson para cualquier función F con otra función par E, dada por:

∂E ∂F ∂E ∂F ∂L E ∂L F ∂L E ∂L F
   
{F, E} ≡ a
− a − α
+ . (6.19)
∂pa ∂q ∂q ∂pa ∂πα ∂ϑ ∂ϑα ∂πα
Para construir su forma más general, se requiere que el paréntesis de Poisson
tenga las mismas propiedades que su contraparte cuántica. Dado que en
teoría cuántica se debe usar un conmutador cuando una de las variables es
par, es necesario que:

(?) {F, E} = −{E, F },

si F es par, entonces:

∂L E ∂L F ∂L F ∂L E
α
=− α ,
∂πα ∂ϑ ∂ϑ ∂πα
si F es impar, (?) proporciona una definición para el caso impar.par.
Resta definir el paréntesis de Poisson para dos funciones impares ϕ1 y ϕ2 .
En este caso, se demanda que el paréntesis de Poisson tenga las mismas
propiedades algebraicas del anticonmutador. En particular:

(A) {ϕ1 , ϕ2 } = {ϕ2 , ϕ1 },


(B) {ϕ1 ϕ2 , ϕ3 } = ϕ1 {ϕ2 , ϕ3 } − {ϕ1 , ϕ3 }ϕ2 .
126 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

Con base en 6.19 y (A) se propone:

∂ϕ1 ∂ϕ2 ∂ϕ1 ∂ϕ2 ∂L ϕ1 ∂L ϕ2 ∂L ϕ1 ∂L ϕ2


   
{ϕ1 , ϕ2 } = α a
+ a
+β +
∂q ∂pa ∂pa ∂q ∂ϑα ∂πα ∂πα ∂ϑα

esta expresión satisface (B) sólo si α = 1 y β = −1.


En resumen, para F arbitrario y E par se cumple la ecuación 6.19, y en el
caso de ϕ1 y ϕ2 impares:

∂ϕ1 ∂ϕ2 ∂ϕ1 ∂ϕ2 ∂L ϕ1 ∂L ϕ2 ∂L ϕ1 ∂L ϕ2


   
{ϕ1 , ϕ2 } = + − + ,
∂q a ∂pa ∂pa ∂q a ∂ϑα ∂πα ∂πα ∂ϑα

ambas expresiones se pueden reunir en:

∂f ∂g ∂f ∂g f ∂L f ∂L g ∂L f ∂L g
   
{f, g} = + + (−1) + ,
∂q a ∂pa ∂pa ∂q a ∂ϑα ∂πα ∂πα ∂ϑα

y sean z A = q a , pa , ϑα , πα , viendo que:

{z A , z B } = ΓAB ,

se puede anotar que:

∂R f AB ∂L g
{f, g} = Γ , (6.20)
∂z A ∂z B

este es el paréntesis de Poisson generalizado.


La matriz Γ toma la forma:

{q a , q b } {q a , pb } {q a , ϑα } {q a , πα }
 
 {p , q a } {pa , pb } {pa , ϑα } {pa , πα } 
Γ =  aα a ,
 
{ϑ , q } {ϑα , pa } {ϑα , ϑβ } {ϑα , πβ }
{πα , q a } {πα , pa } {πα , ϑβ } {πα , πβ }

es decir:
6.3. FORMALISMO CANÓNICO PARA VARIABLES BOSÓNICAS Y FERMIÓNICAS127

0 1 0 0
 
−1 0 0 0 
Γ= .

 0 0 0 −1

0 0 −1 0

Para esclarecer lo anterior se ve:

∂R f AB ∂L g
{f, g} = Γ
∂z A ∂z B
∂R f ∂L g ∂R f ∂L g ∂R f ∂L g ∂R f ∂L g
= − − α −
∂q a ∂pa ∂pa ∂q a ∂ϑ ∂πα ∂πα ∂ϑα
∂f ∂g ∂f ∂g ϑα (f +1) ∂L f ∂L g πα (f +1) ∂L f ∂L g
   
= − − (−1) + (−1)
∂q a ∂pa ∂pa ∂q a ∂ϑα ∂πα ∂πα ∂ϑα
∂f ∂g ∂f ∂g  f ∂L f ∂L g ∂L f ∂L g
   
= − + (−1) + ,
∂q a ∂pa ∂pa ∂q a ∂ϑα ∂πα ∂πα ∂ϑα

pues ϑα = πα = 1, y a partir de la expresión anterior es muy sencillo llegar


a las particulares.
Por último, nótese que:

ΓAB = −(−1)A B ΓBA .

Propiedades del paréntesis de Poisson generalizado


Las propiedades del paréntesis de Poisson generalizado se enlistan a conti-
nuación:

1. {f, g} = −(−1)f g {g, f }

2. {f, g1 g2 } = {f, g1 }g2 + (−1)f g1 g1 {f, g2 }

3. {f, g}∗ = −{g ∗ , f ∗ }

4. ({f, g}) = f + g
128 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

5. Identidad generalizada de Jacobi:

{{f1 , f2 }, f3 }+(−1)f1 (f2 +f3 ) {{f2 , f3 }, f1 }+(−1)f3 (f1 +f2 ) {{f3 , f1 }, f2 } = 0.

Es posible probar estas propiedades del paréntesis de Poisson generalizado,


como se ve a continuación.
Para la propiedad 1. se nota que:

∂R f AB ∂L g A (f +1)+B (g +1) ∂L f AB ∂R g


{f, g} = Γ = (−1) Γ
∂z A ∂z B ∂z A ∂z B
∂R g ∂L f
= (−1)A (f +1)+B (g +1)+(A +f )(B +g ) B ΓAB A
∂z ∂z
∂ R g ∂L f
= −(−1)A (f +1)+B (g +1)+(A +f )(B +g )+A B B ΓBA A ,
∂z ∂z

a continuación se analizará el exponente del (−1):

A (f + 1) + B (g + 1) + (A + f )(B + g ) + A B


= A (f + 1) + B (g + 1) + 2A B + A g + B f + f g
= 2A B + (A + B )(f + g + 1) + f g ,

y debido a que en Γ las únicas entradas que no son cero son aquellas en las
que A y B son ambas bosónicas o fermiónicas, serán estos los únicos casos
de interés; como consecuencia:

2A B = (A + B )(f + g + 1) = 0,

de esta forma:

{f, g} = −(−1)f g {g, f }.

Para el inciso 2. sólo se hace un simple desarrollo:


6.3. FORMALISMO CANÓNICO PARA VARIABLES BOSÓNICAS Y FERMIÓNICAS129

∂R f AB ∂L (g1 g2 )
{f, g1 g2 } = Γ
∂z A ∂z B
∂R f AB ∂L g1 ∂L g2
 
B g1
= AΓ g2 + (−1) g1 B
∂z ∂z B ∂z
∂R f AB ∂L g1 ∂ f ∂L g2
 
R
= A
Γ B
g2 + (−1)B g1 A ΓAB g1 B
∂z ∂z ∂z ∂z
∂R f AB ∂L g2
 
B g1 +g1 (A +f )
= {f, g1 }g2 + (−1) g1 Γ ,
∂z A ∂z B

y debido a que B g1 + g1 (A + f ) = g1 (A + B ) + g1 f , lo cual sólo tendrá
sentido si A = B , entonces:

{f, g1 g2 } = {f, g1 }g2 + (−1)f g1 g1 {f, g2 }.

6.3.2. Ejemplo de sistema bosónico-fermiónico

Se tiene la siguiente acción:

Z
S[q, ϑ, ϑ̄] = dtL,

y la lagrangiana aquí será:

1
L = q̇ 2 + iϑ̄˙ ϑ̇,
2

siendo q una coordenada bosónica y ϑ, ϑ̄ fermiónicas, todas reales.


También se nota que L es par y real:

1 2
 
(L) =  q̇ + iϑ̄˙ ϑ̇ = 0 + 1 + 1 = 0,
2

y también se nota:
130 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

1 2
 ∗

1
L = ∗
q̇ + iϑ̄˙ ϑ̇ = q̇ 2 + (iϑ̄˙ ϑ̇)∗
2 2
1 2 1 1
= q̇ − i(ϑ̄˙ ϑ̇)∗ = q̇ 2 − iϑ̇∗ ϑ̄˙ ∗ = q̇ 2 + iϑ̄˙ ϑ̇,
2 2 2

⇒ L = L.

En cuanto a los momentos canónicos:

∂L ∂L L ∂~ ˙
p= = q̇ π= = (iϑ̄ϑ̇) = −iϑ̄˙
∂ q̇ ∂ ϑ̇ ∂ ϑ̇
∂L L ~

π̄ = ˙ = ˙ (iϑ̄˙ ϑ̇) = iϑ̇,
∂ ϑ̄ ∂ ϑ̄
de forma tal que:

p = q̇ ϑ̇ = −iπ̄ ϑ̄˙ = iπ.


Es notable que π = −π ∗ , π̄ ∗ = −π̄ son imaginarios como se espera.
Luego, la función hamiltoniana:

˙ −L
H = q̇p + ϑ̇π + ϑ̄π̄
1
= p2 + (−iπ̄)π + (iπ)π̄ − p2 − i(iπ)(−iπ̄)
2
1 2 1
= p − iπ̄π + iππ̄ − iππ̄ = p2 − iπ̄π,
2 2
1 2
∴ H = p + iππ̄.
2
Es claro que H es par, pero también es real:

1 2
 ∗ 
1
H∗ = p + iππ̄ = p2 − i(ππ̄)∗
2 2
1 2 1 1
= p − iπ̄ ∗ π ∗ = p2 − iπ̄π = p2 + iππ̄,
2 2 2

⇒ H = H.
6.3. FORMALISMO CANÓNICO PARA VARIABLES BOSÓNICAS Y FERMIÓNICAS131

Así, las ecuaciones de Hamilton:

∂H ∂H
q̇ = =p ṗ = − =0
∂p ∂q
∂L H ∂~ ∂L H
ϑ̇ = − = − (iππ̄) = −iπ̄ π̇ = − =0
∂π ∂π ∂ϑ
∂L H ∂~ ∂L H
ϑ̄˙ = − = − (iππ̄) = iπ π̄˙ = − = 0,
∂ π̄ ∂ π̄ ∂ ϑ̄

y se ve que existen las siguientes constantes de movimiento:

p π π̄.

Es también notable que la lagrangiana usada es invariante ante las siguientes


transformaciones de simetría:

δq = q 0 − q = ϑ̇ δϑ = ϑ0 − ϑ = 0 δ ϑ̄ = ϑ̄0 − ϑ̄ = iq̇,

siendo  un número impar (2 = 0) e imaginario (∗ = −).


En efecto, se tiene:

1
L0 = q̇ 02 + iϑ̄˙ 0 ϑ̇0 ,
2

y se propone lo siguiente:

q 0 = ϑ̇ + q ⇒ q̇ 0 = q̇ + ϑ̈
ϑ0 = ϑ ⇒ ϑ̇0 = ϑ̇
ϑ̄0 = iq̇ + ϑ̄ ⇒ ϑ̄˙ 0 = ϑ̄˙ + iq̈,

de manera tal que se obtiene:


132 6. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS REGULARES

1
L0 = (q̇ + ϑ̈)2 + i(ϑ̄˙ + iq̈)ϑ̇
2
1 2
= q̇ + iϑ̄˙ ϑ̇ + q̇ ϑ̈ − q̈ϑ̇
2
= L + (q̇ ϑ̈ + q̈ ϑ̇),
d
 
⇒ L0 = L + q̇ ϑ̇ ,
dt

pero ya se sabe que L es invariante hasta un término de superficie, este no


alterará las ecuaciones de movimiento.
7

Descripción clásica de los


sistemas singulares

Considérese un sistema con N grados de libertad, especificado por la acción:

Z
a
S[q ] = dtL(q a , q̇ a ), a = 1, . . . , N.

El sistema evoluciona de acuerdo al principio de Hamilton:

δS ∂ d ∂
 
= − L = 0,
δq a ∂q a dt ∂ q̇ a

y desarrollando explícitamente la derivada temporal:

d ∂L ∂ 2L b ∂ 2L b
 
= q̈ + q̇ ,
dt ∂ q̇ a ∂ q̇ a ∂ q̇ b ∂ q̇ a ∂q b

entonces se puede anotar lo siguiente:

d ∂L ∂ 2L b
 
b
Mab q̈ = Ka Ka ≡ − q̇ ,
dt ∂ q̇ a ∂ q̇ a ∂q b

133
134 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

y también:

∂ 2L
Mab ≡ , (7.1)
∂ q̇ a ∂ q̇ b

esta última es una matriz simétrica N × N , la matriz hessiana.


La matriz M permite clasificar a las teorías físicas en dos clases, de acuerdo
con su determinante:

∂ 2 L

Hessiano = det(M ) = a b ,

∂ q̇ ∂ q̇

de esta manera:

Hss. 6= 0 → s. regular Hss. = 0 → s. singular. (7.2)

Así pues, si existe M −1 , esto es que det(M ) 6= 0, la teoría será regular, esto
significa que en las ecuaciones de movimiento:

Mab q̈ b = Ka

se pueden expresar todas las aceleraciones como funciones de q’s y q̇’s:

q̈ a = q̈ a (q, q̇) a = 1, . . . , N.

Si, por el contrario, se tiene que det(M ) = 0, entonces M −1 no existe. Esto


quiere decir que sólo se puede conocer un subconjunto del conjunto completo
de aceleraciones. El número de aceleraciones que se puede conocer es igual a
la dimensión de la submatriz M de máximo rango.
El sistema singular requiere de una extensión del formalismo de Hamilton
para su descripción.
Para “hamiltonizar” la teoría se requieren los momentos canónicos:

∂L
pa = (sistema lineal en q’s),
∂ q̇ a
135

las velocidades deben ser expresadas como funciones del espacio fase:

q̇ a = q̇ a (q, p) ≡ v̄ a (q, p).

La función hamiltoniana se construye de acuerdo con la siguiente regla:




H = E ,
q̇=v̄

siendo:

∂L a
E≡ q̇ − L (transformación de Legendre),
∂ q̇ a

esta última es la expresión de la energía en el formalismo de Lagrange. El


procedimiento depende de la posibilidad de expresar a las q̇’s como funciones
de las q’s y p’s. La condición bajo la cual:

∂L
pa = ,
∂ q̇ a

define a las q̇’s como funciones simplemente valuadas de las q’s y p’s requiere
que el determinante de la matriz formada con los coeficientes de:

∂L
= pa = 0,
∂ q̇ a

sea distinto de cero, esto es:

d ∂L ∂ 2L
 
− p a = = Mab , det(M ) 6= 0.
dq̇ ∂ q̇ a ∂ q̇ a ∂ q̇ b

Entonces, en el caso de los sistemas singulares, el paso a la formulación


hamiltoniana en la forma estándar es imposible.
Las ecuaciones de Lagrange:

Mab q̈ b = Ka ,
136 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

se puede reducir a un sistema de ecuaciones diferenciales de primer orden en


q’s y v’s:

v b
Mab v̇ = Kav , q̇ a = v a ,

donde el superíndice “v” significa que en la expresión correspondiente las q̇’s


son reemplazadas por v’s.
Entonces la transformación de L a H es simplemente un cambio de variable:

L(q, v) −→ H(q, p),

siendo:

∂Lv
pa = ,
∂v a

como se ha visto, si el hessiano de M es distinto de cero, el paso de L a H


es posible, pues en ese caso:

−1
q̈ a = Mab Kb = F a (q, q̇).

Pero el formalismo debe ser extendido si el sistema es singular.

7.1. Formalismo de Dirac para los sistemas


singulares
Se debe tomar en cuenta que una o varias de las velocidades no podrán ser
conocidas.
Considérense las ecuaciones de Lagrange extendidas por:

∂Lv
pa ≡ ,
∂v a
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES137

entonces se tiene un sistema de 3N ecuaciones para 3N funciones desconoci-


das del tiempo: q’s, p’s y v’s:

∂Lv
q̇ a = v a v b
Mab v̇ = Ka pa = , (7.3)
∂v a
el cual es conocido como sistema extendido de Lagrange. Luego, se re-
cuerda que:

d ∂L d ∂L
 
= pa = ṗa = a ,
dt ∂ q̇ a dt ∂q

con lo que el sistema toma la siguiente forma:

∂Lv ∂Lv
q̇ a = v a ṗa = pa = ,
∂q a ∂v a

este sistema adquiere una forma simétrica si se introduce la siguiente función:

H ? ≡ pa v a − Lv = H ? (q, p, v),

ya que no todas las v’s podrán expresarse como funciones de q’s y p’s. De
aquí se sigue que:

∂H ? ∂Lv ∂H ? ∂Lv ∂H ?
= − = p a − = va,
∂q a ∂q a ∂v a ∂v a ∂pa

y haciendo uso de estas ecuaciones se puede anotar:

∂H ? ∂Lv ∂H ?
q̇ a = v a ⇒ q̇ a = ṗa = ⇒ ṗ a = − ,
∂pa ∂q a ∂q a

y en cuanto a la otra ecuación:

∂Lv ∂H ?
pa = ⇒ = 0,
∂v a ∂v a
en resumen:
138 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

∂H ? ∂H ? ∂H ?
q̇ a = ṗa = − = 0,
∂pa ∂q a ∂v a
esto es:

∂H ?
q̇ a = {q a , H ? } ṗa = {pa , H ? } = 0, (7.4)
∂v a
a 7.4 se le llama sistema extendido de las ecuaciones de Hamilton.
Note que si el sistema es regular:

∂H ? ∂Lv
 
= pa − =0 ⇒ 0 = 0.
∂v a ∂v a
En el caso de un sistema singular, M no tiene inversa. Sea R el rango:

∂ 2 L

rank a b
= R, N − R = m1 > 0.
∂ q̇ ∂ q̇

Arreglando el menor de máximo rango en la esquina superior izquierda de


M , se podrán dividir las variables q’s, p’s y v’s en dos grupos:

X i = qi Πi = pi V i = vi, i = 1, . . . , R,

luego:

xα = q R+α πα = pR+α λα = v R+α , α = 1, . . . , m1 ,

en donde:

∂ 2 L
2
∂ L


det
6= 0 ó det 6= 0.
∂ Ẋ∂ Ẋ ∂ V̇ ∂ V̇

Esto quiere decir que todas las velocidades V i se pueden expresar en términos
de q’s, π’s y λ’s:
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES139

V = V (q, π, λ).

A las R velocidades V ’s se les llama también velocidades expresables. Las


m1 velocidades λ’s son completamente desconocidas o inexpresables.
Sustituyendo las V ’s en:

∂H ? ∂H ?
= 0 ⇒ = 0,
∂v a ∂λα
esta última ya no es una trivialidad del tipo 0 = 0. Luego, se introduce:

∂H ? ∂Lv
Φ(1)
α ≡ fα ≡ ,
∂λα ∂λα
en donde la notación significa:


F (v) = F (v) .
V =V

De esta forma:

Φ(1)
α = πα − fα (q, π) = 0, (7.5)

la cual no puede depender de λ’s, pues de esa forma se podrían conocer tales,
contradiciendo la hipótesis del rango R.
De esta manera, de la última ecuación en 7.4 se obtienen R velocidades V i
y m1 = N − R relaciones de la forma mostrada en 7.5; estas últimas son
llamadas constricciones en el formalismo hamiltoniano, son m1 funciones
que determinan superficies en el espacio fase.
Debido a que surgen directamente de la definición de momentos, reciben el
nombre de constricciones primarias.
Ahora, sustituyendo las V en 7.4 se obtendrá:


a a ? ?
Φ(1)

q̇ = {q , H } ṗa = {pa , H } α = 0
V =V V =V
? ?
⇒ q̇ a = {q , H }
a
ṗa = {pa , H } Φ(1)
α = 0,
140 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

y si ahora se denota:


?
H (1) = H ?

=H ,
V =V

entonces las ecuaciones de movimiento toman la forma:

q̇ a = {q a , H (1) } ṗa = {pa , H (1) } Φ(1)


α = 0.

H (1) depende explícitamente de las velocidades desconocidas λα , y con esto


difiere de la hamiltoniana H de una teoría regular.
Se recuerda que la energía en la formulación lagrangiana se da como:

∂L

E = a q̇ a − L v

E = E ,
∂ q̇ q̇=v

pero además H ? = pa v a − Lv , y se nota que:

∂H ? ∂Lv ∂Lv
 
va a = v pa − a = v a pa − v a a
a
∂v ∂v ∂v
? v
∂H ∂L
⇒ v a pa = v a a + v a a
∂v ∂v
v ?
∂L a ∂H
∴ H? = v a
− L v
+ v
∂v a ∂v a
?
∂H
⇒ H ? = E v + va a .
∂v

Así, se observa:

? ∂H ? v
H (1) = H = E + v a
∂v a
∂H ? ∂H ?
v
⇒ H (1) = E + v i i + λα α ,
∂v ∂λ
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES141

v
además, el término E = H, es decir la hamiltoniana canónica que resulta
de aplicar la transformación de Legendre a las velocidades v i . Luego:

H (1) = H + λα Φ(1)
α , (7.6)

será la hamiltoniana primaria.


Es sencillo ver que H no depende de las λ’s:

∂H (1) ∂H
α
= + Φ(1)
α ,
∂λ ∂λα
pero también:

?
∂H (1) ∂H
α
= = Φ(1)
α ,
∂λ ∂λα
luego entonces:

∂H
= 0.
∂λα
En esta etapa, las ecuaciones extendidas de Hamilton se pueden anotar como:

ẋA = {xA , H (1) } Φ(1)


α (x) = 0 x = q, p. (7.7)

Las m1 Φ(1)
α definen una superficie en el espacio fase llamada superficie de
constricción. Sobre esta superficie H (1) y H coinciden, pero no es posible
reemplazar a H (1) por H antes de calcular los paréntesis de Poisson.

7.1.1. Clasificación de las constricciones


El objetivo es determinar las variables desconocidas λα , es decir, las veloci-
dades inexpresables.
Para tratar de determinarlas se demanda que las constricciones primarias
sean válidas durante la evolución, esto es, que sean constantes de movimiento:
142 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

Φ̇(1) (1)
α = {Φα , H
(1)
}=0
β (1) β (1)
⇒ {Φ(1) (1)
α , H + λ Φβ } = {Φα , H} + {Φα , λ Φβ }
(1)

(1) 
(1):0
β (1) β
= {Φ(1)
α , H} + {Φ (1)
α , Φβ }λ + {Φ
α , λ }Φ
β

entonces se tienen las condiciones:

β (1)
Φ̇(1)
α = 0 ⇔ {Φ(1) (1)
α , H} + {Φα , Φβ }λ = 0,

y se recuerda que α, β = 1, . . . , m1 .
Estas ecuaciones pueden ser usadas para, en principio, determinar las λ’s.
Se presentan en diversas situaciones que dependen de la naturaleza del sis-
tema físico en consideración.
Supóngase que el determinante de la matriz antisimétrica m1 × m1 formada
por los paréntesis de Poisson de todas las constricciones es diferente de cero:

(1)
det {Φ(1)
α , Φβ } 6= 0,

entonces las λ’s quedan determinadas:

(1)
λα = {Φ(1) , Φ(1) }−1
αβ {Φβ , H}.

En este caso, la hamiltoniana primaria tiene la forma:

(1) −1 (1)
H (1) = H − Φ(1) (1)
α {Φ , Φ }αβ {Φβ , H}. (7.8)

Otra situación se presenta si la matriz {Φ(1) , Φ(1) } es singular. Supóngase


ahora que su rango es:

rank {Φ(1) , Φ(1) }αβ = ρ1 < m1 ,

en este caso sólo es posible determinar ρ1 de las λ’s y quedan indeterminadas


m1 − ρ1 .
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES143

En este caso, las ecuaciones:

β (1)
U(k) {Φ(1)
α , Φβ }Φ(1) = 0,

tienen m1 − ρ1 soluciones independientes no triviales:

β
U(k) k = 1, . . . , m1 − ρ1 .

Multiplicando las ecuaciones de consistencia:

β (1)
{Φ(1) (1)
α , H} + {Φα , Φβ }λ = 0,

β
por U(k) se tiene:

β
U(k) {Φ(1)
α , H} = 0,

si estas relaciones no se cumplen trivialmente, entonces representan la igual-


dad a cero de algunas funciones de q’s y p’s, es decir, representan nuevas
constricciones. Estas constricciones que surgen de exigir consistencia a las
constricciones primarias son llamadas constricciones secundarias, y se
denotan por Φ(2) .
En la siguiente etapa se pide consistencia a las constricciones secundarias, es
decir:

Φ̇(2) = 0,

de estas condiciones es posible determinar algunas de las λ’s restantes, aunque


también podrían surgir más constricciones, las cuales se denominan terciarias:
Φ(3) .
El procedimiento termina en cierta etapa k, a partir de la cual ya no aparecen
más constricciones.
La clasificación de las constricciones en primarias, secundarias, terciarias y
de más alto grado no es relevante desde el punto de vista físico.
En general se tendrá:
144 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

(1)
Φl = Φl , l = 1, . . . , m1
(2)
Φl = Φl , l = m1 + l, . . . , m1 + m2
..
.
(k)
Φl = Φl , l = m1 + m2 + · · · + mk−1 + l, . . . , m1 + · · · + mk = m,

así que m es el número total de constricciones.


A las constricciones secundarias, terciarias, etc. se les llama colectivamente
constricciones secundarias.
El sistema debe evolucionar consistentemente con todas las constricciones:

ẋ = {x, H (1) }, Φ = 0,

esta última engloba a todas las constricciones, primarias y secundarias.


Durante el proceso de clasificación de las constricciones en primarias y se-
cundarias, se pueden presentar dos situaciones de trascendencia física:

1. todas las λ’s son determinadas

2. sólo parte, o ninguna, de las λ’s son determinadas

De acuerdo con esto, las constricciones son clasificadas en constricciones


de primera y de segunda clase. Esta clasificación es muy relevante desde
el punto de vista físico.
Para establecer esta clasificación son necesarias algunas definiciones:

Γ será el espacio fase completo de dimensión 2N .

Las m1 constricciones definen una superficie Γp de dimensión 2N − m1 .


Si no existen constricciones secundarias, todas las λ’s son determinadas,
el sistema evolucionará sobre la superficie Γp ⊂ Γ. Si existen constric-
ciones secundarias, entonces la colección de las constricciones primarias
Φ(1) y las secundarias Φ(2) , las cuales son m − m1 , definen la superficie
de constricción ΓC , de dimensión 2N − m.
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES145

Si todas las λ’s son determinadas, el sistema evolucionará sobre ΓC .

Si, por el contrario, algunas de las λ’s quedan indeterminadas el sistema


evolucionará de manera no única sobre la superficie de constricción
ΓC .

Dependiendo de su comportamiento sobre ΓC , Paul Dirac introdujo el con-


cepto de cantidades fuertes y débiles.
Sea f (q, p) una función definida sobre ΓC . La restricción de f a ΓC es:


f (q, p) .
ΓC

Si ocurre que sobre ΓC , f es idénticamente cero, se dice que está es un cero


débil, y se denotará como:

f ≈ 0.

Si el gradiente de f es cero sobre ΓC , f será un cero fuerte, lo cual se denotará


como:

f ' 0,

de esta forma:

∂f ∂f
 

f (q, p) ≈0 , = 0 ⇒ f ' 0.
ΓC ∂q a ∂pa ΓC
Esta definición es útil, ya que las ecuaciones de movimiento involucran gra-
dientes.
La superficie de constricción ΓC está definida por ceros débiles:

Φ(1) ≈ 0 Φ(2) ≈ 0,

ya que sólo en ΓC se satisfacen todas. Pero no se cumple que Φ(1) , Φ(2) ' 0
pues sus gradientes no son necesariamente cero sobre la superficie de cons-
tricción.
146 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

De acuerdo con Dirac, una función f (q, p) es una cantidad de primera clase
si sus paréntesis de Poisson con todas las constricciones son cero, al menos
débilmente. De esta forma, f será de primera clase si:

∀Φ | {f, Φ} ≈ 0.

Se dice que f es de segunda clase si al menos uno de sus paréntesis de


Poisson con las constricciones no es cero.
Esto significa que todas las constricciones primarias asociadas con λ’s indeter-
minadas son de primera clase. En efecto, si resulta que λi no fue determinada,
ello implicará que:

(1)
λi {Φα , Φi } ≈ 0, ∀α.

Por el contrario, si λi es determinada:

(1)
{Φα , Φi } 6≈ 0,

al menos para una α.


Dado que la definición de constricción de primera clase es un requerimiento
débil, ello implica que:

{Φα , Φβ } = fαβγ Φγ , (7.9)

ya que es un caso débil sobre ΓC .


La clasificación de constricciones de primera y segunda clase es bastante
importante: si las constricciones son de primera clase, habrá simetría, en
tanto que si son de segunda clase no la habrá.

7.1.2. Ejemplos de sistemas singulares


Sistema con constricciones de primera clase

Sea el sistema caracterizado por la siguiente lagrangiana:


7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES147

2
1 1 2
  
L= q̇1 − q2 = q̇1 − 2q̇1 q2 + q22 .
2 2

La matriz hessiana será:

∂2L ∂2L
  !
 ∂2q̇1
2 ∂ q̇1 ∂ q̇2  1 0
Hss.(L) = ∂ L ∂2L = ,
∂ q̇2 ∂ q̇1 ∂ q̇22
0 0

y se ve trivialmente que su determinante es cero, por lo que se tiene un


sistema singular. La matriz tiene rango 1.
Los momentos canónicos son:

∂L
p1 = = q̇1 − q2 ⇒ q̇1 = p1 + q2
∂ q̇1
∂L
p2 = =0 ⇒ Φ(1) ≡ p2 ≈ 0,
∂ q̇2

entonces, la Hamiltoniana primaria será:

H (1) = H + λΦ(1) ,

con:

1

= p1 (p1 + q2 ) − (p1 − q2 + q2 )2

H= (p1 q̇1 + p2 q̇2 − L)
V =V 2
1 2
∴ H = p 1 + p1 q 1 .
2

La condición de consistencia sobre Φ(1) conduce a:


148 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

Φ̇(1) = {Φ(1) , H (1) } ≈ 0,


 :0

⇔ {Φ(1) , H} + λ {Φ(1)
,Φ(1) } ≈ 0
1
⇒ {p2 , p21 + p1 q2 } ≈ 0
2
⇒ p1 {p2 , q2 } ≈ 0 ⇒ −p1 ≈ 0
∴ Φ(2) ≡ p1 ≈ 0,

será una nueva constricción, secundaria. Hasta aquí λ permanece indetermi-


nada.
Ahora se demandará consistencia sobre la constricción secundaria:

Φ̇(2) = {Φ(2) , H (1) } ≈ 0 ⇔ {Φ(2) , H} + {Φ(2) , Φ(1) } ≈ 0


1
⇒ {p1 , p21 + p1 q1 } + λ{p1 , p2 } ≈ 0
2
∴ 0 ≈ 0.

No hay más constricciones y λ permanece inexpresable.


Nótese que:

{Φ(1) , Φ(1) } = {Φ(1) , Φ(2) } = {Φ2 , Φ(2) } = 0,

por lo cual las dos constricciones son de primera clase.


Dado que λ está indeterminada, el sistema tiene soluciones con arbitrariedad
funcional. En efecto, las ecuaciones de Lagrange son:

q2 − q̇1 = 0 −→ q̇2 − q̈1 = 0,

y se puede ver que estas ecuaciones tienen por solución:

1 Z 1
q1 (t) = α + βt + γt2 + ϕ(t0 )dt0
2 0
q2 (t) = β + γt + ϕ(t),
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES149

las cuales satisfacen las condiciones iniciales:

q1 (0) = α q2 (0) = β q̇1 (0) = β q̇2 (0) = γ,

siendo ϕ(0) = 0 = ϕ̇(0), pero arbitraria en el resto de los valores de t.


Así, la condición inicial no determina de manera única a q1 ni a q2 en un
tiempo posterior.
Nótese que L es invariante bajo las transformaciones:

q10 (t) = q1 (t) + µ(t) q20 (t) = q2 (t) + µ̇(t),

las cuales son transformaciones de norma: q1 y q2 son grados de libertad


de norma.

Sistema con constricciones de primera y segunda clase

Se tiene:

1 1
L = q̇12 + q̇1 q2 + (1 − α)q1 q̇2 + β(q1 − q2 )2 ,
2 2
siendo α y β constantes arbitrarias.
La matriz hessiana es la misma que en el ejemplo anterior, como puede fá-
cilmente comprobarse. Ergo, el sistema es singular.
Los momentos canónicos:

∂L ∂L
p1 = = q̇1 + q2 p2 = = q1 (1 − α)
∂ q̇1 ∂ q̇2

de forma que:

q̇1 = p1 − q2 Φ(1) = p2 + (α − 1)q1 ≈ 0.

La hamiltoniana se da por:
150 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES



H= (p1 q̇1 − L)
V =V
1 1
= p1 (p1 − q2 ) − (p1 − q2 )2 − q2 (p1 − q2 ) − β(q1 − q2 )2
2 2
1 1
∴ H = (p1 − q2 )2 − β(q1 − q2 ),
2 2

luego la hamiltoniana primaria será como siempre H (1) = H + λΦ(1) , en


cuanto a la condición de consistencia:

:0


Φ̇(1) = {Φ(1) , H (1) } ≈ 0 ⇔ {Φ(1) , H} + λ {Φ(1)
,Φ(1) } ≈0
1 1
⇒ {p2 + (α − 1)q1 , (p1 − q1 )2 − β(q1 − q2 )2 } ≈ 0
2 2
⇒ α(p1 − q2 ) − β(q1 − q2 ) ≈ 0,

si α = β, no hay constricciones secundarias, y Φ(1) es de primera clase. En


este caso:

1 1 d
 
L = q̇12 + q̇1 q2 + q1 q̇2 = q̇12 + q 1 q2 .
2 2 dt
En el caso general hay una constricción secundaria, dada por:

Φ(2) = α(p1 − q2 ) − β(q1 − q2 ) ≈ 0,

y de la condición de consistencia:

Φ̇(2) = {Φ(2) , H (1) } ≈ 0 ⇔ {Φ(2) , H} + λ{Φ(2) , Φ(1) } ≈ 0


⇒ [αβ(q1 − q2 ) − β(p1 − q2 )] + (β − α2 )λ ≈ 0,

y si β 6= α2 :

β
 
λ= p1 − q2 − α(q1 − q2 ) ,
β + α2
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES151

y dado que {Φ(2) , Φ(1) } 6≈ 0, entones Φ(1) y Φ(2) son de segunda clase. Nótes
que λ se puede expresar como:

β
λ= (q1 − q2 ).
α
Y si en la condición de consistencia de Φ(2) se hace α2 = β:

Φ̇(2) = αβ(q1 − q2 ) − β(p1 − q2 ) ≈ 0


⇒ Φ(2) = α(p1 − q2 ) − β(q1 − q2 ) ⇒ Φ(2) = α[p1 − q2 − α(q1 − q2 )]
⇒ Φ̇(2) = −αΦ(2)
∴ Φ(3) = −αΦ(2) ,

esto es, hay constricciones terciarias no independientes, por lo que λ perma-


nece indeterminado. Φ(1) y Φ(2) son de primera clase en este caso:

{Φ(1) , Φ(2) } ≈ 0.
Así, se asume que el procedimiento de búsqueda de constricciones ha con-
cluído:

Φ̇(1) ≈ 0 ⇒ Φ̇(2)

7.1.3. Más sobre constricciones


Si se asume que el procedimiento de búsqueda de constricciones ha concluído:

Φ̇(1)
α ≈ 0 ⇒ Φ̇(2)
α ≈ 0 ⇒ Φ̇(3)
α ≈ 0 ⇒ ...
en ese punto existe una superficie ΓC del espacio Γ, definida por:


Φ(1)

α ≈ 0 α = 1, . . . , m1
Γ
C
(2)
Φβ ≈ 0 β = 1, . . . , m2
ΓC
152 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

ΓC = Γ tiene dimensión 2N − (m1 + m2 ), ΓC recibe el nombre de superficie


de constricción.
Las Φ(1) y Φ(2) implican las siguientes condiciones sobre los m1 multiplicado-
res λ:


β
{Φ(1) (1) (1)

α , H} + {Φα , Φα }λ ≈ 0

ΓC

β
{Φ(2) (2) (1)

α , H} + {Φα , Φα }λ ≈ 0 .
ΓC

El número de λ’s que puede ser determinado depende del rango de la siguiente
matriz:
 
(1)
{Φ(1)
α , Φβ } 
D =  (2) (1) .
{Φα , Φβ }

Si el rango de D es N −m1 , todas las λ’s son determinadas. Si, por el contrario,
el rango es k < N − m1 , sólo es posible fijar k combinaciones independientes
de λ’s, quedando N − m1 − k combinaciones completamente libres.
Esto significa que hay N − m1 − k relaciones de la forma:

(1) (i)
{Φ(1)
α , Φβ }eβ ≈ 0
(1) (i)
{Φ(2)
α , Φβ }eβ ≈ 0,

(i)
con i = 1, . . . , N − m1 − k, siendo los eβ eigenvectores nulos de D.
Séparense las constricciones en las que son de primera y segunda clase:

(1) (1)
Φ(1)
α −→ ΦI Φi
primera clase segunda clase

y se hace lo mismo con las constricciones secundarias:


7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES153

(2)
Φ(2)
α −→ ΦA Φ(2)
a .
primera clase segunda clase

Así, distíngase esta separación en la hamiltoniana primaria:

(1) (1)
H (1) = H + λα Φ(1) I i
α = H + v ΦI + u Φi .

Entonces, las ecuaciones de consistencia tomarán la forma:

(1) (1)
:0

(1) (1) :0
(1)

{ΦI , H} + 
{ΦI,ΦJ } v J + 
{ΦI,Φj } uj ≈ 0
 

(1)
∴ {ΦI , H} ≈ 0,
(1) (1)
:0

(1) (1) (1)
{Φi , H} +  ΦJ } v J + {Φi , Φj }uj ≈ 0
{Φi ,


(1) (1) (1)


∴ {Φi , H} + {Φi , Φj }uj ≈ 0.

Ahora:

(2) (2)
:0

(1) (2) :0
(1)

{ΦA , H} + {ΦA,ΦJ } v J + {ΦA, Φj } uj ≈ 0
 

(2)
∴ {ΦA , H} ≈ 0,
:0

(1) (1)
J j
{Φ(2) {Φ(2)
a , H} + 
(2)
a , ΦJ } v + {Φa , Φj }u ≈ 0

j (1)
∴ {Φ(2) (2)
a , H} + {Φa , Φj }u ≈ 0.

En resumen, las ecuaciones de consistencia se convierten en:

(1) (2)
{ΦI , H} ≈ 0 {ΦA , H} ≈ 0 (A)
(1) (1) (1) (1)
{Φi , H} + {Φi , Φj }uj ≈ 0 {Φ(2) (2) j
a , H} + {Φa , Φj }u ≈ 0. (B)

Note que los multiplicadores v I desaparecen y que su número es igual al


número de constricciones primarias de primera clase.
154 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

Una forma de ver que todos los multiplicadores ui están determinados es


mostrando que la siguiente matriz no es singular:

(1) (1) (1) (2)


!
{Φi , Φj } {Φi , Φb }
∆= (1) (2) (7.10)
{Φ(2) (2)
a , Φj } {Φa , Φb },

por conveniencia todas las constricciones de segunda clase se denotan por:

(1)
ξ2 ≡ Φi , Φ(2)
a .

Los elementos de ∆ son:

∆µν = {ξµ , ξν }.

Asúmase que ∆ es singular, entonces existe al menos una combinación lineal


entre sus renglones, o columnas, tal que:

τ λ ∆λµ ≈ 0,

donde no todas las τ son cero. Note ahora que lo anterior implica:

τ λ {ξλ , ξµ } = {τ λ ξλ , ξµ }
∴ {τ λ ξλ , ξµ } ≈ 0.

La combinación lineal τ λ ξλ es tal que tiene paréntesis de Poisson cero con


todas las constricciones de segunda clase. Dado que esta combinación lineal
también tendrá paréntesis de Poisson cero con todas las constricciones de
primera clase, entonces τ λ ξλ es de primera clase, pero esto contradice la
suposición de donde se partió de un conjunto máximo de constricciones de
segunda clase. Ergo, ∆ no es singular.
En términos de ξµ y ∆, las ecuaciones (B) toman la forma:

{ξµ , H} + ∆µi ui ≈ 0,

lo cual implica:
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES155

ui = −∆−1
iµ {ξµ , H},

de donde finalmente:

∆−1
aµ {ξµ , H} ≈ 0. (7.11)

Sea f = f (q, p) una función arbitraria del espacio fase. Su evolución temporal
está descrita por:

(1) (1)
f˙ = {f, H (1) } = {f, H} + v I {f, ΦI } + ui {f, Φi }
(1) (1)
= {f, H} + v I {f, ΦI } − {f, Φi }∆−1
iµ {ξµ , H}
(1)
= {f, H} + v I {f, ΦI } − {f, ξν }∆−1
νµ {ξµ , H}.

En lo sucesivo se denotarán a las constricciones de primera clase por:

ϕα ≡ Φ(1) (1)
α , Φα ,

así que, si f = ϕα , entonces:

:0 :0 : 0 −1
{ϕα + vI 
{ϕα
, ϕI } −
{ϕα ν } ∆νµ {ξµ , H}
  
ϕ̇α =  , H}
 , ξ
∴ ϕ̇α ≈ 0,

se verifica la consistencia.
Y si ahora f = ξλ :

ξ˙λ = {ξλ , H} + v I {ξλ , ϕI } − {ξλ , ξν }∆−1


νµ {ξµ , H}

⇒ ξ˙λ = {ξλ , H} − ∆λν ∆ {ξµ , H}


−1
νµ
= {ξλ , H} − δλµ {ξµ , H} = 0.
156 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

Recapitulando:

f˙ = {f, H} + v I {f, ϕI } + {f, ξν }∆−1


νµ {ξµ , H}, (7.12)

anotaciones:

el término con subrayado entrecortado está relacionado con la simetría


de Norma

los ϕα son los generadores de la transformación de norma. Se recuerda


que δxA = {xA , G}, siendo  el parámetro infinitesimal, G los gene-
radores, que a su vez se relacionan con las constantes de movimiento:
condiciones de consistencia.

el término con subrayado normal se puede comprender como una gene-


ralización del paréntesis de Poisson.

7.1.4. Constricciones de segunda clase y paréntesis de


Dirac

Si sólo hay constricciones de segunda clase, la ecuación de evolución de una


función f se reduce a:

f˙ = {f, H} − {f, ξµ }∆−1


µν {ξν , H},

notando que si los grados de libertad son bosónicos, ∆ es simétrica. Para un


sistema con un número finito de grados de libertad, ∆ tiene dimensión par:
2N .
El movimiento está restringido a una superficie ΓC = Γ, de dimensión 2(N −
M ), el número de coordenadas independientes es 2(N − M ), ¿es posible
aislarlas en pares de variables canónicas?
La respuesta es que no siempre es posible. En las teorías físicas, es posible
la teoría de Maxwell (teoría abeliana), pero no en las teorías de Yang-Mills
(teorías no abelianas). Esto sólo después de fijar la norma.
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES157

Figura 7.1: Subespacio ΓC

Figura 7.2: Subespacio

Sean f y g dos funciones arbitrarias del espacio fase, su paréntesis de Dirac


se define como:

{f, g}p.d. = {f, g} − {f, ξµ }∆−1


µν {ξν , H}, (7.13)

entonces es posible anotar:

f˙ = {f, H}p.d. .

Note que si no hay consstricciones, el paréntesis de Dirac se reduce al parén-


tesis de Poisson.
El paréntesis de Dirac satisface todas las propiedades del paréntesis de Pois-
son.

1. {f, g}p.d = −{g, f }p.d.

2. {f, gh}p.d. = {f, g}p.d. h + g{f, h}p.d.

3. Identidad de Jacobi.
158 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

Es sabido que, en general:

{f, ξλ } =
6 0,

pero ahora:

{f, ξλ }p.d. = {f, ξλ } − {f, ξµ }∆−1


µν {ξν , ξλ }
= {f, ξλ } − {f, ξµ }∆−1
µν ∆νλ
⇒ {f, ξλ }p.d. = 0,

así que no es necesario trabajar con cantidades débiles y fuertes, si se trabaja


con el paréntesis de Dirac.
Supóngase que f y fˆ son iguales débilmente, esto es que difieren en una
combinación lineal de constricciones.

fˆ = f + µk ξk ,

y demandándose que:

fˆ = f − ξλ ∆−1
λρ {ξρ , f },

entonces, para toda f se puede hallar fˆ, de primera clase, su compañera.


De esta forma:

˙
fˆ = {fˆ, H},

y obsérvese que:

{f1 , f2 }p.d. = {fˆ1 , fˆ2 }.


7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES159

7.1.5. Constricciones de primera clase y transforma-


ciones de norma
Para sistemas que sólo tienen constricciones de primera clase, la hamiltoniana
primaria se da por:

H (1) = H + v I ϕI ,

siendo las ϕ’s constricciones de primera clase. Constricciones secundarias de


primera clase no aparecen en H (1) .
Entonces, la evolución de una función f (q, p) está dada por:

f˙ = {f, H} + v I {f, ϕI }.

La existencia de las funciones completamente arbitrarias v I implica que si se


da el valor inicial (q0 , p0 ), en t = t0 , se obtienen diferentes valores de (q, p) a
un tiempo t, dependiendo de los valores elegidos para los multiplicadores v I :

(q0 , p0 ),

está relacionada con muchas historias, las cuales son físicamente equivalen-
tes.
Se definen transformaciones que conectan las diferentes historias a un tiempo
dado como transformaciones de norma. Estas transformaciones deben de
ser canónicas, así que deben existir generadores de estas que sean constantes
de movimiento.
Las constricciones primarias de primera clase ϕI , generan transformaciones
de norma infinitesimales en este sentido.
Sean fν y fν 0 funciones del espacio fase que evolucionan de su valor inicial f0
con diferentes multiplicadores v I ; a primer orden:

dfν

fν (t) = f0 + t + ...,
dt t=0

siendo:
160 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

dfν

= {f0 , H} + v0I {f0 , ϕI }.
dt t=0
De forma similar:

dfν 0

fν 0 (t) = f0 + t + ...
dt t=0
Si se considera un t pequeño:

dfν dfν 0
 
δf ≡ fν (t) − fν 0 (t) = t −

dt t=0

dt t=0 
= t {f0 , H} + v0I {f0 , ϕI } − {f0 , H} − v00I {f0 , ϕI } ,
∴ δf = t(v0I − v00I ){f0 , ϕI }.

De esta forma:

δf = I {f0 , ϕI } I ≡ t(v0I − v00I ),

en particular se tiene:

δxA = I {xA , ϕI } xA = q a , pa ,
δxA ≡ xAν − xAν 0 .

Dos puntos sobre la órbita están relacionados por una transformación canó-
nica generada por las constricciones de primera clase. Este tipo de transfor-
maciones reciben el nombre de transformaciones de norma.
Nota: hasta esta etapa se han identificado las constricciones primarias de
primera clase como generadores de transformaciones de norma. Más adelante
se verá que también las constricciones secundarias de primera clase juegan
este papel.
Nótese lo siguiente:
7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES161

Figura 7.3: Siendo t y t0 las órbitas y ν, ν 0 las historias.

H (1) = H + v I ϕI ⇒ δH (1) = I {H (1) , ϕI } ≈ 0,

esto último debido a la condición de consistencia de las constricciones ϕI .


Así, δH (1) es invariante bajo transformaciones de norma: la hamiltoniana
primaria. Esto significa que las transformaciones de norma que se relacionan
con alguna simetría dejan invariante a H (1) . También es notable que H (1) es
una cantidad de primera clase, pues:

{ϕI , H (1) } ≈ 0.

Estas transformaciones no abandonan la superficie de constricción, dado que:

δϕα = I {ϕα , ϕI },

siendo ϕα = ϕI , xA . Se nota que {ϕα , ϕI } es una combinación de constriccio-


nes, pues son de primera clase.
Considérese el conmutador de dos transformaciones:
162 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

[δη, δ]f = (δηδ − δδη)f


= δη(δf ) − δ(δηf ) = δη(I {f, ϕI }) − δ(η I {f, ϕI })
= η J {I {f, ϕI }, ϕJ } − J {η I {f, ϕI }, ϕJ }
= {f, {I ϕI , η J ϕJ }}.

Pero {ϕI , ϕJ } = gIJK ϕK , así que:

{I ϕI , η J ϕJ } = I {ϕI , η J ϕJ } + {I , η J ϕJ }ϕI


= I η J {ϕI , ϕJ } + I  J
{ϕI ,η }ϕJ + η J  I 
{, ϕJ }ϕI +  I J
{, η }ϕJ ϕI
  

∴ {I ϕI , η J ϕJ } = µK ϕK ,

siendo:

µK = I η J gIJK ,

luego:

{eI ϕI , η J ϕJ } = µK ϕK ,

así que si los µK no dependen de variables dinámicas, se tiene un grupo, sólo


en ese caso se cumplirá:

[δη, δ]f = δµf,

en pos de eso, supóngase que I y η J son constantes, entonces:

{I ϕI , η J ϕJ } = I η J {ϕI , ϕJ },

de forma tal que:


7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES163

[δη, δ]f = {f, {I ϕI , η J ϕJ }}


= I η J {f, {ϕI , ϕJ }} = I η J {f, gIJK ϕK }
= µK {f, ϕK } = µK {f, ϕK } + ϕK  {f,
µ }
K

⇒ [δη, δ]f = δµ,

esto significa que:

[δη, δ] = δµ. (7.14)

Así pues, se tiene:

H (1) = H + v I Φ(1) ,

siendo las Φ de primera clase y genradores de transformaciones de norma.


También:

ϕα = (Φ(1) , Φ(2) ),

ambas de primera clase; también las secundarias son generadoras de trans-


formaciones de norma.
Se construye la hamiltoniana extendida, la cual incorpora todas las cons-
tricciones de primera clase (primarias y secundarias):

HE = H + λα ϕα . (7.15)

En el diagrama 7.4 todos los puntos de la línea de t0 son físicamente equi-


valentes y se puede pasar de uno a otro a través de una transformación de
norma.
Dada una f arbitraria:

δf = α {f, ϕα },

y en particular:
164 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

Figura 7.4: Diagrama.

δxA = α {xA , ϕα } ⇒ x0A − xA = α {xA , ϕα }


⇒ x0A = xA + α {xA , ϕα }.

Se verá más adelante que:

(1) (1)
HE = H + λI ΦI + λA ΦA .

Se dice que f es una observable si es de primera clase:

{f, ϕα } ≈ 0,

esto es:

{f, ϕα } = Cαβ ϕβ ,

lo cual quiere decir que:

δf ≈ 0 ⇒ f (Ct ) = constante,

es invariante de norma. De esta forma:

primera clase ⇐⇒ invariante de norma


7.1. FORMALISMO DE DIRAC PARA LOS SISTEMAS SINGULARES165

Las observables forman un álgebra cerrada. Sean f1 y f2 observables:

{fi , ϕα } ≈ 0, i = 1, 2,

entonces, usando la identidad de Jacobi:

{f1 , 
{f
2 , ϕα }} + {f2 , 
 
{ϕα 1 }} + {ϕα , {f1 , f2 }} = 0
, f


∴ {ϕα , {f1 , f2 }},

así que:

{f1 , f2 } = f3 , (7.16)

también es una observable.


Para cuantizar un sistema de primera clase, o sistema de norma, se necesita de
un generador de evolución temporal (hamiltoniano) único. Así, es necesario
fijar la norma.
Así pues:

HE = H (1) + λA Φ(2)
α ,

con H (1) = H + λI Φ(1)


α , de manera tal que:

(1) (2)
HE = H + λα ϕα ϕα = (ΦI , ΦA ).

Conjuetura de Dirac: También son generadores de transformaciones de


norma. Existen contraejemplos académicos, pero en los casos de teorías físicas
sí es verdadero, como en Maxwell y Yang-Mills.
En el caso de constricciones de segunda clase, su número siempre es par, pues
forman una matriz antisimétrica.
Las órbitas de norma representan al estado del sistema en un tiempo da-
do. Todos los puntos de la órbita son equivalentes, ya que están conectados
mediante una transformación de norma:
166 7. DESCRIPCIÓN CLÁSICA DE LOS SISTEMAS SINGULARES

δxA = {xA , ϕα }.

Si g es una función de segunda clase, entonces no es invariante de norma,


es decir, tiene distintos valores sobre la órbita de norma. Así g no tiene sentido
físico y no es candidata a observable.
Así que, si f es de primera clase:

f˙ = {f, HE } = {f, H} + {f, α


ϕα }




∴ f˙ = {f, H}.

7.1.6. Fijación de la norma


Este procedimiento es necesario para cuantizar al sistema, y permite deter-
minar los multiplicadores de Lagrange.
Se tienene M constriccciones de primera clase, y se deben introducir otras
M nuevas, de suerte que el nuevo conjunto de 2M sean de segunda clase.
Así, sean:

Ωα (q, p) ≈ 0, α = 1, . . . , M

entonces (ϕα , Ωα ) definen una superficie de dimensión 2(N − M ).


El nuevo conjunto será tal que la matriz 2M × 2M está formada por:

({Ωα , ϕβ }) −→ det({Ωα , ϕβ }) 6= 0,

así que las λ’s están determinadas.


El criterio para introducir la fijación de norma lo dicta la simetría BRST.
8

Fundamentos de la teoría
clásica de los campos

8.1. Formulación lagrangiana

Por definición, un campo representa un sistema con un número infinito no


numerable de grados de libertad.
Se obtendrá el campo como un límite de un sistema con un número infinito
numerable de grados de libertad.
Considérense las pequeñas oscilaciones de una cadena infinita de partícu-
las, todas con la misma masa y separadas por una distancia a, las cuales
están unidas entre sí por resortes idénticos. Se supone que sólo pueden reali-
zar oscilaciones longitudinales. Entonces, el sistema tiene un número infinito
numerable de grados de libertad.

8.1.1. El campo como límite de un sistema discreto

Ahora considérese al sistema desplazado de su posición de equilibrio, 8.1.


Denotando con ηi al desplazamiento de la i-ésima partícula de su posición de
equilibrio. La energía cinética de la partícula está dada por:

167
168 8. FUNDAMENTOS DE LA TEORÍA CLÁSICA DE LOS CAMPOS

Figura 8.1: Diagrama de resortes.

1X
T = mη̇i2 ,
2 i

en tanto que la energía potencial es de la forma:

1X
V = k(ηi+1 − ηi )2 .
2 i

Entonces, la lagrangiana del sistema será:

2 
1X m 2 ηi+1 − ηi
 
L= a η̇i − ka ,
2 i a a

o de otra forma:

X
L= aLi , (8.1)
i

siendo Li la densidad lagrangiana de la i-ésima partícula.


Las ecuaciones de movimiento están dadas por:

m ηi+1 − ηi ηi − ηi−1
   
η̈i − ka 2
+ ka = 0.
a a a2
8.1. FORMULACIÓN LAGRANGIANA 169

El problema mecánico de una varilla continua, i.e. el de un sistema con un


número infinito no numerable de grados de libertad, es lo que se llama campo.
Se obtiene en el límite cuando a tiende a cero. En tal límite:

m
lı́m ≡ µ,
a→0 a

la cual es la densidad de masa por unidad de longitud.

lı́m ka ≡ y,
a→0

el cual es el módulo de Young.


Ahora considérese la siguiente cantidad:

ηi+1 − ηi
lı́m ,
a→0 a2
las masas puntuales se aproximan independientemente, por lo cual se tiene
una varilla, y en virtud de su continuidad, sus puntos ya no pueden ser
etiquetados con un número natural, se habrá de usar un índice continuo, i.e.
un número real.
Sea x el eje sobre el cual yace la varilla:

η −→ η(x), (8.2)

este es el campo. Habrá una coordenada generalizada para cada valor de x:

η(x0 ) ≡ q0 .

De manera análoga:

ηi+1 −→ η(x + a)
ηi+1 − ηi η(x + a) + η(x)
⇒ lı́m −→ lı́m = η 0 (x).
a→0 a a→0 a

En este límite se tendrá también:


170 8. FUNDAMENTOS DE LA TEORÍA CLÁSICA DE LOS CAMPOS

X Z
a −→ dx.
i

De esta manera, la lagrangiana tomará la forma que se muestra a continua-


ción:

X
L = lı́m aLi
a→0
i
2 
1Z dη
 
L= dx µη̇ 2 − y
2 Z dx
⇔ L = dxL.

El límite para las ecuaciones de movimiento es:

m ηi+1 − ηi ηi − ηi−1
    
lı́m η̈i − ka + ka =0
a→0 a a2 a2
d2 η dη(x) dη(x − a)
  
⇒ µ 2 − y lı́m − a =0
dt a→0 dx dx
d2 η d2 η
⇒µ 2 −y 2 =0
dt dx
d2 η 2
s
2 d η y
∴ 2 −v 2
= 0, v= .
dt dx µ

Esta es la ecuación de onda en una dimensión con velocidad de propagación


v. Describe la propagación de ondas mecánocas longitudinales.
Las características sobresalientes del proceso son:

La coordenada x que ubica la posición de cada partícula es la varilla,


sirve como un índice continuo que “enumera” grados de libertad,

Para cada valor de x hay asocicada una coordenada generalizada o


grado de libertad.

En η = η(x, t) t y x juegan el papel de parámetros; x no representa a


una coordenada generalizada.
8.1. FORMULACIÓN LAGRANGIANA 171

Si el sistema continuo es tridimensional, se tendrá η = η(~x, t) con ~x


jugando el papel de índice continuo.

La lagrangiana tridimensional tendrá la forma:


Z
L= d3 xL, d3 x = dxdydz,

8.1.2. La formulación lagrangiana para un sistema de


campos relativistas
Un campo relativista es una función definida en el espacio-tiempo, el cual
forma parte de alguna representación del grupo de Lorentz SO(1,3):

ϕ(x) = ϕ(x0 , ~x), x0 = ct.

En general, el campo también podría constituir alguna representación de un


grupo interno, por ejemplo SU(N):

ϕa (x) = ϕa (x0 , ~x),

siendo el ~x un índice continuo, que cuenta grados de libertad. En cuanto a


las a, se refieren a una notación corta y, posiblemente, grupos internos. Por
ejemplo, un campo de Yang-Mills (conexión) asociado a SU(N) es:

Aaµ (x),

el índice a es de norma, y el µ es de Lorentz.


La acción del sistema de campos en el espacio plano es:
Z Z
S[ϕa ] = dx0 L = d4 xL(ϕa , ∂µ ϕa ),

siendo:
Z
L= d3 xL(ϕa , ∂µ ϕa ),
172 8. FUNDAMENTOS DE LA TEORÍA CLÁSICA DE LOS CAMPOS

la funcional lagrangiana y L la función densidad lagrangiana, aunque


suele llamarse simplemente lagrangiana.
Debido a que en el espacio plano:

d4 x −→ invariante bajo SO(1,3),

S también será invariante si así lo es:

L(ϕa , ∂µ ϕa ).

Construir una teoría relativista significa construir una L invariante bajo


ISO(1,3). Recuérdese que:

SO(1,3) ←− ISO(1,3) −→ T(1,3)

Invariancia bajo T(1,3) significa que L no depende explícitamente de xµ , sino


sólo implícitamente, a través de los campos y sus derivadas.
Invariancia bajo SO(1,3) significa que los ϕa (x) forman parte de alguna re-
presentación de este grupo, los cuales aparecen debidamente contraídos en
L: como tensor, pues L es un escalar.
Adicionalmente se pueden demandar invariancias bajo grupos internos, por
ejmplo bajo transformaciones locales de SU(N,M4 ), con M4 la variedad
espacio-temporal. Entonces se dice que la teoría tiene invariancia de nor-
ma. Como consecuencia de esto, el sistema está sujeto a constricciones de
primera clase. Estas son las teorías relativistas relevantes.
De esta manera:

Z
S[ϕa ] = d4 xL.

8.1.3. Principio de Hamilton y ecuaciones de movi-


miento
El principio de Hamilton:
8.1. FORMULACIÓN LAGRANGIANA 173

Z
δS
δS = d4 xδϕa (x) = 0,
s.f. δϕa (x)

donde “s.f” es la abrebiatura de superficie bidimensional fija para ~x, necesaria


para definir el número de grados de libertad. Diferentes volúmenes, diferentes
sistemas.
Realizando la variación se tendrá:

Z
δ Z 4
δS = d4 xδϕa (x) d yL(ϕa (y), ∂µ ϕa (y))
δϕa (x)
  
Z
∂L δϕb (y) ∂L δ ∂µ ϕb (y) 
= d4 xd4 yδϕa (x) +
∂ϕb (y) δϕa (x) ∂∂µ ϕb (y) δϕa (x)
 
∂L δϕb (y) ∂L δϕb (y) 
Z  
= d4 xd4 yδϕa (x) + ∂µ
∂ϕb (y) δϕa (x) ∂∂µ ϕb (y) δϕa (x)

∂L δϕb (y) ∂L δϕb (y)
Z  
= d4 xd4 yδϕa (x) + ∂µ
∂ϕb (y) δϕa (x) ∂∂µ ϕb (y) δϕa (x)

∂L δϕb (y) 
 
−∂µ ,
∂∂µ ϕb (y) δϕa (x)

pero se nota que:

∂L δϕb (y) ∂L δϕb (y)


Z  Z   
d4 y∂µ = dσµ ,
∂∂µ ϕb (y) δϕa (x) ∂∂µ ϕb (y) δϕa (x)

lo cual vale cero. De esta forma:

 
∂L ∂L δϕb (y)
Z  
d4 xd4 yδϕa (x) − ∂µ  ,
∂ϕb (y) ∂∂µ ϕb (y) δϕa (x)

el último término es igual a δab δ 4 (y − x), luego:


174 8. FUNDAMENTOS DE LA TEORÍA CLÁSICA DE LOS CAMPOS

 
∂L ∂L
Z  
d4 xδϕa (x) − ∂µ =0
∂ϕa (x) ∂∂µ ϕa (x)
δS
⇔ = 0,
δϕa

de esta forma:

∂L ∂L
 
∂µ = , (8.3)
∂∂µ ϕa (x) ∂ϕa (x)

estas últimas son las ecuaciones de Lagrange para campos.

8.2. Formulación hamiltoniana


Para pasar a esta formulación se deben introducir los momentos canónicos:
el momento canónico asociado a ϕa (x) se define como sigue:

δL
πa (x) ≡
δ ϕ̇a (x)
δ Z 3 0  
⇒ d x L ϕa (x0 ), ∂µ ϕa (x0 )
δ ϕ̇a (x)
Z
∂L δ ϕ̇b (x0 )
⇒ d 3 x0 ,
∂ ϕ̇b (x0 ) δ ϕ̇a (x)

esto es:

∂L
πa (x) = . (8.4)
∂ ϕ̇a (x)

La función hamiltoniana se define de la manera usual:


8.2. FORMULACIÓN HAMILTONIANA 175

 
∂L
Z
d3 x

H(π, ϕ) =  ϕ̇a (x) − L
∂ ϕ̇a (x)
ϕ̇a =ϕ̇a (π,ϕ)
∂L
Z  Z 
3
= dx ϕ̇a (x) − L = d3 xH,
∂ ϕ̇a (x)

siendo H la densidad hamiltoniana.


Es notable que ϕ̇a = ϕ̇a (π, ϕ) sólo es posible en el caso del campo escalar
para todas las velocidades.

ϕ(x) Aaµ (x) ψ ψµ hµν

a los cuales en cuántica les corresponde un espín de 0, 1, 1/2, 3/2 y 2,


respectivamente.

8.2.1. El principio de Hamilton en el espacio fase


Se tiene:

 
Z
δS δS 
δS = d4 xδϕa (x) + δπa (x) =0
δϕa (x) δπa (x)
δS δS
⇔ = 0, ,
δϕa δπa (x)

de aquí, haciendo los cálculos, emergen las ecuaciones de Hamilton:

δH δH
π̇a = − ϕ̇a = . (8.5)
δϕa δπa

8.2.2. El paréntesis de Poisson


Sean las funcionales F y G:
176 8. FUNDAMENTOS DE LA TEORÍA CLÁSICA DE LOS CAMPOS

Z Z
F [π, ϕ] = d3 xf (π, ϕ) G[π, ϕ] = d3 xg(πϕ),

siendo f y g funciones del espacio fase.


El paréntesis de Poisson de F y G se define como:
 
Z
δF δG δG δF 
{F, G} ≡ d 3 x0  − . (8.6)
δϕa (x ) δπa (x ) δϕa (x ) δπa (x0 )
0 0 0

Como ya se intuye, se pondrán las ecuaciones de Hamilton en términos del


paréntesis de Poisson:

Si F = ϕa y G = H:
Z
δϕa (x) δH δH
{ϕa , H} = d 3 x0 0 0
= ,
δϕb (x ) δπb (x ) δπa (x)

Si F = πa y G = H:
Z
δπa (x) δH δH
{πa , H} = − d 3 x0 0 0
=− ,
δπb (x ) δϕa (x ) δϕa (x)

así pues, en resumen:

δH δH
{ϕa (x), H} = = ϕ̇a (x) {πa (x), H} = − = πa (x). (8.7)
δπa δϕa (x)

Los paréntesis de Poisson fundamentales se obtienen tomando F = ϕa y


G = πb :

Z
δϕa (x) δπb (x0 )
{ϕa (x), πb (x0 )}x0 =x00 = d3 x
δϕc (x00 ) δπc (x00 )
Z
= d3 xδca δ(~x00 − ~x0 )δcb δ(~x00 − ~x) = δab δ(~x0 − ~x),

resumiendo y agregando los paréntesis triviales:


8.2. FORMULACIÓN HAMILTONIANA 177

{ϕa (x), πb (x0 )}x0 =x00 = δab δ(~x − ~x0 )


{ϕa (x), ϕb (x0 )} = 0 = {πa (x), πb (x0 )}. (8.8)
178 8. FUNDAMENTOS DE LA TEORÍA CLÁSICA DE LOS CAMPOS
9

Teoría relativista de campos


clásicos

9.1. Covariancia relativista de la teoría de Max-


well
Las ecuaciones de Maxwell se dividen en inhomogéneas:

~
~ = 4πρ
∇·E ~ − 1 ∂ E = 4π J,
∇×B ~
c ∂t c
y homogéneas:

~
~ =0
∇·B ~ + 1 ∂ B = 0.
∇×E
c ∂t
Estas ecuaciones son manifiestamente covariantes bajo el grupo de las rota-
ciones SO(3):

~ 0 i = Oij E
E ~j ~ 0 i = Oij B
B ~j J~ 0 i = Oij J~j ρ0 = ρ x0i = Oij xj .

Se busca la covariancia bajo el grupo de Lorentz SO(1,3), del cual SO(3) es


subgrupo. Este grupo deja invariante a la distancia:

179
180 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

x20 − ~x · ~x x0 = ct = constante
x0µ = Λµν xν ⇔ x0 = Λx,

siendo Λ ∈ SO(1,3), la cual puede representar una rotación Λ = O ∈ SO(3)


o un boost.
También se recuerda que los campos E ~ yB ~ pueden ser derivados de poten-
~ y el potencial escalar φ ≡ A0 = A0 .
ciales: el potencial vectorial A
En efecto, de la ecuación:

~ = 0,
∇·B

dado que la divergencia de un rotacional siempre es cero:

~ = ∇ × A.
B ~

Y de la ley de inducción de Faraday:

~
∇×E~ + ∂B = 0 ⇔ ∇×E ~ + ∂0 B
~ =0
∂x0
~ + ∂0 (∇ × A)
∇×E ~ =0 ⇔ ~ + ∂0 A)
∇ × (E ~ =0
~ + ∂0 A
∴E ~ = −∇A0 ,

pues el rotacional de un gradiente siempre es cero.


De esta manera:

E~ = −∇A0 − ∂0 A ~ B~ =∇×A ~
Ei = −∂i A0 − ∂0 Ai Bi = ijk ∂j Ak .

Recuérdese que xµ = (x0 , ~x), y además:


9.1. COVARIANCIA RELATIVISTA DE LA TEORÍA DE MAXWELL181


∂µ ≡ = (∂ 0 , −∇)
∂xµ

∂µ ≡ = (∂ 0 , ∇),
∂xµ

en ambos casos sucede que ηµν = diag(+1, −1, −1, −1).


~ yB
Así que es sencillo ver que las componentes de E ~ están contenidas en el
siguiente 2-tensor totalmente antisimétrico:

F µν = ∂ µ Aν − ∂ ν Aµ = −F νµ (9.1)

el cual es el tensor de Maxwell, tensor de Faraday o tensor electromag-


nético. Así:

~ = F 0i
E ~ = F ij .
B

El 4-vector potencial, o campo electromagnético:

~
Aµ = (A0 , A),

y la 4-corriente, o corriente electromagnética:

~ = (cρ, J).
J µ = (J 0 , J) ~

Es posible ver que las dos ecuaciones inhomogéneas se pueden sintetizar


en forma covariante como:

4π ν
∂µ F µν = J , (9.2)
c
además, esta ecuación tiene origen dinámico.
En contraste, las ecuaciones homogéneas tienen un carácter puramente geo-
métrico, expresado a través de la identidad de Bianchi:

∂µ Fνλ + ∂ν Fλµ + ∂λ Fµν = 0,


182 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

pero también es posible expresarlas como:

∂µ Fe µν = 0,

siendo el tensor electromagnético dual:

1
Fe µν ≡ µνλρ Fλρ .
2
Note que la ecuación con el tensor dual no es una condición:

1 µνλρ 1
 
∂µ Fe µν = ∂µ  Fλρ = µνλρ ∂µ Fλρ
2 2
1
= µνλρ ∂µ (∂λ Aρ − ∂ρ Aλ ) = µνλρ ∂µ ∂λ Aρ = 0,
2

pues el símbolo de Levi-Civita es antisimétrico, en tanto que las derivadas se


intercambian, anulando el producto.
Luego, de la ecuación 9.2:


0 = ∂ν ∂µ F µν = ∂ν J ν
c
∂ρ
∂µ J µ = 0 ⇔ + ∇ · J~ = 0,
∂t

es decir que la corriente se conserva.


De esta manera:

Aµ (x) −→ conexión F µν −→ curvatura


µ
J (x) −→ surge de invariancia de norma: dinámica

9.2. El campo escalar real


Sea la transformación de Lorentz:
9.2. EL CAMPO ESCALAR REAL 183

x0µ = Λµν xν ⇔ x0 = Λx,

bajo tal, un campo escalar se transforma como:

ϕ0 (x0 ) = ϕ(x)
⇒ ϕ0 (x0 ) = ϕ(Λ−1 x0 ),

o bien nótese cómo se transforma el siguiente 4-vector:

   
∂µ −→ ∂µ ϕ0 (x) = ∂µ ϕ(Λ−1 x0 ) = (Λ−1 )νµ (∂µ ϕ)(Λ−1 x).

Así, usando lo anterior, se tiene que:

     
∂µ ϕ(x) ∂µ ϕ(x) −→ η µν ∂µ ϕ0 (x) ∂ν ϕ0 (x)
h    i
= η µν ∂µ ϕ(Λ−1 x) ∂ν ϕ(Λ−1 x)
h ih i
= η µν (Λ−1 )ρµ ∂ρ ϕ (Λ−1 )σν ∂σ ϕ
= η µν (Λ−1 )ρµ (Λ−1 )σν (∂ρ ϕ)(∂σ ϕ)
= η ρσ (∂ρ ϕ)(∂σ ϕ) = (∂µ ϕ)(∂µ ϕ),
  
es decir que la cantidad ∂µ ϕ(x) ∂µ ϕ(x) es invariante.
Se tienen los siguientes objetos invariantes:

ϕ(x) ∂µ ϕ(x) ∂µ ∂ν ϕ(x) ...

se tienen escalares, 1-tensores, 2-tensores, etcétera.


Entonces se tendrían los invariantes:

ϕn , n = 1, 2, . . .
h in
(∂µ ϕ)(∂µ ϕ) , n = 1, 2, . . .
h in
(∂µ ϕ)(∂µ ϕ) ϕm , n, m = 1, 2, . . .
184 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

lo cual significa que se puede construir una lagrangiana invariante bajo ISO(1,3),
dada por una suma infinitesimal de términos de este tipo. Pero teoría cuán-
tica pone restricciones (renormalización).
La versión mínima (lineal) es:

1 1
L = (∂µ ϕ)(∂ µ ϕ) − m2 ϕ2 , (9.3)
2 2
de manera tal que:
Z
S[ϕ] = d4 xL(ϕ, ∂µ ϕ).

Así, las ecuaciones de lagrange están dadas por:


 
∂L  ∂L
∂µ  = ,
∂∂µ ϕ ∂ϕ

pero:

∂L 1 ∂ 1 ∂
= (∂α ϕ)(∂ α ϕ) = η αβ (∂α ϕ)(∂β ϕ)
∂∂µ ϕa 2 ∂∂µ ϕ 2 ∂∂µ ϕ
1  
= η αβ ∂α ϕδ µβ + ∂β ϕδ µα = ∂ µ ϕ,
2

y de manera simple:

∂L
= −m2 ϕ.
∂ϕ
De esta forma:

∂µ ∂ µ ϕ = −m2 ϕ
⇔ ( + m2 )ϕ(x) = 0, (9.4)

es la ecuación de Klein-Gordon, con el d’Alembertiano:


9.2. EL CAMPO ESCALAR REAL 185

 ≡ ∂µ ∂ µ = ∂02 − ∇2 .

Las soluciones de esta ecuación son ondas planas:

µ
ϕ(x) = N e±ipµ x = N e±ip·x ,

siendo N la constante de normalización. Sustituyendo en la ecuación diferen-


cial se tendrá:

µ
( + m2 )N e±ipµ x = 0,
µ µ
y como ∂µ (e±ipµ x ) = ±ipµ e±ipµ x entonces:

h i µ
(±ipµ )(±ipµ ) + m2 N e±ipµ x = 0
µ
⇒ [−pµ pµ + m2 ]N e±ipµ x = 0
∴ p2 = pµ pµ = m2 ,

esta úlima es conocida como condición de capa de masa (on shell). Luego:

p2 = p20 − p~2 ⇒ p20 = p~2 + m2


q q
⇒ p0 = ± p~2 + m2 ↔ E = p~2 c + m2 c4 .

La teoría dada por la lagrangiana 9.3 no contiene a todos los términos permi-
tidos por teoría de normalización (en el contexto cuántico). En particular, no
contiene interacciones (efectos no lineales). La teoría más general consistente
con renormalización es:

1 1 σ λ
L = (∂µ ϕ)(∂ µ ϕ) − m2 ϕ2 − ϕ3 − ϕ4 .
2 2 3! 4!
El término cúbico produce inestabilidad en el estado base. Para evitar este
problema se introduce la simetría discreta:
186 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

1 1 λ
ϕ → −ϕ : L = (∂µ ϕ)(∂ µ ϕ) − m2 ϕ2 − ϕ4 ,
2 2 4!
la ecuación de movimiento:

λ 3
( + m2 )ϕ(x) = ϕ.
3!

9.3. Campo escalar complejo


Considérese el campo escalar complejo formado por:

1  
ϕ(x) = √ ϕ1 (x) + iϕ2 (x) ,
2

siendo los ϕi (x) campos reales. De esta forma, el conjugado:

1  
ϕ† (x) = √ ϕ1 (x) − iϕ2 (x) .
2

La siguiente lagrangiana es invariante bajo SO(1,3):

L = (∂µ ϕ)† (∂ µ ϕ) − m2 ϕ† ϕ, (9.5)

y considerando la definición de ϕ(x):

1   1 1   1
L= ∂µ ϕ1 (x) ∂ µ ϕ1 (x) − m2 ϕ21 + ∂µ ϕ2 (x) ∂ µ ϕ2 (x) − m2 ϕ22
2 2 2 2
1 † µ 1 2 †
= (∂µ Φ )(∂ Φ) − m Φ Φ,
2 2

siendo:
!
ϕ1
Φ≡ .
ϕ2
9.3. CAMPO ESCALAR COMPLEJO 187

Figura 9.1: Local.

Así, las ecuaciones de Lagrange son:

   
∂L  ∂L ∂L  ∂L
∂µ  = ∂µ  =
∂∂µ ϕ† ∂ϕ† ∂∂µ ϕ ∂ϕ
⇒ ( + m2 )ϕ(x) = 0 ↔ ( + m2 )ϕ† (x) = 0,

las dos ecuaciones son la compleja conjugada una de otra.


Obsérvese que la lagrangiana 9.5 es invariante bajo el grupo U(1):

ϕ0 (x) = eiα ϕ(x), ϕ0† = e−iα ϕ† (x),

siendo α constante. Luego:

(∂µ ϕ)0 (x) = eiα (∂µ ϕ)(x)


(∂µ ϕ)0† (x) = e−iα (∂µ ϕ)† (x).

En términos de Φ, 9.5 es invariante bajo SO(2)∼U(1).


Las rotaciones ocurren en un espacio interno bidimensional. Las transforma-
ciones son lineales en el sentido que los puntos de M4 no son importantes
para α, esta no depende de ellos.
Ahora considérese el caso de transformaciones locales:

α = α(x), real.
188 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

Figura 9.2: Global.

Así pues, se tiene:

ϕ0 (x) = eiα(x) ϕ(x)


ϕ0† = e−iα(x) ϕ† (x),

lo cual quiere decir que ϕϕ† sigue siendo invariante. Pero sí que se tienen
problemas con los términos que involucran derivadas:

 
∂µ ϕ(x) −→ ∂µ eiα(x) ϕ(x) = eiα(x) ∂µ ϕ(x) + ieiα(x) ϕ(x)∂µ α(x),

no se transforma de manera covariante.


En pos de comprender la situación, considérese la derivada de ϕ(x) en la
dirección del vector nµ :

1
 
nµ ∂µ ϕ(x) = lı́m ϕ(x + n) − ϕ(x) .
→0 

Así pues, bajo U(1), ϕ(x) y ϕ(x + n) tienen transformaciones diferentes:

ϕ0 (x) = eiα(x) ϕ(x)


ϕ0 (x + n) = eiα(x+n) ϕ(x + n).

Para sustraer a ϕ(x) los valores del campo en una vecindad de x, se debe
introducir un factor para las diferentes fases de los elementos de U(1). Para
esto se recurre a un comparador, U (y, x), el cual se define como:
9.3. CAMPO ESCALAR COMPLEJO 189

Figura 9.3: Diferentes grupos unitarios.

U (y, x) −→ U 0 (y, x) = eiα(y) U (y, x)e−iα(x) ,

de manera simultánea con:

ϕ(x) −→ ϕ0 (x) = eiα(x) ϕ(x),

además tiene que ocurrir que U (x, x) = 1. De hecho, en general:

U (y, x) = eiw(y,x) .

Con esta definición, se ve que los objetos ϕ(y) y U (y, x)ϕ(x) tienen la misma
ley de trasnformación:

ϕ(y) −→ ϕ0 (y) = eiα(y) ϕ(y)


h i0
U (y, x)ϕ(x) −→ U (y, x)ϕ(x)
= eiα(y) U (y, x)e−iα(x) eiα(x) ϕ(x) = eiα(y) U (y, x)ϕ(x),

así pues, ya es posible restarlos de forma válida.


Entonces se define una derivada con sentido geométrico, la derivada cova-
riante, como sigue:
190 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

1
 
µ
n Dµ ϕ(x) = lı́m ϕ(x + n) − U (x + n, x)ϕ(x) .
→0 

Ahora:

U (x + n, x) = 1 + ienµ Aµ (x) + O(2 ),

siendo e una constante real y Aµ (x) un nuevo campo, llamado conexión.


Luego:

1
 
nµ Dµ ϕ(x) = lı́mϕ(x + n) − ϕ(x) − ienµ Aµ (x) + O(2 )
→0 

⇒ nµ Dµ ϕ(x) = nµ ∂µ ϕ(x) − ienµ Aµ (x) = nµ (∂µ − ieAµ (x))ϕ(x),

de esta manera:

Dµ ≡ ∂µ − ieAµ (x), (9.6)

es la derivada covariante asociada a U(1,M4 ) ≡ U(1), el grupo se denota


por U(1) por simplicidad, es ahora un grupo de norma, con variedad soporte
M4 .
Pero, ¿cómo se transforma Aµ (x) bajo U(1)? De la ley de transformación del
comparador:

U 0 (x + n, x) = eiα(x+n) U (x + n, x)e−iα(x)


⇒ 1 + ienµ A0µ (x) + O(2 )
= eiα(x) + inµ ∂µ α(x)eiα(x) + · · · 1 + ienµ Aµ (x) + O(2 ) e−iα(x)
h ih i

= 1 + inµ ∂µ α(x) + · · · 1 + ienµ Aµ (x) + · · ·


h ih i

1
 
= 1 + ien Aµ (x) + ∂µ α(x) + · · · ,
µ
e
así que:

1
A0µ (x) = Aµ (x) + ∂µ α(x), (9.7)
e
9.3. CAMPO ESCALAR COMPLEJO 191

esta es la ley de transformación del campo Aµ (x) y se nota que no se trans-


forma covariantemente, de forma análoga a los símbolos de Christoffel, así
que sí es una conexión. A este se le llama campo de norma asociado a
U(1).
Así:

1 1
δAµ (x) = A0µ (x) − Aµ (x) = ∂µ α(x) = (∂µ U )U † ,
e e

siendo U = eiα(x) .
Entonces Dµ ϕ(x) se transforma como ϕ(x), así que pueden ser usados para
construir una lagrangiana. Pero ¿qué invariantes se pueden construir con
Aµ (x)?
A continuación se muestra explícitamente cómo se transforma covariante-
mente la derivada hallada:

(Dµ ϕ)0 (x) = Dµ0 ϕ0 (x) = (∂µ − ieA0µ )eiα(x) ϕ(x)


h 1 i
= ∂µ − ie(Aµ + ∂µ α) eiα(x) ϕ(x)
e
iα(x)
= ∂µ (e ϕ(x)) − (ieAµ + i∂µ α)eiα(x) ϕ(x)
h i
= eiα(x) ∂µ ϕ(x) + 

 − ieAµ ϕ(x) − i(∂
i(∂µ
α)ϕ(x) µ α)ϕ(x)


= eiα(x) (∂µ − ieAµ )ϕ(x),


∴ (Dµ ϕ)0 (x) = eiα(x) (Dµ ϕ)(x).

Entonces (Dµ ϕ)† (Dµ ϕ) es un invariante, pero Aµ Aµ no lo es, pues es el tér-


mino que, a nivel cuántico definiría la masa de la partícula asociada al campo
Aµ . Por lo tanto, invariancia de norma prohíbe el término de masa de
una conexión.
Para formar invariantes que conduzcan al término cinético de Aµ se necesita
la curvatura.
Una forma de calcular la curvatura es por medio del conmutador de la deri-
vada covariante:
192 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

[Dµ , Dν ]ϕ = (Dµ Dν − Dν Dµ )ϕ = Dµ (Dν ϕ) − Dν (Dµ ϕ)


= (∂µ − ieAµ )(∂ν ϕ − ieAν ϕ) − (∂ν − ieAν )(∂µ ϕ − ieAµ ϕ)
= ∂µ∂ν
 e2
ϕ − ie∂µ (Aν ϕ) − ieAµ (∂ν ϕ) −  Aµ Aν ϕ − 
 ∂ν
∂µ
ϕ


e2

+ie∂ν (Aµ ϕ) + ieAν (∂µ ϕ) +  Aν Aµ ϕ


= −ie(∂µ Aν )ϕ + ie(∂ν Aµ )ϕ = −ie(∂µ Aν − ∂nu Aµ )ϕ

de manera tal que:

[Dµ , Dν ] = ie(∂µ Aν − ∂ν Aµ ) ⇒ [Dµ , Dν ] = ieFµν ,

donde ha aparecido de nuevo el tensor electromagnético Fµν .


Ahora, ¿cómo se transforma Fµν bajo U(1)?

0
Fµν = ∂µ A0ν − ∂ν A0µ
 1   1 
= ∂µ Aν + ∂ν α(x) − ∂ν Aµ − ∂µ α(x)
e e
1 
= ∂µ Aν − ∂ν Aµ + ∂ µ∂ −∂ν ∂µ α(x)

ν
e
0
∴ Fµν = ∂µ Aν − ∂ν Aµ = Fµν ,

es decir que es invariante bajo U(1).


La electrodinámica escalar está dada por la siguiente lagrangiana, inva-
riante bajo ISO(1,3) y Ue (1):

1
L = (Dµ ϕ)† (Dµ ϕ) − V (ϕ† , ϕ) − Fµν F µν , (9.8)
4
siendo:

V (ϕ† , ϕ) = m2 ϕ† ϕ + 2(ϕ† ϕ)2 ,

llamado potencial escalar. Esta teoría es renormalizable, de acuerdo con el


criterio de Dyson, i.e. es una teoría predictiva.
9.3. CAMPO ESCALAR COMPLEJO 193

Las ecuaciones de movimiento surgen de:

   
∂L  ∂L ∂L  ∂L
∂µ  †
= ∂µ  =
∂∂µ ϕ ∂ϕ† ∂∂µ ϕ ∂ϕ
 
∂L  ∂L
∂µ  = ,
∂∂µ Aν ∂ν

así, se tiene:

 
∂L ∂  1
= − Fαβ F αβ + · · · 
∂∂µ Aν ∂∂µ Aν 4
1 ∂
= − F αβ Fαβ
2 ∂∂µ Aν
1 ∂  
− F αβ ∂α Aβ − ∂β Aα
2 ∂∂µ Aν

= −F αβ ∂α Aβ = −F αβ δ µα δ νβ = −F µν
∂∂µ Aν
∂L
∴ = −F µν ,
∂∂µ Aν

luego:
194 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

 
∂L ∂ 
= (Dα ϕ)† (Dα ϕ) + · · · 
∂Aν ∂Aν
 
∂  αβ
= η (Dα ϕ)† (Dβ ϕ)
∂Aν
 

† ∂
=η αβ 
(Dα ϕ) (Dβ ϕ) + (Dα ϕ)† (Dβ ϕ)
∂Aν ∂Aν
 
∂ ∂
   
= η αβ (Dα ϕ)† ∂β ϕ − ieAβ ϕ + ∂α ϕ† − ieAα ϕ† (Dβ ϕ)
∂Aν ∂Aν
 
= η αβ − ieδ νβ (Dβ ϕ)† ϕ + ieδ να ϕ† (Dα ϕ)
h i
= −ie (Dν ϕ)† ϕ − ϕ† (Dν ϕ) ,

luego, la ecuación de Lagrange es:


h i
∂µ F µν = ie (Dν ϕ)† ϕ − ϕ† (Dν ϕ) ,

o bien:
h i
∂µ F µν = J ν , J ν ≡ ie (Dν ϕ)† ϕ − ϕ† (Dν ϕ) ,

son las ecuaciones inhomogéneas de Maxwell dinámicas y la 4-corriente.


Por otro lado:

 
∂L ∂ 

= (Dα ϕ)† (Dα ϕ) + · · · 
∂∂µ ϕ ∂∂µ ϕ†
 
∂ 
= (∂α ϕ† + ieAα ϕ† )(Dα ϕ)
∂∂µ ϕ†
= δ µα (Dα ϕ) = Dµ ϕ,

y en cuanto a la otra derivada:


9.4. EL CAMPO DE PROCA 195

 
∂L ∂ 

= (∂α ϕ† + ieAα ϕ† )(Dα ϕ) − V (ϕ† , ϕ)
∂ϕ ∂ϕ†
∂V
= ieAµ (Dµ ϕ) − ,
∂ϕ†

de esta forma:

∂V
∂µ Dµ ϕ = ieAµ (Dµ ϕ) −
∂ϕ†
∂V
⇒ (∂µ − ieAµ )(Dµ ϕ) = − †
∂ϕ
∂V
∴ Dµ D µ ϕ + = 0,
∂ϕ†

como caso particular, tómese V = m2 ϕ† ϕ, luego:

Dµ Dµ ϕ + m2 ϕ = 0 ⇔ (D2 + m2 )ϕ(x) = 0 ⇔ ( + m2 )ϕ(x) = 0,

es el caso libre.
La ecuación para el campo ϕ† (x) se obtiene por conjugación compleja.

9.4. El campo de Proca


Considérese la siguiente lagrangiana:

1 1
L = − Zµν Z µν + m2 Zµ Z µ , (9.9)
4 2
en donde se tiene que:

Zµν = ∂µ Zν − ∂ν Zµ = −Zνµ .
196 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

Las ecuaciones de movimiento son:

 
∂L  ∂L
∂µ  =
∂∂µ Zν ∂Zν
∂L ∂L
= −Z µν = m2 Z ν
∂∂µ Zν ∂Zν

de esta forma:

∂µ Z µν + m2 Z ν = 0, (9.10)

esta es la ecuación de Proca.


Contrayendo la ecuación anterior con ∂ν :

µν
∂ν
 ∂µZ

+ m2 ∂ν Z ν =0
µ
⇒ ∂µ Z = 0,

aquí m 6= 0, esta es la condición de transversalidad.


Entonces, la ecuación original toma la forma:

∂µ Z µν + m2 Z ν = 0 ⇒ ∂µ (∂ µ Z ν − ∂ ν Z µ ) + m2 Z ν = 0
⇒ ( + m2 )Z µ = 0.

En el caso de Mawxell, J ν = 0, se tiene:

Aν − ∂ ν (Aµ Aµ ) = 0.

Pero se debe tomar en cuenta que Aµ (x) está definido hasta una transforma-
ción de norma:

1
A0µ (x) = Aµ (x) + ∂µ α(x).
e
9.4. EL CAMPO DE PROCA 197

Resulta que siempre es posible hallar una α(x) tal que:

1
∂µ A0µ = ∂µ Aµ + α(x)
e
⇒ α(x) = −e∂µ Aµ .

Las ecuaciones de Maxwell toman la forma:

Aµ = 0 ∂µ Aµ = 0.

9.4.1. Soluciones a las ecuaciones de Proca y de Max-


well
Se comienza con la ecuación de Proca:

( + m2 )Zµ (x) = 0, ∂µ Z µ = 0,

y se proponen soluciones de la forma:

Zµ (x) = µ (k, λ)eik·x , k · x = kµ xµ ,

siendo µ el vector de polarización, λ enumera.


Sustituyendo en las ecuaciones de movimiento:

(−k 2 + m2 )µ (k, λ)eik·x = 0, ikµ µ eik·x = 0


⇒ k 2 = m2 , k ·  = 0,

la primera ecuación es la condición de capa de masa, en tanto que la


segunda es la condición de transversalidad.
En el caso electromagnético:

k2 = 0 k ·  = 0.
198 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

9.4.2. Estados de polarización


Se trata de hallar todas las soluciones linealmente independientes de la con-
dición de transversalidad:

k µ µ (k, λ) = 0 ⇔ k · (k, λ) = 0 (1)

Es conveniente hallar las soluciones en un marco de referencia inercial es-


pecial, y después obtener las soluciones en cualquier otro marco mediante
una transformación de Lorentz. Este marco, llamado marco de reposo, se
define por:

k = (k0 , ~0) = (m, 0, 0, 0), k0 = m.

Entonces, la ecuación (1) implica:

k 0 0 − ~k · ~ ⇒ k 0 0 = 0,

con ~ completamente arbitrario. En general existen tres 3-vectores (complejos,


en general): ~(1) , ~(2) y ~(3) , los cuales se pueden elegir ortogonales:

(2) ~λ~λ0 = δλλ0 , λ, λ0 = 1, 2, 3.

En el marco de reposo, se pueden elegir las tres soluciones linealmente inde-


pendientes de (1) como:

(3) λ = (0,~λ ), λ = 1, 2, 3.

Esto, a nivel cuántico, corresponde a las tres posibles orientaciones de una


partícula vectorial.
Un ejemplo explícito de estas soluciones es:

(1) = (0, 1, 0, 0), (2) = (0, 0, 1, 0), (3) = (0, 0, 0, 1).

Nótese que (2) se puede escrbir de forma covariante como:


9.4. EL CAMPO DE PROCA 199

Figura 9.4: Representación de los vectores ~.

0
λ · λ ∗ = −δλλ0 , (4)

entonces, la ecuación de transversalidad:

k µ µ (k, λ) = 0,

que es invariante bajo SO(1,3), mantendrá su forma si se pasa a un nuevo


marco de referencia en el cual k µ = (k0 , ~k), k 2 = m2 y µ = µ (k, λ) más
generales que en (3).
Empero, se podrán encontrar los µ (k, λ) más generales sin necesidad de
aplicar la transformación de Lorentz.
Para tal fin se eligen tres vectores reales: ~(k, λ), λ = 1, 2, 3, tales que:
Una solución de k µ µ (k, λ) = 0, puede ser escrita como:

 
(k, 1) = 0,~(k, 1)
 
(k, 2) = 0,~(k, 2)
|~k| ~k
 
(k, 3) = a ,a , a > 0.
k0 |~k|

En efecto, estas soluciones satisfacen la condición de transversalidad:


200 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

k µ µ = 0, k 0 0 (k, λ) − ~k · ~(k, λ) = 0,

lo cual es trivial para λ = 1, 2. Para λ = 3:

(k, 3) · (k, 3) = −1 ⇔ 20 − ~(k, 3) · ~(k, 3) = −1


|~k|2 |~k|2
 
⇒ a2 − = −1
k02 |~k|2
|~k|2
 
⇒ a2 − 1 = −1, k 2 = k02 − ~k 2 = m2 ⇒ ~k 2 = k02 − m2
k02
 2 ~2 
2 k0 − k m2 k0
⇒a = +1 ⇒ =1 ∴a2 a=
k02 k02 m
~
|k| k0 ~k

µ µ
⇒  (k, 3) = L (k) = , ,
m m |~k|

y en resumen se tiene:
   
µ (k, 1) = 0,~(k, 1) , µ (k, 2) = 0,~(k, 2) ,

son los vectores de polarización lineal transversal. Además:

|~k| k0 ~k
 
µL (k) = , ,
m m |~k|

corresponde a polarización longitudinal.


Ahora obsérvese lo siguiente:

n̂ × ~(k, 1) = ~(k, 2), n̂ × ~(k, 2) = −~(k, 1).

Por otra parte, se recuerda que los generadores de SO(3) están dados por:

     
0 0 0 0 0 i 0 −i 0
T1 = 0 0 −i

, T2 =  0 0 0

, T3 =  i 0 0

.
0 i 0 −i 0 0 0 0 0
9.4. EL CAMPO DE PROCA 201

La helicidad, u operador helicidad, se define por:

h(k) = n̂ · T~
 
3 0 −n3 n2

X
⇒ h(k) = ni Ti = i n3

0 −n1 
 = h (k).
i=1 n2 n1 0

Sea ~ un vector arbitrario, visto como columna. Así:

    
0 −n3 n2 1 n2 3 − n3 2
h(k)~ = i  n3

0 −n1  2  = i n3 1 − n1 3 
  

−n2 n1 0 3 n1 2 − n2 1
∴ h(k)~ = i(n̂ × ~).

Entonces:

 
h(k)~(k, 1) = i n̂ × ~(k, 1) = i~(k, 2)
 
h(k)~(k, 2) = i n̂ × ~(k, 2) = −i~(k, 1)
 
h(k)~(k, 3) = h(k)~L (k) = i n̂ × ~L (k) = 0.

Se definen los siguientes vectores complejos:

1
 
~(k, +) = √ ~(k, 1) + i~(k, 2)
2
1
 
~(k, −) = √ ~(k, 1) − i~(k, 2) ,
2
los cuales son llamados polarizaciones circulares. Entonces es inmediato
que:

h(k)~(k, +) = (+1)~(k, +)
h(k)~(k, −) = (−1)~(k, −)
h(k)~L (k) = 0~L (k).
202 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

Los anteriores son los tres posibles estados de espín para una partícula vec-
torial con masa.
Los vectores de polarización satisfacen la relación de completetiud:

3
kµ kν
µ (k, λ)∗ν (k, λ) = −ηµν +
X
Pµν = ,
λ=1 m2

y como Pµν es un tensor de rango 2, se propone:

Pµν = Aηµν + Bkµ kν ,

contrayendo con η µν y k µ k ν , se tiene:

4A + k 2 B = η µν Pµν
k 2 A + k 4 B = k µ k ν Pµν , k 2 = m2 ,

y por otro lado:

3
η µν Pµν = (k, λ)∗ (k, λ) = −3,
X

λ=1

por ortogononalidad, y también:

3
k µ k ν Pµν = k · (k, λ)k · ∗ (k, λ) = 0,
X

λ=1

por condición de transversalidad. Por lo tanto:

4A + m2 B = −3 A + m2 B = 0
1
∴ A = −1, B = 2.
m

Se ha visto que bajo x0 = Λx, un campo escalar se transforma como:


9.4. EL CAMPO DE PROCA 203

ϕ0 (x) = ϕ(Λ−1 x0 ),

pero un vector, como Z µ (x), lleva además una orientación en el espacio-


tiempo, la cual debe ser rotada o boosted, esto es:

bajo SO(3): Zi (x) −→ Zi0 (x) = Oij Zj (O−1 x)


bajo SO(1,3): Zµ (x) −→ Zµ0 = Λµν Zν (Λ−1 x).

9.4.3. Electrodinámica vcetorial

Considérese un campo vectorial complejo:

1 1
   
Wµ = √ Wµ1 + iWµ2 Wµ† = √ Wµ1 − iWµ2 ,
2 2

siendo los Wµi (x) campos reales.


La siguiente lagrangiana es invariante bajo ISO(1,3) y Ue (1) global:

1 † µν
L = − Wµν W + m2 Wµ† W µ , (9.11)
2

siendo aquí:

Wµν = ∂µ Wν − ∂ν Wµ .

Bajo Ue (1):

Wµ0 (x) = eiα Wµ (x) Wµ0† (x) = e−iα Wµ† (x)


0 0†
⇒ Wµν (x) = eiα Wµν (x) Wµν (x) = e−iα Wµν

(x).

Las ecuaciones de movimiento son:


204 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

   
∂L  ∂L ∂L  ∂L
∂ † = ∂ =
∂∂µ Wµ ∂Wµ† ∂∂µ Wµ ∂Wµ
⇒ ∂µ W µν + m2 W ν = 0, ∂µ W †µν + m2 W †ν = 0
⇒ ( + m2 )W µ = 0, ∂µ W µ = 0, ( + m2 )W †µ = 0, ∂µ W †µ = 0.

Si ahora se asume que α = α(x), entonces Wµν (x) ya no es más un objeto


covariante. El objeto que se transforma covariantemente es:

Dµ Wν − Dν Wµ , Dµ = ∂µ − ieAµ ,

entonces la teoría que es invariante resulta ser:

1 †   1
L=− Dµ Wν − Dν Wµ Dµ W ν − Dν W µ + m2 Wµ† W µ − Fµν F µν . (9.12)
2 4

Se observa que teoría de renormalización permite más términos, por ejemplo:

Fµν W µ W ν ,

el cual surge de manera natural en el contexto de la teoría electrodébil, dada


por el grupo SU(2)×Ue (1), esto es, aparece de una teoría de Yang-Mills.
Otro de los términos permitidos por teoría de renormalización es:
  
Wµ† Wν − Wµ Wν† W †µ W ν − W µ W †ν ,

el cual surge de SU(2) en el contexto de la teoría electrodébil.


Así, la electrodinámica vectorial puede anotarse mediante la siguiente lagran-
giana:

1 †   1
L=− Dµ Wν − Dν Wµ Dµ W ν − Dν W µ − V (W † , W ) − Fµν F µν
2 4
†µ ν
+keFµν W W , (9.13)
9.5. EL CAMPO DE DIRAC 205

siendo:

λ   
V (W † , W ) = m2 Wµ† W µ + e2 Wµ† Wν − Wµ Wν† W †µ W ν − W µ W †ν .
4

9.5. El campo de Dirac


El campo de Dirac se transforma bajo la representación espinorial del grupo
SO(1,3).
En esta representación se introducen cuatro matrices γ N , de dimensión 24/2 ×
24/2 = 4, las cuales satisfacen el álgebra de Clifford:

{γ µ , γ ν } = 2η µν .

Los generadores de SO(1,3) en esta representación se definen por:

i
S µν = [γ µ , γ ν ].
4

Esta es una representación de SO(1,3), ya que satisface el álgebra de Lie del


grupo:

[J µν , J σρ ] = i(η νσ J µρ − η µσ J νρ − η νρ J µσ − η µρ J νσ ).

Dado que, bajo el grupo los generadores se transforman como 2-tensores, se


sigue, por consistencia en la definición de S µν , que las γ µ se transforman
como 1-tensores.
Además de las γ µ , existe una matriz independiente dada por:

i
γ5 ≡ iγ 0 γ 1 γ 2 γ 3 = µνσρ γ µ γ ν γ σ γ ρ ,
4!
y es un 0-tensor.
Directamente de su definición, se halla que:
206 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

{γ5 , γ µ } = 0 (γ5 )2 = 1,

pues (γ0 )2 = 1, (γ i )2 = −1. Así que las γ µ junto con la γ5 forman otra álgebra
de Clifford:

{γ M , γ N } = 2η M N , M, N = 0, 1, 2, 3, 4, 5,

en un espacio-tiempo de dimensión 5, SO(1,4).


En 4 dimensiones, la matriz γ5 permite definir quiralidad mediante los pro-
yectores:

1 1
PL = (1 − γ5 ) PR = (1 + γ5 ),
2 2
cuyas propiedades son:

PL + PR = 1, (PL )2 = PL , (PR )2 = PR , PL PR = 0.

Sea la transformación de Lorentz:

x0µ = (Λx)µ = Λµν xν ,

entonces la representación espinorial de SO(1,3), la cual es de dimensión 4,


debe satisfacer:

L(Λ)L(Λ) = L(ΛΛ),

con Λ y Λ dos transformaciones de Lorentz. Esto es:

i µν
L(Λ) = e 2 ωµν S .

En el caso de una transformación infinitesimal:

i
L(Λ) = 1 + ωµν S µν .
2
9.5. EL CAMPO DE DIRAC 207

En esta representación, el grupo actúa sobre objetos de 4 componentes:

ψ1 (x)
 
ψ (x)
2
ψ(x) =  ,

ψ3 (x)

ψ4 (x)

siendo ψ(x) el espinor de Dirac y ψα (x) complejos en general.


Bajo SO(1,3):

ψ(x) −→ ψ 0 (x) = L(Λ)ψ(Λ−1 x).

Un punto importante es el de cómo pueden multiplicarse dos espinores para


obtener un invariante de SO(1,3). Se intenta con:
 †  
ψ † ψ = L(Λ)ψ L(Λ)ψ = ψ † L† (Λ)L(Λ)ψ.

Se ve que si Λ = O ∈ SO(3), entonces L† (Λ) = L† (O) = L−1 (O). Sin


embargo, si Λ corresponde a un boost, L(Λ) no es unitaria: L† (Λ) 6= L−1 (Λ),
pues S 0i no es hermítico (S 0i† = −S 0i ), sino que es antihermítico:

i i †
S 0i† = − [γ 0 , γ i ]† = − γ 0 γ i − γ i γ 0
4 4
i  i† 0†  i  
= − γ γ − γ 0† γ i† = − (−γ i )γ 0 − γ 0 (−γ i )
4 4
∴ S 0i† = −S 0i .

Pero esto no lo satisface, pues ya se ha asumido que:

S ij† = S ij .

La solución del problema consiste en introducir el siguiente espinor:

ψ(x) ≡ ψ † (x)γ 0 .

Así, bajo una transformación infinitesimal:


208 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

0 i i† i
ψ = (1 + ωµν S µν )ψ γ 0 = ψ † 1 − ωµν (S µν )† γ 0 ,
h  
2 2
y cuando µ, ν son ambos espaciales:

(S ij )† = S ij , S ij γ 0 = γ 0 S ij ,

luego:

0 i
ψ = ψ(1 − ωij S ij ) = ψL−1 (Λ),
2
en el caso en que µ = 0 y ν = i, entonces:

(S 0i )† = −S 0i ,

pero:

(S 0i )† γ 0 = −S 0i γ 0 = γ 0 S 0i ,

entonces en general:

0 i
ψ = ψ(1 − ωµν S µν ) = ψL−1 (Λ).
2
Por lo tanto:

0
ψ (x)ψ 0 (x) = ψ(Λ−1 x)L−1 (Λ)L(Λ)ψ(Λ−1 x) = ψ(Λ−1 x)ψ(Λ−1 x),

se nota que este objeto sí es invariante.


Ahora nótese lo siguiente:

i i
L−1 (Λ)γ ρ L(Λ) = (1 − ωµν S µν )γ ρ (1 + ωµν S µν )
2 2
i
= γ ρ − ωµν [S µν , γ ρ ]
2
i  
= γ ρ − ωµν (−i) η νρ γ µ − η µρ γ ν ,
2
9.5. EL CAMPO DE DIRAC 209

y como ωµν y el tensor entre paréntesis son antisimétricos:

L−1 (Λ)γ ρ L(Λ) = γ ρ − ωµν γ µ η νρ = γ ρ − ωµρ γ µ


= (δ ρσ + ω ρσ )γ σ = Λρσ γ σ ,

que es un 4-vector. De esta manera:

0
ψ γ µ ψ 0 = ψL−1 (Λ)γ µ L(Λ)ψ = Λµν ψγ ν ψ.

Se define el siguiente 2-tensor:

i 1
σ µν = [γ µ , γ ν ] = S µν ,
2 2
así que:

0
ψ σ µν ψ 0 = Λµλ Λνρ ψσ λρ ψ.

Si se ignoran los efectos de quiralidad (la γ5 ), se tendrán los siguientes objetos


covariantes de SO(1,3):

ψ 1ψ ψγ µ ψ ψσ µν ψ,

que son un 0-tensor, 1-tensor y 2-tensor, respectivamente.


La siguiente lagrangiana es invariante ante SO(1,3):

L = iψγ µ ∂µ ψ − mψψ, (9.14)

siendo mψψ el escalar de Lorentz. Nótese que:

0
ψ γ µ ∂µ ψ 0 = ψL−1 (Λ)γ µ L(Λ)∂µ0 ψ
= Λµν ψγ ν ∂µ0 ψ = Λµν Λµλ γ ν ∂λ ψ
= Λ−1
µ
ν
Λµλ ψγ µ ∂λ ψ = (Λ−1 Λ)νλ ψγ ν ∂λ ψ
= ψγ µ ∂µ ψ,
210 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

es invariante.
L también es invariante ante transformaciones globales de Ue (1):

0
ψ 0 (x) = eiα ψ(x), ψ (x) = e−iα ψ(x).

Las ecuaciones de movimiento serán dadas por:

   
∂L  ∂L ∂L  ∂L
∂µ  = ∂µ  =
∂∂µ ψ α ∂ψ α ∂∂µ ψα ∂ψα

⇒ (i∂/ − m)ψ(x) = 0 ψ(x)(i∂/ + m) = 0,

la primera es la ecuación de Dirac, y ∂/ ≡ γ µ ∂µ . Más adelante se estudiarán


las soluciones de la ecuación de Dirac.
Si ahora se permiten transformaciones locales de Ue (1):

∂µ −→ Dµ = ∂µ − ieAµ ,

lo cual conduce a una nueva lagrangiana, invariante bajo ISO(1,3) y Ue (1):

1
/ − m)ψ − Fµν F µν ,
L = ψ(iD (9.15)
4
siendo:

/ = γ µ Dµ = ∂/ − ieA.
D /

Esta es electrodinámica espinorial. A nivel cuántico se le llama elec-


trodinámica cuántica. Renormalización no permite más términos en L.
Acerca de los términos permitidos por simetrías, se tienen:

ψσµν ψF µν (dipolo magnético, surge como fluctuación cuántica)

ψγν ψ∂µ F µν (anapolo, desaparece al usar ∂µ F µν , del fotón libre)


9.5. EL CAMPO DE DIRAC 211

Las ecuaciones de movimiento están dadas por:

   
∂L  ∂L ∂L  ∂L
∂µ  = ∂µ  =
∂∂µ ψ α ∂µ ψ α ∂∂µ ψα ∂µ ψα
 
∂L  ∂L
∂µ  = ,
∂∂µ Aν ∂Aν

de la primera (y de manera similar para la segunda) resulta:

/ − m)ψ(x) = 0.
(iD

De la tercera ecuación:

∂L ∂L
= −F µν = eψγ ν ψ = −J ν
∂∂µ Aν ∂Aν
∴ ∂µ F µν = J ν ,

se reconocen las ecuaciones dinámicas de Maxwell.


Existen al menos tres representaciones diferentes de las matrices de Dirac,
pero todas son equivalentes, ya que se pueden relacionar a través de una
transformación de similaridad. Una de las más usadas es la representación
de Dirac, dada por:

1
! !
0 0 i 0 σi
γ = γ = ,
0 −1 −σ i 0

siendo 0, 1 las matrices cero e identidad 2 × 2, y σ i las matrices de Pauli. Se


ve:

γ 0† = γ 0 γ i† = −γ i ,

y además:

(γ 0 )2 = 14×4 (γ i )2 = −14×4 ⇒ {γ µ , γ ν } = 2η µν .
212 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

9.5.1. Soluciones a la ecuación de Dirac


La ecuación libre de Dirac es:

(i∂/ − m)ψ(x) = 0.

En el marco de reposo, la ecuación toma la forma:

µ
(iγ 0 ∂0 − m)ψ(x) = 0 ∼ eipµ x
∂ψ dψ
⇒ iγ0 0 = 0 ⇔ i 0 = mγ 0 ψ
∂x dx
ψ1 1 0 0 0 ψ1
    

d ψ2 
 
0 1 0
 0  ψ2 
 
⇒i 0   = m  ,

dx ψ3   0 0 −1 0   ψ3 
ψ4 0 0 0 −1 ψ4

por inspección directa se puede ver que existen cuatro soluciones de la forma:

1 0 0 0
       
0 1 0 0
ψ 1 = e−imx0   ψ 2 = e−imx0   ψ 3 = eimx0   ψ4 = eimx0   ,
       
0 0 1 0
0 0 0 1

ψ (1,2) son soluciones con energía positiva, mientras que ψ (3,4) son soluciones
con energía negativa.
Estas soluciones tienen su origen en la relación de Einstein:

c = 1, E 2 = p~2 + m2 en reposo: E 2 = m2 ⇔ E = ±m.

La ecuación de Dirac, vista como ecuación de onda, resuelve el problema


de la interpretación probabilística presente en la ecuación de Klein-Gordon,
pero persiste el problema de las energías negativas.
Las cuatro soluciones se pueden sintetizar en:
9.5. EL CAMPO DE DIRAC 213

0
ψ (r) = ω r (0)e−ir mx , r = 1, 2, 3, 4, 1,2 = +1, 3,4 = −1,

donde los ωr (0) son los espinores de Dirac para el electrón en reposo:

1 0 0 0
       
0 1 0 0
ω 1 (0) =   ω2 =   ω3 =   ω4 =  .
       
0 0 1 0
0 0 0 1

A nivel cuántico, ω (1,2) describen los estados de espín del electrón, mientras
que ω (3,4) describen al positrón.
Considérese una rotación por un ángulo θ3 en torno al eje x3 :

x0µ = Λµν xν −→ x0i = Oij (θ3 )xj ,

se recuerda que:

i
  µν
L O(θ3 ) = e 2 ωµν S ,

en donde se tiene:
214 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

i i 
ωµν S µν = ω12 S 12 − ω21 S 21
2 2
i θ3
= iω12 S 12 = iθ3 [γ 1 , γ 2 ] = − (γ 1 γ 2 − γ 2 γ 1 )
 4 4
! ! ! !
θ3  0 σ1 0 σ2 0 σ2 0 σ1 
=− −
4  −σ1 0 −σ2 0 −σ2 0 −σ1 0 
 ! ! 
θ3  −σ1 σ2 0 −σ2 σ1 0 
=− −
4 0 −σ1 σ2 0 −σ2 σ1 
! !
θ2 [σ1 , σ2 ] 0 [ σ1 , σ2 ] 0
= = θ3 2 2
4 0 [σ1 , σ2 ] 0 [ σ21 , σ22 ]
! !
i σ23 0 iθ3 σ3 0
= θ3 =
0 i σ23 2 0 σ3
σ12
>

1 0 0  0
 

iθ3  0 −1  0 0

=

2 0 0 1 0 
  

00 0 −1
  θ3
⇒ L O(θ3 ) = ei 2 σ12 .

Además, se nota que:

σ12 ω 1 (0) = (+1)ω 1 (0) σ12 ω 2 (0) = (−1)ω 2 (0)


σ12 ω 3 (0) = (+1)ω 3 (0) σ12 ω 4 (0) = (−1)ω 4 (0).

De forma análoga:

!
  θ2 σ 0
L O(θ2 ) = e i σ
2 13 , σ13 = 2
0 σ2
!
  θ1 σ 0
L O(θ1 ) = e i σ
2 23 , σ23 = 1 .
0 σ1
9.5. EL CAMPO DE DIRAC 215

Se define la helicidad como:


!
1 ~σ · p̂ 0 p~
h= , p̂ = . (9.16)
2 0 ~σ · p̂ |~p|

Se nota que:
!
2 1 (~σ · p̂)2 0
h = ,
4 0 (~σ · p̂)2

pero se nota que:

(~σ · p̂)2 = p̂i p̂j σi σj


1 1
= p̂i p̂j (σi σj + σj σi ) = p̂i p̂j {σi , σj }
2 2
1
= p̂i p̂j (2δij ) = p̂ · p̂ = 1,
2

de manera tal que:

1
(1) h2 = 14×4 .
4
Además, se espera que:

hψ r (x) = λψ r (x),

luego:
   
h2 ψ r (x) = h hψ r (x) = h λψ r (x) = λhψ r (x) = λ2 ψ r (x),

y tomando en cuenta la ecuación (1):

1 1
λ2 = ⇔ λ=± ,
4 2
son los estados de helicidad positiva y negativa.
216 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

La notación de uso común es:

U (1,2) (p) ≡ ω (1,2) (p) enrgía positiva


(1,2) (3,4)
V (p) ≡ ω (p) energía negativa

En un marco de referencia arbirtario, las soluciones de la ecuación de Dirac


son:

µ
ψ (1,2) (x) = U (1,2) (p)e−ipµ x
µ
ψ (3,4) (x) = V (1,2) (p)eipµ x .

Sustituyendo las soluciones de energía positiva en la ecuación de Dirac:

(i∂/ − m)ψ(x) = 0 ⇒ (p/ − m)U (p) = 0,

y si se hace lo mismo con las soluciones de energía negativa:

(p/ + m)V (p) = 0.

Ahora:

(p/ − m)U (p) = 0 ⇒p/U (p) = mU (p)


⇒ p/p/U (p) = mp/U (p) = m2 U (p)
1
p/p/ = pµ pν γ µ γ ν = pµ pν (γ µ γ ν + γ ν γ µ )
2
1 1
= pµ pν {γ µ , γ ν } = pµ pν (2η µν )
2 2
2
⇒ p/p/ = p ∴ p2 = m2 ,

de nuevo la condición de capa de masa. Con la solución de energía negativa


se obtiene el mismo resultado.
Ahora, aplicando (i∂/ + m) sobre la ecuación de Dirac:
9.6. TEORÍAS DE YANG-MILLS 217

(i∂/ + m)(i∂/ − m)ψ(x) = 0 ⇔ (−∂/∂/ − m2 )ψ(x) = 0


⇒ (∂/∂/ + m2 )ψ(x) = 0 ⇒ (γ µ γ ν ∂µ ∂ν + m2 )ψ(x) = 0
1 µ ν
 
ν µ 2
⇒ (γ γ + γ γ )∂µ ∂ν + m ψ(x) = 0
2
2
⇒ ( + m )ψ(x) = 0 es decir ⇒ ( + m2 )ψα (x) = 0,

la ecuación del Klein-Gordon.

9.6. Teorías de Yang-Mills


El grupo unitario SU(N), cuyos elementos son las matrices unitarias N × N
con determinante +1, es definido por la siguiente álgebra de Lie:

[T a , T b ] = if abc T c .

Los elementos de este grupo se anotan como:

a
α) = eiαa T ,
U (~

siendo N 2 − 1 parámetros del grupo αa .


Dos representaciónes del grupo son especialmente importantes:

Representación fundamental: la de más baja dimensión, i.e. N .

Representación adjunta: tiene dimensión N 2 − 1, es decir, igual al


número de parámetros y es real.

En la representación adjunta, los generadores son dados por las constantes


de estructura:

(T b )ac = if abc .
218 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

En la representación fundamental, el grupo actúa sobre vectores complejos


de N componentes. Se asume que se tiene un N-plete de campos escalares
complejos:
 
ψ1 (x)
 . 
ψ(x) =  .. 

,
ψN (x)

siendo los ψi (x) campos complejos. Este, al actuar en conjunto con SU(N),
se transforma como:

a
ψ 0 (x) = U ψ(x), U ∈ SU(N), U = eiαa T
ψ 0† (x) = ψ † (x)U † ,

así que ψ † ψ es un escalar.


Entonces la siguiente lagrangiana es invariante ante ISO(1,3) y SU(N):

L = (∂µ ψ)† (∂ µ ψ) − V (ψ † , ψ), (9.17)

con:

V (ψ † , ψ) = m2 ψ † ψ + λ(ψ † ψ)2 .

Ya que las αa son constantes, ∂µ ψ se transforma como ψ. Las ecuaciones de


movimiento son del tipo Klein-Gordon:

∂V ∂V
ψ(x) = − ψ † (x) = − .
∂ψ † ∂ψ

Ahora se asume que αa = αa (x), es decir, se habla de SU(N,M4 ), el cual es


el grupo de norma, que por simplicidad suele anotarse como SU(N).
Entonces, en este caso:

∂µ −→ Dµ = ∂µ − igAµ ,
9.6. TEORÍAS DE YANG-MILLS 219

siendo g la constante de acomplamiento del grupo y la conexión Aµ =


T a Aaµ .
De esta manera:

a
(Dµ ψ)† (x) = U Dµ ψ(x), U = U (x) = eiαa (x)T .

Es también posible, a partir de esto, ver cómo se transforma Aµ (x):

Dµ0 ψ 0 = U Dµ ψ ⇒ (∂µ − igA0µ )U ψ = U (∂µ ψ − igAµ ψ)


⇒ ∂µ U ψ − igA0µ U ψ = −igU Aµ ψ
⇒ ∂µ U − igA0µ U = −igU Aµ
1
⇒ − ∂µ U + A0µ U = U Aµ
ig
1
⇒ − (∂µ U )U † + A0µ = U Aµ U † ,
ig

de esta manera:

i
A0µ = U Aµ U † − (∂µ U )U † , (9.18)
g

esta es unaa transformación de norma.


Ahora, considérese una transformación infinitesimal:

U = 1 + iαa T a , αa infinitesimales,

luego:
220 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

i
A0µ = (1 + iαa T a )Aµ (1 − iαa T a ) − ∂µ (1 + iαa T a ) (1 − iαa T a )

g
1
= Aµ + iαb [T b , Aµ ] + ∂µ αa T a
g
1
⇒ A0a a a a b c b c
µ T = Aµ T + iα Aµ [T , T ] + ∂µ α T
a a
g
1
∴ A0a a
µ = Aµ − f
abc b c
α Aµ + ∂µ αa
g
1 ab
⇒ δAaµ = A0a a
µ − Aµ = (δ ∂µ − gf
abc c
Aµ )αb ,
g

de esta manera:

1
δAaµ = Dµab αb ,
g
siendo la derivada covariante en la representación adjunta:

Dµab ≡ δ ab ∂µ − gf abc Acµ . (9.19)

Se nota que con una diferente definición de U , la derivada cambia y así:

aT a
U = eigα ⇒ δAaµ = Dµab αb .

El objeto covariante es la curvatura, la cual se calcula de manera usual, con


el conmutador de la derivada covariante:

[Dµ , Dν ]ψ(x) = Dµ (Dν ψ) − Dν (Dµ ψ)


= (∂µ − igAµ )(∂ν ψ − igAν ψ) − (∂ν − igAν )(∂µ ψ − igAµ ψ)
= ∂µ ∂ν ψ − ig∂µ (Aν ψ) − igAµ ∂ν ψ − g 2 Aµ Aν ψ − ∂ν ∂µ ψ
+ig∂ν (Aµ ψ) + igAν ∂µ ψ + g 2 Aν Aµ ψ
= −ig(∂µ Aν )ψ + ig(∂ν Aµ )ψ − g 2 (Aµ Aν − Aν Aµ )ψ
 
∴ [Dµ , Dν ] = −ig ∂µ Aν − ∂ν Aµ − ig[Aµ , Aν ]
⇒ [Dµ , Dν ] = −igFµν ,
9.6. TEORÍAS DE YANG-MILLS 221

en donde el tensor de curvatura:

Fµν = ∂µ Aν − ∂ν Aµ − ig[Aµ , Aν ],

o en componentes:

a
Fµν = ∂µ Aaν − ∂ν Aaµ + gf abc Abµ Acν , (9.20)

es el tensor de Yang-Mills, antisimétrico y de 6(N 2 − 1) componentes.


Usando la ley de transformación de Aµ , se halla que:

0
Fµν = U Fµν U † .

En el caso de una transformación infinitesimal:

0
Fµν = (1 + iαa T a )F µν (1 − iαa T a )
= Fµν + iαa [T a , Fµν ]
0a a
⇒ Fµν T = T a Fµν
a
+ iαb Fµν
c
[T b , T c ]
a 0a a
δFµν = Fµν − Fµν = −f abc αb Fµν
c

a
∴ δFµν = −f abc αb Fµν
c
.

aT a
De esta forma, si U = eiα , entonces:

1
δAaµ = Dµab αb a
δFµν = f abc Fµν
b
αc ,
g
aT a
y si U = eigα :

δAaµ = Dµab αb a
δFµν = gf abc Fµν
b
αc .

Nótese que la traza es invariante:

0
T r[Fµν F 0µν ] = T r[U Fµν U † U F µν U † ] = T r[Fµν F µν ].
222 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

Se puede construir la lagrangiana renormalizable invariante bajo ISO(1,3) y


SU(N):

1
L = (Dµ ψ)† (Dµ ψ) − V (ψ † , ψ) − T r[Fµν F µν ],
2
pero además:

1 a µν
T r[Fµν F µν ] = Fµν
a
Fbµν T r[T a T b ] = Fµν Fa ,
2
pues la traza de los generadores es igual a 21 δ ab , luego:

1 a µν
L = (Dµ ψ)† (Dµ ψ) − V (ψ † , ψ) − Fµν Fa . (9.21)
4
Las ecuaciones de movimiento:

   
∂L  ∂L ∂L  ∂L
∂µ  † = ∂µ  =
∂∂µ ψr ∂ψr† ∂∂µ ψr ∂ψr
 
∂L  ∂L
∂µ  = ,
∂∂µ Aaν ∂Aν

así pues, se tiene:

 
∂L ∂  1 b αβ  1 αβ ∂ b
a
= a
− Fαβ Fb = − Fb a
Fαβ
∂∂µ Aν ∂∂µ Aν 4 2 ∂∂µ Aν
1 ∂
 
= − Fbαβ ∂α Abβ − ∂β Abα + gf bcd Acα Adβ
2 ∂∂µ Aaν
1 ∂  
= − Fbαβ ∂ A
α β
b
− ∂ A
β α
b
2 ∂∂µ Aaν
1
= − Fbαβ (δ µα δ νβ − δ µβ δ να )δ ab
2
= −Fbαβ δ ab δ µα δ νβ = −Fbµν .
9.6. TEORÍAS DE YANG-MILLS 223

Y del otro lado de la ecuación:

 
∂L ∂  1 b αβ 
a
= a
(Dα ψ)† (Dα ψ) − Fαβ Fb
∂Aν ∂Aν 4
 
∂  1 b αβ 
= a
(∂α ψ − igAbα T b ψ)† (∂ α ψ − igAαb T b ψ) − Fαβ Fb
∂Aν 4
 
∂  1 b αβ 
= a
(∂α ψ † + igAbα ψ † T b )(∂ α ψ − igAαb T b ψ) − Fαβ Fb
∂Aν 4
= igδ ab δ να ψ † T b (Dα ψ) + (Dα ψ)† (−igδ µα δ ab T b ψ)
 
1 ∂
− Fbαβ a  · · · + gf bcd Acα Adβ 
2 ∂Aν
h i 1  
= ig ψ † T a (Dν ψ) − (Dν ψ)† T a ψ − gf bcd Fbαβ δ να δ ac Adβ + Acα δ νβ δ ad
2 
1
h i 
= ig ψ † T a (Dν ψ) − (Dν ψ)† T a ψ − g f bad Fbνβ Adβ + f bca Fbαν Acα
2 
1
h i 
= ig ψ † T a (Dν ψ) − (Dν ψ)† T a ψ − g f bac Fbνµ Acµ + f bca Fbµν Acµ
2
h i 1  
= ig ψ † T a (Dν ψ) − (Dν ψ)† T a ψ − gf abc Fbµν Acµ − Fbνµ Acµ
h 2 i
= ig ψ † T a (Dν ψ) − (Dν ψ)† T a ψ − gf abc Fbµν Acµ .

Luego entonces:

h i
−∂µ Faµν = ig ψ † T a (Dν ψ) − (Dν ψ)† T a ψ − gf abc Fbµν Acµ
h i
⇒ ∂µ Faµν − gf abc Fbµν Acµ = −ig ψ † T a (Dν ψ) − (Dν ψ)† T a ψ
(δ ab ∂µ − gf abc Acµ )Fbµν = J νa ,

de manera tal que:

Dµab Fbµν = J νa , (9.22)

siendo en este caso:


224 9. TEORÍA RELATIVISTA DE CAMPOS CLÁSICOS

h i
J νa ≡ ig (Dν ψ)† T a ψ − ψ † T a (Dν ψ) .

La teoría de Yang-Mills corresponde al caso en donde J νa = 0:

Dµab Fbµν = 0,

en el caso abeliano la ecuación es lineal y es posible resolverla, en este caso


no.
10

Sistemas de campos con


libertad de norma

En teoría de campos, la matriz hessiana se define como:

δ2L
Mab (~x, ~y ) ≡
δ ψ̇a (x0 , ~x)δ ψ̇b (x0 , ~y )
δ2 Z
3
 
= d zL ψ a (z), ∂ ψ
µ a (z)
δ ψ̇a (x0 , ~x)δ ψ̇b (x0 , ~y )
δ bc δ(~z − ~y )
0 
δ Z
∂L ∂ ψ̇c (x, ~z)*
= 0
d3 z 0  0 y)
δ ψ̇a (x , ~x) ∂ ψ̇c (x , ~z)  ∂ ψ̇b (x , ~
δ Z
∂L
= 0
d3 z δ(~z − ~y )
δ ψ̇a (x , ~x) ∂ ψ̇b (x0 , ~z)
Z
3 ∂ 2L ∂ ψ̇c (x0 , ~z)
= dz δ(~z − ~y )
∂ ψ̇c (x0 , ~z)∂ ψ̇b (x0 , ~z) ∂ ψ̇a (x0 , ~x)
Z
∂ 2L
= d3 z δ(~z − ~y )δ(~z − ~x)
∂ ψ̇a (x0 , ~z)∂ ψ̇b (x0 , ~z)
∂ 2L
⇒ Mab (~x, ~y ) = δ(~y − ~x),
∂ ψ̇a (x0 , ~x)∂ ψ̇b (x0 , ~x)
∴ Mab (~x, ~y ) = Mab δ(~x − ~y ),

225
226 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

en donde se ve que:

∂ 2L
Mab = , (10.1)
∂ ψ̇a (x0 , ~x)∂ ψ̇b (x0 , ~x)

determinará la singularidad de la teoría.


Se recuerda que el momento canónico de ϕa (x) se define por:

∂L
πa ≡ ϕ̇ = v(ϕ, π)
∂ ϕ̇a
{ϕa (x), ϕb (y)} = 0 = {πa (x), πb (y)}
{ϕa (x), πb (y)} = δab δ(~x − ~y ).

También se recuerda que la función hamiltoniana:

Z Z
3 3

H= d xH = d x(πa ϕ̇a − L)
ϕ̇=v
H ≡ πa ϕ̇a − L ϕ̇a = {ϕa , H}, π̇a = {πa , H}.

En teoría de campos, las constricciones son funciones que dependen de


ϕa (x) y πa (x) y sus gradientes:
 
Φ = Φ ϕa , πa , ∂i ϕa , ∂i πa , i = 1, 2, 3,

esto significa que, en general, las constricciones están sujetas no a satisfacer


ecuaciones algebraicas, sino ecuaciones diferenciales.
La hamiltoniana primaria será:
Z Z
(1) 3 α
H =H+ d xλ (x)Φ(1)
α (x) = d3 xH(1) ,

siendo la densidad hamiltoniana primaria:

H(1) = H + λα (x)Φ(1)
α (x).
10.1. CONSTRICCIONES DE LA TEORÍA DE MAXWELL 227

La condición de consistencia sobre las constricciones primarias tendrá la for-


ma:

Φ̇(1) (1)
α = {Φα , H
(1)
}≈0
 
Z
β (1)
⇒ d3 y {Φ(1) (1)
α , H(y)} + λ (y){Φα (x), Φβ (y)}
≈0

Z
(1)
⇒ {Φ(1)
α (x), H
(1)
} + d3 yλβ (y){Φ(1)
α (x), Φβ (y)} ≈ 0.

Ahora, sea P la matriz definida por los paréntesis de Poisson de las constric-
ciones:

(1)
Pαβ (~x, ~y ) = {Φ(1)
α (x), Φβ (y)},

se nota que es discreta en α, β y continua en ~x, ~y .


Si el determinante de P es distinto de cero, entonces existe P −1 :
Z Z
d3 zPac (~x, ~z)Pcb−1 (~z, ~y ) = −1
d3 zPac (~x, ~z)Pcb (~z, ~y ) = δab δ(~x − ~y ),

la cual es la definición de matriz inversa.


Pero resulta que no sólo P −1 es la inversa, sino también P −1 + P̂ −1 :
Z
d3 zPac (~x, ~z)P̂cb−1 (~z, ~y ) = 0,

lo cual significa que, en general, la matriz inversa P −1 no es única.

10.1. Constricciones de la teoría de Maxwell


La teoría de Maxwell está dada por:

1
L = − Fµν F µν , Fµν = ∂µ Aν − ∂ν Aµ .
4
228 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

El carácter regular o singular de la teoría lo determinará la matriz hessiana:

Mµν (~x, ~y ) = Mµν δ(~x − ~y )


∂2L ∂2L
 
∂ 2L  02∂ Ȧ0
∂ Ȧ ∂ Ȧ0 ∂ Ȧi 
Mµν = , M= ∂ L ∂2L .
∂ Ȧµ ∂ Ȧν ∂ Ȧi ∂ Ȧ0 ∂ Ȧi ∂ Ȧj

Pero:

1 
L=− F0i F 0i + Fi0 F i0 + Fij F ij ,
4
el último no contiene velocidades, pues Fij = ∂i Aj − ∂j Ai , luego:

1 1 1 2
L = − F0i F 0i + · · · = F0i F0i + · · · = ∂0 Ai − ∂i A0 + · · ·
2 2 2
1 1
= (Ȧi − ∂i A0 )2 + · · · = (Ȧi Ȧi − 2Ȧi ∂i A0 ) + · · · ,
2 2

claramente:

∂ 2L ∂ 2L ∂ 2L
= 0, = 0, = 0,
∂ Ȧ0 ∂ Ȧ0 ∂ Ȧ0 ∂ Ȧi ∂ Ȧi ∂ Ȧ0
de manera tal que:

0 0 0 0
 
0 
M = ,
 
0 
0

así que la teoría es singular.

10.1.1. Hamiltonización de la teoría


Los momentos canónicos están dados por:
10.1. CONSTRICCIONES DE LA TEORÍA DE MAXWELL 229

∂L ∂L
πα (x) = = ,
∂ Ȧα ∂∂0 Aα

pero ya se ha hallado que:

∂L
= −F βα ⇒ πα (x) = −F 0α .
∂∂β Aα

De la antisimetría de F µν se tiene:

π0 (x) = 0 ⇒ Φ(1) (x) = π0 (x) ≈ 0,

como constricción primaria.


Además πi (x) = −F 0i , πi −→ Ei , y también:

πi (x) = −(∂ 0 Ai − ∂ i A0 ) = −Ȧi + ∂ i A0


⇒ Ȧi = πi − ∂ i A0

así que:

Ȧi = πi + ∂i A0 , (10.2)

son las velocidades expresables.


La hamiltoniana primaria está dada por:

Z Z  
(1) 3 (1)
H = d xH = d3 x H + λ(x)Φ(1) (x) ,

donde la hamiltoniana canónica está dada por:


230 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA



H= (πi Ȧi − L)
V
1
= πi (πi + ∂i A0 ) + (2F0i F 0i + Fij F ij )
4
1 1
= πi πi + (−F 0i )(F 0i ) + Fij F ij + πi ∂i A0
2 4
1 1 ij
= πi πi + Fij F + πi ∂i A0 ,
2 4

y nótese lo siguiente:

∂i (πi A0 ) = A0 ∂i πi + πi ∂i A0 ,

lo cual en general es cero, por ser un término de superficie. Luego:

πi ∂i A0 = −A0 ∂i πi ,

hasta un término de superficie.


De esta manera, se puede escribir:

1 1
H = πi πi + Fij F ij − A0 ∂i πi . (10.3)
2 4

Y de la condición de consistencia de Φ(1) :


10.1. CONSTRICCIONES DE LA TEORÍA DE MAXWELL 231

Φ̇(1) = {Φ(1) , H (1) } ≈ 0


Z
(1)
⇒ {Φ (x), d3 yH(1) (y)} ≈ 0
Z
⇒ d3 y{Φ(1) (x), H(1) (y)} ≈ 0
Z  
⇒ d3 y {Φ(1) (x), H(y)} + {Φ(1) (x), λ(y)Φ(1) (y)} ≈ 0
Z
⇒ d3 y{Φ(1) (x), H(y)} ≈ 0
Z
⇒ d3 y{π0 (x), −A0 (y)∂i πi (y)} ≈ 0
Z
⇒ d3 y{A0 (y), π0 (x)}∂i πi (y) ≈ 0
Z
⇒ d3 yδ(~y − ~x)∂i πi (y) ≈ 0
⇒ ∂i πi ≈ 0 ⇒ Φ(2) ≡ ∂i πi ≈ 0,

esta es una constricción secundaria.


La condición de consistencia sobre la constricción secundaria:

Φ̇(2) = {Φ(2) , H (1) } ≈ 0


Z  
⇒ d3 y {Φ(2) , H(y)} + λ(y){Φ(2) (x), Φ(1) (y)} ≈ 0
Z
1
⇒ d3 y{∂i πi (x), Fjk (y)F jk (y)} ≈ 0
4
1 Z
⇒ d3 yFjk (y){∂i πi (x), Fjk (y)} ≈ 0
2Z
1
⇒ ∂i d3 yFjk (y){πi (x), ∂j Ak − ∂k Aj } ≈ 0
2
1 Z h i
⇒ ∂i d3 yFjk (y) {πi (x), ∂j Ak (y)} − {πi (x), ∂k Aj (y)} ≈ 0
2 Z
1 h i
⇒ ∂i d3 yFjk (y) ∂j {πi (x), Ak (y)} − ∂k {πi (x), Aj (y)} ≈ 0
2
232 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

1 Z 3  
⇒ ∂i d yFjk (y) δij ∂k − δik ∂j δ(~y − ~x) ≈ 0
2 Z
1  
⇒ ∂i d3 yδ(~y − ~x) δik ∂j − δij ∂k Fjk (y) ≈ 0
2
1  
⇒ ∂i δik ∂j − δij ∂k Fjk ≈ 0
2
⇒ δjk ∂i ∂j Fjk ≈ 0 ⇒ ∂i ∂j Fji ≈ 0
∴ 0 ≈ 0,

así que no hay más constricciones, i.e. son de primera clase:

{Φ(1) (x), Φ(2) (y)} ≈ 0,

así que la teoría de Maxwell es de norma.


En resumen:

Z
1
S[Aµ ] = d4 xL L = − Fµν F µν
4
δS
=0 ⇒ ∂µ F µν = 0
δAµ
H(1) = H + λ(x)Φ(1) (x)
1 1
= πi πi + Fij F ij + A0 Φ(2) (x) + λ(x)Φ(1) (x).
2 4

La hamiltoniana extendida:

1 1
H = πi πi + Fij F ij + η(x)Φ(2) (x) + λ(x)Φ(1) (x),
2 4
siendo los primeros términos:

1 ~ ~ ~ ·B

~ ,
E·E+B
2
la densidad de energía del campo electromagnético.
10.1. CONSTRICCIONES DE LA TEORÍA DE MAXWELL 233

Nótese también lo siguiente:

1
B = ijk Fjk
2
1 1
⇒ lri Bi = ilr ijk Fjk = (δlj δrk − δlk δri )Fjk
2 2
1
= (Flr − Frl ) = Flr
2
∴ Fij = ijk Bk ,

y se cumple lo antes mencionado.

10.1.2. Generadores de transformaciones de norma

Se sabe que, a nivel de lagrangiana, o espacio de configuración, el campo


electromagnético está sujeto a la siguiente transformación de norma:

δAµ = ∂µ α, α infinitesimal.

Por otra parte, se ha visto que las constricciones de primera clase generan
transformaciones de norma en el espacio fase, las cuales deben estar dadas
por:

δAµ = {Aµ , G} δπµ = {πµ , G},

siendo G el generador, que debe ser una combinación lineal de Φ(1) y Φ(2) :

Z  
G≡ d3 y ∂0 αΦ(1) + αΦ(2) ,

de manera tal que:


234 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

Z
δAµ = d3 y{Aµ (x), ∂0 α(y)π0 (y) + α(y)∂i πi (y)}
Z h i
= d3 y ∂0 α(y){Aµ (x), π0 (y)} + α(y){Aµ (x), ∂i πi (y)}
Z h i
= d3 y ∂0 α(y)δµ0 δ(~y − ~x) + α(y)∂i {Aµ (x), πi (y)}
Z h i
= d3 y ∂0 α(y)δµ0 δ(~y − ~x) + α(y)∂i δµi δ(~y − ~x)
Z h i
= d3 y ∂0 α(y)δµ0 − ∂i α(y)δµi δ(~y − ~x)
= ∂0 α(x)δµ0 − ∂i α(x)δµi ,

por lo tanto:

δA0 = ∂0 α(x) δAi = −∂i α(x)


⇒ δAµ = ∂µ α,

y es claro que:

δπµ = {πµ , G} = 0,

esto sucede debido a que δπ0 = 0, pues Φ(1) = π0 , y es de primera clase.


También sucede que δπi = 0, pues πi = F0i = Ei , y E ~ es invariante de
norma: δFµν = 0, es una cantidad de primera clase, una observable.
G recibe el nombre de generador de Castellani.

10.2. Constricciones de la teoría de Yang-Mills


Esta teoría está gobernada por los grupos ISO(1,3) y SU(N,M4 ) = SU(N):

Z
1 a µν
S[Aaµ ] = d4 xL, L = − Fµν Fa
4
a
Fµν = ∂µ Aν − ∂ν Aµ + gf abc Abµ Acν .
10.2. CONSTRICCIONES DE LA TEORÍA DE YANG-MILLS 235

Bajo SU(N):

δAaµ = Dµab αb , αb infinitesimales,

es transformación de norma. Luego:

a
δFµν = gf abc Fµν
b
αc ,

que es una transformación adjunta. También se sabe:

Dµab = δ ab ∂µ − gf abc Acµ , a, b = 1, . . . , N 2 − 1.

Las ecuaciones de movimiento resultan ser:

Dµab Fbµν = 0,

y la identidad de Bianchi:

Dµab Fνλ
b
+ Dνab Fλµ
b
+ Dλab Fµν
b
= 0.

Es notable que:

F0i = ∂0 Aai − ∂i Aa0 + gf abc Ab0 Aci


Fij = ∂i Aaj − ∂j Aai + gf abc Abi Acj ,

no contienen a las velocidades Ȧa0 , de donde se concluye rápidamente que la


teoría es singular.
Los momentos canónicos:

∂L ∂L
πaα (x) = a
= = −Fa0α ,
∂∂0 Aα a
∂ Ȧα
de donde se desprende que:

Φ(1) 0
a = πa (x) ≈ 0.
236 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

Por otro lado:

πai (x) = −Fa0i ⇒ πia = −F0ia


 
⇒ πai (x) = − ∂ 0 Aia − ∂ i A0a + gf abc A0b Aic
= Ȧai − ∂i Aa0 + gf abc Ab0 Aci
⇒ Ȧai = πai (x) + ∂i Aa0 − gf abc Ab0 Aci
= πai (x) + (δ ab ∂i − gf abc Aci )Ab0
∴ Ȧai = πai (x) + Diab Ab0 .

La hamiltoniana primaria está dada por:

H(1) = H + λa Φ(1)
a ,

siendo la hamiltoniana canónica H:

H = πai Ȧai − L
1
= πai (πai + Diab Ab0 ) + (2F0ia Fa0i + Fija Faij )
4
1 1
= πai (πai + Diab Ab0 ) − Fa0i Fa0i + Fija Fija
2 4
1 i i 1 a a
∴ H = πa πa + Fij Fij + πai Diab Ab0 .
2 4

Ahora, nótese que:

∂i (πai Aa0 ) = πai ∂i Aa0 + Aa0 ∂i πai


= πai (δ ab ∂i − gf abc Aci )Ab0 + Aa0 (δ ab ∂i − gf abc Aci )πbi ,

esto debido a que:

gf abc Aci (πai Ab0 + Aa0 πbi ) = 0,


10.2. CONSTRICCIONES DE LA TEORÍA DE YANG-MILLS 237

pues las constantes de estructura f abc son antisimétricas en el intercambio


a ↔ b, mientras que la expresión entre paréntesis es simétrica. De esta ma-
nera:

∂i (πai Aa0 ) = πai Diab Ab0 + Aa0 Diab πbi .

Entonces, hasta un término de superficie:

1 1
H = πai πai + Fija Fija − Aa0 Diab πbi . (10.4)
2 4
La condición de consistencia sobre las constricciones primarias:

Φ̇(1) (1)
a = {Φa , H
(1)
} ≈ 0,

esto es:

Z
d3 y{Φ(1) (1)
a (x), H (y)} ≈ 0
Z h i
b (1)
⇒ d3 y {Φ(1) (1)
a (x), H(y) + λ (y){Φa (x), Φb (y)}} ≈ 0
Z
⇒ d3 y{π0a (x), −Ab0 (y)Dibc πic (y)} ≈ 0
Z
⇒ d3 y{Aa0 (y), π0a (x)}Dibc πic (y) ≈ 0
Z
⇒ d3 yδ ab δ(~y − ~x)Dibc πic (y) ≈ 0
ab b
∴ Φ(2)
a ≡ Di πi ≈ 0,

son las constricciones secundarias, que son comparables con las del caso
abeliano.
Así, entonces, se observa que:

1 1
H = πia πia + Fija Fija − Aa0 Φ(2)
a .
2 4
Ahora, la condición de consistencia sobre las constricciones secundarias:
238 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

Φ̇(2) (2)
a = {Φa , H
(1)
} ≈ 0,

de manera tal que:


Z h i
b (1)
d3 y {Φ(2) (2)
a (x), H(y)} + λ (y){Φa (x), Φb (y)} ≈ 0,

y cancelando el término nulo:


Z
1 b b 1 b b b (2)
d3 y{Φ(2)
a (x), πi (y)πi (y) + Fij (y)Fij (y) − A0 (y)Φb (y)} ≈ 0,
2 4
a a
y dado que Φ(2)
a se relaciona con πi y Ai , se deben calcular los tres paréntesis:

Z
1 b b
P1 = d3 y{Φ(2)
a (x), πi (y)πi (y)}
2
Z
1 b b
P2 = d3 y{Φ(2)a (x), Fij(y) Fij (y)}
Z 4
b (2)
P3 = d3 y{Φ(2)
a (x), −A0 (y)Φb (y)},

de manera que P1 + P2 + P3 ≈ 0.
Para el primer paréntesis:

Z
1
P1 = d3 y{Diab πib (x), πjc (y)πjc (y)}
Z 2
= d3 yπjc (y){Diab (x)πib (x), πjc (y)}
Z
= d3 yπjc {∂i πia (x) − gf abd Adi (x)πib (x), πjc (y)}
Z
= −gf abd d3 yπjc (y)πib (x){Adi (x), πjc (y)}
Z
abd
= −gf d3 yπjc (y)πib (x)δ dc δij δ(~y − ~x)
= −gf abc πic πib ,

lo cual es cero, pues las constantes de estructura son antisimétricas ante el


intercambio b ↔ c, mientras que los momentos no lo son.
10.2. CONSTRICCIONES DE LA TEORÍA DE YANG-MILLS 239

Para el segundo paréntesis:

Z
1 c
P2 = d3 y{Diab πib (x), Fjk (y)Fjkc
(y)}
4
1Z 3 c
= d yFjk (y){Diab πib (x), Fjkc
(y)}
2
1 Z
= Diab (x) d3 yFjk c
(y){πib (x), Fjk
c
(y)}
2
1 ab Z
c
= Di (x) d3 yFjk (y){πib (x), ∂j Ack (y) − ∂k Acj (y) + gf cde Adj (y)Aek (y)}
2
1 ab Z
c
h
= Di (x) d3 yFjk (y) {πib (x), ∂j Ack (y)} − {πib (x), ∂k Acj (y)}
2 i
+gf cde {πib (x), Adj (y)Aek (y)}
1 Z 
= Diab (x) d3 yFjkc
(y) − ∂j {Ack (y), πib (x)} + ∂k {Acj (y), πib (x)}
2 
 
−gf cde {Adj (y), πib (x)}Aek (y) + Adj (y){Aek (y), πib (x)}
1 Z 
= Diab (x) d3 yFjk
c
(y) − δ cb δki ∂j + δ cb δji ∂k
2 
 
−gf cde δ bd δji Aek (y) + δ be δki Adj (y) δ(~y − ~x)
1 ab Z 
= Di (x) d3 yδ(~y − ~x) − δ cb δki ∂j + δ cb δji ∂k
2 
 
−gf cde δ bd δji Aek (y) + δ be δki Adj (y) Fjk
c
(y),

serán iguales sólo hasta un término de superficie. Lo anterior será igual a:

1 ab
   
Di ∂j Fjib − ∂k Fikb − g f cbe Aek Fikc + f cdb Adj Fjic
2
1 ab  bc
    
bcd d c bc bce e c
= Di δ ∂j − gf Aj Fji − δ ∂k − f Ak Fik
2
1 h i
= Diab Djbc Fjic − Djbc Fijc
2
1  ab bc c  1 
= − 2Di Dj Fij = − Diab Djbc − Djab Dibc Fijc .
2 2
240 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

La definición de curvatura:

[Dµ , Dν ] = −igFµν , Fµν = T a Fµν


a

y se toma la componente ac:

b
[Dµ , Dν ]ac = −igFµν (T b )ac
b
⇒ (Dµ Dν − Dν Dµ )ac = −igFµν (T b )ac
⇒ (Dµab Dνbc − Dνab Dµbc ) = −igFµν
b
(T b )ac ,

y en la representación adjunta (T b )ac = if abc , por lo cual:

Dµab Dνbc − Dνab Dµbc = gf abc Fµν


b
,

en particular, para µ = i y ν = j:

Diab Djbc − Djab Dibc = gfijabc .

Así que:

1
P2 = − gf abc Fijb Fijc ,
2
lo cual es cero, por la antisimetría de las constantes de estructura ante el
intercambio b ↔ c, y la simetría del intercambio entre curvaturas.
Ahora sólo hace falta calcular P3 . Sean f1 y f2 funciones prueba tales que se
cumple que:

Z
Φ(2)f
a
1
= d3 xf1 (x)Φ(2)
a (x)
Z
(2)f2 (2)
Φb = d3 yf2 (y)Φb (y),

entonces:
10.2. CONSTRICCIONES DE LA TEORÍA DE YANG-MILLS 241

Z
(2)f2 (2)
{Φ(2)f
a
1
, Φb }= d3 xd3 yf1 (x)f2 (y){Φ(2)
a (x), Φb (y)}
Z
= d3 xd3 yf1 (x)f2 (y){Diac πic (x), Djbd πjd (y)}
Z    
= d3 xd3 yf1 (x)f2 (y){ ∂i πia − gf ace Aei (x) πic (x), ∂j πjb − gf bdf Afj (y) πjd (y)}
Z 
= d xd yf1 (x)f2 (y) − gf bdf {∂i πia (x), Afj (y)}πjd (y)
3 3

−gf ace πic (x){Aei (x), ∂j πjb (y)}



+g f 2 ace bdf
f {Aei (x)πic (x), Afj (y)πjd (y)}
Z 
= d xd yf1 (x)f2 (y) gf bdf ∂ix {Afj (y), πia (x)}πjd (y)
3 3

−gf ace πic (x)∂jy {Aei (x), πjb (y)}


 
+g 2 f ace f bdf Aei (x){πic (x), Afj (y)πjd (y)} + πic (x){Aei (x), Afj (y)πjd (y)}
Z 
= d3 xd3 yf1 (x)f2 (y) gf bdf πjd (y)∂ix δ f a δji δ(~y − ~x) − gf ace πic (x)∂jy δ eb δij δ(~y − ~x)
 
+g 2 f ace f bdf − Aei (x){Afj (y), πic (x)}πjd (y) + πic (x){Aei (x), πjd (y)}Afj (y)
Z 
= d3 xd3 yf1 (x)f2 (y) gf bda πid (y)∂ix δ(~y − ~x) − gf acb πic (x)∂iy δ(~y − ~x)
 
+g 2 f ace f bdf − Aei (x)δ f c δji δ(~y − ~x)πjd (y) + πic (x)δ ed δij δ(~y − ~x)Afj (y)
Z   
= d3 xd3 yf1 (x)f2 (y) gf abc πic (y)∂ix + πic (x)∂iy
 
+g 2
−f ace bdc
f Aei (x)πid (y) +f acd bdf
f πic (x)Afi (y) δ(~y − ~x),

y también se hacen los intercambios c ↔ d y f ↔ e en el último término.


Además se nota que:

Z
d3 p −i~p·(~y−~x)
∂ix δ(~y − ~x) = ∂ix 3
e = −∂iy δ(~y − ~x),
(2π )

por lo cual es posible escribir lo siguiente:


242 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

Z   
(2)f
{Φ(2)f
a
1
, Φb 2 } = d xd yf1 (x)f2 (y) − gf abc πic (x)∂ix + πic (y)∂iy
3 3

 
ace bdc
+g 2
−f f Aei (x)πid (y) +f adc bce
f Aei (y)πid (x) δ(~y − ~x)
" 
Z    
= d3 xd3 yδ(~y − ~x) gf abc f1 (x)∂iy f2 (y)πic (y) + f2 (y)∂ix f1 (x)πic (x)
#
 
ace bdc
2
+g f1 (x)f2 (y) − f f Aei (x)πid (y) +f adc bce
f Aei (y)πid (x) ,

hasta un término de superficie. Así, lo anterior es:

Z   
= d x gf abc f1 ∂i (f2 πic ) + f2 ∂i (f1 πic )
3


+g 2 f1 f2 (f aec f cbd + f adc f bce )Aei πid
Z    
= d3 x gf abc ∂i (f1 f2 )πic + 2f1 f2 ∂i πic + g 2 f1 f2 (f aec f cbd + f adc f bce )Aei πid
Z  
= d3 xgf abc ∂i (f1 f2 )πic + 2f1 f2 ∂i πic + gf1 f2 f ced Aei πid
Z  
d3 xgf abc  c c ced e d

= (f
∂i 1 f2 πi ) + f1 f2 ∂i πi + gf1 f2 f Ai πi

Z  
= d3 xgf abc f1 f2 ∂i πic − gf cde Aei πid
Z  
= d3 xgf abc f1 f2 δ cd ∂i − gf cde Aei πid
Z
= gf abc d3 xf1 (x)f2 (x)Diab πid (x)
= gf abc Φc(2)f1 f2 ,

luego:

(2)f2
{Φ(2)f
a
1
, Φb } = gf abc Φ(2)f
c
1 f2

Z Z
abc (2)
⇒ d3 xd3 yf1 (x)f2 (y){Φ(2)
a (x), Φb (y)} = gf d3 xd3 yf1 (x)f2 (y)δ(~y − ~x)Φ(2)
c ,
10.2. CONSTRICCIONES DE LA TEORÍA DE YANG-MILLS 243

finalmente:

(2) abc (2)


{Φ(2)
a (x), Φb (y)} = gf Φc δ(~y − ~x). (10.5)

Entonces, la teoría de Yang-Mills tiene constricciones de primera clase, dadas


por:

a ab b
Φ(1)
a = π0 (x) ≈ 0 Φ(2)
a = Di πi (x) ≈ 0
(1) (2)
{Φ(1)
a (x), Φb (y)} = 0 {Φ(1)
a (x), Φb (y)} = 0
(2) abc (2)
{Φ(2)
a (x), Φb (y)} = gf Φc (x)δ(~y − ~x).

10.2.1. El generador de Castellani

El generador será:

Z
G= d3 x[D0ab αb Φ(1) a (2)
a + α Φa ], δAaµ = Dµab αb .

De esta forma:

Z
δAaµ = {Aaµ , G} = d3 y{Aaµ (x), D0bc αc (y)π0b (y) + αb Dibc πic (y)}
Z h i
= d3 y D0bc αc (y){Aaµ (x), π0b (y)} + αb Dibc (y){Aaµ (x), πic (y)}
Z
= d3 y[δ ab δµ0 D0bc αc (y) + αb Dibc (y)δ ac δµi ]δ(~y − ~x)
Z  
= d3 yδ(~y − ~x) δµ0 D0ab αb (y) − δµi Diab αb (y)
= δµ0 D0ab αb − δµi Diab αb .

Por otro lado:


244 10. SISTEMAS DE CAMPOS CON LIBERTAD DE NORMA

Z
δπaµ = {πaµ , G} = d3 y{πaµ (x), D0bc αc (y)π0b (y) + αb Dibc πic (y)}
Z
= d3 y{πaµ (x), −gf bcd Ad0 αc (y)π0b (y) − αb gf bcd Adi (y)πic (y)}
Z
= −gf bcd d3 y[{πaµ (x), Ad0 (y)}αc (y)π0b (y) + {πaµ (x), Adi (y)}αb (y)πic (y)]
Z
bcd
= gf d3 y[δ da δµ0 αc (y)π0b (y) + δ da δµi αb (y)πic (y)]δ(~y − ~x)
Z
= gf abc d3 y[δµ0 π0b (y)αc (y) + δµi αb (y)πic (y)]δ(~y − ~x)
= gf abc (δµ0 π0b αc + δµi αb πic ),

luego:

δπ0a = gf abc π0b αc ⇒ δΦ(1)


a = gf
abc b c
π0 α ≈ 0,

pues es una cantidad de primera clase. Luego:

δπia = gf abc αb πic ,

muestra que πia se transforma en la representación adjunta de SU(N):

π0a = Fa0α π0i = −Fa0i


a
⇒ δFµν = gf abc Fµν
b
αc .
11

La teoría de Einstein

La teoría general de la relatividad está basada en tres reglas, o axiomas


esenciales:

1. El espacio-tiempo es un espacio curvo, descrito por una variedad pseudo


riemanniana. Esto implica el manejo apropiado de la geometría diferencial.

2. En todo punto x del espacio-tiempo existe localmente un marco de referen-


cia inercial, en este la física es la misma que la de la relatividad especial.
Este es el principio de equivalencia.

3. La masa curva el espacio-tiempo.

Es claro que se necesitan las bases fundamentales de la geometría de Rie-


mann, los cuales se discutieron ampliamente en el capítulo 3.
En resumen, lo que se vio de geometría diferencial es:

245
246 11. LA TEORÍA DE EINSTEIN

Conjunto

introducir topología (conjuntos abiertos)

Espacio topológico

cada conjunto abierto luce como Rn

Variedad

introducir conexión: perimte definir derivada covariante

Variedad con conexión

introducir métrica

Variedad riemanniana

tiene conexión automáticamente
11.1. ACCIÓN DE EINSTEIN-HILBERT 247

Ya se sabe que el tensor de curvatura, o de Riemann, se obtiene a partir de:

[∇µ , ∇ν ]Aλ = Rλµνρ Aρ ,

lo cual sólo ocurre en el caso de métricas compatibles, pero en el caso general:

[∇µ , ∇ν ]Aλ = Rλµνρ Aρ − T ρµν ∇ρ Aλ ,

siendo la torsión:

T ρµν = Γρµν − Γρνµ .

Se recuerda que el tensor de Einstein se definía como:

1
Gµν ≡ Rµν − Rgµν ,
2
de manera tal que las ecuaciones de Einstein en el vacío son:

∇µ Gµν = 0.

11.1. Acción de Einstein-Hilbert


Las ecuaciones de Einstein pueden ser derivadas de un principio variacional.
Históricamente esto no fue hecho por Einstein, sino por David Hilbert.
La acción debe ser la integral en el espacio-tiempo de una (densidad) lagran-
giana:
Z
SH = d4 xLH ,

siendo gµν el campo fundamental.


LH debe ser función de la métrica y sus derivadas. Ya se sabe que:

gµν −→ Γλµν −→ Rλρµν .


248 11. LA TEORÍA DE EINSTEIN

El escalar de Ricci, R, es el único invariante que se puede construir a partir


de la curvatura.
Así, Hilbert propuso:


LH = −gR. (11.1)

Las ecuaciones de movimiento siguen de variar la acción respecto a la métrica.


Sea pues R = g µν Rµν , de forma tal que:

√Z
d4 x −gg µν Rµν
δSH = δ
Z h√ √ √ i
= d4 x −gg µν δRµν + −gδg µν Rµν + Rδ −g
= (δSH )1 + (δSH )2 + (δSH )3 ,

aunque se ve que el (δSH )2 ya tiene la forma buscada.


Se recuerda que el tensor de Ricci, Rµν , es la contracción del tensor de Rie-
mann.
La variación de lo anterior respecto a la métrica puede ser hallada primero
variando la conexión respecto a la métrica, para después sustituir el resultado.
Considérese la variación arbitraria de la conexión:

Γρνµ −→ Γρνµ + δΓρνµ ,

la última es la diferencia de dos conexiones, la cual ya es un tensor (recuérdese


la torsión). De esta forma, tomando la derivada covariante:

∇λ (δΓρνµ ) = ∂λ (δΓρνµ ) + Γρλσ δΓσνµ − Γσλν δΓρσµ − Γσλµ δΓρνσ .

Y buscando la última expresión en la variación de la curvatura:

δRρµλν = ∂λ (δΓρνµ ) + (δΓρλσ )Γσνµ + Γρλσ (δΓσνµ ) − ∂ν (δΓρλµ )


−(δΓρνσ )Γσλµ − Γρνσ (δΓσλµ ) − Γσλν (δΓρσµ ) + Γσλν (δΓρσµ ),
11.1. ACCIÓN DE EINSTEIN-HILBERT 249

en donde ya se identifica:

δRρµλν = ∇λ (δΓρνµ ) − ∇ν (δΓρλµ ),

por lo tanto:

Z
√ √
Z
(δSH )1 = d x −gg δRµν = d4 x −gg µν δRλµλν
4 µν

Z
√ h i
= d4 x −gg µν ∇λ (δΓλνµ ) − ∇ν (δΓλλµ )
Z
√ h i
= d4 x −gg µν ∇σ g σλ (δΓλνµ ) − g σν (δΓλλµ ) ,

pues ∇λ gµν = 0, por lo que lo anterior se puede llevar a un término de super-


ficie vía el teorema de Stokes. Por lo tanto, no contribuye a las ecuaciones
de movimiento.
Resta considerar:
Z

(δSH )3 = d4 xRδ −g.

Para calcular esta variación es necesario el siguiente resultado:

T r(log M ) = log(det M ),

siendo M una matriz arbitraria. El log M es definido por elog M = M .


La variación de esta identidad:

δT r(log M ) = δ log(det M )
1
⇒ T r(M −1 δM ) = δ(det M ),
det M

este será un resultado clave. Ahora tómese M = g µν , de manera tal que:

det M = g −1 , g ≡ det gµν ,


250 11. LA TEORÍA DE EINSTEIN

luego:

δ(det M ) = det M T r(M −1 δM ),

en cuanto a la traza:

T r(M −1 δM ) = (M −1 δM )aa = (M −1 )ab (δM )ba ,

ergo:

1
δ(g −1 ) = gµν δg µν ,
g
de esta forma:

√  
δ −g = δ g −1/2
1 1
= − (−g −1 )−3/2 δ(−g −1 ) = − (−g −1 )−3/2 (g −1 gµν δg µν )
2 2
√ 1√
∴ δ −g = − −ggµν δg µν .
2
Dado que (δSH )1 no contribuye, entonces:
Z
√ 
1

δSH = 4
d x −g Rµν − gµν δg µν ,
2
y por el principio de Hamilton:

1
Rµν − gµν = 0,
2
las ecuaciones de Einstein en el vacío.

11.2. Gravedad linealizada


Se asumirá que el campo gravitacional, gµν , es suficientemente débil, de tal
suerte que se puede descomponer en una métrica plana minkowskiana más
11.2. GRAVEDAD LINEALIZADA 251

una perturbación:

gµν = ηµν + hµν , |hµν | << 1. (11.2)

Toda cantidad de más alto orden en hµν es ignorada (a nivel de de ecuaciones


de movimiento), lo cual significa que:

g µν = η µν − hµν , hµν = η µρ η νσ hρσ .

Así pues:

gµν g νλ = (ηµν + hµν )(η νλ − hνλ )


= ηµν η νλ − ηµν hνλ + η νλ hµν = δ λµ − hλµ + hλµ = δ λµ .

De esta manera, se ve que la subida y bajada de índices es con ηµν en este


caso.
Es posible pensar en la versión linealizada de la gravedad como una teoría
que describe a un tensor simétrico hµν propagándose en un espacio plano de
fondo.
La teoría es invariante de Lorentz (más general, de Poincaré), en el sentido
de la relatividad espacial. Esto es, bajo una transformación de Lorentz:

x0µ = Λµν xν −→ h0µν = Λσµ Λρν hσρ .

Las conexiones quedan como:

1  
Γρµν = g ρλ ∂µ gνλ + ∂ν gλµ − ∂λ gµν ,
2
toman la forma:

1  
Γρµν = η ρλ ∂µ hνλ + ∂ν hλµ − ∂λ hµν ,
2
se han ignorado los términos de segundo orden.
252 11. LA TEORÍA DE EINSTEIN

El tensor de Riemann se vuelve:

Rλνρσ = ∂ρ Γλσν − ∂σ Γλρν + Γλρη Γησν − Γηρν Γλση ,

los dos últimos términos son de segundo orden en hµν , por lo que no se toman
en cuenta. Luego:

Rλνρσ = ∂ρ Γλσν − ∂σ Γλρν


 
⇒ Rµνρσ = ηµλ ∂ρ Γλσν − ∂σ Γλρν
1
    
= ηµλ η λα ∂ρ ∂σ hνα + ∂ν hασ − ∂α hσν − ∂σ ∂ν hρα + ∂ρ hαν − ∂α hνρ
2
1
    
= δ αµ ∂ρ ∂σ hνα + ∂ν hσα − ∂α hνσ − ∂σ ∂ν hρα + ∂ρ hνα − ∂α hρν
2
1

= ∂σ hµν + ∂ρ ∂ν hµσ − ∂ρ ∂µ hνσ − ∂σ ∂ν hµρ − 
∂ρ 
 ∂σ∂ρ hµν + ∂σ ∂µ hρν
 
2 
1
 
= ∂ρ ∂ν hµσ + ∂σ ∂µ hρν − ∂ρ ∂µ hνσ − ∂σ ∂ν hµρ .
2

El tensor de Ricci se obtiene de la contracción de µ y ρ:

Rνσ = η µρ Rµνρσ
1
 
= η µρ ∂ρ ∂ν hµσ + ∂σ ∂µ hρν − ∂ρ ∂µ hνσ − ∂σ ∂ν hµρ
2 
1

= ∂ρ ∂ν hρσ + ∂σ ∂µ hµν − hνσ − ∂σ ∂ν hµµ
2
1
 
σ σ
∴ Rµν = ∂σ ∂µ h ν + ∂σ ∂ν h µ − ∂µ ∂ν h − hµν ,
2

siendo h ≡ η µν hµν = hµµ la traza de hµν .


Contrayendo nuevamente se obtiene el escalar de Ricci:
11.2. GRAVEDAD LINEALIZADA 253

R = η µν Rµν
1
 
= ∂σ ∂µ hσµ + ∂σ ∂ν hσν − h − h
2
∴ R = ∂µ ∂ν hµν − h.

De esta manera, el tensor de Einstein:

1
Gµν = Rµν − ηµν R
2
1
 
⇒ Gµν = − hµν + ηµν h − ηµν ∂ρ ∂σ hρσ − ∂µ ∂ν h + ∂µ ∂σ hσν + ∂ν ∂σ hσµ ,
2

también es posible:

Gµν = η µα η νβ Gαβ
1
 
= η µα η νβ − hαβ + ηαβ h − ηαβ ∂ρ ∂σ hρσ − ∂α ∂β h + ∂α ∂σ hσβ + ∂β ∂σ hσα
2
1
 
∴ Gµν = − hµν + η µν h − η µν ∂ρ ∂σ hρσ − ∂ µ ∂ ν h + ∂ µ ∂σ hσν + ∂ ν ∂σ hσµ .
2

Así que las ecuaciones de Einstein linealizadas son:

Gµν = 0.

La acción de Einstein-Hilbert hasta segundo orden debe conducir a estas


ecuaciones mediante la variación de gµν (x):
Z
√ √
SH = d4 xL, L= −gR = −gg µν Rµν .

La variación en la versión linealizada debe ser respecto a hµν .



Para hallar la forma de −g, con g = det(gµν ), nótese lo siguiente:
254 11. LA TEORÍA DE EINSTEIN


1 + A A12
det(1 + A) = 11
A21 1 + A22

= (1 + A11 )(1 + A22 ) + O(2 ) = 1 + (A11 + A22 ) + O(2 )


∴ det(1 + A) ' 1 + T r(A).

Luego:

√ q q
−g = − det(ηµν + hµν ) = − det η − det(hµν )
√ 1
' 1 − h ' 1 − h + O(h2 ).
2
1
  
µν µν
∴ L = 1 − h η − h Rµν ,
2

y tiene que llevarse hasta segundo orden.


De esta manera, la lagrangiana que resulta es:

1 1 
 
L= ∂µ hµν ∂ν h − ∂µ hρσ ∂ρ hµσ + η µν ∂µ hρσ ∂ν hρσ − ∂µ h∂ν h . (11.3)
2 2

A continuación se contraen índices, para variar la mínima cantidad de veces


el campo hµν :

1 µλ νρ ωσ

η η η ∂µ hλρ ∂ν hωσ − η ρλ η σω η µν ∂µ hλω ∂ρ hνσ
L=
2
1  
+ η µν η ρλ η σω ∂µ hλω ∂ν hρσ − η λρ η ωσ ∂µ hλρ ∂ν hωσ
2
1 µλ νρ ωσ

= η η η − η ρλ η σω η µν δ ρω δ νρ δ ων
2
1 µν  ρλ σω ρ ω λρ ωσ

+ η η η δ ωδ ρ − η η ∂µ hλρ ∂ν hωσ
2
1 µλ νρ ωσ 1 µν  ωλ σρ
 
νλ σρ µω λρ ωσ
= η η η −η η η + η η η −η η ∂µ hλρ ∂ν hωσ
2 2
1
∴ L = C µλρνωσ ∂µ hλρ ∂ν hωσ ,
2
11.2. GRAVEDAD LINEALIZADA 255

definiendo:

1  
C µλρνωσ = η µλ η νρ η ωσ − η νλ η σρ η µω + η µν η ωλ η σρ − η λρ η ωσ .
2
De esta manera, las ecuaciones de Euler-Lagrange:
 
∂L  ∂L
∂γ  = ,
∂∂γ hαβ ∂hαβ

a simple vista se observa que el lado derecho es cero, pues L no depende del
campo, sólo de sus derivadas. Así, se calcula primero:

∂L
,
∂∂γ hαβ
y prescindiendo de los términos que no dependen de ∂γ hαβ :

∂  
∂µ hλρ ∂ν hωσ
∂∂γ hαβ
1 ∂ ∂ 
    
= ∂µ hλρ + ∂µ hρλ ∂ν hωσ + ∂ν hωσ + ∂ν hσω ∂µ hλρ
2 ∂∂γ hαβ ∂∂γ hαβ
1 ∂∂µ hλρ ∂∂ν hωσ
 
= ∂ν hωσ + ∂µ hλρ + α ↔ β
2 ∂∂γ hαβ ∂∂γ hαβ
1
 
= δ γµ δ αλ δ βρ ∂ν hωσ + δ γν δ αω δ βσ ∂µ hλρ + α ↔ β .
2

Lo siguiente será hallar el producto de C µλρνωσ con los dos términos de la


derivada. Con el primero:

 
C µλρνωσ δ γµ δ αλ δ βρ + α ↔ β ∂ν hωσ
 
 1    
=  η γα η νβ η ωσ − η να η σβ η γω + η γν η ωα η σβ − η αβ η ωσ + α ↔ β ∂ν hωσ
2
 1 1 
= η γα ∂ β h − ∂ α hγβ + ∂ γ hαβ − η αβ ∂ γ h + α ↔ β
2 2
256 11. LA TEORÍA DE EINSTEIN

= η γα ∂ β h + η γβ ∂ α h − ∂ α hγβ − ∂ β hγα + ∂ γ hαβ − η αβ ∂ γ h.

En cuanto al producto con el segundo:

 
C µλρνωσ δ γν δ αω δ βσ + α ↔ β ∂µ hλρ
 
 1    
= η µλ η γρ η αβ − η γλ η βρ η µα + η µγ η αλ η βρ − η λρ η αβ + α ↔ β ∂µ hλρ
 2 
 1 1 
= η αβ ∂ λ hγλ − ∂ α hγβ + ∂ γ hαβ − η αβ ∂ γ h + α ↔ β
2 2
= 2η αβ ∂ λ hγλ − ∂ α hγβ − ∂ β hγα + ∂ γ hαβ − η αβ ∂ γ h.

De esta forma, la derivada:

∂L 1 ∂  
= C µλρνωσ ∂µ hλρ ∂ν hωσ
∂∂γ hαβ 2 ∂∂γ hαβ
1  γα β
= η ∂ h + η γβ ∂ α h + 2η αβ ∂ λ hγλ − 2∂ α hγβ − 2∂ β hγα
4 
+2∂ γ hαβ − 2η αβ ∂ γ h ,

y en las ecuaciones de Euler-Lagrange:

 
∂L 
∂γ  =0
∂∂γ hαβ
 
⇒ ∂ α ∂ β h + η αβ ∂γ ∂ λ hγλ − ∂γ ∂ α hγβ − ∂γ ∂ β hγα + hαβ − η αβ h = 0
1 
⇒ − hαβ + η αβ h − η αβ ∂γ ∂λ hγλ − ∂ α ∂ β h + ∂ α ∂γ hγβ + ∂ β ∂γ hγα = 0
2
∴ Gαβ = 0,

son las ecuaciones de Einstein linealizadas.


11.2. GRAVEDAD LINEALIZADA 257

11.2.1. Invariancia de norma en gravedad linealizada


Esta invariancia surge del hecho de que la descomposición gµν = ηµν + hµν
no es única:

No especifica completamente el sistema de coordenadas del espacio-


tiempo.

Puede haber otros sistemas de coordenadas en los cuales la métrica


puede aún ser escrita como la métrica de Minkowski más una pequeña
perturbación, pero esta última sería diferente: gµν = ηµν + h0µν , i.e. hay
muchos campos del tipo hµν .

Se mostrará que la teoría es invariante ante la transformación:

h0µν = hµν + ∂µ ξν + ∂ν ξµ ,

siendo ξµ un campo vectorial. También se puede escribir:

h0µν = hµν + ξµν , ξµν ≡ ∂µ ξν + ∂ν ξµ .

Es posible ver que:

δhµν = h0µν − hµν = ξµν ,

y comparando con el caso electromagnético:

A0µ = Aµ + ∂µ α, δAµ = ∂µ α.

Primero se debe verificar que la curvatura linealizada es invariante bajo tal


tranformación de norma:

1 
Rµνρσ = ∂ρ ∂ν hµσ + ∂σ ∂µ hνρ − ∂σ ∂ν hµρ − ∂ρ ∂µ hνσ ,
2
entonces:
258 11. LA TEORÍA DE EINSTEIN

1 
δRµνρσ = ∂ρ ∂ν δhµσ + ∂σ ∂µ δhνρ − ∂σ ∂ν δhµρ − ∂ρ ∂µ δhνσ
2
1 
= ∂ρ ∂ν ξµσ + ∂σ ∂µ ξνρ − ∂σ ∂ν ξµρ − ∂ρ ∂µ ξνσ = 0.
2

Esto implica la invariancia de las ecuaciones de Einstein linealizadas. Vién-


dolo de forma explícita, el tensor de Einstein está dado por:

1
Gµν = Rµν − ηµν R.
2

El tensor de Ricci linealizado se da por:

1 σ 
Rµν = ∂ ∂µ hσν + ∂ σ ∂ν hµσ − ∂µ ∂ν h − hµν ,
2

así que su variación es:

1 σ 
δRµν = ∂ ∂µ δhσν + ∂ σ ∂ν δhµσ − ∂µ ∂ν δh − δhµν
2
1 σ 
= ∂ ∂µ ξσν + ∂ σ ∂ν ξµσ − η ρσ ∂µ ∂ν ξρσ − ξµν
2
1h σ i
= ∂ ∂µ (∂σ ξν + ∂ν ξσ ) + ∂ σ ∂ν (∂µ ξσ + ∂σ ξµ ) − η ρσ ∂µ ∂ν (∂ρ ξσ + ∂σ ξρ ) − (∂µ ξν + ∂ν ξµ ) ,
2

y se puede notar que cada término se anula con otro, por lo cual:

δRµν = 0.

Por otra parte, el escalar de Ricci linealizado está dado por:

R = ∂µ ∂ν hµν − h,

por lo que su variación será:


11.2. GRAVEDAD LINEALIZADA 259

δR = ∂µ ∂ν δhµν − δh = ∂µ ∂ν ξ µν − ηµν ξ µν


= ∂µ ∂ν (∂ µ ξ ν + ∂ ν ξ µ ) − ηµν (∂ µ ξ ν + ∂ ν ξ µ )
∴ δR = 0.

Por lo tanto:

δGµν = 0, (11.4)

las ecuaciones de Einstein son invariantes.


Así que las ecuaciones de Einstein linealizadas tienen invariancia de norma.
Se recuerda que la teoría de Maxwell da lugar a ecuaciones de movimiento
con libertad de norma:

∂µ F µν = 0.

Se usa esta libertad de norma para llevar la ecuación a:

Aµ = 0 ⇔ ∂µ ∂ µ Aν = 0,

soluciones de ondas planas:

Aµ = µ e2 kν xν ,

siendo:

k 2 = 0, capa de masa µ k µ = 0, transversalidad

La invariancia de norma debe poder probarse a nivel de acción linealizada,


i.e. se debe probar que la lagrangiana de la teoría linealizada también es
invariante.
Como en el caso de Maxwell, dado que se tiene invariancia de norma, se puede
introducir un procedimiento de fijación de la norma que permita modificar
las ecuaciones de Einstein en forma apropiada.
260 11. LA TEORÍA DE EINSTEIN

Considérese el siguiente procedimiento de fijación de la norma:

g µν Γρµν = 0,

el cual, en el límite de un campo g µν débil, toma la forma:

1 µν ρλ  
η η ∂µ hνλ + ∂ν hµλ − ∂λ hµν = 0
2
1  
⇒ η ρλ ∂µ hµλ + ∂ν hνλ − ∂λ h = 0
2
1  
⇒ η ρλ 2∂µ hµλ − ∂λ h = 0,
2

de esta manera:

1
∂µ hµλ − ∂λ h = 0 (11.5)
2
la cual es llamada norma de Lorentz, de Einstein, de Hilbert, de Folk o de
Dender.
Con esta norma, las ecuaciones de Einstein linealizadas tomarán la forma:

1 
∂µ ∂σ hσν + ∂ν ∂σ hσµ − ∂µ ∂ν h − ηµν ∂ρ ∂σ hρσ + ηµν h = 0
2
1   1  1   1
 
  
σ
⇒ ∂µ ∂ν h + ∂ν∂µ h − 

∂µ ∂ν h − h − ηµν ∂ ∂σ h + ηµν h = 0
 
2 2  2 2
1
∴ hµν = ηµν h.
2

Ahora bien, sea:

1
hµν ≡ hµν − hηµν , (11.6)
2
el tensor de traza invertida:

1
h = η µν hµν = η µν hµν − η µν ηµν h = h − 2h = −h.
2
11.2. GRAVEDAD LINEALIZADA 261

En términos del nuevo tensor, la condición de Lorentz toma la forma:

1 1
hµν = hµν + ηµν h = hµν − ηµν h
2 2
 µ 1 µ  1
⇒ ∂µ h λ + η λ h = ∂λ h
2 2
µ
∴ ∂µ h λ = 0,

de manera que las ecuaciones quedan como:

µ
(1) hµν = 0 ∂µ h λ = 0. (2) (11.7)

Se propone como solución a estas ecuaciones:

σ
hµν = Cµν eikσ x .

De (1):

kσ k σ = 0,

el vector de onda es luzoide, i.e. las ondas gravitacionales se mueven a la


velocidad límite.
De (2):

kµ C µν = 0,

el vector de onda y C µν son ortogonales. Son 4 condiciones que reducen el


número de componentes de Cµν de 10 a 6.
Aparentemente se tiene un número muy grande de parámetros libres para
describir una onda gravitacional. Sin embargo, Cµν sólo tiene dos componen-
tes independientes.
¿Cuál es el otro tipo de ambigüedad aún no considerada? Para identificar
esto se analiza de nueva cuenta el caso general de las ecuaciones de Einstein.
Las 10 ecuaciones de Einstein están dadas por Gµν = 0, esto se verá como si
se tuvieran 10 ecuaciones de Lagrange.
262 11. LA TEORÍA DE EINSTEIN

En relatividad general se habla de evolución en el sentido de la evolución de


una superficie espacialoide. El objeto fundamental es gµν (x).
Se debe considerar (gµν , ∂0 gµν )|Σ , pues esto es lo que especifica al estado.
Las ecuaciones de Einstein involucran segundas derivadas de la métrica, se
esperaría que todo marchara correctamente. Pero aunque como un todo Gµν
involucra segundas derivadas de la métrica respecto al tiempo, G0ν no lo
hace. Así, de las 10 ecuaciones, las 4 representadas por:

G0ν = 0,

no pueden ser usadas para evolucionar al estado. Ergo, sólo hay 6 com-
ponentes de gµν (x). La solución involucra inevitablemente una ambigüedad
cuádruple, lo cual es un reflejo de la libertad que se tiene de elegir 4 funciones
coordenadas en todo el espacio.
Directamente de las ecuaciones de Einstein se puede ver que:

∂02 gij aparecen ∂02 g0ν no aparecen

Por lo tanto, un estado en relatividad general consistirá en la especificación


de gij y ∂0 gij sobre Σ, hasta una inevitable ambigüedad en la fijación de las
componentes g0ν , justo como ocurre en la teoría de Maxwell.
La forma de enfrentar el problema es simplemente elegir una norma.
En relatividad general es muy popular la norma armónica:

∇σ ∇σ xµ = 0,

siendo ∇σ ∇σ el d’Alembertiano covariante, µ no etiqueta tensores. Este nom-


bre proviene del hecho de que toda función f que satisface f = 0 se incluye
dentro del grupo de las funciones armónicas:
11.2. GRAVEDAD LINEALIZADA 263

0 = ∇σ ∇σ xµ = g σρ ∇ρ ∇σ xµ
= g σρ ∇ρ (∂σ xµ ) ya es tensor
σρ
h
µ :0 λ µ
δ µλ i
− Γ ρσ 

=g  (∂
∂ρ σx )
 (∂
λx )
:


∴ ∇σ ∇σ x µ = 0 ⇒ −g σρ Γµρσ = 0,

lo cual es equivalente a:

g µν Γλµν = 0
√ √
⇒ ∂02 ( −gg 0ν ) = −∂i (∂0 −gg iν ),

es la ecuación de segundo orden para las componentes g 0ν .


Pero nótese que es posible hacer la transformación de coordenadas:

xµ −→ xµ + δ µ , δ µ = 0,

en donde  = ∇σ ∇σ , sin violar la condición de norma. Esto significa que aún


después de fijar la norma, xµ = 0, aún se dispone de libertad para hacer
transformaciones de coordenadas sin violar la condición armónica.
En el caso lineal aún es posible hacer la transformación:

xµ −→ xµ + ζ µ ζ µ = 0
σ
∴ ζµ = Bµ eikσ x ,

siendo kσ el vector de onda gravitacional.


Esta libertad de norma permite eliminar 4 componentes independientes más
de Cµν .
Resumiendo, se empieza con 10 componentes independientes de Cµν , se elige
la norma armónica, xµ = 0, la cual reduce el número de componentes a 6.
Usando la libertad de norma remanente, xµ → xµ +δ µ , se tienen 4 condiciones
adicionales, lo cual reduce el número de componentes independientes de Cµν
de 10 a 2.
264 11. LA TEORÍA DE EINSTEIN

11.2.2. Deducción de la lagrangiana


Como ya se mencionó en párrafos anteriores, la lagrangiana de Hilbert:


L= −gR,

se debe aproximar hasta segundo orden en hµν .


Ahora:

g = det(gµν ) = det(ηµν + hµν )


−1 + h00

h01 h02 h03
h
10 1 + h11 h12 h13
=
h20 h21 1 + h22 h23


h
30 h31 h32 1 + h33
(−1 + h00 )(1 + h11 )(1 + h22 )(1 + h33 ) + O(h2 )
' −(1 − h00 + h11 + h22 + h33 ) = −(1 + η µν hµν ) = −(1 + h).

Luego, entonces:

√ √ 1
−g = 1 + h = 1 + h + O(h2 ).
2
Así, de lo anterior:


L= −gg µν Rµν
√  
= −gg µν ∂λ Γλµν − ∂µ Γλλν + Γλλρ Γρµν − Γλµρ Γρλν ,

los dos primeros términos entre paréntesis corresponden al primer orden en


h, y los otros dos al segundo orden. Luego:

1  
L ' (1 + h)(η µν − hµν ) ∂λ Γλµν − ∂µ Γλλν + Γλλρ Γρµν − Γλµρ Γρλν
2
  1  
= η ∂λ Γλµν − ∂µ Γλλν − (hµν − η µν h) ∂λ Γλµν − ∂µ Γλλν
µν

 2 
+η Γ λρ Γ µν − Γ µρ Γρλν + O(h3 ),
µν λ ρ λ
11.2. GRAVEDAD LINEALIZADA 265

donde el primer término es de superficie. Además se tiene:

1  
Γλµν = g λσ ∂µ gνσ + ∂ν gµσ − ∂σ gµν
2
1 λσ  
= (η − hλσ ) ∂µ gνσ + ∂ν gµσ − ∂σ gµν ,
2

y después de integrar por partes, y sin considerar a los términos de superficie:

1 1
L = (∂λ hµν − η µν ∂λ h)Γλµν − (∂µ hµν − η µν ∂µ h)Γλλν
2 2
+η µν (Γλλρ Γρµν − Γλµρ Γρλν ),

y se analizarán los términos por separado.


En primer lugar, nótese lo siguiente:

1
(∂λ hµν − η µν ∂λ h)Γλµν
2
1 µν h1 i
= (∂λ h − η ∂λ h) η λσ (∂µ hνσ + ∂ν hµσ − ∂σ hµν )
µν
2 2
1 1 µν
= (∂λ h − η ∂λ h)(∂µ hλν + ∂ν hλµ − ∂ λ hµν )
µν
2 2
1h
= ∂λ hµν ∂µ hλν + ∂λ hµν ∂ν hλµ − ∂λ hµν ∂ λ hµν
2
1 µν 1 1 i
− η ∂λ h∂µ hλν − η µν ∂λ h∂ν hλµ + η µν ∂λ h∂ λ hµν
2 2 2
1h 1 i
= 2∂µ hρσ ∂ρ hµσ − η µν (∂µ hρσ ∂ν hρσ ) − η µν (∂λ h∂µ hλν ) + η µν (∂µ h∂ν h)
2 2
1h 1 i
= 2∂µ hρσ ∂ρ hµσ − η µν (∂µ hρσ ∂ν hρσ ) − ∂µ hµν ∂ν h + η µν (∂µ h∂ν h) .
2 2

Por otro lado:


266 11. LA TEORÍA DE EINSTEIN

1
−(∂µ hµν − η µν ∂µ h)Γλλν
2
1 1 µν
= − (∂µ h − η ∂µ h)η σλ (∂λ hνσ + ∂ν hλσ − ∂σ hλν )
µν
2 2
1 1
= − (∂µ h − η µν ∂µ h)(
µν
∂λ hλν + ∂ν h −  hσ
∂σ ν)

2 2
1h 1 i
= − ∂µ hµν ∂ν h − η µν (∂µ h∂ν h) .
2 2

De los dos desarrollos anteriores:

1 1
(∂λ hµν − η µν ∂λ h)Γλµν − (∂µ hµν − η µν ∂µ h)Γλλν
2 2
1h i
= 2∂µ hρσ ∂ρ hµσ − 2∂µ hµν ∂ν h − η µν (∂µ hρσ ∂ν hρσ ) + η µν (∂µ h∂ν h) .
2

Finalmente, se calcula:

η µν (Γλλρ Γρµν − Γλµρ Γρλν )


1 h
= η µν η λσ η ρω (∂λ hρσ + ∂ρ hλσ − ∂σ hλρ )(∂µ hνω + ∂ν hµω − ∂ω hµν )
4 i
−(∂µ hρσ + ∂ρ hµσ − ∂σ hµρ )(∂λ hνω + ∂ν hλω − ∂ω hλν )
1h
= (∂λ hωλ + ∂ ω h − ∂σ hσω )(∂µ hµω + ∂ν hνω − ∂ω h)
4 i
−(∂µ hωλ + ∂ ω hλµ − ∂ λ hωµ )(∂λ hµω + ∂ µ hλω − ∂ω hµλ )
1h
= 2∂ ν h∂µ hµν − ∂ µ h∂µ h −  hωλ ∂λ hµω −  hωλ ∂ µ hωλ ∂ω hµλ
  
∂µ  ∂µ  hλω + 
∂µ 
4
λ µ
−∂ ω hλµ ∂λ hµω − ∂ ω λ µ
∂ ω λ ω µ
 
h µ ∂ hλω +  h µ ∂ω h λ + ∂ h µ ∂λ h ω
i
µ
∂ λ ω µ λ ω

 h µ ∂ hλω − ∂ h µ ∂ω h λ
1h i
= 2∂µ hµν ∂ ν h − η µν (∂µ h∂ν h) + η µν (∂µ hρσ ∂ν hρσ ) − 2∂µ hρσ ∂ρ hµσ .
4

Y sumando todos los términos:


11.3. CONSTRICCIONES DE LA TEORÍA DE EINSTEIN LINEALIZADA267

1 1 
  
L = ∂µ hρσ ∂ρ hµσ − ∂µ hµν ∂ν h + η µν ∂µ h∂ν h − ∂µ hρσ ∂ν hρσ ,
2 2
la cual es −L, respecto a la que se propuso anteriormente. Este signo es
irrelevante, se desvanece al calcular las ecuaciones de movimiento.

11.3. Constricciones de la teoría de Einstein


linealizada
Los momentos canónicos están dados por:

∂L
π αβ = ,
∂∂0 hαβ

resaltando el hecho de que el campo dinámico hαβ tiene 10 componentes:

h00 ≡ φ h0i = hi0 ≡ φi hij = hji ≡ φij ,

contando 1, 3 y 6 componentes respectivamente.


La métrica que se usa tiene signatura η : (+, −, −, −), luego:

φi = −φi ∂ i = −∂i φij = φij .

Se hacen las siguientes asociaciones:

φ↔π φi ↔ πi φij ↔ πij .

El objetivo será buscar las velocidades φ̇, φ̇i y φ̇ij como funciones del espacio
fase.
Se trabaja en n + 1 dimensiones, así que los pares canónicos serán:

(h00 , π00 ) → (φ, π) (h0i , π0i ) → (φi , πi ) (hij , πij ) → (φij , πij ).
268 11. LA TEORÍA DE EINSTEIN

En n + 1 dimensiones, el número de componentes independientes de hαβ es:

1
(1 + n)(2 + n).
2

Así pues, los momentos:

∂L ∂L
παβ = 0 αβ
=
∂∂ h ∂ ḣαβ
1h i
= η0α ∂β h + η0β ∂α h + 2ηαβ ∂λ hλ0 − 2(∂α h0β + ∂β h0α ) + 2∂0 hαβ − 2ηαβ ∂0 h .
4

De esta manera:

1h λ
π00 = π = 0h + 
η00∂ 0 h + 2η00 ∂λ h 0 − 2(∂0 h00 + ∂0 h00 )
η00∂
 

4 i
+2∂0 h00 − 2η 00 ∂0 h


1
⇒ π = (∂λ hλ0 − φ̇)
2
1 0 i
= (∂0h 0 + ∂i h 0 −  φ̇)
2
1 1 1
= ∂i hi 0 = − ∂i hi0 = − ∂i φi ,
2 2 2

de manera tal que:

1
π = − ∂i φi . (11.8)
2

Para el otro momento:


11.3. CONSTRICCIONES DE LA TEORÍA DE EINSTEIN LINEALIZADA269

1h :0 :0
λ − 2(∂0 h0i + ∂i h00 )

π0i = πi = η00 ∂i h + η0i∂
0h

+ 2η0i ∂λ h 0
4
i 0

*
+2∂0 h0i − 2η0i ∂0 h


1 h i
= ∂i h − 2(ḣ0i + ∂i h00 ) + 2ḣ0i
4
1h i 1h i
= ∂i (h00 + hj j − 2h00 ) = ∂i (h00 − hjj − 2h00 )
4 4
1h i 1
= ∂i (−hjj − h00 ) = − (∂i φ + ∂i φjj ),
4 4

así que:

1
πi = − (∂i φ + ∂i φkk ). (11.9)
4
En cuanto al último momento:

1h : 0 + η ∂h: 0 + 2η ∂ hλ − 2(∂ h + ∂ h ) + 2ḣ


πij = η0i∂
jh

0j i

ij λ 0 i 0j j 0i ij
4

i
−2ηij ḣ ,

y como se tiene que ηij = −δij :

1h i
πij = δij (ḣ00 − ḣkk − ∂λ hλ0 ) + ḣij − ∂i φj − ∂j φi
2
1h i
= ḣij + δij (φ̇ − φ̇kk − ḣ00 − ∂k hk0 ) − ∂i φj − ∂j φi
2
1h i
= ḣij + δij (−φ̇kk − ∂k φk ) − ∂i φj − ∂j φi
2
1h i
∴ πij = φ̇ij − δij (φ̇kk − ∂k φk ) − ∂i φj − ∂j φi ,
2
esto es:

φ̇ij − δij φ̇kk = 2πij − δij ∂k φk + ∂i φj + ∂j φi , (11.10)


270 11. LA TEORÍA DE EINSTEIN

y contrayendo con δ ij se tendrá:

δ ij φ̇ij − δ ij δij φ̇kk = 2δ ij πij − δ ij δij ∂k φk + δ ij (∂i φj + ∂j φi )


⇒ φ̇ii − nφ̇ii = 2πii − n∂i φi + 2∂i φi
⇒ (1 − n)φii = 2πii − (n − 2)∂i φi ,

y si se asume que n 6= 1, entonces:

2 n−2
φ̇ii = πii + ∂i φi ,
1−n n−1
pero de 11.10, si i 6= j, entonces:

φ̇ij = 2πij + ∂i φj + ∂j φi . (11.11)

Además, se tienen las siguientes constricciones primarias:

1
Φ(1) ≡ π + ∂i φi ≈ 0
2
(1) 1
Φi ≡ πi + (∂i φ + ∂i φkk ) ≈ 0.
4

El siguiente paso consiste en construir la hamiltoniana primaria:

(1)
H(1) = H + λΦ(1) + λi Φi ,

donde la hamiltoniana canónica está dada por:

H = πij φ̇ij − L.
12

El teorema de Noether para


simetrías globales

Este teorema establece la relación que existe entre simetrías y leyes de con-
servación.
El teorema tiene que ver con transformaciones continuas de los grados de
libertad; en este caso, de los campos ϕa (x).
Las transformaciones forman una simetría si dejan invariantes a las ecua-
ciones de movimiento. Esta condición se satisface si la acción es invariante
bajo el grupo de transformaciones. De manera más general, se puede permitir
que la acción sea invariante hasta un término de superficie, ya que este no
contribuye a las ecuaciones de movimiento.
Supóngase que bajo una transformación infinitesimal, el campo cambia por:

ϕ0a (x) = ϕa (x) + α∆ϕa (x),

con α un parámetro infinitesimal y ∆ϕa la deformación del campo.


De acuerdo con lo dicho antes, la lagrangiana debe ser invariante hasta un
término de superficie:

L0 (x) = L(x) + α∂µ J µ (x).

Compárese el cambio esperado de L con el que resulta de hacer variar los

271
272 12. EL TEOREMA DE NOETHER PARA SIMETRÍAS GLOBALES

cambios:

α∆L = L0 (ϕ0a , ∂µ ϕ0a ) − L(ϕa , ∂µ ϕa )


∂L ∂L
= L(ϕa , ∂µ ϕa ) + (α∆ϕa ) + α∆(∂µ ϕa ) − L(ϕa , ∂µ ϕa )
∂ϕa ∂∂µ ϕa
∂L ∂L
= (α∆ϕa ) + ∂µ (α∆ϕa )
∂ϕa ∂∂µ ϕa
∂L ∂L ∂L
   
= (α∆ϕa ) + ∂µ α∆ϕa − ∂µ α∆ϕa
∂ϕa ∂∂µ ϕa ∂∂µ ϕa
∂L ∂L ∂L
    
= α∂µ ∆ϕa + − ∂µ α∆ϕa
∂∂µ ϕa ∂ϕa ∂∂µ ϕa
 ∂L 
∴ α∂µ J µ = α∂µ ∆ϕa
∂∂µ ϕa
∂L
 
⇒ α∂µ ∆ϕa − J µ = 0,
∂∂µ ϕa

y como α 6= 0, entonces:

∂µ J µ = 0,

siendo:

∂L
Jµ ≡ ∆ϕa − J µ . (12.1)
∂∂µ ϕa

12.1. Grupo de Poincaré

12.1.1. Grupo de las traslaciones


Considérese una transformación infinitesimal en el espacio-tiempo (plano),
dada por:

x0µ = xµ + µ −→ δxµ = µ .
12.1. GRUPO DE POINCARÉ 273

En este caso, la variación de los campos está dada por:

δϕa = ϕa (x0 ) − ϕa (x) = ϕa (x + δx) − ϕa (x)


= ϕa (x) + ∂µ ϕa (x)δxµ − ϕa (x) = ∂µ ϕa (x)δxµ ,

es decir:

δϕa = ν ∂ ν ϕa . (12.2)

La variación de la lagrangiana es:

δL = L(x0 ) − L(x) = L(x) + ∂µ Lδxµ − L(x)


= ∂µ L(x)δxµ = µ ∂µ L
= g µν ν ∂µ L = ν ∂µ (g µν L),

esto es:

δL = ν ∂µ (g µν L), (12.3)

la cual debe coincidir con la variación de L respecto a los campos:

∂L ∂L
ν ∂µ (g µν L) = δϕa + δ(∂µ ϕa )
∂ϕa ∂∂µ ϕa
∂L  ∂L
   
= ∂µ δϕa = ∂µ ν ∂ ν ϕa
∂∂µ ϕa ∂∂µ ϕa
∂L ν
 
= ν ∂µ ∂ ϕa ,
∂∂µ ϕa

de otra forma:

∂L ν
 
ν ∂µ ∂ ϕa − g µν L = 0,
∂∂µ ϕa
274 12. EL TEOREMA DE NOETHER PARA SIMETRÍAS GLOBALES

esto es:

∂µ T µν = 0, (?)

siendo:

∂L ν
T µν ≡ ∂ ϕa − g µν L, (12.4)
∂∂µ ϕa
el tensor de energía-momento, el cual representa a la corriente conservada
asociada a la homogeneidad del espacio-tiempo. La corriente conservada dará
lugar a una carga conservada, a partir de la ecuación (?). En todo el espacio
se tiene:

Z Z Z
µν
3
d x∂µ T =0 ⇒ 3
d x∂0 T 0ν
+ d3 x∂i T iν = 0,

del primer término se desprende:


Z
dQν
d3 x∂0 T 0ν −→ = 0,
dt
y del segundo:
Z Z

3
d x∂i T −→ T iν dxνi = 0,
∂ν

con una frontera ∂ν infinita. En donde:


Z
ν
Q ≡ d3 xT 0ν , (12.5)

esta última es una cantidad conservada: la carga de Noether.


Ahora, ¿qué es Qν ? Se tiene:

∂L ν
Z Z  
ν 3 0ν 3
Q = d xT = dx ∂ ϕa − g 0ν L
∂ ϕ̇a
Z  
= d3 x π a ∂ ν ϕa − g 0ν L ,
12.1. GRUPO DE POINCARÉ 275

de esta manera:
Z   Z
Q0 = d3 x π a ϕ̇a − L = d3 xH = H ≡ P 0 .

Así que Qν es el 4-momento del sistema, P ν , los cuales, a su vez, son los
generadores del grupo de traslaciones T(1,3). Ya se sabe que este grupo es
abeliano:

[Pµ , Pν ] = 0.

En particular:

[H, Pi ] = 0,

lo cual quiere decir que el momento lineal del sistema es una constante de
movimiento.

12.1.2. Grupo de Lorentz


Considérese una transformación infinitesimal de Lorentz:

x0µ = xµ + µν xν , δxµ = µν xν ,

siendo el infinitesimal: µν = −νµ .


Bajo esta transformación, el cambio en los campos será:

ϕ0a (x0 ) = Sab (δx)ϕb (x + δx).

Puesto que la transformación es infinitesimal, la matriz S también lo es:

1
Sab (δx) = δab + Σµν µν ,
2 ab
así pues:

Σµν νµ
ab = −Σab ,
276 12. EL TEOREMA DE NOETHER PARA SIMETRÍAS GLOBALES

debido a que µν = −νµ , como ya se dijo.


La variación del campo es:

 1 
ϕ0a (x0 ) = δab + Σµν  µν ϕb (x + δx)
2 ab
 1  
= δab + Σµν  µν ϕb (x) + ∂ µ
ϕb δx µ
2 ab
1
= ϕa (x) + ∂ µ ϕa (x)δxµ + Σµν µν ϕb (x).
2 ab

Luego:

δϕa (x) = ϕ0a (x) − ϕa (x)


1
= ∂ µ ϕa δxµ + Σµν µν ϕb (x)
2 ab
1
= λρ xρ ∂ λ ϕa + Σλρ λρ ϕb
2 ab
1 1
= λρ (xρ ∂ λ ϕa − xλ ∂ ρ ϕa ) + Σλρ λρ ϕb ,
2 2 ab

así que:

1 1
δϕa (x) = λρ (xρ ∂ λ ϕa − xλ ∂ ρ ϕa ) + Σλρ λρ ϕb . (12.6)
2 2 ab

La variación de la lagrangiana:

δL = L(x0 ) − L(x) = ∂µ Lδxµ = ∂µ (Lδxµ ),

esto último debido a que:

∂µ δxµ = ∂µ (µν xν ) = µν ∂µ xν = µν δµν = 0.

Esta variación se puede anotar como:


12.1. GRUPO DE POINCARÉ 277

δL = ∂µ (Lg µλ δxλ )
= ∂µ (Lg µλ λρ xρ )
h1 i
= ∂µ λρ (xρ g µλ − xλ g µρ )L ,
2

así:

1 h i
δL = λρ ∂µ (xρ g µλ − xλ g µρ )L , (12.7)
2
la cual debe coincidir con la que resulta de variar los campos:

∂L
 
δL = ∂µ δϕa .
∂∂µ ϕa
De esta manera:

∂L 1
 
∂µ δϕa − λρ (xρ g µλ − xλ g µρ )L = 0
∂∂µ ϕa 2
1 ∂L  ρ λ
  
⇒ λρ ∂µ (x ∂ ϕa − xλ ∂ ρ ϕa ) + Σλρab ϕb − (x g
ρ µλ
− xλ g µρ )L = 0
2 ∂∂µ ϕa
1 ∂L λ  ∂L
   
⇒ λρ ∂µ xρ ∂ ϕa − g µλ L − xλ ∂ ρ ϕa − g µρ L
2 ∂∂µ ϕa ∂∂µ ϕa
∂L

+Σλρ
ab ϕb =0
∂∂µ ϕa
1 ∂L
 
ρ µλ λ µρ λρ
⇒ λρ ∂µ x T − x T + Σab ϕb =0
2 ∂∂µ ϕa
∴ ∂µ J µλρ = 0, (†)

siendo:

1  ∂L 
J µλρ ≡ λρ xρ T µλ − xλ T µρ + Σλρ
ab ϕb . (12.8)
2 ∂∂µ ϕa

Integrando la ecuación (†) sobre todo el espacio:


278 12. EL TEOREMA DE NOETHER PARA SIMETRÍAS GLOBALES

Z Z Z
d3 x∂µ J µλρ = 0 ⇒ d3 x∂0 J 0λρ + d3 x∂i J iλρ = 0,

la última integral es de superficie, por lo que dará un término igual a cero.


Existe una carga consevada:

dJ µν µν
Z
= 0, J ≡ d3 x∂0 J 0λρ .
dt
Nótese que:

λρ
Z  ∂L λρ 
J = d3 x xλ T 0ρ − xρ T 0λ + Σ ϕb = −J ρλ ,
∂ ϕ̇a ab
hay 6 cantidades conservadas:

J ij J 0i .

Además, hágase hincapié que en:

ij
Z  ∂L ij 
J = d3 x xi T 0j − xj T 0i + Σ ϕb ,
∂ ϕ̇a ab

los primeros dos términos, xi T 0j − xj T 0i , son análogos a ~r × p~, mientras que


el último se relaciona con el momento angular intrínseco.
13

Rompimiento espontáneo de
una simetría continua

En primer lugar debe plantearse la idea general. Sea G un grupo de Lie y H


algún subgrupo:

H ⊂ G,

la dimensión de G es dg, y tiene generadores T a , mientras que la dimensión


de H es dh, con generadores T ā ; es claro que dh < dg.
Los generadores T ā de H son también generadores de G. Entonces, surge una
clasificación natural de los generadores de G:

{T a } −→ {T ā }, {T â },

los últimos son dg − dh, y no forman un subrgupo.


Supóngase que se tiene una lagrangiana L que depende de campos escalares
(de acuerdo con SO(1,3)), dados en alguna representación no trivial de G:

L(ϕr , ∂µ ϕr ),

siendo los ϕr componentes de la representación de G.

279
280 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

Si L(ϕr , ∂µ ϕr ) es invariante bajo G, entonces también lo es bajo H. Esto sig-


nifica que el multiplete de campos ϕr de G puede ser arreglado en multipletes
de campos ϕs̄ de H. Esto es, existe un mapeo de puntos de G en H:

G −→ H
{ϕr } −→ {ϕs̄ }
L(ϕr , ∂µ ϕr ) −→ L(ϕs̄ , ∂µ ϕs̄ ),

en el caso de la primera lagrangiana, la simetría de G es manifiesta, en tanto


que la simetría de H está oculta. Ocurre lo contrario en el caso de la segunda
lagrangiana, la simetría de G ahora es la oculta.
Cuando la simetría de G es global (misma en todos los puntos del espacio-
tiempo), se puede presentar el fenómeno de rompimiento espontáneo de
la simetría G:

v
G →
− H,

y se dice que el grupo G es roto espontáneamente al subgrupo H, en alguna


escala de energía v.
La esencia del rompimiento espontáneo de una simetría continua se sintetiza
en lo que se conoce con el nombre de teorema de Goldstone: en el rompi-
miento espontáneo G → H los dg − dh generadores T â de G se “rompen” (el
significado de esto se explica más adelante). Los generadores T ā permanecen
inalterados:

Aparecen dg − dh campos escalares sin masa, llamados bosones de


Goldstone

Aparecen campos escalares masivos, llamados bosones de Higgs

Cuando la simetría es de norma, surge el mecanismo de Higgs. En este


caso, la situación es similar, pero ahora existen campos de norma, además de
los campos escalares que permiten el rompimiento espontáneo de G en H:
281

G −→ H
{Aaµ } −→ {Aāµ }, {Aâµ },

los primeros son campos de norma, los {Aāµ } son campos de norma de H y
los {Aâµ } son los campos de norma asociados a los generadores rotos de G.
Luego:

{ϕr } −→ {ϕs̄ },

bajo la perspectiva izquierda, ninguno de los Aaµ puede tener masa, en tanto
que, bajo H, Aāµ son conexiones, pero los campos Aâµ se transforman ten-
sorialmente, debido a la invariancia bajo H. Así, los campos Aāµ no pueden
tener masa, pero los campos Aâµ sí.
El mapeo {Aaµ } −→ {Aāµ }, {Aâµ } por sí mismo no dota con masa a los campos
Aâµ , sólo propone que estos pueden tenerla, ya que se transforman como
campos de materia. Entonces se necesita un mecanismo que permita generar
el término de masa, de tal forma que no se destruya la simetría de G. Este
mecanismo es el de Higgs, el cual tiene como base el fenómeno de rompimiento
espontáneo.

Transformación global: G −→ H, implica el teorema de Goldstone.

Transformación local: G −→ H, implica el mecanismo de Higgs:


los bosones de Goldstone son absorbidos por los campos de norma Aâµ .
Pasan a formar su componente longitudinal:

{número de bosones de Goldstobe}


↔ {número de generadores rotos T â }
↔ {número de campos de norma que adquieren masa}

La simetría de G no se destruye, ¿cómo puede ocurrir esto si dg − dh de sus


campos ahora son masivos? El mecanismo de Higgs es sutil. La respuesta
tiene que ver con la transformación de punto:
282 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

G −→ H
LG −→ LH
{Aaµ } −→ {Aāµ }, {Aâµ }

la cual es invertible, esto es:

{Aaµ } ←− {Aāµ }, {Aâµ }


LG ←− LH

El mapeo se puede elevar al espacio fase, por lo cual la transformación es


canónica.

13.1. El teorema de Goldstone


Se estudia el rompimiento espontáneo del grupo SU(3) en el grupo SU(2). El
grupo SU(3) tiene la siguiente álgebra de Lie:

[T a , T b ] = if abc T c ,

con las constantes de estructura:

f 123 = 1
1
f 345 = f 147 = f 165 = f 246 = f 257 = f 376 = 2

3
f 458 = f 678 = 2

La representación fundamental de SU(3) tiene dimensión 3. En esta repre-


sentación los generadores son dados por las matrices de Gell-Mann, λa ,
las cuales satisfacen:

 a
λ λb λc

= if abc ,
,
2 2 2
13.1. EL TEOREMA DE GOLDSTONE 283

en donde se tiene:

     
0 1 0 0 −i 0 1 0 0
1 2 3
λ = 1 0 0 , λ =  i 0 0 , λ = 0 −1 0
     

0 0 0 0 0 0 0 0 0
     
0 0 1 0 0 −i 0 0 0
4 5 6
λ = 0 0 0

, λ = 0 0 0 

, λ = 0 0 1


1 0 0 i 0 0 0 1 0
   
0 0 0 1 0 0
7 8 1 
λ = 0 0 −i
 
λ = √ 0 1 0  .

0 i 0 3 0 0 −2

Es notable que λ3 y λ8 son diagonales. También se observa que las matrices


de Pauli están contenidas en las de Gell-Mann:

! ! !
0 1 0 −i 1 0
σ1 = , σ2 = , σ3 = .
1 0 i 0 0 −1

En particular, es evidente que las matrices λ1 , λ2 y λ3 satisfacen la siguiente


subálgebra:

 ā
λ λb̄ λc̄

, = iāb̄c̄ ,
2 2 2
en donde los índices con barra varían entre 1, 2 y 3. La anterior es idéntica al
álgebra de Lie de SU(2), por lo tanto este último es un subgrupo de SU(3).
En realidad hay 3 subgrupos del tipo SU(2) independientes:

{λ1 , λ2 , λ3 } −→ SU (2) {λ4 , λ5 , λ} −→ SU (2) {λ6 , λ7 , λ} −→ SU (2)

siendo λ combinación lineal de λ3 y λ8 , con parámetros reales.


Considérese el primer subrgrupo, {λ1 , λ2 , λ3 }, de manera que SU(3) → SU(2).
Como notación:
284 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

ā = 1, 2, 3 â = 4, 5, 6, 7, 8 a = ā, â.

Considérese un conjunto de campos escalares dados en la representación fun-


damental de SU(3):
 
Φ1 (x)
Φ(x) = Φ2 (x) ,
 

Φ3 (x)

representando Φ(x) 6 campos escalares reales, y los Φi campos escalares com-


plejos.
Sea la siguiente lagrangiana:

LSU (3)Φ = (∂µ Φ)† (∂ µ Φ) − V (Φ† , Φ),

en donde se tiene:

V (Φ† , Φ) = µ2 (Φ† Φ) + λ(Φ† Φ)2 ,

con λ real y positivo. Esta lagrangiana es invariante bajo SU(3). El triplete


se transforma como:

a λa
Φ0 (x) = e−iα 2 Φ(x),

con αa constantes.
El interes principal es determinar el mínimo de energía (estado base o estado
de vacío) del sistema. Para ello, se necesita estudiar:

∂V
=0 ⇒ [µ2 + 2λ(Φ† Φ)]Φi = 0.
∂Φ†i
Se tienen dos casos:

Caso no degenerado: µ2 > 0 ⇒ Φi = 0. El mínimo del sistema ocurre


para Φi = 0. Corresponde al caso estándar de 6 campos escalares reales
Φi todos de masa µ2 . La energía es cero.
13.1. EL TEOREMA DE GOLDSTONE 285

Caso degenerado: µ2 < 0. Existen dos soluciones:


• Φi = 0, máximo local.
2
v2
• µ2 + 2λ(Φ† Φ) = 0 ⇒ Φ† Φ = − µ2λ = 2
,

esta última es la superficie


√ de degeneración, una superficie esférica de 6 di-
mensiones y radio v/ 2. Todos los puntos de esta superficie tienen la misma
energía, pero cada punto se asocia con un estado del sistema. Entonces, la
energía del estado base tiene degeneración infinita. Pero todos los
estados (puntos de la superficie esférica) son físicamente equivalentes, pues
están relacionados con una transformación de SU(3):

“SU(3) mapea puntos de la superficie en puntos de la misma superficie”:

v2
Φ† Φ = es invariante bajo SU(3).
2
Pero se debe elegir un punto de la superficie, esto es, se debe escoger una
dirección caracterizada por el vector constante Φ0 , el cual no depende del
espacio-tiempo. Pero ¿cuál es el criterio para elegirlo? Esto dependerá de a
qué subgrupo se desea romper al grupo SU(3), esto es lo que determina al
vector, i.e. no es arbitrario.
Se desea:

SU(3) −→ SU(2),

las condiciones para que esto ocurra son:

Φ0 se transforma en la representación fundamental de SU(3)


Φ0 debe ser invariante bajo SU(2)

Esto último es, si U ∈ SU(2), entonces:

U Φ0 = Φ0 ,
286 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

por lo cual:

ā λā
e−iα 2 Φ0 = Φ0
λā
⇒ Φ0 = 0,
2

notando que (λâ /2)Φ0 6= 0, así que se dice que los generadores λâ /2 están
rotos en este sentido.
Ahora bien, (λā /2)Φ0 = 0 significa:

        
0 1 0 Φ01 0 −i 0 Φ01 1 0 0 Φ01

 1 0 0 Φ
  02  = 0, 
  
i 0 0 Φ
  02  = 0, 
  
0 −1 0  Φ02  = 0
 

0 0 0 Φ03 0 0 0 Φ03 0 0 0 Φ03


   
0 0
∴ Φ0 =  0  =  0√  .
   

Φ03 v/ 2

Se observa que Φ(x) puede ser mapeado en objetos covariantes de SU(2):

SU(3) −→ SU(2)
 
Φ1 (x) !
Φ1
Φ(x) = Φ2 (x) −→ φ= , φ0 ≡ Φ3 ,
 
Φ2
Φ3 (x)

siendo φ un doblete y φ0 un singlete, ambos de SU(2).


La teoría física debe desarrollarse en el entorno del estado base. Esto quiere
decir que se debe implementar el siguiente corrimiento:

Φ(x) −→ Φ0 + Φ
   
Φ1 Φ1 !
φ
=  √Φ2  =  √Φ2 = ,
   
0 ϕ0
v/ 2 + Φ3 v/ 2 + φ
13.1. EL TEOREMA DE GOLDSTONE 287

siendo aquí:

v v + H + iϕz
ϕ0 ≡ √ + φ0 = √ .
2 2

Entonces:
!
φ
† †
Φ Φ = (φ , ϕ ) 0 = φ† φ + ϕ0∗ ϕ0 ,
0∗
ϕ

hay invariancia manifiesta bajo SU(2).


Naturalmente:

1 1
(∂µ Φ)† (∂ µ Φ) = (∂µ φ)† (∂ µ φ) + (∂µ H)(∂ µ H) + (∂µ ϕz )(∂ µ ϕz )
2 2
esto es:

1 1
LSU (2)Φ = (∂µ φ)† (∂ µ φ) + (∂µ H)(∂ µ H) + (∂µ ϕz )(∂ µ ϕz )
2 2
† 0∗ 0
−V (φ , φ, ϕ , ϕ ),

en donde:

V (φ† , φ, ϕ0∗ , ϕ0 ) = µ2 (φ† φ + ϕ0∗ ϕ0 ) + λ(φ† φ + ϕ0∗ ϕ0 )2 ,

y como µ2 = −λv 2 , entonces:

h i
V = λ − (φ† φ + ϕ0∗ ϕ0 )v 2 + (φ† φ + ϕ0∗ ϕ0 )2
= λ(φ† φ + ϕ0∗ ϕ0 − v 2 )(φ† φ + ϕ0∗ ϕ0 )
h i
= λ (φ† φ)2 + 2(ϕ0∗ ϕ0 )(φ† φ) − v 2 (φ† φ) − v 2 (ϕ0∗ ϕ0 ) + (ϕ0∗ ϕ0 )2 ,

y como se tiene:
288 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

v + H + iϕz v + H − iϕz 1 ϕ2
  
0∗
ϕ ϕ = √ 0
√ = (v + H)2 + z ,
2 2 2 2
entonces:

v2 h
 h i i
V = λ (φ† φ)2 + (v + H)2 + ϕ2z (φ† φ) − v 2 (φ† φ) − (v + H)2 + ϕ2z
2
1h i2 
+ (v + H)2 + ϕ2z ,
4
y después de hacer un poco de álgebra:

v4 H4

V = λ (φ† φ)2 + (2vH + H 2 + ϕ2z )(φ† φ) − + v 2 H 2 + vH 3 +
4 4
4
1 ϕ
+vHϕ2z + H 2 ϕ2z + z
2 4
λ 2 2
∴ V = v H + ··· ,
2
se ve que de los 6 campos escalares originales, 5 aparecen con masa igual a
cero:
!
Φ1
φ= doblete ϕz singlete,
Φ2

ambos son de SU(2), y ϕz es la parte imaginaria de Φ3 . Además hay un


campo masivo:

1 1 √
− λv 2 H 2 = − m2H H 2 ⇒ m2H = λv 2 ⇒ mH = λv,
2 2
siendo v la constante dimensional: escala del rompimiento de la simetría, y
λ adimensional. H es la parte real de Φ3 .
Recapitulando:

λā
Φ0 = 0,
2
13.2. EL MECANISMO DE HIGGS 289

implica que los generadores λā /2 no están rotos. En este sentido es que SU(2)
es una simetría exacta. Además:

λâ
Φ0 6= 0,
2

implica que hay 5 generadores rotos, equivalente al número de campos esca-


lares sin masa.
El teorema de Goldstone establece que por cada generador roto, surge un
campo escalar sin masa.

13.2. El mecanismo de Higgs


Considérese la teoría invariante bajo SU(3) local, con el triplete escalar:

1 a µν
LSU (3) = (Dµ Φ)† (Dµ Φ) − V (Φ† , Φ) − Fµν Fa ,
4

en donde:

a
Fµν = ∂µ Aaν − ∂ν Aaµ + gf abc Abµ Acν
 
Φ1
Φ = Φ2 
 

Φ3
V (Φ† , Φ) = µ2 (Φ† Φ) + λ(Φ† Φ)2 ,

se presenta el rompimiento espontáneo de simetría para SU(3) local:

 
0
v
SU(3) →
− SU(2) Φ0 =  0√  .
 

v/ 2

También se va a tener:
290 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

T ā : generadores no rotos, ā = 1, 2, 3, T â : generadores rotos, â = 4, 5, 6, 7, 8


T ā Φ0 = 0 T â Φ0 6= 0.

Bajo SU(2):

δAaµ = Dµab αb , Dµab = δ ab ∂µ − gf abc Acµ ,

esta última es la derivada covariante en la representación adjunta. En esta


representación también se anota:

a
δFµν = gf abc Fµν
b
Fcµν .

En la representación fundamental:

αa a αa a
δΦ = i λ Φ, δDµ Φ = i λ Dµ Φ,
2 2
la derivada covariante en la representación fundamental:

λa a
Dµ = ∂µ − ig A .
2 µ
Para implementar el mecanismo de Higgs se necesita hacer el siguiente mapeo
de punto:

SU(3) −→ SU(2)
{Aaµ } → ¿? a
{Fµν } → ¿?
 ! 
 Φ1 
{Φ} −→ φ= , φ0 .
 Φ2 

Se recuerdan las matrices de Gell-Mann y las constantes de estructura (véase


la sección anterior).
Sea el siguiente mapeo de las conexiones:
13.2. EL MECANISMO DE HIGGS 291

Wµā = Aāµ , ā = 1, 2, 3
√1 (A4 − iA5µ )
! !
Yµ1 2 µ
Yµ = = √1 (A6
Yµ2 2 µ − iA7µ )
Zµ = A8µ .

El siguiente paso consiste en cosntruir las curvaturas en términos de los


nuevos campos.
Se comienza con las curvaturas para los índices ā:


Fµν = ∂µ Aāµ − ∂ν Aāµ + gf ābc Abµ Acν
= ∂µ Aāµ − ∂ν Aāµ + gf āb̄c̄ Ab̄µ Ac̄ν + gf āb̂ĉ Ab̂µ Aĉν

= Wµν + gf āb̂ĉ Ab̂µ Aĉν ,

siendo:


Wµν = ∂µ Aāµ − ∂ν Aāµ + gf āb̄c̄ Ab̄µ Ac̄ν ,

la curvatura de SU(2). En cuanto al término extra:

gf āb̂ĉ Ab̂µ Aĉν


h
= g f ā45 (A4µ A5ν − A5µ A4ν ) + f â46 (A4µ A6ν − A6µ A4ν ) + f â47 (A4µ A7ν − A7µ A4ν )
i
+f â56 (A5µ A6ν − A6µ A5ν ) + f â57 (A5µ A7ν − A7µ A5ν ) + f â67 (A6µ A7ν − A7µ A6ν ) .

Ahora, se utiliza la transformación inversa:


292 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

1 1
{Yµ1 = √ (A4µ − iA5µ ), Yµ1∗ = √ (A4µ + iA5µ )}
2 2
1 i
⇒ {A4µ = √ (Yµ1 + Yµ1∗ ), A5µ = √ (Yµ1 − Yµ1∗ )}
2 2
1 1
{Yµ2 = √ (A6µ − iA7µ ), Yµ2∗ = √ (A6µ + iA7µ )}
2 2
1 i
⇒ {A6µ = √ (Yµ2 + Yµ2∗ ), A7µ = √ (Yµ2 − Yµ2∗ )}.
2 2
Ahora nótese lo siguiente:

f ā47 (A4µ A7ν − A7µ A4ν ) + f ā56 (A5µ A6ν − A6µ A5ν )
i
 h
= (f 147 +  f 247
 + f 347
) (Y 1 + Y 1∗ )(Y 2 − Y 2∗ )
µ µ ν ν
2 
i
−(Yµ2 − Yµ2∗ )(Yν1 + Yν1∗ )
h
+(f 156 + 
f 256
 + f 356
 1 1∗ 2 2∗
 ) (Yµ − Yµ )(Yν + Yν )
i
−(Yµ2 + Yµ2∗ )(Yν1 − Yν1∗ )
i

1 
= (Y  Y 2 − Yµ1 Yν2∗ + Yµ1∗ Yν2 −  1∗ 2∗
Yµ Yν − Yµ2 
Yν1 − Yµ2 Yν1∗
4 µ ν
+Yµ2∗ Yν1 +  2∗ 1∗
Yµ Yν) − ( 1 
YµYν2 + Yµ1 Yν2∗ − Yµ1∗ Yν2 −  1∗ 
Yµ Yν2∗

2 
−
YµYν1 + Yµ2 Yν1∗ − Yµ2∗ Yν1 + 2∗ 
Yµ
 Yν1∗ )
i
 
= Y 1∗ Y 2 − Yµ1 Yν2∗ + Yµ2∗ Yν1 − Yµ2 Yν1∗
2 µ ν
i
 
= (Yµ1∗ Yν2 + Yµ2∗ Yν1 ) − (Yν1∗ Yµ2 + Yν2∗ Yµ1 )
2
! !
i  1∗ 2∗ Yν2 1∗ 2∗ Yµ2 
= (Yµ , Yµ ) − (Yν , Yν )
2 Yν1 Yµ1
 ! ! ! !
i 0 1 Yν1 0 1 Yµ1 
= (Yµ1∗ , Yµ2∗ ) − (Yν1∗ , Yν2∗ )
2 1 0 Yν2 1 0 Yµ2
1 1
σ σ
 
=i Yµ† Yν − Yν† Yµ .
2 2
13.2. EL MECANISMO DE HIGGS 293

De manera similar se puede ver que:

f ā46 (A4µ A6ν − A6µ A4ν ) + f ā57 (A5µ A7ν − A7µ A5ν )
2 2
σ σ
 
=i Yµ† Yν − Yν† Yµ ,
2 2
f ā45 (A4µ A5ν − A5µ A4ν ) + f ā67 (A6µ A7ν − A7µ A6ν )
σ3 σ3
 
= i Yµ† Yν − Yν† Yµ ,
2 2

de manera tal que:

σ ā σ ā
 
gf āb̂ĉ Ab̂µ Aĉν = ig Yµ† Yν − Yν† Yµ ,
2 2
y entonces:

σ ā σ ā
 

Fµν ā
= Wµν + ig Yµ† Yν − Yν† Yµ , (13.1)
2 2

se observa que se transforma en la representación adjunta de SU(2).


Ahora considérese la curvatura:

8
Fµν = ∂µ A8ν − ∂ν A8µ + gf 8bc Abµ Acν
h i
= ∂µ Zν − ∂ν Zµ + g f 845 (A4µ A5ν − A5µ A4ν ) + f 867 (A6µ A7ν − A7µ A6ν )
√ 
g 3 4 5

5 4 6 7 7 6
= Zµν + Aµ Aν − Aµ Aν + Aµ Aν − Aµ Aν
√2 
ig 3 1∗ 1

2∗ 2 1∗ 1 2∗ 2
= Zµν + Yµ Yν + Yµ Yν − Yν Yµ − Yν Yµ ,
2

de donde ya se ve que:
√ 
ig 3 †

8
Fµν = Zµν + Yµ Yν − Yν† Yµ , (13.2)
2
294 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

escalar bajo SU(2).


Resta calcular las siguientes curvaturas:

4 5 6 7
Fµν , Fµν , Fµν , Fµν .

Se define:

√1 (F 4 5
! !
1
Yµν 2 µν − iFµν )
Yµν ≡ 2 = √1 (F 6 7 ,
Yµν 2 µν − iFµν )
1
y considérese Yµν :

1 h
1
Yµν = √ (∂µ A4ν − ∂ν A4µ + gf 4bc Abµ Acν )
2
i
−i(∂µ A5ν − ∂ν A5µ + gf 5bc Abµ Acν )
1 1
   
= ∂µ √ (A4ν − iA5ν ) − ∂ν √ (A4µ − iA5µ )
2 2
1  4bc b c 
+ √ g f Aµ Aν − if 5bc Abµ Acν
2
g
= ∂µ Yν1 − ∂ν Yµ1 + √ (f 4bc − if 5bc )Abµ Acν ,
2

además, se nota que el último término será igual a:

g  417 1 7
 
√ f (Aµ Aν − A7µ A1ν ) − if 516 (A1µ A6ν − A6µ A1ν )
2
 
+ f 426 (A2µ A6ν − A6µ A2ν ) − if 527 (A2µ A7ν − A7µ A2ν )
 
+ f 435 (A3µ A5ν − A5µ A3ν ) − if 534 (A3µ A4ν − A4µ A3ν )

+f 458 (A5µ A8ν − A8µ A5ν ) − if 548 (A4µ A8ν − A8µ A4ν ) ,

en donde los términos que aparecen encerrados entre paréntesis internos están
relacionados (nótese que los dos últimos no lo están). Así, la primera pareja
de términos:
13.2. EL MECANISMO DE HIGGS 295

f 417 (A1µ A7ν − A7µ A1ν ) − if 516 (A1µ A6ν − A6µ A1ν )
1h i
= − A1µ (A7ν + iA6ν ) − A1ν (A7µ + iA6µ )
2 √
2 1 2 
= −i Wµ Yν − Wν1 Yµ2 ,
2

el segundo par:

f 426 (A2µ A6ν − A6µ A2ν ) − if 527 (A2µ A7ν − A7µ A2ν )
1h i
= − A2µ (A6ν − iA7ν ) − A2ν (A6µ − iA7µ )
2 √
2 2 2 
=− Wµ Yν − Wν2 Yµ2 .
2

En cuanto a la última pareja de términos entre paréntesis:

f 435 (A3µ A5ν − A5µ A3ν ) − if 534 (A3µ A4ν − A4µ A3ν )
1h i
= − A3µ (A5ν + iA4ν ) − A3ν (A5µ + iA4µ )
2 √
2 3 1 
= −i Wµ Yν − Wν3 Yµ1 .
2

En cuanto a los términos independientes:

f 458 (A5µ A8ν − A8µ A5ν ) − if 548 (A4µ A8ν − A8µ A4ν )

3h 8 5 i
= Aν (Aµ + iA4µ ) − A8µ (A5ν + iA4ν )
2 √ √
3 2 1 
=i Yµ Zν − Yν1 Zµ .
2

1
De esta manera, Yµν queda como sigue:
296 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

1 g 1 2 
Yµν = ∂µ Yν1 − i Wµ Yν − iWµ2 Yν2 + Wµ3 Yν1
2
g 1 2
  
− ∂ν Yµ1 − i Wν Yµ − iWν2 Yµ2 + Wν3 Yµ1
2√
g 3 1 
+i Yµ Zν − Yν1 Zµ .
2

Ahora, se recuerda que:

σ ā ā
Dµ = ∂µ − ig W ,
2 µ
y ahora se nota lo siguiente:

σ ā ā
! ! !
Yν1 ∂µ Yν1 ā σ Yν1
 
Dµ Yν = ∂µ − ig Wµā = − igW
2 Yν2 ∂µ Yν2 µ
2 Yν2
!  ! ! ! !
∂ Y1 g 0 1 Yν1 2 0 −i Yν1
= µ ν2 − i Wµ1 2 + Wµ
∂ µ Yν 2 1 0 Yν i 0 Yν2
! ! 
1 0 Yν1 
+Wµ3
0 −1 Yν2 

de forma tal que:


! !
∂ Y1 g Wµ1 Yν2 − iWµ2 Yν2 + Wµ3 Yν1
Dµ Yν = µ ν2 − i ,
∂ µ Yν 2 Wµ1 Yν1 + iWµ2 Yν1 − Wµ3 Yν2

en donde ya se ve lo siguiente:

1 3 1 
Yµν = Dµ Yν1 − Dν Yµ1 + ig Yµ Zν − Yν1 Zµ ,
2
o más en general:

3 
Yµν = Dµ Yν − Dν Yµ + ig Yµ Zν − Yν Zµ .
2
13.2. EL MECANISMO DE HIGGS 297


De esta forma, las curvaturas Fµν se pueden sacar del Yµν , a partir de la
definición.
Por lo tanto, el mapeo completo será:

SU(3) −→ SU(2)
Φ −→ {φ, ϕ0 }
Aaµ −→ {Wµā , Yµ , Yµ† , Zµ }
a ā † 8
Fµν −→ {Wµν , Yµν , Yµν , Fµν }.

Así, es notable que, bajo la perspectiva de SU(2), 5 de las 8 conexiones de


SU(3) aparecen como campos de materia. Nótese:

{φ, φ† } ←→ {Yµ , Yµ† }


1
φ0 → ϕ0 ≡ √ (v + H + iϕz ) ←→ Zµ
2

son dobletes y singlete de SU(2), respectivamente.

13.2.1. El sector cinético de Higgs

El sector está dado por:

LHK = (Dµ Φ)† (Dµ Φ),

siendo Dµ = ∂µ − ig(λa /2)Aaµ ; y haciendo la traslación:

 
0
Φ −→ Φ0 + Φ, Φ0 =  0√  ,
 

v/ 2

se tiene:
298 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

LHK = (Dµ Φ0 + Dµ Φ)† (Dµ Φ0 + Dµ Φ)


= (Dµ Φ0 )† (Dµ Φ0 ) + (Dµ Φ0 )† (Dµ Φ) + (Dµ Φ)† (Dµ Φ0 )
+(Dµ Φ)† (Dµ Φ),

por ahora la atención recaerá sobre el primer término:

g 2 a bµ a
(Dµ Φ0 )† (Dµ Φ0 ) = A A (λ Φ0 )† (λb Φ0 ),
4 µ
empero λā Φ0 = 0 y λâ Φ0 6= 0, luego:

g 2 â b̂µ † â b̂
(Dµ Φ0 )† (Dµ Φ0 ) = A A (Φ0 λ λ Φ0 )
4 µ
g 2 â b̂µ † â b̂
= A A (Φ0 {λ , λ }Φ0 )
8 µ
g 2 â b̂µ †  4 âb̂
  
âb̂ĉ ĉ
= Aµ A Φ0 δ + 2d λ Φ0 .
8 3

Ahora, λĉ Φ0 es ortogonal a Φ0 , excepto para:

2
λ8 Φ0 = − √ Φ0 ,
3
de manera tal que:

g2 4 g2 4
 
(Dµ Φ0 ) (D Φ0 ) = Aâµ Aâµ Φ†0 Φ0 −
† µ
√ Aâµ Ab̂µ dâb̂8 (Φ†0 Φ0 )
8 3 8 3
2 
g 4
 √ 
= (Φ†0 Φ0 ) Aâµ Aâµ − 3Aâµ Ab̂µ dâb̂8 .
8 3

Los únicos valores de dâb̂8 diferentes de cero son:

1 1
d448 = d558 = d668 = d778 = − √ , d888 = − √ ,
2 3 3
13.2. EL MECANISMO DE HIGGS 299

de esta forma, resultará:

g 2 4 v 2 ã ãµ 1
  
† µ
(Dµ Φ0 ) (D Φ0 ) = Aµ A + A8µ A8µ + Aãµ Aãµ + A8µ A8µ
8 3 2 2
g 2 4 v 2 3 ã ãµ
 
= Aµ A + 2A8µ A8µ ,
8 3 2 2

siendo ã = 4, 5, 6, 7. Nótese además que Aãµ Aãµ = 2Yµ† Y µ , y además, que:


A8µ = Zµ . Luego:


g2v24 µ 1 g2v2
(Dµ Φ0 )† (Dµ Φ0 ) = Y + Zµ Z µ
Y µ 2 3
1
= m2Y Yµ† Y µ + m2Z Zµ Z µ ,
2

en donde se tiene:

gv gv
mY = mZ = √ ,
2 3
siendo v la constante con dimensiones y g adimensional, naturalmente.

13.2.2. La teoría bajo la perspectiva de SU(2)


Ahora, se calculará la transformación de Dµ Φ. Se tiene:

λa a
 
Dµ Φ = ∂µ − ig A Φ
2 µ
λā ā λã ã
!
λ8 8 φ
 
∂µ − ig Wµ − ig Aµ − ig Aµ
2 2 2 ϕ0

! ! !
Dµ φ ã λ φ λ8 φ
= − igAµ − igZµ ,
∂µ ϕ0 2 ϕ0 2 ϕ0

pero, en detalle:
300 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA


! !
4
λ φ 4λ λ5 λ6 λ7 φ
 
Aãµ 0 = Aµ + A5µ + A6µ + A7µ
2 ϕ 2 2 2 2 ϕ0
1

= √ (Yµ1 + Yµ1∗ )λ4 + i(Yµ1 − Yµ1∗ )λ5
2 2
!
φ

2 2∗ 6 2 2∗ 7
+(Yµ + Yµ )λ + i(Yµ − Yµ )λ
ϕ0
1

= √ (λ4 + iλ5 )Yµ1 + (λ4 − iλ5 )Yµ1∗ + (λ6 + iλ7 )Yµ2
2 2
!
φ

+(λ6 − iλ7 )Yµ2∗ ,
ϕ0

y haciendo el cálculo de las matrices:

1 4
(λ + iλ5 ) =
2
     
0 0 1 0 0 −i  0 0 1
1  +
= 0 0 0 + i 0 0 0  = 0 0 0
 = λ45 ,
   
2 
1 0 0 i 0 0 0 0 0
1 4
(λ − iλ5 )
2
     
0 0 1 0 0 −i  0 0 0
1  −
= 0 0 0 − i 0 0 0  = 0
   
0 0
 = λ45 ,
2 
1 0 0 i 0 0 1 0 0
1 6
(λ + iλ7 ) =
2
     
0 0 0 0 0 0  0 0 0
1  +
= 0 0 1 + i 0 0 −i = 0
   
0 1
 = λ67 ,
2 
0 1 0 0 i 0 0 0 0
1 6
(λ − iλ7 ) =
2
     
0 0 0 0 0 0  0 0 0
1  −
= 0 0  − i 0 0 −i = 0
1 0 0
 = λ67 .
  
2 
0 1 0 0 i 0 0 1 0
13.2. EL MECANISMO DE HIGGS 301

Luego, entonces:

  0 1      

! ϕ Yµ 0 0 0 
λ φ 1
Aãµ
  0 2 
=√  0 + 0  + ϕ Yµ  +  0 
  
2 ϕ0 2 0 φ1 Yµ1∗ 0 φ2 Yµ2∗
 
 ! 0  !
1 ϕ Yµ 0 1 ϕ 0 Yµ
=√  + 0  = √ .
 

2 0
Yµ† φ 2 Yµ φ

Ahora, por otro lado:


 
8
! 1 0 0 ! !
λ 8 φ 1   φ 1 φ
A = Zµ √ 0 1 0  0 = √ Zµ .
2 µ ϕ0 2 3 0 0 −2 ϕ 2 3 −2ϕ0

De esta forma, el Dµ Φ queda como sigue:


! ! !
Dµ φ ig ϕ0 Yµ ig Zµ φ
Dµ Φ = 0 − √ † − √ 0 .
∂µ ϕ 2 Yµ φ 2 3 −2ϕ Zµ

Entonces, el mapeo de punto covariante es:

SU(3) −→ SU(2),

de manera que:

Φ −→ {φ, ϕ0 },

en donde un triplete desemboca en un doblete y un singlete, respectivamente.


También:

Dµ Φ −→ {Dµ φ, ∂µ ϕ0 , φ, Yµ },

la derivada del triplete, que es un triplete en sí mismo, llega a un doblete y


un singlete, pero también están involucrados los dobletes φ y Yµ , como ya se
vio.
302 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

Aaµ −→ {Wµā , Yµ , Yµ† , Zµ },

el mapeo lleva las conexiones a conexiones Wµā , pero también a campos de


materia: singletes y el doblete Zµ . Por último:

a ā †
Fµν −→ {Wµν , Yµν , Yµν , Zµν },

ā †
las curvaturas caen a más curvaturas, las Wµν , dobletes Yµν , Yµν , y un singlete
Zµν .
No debe de olvidarse que:

σ ā
 
Zµν ≡ 8
Fµν , ∂µ − ig Wµā φ = Dµ φ.
2

El sector cinético de Higgs toma la forma:

(Dµ Φ)† (Dµ Φ)


 
ig ig
     
=  (Dµ φ)† , (∂µ ϕ0 )∗ + √ ϕ0∗ Yµ† , φ† Yµ + √ Zµ φ† , −2Zµ ϕ0∗ ×
2 2 3
 ! ! !
Dµ φ ig ϕ0 Yµ ig Zµ φ
× 0 − √ † − √ 0

∂µ ϕ 2 Y µ φ 2 3 −2ϕ Zµ
= (Dµ φ)† (Dµ φ) + (∂µ ϕ0 )∗ (∂ µ ϕ0 )
ig
 
− √ ϕ0 (Dµ φ)† Y µ − ϕ0∗ Yµ† (Dµ φ) + (∂µ ϕ0 )∗ Y µ† φ − (∂ µ ϕ0 )φ† Yµ
2
ig
 
− √ Z µ (Dµ φ)† φ − Zµ φ† (Dµ φ) − 2Z µ ϕ0 (∂µ ϕ0 )∗ + 2Zµ ϕ0∗ (∂ µ ϕ0 )
2 3
g2
 
0∗ µ † 0 † µ 0 µ † 0∗ µ†
+ √ ϕ Z Yµ φ + ϕ Zµ φ Y − 2ϕ Z φ Yµ − 2ϕ Zµ Y φ
2 6
g 2 0∗ 0 † µ g2
   
† µ† µ 0 0∗ µ †
+ ϕ ϕ Yµ Y + φ Yµ Y φ + 4Zµ Z ϕ ϕ + Zµ Z φ φ ,
2 12

y ahora nótese:
13.2. EL MECANISMO DE HIGGS 303

g 2 0∗ 0 † µ g 2 1   1  
A= ϕ ϕ Yµ Y = √ v + H − iϕz √ v + H + iϕz Yµ† Y µ
2 2 2 2
2h
g i
= (v + H)2 + ϕ2z Yµ† Y µ
4
g2v2  H 2 † µ  H 2 † µ
= 1+ Yµ Y + · · · = m2Y 1 + Yµ Y ,
4 v v
con:

g2v2 2mY
m2Y = ⇒ v= ,
4 g
luego:

 gH 2 † µ
A = m2Y 1 + Yµ Y + · · ·
2mY
g2
= m2Y Yµ† Y µ + gmY HYµ† Y µ + H 2 Yµ† Y µ + · · · ,
4

siendo el primero el término de masa, el segundo representa la interacción


típica de un Higgs y el tercero es una interacción más.
Por otro lado:

g 2 0∗ 0 µ g2
B = ϕ ϕ Zµ Z = (v + H)2 Zµ Z µ + · · ·
3 2·3
1 g2v2  H 2
= 1+ Zµ Z µ + · · ·
2 3 v
1  H 2
= m2Z 1 + Zµ Z µ ,
2 v

siendo:

g2v2 3mZ
m2Z = ⇒ v= ,
3 g
304 13. ROMPIMIENTO ESPONTÁNEO DE UNA SIMETRÍA CONTINUA

implicándose lo siguiente:

3
mY = mZ , (13.3)
2
luego:

1  gH 2
B = m2Z 1 + √ Zµ Z µ
2 3mZ
1 2 g g2
= mZ Zµ Z µ + √ mZ HZµ Z µ + H 2 Zµ Z µ + · · ·
2 3 6

You might also like