You are on page 1of 251

Departamento de F sica, Facultad de Ciencias, Universidad de Chile. noa.

. Casilla 653, Correo 1, Santiago Las Palmeras 3425, Nu fono: 562 978 7276 fax: 562 271 2973 e-mail: secretaria@sica.ciencias.uchile.cl

Apuntes de un curso de

F ISICA MATEMATICA
Tercera edici on, revisi on 080424-10

Jos e Rogan C. V ctor Mu noz G.

Indice
I An alisis Tensorial
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3
5 5 8 9 11 15 19 19 19 20 21 21 21 22 23 24 25 27 30 33 34 35 35 36 37 39 41 41 42 45 47 47

1. Una breve revisi on de algebra lineal. 1.1. Notaci on. . . . . . . . . . . . . . . . . . . . . 1.2. Operaciones vectoriales. . . . . . . . . . . . . 1.2.1. Rotaci on de vectores. . . . . . . . . . . 1.2.2. Productos vectoriales. . . . . . . . . . 1.2.3. C alculos usando notaci on de Einstein. .

2. Operadores en campos escalares y vectoriales. 2.1. Dibujando campos escalares y vectoriales. . . . . . . 2.1.1. Dibujando campos escalares. . . . . . . . . . . 2.1.2. Dibujando campos vectoriales. . . . . . . . . . 2.2. Operadores vectoriales. . . . . . . . . . . . . . . . . . 2.2.1. Notaci on del operador integral. . . . . . . . . 2.2.2. Integrales de l nea. . . . . . . . . . . . . . . . 2.2.3. Integrales de supercie. . . . . . . . . . . . . . 2.2.4. Integrales de volumen. . . . . . . . . . . . . . 2.3. Operadores diferenciales. . . . . . . . . . . . . . . . . 2.3.1. Vista f sica del gradiente. . . . . . . . . . . . . 2.3.2. Vista f sica de la divergencia. . . . . . . . . . 2.3.3. Vista f sica del rotor. . . . . . . . . . . . . . . 2.3.4. Identidades con operadores diferenciales. . . . 2.4. Deniciones integrales de los operadores diferenciales. 2.5. Los teoremas. . . . . . . . . . . . . . . . . . . . . . . 2.5.1. Teorema de Gauss. . . . . . . . . . . . . . . . 2.5.2. Teorema de Green. . . . . . . . . . . . . . . . 2.5.3. Teorema de Stokes. . . . . . . . . . . . . . . . 2.5.4. Teorema de Helmholtz. . . . . . . . . . . . . . 3. Sistemas de Coordenadas Curvil neos. 3.1. El vector posici on . . . . . . . . . . . . . . . 3.2. El sistema cil ndrico . . . . . . . . . . . . . 3.3. Sistema esf erico . . . . . . . . . . . . . . . . 3.4. Sistemas curvil neos generales . . . . . . . . 3.4.1. Coordenadas, vectores base y factores
iii

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . de escala

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

iv

INDICE 3.4.2. Geometr a diferencial. . . . . . . . . . . . . . . . . . . . 3.4.3. El vector desplazamiento . . . . . . . . . . . . . . . . . . 3.4.4. Producto de vectores . . . . . . . . . . . . . . . . . . . . 3.4.5. La integral de l nea . . . . . . . . . . . . . . . . . . . . . 3.4.6. Integral de supercie . . . . . . . . . . . . . . . . . . . . 3.4.7. La integral de volumen . . . . . . . . . . . . . . . . . . . 3.4.8. El gradiente . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.9. La divergencia . . . . . . . . . . . . . . . . . . . . . . . . 3.4.10. El rotor . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Gradiente, divergencia y rotor en sistemas cil ndricos y esf ericos 3.5.1. Operaciones cil ndricas . . . . . . . . . . . . . . . . . . . 3.5.2. Operaciones esf ericas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 51 51 52 52 52 52 53 54 56 56 57 59 59 62 63 63 64 67 68 69 70 76 77 77 82 83 85 85 87 88 90 92 95 98 101 103

4. Introducci on a tensores. 4.1. El tensor de conductividad y la ley de Ohm. . . . . . . . . . . . . . . 4.2. Notaci on tensorial general y terminolog a. . . . . . . . . . . . . . . . 4.3. Transformaciones entre sistemas de coordenadas. . . . . . . . . . . . . 4.3.1. Transformaciones vectoriales entre sistemas cartesianos. . . . . 4.3.2. La matriz de transformaci on. . . . . . . . . . . . . . . . . . . 4.3.3. Resumen de transformaciones de coordenadas. . . . . . . . . . 4.3.4. Transformaciones tensoriales. . . . . . . . . . . . . . . . . . . 4.4. Diagonalizaci on de tensores. . . . . . . . . . . . . . . . . . . . . . . . 4.4.1. Diagonalizaci on y problema de valores propios. . . . . . . . . . 4.5. Transformaciones tensoriales en sistemas de coordenadas curvil neos. 4.6. Pseudo-objetos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.1. Pseudo-vectores. . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2. Pseudo-escalares. . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.3. Pseudo-tensores. . . . . . . . . . . . . . . . . . . . . . . . . . 5. Sistema de coordenadas no ortogonales. 5.1. Breve recuerdo de transformaciones tensoriales. . . . . . . . . . . . . 5.2. Sistemas de coordenadas no ortogonales. . . . . . . . . . . . . . . . . 5.2.1. Un sistema de coordenadas inclinado. . . . . . . . . . . . . . . 5.2.2. Covarianza, contravarianza y m etrica. . . . . . . . . . . . . . . 5.2.3. Transformaciones de componentes vectoriales contravariantes. 5.2.4. Notaci on de sub ndices y super ndices. . . . . . . . . . . . . . 5.2.5. Transformaciones de componentes vectoriales covariantes. . . . 5.2.6. Covarianza y contravarianza en tensores. . . . . . . . . . . . . 5.2.7. Contravarianza y covarianza de derivadas parciales. . . . . . . 6. Determinantes y matrices. 6.1. Determinantes. . . . . . . . . . . . . . . 6.2. Matrices. . . . . . . . . . . . . . . . . . . 6.3. Matrices ortogonales. . . . . . . . . . . . 6.4. Matrices Herm ticas, matrices unitarias.

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

107 . 107 . 114 . 121 . 129

INDICE

6.5. Diagonalizaci on de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 6.6. Matrices normales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 7. Teor a de grupo. 7.1. Introducci on. . . . . . . . . . . . . . . . . 7.2. Generadores de grupos continuos. . . . . . 7.3. Momento angular orbital. . . . . . . . . . 7.4. Grupo homog eneo de Lorentz. . . . . . . . 7.5. Covarianza de Lorentz de las ecuaciones de 145 145 149 162 166 168 175 175 178 178 179 180 181 183 183 184 185 186 186 187 188 189 190 192 192 193 195 196 197 199 201 201 202 202 202 202 203 204 205 206 207

. . . . . . . . . . . . . . . . . . . . . . . . Maxwell.

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

8. Series innitas. 8.1. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . . . 8.2. Pruebas de Convergencia . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1. Pruebas de comparaci on. . . . . . . . . . . . . . . . . . . . . 8.2.2. Prueba de la ra z de Cauchy. . . . . . . . . . . . . . . . . . . 8.2.3. Prueba de la raz on de D Alembert o Cauchy. . . . . . . . . 8.2.4. Prueba integral de Cauchy o Maclaurin. . . . . . . . . . . . 8.2.5. Prueba de Kummer. . . . . . . . . . . . . . . . . . . . . . . 8.2.6. Prueba de Raabe. . . . . . . . . . . . . . . . . . . . . . . . . 8.2.7. Prueba de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . 8.2.8. Mejoramiento de convergencia. . . . . . . . . . . . . . . . . 8.3. Series alternadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.1. Criterio de Leibniz. . . . . . . . . . . . . . . . . . . . . . . . 8.3.2. Convergencia absoluta. . . . . . . . . . . . . . . . . . . . . . 8.4. Algebra de series. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.1. Mejoramiento de la convergencia, aproximaciones racionales. 8.4.2. Reordenamiento de series dobles. . . . . . . . . . . . . . . . 8.5. Series de funciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.1. Convergencia uniforme. . . . . . . . . . . . . . . . . . . . . . 8.5.2. Prueba M de Weierstrass. . . . . . . . . . . . . . . . . . . . 8.5.3. Prueba de Abel. . . . . . . . . . . . . . . . . . . . . . . . . . 8.6. Expansi on de Taylor. . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6.1. Teorema de Maclaurin. . . . . . . . . . . . . . . . . . . . . . 8.6.2. Teorema Binomial. . . . . . . . . . . . . . . . . . . . . . . . 8.6.3. Expansi on de Taylor de m as de una variable. . . . . . . . . . 8.7. Series de potencias. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.1. Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8. Convergencia uniforme y absoluta. . . . . . . . . . . . . . . . . . . 8.8.1. Continuidad. . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8.2. Diferenciaci on e integraci on. . . . . . . . . . . . . . . . . . . 8.8.3. Teorema de unicidad. . . . . . . . . . . . . . . . . . . . . . . 8.8.4. Inversi on de series de potencia. . . . . . . . . . . . . . . . . 8.9. Integrales el pticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.9.1. Deniciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.9.2. Expansi on de series. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

vi

INDICE 8.9.3. Valores l mites. . . . . . . . . . . . . . . . . 8.10. N umeros de Bernoulli. . . . . . . . . . . . . . . . . 8.10.1. Funciones de Bernoulli. . . . . . . . . . . . . 8.10.2. F ormula de integraci on de Euler-Maclaurin. 8.11. Funci on zeta de Riemann. . . . . . . . . . . . . . . 8.11.1. Mejoramiento de la convergencia. . . . . . . 8.12. Series asint oticas o semi-convergentes. . . . . . . . . 8.12.1. Funci on gama incompleta. . . . . . . . . . . 8.12.2. Integrales coseno y seno. . . . . . . . . . . . 8.12.3. Denici on de series asint oticas. . . . . . . . 8.12.4. Aplicaciones a c alculo num erico. . . . . . . . 8.13. Productos innitos. . . . . . . . . . . . . . . . . . . 8.13.1. Convergencia de un producto innito. . . . . 8.13.2. Funciones seno, coseno y gama. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 209 211 212 213 216 216 217 219 220 221 221 222 223 225 225 226 228 230 231 231 232 233 234 236 237 237 238 240

9. Ecuaciones diferenciales. 9.1. Ecuaciones diferenciales parciales . . . . . . 9.1.1. Ejemplos de PDE. . . . . . . . . . . 9.1.2. Clases de PDE y caracter stica. . . . 9.1.3. Las PDE no lineales. . . . . . . . . . 9.1.4. Condiciones de borde. . . . . . . . . 9.2. Ecuaciones diferenciales de primer orden. . . 9.2.1. Variables separables. . . . . . . . . . 9.2.2. Ecuaciones diferenciales exactas. . . . 9.2.3. Ecuaciones diferenciales ordinarias de 9.2.4. Conversi on a una ecuaci on integral. . 9.3. Separaci on de variables. . . . . . . . . . . . 9.3.1. Coordenadas cartesianas. . . . . . . . 9.3.2. Coordenadas cil ndricas circulares. . 9.3.3. Coordenadas polares esf ericas. . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . primer . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . orden lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

Indice de guras
1.1. 1.2. 1.3. 1.4. 1.5. El sistema Cartesiano estandard . . . Geometr a para la rotaci on vectorial . El producto punto. . . . . . . . . . . El producto cruz. . . . . . . . . . . . El arreglo de 3 3 3 de Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 . 9 . 12 . 14 . 15 . . . . . . . . . . . . . . . . . . . . . . . . . 20 22 23 26 27 28 28 30 31 32 36 36 37 38 42 44 44 45 45 46 47 48 50 54 55

2.1. Equipotenciales y l neas de campo el ectrico de dos l neas paralelas 2.2. La integral de l nea. . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Integrales de supercie. . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Supercies de = xy constante. . . . . . . . . . . . . . . . . . . 2.5. L neas de campo para = xy . . . . . . . . . . . . . . . . . . . . 2.6. Volumen diferencial. . . . . . . . . . . . . . . . . . . . . . . . . . 2.7. Flujo a trav es de las caras superior e inferior. . . . . . . . . . . . 2.8. Campos vectoriales circulantes y no circulantes. . . . . . . . . . . 2.9. Camino cerrado para la integral del rotor. . . . . . . . . . . . . . 2.10. Campos con rotor cero, gura (a) y distinto de cero, gura (b). . . 2.11. La suma de dos vol umenes diferenciales. . . . . . . . . . . . . . . 2.12. La suma de dos vol umenes diferenciales. . . . . . . . . . . . . . . 2.13. La suma de dos supercies diferenciales. . . . . . . . . . . . . . . 2.14. El Teorema de Stokes implica un potencial escalar. . . . . . . . . 3.1. El vector posici on . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. El sistema cil ndrico . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. El vector posici on en el sistema cil ndrico . . . . . . . . . . . . . . 3.4. El sistema polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Componentes polares de un vector . . . . . . . . . . . . . . . . . . 3.6. El sistema esf erico . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7. El vector posici on en coordenadas esf ericas . . . . . . . . . . . . . 3.8. Coordenadas curvil neas y vectores bases . . . . . . . . . . . . . . 3.9. Volumen diferencial de un sistema de coordenadas curvil neas . . 3.10. Orientaci on de la supercie para la integraci on curvil nea del rotor 3.11. Geometr a diferencial para integraci on curvil nea del rotor . . . .

de carga. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4.1. Sistemas rotados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 4.2. Componentes del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 4.3. Vectores base en el sistema primado. . . . . . . . . . . . . . . . . . . . . . . . 74
vii

viii

INDICE DE FIGURAS 4.4. 4.5. 4.6. 4.7. 4.8. 5.1. 5.2. 5.3. 5.4. 5.5. 5.6. Sistema de la mano derecha. . . . . . . . . . Vectores en el sistema de la mano derecha. . Sistema de la mano izquierda. . . . . . . . . Vectores en el sistema de la mano izquierda. El paralelogramo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 78 79 80 82 88 88 89 93 99 100

Los sistemas de coordenadas de la Relatividad Especial. . . . . . . . . Un sistema de coordenadas de la Relatividad General. . . . . . . . . . Un sistema de coordenadas ortonormal y otro inclinado. . . . . . . . Dos sistemas de coordenadas inclinados. . . . . . . . . . . . . . . . . Determinaci on de la base de vectores contravariante. . . . . . . . . . Componentes covariantes y contravariantes proyectadas de un vector.

6.1. Sistemas de coordenadas cartesianos. . . . . . . . . . . . . . . . . . . . . . . 6.2. Sistemas de coordenadas rotados en dos dimensiones. . . . . . . . . . . . . . 6.3. (a) Rotaci on respecto al eje x3 en un angulo ; (b) Rotaci on respecto a un eje x2 en un angulo ; (c) Rotaci on respecto a un eje x3 en un angulo . . . . . 6.4. Vector jo con coordenadas rotadas. . . . . . . . . . . . . . . . . . . . . . . . 6.5. Elipsoide del momento de inercia. . . . . . . . . . . . . . . . . . . . . . . . . 6.6. Vector jo con coordenadas rotada. . . . . . . . . . . . . . . . . . . . . . . . 7.1. 7.2. 7.3. 7.4. 7.5. Ilustraci on de la ecuaci on (7.13). . . . . . . . . . Ilustraci on de M = UMU ecuaci on (7.42). . . . Octeto bari onico diagrama de peso para SU(3). Separaci on de masa bari onica. . . . . . . . . . . Separaci on de masa bari onica. . . . . . . . . . . . . . . . suma de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. 121 . 124 . . . . . . . . . . . . . . . . . . . . 127 128 134 142 150 155 159 161 161 179 181 189 190 191 191 193 205 207 214 218

8.1. Prueba de comparaci on. . . 8.2. Comparaci on de integral con 8.3. Rearreglo de serie arm onica 8.4. Series dobles. . . . . . . . . 8.5. Series dobles. . . . . . . . . 8.6. Series dobles. . . . . . . . . 8.7. Convergencia uniforme. . . . 8.8. P endulo simple . . . . . . . 8.9. Integrales el pticas. . . . . . 8.10. Funci on zeta de Riemann. . 8.11. Sumas parciales. . . . . . . .

INDICE DE FIGURAS

INDICE DE FIGURAS

Parte I An alisis Tensorial

Cap tulo 1 Una breve revisi on de algebra lineal.


versi on nal 1.0-0804151

Este cap tulo presenta una r apida revisi on del algebra de vectores y de matrices. No intentamos cubrir por completo estos t opicos sino m as bien usarlos como introducci on a la notaci on con sub ndices y la convenci on de suma de Einstein. Estas herramientas nos simplicar an la a menudo complicada manipulaci on del algebra lineal.

1.1.

Notaci on.

Una notaci on estandard y consistente es un h abito muy importante a formar en matem aticas. Una buena notaci on no s olo facilita los c alculos sino que permite an alisis dimensional y ayuda a encontrar y corregir errores. As comenzamos por explicitar la notaci on que usaremos a trav es de los apuntes. S mbolo vi Mij [M ] v e i T L Cantidad Una componente de un vector Un elemento de una matriz o tensor la matriz completa Un vector Un vector base Tensor Un operador Cuadro 1.1: Notaci on Un vector tridimensional v puede ser expresado como v = vx e x + vy e y + vz e z , (1.1)

donde las componentes (vx , vy , vz ) son llamadas las componentes Cartesianas de v y ( ex , e y , e z ) son los vectores bases del sistema de coordenadas. La notaci on puede ser m as eciente a un si
Este cap tulo est a basado en el primer cap tulo del libro: Mathematical Physics de Brusse Kusse & Erik Westwig, editorial John Wiley & Sons, Inc..
1

DE ALGEBRA CAP ITULO 1. UNA BREVE REVISION LINEAL.

reemplazamos los sub ndices con letras (x,y ,z ), en las componentes, por sub ndices num ericos (1,2,3). Con esto, denimos: e 1 = e x v1 = vx e 2 = e y v2 = vy (1.2) e 3 = e z v3 = vz La ecuaci on (1.1) se transforma en v = v1 e 1 + v2 e 2 + v3 e 3 , o m as sucintamente v=
i=1 3

(1.3)

vi e i .

(1.4)

La gura (1.1) muestra esta modicaci on notacional sobre un t pico sistema de coordenadas Cartesiano. Aunque la notaci on de sub ndices puede ser usada en diferentes tipos de sistemas de coordenadas, en este cap tulo limitaremos nuestra discusi on al sistema Cartesiano. Los vectores bases Cartesianos son ortonormales y posici on independientes. Ortonormal signica que la magnitud de cada vector es unitaria y que ellos son perpendiculares entre ellos. Independiente de la posici on signica que los vectores bases no cambian su orientaci on cuando los movemos a trav es del espacio. Sistema de coordenadas no-Cartesianos son cubiertos en detalle en el cap tulo 3. un m as introduciendo la convenci on de suma La ecuaci on (1.4) puede ser compactada a de Einstein la cual supone que se suma cada vez que se repiten los sub ndices en el mismo t ermino. Por lo tanto
3

v=
i=1

vi e i = vi e i .

(1.5)

z y ey ex x

ez

e3

2 e2 1 e1

Figura 1.1: El sistema Cartesiano estandard Nos referimos a la combinaci on de los sub ndices y la convenci on de suma como la notaci on de Einstein.

1.1. NOTACION. Imaginemos ahora que queremos escribir una simple relaci on vectorial c=a+b .

(1.6)

Esta ecuaci on est a escrita en lo que se conoce como notaci on vectorial. Notemos que no depende de la elecci on de un sistema de coordenadas. En un particular sistema de coordenadas, nosotros podemos escribir la relaci on entre estos vectores en t erminos de sus componentes: c1 = a1 + b1 c2 = a2 + b2 c3 = a3 + b3 ci = ai + bi , (1.7)

Con la notaci on de sub ndices estas tres ecuaciones pueden ser escritas en una sola l nea, (1.8) donde el sub ndice i se puede reemplazar por cualquiera de los tres valores(1,2,3). Como veremos m as adelante el uso de la notaci on de Einstein puede simplicar dr asticamente la derivaci on de muchas relaciones matem aticas y f sicas. Sin embargo, los resultados escritos en esta notaci on est an amarrados a un particular sistema de coordenadas, lo que a menudo diculta la interpretaci on. Por esta raz on convertiremos nuestros resultados nales de vuelta a una notaci on vectorial cuando sea posible. Una matriz es un arreglo dos dimensional de cantidades que puede o no estar asociada con un particular sistema de coordenadas. Las matrices pueden ser expresadas usando diferentes tipos de notaci on. Si deseamos hablar sobre una matriz como un todo, sin especicar expl citamente todos sus elementos, la escribimos en notaci on matricial como [M ]. Si, por el contrario necesitamos listar todos los elementos de [M ], podemos escribirla como un arreglo rectangular entre un par de par entesis: M11 M12 M1c M21 M22 M2c [M ] = . (1.9) . . . . . . . . . . ., . Mr1 Mr2 Mrc Llamaremos a esta notaci on de arreglos matriciales El elemento individual de la tercera la segunda columna de [M ] es escrito como M23 . Notemos que la la de un elemento corresponde al primer ndice y la columna al segundo. No todos los arreglos son cuadrados, esto signica que en la ecuaci on (1.9) r no es necesariamente igual a c. La multiplicaci on entre dos matrices es s olo posible si el n umero de columnas en el premultiplicador es igual al n umero de las del postmultiplicador. El resultado de tal forma de multiplicaci on es otra matriz con el mismo n umero de columnas que el premultiplicador y el mismo n umero de columnas que el postmultiplicador. Por ejemplo, el producto entre una matriz 3 2 [M ] y una matriz 2 3 [N ] forma una matriz de 3 3 [P ], con los elementos dados por: M11 M12 M11 N11 + M12 N21 M11 N12 + M12 N22 M11 N13 + M12 N23 M21 M22 N11 N12 N13 = M21 N11 + M22 N21 M21 N12 + M22 N22 M21 N13 + M22 N23 . N21 N22 N23 M31 M32 M31 N11 + M32 N21 M31 N12 + M32 N22 M31 N13 + M32 N23
[N ] [M ] [P ]

(1.10)

DE ALGEBRA CAP ITULO 1. UNA BREVE REVISION LINEAL.

La multiplicaci on de la ecuaci on (1.10) puede ser escrita, en la notaci on matricial abreviada, como [M ] [N ] = [P ] . (1.11) Tambi en podemos usar la notaci on de Einstein para escribir el mismo producto como Mij Njk = Pik , (1.12)

con una suma impl cita sobre el ndice j . notemos que j est a en la segunda posici on de el t ermino Mij y en la primera posici on de el t ermino Njk , tal que la sumatoria es sobre las columnas de [M ] y sobre las las de [N ], tal como era en la ecuaci on (1.10). La ecuaci on on para el elemento ik - esimo de la matriz [P ]. (1.12) es una expresi La notaci on de arreglos matriciales es conveniente para hacer c alculos num ericos, especialmente cuando se usan computadores. Cuando derivamos las relaciones entre diversas cantidades en f sica es a menudo inadecuada porque carece de un mecanismo para mantener la pista de la geometr a del sistema de coordenadas. Por ejemplo, en un particular sistema de coordenadas , el vector v , puede ser escrito como v = 1 e1 + 3 e2 + 2 e3 . (1.13)

Cuando realizamos los c alculos es a veces conveniente usar una representaci on matricial del vector escribiendo 1 v [v ] = 3 . (1.14) 2 El problema con esta notaci on es que no hay una manera conveniente para incorporar los vectores bases en la matriz. Esta es la raz on de que fuimos cuidadosos y usamos una echa () en la ecuaci on (1.14) en vez del signo igual (=). En estos apuntes un signo igual entre dos cantidades signica que ellas son perfectamente equivalente en todas sus formas. Una cantidad puede ser subtituidas por la otra en cualquier expresi on. Por ejemplo, la ecuaci on (1.13) implica que la cantidad 1 e1 + 3 e2 + 2 e3 puede reemplazar a v en cualquier expresi on matem atica y vice-versa. En contraste la echa en (1.14) implica que [v ] puede representar a v y que los c alculos pueden ser realizados us andolo, pero debemos ser cuidadoso no son directamente substituibles uno por otro sin especicar los vectores bases asociados con las componentes de [v ].

1.2.

Operaciones vectoriales.

En esta secci on veremos varias de las operaciones vectoriales. Usaremos todas las diferentes formas de notaci on discutidas en la secci on previa para ilustrar sus diferencias. Inicialmente, nos concentraremos en la notaci on matricial y de arreglo matricial. Cuando progresemos usaremos la notaci on de Einstein m as frecuentemente. Como discutimos anteriormente un vector tridimensional v puede ser representada usando una matriz. Hay realmente dos maneras de escribir esta matriz. Una puede escribirla como

1.2. OPERACIONES VECTORIALES.

una matriz columna (3 1) o una matriz la (1 3), cuyos elementos son las componentes de el vector en alguna base Cartesiana: v1 v [v ] = v2 o v [v ] = v1 v2 v3 . (1.15) v3 la notaci on estandard [v ] es usada para indicar la traspuesta de [v ], indicando un intercambio de las por columnas. Recordemos que el vector v puede tener un n umero innito de diferentes representaciones de arreglos matriciales, cada una escrita con respecto a una diferente base coordenada.

1.2.1.

Rotaci on de vectores.

Consideremos la rotaci on simple de un vector en un sistema de coordenadas Cartesiano. Este ejemplo ser a trabajado, sin p erdida de generalidad, en dos dimensiones. Partimos con el vector a, el cual est a orientado en un angulo respecto al eje-1, como erminos de sus componentes Cartemuestra la gura 1.2. Este vector puede ser escrito en t sianas como a = a1 e 1 + a2 e 2 . (1.16) donde a1 = a cos a2 = a sen . (1.17)

2 a

2 1

Figura 1.2: Geometr a para la rotaci on vectorial


2 En esta expresi on a = |a| = a2 es 1 + a2 es la magnitud del vector a. El vector a generado por rotar el vector a en el sentido contrario a los punteros del reloj en un angulo . Esto cambia la orientaci on del vector pero no su magnitud. Por lo tanto, podemos escribir

a = a cos( + ) e 1 + a sen( + ) e 2 .
a1 a2

(1.18)

Las componentes a1 y a2 pueden ser reescritas usando las identidades trigonom etricas para seno y el coseno de la suma de angulos a1 = a cos( + ) = a cos cos a sen sen
a1 a2

a2 = a sen( + ) = a cos sen + a sen cos


a1 a2

(1.19)

10

DE ALGEBRA CAP ITULO 1. UNA BREVE REVISION LINEAL. Si nosotros representamos a a y a como matrices columna. a [a] = a1 a2 a [a ] = a1 a2 . (1.20)

La ecuaci on (1.19) puede ser puesta en forma de arreglo matricial a1 cos sen = a2 sen cos a1 a2 . (1.21)

En notaci on matricial abreviada, la podemos escribir como [a ] = [R()] [a] . (1.22)

En esta u ltima expresi on [R()]es llamada la matriz de rotaci on y est a claramente denida como cos sen [R()] = . (1.23) sen cos on (1.19), y para que Notemos que para que la ecuaci on (1.22) sea la misma que la ecuaci la multiplicaci on de matrices tenga sentido, las matrices [a] y [a ] deben ser matrices columnas y [R()] debe premultiplicar a [a]. El resultado de la ecuaci on (1.19) tambi en puede escribirse usando una representaci on la para [a] y [a ]. En este caso, las transpuestas de [R()], [a] y [a ] deben ser usadas, y [R()] debe postmultiplicar a [a] : [a ] = [a] [R()] . Escritos usando arreglos de matrices, estas expresiones llegan a ser a1 a2 = a1 a2 cos sen sen cos . (1.25)

(1.24)

on (1.21). Es f acil ver que la ecuaci on (1.25) es enteramente equivalente a la ecuaci Estas mismas manipulaciones pueden ser logradas usando la notaci on de Einstein. Por ejemplo, la ecuaci on (1.19) puede ser expresada como ai = Rij aj . (1.26)

La multiplicaci on de matrices en la ecuaci on (1.22) suma es sobre las columnas de los elementos de [R()]. Esto se logra en la ecuaci on (1.26) por la suma impl cita sobre j . A diferencia de la notaci on matricial en la notaci on de Einstein el orden de aj y Rij no es ya importante, porque Rij aj = aj Rij . (1.27) El vector a puede ser escrito usando la notaci on de Einstein combinada con la ecuaci on (1.26) con los vectores bases a = Rij aj e i . (1.28) Esta expresi on demuestra una propiedad de contabilidad notacional de la notaci on de Einstein. La suma sobre un sub ndice remueve la dependencia en expresi on, de la misma

1.2. OPERACIONES VECTORIALES.

11

manera que cuando uno integra sobre una variable. Por esta raz on, el proceso de sumar ndices es a menudo llamado contracci on sobre un ndice. Hay dos sumas en el lado derecho (LD) de la ecuaci on (1.28), una sobre i y la otra sobre j . Despu es de la contracci on sobre ambos sub ndices, no permanecen sub ndices en LD. Esto es consistente con el hecho de que no hay sub ndices en el lado izquierdo (LI) de la ecuaci on. La u nica notaci on sobre el LD es una echa sobre a indicando que es un vector, lo cual tambi en existe al LI con el vector unitario e i . Esta suerte de an alisis notacional puede ser aplicado a todas las ecuaciones. La notaci on sobre el LI de un signo igual debe estar siempre de acuerdo con la notaci on en el LD. Este hecho puede ser usado para chequear las ecuaciones. Por ejemplo, a = Rij aj , (1.29)

porque el sub ndice i permanece sobre el LD despu es de contraer sobre j , mientras en el LI no hay sub ndices. Adicionalmente, la notaci on indican que el LI es un cantidad vectorial, mientras el LD no le es.

1.2.2.

Productos vectoriales.

Ahora consideraremos los productos punto y cruz de dos vectores usando la notaci on de Einstein. Este tipo de producto est an presente en la f sica a todo nivel. El producto punto es usualmente encontrado primero cuando calculamos el trabajo W hecho por una fuerza F en la integral de l nea W = dr F . (1.30)

En esta ecuaci on, dr es un vector desplazamiento diferencial. El producto cruz puede ser usado para encontrar la fuerza sobre una part cula de carga q movi endose con velocidad v en un campo magn etico externo B q F = (v B ) , (1.31) c doden c es la velocidad de la luz en el vac o. El producto punto El producto punto o interno entre dos vectores A y B es un escalar denido por A B = |A||B | cos , (1.32)

donde es el angulo entre los dos vectores, como muestra la gura (1.3. Si nosotros tomamos el producto punto de un vector con si mismo tendremos la magnitud al cuadrado de dicho vector A A = |A|2 . (1.33) En notaci on de Einstein la ecuaci on (1.32) se escribe como A B = Ai e i Bj e j . (1.34)

Notemos que hemos ocupados dos ndices en A y B , esto es necesario para mantener las sumas independientes de la manipulaci on que sigue. La contabilidad notacional est a trabajando aqu ,

12

DE ALGEBRA CAP ITULO 1. UNA BREVE REVISION LINEAL.

porque no hay sub ndices en el LD, y ninguno en el LI despu es de las contracciones sobre ambos i y j . S olo los vectores bases est an involucrados en el producto punto, tal que la ecuaci on (1.34) puede ser reescrita como A B = Ai Bj ( ei e j ) . (1.35)

Como hemos restringido nuestra atenci on a sistemas cartesianos donde los vectores bases son ortogonales, tenemos 1 i=j e i e j = . (1.36) 0 i=j

2 A B 1
Figura 1.3: El producto punto. La delta de Kronecker ij = 1 i=j , 0 i=j (1.37)

facilita los c alculos que involucran productos puntos. Us andola, podemos escribir e i e j = ij , en la ecuaci on (1.35) se transforma en A B = Ai Bj ij . (1.38)

La ecuaci on (1.38) puede ser expandida haciendo expl citas las sumas sobre ambos ndices A B = A1 B1 11 + A1 B2 12 + A1 B3 13 + A2 B1 11 + . . . . (1.39)

Ya que la delta de Kronecker es cero a menos que los sub ndices sean iguales. La ecuaci on (1.39) se reduce a s olo tres t erminos. A B = A1 B1 + A2 B2 + A3 B3 = Ai Bi . (1.40)

Cuando nos familiaricemos con la notaci on de Einstein y la delta de Kronecker, estos u ltimos pasos ser an hechos en forma autom atica. En cualquier momento que aparezca en un t ermino una delta de Kronecker, con uno de sus sub ndices repetidos en cualquier otra parte del mismo t ermino, la delta de Kronecker puede ser removida, y cada instancia del sub ndice repetido cambiado por el otro sub ndice de la delta de Kronecker. Por ejemplo Ai ij = Aj . (1.41)

1.2. OPERACIONES VECTORIALES.

13

En la ecuaci on (1.38) la delta de Kronecker puede ser agrupada con el factor Bj ,y contra da sobre j para dar Ai (Bj ij ) = Ai Bi . (1.42) De la misma manera podemos agruparla con el factor Ai , y sumar sobre i para dar un resultado equivalente Bj (Ai ij ) = Bj Aj . (1.43) Esto es cierto para expresiones m as complicadas. Por ejemplo, Mij (Ak ik ) = Mij Ai o Bi Tjk ( em jm ) = Bi Tjk e j .

(1.44)

Esta exibilidad es una de las cosas que hace los c alculos realizados con notaci on de Einstein m as f acil que trabajar con notaci on de matrices. Deber amos precisar que la delta de Kronecker tambi en puede ser vista como una matriz o arreglo matricial. En tres dimensiones esta representaci on llega a ser 1 0 0 ij [1] = 0 1 0 . (1.45) 0 0 1 on matricial. NoteEsta matriz puede ser usada para escribir la ecuaci on (1.38) en notaci mos que la contracci on sobre el ndice i suma sobre las las de la matriz [1], mientras que la contracci on sobre j suma sobre las columnas. As , la ecuaci on (1.38) en notaci on matricial es 1 0 0 B1 A B [A] [1] [B ] = A1 A2 A3 0 1 0 B2 0 0 1 B3 = [A] [B ] . El producto cruz El producto cruz o producto vectorial entre dos vectores A y B forma un tercer vector C , el cual puede ser escrito como C =AB . (1.47) La magnitud del vector C es |C | = |A||B | sen , (1.48) donde es el angulo entre los dos vectores, como muestra la gura (1.4). la direcci on de C depende de que el sistema de coordenadas sea derecho. Por convenci on, los sistemas de coordenadas tridimensionales en f sica son usualmente derechos. Extendiendo los dedos de la manos derecha tal que ellos queden alineados con el vector base e 1 . Ahora, enrollemoslos hacia el vector base e 2 . Si el pulgar apunta a lo largo del vector base e 3 el sistema de coordenadas es derecho. Cuando un sistema de coordenadas est a dispuesto de esta manera la direcci on del producto cruz sigue una regla similar. Para determinar de C en la ecuaci on (1.47), apunte (1.46)

14

DE ALGEBRA CAP ITULO 1. UNA BREVE REVISION LINEAL.

los dedos a lo largo de A, y enrollelos apuntando hacia B , el pulgar apuntar a la direcci on de C . Esta denici on es a menudo llamada regla de la mano derecha. Notemos que la direcci on de C es siempre perpendicular al plano formado por A y B . Si por alguna raz on, usaremos un sistema zurdo, la denici on del producto cruz cambia y deber amos usar la regla de la mano izquierda. Por que la denici on del producto cruz cambia levemente cuando movemos la mano del sistema de coordenadas, el producto cruz no es exactamente un vector sino m as bien un pseudovector. Discutiremos esta distinci on m as adelante. Por ahora, limitaremos nuestra discusi on a sistema de coordenadas derecho, y trataremos el producto cruz como un vector ordinario.

B A

Figura 1.4: El producto cruz. Otra manera de expresar el producto cruz es usando el determinante de una matriz, donde algunos de sus elementos son los vectores bases: e 1 e 2 e 3 A B = A1 A2 A3 B1 B2 B3 .
det

(1.49)

Expandiendo el determinante de la ecuaci on (1.49) tenemos A B = (A2 B3 A3 B2 ) e1 + (A3 B1 A1 B3 ) e2 + (A1 B2 A2 B1 ) e3 . (1.50)

Esta u ltima expresi on puede ser escrita usando la notaci on de Einstein, con la presentaci on del s mbolo de Levi-Civita ijk : A B = Ai Bj e k donde
ijk ijk

(1.51)

es denido como on par de (1,2,3) +1 para (i, j, k ) = a una permutaci 1 para (i, j, k ) = a una permutaci on impar de (1,2,3) . ijk = 0 si dos o m as de los sub ndices son iguales

(1.52)

1.2. OPERACIONES VECTORIALES.

15

Una permutaci on impar de (1,2,3) es cualquier rearreglo de estos tres n umeros que pueda ser realizado con un n umero impar de intercambio de pares. As , las permutaciones impares de (1,2,3) son (2,1,3),(1,3,2) y (3,2,1). Similarmente las permutaciones pares de (1,2,3) son (1,2,3),(2,3,1) y (3,1,2). Ya que los sub ndices i, j y k pueden tomar independientemente los valores (1,2,3), una manera de visualizar el s mbolo de Levi-Civita es como un arreglo de 3 3 3 como lo muestra la gura (1.5)

k j i

313 111

ijk 331
Figura 1.5: El arreglo de 3 3 3 de Levi-Civita El producto cruz, escrito usando notaci on de Einstein en la ecuaci on (1.51), y el producto tiles para el c alculo manual y lo punto, escrito en la forma de la ecuaci on (1.38) son muy u veremos en los siguientes ejemplos

1.2.3.

C alculos usando notaci on de Einstein.

Ahora veremos algunos ejemplos para mostrar el uso de la notaci on de Einstein. El primer ejemplo muestra que la magnitud de un vector no es afectada por rotaciones. El objetivo primario de este ejemplo es mostrar como una derivaci on que es realizada enteramente con notaci on matricial tambi en puede ser realizada usando notaci on de sub ndices. El segundo ejemplo deriva una identidad vectorial conocida. Este ejemplo muestra como la notaci on de sub ndices es una poderosa herramienta para derivar complicadas relaciones vectoriales. Ejemplo 1 Volvamos a la gura de la rotaci on (1.2), y consideremos el producto AA y A A , primero usando notaci on matricial y luego usando notaci on de Einstein. Ya que A es generada por una rotaci on simple de A sabemos que estos dos productos puntos, los cuales representan la magnitud al cuadrado de los vectores, deber a ser iguales. Usando matrices: A A = [A] [A] A A = [A ] [A ] .

(1.53) (1.54)

16

DE ALGEBRA CAP ITULO 1. UNA BREVE REVISION LINEAL. Pero [A ] y [A ] pueden ser expresadas en t erminos de [A] y [A] como [A ] = [R()] [A] [A ] = [A] [R()] ,

(1.55)

donde R() es la matriz de rotaci on denida en la ecuaci on (1.23). Si estas dos ecuaciones son reemplazadas en la ecuaci on (1.54), tenemos A A = [A] [R()] [R()] [A] . El producto entre las dos matrices de rotaci on puede realizarse [R()] [R()] = y la ecuaci on (1.56) llega a ser A A = [A] [1] [A] = [A ] [A] A A . Nuestra conclusi on nal es que A A =AA . (1.59) Para llegar a este resultado usando matrices, tuvimos cuidado en hacer las operaciones de matrices en el orden correcto. Ahora repitamos la derivaci on usando notaci on de Einstein. La ecuaci on (1.40) nos permite escribir A A = Ai Ai A A = Aj Aj . (1.60) (1.61)

(1.56)

cos sen sen cos

cos sen 1 0 = sen cos 0 1

(1.57)

(1.58)

Notemos que debemos ser cuidadosos en usar diferentes sub ndices para las dos sumas en las ecuaciones (1.60) y (1.61). Esto asegura mantenerlas independientes cuando ellas sean manipuladas en los siguientes pasos. Las componentes primas pueden ser expresadas en t erminos de las componentes sin primas como Ai = Rij Aj , (1.62)

donde Rij es el ij - esimo elemento de la matriz de rotaci on R(). Insertando esta expresi on en la ecuaci on (1.61) obtenemos A A = Rru Au Rrv Av , (1.63)

donde nuevamente hemos sido cuidadosos en usar diferentes sub ndices u y v . Esta ecuaci on tiene tres sumas impl citas, sobre los ndices r, u y v . Un la notaci on con sub ndices, a diferencia de la notaci on de matrices, el orden de los t erminos no es importante, as podemos rearreglar la ecuaci on (1.63) tal que quede A A = Au Av Rru Rrv . (1.64)

1.2. OPERACIONES VECTORIALES.

17

Ahora nos concentramos en la suma sobre r, la cual s olo involucra los elementos de matriz de [R] en el producto Rru Rrv . Qu e signica este producto? Al comparar con las operaciones discutidas previas. En la ecuaci on (1.12) precisamos la expresi on en sub ndices Mij Njk representa el producto regular de matrices [M ] [N ] porque el ndice sumado j est a en la segunda posici on de la matriz [M ] y en la primera posici on en la matriz [N ]. La expresi on Rru Rrv , sin embargo, tiene una contracci on sobre el primer ndice en ambas matrices. Para que este producto tenga sentido, escribimos la primera instancia de [R] usando la transpuesta: Rru Rrv [R] [R] . De la ecuaci on (1.57) Rru Rrv = uv . Substituyendo este resultado en la ecuaci on (1.64) nos da A A = Au Av uv = Au Av = A A . (1.67) (1.66) (1.65)

Obviamente, este ejemplo es muy f acil. No quedo demostrada ninguna ventaja entre la notaci on de Einstein y la notaci on de matrices. Sin embargo, se destaca su equivalencia. En el siguiente ejemplo la notaci on de Einstein probar a ser m as indispensable Ejemplo 2 La notaci on de Einstein permite la derivaci on de identidades vectoriales que parecen imposibles usando otra manera. El ejemplo que trabajaremos ser a la derivaci on de la identidad del doble producto cruz entre tres vectores A (B C ). Este ejemplo muestra la mayor a de las operaciones comunes que ocurren en este tipo de manipulaciones. La expresi on A (B C ) est a escrita en notaci on vectorial y es v alida en cualquier sistema de coordenadas. Para derivar nuestra identidad, convertiremos esta expresi on en notaci on de Einstein en un sistema de coordenadas Cartesiano. Al nal retornaremos a la notaci on vectorial para obtener un resultado que no dependa de ning un sistema de coordenadas. En este ejemplo, necesitaremos usar la forma de sub ndices de un vector V = Vi e i , Para el producto punto entre dos vectores A B = Ai Bi , y para el producto cruz A B = Ai Bj e k Para comenzar, sea D =BC , lo cual escribimos usando el s mbolo de Levi-Civita como D = Bi Cj e k
ijk ijk

(1.68)

(1.69)

(1.70) (1.71)

(1.72)

18

DE ALGEBRA CAP ITULO 1. UNA BREVE REVISION LINEAL.

Substituyendo la ecuaci on (1.71) en la expresi on A(B C ) y usando Levi-Civita nuevamente A (B C ) = Ar Ds e t


rst

(1.73)

La s- esima componente de D es obtenida aplicando el producto punto con e s a ambos lados de la ecuaci on (1.72) como sigue Ds = e s D = e s Bi Cj e k ijk Bi Cj ijk ( es e k ) . Bi Cj ijk sk Bi Cj ijs on (1.73) da Sustituyendo el resultado de la ecuaci on (1.74) en la ecuaci A (B C ) = Ar Bi Cj lo cual puede ser levemente arreglado para leer A (B C ) = Ar Bi Cj e t
ijs rst

(1.74)

t rst ijs e

(1.75)

(1.76)

Para proceder, necesitamos desarrollar algunas de las propiedades del s mbolo de LeviCivita. Primero, de acuerdo a la denici on dada en la ecuaci on (1.52) es claro que intercambiar cualquier par de ndices s olo cambia el signo, i.e
ijk

ikj

jki

(1.77)

la segunda propiedad involucra el producto de dos s mbolos de Levi-Civita que tienen el u ltimo ndice en com un (1.78) ijk mnk = im jn in jm . Con una considerable cantidad de esfuerzo se puede mostrar que el LD de la ecuaci on (1.78) tiene todas las propiedades descrita para el producto de dos s mbolos de Levi-Civita en LI. on (1.76), que ahora puede Con las ecuaciones (1.77) y (1.78) podemos volver a la ecuaci ser reescrita como A (B C ) = Ar Bi Cj e t (rj ti ri tj ) . (1.79) Despu es de remover las deltas de Kronecker obtenemos A (B C ) = Aj Bi Cj e i Ai Bi Cj e j . (1.80)

En este punto uno puede realmente ver la utilidad de la notaci on de Einstein. Los factores en los dos t erminos del LD de la ecuaci on (1.80) pueden ser arreglados, agrupados de acuerdo a las sumas, y volver a la notaci on vectorial en s olo dos l neas! El procedimiento es A (B C ) = (Aj Cj )(Bi e i ) (Ai Bi )(Cj e j ) = (A C )B (A B )C . (1.81) (1.82)

La ecuaci on (1.81) es v alida s olo en un sistema Cartesiano. Como la ecuaci on (1.82) est a en notaci on vectorial, esta es v alida en cualquier sistema de coordenadas.

Cap tulo 2 Operadores en campos escalares y vectoriales.


versi on nal 1.0-0804151

Un campo es una funci on que depende del espacio y algunas veces tambi en del tiempo. El potencial el ectrico, la densidad de carga, la temperatura y la presi on son s olo una magnitud, y est an descritos por campos escalares. En cambio, el campo el ectrico, el campo magn etico, la gravedad, la densidad de corriente o la velocidad de un uido tienen magnitud y direcci on y son descritos por campos vectoriales. Los operadores diferenciales e integrales en campos escalares y vectoriales pueden ser expresados de forma un voca usando la notaci on y el formalismo de operadores, los cuales veremos en este cap tulo.

2.1.
2.1.1.

Dibujando campos escalares y vectoriales.


Dibujando campos escalares.

Los dibujos de los campos escalares son mucho m as f aciles de construir que los campos vectoriales, ya que los campos escalares est an caracterizados por un valor u nico en cada punto del espacio y del tiempo. Consideremos un ejemplo: el potencial el ectrico producido por dos l neas uniformes con carga 0 , las cuales est an ubicadas en (x = 1, y = 0). Para este caso, sabemos que = 0 ln (x + 1)2 + y 2 (x 1)2 + y 2 . (2.1)

Usualmente queremos construir las supercies donde es constante, usualmente llamadas equipotenciales, contornos o geod esicas, las cuales para este caso son cilindros alrededor de las l neas de carga. Ya que hay simetr a en la direcci on z , estas supercies pueden ser dibujadas en dos dimensiones como se ve en la gura 2.1. Los centros de estos c rculos est an ubicados a lo largo del eje x desde 1 < x < para los valores positivos de , y desde < x < 1 para los valores negativos de . = 0 se encuentra a lo largo del eje y .
Este cap tulo est a basado en el segundo cap tulo del libro: Mathematical Physics de Brusse Kusse & Erik Westwig, editorial John Wiley & Sons, Inc..
1

19

20

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Figura 2.1: Equipotenciales y l neas de campo el ectrico de dos l neas paralelas de carga.

2.1.2.

Dibujando campos vectoriales.

Como los vectores poseen magnitud y direcci on, los dibujos de los campos que componen son m as complicados que los campos vectoriales. Por ejemplo, las componentes cartesianas del campo el ectrico del ejemplo de la secci on anterior son x2 y 2 1 = 40 x [(x 1)2 + y 2 ][(x + 1)2 + y 2 ] 2xy Ey = = 40 y [(x 1)2 + y 2 ][(x + 1)2 + y 2 ]

Ex =

(2.2) . (2.3)

Un campo vectorial es dibujado t picamente construyendo l neas tangentes al campo vectorial en cada punto del espacio. Por convenci on, la densidad de estas l neas de campo indican la magnitud del campo, y echas muestran su direcci on. Si suponemos que las l neas de cama dada por la ecuaci on y = y (x), po el ectrico que expresan las ecuaciones (2.2) y (2.3) est entonces dy (x) Ey 2xy . = = 2 dx Ex x y2 1 Con un poco de algebra, la ecuaci on (2.4) puede ser integrada, obteniendo x2 + (y c)2 = 1 + c2 , (2.5) (2.4)

donde c es una constante de integraci on. Esta constante puede ser variada desde a para generar la familia de l neas de campo. Para este caso, estas l neas son c rculos centrados en y = c con un radio dado por 1 + c2 . Estas son mostradas como l neas s olidas en la gura 2.1. Las echas indican como el campo apunta desde la carga positiva a la negativa. Recordemos que donde las l neas est an m as densamente pobladas (entre las dos cargas) es donde el campo el ectrico es m as fuerte.

2.2. OPERADORES VECTORIALES.

21

2.2.
2.2.1.

Operadores vectoriales.
Notaci on del operador integral.

El gradiente, la divergencia y el rotor est an descritos naturalmente por su forma de operador. Esto es, que ellos son representados por un s mbolo que opera sobre otra cantidad. Por ejemplo, el gradiente de es escrito por . Aqu el operador es , el cual act ua sobre el operando , lo cual resulta en el gradiente. En cambio, la integral no es generalmente escrito en su forma de operador. La integral de f (x) sobre x es escrita de la siguiente forma f (x) dx , (2.6)

la cual no est a escrita en su forma de operador ya que la integral y el operando f (x) est an mezclados. Sin embargo, podemos poner la ecuaci on (2.6) en forma de operador reorganizando los t erminos en la ecuaci on, como sigue dx f (x) . (2.7)

Ahora el operador dx act ua sobre f (x) para formar la integral, tal como el operador act ua sobre para formar el gradiente. En la pr actica, el operador integral es colocado en la derecha, pasando a trav es de todos los t erminos del integrando que no dependen de la variable de integraci on. Por ejemplo, dx x2 (x + y )y 2 = y 2 dx x2 (x + y ) . (2.8)

2.2.2.

Integrales de l nea.

El proceso de tomar una integral a lo largo de un camino es llamado integral de l nea y es una operaci on com un en todas las ramas de la F sica. Por ejemplo, el trabajo que una fuerza F realiza cuando se mueve a trav es de un camino C es W =
C

dr F .

(2.9)

Aqu el operador integral de l nea C dr act ua sobre la fuerza F . El vector de desplazamiento diferencial dr es tangencial a cada punto a lo largo de C , como es mostrado en la gura 2.2. Si C se cierra sobre s mismo, escribimos el operador con un c rculo sobre el signo de integral, dr .
c

(2.10)

Ya que la ecuaci on (2.9) est a escrita en notaci on vectorial, es v alido en cualquier sistema de coordenadas. En el sistema de coordenadas Cartesiano, dr = dxi e i y la ecuaci on (2.9) se convierte en

22

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

dr r

Figura 2.2: La integral de l nea.

W =
C

dr F =
C

dxi Fi .

(2.11)

Notemos que la cantidad producida por esta integraci on es un escalar, ya que el sub ndice i est a sumado impl citamente. Hay otras operaciones integrales, las cuales son poco comunes. Por ejemplo, el operador dr = e i
C C

dxi

(2.12)

act ua sobre el escalar para producir un vector. Otro ejemplo, dr v = e k


C C

dxi

ijk vj

(2.13)

genera un vector usando el producto cruz. Notemos que todas las expresiones con sub ndices est an escritas en el sistema Cartesiano donde la base de vectores es ortonormal e independientes de la posici on.

2.2.3.

Integrales de supercie.

Las integrales de supercie son representadas por su operador integral d ,


S

(2.14)

donde d es un vector que representa un area diferencial. Este vector tiene una magnitud igual a un area diferencial de S , y una direcci on perpendicular a la supercie. Si escribimos el diferencial de area como d y el vector unitario normal n , el vector de area diferencial puede ser reescrito como d = n d . Como la supercie tiene dos lados, hay un problema para denir n . Para una supercie simple y cerrada, como por ejemplo la que se muestra en la gura 2.3(a), denimos n para que siempre apunte hacia afuera. Si la supercie no es cerrada, es decir, no encierra un volumen, la direcci on de n es denida por el camino cerrado C que dene los bordes de la supercie, y la regla de la mano derecha, como se muestra en la gura 2.3(b). Frecuentemente, el operador integral de supercie act ua sobre una cantidad vectorial mediante el producto punto

2.2. OPERADORES VECTORIALES.

23

z y

y C 1111111111111111111 0000000000000000000 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 d
(b)

000000 111111 1111111111111111111 0000000000000000000 000000 111111 0000000000000000000 1111111111111111111 000000 111111 0000000000000000000 1111111111111111111 000000 111111 0000000000000000000 1111111111111111111 000000 111111 0000000000000000000 1111111111111111111 d 000000 111111 0000000000000000000 1111111111111111111 000000 111111 0000000000000000000 1111111111111111111 000000 111111 0000000000000000000 1111111111111111111 000000 111111 0000000000000000000 1111111111111111111 000000 111111 0000000000000000000 1111111111111111111 00000000000000 11111111111111 000000 111111 00000000000000 11111111111111 000000 111111 00000000000000 11111111111111 000000 111111 00000000000000 11111111111111 000000 111111
x
(a)

Figura 2.3: Integrales de supercie.

d v .
S

(2.15) (2.16)

En coordenadas cartesianas, d = di e i , donde di es positivo o negativo dependiendo del signo de n e i , como se discuti o en el p arrafo anterior. Esta integral de supercie se transforma en d v =
S S

di vi .

(2.17)

Hay integrales de supercie poco comunes, como d = e i


S S

di ,

(2.18)

la cual es una operaci on sobre un escalar, la cual produce un vector, y d v = e k


S S

di

ijk vj

(2.19)

la cual tambi en produce un vector.

2.2.4.

Integrales de volumen.

Las integrales de volumen son los operadores integrales m as sencillos, ya que las variables de integraci on son escalares. Son escritas d ,
V

(2.20)

donde d es un volumen diferencial, y V representa el volumen total de integraci on. La integral de volumen m as com un act ua sobre una cantidad escalar y, como resultado, produce un escalar

24

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

d .
V

(2.21)

En coordenadas cartesianas, esto es escrito como dx1 dx2 dx3 .


V

(2.22)

Las integrales de volumen de cantidades vectoriales tambi en son posibles, d v =


V V

dx1 dx2 dx3 v .

(2.23)

2.3.

Operadores diferenciales.

Por su denici on, los campos son funciones de la posici on. An alogamente a c omo cambia una funci on de una variable, lo cual est a descrito por su derivada, la dependencia de la posici on de un campo escalar puede ser descrito por su gradiente, y la dependencia de la posici on de un campo vectorial puede ser descrito por su rotor y su divergencia. El operador nabla es usado para describir estas tres operaciones fundamentales. El operador est a escrito en una notaci on independiente del sistema de coordenadas. Este puede ser expresado con notaci on de Einstein en el sistema cartesiano como . (2.24) xi Esta expresi on ser a vista en otros sistemas de coordenadas en el cap tulo siguiente. Cuando opera sobre un campo escalar, el operador produce un vector llamado el gradiente =e i (x1 , x2 , x3 ) . (2.25) xi Por ejemplo, en electroest atica el campo el ectrico es igual a menos el gradiente del potencial el ectrico (x1 , x2 , x3 ) = e i (x1 , x2 , x3 ) . (2.26) xi El operador nabla tambi en act ua sobre campos vectoriales v a el producto punto o el producto cruz. La divergencia de un campo vectorial es una cantidad escalar creada usando el producto punto E = = e i Ai Aj e j = . (2.27) xi xi La densidad de carga en una regi on del espacio puede ser calculada usando la divergencia de la relaci on A=e i E = 4 . (2.28)

2.3. OPERADORES DIFERENCIALES.

25

En cambio, si utilizamos el producto cruz, generamos una cantidad vectorial llamada el rotor A= e i xi Aj e j = Aj xi k ijk e , (2.29)

donde hemos utilizado el s mbolo de Levi-Civita para expresar el producto cruz en notaci on de Einstein. Una de las ecuaciones de Maxwell relaciona el campo el ectrico con la tasa de cambio del campo magn etico usando el rotor, E = 1 B . c t (2.30)

2.3.1.

Vista f sica del gradiente.

El gradiente de un campo escalar es un vector que describe, en cada punto, c omo el campo cambia con la posici on. Aplicando producto punto a ambos lados de la ecuaci on (2.25) con dr = dxi e i obtenemos dr = dxi e i e j . xj (2.31)

Haciendo un poco de algebra en el lado derecho de la ecuaci on, obtenemos dr = dxi . xi (2.32)

El lado derecho de esta expresi on puede ser reorganizado como la diferencia total de carga de debido al cambio diferencial de posici on dr. El resultado puede ser escrito en notaci on vectorial como sigue d = dr . (2.33)

De la ecuaci on (2.33), es claro que el valor m aximo de d ocurre cuando dr apunta en la misma direcci on que . Por otra parte, un desplazamiento perpendicular a no produce cambio en , ya que d = 0. Esto signica que el gradiente siempre apuntar a perpendicular a las supercies donde es constante. Al comienzo de este cap tulo discutimos la funci on potencial el ectrico generado por dos l neas de carga. El campo el ectrico fue generado tomando el gradiente de este potencial escalar, y fue dibujado en la gura 2.1. Pudimos haber usado este ejemplo como modelo para desarrollar una vista F sica del operador gradiente, pero es un poco complicado. En cambio, observaremos una funci on de dos dimensiones mucho m as simple = xy . (2.34)

Un dibujo de las l neas equipotenciales en el plano x y es mostrado en la gura 2.4. Haciendo la operaci on gradiente obtenemos un vector de campo = y e x xe y . (2.35)

26

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Figura 2.4: Supercies de = xy constante. Ahora imaginemos que estamos en el punto (1, 2) y nos movemos a la derecha una cantidad innitesimal dr a lo largo del eje x positivo. El cambio correspondiente en puede ser determinado calculando d = dr = (2 ex 1 ey ) (dre x ) = 2dr .

(2.36)

Esto dice que disminuye en 2 unidades por cada paso innitesimal en esa direcci on. En cambio, si estamos sentados en el punto (3, 4) y nos movemos una cantidad innitesimal dr, con un angulo de 45 con respecto al eje x, cambia de la siguiente forma d = dr dr ex + e y ) = (4 ex 3 ey ) ( 2 7 = dr . 2 (2.37)

Notemos que estos cambios son por pasos innitesimales. Para calcular el cambio de sobre un camino nito, donde el gradiente cambia mientras nos vamos moviendo punto a punto, necesitamos usar la integral de l nea =
C

dr .

(2.38)

Cuando utilizamos el gradiente para generar un campo vectorial, usualmente se a nade un signo negativo en la denici on. Por ejemplo, el campo el ectrico es generado desde el potencial electrost atico por E = . (2.39)

2.3. OPERADORES DIFERENCIALES.

27

Usando esta convenci on, si nos movemos en contra de las l neas de campo aumenta. Para el potencial de la ecuaci on (2.34), el gradiente negativo es = y e x + xe y . Las l neas de campo para esta funci on pueden ser determinadas como sigue dy dx dy y y2 x2 y 2 x y = dx x = x2 + c =c. (2.40)

(2.41)

Estas l neas son perpendiculares a las lineas donde es constante, como es mostrado en la gura 2.5. Notemos c omo la densidad de las l neas del campo vectorial muestran que la magnitud del campo aumenta a medida que nos movemos al origen.

Figura 2.5: L neas de campo para = xy . En resumen, el gradiente de una funci on escalar genera un campo vectorial el cual, en cada punto indica la direcci on de crecimiento de y yacen perpendiculares a las l neas o supercies donde es constante. El ejemplo discutido anteriormente ha sido puesto en pr actica en dos dimensiones, pero el proceso tambi en puede ser visualizado en tres dimensiones, donde = constante generan supercies, y el gradiente es siempre normal a estas supercies. Salvo esta visualizaci on, no hay l mites en el n umero de dimensiones para el operador gradiente.

2.3.2.

Vista f sica de la divergencia.

El operador divergencia ser a descrito f sicamente desarrollando la ecuaci on de continuidad, la cual describe el campo en la densidad local de una part cula en un uido como funci on del tiempo. Sea (x, y, z, t) el n umero de part culas por unidad de volumen y v (x, y, z, t) la velocidad de estas part culas ubicadas en el punto (x, y, z ) y en el tiempo t. Consideremos un volumen diferencial d = dx dy dz localizado en (x0 , y0 , z0 ) como se muestra en la gura 2.6. La ecuaci on de continuidad es obtenida haciendo la suposici on que las part culas pueden

28

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

entrar o salir de este volumen, y despu es equiparar el ujo neto de part culas con cu antas part culas salieron o entraron con el consecuente cambio en . Si llamamos N d al n umero total de part culas en el volumen innitesimal, tenemos N (x0 , y0 , z0 , t) = dx dy dz . t t
1111111111111111111111 0000000000000000000000 0000000000000000000000 1111111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000000 1111111111111111111111
dz

(2.42)

1111111111111111111111 0000000000000000000000 0000000000000000000000 1111111111111111111111 0000000000000000000000 1111111111111111111111 dy 0000000000000000000000 1111111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000000 1111111111111111111111 x y z ( 0 , 0 , 0) dx

Figura 2.6: Volumen diferencial. La tasa de cambio de N en la ecuaci on (2.42) la tomaremos midiendo el ujo de part culas que pasa a trav es de las seis caras del volumen diferencial d . Consideremos la supercie achurada inferior de la gura 2.6. El ujo a trav es de esta supercie puede ser determinado umero total de part culas que entran al volumen en un con la ayuda de la gura 2.7(a). El n tiempo dt a trav es de esta supercie es igual al n umero de part culas en la regi on sombreada dx dy vz dt. Notemos que una velocidad positiva vz agrega part culas a este volumen, mientras que si es negativa suceder a lo contrario. Luego, la contribuci on inferior a N/t es Ninferior = (x0 , y0 , z0 , t) vz (x0 , y0 , z0 , t) dx dy . t
vz vz ( x 0 , y0 , z 0 + dz ) dt

(2.43)

dz
dz

vz vz ( x 0 , y0 , z 0 ) dt ( x 0 , y0 ,z 0 ) dx dy
( x 0 , y0 ,z 0 ) dx dy

(a)

(b)

Figura 2.7: Flujo a trav es de las caras superior e inferior. Notemos que tanto como y vz est an evaluados en (x0 , y0 , z0 ) en la u ltima ecuaci on. Denamos el vector densidad de corriente como J = v . La ecuaci on (2.43) puede ser escrita de forma m as compacta,

2.3. OPERADORES DIFERENCIALES.

29

Ninferior = Jz (x0 , y0 , z0 , t) dx dy . t

(2.44)

El mismo tipo de c alculo se hace de forma an aloga para la cara superior mostrada en la umero de part culas en gura 2.6. La gura 2.7(b) muestra que ahora vz positivo acarrea el n la regi on sombreada del volumen. Este lado contribuye Nsuperior = Jz (x0 , y0 , z0 + dz, t) dx dy t (2.45)

al cambio total N/t. Notemos que en este caso, evaluamos Jz en el punto (x0 , y0 , z0 + dz ). Combinando las ecuaciones (2.44) y (2.45) obtenemos Ninferior Nsuperior + = [Jz (x0 , y0 , z0 , t) Jz (x0 , y0 , z0 + dz, t)] dx dy . t t (2.46)

Esta expresi on puede ser escrita en t erminos de la derivada de Jz , ya que en el l mite diferencial tenemos Jz (x0 , y0 , z0 + dz, t) = Jz (x0 , y0 , z0 , t) + Substituyendo la ecuaci on (2.47) en (2.46) obtenemos Ninferior Nsuperior Jz + = t t z dx dy dz .
(x0 ,y0 ,z0 )

Jz z

dz .
(x0 ,y0 ,z0 )

(2.47)

(2.48)

Realizando el proceso an alogo para las otras cuatro supercies se obtienen resultados similares. Por tanto, el ujo total en el volumen diferencial es Jx N = t x
(x0 ,y0 ,z0 )

Jy y

(x0 ,y0 ,z0 )

Jz z

dx dy dz .
(x0 ,y0 ,z0 )

(2.49)

Lo cual es reconocido como J por d . Combinando este resultado con la ecuaci on (2.42), obtenemos la ecuaci on de continuidad = J . t (2.50)

Para una cantidad positiva de la divergencia de J , m as part culas est an dejando la regi on que entrando en ella, por tanto /t es negativo. Este ejercicio nos provee la interpretaci on f sica de la divergencia. Si la divergencia de un campo vectorial es positiva en una regi on, la regi on es una fuente. Las l neas de campo nacen en las regiones tipo fuente. Por otra parte, si la divergencia en una regi on es negativa, la regi on es considerada un sumidero. Las l neas de campo mueren en las regiones tipo sumidero. Si la divergencia de un campo vectorial es cero en una regi on, todas las l neas de campo que entran deben salir de esa regi on.

30

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

2.3.3.

Vista f sica del rotor.

El rotor de un campo vectorial es un vector, el cual describe en una escala local la circulaci on del campo. De la palabra rotor parece razonable concluir que si un campo vectorial tiene rotor distinto de cero las l neas de campo deben ser curvadas, mientras que si un campo vectorial tiene rotor cero las l neas de campo debiesen ser rectas. Esta concepci on est a errada. Es posible que las l neas de un campo vectorial aparezcan como es mostrado en la gura 2.8(a), describiendo una situaci on curvada y tener rotor igual a cero. Tambi en las l neas de campo mostradas en la gura 2.8(b) las cuales son rectas pueden tener rotor distinto de cero. Para resolver esta confusi on, debemos mirar el rotor en una escala distinta.

(a)

(b)

Figura 2.8: Campos vectoriales circulantes y no circulantes. Consideremos un campo vectorial v que s olo es funci on de x e y . El rotor de este campo apunta en la direcci on z , y de acuerdo a la ecuaci on (2.29) est a dado por v = vy vx x y e z (2.51)

para un sistema de coordenadas Cartesiano. Consideremos la integral de l nea del campo vectorial v alrededor de un camino cerrado, tal como se muestra en la gura 2.9, dr v .
C

(2.52)

El punto de comienzo para la integraci on es (x0 , y0 ). En esta derivaci on, necesitamos tener un poco m as de cuidado con las cantidades innitesimales, en contraste con la secci on anterior. Por esta raz on, imponemos que las dimensiones del camino cerrado sean x y y , como es mostrado en la gura. Luego comprimiremos estas cantidades a innitesimales para obtener el resultado nal. La integral a lo largo de C puede ser dividida en cuatro partes. Consideremos la integraci on a lo largo de C1 , donde y = y0 y x var a desde x0 a x
x0 +x

dr v =
C1 x0

dx vx .

(2.53)

2.3. OPERADORES DIFERENCIALES.


C3

31

C4

C2 y

(x0 , y0)

11 00 00 11 00 11 00 11

C1 x

Figura 2.9: Camino cerrado para la integral del rotor. A lo largo de este segmento podemos expandir vx (x, y0 ) en serie de Taylor, reteniendo el t ermino lineal en x vx (x, y0 ) vx (x0 , y0 ) + vx x (x x0 ) .
(x0 ,y0 )

(2.54)

No mantendremos los t erminos de m as alto orden, ya que no har an ninguna diferencia signicativa en los resultados. Sustituyendo la ecuaci on (2.54) en (2.53) y realizando la integraci on, obtenemos dr v vx (x0 , y0 )x +
C1

1 vx 2 x

(x)2 .
(x0 ,y0 )

(2.55)

La pr oxima integraci on la realizaremos a lo largo de C3 , la secci on superior del camino. A lo largo de este camino, mantendremos jo y = y0 + y , mientras que x var a desde x0 a x0 + x. Por tanto,
x0

dr v =
C3 x0 +x

dx vx .

(2.56)

Nuevamente, expandimos en Taylor vx (x, y0 + y ) a primer orden vx (x, y0 + y ) vx (x0 , y0 ) + vx x (x x0 ) +


(x0 ,y0 )

vx y

y .
(x0 ,y0 )

(2.57)

Reemplazando (2.57) en (2.56) y realizando la integral, obtenemos dr v vx (x0 , y0 )x


C3

1 vx 2 x

(x)2
(x0 ,y0 )

vx y

xy .
(x0 ,y0 )

(2.58)

Combinando las ecuaciones (2.55) y (2.58) obtenemos dr v +


C1 C3

dr v

vx y

xy .
(x0 ,y0 )

(2.59)

32

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Si hacemos el proceso an alogo para los caminos C2 y C4 , podemos combinar todos los resultados, obteniendo dr v
C

vy x

(x0 ,y0 )

vx y

xy .
(x0 ,y0 )

(2.60)

El error de la ecuaci on (2.60) desaparece cuando las dimensiones del camino disminuyen a dimensiones innitesimales, es decir cuando x 0 y y 0. Adem as, utilizando la ecuaci on (2.51), el t ermino entre par entesis del lado derecho de la ecuaci on (2.60) puede ser identicado como la componente z de v . Por tanto, podemos escribir l m dr v = e z ( v ) l m
C

C 0

s0

dz ,
S

(2.61)

donde C es el contorno que encierra a S y dz = dx dy es el area diferencial de esta supercie. Qu e nos dice esto acerca del rotor? El resultado en la ecuaci on (2.61) puede ser reescrito como e z ( v ) = l m
C

C,S 0

dr v . d z S

(2.62)

Esto nos dice que la componente z de v en un punto es la integral de l nea de v en un camino alrededor de este punto, dividido por el area del camino, en el l mite cuando el camino se vuelve muy peque no. Por tanto, el rotor no nos dice nada acerca de la circulaci on en una escala macrosc opica. Por tanto, ahora podemos entender las situaciones de la gura 2.8. Si el campo curvado mostrado en la gura 2.10(a) tiene una magnitud que decae como 1/r, exactamente suciente como para compensar el crecimiento en el camino mientras que r aumenta, luego la integral alrededor del camino diferencial cerrado mostrado en la gura es cero. Por tanto, el rotor en este punto tambi en es cero. Si la magnitud del campo vectorial recto mostrado en la gura 2.10(b) var a como indican las l neas de densidad, la integral alrededor del camino cerrado mostrado no puede ser cero y, por tanto, el rotor tambi en tendr a un valor distinto de cero.
000000 111111 111111 000000 000000 111111 000000 111111 000000 111111 000000 111111

0000000 1111111 1111111 0000000 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111

(a)

(b)

Figura 2.10: Campos con rotor cero, gura (a) y distinto de cero, gura (b). Hemos derivado la ecuaci on (2.61) en dos dimensiones y s olo escogimos la componente z del rotor. La generalizaci on de este resultado a tres dimensiones y cualquier orientaci on del camino diferencial viene dada por

2.3. OPERADORES DIFERENCIALES.

33

C 0

l m

dr v = ( v ) l m
C

s0

d .
S

(2.63)

2.3.4.

Identidades con operadores diferenciales.

La notaci on de Einstein facilita mucho el trabajo al tener que demostrar igualdades con los operadores diferenciales. Las relaciones presentadas en esta secci on son similares a las identidades vectoriales discutidas en el cap tulo anterior, excepto que ahora debemos considerar las reglas del c alculo diferencial. Como las identidades vectoriales, utilizaremos el sistema de coordenadas cartesiano, pero los resultados nales est an expresados en notaci on vectorial independiente del sistema de coordenadas. Ejemplo 1: Consideremos la expresi on de operadores (). Escribamos esta expresi on en notaci on de Einstein, hagamos la sustituci on =e i . xi (2.64)

Los dos operadores en la expresi on original debe ser escrita usando ndices independientes () = e i e j xi xj . (2.65)

Como los vectores base en el sistema cartesiano son independientes de la posici on, e j /xi = 0, y la ecuaci on (2.65) queda xi xj = ij xi xj = xi xi 2 2 2 = + + x2 x2 x2 1 2 3

() = ( ei e j )

(2.66)

En la u ltima l nea hemos escrito la suma expl citamente para hacer notar c omo se trabaja con la notaci on para este caso. La ecuaci on (2.66) puede ser escrita en notaci on vectorial 2 deniendo el operador laplaciano como 2 = = por tanto () = 2 (2.68) Ejemplo 2: Consideremos la expresi on v , la cual es el rotor del rotor de v . Esta identidad ser au til cuando desarrollemos la ecuaci on de las ondas electromagn eticas desde las xi xi = 2 2 2 + + x2 x2 x2 1 2 3 , (2.67)

34

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

ecuaciones de Maxwell. Para escribir esto en notaci on de Einstein, usaremos los s mbolos de Levi-Civita, vs rsj xi xr El algebra para encontrar la relaci on es como sigue v = v = xi = xi = xi = xi = xk k ijk e . (2.69)

vs k rsj ijk e xr vs k rsj ikj e xr vs (ri sk rk si ) e k xr vi vk e k e k xk xi xi vi (vk e k ) e k . xi xi xi

(2.70)

As , el lado derecho de la ecuaci on (2.70) es convertida a notaci on vectorial para obtener la igualdad v = v 2 v . (2.71)

Notemos que el operador Laplaciano puede actuar tanto en campos escalares como vectoriales. En la ecuaci on (2.68) el Laplaciano opera en un campo escalar, obteniendo un escalar. En cambio, en la ecuaci on (2.71) opera sobre un campo vectorial, obteniendo un vector.

2.4.

Deniciones integrales de los operadores diferenciales.

En las ecuaciones (2.25), (2.27) y (2.29) se muestran relaciones para hacer c alculos con la divergencia, el gradiente y el rotor. Cada una de estas relaciones son v alidas s olo en un sistema de coordenadas cartesianas y est an en t erminos de las derivadas espaciales de los campos. Las deniciones integrales de cada operador tambi en existen. Ya derivamos la expresi on para on, presentamos deniciones similares para el el rotor en la ecuaci on (2.63). En esta secci gradiente y la divergencia. Sus derivaciones, las cuales son similares a la ecuaci on (2.63) est an en los textos de c alculo. S olo presentaremos los resultados. El gradiente de un campo escalar en un punto particular puede ser generado por ds , (2.72) S,V 0 d V donde V es el volumen que incluye el punto de inter es y S es la supercie cerrada que encierra a V . Tanto V como S deben ser reducidas a tama no innitesimal para que esta relaci on se cumpla. = l m
S

2.5. LOS TEOREMAS.

35

Para obtener la divergencia de un campo vectorial en un punto, debemos integrar el campo vectorial sobre una supercie innitesimal S que encierre al punto, y dividimos por el volumen innitesimal, A = l m
S

S,V 0

d A . d V

(2.73)

Ya hab amos obtenido la denici on integral para el rotor, l m dr v = v l m


C

C 0

S 0

ds .
S

(2.74)

Esta denici on es un poco torpe, ya que requiere el c alculo de tres integrales diferentes, cada una con diferentes orientaciones de S , para obtener las tres componentes del rotor. La denici on integral que daremos a continuaci on no tiene este problema, pero usa una forma poco com un de integral de supercie A = l m
S

S,V 0

d A . d V

(2.75)

2.5.

Los teoremas.

Los operadores diferenciales nos proveen informaci on acerca de la variaci on de campos escalares y vectoriales en una escala innitesimal. Para aplicarlos en escala macrosc opica necesitamos introducir cuatro teoremas importantes. Estos son el Teorema de Gauss, el Teorema de Green, el Teorema de Stokes y el Teorema de Helmholtz, los cuales pueden ser directamente derivados de las deniciones integrales de los operadores. Damos especial atenci on en la demostraci on y discusi on del Teorema de Helmholtz ya que no es cubierto adecuadamente en muchos textos.

2.5.1.

Teorema de Gauss.

endola de una El teorema de Gauss lo podemos deducir de la ecuaci on (2.73), escribi manera ligeramente distinta A d = l m d A .
S

S 0

(2.76)

En esta ecuaci on, la supercie cerrada S rodea completamente el volumen d , el cual ha sido escrito innitesimalmente. La ecuaci on (2.76) puede ser aplicada en dos vol umenes adyacentes d1 y d2 que tienen una supercie en com un, como se muestra en la gura 2.11 A d1 + A d2 =
S1

d A +
S2

d A .

(2.77)

Las contribuciones a la integral de supercie de las supercies comunes se cancelan como se ve en la gura, por lo que la ecuaci on (2.77) puede ser escrita como

36

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

d 1
1111111111 0000000000 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111

d 2

d 1

1111111111 0000000000 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111 0000000000 1111111111

d2 A . d 1 + A . d 2 = 0

Figura 2.11: La suma de dos vol umenes diferenciales.

A d1 + A d2 =
S1+2

d A ,

(2.78)

donde S1+2 es la supercie exterior que encierra tanto como a d1 como d2 , como es mostrado umenes diferenciales contiguos en la gura 2.12. Podemos continuar este proceso sumando vol para formar un volumen arbitrario V encerrado por una supercie cerrada S . El resultado es llamado el Teorema de Gauss d A =
V S
00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 11111111111111111111 00000000000000000000 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 00000000000000000000 11111111111111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111 0000000000 1111111111 00000000000 11111111111

d A .

(2.79)

S 1+2

d 1 + d 2

Figura 2.12: La suma de dos vol umenes diferenciales.

2.5.2.

Teorema de Green.

El teorema de Green puede ser escrito de dos formas y se puede derivar directamente usando el Teorema de Gauss y algunas manipulaciones algebraicas. Comencemos considerando la expresi on (uv ), donde u y v son campos escalares. Usando una identidad de operadores, la cual puede ser demostrada f acilmente, podemos escribir (uv ) = u v + u2 v . Cambiando u con v , tenemos (2.80)

2.5. LOS TEOREMAS.

37

(v u) = v u + v 2 u . Restando la ecuaci on (2.80) con (2.81), tenemos (uv ) (v u) = u2 v v 2 u .

(2.81)

(2.82)

Finalmente, integramos ambos lados en la ecuaci on (2.82) sobre un volumen V , y aplicando el Teorema de Gauss, obtenemos una forma del Teorema de Green d (uv v u) =
S V

d [u2 v v 2 u] .

(2.83)

En esta expresi on, la supercie cerrada S rodea el volumen V . El mismo proceso es aplicado directamente en la ecuaci on (2.80), con lo cual obtenemos una segunda forma del Teorema de Green d (uv ) =
S V

d [u v + u2 v ] .

(2.84)

2.5.3.

Teorema de Stokes.

El teorema de Stokes se deriva de la ecuaci on (2.74) ( A) d = l m dr A ,


C

C 0

(2.85)

donde C es el camino que encierra la supercie diferencial d . La deducci on del Teorema de Stokes se sigue de forma similar que para el Teorema de Gauss. La ecuaci on (2.85) es aplicada a dos supercies diferenciales adyacentes que tienen un borde en com un, como es mostrado en la gura 2.13. El resultado es ( A) d1 + ( A) d2 =
C1+2
00000000000 11111111111 00000000000 11111111111 11111111111 00000000000 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 1111111111111111111 0000000000000000000 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111

dr A

(2.86)

C2

C1+2

d 2

C1

d1 + d 2

d1

Figura 2.13: La suma de dos supercies diferenciales. donde el camino C1+2 es el camino cerrado por d1 y d2 . Las integrales de l nea a lo largo de los bordes C1 y C2 se cancelan. Cualquier n umero de estas areas diferenciales pueden ser

38

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

sumadas para formar una supercie S arbitraria y el contorno cerrado C el cual rodea a S . El resultado es el Teorema de Stokes d ( A) =
S C

dr A .

(2.87)

Hay una consecuencia importante del Teorema de Stokes para los campos vectoriales que tienen rotor cero. Tales campos pueden ser siempre derivados desde un potencial escalar. Es decir, si A = 0 en todo el espacio, existe una funci on escalar (r) tal que A = . Para ver esto, consideremos los puntos 1 y 2 y dos caminos A y B arbitrarios entre ellos, como se muestra en la gura 2.14. Una integral de l nea cerrada puede ser formada combinando los caminos A y el contrario del camino B . Si A = 0 en todos lados, la ecuaci on (2.87) nos permite escribir dr A
A B

dr A =

dr A = 0 ,

(2.88)

o dr A =
A B

dr A .

(2.89)

La ecuaci on (2.89) nos dice que la integral de l nea de A entre los dos puntos es independiente del camino que se elija. Esto signica que es posible denir una funci on escalar de la posici on (r) tal que su diferencial total est e dado por d = dr A . (2.90)

Es convencional poner el signo negativo tal que aumente cuando se mueve en contra de nea (2.89) las l neas de campo de A. Reemplazando la ecuaci on (2.90) en las integrales de l muestra que estas integrales de l nea son iguales a
2

d = (1) (2) .
1

(2.91)

Recordando la ecuaci on (2.33), es claro que la condici on de la ecuaci on (2.90) puede ser reescrito como
Punto 2

Camino A

Camino B Punto 1

Figura 2.14: El Teorema de Stokes implica un potencial escalar.

2.5. LOS TEOREMAS.

39

A = .

(2.92)

En resumen, si el rotor de un campo vectorial es cero, el campo es derivable desde un campo escalar. Las integrales de l nea de este tipo de campos vectoriales es siempre independiente del camino tomado. Estos tipos de campo son llamados campos conservativos.

2.5.4.

Teorema de Helmholtz.

El Teorema de Helmholtz se enuncia de la siguiente manera: Un campo vectorial, si existe, es determinado en forma u nica especicando su divergencia y rotor en cualquier punto dentro de una regi on y su componente normal en la supercie cerrada que rodea esta regi on. Hay dos partes muy importantes en este enunciado. Por una parte, dice que si tenemos un campo v que estamos tratando de determinar, y conocemos los valores de v y v en todos los puntos en alg un volumen m as la componente normal de v en la supercie de este volumen, hay un s olo v que har a todo el trabajo. Por otra parte, hemos hecho la aclaraci on si es que existe. Esta calicaci on es necesaria ya que es enteramente posible especicar valores para la divergencia, el gradiente, el rotor y la componente normal de un campo vectorial que no pueden ser satisfechas por cualquier campo. Para probar el Teorema de Helmholtz supondremos dos campos vectoriales v1 y v2 que poseen los mismos valores de la divergencia, el gradiente, el rotor y la componente normal. Luego, mostraremos que si se da este caso, las dos soluciones deben ser iguales. Adem as, sea w = v1 v2 . Ya que la divergencia, el rotor y el producto punto son operadores lineales, w debe cumplir las siguientes propiedades

w = 0 en la regi on w = 0 en la regi on n w = 0 en la supercie. Ya que w = 0, w puede ser derivado de un potencial escalar w = . (2.94) (2.93)

Ahora aplicamos el Teorema de Green, en la forma de la ecuaci on (2.84), con u = v = , obteniendo d () =


S V

d () + .

(2.95)

Reemplazando en la ecuaci on (2.95), obtenemos d w =


S V

d ( w w w) .

(2.96)

40

CAP ITULO 2. OPERADORES EN CAMPOS ESCALARES Y VECTORIALES.

Usando la ecuaci on (2.93), que la integral de supercie en el lado izquierdo de la ecuaci on y la integral de volumen de w son ambas cero y que se cumple d w w =
V V

d |w|2 = 0 .

(2.97)

Ya que |w|2 es siempre una cantidad positiva, la u nica manera de que se satisfaga la ecuaci on (2.97) es que se cumpla w = 0 en todo el espacio. Por tanto, v1 = v2 y hemos probado el Teorema de Helmholtz. El Teorema de Helmholtz es u til para separar los campos vectoriales en dos partes, una con rotor cero y otra con divergencia cero. Esta discusi on se apoya en dos identidades ( A) = 0 = 0 , lo cual puede ser probado f acilmente. Escribimos v como v = A . Luego, podemos escribir v = 2 v =A n v =n ( A ) , (2.101) (2.100)

(2.98) (2.99)

ya que la divergencia, el rotor y la componente normal est an todas jas si A y est an jos, el Teorema de Helmholtz dice que v es u nico. Notemos que la contribuci on a v que viene de A no tiene divergencia, ya que ( A) = 0. Esto es llamado el rotacional o la parte solenoidal del campo y A es llamado el potencial vector. La porci on de v que viene de no tiene rotor, ya que = 0. Esto es llamado la parte irrotacional del campo y es llamado el potencial escalar.

Cap tulo 3 Sistemas de Coordenadas Curvil neos.


versi on nal 1.0-0804151

Hasta este punto, nuestra discusi on de operadores vectoriales, diferenciales e integrales ha estado limitada a sistemas de coordenadas cartesianas. Aunque conceptualmente son simples, estos sistemas a menudo no utilizan la simetr a natural de ciertos problemas. Considere el vector campo el ectrico creado por una carga puntual q ubicada en el origen de un sistema cartesiano. Usando una base cartesiana de vectores, este campo es E=q xx + yy + zz . 2 2 2 (x + y + z )3/2 (3.1)

En contraste, un sistema esf erico, descrito por las coordenadas (r, , ), explota completamente la simetr a de este campo y simplica la ecuaci on (3.1) a E= q r , r2 (3.2)

El sistema esf erico pertenece a la clase de sistema de coordenadas curvil neas. Los vectores base de un sistema curvil neo son ortonormales, tal como los de un sistema cartesiano, pero sus direcciones pueden ser funciones de la posici on. Este cap tulo generaliza los conceptos de los cap tulos previos para incluir sistemas de coordenadas curvil neos. Los dos sistemas m as comunes, esf ericos y cil ndricos son descritos primero con el n de proporcionar un marco para una discusi on m as abstracta de coordenadas curvil neas generalizadas que sigue.

3.1.

El vector posici on

El vector posici on r(P ) asociado con un punto P describe el desplazamiento desde el origen del sistema de coordenadas. Este tiene una magnitud igual a la distancia desde el origen hasta P y una direcci on que apunta desde el origen a este punto.
Este cap tulo est a basado en el tercer cap tulo del libro: Mathematical Physics de Brusse Kusse & Erik Westwig, editorial John Wiley & Sons, Inc..
1

41

42

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

e1 P r (P)
11 00 00 11 00 11

e1 P
11 00 00 11 00 11

r (P)

e2

e2

Figura 3.1: El vector posici on

Parece natural dibujar el vector posici on entre el origen y P como muestra la gura 3.1a. Aunque esto est a bien para sistemas de coordenadas cartesianas, esto puede acarrear dicultades en sistemas curvil neos. Los problemas surgen debido a la dependencia de la posici on de los vectores base del sistema curvil neo. Cuando dibujamos un vector, debemos ser cuidadosos de d onde est a ubicado. Si no lo hacemos, podr a no ser claro como descomponer el vector en t erminos de su base. A pesar de esta dicultad, el vector y su base podr an ser dibujados partiendo desde un mismo punto. Las componentes del vector curvil neo son entonces f acilmente obtenidas proyectando el vector en sus bases. Consecuentemente, para determinar las componentes del vector posici on, es mejor dibujarlo, as como sus vectores base, emanando desde P . Esto es mostrado en la gura 3.1b. Hay situaciones, sin embargo, en que es mejor dibujar el vector posici on desde el origen. Por ejemplo, integrales de l nea, como la mostrada en la gura 2.2 son mejor descritas de esta forma, porque la punta del vector posici on sigue el camino de integraci on. Nosotros ubicaremos el vector posici on como se muestra en la gura 3.1, dependiendo de cu al es la m as apropiada para la situaci on dada. En coordenadas cartesianas, la expresi on para el vector posici on es intuitiva y simple: r = ri e i = xi e i (3.3)

Las componentes (r1 , r2 , r3 ) son f acilmente identicadas como las coordenadas cartesianas (x1 , x2 , x3 ). Formalmente, r1 es obtenida haciendo el producto punto entre el vector base e 1 y el vector posici on r: r1 = e 1 r = x1 (3.4)

Si bien esto puede parecer exagerada, esta t ecnica puede ser usada para encontrar las componentes de un vector en cualquier sistema de coordenadas ortogonales.

3.2.

El sistema cil ndrico

Las coordenadas de un punto P descrito en un sistema cil ndrico son (, , z ). Las ecuaciones

3.2. EL SISTEMA CIL INDRICO

43

x = cos y = sen z=z y las correspondientes ecuaciones inversas

(3.5)

= x2 + y 2 = tan1 (y/x) z=z

(3.6)

gobiernan la relaci on entre coordenadas cil ndricas y las coordenadas de un superimpuesto sistema cartesiano, como muestra la gura 3.2a. Los vectores base unitarios para el sistema cil ndrico son mostrados en la gura 3.2b. Cada vector base apunta en la direcci on en que P se mueve cuando el correspondiente valor de la coordenada es incrementado. Por ejemplo, la direcci on de e se encuentra observando como P se mueve al incrementar . Este m etodo puede ser utilizado para determinar la direcci on de los vectores base de cualquier conjunto de coordenadas. A diferencia del sistema cartesiano, los vectores base cil ndricos no est an jos. Como el punto P se mueve, las direcciones de e y e cambian. Notemos tambi en que si P se encuentra exactamente en el eje z , es decir, = 0, las direcciones de e y e se indenen. Las coordenadas cil ndricas, tomadas en el orden (, , z ), forman un sistema de la mano derecha. Si usted al nea su mano derecha a trav es de e , y entonces rotar sus dedos apuntando en la direcci on de e , su pulgar apuntar a en la direcci on de e z . Los vectores base son tambi en as

e e = e e z = e z e = 0 e e = e e = e z e z = 1

(3.7)

El vector posici on expresado en coordenadas cil ndricas es

r = (r e ) e + (r e ) e + (r e z ) e z

(3.8)

44

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

z z
1 0

z
ez
000 111 111 000 000 111 000 111 000 111 000 111 000 111 000 111 1 0 000 111 000 111 000 111 000 111 111 000 111 000 000 111 000 111

y x x
Figura 3.2: El sistema cil ndrico

z
ez
1111 0000 0000 1111 0000 1111 0000 1111 0000 1111 000000 111111 000 111 0000 1111 1 0 000000 111111 000 111 000000 111111 000 111 000000 111111 000 111 000000 111111 000 111 000000 111111 000 111 000000 111111 000 111 000000 111111 000 111 000000 111111 000 111 000000 111111 000000 111111 000000 111111 000000 111111

ez

y x

111111 000000 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 000000 111111 0000 1111 000000 111111 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111

Figura 3.3: El vector posici on en el sistema cil ndrico

Notemos que e est a siempre perpendicular a r, como se muestra en la gura 3.3, por lo tanto la ecuaci on (3.8) se reduce a r = r e + rz e z (3.9)

La versi on bidimensional del sistema cil ndrico, con s olo las coordenadas (, ), es llamado un sistema polar plano. Este sistema, mostrado en la gura 3.4a, tiene vectores base e y e . El vector posici on, mostrado en la gura 3.4b, tiene s olo una componente y es expresado como r = e (3.10)

3.3. SISTEMA ESFERICO

45

Recuerde que un vector arbitrario v , a diferencia del vector posici on, puede tener ambas componentes ( y ), como se muestra en la gura 3.5.

y
e
11 00 00 11 00 11

y r
e e
11 00 00 11 00 11

P x
Figura 3.4: El sistema polar

v y
r e r
11 00 00 11 00 11

x
Figura 3.5: Componentes polares de un vector

3.3.

Sistema esf erico

Las tres coordenadas (r, , ) describen un punto en un sistema de coordenadas polares esf ericas. Su relaci on con un conjunto de coordenadas cartesianas se muestra en la gura 3.6. Las ecuaciones

x = r sen cos y = r sen sen z = r cos y las inversas

(3.11)

46

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

r=

x2 + y 2 + z 2 x x2 + y 2 z x2 + y 2 + z 2 (3.12)

= cos1 = cos1

permiten una conversi on entre los dos sistemas de coordenadas. La base de vectores unitarios para el sistema esf erico se muestra en la gura 3.6b. Como con las coordenadas cil ndricas, obtenemos la direcci on de cada vector base incrementando la coordenada asociada y observando como se mueve P . Note como los vectores base cambian con la posici on de el punto P . Si P se encuentra en el eje z las direcciones para e y e no est an denidas. Si P se encuentra en el origen e r tampoco est a denido. El sistema esf erico, con las coordenadas en el orden (r, , ), es un sistema de la mano derecha, tal como en el sistema Cartesiano y en el sistema cil ndrico. Tambi en es un sistema ortonormal porque

e r e = e r e = e e = 0 e r e r = e e = e e = 1

(3.13)

z
111 r 000 000 111 000 111 000 111 00000 11111 000 111 00000 11111 000 111 00000 11111 000 111 0000 1111 1 0 00000 11111 000 111 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111 0000 1111

1 0

y x x
Figura 3.6: El sistema esf erico

3.4. SISTEMAS CURVIL INEOS GENERALES

47

z
er

r r
1 0

e e

er
11 00

e e

y x
Figura 3.7: El vector posici on en coordenadas esf ericas

El vector posici on, mostrado en la gura 3.7, est a expresado en el sistema esf erico como r = (r e ) e + (r e ) e + (r e ) e Como r es siempre perpendicular a e y a e , la ecuaci on (3.14) se simplica a r = re r (3.15) (3.14)

3.4.

Sistemas curvil neos generales

Aunque los m as comunes, el sistema de coordenadas cil ndricas y el sistema de coordenadas polares esf ericas son s olo dos ejemplos de una gran familia de sistemas curvil neos. Un sistema es clasicado como curvil neo si este tiene vectores base ortonormales, pero no necesariamente constantes. Otros sistemas curvil neos menos comunes son el toroidal, el hiperb olico y el el ptico. En lugar de trabajar individualmente con las operaciones vectoriales del cap tulo anterior para cada uno de estos sistemas, se presenta un enfoque general que pueda abordar cualquier geometr a curvil nea.

3.4.1.

Coordenadas, vectores base y factores de escala

Las coordenadas (q1 , q2 , q3 ) y los correspondientes vectores base q 1 , q 2 y q 3 ser an usados para representar cualquier sistema curvil neo gen erico como se ve en la gura 3.8. Debido a que estos vectores base son funciones de posici on, deber amos siempre tener el cuidado de dibujarlos saliendo desde un punto particular, como se mencion o anteriormente en este cap tulo.

48

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

z
q1

P (q1 ,q2 ,q3)

11 00 00 11

q2 q3

y x
Figura 3.8: Coordenadas curvil neas y vectores bases

En el sistema de coordenadas cil ndrico y esf erico exist a un conjunto de ecuaciones que relacionaban sus coordenadas con un conjunto standard de coordenadas cartesianas. Para el caso general, escribimos estas ecuaciones como

xi = xi (q1 , q2 , q3 ) qi = qi (x1 , x2 , x3 ) ,

(3.16) (3.17)

Donde el sub ndice de la notaci on se ha arrastrado para mantener las cosas concisas. En estas dos ecuaciones, el sub ndice i toma los valores (1, 2, 3). Las variables xi siempre representan coordenadas Cartesianas, mientras que los qi son coordenadas curvil neas generales. Una expresi on para q i , el vector base unitario asociado con la coordenada qi , puede ser construida incrementando qi , observando como el vector posici on cambia y entonces normalizando: q i = r/qi hi (3.18)

donde hi = |r/qi |. Esta ecuaci on es un poco confusa porque no hay una suma sobre el ndice i en el lado derecho, aunque el ndice aparece dos veces. Esto est a sutilmente impl cito en la notaci on, porque hay un sub ndice i al lado izquierdo. Los hi , los cuales a veces son llamados factores de escala, obligan a los vectores base a tener largo unitario. Ellos pueden ser escritos en t erminos de las coordenadas curvil neas. Para ver esto, escriba el vector posici on en t erminos de sus componentes Cartesianas, que a su vez se escriben como funci on de las coordenadas curvil neas: r = xj (q1 , q2 , q3 ) e j Para ello, (3.19)

3.4. SISTEMAS CURVIL INEOS GENERALES

49

r xj (q1 , q2 , q3 ) = e j qi qi

(3.20)

r = hi = qi

x1 qi

x2 qi

x3 qi

(3.21)

La interpretaci on f sica de los factores de escala es simple. Para un cambio dq1 de la coordenada q1 , el vector posici on cambia una distancia |dq1 h1 |. Para ello, usando la ecuaci on (3.18), el vector desplazamiento puede ser escrito en el sistema curvil neo como

dr =

r dqi qi = dqi hi (q1 , q2 , q3 ) q i

(3.22)

donde ahora hay una suma sobre el ndice i en el lado derecho ya que no hay sub ndice en el lado izquierdo. Ya que los factores hi pueden cambiar con la posici on, un elemento de volumen diferencial en un sistema curvil neo, no es necesariamente un cubo como en el sistema Cartesiano. Como veremos en la pr oxima secci on, los lados de un volumen diferencial en un sistema curvil neo var an en largo y pueden tener curvatura.

3.4.2.

Geometr a diferencial.

La gura 3.9 representa una supercie diferencial encerrando en volumen innitesimal en un sistema curvil neo. Esta gura ser a la base para la derivaci on, en coordenadas curvil neas generales, de la divergencia y el rotor, as como de integrales de supercie y de volumen.

50

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

11111111111111111111111 00000000000000000000000 q2 00000000000000000000000 11111111111111111111111 )d 00000000000000000000000 11111111111111111111111 q d 00000000000000000000000 11111111111111111111111 + 00000000000000000000000 11111111111111111111111 ,q 3 00000000000000000000000 11111111111111111111111 ,q 2 00000000000000000000000 11111111111111111111111 q1 ( 00000000000000000000000 2 h11111111111111111111111 00000000000000000000000 11111111111111111111111 00 11 00000000000000000000000 11111111111111111111111 ( q , q2 ,q + dq 11 00 ) 11111111111111111111111 00 1 3 00000000000000000000000 311 00000000000000000000000 11111111111111111111111 0000000000000000000 1111111111111111111 h 00000000000000000000000 11111111111111111111111 ( q , q ,q + 0000000000000000000 1111111111111111111 00000000000000000000000 11111111111111111111111 dq ) q2 0000000000000000000 1111111111111111111 3 dq 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 0000000000000000000 1111111111111111111 0000000000000000000000 1111111111111111111111 q ) dq , q 0000000000000000000 1111111111111111111 , 0000000000000000000000 1111111111111111111111 (q 0000000000000000000 1111111111111111111 0000000000000000000000 (q ,q ,q1111111111111111111111 ) h
3
1 1 2 3

q3

h3 (q1 ,q2 ,q3 ) d q3

q1

(q

,q

,q )
1

dq

Figura 3.9: Volumen diferencial de un sistema de coordenadas curvil neas

El volumen est a formado escogiendo un punto de partida (q1 , q2 , q3 ) y luego construyendo otros siete v ertices movi endose desde este punto con peque nos cambios de coordenadas dq1 ,dq2 y dq3 . En el l mite diferencial, la longitud a lo largo de cada borde del cubo deformado est a dado por el correspondiente dqi veces su factor de escala. El factor de escala se eval ua en un conjunto de coordenadas que corresponde a su valor inicial en el borde. Si la coordenada qi es igual a qi + dqi todos a lo largo de un borde, este se ja en qi + dqi . Si la coordenada qi va desde qi hasta qi + dqi en un borde, este se ja en qi . Esta es una manera un poco arrogante de tratar la dependencia de la posici on de estos factores, aunque se den todos los resultados correctos para nuestras derivaciones. Un acercamiento m as riguroso, en el cual eval ua el valor medio del factor de escala en cada borde puede ser hecha expl citamente. Siguiendo este acercamiento, un elemento diferencial de volumen es simplemente d = dq1 dq2 dq3 h1 h2 h3 |(q1 ,q2 ,q3 ) , (3.23)

donde los hi est an evaluados en el punto (q1 , q2 , q3 ). La supercie diferencial de la cara sombreada inferior es dinferior = dq1 dq2 h1 h2 q 3 |(q1 ,q2 ,q3 ) , (3.24)

donde el signo menos es debido a que la supercie normal es antiparalela a q 3 . Por el contrario, la supercie diferencial de la cara sombreada superior es

3.4. SISTEMAS CURVIL INEOS GENERALES

51

dsuperior = dq1 dq2 h1 h2 q 3 |(q1 ,q2 ,q3 +dq3 ) ,

(3.25)

El signo menos no aparece porque ahora la supercie es paralela a q 3 . En este caso h1 , h2 y el vector base q 3 est an evaluados en el punto (q1 , q2 , q3 + dq3 ).

3.4.3.

El vector desplazamiento

El vector desplazamiento dr juega un rol central en las matem aticas de sistemas curvil neos. Una vez que la forma de dr es conocida, las ecuaciones para la mayor a de las operaciones vectoriales puede ser f acilmente determinada. Seg un el c alculo diferencial multivariable, dr puede ser escrito dr = r dqi . qi (3.26)

Como mostramos en la ecuaci on (3.22), este puede ser escrito usando los factores de escala como dr = dqi hi q i , (3.27)

En un sistema Cartesiano qi = xi , q i = e i y hi = 1, as la ecuaci on (3.27) se convierte en la familiar dr = dxi e i . En coordenadas cil ndricas, h1 = h = 1, h2 = h = y h3 = hz = 1 as dr = dq1 q 1 + dq2 q 2 + dq3 q 3 = de + de + dz e z . (3.28)

(3.29)

3.4.4.

Producto de vectores

Como los sistemas curvil neos son ortonormales, tenemos que q i q j = ij . (3.30)

Esto signica que el producto punto de dos vectores, A y B , tienen la misma forma que en un sistema Cartesiano: A B = Ai q i Bj q j = Ai Bj ij = Ai Bi . (3.31)

Aqu Ai y Bi son las componentes curvil neas de los vectores, las cuales pueden ser obtenidas tomando las proyecciones a los ejes paralelos de los vectores en los vectores base: Ai = A q i . (3.32)

Con el orden correcto, siempre podemos arreglar nuestras tres coordenadas curvil neas para ser un sistema de la mano derecha. Entonces, la forma del producto cruz es tambi en

52

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

la misma como en un sistema Cartesiano. El producto cruz de A y B expresado usando los s mbolos de Levi-Civita es A B = Ai q i Bj q j = Ai Bj q k
ijk

(3.33)

3.4.5.

La integral de l nea

Usando la expresi on para el vector desplazamiento en la ecuaci on (3.27), la integral de l nea en sistemas curvil neos es sencillamente dr v =
C

dqj hj q j vi q i .

(3.34)

En el lado derecho de la ecuaci on hay una suma sobre i y j . Ya que la base de vectores curvil neos es ortonormal, la integral de l nea se transforma en dr v =
C

dqj hj vj .

(3.35)

3.4.6.

Integral de supercie

Las integrales de supercies curvil neas son un poco m as complicadas debido a que se debe considerar la orientaci on de la supercie. Recordando la gura 3.9 y las ecuaciones (3.24) y (3.25), la integral de supercie de un vector V es d V =
C S

dq1 dq2 h1 h2 V3 dq2 dq3 h2 h3 V1 dq1 dq3 h1 h3 V2 ,

(3.36)

donde cada signo m as o menos debe ser elegido dependiendo del signo de d q i .

3.4.7.

La integral de volumen

nea en La geometr a de la gura 3.9 puede ser usada para derivar la forma de integrales de l sistemas curvil neos. El elemento de volumen en el l mite innitesimal, es simplemente d = dq1 dq2 dq3 h1 h2 h3 (q1 , q2 , q3 ). Para ello la integral de una funci on (r) sobre alg un volumen V es expresada como d (r) =
V V

dq1 dq2 dq3 h1 h2 h3 (q1 , q2 , q3 ) .

(3.37)

3.4.8.

El gradiente

En el cap tulo 2, mostramos como el gradiente de una funci on escalar se dene como d = dr . Usando la ecuaci on (3.27) para dr tenemos que d = dqj hj q j . (3.39) (3.38)

3.4. SISTEMAS CURVIL INEOS GENERALES El c alculo diferencial implica que d = ( /qi )dqi , as dqi = dqj hj q j . qi La u nica forma de que se cumpla la ecuaci on (3.40) es que = 1 hi qi q i .

53

(3.40)

(3.41)

3.4.9.

La divergencia

La operaci on divergencia en un sistema curvil neo es m as complicada que el gradiente y debe ser obtenida desde la denici on de integral A = l m
S

S,V 0

d A d V

(3.42)

donde S es la supercie cerrada que encierra al volumen V . Consideremos nuevamente el volumen diferencial de la gura 3.9. El denominador de la mite innitesimal es sencillo ecuaci on (3.42) para este volumen en el l d = dq1 dq2 dq3 h1 h2 h3 .
V

(3.43)

Para evaluar el numerador, la integraci on sobre las seis supercies de V debe ser desarrollada. Primero, consideremos las dos caras sombreadas de la gura 3.9, con las normales alineadas paralela o antiparalelamente a q 3 . La integral sobre la supercie interior es d A = dq1 dq2 (h1 h2 A3 )|(q1 ,q2 ,q3 ) . (3.44)

inferior

El signo menos surge porque en esta supercie d y q 3 est an antiparalelas. Note tambi en que A3 , h1 y h2 son todas funciones de las coordenadas curvil neas y est an evaluadas en (q1 , q2 , q3 ), el valor inicial de las coordenadas en esta supercie. La integral sobre la supercie superior es d A = dq1 dq2 (h1 h2 A3 )|(q1 ,q2 ,q3 +dq3 ) . (3.45)

superior

En este caso no hay signo menos porque la supercie normal est a orientada paralela a q 3 . El valor inicial de la coordenada q3 ha cambiado en dq3 comparado con la supercie inferior y por lo tanto A3 , h1 y h2 deben ser evaluados en el punto (q1 , q2 , q3 + dq3 ). En el l mite diferencial (h1 , h2 A3 )|(q1 ,q2 ,q3 +dq3 ) = (h1 , h2 A3 )|(q1 ,q2 ,q3 ) + as la suma de las ecuaciones (3.44) y (3.45) es (h1 , h2 A3 ) q3 ,
(q1 ,q2 ,q3 )

(3.46)

54

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

d A =
ambas

(h1 h2 A3 ) dq1 dq2 dq3 . q3

(3.47)

Combinando este resultado con integraciones similares sobre las restantes cuatro supercies d A =
S

(h2 h3 A1 ) (h1 h3 A2 ) (h1 h2 A3 ) + + dq1 dq2 dq3 . q1 q2 q3

(3.48)

on (3.42) obtenemos el resultado Sustituyendo las ecuaciones (3.43) y (3.48) en la ecuaci A= 1 (h2 h3 A1 ) (h1 h3 A2 ) (h1 h2 A3 ) + + h1 h2 h3 q1 q2 q3 . (3.49)

3.4.10.

El rotor

El rotor para un sistema de coordenadas curvil neas tambi en puede ser derivada desde la denici on de integral: A l m d = l m
S

S 0

C 0

dr A ,
C

(3.50)

donde C es un camino cerrado que encierra a la supercie S y la direcci on de d es denida v a C y por la convenci on de la mano derecha.

3 2 C

q1 1
Figura 3.10: Orientaci on de la supercie para la integraci on curvil nea del rotor

Una componente del rotor puede ser escogida orientando d en la direcci on de un vector base. Consideremos la gura 3.10, donde d est a orientado para elegir la componente q 1 , en este caso d = h2 q2 h3 dq3 q 1 , as el lado izquierdo de la ecuaci on (3.50) en el l mite diferencial se convierte en

3.4. SISTEMAS CURVIL INEOS GENERALES

55

A l m

S 0

d = dq2 dq3 h2 h3 q 1 A ,
S

(3.51) = dq2 dq3 h2 h3 A .


1

La integral de l nea en el lado derecho de la ecuaci on (3.50) naturalmente divide en cuatro partes a lo largo de Ca , Cb , Cc y Cd , como se muestra en la gura 3.11. La integral completa es entonces dada por

dr A =
C Ca

dq2 h2 A2 +
Cb

dq3 h3 A3 +
Cc

dq2 h2 A2 +
Cd

dq3 h3 A3 .

(3.52)

111111111111111 000000000000000 000000000000000 111111111111111 2 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 3 000000000000000 111111111111111 000000000000000 111111111111111 2 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 1 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 2 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 e 000000000000000 111111111111111

)d ,q q , (q
C

00 11 (q1 ,q2 ,q3 + dq ) 00 11 00 3 11

Cb C

Cd
111111111111111 000000000000000 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 a 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 2 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 3 000000000000000 111111111111111 000000000000000 111111111111111 000000000000000 111111111111111 2 000000000000000 111111111111111 000000000000000 111111111111111 11 00 1 000000000000000 111111111111111 11 00 000000000000000 111111111111111 000000000000000 111111111111111 2 000000000000000 111111111111111

(q1 ,q2 ,q3)

)d ,q q , (q

Figura 3.11: Geometr a diferencial para integraci on curvil nea del rotor

En el l mite diferencial, la integral a trav es de Ca vale dq2 h2 A2 = (h2 A2 )|(q1 ,q2 ,q3 ) dq2 , (3.53)

Ca

donde evaluamos A2 y h2 en el punto (q1 , q2 , q3 ). Igualmente, la contribuci on a lo largo de Cc es dq2 h2 A2 = (h2 A2 )|(q1 ,q2 ,q3 +dq3 ) dq2 (3.54)

Cc

donde ahora evaluamos A2 Y h2 en (q1 , q2 , q3 + dq3 ). En el l mite diferencial, (h2 A2 )|(q1 ,q2 ,q3 +dq3 ) = (h2 A2 )|(q1 ,q2 ,q3 ) + (h2 A2 ) q3 dq3 ,
(q1 ,q2 ,q3 )

(3.55)

56

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS. lo cual permite que las integrales a lo largo de Cb y Cd se combinen para dar dr A =
Ca + Cc

(h2 A2 ) q3

dq2 dq3 .
(q1 ,q2 ,q3 )

(3.56)

Integraciones similares pueden ser desarrolladas a lo largo de Cb y Cd . La combinaci on de las cuatro partes lleva a l m A dr =
C

C 0

(h3 A3 ) (h2 A2 ) dq2 dq3 . q2 q3

(3.57)

Sustituyendo las ecuaciones (3.57) y (3.51) en la ecuaci on (3.50) tenemos la 1-componente del rotor de A: A
1

1 (h3 A3 ) (h2 A2 ) h2 h3 q2 q3

(3.58)

Las otras componentes de A pueden ser obtenidas reorientando la supercie mostrada en la gura 3.10. Los resultados son 1 (h1 A1 ) (h3 A3 ) h1 h3 q3 q1 (h2 A2 ) (h1 A1 ) 1 = h1 h2 q1 q2 =

A
2

(3.59) , (3.60)

A
3

Las ecuaciones (3.58)-(3.60) pueden ser usadas m as compactamente usando un determinante, 1 A= h1 h2 h3 h1 q 1 h2 q 2 h3 q 3 /q1 /q2 /q3 h1 A1 h2 A2 h3 A3

(3.61)

o usando los s mbolos de Levi-Civita y la notaci on de Einstein, A= (hk Ak ) q i . hj hk qj


ijk

(3.62)

3.5.
3.5.1.

Gradiente, divergencia y rotor en sistemas cil ndricos y esf ericos


Operaciones cil ndricas

En el sistema cil ndrico h1 h = 1, h2 h = y h3 hz = 1. El gradiente, la divergencia y el rotor se convierten en = 1 q + q + q z z (3.63)

3.5. GRADIENTE, DIVERGENCIA Y ROTOR EN SISTEMAS CIL INDRICOS Y ESFERICOS 57

A=

1 (A ) 1 A Az + + z

(3.64)

A=

A Az 1 (A ) A 1 Az A q + q + q z . z z

(3.65)

3.5.2.

Operaciones esf ericas

En el sistema esf erico h1 hr = 1, h2 h = r y h3 h = r sen . El gradiente , la divergencia y el rotor se convierten en = A= 1 1 q r + q + q r r r sen (3.66) (3.67)

1 (r2 Ar ) 1 sen A 1 A + + 2 r r r sen r sen

A=

1 (sen A ) A q r + r sen 1 1 Ar (rA ) 1 (rA ) Ar q + q . (3.68) r sen r r r

58

CAP ITULO 3. SISTEMAS DE COORDENADAS CURVIL INEOS.

Cap tulo 4 Introducci on a tensores.


versi on nal 1.0-0804151

Los tensores se encuentran en todas las ramas de la F sica. En mec anica, el tensor de inercia es usado para describir la rotaci on de un cuerpos r gidos, y el tensor de stress-tensi on describe la deformaci on de cuerpos r gidos. En electromagnetismo, el tensor de conductividad extiende la ley de Ohm para manejar ujos de corriente en un medio anisotr opico, y el tensor de stress de Maxwell es la forma m as elegante para tratar las fuerzas electromagn eticas. El tensor de m etrica de la mec anica relativista describe la extra na geometr a del espacio y el tiempo. Este cap tulo presenta una introducci on a tensores y sus manipulaciones, donde la forma de proceder es la siguiente: primero trataremos s olo con coordenadas cartesianas, para despu es generalizar a coordenadas curvil neas. S olo nos limitaremos a sistemas de coordenadas ortonormales. Al nal de este cap tulo, introduciremos unos objetos que se les suele llamar pseudo-objetos, los cuales surgir an de considerar las transformaciones entre sistemas de coordenadas que cumplen la ley de la mano derecha y de la izquierda.

4.1.

El tensor de conductividad y la ley de Ohm.

La necesidad de tensores pueden ser f acilmente demostradas considerando la ley de Ohm. En una resistencia ideal, la ley de Ohm relaciona la corriente con el voltaje usando la expresi on lineal I= V . R (4.1)

En esta ecuaci on, I es la corriente que circula a trav es de la resistencia y V es el voltaje ` aplicado. Usando unidades MKS, I es medido en Amperes, V en Volts y R en Ohms. La ecuaci on (4.1) describe el ujo de corriente a trav es de un elemento discreto. Para aplicar la ley de Ohm a un medio distribuido, como un s olido cristalino, una forma alternativa de esta ecuaci on debe ser utilizada J = E .
1

(4.2)

Este cap tulo est a basado en el cuarto cap tulo del libro: Mathematical Physics de Brusse Kusse & Erik Westwig, editorial John Wiley & Sons, Inc..

59

60

A TENSORES. CAP ITULO 4. INTRODUCCION

Aqu J es la densidad de corriente, E es el campo el ectrico y es la conductividad del ` material. En unidades MKS, J es medido en Amperes por unidad de area, E en Volts por metro y en Ohm-metros a la menos uno. La ecuaci on (4.2) describe una simple dependencia f sica entre la densidad de corriente y el campo el ectrico, ya que la conductividad ha sido expresada como un escalar. Con una conductividad escalar, la cantidad de ujo de corriente es gobernado u nicamente por las magnitudes y E , mientras que la direcci on del ujo es siempre paralela a E . Pero en algunos materiales, esto no es as . Muchos s olidos cristalinos permiten que el ujo de corriente se desplace por una direcci on m as que por otra. Estos materiales anisotr opicos deben tener distintas conductividades en distintas direcciones. Adem as, estos cristales pueden inclusive presentar ujo de corriente de forma perpendicular a un campo el ectrico aplicado. Claramente la ecuaci on (4.2), con una conductividad escalar, no podr a manejar este tipo de situaciones. Una soluci on es construir un arreglo de elementos de conductividad y expresar la ley de Ohm usando la notaci on matricial E1 11 12 13 J1 J2 = 21 22 23 E2 . (4.3) E3 31 32 33 J3 En la ecuaci on (4.3), la densidad de corriente y el campo el ectrico son representados como vectores columna de un campo vectorial y la conductividad es ahora una matriz cuadrada. Esta ecuaci on puede ser escrita en una notaci on matricial m as compacta [J ] = [ ][E ] o, en notaci on de Einstein Ji = ij Ej . (4.5) (4.4)

Todas estas expresiones producen el resultado deseado. Cualquier relaci on lineal entre J y E puede ser descrita. Por ejemplo, la componente 1 de la densidad de corriente est a relacionada con la componente 1 del campo el ectrico por 11 , mientras que la componente 2 de la densidad de corriente est a relacionada con la componente 2 del campo el ectrico por 22 . Los ujos perpendiculares est an descritos por los elementos fuera de la diagonal. Por ejemplo, el elemento 12 describe el ujo en la direcci on 1 debido a un campo aplicado en la direcci on 2. Sin embargo, la representaci on matricial de la conductividad anisotr opica tiene un problema fundamental. Los elementos matriciales deben depender del sistema de coordenadas. Tal como sucede con las componentes de un vector, si reorientamos nuestro sistema de coordenadas, los valores espec cos en el arreglo matricial deben cambiar. Lamentablemente, el arreglo matricial en s no tiene la informaci on sobre el sistema de coordenadas elegido. La manera de resolver este problema para las cantidades vectoriales fue incorporar los vectores base directamente en la notaci on. La misma aproximaci on puede ser usada para mejorar la notaci on para la conductividad anisotr opica. Denimos un nuevo objeto, llamado el ten sor de conductividad, que notaremos . Este objeto incluye tanto los elementos de matriz de la matriz de conductividad como la base de vectores en el sistema de coordenadas en cual estos elementos son v alidos. Como esta notaci on est a motivada en la notaci on vectorial, comenzaremos con una peque na revisi on de conceptos.

4.1. EL TENSOR DE CONDUCTIVIDAD Y LA LEY DE OHM.

61

Recordemos que una cantidad vectorial, tal como el campo el ectrico, puede ser representado como un vector columna E1 E E2 . (4.6) E3 El vector y las cantidades matriciales no son iguales, ya que la matriz no puede reemplazar al vector E en una ecuaci on vectorial y viceversa. M as a un, la base de vectores del sistema coordenado en la cual el vector est a expresado debe ser incluida para formar una expresi on equivalente E = Ei e i . El tensor de conductividad anisotr opico representado por un arreglo matricial 11 21 31

(4.7)

puede ser tratado de manera similar. Puede ser 12 13 22 23 , 32 33

(4.8)

pero el arreglo matricial y el tensor no son equivalentes, ya que el arreglo matricial no contiene la informaci on sobre el sistema de coordenadas. Siguiendo el patr on usado para los vectores y la expresi on para un vector dada en la ecuaci on (4.7), expresamos el tensor de conductividad como

= ij e i e j .

(4.9)

La discusi on que sigue mostrar a que esta es una notaci on muy poderosa. Soporta toda la manipulaci on algebraica que la notaci on de matrices y tambi en podemos manejar con facilidad las transformaciones entre sistemas de coordenadas. La expresi on para el tensor de conductividad en el lado derecho de la ecuaci on (4.9) contiene los elementos de la matriz de conductividad y dos bases de vectores del sistema de coordenadas donde los elementos tienen validez. No hay operaci on entre estas bases de vectores. Ellos sirven como cajones en donde los elementos ij son colocados. Hay una doble suma sobre los ndices i e j , por tanto, para un sistema tridimensional, habr an 9 t erminos en esta suma, cada uno conteniendo dos de los vectores base. En otras palabras, podemos expandir la conductividad como

=
i j

ij e i e j = 11 e 1 e 1 + 12 e 1 e 2 + 21 e 2 e 1 + .

(4.10)

An alogamente a c omo expand amos un vector en t erminos de la base, v=


i

vi e i = v1 e 1 + v2 e 2 + v3 e 3 .

(4.11)

Veamos como manejamos la ley de Ohm en esta nueva notaci on. Usando el tensor de conductividad, podemos escribir en un sistema de coordenadas independiente y usando notaci on vector/tensor

62

A TENSORES. CAP ITULO 4. INTRODUCCION

J =E .

(4.12)

Notemos que usamos el producto punto entre el tensor de conductividad y el vector del campo el ectrico en el lado derecho de esta expresi on. Podemos utilizar la notaci on de Einstein, y escribir Js e s = (jk e j e k ) (El e l ) . (4.13)

Por convenci on, el producto punto en la ecuaci on (4.13) opera entre la segunda base vectorial on (4.13) como sigue de y la base del vector E . Podemos manipular la ecuaci Js e s = jk El e j e k e l Js e s = jk El e j kl Js e s = jk Ek e j .

(4.14) (4.15) (4.16)

esimas de estos vectores Las cantidades en la ecuaci on (4.16) son vectores. Las componentes i- pueden ser obtenidos aplicando producto punto con e i a ambos lados de la ecuaci on (4.16), obteniendo Ji = ik Ek , (4.17)

lo cual es id entico a las ecuaciones (4.3)-(4.5). Mantengamos en mente que hay una diferencia entre E y E . El orden en los t erminos importan, ya que en general e j e k e l = e l e j e k , Las bases de vectores en esta notaci on cumplen variadas funciones 1. Establecen cajones para separar las componentes tensoriales. 2. Emparejan a las componentes con un sistema de coordenadas. 3. Establecen el formalismo para operaciones algebraicas entre tensores. 4. Como es mostrado en este cap tulo, simplican el formalismo para las transformaciones entre sistemas de coordenadas. Ahora que hemos motivado nuestra investigaci on sobre los tensores con un ejemplo espec co, procedemos a mirar algunas de sus propiedades formales. (4.18)

4.2.

Notaci on tensorial general y terminolog a.

El tensor de conductividad es un ejemplo espec co de un tensor que usa dos bases vectoriales y cuyos elementos tienen dos sub ndices. En general, un tensor puede tener una cantidad nita de sub ndices, pero el n umero de sub ndices deben ser siempre igual al n umero de vectores base. Por tanto, en general

4.3. TRANSFORMACIONES ENTRE SISTEMAS DE COORDENADAS.

63

T = Tijk... e i e j e k . . . .

(4.19)

El n umero de vectores base determina el rango del tensor. Notemos como la notaci on tensorial es una generalizaci on de la notaci on vectorial usada en los cap tulos previos. Los vectores son simplemente tensores de rango uno. Los escalares pueden ser considerados como tensores de rango cero. Mantengamos en mente el rango del tensor con el n umero de vectores base en el lado derecho de la ecuaci on (4.19), mientras que la dimensi on del sistema de coordenadas determina el n umero de valores diferentes que un ndice en particular puede tomar. Para un sistema tridimensional, los ndices (i, j , k , etc.) pueden tomar los valores (1,2,3) cada uno. Esta notaci on introduce la posibilidad de una nueva operaci on entre los vectores, llamada el producto diadico. Este producto es escrito tanto como A : B o simplemente AB . El producto diadico entre dos vectores crea un tensor de rango dos A B = Ai e i Bj e j = Ai Bj e i e j . (4.20)

Este tipo de operaci on puede ser extendida para combinar dos tensores de un rango arbitrario. El resultado es un tensor con un rango igual a la suma de los rangos de los tensores involucrados en el producto. Usualmente esta operaci on es llamada un producto externo, lo cual es opuesto al producto punto, el cual es llamado producto interno.

4.3.

Transformaciones entre sistemas de coordenadas.

La nueva notaci on tensorial de la ecuaci on (4.19) hace m as f acil la tarea de transformar vectores entre distintos sistemas de coordenadas. De hecho, muchos textos denen formalmente un tensor como un objeto que transforma como un tensor. Esto parece no tener mucho sentido, como ser a visto en esta secci on, pero es la denici on correcta. En este cap tulo s olo las transformaciones entre sistemas ortonormales son considerados. Primero s olo veremos las tranformaciones entre sistemas cartesianos, para luego generalizar estos resultados a sistemas curvil neos.

4.3.1.

Transformaciones vectoriales entre sistemas cartesianos.

Comenzaremos viendo las transformaciones de componentes entre dos sistemas cartesianos muy sencillos. Un sistema prima es rotado un angulo 0 con respecto a un sistema sin primas, como es mostrado en la gura 4.1. Un vector v puede ser expresado en componentes como i . v = vi e i = vi e (4.21)

De la geometr a de la gura 4.1, podemos ver que las componentes vectoriales en el sistema primado est an relacionadas con las componentes vectoriales del sistema no primado por las ecuaciones v1 = v1 cos 0 + v2 sen 0 v2 = v1 sen 0 + v2 cos 0 .

(4.22)

64
2

A TENSORES. CAP ITULO 4. INTRODUCCION


2 1 e2 e 2 e 1 e1 0 1

Figura 4.1: Sistemas rotados. Estas ecuaciones pueden ser escritas en notaci on matricial [v ] = [a][v ] , (4.23)

donde [v ] y [v ] son matrices columna que representan el vector v con las componentes primas y no primas, y [a] es la matriz cuadrada [a] = cos 0 sen 0 sen 0 cos 0 . (4.24)

4.3.2.

La matriz de transformaci on.

En general, cualquier transformaci on lineal de coordenadas de un vector puede ser escrita usando la notaci on de Einstein vi = aij vj , (4.25)

donde [a] es llamada la matriz de transformaci on. En la discusi on que sigue, dos suposiciones simples son presentadas para determinar los elementos de [a]. La primera supone que los dos sistemas tienen vectores base conocidos. La segunda supone el conocimiento de las ecuaciones que relacionan las coordenadas. En este ejemplo utilizaremos el sistema de coordenadas cartesiano, sin embargo no es dif cil generalizar a cualquier sistema de coordenadas. Determinando [a] desde la base de vectores. Si la base de vectores de ambos sistemas coordenados son conocidos, es bastante simple determinar las componentes de [a]. Consideremos un vector v expresado por componentes en
2 v2 v v 2 1 v1 v 1 2 2 v 1

Figura 4.2: Componentes del vector.

4.3. TRANSFORMACIONES ENTRE SISTEMAS DE COORDENADAS. dos sistemas cartesianos diferentes v = vk e k = vi e i . Sustituyendo la expresi on para vi dada en la ecuaci on (4.25) en (4.26), tenemos vk e k = aij vj e i .

65

(4.26)

(4.27)

Esto es verdad para cualquier v . En particular, sea v = e m uno de los vectores base del sistema no primado (en otras palabras, vk=m = 0 y vk=m = 1), obtenemos e m = alm e i . Aplicando producto punto por e n en ambos lados, obtenemos anm = ( en e m ) . (4.29) (4.28)

Notemos que los elementos de [a] son s olo cosenos directores entre todos los pares de vectores base entre los sistemas primado y no primado. Determinando [a] desde las ecuaciones de coordenadas. Si la base de vectores no es conocida expl citamente, las ecuaciones que relacionan los dos sistemas proveen el m etodo m as r apido para determinar la matriz de transformaci on. Comencemos considerando las expresiones para el vector desplazamiento en los dos sistemas. Como los sistemas son cartesianos, dr = dxi e i = dxi e i , (4.30)

donde dxi y dxi son los diferenciales totales de las coordenadas. Como la ecuaci on (4.25) representan las componentes de cualquier vector, inclu do el vector de desplazamiento dxi = aij dxj . (4.31)

etodo general para obtener los elementos de matriz de [a] La ecuaci on (4.31) provee un m usando las coordenadas primas y no primas. Trabajando en tres dimensiones, asumamos que estas ecuaciones son x1 = x1 (x1 , x2 , x3 ) x2 = x2 (x1 , x2 , x3 ) (4.32) x3 = x3 (x1 , x2 , x3 ) , o en forma compacta xi = xi (x1 , x2 , x3 ) . Expandiendo los diferenciales totales de la ecuaci on (4.32), tenemos (4.33)

66

A TENSORES. CAP ITULO 4. INTRODUCCION

x1 (x1 , x2 , x3 ) x (x1 , x2 , x3 ) x (x1 , x2 , x3 ) dx1 + 1 dx2 + 1 dx3 x1 x2 x3 x (x1 , x2 , x3 ) x (x1 , x2 , x3 ) x2 (x1 , x2 , x3 ) dx1 + 2 dx2 + 2 dx3 dx2 = x1 x2 x3 x3 (x1 , x2 , x3 ) x (x1 , x2 , x3 ) x (x1 , x2 , x3 ) dx3 = dx1 + 3 dx2 + 3 dx3 . x1 x2 x3 dx1 = Nuevamente, usando la notaci on de Einstein, podemos escribir lo anterior como dxi = xi (x1 , x2 , x3 ) dxj . xj (4.34)

Comparando las ecuaciones (4.31) y (4.34), podemos identicar los elementos de [a] aij = Propiedad ortonormal de [a]. Si el sistema de coordenadas original y el primado son ambos ortonormales, podemos escribir una u til relacion entre los elementos de [a]. Se puede derivar f acilmente aplicando producto punto con e k en la ecuaci on (4.28) e j = aij e i e j e k = aij ( ei e k ) jk = aij aik . La ecuaci on (4.36) escrita en forma matricial queda [a][a] = [1] , (4.37) xi (x1 , x2 , x3 ) . xj (4.35)

(4.36)

donde [a] es la notaci on para la transpuesta conjugada de [a], y la matriz [1] es una matriz cuadrada, con 1 en la diagonal y 0 fuera de ella. La inversa de [a]. La matriz [a] genera las componentes de los vectores en el sistema primado desde las componentes sin primas, como es indicado en la ecuaci on (4.25). Esta expresi on puede ser invertida con la inversa de [a], la cual es escrita como [a]1 , y est a denida por [a][a]1 = [a]1 [a] = [1] , o en notaci on de Einstein
1 1 a ij ajk = aij ajk = ik .

(4.38)

(4.39)

4.3. TRANSFORMACIONES ENTRE SISTEMAS DE COORDENADAS. Con la notaci on de Einstein, manejamos f acilmente la inversi on vi 1 a ki vi 1 a ki vi 1 a ki vi = aij vj 1 = a ki aij vj = kj vj = vk .

67

(4.40)

Las matrices de transformaci on que obedecen la condici on de ortonormalidad son simples de invertir. Comparando la ecuaci on (4.37) y (4.38) muestra que [a]1 = [a] , o en notaci on de Einstein
1 a ij = aji .

(4.41)

(4.42)

La relaci on de inversi on se convierte en vi = aji vj . Transformaciones de vectores base. Los vectores base no primados fueron relacionados con la base del sistema primado por la ecuaci on (4.28) e i = aji e j . (4.44) (4.43)

Usando el hecho que la inversa de la matriz [a] es su transpuesta, esta expresi on puede ser invertida para obtener la base de vectores primada en t erminos de los no primados e j = aij e i . (4.45)

Recordemos que estas expresiones son s olo v alidas para transformaciones si ambos sistemas son ortonormales.

4.3.3.

Resumen de transformaciones de coordenadas.

El siguiente cuadro resume las ecuaciones de las transformaciones entre dos sistemas cartesianos vi = aij vj vi = aji vj e i = aij e j e i = aji e j

aij = ( ei e j ) = xi (x1 , x2 , x3 )/xj Las funciones xi = xi (x1 , x2 , x3 ) relacionan el sistema de coordenadas cartesiano primado con el sistema cartesiano no primado. Para mantener las cosas ordenadas, notemos que hay un patr on para estas ecuaciones de transformaci on. Cada vez que convertimos del sistema no

68

A TENSORES. CAP ITULO 4. INTRODUCCION

primado con el sistema primado, estamos tratando con una base vectorial o las componentes de alg un vector, sumamos sobre el segundo ndice aij . Por el contrario, las conversiones desde el sistema primado al sistema no primado siempre se sumar a sobre el primer ndice.

4.3.4.

Transformaciones tensoriales.

Para entender por qu e los elementos de un tensor deben cambiar de valor cuando son expresados en distintos sistemas de coordenadas, consideremos el tensor de conductividad. Si jamos el set de coordenadas y la corriente uye m as facilmente en la direcci on 1 que en la direcci on 2, entonces 11 > 22 . Si observamos la misma situaci on f sica en un nuevo sistema de coordenadas donde la direcci on 1 es equivalente a la direcci on 2 y la direcci on 2 es la misma que la direcci on 1 original, entonces deber amos tener que 11 < 22 . Claramente los elementos del tensor de conductividad deben tomar diferentes valores en los dos sistemas, a un cuando describen la misma situaci on F sica. Esto es cierto tambi en para una cantidad vectorial, el mismo vector velocidad tienen diferentes componentes en diferentes sistemas de coordenadas. Las transformaciones tensoriales siguen el mismo patr on que las tranformaciones vectoriales. Un vector expresado en un sistema primado y no primado seguir a siendo el mismo vector, v = vi e i = vj e j . (4.46)

De la misma forma, siguiendo la notaci on de la ecuaci on (4.19), las expresiones para un tensor de segundo rango en los dos sistemas deben obedecer T = Tij e i e j = Trs e r e s .

(4.47)

Aqu yace la belleza de la notaci on. La relaci on entre los elementos Tij y Trs es constru da acilmente obtenida aplicando dos veces producto punto en desde la ecuaci on (4.47) y es f ambos lados. Del primer producto punto obtenemos e l Tij e i e j Tij ( el e i ) ej Tij li e j Tlj e j =e l Trs e r e s = Trs ( el e r ) es s = Trs arl e = Trs arl e s .

(4.48)

Aplicando un segundo producto punto y realizando el proceso an alogo obtenemos Tlm = Trs arl asm . (4.49)

Para invertir la ecuaci on (4.49) usamos la matriz inversa [a]1 dos veces, y recordando que 1 para sistemas de coordenadas ortonormales se cumple que a ij = aji , obtenemos Tlm = Trs alr ams . (4.50)

En general, las transformaciones tensoriales requieren un factor aij para cada sub ndice en el tensor. En otras palabras, un rensor de rango r necesita r diferentes factores aij . Si

DE TENSORES. 4.4. DIAGONALIZACION

69

la transformaci on va desde el sistema sin prima al sistema prima, todos los factores aij son sumadas sobre el segundo sub ndice. Para la transformaci on inversa, desde el sistema primado al sistema no primado, las sumas son sobre el primer sub ndice. Las transformaciones tensoriales, para tensores de rango arbitrario, pueden ser resumidas como siguen Tijk... = Trst... air ajs akt . . . Tijk... = Trst... ari asj atk . . . donde los elementos de la matriz [a] est an dados por la ecuaci on (4.35). Hay otro asunto importante en la notaci on tensorial de la ecuaci on (4.19). Al contrario de la ecuaci on matricial, donde todos los t erminos deben estar en la misma base, la notaci on tensorial/vectorial permite que las ecuaciones est en en bases distintas. Imaginemos que los elementos de la ecuaci on de Ohm expresados en los sistemas primados y no primados sean los siguientes J = Ji e i = Ji e i E = Ei e i = Ei e i = ij e i e j = ij e i e j . La ley de Ohm queda J =E ,

(4.51)

(4.52)

y cualquier combinaci on de las representaciones de la ecuaci on (4.51) pueden ser usados en la evaluaci on. Por ejemplo, Ji e i = (jk e j e k ) (El e l ) = jk El e j ( ek e l ) = jk El e j akl .

(4.53)

El hecho que los elementos de del sistema primado sean combinados con las componentes de E del sistema no primado no representa un problema. El producto punto de las bases de los vectores toma en cuenta las representaciones mezcladas, siempre y cuando el orden de las bases de los vectores sea preservado. Esto es acompa nado en la ecuaci on (4.53) por el hecho l = kl . Este tipo de operaci on no puede ser hecho con la notaci on matricial sin antes que e k e convertir todo a una misma base. Con esto deber a quedar claro el valor de expresar un tensor de la forma como se ve en (4.19). Adem as de poder manejar las manipulaciones algebraicas como una matriz, tambi en contiene toda la informaci on necesaria para transformar los elementos de un sistema de coordenadas al otro. Por tanto, un tensor es de coordenadas independientes, y un objeto geom etrico, tal como un lo vector es.

4.4.

Diagonalizaci on de tensores.

En problemas de F sica a menudo necesitamos diagonalizar un tensor. Esto signica que necesitamos encontrar un sistema de coordenadas particular en el cual la representaci on matricial de un tensor s olo tenga elementos distintos de cero en su diagonal. Por ejemplo, un

70

A TENSORES. CAP ITULO 4. INTRODUCCION

cuerpo r gido no experimentar a vibraciones cuando es rotado alrededor de cualquiera de tres ejes en un sistema de ejes donde el tensor de inercia sea diagonal. El proceso de balancear una rueda de un autom ovil usa este hecho. Y cuando los ejes no coinciden con los ejes requeridos, se colocan peque nos trozos de metal en la llanta para que esto s suceda. Muchos estudiantes se pierden en el proceso matem atico de la diagonalizaci on y se olvidan que, en realidad, es s olo una transformaci on de coordenadas. En esta secci on, derivamos los elementos de la matriz de transformaci on [a] que diagonaliza un tensor dado. Comenzaremos con un tratamiento absolutamente te orico del tema. Luego veremos dos ejemplos num ericos, uno no degenerado y otro degenerado.

4.4.1.

Diagonalizaci on y problema de valores propios.

Basado en la discusi on de la secci on anterior, un tensor escrito en un sistema no primado debe ser equivalente a uno escrito en un sistema primado

= ij e i e j = st e s e t .

(4.54)

Estamos interesados en un sistema prima muy especial, un sistema en el cual todos los on (4.54) queda elementos no diagonales de son cero. En este caso, la ecuaci

= ij e i e j = ss e s e s .

(4.55)

En esta u ltima ecuaci on suponemos conocidos los elementos tensoriales y la base vectorial del sistema no prima. El problema es encontrar los elementos del tensor en el sistema primado ss y los elementos de la base e s , de tal manera que se satisfaga la ecuaci on (4.55). Para realizar esto, aplicamos producto punto a la ecuaci on (4.55) con el primer elemento de la base del sistema primado, e 1 , con lo cual obtenemos

e 1 = ss e s e s e 1 = ss e s s1 = 11 e 1 .

(4.56)

La ecuaci on (4.56) revela una propiedad importante de la base de vectores donde el tensor es diagonal. No cambian de direcci on cuando es aplicado el producto punto por el tensor. Sin embargo, ellos pueden cambiar de magnitud. Si denimos 1 = 11 , la ecuaci on (4.56) queda

e 1 = 1 e 1 .

(4.57)

El factor 1 es llamado el autovalor de . Un autovalor aparece cuando una operaci on sobre un objeto produce una constante, el autovalor, por el objeto original. El vector base del sistema primado es llamado un autovector. Ahora introducimos el tensor unitario 1, el cual es denido por

1 = ij e i e j

(4.58)

que cumple

DE TENSORES. 4.4. DIAGONALIZACION

71

1v =v . es 0 0 1 0 . 0 1

(4.59)

Representado como matriz, el tensor unitario 1 1 [1] = 0 0

(4.60)

Usando el tensor unitario, la ecuaci on (4.57) puede ser escrita como

1 1 e 1 = 0 .

(4.61)

on (4.61) puede ser reescrita en notaci on Expresando en el sistema no primado, la ecuaci de Einstein (ij 1 ij ) e i e j e 1 = 0 . Usando la ecuaci on (4.29) y alguna manipulaci on algebraica, obtenemos e i (ij 1 ij )a1j = 0 , (4.63) (4.62)

donde el elemento a1j es uno de los tres elementos desconocidos de la matriz transformaci on entre el sistema original de coordenadas y el sistema donde es diagonal. El lado izquierdo de la ecuaci on (4.63) es un vector, y para que sea cero, cada componente debe ser cero. Cada componente involucra una suma sobre el ndice j . Por tanto, la ecuaci on on matricial (4.63) se convierte en tres ecuaciones, las cuales pueden ser anotadas en notaci 0 a11 11 1 12 13 21 a12 = 0 . 22 1 23 (4.64) a13 0 31 32 33 1 Para que este set de ecuaciones lineales y homog eneas tengan soluci on, el determinante de los coecientes debe ser cero 11 1 12 13 21 22 1 23 =0. 31 32 33 1 (4.65)

Resulta una ecuaci on de tercer orden para 1 , las cuales generar an tres autovalores. De estos tres autovalores, seleccionaremos uno, el cual ser a llamado 1 , y los otros dos los usaremos luego. Reemplazando este valor en la ecuaci on (4.64) encontraremos una soluci on para a11 , a12 y a13 con una constante arbitraria. Estos son tres elementos de la matriz de transformaci on entre los sistemas primados y no primados, lo cual estamos buscando. Estos tres elementos tambi en permitir an determinar la base vectorial e 1 con una constante arbitraria e 1 = a1j e j . (4.66)

on para las constantes Imponiendo que e 1 sea un vector unitario, obtenemos una condici arbitrarias asociadas con a11 , a12 y a13

72

A TENSORES. CAP ITULO 4. INTRODUCCION

(a11 )2 + (a12 )2 + (a13 )2 = 1 .

(4.67)

Exceptuando un signo arbitrario global y la situaci on degenerada, la cual discutiremos luego, hemos determinado en forma u nica e 1 . En forma an aloga encontramos los otros elementos de la base y los elementos de la matriz de transformaci on. El segundo vector base del sistema primado es determinado aplicando el producto punto en la ecuaci on (4.56) y usando e 2 . Podemos escribir ecuaciones matriciales an alogas a (4.64) para a21 , a22 y a23 . Las ecuaciones (4.65) que escribimos mediante determinante resultan id enticas para 2 . Seleccionamos uno de los dos autovalores restantes, y lo llamamos 2 , el cual usamos para determinar a21 , a22 , a23 y e 2 . An alogamente, obtenemos los elementos a31 , a32 , a33 y e 3 . El sistema de coordenadas primado, donde es diagonal, es denido por la base vectorial e 1 , e 2 y e 3 . Los elementos de en este sistema son los autovalores que determinamos desde la ecuaci on (4.65) 1 0 0 [ ] = 0 2 0 . (4.68) 0 0 3 Las matrices de inter es en F sica son Hermitianas. Si dejamos la posibilidad de elementos de matriz complejos, una matriz se dice Hermitiana si es igual a su transpuesta conjugada. Esto es, ij = ij . Hay dos propiedades muy importantes en este tipo de matrices. Uno, los valores propios son n umeros reales. Segundo, sus autovectores son siempre ortonormales. La prueba de este hecho es dejado como ejercicio. La u nica complicaci on que puede surgir en el proceso de diagonalizaci on es una situaci on degenerada, la cual ocurre cuando dos o m as autovalores son id enticos. Consideremos el caso cuando 1 = 2 = 3 . El autovalor 1 determina a11 , a12 , a13 y e 1 , como ya lo vimos. Sin embargo, los autovalores degenerados no especicar an en forma u nica sus autovectores. Estos autovectores pueden ser elegidos de manera innita. Un ejemplo con este tipo de degeneraci on es discutido en uno de los ejemplos que a continuaci on siguen. Ejemplo 1 Como un ejemplo del proceso de diagonalizaci on, consideremos el tensor de conductividad expresado en coordenadas cartesianas

= ij e i e j . las unidades) 0 0 10 1 . 1 10

(4.69)

Sea su representaci on matricial (ignorando 10 [ ] = 0 0

(4.70)

Esta matriz es Hermitiana, por tanto podemos esperar que sus valores propios sean reales y sus autovectores ortonormales. Los autovalores para la diagonalizaci on son generados desde la ecuaci on determinante

DE TENSORES. 4.4. DIAGONALIZACION

73

10 0 0 0 10 1 =0. 0 1 10 La expansi on del determinante nos arroja una ecuaci on polinomial de tercer orden (10 ) (10 )2 1 = 0 ,

(4.71)

(4.72)

la cual tiene tres soluciones, 1 = 9, 2 = 11 y 3 = 10. Los elementos a1j son determinados reemplazando el valor de 1 en la ecuaci on (4.64), obtenemos a11 1 0 0 0 0 1 1 a12 = 0 . (4.73) 0 1 1 a13 0 Esta ecuaci on requiere que se cumpla a12 = a13 y a11 = 0. La condici on de normalizaci on impone el contre nimiento adicional (a12 )2 + (a13 )2 = 1, de donde obtenemos a11 0 1 a12 = 1 . (4.74) 2 a13 1 El primer autovector asociado con el sistema primado es e 1 = 1/ 2 e 2 1/ 2 e 3 . (4.75)

Las otras componentes de [a] pueden ser determinadas en forma an aloga. La matriz de transformaci on completa es 0 1 1 1 0 1 1 . [a] = (4.76) 2 2 0 0 Los otros dos autovectores no primados son e 2 = 1/ 2 e 2 + 1/ 2 e 3 y e 3 = e 1 . (4.78)

(4.77)

Podemos notar que hay una ambig uedad de orden con los autovalores y en los signos asociados con cada autovector. Estas ambig uedades nos permiten jar el sistema primado como de mano derecha. El orden y las elecciones de signo hechas en este ejemplo dan la base primada que se muestra en la gura 4.3. Los elementos del tensor de conductividad expresados en el nuevo sistema diagonal son

74

A TENSORES. CAP ITULO 4. INTRODUCCION

e 3

1 3

e 2 e 1 2

Figura 4.3: Vectores base en el sistema primado.

9 0 0 [ ] = 0 11 0 0 0 10 Ejemplo 2

(4.79)

Este ejemplo demuestra el proceso de diagonalizaci on cuando dos autovectores son degenerados. Consideremos nuevamente un tensor de conductividad en coordenadas cartesianas (nuevamente, ignoramos las unidades) 11 1 0 [ ] = 1 11 0 . 0 0 10

(4.80)

Esta es una matriz Hermitiana, por tanto esperamos valores propios reales y vectores ortonormales. La condici on del determinante queda 11 1 0 1 11 0 =0, 0 0 10 lo cual lleva a una ecuaci on polinomial de tercer orden (10 ) (11 )2 1 . (4.82)

(4.81)

Esta ecuaci on de tercer orden posee tres ra ces, pero s olo dos distintas, 1 = 12 y 2 = 3 = 10. La ra z 1 puede ser tratada como antes. Cuando es sustitu da en la ecuaci on (4.64), la relaci on matricial se convierte en 1 1 0 a11 0 1 1 0 a12 = 0 . 0 0 2 a13 0 Cuando utilizamos esto m as la condici on de normalizaci on, obtenemos

(4.83)

DE TENSORES. 4.4. DIAGONALIZACION

75

a11 1 1 a12 = 1 . (4.84) 2 a13 0 Estos elementos de la matriz transformaci on nos permiten denir el primer autovector e 1 = 1/ 2 e 1 1/ 2 e 2 . (4.85)

Ahora consideremos los valores propios degenerados. Cuando sustitu mos 2 = 10 en la ecuaci on (4.64), obtenemos a21 1 1 0 0 1 1 0 a22 = 0 . (4.86) 0 0 0 a23 0 Si sustitu mos 3 obtenemos una ecuaci on muy parecida 0 1 1 0 a31 1 1 0 a32 = 0 . (4.87) a33 0 0 0 0 La ecuaci on (4.86) nos requiere a21 = a22 , pero deja libre el factor a23 . La condici on de 2 2 2 normalizaci on nos exige que se cumpla a21 + a22 + a23 = 1. Estas condiciones pueden ser satisfechas por muchos autovectores. Como a23 es arbitrario, lo jamos igual a cero. Ahora, si el segundo autovector debe ser ortonormal a e 1 , tenemos a21 1 1 a22 = 1 . (4.88) 2 a 0
23

Con esto, escribimos el segundo autovector 1 + 1/ 2 e 2 . e 2 = 1/ 2 e (4.89)

El autovector asociado con 3 est a dado por la ecuaci on (4.87) y tiene las mismas condiciones que el autovector asociado a 2 , es decir, a31 = a32 y a33 es arbitrario. Sin embargo, si queremos que los autovectores sean ortonormales, e 3 debe ser perpendicular a e 1 y e 2 . Los vectores base e 1 y e 2 est an en el plano 1-2 de los vectores originales, por tanto si queremos que e 3 perpendicular a estos dos vectores, debe estar en la direcci on 3. Por tanto, a31 0 a32 0 , (4.90) a33 1 y para el tercer autovector e 3 = e 3 . (4.91)

Un chequeo r apido demostrar a que estos tres autovectores son ortonormales y que denen un sistema derecho de coordendas, en el cual los elementos del tensor de conductividad est an diagonalizados.

76

A TENSORES. CAP ITULO 4. INTRODUCCION

4.5.

Transformaciones tensoriales en sistemas de coordenadas curvil neos.

Las transformaciones de las secciones previas pueden ser f acilmente generalizadas a un sistema de coordenadas curvil neas. Consideremos el problema intermedio de una transformaci on entre un sistema cartesiano y uno curvil neo. El sistema cartesiano tendr a las coordenadas primadas (x1 , x2 , x3 ) y los vectores base ( e1 , e 2 , e 3 ). Por otra parte, el sistema curvil neo tiene las coordenadas (q1 , q2 , q3 ), los vectores base ( q1 , q 2 , q 3 ) y los factores de escala (h1 , h2 , h3 ). El set de ecuaciones que relacionan las coordenadas de los dos sistemas pueden ser escritas por x1 = x1 (q1 , q2 , q3 ) x2 = x2 (q1 , q2 , q3 ) x3 = x3 (q1 , q2 , q3 ) .

(4.92)

Por ejemplo, las ecuaciones que relacionan el sistema de coordenadas cil ndrico con el cartesiano son x1 = x = cos x2 = y = sen x3 = z = z .

(4.93)

La matriz de transformaci on [a] realiza la misma funci on como antes. Esto es, toma las componentes del sistema curvil neo no primado de un vector y genera las coordenadas cartesianas en el sistema primado vi = aij vj . (4.94)

Recordando del cap tulo anterior que el vector desplazamiento para los dos sistemas puede ser escrito como dr = dxi e i = hj dqj q j . (4.95)

Las componentes del vector desplazamiento en el sistema curvil neo no primado est an dados por hj dqj , mientras que sus componentes en el sistema cartesiano primado est an dados por dxi . Estas componentes deben estar relacionadas por la matriz transformaci on [a]. En notaci on de Einstein dxi = aij hj dqj . (4.96)

El diferencial total dxi puede ser formado desde la ecuaci on (4.92), de donde obtenemos dxi = xi (q1 , q2 , q3 ) dqj . qj (4.97)

4.6. PSEUDO-OBJETOS.

77

La ecuaci on (4.97) puede ser colocada en la forma de la ecuaci on (4.96) multiplicando el lado derecho de la ecuaci on (4.97) por hj /hj dxi = xi (q1 , q2 , q3 ) hj xi (q1 , q2 , q3 ) dqj = hj dqj . qj hj hj qj (4.98)

Comparando las ecuaciones (4.98) y (4.96) obtenemos aij = xi (q1 , q2 , q3 ) hj qj [Curvil neo a Cartesiano] . (4.99)

La generalizaci on para la transformaci on entre dos sistemas curvil neos se sigue de una manera an aloga. Los elementos para la matriz transformaci on [a] en este caso son aij = hj xi (q1 , q2 , q3 ) hj qj [Curvil neo a Curvil neo] . (4.100)

Notemos que no hay suma sobre i o j en el lado derecho de la ecuaci on (4.100) ya que ambos sub ndices aparecen en el lado izquierdo de la expresi on. La ecuaci on (4.100) es la forma m as general para los elementos de la matriz transformaci on entre dos sistemas curvil neos. Es simplicada a la ecuaci on (4.99) si el sistema primado es cartesiano, ya que para este caso hj 1. Adem as se degenera a la ecuaci on (4.35) cuando los dos sistemas son cartesianos, ya que para este caso hj 1. Como antes, la matriz de tranformaci on puede ser determinada tambi en desde la base vectorial de los dos sistemas de coordenadas. Para el caso curvil neo general, los elementos de [a] son aij = ( qi q j ) . (4.101)

La manipulaci on algebraica es f acil utilizando la notaci on de Einstein. Puede ser un ejercicio u til realizar los mismos pasos usando s olo matrices para que se convenza que es m as u til.

4.6.

Pseudo-objetos.

Si consideramos s olo las transformaciones que involucran traslaciones o rotaciones r gidas, no hay forma de cambiar un sistema de orientaci on derecha a uno de orientaci on izquierda, o viceversa. Para cambiar esto necesitamos una reexi on. Las transformaciones que involucran reexiones requieren la introducci on de los llamados pseudo-objetos. Los pseudoescalares, pseudovectores y pseudotensores son muy similares a sus contrapartes regulares, excepto por su comportamiento cuando son reejados. Una forma f acil de demostrar la diferencia es examinando el producto cruz de dos vectores regulares en los sistemas derechos e izquierdos.

4.6.1.

Pseudo-vectores.

Consideremos el sistema de coordenadas cartesiana derecho mostrado en la gura 4.4. La gura muestra dos vectores regulares en este sistema, orientado a lo largo de dos vectores de la base

78

A TENSORES. CAP ITULO 4. INTRODUCCION

3 2 e3 e2 1 e1
Figura 4.4: Sistema de la mano derecha.

A = A0 e 1 B = B0 e 2 .

(4.102) (4.103)

Por regulares nos referimos que las componentes de estos vectores obedecen la ecuaci on (4.25) cuando transformamos las coordenadas. El producto cruz entre A y B puede ser escrito usando el determinante e 1 e 2 e 3 A B = A0 0 0 = A0 B0 e 3 , 0 B0 0 o, usando el tensor de Levi-Civita A B = Ai Bj k ijk e = A0 B0 e 3 . (4.105)

(4.104)

on de A B El vector resultante es mostrado en la gura 4.5. Notemos como la direcci est a dada por la regla de la mano derecha. Si apuntamos los dedos de la mano en la direcci on de A y los rotamos en la direcci on de B , el pulgar apuntar a en la direcci on del resultado. Mantengamos en mente que el producto cruz no es conmutativo. Si el orden de la operaci on es invertido, es decir, si hacemos B A, el resultado apunta exactamente en la direcci on opuesta.
3 A xB B 1 A

Figura 4.5: Vectores en el sistema de la mano derecha.

4.6. PSEUDO-OBJETOS.

79

Consideremos ahora el sistema orientado a la izquierda, mostrado en la gura 4.6, con la base de vectores marcada con primas para direfenciarla de las coordenadas y la base del sistema de la mano derecha. Este sistema resulta de una inversi on simple del eje 1 del sistema no primado. Tambi en puede ser visto como una reexi on del sistema derecho sobre el plano x2 x3 . Las ecuaciones que relacionan los sistemas son x1 = x1 x2 = +x2 x3 = +x3

(4.106)

3 e 3 1 e 1
Figura 4.6: Sistema de la mano izquierda. por tanto, la matriz transformaci on es 1 0 0 [a] = 0 1 0 . 0 0 1 Los vectores regulares A y B en el sistema prima son simplemente A = A0 e 1 B = B0 e 2 . (4.108) (4.109) (4.107)

2 e 2

S olo escribimos estos resultados porque son obvios. Recordemos que formalmente estos son obtenidos aplicando [a] a las componentes de los vectores no primados. De la multiplicaci on matricial obtenemos A1 1 0 0 A0 A0 A2 = 0 1 0 0 = 0 0 0 1 0 0 A3 y B1 1 0 0 0 0 B2 = 0 1 0 B0 = B0 . B3 0 0 1 0 0 (4.111)

(4.110)

80

A TENSORES. CAP ITULO 4. INTRODUCCION

Es importante recordar que los vectores son los mismos objetos f sicos en ambos sistemas de coordenadas. Est an expresados en t erminos de distintas componentes y bases vectoriales. Ahora formemos el producto cruz A B en el sistema izquierdo. Para esto usaremos la relaci on de determinante e 1 e 2 e 3 A 0 0 = A0 B0 e 3 , AB = 0 0 B0 0 o, usando el tensor de Levi-Civita A B = Ai Bj k ijk e = A1 B1 3 123 e = A0 B0 e 3 . (4.113)

(4.112)

Los vectores A, B y el producto cruz A B para el sistema izquierdo son mostrados en la gura 4.7. Notemos como la regla de la mano derecha ya no nos sirve para encontrar la direcci on del producto cruz. Si denimos el producto cruz usando el determinante en la ecuaci on (4.112), entonces debemos usar la regla de la mano izquierda si estamos en el sistema de coordenadas izquierdo.

2 B 3 A 1

A xB
Figura 4.7: Vectores en el sistema de la mano izquierda. Notemos algo peculiar. Comparando las guras 4.7 y 4.5 observamos que, mientras A y B apuntan en las mismas direcciones, sus productos cruces no apuntan en las mismas direcciones. Cambiando la orientaci on del sistema de coordenadas, hemos cambiado la direcci on del vector A B . Miremos el producto cruz desde otro punto de vista. Si las componentes del vector A B en el sistema no primado, dado por la ecuaci on (4.104), son transformados al sistema primado usando usando la matriz [a], como lo hacemos para las componentes de los vectores regulares, obtenemos 1 0 0 0 0 0 1 0 0 = 0 . (4.114) 0 0 1 A0 B0 A0 B0

4.6. PSEUDO-OBJETOS.

81

Combinando estas componentes con la base de vectores apropiada, obtenemos para el vector resultante del producto cruz A0 B0 e 3 . (4.115)

Este resultado diere de la ecuaci on (4.112) por un signo menos. Para sortear esta dicultad, la cantidad formada por el producto cruz de dos vectores regulares es llamado un pseudovector. Los Pseudovectores tambi en son llamados vectores axiales, mientras que los vectores regulares son llamados vectores polares. Si v es un vector regular transforma de acuerdo a la ecuaci on (4.25). Por otra parte, si v es un pseudovector, sus componentes tranforman como vr = |a|vi ari . De esta forma, la ecuaci on (4.114) se convierte en (A B )1 1 0 0 0 0 (A B ) = 0 1 0 0 = 0 2 0 0 1 A0 B0 A0 B0 (A B )3 de donde resulta A B = A0 B0 e 3 , de acuerdo con las ecuaciones (4.112) y (4.113). En resumen, si v es un vector regular sus componentes transforman como vr = vi ari . En cambio, si es un pseudovector, sus componentes transforman como vr = |a|vi ari . (4.120) (4.119) (4.118) (4.116)

(4.117)

Si la orientaci on del sistema de dos sistemas de coordenadas ortonormales son el mismo, una transformaci on entre ellos tendr a |a| = 1, y los vectores y pseudovectores transformar an normalmente. Si los sistemas tienen orientaci on opuesta, |a| = 1 y los vectores transformar an normalmente, mientras que los pseudovectores cambiar an su direcci on. Un vector generado por el producto cruz de dos vectores regulares es un pseudovector. Es tentador pensar que toda esta parafernalia es un sutil error de signo embebidos en la denici on de producto cruz. En algunos casos esto es correcto. Por ejemplo, cuando denimos la direcci on del vector que dene el campo magn etico, que resulta ser un pseudovector, hemos elegido impl citamente el sentido del sistema de coordenadas que debe ser tratada de manera consistente. Otro ejemplo es el vector momento angular, el cual es denido por un producto cruz. Aunque se puede achacar este problema de pseudovectores de estos dos ejemplos es s olo un problema de denici on, hay casos en que simplemente no se puede olvidar esta propiedad. Es posible dise nar una situaci on en la cual un experimento y su imagen especular no producen los resultados esperados, los cuales son simplemente la imagen especular una de otra. De hecho, el premio Nobel fue adjudicado a Lee y Yang por analizar estas violaciones a la conservaci on de paridad, lo cual va en contra de la l ogica com un. El experimento fue

82

A TENSORES. CAP ITULO 4. INTRODUCCION

realizado por primera vez por Wu, quien mostr o este efecto con la emisi on de part culas beta desde el Cobalto 60, bajo la inuencia de interacciones d ebiles.

4.6.2.

Pseudo-escalares.

Las ideas que nos dejaron los pseudovectores se aplican tambi en a los escalares. Un escalar es invariante ante cualquier cambio del sistema de coordenadas. En cambio, un pseudoescalar cambia de signo si la orientaci on del sistema cambia. Un pseudoescalar involucrado en una transformaci on, governado por una matriz de transformaci on [a], obedecer a S = |a|S . (4.121)

Un buen ejemplo de pseudoescalar se puede derivar del comportamiento del producto cruz. El volumen de un paralel ogramo tridimensional, mostrado en la gura 4.8, puede ser escrito por Volumen = (A B ) C . (4.122)

C B

A
Figura 4.8: El paralelogramo. En un sistema de coordenadas derecho, el vector formado por A B apuntar a hacia arriba. Por tanto, en un sistema derecho, (A B ) C > 0 . Pero en un sistema de coordenadas izquierdo, apunta hacia abajo, por tanto (A B ) C < 0 . Interpretado de esta forma, el volumen de un paralelogramo es un pseudoescalar. (4.124) (4.123)

4.6. PSEUDO-OBJETOS.

83

4.6.3.

Pseudo-tensores.

Los pseudotensores est an denidos como uno espera. Bajo una transformaci on, las componentes de un pseutensor obedecen Trst... = |a|Tijk... ari asj atk . . . , (4.125)

la cual es igual a lo que obedece un tensor regular, salvo por el t ermino |a|. Nuevamente utilizamos el producto cruz como ejemplo. Consideremos dos sistemas de coordenadas. El sistema primado es un sistema derecho, y el otro, con el sistema no primado, es izquierdo. Usando el s mbolo de Levy-Civita en los dos sistemas para generar el producto cruz A B obtenemos Ai Bj k ijk e = Ar Bs t rst e . (4.126)

El signo menos aparece porque como fue mostrado antes, la direcci on f sica del producto cruz es diferente en los dos sistemas de coordenadas. Ahora, las transformaciones de coordenadas de vectores regulares pueden ser usadas para encontrar la relaci on entre ijk y rst . Ya que todos los vectores involucrados son regulares, es decir, A, B y los vectores base, estos transforman de acuerdo a la ecuaci on (4.25). Escribiendo las componentes primadas de estos vectores en t erminos de los no primados, la ecuaci on (4.126) se convierte en Ai Bj k ijk e = Ai Bj ari asj atk k rst e . (4.127)

Esta u ltima expresi on es cierta para A y B arbitrarios, por tanto obtenemos


ijk

= ari asj atk

rst

(4.128)

Tengamos en mente que esto se aplica s olo cuando dos sistemas tienen orientaciones distintas. Si ambos sistemas tienen la misma orientaci on, el signo menos desaparece. Por tanto, para el caso general de una transformaci on arbitraria entre dos sistemas ortonormales, el s mbolo de Levy-Civita obedece
ijk

= |a|ari asj atk

rst

(4.129)

Por tanto, el s mbolo de Levy-Civita es un pseudotensor.

84

A TENSORES. CAP ITULO 4. INTRODUCCION

Cap tulo 5 Sistema de coordenadas no ortogonales.


versi on nal 1.0-0804151

5.1.

Breve recuerdo de transformaciones tensoriales.

Ya discutimos c omo un tensor es denido por su comportamiento bajo transformaciones de coordenadas. Con una cuota de sarcasmo, la denici on que dimos fue un tensor es una cantidad que transforma como tensor. Lo que esto signica es que las reglas de transformaci on son sucientes como para caracterizar a los tensores con sus propiedades especiales. Si un objeto transforma entre sistemas de coordenadas usando las reglas de transformaci on tensorial, podemos decir leg timamente que el objeto es un tensor. Recordemos, los elementos de un tensor pueden transformar usando una matriz de transformaciones, cuyos elementos pueden ser obtenidos de las ecuaciones que relacionan las coordenadas de los dos sistemas. Para transformaciones entre sistemas cartesianos, los elementos de esta matriz de transformaci on [a] est an dados por aij = ( ei e j ) = xi . xj (5.1)

En esta ecuaci on, el sistema original tiene coordenadas xi y vectores base e i . El sistema es transformado al sistema primado, el cual tiene coordenadas xi y vectores base e i . Para sistemas de coordenadas ortonormales, la inversa de esta matriz de transformaci on es siempre su transpuesta
1 a ij = aji .

(5.2)

Un tensor arbitrario de rango n puede ser expresado tanto en el sistema primado como en el no primado por T = Tijk... e i e j e k . . . = Trst... e r e s e t . . . ,
1

(5.3)

Este cap tulo est a basado en el d ecimo cuarto cap tulo del libro: Mathematical Physics de Brusse Kusse & Erik Westwig, editorial John Wiley & Sons, Inc..

85

86

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

donde hay n sub ndices y n vectores base en cada t ermino. Tijk... y Trst... son los elementos del tensor en el sistema de coordenadas no primado y primado, respectivamente. Los dos conjuntos de elementos est an relacionados por la ecuaci on matricial de transformaci on Trst... = Tijk... ari asj atk . . . , donde la matriz [a] aparece n veces. La transformaci on inversa es Trst... = Tijk... air ajs akt . . . . (5.5) (5.4)

Nuestra propuesta fundamental es que cualquier cantidad que transforma en la manera descrita por la ecuaci on (5.4) es por denici on un tensor. Como un vector es un tensor de primer rango, las transformaciones de las componentes son descritas por las ecuaciones (5.4) y (5.5). Si escribimos un vector en dos sistemas de coordenadas como v = vi e i = vr e r , la relaci on entre las componentes est a dado por vr = vi ari , y la inversa vr = vi air . (5.8) (5.7) (5.6)

Los escalares son invariantes ante una transformaci on de coordenadas. Podemos pensar que un escalar es un tensor de rango cero. El u nico elemento de un tensor de rango cero no tiene sub ndices y no est a combinado con una base vectorial. La ecuaci on (5.4) se reduce a S=S donde S (o S ) en el u nico elemento del escalar. Ejemplo Como un ejemplo del uso de las propiedades de las transformaciones para identicar a un objeto como tensor, consideremos la delta de Kronecker. Recordemos que este s mbolo fue introducido para formar el producto punto en sistemas de coordenadas ortonormales. El producto punto entre dos vectores, A y B escrito en dos sistemas ortonormales de coordenadas, uno primado y otro primado, puede ser escrito por A B = Ai Bj ij = Ar Bs rs . (5.10) (5.9)

Ahora, sabemos que tanto ij como rs pueden ser escritos como matrices unitarias, tal como [1]. Sin embargo, para los prop ositos de esta discusi on, observemos las consecuencias de imponer que las dos expresiones para el producto punto en la ecuaci on (5.10) sean iguales, y que Ai y Bi son componentes vectoriales, y por tanto, transforma de acuerdo a la ecuaci on (5.7). Sustituyendo en la ecuaci on (5.10), tenemos para Ar y Bs

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

87

Ai Bj ij = ari Ai asj Bj rs . = Ai Bj ari asj rs . Como esta expresi on debe ser verdadera para cualquier A y B , podemos escribir ij = ari asj rs . Invirtiendo esta expresi on, obtenemos ij = air ajs rs .

(5.11)

(5.12)

(5.13)

Comparando las ecuaciones (5.12) y (5.13) con las ecuaciones (5.4) y (5.5), se observa que los elementos de la delta de Kronecker transforman como los elementos de un tensor de segundo rango. Por tanto, el s mbolo de la delta de Kronecker es un tensor de segundo rango, el cual puede ser expresado con una base vectorial como

= ij e i e j = ij e i e j .

(5.14)

5.2.

Sistemas de coordenadas no ortogonales.

Hasta este punto, hemos tratado s olo con sistemas de coordenadas ortonormales. En sistemas cartesianos, los vectores base e i son independientes de la posici on y ortonormales, por lo tanto e i e j = ij . En sistemas curvil neos, los vectores base q i no son independientes de la posici on, pero a un son ortonormales, por tanto q i q j = ij . Ahora consideraremos sistemas no ortonormales. Para distinguir estos sistemas, escribiremos los vectores base de sistemas de coordenadas no ortonormales como g i , y la condici on de no ortonormalidad se convierte en g i g j = ij . Para mantener esta discusi on y las derivaciones de la forma m as simple, nos limitaremos a sistemas de coordenadas donde las bases vectoriales no var en con la posici on. Obviamente esto no es el caso m as general de sistemas de coordenadas no ortogonales, pero es suciente para demostrar las ideas de covarianza, contravarianza y m etrica. En f sica, los sistemas de coordenadas no ortonormales aparecen, por ejemplo, en relatividad (tanto especial como general). El postulado b asico de la relatividad especial es que la velocidad de la luz c es la misma para todos los sistemas de referencia. Como consecuencia de este postulado, la posici on y el tiempo de alg un fen omeno f sico (un evento) cambia tal como cambie el sistema de referencia. Es muy similar a c omo las componentes de un vector cambian cuando transformamos los ejes coordenados. Si restringimos el movimiento a una coordenada espacial, un evento puede ser descrito por dos coordenadas, una coordenada espacial y una temporal. Como ser a mostrado, la observaci on de un evento en dos sistemas de coordenadas distintos, uno primado y otro no primado, puede ser dibujado como un punto usando el conjunto de ejes combinados, como es mostrado en la gura 5.1. Tomando sus componentes con respecto a ambos ejes coordenados, podemos obtener todas las relaciones impuestas por la relatividad especial. Notemos c omo los ejes x y ct se intersectan en angulos rectos, pero los ejes x y ct no lo hacen. Mientras el sistema no primado parece ser ortogonal, el sistema primado parece ser un sistema no ortogonal e inclinado.

88

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

ct

ct
Un evento

x
Figura 5.1: Los sistemas de coordenadas de la Relatividad Especial. El postulado b asico de la relatividad general es que la gravedad y la aceleraci on son equivalentes. Los eventos observados en un campo gravitacional aparecen como si estos estuviesen siendo observados en un sistema de coordenadas acelerado. Esto implica que la luz propagandose a trav es del campo gravitacional de un objeto masivo, como una estrella, se deber a a causar que la posici on aparente de doblar, como es mostrado en la gura 5.2. Esto podr una estrella se desv a de su posici on actual. Este fen omeno fue observado por primera vez por Arthur Eddington, el cual midi o la peque na deexi on de las estrellas provocadas por el Sol durante el eclipse total de 1919. Los caminos que siguen los rayos de luz a trav es del espacio son llamados geod esicas. Una elecci on natural para las l neas de la grilla de un sistema de coordenadas localizado, siguen estas geod esicas, como es mostrado en la gura 5.2. No discutiremos ejemplos de este tipo de sistemas, pero si nos restringiremos a discutir los sistemas inclinados, donde las bases vectoriales no son ortonormales, pero son espacialmente invariantes.

Sistema de coordenadas local no ortogonal

Mo

Estrella Aparente Estrella

Figura 5.2: Un sistema de coordenadas de la Relatividad General.

5.2.1.

Un sistema de coordenadas inclinado.

Consideremos un sistema de coordenadas cartesiano (x1 , x2 ) y el sistema primado no ortonormal (x1 , x2 ), como es mostrado en la gura 5.3. Tambi en son representados en la

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

89

gura dos pares de vectores base y un vector arbitrario v . La base vectorial de sistema no primado es ortonormal e i e j = ij .
2 V2 V 2 g 2 e2 e1 g 1 V1 2 V 1

(5.15)

V 1 1

Figura 5.3: Un sistema de coordenadas ortonormal y otro inclinado. La base vectorial del sistema inclinado son elegidos para que sean vectores unitarios, g 1 g 1 = g 2 g 2 = 1 , pero no son ortonormales g i g j = ij . (5.17) (5.16)

Como podemos ver, el formalismo que es desarrollado permite que los vectores base no sean unitarios. Sin embargo, para comenzar el tratamiento de la manera m as sencilla, suponemos que la base vectorial del sistema inclinado satisface la ecuaci on (5.16). En el sistema ortonormal, el vector v puede ser expresado como la suma de sus componentes proyectadas de forma paralela en los ejes, como es mostrado en la gura 5.3, junto a la correspondiente base vectorial v = v1 e 1 + v2 e 2 . (5.18)

Estas componentes vectoriales son s olo los tama nos proyectados de v a lo largo de los ejes del sistema no primado y pueden ser determinados con trigonometr a o siguiendo la manipulaci on vectorial correspondiente. Una componente particular es obtenida haciendo el producto punto entre v y el correspondiente vector base. Por ejemplo, para encontrar v1 ve 1 = (v1 e 1 + v2 e 2 ) e 1 = v1 ( e1 e 1 ) + v2 ( e2 e 1 ) = v1 11 + v2 21 = v1 .

(5.19)

90

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Esto resulta bello s olo por la ortogonalidad de los vectores base. En el sistema primado, el mismo vector puede ser escrito en t erminos de las componentes proyectadas de forma paralela en los ejes y los vectores base prima, como es mostrado en la gura 5.3, v = v1 g 1 + v2 g 2 . (5.20)

Estas componentes tambi en pueden ser determinadas por trigonometr a, pero como tenemos una geometr a inclinada, no es tan sencillo como lo es en el sistema ortogonal. Como la base de vectores primados no son ortogonales, un intento por aislar una componente particular por una manipulaci on vectorial, similar a la desarrollada en la ecuaci on (5.19) falla vg 1 = (v1 g 1 + v2 g 2 ) g 1 = v1 ( g1 g 1 ) + v2 ( g2 g 1 ) = v1 + v2 ( g2 g 1 ) = v1 .

(5.21)

Al parecer, las manipulaciones vectoriales en sistemas de coordenadas no ortogonales son mucho m as dif ciles que en los sistemas ortonormales. Afortunadamente, hay algunas t ecnicas formales que simplican el proceso. En la pr oxima secci on, introduciremos los conceptos de covarianza, contravarianza, y el tensor m etrico. Usando estas herramientas, el producto punto entre dos vectores tienen la misma forma tanto en un sistema ortogonal como en un sistema no ortogonal.

5.2.2.

Covarianza, contravarianza y m etrica.

La complicaci on b asica introducida por un sistema de coordenadas no-ortogonal es evidentemente en la operaci on producto punto. En un sistema ortonormal de dos dimensiones descrito anteriormente, el producto interno entre dos vectores es dado por A B = Ai e i Bj e j = Ai Bj ij = A1 B1 + A2 B2 .

(5.22)

Si este mismo producto interno es realizado en el sistema no-ortogonal de la gura 5.3 el resultado contiene algunos t erminos extras: A B = Ai g i Bj g j = Ai Bj ( gi g j ) g1 g 2 ) . = A1 B1 + A2 B2 + (A1 B2 + A2 B1 )( (5.23) El producto interno evaluado en el sistema no-ortonormal, expresado en (5.23), puede ser puesto en la forma de la ecuaci on (5.22) rearreglandolo como sigue: A B = A1 (B1 + B2 ( g1 g 2 )) + A2 (B1 ( g1 g 2 ) + B2 ) . (5.24)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. Ahora denamos un nuevo conjunto de componentes para B como 1 = B1 + B2 ( B g1 g 2 ) 2 = B1 ( B g1 g 2 ) + B2 .

91

(5.25)

Estas cantidades son llamadas las componentes covariantes de B , mientras que las componentes originales son llamadas contravariantes. Claramente, el vector B no puede ser expresado por la combinaci on de estas nuevas componentes covariantes con los vectores bases g 1 y g 2 : 1 g 2 g B=B 1 + B 2 . (5.26) Sin embargo, con estas componentes el producto evaluado en el sistema inclinado puede ser puesto en una forma simple i A B = Ai B 1 + A2 B 2 . = A1 B Notemos que el producto interno tambi en puede ser escrito como i Bi , AB =A con las componentes covariantes de A denidas como 1 = A1 + A2 ( A g1 g 2 ) 2 = A1 ( A g1 g 2 ) + A2 . (5.28)

(5.27)

(5.29)

El producto interno necesita estar formado con una mezcla de componentes covariantes y contravariantes, pero no importa que vector es expresado en que tipo de componentes. Estos argumentos pueden ser extendidos a sistemas no-ortogonales de dimensi on arbitraria. La restricci on que los vectores bases est en normalizados a la unidad puede ser levantada. Las componentes covariantes pueden ser generadas a partir de las componentes contravariantes usando la expresi on general i = Aj ( A gi g j ) . (5.30) Hemos usado convenci on de Einstein, lo cual implica suma sobre j . Para un sistema de coordenada n-dimensional en cada suma habr a n t erminos. Notemos que si el sistema de coori = Ai y las componentes covariante denadas es ortonormal la ecuaci on (5.30) se reduce a A y contravariantes son iguales. En este caso, ambas ecuaciones (5.27) y (5.28) se revierten a la ecuaci on (5.22). Esto es importante, porque implica que esta nueva notaci on es sucientemente general para manejar todos nuestros previos sistemas de coordenadas Cartesianos y curvil neos, tanto como los nuevos no-ortogonales. Existe otra manera de expresar el producto interno entre dos vectores en un sistema noortogonal que hace uso de una cantidad llamada la m etrica. Como veremos m as tarde, la m etrica es un tensor de rango dos. Los elementos de la m etrica, en un sistema sin primas, est an denidos como Mij = g i g j . (5.31)

92

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Notemos que esta denici on implica que la m etrica es sim etrico: Mij = Mji . Usando la m etrica la ecuaci on (5.30) puede ser escrita como i = Aj Mij . A La m etrica convierte las componentes contravariantes en componentes covariantes. Ahora el producto interno entre A y B pueden ser reescrito A B = Ai Bj Mij . (5.34) (5.33) (5.32)

La suma sobre ambos i y j est a indicada en el lado derecho de la ecuaci on. Si realizamos la suma sobre i primero, la ecuaci on (5.34) se convierte en j Bj . AB =A Cuando la suma sobre j es realizada primero, la ecuaci on (5.34) se convierte en i . A B = Ai B (5.36) (5.35)

Cuando la ecuaci on (5.34) es usada para el producto interno, las componentes vectoriales no se mezclan. Las componentes contravariantes son usadas para ambos vectores. Si el sistema es ortonormal Mij = ij , resultando el producto interno standard para un sistema ortonormal. Notemos que la m etrica es determinada solamente por los vectores bases del sistema de coordenadas. Esto se volver a un hecho importante y nos permitir a identicar a la m etrica como un tensor de rango dos. En resumen, hay dos maneras de realizar el producto interno entre dos vectores en un sistema no-ortogonal. Una manera es usar las componentes covariantes y contravariantes, como fue hecho en las ecuaciones (5.27) y (5.28). Un m etodo completamente equivalente es usar la m etrica y las componentes regulares contravariantes del vector, como demostramos en la ecuaci on (5.34). Estos argumentos pueden ser naturalmente extendidos al producto interno entre cantidades tensoriales, pero esta generalizaci on ser a pospuesta hasta que las ecuaciones de transformaci on para sistema no-ortogonales sean trabajadas.

5.2.3.

Transformaciones de componentes vectoriales contravariantes.

Imaginemos dos sistemas de coordenadas inclinados diferentes, como es mostrado en la gura 5.4. Queremos encontrar como la componentes contravariantes de un vector expresadas en el primer sistema pueden ser transformadas al segundo sistema. El primer sistema tiene las coordenadas no primadas xi y vectores base g i , mientras que el segundo sistema usa las i . Recordemos que estamos limitados a sistemas coordenadas primadas xi y vectores base g de coordenadas con vectores base constantes. Sean las ecuaciones generales que relacionan los dos conjuntos de coordenadas

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.


2 V2 V 2 g 2 e2 e1 g 1 V1 2 V 1

93

V 1 1

Figura 5.4: Dos sistemas de coordenadas inclinados.

xi = xi (x1 , x2 , x3 ) xi = xi (x1 , x2 , x3 ) .

(5.37)

Habr an s olo un par de ecuaciones para cada dimensi on de los sistemas. En nuestro trabajo previo tratando con transformaciones entre sistemas de coordenadas ortonormales, fuimos capaces de relacionar las componentes vectoriales de un sistema con el otro v a la matriz de transformaci on [a], vi = aij vj . (5.38)

La restricci on para sistemas ortonormales nos permiti o invertir esta expresi on de forma tri1 vial, ya que se transform o en a = a . Podemos escribir una relaci o n similar para la ecuaci on ji ij (5.38) para las transformaciones entre sistemas no ortonormales, pero necesitamos tener m as cuidado, ya que la inversa de la matriz transformaci on no es su transpuesta. Para no perder la pista entre las transformaciones que aceptan esta inversi on simple y las que no, reservaremos la matriz [a] para las transformaciones entre sistemas ortonormales. La matriz [t] representar a las transformaciones entre las coordenadas no primadas y las primadas, donde los sistemas pueden ser no ortonormales vi = tij vj . (5.39)

La operaci on en reversa, una transformaci on entre las coordenadas primadas y las coordenadas no primadas, usaremos la matriz [g ], vi = gij vj , (5.40)

1 donde gij = t on, se sigue que tij gjk = ik . Discutiremos detalladamente ij = tji . Por su denici la relaci on entre las matrices [t] y [g ] m as adelante. En ambas expresiones, las componentes vectoriales son componentes contravariantes regulares de v , no las componentes covariantes que presentamos.

94

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Todos los vectores en un punto dado transforman usando la misma matriz [t]. Para determinar los elementos tij , es m as f acil considerar el vector desplazamiento dr, el cual en los dos sistemas de coordenadas est a dado por dr = dxi g i = dxi g i . Aplicando esta igualdad a la ecuaci on (5.39), tenemos dxi = tij dxj . Reri endose a las ecuaciones (5.37), obtenemos la relaci on dxi = xi dxj , xj (5.43) (5.42) (5.41)

y los elementos de la matriz transformaci on pueden ser escritos como tij = xi . xj (5.44)

Hasta ahora, estos resultados se parecen mucho a las transformaciones cartesianas que ya hab amos visto. De hecho, la ecuaci on para las componentes de [t] dadas en la ecuaci on (5.44) es el mismo resultado obtenido para la matriz [a] entre sistemas cartesianos. Las complicaciones aparecen cuando tratamos de invertir estas ecuaciones. Como ya hemos mencionado, la inversi on de [t] no es simplemente calcular la traspuesta. Una forma general de obtener [t]1 , la cual estamos llamando [g ], es utilizar la expresi on
1 gij = t ij =

cji , |tij |

(5.45)

donde cji es el cofactor ji de la matriz tij . Del algebra de matrices, este cofactor es denido como (1)i+j por el determinante de la matriz tij , con la columna j - esima y la columna i esima removida. La matriz [g ] puede tambi en ser obtenida desde las ecuaciones que relacionan las coordenadas, exactamente de la misma manera que se llega a la ecuaci on (5.44)
1 gij = t ij =

xi . xj

(5.46)

Las matrices [t] y [g ] pueden tambi en ser usadas para relacionar una base vectorial con la otra. Usando las componentes contravariantes, cualquier vector v puede ser expresado en el sistema primado o el no primado como i . v = vj g j = vi g Sustituyendo la ecuaci on (5.39) en la ecuaci on (5.47) obtenemos v = vj g j = vj tij g i . Como esta expresi on es v alida para cualquier v , se debe cumplir g j = tij g i . (5.49) (5.48) (5.47)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. Haciendo el proceso an alogo, pero usando [g ] en vez de [t], obtenemos g j = gij g i .

95

(5.50)

Notemos que las componentes vectoriales contravariantes son transformadas por contracciones sobre el segundo sub ndice de tij o gij , mientras que las bases vectoriales son transformados contrayendo sobre el primer sub ndice. Para resumir los resultados de esta secci on, la transformaci on entre los dos sistemas de coordenadas no ortonormales es gobernada por las relaciones tij = xi /xj vi = tij vj g j = tij g i gij = xi /xj vi = gij vj g j = gij g i .

5.2.4.

Notaci on de sub ndices y super ndices.

Antes de proceder con una discusi on de c omo las componentes de un vector covariantes transforman, resulta conveniente introducir una notaci on nueva. La notaci on con tilde ( vi ) que hemos usado para las componentes de los vectores covariantes es engorrosa. No es obvio que las siguientes convenciones son mucho mejores, pero proveen un mecanismo valioso para mantener la pista de cu al tipo de componentes (contravariantes o covariantes) deben ser usados en una expresi on. Las componentes vectoriales proyectadas en forma paralela, las cuales hemos llamado las componentes contravariantes, ser an anotadas con un super ndice, mientras que para las nuevas componentes covariantes se usar a un sub ndice en vez de un tilde. Por ejemplo, las componentes contravariantes del vector v son v i , mientras las componentes covariantes ser an vi . Una ventaja de esta nueva notaci on es evidente viendo la forma del producto interno. Con la convenci on ya propuesta, podemos escribir el producto punto de A y B como A B = Ai Bi = Ai B i . (5.51)

Notemos que el ndice sobre el cual sumamos aparece una vez como sub ndice y otra como super ndice. Esto es, por supuesto, lo mismo que decir que la suma es hecha sobre cantidades covariantes y contravariantes mezcladas. Este proceso de mezclar sub ndices y super ndices persistir a sobre casi todas las contracciones sobre un ndice repetido. Tambi en funcionar a cuando queramos formar un vector desde sus componentes con la interpretaci on adecuada de los vectores base. Sabemos que el vector puede ser formado con las componentes contravariantes y la base vectorial v = vig i . (5.52)

Para ser consistentes con la convenci on de sub ndices y super ndices, las bases vectoriales deben ser escritas con sub ndices y ser consideradas covariantes. Veremos en la pr oxima secci on, que esta conclusi on es consistente con la forma en que estas bases transforman. Esta convenci on tambi en previene que accidentalmente formemos un vector combinando sus componentes covariantes con la base vectorial g i

96

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

v = vi g i .

(5.53)

La notaci on nos advierte que esto no es correcto ya que ambos ndices aparecen como sub ndices. En la secci on anterior generamos varias relaciones, las cuales describieron c omo las componentes contravariantes del vector v transforman entre dos sistemas inclinados. C omo debiesen ser modicados la presentaci on de estos resultados para ser consistente con la nueva convenci on? En la secci on anterior escribimos vi = tij vj . (5.54)

Ahora estas componentes vectoriales deben ser escritas de manera correcta. Para ser consistentes con esta nueva notaci on, uno de los ndices de la matriz transformaci on necesita ser un sub ndice y otra con super ndice, v i = tij v j , donde x i . xj De manera similar, la inversi on de la ecuaci on (5.55) se convierte en tij = v i = g ij v j , donde xi . (5.58) x j Notemos c omo en las ecuaciones (5.56) y (5.58) la componente con super ndice en el denominador de la derivada parcial resulta en un sub ndice en el lado izquierdo de esta expresi on. Esta es una propiedad general de las derivadas parciales con respecto a cantidades covariantes y contravariantes. Una derivada parcial con respecto a una cantidad contravariante produce un resultado covariante, mientras que una derivada parcial con respecto a una cantidad covariante da como resultado una cantidad contravariante. Probaremos este hecho m as tarde en este cap tulo. Estas matrices de transformaci on tienen lo que es llamado una combinaci on de propiedades contravariantes/covariantes. Ellas son contravariantes con respecto a un ndice, pero covariantes con respecto al otro. Con la notaci on que us abamos hasta comenzar esta secci on, la naturaleza rec proca de [t] y [g ] era indicada por la ecuaci on tij gjk = ik . Pero ahora, para ser consistentes con la nueva notaci on, anotaremos g ij =
j tij gk = ik .

(5.55)

(5.56)

(5.57)

(5.59)

La delta de Kronecker, escrita de esta manera, tambi en presenta la forma mezclada de covariante y contravariante.

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

97

Las ecuaciones (5.49) y (5.50), las cuales indican c omo transforman las bases vectoriales, son escritas usando la notaci on de sub ndices/super ndices por g j = tij g i g j = g ij g i . (5.60)

Notemos la importancia de las posiciones horizontales de los ndices de la matriz transformaci on. En las ecuaciones (5.55) y (5.57) la suma era sobre el segundo ndice de la matriz, mientras que estas sumas son sobre el primer ndice. Esto previene de escribir los elementos de la matriz [t] como tij , ya que esto podr a indicar cu al ndice viene primero. Deber amos tambi en reescribir las relaciones que involucran la m etrica usando la nueva notaci on. Nuestra denici on previa de la m etrica fue en t erminos de una base vectorial covariante. Por tanto, la ecuaci on (5.31) se mantiene Mij = g i g j , (5.61)

y ambos ndices permanecen como sub ndices. De esta manera, los elementos de la m etrica son puramente covariantes, ya que ambos ndices son sub ndices. La m etrica convierte las componentes contravariantes de un vector a sus componentes covariantes, dentro del mismo sistema de coordenadas. Esta operaci on puede ser escrita, usando la notaci on de sub ndices/super ndices vi = Mij v j . (5.62)

Notemos c omo la convenci on de sumas contin ua su trabajo. La misma operaci on para un sistema primado, usando una m etrica primada, queda Mij = g i g j , y puede ser escrito como vi = Mij v j . (5.64) (5.63)

En resumen, las ecuaciones que gobiernan las transformaciones de las componentes contravariantes de un vector v pueden ser escritas usando la nueva notaci on de sub ndices/super ndices tij = x i /xj vi = tij v j g j = tij g i g ij = xi /x j v i = g ij v j g j = g ij g i .

Las componentes covariantes de v puede ser obtenida desde las componentes contravariantes usando la m etrica Mij = g i g j Mij = g i g j vi = Mij v j vi = Mij v j .

98

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Claramente hay algunos hoyos en estos cuadros. Primero, est a la pregunta de c omo las componentes covariantes de un vector transforman. Segundo, decimos que los vectores base g i son covariantes por naturaleza. Necesitamos probar esto. Finalmente, podemos denir bases vectoriales contravariantes? Estos t opicos est an ntimamente relacionados unos con los otros, y apuntamos a esa direcci on.

5.2.5.

Transformaciones de componentes vectoriales covariantes.

Retornemos al par de sistemas coordenados inclinados descritos en la gura 5.4. Las componentes vectoriales covariantes del vector v transformar an de acuerdo a alguna relaci on lineal vi = [?] vj . (5.65)

Para determinar [?] de esta expresi on, consideremos dos formas equivalentes del producto interno de dos vectores, uno en el sistema primado y otro en el sistema no primado A B = Ai Bi = A j Bj . (5.66)

Las componentes contravariantes de A transforman de acuerdo a las reglas ya determinadas A j = tj i Ai . Sustituyendo esta expresi on en el lado derecho de la ecuaci on (5.66), tenemos Ai Bi = tj i Ai Bj . Como esta ecuaci on debe ser v alida para cualquier A, se debe tener Bi = tj i Bj . Esta expresi on puede ser f acilmente invertida, para obtener Bi = g ji Bj . (5.70) (5.69) (5.68) (5.67)

Notemos la similaridad entre las ecuaciones (5.60), (5.69) y (5.70). Esto soporta nuestra conclusi on que la base del eje paralelo es covariante. Ahora somos capaces de combinar las componentes de los vectores base contravariantes, g i , las cuales pueden ser determinados con la componente del vector covariante para formar el mismo vector. Esto es, v = vig i . (5.71)

Ser a mas bonito construir un nuevo conjunto de vectores base contravariantes, g i , los cuales pudiesen ser combinados con las componentes covariantes para formar el mismo vector. Esto es, v = vi g i . (5.72)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

99

De hecho, podemos usar esta expresi on para denir las bases de vectores contravariantes, y ver las consecuencias. Las propiedades b asicas de las bases de vectores contravariantes pueden ser deducidas considerando nuevamente el producto interno entre dos vectores, A y B . Si A es expresado usando la base de vectores covariantes y las componentes contravariantes, mientras B es escrito con vectores base contravariantes y componentes vectoriales covariantes, el producto interno se convierte en A B = Ai g i Bj g j = Ai Bj g i g j . De acuerdo a la ecuaci on (5.51), esta expresi on debe ser igual a Ai Bi , por tanto g i g j = o en t erminos de la delta de Kronecker, g i g j = i j . (5.75) 1 i=j , 0 i=j (5.74) (5.73)

Esta u ltima condici on permite determinar tanto la magnitud como la direcci on de la base de vectores contravariante, si la base de vectores covariante es conocida. Trabajando en dos dimensiones, g 1 g 2 = 0 y g 1 g 1 = 1. En palabras, g 1 debe ser perpendicular a g 2 , mientras 1 que su proyecci on a lo largo del eje 1, paralelo a g , debe ser uno. Esta unicidad determina g 1 y, por argumentos similares, g 2 . Las condiciones de la ecuaci on (5.75) pueden ser vistas gr acamente como es mostrado en la gura 5.5. Las construcciones en esta gura fueron hechas suponiendo que |g i | = 1.
2

g2 g2 1 g1

g1

Figura 5.5: Determinaci on de la base de vectores contravariante. Las componentes de los vectores covariantes y contravariantes tambi en pueden ser interpretadas gr acamente, como es mostrado en la gura 5.6. Nuevamente, en esta gura se

100

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

ha supuesto que |g i | = 1. Las componentes de los vectores contravariantes son simplemente las magnitudes de las proyecciones paralelas a los ejes del vector sobre los ejes inclinados denidos por la base covariante de vectores. Las componentes covariantes son las magnitudes de las proyecciones del vector en el mismo eje coordenado, pero siguiendo las l neas paralelas a las nuevas base de vectores contravariante. Esto hace que las l neas de proyecci on para las componentes vectoriales covariantes perpendiculares a los ejes, como es mostrado en la gura. La geometr a asegura que v = vig i = vi g i . (5.76)

V2 V V2 1 V1 V1

Figura 5.6: Componentes covariantes y contravariantes proyectadas de un vector. Si la base vectorial covariante no son vectores unitarios, las construcciones de las guras 5.5 y 5.6 deben ser ajustadas apropiadamente, siguiendo los requerimientos de las ecuaciones (5.75) y (5.76). Las transformaciones para la base vectorial contravariante se siguen directamente de la ecuaci on (5.76) usando las t ecnicas que hemos aplicado ya varias veces

g i = tij g j g =
i

(5.77) . (5.78)

g ij g j

Esto conrma nuestra clasicaci on de esta nueva base vectorial como contravariante, ya que transforma exactamente como las componentes contravariantes de un vector. El conjunto completo de reglas de transformaci on para componentes vectoriales contravariantes y covariantes pueden ser resumidas por el conjunto sim etrico de relaciones

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

101

v i = tij v j v i = g ij v j vi = g j i vj vi = tj i vj con tij = x i /xj

g i = tij g j g i = g ij g j g i = g ji g j g i = tj i g j

g ij = xi /x j .

Notemos que las cantidades contravariantes siempre transforman por una suma sobre el segundo ndice tanto de tij y g ij , mientras las cantidades covariantes transforman sobre el primer ndice. Para cantidades contravariantes, tij es usado para ir desde el sistema no primado al sistema primado, mientras que g ij es usado para ir desde el sistema primado al sistema no primado. Para cantidades covariantes, los roles de tij y g ij son los contrarios. La nueva base de vectores contravariantes nos permiten construir otra versi on del tensor m etrico, esta vez con super ndices M ij = g i g j . (5.79)

La aplicaci on de esta forma de la m etrica convierte cantidades covariantes en cantidades contravariantes. Por ejemplo, v i = M ij vj . (5.80)

Veremos en la pr oxima secci on que las dos m etricas distintas, Mij y M ij son simplemente representaciones del mismo objeto, el tensor m etrico.

5.2.6.

Covarianza y contravarianza en tensores.

Las propiedades covariantes y contravariantes discutidas en la secci on anterior pueden ser f acilmente extendidas a tensores. Tal como un vector puede ser expresado con componentes contravariantes o covariantes, v = vig i = vi g i , (5.81)

un tensor puede ser expresando usando solamente componentes contravariantes o covariantes T = T ijk g i g j g k = Tijk g i g j g k .

(5.82)

Sin embargo, los tensores de m as alto rango son m as exibles que los vectores, ya que pueden ser expresados en una forma mixta, con ndices contravariantes y covariantes. Por ejemplo, T = T ij k g i g j g k

(5.83)

102

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

la cual es una representaci on equivalente de T . Todas las expresiones tensoriales de las ecuaciones (5.82) y (5.83) son equivalentes, aunque los valores espec cos de las componentes ser an diferentes en cada caso. As como las componentes covariantes y contravariantes de un vector est an relacionadas con la m etrica, las diferentes representaciones de T pueden ser obtenidas desde una hacia otra usando la on (5.82) son iguales, misma m etrica. Por ejemplo, si las dos expresiones para T en la ecuaci podemos escribir T ijk = M il M jm M kn Tlmn . La expresi on en la ecuaci on (5.83) nos arroja el mismo tensor cuando T ij k = Mjm T imk . (5.85) (5.84)

Para convertir un conjunto de componentes tensoriales desde la forma puramente covariante a la forma puramente contravariante, es necesaria operaci on de m etrica para cada ndice. Las transformaciones de sistemas de coordenadas para tensores siguen las mismas conductas que establecimos para las transformaciones vectoriales. Una matriz de transformaci on del tipo apropiado es usada para cada ndice. Por ejemplo, podr amos escribir T i jk = g li tj m g nk Tl mn Ti jk = tli g jm tnk T l mn Ejemplo Hemos dicho que el tensor m etrico es un tensor, pero no lo hemos probado. La demostraci on es directa. Consideremos los elementos de la m etrica, expresado en forma covariante pura, Mij = g i g j . (5.88)

(5.86) (5.87)

El producto interno entre dos vectores, expresados en dos sistemas de coordenadas distintos, puede ser escrito como A B = Ai B j Mij = A m B m Mmn , (5.89)

donde Mmn = g m g n . Las ecuaciones de transformaci on pueden ser usadas para expresar las componentes del vector en el sistema primado en t erminos de las componentes no primados. Esto resulta ser, Ai B j Mij = Ai B j tmi tnj Mmn . Como la expresi on debe ser v alida para cualquier A y B , tenemos Mij = tmi tnj Mmn , lo cual es f acilmente invertido, obteniendo (5.91) (5.90)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES.

103

Mij = g mi g nj Mmn .

(5.92)

Pero esto es exactamente como transforman los elementos de un tensor de segundo rango. Por tanto, el tensor m etrico es por denici on un tensor. Esto implica que podemos escribir M = Mij g i g j .

(5.93)

Como la m etrica es un tensor, podemos modicar su naturaleza covariante o contravariante como lo har amos para cualquier tensor. Aunque puede parecer un poco extra na utilizar la misma m etrica para modicarla, podemos cambiar una m etrica puramente covariante a una m etrica puramente contravariante aplicando la m etrica dos veces M ij = M im M jn Mmn . Tambi en podemos escribir la m etrica en una forma mezclada escribiendo M ij = M im Mmj . Usando las ecuaciones de transformaci on, se puede demostrar f acilmente que i g j = ij . M ij = g (5.96) (5.95) (5.94)

Esto implica que el tensor m etrico es realmente s olo una generalizaci on del tensor Delta de Kronecker.

5.2.7.

Contravarianza y covarianza de derivadas parciales.

Cuando las derivadas parciales son tomadas con respecto a las coordenadas contravariantes, el resultado es una cantidad covariante. Para ver esto, sean xi y x i las coordenadas contravariantes en un par arbitrario de sistemas de coordenadas. Las reglas del c alculo requieren que se cumpla xj = , (5.97) x i x i xj donde hay una suma impl cita sobre el ndice j . Pero notemos que el t ermino xj /x i es j exactamente la denici on de g i . Esto nos permite escribir = g ji j . (5.98) i x x on derivada parcial Comparando esta expresi on con la ecuaci on (5.70) vemos que la operaci transforma como una cantidad covariante. En ese caso, encontramos que xj = xi xi xj = tj i , xj

(5.99) (5.100)

104

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

lo cual nos dice que esta derivada parcial act ua como una cantidad contravariante. Para ser consistentes con nuestra notaci on, imponemos la regla que un super ndice en el denominador de la operaci on derivada act ua como un sub ndice, mientras que un sub ndice en el denominador act ua como un super ndice. Esta idea fue discutida brevemente en la conexi on con las matrices de transformaci on en las ecuaciones (5.56) y (5.58). Ejemplo Un campo el ectrico est atico es calculado usualmente tomando el gradiente de un potencial escalar E = . En un cap tulo anterior, denimos el operador gradiente por la relaci on d = dr . Como el vector desplazamiento puede ser descrito por dr = dxi g i , (5.103) (5.102) (5.101)

donde dxi es una cantidad contravariante, es claro que el gradiente de puede ser escrito por = i g . dxi (5.104)

Podemos chequear la validez de esta expresi on, reemplazando las ecuaciones (5.104) y (5.103) en el lado derecho de la ecuaci on (5.102), de donde obtenemos i g dxj g j dxi = i dxj ij dx = i dxi dx = d

dr =

(5.105)

(5.106)

Luego, escribimos las componentes del campo el ectrico por Ei = , xi (5.107)

las cuales son covariantes y deben transformar seg un la relaci on Ei = g ji Ej . (5.108)

5.2. SISTEMAS DE COORDENADAS NO ORTOGONALES. Otro ejemplo ` Un campo magn etico est atico B puede ser calculado usando la ley de Ampere dr B =
C

105

4 I . c

(5.109)

En esta expresi on, I es la corriente total que uye a trav es del camino cerrado C . Tomando dr como el vector diferencial con componentes contravariantes, como est a dado en la ecuaci on (5.103), las componentes del campo magn etico usadas en esta integraci on deben ser escritas en forma covariante, por tanto dxi Bi =
C

4 I . c

(5.110)

106

CAP ITULO 5. SISTEMA DE COORDENADAS NO ORTOGONALES.

Cap tulo 6 Determinantes y matrices.


versi on nal 1.31-1604011

6.1.

Determinantes.

Comenzamos el estudio de matrices resolviendo ecuaciones lineales las cuales nos llevan a determinantes y matrices. El concepto de determinante y su notaci on fueron introducidos por Leibniz. Ecuaciones lineales homogeneas. Una de las mayores aplicaciones de los determinantes est a en el establecimiento de una condici on para la existencia de una soluci on no trivial de un conjunto de ecuaciones algebraicas lineales hom ogeneas. Supongamos que tenemos tres inc ognitas x1 , x2 , x3 (o n ecuaciones con n inc ognitas). a1 x1 + a2 x2 + a3 x3 = 0 , b1 x 1 + b2 x 2 + b3 x 3 = 0 , c1 x1 + c2 x2 + c3 x3 = 0 .

(6.1)

El problema es: en qu e condiciones hay alguna soluci on, aparte de la soluci on trivial x1 = 0, x2 = 0, x3 = 0? Si usamos notaci on vectorial x = (x1 , x2 , x3 ) para la soluci on y tres las a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ), c = (c1 , c2 , c3 ) para los coecientes, tenemos que las tres ecuaciones, ecuaci on (6.1), se convirten en ax=0 , bx=0 , cx=0 . (6.2)

Estas tres ecuaciones vectoriales tienen la interpretaci on geom etrica obvia que x es ortogonal a a, b, c. Si el volumen sustentado por a, b, c dado por el determinante (o el producto escalar triple) a1 a2 a3 D3 = (a b) c = det(a, b, c) = b1 b2 b3 , (6.3) c1 c2 c3
Este cap tulo est a basado en el tercer cap tulo del libro: Mathematical Methods for Physicists, fourth edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
1

107

108

CAP ITULO 6. DETERMINANTES Y MATRICES.

no es cero, claramente s olo existe la soluci on trivial x = 0. Vice-versa, si el anterior determinante de coecientes se anula, luego uno de los vectores columna es una combinaci on lineal de otros dos. Supongamos que c est a en el plano que sustenta a, b, i.e., la tercera ecuaci on es una combinaci on lineal de las primeras dos y no es independiente. Luego x es ortogonal a ese plano tal que x a b. Ya que las ecuaciones homog eneas pueden ser multiplicadas por n umeros arbitrarios, solamente las relaciones de xi son relevantes, para lo cual obtenemos razones de determinantes de 2 2 x1 (a2 b3 a3 b2 ) = , x3 (a1 b2 a2 b1 ) (6.4) x2 (a1 b3 a3 b1 ) = , x3 (a1 b2 a2 b1 ) a partir de los componentes del producto cruz a b. Ecuaciones lineales no homog eneas. El caso m as simple es de dos ecuaciones con dos inc ognitas a1 x1 + a2 x2 = a3 , b1 x 1 + b2 x 2 = b3 , (6.5)

puede ser reducido al caso previo embebi endolo en un espacio tridimensional con una soluci on vectorial x = (x1 , x2 , 1) y el vector la a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ). Como antes, ecuaci on on vectorial, a x = 0 y b x = 0, implica que x a b tal que el an alogo de la (6.5) en notaci ecuaci on (6.4) se mantiene. Para que esto se aplique la tercera componente de a b debiera ser distinta de cero, i.e., a1 b2 a2 b1 = 0, ya que la tecera componente de x es 1 = 0. Esto produce que los xi tengan la forma a3 b3 (a3 b2 a2 b3 ) x1 = = (a1 b2 a2 b1 ) a1 b1 a1 b1 (a1 b3 a3 b1 ) x2 = = (a1 b2 a2 b1 ) a1 b1 a2 b2 a2 b2 a3 b3 . a2 b2

(6.6a)

(6.6b)

El determinante en el numerador de x1 (x2 ) es obtenido a partir del determinante de los a a a3 coecientes 1 2 reemplazando el primer vector columna (segundo) por el vector b1 b2 b3 del lado inhomog eneo de la ecuaci on (6.5). Estas soluciones de ecuaci on lineal en t erminos de determinantes pueden ser generalizados a n dimensiones. El determinante es un arreglo cuadrado a1 a2 b b Dn = 1 2 c1 c2 . . . an . . . bn , . . . cn ...

(6.7)

6.1. DETERMINANTES.

109

de n umeros (o funciones), los coecientes de n ecuaciones lineales en nuestro caso. El n umero n de columnas (y de las) en el arreglo es llamado algunas veces el orden del determinante. La generalizaci on de la expansi on del producto escalar triple (de vectores la de las tres ecuaciones lineales) tiende al siguiente valor del determinante Dn en n dimensiones, Dn =
i,j,k,...

ijk... ai bj ck . . . ,

(6.8)

donde ijk . . . ., an alogo al s mbolo de Levi-Civita de la ecuaci on (1.52), es +1 para permutaciones pares (ijk . . .) de (123 . . . n), 1 para permutaciones impares, y cero si alg un ndice es repetido. Espec camente, para el determinante de orden tres D3 de las ecuaciones (6.3) y (6.8) tenemos D3 = +a1 b2 c3 a1 b3 c2 a2 b1 c3 + a2 b3 c1 + a3 b1 c2 a3 b2 c1 . (6.9) El determinante de orden tres, entonces, es esta particular combinaci on lineal de productos. Cada producto contiene uno y s olo un elemento de cada la y de cada columna. Cada producto es sumado si las columnas (los ndices) representan una permutaci on par de (123) y restando si corresponde a una permutaci on impar. La ecuaci on (6.3) puede ser considerada en umero de t erminos en la suma (ecuaci on (6.8)) notaci on abreviada de la ecuaci on (6.9). El n es 24 para un determinante de cuarto orden, en general n! para un determinante de orden n. A causa de la aparici on de signos negativos en la ecuaci on (6.9) pueden haber cancelaciones. Debido a esto es muy posible que un determinante de elementos grandes tenga un valor peque no. Algunas propiedades u tiles de los determinantes de n- esimo orden siguen de la ecuaci on (6.8). De nuevo, para ser espec co, la ecuaci on (6.9) para determinantes de orden tres es usada para ilustrar estas propiedades. Desarrollo laplaciano por las menores. La ecuaci on (6.9) puede ser reescrita D3 = a1 (b2 c3 b3 c2 ) a2 (b1 c3 b3 c1 ) + a3 (b1 c2 b2 c1 ) = a1 b b b2 b3 b b a2 1 3 + a3 1 2 . c1 c2 c2 c3 c1 c3 (6.10)

En general, el determinante de orden n- esimo puede ser expandido como una combinaci on lineal de productos de elementos de alguna la (o columna) por determinantes de orden (n 1) formados suprimiendo la la y la columna del determinante original en el cual aparece el elemento. Este arreglo reducido (2 2 en el ejemplo espec co) es llamado una menor. Si el elemento est a en la i- esima la y en la j - esima columna, el signo asociado con el producto es (1)i+j . La menor con este signo es llamada el cofactor. Si Mij es usado para designar la menor formado omitiendo la la i y la columna j y cij es el cofactor correspondiente, la ecuaci on (6.10) se convierte en
3 3

D3 =
j =1

(1)

j +1

aj M1j =
j =1

aj c1j .

(6.11)

110

CAP ITULO 6. DETERMINANTES Y MATRICES.

En este caso, expandiendo a lo largo de la primera la, tenemos i = 1 y la suma es sobre j , las columnas. Esta expansi on de Laplace puede ser usada para sacar ventaja en la evaluaci on de determinantes de alto orden en el cual muchos de los elementos son nulos. Por ejemplo, para encontrar el valor de el determinante 0 1 D= 0 0 1 0 0 0 0 0 0 1 0 0 , 1 0

(6.12)

expandimos a trav es de la la superior para obtener D = (1)


1+2

1 0 0 0 1 . (1) 0 0 1 0

(6.13)

Nuevamente, expandimos a trav es de la la superior para obtener D = (1) (1)1+1 (1) 0 1 = =1. 1 0 0 1 1 0

(6.14)

Este determinante D (ecuaci on (6.12)) est a formado de una de las matrices de Dirac que aparecen en la teor a relativista del electr on de Dirac. Antisimetr a. El determinante cambia de signo si cualquier par de las son intercambiadas o si cualquier par de columnas son intercambiadas. Esto deriva del car acter par-impar del Levi-Civita en la ecuaci on (6.8) o expl citamente de la forma de las ecuaciones (6.9) y (6.10). Esta propiedad es frecuentemente usada en Mec anica Cu antica para la construcci on de una funci on de onda de muchas part culas que, en concordancia con el principio de exclusi on de Pauli, ser a antisim etrica bajo el intercambio de cualquier par de part culas id enticas con spin 1/2 (electrones, protones, neutrones, etc). Como un caso especial de antisimetr a, cualquier determinante con dos las iguales o dos columnas iguales es nulo. Si cada elemento en una la o de una columna es cero el determinante completo es nulo. Si cada elemento en una la o de una columna es multiplicado por una constante, el determinante completo es multiplicado por esa constante. El valor de un determinante es inalterado si un m ultiplo de una la es a nadido (columna por columna) a otra la o si un m ultiplo de una columna es a nadido (la por la) a otra columna. Tenemos a1 a2 a3 a1 + ka2 a2 a3 b1 b2 b3 = b1 + kb2 b2 b3 . (6.15) c1 c2 c3 c1 + kc2 c2 c3

6.1. DETERMINANTES. Usando el desarrollo de Laplace sobre el lado derecho, obtenemos a2 a2 a3 a1 a2 a3 a1 + ka2 a2 a3 b1 + kb2 b2 b3 = b1 b2 b3 + k b2 b2 b3 , c2 c2 c3 c1 c2 c3 c1 + kc2 c2 c3

111

(6.16)

entonces por la propiedad de antisimetr a el segundo determinante del lado derecho se anula, vericando la ecuaci on (6.15). Un caso especial, un determinante es igual a cero, si cualquier par de las o columnas son proporcionales. Volviendo a las ecuaciones homog eneas (6.1) y multiplicando el determinante de los coecientes por x1 , y luego sumando x2 veces la segunda columna y x3 veces la tercera columna, podemos establecer directamente la condici on para la presencia de una soluci on no trivial para la ecuaci on (6.1): a1 a2 a3 x1 a1 a2 a3 a1 x1 + a2 x2 + a3 x3 a2 a3 0 a2 a3 x1 b1 b2 b3 = x1 b1 b2 b3 = b1 x1 + b2 x2 + b3 x3 b2 b3 = 0 b2 b3 = 0 . (6.17) c1 c2 c3 x1 c1 c2 c3 c1 x1 + c2 x2 + c3 x3 c2 c3 0 c2 c3 Por lo tanto x1 (x2 y x3 ) deber an ser cero a menos que el determinante de los coecientes sea nulo. Podemos mostrar que si el determinante de los coecientes es nulo, existe realmente una soluci on no trivial. Si nuestras ecuaciones lineales son inhomog eneas, esto es, como en la ecuaci on (6.5) o si los ceros en el lado derecho de la ecuaci on (6.1) fueran reemplazados por a4 , b4 , c4 respectivamente, luego de la ecuaci on (6.17) obtenemos, a4 b4 c4 x1 = a1 b1 c1 a2 b2 c2 a2 b2 c2 a3 b3 c3 , a3 b3 c3

(6.18)

la cual generaliza la ecuaci on (6.6a) a la dimensi on n = 3. Si el determinante de los coecientes se anula, el conjunto de ecuaciones no homog eneas no tiene soluci on a menos que el numerador tambi en se anule. En este caso las soluciones pueden existir pero ellas no son u nicas. Para el trabajo num erico, esta soluci on del determinante, ecuaci on (6.18), es enormemente dif cil de manejar. El determinante puede involucrar grandes n umeros con signos alternados, y en la resta de dos n umeros grandes el error relativo podr a remontarse al punto que hace que el resultado no tenga valor. Tambi en, aunque el m etodo del determinante es ilustrado aqu con tres ecuaciones y tres inc ognitas, podr amos f acilmente tener 200 ecuaciones con 200 inc ognitas las cuales, involucran sobre 200! t erminos por determinante, lo que pone un desaf o muy alto a la velocidad computacional. Deber a haber una mejor manera. En efecto, hay una mejor manera. Una de las mejores es un proceso a menudo llamado eliminaci on de Gauss. Para ilustrar esta t ecnica, consideremos el siguiente conjunto de ecuaciones.

112 Resolvamos

CAP ITULO 6. DETERMINANTES Y MATRICES.

3x + 2y + z = 11 2x + 3y + z = 13 x + y + 4z = 12 .

(6.19)

El determinante de la ecuaci on lineal no homog enea ecuaci on (6.19) es 18, por lo tanto existe una soluci on. Por conveniencia y para una optima precisi on num erica, las ecuaciones son reordenadas tal que los coecientes mayores corran a lo largo de la diagonal principal (superior izquierda a inferior derecha). Esto ha sido hecho en el conjunto anterior. La t ecnica de Gauss es usar la primera ecuaci on para eliminar la primera inc ognita x de las ecuaciones restantes. Entonces la (nueva) segunda ecuaci on es usada para eliminar y de la u ltima ecuaci on. En general, descendemos poco a poco a trav es del conjunto de ecuaciones, y luego, con una inc ognita determinada, avanzamos gradualmente para resolver cada una de las otras inc ognitas en sucesi on. Dividiendo cada la por su coeciente inicial, vemos que las ecuaciones (6.19) se convierten en 2 1 11 x+ y+ z = 3 3 3 3 1 13 x+ y+ z = 2 2 2 x + y + 4z = 12 . Ahora, usando la primera ecuaci on, eliminamos x de la segunda y la tercera: 1 11 2 x+ y+ z = 3 3 3 5 1 17 y+ z= 6 6 6 1 11 25 y+ z= , 3 3 3 y 2 1 11 x+ y+ z = 3 3 3 1 17 y+ z= 5 5 y + 11z = 25 .

(6.20)

(6.21)

(6.22)

Repitiendo la t ecnica, usamos la segunda ecuaci on para eliminar y a partir de la tercera ecuaci on: 2 1 11 x+ y+ z = 3 3 3 1 17 y+ z= 5 5 54z = 108 ,

(6.23)

6.1. DETERMINANTES. o z=2. Finalmente, al reemplazar obtenemos y+ o y=3. Luego con z e y determinados, x+ y x=1. 2 1 11 3+ 2= , 3 3 3 1 17 2= , 5 5

113

a bien adaptada La t ecnica podr a parecer no tan elegante como la ecuaci on (6.17), pero est a los computadores modernos y es m as r apida que el tiempo gastado con los determinantes. Esta t ecnica de Gauss puede ser usada para convertir un determinante en una forma tri angular: a1 b1 c1 D = 0 b2 c 2 , 0 0 c3 para un determinante de tercer orden cuyos elementos no deben ser confundidos con aquellos en la ecuaci on (6.3). De esta forma D = a1 b2 c3 . Para un determinante de n- esimo orden la evaluaci on de una forma triangular requiere solamente n 1 multiplicaciones comparadas con las n! requeridas para el caso general. Una variaci on de esta eliminaci on progresiva es conocida como eliminaci on de GaussJordan. Comenzamos como si fuera el procedimiento de Gauss, pero cada nueva ecuaci on considerada es usada para eliminar una variable de todas las otras ecuaciones, no s olo de aquellas bajo ella. Si hemos usado esta eliminaci on de Gauss-Jordan, la ecuaci on (6.23) llegar a a ser 1 7 x+ z = 5 5 1 17 y+ z= 5 5 z=2,

(6.24)

usando la segunda ecuaci on de la ecuaci on (6.22) para eliminar y de ambas, la primera y tercera ecuaciones. Entonces la tercera ecuaci on de la ecuaci on (6.24) es usada para eliminar z de la primera y segunda ecuaciones, dando x=1 y=3 z=2,

(6.25)

114

CAP ITULO 6. DETERMINANTES Y MATRICES.

Volveremos a la t ecnica de Guass-Jordan cuando invertamos matrices. Otra t ecnica disponible para el uso computacional es la t ecnica de Gauss-Seidel. Cada t ecnica tiene sus ventajas y desventajas. Los m etodos de Gauss y Gauss-Jordan pueden tener problemas de precisi on para un determinante grande. Esto tambi en es un problema para la inversi on de matrices. El m etodo de Gauss-Seidel, como un m etodo iterativo, puede tener problemas de convergencia.

6.2.

Matrices.

El an alisis matricial pertenece al algebra lineal ya que las matrices son operadores o mapas lineales tales como rotaciones. Supongamos, por ejemplo, que rotamos las coordenadas cartesianas de una espacio bidimensional tal que, en notaci on vectorial, x1 x2 = x1 cos x2 sen x2 sin x1 cos =
j

aij xj

(6.26)

Etiquetamos el arreglo de elementos aij por la matriz A de 2 2 consistente de dos las y dos columnas, adem as, consideramos los vectores x, x como matrices de 2 1. Tomemos la suma de productos de la ecuaci on (6.26) como una denici on de la multiplicaci on matricial que involucra el producto escalar de cada uno de los vectores la de A con el vector columna x. As en notaci on matricial la ecuaci on (6.26) se convierte en x = Ax . (6.27)

Para extender esta denici on de multiplicaci on de una matriz por un vector columna a el producto de dos matrices de 2 2, consideremos la rotaci on de coordenada seguida por una segunda rotaci on dada por la matriz B tal que x = Bx . Por componentes xi =
j

(6.28)

bij xj =
j

bij
k

ajk xk =
k j

bij ajk

xk .

(6.29)

La suma sobre j es la multiplicaci on matricial deniendo una matriz C = BA tal que xi =


k

cik xk ,

(6.30)

o x = Cx en notaci on matricial. Nuevamente, esta denici on involucra el producto escalar de vectores las de B con vectores columnas de A. Esta denici on de multiplicaci on matricial se puede generalizar a matrices de m n y es u til, realmente su utilidad es la justicaci on de su existencia. La interpretaci on f sica es que el producto matricial de dos matrices, BA, es la rotaci on que conduce del sistema sin prima directamente al sistema de coordenadas con doble prima. Antes de pasar a la denici on formal, podemos notar que el operador A est a descrito

6.2. MATRICES.

115

por sus efectos sobre las coordenadas o vectores base. Los elementos de matriz aij constituyen una representaci on del operador, una representaci on que depende de la elecci on de una base. El caso especial donde una matriz tiene una columna y n las es llamada un vector columna, |x , con componentes xi , i = 1, 2, . . . ., n. Si A es una matriz de n n, |x es un vector columna de n componentes, A|x est a denida como en la ecuaci on (6.27) y (6.26). Similarmente, si una matriz tiene una la y n columnas, es llamada un vector la, x| con componentes xi , i = 1, 2, . . . .n. Claramente, x| resulta de |x > por el intercambio de las y columnas, una operaci on matricial llamada transposici on, y pora cualquier matriz A, A 2 )ik = Aik . Transponiendo un es llamada la transpuesta de A con elementos de matriz (A producto de matrices AB se invierte el orden y da BA; similarmente, A|x se transpone como x|A. El producto escalar toma la forma x|y .

Deniciones b asicas. Una matriz puede ser denida como una arreglo cuadrado o rectangular de n umeros o funciones que obedecen ciertas leyes. Esto es una extensi on perfectamente l ogica de los conceptos matem aticos familiares. En aritm etica tratamos con n umeros simples. En la teor a de variable compleja tratamos con pares ordenados de n umeros, (1, 2) = 1 + 2i, en el cual el orden es importante. Ahora consideremos n umeros (o funciones) ordenados en un arreglo cuadrados o rectangular. Por conveniencia en el trabajo posterior los n umeros son distinguidos por dos sub ndices, el primero indica la la (horizontal) y el segundo indica la columna (vertical) en la cual aparecen los n umeros. Por ejemplo, a13 es el elemento de matriz en la primera la y tercera columna. De este modo, si A es una matriz con m las y n columnas, a11 a21 A= . . . a12 a22 . . . a1n a2n . . .. . . . amn

(6.31)

am1 am2

Quiz as el hecho m as importante a notar es que los elementos aij no est an combinados unos con otros. Una matriz no es un determinante. Es un arreglo ordenado de n umeros, no un simple n umero. La matriz A hasta ahora de s olo es un arreglo de n umeros que tiene las propiedades que le asignamos. Literalmente, esto signica construir una nueva forma de matem aticas. Postulamos que las matrices A, B y C, con elementos aij , bij y cij , respectivamente, combinan de acuerdo a las siguientes reglas.

Igualdad. Matriz A= Matriz B si y s olo si aij = bij para todos los valores de i y j . Esto, por su puesto, require que A y B sean cada uno arreglos de m n (m las y n columnas).
2

Algunos textos denotan A transpuesta por AT .

116 Suma.

CAP ITULO 6. DETERMINANTES Y MATRICES.

A + B = C si y s olo si aij + bij = cij para todos los valores de i y j , los elementos se combinan de acuerdo a las leyes del algebra lineal (o aritm etica si hay n umeros simples). Esto signica que A + B = B + A, la conmutaci on. Tambi en, se satisface la ley de asociatividad (A + B) + C = A + (B + C). Si todos los elementos son cero, la matriz es llamada matriz nula y se denota por 0. Para todo A, A+0=0+A=A , con 0 0 0 = . . . 0 0 . . . . .. 0 0 0 0 . . . . 0

(6.32)

Tal que las matrices de m n forman un espacio lineal con respecto a la suma y la resta. Multiplicaci on (por un escalar). La multiplicaci on de la matriz A por una cantidad escalar est a denida como A = (A) , (6.33)

en la cual los elementos de A son aij ; esto es, cada elemento de la matriz A es multiplicado por el factor escalar. Esto contrasta con el comportamiento de los determinantes en el cual el factor multiplica solamente una columna o una la y no cada elemento del determinante. Una consecuencia de esta multiplicaci on por escalar es que A = A , conmutaci on. (6.34)

Multiplicaci on (multiplicaci on matricial) producto interno. AB = C si y solo si cij =


k

aik bkj .

(6.35)

Los elementos i y j de C est an formados como un producto escalar de la i- esima la de A con el j - esima columna de B (el cual demanda que A tenga el mismo n umero de columnas como B tiene de las). El ndice mudo k toma los valores 1, 2, . . . , n en sucesi on, esto es, cij = ai1 b1j + ai2 b2j + ai3 b3j , (6.36)

para n = 3. Obviamente, el ndice mudo k pude ser reemplazado por alg un otro s mbolo que no est e en uso sin alterar la ecuaci on (6.35). Quiz as la situaci on puede ser aclarada armando que la ecuaci on (6.35) dena el m etodo de combinar ciertas matrices. Este m etodo de combinaci on, es llamado multiplicaci on matricial. Para ilustrar, consideremos dos matrices (matrices de Pauli) 0 1 1 0 1 = y . (6.37) 1 0 0 1

6.2. MATRICES.

117

El elemento 11 del producto, (1 3 )11 est a dado por la suma de productos de elementos de la primera la de 1 con el correspondiente elemento de la primera columna de 3 : Aqu (1 3 )ij = 1 i1 31j + 1 i2 32j . Una aplicaci on directa de la multiplicaci on de matrices muestra que 3 1 = y por la ecuaci on (6.35) 1 3 = 1 3 . Excepto en casos especiales, la multiplicaci on de matrices no es conmutativa.3 AB = BA . (6.40) (6.39) 0 1 1 0 (6.38)

Sin embargo, de la denici on de multiplicaci on de matrices podemos mostrar que se mantiene una ley de asosiatividad, (AB)C = A(BC). Tambi en se satisface una ley de distributividad, A(B + C) = AB + AC. La matriz unidad tiene elementos ij , la delta de Kronecker, y la propiedad de que 1A = A1 = A para toda A, 1 0 0 0 1 0 1 = . (6.41) . . . . . . . . . . . . 0 0 1 Notamos que es posible que el producto de dos matrices sea una matriz nula sin ser ninguna de ellas una matriz nula. Por ejemplo, si A= 1 1 0 0 y B= 1 0 1 0 .

AB = 0. Esto diere de la multiplicaci on de n umeros reales o complejos los cuales forman un campo, mientras que las estructura aditiva y multiplicativa de las matrices es llamada anillo por los matem aticos. Si A en una matriz de n n con determinante |A| = 0, luego tiene una unica inversa A1 tal que AA1 = A1 A = 1. Si B es tambi en una matriz de n n con inversa B1 , luego el producto de AB tiene la inversa (AB)1 = B1 A1 , (6.42) ya que ABB1 A1 = 1 = B1 A1 AB. El teorema del producto el cual dice que el determinante de un producto, |AB|, de dos matrices de n n A y B es igual al producto de los determinantes, |A B|, uniendo matrices con determinantes. El anterior teorema puede ser f acilmente probado.
La perdida de la propiedad conmutativa es descrita por el conmutador [A, B] = AB BA. La no conmutatividad se expresa por [A, B] = 0.
3

118 Producto directo.

CAP ITULO 6. DETERMINANTES Y MATRICES.

Un segundo procedimiento para multiplicar matrices, conocido como el tensor producto directo o de Kronecker. Si A es una matriz de m m y B una matriz de n n, luego el producto directo es AB=C . C es uan matriz de mn mn con elementos C = Aij Bkl , con = n(i 1) + k , = n(j 1) + l . (6.44) (6.43)

Por ejemplo, si A y B ambas son matrices de 2 2, AB= a11 B a12 B a21 B a22 B a11 b11 a11 b12 a11 b21 a11 b22 = a21 b11 a21 b12 a21 b21 a21 b22

a12 b11 a12 b21 a22 b11 a22 b21

a12 b12 a12 b22 . a22 b12 a22 b22

(6.45)

El producto directo es asociativo pero no conmutativo. Como un ejemplo de producto directo, las matrices de Dirac pueden ser desarrolladas como productos directos de las matrices de Pauli y de la matriz unidad. Otros ejemplos aparecen en la construcci on de grupos en teor a de grupos y en espacios de Hilbert en teor a cu antica. El producto directo denido aqu es algunas veces llamado la forma standard y es denotado por . Otros tres tipos de producto directo de matrices existe como posibilidades o curiosidades matem aticas pero tienen muy poca o ninguna aplicaci on en f sica matem atica. Matrices diagonales. Un tipo especial muy importante de matrices es la matriz cuadrada en la cual todos los elementos no diagonales son cero. Espac camente, si una matriz A de 3 3 es diagonal, a11 0 0 A = 0 a22 0 . 0 0 a33 Una interpretaci on f sica de tales matrices diagonales y el m etodo de reducir matrices a esta nos limitamos a notar la importante forma diagonal son considerados en la secci on 6.5. Aqu propiedad de que la multiplicaci on de matrices es conmutativa, AB = BA, si A y B son cada una diagonales.

6.2. MATRICES. Traza.

119

En cualquiera matriz cuadrada la suma de los elementos diagonales es llamada la traza. Claramente la traza es una operaci on lineal: traza(A B) = traza(A) traza(B) . Una de sus interesantes y u tiles propiedades es que la traza de un producto de dos matrices A y B es independiente del orden de la multiplicaci on: traza(AB) =
i

(AB)ii =
i j

aij bji (BA)jj


j

=
i j

bji aij =

(6.46)

= traza(BA) . Esto se mantiene a un cuando AB = BA. La ecuaci on (6.46) signica que la traza de cualquier conmutador, [A, B] = AB BA, es cero. De la ecuaci on (6.46) obtenemos traza(ABC) = traza(BCA) = traza(CAB) , lo cual muestra que la traza es invariante bajo permutaciuones c clicas de la matriz en un producto. Para una matriz sim etrica o una matriz Herm tica compleja la traza es la suma, y el determinante el producto, de sus autovalores, y ambos son coecientes del polinomio caracter stico. La traza servir a una funci on similar para las matrices como la ortogonalidad sirve para los vectores y funciones. En t erminos de tensores la traza es una contracci on y como el tensor de segundo orden contra do es un escalar (invariante). Las matrices son usadas ampliamente para representar los elementos de grupos. La traza de las matrices representando los elementos de grupo es conocido en teor a de grupos como el car acter. La raz on de este nombre especial y espacial atenci on es que mientras las matrices pueden variar la traza o car acter se mantiene inavariante. Inversi on de matriz. Al comienzo de esta secci on la matriz A fue presentada como la representaci on de un operador que (linealmente) transforma los ejes de coordenadas. Una rotaci on podr a ser un ejemplo de tal transformaci on lineal. Ahora buscaremos la transformaci on inversa A1 que restablecer a los ejes de coordenadas originales. Esto signica, ya sea como una ecuaci on 4 matricial o de operador , AA1 = A1 A = 1 . (6.47) Podemos probar (ejercicio) que
1 a ij =
4

Cji , |A|

(6.48)

Aqu y a trav es de todo el cap tulo nuestras matrices tienen rango nito.

120

CAP ITULO 6. DETERMINANTES Y MATRICES.

con la suposici on que el determinante de A (|A|) = 0. Si es cero, etiquetaremos a A como singular. No existe la inversa. Como fue explicado en la secci on 6.1 esta forma con determinante es totalmente inapropiado para el trabajo num erico con grandes matrices. Hay una amplia variedad de t ecnicas alternativas. Una de las mejores y m as com unmente usada es la t ecnica de inversi on de matrices de Gauss-Jordan. La teor a est a basada en los resultados que muestran que existen matrices ML tal que el producto ML A ser a A pero con a. una la multiplicada por una constante, o b. una la reemplazada por la la original menos un m ultiplo de otra la, o c. las intercambiadas. Otras matrices MR operando sobre la derecha de (AMR ) puede llevar a las mismas operaciones sobre las columnas de A. Esto signica que las las y las columnas de la matriz pueden ser alteradas (por multiplicaci on de matrices) como si estuvi eramos tratando con determinantes, as podemos aplicar las t ecnicas de eliminaci on de Gauss-Jordan a los elementos de matriz. Por tanto existe una matriz ML (o MR ) tal que5 ML A = 1 . (6.49) La ML = A1 . Determinamos ML realizando las operaciones de eliminaci on id enticas sobre la matriz unidad. Luego ML 1 = ML . (6.50) Para claricar esto consideremos un ejemplo espec co. Deseamos invertir la matriz 3 2 1 A = 2 3 1 . 1 1 4 Por conveniencia escribimos A y 1 una de ellas 3 2 1

(6.51)

lado a lado realizando operaciones id enticas sobre cada 2 1 1 0 0 0 1 0 . 3 1 (6.52) 1 4 0 0 1 para obtener ak1 = 1, 1 0 0 3 1 0 2 0 . 0 0 1

Para ser sistem aticos, multiplicamos cada la 2 1 1 3 3 3 1 1 2 2 1 1 4

(6.53)

Restando la primera la de la segunda y tercera, obtenemos 2 1 1 1 3 3 0 0 3 5 1 1 1 0 6 6 3 2 0 . 1 11 0 3 1 0 1 3 3


5

(6.54)

Recordemos que det(A) = 0.

6.3. MATRICES ORTOGONALES.

121

Entonces dividimos la segunda la (de ambas matrices) por 5/6 y sustray endola 2/3 veces de la primera la, y 1/3 veces de la tercera la. Los resultados para ambas matrices son 1 0 0 1 0 0
1 5 1 5 18 5

3 5

2 5 1 5

2 0 5 3 0 . 5 1 1 5

(6.55)

Dividimos la tercera la (de ambas matrices) por 18/5. Luego como u ltimo paso 1/5 veces la tercera la es sustra da de cada una de las dos primeras las (de ambas martices). Nuestro par nal es 11 7 1 1 0 0 8 18 18 7 11 1 18 (6.56) 18 18 0 1 0 . 1 1 5 0 0 1 18 18 18 El chequeo es multiplicar la original A por la calculada A1 para ver si realmente obtuvimos la matriz unidad 1. Como con la soluci on de Gauss-Jordan de ecuaciones algebraicas simult aneas, esta t ecnica est a bien adaptada para computadores.

6.3.

Matrices ortogonales.

El espacio de tres dimensiones ordinario puede ser descrito con las coordenadas cartesianas (x1 , x2 , x3 ). Consideremos un segundo conjunto de coordenadas cartesianas (x1 , x2 , x3 ) cuyo origen y sentido coinciden con el primero pero su orientaci on es diferente (gura 6.1). Podemos
x3 x 3 x 2

x1

x2 x1

x1 x 1

Figura 6.1: Sistemas de coordenadas cartesianos.

decir que el sistema de ejes prima ha sido rotado respecto al inicial sistema de coordenadas sin prima. Ya que esta rotaci on es una operaci on lineal, esperamos una ecuaci on matricial que relaciones la base con primas con la sin primas.

122 Cosenos directores.

CAP ITULO 6. DETERMINANTES Y MATRICES.

Un vector unitario a lo largo del eje x1 ( x1 ) puede ser resuelto en sus componentes a lo largo de los ejes x1 , x2 y x3 por las usuales t ecnicas de proyecci on. 1 cos(x1 , x1 ) + x 2 cos(x2 , x2 ) + x 3 cos(x3 , x3 ) . x 1 = x (6.57)

Por conveniencia estos cosenos, los cuales son los cosenos directores, son etiquetados 1 = a11 , cos(x1 , x1 ) = x 1 x cos(x1 , x2 ) = x 1 x 2 = a12 , cos(x1 , x3 ) = x 1 x 3 = a13 . Continuando, tenemos cos(x2 , x1 ) = x 2 x 1 = a21 , 2 = a22 , cos(x2 , x2 ) = x 2 x Ahora la ecuaci on (6.57) puede ser reescrita como x 1 = x 1 a11 + x 2 a12 + x 3 a13 y tambi en x 2 = x 1 a21 + x 2 a22 + x 3 a23 x 3 = x 1 a31 + x 2 a32 + x 3 a33 . (6.60) (a21 = a12 ) , y as sucesivamente. (6.59) (6.58)

Tambi en podemos ir de la otra manera resolviendo x 1 , x 2 y x 3 en sus componentes en el sistema con primas. Entonces x 1 = x 1 a11 + x 2 a21 + x 3 a31 x 2 = x 1 a12 + x 2 a22 + x 3 a32 x 3 = x 1 a13 + x 2 a23 + x 3 a33 . Aplicaciones a vectores. Si consideramos un vector cuyas componentes son funciones de la posici on, entonces V (x1 , x2 , x3 ) = x 1 V1 + x 2 V2 + x 3 V3 = V (x1 , x2 , x3 ) = x 1 V1 + x 2 V2 + x 3 V3 , (6.62) (6.61)

ya que el punto puede ser dado en cualquiera de los dos sistema de coordenadas (x1 , x2 , x3 ) o (x1 , x2 , x3 ). Notemos que V y V son geom etricamente el mismo vector (pero con diferentes componentes). Si los ejes de coordenadas son rotados, el vector se mantiene jo. Usando la 1 , x 2 , x 3 , podemos separar la ecuaci on (6.62) en tres ecuaciones ecuaci on (6.60) para eliminar x escalares V1 = a11 V1 + a12 V2 + a13 V3 V2 = a21 V1 + a22 V2 + a23 V3 V3 = a31 V1 + a32 V2 + a33 V3 . (6.63)

6.3. MATRICES ORTOGONALES.

123

En particular, estas relaciones se mantendr an para las coordenadas de un punto (x1 , x2 , x3 ) y (x1 , x2 , x3 ), dando x1 = a11 x1 + a12 x2 + a13 x3 x2 = a21 x1 + a22 x2 + a23 x3 x3 = a31 x1 + a32 x2 + a33 x3 ,

(6.64)

y similarmente para las coordenadas primas. En esta notaci on el conjunto de tres ecuaciones (6.64) pueden ser escritas como
3

xi =
j =1

aij xj ,

(6.65)

donde i toma los valores 1, 2 y 3 y el resultado son tres ecuaciones separadas. De la ecuaci on anterior podemos derivar interesante informaci on sobre los aij los cuales describen la orientaci on del sistema de coordenadas (x1 , x2 , x3 ) relativa al sistema (x1 , x2 , x3 ). La distancia respecto al origen es la misma en ambos sistemas. Elevando al cuadrado, x2 i =
i i

xi

=
i j

aij xj
k

aik xk

(6.66)

=
j,k

xj xk
i

aij aik .

Esto s olo puede ser cierto para todos los puntos si y s olo si aij aik = jk ,
i

j, k = 1, 2, 3 .

(6.67)

La ecuaci on (6.67) es una consecuencia de requerir que la longitud permanezca constante (invariante) bajo rotaciones del sistema de coordenadas, es llamada la condici on de ortogonalidad. Los aij escritos como una matriz A, forman una matriz ortogonal. Notemos que la ecuaci on (6.67) no es una multiplicaci on matricial. En notaci on matricial la ecuaci on (6.65) llega a ser |x = A|x . Condiciones de ortogonalidad, caso bidimensional. Podemos ganar un mejor entendimiento de los aij y de la condici on de ortogonalidad considerando con detalle rotaciones en dos dimensiones. Esto lo podemos pensar como un sistema tridimensional con los ejes x1 y x2 rotados respecto a x3 . De la gura 6.2, x1 = x1 cos + x2 sen , x2 = x1 sen + x2 cos . (6.69) (6.68)

124

CAP ITULO 6. DETERMINANTES Y MATRICES.

x 2

x2 x2

x2

n e s

x 1 x1 x1

os c x1

Figura 6.2: Sistemas de coordenadas rotados en dos dimensiones.

Por lo tanto por la ecuaci on (6.68) A= cos sen sen cos . (6.70)

Notemos que A se reduce a la matriz unidad para = 0. La rotaci on cero signica que nada ha cambiado. Es claro a partir de la gura 6.2 que a11 = cos = cos(x1 , x1 ) , = cos(x1 , x2 ) , a12 = sen = cos 2 (6.71)

y as sucesivamente,

de este modo identicamos los elementos de matriz aij con los cosenos directores. La ecuaci on on de ortogonalidad, llega a ser (6.67), la condici sen2 + cos2 = 1 , sen cos sen cos = 0 . (6.72)

la extensi on a tres dimensiones ( rotaci on de las coordenadas a lo largo del eje z en un angulo en el sentido de los punteros del reloj) es simplemente cos sen 0 A = sen cos 0 . 0 0 1

(6.73)

El a33 = 1 expresa el hecho que x3 = x3 , ya que la rotaci on ha sido en torno al eje x3 Los ceros garantizan que x1 y x2 no dependen de x3 y que x3 no depende de x1 y x2 . En un lenguaje m as sosticado, x1 y x2 se extienden sobre un subespacio invariante, mientras que x3 forma un subespacio invariante por si solo. La forma de A es reducible. La ecuaci on (6.73) da una posible descomposici on.

6.3. MATRICES ORTOGONALES. Matriz inversa A1 .

125

Volviendo a la matriz de transformaci on general A, la matriz inversa A1 es denida tal que |x = A1 |x . (6.74) Esto es, A1 describe el inverso de la rotaci on dada por A y retorna el sistema de coordenadas a su posici on original. Simb olicamente, las ecuaciones (6.68) y (6.74) combinadas dan |x = A1 A|x , y ya que |x es arbitrario, A1 A = 1 , la matriz unidad, Similarmente, AA1 = 1 . usando las ecuaciones (6.68) y (6.74) y eliminando |x en vez de |x . . Matriz transpuesta, A Podemos determinar los elementos de nuestra postulada matriz inversa A1 empleando on de ortogonalidad, no est a de la condici on de ortogonalidad. La ecuaci on (6.67), la condici acuerdo con nuestra denici on de multiplicaci on matricial, pero la podemos denir de acuerdo tal que a una nueva matriz A a ji = aij . (6.78) La ecuaci on (6.67) llega a ser =1. AA (6.79) (6.77) (6.76) (6.75)

Esta es una reformulaci on de la condici on de ortogonalidad y puede ser tomada como una on denici on de ortogonalidad. Multiplicando (6.79) por A1 por la derecha y usando la ecuaci (6.77), tenemos = A1 . A (6.80) Este importante resultado que la inversa es igual a la transpuesta se mantiene s olo para matrices ortogonales y puede ser tomado como una reformulaci on de la condici on de ortogonalidad. Multiplicando la ecuaci on (6.80) por A por la izquierda, obtenemos =1, AA o aji aki = jk ,
i

(6.81)

(6.82)

lo cual es otra forma m as de la condici on de ortogonalidad.

126

CAP ITULO 6. DETERMINANTES Y MATRICES.

Resumiendo, la condici on de ortogonalidad puede ser enunciada de varias maneras equivalentes: aij aik = jk
i

(6.83a) (6.83b) (6.83c) (6.83d)

aji aki = jk
i

= AA =1 AA = A1 . A

Cualquiera de estas relaciones es condici on necesaria y suciente para que A sea ortogonal. Es posible ahora ver y enteder por qu e el nombre ortogonal es apropiado para estas matrices. Tenemos la forma general a11 a12 a13 A = a21 a22 a23 , a31 a32 a33 de una matriz de cosenos directores en la cual aij es el coseno del angulo entre xi y xj . Por lo tanto, a11 , a12 , a13 son los cosenos directores de x1 relativo a x1 , x2 , x3 . Estos tres elementos de A denen una unidad de longitud a lo largo de x1 , esto es, un vector unitario x 1 , x 1 = x 1 a11 + x 2 a12 + x 3 a13 . La relaci on de ortogonalidad (ecuaci on (6.82)) es simplemente una declaraci on que los vectores unitarios x 1 , x 2 , y x 3 son mutuamente perpendiculares o ortogonales. Nuestra matriz de transformaci on ortogonal A transforma un sistema ortogonal en un segundo sistema ortogonal de coordenadas por rotaci on y/o reexi on. Angulos de Euler. Nuestra matriz de trasformaci on A contiene nueve cosenos directores. Claramente, s olo tres de ellos son independientes, la ecuaci on (6.67) proveen seis restricciones. De otra manera, uno puede decir que necesita dos par ametros ( y en coordenadas polares esf ericas) para jar el eje de rotaci on, m as uno adicional para describir la magnitud de la rotaci on en torno a ese eje. En la formulaci on Lagrangiana de la mec anica es necesario describir A usando alg un conjunto de tres par ametros independientes m as que los redundantes cosenos directores. La elecci on usual de estos par ametros es la de los angulos de Euler6 El objetivo de describir la orientaci on de un sistema nal rotado (x1 , x2 , x3 ) relativo a algun sistema de coordenadas inicial (x1 , x2 , x3 ). El sistema nal es desarrollado en tres pasos cada paso involucra una rotaci on descrita por un angulo de Euler (gura 6.3): 1. Los ejes x1 , x2 , y x3 son rotados respecto al eje x3 en un angulo en el sentido horario relativo a x1 , x2 y x3 . (Los ejes x3 y x3 coinciden.)
No hay una u nica manera de denir los angulos de Euler. Usamos la elecci on usual en Mec anica Cu antica de momento angular.
6

6.3. MATRICES ORTOGONALES.

127

x 3= x 3 x 3= x 3 x 3 x1 x 1 x2

x 3 = x 3

x 3= x 3

x 2 x 1 x 1 (a) x2 (b) x= 2 x 2 x 1 x 2 x= x 2 2 x 1 (c)

Figura 6.3: (a) Rotaci on respecto al eje x3 en un angulo ; (b) Rotaci on respecto a un eje x2 en un angulo ; (c) Rotaci on respecto a un eje x3 en un angulo .

2. los ejes x1 , x2 , y x3 son rotados respecto al eje x2 en un angulo en el sentido horario relativo a x1 , x2 y x3 . (Los ejes x2 y x2 coinciden.) 3. la tercera y nal rotaci on es en un angulo en sentido horario respecto al eje x3 produciendo el sistema (x1 , x2 , x3 ). (Los ejes x3 y x3 coinciden.) Las tres matrices que describen estas rotaciones son: cos sen Rz () = sen cos 0 0 exactamente como en la ecuaci on (6.73, cos 0 sen 1 0 Ry ( ) = 0 sen 0 cos y cos sen 0 Rz ( ) = sen cos 0 . 0 0 1 La rotaci on total es descrita por el producto matricial triple, A(, , ) = Rz ( )Ry ( )Rz () . (6.87) (6.86) (6.85) 0 0 , 1

(6.84)

Notemos el orden: Rz () opera primero, entonces Ry ( ), y nalmente Rz ( ). La multiplicaci on da cos cos cos sen sen cos cos sen sen cos cos sen sen sen . A = sen cos cos cos sen sen cos sen + cos cos sen cos sen sen cos (6.88)

128

CAP ITULO 6. DETERMINANTES Y MATRICES.

Comparando A(aij ) con A(, , ) elemento por elemento, nos produce los cosenos directores en t erminos de los angulos de Euler. Propiedades de simetr a. Nuestra descripci on matricial conduce al grupo de rotaciones SO(3) en el espacio tridi3 mensional R , y la descripci on en t erminos de angulos de Euler de las rotaciones forman una base para desarrollar el grupo de rotaciones. Las rotaciones pueden tambi en ser descritas por 2 el grupo unitario SU (2) en el espacio bidimensional C . La matriz transpuesta es u til en la discusi on de las propiedades de simetr a. Si , A=A la matriz es llamada sim etrica, mientras que si , A = A aij = aji , (6.90) aij = aji , (6.89)

es llamada antisim etrica. Los elementos de la diagonal son nulos. Es f acil mostrar que cualquier matriz cuadrada puede ser escrita como la suma de una matriz sim etrica y una antisim etrica. Consideremos la identidad A= 1 + 1 AA . A+A 2 2 (6.91)

es claramente sim es claramente antisim A+A etrica, mientras que A A etrica. Hasta ahora hemos interpretado las matrices ortogonales como rotaciones del sistema de coordenadas. Estas cambian las componentes de un vector jo. Sin embargo, una matriz ortogonal A puede ser interpretada igualmente bien como una rotaci on del vector en la direcci on opuesta (gura 6.4).

r y y

r 1= A r x

Figura 6.4: Vector jo con coordenadas rotadas. Estas dos posibilidades, (1) rotar el vector manteniendo la base ja y (2) rotar la base (en el sentido opuesto) manteniendo el vector jo.

6.4. MATRICES HERM ITICAS, MATRICES UNITARIAS.

129

Supongamos que interpretamos la matriz A como rotar un vector r en una nueva posici on r1 , i.e., en un particular sistema de coordenadas tenemos la relaci on r1 = Ar . (6.92)

Ahora rotemos las coordenadas aplicando una matriz B, la cual rota (x, y, z ) en (x , y , z ), r 1 = Br1 = BAr = (Ar) = BA(B1 B)r = (BAB )Br = (BAB )r . Br1 es justo r1 en el nuevo sistema de coordenadas con una interpretaci on similar se mantine para Br. Ya que en este nuevo sistema (Br) es rotado a la posici on (Br1 ) por la matriz BAB1 . Br1 = (BAB1 ) Br r1 = A r . En el nuevo sistema las coordenadas han sido rotadas por la matriz B, A tiene la forma A , en la cual A = BAB1 . (6.94) A opera en el espacio x , y , z como A opera en el espacio x, y , z . La transformaci on denida por la ecuaci on (6.94) con B cualquier matriz, no necesariamente ortogonal, es conocida como trasformaci on de similaridad. Por componentes la ecuaci on (6.94) llega a ser aij = bik akl (B1 )lj . (6.95)
k,l 1 1

(6.93)

Ahora si B es ortogonal, )lj = bjl , (B1 )lj = (B y tenemos aij =


k,l

(6.96) (6.97)

bik bjl akl .

La matriz A es la representaci on de un mapeo lineal en un sistema de coordenadas dado o base. Pero hay direcciones asociadas con A, ejes cristalinos, ejes de simetr a en un s olido rotando y etc. tal que la representaci on depende de la base. La transformaci on de similaridad muestran justo como la representaci on cambia con un cambio de base.

6.4.

Matrices Herm ticas, matrices unitarias.

Deniciones. Hasta aqu hemos generalmente supuesto que nuestro espacio vectorial es un espacio real y que los elementos de las matrices (la representaci on de los operadores lineales) son reales. Para muchos c alculos en F sica Cl asica los elementos de matriz reales ser an sucientes. Sin

130

CAP ITULO 6. DETERMINANTES Y MATRICES.

embargo, en Mec anica Cu antica las variables complejas son inevitables por la forma de las reglas de conmutaci on b asicas (o la ecuaci on tiempo dependiente de Sch odinger). Con esto en mente, generalizamos al caso de matrices con elementos complejos. Para manejar estos elementos, denamos algunas propiedades. 1. Compleja conjugada, A , formada por tomar los complejos conjugados (i i) de cada elemento, donde i = 1. 2. Adjunta, A , formada por transponer A , . A = A = A 3. Matriz herm tica: La matriz es etiquetada como herm tica (o autoadjunta) si A = A . (6.99) (6.98)

, y las matrices herm Si A es real, entonces A = A ticas reales son matrices reales y sim etricas. En Mec anica Cu antica las matrices son herm ticas o unitarias. 4. Matriz unitaria: La matriz U es etiquetada como unitaria si U = U1 . (6.100)

, tal que las matrices reales unitarias son matrices Si U es real, entonces U1 = U ortogonales. Este representa una generalizaci on del concepto de matriz ortogonal. 5. (AB) = B A , (AB) = B A . Si los elementos son complejos, a la F sica casi siempre le interesan las matrices adjuntas, herm ticas y unitarias. Las matrices unitarias son especialmente importantes en Mec anica Cu antica porque ellos dejan el largo de un vector (complejo) inalterado, an aloga a la operaci on de una matriz ortogonal sobre un vector real. Una importante excepci on a este inter es en las matrices unitarias es el grupo de matrices de Lorentz. En un espacio n-dimensional complejo el cuadrado del largo de un punto x = (x1 , x2 , . . . , xn ), o el cuadrado de su distancia al origen, es denido como x x = i xi xi = i | xi |2 . Si una trasformaci on de coordenadas y = Ux deja la distancia inalterada, entonces x x = y y = (Ux) Ux = x U Ux. Ya que x es arbitrario concluimos que U U = 1n , i.e., U es una matriz unitaria de n n. Si x = Ax es un mapa lineal, entonces su matriz en las nuevas coordenadas llega a ser una transformaci on unitaria (an alogo de una de similaridad) A = UAU , porque Ux = y = UAx = UAU1 y = UAU y .

6.4. MATRICES HERM ITICAS, MATRICES UNITARIAS. Matrices de Pauli y de Dirac. El conjunto de tres matrices de Pauli de 2 2 , 1 = 0 1 1 0 , 2 = 0 i i 0 , 3 = 1 0 0 1
1 2

131

(6.101)

fueron introducidas por W. Pauli para describir una part cula de spin no relativista. Se puede demostrar que las satisfacen i j + j i = 2ij 12 , i j = ik , (i )2 = 12 ,

en Mec anica Cu antica

anticonmutaci on permutaci on c clica de los ndices

(6.102) (6.103) (6.104)

donde 12 es la matriz unidad de 2 2. As , el vector /2 satisface las mismas reglas de conmutaci on [i , j ] i j j i = 2iijk k , (6.105) que el momento angular L. Las tres matrices de Pauli y la matriz unitaria forman un conjunto completo tal que cualquier matriz de 2 2 M puede ser expandida como M = m0 1 + m1 1 + m2 2 + m3 3 = m0 1 + m , (6.106)

2 donde los mi son constantes. Usando i = 1 y tr(i ) = 0 nosotros obtenemos a partir de la on formando las trazas, ecuaci on (6.106) los coecientes mi de la expansi

2m0 = tr(M) ,

2mi = tr(M i ) ,

i = 1, 2, 3 .

(6.107)

1 En 1927 P.A.M. Dirac extendi o este formalismo para part culas de spin 2 movi endose a velocidades cercana a la de la luz tales como electrones Para inclu r la relatividad especial su punto de partida es la ecuaci on de Einstein para la energ a E 2 = p 2 c2 + m2 c4 en vez de 2 la energ a cin etica y potencial no relativista E = p /2m + V . La clave para la ecuaci on de Dirac es factorizar

E 2 p 2 c2 = E 2 (c p)2 = (E c p)(E + c p) = m2 c4 , usando la identidad matricial en 2 2 (c p)2 = p 2 12 .

(6.108)

(6.109)

La matriz unidad de 2 2 12 no es escrita expl citamente en la ecuaci on (6.108) y (6.109). Podemos presentar las matrices 0 y para factorizar E 2 p 2 c2 directamente,
2 2 (0 E c p)2 = 0 E + 2 c2 ( p)2 Ec p(0 + 0 ) = E 2 p 2 c2 = m2 c4 . (6.110)

Si reconocemos 0 E c p = p = (0 , ) (E, cp) , (6.111)

132

CAP ITULO 6. DETERMINANTES Y MATRICES.

como el producto escalar de dos cuadrivectores y p , entonces la ecuaci on (6.110) con 2 2 2 2 p = p p = E p c puede ser visto como una generalizaci on cuadrivectorial de la ecuaci on (6.109). Claramente, para que la ecuaci on (6.110) mantenega las condiciones
2 0 = 1 = 2 ,

0 + 0 = 0 ,

(6.112)

debe satisfacerse que las cuatro matrices anticonmuten, justo como las tres matrices de Pauli. Ya que estas u ltimas son un conjunto completo de matrices anticonmutantes de 2 2, la condici on (6.112) no puede ser satisfacerse para matrices de 2 2, pero ella puede ser satisfecha para matrices de 4 4 1 0 0 0 0 1 0 12 0 0 0 = 0 = 0 0 1 0 = 0 12 , 0 0 0 1 (6.113) 0 0 0 1 0 0 1 0 0 12 = 0 1 0 0 = 12 0 . 1 0 0 0 Alternativamente, el vector de matrices de 4 4 = 0 0 = = 1 , (6.114)

puede obtenerse como el producto directo en el mismo sentido de la secci on 6.2 de las matrices de 2 2 de Pauli. De la misma manera, 0 = 3 12 y 14 = 12 12 . 1 Resumiendo el tratamiento relativista de una part cula de spin 2 , produce matrices de 1 4 4, mientras que las part culas no relativistas de spin 2 son descritas por las matrices de Pauli de 2 2.

6.5.

Diagonalizaci on de matrices.

Momento de la matriz de inercia . En muchos problemas en F sica que involucran matrices reales sim etricas o complejas herm ticas es deseable llevar a cabo una real transformaci on de similaridad ortogonal o una transformaci on unitaria (correspondiente a una rotaci on del sistema de coordenadas) para reducir la matriz a una forma diagonal, con todos los elementos no diagonales nulos. Un ejemplo particularmente directo de esto es la matriz del momento de inercia I de un cuerpo r gido. A partir de la dinici on del momento angular L tenemos L = I , (6.115)

donde viene a ser la velocidad angular. La matriz de inercia I tiene elementos diagonales Ixx =
i 2 mi (ri x2 sucesivamante, i ) , y as

(6.116)

DE MATRICES. 6.5. DIAGONALIZACION

133

el sub ndice i referencia la masa mi localizada en ri = (xi , yi , zi ). Para las componentes no diagonales tenemos Ixy = mi xi yi = Iyx . (6.117)
i

Por inspecci on la matriz I es sim etrica. Tambi en, ya que I aparece en una ecuaci on f sica de la forma (6.115), la cual se mantiene para todas las orientaciones del sistema de coordenadas, esta puede ser considerada un tensor (regla del cuociente). La clave ahora es la orientaci on de los ejes (a lo largo de un cuerpo jo) tal que Ixy y los otros elementos no diagonales desaparezcan. Como una consecuencia de esta orientaci on y una indicaci on de ella, si la velocidad angular est a a lo largo de tales realineados ejes, la velocidad angular y el momento angular ser an paralelos. Autovectores y autovalores (eigenvector y eigenvalues). Es quiz as instructivo considerar un cuadro geom etrico asociado a este problema. Si la matriz de inercia I es multiplicada a cada lado por un vector unitario cuya direcci on es variable, n = (, , ), entonces en notaci on de Dirac n |I|n =I , (6.118)

donde I es el momento de inercia respecto a la direcci on n y es un n umero positivo (escalar). Llevando a cabo la multiplicaci on, obtenemos I = Ixx 2 + Iyy 2 + Izz 2 + 2Ixy + 2Ixz + 2Iyz . Si introducimos n n = = (n 1 , n2 , n3 ) , I la cual es variable en direcci on y magnitud entonces la ecuaci on (6.119) llega a ser
2 2 1 = Ixx n2 1 + Iyy n2 + Izz n3 + 2Ixy n1 n2 + 2Ixz n1 n3 + 2Iyz n2 n3 ,

(6.119) (6.120)

(6.121)

una forma cuadr atica positiva la cual debe ser un elipsoide (ver gura 6.5). A partir de la geometr a anal tica es sabido que los ejes de coordenadas pueden ser rotados para coincidir con los ejes de nuestro elipsoide. En muchos casos elementales, espacialmente cuando hay simetr a, estos nuevos ejes, llamados ejes principales, pueden ser encontrados por inspecci on. Ahora nosotros procederemos a desarrollar un m etodo general de hallazgo de los elementos diagonales y los ejes principales. es la correspondiente matriz ortogonal real tal que n = Rn, o |n = R|n en Si R1 = R la notaci on de Dirac, son las nuevas coordenadas, luego obtenemos usando n |R = n| en la ecuaci on (6.121) |n = I n 2 + I n 2 + I n 2 , n|I|n = n |RIR 1 1 2 2 3 3 (6.122)

donde los Ii > 0 son los momentos de inercia principales. La matriz de inercia I en la ecuaci on (6.122) es diagonal en las nuevas coordenadas, I1 0 0 = 0 I 0 . (6.123) I = R1R 2 0 0 I3

134

CAP ITULO 6. DETERMINANTES Y MATRICES.


n 3 n3

n 1 n1 n 2

n2

Figura 6.5: Elipsoide del momento de inercia.

Si reescribimos la ecuaci on (6.123) usando R1 = R = IR , RI (6.124)

= (v1 , v2 , v3 ) compuesto de tres vectores columnas, entonces la ecuaci y tomando R on (6.124) se separa en tres ecuaciones de autovalores Ivi = Ii vi , i = 1, 2, 3 , (6.125)

con autovalores Ii y autovectores vi . Como estas ecuaciones son lineales y homog eneas (para un i jo), por la secci on 6.1 los determinantes tienen que anularse: I11 I1 I12 I13 I21 I22 I2 I23 =0. I31 I32 I33 I3

(6.126)

Reemplazando los autovalores Ii por una variable veces la matriz unidad 1, podriamos reescribir la ecuaci on (6.125) como (I 1)|v = 0 , cuyo determinante |I 1| = 0 , (6.128) es un polinomio c ubico en ; sus tres raices, por supuesto, son los Ii . Sustituyendo una ra z de regreso en la ecuaci on (6.125), podemos encontrar los correspondientes autovectores. La on secular. El mismo tratamiento ecuaci on (6.126) (o la (6.128)) es conocida como la ecuaci se aplica a una matriz sim etrica real I, excepto que sus autovalores no necesitan ser todos positivos. Tambi en, la condici on de ortogonalidad en la ecuaci on (6.83a-6.83d) para R dice que, en t erminos geom etricos, los autovectores vi son vectores mutuamente ortogonales unitarios. Por cierto ellos forman las nuevas coordenadas del sistema. El hecho que cualquier par de (6.127)

DE MATRICES. 6.5. DIAGONALIZACION

135

autovectores vi , vj son ortogonales si Ii = Ij se deduce de la ecuaci on (6.125) en conjunci on con la simetr a de I multiplicando con vi y vj , respectivamente, vj |I|vi = Ii vj |vi = vi |I|vj = Ij vj |vi . (6.129)

Ya que Ii = Ij y la ecuaci on (6.129) implica que (Ii Ij ) vi vj = 0, por lo tanto vi vj = 0. Matrices herm ticas. Para espacios vectoriales complejos las matrices unitarias y herm ticas juegan el mismo rol como las matrices ortogonales y sim etricas sobre los espacios vectoriales reales, respectivamente. Primero, generalicemos el importante teorema acerca de los elementos diagonales y los ejes principales para la ecuaci on de autovalores A|r = |r . (6.130)

Ahora mostramos que si A es una matriz herm tica, sus autovalores son reales y sus autovectores ortogonales. Sean i y j dos autovalores y |ri y |rj , los correspondientes autovectores de A, una matriz herm tica. Entonces A|ri A|rj La ecuaci on (6.131) es multilicada por |rj rj |A|ri = i rj |ri . La ecuaci on (6.132) es multiplicada por |ri para dar ri |A|rj = j ri |rj . Tomando la adjunta conjugada de esta ecuaci on, tenemos rj |A |ri = j rj |ri o rj |A|ri = j rj |ri , (i j ) rj |ri . (6.136) ya que A es herm tica. Sustrayendo la ecuaci on (6.136) de la ecuaci on (6.133), obtenemos (6.137) (6.135) (6.134) (6.133) = i |ri = j |rj . (6.131) (6.132)

Este es un resultado general para todas las combinaciones posibles de i y j . Primero, sea j = i. Luego la ecuaci on (6.137) se convierte en (i i ) ri |ri = 0 . Ya que ri |ri = 0 ser a una soluci on trivial de la ecuaci on (6.138), concluimos que i = i , (6.139) (6.138)

136 es decir, i es real, para todo i. Segundo, para i = j y i = j ,

CAP ITULO 6. DETERMINANTES Y MATRICES.

(i j ) ri |rj = 0 o ri |rj = 0

(6.140)

(6.141)

lo cual signica que los autovectores de distintos autovalores son ortogonales, la ecuaci on (6.141) siendo la generalizaci on de ortogonalidad en este espacio complejo. Si i = j (caso degenerado), ri | no es autom aticamente ortogonal a |rj , pero podr a hacerse ortogonal. Consideremos el problema f sico de la matriz del momento de inercia nuevamente. Si xi es un eje de simetr a rotacional, entonces encontraremos que 2 = 3 . Los autovectores |r2 y |r3 son cada uno perpendiculares al eje de simetr a, |r1 , pero ellos yacen en alguna parte en el plano perpendicular a |r1 ; esto es, alguna combinaci on lineal de |r2 y |r3 es tambi en un autovector. Considere (a2 |r2 + a3 |r3 ) con a2 y a3 constantes. Entonces A(a2 |r2 + a3 |r3 ) = a2 2 |r2 + a3 3 |r3 = 2 (a2 |r2 + a3 |r3 ) , (6.142)

como es esperado, para x1 un eje de simetr a rotacional. Por lo tanto, si |r1 y |r2 son jos, |r3 , puede simplemente escogerse yaciendo en el plano perpendicular a |r1 y tambi en perpendicular a |r2 . Un m etodo general para ortogonalizar soluciones conocido como proceso de Gram-Schmidt, es aplicado a funciones m as adelante. El conjunto de n autovectores ortogonales de nuestra matriz herm tica de n n forma un conjunto completo, generando el espacio de n dimensiones complejo. Este hecho es u til en un c alculo variacional de los autovalores. Los autovalores y los autovectores no est an limitados a las matrices herm ticas. Todas las matrices tienen autovalores y autovectores. Por ejemplo, la matriz T de poblaci on estoc astica satisface una ecuaci on de autovalores TPequilibrio = Pequilibrio , con = 1. Sin embargo, solamente las matrices herm ticas tienen todos los autovectores ortogonales y todos sus autovalores reales. Matrices antiherm ticas. Ocasionalmente, en Mec anica Cu antica encontramos matrices antiherm ticas: A = A . Siguiendo el an alisis de la primera porci on de esta secci on, podemos mostrar que a. Los autovalores son imaginarios puros (o cero). b. Los autovectores correspondientes a autovalores distintos son ortogonales.

DE MATRICES. 6.5. DIAGONALIZACION

137

La matriz R formada de los autovectores normalizados es unitaria. Esta propiedad antiherm tica es preservada bajo transformaciones unitarias. Ejemplo: Autovalores y autovectores de una Sea 0 A= 1 0 La ecuaci on secular es matriz real sim etrica. 1 0 0 0 . 0 0

(6.143)

1 0 1 0 = 0 , 0 0 (2 1) = 0 ,

(6.144)

o (6.145) expandi endolo por las menores. Las raices son = 1, 0, 1. Para encontrar el autovector correspondiente a = 1, sustituimos este valor de vuelta en la ecuaci on de autovalores, ecuaci on (6.130), 1 0 x 0 1 0 y = 0 . (6.146) 0 0 z 0 Con = 1, esto produce x+y =0 , z=0. (6.147) Dentro de un factor de escala arbitrario, y un signo arbitrario (factor de fase), r1 | = (1, 1, 0). Notemos que (para el real |r en el espacio ordinario) el autovector dene una l nea en el espacio. El sentido positivo o negativo no est a determinado. Esta indeterminaci on puede ser entendida si notamos que la ecuaci on (6.130) es homog enea en |r . Por conveniencia requeriremos que los autovectores est en normalizados a la unidad, r1 |r1 = 1. Con esta elecci on de signo 1 1 (6.148) r1 | = r 1 = , , 0 , 2 2 est a jo. Para = 0, la ecuaci on (6.130) produce y=0, x=0, (6.149)

r2 | o r2 = (0, 0, 1) es un autovector aceptable. Finalmente, para = 1, tenemos x+y =0 , o z=0, (6.150)

1 1 , ,0 . (6.151) 2 2 La ortogonalidad de r1 , r2 y r3 , correspondientes a los tres autovalores distintos, puede ser f acilmente vericada. r3 | = r 3 = Ejemplo: Autovalores degenerados.

138 Consideremos

CAP ITULO 6. DETERMINANTES Y MATRICES.

1 0 0 A = 0 0 1 . 0 1 0 1 0 0 0 1 = 0 , 0 1 (1 )(2 1) = 0 , = 1, 1, 1 ,

(6.152)

La ecuaci on secular es

(6.153)

o (6.154) un caso degenerado. Si = 1, la ecuaci on de autovalores (6.130) produce 2x = 0 , Un autovector normalizado adecuado es r1 | = r 1 = para = 1, tenemos y+z =0 . (6.157) Cualquier autovector que satisface la ecuaci on (6.157) es perpendicular a r1 . Tenemos innito n umero de opciones. Tomemos una elecci on posible tomando r2 | = r 2 = 1 1 0, , 2 2 , (6.158) 1 1 0, , 2 2 . (6.156) y+z =0 . (6.155)

la cual claramente satisface la ecuaci on (6.157). Entonces r3 debe ser perpendicular a r1 y puede ser escogido perpendicular a r2 por7 r3 = r1 r2 = (1, 0, 0) . Funciones de matrices. Polinomios con uno o m as argumentos matriciales est an bien denidos y ocurren a menudo. Series de potencias de una matriz tambi en pueden estar denidas para dar la convergencia de la serie para cada uno de los elementos de matriz. Por ejemplo, si A es cualquiera matriz de n n entonces la serie de potencia

(6.159)

exp(A) =
i=0

Ai , i! (1)i A2i+1 , (2i + 1)! A2i , (2i)!

(6.160a) (6.160b) (6.160c)

sen(A) =
i=0

cos(A) =
i=0
7

(1)i

El uso del producto cruz es limitado a tres dimensiones.

6.6. MATRICES NORMALES.

139

son matrices de n n bien denidas. Para todas las matrices de Pauli k la identidad de Euler para real y k =1, 2 o 3 exp(ik ) = 12 cos() + ik sen() , (6.161)

2 sale a partir de colectar las potencias pares e impares en series separadas usando k = 1. ij ij 2 Para las matrices de Dirac de 4 4 con ( ) = 1, si j = k = 1, 2 o 3, obtenemos de manera similar (sin escribir las obvias matrices 14 nunca m as)

exp(i jk ) = cos() + i jk sen() , mientras exp(i 0k ) = cosh( ) + i 0k senh( ) ,

(6.162) (6.163)

manteniendo real porque (i 0k )2 = 1 para k = 1, 2 o 3. Para una matriz herm tica A hay una matriz unitaria U que la diagonaliza, es decir, UAU = [a1 , a2 , . . . , an ]. Entonces la f ormula de la traza det(exp(A)) = exp(tr(A)) Puede ser f acilmente demostrado. Otra importante relaci on es la de f ormula de Baker-Hausdor exp(iG)H exp(iG) = H + [iG, H] + [iG, [iG, H]] + 2! (6.165) (6.164)

lo cual resulta de multiplicar las serie de potencia para exp(iG) y recolectar los t erminos de la misma potencia en iG. Aqu denimos [G, H] = GH HG como el conmutador de G con H.

6.6.

Matrices normales.

ticas o reales sim etriEn la secci on 6.5 nos concentramos principalmente en matrices herm cas y en el proceso de encontrar autovalores y autovectores. En esta secci on generalizaremos a matrices normales con matrices herm tica y unitario como casos especiales. Consideramos los casos f sicamente importantes como el problema de los modos de vibraciones y el problema num erico importante de matrices patol ogicas. Una matriz normal es una matriz que conmuta con su adjunta, [A, A ] = 0 . Ejemplos obvios e importante son las matrices herm ticas y unitarias. Mostraremos que las matrices normales tienen autovectores (ver tabla 6.1) I. Sea |x un autovector de A con correspondiente autovalor . Entonces A|x = |x (6.166)

140

CAP ITULO 6. DETERMINANTES Y MATRICES. Autovectores Matriz Autovalores (para diferentes autovalores) Herm tica Real Ortogonal Antiherm tica Imaginaria puro (o cero) Ortogonal Unitaria Magnitud uno Ortogonal Normal Si A tiene autovalor Ortogonal A tiene autovalor A y A tienen los mismos autovectores Cuadro 6.1:

o (A 1)|x = 0 . (6.167) Por conveniencia la combinaci on A 1 la etiquetamos B. Tomando la adjunta de la ecuaci on (6.167), obtenemos x|(A 1) = 0 = x|B . (6.168) Porque [(A 1), (A 1) ] = [A, A ] = 0 , tenemos [B, B ] = 0 . La matriz B es tambi en normal. A partir de las ecuaciones (6.167) y (6.168) formamos x|B B|x = 0 . Usando (6.169) x|BB |x = 0 . Ahora la ecuaci on (6.171) puede ser rescrita como (B |x ) (B |x ) = 0 . Asi B |x = (A 1)|x = 0 . (6.173) Vemos que para matrices normales, A tiene los mismos autovectores que A pero los autovalores son los complejos conjugados. II. Ahora, consideremos m as que uno autovector-autovalor, tenemos A|xi = i |xi , A|xj = j |xj . Multiplicando la ecuaci on (6.175) por la izquierda por xi | produce xi |A|xj = j xi |xj . (6.176) (6.174) (6.175) (6.172) (6.171) (6.170) (6.169)

6.6. MATRICES NORMALES. Operando sobre el lado izquierdo de la ecuaci on (6.176), obtenemos xi |A = (A |xi ) .

141

(6.177)

A partir de la ecuaci on (6.173) sabemos que A tiene los mismos autovectores que A pero con los complejos conjugados de los autovalores
(A |xi ) = ( i |xi ) = i xi | .

(6.178)

Sustituyendo en la ecuaci on (6.176) tenemos i xi |xj = j xi |xj o (i j ) xi |xj = 0 . Esta es la misma que la ecuaci on (6.140). Para i = j xi |xj = 0 . Los autovectores correspondientes a diferentes autovalores de una matriz normal son ortogonales. Esto signica que una matriz normal puede ser diagonalizada por una transformaci on unitaria. La matriz unitaria requerida puede ser construida a partir de los vectores ortonormales como se mostr o en la secci on anterior. El converso tambi en es v alido. Si A puede ser diagonalizada por una transformaci on unitaria, entonces A es normal. Modos normales de vibraci on. Consideremos las vibraciones de un modelo cl asico de la molecula de CO2 Esta es una ilustraci on de la aplicaci on de las t ecnicas matriciales a un problema que no parte como un problema de matrices. Tambi en provee un ejemplo de autovalores y autovectores de una matriz real asim etrica. Ejemplo: Modos Normales. Consideremos tres masas sobre el eje x unidas por resortes como muestra la gura 6.6. Las fuerzas de los resortes se suponen lineales (para peque nos desplazamientos, ley de Hooke) y las masas se restringen a mantenerse sobre el eje x. Usando una coordenada diferente para cada masa la segunda ley de Newton produce el conjunto de ecuaciones k (x1 x2 ) M k k x 2 = (x2 x1 ) (x2 x3 ) M m k x 3 = (x3 x2 ) . M x 1 = (6.180) (6.179)

(6.181)

142

CAP ITULO 6. DETERMINANTES Y MATRICES.

k M m

k M

x1

x2

x3

Figura 6.6: Vector jo con coordenadas rotada.

El sistema de masa est a vibrando. Buscamos las frecuencias comunes, tal que todas las masas vibren en esta misma frecuencia. Estos son los modos normales. Sea xi = xi0 eit , i = 1, 2, 3.

Subtituyendo en la ecuacion (6.181), podemos escribir este conjunto como k k M M 2k k m m k 0 M x x1 1 0 k x2 = 2 x2 , m k x3 x3 M

(6.182)

dividiendo por el factor com un eit . Tenemos una ecuaci on matricial de autovalores con la matriz asim etrica. La ecuaci on secular es k k 2 0 M M k 2k k =0. 2 m m m k k 0 2 M M Esto conduce a 2 Los autovalores son 2 = 0 , todas reales. k , M y k 2k + , M m k 2 M 2 2k k m M =0

(6.183)

6.6. MATRICES NORMALES.

143

Los correspondientes autovectores son determinados sustituyendo los autovalores de regreso en la ecuaci on (6.182) un autovalor a la vez. Para 2 = 0, ecuaci on (6.182) produce x1 x2 = 0 x1 + 2x2 x3 = 0 x2 + x3 = 0 . Entonces, tenemos x1 = x2 = x3 . Esto describe una translaci on pura sin movimiento relativo de las masas y sin vibraci on. k , la ecuaci on (6.182) produce Para 2 = M x1 = x3 , x2 = 0 . (6.184)

Las masas exteriores se mueven en direcciones opuestas. El masa del centro est a estacionaria. k 2k 2 Para = + , las componentes de los autovectores son M M x1 = x3 , x2 = 2M x1 . m

Las dos masas exteriores se est an moviendo juntas. La masa del centro se est a moviendo opuesta a las otras dos. El momentum neto es cero. Cualquier desplazamiento de estas tres masas a lo largo del eje x puede ser descrito como una combinaci on lineal de estos tres tipos de movimiento: translaci on m as dos formas de vibraci on. Sistemas con condiciones patol ogicas. Un sistema lineal de ecuaciones puede ser escrito como A|x = |y o A1 |y = |x , (6.185)

con A y |y conocido y |x desconocido. Podemos encontrar ejemplos en los cuales un peque no error en |y resulta en un gran error en |x . En este caso la matriz A es llamada de condici on patol ogica. Si |x es el error en |x y |y es el error en |y , entonces los errores relativos pueden ser escritos como x|x x|x
1/2

K (A)

y |y y |y

1/2

(6.186)

Aqu K (A), una propiedad de la matriz A, es etiquetado la condici on de n umero. Para A herm tica una forma de la condici on de n umero es dada por K (A) = | |max . | |min (6.187)

144

CAP ITULO 6. DETERMINANTES Y MATRICES.

Una forma aproximada debido a Turing es


1 K (A) = n[Aij ]max [A ij ]max ,

(6.188)

en la cual n es el orden de la matriz y [Aij ]max es el m aximo elemento en A. Ejemplo: Una matriz patol ogica. Un ejemplo com un de una matriz con condici on patol ogica es la matriz de Hilbert, la 1 matriz de Hilbert de orden 4 es Hij = (i + j 1) , 1 1 1 1 2 3 4 1 1 1 1 (6.189) H4 = 2 3 4 5 . 1 1 1 1 3 4 5 6 1 1 1 1 4 5 6 7 Los elementos de la matriz inversa (orden n) son dados por
1 (H n )ij =

(1)i+j (n + i 1)!(n + j 1)! . i + j 1 [(i 1)!(j 1)!]2 (n i)!(n j )!

(6.190)

Para n = 4
1 H 4

16 120 240 140 120 1200 2700 1680 . = 240 2700 6480 4200 140 1680 4200 2800

(6.191)

on de Turing de la condici on de n umero para H4 A partir de la ecuaci on (6.188) la estimaci llega a ser KTuring = 4 1 6480 2.59 104 . Esto es una advertencia de que un error en la entrada puede ser multiplicado por 26000 en el c alculo del resultado de salida. Esto sentencia que H4 tiene condici on patol ogica. Si usted encuentra un sistema altamente patol ogico tiene un par de alternativas (adem as de abandonar el problema). a. Tratar un ataque matem atico diferente. b. Hacer arreglos para llevar m as cifras signicativas y a costa de fuerza bruta empujar de principio a n.

Cap tulo 7 Teor a de grupo.


versi on nal 1.2-0905021

Disciplined judgment about what is neat and simmetrical and elegant has time and time again proved an excellent guide to how nature work. Murray Gell-Mann

7.1.

Introducci on.

En mec anica cl asica la simetr a de un sistema f sico conduce a una ley de conservaci on. La conservaci on del momentum angular es una consecuencia directa de la simetr a rotacional, lo cual signica invariancia bajo rotaciones espaciales. A principios del siglo pasado, Wigner y otros comprendieron que la invariancia era el concepto clave en el entendimiento de los nuevos fen omenos y en el desarrollo de teor as apropiadas. As , en mec anica cu antica los conceptos de momento angular y spin han llegado a ser a un m as centrales. Sus generalizaciones, el isospin en f sica nuclear y la simetr a de sabor en f sica de part culas, son herramientas indispensables en la construcci on te orica y en sus soluciones. Las generalizaciones del concepto de invariacia de gauge de la electrodin amica cl asica para la simetr a del isospin conduce a la teor a de gauge electrod ebil. En cada caso el conjunto de estas operaciones de simetr a forman un grupo. La teor a de grupo es la herramienta matem atica para tratar las invariancias y las simetr as. Ella trae consigo unicaci on y formalizaci on de principios tales como reexi on espacial, o paridad, momento angular, y geometr a que son ampliamente usados por los f sicos. En geometr a el rol fundamental de la teor a de grupo fue reconocido hace mucho tiempo por los matem aticos. En geometr a euclideana la distancia entre dos puntos, el producto escalar de dos vectores o m etrica, no cambia bajo rotaciones o translaciones. Estas simetr as son caracter sticas de esta geometr a. En relatividad especial la m etrica, o producto escalar de cuadrivectores, diere del de la geometr a euclideana en que ya no es m as positivo denido y es invariante ante transformaciones de Lorentz.
Este cap tulo est a basado en el cuarto cap tulo del libro: Mathematical Methods for Physicists, fourth edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
1

145

146

CAP ITULO 7. TEOR IA DE GRUPO.

Para un cristal el grupo de simetr a contiene s olo un n umero nito de rotaciones en valores discretos del angulo y reexiones. La teor a de tales grupos discretos o nitos, desarrollada inicialmente como una rama de las matem aticas pura, ahora es una u til herramienta para el desarrollo de la cristalograf a y la f sica de la materia condensada. Haremos una breve introducci on a ellos. Cuando las rotaciones dependen de un angulo continuo el grupo de rotaciones tiene un n umero innito de elementos. Estudiaremos tales grupos continuos o de Lie. Denici on de grupo. Un grupo G puede ser denido como un conjunto de objetos u operaciones, llamados los elementos de G, que pueden ser combinados o multiplicados para formar un producto bien denido en G el cual satisface las siguientes cuatro condiciones. 1. Si a y b son cualquier par de elementos de G, entonces el producto ab es tambi en elemento de G; o (a, b) ab mapea G G sobre G. 2. Esta multiplicaci on es asociativa, (ab)c = a(bc). 3. Hay un elemento unidad o neutro I en G tal que Ia = aI = a para cada elemento a de G.2 4. Debe haber un inverso o reciproco de cada elemento a de G, etiquetado a1 , tal que aa1 = a1 a = I . Un ejemplo de grupo es el conjunto de rotaciones de coordenadas en el sentido del puntero del reloj, cos sen R() = (7.1) sen cos en un angulo del sistema de coordenadas xy a una nueva orientaci on. El producto de dos rotaciones R(1 )R(2 ) es denida como una rotaci on primero en un angulo 2 y entonces en un angulo 1 . De acuerdo a la ecuaci on (6.29), esto corresponde al producto de las dos matrices ortogonales de 2 2 cos 1 sen 1 sen 1 cos 1 cos 2 sen 2 sen 2 cos 2 = cos(1 + 2 ) sen(1 + 2 ) sen(1 + 2 ) cos(1 + 2 ) , (7.2)

usando las f ormulas de adici on de funciones trigonom etricas. El producto es claramente una rotaci on representada por una matriz ortogonal con un angulo 1 + 2 . El producto es la multiplicaci on asociativa de matrices. Es conmutativo o abeliano porque el orden en el cual esta rotaciones son realizadas no importa. El inverso de la rotaci on con angulo es una con angulo . La unidad o neutro corresponde al angulo = 0. El nombre del grupo es SO(2), si el angulo var a continuamente desde 0 a 2 . Claramente, SO(2) tiene innitos elementos. La unidad con angulo = 0 y la rotaci on con = forman un subgrupo nito. Un subgrupo G de un grupo G consiste de elementos de G tal que el producto de cualquiera de sus elementos
2

Tambi en etiquetan al elemento unidad como E .

7.1. INTRODUCCION.

147

est a de nuevo en el subgrupo G , i.e., G es cerrado bajo la multiplicaci on de G. Si gg g 1 es un elemento de G para cualquier g de G y g de G , entonces G es llamado un subgrupo invariante de G. Las matrices ortogonales n n forman el grupo O(n), y tambi en SO(n) si sus determi1 nantes son +1 (S por eSpecial). Si Oi = Oi para i = 1 y 2, entonces el producto 2O 1 = O1 O1 = (O1 O2 )1 O1 O2 = O 1 2 es tambi en una matriz ortogonal en SO(n). La inversa es la matriz (ortogonal) transpuesta. La unidad del grupo es 1n . Una matriz real ortogonal de n n tiene n(n 1)/2 par ametros independientes. Para n = 2 hay s olo un par ametro: un angulo en la ecuaci on (7.1). Para n = 3, hay tres par ametros independientes: los tres angulos de Euler de la secci on 6.3. De la misma manera, las matrices unitarias de n n forman el grupo U(n), y tambi en 1 SU(n) si sus determinantes son +1. Si U = U , entonces i i
1 1 1 (U1 U2 ) = U , 2 U1 = U2 U1 = (U1 U2 )

tal que el producto es unitario y un elemento de SU(n). Cada matriz unitaria tiene una inversa la cual es tambi en unitaria. Homomorsmo, isomorsmo. Puede haber una correspondencia entre los elementos de dos grupos (o entre dos representaciones), uno a uno, dos a uno, o muchos a uno. Si esta correspondencia preserva la multiplicaci on del grupo, diremos que los dos grupos son homom orcos. Una de las m as importantes correspondencias homom orcas entre el grupo de rotaciones SO(3) y el grupo de matrices unitarias SU(2) ser a desarrollado en la pr oxima secci on. Si la correspondencia es 3 orcos. uno a uno, y a un preserva la multiplicaci on del grupo, entonces los grupos son isom Un ejemplo es las rotaciones de coordenadas a trav es de un angulo nito en el sentido horario respecto al eje z en el espacio tridimensional descrito por cos sen 0 Rz () = sen cos 0 . (7.3) 0 0 1 El grupo de rotaciones Rz es isom orco al grupo de rotaciones en la ecuaci on (7.1). Representaciones matriciales, reducibles e irreducibles. La representaci on de los elementos de un grupo por matrices es una t ecnica muy poderosa y ha sido casi universalmente adoptada por los f sicos. El uso de matrices no impone restricciones signicativas. Puede mostrarse que los elementos de cualquier grupo nito y de grupos continuos pueden ser representados por matrices. Ejemplos son las rotaciones descritas en la ecuaci on (7.1) y (7.3).
Supongamos que los elementos del primer grupo son etiquetados por gi y los elementos del segundo grupo por hi . Entonces gi hi en una correspondencia uno a uno para todos los valores de i. Si gi gj = gk y hi hj = hk , entonces gk y hk deben ser los elementos correspondientes del grupo.
3

148

CAP ITULO 7. TEOR IA DE GRUPO.

Para ilustrar como las representaciones matriciales surgen a partir de una simetr a, consideremos la ecuaci on estacionaria de Schr odinger (o alg un otra ecuaci on de autovalores tal como I vi = Ii vi para los momentos principales de inercia de un cuerpo r gido en mec anica cl asica) H = E . (7.4) Supongamos que la ecuaci on (7.4) se mantiene invariante bajo la acci on de un grupo G de transformaciones R en G (rotaciones de coordenadas, por ejemplo, para un potencial central V (r) en el Hamiltoniano H ), i.e., H R = RH R 1 = H . (7.5)

Ahora tomamos una soluci on de la ecuaci on (7.4) y la rotamos: R . Entonces R tiene la misma energ a E porque multiplicando la ecuaci on (7.4) por R y usando (7.5) produce RH = E (R ) = (RH R1 )R = H (R ) . (7.6)

En otras palabras, todas las soluciones rotadas R son degeneradas en energ a o forman lo que los f sicos llaman un multiplete. Supongamos que este espacio vectorial V de soluciones transformadas tiene una dimensi on nita n. Sean 1 , 2 , . . . , n una base. Ya que Rj es un miembro del multiplete, podemos expandirlo en t erminos de esta base Rj =
k

rjk k .

(7.7)

As , cada R en G puede ser asociado a una matriz (rjk ), y este mapeo R (rjk ) es llamada una representaci on de G. Si podemos tomar cualquier elemento de V y por rotaciones con todos los elementos de R de G transforman en todos los otros elementos de V entonces la representaci on es irreducible. Si todos los elementos de V no son alcanzados, entonces V se separa en una suma directa de dos o m as subespaci on vectoriales, V = V1 + V2 + . . ., los cuales son mapeados dentro de ellos mismos por rotaci on de sus elementos. En este caso la representaci on es llamada reducible. Entonces podemos encontrar una base en V (i.e., hay una matriz unitaria U) tal que r1 0 . . . U(rjk )U = 0 r2 . . . . . .. . . . . .

(7.8)

para todos los R de G y todas las matrices (rjk ). Aqui r1 , r2 , . . ., son matrices de menor dimensiones que (rjk ) que est an alineadas a lo largo de la diagonal y los 0 son matrices de ceros. podemos decir que R ha sido descompuestas en r1 + r2 + . . . en paralelo con V = V1 V2 . . .. Las representaciones irreducibles juegan un rol en teor a de grupo que es aproximadamente an alogo a los vectores unitarios en el an alisis vectorial. Ellas son las representaciones m as simples, toda otra puede ser construida desde ellas.

7.2. GENERADORES DE GRUPOS CONTINUOS.

149

7.2.

Generadores de grupos continuos.

Un caracter stica de los grupos continuos conocidos como grupos de Lie es que los par ametros de un producto de elementos son funciones anal ticas de los par ametros de los factores. La naturaleza anal tica de las funciones nos permite desarrollar el concepto de generador y reduce el estudio del grupo completo a un estudio de los elementos del grupo en la vecindad del elemento identidad. La idea esencial de Lie fue el estudio de elementos R en un grupo G que esten innitesimalmente cercanos a la unidad de G. Consideremos el grupo SO(2) como un ejemplo simple. Las matrices de rotaci on de 2 2 en la ecuaci on (7.1) puede ser escrita en forma exponencial usando la identidad de Euler ecuaci on (6.161) como R() = cos sen sen cos = 12 cos + i2 sen = exp(i2 ) . (7.9)

A partir de la forma exponencial es obvio que la multiplicaci on de estas matrices es equivalente a la suma de los argumentos R(2 )R(1 ) = exp(i2 2 ) exp(i2 1 ) = exp(i2 (1 + 2 )) = R(1 + 2 ) . Por supuesto las rotaciones cercanas a 1 tienen un angulo peque no 0. Esto sugiere que busquemos una representaci on exponencial R = exp(iS) , 0, (7.10)

para elementos del grupos R G cercanos a la 1. Las transformaciones innitesimales S son llamadas los generadores de G. Ellos forman un espacio lineal cuya dimensi on es el orden de G porque la multiplicaci on de los elementos R del grupo se traduce en la suma de los generadores S. Si R no cambia el elemento de volumen, i.e., det(R) = 1, nosotros usamos la ecuaci on (6.164) para ver que det(R) = exp(tr(ln R)) = exp(itr(S)) = 1 implica que los generadores son de traza nula, tr(S) = 0 . (7.11)

Este es el caso para el grupo de rotaciones SO(n) y el grupo unitario SU(n), como veremos m as adelante. Si R de G en la ecuaci on (7.1) es unitario, entonces S = S es herm tica, lo cual tambi en es el caso para SO(n) y SU(n). Ya que hay un i extra en la ecuaci on (7.10). Expandamos los elementos del grupo 1 2 S + ... , Ri = exp(ii Si ) = 1 + ii Si 2 2 i i 1 2 2 1 R i = exp(ii Si ) = 1 ii Si i Si + . . . , 2

(7.12)

a segundo orden en el peque no par ametro del grupo i porque los t erminos lineales y varios t erminos cuadr aticos se cancelan en el producto (gura 7.1)

150

CAP ITULO 7. TEOR IA DE GRUPO.

Rj

Ri Ri
1

Rj R ij
Figura 7.1: Ilustraci on de la ecuaci on (7.13).

1 1 R i Rj Ri Rj = 1 + i j [Sj , Si ] + . . . ,

= 1 + i j
k

ck ji Sk + . . . ,

(7.13)

cuando las ecuaciones (7.12) son sustituidas dentro de la ecuaci on (7.13). La u ltima l nea es debido a que el producto en la ecuaci on (7.13) es nuevamente un elemento, Rij cercano a la unidad en el grupo G. Por tanto su exponente debe ser una combinaci on lineal de los generadores Sk y sus par ametros innitesimales del grupo tienen que ser proporcionales al on de clausura de los producto i j . Comparando ambas l neas (7.13) encontramos la relaci generadores del grupo de Lie G, [Si , Sj ] = ck (7.14) ij Sk
k

Los coecientes ck ij son las constantes de estructura del grupo G. Ya que el conmutador en la ecuaci on (7.14) es antisim etrico en i y en j , tambi en lo son las constantes de estructura en los ndices inferiores, k ck (7.15) ij = cji . on de los Si el conmutador en la ecuaci on (7.14) es tomado como la regla de multiplicaci generadores, vemos que el espacio vectorial de los generadores llega a ser un algebra, el algebra de Lie G del grupo G. Para SU(l + 1) el algebra de Lie es llamada Al , para SO(2l + 1) es Bl y para SO(2l) es Dl , donde l = 1, 2, . . . es un entero positivo, esto ser a llamado el rango de grupo de Lie G o de su algebra G. Finalmente, la identidad de Jacobi se satisface para los doblas conmutadores [[Si , Sj ], Sk ] + [[Sj , Sk ], Si ] + [[Sk , Si ], Sj ] = 0 , (7.16)

lo cual es f acilmente vericable usando la denici on de conmutador. Cuando la ecuaci on (7.14) es substituida en (7.16) encontramos otra restricci on sobre las constantes de estructura,
m m cm ij [Sm , Sk ] + cjk [Sm , Si ] + cki [Sm , Sj ] = 0 . m

(7.17)

7.2. GENERADORES DE GRUPOS CONTINUOS. Usando de nuevo la ecuaci on (7.14) en la ecuaci on (7.17) implica que
n m n m n cm ij cmk Sn + cjk cmi Sn + cki cmj Sn = 0 , mn

151

(7.18)

donde el factor com un Sn (y la suma sobre n) pueden eliminarse por que los generadores son linealmente independientes. Por tanto
n m n m n cm ij cmk + cjk cmi + cki cmj = 0 . m

(7.19)

algebras de Lie desde la cual los Las relaciones (7.14), (7.15) y (7.19) forman la base de las elementos nitos del grupo de Lie cerca de su unidad puede ser reconstru do. 1 Volviendo a la ecuaci on (7.5), el inverso de R es exactamente R = exp(iS). expandimos HR de acuerdo a la f ormula de Baker-Haudor, ecuaci on (6.17), H = HR = exp(iS)H exp(iS) = H + i[S, H] 2 [S, [iS, H]] + . 2! (7.20)

Al simplicar H de la ecuaci on (7.20), dividiendo por y haciendo 0. Entonces la on cercana a 1 en G el conmutador ecuaci on (7.20) implica que para cualquier rotaci [S, H] = 0 . (7.21)

Si S y H son matrices herm ticas, la ecuaci on (7.21) dice que S y H pueden ser simultaneamente diagonalizados. Si S y H son operadores diferenciales como el Hamiltoniano y el momento angular orbital en mec anica cu antica, entoces la ecuaci on (7.21) dice que S y H tienen autofunciones en com un y que los autovalores degenerados de H pueden ser distinguidos por los autovalores de los generadores S. Esta es con mucho la m as importante aplicaci on de teor a de grupos a mec anica cu antica. A continuaci on, estudiaremos los grupos ortogonales y unitarios como ejemplos. Grupos de rotaciones SO(2) y SO(3). Para SO(2) denido por la ecuaci on (7.1) hay s olo un generador linealmente independiente, 2 y el orden de SO(2) es 1. Obtenemos 2 a partir de diferenciar la ecuaci on (7.9) y evaluarla en cero, i dR() d = i
=0

sen cos cos sen

= i
=0

0 1 1 0

= 2 .

(7.22)

Para las rotaciones Rz () sobre el eje z descritas por la ecuaci on (7.3), el generador es dado por 0 i 0 dR() i = Sz = i 0 0 , (7.23) d =0 0 0 0 donde el factor extra i es insertado para hacer Sz herm tica. La rotaci on Rz () en un angulo innitesimal puede ser escrita como Rz () = 13 + iSz , (7.24)

152

CAP ITULO 7. TEOR IA DE GRUPO.

Una expansi on de Maclaurin-Taylor de Rz cerca de la unidad = 0 con t erminos hasta 2 orden () y los superiores son despreciados. Una rotaci on nita puede ser compuesta por sucesivas rotaciones innitesimales Rz (1 + 2 ) = (13 + i1 Sz )(13 + i2 Sz ) . Sea = /N para N rotaciones, con N . Entonces, Rz () = l m 13 + i
N

(7.25)

Sz N

= exp(iSz ) .

(7.26)

Esta forma identica Sz como el generador del grupo Rz , un subgrupo abeliano de SO(3), el grupo de rotaciones en tres dimensiones con determinante +1. Cada matriz de 3 3 Rz () es ortogonal, por lo tanto unitaria, y la tr(Sz ) = 0 de acuerdo con la ecuaci on (7.11). Por diferenciaci on de las rotaciones de coordenadas 1 0 0 cos 0 sen cos sen , Ry () = 0 1 0 , Rx ( ) = 0 (7.27) 0 sen cos ) sen 0 cos obtenemos los generadores 0 0 0 Sx = 0 0 i , 0 i 0 0 0 i Sy = 0 0 0 , i 0 0

(7.28)

de Rx y Ry , los subgrupos de rotaciones en torno a los ejes x e y respectivamente. Rotaciones de funciones y momento angular orbital. En la discusi on precedente los elementos del grupos son matrices que rotan las coordenadas. Cualquier sistema f sico que esta siendo descrito se mantiene jo. Ahora mantengamos jas las coordenadas y rotemos una funci on (x, y, z ) relativa a nuestras coordenadas jas. Con R para rotar las coordenadas, x = Rx , (7.29) denimos R por R (x, y, z ) = (x, y, z ) (x ) . (7.30) En palabras, la matriz R opera sobre la funci on , creando una nueva funci on que es num ericamente igual a (x ), donde x son las coordenadas rotadas por R. Si R rota las coordenadas en el sentido horario, el efecto de la matriz R es rotar el modelo de la funci on en el sentido horario. Volviendo a las ecuaciones (7.3) y (7.28), consideremos una rotaci on innitesimal, . Luego, usando Rz , ecuaci on (7.3), obtenemos Rz () (x, y, z ) = (x + y, y x, z ) . (7.31)

7.2. GENERADORES DE GRUPOS CONTINUOS.

153

El lado derecho puede ser expandido como una serie de Taylor de primer orden en para dar Rz () (x, y, z ) = (x, y, z ) x y y x = (1 iLz ) (x, y, z ) , + O()2 (7.32)

la expresi on diferencial en el par entesis de llave es iLz . Ya que una rotaci on primero en y luego en alrededor del eje z est a dado por Rz ( + ) (x, y, z ) = Rz ()Rz () (x, y, z ) = (1 iLz )Rz () (x, y, z ) , tenemos (como una ecuaci on de operadores) Rz ( + ) Rz () = iLz Rz () . (7.34) (7.33)

El lado izquierdo es justo dRz ()/ (para 0). En esta forma la ecuaci on (7.34) se integra inmediatamente a Rz () = exp(iLz ) . (7.35) Note cuidadosamente que Rz () rota funciones (en el sentido horario) relativa a las coordenadas jadas y que Lz es la componente z del momento angular orbital L. La constante de integraci on est a jada por la condici on de borde Rz (0) = 1. Si reconocemos que los elementos de matriz x Lz = (x, y, z )Sz (7.36) y , z claramente Lx , Ly , Lz satisface la misma relaci on de conmutaci on [Li , Lj ] = iijk Lk que Sx , Sy , Sz y tienen a la misma constantes de estructura iijk de SO(3). Homomorsmo SU(2)-SO(3). El grupo unitario especial SU(2) de matrices unitarias de 2 2 con determinante +1 tiene las tres matrices de Pauli i como generadores (mientras que las rotaciones de la ecuaci on (7.3) forman un subgrupo abeliano unidimensional). Por lo tanto SU(2) es de orden 3 y depende de tres par ametros continuos reales , y los cuales a menudo son llamados los par ametros de Caley-Klein. Sus elementos generales tienen la forma U2 (, , ) = ei cos ei sen ei sen ei cos = a b b a . (7.38) (7.37)

154

CAP ITULO 7. TEOR IA DE GRUPO.

Es f acil chequear que el determinante det(U2 ) = 1 y que U 2 U2 = 1 = U2 U2 se mantiene. Para obtener los generadores diferenciamos

U2

=
=0, =0

1 0 0 1 0 1 1 0

= 3 , = 1 , = 2 . (7.39)

i U2 sen i U2

=
=0

=
=0, =0

0 i i 0

Por supuesto, las matrices de Pauli son todas de traza nula y herm ticas. Con las matrices de Pauli como generadores de los elementos (U1 , U2 , U3 ) de SU(2) pueden ser generados por U1 = exp(ia1 1 /2) , U2 = exp(ia2 2 /2) , U3 = exp(ia3 3 /2) . (7.40)

Los tres par ametros ai son reales. El factor extra 1/2 est a presente en los exponentes ya que si = i /2 satisface las mismas relaciones de conmutaci on 4 [si , sj ] = iijk sk (7.41)

como el momento angular en la ecuaci on (7.37). on para rotar las coordenadas cartesianas en el La ecuaci on (7.3) da un operador de rotaci espacio tridimensional. Usando la matriz de momento angular s3 , tenemos el correspondiente operador de rotaci on en el espacio de dos dimensiones (complejo) Rz () = exp(i3 /2). Para rotar una funci on de onda vectorial de dos componentes (spinor) o una part cula de spin 1/2 relativa a coordenadas jas, el operador de rotaci on es Rz () = exp(i3 /2) de acuerdo a la ecuaci on (7.35). Usando la ecuaci on (7.40) la identidad de Euler, la ecuaci on (6.161), obtenemos aj aj + ij sen . 2 2 Aqu el par ametro aj aparece como un angulo, el coeciente de una matriz tipo momento on de los exponenciales, la forma general angular en la ecuaci on (7.26). Con esta identicaci de la matriz SU(2) (para rotar funciones m as que las coordenadas) podr a ser escrita como Uj = cos U(, , ) = exp(i3 /2) exp(i2 /2) exp(i1 /2) . Como vimos, los elementos de SU(2) describen rotaciones en un espacio complejo bidimensional que deja invariante a |z1 |2 + |z2 |2 . El determinante es +1. Hay tres par ametros independientes. Nuestro grupo ortogonal real SO(3) de determinante +1, claramente describe rotaciones comunes en el espacio tridimensional con la importante caracter stica de dejar 2 2 2 invariante a x + y + z . Tambi en hay tres par ametros independientes. Las interpretaciones de rotaci on y la igualdad de n umeros de par ametros sugiere la existencia de alguna clase de correspondencia entre los grupos SU(2) y SO(3). Aqu desarrollamos esta correspondencia.
Las constantes de estructuras (iijk ) conducen a las representaciones de SU(2) de dimensi on 2J = 1 para generadores de dimensi on 2j + 1, con J = 0, 1/2, 1, . . .. Los casos con J entero tambi en conducen a las representaciones de SO(3).
4

7.2. GENERADORES DE GRUPOS CONTINUOS.

155

U M

M U

Figura 7.2: Ilustraci on de M = UMU ecuaci on (7.42).

La operaci on SU(2) sobre una matriz est a dada por una transformaci on unitaria, la ecuaci on (7.5), con R = U y la gura (7.2) M = UMU . (7.42)

Tomando M como una matriz de 2 2, notemos que cualquier matriz de 2 2 puede ser escrita como una combinaci on lineal de la matriz unidad y las tres matrices de Pauli. Sea M la matriz de traza cero, M = x1 + y2 + z3 = z x iy x + iy z , (7.43)

la matriz unidad no entra. Ya que la traza es invariante bajo transformaciones unitarias, M deber a tener la misma forma, M = x 1 + y 2 + z 3 = z x + iy x iy z . (7.44)

El determinante tambi en es invariante bajo una transformaci on unitaria. Por lo tanto (x2 + y 2 + z 2 ) = (x + y + z ) ,
2 2 2

(7.45)

o (x2 + y 2 + z 2 ) es invariante bajo esta operaci on de SU(2), como con SO(3). SU(2) debe, por lo tanto, describir una rotaci on. Esto sugiere que SU(2) y SO(3) pueden ser isom orcos o homom orcos. Aproximemos el problema de qu e rotaci on describe SU(2) considerando casos especiales. i Retomando la ecuaci on (7.38) sea a = e y b = 0, o Uz = ei 0 0 ei . (7.46)

En anticipaci on de la ecuaci on (7.50), esta U le est a dado un sub ndice z .

156

CAP ITULO 7. TEOR IA DE GRUPO.

Realizando una transformaci on unitaria sobre cada una de las tres matrices de Pauli, tenemos Uz 1 U z = = ei 0 0 ei 0 e2i e2i 0 0 1 1 0 . ei 0 0 ei

(7.47)

Reexpresamos este resultado en t erminos de las matrices de Pauli para obtener Uz x1 U z = x cos 21 x sen 22 . Similarmente, Uz y2 U z = y sen 21 y cos 22 , Uz z3 U z = z3 . (7.49) (7.48)

A partir de esta expresi on de doble angulo vemos que podr amos comenzar con el angulo medio: = /2. Entonces, de las ecuaciones (7.42)(7.44), (7.48) y (7.49), x = x cos + y sen y = x sen + y cos z =z . (7.50)

La transformaci on unitaria de 2 2 usando Uz (/2) es equivalente al operador de rotaci on R() de la ecuaci on (7.3). El establecimiento de la correspondencia de Uy (/2) = y Ry ( ) y de Ux (/2) = cos /2 i sen /2 i sen /2 cos /2 (7.52) cos /2 sen /2 sen /2 cos /2 (7.51)

y Rx () pueden calcularse como ejercicio. Podemos notar que Uk (/2) tiene la forma general Uk (/2) = 1 cos /2 + ik sen /2 , donde k = x, y, z . La correspondencia Uz = 2 e
i/2

(7.53)

0 e
i/2

cos sen 0 sin cos 0 = Rz () , 0 0 1

(7.54)

no es una simple correspondencia uno a uno. Espec camente, como en Rz recorre desde 0 a 2 , el par ametro Uz , /2, recorre desde 0 a . Encontramos que Rz ( + 2 ) = Rz () Uz (/2 + ) = ei/2 0 i/2 0 e = Uz (/2) . (7.55)

7.2. GENERADORES DE GRUPOS CONTINUOS.

157

Por lo tanto ambos Uz (/2) y Uz (/2+ ) = Uz (/2) corresponde a Rz (). La correspondencia es de 2 a 1, o SU(2) y SO(3) son homom orcos. Este establecimiento de la correspondencia entre las representaciones de SU(2) y de aquella SO(3) signica que las representaciones conocidas de SU(2) autom aticamente nos proporciona de las representaciones de SO(3). Combinando las rotaciones, encontramos que una transformaci on unitaria usada U(, , ) = Uz (/2)Uy (/2)Uz (/2) , (7.56)

corresponde a la rotaci on general de Euler Rz ( )Ry ( )Rz (). Por multiplicaci on directa, U(, , ) = = ei/2 0 0 ei/2 cos /2 sen /2 sen /2 cos /2 ei/2 0 0 ei/2 .

ei( +)/2 cos /2 ei( )/2 sen /2 ei( )/2 sen /2 ei( +)/2 cos /2

(7.57)

Esta es nuestra forma general alternativa, la ecuaci on (7.38), con = ( + ) , 2 = , 2 = ( ) . 2 (7.58)

De la ecuaci on (7.57) podemos identicar los par ametros de la ecuaci on (7.38) como a = ei( +)/2 cos /2 b = ei( )/2 sen /2 SU(2) isospin y el octeto SU(3). En el tratamiento de las part culas con interacciones fuertes de F sica nuclear y de altas energ as que conducen al grupo de SU(2) de isospin y la simetr a de sabor SU(3), podr amos mirar el momento angular y el grupo de rotaci on SO(3) por una analog a. Supongamos que tenemos un electr on en un potencial atractivo esf ericamente sim etrico de alg un n ucleo at omico. La funci on de onda para el electr on puede ser caracterizada por tres n umeros cu anticos n, l, m, que est an relacionados con los autovalores de los operadores conservados H , L2 , Lz . La energ a, 5 sin embargo, es 2l + 1 veces degenerada, dependiendo solamente de n y l. La raz on para esta degeneraci on puede ser expresado de dos maneras equivalentes: 1. El potencial es sim etricamente esf erico, independiente de , . 2. El hamiltoniano de Schrodinger ( 2 /2me )2 + V (r) es invariante bajo rotaciones espaciales ordinarias SO(3). Como una consecuencia de la simetr a esf erica del potencial V (r), el momento angular orbital L es conservado. En la secci on 7.2 las componentes cartesianas de L est an indenticadas como los generadores del grupo de rotaci on SO(3). En vez de representar Lx , Ly , Lz por operadores, usaremos matrices. Las matrices Li son matrices (2l + 1) (2l + 1) con la
5

(7.59)

Para un potencial de Coulomb puro la energ a depende s olo de n.

158

CAP ITULO 7. TEOR IA DE GRUPO.

misma dimensi on del n umero de estados degenerados. La dimensi on 2l + 1 est a identicada con los estados degenerados 2l + 1. Esta degeneranci on es removida por un campo magn etico B , hecho conocido como el efecto Zeeman. Esta interacci on magn etica a nade un t ermino al Hamiltoniano que no es invariante bajo SO(3). Este es un t ermino quiebra la simetr a. En el caso de part culas con interacci on fuerte (protones, neutrones, etc.) no podemos seguir la analog a directamente, ya que todav a no entendemos completamente las interacciones nucleares. La fuerza fuerte est a descrita por la teor a gauge de Yang-Mills basada sobre la simetr a de color SU(3) llamada cromodin amica cu antica o abreviada QCD. Sin embargo, QCD es una teor a no lineal y por lo tanto complicada a grandes distancias y baja energ a que permanece no resuelta. Por lo tanto, no conocemos el Hamiltoniano, en vez de esto, volveremos a la analog a. En los a nos 1930, despu es del descubrimiento del neutr on, Heinsenberg propuso que las fuerzas nucleares eran cargas independientes. Los neutrones dieren en masa de los protones solamente en un 1.6 %. Si esta peque na diferencia es ignorada, el neutr on y el prot on podr an ser consideradas como dos estados de cargas (o isospin) de un doblete, llamado nucle on. El isospin I tiene proyecci on en el eje z I3 = 1/2 para el prot on y I3 = 1/2 para el neutr on. El isospin no tiene nada que ver con el spin (el momento angular intr nseco de una part cula) pero las dos componentes del estado de isospin obedece las mismas relaciones matem aticas que el estado de spin 1/2. Para el nucle on, I = /2, son las matrices usuales de Pauli y los estados 1 0 de isospin (1/2) son autovectores de la matriz de Pauli 3 = . Similarmente, los 0 1 tres estados de carga del pi on + , 0 , forman un triplete. El pi on es la part cula m as liviana con interacci on fuerte y es la mediadora de la fuerza nuclear a distancia, como el fot on es part cula que media la fuerza electromagn etica. La interacci on fuerte trata igualmente a miembros de esa familia de part culas, o multipletes y conserva el isospin. La simetr a es el grupo isospin SU(2). El octuplete mostrado en la tabla 7.1 llama la atenci on 6 . Los n umeros cu anticos conser2 2 vados que son an alogos y generalizaciones de Lz y L de SO(3) son I3 e I para el isospin, e Y para hipercarga. Las part culas pueden ser agrupadas dentro de multipletes de carga o de isospin. Entonces la hipercarga puede ser tomada como dos veces el promedio de carga del 1 multiplete. Para el nucle on, i.e., el doblete neutr onprot on, Y = 2 (0 + 1) = 1. Los valores 2 de la hipercarga y los del isospin son listados en la tabla 7.1 para bariones como el nucle on y sus compa neros (aproximadamente degenerados). Ellos forman un octeto como lo muestra la gura 7.3. En 1961 Gell-Mann, e independientemente Neeman, sugirieron que la interacci on fuerte debe ser (aproximadamente) invariante bajo un grupo espacial tridimensional unitario, SU(3), esto es, tienen simetr a de sabor SU(3). La elecci on de SU(3) estuvo basada primero sobre los dos n umeros cu anticos conservados e independientes H1 = I3 y H2 = Y (i.e., generados con [I3 , Y ] = 0), que llaman para un grupo de rango 2. Segundo, el grupo ha tenido una representaci on de ocho dimensiones para tener en cuenta los cercanamente degenerados bariones y cuatro octetos similares para los mesones. En un sentido SU(3) es la generalizaci on m as simple del isospin SU(2). Tres de sus generadores son matrices herm ticas de 3 3 de traza nula que contienen las matrices de
6

Todas las masas est an dadas en unidades de energ a.

7.2. GENERADORES DE GRUPOS CONTINUOS.

159

Masa [MeV] N p 938.272


0

I3 1 2 +1 2 -1 0 +1 0 1 2 +1 2

1321.32 -1 1314.9 1197.43 1192.55 1189.37 1115.63 939.566 1


1 2 1 2

0 + n

0 0

1 0

Cuadro 7.1: Bariones con spin

1 2

y paridad par

Y n
1

0
0 +

+
1

I3

Figura 7.3: Octeto bari onico diagrama de peso para SU(3).

Pauli de 2 2 para los isospin i en la esquina superior izquierda. 0 0 , i = 0 0 0 i

i = 1, 2, 3 .

(7.60)

160

CAP ITULO 7. TEOR IA DE GRUPO.

De este modo, el grupo del isospin SU(2) es un subgrupo de SU(3) con I3 = 3 /2. Otros cuatro generadores tienen los no diagonales 1 de 1 e i, i de 2 en todas las otras posibles ubicaciones para formar las matrices herm ticas 3 3 de traza nula. 0 0 i 0 0 1 5 = 0 0 0 , 4 = 0 0 0 , i 0 0 1 0 0 (7.61) 0 0 0 0 0 0 7 = 0 0 i . 6 = 0 0 1 , 0 i 0 0 1 0 El segundo generador diagonal tiene la matriz unidad bidimensional 12 en la esquina superior izquierda, la cual la hace claramente independiente del subgrupo SU(2) isospin ya que su traza no nula en el subespacio, y -2 en el lugar de la tercera diagonal la hace traza nula, 1 0 0 1 0 . 8 = 0 1 (7.62) 3 0 0 2 Generalmente hay 32 1 = 8 generadores para SU(3) el cual tiene orden 8. De los conmutadores de esos generadores pueden obtenerse f acilmente las constantes de estructura de SU(3). Volviendo a la simetr a de sabor SU(3) imaginemos que el Hamiltoniano para nuestro octeto de bariones est an compuesto de tres partes H = Hfuerte + Hmedio + Helectromagn etico . (7.63)

La primera parte, Hfuerte , tiene la simetr a SU(3) y conduce a la degeneranci on ocho. La introducci on del t ermino de quiebre de simetr a, Hmedio , remueve parte de la degeneraci on dando los cuatro multipletes del isospin ( , 0 ), ( , 0 , + ), , y N = (p, n) con diferentes masas. Estos a un son multipletes ya que Hmedio tiene la simetr a del isospin SU(2). Finalmente, la presencia de fuerzas dependientes de la carga separan los multipletes de isospin y remueve la u tima degeneraci on. Esta secuencia se muestra en la gura 7.4 Aplicando teor a de perturbaci on de primer orden de Mec anica Cu antica, relaciones simples de masas de bari onicas pueden ser calculadas. Quiz as el suceso m as espectacular de este modelo SU(3) ha sido su predicci on de nuevas part culas. En 1961 cuatro mesones K y tres (todos pseudoescalares; spin 0, paridad impar) sugieren otro octeto, similar al del octeto bari onico. SU(3) predice un octavo mes on , de masa 563 MeV. El mes on con una masa determinada experimentalmente de 548 MeV fue encontrado poco despu es. Agrupamientos de nueve de los bariones m as pesados (todos con spin 3/2, con paridad par) sugiri o un multiplete de 10 miembros o un decaplete de SU(3). El d ecimo bari on faltante fue predicho con una masa cercana a 1680 MeV y una carga negativa. En 1964 cargada negativamente con masa (167512) MeV fue descubierta. La representaci on de octeto no es la m as simple para SU(3). La representaci on m as simple son triangulares como se muestra en la gura 7.5 a partir de las cuales todas las otras pueden ser generadas por acoplamiento del momento angular generalizado. La representaci on

7.2. GENERADORES DE GRUPOS CONTINUOS.

161

masa

0 0 +

n p H fuerte + H medio+ H electromagntica

N H fuerte H fuerte + H medio

Figura 7.4: Separaci on de masa bari onica.

(a) d

Y
1/3

(b) u
+

Y _ s

2/3

I3

I3 _ u
1 / 3

2 / 3

_ d

Figura 7.5: Separaci on de masa bari onica.

fundamental en la gura 7.5 (a) contiene los quark u (arriba) y d (abajo) y el s (extra neza), y gura 7.5 (b) los correspondientes antiquarks. Ya que los octetos de mesones pueden ser obtenidos a partir de la representaci on de quark como pares q q , 32 = 8 + 1, esto sugiere que los mesones contienen quarks (y antiquarks) como sus constituyentes. El modelo de quarks resultante dan una exitosa descripci on de la espectroscop a hadr onica. La soluci on de sus problemas con el principio de exclusi on de Pauli eventualmente conduce a la teor a de gauge de SU(3)-color de las interacciones fuertes llamada cromodin amica cu antica o QCD. Para mantener la teor a de grupo en su real perspectiva, podr amos enfatizar que la teor a de grupo identica y formaliza las simetr as. Ella clasica part culas (y algunas veces predice). Pero a parte de decir que una parte del hamiltoniano tiene simetr a SU(2) y otra parte tiene

162

CAP ITULO 7. TEOR IA DE GRUPO.

simetr a SU(3), la teor a de grupo no dice nada a cerca de la interacci on de las part culas. Recuerde que la armaci on de que el potencial at omico es esf ericamente sim etrico no nos dice nada a cerca de la dependencia radial del portencial o de su funci on de onda. En contraste, en una teor a de gauge la interacci on es mediada por bosones vectoriales (como el fot on media en la electrodin amica cu antica) y determinado u nicamente por la derivada covariante de gauge.

7.3.

Momento angular orbital.

El concepto cl asico de momento angular Lcl tulo de asico = r p es mostrado en el cap vectores para presentar el producto cruz. Siguiendo con la representaci on usual de Schr odinger de la Mec anica Cu antica, el momento lineal cl asico p es reemplazado por el operador i. El operador de momento angular en la mec anica cu antica se convierte en 7 LQM = ir . Las componentes del momento angular satisfacen las relaciones de conmutaci on [Li , Lj ] = iijk Lk . El ijk es el s mbolo de Levi-Civita. Una suma sobre el ndice k es sobreentendida. El operador diferencial correspondiente al cuadrado del momento angular
2 2 L 2 = L L = L2 x + Ly + Lz ,

(7.64)

(7.65)

(7.66)

puede ser determinado a partir de L L = (r p) (r p) , (7.67)

la cual puede vericarse como ejercicio. Ya que L 2 es un escalar rotacional, [L 2 , Li ] = 0, el cual tambi en puede ser vericado directamente. on b asicas de los componentes del La ecuaci on (7.65) presenta las relaciones de conmutaci momento angular en Mec anica Cu antica. Por cierto, dentro del marco de la Mec anica Cu antica y la teor a de grupo, estas relaciones de conmutaci on denen un operador de momento angular. Acercamiento a los operadores de subida y bajada. Comencemos con una aproximaci on m as general, donde el momento angular J lo consideramos que puede representar un momento angular orbital L, un spin /2, o un momento angular total L + /2, etc. Supongamos que 1. J es un operador herm tico cuyas componentes satisfacen las relaciones de conmutaci on [Ji , Jj ] = iijk Jk ,
7

[J 2 , Ji ] = 0 .

(7.68)

Por simplicidad,

= 1. Esto signica que el momento angular es medido en unidades de .

7.3. MOMENTO ANGULAR ORBITAL.

163

2. |M es simultaneamente una autofunci on normalizada (o autovector) de Jz con auto2 valor M y una autofunci on de J , Jz |M = M |M , J 2 |M = |M . (7.69)

Mostraremos ahora que = J (J + 1). Este tratamiento ilustrar a la generalidad y potencia de las t ecnicas de operadores particularmente el uso de operadores de subida y bajada. Un operador de subida o bajada se dena como J+ = Jx + iJy , J = Jx iJy . (7.70)

En t erminos de ese operador J 2 puede ser reeescrito como 1 2 . J 2 = (J+ J + J J+ ) + Jz 2 A partir de las relaciones de conmutaci on, encontramos que [Jz , J+ ] = +J+ , [Jz , J ] = J , [J+ , J ] = 2Jz . (7.72) (7.71)

Ya que J+ conmuta con J 2 , hagalo como ejercicio J 2 (J+ |M ) = J+ (J 2 |M ) = (J+ |M ) . (7.73)

Por lo tanto, J+ |M todav a es una autofunci on de J 2 con autovalores , y similarmente para J |M . Pero de la ecuaci on (7.72) Jz J+ = J+ (Jz + 1) , o Jz (J+ |M ) = J+ (Jz + 1)|M = (M + 1)(J+ |M ) . (7.75) Por lo tanto, J+ |M todav a es una autofunci on de Jz con autovalores M +1. J+ ha elevado el autovalor en 1 y por eso es llamado operador de subida. Similarmente, J baja los autovalores en 1 y a menudo es llamado operador de bajada. Tomando los valores esperados y usando Jx = Jx , Jy = Jy ,
2 2 2 M |J 2 Jz |M = M |Jx + Jy |M = | Jx |M |2 + | Jy |M |2 ,

(7.74)

vemos que M 2 0, tal que M es ligado. Sea J el m as grande valor de M . Luego J+ |J = 0, lo cual implica que J J+ |J = 0. Luego combinando las ecuaciones (7.71) y (7.72) obtenemos J 2 = J J+ + Jz (Jz + 1) , (7.76) encontramos que a partir de la ecuaci on (7.76)
2 0 = J J+ |M = J = (J 2 Jz Jz )|M = J = ( J 2 J )|M = J .

Por lo tanto = J (J + 1) 0; (7.77)

164

CAP ITULO 7. TEOR IA DE GRUPO.

con un J no negativo. Ahora reetiquetaremos los estados |M = |JM . Similarmente, sea J el m as peque no de los M . Entonces J |JJ = 0. A partir de J 2 = J+ J Jz (Jz + 1) , vemos que
2 0 = J+ J |JJ = (J 2 + Jz Jz )|JJ = ( + J J )|JJ 2

(7.78) . (7.79)

De manera que = J (J + 1) = J (J 1) = (J )(J 1) . As J = J , y M corre en pasos enteros desde J a +J , J M +J . (7.80)

Comenzando desde |JJ y aplicando J repetidas veces, alcanzaremos todos los otros estados |JM . De manera que |JM forma una representaci on irreductible; M var a y J est a jo. Entonces usando las ecuaciones (7.68), (7.76) y (7.78) obtenemos J J+ |JM = [J (J + 1) M (M + 1)]|JM = (J M )(J + M + 1)|JM , J+ J |JM = [J (J + 1) M (M 1)]|JM = (J + M )(J M + 1)|JM . Como J+ y J son herm ticos conjugados,
J+ = J , J = J+ ,

(7.81)

(7.82)

los autovalores o valores esperados en la ecuaci on (7.81) deber an ser positivos o cero. Ya que J+ aumenta el autovalor de M a M + 1, reetiquetaremos la autofunci on resultante |JM + 1 . La normalizaci on est a dada por la ecuaci on (7.81) como J+ |JM = (J M )(J + M + 1)|JM + 1 , (7.83)

tomando la ra z cuadrada positiva y no introduciendo ning un factor de fase. Por los mismos argumentos J |JM = (J + M )(J M + 1)|JM 1 . (7.84) Finalmente, ya que M va desde J a +J en pasos unitarios, 2J deber a ser un n umero entero. J es por lo tanto un entero o la mitad de un entero impar. Como hemos visto, el momento angular orbital est a descrito con J entero. A partir de los spin de algunas part culas fundamentales y de algunos n ucleos, tenemos que J = 1/2, 3/2, 5/2, . . . Nuestro momento angular est a cu antizado esencialmente como un resultado de relaciones de conmutaciones. onicos En coordenadas polares esf ericas , las funciones , |lm = Ylm (, ) son arm esf ericos. Resumen de grupos y algebras de Lie. Las relaciones de conmutaciones generales, ecuaci on (7.14) en la secci on 7.2, para un grupo de Lie cl asico [SO(n) y SU(n) en particular] pueden ser simplicadas para verse m as como la ecuaci on (7.72) para SO(3) y SU(2) en la secci on 7.3.

7.3. MOMENTO ANGULAR ORBITAL. Algebra de Lie Grupo de Lie rango orden Al SU(l+1) l l(l+2) Bl Dl SO(2l+1) SO(2l) l l l(2l+1) l(2l-1)

165

Cuadro 7.2: Rango y orden de grupos rotacionales y unitarios. Primero escogemos generadores Hi que sean linealmente independientes y que conmuten entre s , estos son generalizaciones de Jz de SO(3) y SU(2). Sea l el n umero m aximo de tales Hi con [Hi , Hk ] = 0 . (7.85) Entonces l es llamado el rango del grupo Lie G o de su algebra. El rango y la dimensi on u orden de algunos grupos Lie son dados en la tabla 7.2. Todos los otros generadores E puede mostrarse que son operadores de subida y bajada con respecto a todos los Hi , tal que [Hi , E ] = i E . (7.86)

El conjunto de los (1 , 2 , . . . , l ) son llamados los vectores raices. Ya que los Hi conmutan entre s , ellos pueden ser diagonalizados simult aneamente. Ellos nos dan un conjunto de autovalores m1 , m2 , . . . , ml . Al conjunto (m1 , m2 , . . . ..ml ) se les llama vectores de peso de una representaci on irreductible. Hay l operadores invariantes Ci , llamados operadores de Casimir, los cuales conmutan con todos los generadores y son generalizaciones de J 2 , [Ci , Hj ] = 0 , [Ci , E ] = 0 . (7.87) El primero, C1 , es una funci on cuadr atica de los generadores, los otros son m as complicados. Ya que Ci conmuta con todos los Hj , ellos pueden ser diagonalizados simult aneamente con los Hj . Sus autovalores c1 , c2 , . . . , cl caracterizan las representaciones irreductibles y permenecen constantes mientras los vectores de peso var an sobre una representaci on irreductible particular. Por lo tanto, la autofunci on general puede ser escrita como |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml , generalizando |JM de SO(3) y SU(2). Sus ecuaciones de autovalores son Hi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml = mi |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml , Ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml = ci |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml . (7.89a) (7.89b) (7.88)

Ahora podemos mostrar que E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml tiene los vector peso (m1 + 1 , m2 + 2 , . . . , ml + l ) usando las relaciones de conmutaci on, la ecuaci on (7.86), en conjunto con las ecuaciones (7.89a) y (7.89b), Hi E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml = (E Hi + [Hi , E ])|(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml = (mi + i )E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml . (7.90)

166 Por lo tanto

CAP ITULO 7. TEOR IA DE GRUPO.

E |(c1 , c2 , . . . , cl )m1 , m2 , . . . , ml |(c1 , c2 , . . . , cl )m1 + 1 , m2 + 2 , . . . , ml + l estas son las generalizaciones de las ecuaciones (7.83) y (7.84) a partir de SO(3). Esos cambios de autovalores por el operador E son llamados sus reglas de selecci on en mec anica cu antica.

7.4.

Grupo homog eneo de Lorentz.

En relatividad especial requerimos que nuestras leyes f sicas sean covariantes8 bajo a. traslaciones en el tiempo y en el espacio, b. rotaciones en el espacio real tridimensional, y c. transformaciones de Lorentz. El requerimiento para la covarianza bajo traslaciones est a basada en la homogeneidad del espacio y el tiempo. Covarianza bajo rotaciones es una armaci on de la isotrop a del espacio. El requerimiento de la covarianza de Lorentz viene de la relatividad especial. Todas estas tres transformaciones en conjunto forman el grupo inhomogeneo de Lorentz o el grupo de Poincar e. Aqu exclu mos las traslaciones. Las rotaciones espaciales y las transformaciones de Lorentz forman un grupo, el grupo homog eneo ed Lorentz. Primero generamos un subgrupo, las transformaciones de Lorentz en el cual la velocidad relativa v est a a lo largo del eje x = x1 . El generador puede ser determinad considerando un marco de referencia espacio-temporal moviendose con una velocidad relativa innitesimal v . Las relaciones son similares a aquellas para rotaciones en el espacio real, excepto que aqu el angulo de rotaci on es imaginario puro. Las transformaciones de Lorentz son lineales no s olo en el espacio de coordenadas xi si no que tambi en en el tiempo t. Ellas se originan a partir de las ecuaciones de Maxwell de la electrodin amica las cuales son invariantes bajo la transformaciones de Lorentz, como veremos luego. Las transformaciones de Lorentz dejan invariante la forma cuadr atica siguiente 2 2 2 2 2 2 2 2 2 c t x1 x2 x3 = x0 x1 x2 x3 donde x0 = ct. Vemos esto si encendemos una fuente de luz en el origen del sistema de coordenadas. En tiempo t la luz ha viajado una distancia 2 2 2 2 2 ct = x2 i , tal que c t x1 x2 x3 = 0. La relatividad especial requiere esto en todos los sistemas (inercial) que se mueven con velocidad v c en cualquier direcci on relativa al sistema xi y que tengan el mismo origen a tiempo t = 0, se mantenga tambi en que 2 2 2 2 2 2 2 2 c t x1 x2 x3 = 0. El espacio cuadridimensional con la m etrica x0 x1 x2 x2 3 es llamado espacio de Minkowski con el producto escalar de dos cuadrivectores denido como a b = a0 b0 a b. Usando el tensor m etrico 1 0 0 0 0 1 0 0 (g ) = (g ) = (7.91) 0 0 1 0 , 0 0 0 1
Ser covariante signica que tienen la misma forma en diferentes sistemas de coordenadas tal que no hay un sistema de referencia privilegiado.
8

7.4. GRUPO HOMOGENEO DE LORENTZ.

167

podemos subir y bajar ndices de un cuadrivector tal como de las coordenadas x = (x0 , x) 2 es decir x = g x = (x0 , x) y x g x = x2 on de suma de Einstein se 0 x , la conveci dan por entendida. Para el gradiente = (/x0 , ) = /x y = (/x0 , ) tal que 2 2 2 = 2 /x2 etrica x2 0 es un escalar de Lorentz, al igual que la m 0x . Para v c, en el l mite no relativista, las transformaciones de Lorentz deben ser transformaciones de Galileo. Por lo tanto, para derivar la forma de una transformaci on de Lorentz a lo largo del eje x1 , partimos con una transformaci on Galileana para una velocidad relativa innitesimal v : x1 = x1 vt = x1 x0 . (7.92) v Como es usual = . Por simetr a tambi en podemos escribir c x0 = x0 ax1 , (7.93)

2 donde a es un par ametro a jar una vez que se imponga que x2 0 x1 deba ser invariante, 2 x0 x1 = x2 0 x1 . 2 2

(7.94)

Recordemos que x = (x0 ; x1 , x2 , x3 ) es el prototipo de cuadrivector en el espacio de Minkowski. As la ecuaci on (7.94) es simplemente una armaci on de la invariancia del cuadrado de la magnitud del vector distancia bajo rotaciones en el espacio de Minkowski. Aqu es donde la relatividad especial compromete nuestra trasnformaci on. Elevando al cuadrado y restando erminos del orden de 2 , encontramos a = 1. las ecuaciones (7.92) y (7.93) y descartando t on matricial Las ecuaciones (7.92) y (7.93) pueden ser combinadas como una ecuaci x0 x1 = (1 1 ) x0 x1 , (7.95)

1 es la matriz de Pauli, y el par ametro representa un cambio innetesimal. Repetimos la transformaci on N veces para desarrollar una transformaci on nita con el par ametro velocidad = N . entonces 1 N x0 x0 = 1 . (7.96) x1 x1 N 1 N = exp(1 ) . N N Interpretamos la exponencial como una serie de Maclaurin l m 1 exp(1 ) = 1 1 + Notando que 2 = 1, exp(1 ) = 1 cosh + 1 senh . Por lo tanto nuestra transformaci on de Lorentz nita es x0 x1 = cosh senh senh cosh x0 x1 . (7.100) (7.99) (1 )2 (1 )3 + . 2! 3! En el l mite N (7.97)

(7.98)

168

CAP ITULO 7. TEOR IA DE GRUPO.

1 ha generado las representaciones de esta especial transformaci on de Lorentz. El cosh y el senh pueden ser identicados considerando el origen del sistema de coordenadas primas, x1 = 0, o x1 = vt. Sustituyendo en la ecuaci on (7.100), tenemos 0 = x1 cosh x0 senh . Con x1 = vt y x0 = ct. tanh = = Note que la rapidez = v . c (7.101)

v excepto en el l mite v 0. c Usando 1 tanh2 = (cosh2 )1 , cosh = (1 2 )1/2 , senh = . (7.102)

El anterior caso especial en que la velocidad es paralela a uno de los ejes espaciales es simple, pero ilustra la velocidad innitesimal, la t ecnica de la exponenciaci on y el generador. Ahora esta t ecnica puede ser aplicada para derivar las transformaciones de Lorentz para una velocidad relativa v no paralela a ning un eje. Las matrices dadas por la ecuaci on (7.100) para el caso v = x vx forman un subgrupo. Las matrices en el caso general no lo hacen. El producto de dos matrices de transformaciones de Lorentz, L(v1 ) y L(v2 ), producen una tercera matriz de transformaci on L(v3 ), si las dos velocidades v1 y v2 son paralelas. La velocidad resultante v3 est a relacionada con v1 y con v2 mediante la regla de adici on de velociades de Einstein. Si v1 y v2 no son paralelas, no existe entonces una relaci on simple.

7.5.

Covarianza de Lorentz de las ecuaciones de Maxwell.

Si una ley f sica se mantiene para todas las orientaciones de nuestro (real) espacial sistema de coordenadas (i.e. es invariante ante rotaciones), los t erminos de la ecuaci on deben ser covariantes bajo rotaciones. Esto signica que escribimos las leyes f sicas en la forma matem atica escalar=escalar, vector=vector, tensor de segundo rango=tensor de segundo rango, y as sucesivamente. Similarmente, si una ley f sica se mantiene para todos los sistemas inerciales, los t erminos de la ecuaci on deben ser covariantes bajo transformaciones de Lorentz. Usando el espacio de Minkowski (x = x1 , y = x2 , z = x3 , ct = x0 ) tenemos un espacio cuadridimensional cartesiano con m etrica g . Las transformaciones de Lorentz son lineales en el espacio y en el tiempo en este espacio real de cuatro dimensiones. Consideremos las ecuaciones de Maxwell B , t D H = + v , t D = , E = B =0 , (7.103a) (7.103b) (7.103c) (7.103d)

7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL. y las relaciones D = 0 E , B = 0 H .

169

(7.104)

Todos los s mbolos tienen sus signicados usuales y hemos supuesto el vacio por simplicidad. Supongamos que las ecuaciones de Maxwell se mantienen en todos los sistemas inerciales; esto es , las ecuaciones de Maxwell son consistentes con la relatividad especial. (La covariancia de las ecuaciones de Maxwell bajo transformaciones de Lorentz fue realmente mostrada por Lorentz y Poincar e antes de que Einstein propusiera su teor a de la relatividad especial). Nuestro objetivo inmediato es reescribir las ecuaciones de Maxwell como ecuaciones tensoriales en el espacio de Minkowski. Esto har a la covariancia de Lorentz expl cita. En t erminos de los potenciales escalar y vectorial, podemos escribir B =A , E= A . t (7.105)

La ecuaci on anterior especica el rotor de A; la divergencia de A no est a denida. Podemos, y por futuras conveniencias lo hacemos, imponer la siguiente relaci on sobre el vector potencial =0. (7.106) A + 0 0 t Este es conocido como el gauge de Lorentz. Servir a a nuestros prop ositos de desacoplar las ecuaciones diferenciales para A y para . Ahora reescribimos las ecuaciones de Maxwell en t erminos de los potenciales. A partir de la ecuaci on (7.103c) para D y (7.105) 2 + A = , t 0 (7.107)

considerando que la ecuaci on (7.103b) para H y (7.105) y la identidad vectorial para el rotor del rotor produce 2A 1 v + + + . A 2 A = 2 t t 0 0 0 (7.108)

Usando el gauge de Lorentz, la ecuaci on (7.106), y la relaci on 0 0 = 1/c2 , obtenemos 2 1 2 A = 0 v , c2 t2 1 2 2 2 2 = . c t 0

(7.109)

Ahora el operador diferencial 2 1 2 = 2 = , 2 2 c t

170

CAP ITULO 7. TEOR IA DE GRUPO.

es un Laplaciano cuadridimensional. Usualmente este operador es llamado el dAlembertiano y denotado por 2 . Puede probarse que es un escalar. Por conveniencia denimos A1 Ax = c0 Ax , 0 c Ay A2 = c0 Ay , 0 c A3 Az = c0 Az , 0 c
0

(7.110)

A 0 0 = A .

Si ponemos adem as vx i1 , c vy i2 , c vz i3 , c i0 = i0 , (7.111)

entonces la ecuaci on (7.109) puede ser escrita de la forma 2 A = i . (7.112)

La ecuaci on anterior parece una ecuaci on tensorial, pero eso no basta. Para probar que es una ecuaci on tensorial, partimos investigando las propiedades de transformaci on de la corriente generalizada i . Ya que un elemento de carga de es una cantidad invariante, tenemos de = dx1 dx2 dx3 , invariante. (7.113)

Vimos que el elemento de volumen cuadridimensional es tambi en un invariante, dx1 dx2 dx3 dx0 , comparando estos resultados vemos que la densidad de carga debe transformar de la misma manera que x0 . Ponemos = i0 con i0 establecida como la componente cero de un cuadrivector. Las otras partes de la ecuaci on (7.111) pueden ser expandidas como i1 = vx dx1 = c c dt dx 1 = i0 . dt

(7.114)

Ya que justo mostramos que i0 transforma como dx0 , esto signica que i1 transforma como dx1 . Con resultados similares para i2 e i3 . tenemos que i transforma como dx , probando de esta manera que i es un vector, un vector del espacio cuadridimensional de Minkowski. La ecuaci on (7.112), la cual deriva directamente de las ecuaciones de Maxwell, suponemos que se mantiene en todos los sistemas cartesianos. Entonces, por la regla del cuociente A es tambi en un vector y (7.112) es una legitima ecuaci on tensorial. Ahora, devolviendonos, la ecuaci on (7.105) puede ser escrita Aj A0 + , j = 1, 2, 3, x0 xj 1 Ak Aj Bi = , (i, j, k ) = (1, 2, 3) , c xj xk 0 Ej = y permutaciones c clicas.

(7.115)

7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL. Denimos un nuevo tensor A A = A A F = F x x (, = 0, 1, 2, 3)

171

un tensor antisim etrico de segundo rango, ya que A es un vector. Escribamoslo axpl citamente 0 Ex Ey Ez 0 Ex Ey Ez Ex 0 cBz cBy 0 cBz cBy , F = 0 Ex . F = 0 Ey Ey cBz 0 cBx cBz 0 cBx Ez cBy cBx 0 Ez cBy cBx 0 (7.116) Notemos que en nuestro espacio de Minkowski E y B no son m as vectores sino que juntos forman un tensor de segundo rango. Con este tensor podemos escribir las dos ecuaciones de on tensorial Maxwell nohomogeneas (7.103b) y (7.103c) y combinandolas como una ecuaci F = i . x (7.117)

El lado izquierdo es una divergencia cuadridimensional de un tensor y por lo tanto un vector. F . Las ecuaciones Esto es, por supuesto, equivalente a contraer un tensor de tercer rango x de Maxwell (7.103a) para E y la ecuaci on (7.103d) para B pueden ser expresadas en forma tensorial F23 F31 F12 + + =0, (7.118) x1 x2 x3 para (7.103d) y tres ecuaciones de la forma F30 F02 F23 =0, x2 x3 x0 (7.119)

para (7.103a). Una segunda ecuaci on permutando 120 y una tercera permutando 130. Ya que F F = t , x es un tensor de tercer rango, las ecuaciones (7.117) y (7.119) pueden ser expresadas por la ecuaci on tensorial t + t + t = 0 . (7.120) En todos los casos anteriores los ndices , y se suponen diferentes. Transformaciones de Lorentz de E y B . La construcci on de las ecuaciones tensoriales (7.118) y (7.120) completan nuestro objetivo inicial de reescribir las ecuaciones de Maxwell en forma tensorial. Ahora explotamos las propiedades tensoriales de nuestros cuadrivectores y del tensor F .

172

CAP ITULO 7. TEOR IA DE GRUPO.

Para las transformaciones de Lorentz que correspoonden a movimientos a lo largo del eje z (x3 ) con velocidad v , los cosenos directores est an dados por x0 = (x0 x3 ) x3 = (x3 x1 ) , donde = y = 1 2
1/2

(7.121)

v c . (7.122)

Usando las propiedades de transformaci on tensorial, podemos calcular los campos el ectrico y magn etico en el sistema en movimiento en t erminos de los valores en el marco de referencias original. A partir de las ecuaciones (7.116) y (7.121) obtenemos Ex = Ey = 1 1 2 1 2 v By c2 v Ey + 2 Bx c Ex , , (7.123)

1 Ez = Ez ,

y Bx = By = 1 1 2 1 2 v Ey c2 v By 2 Ex c Bx + , , (7.124)

1 Bz = Bz .

Este acoplamiento de E y B es esperado. Consideremos, por ejemplo, el caso de campo el ectrico nulo en el sistema sin prima Ex = Ey = Ez = 0 . Claramente, no habr a fuerza sobre una part cula carga estacionaria. Cuando la part cula est a en movimiento con una velocidad peque na v a lo largo del eje z un observador sobre la part cula ve campos (ejerciendo una fuerza sobre la part cula cargada) dados por Ex = vBy , Ey = vBx , donde B es un campo magn etico en el sistema sin primas. Estas ecuaciones pueden ser puestas en forma vectorial E =vB , o bien, F = qv B , (7.125) la cual es usualmente tomada como la denici on operacional del campo magn etico B .

7.5. COVARIANZA DE LORENTZ DE LAS ECUACIONES DE MAXWELL. Invariantes electromagn eticas.

173

Finalmente, las propiedades tensoriales (o vectorioles) nos permiten construir una multitud de cantidades invariantes. Una de las importantes es el producto escalar de los cuadrivectores A y i . Tenemos A i = c0 Ax vy vz vx c0 Ay c0 Az + 0 c c c = 0 ( A J ) , invariante, (7.126)

con A el usual potencial vector y J la densidad de corriente ordinaria. El primer t ermino es el ordinario acoplamiento electroest atico con dimensiones de energ a per unidad de volumen. En consecuencia nuestro recien constru do invariante escalar es un densidad de energ a. La interacci on din amica del campo y corriente es dado por el producto A J . Este invariante A i aparece en los Lagrangianos electromagn eticos.

174

CAP ITULO 7. TEOR IA DE GRUPO.

Cap tulo 8 Series innitas.


versi on nal corregida 2.31, 6 de Mayo del 20031

8.1.

Conceptos fundamentales

Las series innitas, literalmente sumas de un n umero innito de t erminos, ocurre frecuentemente tanto en matem aticas pura como aplicada. Ellas podr an ser usadas por los matem aticos puros para denir funciones como una aproximaci on fundamental a la teor a de funciones, tanto como para calcular valores precisos de constantes y funciones trascendentales. En matem atica, en ciencias y en ingenier a las series innitas son ubicuas, es por ello que aparecen en la evaluaci on de integrales, en la soluci on de ecuaciones diferenciales, en series de Fourier y compite con las representaciones integral para la descripci on de funciones especiales. Encaramos el problema que signica la suma de un n umero innito de t erminos. La aproximaci on usual es por sumas parciales. Si tenemos una sucesi on de t erminos innitos u1 , u2 , u3 , u4 , u5 , . . ., denimos la suma parcial i- esima como
i

si =
n=1

un ,

(8.1)

Esta es una suma nita y no ofrece dicultades. Si las sumas parciales si convergen a un l mite (nito) cuando i , l m si = S , (8.2)
i

La serie innita un se dice que es convergente y tiene el valor S . Note cuidadosamente que nosotros razonablemente y plausiblemente, pero a un arbitrariamente denimos que la serie innita es igual a S . Podemos notar que una condici on necesaria para esta convergencia a un l mite es que el l mn un = 0. Esta condici on, sin embargo, no es suciente para a escrita en notaci on matem atica garantizar la convergencia. La ecuaci on (8.2) usualmente est formal: La condici on para la existencia de un l mite S es que para cada > 0, haya un N jo tal que | S si | < , para todo i > N .
Este cap tulo est a basado en el quinto cap tulo del libro: Mathematical Methods for Physicists, fourth edition de George B. Arfken & Hans J. Weber, editorial Academic Press.
1

n=1

175

176

CAP ITULO 8. SERIES INFINITAS.

Esta condici on a menudo derivada del criterio de Cauchy aplicado a las sumas parciales si . El criterio de Cauchy es: Una condici on necesaria y suciente para que una sucesi on (si ) converja es que para cada > 0 exista un n umero jo N tal que |sj si | < para todos los i, j > N .

Esto signica que la sumas parciales individuales deben mantenerse cercanas cuando nos movemos lejos en la secuencia. El criterio de Cauchy puede f acilmente extenderse a sucesiones de funciones. La vemos en esta forma en la secci on 8.5 en la denici on de convergencia uniforme y m as adelante en el desarrollo del espacio de Hilbert. Nuestras sumas parciales si pueden no converger a un l mite simple sino que podr a oscilar, como en el caso un = 1 1 + 1 1 + 1 + (1)n .
n=0

Claramente, si = 1 para i impar pero 0 para i par. No hay convergencia a un l mite, y series tal como estas son llamadas oscilantes. Para las series 1 + 2 + 3 + + n + tenemos sn = Cuando n ,
n

n(n + 1) 2

l m sn = .

Cada vez que las sumas parciales diverjan (tienden a ), la serie innita se dice que diverge. A menudo el t ermino divergente es extendido para incluir series oscilatorias. Ya que evaluamos las sumas parciales por aritm etica ordinaria, la serie convergente, denida en t erminos del l mite de las sumas parciales, asume una posici on de importancia suprema. Dos ejemplos pueden claricar la naturaleza de convergencia o divergencia de una serie y servir a como una base para una investigaci on m as detallada en la pr oxima secci on. Ejemplo Series geom etricas. La sucesi on geom etrica, comenzando con a y con una raz on r(r >= 0), est a dado por a + ar + ar2 + ar3 + + arn1 + . La suma parcial n- esima est a dada por sn = a 1 rn 1r (8.3)

8.1. CONCEPTOS FUNDAMENTALES Tomando el l mite cuando n ,


n

177

l m sn =

a , 1r

para r < 1.

(8.4)

De modo que, por denici on, la serie geom etrica innita converge para r < 1 y est a dada por

arn1 =
n=1

a . 1r

(8.5)

Por otra parte, si r 1, la condici on necesaria un 0 no se satisface y la serie innita diverge. Ejemplo Series arm onicas. Consideremos la serie arm onica

n 1 = 1 +
n=1

1 1 1 1 + + + + + . 2 3 4 n

(8.6)

Tenemos que el l mn un = l mn 1/n = 0, pero esto no es suciente para garantizar la convergencia. Si agrupamos los t erminos (no cambiando el orden) como 1+ 1 + 2 1 1 + 3 4 + 1 1 1 1 + + + 5 6 7 8 + 1 1 + + 9 16 + , (8.7)

se ver a que cada par de par entesis encierra p t erminos de la forma 1 1 p 1 1 + + + > = . p+1 p+2 p+p 2p 2 Formando sumas parciales sumando un grupos entre par entesis por vez, obtenemos s1 = 1 , 3 , 2 4 s3 > , 2 s2 = 5 , 2 6 s5 > , 2 n+1 sn > . 2 s4 > (8.8)

(8.9)

Las series arm onicas consideradas de esta manera ciertamente son divergentes. Una demostraci on independiente y alternativa de su divergencia aparece en la secci on 8.2. Usando el teorema del binomio, podr amos expandir la funci on (1 + x)1 : 1 = 1 x + x2 x3 + . . . + (x)n1 + . 1+x Si tomamos x 1, la serie se convierte 1 1 + 1 1 + 1 1 + ..., (8.11) (8.10)

178

CAP ITULO 8. SERIES INFINITAS.

una serie que etiquetamos como oscilatoria anteriormente. Aunque no converge en el sentido usual, signica que puede ser ligada a su serie. Euler, por ejemplo, asignado un valor de 1/2 a esta sucesi on oscilatoria sobre la base de la correspondencia entre esta serie y la bien denida funci on (1 + x)1 . Desafortunadamente, tal correspondencia entre la serie y la funci on no es u nica y esta aproximaci on deber a ser redenida. Otros m etodos de asignar un signicado a una serie oscilatoria o divergente, m etodos de denir una suma, han sido desarrollados. Otro ejemplo de generalizar la convergencia lo vemos en las serie asint otica o semi-convergente, consideradas m as adelante.

8.2.

Pruebas de Convergencia

Aunque las series no convergentes pueden ser u tiles en ciertos casos especiales, usualmente insistimos, como una materia de conveniencia si no de necesidad, que nuestras series sean convergentes. Por lo tanto esto llega a ser una materia de extrema importancia para ser capaz de decir si una serie dada es o no convergente. Desarrollaremos un n umero de posibles pruebas, comenzando con una prueba simple pero poco sensible y posteriormente trabajar con una m as complicada pero muy sensible. Por ahora consideremos una serie de t erminos positivos, an > 0, posponiendo los t erminos negativos hasta la pr oxima secci on.

8.2.1.

Pruebas de comparaci on.

Si t ermino a t ermino una serie de t erminos un an , en el cual los an forman una serie convergente, las series n un tambi en es convergente. Simb olicamente, tenemos an = a1 + a2 + a3 + ,
n

convergente,

un = u1 + u2 + u3 + .
n

Si un an para todo n, luego n un n an y n un por lo tanto es convergente. Si t ermino a t ermino es una serie de t erminos vn bn , en el cual bn forma una serie divergente, las series n vn tambi en es divergente. Note que las comparaciones de un con bn o vn con an no dan informaci on. Aqu tenemos bn = b1 + b2 + b3 + ,
n

divergente,

vn = v1 + v2 + v3 + .
n

Si vn bn para todo n, luego n vn n bn y n vn por lo tanto es divergente. Para las series convergente an tenemos las series geom etricas, mientras las series arm onicas servir an como las series divergentes bn . En tanto otras series son identicadas como convergentes o divergentes, ellas pueden ser usadas como las series conocidas en estas pruebas de comparaci on.

8.2. PRUEBAS DE CONVERGENCIA

179

Raz de Cauchy (Comparacin con las series geomtricas) an = 1

Kummer, an

Integral de Euler Maclaurin (Comparacin con la integral) an= n Raabe

Razn de DAlembert Cauchy (Tambin por comparacin con la series geomtricas)

an= n ln n

Gauss
Figura 8.1: Prueba de comparaci on.

Todos las pruebas desarrolladas en esta secci on son esencialmente pruebas de comparaci on. La gura 8.1 muestra estas pruebas y sus relaciones. Ejemplo Las series p. Probamos n np , p = 0.999, por convergencia. Ya que n0.999 > n1 , y bn = n1 forman la serie arm onica divergente, la prueba de comparaci on muestra que n n0.999 es divergente. p Generalizando, n n se ve como divergente para todo p 1.

8.2.2.

Prueba de la ra z de Cauchy.

Si (an )1/n r < 1 para todo n sucientemente grande, con r independiente de n, entonces 1/n 1 para todo n sucientemente grande, entonces n an es n an es convergente. Si (an ) divergente. La primera parte de esta prueba se verica f acilmente elevando (an )1/n r a la n- esima potencia. Obtenemos an r n < 1 . Ya que rn es s olo el t ermino n- esimo en una serie geom etrica convergente, n an es convergente por la prueba de comparaci on. Conversamente, si (an )1/n 1, entonces an 1 y la serie deber a diverger. La prueba de la ra z es particularmente u til en establecer las propiedades de la serie de potencias.

180

CAP ITULO 8. SERIES INFINITAS.

8.2.3.

Prueba de la raz on de D Alembert o Cauchy.

Si an+1 /an r < 1 para todo n sucientemente grande, y r independiente de n, entonces n an es convergente. Si an+1 /an 1 de un n en adelante, entonces n an es divergente. La convergencia est a dada por la comparaci on directa con las series geom etricas (1 + r + 2 r + . . .). En la segunda parte an+1 an y la divergencia debe ser razonablemente obvia. Aunque la prueba no es tan sensible como la prueba de la ra z de Cauchy, esta prueba de la raz on e D Alembert es una de las m as f aciles de aplicar y es ampliamente usada. Una armaci on alternativa de la prueba de la raz on est a en la forma de un l mite: si an+1 <1, n an >1, =1, l m convergencia divergencia indeterminado. (8.12)

A causa de la posibilidad de ser indeterminado, la prueba de la raz on es probable que falle en puntos cruciales, y se hace necesario una prueba m as delicada y sensible. Podr amos preguntarnos c omo podr a levantarse esta indeterminaci on. Realmente fue disimulado en el primera armaci on an+1 /an r < 1. Podr amos encontrar an+1 /an < 1 para todo n nito pero ser inapropiado escoger un r < 1 e independiente de n tal que an+1 /an r para todo n sucientemente grande. Un ejemplo est a dado por las series arm onicas an+1 n = <1, an n+1 Ya que
n

(8.13)

l m

an+1 =1, an

(8.14)

no existe una raz on ja r < 1 y la prueba de la raz on falla. Ejemplo Prueba de la raz on de D Alembert. n Probar la convergencia de 2n n an+1 (n + 1)/2n+1 1n+1 = = . n an n/2 2 n Ya que an+1 3 an 4 tenemos convergencia. Alternativamente, an+1 1 = , n an 2 l m y de nuevo converge. (8.17) para n 2, (8.16) (8.15)

8.2. PRUEBAS DE CONVERGENCIA

181

8.2.4.

Prueba integral de Cauchy o Maclaurin.

Esta es otra clase de prueba de comparaci on en la cual comparamos una serie con una integral. Geom etricamente, comparamos el area de una serie de un rect angulo de ancho unitario con el area bajo la curva. Sea f (x) una funci on continua, mon otonamente decreciente en la cual f (n) = an . Luego esima suma n an converge si 0 f (x) dx es nita y diverge si la integral es innita. Para la i- parcial
i i

si =
n=1

an =
n=1 i+1

f (n) .

(8.18)

Pero si >
1

f (x) dx ,

(8.19)

por la gura 8.2a, f (x) es mon otonamente decreciente. Por otra parte, de la gura 8.2b,
i

si a1 <
1

f (x) dx ,

(8.20)

en la cual la serie est a representada por los rect angulos inscritos. Tomando el l mite como i , tenemos

f (x) dx <
1 n=1

an <
1

f (x) dx + a1 .

(8.21)

De modo que la serie innita converge o diverge cuando la integral correspondiente converge o diverge respectivamente.

(a) f(x) f(1)=a1 f(2)=a2 x


1 2 3 4

(b) f(x) f(1)=a1

x
1 2 3 4 5

Figura 8.2: (a) Comparaci on de la integral y la suma de bloques sobresalientes. (b) Comparaci on de la integral y la suma de bloques envueltos.

La prueba de la integral es particularmente u til para acotar superior e inferiormente el resto de una serie, despu es de que algunos n umeros de t erminos iniciales hayan sido sumados.

182 Esto es,


N

CAP ITULO 8. SERIES INFINITAS.

an =
n=1 n=1

an +
n=N +1

an ,

donde

f (x) dx <
N +1 n=N +1

an <
N +1

f (x) dx + aN +1 .

Podemos liberar la prueba de la integral de los requerimientos muy restrictivos de que la funci on de interpolaci on f (x) sea positiva y mon otonamente decreciente, basta que la funci on f (x) tenga una derivada continua que satisfaga
Nf Nf Nf

f (n) =
n=Ni +1 Ni

f (x) dx +
Ni

(x [x])f (x) dx .

(8.22)

Aqu [x] denota el entero mayor por debajo de x, tal que x [x] var a como diente de sierra entre 0 y 1. Ejemplo Funci on Zeta de Riemann. La funci on zeta de Riemann est a denida por

(p) =
n=1

n p .

(8.23)

Podemos tomar f (x) = xp y entonces xp+1 , p=1 p + 1 p x dx = 1 1 ln x , p=1 1

(8.24)

La integral y por lo tanto la serie son divergentes para p 1 y convergente para p > 1. De modo que la ecuaci on (8.23) lleva la condici on de p > 1. Esto, incidentalmente, es una prueba independiente de que la serie arm onica (p = 1) diverge y lo hace en forma logar tmica. La 1.000.000 1 suma del primer mill on de t erminos n , es solamente 14.392726. . . . Esta comparaci on con la integral tambi en puede ser usada para dar una cota superior a la constante Euler-Mascheroni denida por = l m Volviendo a las sumas parciales,
n n

1 ln n m m=1

(8.25)

sn =
m=1

ln n <
1

dx ln n + 1 . x

(8.26)

Evaluando la integral del lado derecho, sn < 1 para todo n y por lo tanto < 1. Realmente la constante de Euler-Mascheroni es 0.57721566. . . .

8.2. PRUEBAS DE CONVERGENCIA

183

8.2.5.

Prueba de Kummer.

Esta es la primera de tres pruebas que son algo m as dif ciles para aplicar que las anteriores. Su importancia radica en su poder y sensibilidad. Frecuentemente, al menos una de las tres funcionar a cuando las pruebas m as f aciles sean indeterminadas. Debe recordarse, sin embargo, que estas pruebas, como aquellas previamente discutidas, est an nalmente basadas en comparaciones. Esto signica que todas las pruebas de convergencia dadas aqu , incluyendo la de Kummer, puedan fallar algunas veces. Consideremos una serie de t erminos positivos ui y una sucesi on de constantes positivas nitas ai . Si un an an+1 C > 0 , (8.27) un+1 para todo n N , alg un n umero jo, entonces an y
i=1 i=1

ui converge. Si (8.28)

un an+1 0 un+1

1 a diverge, luego i i=1 ui diverge. La prueba de este poderoso test es simple y queda como ejercicio. Si las constantes positivas an de la prueba de Kummer son elegidas como an = n, tenemos la prueba de Raabe.

8.2.6.

Prueba de Raabe.
n un 1 un+1 P >1,
i

Si un > 0 y si (8.29) ui converge. (8.30)

para todo n N , donde N es un entero positivo independiente de n, entonces Si un n 1 1 , un+1 entonces i ui diverge ( n1 diverge). La forma en l mite en el test de Raabe es l m n un 1 un+1 =P .

(8.31)

Tenemos convergencia para P > 1, y divergencia para P < 1, y no hay prueba para P = 1 exactamente como con el test de Kummer. Esta indeterminancia est a expresada en que podemos encontrar ejemplos de una serie convergente y una divergente en que ambas series tienden a P = 1 en la ecuaci on (8.31). 1 El test de Raabe es m as sensible que la prueba de la raz on de DAlembert ya que n=1 n un m as sensible (y una relatidiverge m as lentamente que n=1 1. Obtenemos una prueba a vamente f acil de aplicar) si escogemos an = n ln n. Esto es la prueba de Gauss.

184

CAP ITULO 8. SERIES INFINITAS.

8.2.7.

Prueba de Gauss.
h B (n) un =1+ + 2 , un+1 n n

Si un > 0 para todo n nito y (8.32)

en el cual B (n) es una funci on acotada de n para n , luego i ui converge para h > 1 y diverge para h 1. La raz on un /un+1 de la ecuaci on (8.32) a menudo llega a ser como la raz on de dos formas cuadr aticas: n2 + a1 n + a0 un = 2 . (8.33) un+1 n + b1 n + b0 Se puede mostrar que tenemos convergencia para a1 > b1 + 1 y divergencia para a1 b1 + 1. El test de Gauss es un test extremadamente sensible para la convergencia de series. Esto funcionar a para pr acticamente todas las series que encontraremos en F sica. Para h > 1 o h < 1 la prueba se deduce directamente del test de Raabe
n

l m n 1 +

h B (n) B (n) m h + + 2 1 = l =h. n n n n

(8.34)

Si h = 1, falla el test de Raabe. Sin embargo, si volvemos al test de Kummer y usamos an = n ln n, tenemos 1 B (n) + 2 (n + 1) ln(n + 1) n n n (n + 1) (n + 1) ln(n + 1) = l m n ln n n n 1 = l m (n + 1) ln n ln n ln 1 + . n n l m n ln n 1 +

(8.35)

Pidiendo prestado un resultado de la secci on 8.6 (el cual no es dependiente de la prueba de Gauss) tenemos
n

l m (n + 1) ln 1 +

1 n

= l m (n + 1)
n

1 1 1 2 + 3 ... n 2n 3n

= 1 < 0 .

(8.36)

De modo que tenemos divergencia para h = 1. Esto es un ejemplo de una aplicaci on exitosa del test de Kummer en el cual el test de Raabe falla. Ejemplo Series de Legendre. La relaci on de recurrencia para la soluci on en serie de la ecuaci on de Legendre pueden ser colocadas en la forma a2j +2 2j (2j + 1) l(l + 1) = . (8.37) a2j (2j + 1)(2j + 2) Esto es equivalente a u2j +2 /u2j para x = +1. Para j l (8.38) a2j (2j + 1)(2j + 2) 2j + 2 1 = =1+ . a2j +2 2j (2j + 1) 2j j

8.2. PRUEBAS DE CONVERGENCIA

185

Por la ecuaci on (8.33) la serie es divergente. M as adelante exigiremos que las series de Legendre sean nitas (se corten) para x = 1. Eliminaremos la divergencia ajustando los par ametros n = 2j0 , un entero par. Esto truncar a la serie, convirtiendo la serie innita en un polinomio.

8.2.8.

Mejoramiento de convergencia.

En esta secci on no nos preocupar a establecer la convergencia como una propiedad matem atica abstracta. En la pr actica, la raz on de convergencia puede ser de considerable importancia. Aqu presentamos un m etodo que mejora la raz on de la convergencia de una serie ya convergente. El principio b asico de este m etodo, debido a Kummer, es formar una combinaci on lineal de nuestra serie lentamente convergente y una o m as series cuya suma es conocida. Entre las series conocidas, la colecci on

1 =
n=1

1 =1, n(n + 1) 1 1 = , n(n + 1)(n + 2) 4 1 1 = , n(n + 1)(n + 2)(n + 3) 18 . . . 1 1 = , n(n + 1)(n + 2) (n + p) p p!

2 =
n=1

3 =
n=1

. . .

p =
n=1

es particularmente u til. Las series est an combinadas t ermino a t ermino y los coecientes en combinaci on lineal son escogidos para cancelar los t erminos que convergen lentamente. Ejemplo Funci on zeta de Riemann, (3).
3 Sea la serie a ser sumada on 8.10 est a identicada como una funci on n=1 n . En la secci zeta de Riemann, (3). Formamos una combinaci on lineal 3

n
n=1

+ a2 2 =
n=1

n 3 +

a2 . 4

1 no est a incluida ya que converge m as lentamente que (3). Combinando t erminos, obtenemos sobre la mano izquierda

n=1

1 a2 + 3 n n(n + 1)(n + 2)

=
n=1

n2 (1 + a2 ) + 3n + 2 . n3 (n + 1)(n + 2)

Si escogemos a2 = 1, la ecuaci on precedente tiende a

(3) =
n=1

1 3n + 2 . = + 3 4 n=1 n (n + 1)(n + 2)

(8.39)

186

CAP ITULO 8. SERIES INFINITAS.

La serie resultante no es muy bonita pero converge como n4 , apreciablemente m as r apido 3 que n . El m etodo puede ser extendido incluyendo a3 3 para obtener la convergencia como n5 , a4 4 para obtener la convergencia como n6 , etc. Eventualmente, usted tiene que alcanzar un compromiso entre cu anta algebra usted hace y cu anta aritm etica la computadora hace. Como las computadoras lo hacen m as r apido, el balance est a seguramente sustituyendo menos algebra hecha por usted, por m as aritm etica realizada por el computador.

8.3.

Series alternadas.

En la secci on 8.2 nos limitamos a series de t erminos positivos. Ahora, en contraste, consideraremos series innitas en las cuales los signos se alternan. La cancelaci on parcial debida a la alternancia de los signos hace la convergencia m as r apida y mucho m as f acil de identicar. Probaremos que el criterio de Leibniz es una condici on general para la convergencia de una serie alternada.

8.3.1.

Criterio de Leibniz.

n+1 Consideremos la serie an con an > 0. Si an es mon otonamente decreciente n=1 (1) (para N sucientemente grande) y el l mn an = 0, entonces la serie converge. Para probar esto, examinemos las sumas parciales pares

s2n = a1 a2 + a3 . . . a2n , s2n+2 = s2n + (a2n+1 a2n+2 ) . Ya que a2n+1 > a2n+2 , tenemos s2n+2 > s2n . Por otra parte, s2n+2 = a1 (a2 a3 ) (a4 a5 ) . . . a2n+2 . De modo que, con cada par de t erminos a2p a2p+1 > 0, s2n+2 < a1 .

(8.40)

(8.41) (8.42)

(8.43)

Con las sumas parciales pares acotamos s2n < s2n+2 < a1 y los t erminos an decrecen mon otonamente aproxim andose a cero, esta serie alternada converge. Un resultado m as importante puede ser extra do de las sumas parciales. A partir de las diferencias entre el l mite de la serie S y las sumas parciales sn S sn = an+1 an+2 + an+3 an+4 + . . . = an+1 (an+2 an+3 ) (an+4 an+5 ) . . . o S sn < an+1 . (8.45) La ecuaci on (8.45) dice que el error en el corte de una serie alternada despu es de n t erminos es menor que an+1 , el primer t ermino excluido. Un conocimiento del error obtenido de esta manera puede ser de gran importancia pr actica. (8.44)

8.3. SERIES ALTERNADAS.

187

8.3.2.

Convergencia absoluta.

Dada una serie en t erminos de un en la cual un puede variar en signo, si |un | converge, entonces un se dice que es absolutamente convergente. Si un converge pero |un | diverge, la convergencia recibe el nombre de condicional. La serie alternada arm onica es un ejemplo simple de esta convergencia condicionada. Tenemos 1 1 1 1 (8.46) (1)n1 n1 = 1 + + + 2 3 4 n n=1 convergente por el criterio de Leibniz, pero

n 1 = 1 +
n=1

1 1 1 1 + + + + + 2 3 4 n

se ha demostrado que es divergente en la secci on 8.1 y 8.2. Podemos notar que todas las pruebas desarrolladas en la secci on 8.2 supone una serie de t erminos positivos. Por lo tanto, todas las pruebas en esa secci on garantizan la convergencia absoluta. Ejemplo Para 0 < x < la serie de Fourier

n=1

x cos(nx) = ln 2 sen n 2

(8.47)

converge teniendo coecientes que cambian de signo frecuentemente, pero no tanto para que el criterio de convergencia de Leibniz se aplique f acilmente. Apliquemos el test de la integral on por partes vemos de inmediato que de la ecuaci on (8.22). Usando integraci
1

cos(nx) sen(nx) dn = n nx

1 x

sen(nx) dn n2

converge para n , y la integral del lado derecho incluso converge absolutamente. El t ermino derivado en la ecuaci on (8.22) tiene la forma
1

x cos(nx) (n [n]) sen(nx) n n2

dn ,

donde el segundo t ermino converge absolutamente y no necesita ser considerado. Lo pr oxiN mo es observar que g (N ) = 1 (n [n]) sen(nx) dn es acotado para N , tal como N sen(nx) dn es acotado debido a la naturaleza peri odica de sen(nx) y a su regular cambio de signo. Usando integraci on por partes nuevamente
1

g (n) g (n) dn = n n

+
1 1

g (n) dn , n2

vemos que el segundo t ermino es absolutamente convergente, y el primero va a cero en el l mite superior. Por lo tanto la serie en la ecuaci on (8.47) converge, lo cual es duro de ver usando otro test de convergencia.

188

CAP ITULO 8. SERIES INFINITAS.

8.4.

Algebra de series.

Establecer la convergencia absoluta es importante porque puede probarse que las series absolutamente convergentes pueden ser manipuladas de acuerdo a las reglas familiares del algebra o aritm etica. 1. Si una serie innita es absolutamente convergente, la suma de la serie es independiente del orden en el cual los t erminos son a nadidos. 2. La serie puede ser multiplicada por otra serie absolutamente convergente. El l mite del producto ser a el producto de los l mites de las series individuales. El producto de las series, una doble serie, tambi en ser a absolutamente convergente. No hay tales garant as en series condicionalmente convergentes. Nuevamente consideremos la serie arm onica alternada. Si escribimos 1 es claro que la suma 1 1 1 + + = 1 2 3 4

1 1 2 3

1 1 4 5

(8.48)

(1)n1 n1 < 1 .
n=1

(8.49)

Sin embargo, si rearreglamos los t erminos sutilmente, podemos hacer que la serie arm onica alternada converja a 3/2. Reagrupamos los t erminos de la ecuaci on (8.48), tomando 1+ 1 1 + 3 5 1 + 2 + 1 1 1 1 1 + + + + 7 9 11 13 15 1 1 1 + + + 17 25 6 1 4 1 + . 8

1 1 + + 27 35

(8.50)

Tratando los t erminos agrupados en par entesis como t erminos simples por conveniencia, obtenemos las sumas parciales s1 s3 s5 s7 s9 = 1.5333 = 1.5218 = 1.5143 = 1.5103 = 1.5078 s2 = 1.0333 s4 = 1.2718 s6 = 1.3476 s8 = 1.3853 s10 = 1.4078

A partir de esta tabulaci on de los sn y el gr aco de sn versus n en la gura 8.3 es clara la convergencia a 3/2. Hemos rearreglado los t erminos, tomando t erminos positivos hasta que la suma parcial sea igual o mayor que 3/2, luego sumando los t erminos negativos hasta que la suma parcial caiga bajo 3/2, etc. Como las series se extienden hasta innito, todos los t erminos originales eventualmente aparecer an, pero las sumas parciales de este reordenamiento de esta serie arm onica alternada converge a 3/2. Por un reordenamiento de t erminos una serie condicionalmente convergente podr a ser hecha para converger a alg un valor deseado o para que diverja. Esta armaci on es dada como el teorema de Riemann. Obviamente, series condicionalmente convergentes deber an ser tratadas con precauci on.

8.4. ALGEBRA DE SERIES.

189

1.5

1.4

1.3 2 4 6 8 10

Figura 8.3: Serie arm onica alternada, rearreglo de t erminos para dar convergencia a 1.5.

8.4.1.

Mejoramiento de la convergencia, aproximaciones racionales.

La serie ln(1 + x) =
n=1

(1)n1

xn , n

1 < x 1 ,

(8.51)

converge muy suavemente cuando x se aproxima a +1. La raz on de convergencia podr a ser mejorada sustancialmente multiplicando ambos lados de la ecuaci on (8.51) por un polinomio y ajustando los coecientes del polinomio para cancelar las porciones que convergen m as lentamente en la serie. Consideremos la posibilidad m as simple: Multiplicar ln(1 + x) por 1 + a1 x.

(1 + a1 x) ln(1 + x) =
n=1

(1)n1

xn xn+1 + a1 . (1)n1 n n n=1

Combinando las dos series sobre la derecha t ermino a t ermino, obtenemos

(1 + a1 x) ln(1 + x) = x +
n=2

(1)n1 (1)n1
n=2

1 a1 n n1

xn

=x+

n(1 a1 ) 1 n x . n(n 1)

Claramente, si tomamos a1 = 1, el n en el numerador desaparece y nuestra serie combinada converge como n2 . Continuando este proceso, encontramos que (1 + 2x + x2 ) ln(1 + x) se anula como n3 , (1 + 3x + 3x2 + x3 ) ln(1 + x) se anula cuando n4 . En efecto estamos desplaz andonos desde una expansi on de serie simple de la ecuaci on (8.51) a una representaci on racional en la cual

190

CAP ITULO 8. SERIES INFINITAS.

la funci on ln(1 + x) est a representada por la raz on de una serie y un polinomio: x+ ln(1 + x) = (1)n xn n(n 1) n=1 1+x

Tales aproximaciones racionales pueden ser ambas compactas y precisas. Los programas computacionales hacen extensivo el uso de ellas.

8.4.2.

Reordenamiento de series dobles.

Otro aspecto del reordenamiento de series aparece en el tratamiento de series dobles (gura 8.4):

m= 0 n= 0 a00 1 2 3 a10 a20 a30

1 a01 a11 a21 a31

2 a02 a12

3 a03 a13

a22 a23 a32 a33

Figura 8.4: Series dobles, la suma sobre n es indicada por l neas segmentadas verticales.

an,m .
m=0 n=0

sustituyamos n=q0, m=pq 0 , (q p) . Esto resulta en la identidad


p

an,m =
m=0 n=0 p=0 q =0

aq,pq .

(8.52)

La suma sobre p y q de la ecuaci on (8.52) est a ilustrada en la gura 8.5. La sustituci on n=s0, m = r 2s 0 , s r 2

8.4. ALGEBRA DE SERIES.

191

p= 0 q= 0 a00 1 2 3

1 a01 a10

2 a02 a11

3 a03 a12

a20 a21 a30

Figura 8.5: Series dobles nuevamente, la primera suma es representada por l neas segmentadas verticales pero estas l neas verticales corresponden a las diagonales en la gura 8.4.

tiende a
[r/2]

an,m =
m=0 n=0 r=0 s=0

as,r2s .

(8.53)

con [r/2] = r/2 para r par, (r 1)/2 para r impar. La suma sobre r y s de la ecuaci on a mostrada en la gura 8.6. Las ecuaciones (8.52) y (8.53) son claramente reordena(8.53) est mientos del arreglo de coecientes an,m , reordenamientos que son v alidos en tanto tengamos convergencia absoluta. La combinaci on de las ecuaciones (8.52) y (8.53),

r= 0 1 2 3 4 s= 0 a00 a01 a02 a03 a04 1 2 a10 a11 a12 a20

Figura 8.6: Series dobles. La suma sobre s corresponde a la suma a lo largo de la l neas segmentadas inclinadas, en la gura 8.4.

[r/2]

aq,pq =
p=0 q =0 r=0 s=0

as,r2s .

(8.54)

192

CAP ITULO 8. SERIES INFINITAS.

es usada en la determinaci on de la forma en serie de los polinomios de Legendre.

8.5.

Series de funciones.

Extendemos nuestro concepto de series innitas para incluir la posibilidad que cada t ermino un pueda ser una funci on de alguna variable, un = un (x). Numerosas ilustraciones de tales series de funciones aparecer an m as adelante. Las sumas parciales llegan a ser funciones de la variable x sn (x) = u1 (x) + u2 (x) + + un (x) , (8.55)

tal como lo hacemos para la suma de serie, denimos el l mite como el l mite de las sumas parciales

un (x) = S (x) = l m sn (x) .


n=1 n

(8.56)

Hasta ahora nos hemos ocupado del comportamiento de las sumas parciales como una funci on de n. Ahora consideremos c omo las cantidades anteriores dependen de x. Aqu el concepto clave es la convergencia uniforme.

8.5.1.

Convergencia uniforme.

Si para cualquier > 0 peque no, existe un n umero N , independiente de x en el intervalo [a, b] con (a x b) tal que | S (x) sn (x) | < , n N , (8.57)

se dice que la serie converge uniformemente en el intervalo [a, b]. Esto dice que para que nuestra serie sea uniformemente convergente, debe ser posible encontrar un N nito tal que la cola de la serie innita, | no para i=N +1 ui (x)|, sea menor que un arbitrariamente peque todo x en el intervalo dado. Esta condici on, ecuaci on (8.57), la cual dene la convergencia uniforme, es ilustrada en la gura 8.7. El punto es que no importa cuan peque no sea podemos siempre tomar un n sucientemente grande tal que la magnitud absoluta de la diferencia entre S (x) y sn (x) sea menor que para todo x, a x b. Si esto no puede ser hecho, entonces un (x) no es uniformemente convergente en el intervalo [a, b]. Ejemplo

un (x) =
n=1 n=1

x . [(n 1)x + 1][nx + 1]

(8.58)

La suma parcial sn (x) = nx(nx + 1)1 puede ser vericada por inducci on matem atica. Por inspecci on esta expresi on para sn (x) es v alida para n = 1, 2. Suponemos que se mantiene

8.5. SERIES DE FUNCIONES.

193

S(x) + S(x) S(x) x x=a x=b


Figura 8.7: Convergencia uniforme.

sn (x)

para el t ermino n y probamos para n + 1. sn+1 = sn + x [nx + 1][(n + 1)x + 1] x nx + = [nx + 1] [nx + 1][(n + 1)x + 1] (n + 1)x , = (n + 1)x + 1

completando la prueba. Tomando n tenemos S (0) = l m sn (0) = 0 ,


n n

S (x = 0) = l m sn (x = 0) = 1 . Tenemos una discontinuidad en el l mite de la serie en x = 0. Sin embargo, sn (x) es una funci on continua de x, en el intervalo 0 x < 1, para todo n nito. La ecuaci on (8.57) con sucientemente peque no, ser a violado para todo n nito. Nuestra serie no converge uniformemente.

8.5.2.

Prueba M de Weierstrass.

La prueba m as com unmente usada para la convergencia uniforme es la prueba M de Weierstrass. Si podemos construir una serie de n umeros 1 Mi , en la cual Mi |ui (x)| para todo x en el intervalo [a, b] y 1 Mi es convergente, nuestra serie a uniforme1 ui (x) ser mente convergente en [a, b].

194

CAP ITULO 8. SERIES INFINITAS.


i

La prueba de este test M de Weierstrass es directa y simple. Ya que existen algunos n umeros N tal que n + 1 N ,

Mi converge,

Mi < .
i=n+1

(8.59)

Esto a partir de nuestra denici on de convergencia. Entonces, con |ui (x)| Mi para todo x en el intervalo a x b,

|ui (x)| < .


i=n+1

(8.60)

De modo que

|S (x) sn (x)| =
i=n+1

ui (x) < ,

(8.61)

y por denici on 1 ui (x) es uniformemente convergente en [a, b]. Ya que tenemos especicados valores absolutos en el planteamiento de la prueba M de Weierstrass, la serie 1 ui (x) tambi en es vista como serie absolutamente convergente. Podemos notar que la convergencia uniforme y convergencia absoluta son propiedades independientes. Una no implica la otra. Para ejemplos espec cos,

n=1

(1)n , n + x2

< x <

(8.62)

(1)n1
n=1

xn = ln(1 + x) , n

0x1,

(8.63)

converge uniformemente en los intervalos indicados pero no converge absolutamente. Por otra parte,

(1 x)xn =
n=1

1, 0x<1 , 0, x=1

(8.64)

converge absolutamente pero no uniformemente en [0, 1]. A partir de la denici on de convergencia uniforme podr amos mostrar que cualquier serie

f (x) =
n=1

un (x) ,

(8.65)

no puede converger uniformemente en ning un intervalo que incluya una discontinuidad de f (x). Ya que la prueba M de Weierstrass establece tanto la convergencia uniforme como absoluta, necesariamente falla para series que son uniformes pero condicionalmente convergentes.

8.5. SERIES DE FUNCIONES.

195

8.5.3.

Prueba de Abel.

Una prueba algo m as delicada para la convergencia uniforme ha sido dada por Abel. Si un (x) = an fn (x) , an = A , convergente,

y las funciones f (x) son mon otonas [fn+1 (x) fn (x)] y acotadas, 0 fn (x) M , para todo x en [a, b], entonces un (x) converge uniformemente en [a, b]. Las series uniformemente convergentes tienen tres propiedades particularmente u tiles. 1. Si los t erminos individuales un (x) son continuos, la suma de la serie

f (x) =
n=1

un (x) ,

(8.66)

es tambi en continua. 2. Si los t erminos individuales un (x) son continuos, las series pueden ser integradas t ermino a t ermino. La suma de las integrales es igual a la integral de la suma.
b b

f (x) dx =
a n=1 a

un (x)dx .

(8.67)

3. Las derivadas de la suma de la serie f (x) es igual a la suma de los t erminos individuales derivados, df (x) dun (x) = , (8.68) dx dx n=1 siempre que las siguientes condiciones sean satisfechas: un (x) y

n=1

dun (x) son continuas en [a, b]. dx dun (x) es uniformemente convergente en [a, b]. dx

La integraci on t ermino a t ermino de una serie uniformemente convergente2 requiere s olo continuidad de los t erminos individuales. Esta condici on casi siempre es satisfecha en las aplicaciones f sicas. La diferenciaci on t ermino a t ermino de una serie a menudo no es v alida porque deben satisfacer condiciones m as restrictivas. Por cierto, encontraremos casos en series de Fourier, en la cual la diferenciaci on t ermino a t ermino de una serie uniformemente convergente tiende a una serie divergente.
2

La integraci on t ermino a t ermino tambi en puede ser v alida en ausencia de convergencia uniforme.

196

CAP ITULO 8. SERIES INFINITAS.

8.6.

Expansi on de Taylor.

Esta es una expansi on de una funci on en una serie innita o en una serie nita m as un t ermino remanente. Los coecientes de los t erminos sucesivos de la serie involucra las derivadas sucesivas de la funci on. Este tipo de expansiones de son ampliamente usadas. Ahora derivaremos la expansi on de Taylor. Supongamos que nuestra funci on f (x) tiene una derivada n- esima continua en el intervalo a x b. Entonces, integrando esta n- esima derivada n veces,
x x

f (n) (x) dx = f (n1) (x)


a x a a x a

= f (n1) (x) f (n1) (a)


x

(n)

(x) dx dx = =f

[f (n1) (x) f (n1) (a)]dx


a (n2)

(8.69)

(x) f (n2) (a) (x a)f (n1) (a) .

Continuando, obtenemos
x

f (n) (x)(dx)3 = f (n3) (x) f (n3) (a) (x a)f (n2) (a)


a

(x a)2 (n1) f (a) . (8.70) 2

Finalmente, integrando por n- esima vez,


x

f (n) (x)(dx)n = f (x) f (a) (x a)f (a)+ (x a)n1 (n1) (x a)2 f (a) f (a) . 2! (n 1)! (8.71)

Note que esta expresi on es exacta. No hay t erminos que hayan sido excluidos, ni aproximaciones hechas. Ahora, resolviendo para f (x), tenemos f (x) = f (a) + (x a)f (a) + (x a)2 (x a)n1 (n1) f (a) + + f (a) + Rn . 2! (n 1)! (8.72)

El remanente, Rn , est a dado por la integral n-dimensional


x

f (n) (x)(dx)n .

(8.73)

Este remanente, ecuaci on (8.73), puede ser puesto en una forma m as inteligible usando la forma integral del teorema del valor medio
x

g (x) dx = (x a)g ( ) ,
a

(8.74)

con a x. Integrando n veces obtenemos la forma Lagrangiana del remanente: Rn = (x a)n (n) f ( ) . n! (8.75)

DE TAYLOR. 8.6. EXPANSION

197

Con la expansi on de Taylor en esta forma no estamos interesados en cualquier pregunta de convergencia de series innitas. Esta serie es nita, la sola pregunta que nos importa es la magnitud del remanente. Cuando la funci on f (x) es tal que
n

l m Rn = 0 ,

(8.76)

la ecuaci on (8.72) se convierte en la serie de Taylor f (x) = f (a) + (x a)f (a) +

(x a)2 f (a) + 2!

=
n=0

(x a)n (n) f (a) . n!

(8.77)

Nuestra serie de Taylor especica el valor de una funci on en un punto, x, en t erminos del valor de la funci on y sus derivadas en un punto de referencia, a. Esta es una expansi on en potencias de un cambio en la variable, x = x a en este caso. La notaci on puede ser variada seg un la conveniencia del usuario. Con la sustituci on x x + h y a x tenemos una forma alterna hn (n) f (x + h) = f (x) . n! n=0 Cuando usamos el operador D = d/dx la expansi on de Taylor se convierte en

f (x + h) =
n=0

hn Dn f (x) = ehD f (x) . n!

Un forma en operadores equivalente de la expansi on e Taylor. Una derivaci on de la expansi on de Taylor en el contexto de la teor a de variable compleja aparece en el pr oximo cap tulo.

8.6.1.

Teorema de Maclaurin.

Si expandimos alrededor del origen (a = 0), la ecuaci on (8.77) es conocida como la serie de Maclaurin f (x) = f (0) + xf (0) +

x2 f (0) + 2!

=
n=0

xn (n) f (0) . n!

(8.78)

Una aplicaci on inmediata de la serie de Maclaurin (o serie de Taylor) est a en la expansi on de varias funciones transcendentales en una serie innita. Ejemplo Sea f (x) = ex . Diferenciando, tenemos f (n) (0) = 1 , (8.79)

198

CAP ITULO 8. SERIES INFINITAS.

para todo n, n = 1, 2, 3 . . .. Entonces, para la ecuaci on (8.78), tenemos x2 x3 + + = e =1+x+ 2! 3!


x

n=0

xn . n!

(8.80)

Esta es la expansi on en serie de la funci on exponencial. Algunos autores usan esta serie para denir la funci on exponencial. Aunque esta serie es claramente convergente para todo x, podr amos chequear el t ermino remanente, Rn . Por la ecuaci on (8.75) tenemos Rn = xn (n) f ( ) n! xn = e , 0 || x . n! xn x e n!

(8.81)

Por lo tanto | Rn | y
n

(8.82) (8.83)

l m Rn = 0

para todo los valores nitos de x, el cual indica que esta expansi on de Maclaurin de ex es v alida sobre el intervalo < x < . Ejemplo Sea f (x) = ln(1 + x). Diferenciando, obtenemos f (x) = f
(n)

1 , (1 + x)
n1

(x) = (1)

1 (n 1)! . (1 + x)n

(8.84)

La expansi on de Maclaurin produce ln(1 + x) = x x2 x3 x4 + + + Rn 2 3 4 n xp = (1)p1 + Rn . p p=1

(8.85)

En este caso el remanente est a dado por Rn = xn (n) f ( ) , 0 x n! xn , 0x1. n

(8.86)

DE TAYLOR. 8.6. EXPANSION

199

Ahora el remanente se aproxima a cero cuando n crece indenidamente, dado 0 x 13 . Como una serie innita xn ln(1 + x) = (1)n1 , (8.87) n n=1 la cual converge para 1 < x 1. El intervalo 1 < x < 1 es f acilmente establecido por la prueba de la raz on de D Alembert. La convergencia en x = 1 se deduce a partir del criterio de Leibniz. En particular, en x = 1, tenemos ln 2 = 1 1 1 1 1 + + 2 3 4 5 1 (1)n 1 , = n n=1

(8.88)

la serie arm onica alterna condicionalmente convergente.

8.6.2.

Teorema Binomial.

Una segunda, aplicaci on extremadamente importante de las expansiones de Taylor y Maclaurin es la derivaci on del teorema binomial para potencias negativas y/o no enteras. Sea f (x) = (1 + x)m , en la cual m puede ser negativo y no est a limitado a valores enteros. La aplicaci on directa de la ecuaci on (8.78) da (1 + x)m = 1 + mx + Para esta funci on el remanente es Rn = xn (1 + )mn m(m 1) (m n + 1) n! xn m(m 1) (m n + 1) . n! (8.90) m(m 1) 2 x + + Rn . 2! (8.89)

y con 0 x. Ahora, para n > m, (1 + )mn es un m aximo para = 0. Por lo tanto Rn (8.91)

Note que los factores dependientes de m no dan un cero a menos que m sea entero no negativo; Rn tiende a cero cuando n si x est a restringido al intervalo 0 x 1. La expansi on binomial resulta (1 + x)m = 1 + mx + En otra notaci on equivalente

m(m 1) 2 m(m 1)(m 2) 3 x + x + . 2! 3!

(8.92)

(1 + x)m =
n=0

m! xn n!(m n)! m n x . n (8.93)

=
n=0
3

Este intervalo puede ser f acilmente extendido a 1 < x 1 pero no a x = 1.

200

CAP ITULO 8. SERIES INFINITAS.

Cuando la cantidad m es igual a m!/(n!(m n)!), es llamado el coeciente binomial. Aunque n hemos mostrado solamente que el remanente se anula,
n

l m Rn = 0 ,

para 0 x < 1, realmente puede mostrarse que la serie en la ecuaci on (8.92) converge en el intervalo extendido 1 < x < 1. Para m un entero, (m n)! = si n > m y las series autom aticamente terminan en n = m. Ejemplo Energ a relativista. La energ a total relativista de una part cula es E = mc
2

v2 1 2 c

1/2

. 1 2 mv . 2

(8.94)

Comparemos esta ecuaci on con la energ a cin etica cl asica,

v2 1 Por la ecuaci on (8.92) con x = 2 y m = tenemos c 2 E = mc2 1 + o 1 5 3 v2 E = mc + mv 2 + mv 2 2 + mv 2 2 8 c 16


2

1 2

v2 c2

(1/2)(3/2) 2! v2 c2
3

v2 c2

(1/2)(3/2)(5/2) 3!

v2 c2

+ .

(8.95)

El primer t ermino, mc2 , lo identicamos como la masa en reposo. Entonces Ecin etica 1 3 v2 5 = mv 2 1 + 2 + 2 4c 8 v2 c2
2

(8.96)

Para la velocidad de la part cula v c, donde c es la velocidad de la luz, la expresi on en los par entesis cuadrados se reduce a la unidad y vemos que la porci on cin etica de la energ a relativista total concuerda con el resultado cl asico. Para polinomios podemos generalizar la expansi on binomial a (a1 + a2 + + am )n = n! m an1 an2 an m , n1 !n2 ! nm ! 1 2

donde la suma anterior incluye todas las combinaciones diferentes de los n1 , n2 , . . . , nm tal que m ni y n son enteros. Esta generalizaci on encuentra considerables usos i=1 ni = n. Aqu en Mec anica Estad stica.

8.7. SERIES DE POTENCIAS.

201

Las series de Maclaurin pueden aparecer algunas veces indirectamente m as que el uso directo de la ecuaci on (8.78). Por ejemplo, la manera m as conveniente para obtener la expansi on en serie (2n 1)!! x2n+1 x3 3x5 1 sen x = =x+ + + , (8.97) (2n)!! 2n + 1 6 40 n=0 es hacer uso de la relaci on sen1 x =
0 2 1/2 x

dt . (1 t2 )1/2

Expandimos (1 t ) (teorema binomial) y luego integramos t ermino a t ermino. Esta on integraci on t ermino a t ermino es discutida en la secci on 8.7. El resultado es la ecuaci (8.97). Finalmente, podemos tomar el l mite cuando x 1. La serie converge por la prueba de Gauss.

8.6.3.

Expansi on de Taylor de m as de una variable.

La funci on f tiene m as de una variable independiente, es decir, f = f (x, y ), la expansi on de Taylor se convierte en f (x, y ) = f (a, b) + (x a) f f + (y b) + x y 2 1 2f 2f f (x a)2 2 + 2(x a)(y b) + (y b)2 2 + + 2! x xy y 3 3 1 f f + (x a)3 3 + 3(x a)2 (y b) 2 + 3! x x y 3 3 f f + (y b)3 3 + , +3(x a)(y b)2 2 xy y

(8.98)

con todas las derivadas evaluadas en el punto (a, b). Usando j t = xj xj 0 , podemos escribir la expansi on de Taylor para m variables independientes en la forma simb olica

f (xj ) =
n=0

tn n!

i=1

i xi

f (xk )
xk = xk 0

(8.99)

Una forma vectorial conveniente es

(r + a) =
n=0

1 (a )n (r) . n!

(8.100)

8.7.

Series de potencias.

Las series de potencias son un tipo especial y extremadamente u til de series innitas de la forma f (x) = a0 + a1 x + a2 x2 + a3 x3 +

=
n=0

an xn ,

(8.101)

202

CAP ITULO 8. SERIES INFINITAS.

donde los coecientes ai son constantes e independientes de x.4

8.7.1.

Convergencia.

La ecuaci on (8.101) puede testearse r apidamente para la convergencia ya sea por la prueba de la ra z de Cauchy o por la prueba de la raz on de D Alembert. Si an+1 = R 1 , n an l m (8.102)

la serie converge para R < x < R. Este es el intervalo o radio de convergencia. Ya que las pruebas de la ra z y la raz on fallan cuando el l mite es la unidad, el punto nal del intervalo requiere atenci on especial. Por ejemplo, si an = n1 , entonces R = 1 y, la serie converge para x = 1, pero diverge para x = +1. Si an = n!, entonces R = 0 y la serie diverge para todo x = 0.

8.8.

Convergencia uniforme y absoluta.

Supongamos que nuestra serie de potencia es convergente para R < x < R; entonces ser a uniforme y absolutamente convergente en cualquier intervalo interior, S x S , donde 0 < S < R. Esto podr a ser probado directamente por la prueba M de Weierstrass i usando Mi = |ai |S .

8.8.1.

Continuidad.

Ya que cada t ermino un (x) = an xn es una funci on continua de x y f (x) = an xn converge uniformemente para S x S , f (x) deber a ser una funci on continua en el intervalo de convergencia uniforme. Este comportamiento es contradictorio con el comportamiento impresionantemente diferente de las series de Fourier. Las series de Fourier son usadas frecuentemente para representar funciones discontinuas tales como ondas cuadradas y ondas dientes de sierra.

8.8.2.

Diferenciaci on e integraci on.

Con un (x) continua y an xn uniformemente convergente, encontramos que la serie diferenciada es una serie de potencia con funciones continuas y del mismo radio de convergencia que la serie original. Los nuevos factores introducidos por diferenciaci on (o integraci on) no afecta ni a la prueba de la ra z ni a la de la raz on. Por lo tanto nuestra serie podr a ser diferenciada o integrada tan a menudo como deseemos dentro del intervalo de convergencia uniforme. En vista de las restricciones algo severas puestas en la diferenciaci on, esto es un resultado valioso y notable.
La ecuaci on (8.101) puede ser reescrita con z = x + iy , reemplazando a x. Luego todos los resultados de esta secci on se aplican a series complejas
4

8.8. CONVERGENCIA UNIFORME Y ABSOLUTA.

203

8.8.3.

Teorema de unicidad.

En la secci on precedente, usando las series de Maclaurin, expandimos ex y ln(1 + x) en series innitas. En los cap tulos venideros las funciones son frecuentemente representadas e incluso denidas por series innitas. Ahora estableceremos que la representaci on de la serie de potencias es u nica. Si

f (x) =
n=0

an xn , bn x n ,
n=0

Ra < x < Ra (8.103) Rb < x < Rb ,

con intervalos de convergencia sobrepuestos, incluyendo el origen, luego an = b n , (8.104)

para todo n; esto es, supongamos dos representaciones de serie de potencias (diferentes) y luego procedamos a demostrar que las dos son id enticas. De la ecuaci on (8.103)

an x =
n=0 n=0

bn x n ,

R < x < R

(8.105)

donde R es el m as peque no entre Ra , Rb . Haciendo x = 0 para eliminar todo salvo el t ermino constante, obtenemos a0 = b0 . (8.106) Ahora, aprovech andose de la diferenciabilidad de nuestra serie de potencia, diferenciamos la ecuaci on (8.105), obteniendo

nan x
n=1

n1

=
n=1

nbn xn1 .

(8.107)

De nuevo ajustamos x = 0 para aislar el nuevo t ermino constante y encontramos a1 = b1 . Repitiendo este proceso n veces, obtenemos an = bn , (8.109) (8.108)

lo cual muestra que las dos series coinciden. Por lo tanto nuestra representaci on en serie de potencia es u nica. Esto ser a un punto crucial cuando usamos una serie de potencia para desarrollar soluciones de ecuaciones diferenciales. Esta unicidad de las series de potencia aparece frecuentemente en f sica te orica. La teor a de perturbaciones en Mec anica Cu antica es un ejemplo de esto. La representaci on en serie de potencia de funciones es a menudo u til en formas de evaluaci on indeterminadas, particularmente cuando la regla de lHospital puede ser inconveniente de aplicar.

204 Ejemplo Evaluemos 1 cos x . x0 x2 l m

CAP ITULO 8. SERIES INFINITAS.

(8.110)

Remplazando cos x por su expansi on en serie de Maclaurin, obtenemos 1 (1 x2 /2! + x4 /4! ) 1 cos x = x2 x2 2 4 x /2! x /4! + = x2 2 x 1 + . = 2! 4! Tomando x 0, tenemos 1 cos x 1 = . 2 x0 x 2 l m (8.111)

La unicidad de las series de potencia signica que los coecientes an pueden ser identicadas con las derivadas en una serie de Maclaurin. A partir de

f (x) =
n0

an x =
n=0

1 (n) f (0)xn n!

tenemos an =

1 (n) f (0) . n!

8.8.4.

Inversi on de series de potencia.

Supongamos que tenemos una serie y y0 = a1 (x x0 ) + a2 (x x0 )2 +

=
n=1

an (x x0 )n ,

(8.112)

en la cual est a dada (y y0 ) en t erminos de (x x0 ). Sin embargo, podr a ser deseable tener una expresi on expl cita para (x x0 ) en t erminos de (y y0 ). Necesitamos resolver la ecuaci on (8.112) para (x x0 ) por inversi on de nuestra serie. Supongamos que

x x0 =
n=0

bn (y y0 )n ,

(8.113)

con bn determinado en t erminos de los supuestamente conocidos an . Una aproximaci on a fuerza bruta, la cual es perfectamente adecuada para los primeros coecientes, ya que es simplemente sustituir la ecuaci on (8.112) en la ecuaci on (8.113). Igualando los coecientes

8.9. INTEGRALES EL IPTICAS.

205

de (x x0 )n en ambos lados de la ecuaci on (8.113), ya que la serie de potencia es u nica, obtenemos b1 = 1 , a1 a2 b2 = 3 , a1 1 b3 = 5 (2a2 2 a1 a3 ) , a1 1 3 b4 = 7 (5a1 a2 a3 a2 1 a4 5a2 ) , a1

(8.114)

y as sucesivamente.

Los coecientes mayores son listados en tablas generalmente. Una aproximaci on m as general y mucho m as elegante es desarrollada usando variables complejas.

8.9.

Integrales el pticas.

Las integrales el pticas son incluidas aqu parcialmente como una ilustraci on del uso de las series de potencias y por su propio inter es intr nseco. Este inter es incluye la ocurrencia de las integrales el pticas en una gran variedad de problemas f sicos. Ejemplo Per odo de un p endulo simple. Para peque nas oscilaciones en la amplitud nuestro p endulo, gura 8.8, tiene un movi1/2 miento arm onico simple con un per odo T = 2 (l/g ) . Para una amplitud grande M tal que sen M = M , la segunda ley de movimiento de Newton y las ecuaciones de Lagrange conducen a una ecuaci on diferencial no lineal (sen es una funci on no lineal de ), as que necesitamos un acercamiento diferente.

Figura 8.8: P endulo simple.

La masa oscilante m tiene una energ a cin etica de ml2 (d/dt)2 /2 y una energ a potencial de mgl cos ( = /2 como la elecci on del cero de la energ a potencial). Ya que d/dt = 0 en = M , el principio de la conservaci on de la energ a da 1 2 ml 2 d dt
2

mgl cos = mgl cos M .

(8.115)

206 Resolviendo para d/dt obtenemos d = dt 2g l


1/2

CAP ITULO 8. SERIES INFINITAS.

(cos cos M )1/2

(8.116)

con la cancelaci on de la masa m. Tomando t como cero cuando = 0 y d/dt > 0. Una integraci on desde = 0 a = M produce
M 0

(cos cos M )

1/2

d =

2g l

1/2 0

dt =

2g l

1/2

t.

(8.117)

Esto es 1/4 del ciclo, y por lo tanto el tiempo t es 1/4 del per odo, T . Notemos que M , trataremos la sustituci on M sen = sen sen . (8.118) 2 2 Con esto, la ecuaci on (8.117) se convierte en T =4 l g
1/2 0 /2

d 1 sen2 M 2 sen2

(8.119)

Aunque no hay un obvio mejoramiento en la ecuaci on (8.117), la integral ahora corresponde a la integral el ptica completa del primer tipo, K (sen M /2). A partir de la expansi on de serie, el per odo de nuestro p endulo puede ser desarrollado como una serie de potencia en sen M /2: T = 2 l g
1/2

1+

1 M 9 M sen2 + sen4 + 4 2 64 2

(8.120)

8.9.1.

Deniciones.

Generalizando el ejemplo anterior para incluir el l mite superior como una variable, la integral el ptica del primer tipo est a denida como

F (\) =
0

d 1 sen2 sen2 , 0m<1.

(8.121)

o F (x\m) =
0

dt (1 t2 )(1 mt2 )

(8.122)

Para = /2, x = 1, tenemos la integral el ptica completa de primer tipo,


/2

K (m) =
0 1

=
0

d 1 m sen2 dt

(8.123) ,

(1 t2 )(1 mt2 )

con m = sen2 , 0 m < 1.

8.9. INTEGRALES EL IPTICAS. La integral el ptica de segundo tipo est a denida por

207

E (\) =
0

1 sen2 sen2 d

(8.124)

o
x

E (x\m) =
0

1 mt2 dt , 1 t2

0m<1

(8.125)

Nuevamente, para el caso = /2, x = 1,tenemos la integral el ptica completa de segundo tipo:
/2

E (m) =
0 1

1 m sen2 d (8.126) 0m<1.

=
0

1 mt2 dt , 1 t2

La gura 8.9 muestra el comportamiento de K (m) y E (m). Los valores de ambas funciones pueden encontrarse en tablas o evaluar en software como Mathematica.
3

K(m) /2

E(m)

0.2

0.4

0.6

0.8

Figura 8.9: Integrales el pticas completas, K (m), E (m).

8.9.2.

Expansi on de series.

Para nuestro intervalo 0 m < 1, el denominador de K (m) puede ser expandido en serie binomial 1 3 (1 m sen2 )1/2 = 1 + m sen2 + m2 sen4 + 2 8 (2n 1)!! n = m sen2n . (2 n )!! n=0

(8.127)

208

CAP ITULO 8. SERIES INFINITAS.

Para cualquier intervalo cerrado [0, mmax ], con mmax < 1, esta serie es uniformemente convergente y puede ser integrada t ermino a t ermino.
/2

sen2n d =
0

(2n 1)!! . (2n)!! 2

(8.128)

De modo que 1+ K (m) = 2 Similarmente, E (m) = 1 2 1 2


2

1 2

m+

13 24

m +

135 246

m3 +

(8.129)

m 1

13 24

m2 3

135 246

m3 5

(8.130)

M as adelante estas series son identicadas como funciones hipergeom etricas, y tenemos K (m) = E (m) = 2 F1 2 1 1 , , 1; m 2 2 (8.131) (8.132)

1 1 2 F1 , , 1; m 2 2 2

8.9.3.

Valores l mites.

De las series en las ecuaciones (8.129) y (8.130), o a partir de las integrales denidas, obtenemos l m K (m) = , (8.133) m0 2 l m E (m) = . (8.134) m0 2 Para m 1, las expansiones en series no son muy u tiles, A partir de la representaci on integral tenemos que l m K (m) = , (8.135)
m1

diverge logar tmicamente, y por otra parte, la integral para E (m) tiene un l mite nito
m1

l m E (m) = 1 .

(8.136)

Las integrales el pticas han sido usadas ampliamente en el pasado para evaluar integrales. Por ejemplo, integrales de la forma
x

I=
0

R(t,

a4 t4 + a3 t3 + a2 t2 + a1 t + a0 ) dt ,

donde R es una funci on racional de t y del radical, pueden ser expresadas en t erminos de integrales el pticas. Con los computadores actuales disponibles para una evaluaci on num erica r apida y directa, el inter es en estas t ecnicas de integrales el pticas ha declinado. Sin embargo, las integrales el pticas mantienen su inter es a causa de su apariencia en problemas en F sica.

8.10. NUMEROS DE BERNOULLI.

209

8.10.

N umeros de Bernoulli.

Los n umeros de Bernoulli fueron introducidos por Jacques Bernoulli. Hay muchas deniciones equivalentes, pero debe tenerse extremo cuidado, porque algunos autores introducen variaciones en la numeraci on o en signo. Un acercamiento relativamente simple para denir los n umeros de Bernoulli es por la serie5 x = x e 1

n=0

Bn xn , n!

(8.137)

la cual converge para |x| < 2 usando el test del cociente. Diferenciando esta serie de potencia repetidamente y luego evaluando para x = 0, obtenemos Bn = Espec camente, d B1 = dx x x e 1 1 xex = x e 1 (ex 1)2 =
x=0

dn dxn

ex

x 1

.
x=0

(8.138)

x=0

1 , 2

(8.139)

como puede ser visto por la expansi on en series de los denominadores. Usando B0 = 1 y B1 = 1/2, es f acil vericar que la funci on x x 1+ = x e 1 2

n=2

Bn xn x x 1 , = x n! e 1 2

(8.140)

es par en x, tal que todos los B2n+1 = 0. Para derivar una relaci on de recurrencia para los n umeros de Bernoulli, multiplicamos ex 1 x =1= x ex 1 xm (m + 1)! m=0

x B2n x2n 1 + 2 n=1 (2n)!

=1+
m=1

1 1 xN + (m + 1)! 2 m! N =2

1nN/2

B2n . [(2n)!(N 2n + 1)!] (8.141)

La ecuaci on (8.141) produce 1 (N + 1) 1 = 2 la cual es equivalente a 1 N = 2 N 1=


n=1
5

B2n
1nN/2

N +1 2n

1 = (N 1) , 2

(8.142)

B2n
n=1 N 1

2N + 1 2n 2N 2n .

, (8.143)

B2n

La funci on

ex

x puede ser considerada una funci on generatriz ya que genera los n umeros de Bernoulli. 1

210

CAP ITULO 8. SERIES INFINITAS.

n Bn Bn 0 1 1.0000 00000 1 1 2 -0.5000 00000 1 2 0.1666 66667 6 1 3 30 -0.0333 33333 1 4 0.0238 09524 42 1 -0.0333 33333 5 30 5 6 0.0757 57576 66 Cuadro 8.1: N umeros de Bernoulli A partir de la ecuaci on (8.143) los n umeros de Bernoulli en la tabla 8.1 se obtienen r apidamente. Si la variable x en la ecuaci on (8.137) es remplazada por 2xi (y B1 elegido igual a -1/2), obtenemos una denici on alternativa (y equivalente) de B2n , la expresi on

x cot x =
n=0

(1)n B2n

(2x)2n , (2n)!

< x < .

(8.144)

Usando el m etodo del residuo o trabajando a partir de la representaci on de producto innito de sen(x), encontramos que B2n (1)n1 2(2n)! = (2 )2n

p=1

1 , p 2n

n = 1, 2, 3 . . . .

(8.145)

Esta representaci on de los n umeros de Bernoulli fue descubierta por Euler. Es f acil ver a mite cuando n . Ilustrando el partir de la ecuaci on (8.145) que |B2n | aumenta sin l comportamiento divergente de los n umeros de Bernoulli, tenemos B20 = 5.291 102 B200 = 3.647 10215 . Algunos autores preeren denir los n umeros de Bernoulli con una versi on modicada de la ecuaci on (8.145) usando 2(2n)! 1 B2n = , (8.146) 2 n (2 ) p=1 p2n el sub ndice es justo la mitad de nuestro sub ndice original y todos los signos son positivos. Nuevamente, se debe chequear cuidadosamente la denici on que se est a usando de los n umeros de Bernoulli. Los n umeros de Bernoulli aparecen frecuentemente en teor a de n umeros. El teorema de von Standt-Clausen establece que B2n = An 1 1 1 1 , p1 p2 p3 pk (8.147)

8.10. NUMEROS DE BERNOULLI.

211

en el cual An es un entero y p1 , p2 , . . . pk son n umeros primos tal que pi 1 es un divisor de 2n. Podemos f acilmente vericar que esto se satisface para B6 (A3 = 1, p = 2, 3, 7) , B8 (A4 = 1, p = 2, 3, 5) , B10 (A5 = 1, p = 2, 3, 11) , y otros casos especiales. Los n umeros de Bernoulli aparecen en la suma de potencias enteras de enteros,
N

(8.148)

jp ,
j =1

p entero.

y en numerosas expansiones de series de las funciones trascendentales, incluyendo tan x, cot x, sen1 x, ln | sen x|, ln | cos x|, ln | tan x|, tanh x, coth x y cosh1 x. Por ejemplo, x3 2 5 (1)n1 22n (22n 1)B2n 2n1 + x + + x + . tan(x) = x + 3 15 (2n)! (8.149)

Los n umeros de Bernoulli probablemente vengan en tales expansiones en series a causa de las ecuaciones de denici on (8.137) y (8.143) y de su relaci on con la funci on zeta de Riemann

(2n) =
p=1

1 . p 2n

(8.150)

8.10.1.

Funciones de Bernoulli.
xexs = ex 1

acilmente generalizada, tenemos Si la ecuaci on (8.137) puede ser f Bn (s)


n=0

xn . n!

(8.151)

deniendo las funciones de Bernoulli, Bn (s). Las primeras siete funciones de Bernoulli est an dadas en la tabla 8.2. De la funci on generadora, ecuaci on (8.151), Bn (0) = Bn , n = 1, 2, . . . . (8.152)

la funci on de Bernoulli evaluadas en cero es igual al correspondiente n umero de Bernoulli. Dos propiedades particularmente importantes de las funciones de Bernoulli se deducen a partir de la denici on: una relaci on de diferenciaci on Bn (s) = nBn1 (s) , y una relaci on de simetr a Bn (1) = (1)n Bn (0) , n = 1, 2, . . . . (8.154) n = 1, 2, . . . . (8.153)

Estas relaciones son usadas en el desarrollo de la f ormula de integraci on de Euler-Maclaurin.

212

CAP ITULO 8. SERIES INFINITAS.

B0 B1 B2 B3 B4 B5 B6

= = = = = = =

1 x 1 2 x2 x + 1 6 3 2 1 3 x 2x + 2 x 1 4 3 2 x 2x + x 30 5 4 5 2 1 x5 2 x +3 x 6 x 1 2 x4 2 x + x6 3x5 + 5 2

1 42

Cuadro 8.2: Funciones de Bernoulli

8.10.2.

F ormula de integraci on de Euler-Maclaurin.

Uno de los usos de las funciones de Bernoulli es la derivaci on de la f ormula de integraci on de Euler-Maclaurin. Esta f ormula es usada en el desarrollo de una expresi on asint otica para la funci on factorial, serie de Stirling. La t ecnica es integraci on por partes repetida, usando la ecuaci on (8.153) para crear nuevas derivadas. Comenzamos con
1 1

f (x) dx =
0 0

f (x)B0 (x) dx .

(8.155)

A partir de la ecuaci on (8.153) B1 (x) = B0 (x) = 1 . Sustituyendo B1 (x) en la ecuaci on (8.155) e integrando por partes, obtenemos
1 1

(8.156)

f (x) dx = f (1)B1 (1) f (0)B1 (0)


0 0

f (x)B1 (x) dx (8.157)

1 = [f (1) f (0)] 2

f (x)B1 (x) dx
0

Nuevamente, usando la ecuaci on (8.153), tenemos 1 B1 (x) = B2 (x) , 2 e integrando por partes
1 0

(8.158)

1 1 f (x) dx = [f (1) f (0)] [f (1)B2 (1) f (0)B2 (0)]+ 2 2! 1 1 f (2) (x)B2 (x) dx . 2! 0

(8.159)

Usando las relaciones, B2n (1) = B2n (0) = B2n , B2n+1 (1) = B2n+1 (0) = 0 , n = 0, 1, 2, . . . n = 1, 2, 3, . . . , (8.160)

ZETA DE RIEMANN. 8.11. FUNCION y continuando este proceso, tenemos


1 0

213

1 f (x) dx = [f (1) f (0)] 2 1 + (2p)!


1

p=1

1 B2p [f (2p1) (1) f (2p1) (0)]+ (2p)!

(8.161)

f (2q) (x)B2q (x) dx .


0

Esta es la f ormula de integraci on de Euler-Maclaurin. Supone que la funci on f (x) tiene todas las derivadas requeridas. El intervalo de integraci on en la ecuaci on (8.161) puede ser trasladado de [0, 1] a [1, 2] reemplazando f (x) por f (x + 1). Sumando tales resultados hasta [n 1, n],
n 0

1 1 f (x) dx = f (0) + f (1) + f (2) + + f (n 1) + f (n)+ 2 2


q

p=1

1 1 B2p [f (2p1) (n) f (2p1) (0)] + (2p)! (2p)!

n1

B2q (x)
0 =0

f (2q) (x + ) dx . (8.162)

1 1 Los t erminos 2 f (0) + f (1) + . . . + 2 f (n) aparecen exactamente como una integraci on o cuadratura trapezoidal. La suma sobre p puede ser interpretada como una correcci on a la on de la f ormula aproximaci on trapezoidal. La ecuaci on (8.162) es la forma usada en la derivaci de Stirling. La f ormula de Euler-Maclaurin es a menudo u til para sumar series al convertirlas en integrales.

8.11.

Funci on zeta de Riemann.

2n Estas series fueron usadas como series de comparaci on para probar la conp=1 p vergencia y en la ecuaci on (8.144) como una denici on de los n umeros de Bernoulli, B2n . Tambi en sirve para denir la funci on zeta de Riemann por

(s)
n=1

1 , ns

s>1.

(8.163)

La tabla 8.3 muestra los valores de (s) para s entero, s = 2, 3, . . . , 10. La gura 8.10 es un gr aco de (s) 1. Una expresi on integral para esta funci on zeta de Riemann aparecer a como parte del desarrollo de la funci on gama. Otra interesante expresi on para la funci on zeta puede ser derivada como (s)(1 2s ) = 1 + 1 1 + s + s 2 3 1 1 1 + s + s + s 2 4 6 (8.164)

eliminando todos los ns , donde n es un m ultiplo de 2. Entonces 1 1 1 1 (s)(1 2s )(1 3s ) = 1 + s + s + s + s + 3 5 7 9 1 1 1 + + + , 3s 9s 15s

(8.165)

214

CAP ITULO 8. SERIES INFINITAS.

s 2 3 4 5 6 7 8 9 10

(s) 1.64493 40668 1.20205 69032 1.08232 32337 1.03692 77551 1.01734 30620 1.00834 92774 1.00407 73562 1.00200 83928 1.00099 45751

Cuadro 8.3: Funci on zeta de Riemann.

10 1 0.1 s

(s)1
0.01 0.001 0.0001 0

10

12

14

s
Figura 8.10: Funci on zeta de Riemann, (s) 1, versus s.

eliminando todos los t erminos remanentes, donde n es un m ultiplo de 3. Continuando, tenemos (s)(1 2s )(1 3s )(1 5s ) . . . (1 P s ), donde P es un n umero primo, y todos los s t erminos n , en el cual n es un m ultiplo entero por sobre P , son cancelados. Para P ,

(s)(1 2 )(1 3 ) (1 P Por lo tanto (s) =

) = (s)
P (primo)=2

(1 P s ) = 1 .

(8.166)

1 (1 P s ) (8.167)

P (primo)=2

ZETA DE RIEMANN. 8.11. FUNCION

215

dando (s) como un producto innito.6 Este procedimiento de cancelaci on tiene una clara aplicaci on en el c alculo num erico. La s ecuaci on (8.164) dar a (s)(1 2 ) con la misma precisi on como la ecuaci on (8.163) da (s), pero solamente con la mitad de t erminos. (En cuyo caso, podr a hacerse una correcci on para despreciar la cola de la serie por la t ecnica de Maclaurin reemplazando la serie por una integral). Conjuntamente con la funci on zeta de Riemann, habitualmente se denen otras tres funciones de sumas de potencia rec procas:

(s) =
n=1

(1)n1 = (1 21s ) (s) , ns 1 = (2n + 1)s 1 1 2s (s) ,

(s) =
n=0

(s) =
n=0

(1)n

1 . (2n + 1)s

A partir de los n umeros de Bernoulli o de las series de Fourier podemos determinar algunos valores especiales (2) = 1 + (4) = 1 + (2) = 1 (4) = 1 (2) = 1 + (4) = 1 + (1) = 1 (3) = 1 La constante de Catal an (2) = 1
6

1 1 2 + + = 22 32 6 1 4 1 + + = 24 34 90 1 2 1 + = 22 32 12 1 1 7 4 + = 24 34 720 1 1 2 + + = 32 52 8 1 4 1 + + = 34 54 96 1 1 + = 3 5 4 1 1 3 + = 33 53 32

1 1 + 2 = 0.9159 6559 . . . , 2 3 5

Este es el punto de partida para la vasta aplicaci on de la funci on zeta de Riemann a la teor a de n umeros.

216

CAP ITULO 8. SERIES INFINITAS.

8.11.1.

Mejoramiento de la convergencia.

Si requerimos sumar una serie convergente erminos son funciones racion=1 an cuyos t nales de n, la convergencia puede ser mejorada dram aticamente introduciendo la funci on zeta de Riemann. Ejemplo Mejorando la convergencia.

El problema es evaluar la serie


n=1

1 1 1 . Expandiendo = 2 2 2 (1 + n ) (1 + n ) n

1 1 1+ 2 n

por

divisi on directa, tenemos 1 1 1 n 6 1 = 1 + 1 + n2 n2 n 2 n 4 1 + n 2 1 1 1 1 = 2 4+ 6 8 . n n n n + n6 Por lo tanto


n=1

1 1 = (2) (4) + (6) . 8 + n6 1 + n2 n n=1

Las funciones son conocidas y el remanente de la series converge como n6 . Claramente, el proceso puede ser continuado hasta cuando uno desee. Usted puede hacer una elecci on entre cu anta algebra har a y cu anta aritm etica har a el computador. Otros m etodos para mejorar la efectividad computacional est an dadas al nal de la secci on 8.2 y 8.4.

8.12.

Series asint oticas o semi-convergentes.

Las series asint oticas aparecen frecuentemente en F sica. En c alculo num erico ellas son empleadas para el c alculo de una variedad de funciones. Consideremos aqu dos tipos de integrales que conducen a series asint oticas: primero, una integral de la forma

I1 (x) =
x

eu f (u) du ,

donde la variable x aparece como el l mite inferior de una integral. Segundo, consideremos la forma u I2 (x) = eu f du , x 0 con la funci on f expandible en serie de Taylor. Las series asint oticas a menudo ocurren como soluci on de ecuaciones diferenciales. Un ejemplo de este tipo de series aparece como una de las soluciones de la ecuaci on de Bessel.

8.12. SERIES ASINTOTICAS O SEMI-CONVERGENTES.

217

8.12.1.

Funci on gama incompleta.

La naturaleza de una serie asint otica es quiz as mejor ilustrada por un ejemplo espec co. 7 Supongamos que tenemos una funci on integral exponencial
x

Ei(x) =

eu du , u

(8.168)

o Ei(x) =
x

eu du = E1 (x) , u

(8.169)

para ser evaluada para grandes valores de x. Mejor todav a, tomemos una generalizaci on de la funci on factorial incompleta (funci on gama incompleta),

I (x, p) =
x

eu up du = (1 p, x) ,

(8.170)

en la cual x y p son positivas. De nuevo, buscamos evaluarla para valores grandes de x. Integrando por partes, obtenemos I (x, p) = ex p xp

eu up1 du =
x

ex pex p+1 + p(p + 1) xp x

eu up2 du
x

(8.171)

Continuando para integrar por partes, desarrollamos la serie I (x, p) = ex 1 p p(p + 1) (p + n 2)! p+1 + (1)n1 p p +2 x x x (p 1)!xp+n1 (p + n 1)! u pn + (1)n e u du . (p 1)! x + (8.172)

Esta es una serie notable. Chequeando la convergencia por la prueba de D Alembert, encontramos (p + n)! 1 |un+1 | = l m n |un | n (p + n 1)! x (p + n) = l m n x = l m

(8.173)

para todos los valores nitos de x. Por lo tanto nuestras series son series innitas que divergen en todas partes!. Antes de descartar la ecuaci on (8.172) como in util, veamos cuan bien una suma parcial dada se aproxima a la funci on factorial incompleta, I (x, p). = (1)n+1
7

(p + n)! (p 1)!

eu upn1 du = Rn (x, p) .
x

(8.174)

Esta funci on ocurre con frecuencia en problemas astrof sicos que involucran gases con una distribuci on de energ a de Maxwell-Boltzmann.

218 En valor absoluto | I (x, p) sn (x, p) | (p + n)! (p 1)!

CAP ITULO 8. SERIES INFINITAS.

eu upn1 du .
x

Luego sustituimos u = v + x la integral se convierte en


eu upn1 du = ex
x 0

ev (v + x)pn1 dv

ex xp+n+1
0

ev 1 +

v x

pn1

dv .

Para x grande la integral nal se aproxima a 1 y (p + n)! ex | I (x, p) sn (x, p) | . (p 1)! xp+n+1 (8.175)

Esto signica que si tomamos un x sucientemente grande, nuestra suma parcial sn es arbitrariamente una buena aproximaci on a la funci on deseada I (x, p). Nuestra serie divergente, por lo tanto, es perfectamente buena para c alculos de sumas parciales. Por esta raz on algunas veces es llamada serie semi-convergente. Notemos que la potencia de x en el denominador del remanente (p + n + 1) es m as alto que la potencia de x en u ltimo t ermino incluido en sn (x, p), (p + n). Ya que el remanente Rn (x, p) alterna en signo, las sucesivas sumas parciales dan alternadamente cotas superiores e inferiores para I (x, p). El comportamiento de la serie (con p = 1) como una funci on del n umero de t erminos incluidos es mostrado en la gura 8.11. Tenemos
0.21

0.19

sn (x=5)
0.17

0.1704

0.1741 0.1664

0.15

10

Figura 8.11: Sumas parciales de ex E1 (x)


x=5

ex E1 (x) = ex

eu du u x 1 1! 2! 3! n! = sn (x) 2 + 3 4 + + (1)n n+1 , x x x x x

(8.176)

8.12. SERIES ASINTOTICAS O SEMI-CONVERGENTES.

219

la cual es evaluada en x = 5. Para un valor dado de x las sucesivas cotas superiores e inferiores dadas por las sumas parciales primero convergen y luego divergen. La determinaci on optima de ex E1 (x) est a dada por la aproximaci on m as cercana de las cotas superiores e inferiores, esto es, entre s4 = s6 = 0.1664 y s5 = 0.1741 para x = 5. Por lo tanto 0.1664 ex E1 (x)
x=5

0.1741 .

(8.177)

Realmente, a partir de las tablas, ex E1 (x)


x=5

= 0.1704 ,

(8.178)

dentro de los l mites establecidos por nuestra expansi on asint otica. Note cuidadosamente que la inclusi on de t erminos adicionales en la serie de expansi on m as all a del punto optimo, literalmente reduce la precisi on de la representaci on. Cuando aumentamos x, la diferencia entre la cota superior m as baja y la cota inferior m as alta disminuir a. Tomando x sucientemente grande, uno podr a calcular ex E1 (x) para cualquier grado de precisi on deseado.

8.12.2.

Integrales coseno y seno.

Las series asint oticas tambi en pueden ser desarrolladas a partir de integrales denidas si el integrando tiene el comportamiento requerido. Como un ejemplo, las integrales seno y coseno est an denidas por cos t Ci(x) = dt , (8.179) t x

si(x) =
x

sen t dt , t

(8.180)

Combinando estas con funciones trigonom etricas regulares, podemos denir

f (x) = Ci(x) sen(x) si(x) cos(x) =


0

g (x) = Ci(x) cos(x) si(x) sin(x) =


0

sen(x) dy y+x cos(x) dy y+x

(8.181)

con la nueva variable y = t x. Llevando a variable compleja, tenemos

g (x) + if (x) =
0

=
0

eiy dy y+x iexu du 1 + iu

(8.182)

en el cual u = iy/x. Los l mites de integraci on, 0 a , a m as que de 0 a i, puede ser justicado por el teorema de Cauchy. Racionalizando el denominador e igualando la parte

220 real y la parte imaginaria, obtenemos

CAP ITULO 8. SERIES INFINITAS.

g (x) =
0

f (x) =
0

uexu du , 1 + u2 exu du . 1 + u2

(8.183)

La convergencia de las integrales requiere que Re(x) > 0.8 Ahora, desarrollamos la expansi on asint otica, consideremos el cambio de variable v = xu y expandimos el factor [1 + (v/x)2 ]1 por el teorema del binomio. Tenemos 1 f (x) x 1 g (x) 2 x

ev
0 0nN

(1)n (1)
0nN

(2n)! v 2n 1 dv = (1)n 2n 2 n x x 0nN x


2n+1

e
0

nv

x 2n

1 dv = 2 x

(1)
0nN

n (2n

+ 1)! . x 2n

(8.184)

De las ecuaciones (8.181) y (8.184) Ci(x) sen(x) (2n)! cos(x) n (2n + 1)! (1)n 2n ( 1) x 0nN x x2 0nN x 2n

(2n)! sen(x) (2n + 1)! cos(x) (1)n 2n (1)n , si(x) 2 x 0nN x x x 2n 0nN

(8.185)

las expansiones asint oticas deseadas. La t ecnica de expandir el integrando de una integral denida e integrar t ermino a t ermino lo volveremos a aplicar para desarrollar una expansi on asint otica de la funci on de Bessel modicada Kv y tambi en para las expansiones de las dos funciones hipergeom etricas conuentes M (a, c; x) y U (a, c; x).

8.12.3.

Denici on de series asint oticas.

El comportamiento de estas series (ecuaciones (8.172) y (8.185)) en consistencia con las propiedades denidas para una serie asint otica9 . Siguiendo a Poincar e, tomamos xn Rn (x) = xn [f (x) sn (x)] , a1 a2 an + 2 + + n . x x x La expansi on asint otica de f (x) tiene las propiedades que sn (x) = a0 +
x
8 9

(8.186)

donde

(8.187)

l m xn Rn (x) = 0 ,

para n jo,

(8.188)

La parte real. No es necesario que las series asint oticas sean series de potencia.

8.13. PRODUCTOS INFINITOS. y


n

221

l m xn Rn (x) = ,

para x jo,

(8.189)

Vemos la ecuaciones (8.172) y (8.173) como un ejemplo de estas propiedades. Para series de potencias, como las supuestas en la forma de sn (x), Rn (x) xn1 . Con condiciones (8.188) y (8.189) satisfechas, escribimos 1 an n . f (x) (8.190) x n=0 Notemos el uso de en lugar de =. La funci on f (x) es igual a la serie solamente en el l mite cuando x . Las expansiones asint oticas de dos funciones pueden ser multiplicadas entre s y el resultado ser a una expansi on asint otica de un producto de dos funciones. La expansi on asint otica de una funci on dada f (t) puede ser integrada t ermino a t ermino (justo como en una serie uniformemente convergente de una funci on continua) a partir de x t < y el resultado ser a una expansi on asint otica de x f (t)dt. Una diferenciaci on t ermino a t ermino, sin embargo, es v alida solamente bajo condiciones muy especiales. Algunas funciones no poseen una expansi on asint otica; ex es un ejemplo de tales funciones. Sin embargo, si una funci on tiene una expansi on asint otica, tiene solamente una. La correspondencia no es uno a uno; muchas funciones pueden tener la misma expansi on asint otica. Uno de los m etodos m as poderoso y u til de generar expansiones asint oticas, es el m etodo de steepest descents, ser a desarrollado m as adelante. Las aplicaciones incluyen la derivaci on de la f ormula de Stirling para la funci on factorial (completa) y las formas asint oticas de las varias funciones de Bessel.

8.12.4.

Aplicaciones a c alculo num erico.

Las series asint oticas son usadas frecuentemente en el c alculo de funciones por los computadores. Este es el caso de las funciones de Neumann N0 (x) y N1 (x), y las funciones modicadas de Bessel In (x) y Kn (x). Las series asint oticas para integrales del tipo exponencial, on de error de Gauss, son usaecuaci on (8.176), para las integrales de Fresnel, y para la funci das para la evaluaci on de estas integrales para valores grandes del argumento. Cu an grande deber a ser el argumento depende de la precisi on requerida.

8.13.

Productos innitos.

Consideremos una sucesi on de factores positivos f1 f2 f3 f4 fn (fi > 0). Usando may uscula para indicar el producto, tenemos
n

f1 f2 f3 f4 fn =
i=1

fi .

(8.191)

Denimos pn , como el producto parcial, en analog a con sn la suma parcial,


n

pn =
i=1

fi ,

(8.192)

222 y entonces investigamos el l mite


n

CAP ITULO 8. SERIES INFINITAS.

l m pn = P .

(8.193)

Si P es nito (pero no cero), decimos que el producto innito es convergente. Si P es innito o cero, el producto innito es etiquetado como divergente. Ya que el producto diverger a a innito si
n

l m fn > 1

(8.194)

o a cero para 0 < l m fn < 1 ,


n

(8.195)

es conveniente escribir nuestro producto como

(1 + an ) .
n=1

La condici on an 0 es entonces una condici on necesaria (pero no suciente) para la convergencia. El producto innito puede ser relacionado a una serie innita por el m etodo obvio de tomar el logaritmo

ln
n=1

(1 + an ) =
n=1

ln(1 + an ) .

(8.196)

Una relaci on m as u til es probada por el siguiente teorema.

8.13.1.

Convergencia de un producto innito.


n=1

Si 0 an < 1, el producto innito n=1 (1 + an ) y n=1 (1 an ) converge si converge y diverge si n=1 an diverge. Considerando el t ermino 1 + an , vemos que de la ecuaci on (8.80)

an

1 + an ean . Por lo tanto el producto parcial pn pn esn , y haciendo n ,


(8.197)

(8.198)

(1 + an ) exp
n=1 n=1

an .

(8.199)

estableciendo una cota superior para el producto innito. Para desarrollar una cota m as baja, notemos que
n n n

pn = 1 +
i=1

ai +
i=1 j =1

ai aj + > s n ,

(8.200)

8.13. PRODUCTOS INFINITOS. ya que ai 0. De modo que

223

(1 + an )
n=1 n=1

an .

(8.201)

Si la suma innita permanece nita, el producto innito tambi en lo har a. Si la suma innita diverge, tambi en lo har a el producto innito. El caso de (1 an ) es complicado por el signo negativo, pero una prueba de que depende de la prueba anterior puede ser desarrollada notando que para an < 1/2 (recuerde que an 0 para convergencia) 1 (1 an ) 1 + an y 1 . (8.202) (1 an ) 1 + 2an

8.13.2.

Funciones seno, coseno y gama.

El lector reconocer a que un polinomio de orden n Pn (x) con n ra ces reales puede ser escrito como un producto de n factores:
n

Pn (x) = (x x1 )(x x2 ) (x xn ) =
i=1

(x xi ) .

(8.203)

De la misma manera podemos esperar que una funci on con un n umero innito de ra ces pueda ser escrito como un producto innito, un factor para cada ra z. Esto es por cierto el caso de las funciones trigonom etricas. Tenemos dos representaciones muy u tiles en productos innitos, x2 (8.204) sen(x) = x 1 2 2 , n n=1

cos(x) =
n=1

4x2 (2n 1)2 2

(8.205)

La m as conveniente y quiz as la m as elegante derivaci on de estas dos expresiones es usando variable compleja. Por nuestro teorema de convergencia, las ecuaciones (8.204) y (8.205) son convergentes para todos los valores nitos de x. Espec camente, para el producto innito 2 2 2 para el sen(x), an = x /n , x2 an = 2 n=1

n=1

1 x2 = (2) n2 2 x2 = . 6

(8.206)

La serie correspondiente a la ecuaci on (8.205) se comporta en una manera similar. La ecuaci on (8.204) conduce a dos resultados interesantes. Primero, si jamos x = /2, obtenemos 1 (2n)2 1 = . (8.207) 1= 1 2 n=1 (2n)2 2 n=1 (2n)2

224 Resolviendo para /2, obtenemos

CAP ITULO 8. SERIES INFINITAS.

(2n)2 22 44 66 = = , 2 n=1 (2n 1)(2n + 1) 13 35 57

(8.208)

la cual es la famosa f ormula de Wallis para /2. El segundo resultado involucra la funci on factorial o funci on gama. Una denici on de la funci on gama es

(x) = xe

x r=1

x x 1+ er r

(8.209)

donde es la constante de Euler-Mascheroni, secci on 8.2. Si tomamos el producto de (x) y (x), la ecuaci on (8.209) tiende a

(x)(x) = xe = x2

x r=1

x x x x x 1+ 1 e r xe er r r r=1 1 x r2
2 1

(8.210)

r=1

Usando la ecuaci on (8.204) con x reemplazado por x, obtenemos (x)(x) = . x sen(x) (8.211)

Anticipando una relaci on de recurrencia desarrollada posteriormente, tenemos que usando x(x) = (1 x), la ecuaci on (8.211) puede ser escrita como (x)(1 x) = . sen(x) (8.212)

Esto ser au til cuando tratamos la funci on gama. Estrictamente hablando, podr amos chequear el intervalo en x para el cual la ecuaci on (8.209) es convergente. Claramente, para x = 0, 1, 2, . . . los factores individuales se anulan. La prueba que el producto innito converge para todos los otros valores (nitos) de x es dejado como ejercicio. Estos productos innitos tienen una variedad de usos en matem atica anal tica. Sin embargo, a causa de su lentitud de convergencia, ellas no son aptas para un trabajo num erico preciso.

Cap tulo 9 Ecuaciones diferenciales.


versi on nal 2.1 7 de Julio del 20031

9.1.

Ecuaciones diferenciales parciales, caracter sticas y condiciones de borde.

En F sica el conocimiento de la fuerza en una ecuaci on de movimiento usualmente conduce a una ecuaci on diferencial. Por lo tanto, casi todas las partes elementales y numerosas partes avanzadas de la F sica te orica est an formuladas en t erminos de ecuaciones diferenciales. Algunas veces son ecuaciones diferenciales ordinarias en una variable (ODE). M as a menudo las ecuaciones son ecuaciones diferenciales parciales (PDE) en dos o m as variables. Recordemos que la operaci on de tomar una derivada ordinaria o parcial, es una operaci on 2 lineal (L) d(a(x) + b (x)) d d =a +b , dx dx dx para ODE que involucran derivadas en una variable x solamente y no cuadr aticas, (d/dx)2 , o potencias mayores. Similarmente, para derivadas parciales, (a(x, y ) + b (x, y )) (x, y ) (x, y ) =a +b . x x x En general L(a + b ) = aL() + bL( ) . As , las ODE y las PDE aparecen como ecuaciones de operadores lineales L( ) = F , donde F es una funci on conocida de una (para ODE) o m as variables (para PDE), L es una combinaci on lineal de derivadas, es una funci on o soluci on desconocida. Cualquier combinaci on lineal de soluciones es de nuevo una soluci on; esto es el principio de superposici on.
Este cap tulo est a basado en el octavo cap tulo del libro: Mathematical Methods for Physicists, fourth edition de George B. Arfken & Hans J. Weber, editorial Academic Press. 2 Estamos especialmente interesados en operadores lineales porque en mec anica cu antica las cantidades f sicas est an representadas por operadores lineales operando en un espacio complejo de Hilbert de dimensi on innita.
1

(9.1)

225

226

CAP ITULO 9. ECUACIONES DIFERENCIALES.

Ya que la din amica de muchos sistemas f sicos involucran s olo dos derivadas, e.g., la aceleraci on en mec anica cl asica y el operador de energ a cin etica, 2 , en mec anica cu antica, las ecuaciones diferenciales de segundo orden ocurren m as frecuentemente en F sica. [Las ecuaciones de Maxwell y de Dirac son de primer orden pero involucran dos funciones desconocidas. Eliminando una inc ognita conducen a una ecuaci on diferencial de segundo orden por la otra.]

9.1.1.

Ejemplos de PDE.

Entre las PDE m as frecuentemente encontradas tenemos: 1. La ecuaci on de Laplace, 2 = 0. Esta ecuaci on muy com un y muy importante aparece en el estudio de a. Fen omenos electromagn eticos incluyendo electroest aticos, diel ectricos, corrientes estacionarias y magnetoest atica. b. Hidrodin amica (ujo irrotacional de l quidos perfectos y supercies de ondas). c. Flujo de calor. d. Gravitaci on. 2. La ecuaci on de Poisson, 2 = 4. En contraste a la ecuaci on homog enea de Laplace, la ecuaci on de Poisson es no homog enea con un t ermino de fuente 4. 3. Las ecuaciones de onda (Helmholtz) y las ecuaciones de difusi on tiempo independiente, 2 k 2 = 0. Estas ecuaciones aparecen en fen omenos tan diversos como a. Ondas el asticas en s olidos, incluyendo cuerdas vibrantes, barras y membranas. b. En sonido o ac ustica. c. En ondas electromagn eticas. d. En reactores nucleares. 4. La ecuaci on de difusi on tiempo dependiente 2 = 5. Las ecuaciones de onda tiempo dependiente, 2 = 1 2 . c2 t2 1 . a2 t

La forma cuadridimensional que involucra el DAlembertiano, un an alogo cuadridimensional del Laplaciano en el espacio Minkowski, = 2 = 1 2 2 . c2 t2

Luego las ecuaciones de onda tiempo dependiente quedan 2 = 0.

9.1. ECUACIONES DIFERENCIALES PARCIALES

227

6. La ecuaci on del potencial escalar, 2 = 4. Como la ecuaci on de Poisson esta ecuaci on es no homog enea con un t ermino de fuente 4. 7. La ecuaci on de Klein-Gordon, 2 = 2 , y las correspondientes ecuaciones vectoriales en las cuales la funci on escalar es reemplazada por una funci on vectorial. Otras formas complicadas son comunes. 8. La ecuaci on de onda de Schr odinger,
2

2m
2

2 + V = i

2m para el caso tiempo independiente.

2 + V = E ,

9. Las ecuaciones para ondas el asticas y l quidos viscosos y la ecuaci on telegr aca. 10. Ecuaciones diferenciales parciales acopladas de Maxwell para los campos el ectricos y magn eticos son aquellas de Dirac para funciones de ondas relativistas del electr on. Algunas t ecnicas generales para resolver PDE de segundo orden son discutidas en esta secci on: 1. Separaci on de variables, donde el PDE es separada en ODEs que est an relacionadas por constantes comunes las cuales aparecen como autovalores de operadores lineales, L = l , usualmente en una variable. La ecuaci on de Helmholtz dada como ejemplo 3 anteriormente tiene esta forma, donde el autovalor k 2 puede surgir por la separaci on del tiempo t respecto de las variables espaciales. Como en el ejemplo 8, la energ a E es el autovalor que surge en la separaci on de t respecto de r en la ecuaci on de Schr odinger. 2. Conversi on de una PDE en una ecuaci on integral usando funciones de Green que se aplica a PDE no homog eneas tales como los ejemplos 2 y 6 dados m as arriba. 3. Otros m etodos anal ticos tales como el uso de transformadas integrales que ser an desarrolladas en el pr oximo curso. 4. C alculo num erico. El desarrollo de los computadores ha abierto una abundancia de posibilidades basadas en el c alculo de diferencias nitas. Aqu tambi en tenemos los m etodos de relajaci on. M etodos como Runge-Kutta y predictor-corrector son aplicados a ODEs. Ocasionalmente, encontramos ecuaciones de orden mayor. En ambos la teor a del movimiento suave de un l quido viscoso y la teor a de un cuerpo el astico encontramos la ecuaci on (2 )2 = 0 . Afortunadamente, estas ecuaciones diferenciales de orden m as altos son relativamente raras y no son discutidas en una etapa introductoria como esta.

228

CAP ITULO 9. ECUACIONES DIFERENCIALES.

Aunque no son tan frecuentemente encontrados y quiz as no son tan importantes como las ecuaciones diferenciales de segundo orden, las ecuaciones diferenciales de primer orden aparecen en F sica te orica y algunas veces son pasos intermedios para ecuaciones diferenciales de segundo orden. Las soluciones de algunos de los tipos m as importantes de ODE de primer orden son desarrollados en la secci on 9.2. Las PDEs de primer orden siempre pueden ser reducidas a ODEs. Este es un proceso directo pero lento e involucra una b usqueda para las caracter sticas que son presentadas brevemente m as adelante.

9.1.2.

Clases de PDE y caracter stica.

Las PDEs de segundo orden forman tres clases: (i) Las PDEs el pticas que involucran 2 o c2 2 /t2 + 2 . (ii) Las PDEs parab olica, a/t 2 . (iii) Las PDEs hiperb olica, c2 2 /t2 2 . Estos operadores can onicos aparecen por un cambio de variables = (x, y ), = (x, y ) en un operador lineal (para dos variables s olo por simplicidad) L=a 2 2 2 + 2 b +d + c +e +f , 2 2 x xy y x y (9.2)

la cual puede ser reducida a las formas can onicas (i), (ii), (iii) de acuerdo a si el discriminante D = ac b2 > 0, = 0 o < 0. Si (x, y ) es determinada a partir de la ecuaci on de primer orden, pero no lineal, PDE a x
2

+ 2b

+c

=0,

(9.3)

donde los t erminos de m as bajo orden en L son ignorados, entonces los coecientes de 2 / 2 on independiente de la misma ecuaci on en L es cero (i.e., ecuaci on (9.3)). Si es una soluci 2 2 2 (9.3), entonces el coeciente de / tambi en es cero. El operador remanente / en L es caracter stico del caso hiperb olico (iii) con D < 0, donde la forma cuadr atica a2 + 2b + c es factorizable y, por lo tanto, la ecuaci on (9.3) tiene dos soluciones independientes (x, y ), (x, y ). En el caso el ptico (i) con D > 0 las dos soluciones , son complejos conjugados los cuales, cuando se sustituyeron en la ecuaci on (9.2), remueven la derivada de segundo orden mezclada en vez de los otros t erminos de segundo orden produciendo la forma can onica (i). 2 2 En el caso parab olico (ii) con D = 0, solamente / permanece en L, mientras que los coecientes de las otras dos derivadas de segundo orden se anulan. Si los coecientes a, b, c en L son funciones de las coordenadas, entonces esta clasicaci on es solamente local, i.e., su tipo podr a cambiar cuando las coordenadas var an. Ilustremos la f sica impl cita en el caso hiperb olico mirando la ecuaci on de onda (en 1 + 1 dimensiones por simplicidad) 1 2 2 c2 t2 x2 =0. (9.4)

9.1. ECUACIONES DIFERENCIALES PARCIALES Ya que la ecuaci on (9.3) se convierte en t


2

229

c t x

+c t x

=0,

(9.5)

y es factorizable, determinamos la soluci on de /t c/x = 0. Esta es una funci on arbitraria = F (x + ct), y = G(x ct) resuelve /t + c/x = 0, la cual se verica r apidamente. Por superposici on lineal una soluci on general de la ecuaci on (9.4) es la suma = F (x + ct) + G(x ct). Para funciones peri odicas F , G reconocemos los argumentos x + ct y x ct como la fase de la onda plana o frente de ondas, donde las soluciones de la ecuaci on de onda (9.4) cambian abruptamente (de cero a sus valores actuales) y no est an u nicamente determinadas. Normal al frente de onda est an los rayos de la optica geom etrica. De este modo, las soluciones de la ecuaci on (9.5) o (9.3) m as generalmente, son llamadas caracter sticas o algunas veces bicaracter sticas (para PDE de segundo orden) en la literatura matem atica corresponde a los frente de ondas de la soluci on de la optica geom etrica de la ecuaci on de onda completa. Para el caso el ptico consideremos la ecuaci on de Laplace 2 2 + 2 =0, x2 y para un potencial de dos variables. Aqu la ecuaci on caracter stica es x
2

(9.6)

+i x y

i x y

=0

(9.7)

tiene soluciones complejas conjugadas: = F (x + iy ) para /x + i/y = 0 y = G(x iy ) para /xi/y = 0. Una soluci on general de la ecuaci on de potencial (9.6) es por lo tanto = F (x + iy )+ iG(x iy ) Tanto la parte real como la imaginaria de , son llamadas funciones arm onicas, mientras que las soluciones polinomiales son llamadas polinomios arm onicos. En mec anica cu antica la forma de Wentzel-Kramers-Brillouin (WKB) de = exp(iS/ ) para la soluci on de la ecuaci on de Schr oedinger
2

2m

2 + V

=i

, t

(9.8)

conduce a la ecuaci on Hamilton-Jacobi de la mec anica cl asica, S 1 (S )2 + V = , (9.9) 2m t en el l mite 0. La acci on cl asica de S entonces llega a ser la caracter stica de la ecuaci on de Schr oedinger. Sustituyendo = i S/ , /t = iS/t/ en la ecuaci on (9.8), dejando la totalidad de los factores de no nulos, y aproximando el Laplaciano 2 = i 2 S/ (S )2 / 2 (S )2 , i.e., despreciando i2 / , realmente obtenemos la ecuaci on (9.9). Resolver las caracter sticas es una de las t ecnicas generales de encontrar las soluciones de PDE. Para m as ejemplos y tratamientos detallados de las caracter sticas, las cuales no perseguimos aqu , nos referimos a H. Bateman, Partial Dierential Equations of Mathematical Physics. New York: Dover (1994); K.E. Gustafson, Partial Dierential Equations and Hilbert Space Methods, 2nd ed. New York: Wiley (1987).

230

CAP ITULO 9. ECUACIONES DIFERENCIALES.

9.1.3.

Las PDE no lineales.

Las ODEs y PDEs no lineales son un campo importante y de r apido crecimiento. Encontramos m as arriba la ecuaci on de onda lineal m as simple +c =0, t x como la PDE de primer orden a partir de la caracter stica de la ecuaci on de onda. La ecuaci on de onda no lineal m as simple + c( ) =0, (9.10) t x resulta si la velocidad local de propagaci on, c, no es constante sino que depende de la onda . Cuando una ecuaci on no lineal tiene una soluci on de la forma (x, t) = A cos(kx t), donde (k ) var a con k tal que (k ) = 0, entonces ella es llamada dispersiva. Quiz as la ecuaci on dispersiva no lineal m as conocida de segundo orden es la ecuaci on de Korteweg-de Vries 3 =0, + + t x x3 (9.11)

la cual modela la propagaci on sin p erdidas de las ondas de agua superciales y otros fen omenos. Esta es ampliamente conocida por sus soluciones solit on. Un solit on es una onda viajera con la propiedad de persistir a trav es de una interacci on con otro solit on: despu es de que ellos pasan uno a trav es del otro, ellos emergen en la misma forma y con la misma velocidad y no adquieren m as que un cambio de fase. Sea ( = x ct) tal onda viajera. Cuando es sustituida en la ecuaci on (9.11) esta produce la ODE no lineal ( c) la cual puede ser integrada dando d2 2 = c . d 2 2 (9.13) d d3 + 3 =0, d d (9.12)

No hay constantes de integraci on aditivas en la ecuaci on (9.13) para asegurar que se satisfaga 2 2 la condici on d /d 0 con 0 para grande, tal que est a localizado en la caracter stica = 0, o x = ct. Multiplicando la ecuaci on (9.13) por d/d e integrando nuevamente tenemos 2 d 3 = c 2 , (9.14) d 3 donde d/d 0 para grande. Tomando la ra z de la ecuaci on (9.14) e integrando una vez m as encontramos la soluci on solit onica (x ct) = cosh
2

3c x ct c 2

(9.15)

9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

231

9.1.4.

Condiciones de borde.

Usualmente, cuando conocemos un sistema f sico en alg un momento y la ley que rige ese proceso f sico, entonces somos capaces de predecir el desarrollo subsecuente. Tales valores iniciales son las m as comunes condiciones de borde asociadas con ODEs y PDEs. Encontrando soluciones que calcen con los puntos, curvas o supercies dados correspondientes al problema de valores de contorno. Las autofunciones usualmente requieren que satisfagan ciertas condiciones de borde impuestas (e.g., asint oticas). Estas condiciones pueden ser tomadas de tres formas: 1. Condiciones de borde de Cauchy. El valor de una funci on y su derivada normal especicada en el borde. En electroest atica estas signicar an , el potencial, y En la componente normal del campo el ectrico. 2. Condiciones de borde de Dirichlet. El valor espec co en el borde. 3. Condiciones de borde de Neumann. La derivada normal (gradiente normal) de una funci on espec ca en el borde. En el caso electrost atico este ser a En y por lo tanto , la densidad de carga supercial. Un resumen de las relaciones de estos tres tipos de condiciones de borde con los tres tipos de ecuaciones diferenciales parciales bidimensionales est an dadas en la tabla 9.1. Para discusiones m as extensas de estas ecuaciones diferenciales parciales puede consultar Sommerfeld, cap tulo 2, o Morse y Feshbach, cap tulo 6. Partes de la tabla 9.1 son simplemente un asunto de mantener la consistencia interna, o sentido com un. Por ejemplo, para la ecuaci on de Poisson con una supercie cerrada, las condiciones de Dirichlet conducen a una soluci on u nica y estable. Las condiciones de Neumann, independiente de las condiciones de Dirichlet, del mismo modo conducen a una soluci on u nica y estable independiente de la soluci on de Dirichlet. Por lo tanto las condiciones de borde de Cauchy (lo que signica la de Dirichlet m as la de Neumann) conducen a una inconsistencia. El t ermino de condiciones de borde incluye como un caso especial el concepto de condiciones iniciales. Por ejemplo, especicando la posici on inicial x0 y la velocidad inicial v0 en algunos problemas de din amica corresponder a a condiciones de borde de Cauchy. La u nica diferencia en el presente uso de las condiciones de borde en estos problemas unidimensionales es que estamos aplicando las condiciones en ambos extremos del intervalo permitido de la variable.

9.2.

Ecuaciones diferenciales de primer orden.

La f sica involucra algunas ecuaciones diferenciales de primer orden, ellas fueron estudiadas en el curso de ecuaciones diferenciales. Por completitud parece ser deseable revisarlas brevemente. Consideremos aqu ecuaciones diferenciales de la forma general dy P (x, y ) = f (x, y ) = . dx Q(x, y ) (9.16)

232 Condiciones de borde

CAP ITULO 9. ECUACIONES DIFERENCIALES. Tipo de ecuaci on diferencial parcial El pticas Laplace, Poisson en (x, y ) Hiperb olicas Ecuaci on de Ondas en (x, t) Soluci on u nica y estable Demasiado restrictivo Insuciente Soluci on no u nica Insuciente Soluci on no u nica Cuadro 9.1: Parab olicas Ecuaci on de difusi on en (x, t) Demasiado restrictivo Demasiado restrictivo Soluci on u nica y estable en 1 dim Demasiado restrictivo Soluci on u nica y estable en 1 dim Demasiado restrictivo

Cauchy Supercie Abierta Supercie Cerrada Dirichlet Supercie Abierta

Resultados no f sicos (inestabilidades) Demasiado restrictivo Insuciente

Supercie Cerrada Soluci on u nica y estable Neumann Supercie Abierta Insuciente Supercie Cerrada Soluci on u nica y estable

La ecuaci on (9.16) es claramente una ecuaci on de primer orden ordinaria. Es de primer orden ya que contiene la primera derivada y no mayores. Es Ordinaria ya que la derivada dy/dx es una derivada ordinaria o total. La ecuaci on (9.16) puede o no puede ser lineal, aunque trataremos el caso lineal expl citamente m as adelante.

9.2.1.

Variables separables.
dy P (x) = f (x, y ) = . dx Q(y )

a la forma especial Frecuentemente la ecuaci on (9.16) tendr (9.17)

Entonces la podemos reescribir como P (x)dx + Q(y )dy = 0 . Integrando de (x0 , y0 ) a (x, y ) tiende a
x y

P (x )dx +
x0 y0

Q(y )dy = 0 .

(9.18)

Ya que los l mites inferiores x0 e y0 contribuyen en unas constantes, podr amos ignorar los l mites inferiores de integraci on y simplemente a nadir una constante de integraci on al nal.

9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN.

233

Note que esta t ecnica de separaci on de variables no requiere que la ecuaci on diferencial sea lineal. Ejemplo Ley de Boyle. Una forma diferencial de la ley de los gases de Boyle es V dV = , dP P para el volumen V de una cantidad ja de gas a presi on P (y temperatura constante). Separando variables, tenemos dV dP = V P o ln V = ln P + C . Con dos logaritmos presentes, es m as conveniente reescribir la constante de integraci on C como ln k . Entonces ln V + ln P = ln P V = ln k y PV = k .

9.2.2.

Ecuaciones diferenciales exactas.

Reescribimos la ecuaci on (9.16) como P (x, y )dx + Q(x, y )dy = 0 . (9.19)

Esta ecuaci on se dice que es exacta si podemos calzar el lado izquierdo de ella a un diferencial d, dx + dy . (9.20) d = x y Ya que la ecuaci on (9.19) tiene un cero a la derecha, buscamos una funci on desconocida (x, y ) = constante, tal que d = 0. Tenemos (si tal funci on (x, y ) existe) P (x, y )dx + Q(x, y )dy = y = P (x, y ) , x = Q(x, y ) . y (9.22) dx + dy x y (9.21)

La condici on necesaria y suciente para que la ecuaci on sea exacta es que la segunda derivada parcial mezclada de (x, y ) (supuesta continua) es independiente del orden de diferenciaci on: 2 P (x, y ) Q(x, y ) 2 = = = . yx y x xy (9.23)

234

CAP ITULO 9. ECUACIONES DIFERENCIALES.

Si la ecuaci on (9.19) corresponde a un rotor (igual cero), entonces un potencial, (x, y ), debiera existir. Si (x, y ) existe entonces a partir de las ecuaciones (9.19) y (9.21) nuestra soluci on es (x, y ) = C . (9.24)

Podemos construir (x, y ) a partir de sus derivadas parciales de la misma manera que construimos un potencial magn etico vectorial en el cap tulo de vectores a partir de su rotor. Podemos volver a la ecuaci on (9.19) y ver qu e pasa si no es exacta: la ecuaci on (9.23) no es satisfecha. Sin embargo, siempre existe al menos una o quiz as una innidad de factores de integraci on, (x, y ), tales que (x, y )P (x, y )dx + (x, y )Q(x, y )dy = 0 es exacta. Desafortunadamente, un factor de integraci on no siempre es obvio o f acil de encontrar. Diferente es el caso de la ecuaci on diferencial de primer orden lineal considerada a continuaci on, no hay una manera sistem atica de desarrollar un factor de integraci on para la ecuaci on (9.19). Una ecuaci on diferencial en la cual las variables han sido separadas es autom aticamente exacta. Una ecuaci on diferencial exacta no es necesariamente separable.

9.2.3.

Ecuaciones diferenciales ordinarias de primer orden lineales.

Si f (x, y ) en la ecuaci on (9.16) tiene la forma p(x)y + q (x), entonces la ecuaci on (9.16) se convierte en dy + p(x)y = q (x) . (9.25) dx La ecuaci on (9.25) es la ODE de primer orden lineal m as general. Si q (x) = 0, la ecuaci on enea (en y ). Un q (x) distinto de cero puede representar una fuente o un (9.25) es homog t ermino de forzamiento. La ecuaci on (9.25) es lineal ; cada t ermino es lineal en y o dy/dx. No hay potencias mayores; esto es, no hay y 2 , ni productos, y (dy/dx). Note que la linealidad se reere a y y a la dy/dx; p(x) y q (x) no es necesario que sean lineales en x. La ecuaci on (9.25), es la m as importante de estas ecuaciones diferenciales de primer orden para los f sicos y puede ser resuelta exactamente. Busquemos un factor de integraci on (x) tal que (x) puede ser reescrito como d [(x)y ] = (x)q (x) . (9.27) dx El prop osito de esto es hacer el lado izquierdo de la ecuaci on (9.25) una derivada total que pueda ser integrada por inspecci on. Esto tambi en, incidentalmente, hace la ecuaci on (9.25) exacta. Expandiendo la ecuaci on (9.27), obtenemos (x) dy d + y = (x)q (x) . dx dx dy + (x)p(x)y = (x)q (x) , dx (9.26)

9.2. ECUACIONES DIFERENCIALES DE PRIMER ORDEN. La comparaci on con la ecuaci on (9.26) muestra que debemos requerir que d(x) = (x)p(x) . dx

235

(9.28)

Aqu hay una ecuaci on diferencial para (x), con las variables y x separables. Separamos variables, integramos, y obtenemos
x

(x) = exp

p(x ) dx

(9.29)

como nuestro factor de integraci on. Con (x) conocida procedemos a integrar la ecuaci on (9.27). Esto, por supuesto, fue el objetivo de introducir en primer lugar. Tenemos
x

d [(x )y ] dx = dx

(x )q (x ) dx .

Ahora integrando por inspecci on, tenemos


x

(x)y =

(x )q (x ) dx + C .

Las constantes a partir del l mite inferior de integraci on constante son reunidas en la constante C. Dividiendo por (x), obtenemos y (x) = 1 (x)
x

(x )q (x ) dx + C

Finalmente, sustituyendo en la ecuaci on (9.29) por conduce


x x s

y (x) = exp

p(t) dt

exp

p(t) dt q (s) ds + C

(9.30)

Aqu las variables mudas de integraci on han sido reescritas para hacerlas inambiguas. La ecuaci on (9.30) es la soluci on general completa de la ecuaci on diferencial lineal, de primer on orden, la ecuaci on (9.25). La porci
x

y1 (x) = C exp

p(t) dt

(9.31)

corresponde al caso q (x) = 0 y es soluci on general de la ecuaci on diferencial homog enea. El otro t ermino en la ecuaci on (9.30),
x x s

y (x) = exp

p(t) dt

exp

p(t) dt q (s) ds ,

(9.32)

es una soluci on particular que corresponde al t ermino espec co de fuente q (x). Podemos notar que si nuestra ecuaci on diferencial de primer orden es homog enea (q = 0), entonces ella es separable. De lo contrario, salvo casos especiales tal como p =constante, q =constante, o q (x) = ap(x), la ecuaci on (9.25) no es separable.

236 Ejemplo Circuito RL.

CAP ITULO 9. ECUACIONES DIFERENCIALES.

Para un circuito resistencia-inductancia las leyes de Kirchho producen L dI (t) + RI (t) = V (t) , dt

para la corriente I (t), donde L es la inductancia y R es la resistencia, ambas constantes. V (t) es el voltaje aplicado tiempo dependiente. De la ecuaci on (9.29) nuestro factor de integraci on (t) es
t

(t) = exp = eRt/L . Entonces por la ecuaci on (9.30)


t

R dt L

I (t) = eRt/L

eRt/L

V (t) dt + C L

con la constante C es determinada por una condici on inicial (una condici on de borde). Para el caso especial V (t) = V0 , una constante, I (t) = eRt/L = V0 L Rt/L e +C LR

V0 + CeRt/L . R

Si la condici on inicial es I (0) = 0, entonces C = V0 /R y I (t) = V0 1 eRt/L . R

9.2.4.

Conversi on a una ecuaci on integral.

Nuestra ecuaci on diferencial de primer orden, ecuaci on (9.16), puede ser convertida a una ecuaci on integral por integraci on directa:
x

y (x) y (x0 ) =
x0

f [x, y (x)] dx .

(9.33)

Como una ecuaci on integral hay una posibilidad de una soluci on en serie de Neumann (se ver a en el pr oximo curso) con la aproximaci on inicial y (x) y (x0 ). En la literatura de ecuaciones diferenciales esto es llamado el m etodo de Picard de aproximaciones sucesivas. Ecuaciones diferenciales de primer orden las encontraremos de nuevo en conexi on con las transformadas de Laplace y de Fourier.

DE VARIABLES. 9.3. SEPARACION

237

9.3.

Separaci on de variables.

Las ecuaciones de la f sica matem atica listada en la secci on 9.1 son todas ecuaciones diferenciales parciales. Nuestra primera t ecnica para su soluci on es dividir la ecuaci on diferencial parcial en n ecuaciones diferenciales ordinarias de n variables. Cada separaci on introduce una constante de separaci on arbitraria. Si tenemos n variables, tenemos que introducir n 1 constantes, determinadas por las condiciones impuestas al resolver el problema.

9.3.1.

Coordenadas cartesianas.
2 2 2 + 2 + 2 + k2 = 0 , x2 y z

En coordenadas cartesianas las ecuaciones de Helmholtz llegan a ser (9.34)

usando la forma cartesiana para el Laplaciano. Por el momento, k 2 ser a una constante. Quiz as la manera m as simple de tratar una ecuaci on diferencial parcial tal como la ecuaci on (9.34) es dividirla en un conjunto de ecuaciones diferenciales ordinarias. Esto puede ser hecho como sigue. Sea (x, y, z ) = X (x)Y (y )Z (z ) , (9.35) omo sabemos que la ecuaci on (9.35) es v alida?. y sustituir de vuelta en la ecuaci on (9.34). C La respuesta es muy simple: No sabemos si es v alida!. Mejor dicho, estamos procediendo en este esp ritu y tratando de ver si trabaja. Si nuestro intento es exitoso, entonces la ecuaci on a justicada. Si no es exitoso, lo descubriremos pronto y luego trataremos otro (9.35) ser ataque tal como las funciones de Green, transformadas integral, o an alisis num erico a la on (9.34) llega a ser fuerza bruta. Con supuestamente dada por la ecuaci on (9.35), la ecuaci YZ d2 X d2 Y d2 Z + XZ + XY + k 2 XY Z = 0 . dx2 dy 2 dz 2 (9.36)

Dividiendo por = XY Z y rearreglando los t erminos, obtenemos 1 d2 X 1 d2 Z 1 d2 Y 2 = k . X dx2 Y dy 2 Z dz 2 (9.37)

La ecuaci on (9.37) exhibe una separaci on de variables. El lado izquierdo es s olo funci on de x, mientras que el lado derecho depende solamente de y y z . As la ecuaci on (9.37) es una clase de paradoja. Una funci on de x es igualada a una funci on de y y z , pero x, y y z son todas coordenadas independientes. Esta independencia signica que el comportamiento de x como una variable independiente no est a determinada ni por y ni por z . La paradoja est a resuelta 3 jando cada lado igual a una constante, una constante de separaci on. Escogemos 1 d2 X = l2 , X dx2
3

(9.38)

La elecci on de signo es completamente arbitraria, ser a jada en un problema espec co por la necesidad de satisfacer las condiciones de borde.

238 k2

CAP ITULO 9. ECUACIONES DIFERENCIALES. 1 d2 Y 1 d2 Z = l2 . 2 2 Y dy Z dz (9.39)

Ahora, volviendo nuestra atenci on a la ecuaci on (9.39), obtenemos 1 d2 Z 1 d2 Y 2 2 = k + l , Y dy 2 Z dz 2 (9.40)

y una segunda separaci on ha sido realizada. Aqu tenemos una funci on de y igualada a una funci on de z y aparece la misma paradoja. La resolvemos como antes igualando cada lado a otra constante de separaci on, m2 , 1 d2 Y = m2 , Y dy 2 (9.41)

1 d2 Z = k 2 + l2 + m2 = n2 , (9.42) Z dz 2 introduciendo una constante n2 por k 2 = l2 + m2 + n2 para producir un conjunto sim etrico de ecuaciones. Ahora tenemos tres ecuaciones diferenciales ordinarias ((9.38), (9.41), y (9.42)) para reemplazar en la ecuaci on (9.34). Nuestra suposici on (ecuaci on (9.35)) ha sido exitosa y es por lo tanto justicada. Nuestra soluci on ser a etiquetada de acuerdo a la elecci on de nuestras constantes l, m, n, esto es, lmn (x, y, z ) = Xl (x)Ym (y )Zn (z ) . (9.43) Sujeto a las condiciones del problema que se resuelve y a la condici on k 2 = l2 + m2 + n2 , a todav a una soluci on de la podemos escoger l, m, n como queramos, y la ecuaci on (9.43) ser ecuaci on (9.34), dado que Xl (x) es una soluci on de la ecuaci on (9.38) y as seguimos. Podemos desarrollar la soluci on m as general de la ecuaci on (9.34) tomando una combinaci on lineal de soluciones lmn , almn lmn . (9.44) =
l,m,n

Los coecientes constantes almn nalmente son escogidos para permitir que satisfaga las condiciones de borde del problema.

9.3.2.

Coordenadas cil ndricas circulares.

Si consideramos que nuestra funci on desconocida depende de , , z la ecuaci on de Helmholtz se convierte en 2 (, , z ) + k 2 (, , z ) = 0 , o 1 1 2 2 + 2 + k2 = 0 . 2 2 z (9.45)

(9.46)

Como antes, suponemos una forma factorizada para , (, , z ) = P ()()Z (z ) . (9.47)

DE VARIABLES. 9.3. SEPARACION Sustituyendo en la ecuaci on (9.46), tenemos Z d d dP d + P Z d2 d2 Z + P + k 2 P Z = 0 . 2 d2 dz 2

239

(9.48)

Todas las derivadas parciales han llegado a ser derivadas ordinarias. Dividiendo por P Z y moviendo la derivada z al lado derecho conduce a 1 d dP 1 d2 1 d2 Z 2 + 2 + k = . (9.49) P d d d2 Z dz 2 De nuevo, tenemos la paradoja. Una funci on de z en la derecha aparece dependiendo de una funci on de y en el lado izquierdo. Resolvemos la paradoja haciendo cada lado de la ecuaci on (9.49) igual a una constante, la misma constante. Escojamos4 l2 . Entonces d2 Z = l2 Z , dz 2 y 1 d P d d P d dP d dP d + 1 d2 + k 2 = l2 . 2 d2 1 d2 . d2 (9.51) (9.50)

Ajustando k 2 + l2 = n2 , multiplicando por 2 , y reordenando t erminos, obtenemos + n 2 2 = (9.52)

Podemos ajustar el lado derecho a m2 y d2 = m2 2 d Finalmente, para la dependencia en tenemos d d dP d + (n2 2 m2 )P = 0 . (9.54) (9.53)

Esta es la ecuaci on diferencial de Bessel. La soluci on y sus propiedades ser an presentadas en el pr oximo curso. La separaci on de variables de la ecuaci on de Laplace en coordenadas parab olicas tambi en conduce a ecuaciones de Bessel. Puede notarse que la ecuaci on de Bessel es notable por la variedad de formas que puede asumir. La ecuaci on original de Helmholtz, una ecuaci on diferencial parcial tridimensional, ha sido reemplazada por tres ecuaciones diferenciales ordinarias, las ecuaciones (9.50), (9.53) y (9.54). Una soluci on de la ecuaci on de Helmholtz es (, , z ) = P ()()Z (z ) . (9.55)

Identicando las soluciones espec cas P , , Z por sub ndices, vemos que la soluci on m as general de la ecuaci on de Helmholtz es una combinaci on lineal del producto de soluciones: (, , z ) =
m,n
4

amn Pmn ()m ()Zn (z ) .

(9.56)

La elecci on del signo de la constante de separaci on es arbitraria. Sin embargo, elegimos un signo menos para la coordenada axial z en espera de una posible dependencia exponencial en z . Un signo positivo es elegido para la coordenada azimutal en espera de una dependencia peri odica en .

240

CAP ITULO 9. ECUACIONES DIFERENCIALES.

9.3.3.

Coordenadas polares esf ericas.

Tratemos de separar la ecuaci on de Helmholtz, de nuevo con k 2 constante, en coordenadas polares esf ericas. Usando la expresi on del Laplaciano en estas coordenadas obtenemos 1 sen 2 r sen r r2 r + sen + 1 2 = k 2 . sen 2 (9.57)

Ahora, en analog a con la ecuaci on (9.35) tratamos (r, , ) = R(r)()() . Sustituyendo de vuelta en la ecuaci on (9.57) y dividiendo por R, tenemos 1 d Rr2 dr r2 dR dr + 1 d 2 r sen d sen d d + 1 d2 = k2 . r2 sen2 d2 (9.59) (9.58)

Note que todas las derivadas son ahora derivadas ordinarias m as que parciales. Multiplicando 2 2 2 2 5 por r sen , podemos aislar (1/)(d /d ) para obtener 1 d 1 d2 2 2 2 = r sen k d2 r2 R dr r2 dR dr 1 d r2 sen d sen d d . (9.60)

La ecuaci on (9.60) relaciona una funci on u nicamente de con una funci on de r y . Ya que r, , y son variables independientes, igualamos cada lado de la ecuaci on (9.60) a una constante. Aqu una peque na consideraci on puede simplicar el an alisis posterior. En casi todos los problemas f sicos aparecer a como un angulo azimutal. Esto sugiere una soluci on 2 peri odica m as que una exponencial. Con esto en mente, usemos m como la constante de separaci on. Cualquier constante lo har a, pero esta har a la vida un poquito m as f acil. Entonces 1 d2 = m2 d2 y 1 d 2 r R dr r2 dR dr + 1 d 2 r sen d sen d d m2 = k 2 . r2 sen2 (9.62) (9.61)

Multiplicando la ecuaci on (9.62) por r2 y reordenando t erminos, tenemos 1 d R dr r2 dR dr + r2 k2 = 1 d sen d sen d d + m2 . sen2 (9.63)

Nuevamente, las variables son separadas. Igualamos cada lado a una constante Q y nalmente obtenemos 1 d d m2 + Q = 0 , (9.64) sen sen d d sen2 1 d r2 dr
5

r2

dR dr

+ k2R

QR =0. r2

(9.65)

El orden en el cual las variables son separadas aqu no es u nico. Muchos textos de mec anica cu antica separan la dependencia en r primero.

DE VARIABLES. 9.3. SEPARACION

241

Una vez m as hemos reemplazado una ecuaci on diferencial parcial de tres variables por tres ecuaciones diferenciales ordinarias. Las soluciones de estas tres ecuaciones diferenciales ordinarias son discutidas en el pr oximo curso. Por ejemplo, la ecuaci on (9.64) es identicada como la ecuaci on de asociada de Legendre en la cual la constante Q llega a ser l(l + 1); con l 2 on de Bessel entero. Si k es una constante (positiva), la ecuaci on (9.65) llega a ser la ecuaci esf erica. Nuevamente, nuestra soluci on m as general puede ser escrita Qm (r, , ) =
q,m

RQ (r)Qm ()m () .

(9.66)

La restricci on que k 2 sea una constante es innecesariamente severa. El proceso de separaci on ser a todav a posible para k 2 tan general como k 2 = f (r) + 1 1 2 g ( ) + h() + k . r2 r2 sen2 (9.67)

En el problema del atomo de hidr ogeno, uno de los ejemplos m as importantes de la ecuaci on 2 de onda de Schr odinger con una forma cerrada de soluci on es k = f (r). La ecuaci on (9.65) para el atomo de hidr ogeno llega a ser la ecuaci on asociada de Laguerre. La gran importancia de esta separaci on de variables en coordenadas polares esf ericas 2 2 deriva del hecho que el caso k = k (r) cubre una tremenda cantidad de f sica: las teor as de gravitaci on, electroest atica, f sica at omica y f sica nuclear. Y, con k 2 = k 2 (r), la dependencia angular es aislada en las ecuaciones (9.61) y (9.64), la cual puede ser resuelta exactamente. Finalmente, una ilustraci on de c omo la constante m en la ecuaci on (9.61) es restringida, notamos que en coordenadas polares esf ericas y cil ndricas es un angulo azimutal. Si esto es un problema cl asico, ciertamente requeriremos que la soluci on azimutal () sea univaluada, esto es, ( + 2 ) = () . (9.68) Esto es equivalente a requerir que la soluci on azimutal tenga un per odo de 2 o alg un m ultiplo entero de el. Por lo tanto m debe ser un entero. Cu al entero, depende de los detalles del problema. Cada vez que una coordenada corresponda a un eje de translaci on o a un angulo azimutal la ecuaci on separada siempre tendr a la forma d2 () = m2 () 2 d para , el angulo azimutal, y d2 Z = a2 Z (z ) (9.69) dz 2 para z , un eje de traslaci on en un sistema de coordenadas cil ndrico. Las soluciones, por su2 puesto, son sen az y cos az para a y la correspondiente funci on hiperb olica (o exponencial) senh az y cosh az para +a2 . Otras ecuaciones diferenciales ordinarias encontradas ocasionalmente incluyen las ecuaciones de Laguerre y la asociada de Laguerre del importante problema del atomo de hidr ogeno en mec anica cu antica: d2 y dy x 2 + (1 x) + y = 0 , (9.70) dx dx

242 x

CAP ITULO 9. ECUACIONES DIFERENCIALES.

d2 y dy + (1 + k x) + y = 0 . (9.71) 2 dx dx De la teor a de la mec anica cu antica del oscilador arm onico lineal tenemos la ecuaci on de Hermite, d2 y dy 2x + 2y = 0 . (9.72) 2 dx dx Finalmente, de vez en vez encontramos la ecuaci on diferencial de Chebyshev (1 x2 ) d2 y dy x + n2 y = 0 . 2 dx dx (9.73)

Para una referencia conveniente, las formas de la soluci on de la ecuaci on de Laplace, la ecuaci on de Helmholtz y la ecuaci on de difusi on en coordenadas polares esf ericas son resumidas en la tabla 9.2. Las soluciones de la ecuaci on de Laplace en coordenadas circulares cil ndricas son representadas en la tabla 9.3. =
l,m

alm lm rl r l 1 jl (kr) nl (kr) Plm (cos ) Qm l (cos ) Plm (cos ) Qm l (cos ) Plm (cos ) Qm l (cos )

1.

2 = 0

lm =

cos m sen m cos m sen m cos m sen m

2.

2 + k 2 = 0

lm =

3.

2 k 2 = 0

lm =

il (kr) kl (kr)

Cuadro 9.2: Soluciones en coordenadas polares esf ericas

=
m,

am m ,

2 = 0 ez ez cos z sen z

a.

m =

Jm () Nm ()

cos m sen m cos m sin m cos m sen m

b. = 0 (no hay dependencia en z )

m =

Im () Km () m m

c.

m =

Cuadro 9.3: Soluciones en coordenadas cil ndricas circulares

DE VARIABLES. 9.3. SEPARACION

243

Para las ecuaciones de Helmholtz y de difusi on la constante k 2 se agrega a la constante de separaci on 2 para denir un nuevo par ametro 2 o 2 . Para la elecci on de + 2 (con 2 2 2 > 0) obtenemos Jm () y Nm (). Para la elecci on (con > 0) obtenemos Im () y Km () como previamente. Estas ecuaciones diferenciales ordinarias y sus generalizaciones ser an examinadas y sistematizadas en el pr oximo curso.

You might also like