You are on page 1of 663

Mecánica Cuántica: Notas de Clase

Rodolfo Alexander Diaz Sanchez


Universidad Nacional de Colombia
Departamento de Fı́sica
Bogotá, Colombia

23 de agosto de 2015
Índice general

1. Linear or vector spaces 14


1.1. Definition of a linear vector space . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2. Algebraic properties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3. Vector subspaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4. Dimension and bases in vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5. Mappings and transformations in vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6. Linear transformations of a vector space into itself . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.1. Projection operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.7. Normed vector spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.7.1. Convergent sequences, cauchy sequences and completeness . . . . . . . . . . . . . . . . . . . 23
1.7.2. The importance of completeness in quantum mechanics . . . . . . . . . . . . . . . . . . . . 24
1.7.3. The concept of continuity and its importance in Physics . . . . . . . . . . . . . . . . . . . . 24
1.8. Banach Spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8.1. Continuous linear transformations of a Banach space into scalars . . . . . . . . . . . . . . . 25
1.8.2. Continuous linear transformations of a Banach space into itself . . . . . . . . . . . . . . . . 25
1.9. Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.9.1. Orthonormal sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.9.2. The conjugate space H ∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9.3. The conjugate and the adjoint of an operator . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.10. Normal operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.11. Self-Adjoint operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.12. Unitary operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.13. Projections on Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.14. Theory of representations in finite-dimensional vector spaces . . . . . . . . . . . . . . . . . . . . . . 37
1.14.1. Representation of vectors and operators in a given basis . . . . . . . . . . . . . . . . . . . . 37
1.14.2. Change of coordinates of vectors under a change of basis . . . . . . . . . . . . . . . . . . . . 40
1.14.3. Change of the matrix representative of linear transformations under a change of basis . . . 41
1.15. Active and passive transformations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.16. Theory of representations on finite dimensional Hilbert spaces . . . . . . . . . . . . . . . . . . . . . 42
1.16.1. Linear operators in finite dimensional Hilbert spaces . . . . . . . . . . . . . . . . . . . . . . 44
1.17. Determinants and traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.18. Rectangular matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.19. The eigenvalue problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.19.1. Matrix representative of the eigenvalue problem . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.19.2. Eigenvectors and the canonical problem of matrices . . . . . . . . . . . . . . . . . . . . . . 50
1.20. Normal operators and the spectral theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.20.1. A qualitative discussion of the spectral theorem in infinite dimensional Hilbert spaces . . . 55
1.21. The concept of “hyperbasis” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2
ÍNDICE GENERAL 3

1.22. Definition of an observable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57


1.23. Complete sets of commuting observables (C.S.C.O.) . . . . . . . . . . . . . . . . . . . . . . . . . . 59
1.24. Some terminology concerning quantum mechanics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.25. The Hilbert Space L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.25.1. The wave function space ̥ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1.26. Discrete orthonormal basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.26.1. Función delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.27. Closure relations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.28. Introduction of hyperbases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.29. Closure relation with hyperbases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.30. Inner product and norm in terms of a hyperbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1.31. Some specific continuous bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.31.1. Plane waves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.31.2. “Delta functions” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
1.32. Tensor products of vector spaces, definition and properties . . . . . . . . . . . . . . . . . . . . . . . 70
1.32.1. Scalar products in tensor product spaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
1.32.2. Tensor product of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
1.32.3. The eigenvalue problem in tensor product spaces . . . . . . . . . . . . . . . . . . . . . . . . 72
1.32.4. Complete sets of commuting observables in tensor product spaces . . . . . . . . . . . . . . . 74
1.33. Restrictions of an operator to a subspace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
1.34. Functions of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
1.34.1. Some commutators involving functions of operators . . . . . . . . . . . . . . . . . . . . . . . 76
1.35. Differentiation of operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
1.35.1. Some useful formulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
1.36. State space and Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
1.37. Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
1.37.1. Elements of the dual or conjugate space Er∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
1.37.2. The correspondence between bras and kets with hyperbases . . . . . . . . . . . . . . . . . . 81
1.38. The action of linear operators in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1.38.1. Projectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
1.39. Hermitian conjugation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1.39.1. The adjoint operator A† in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
1.39.2. Mathematical objects and hermitian conjugation in Dirac notation . . . . . . . . . . . . . . 86
1.40. Theory of representations of E in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
1.40.1. Orthonormalization and closure relation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
1.40.2. Representation of operators in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . 91
1.41. Change of representations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
1.41.1. Transformation of the coordinates of a ket . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1.41.2. Transformation of the coordinates of a bra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1.41.3. Transformation of the matrix elements of an operator . . . . . . . . . . . . . . . . . . . . . 95
1.42. Representation of the eigenvalue problem in Dirac notation . . . . . . . . . . . . . . . . . . . . . . 95
1.42.1. C.S.C.O. in Dirac notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
1.43. The continuous bases |ri and |pi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1.43.1. Orthonormalization and closure relations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1.43.2. Coordinates of kets and bras in {|ri} and {|pi} . . . . . . . . . . . . . . . . . . . . . . . . . 97
1.43.3. Changing from the {|ri} representation to {|pi} representation and vice versa . . . . . . . . 98
1.43.4. The R and P operators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
1.43.5. The eigenvalue problem for R and P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
1.43.6. Some properties of Fourier transforms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4 ÍNDICE GENERAL

1.44. General properties of two conjugate observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104


1.44.1. The eigenvalue problem of Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
1.44.2. The action of Q, P and S (λ) in the {|qi} basis . . . . . . . . . . . . . . . . . . . . . . . . . 105
1.44.3. Representation in the {|pi} basis and the symmetrical role of P and Q . . . . . . . . . . . . 106
1.45. Diagonalization of a 2 × 2 hermitian matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1.45.1. Formulation of the problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
1.45.2. Eigenvalues and eigenvectors of K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
1.45.3. Eigenvalues and eigenvectors of H . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

2. Construcción fenomenológica de los postulados 111


2.1. La radiación del cuerpo negro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2.2. El efecto fotoeléctrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
2.3. El efecto compton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
2.4. Espectroscopı́a, estabilidad del átomo y teorı́a de Bohr . . . . . . . . . . . . . . . . . . . . . . . . . 115
2.4.1. La teorı́a de Bohr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
2.4.2. Predicciones de la teorı́a de Bohr para átomos con un electrón . . . . . . . . . . . . . . . . 117
2.5. Las reglas de cuantización de Wilson y Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
2.5.1. El átomo de Bohr bajo las reglas de Wilson y Sommerfeld . . . . . . . . . . . . . . . . . . . 119
2.5.2. Cuantización de Planck con las reglas de Wilson y Sommerfeld . . . . . . . . . . . . . . . . 120
2.5.3. La teorı́a relativista de Sommerfeld y la estructura fina del átomo de Hidrógeno . . . . . . . 121
2.6. Los postulados de De Broglie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
2.6.1. Propiedades de las ondas piloto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
2.6.2. Corroboración experimental de los postulados de De Broglie . . . . . . . . . . . . . . . . . . 125
2.6.3. Las reglas de cuantización de Bohr a la luz de los postulados de De Broglie . . . . . . . . . 125
2.7. Sı́ntesis de los resultados experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
2.8. El experimento de Young de la doble rendija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.8.1. Interpretación mecano-cuántica de la dualidad onda partı́cula . . . . . . . . . . . . . . . . . 131
2.9. Medición y preparación de un sistema: Descomposición espectral . . . . . . . . . . . . . . . . . . . 132
2.10. Dualidad onda partı́cula para la materia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
2.11. Aspectos ondulatorios de una partı́cula material . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.11.1. Estados cuánticos arbitrarios como superposición de ondas planas . . . . . . . . . . . . . . 138
2.11.2. Perfil instantáneo del paquete de onda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
2.11.3. El principio de incertidumbre de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
2.12. El principio de complementariedad para la dualidad onda partı́cula y su relación con el principio
de incertidumbre de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
2.13. Evolución temporal de paquetes de ondas libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
2.14. Caracterización de paquetes de onda gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2.14.1. Integrales básicas para paquetes gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2.14.2. Perfiles de paquetes de onda gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2.14.3. Relaciones de incertidumbre para paquetes gaussianos . . . . . . . . . . . . . . . . . . . . . 151
2.15. Evolución temporal de paquetes de onda gaussianos (opcional) . . . . . . . . . . . . . . . . . . . . 151
2.15.1. Dispersión del paquete de onda gaussiano (opcional) . . . . . . . . . . . . . . . . . . . . . . 152

3. Ecuación de Schrödinger y sus propiedades 155


3.1. Plausibilidad de la ecuación de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
3.2. Ecuación de Schrödinger con potencial escalar independiente del tiempo . . . . . . . . . . . . . . . 158
3.3. Propiedades generales de la ecuación de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3.3.1. Determinismo en las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.3.2. Principio de superposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
ÍNDICE GENERAL 5

3.3.3. Conservación de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162


3.3.4. La ecuación de continuidad para la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 162
3.3.5. Expresión polar de la corriente de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 164
3.4. Aplicación de la ecuación de Schrödinger a potenciales discontı́nuos . . . . . . . . . . . . . . . . . 165
3.5. Potenciales rectangulares, análogo óptico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
3.5.1. Estrategia de solución para potenciales acotados con discontinuidades de salto . . . . . . . 167
3.5.2. Expresión para la corriente en regiones de potencial constante . . . . . . . . . . . . . . . . . 168
3.6. El potencial escalón . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
3.6.1. E > V0 , reflexión parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
3.6.2. E < V0 ; reflexión total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3.7. Barrera de potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
3.7.1. E > V0 , resonancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
3.7.2. Caso E < V0 : Efecto túnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
3.8. Pozo de potencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
3.8.1. Partı́cula con energı́a −V0 < E < 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
3.8.2. Partı́cula con energı́a E > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

4. Enunciado matemático de los postulados 192


4.1. Los fenómenos clásicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
4.2. Los fenómenos cuánticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
4.3. Establecimiento de los postulados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.3.1. Descripción de los estados y las cantidades fı́sicas . . . . . . . . . . . . . . . . . . . . . . . . 195
4.3.2. El proceso de medición y la distribución de probabilidad . . . . . . . . . . . . . . . . . . . . 196
4.3.3. Relevancia fı́sica de las fases en mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . 199
4.3.4. El proceso de medida y la reducción del paquete de onda . . . . . . . . . . . . . . . . . . . 200
4.3.5. Evolución fı́sica de los sistemas cuánticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.3.6. Reglas de cuantización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

5. Consecuencias fenomenológicas de los postulados 205


5.1. Consideraciones estadı́sticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
5.1.1. Valor medio de un observable para un sistema en un estado dado . . . . . . . . . . . . . . . 206
5.1.2. Valor esperado para los observables X, P . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.1.3. Valor esperado para el commutador de dos observables . . . . . . . . . . . . . . . . . . . . . 209
5.1.4. La desviación media cuadrática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
5.2. Observables compatibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
5.3. Observables no compatibles e incertidumbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
5.4. Desviación media cuadrática y principio de incertidumbre . . . . . . . . . . . . . . . . . . . . . . . 215
5.4.1. Paquetes de mı́nima incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
5.5. Preparación de un estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.6. Propiedades adicionales de la ecuación de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . 220
5.6.1. Aspectos adicionales sobre la conservación de la probabilidad (opcional) . . . . . . . . . . . 220
5.7. Evolución temporal del valor esperado de un observable . . . . . . . . . . . . . . . . . . . . . . . . 221
5.7.1. Evolución temporal de los valores esperados de R, P: Teorema de Ehrenfest . . . . . . . . 222
5.8. Ecuación de Schrödinger para sistemas conservativos . . . . . . . . . . . . . . . . . . . . . . . . . . 225
5.8.1. Estados estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
5.8.2. Constantes de movimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.8.3. Frecuencias de Bohr de un sistema y reglas de selección . . . . . . . . . . . . . . . . . . . . 228
5.8.4. Relación de incertidumbre entre tiempo y energı́a para sistemas conservativos . . . . . . . . 229
5.8.5. Cuarta relación de incertidumbre para un paquete de onda unidimensional . . . . . . . . . 231
6 ÍNDICE GENERAL

5.9. Consecuencias fı́sicas del principio de superposición . . . . . . . . . . . . . . . . . . . . . . . . . . . 232


5.9.1. Diferencia entre superposición lineal y mezcla estadı́stica . . . . . . . . . . . . . . . . . . . . 232
5.9.2. Efectos de interferencia en fotones polarizados . . . . . . . . . . . . . . . . . . . . . . . . . 234
5.9.3. Suma sobre los estados intermedios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
5.10. Principio de superposición con varios estados asociados a una medida . . . . . . . . . . . . . . . . 237
5.10.1. El principio de superposición para valores propios degenerados . . . . . . . . . . . . . . . . 237
5.10.2. Aparatos insuficientemente selectivos en la medida . . . . . . . . . . . . . . . . . . . . . . . 238
5.11. Discusión general sobre el fenómeno de interferencia . . . . . . . . . . . . . . . . . . . . . . . . . . 240
5.12. Medición insuficiente de espectros contı́nuos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
5.13. Reducción del paquete de onda para espectro continuo . . . . . . . . . . . . . . . . . . . . . . . . . 242

6. Aplicación de los postulados con información parcial 244


6.1. Aplicación de los postulados al medir sobre un subsistema . . . . . . . . . . . . . . . . . . . . . . . 244
6.1.1. Interpretación fı́sica de los estados que son productos tensoriales . . . . . . . . . . . . . . . 245
6.1.2. Significado fı́sico de estados que no son productos tensoriales . . . . . . . . . . . . . . . . . 247
6.2. Operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
6.2.1. El concepto de mezcla estadı́stica de estados . . . . . . . . . . . . . . . . . . . . . . . . . . 248
6.2.2. Estados puros y operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
6.2.3. Mezcla estadı́stica de estados: estados no puros . . . . . . . . . . . . . . . . . . . . . . . . . 251
6.2.4. Propiedades generales del operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . 252
6.2.5. Populaciones y coherencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
6.3. Aplicaciones del operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
6.3.1. Sistema en equilibrio termodinámico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
6.3.2. Descripción de subsistemas con base en observables globales de un sistema: el concepto de
traza parcial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
6.3.3. Traza parcial y operador densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257

7. Formulaciones alternativas de la mecánica cuántica 260


7.1. Operador evolución temporal: definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . 260
7.1.1. Operador evolución temporal para sistemas conservativos . . . . . . . . . . . . . . . . . . . 262
7.1.2. Observaciones adicionales sobre el operador evolución temporal (opcional) . . . . . . . . . . 262
7.2. Bras, kets y observables equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
7.2.1. La transformada de un operador y sus propiedades . . . . . . . . . . . . . . . . . . . . . . . 264
7.3. La imagen de Schrödinger y la imagen de Heisenberg . . . . . . . . . . . . . . . . . . . . . . . . . . 265
7.3.1. Algunos sistemas simples en la imagen de Heisenberg . . . . . . . . . . . . . . . . . . . . . . 266
7.4. La imagen de interacción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

8. El oscilador armónico cuántico 270


8.1. Propiedades generales del oscilador armónico cuántico unidimensional . . . . . . . . . . . . . . . . 270
8.2. El problema de valores propios del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
8.3. Determinación del espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
8.3.1. Interpretación de los operadores a, a† y N . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
8.3.2. Estudio de la degeneración del espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
8.4. Estados propios del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
8.4.1. Construcción de los kets propios con base en el ket del estado base . . . . . . . . . . . . . . 277
8.4.2. Ortonormalidad de los kets propios (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . 278
8.4.3. Acción de los operadores creación y destrucción sobre los autoestados del Hamiltoniano . . 280
8.5. Funciones propias asociadas a los estados estacionarios en la base {|xi} . . . . . . . . . . . . . . . 281
8.6. Valores esperados y dispersión en un estado estacionario del oscilador . . . . . . . . . . . . . . . . 283
ÍNDICE GENERAL 7

8.7. Propiedades del estado base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286


8.8. Evolución temporal de los observables del oscilador armónico . . . . . . . . . . . . . . . . . . . . . 287
8.9. Oscilador armónico cargado en un campo eléctrico uniforme (Opcional) . . . . . . . . . . . . . . . 289
8.9.1. Solución utilizando el operador traslación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290

9. Estados cuasi-clásicos del oscilador armónico 293


9.1. Parametrización del oscilador clásico con parámetros cuánticos . . . . . . . . . . . . . . . . . . . . 293
9.2. Construcción de los estados coherentes o cuasi-clásicos . . . . . . . . . . . . . . . . . . . . . . . . . 294
9.3. Propiedades de los estados |αi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
9.3.1. Valores permitidos de la energı́a para un estado coherente |αi . . . . . . . . . . . . . . . . . 298
9.3.2. Cálculo de los observables X, P en el estado |αi . . . . . . . . . . . . . . . . . . . . . . . . . 300
9.4. Generador y función de onda de los estados coherentes . . . . . . . . . . . . . . . . . . . . . . . . . 300
9.5. Los estados coherentes son completos pero no ortogonales . . . . . . . . . . . . . . . . . . . . . . . 303
9.6. Evolución temporal de los estados coherentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
9.7. Tratamiento mecano-cuántico de un oscilador armónico macroscópico . . . . . . . . . . . . . . . . . 307

10.Teorı́a general del momento angular en mecánica cuántica 308


10.1. Definición de momento angular por sus propiedades de conmutación . . . . . . . . . . . . . . . . . 309
10.1.1. Cuantización del momento angular orbital . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
10.1.2. Definición de momento angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
10.2. Propiedades algebráicas del momento angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
10.2.1. Álgebra de los operadores J2 , J3 , J+ , J− . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
10.3. Estructura de valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
10.3.1. Notación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
10.3.2. Caracterı́sticas generales de los valores propios de J2 y J3 . . . . . . . . . . . . . . . . . . . 312
10.3.3. Determinación de los valores propios de J2 y J3 . . . . . . . . . . . . . . . . . . . . . . . . . 314
10.4. Propiedades de los vectores propios de J2 y J3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
10.4.1. Generación de autoestados por medio de los operadores J+ y J− . . . . . . . . . . . . . . . 317
10.5. Construcción de una base estándar con base en un C.S.C.O . . . . . . . . . . . . . . . . . . . . . . 319
10.5.1. Descomposición de E en subespacios del tipo E (j, k) . . . . . . . . . . . . . . . . . . . . . . 320
10.6. Representaciones matriciales de los operadores momento angular . . . . . . . . . . . . . . . . . . . 321
10.6.1. Representaciones matriciales del tipo (Ji )(j) en la base estándar para j arbitrario . . . . . . 322
10.6.2. Representaciones matriciales en la base estándar para j = 0 . . . . . . . . . . . . . . . . . . 323
10.6.3. Representaciones matriciales en la base estándar para j = 1/2 . . . . . . . . . . . . . . . . . 323
10.6.4. Representaciones matriciales en la base estándar para j = 1 . . . . . . . . . . . . . . . . . . 325

11.Propiedades de los momentos angulares orbitales 326


11.1. Momentos angulares orbitales como operadores diferenciales . . . . . . . . . . . . . . . . . . . . . . 329
11.2. Valores permitidos de l y m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
11.3. Propiedades fundamentales de los armónicos esféricos . . . . . . . . . . . . . . . . . . . . . . . . . . 331
11.3.1. Ortonormalidad y completez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
11.3.2. Propiedades de paridad y conjugación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
11.3.3. Armónicos esféricos de la forma Yl,0 (θ) y polinomios de Legendre . . . . . . . . . . . . . . . 333
11.3.4. Teorema de adición de los armónicos esféricos . . . . . . . . . . . . . . . . . . . . . . . . . . 333
11.4. Bases estándar de una función de onda sin espı́n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
11.5. Valores esperados y dispersión para sistemas en un estado |l, m, ki . . . . . . . . . . . . . . . . . . 335
11.6. Probabilidades asociadas a la medida de L2 y L3 en un estado arbitrario . . . . . . . . . . . . . . . 337
11.7. Ejemplos de cálculos de probabilidad para L2 y L3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
11.7.1. Función de onda parcialmente separable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
8 ÍNDICE GENERAL

11.7.2. Función de onda totalmente separable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341


11.7.3. Comportamiento de la probabilidad con θ y ϕ . . . . . . . . . . . . . . . . . . . . . . . . . . 341

12.Interacciones centrales en mecánica cuántica 343


12.1. El problema de dos cuerpos en Mecánica clásica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
12.2. Reducción del problema de dos cuerpos en mecánica cuántica . . . . . . . . . . . . . . . . . . . . . 346
12.2.1. Autovalores y autofunciones del Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . . . 347
12.3. El problema clásico de una partı́cula sometida a una fuerza central . . . . . . . . . . . . . . . . . . 348
12.4. Hamiltoniano cuántico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
12.5. Solución general del problema de valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
12.5.1. La ecuación radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
12.5.2. Comportamiento de la solución radial en el origen . . . . . . . . . . . . . . . . . . . . . . . 352
12.6. Estados estacionarios de una partı́cula en un potencial central . . . . . . . . . . . . . . . . . . . . . 353
12.6.1. Degeneración de los niveles de energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354

13. Átomos hidrogenoides 356


13.1. El átomo de Hidrógeno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
13.2. Problema de valores propios del átomo de Hidrógeno . . . . . . . . . . . . . . . . . . . . . . . . . . 357
13.3. Solución de la ecuación radial por series de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . 359
13.3.1. Serie de potencias radial y relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . 359
13.3.2. Condición asintótica ρ → ∞ y truncamiento de la serie . . . . . . . . . . . . . . . . . . . . . 361
13.3.3. Coeficientes del polinomio radial en términos de c0 . . . . . . . . . . . . . . . . . . . . . . . 362
13.3.4. Cálculo de c0 y de la función radial para l = 0, k = 1 . . . . . . . . . . . . . . . . . . . . . 363
13.3.5. Cálculo de c0 y de la función radial para l = 0, k = 2 . . . . . . . . . . . . . . . . . . . . . 364
13.3.6. Cálculo de c0 y de la función radial para l = k = 1 . . . . . . . . . . . . . . . . . . . . . . . 365
13.3.7. Estructura de los niveles de energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
13.4. Parámetros atómicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
13.5. Resumen de resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
13.6. Discusión de los resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
13.6.1. Dependencia angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369

14.Corrientes de probabilidad y acoples magnéticos en átomos 372


14.1. Corrientes de probabilidad para el átomo de Hidrógeno . . . . . . . . . . . . . . . . . . . . . . . . . 372
14.1.1. Efecto sobre la corriente debido a la introducción de un campo magnético . . . . . . . . . . 373
14.2. Átomo de hidrógeno en un campo magnético uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 375
14.2.1. Hamiltoniano del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
14.2.2. Estimación numérica de las contribuciones H0 , H1 y H2 . . . . . . . . . . . . . . . . . . . . 377
14.2.3. Término diamagnético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
14.2.4. Término paramagnético . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
14.3. Efecto Zeeman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
14.3.1. Corrimiento de los niveles atómicos con la corrección paramagnética . . . . . . . . . . . . . 380
14.3.2. Oscilaciones dipolares eléctricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
14.3.3. Frecuencia y polarización de la radiación emitida . . . . . . . . . . . . . . . . . . . . . . . . 382

15.Momento angular intrı́nseco 384


15.1. Comportamiento clásico de átomos paramagnéticos inmersos en un campo magnético . . . . . . . . 384
15.2. Experimento de Stern-Gerlach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
15.3. Resultados del experimento y el momento angular intrı́nseco . . . . . . . . . . . . . . . . . . . . . . 386
15.4. Evidencia experimental del momento angular intrı́nseco del electrón . . . . . . . . . . . . . . . . . 388
15.4.1. Estructura fina de las lı́neas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388
ÍNDICE GENERAL 9

15.4.2. Efecto Zeeman anómalo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388


15.5. Momento angular intrı́nseco en la cuántica no-relativista . . . . . . . . . . . . . . . . . . . . . . . . 389
15.6. Propiedades de un momento angular 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
15.6.1. Resumen de resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
15.6.2. Representación matricial de los observables de espı́n . . . . . . . . . . . . . . . . . . . . . . 394
15.7. Descripción no-relativista de partı́culas con espı́n 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . 395
15.7.1. Construcción de los estados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
15.7.2. Construcción de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
15.8. Representación en la base |p, εi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
15.9. Cálculos de probabilidad para estados de espı́n 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 401

16.Adición de momentos angulares 404


16.1. El problema clásico de la adición del momento angular . . . . . . . . . . . . . . . . . . . . . . . . . 404
16.2. Momento angular total en mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
16.2.1. Dos partı́culas sin espı́n bajo una interacción central . . . . . . . . . . . . . . . . . . . . . . 404
16.2.2. Una partı́cula con espı́n bajo una interacción central . . . . . . . . . . . . . . . . . . . . . . 406
16.2.3. Análisis general de dos momentos angulares asociados a una fuerza central . . . . . . . . . 407
16.3. La adición de dos momentos angulares es otro momento angular . . . . . . . . . . . . . . . . . . . 408
16.4. Adición de dos momentos angulares con j(1) = j(2) = 1/2 . . . . . . . . . . . . . . . . . . . . . . . . 409
16.4.1. Autovalores de J3 y su degeneración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
16.4.2. Diagonalización de J2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
16.4.3. Autoestados de J2 y J3 : singlete y triplete . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
16.5. Método general de adición de dos momentos angulares arbitrarios . . . . . . . . . . . . . . . . . . . 413
16.5.1. Formación del sistema a partir de dos subsistemas . . . . . . . . . . . . . . . . . . . . . . . 414
16.5.2. Momento angular total y sus relaciones de conmutación . . . . . . . . . . . . . . . . . . . . 415
16.5.3. Cambio de base a realizar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
16.5.4. Autovalores de J2 y J3 : Caso de dos espines j1 = j2 = 1/2. . . . . . . . . . . . . . . . . . . 416
16.5.5. Autovalores de J3 y su degeneración: Caso general . . . . . . . . . . . . . . . . . . . . . . . 417
16.5.6. Autovalores de J2 : caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
16.6. Autovectores comunes de J2 y J3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
16.6.1. Caso especial j1 = j2 = 1/2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
16.7. Autovectores de J2 y J3 : Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
16.7.1. Determinación de los vectores |JM i del subespacio E (j1 + j2 ) . . . . . . . . . . . . . . . . . 423
16.7.2. Determinación de los vectores |JM i en los otros subespacios . . . . . . . . . . . . . . . . . 424
16.8. Transformación de la base desacoplada a la base acoplada . . . . . . . . . . . . . . . . . . . . . . . 425

17.Propiedades generales de los sistemas de dos estados 428


17.1. Formulación del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
17.2. Efecto del acople sobre la energı́a y los estados estacionarios . . . . . . . . . . . . . . . . . . . . . . 429
17.2.1. Efecto del acople sobre los estados estacionarios del sistema . . . . . . . . . . . . . . . . . . 429
17.2.2. Efecto de un acople débil sobre los niveles de energı́a y estados estacionarios . . . . . . . . 431
17.2.3. Efecto de un acople fuerte sobre los niveles de energı́a y estados estacionarios . . . . . . . . 432
17.3. Evolución del vector de estado: oscilación entre dos estados . . . . . . . . . . . . . . . . . . . . . . 432

18.Teorı́a cuántica de la dispersión 436


18.1. Teorı́a clásica de la dispersión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
18.2. Diferentes tipos de colisiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
18.3. Ejemplos de dispersión en mecánica clásica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
18.3.1. Dispersión elástica por esfera rı́gida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
10 ÍNDICE GENERAL

18.3.2. Dispersión de Rutherford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441


18.4. Teorı́a cuántica de la dispersión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
18.5. Estados estacionarios de dispersión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
18.5.1. Condiciones fı́sicas sobre el paquete de ondas . . . . . . . . . . . . . . . . . . . . . . . . . . 445
18.6. Cálculo de la sección eficaz usando corrientes de probabilidad . . . . . . . . . . . . . . . . . . . . . 448
18.7. Ecuación integral de dispersión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
18.7.1. Ecuación integral y función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
18.7.2. Determinación de la función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452
18.7.3. Solución de la ecuación integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
18.8. Aproximación de Born . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
18.8.1. Rango de validez de la aproximación de Born . . . . . . . . . . . . . . . . . . . . . . . . . . 457
18.8.2. Aproximación de Born para el potencial de Yukawa . . . . . . . . . . . . . . . . . . . . . . 458

19.Teorı́a cuántica de la dispersión II: Ondas parciales 461


19.1. Estados estacionarios de partı́cula libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462
19.2. Estados estacionarios de partı́cula libre con momento bien definido: Ondas planas . . . . . . . . . . 462
19.3. Estados estacionarios de partı́cula libre con momento angular bien definido: Ondas esféricas libres. 463
19.4. Caracterización de las ondas esféricas libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
19.4.1. Álgebra de generadores de ondas esféricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
19.4.2. Relaciones de recurrencia para las ondas esféricas libres . . . . . . . . . . . . . . . . . . . . 465
19.4.3. Solución de la ecuación radial para l = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466
19.4.4. Generación de ondas esféricas libres con l 6= 0, a través de P+ y L± . . . . . . . . . . . . . . 468
19.4.5. Ondas esféricas libres normalizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469
19.4.6. Ortonormalidad de las funciones esféricas libres . . . . . . . . . . . . . . . . . . . . . . . . . 471
19.4.7. Comportamiento asintótico de las ondas esféricas libres . . . . . . . . . . . . . . . . . . . . 474
19.4.8. Relación entre las ondas esféricas libres y las planas . . . . . . . . . . . . . . . . . . . . . . 476
19.4.9. Interpretación fı́sica de las ondas esférica libres . . . . . . . . . . . . . . . . . . . . . . . . . 479
19.5. Ondas parciales en el potencial V (r) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
19.5.1. Ondas parciales en potenciales de rango finito . . . . . . . . . . . . . . . . . . . . . . . . . . 483
19.5.2. Sección eficaz en términos de los corrimientos de fase δl . . . . . . . . . . . . . . . . . . . . 484
19.5.3. Dispersión por esfera rı́gida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 487
19.6. Colisiones con absorción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488
19.6.1. Sección eficaz en procesos absortivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 489
19.6.2. Teorema óptico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493

20.Teorı́a estacionaria de perturbaciones 495


20.1. Descripción del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495
20.2. Solución aproximada para los valores propios de H (λ) . . . . . . . . . . . . . . . . . . . . . . . . . 497
20.3. Perturbación de un nivel no degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 500
20.3.1. Corrección de primer orden para la energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . 501
20.3.2. Corrección de primer orden para el autovector . . . . . . . . . . . . . . . . . . . . . . . . . 501
20.3.3. Corrección de segundo orden para la energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . 502
20.3.4. Corrección de segundo orden para el estado . . . . . . . . . . . . . . . . . . . . . . . . . . . 503
20.3.5. Cota superior para ε2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503
20.4. Perturbación de un nivel degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504
20.4.1. Comportamiento de subniveles degenerados a más alto orden en perturbaciones . . . . . . . 505
20.5. Consideraciones generales sobre teorı́a estacionaria de perturbaciones . . . . . . . . . . . . . . . . . 506
20.6. Perturbaciones estacionarias sobre el oscilador armónico . . . . . . . . . . . . . . . . . . . . . . . . 507
20.6.1. Orden de magnitud de los observables no perturbados . . . . . . . . . . . . . . . . . . . . . 507
ÍNDICE GENERAL 11

20.6.2. Parametrización de la perturbación al oscilador con potencial lineal adicional . . . . . . . . 508


20.6.3. Perturbación al oscilador armónico con potencial cuadrático . . . . . . . . . . . . . . . . . . 510
20.6.4. Perturbación del oscilador armónico por un potencial cúbico . . . . . . . . . . . . . . . . . 511

21.Método variacional 515


21.1. Descripción del método . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
21.2. Implementación del método variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
21.3. Funciones de prueba restringidas a un subespacio de E . . . . . . . . . . . . . . . . . . . . . . . . . 518
21.4. Espectro del oscilador armónico por métodos variacionales . . . . . . . . . . . . . . . . . . . . . . . 519
21.4.1. Estimación del estado base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519
21.4.2. Estimación del primer estado excitado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 520
21.5. Espectro del oscilador armónico con otras funciones de prueba . . . . . . . . . . . . . . . . . . . . 521

22.Teorı́a de perturbaciones dependiente del tiempo 522


22.1. Solución perturbativa de la ecuación de Schrödinger dependiente del tiempo . . . . . . . . . . . . . 523
22.1.1. Estado del sistema a primer orden en λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 525
22.1.2. Probabilidad de transición a segundo orden en λ . . . . . . . . . . . . . . . . . . . . . . . . 526
22.2. Perturbaciones sinusoidales y constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527
22.3. Perturbación senoidal entre dos estados discretos: resonancias . . . . . . . . . . . . . . . . . . . . . 528
22.3.1. Ancho de resonancia e incertidumbre energı́a tiempo . . . . . . . . . . . . . . . . . . . . . . 529
22.3.2. Condiciones para la validez del método perturbativo . . . . . . . . . . . . . . . . . . . . . . 530
22.4. Acoplamientos con estados del espectro contı́nuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533
22.4.1. El caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534
22.4.2. Regla de oro de Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534
22.4.3. Probabilidad de transición hacia el contı́nuo para perturbación senoidal . . . . . . . . . . . 536
22.4.4. Dispersión y regla de oro de Fermi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536

23.Estructura fina e hiperfina del átomo de Hidrógeno 538


23.1. El Hamiltoniano de estructura fina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 538
23.1.1. Orden de Magnitud de H0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539
23.1.2. Término de corrección cinética Wmv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540
23.1.3. Acoplamiento espı́n-órbita WSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540
23.1.4. Término de Darwin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
23.2. Estructura hiperfina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543
23.2.1. Interpretación de los términos en la estructura hiperfina . . . . . . . . . . . . . . . . . . . . 543
23.3. Estructura fina del nivel n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544
23.4. Representación matricial de la estructura fina para el nivel n = 2 . . . . . . . . . . . . . . . . . . . 545
23.5. Cálculo de los términos cinético

y de
Darwin
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 546
23.5.1. Cálculo de h1/Ri , 1/R2 y 1/R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548
23.5.2. Cálculo de hWmv i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
23.5.3. El valor medio hWD i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
23.6. Cálculo del término de espı́n-órbita WSO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 551
23.6.1. Cálculo del término espı́n-angular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 551
23.6.2. Cálculo del término radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553
23.6.3. Contribución espı́n-órbita completa para la subcapa 2p . . . . . . . . . . . . . . . . . . . . . 553
23.7. Sı́ntesis de resultados sobre la estructura fina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554
23.8. La estructura fina para n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556
23.9. Estructura hiperfina para n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556
23.9.1. Cálculo del factor orbital R para Whf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 558
12 ÍNDICE GENERAL

23.9.2. Cálculo del factor de espı́n para Whf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 558


23.9.3. Espectro hiperfino del nivel 1s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559

24.Campos externos sobre el átomo de Hidrógeno 561


24.1. Efecto Zeeman de la estructura hiperfina del estado base 1s . . . . . . . . . . . . . . . . . . . . . . 561
24.1.1. Efecto Zeeman de campo débil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562
24.1.2. El efecto Zeeman para campo fuerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 566
24.1.3. El efecto Zeeman para campo intermedio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 569
24.2. Efecto Stark para el átomo de Hidrógeno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572
24.2.1. El efecto Stark sobre el nivel n = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572
24.2.2. Efecto Stark sobre el nivel n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574

25.Moléculas diatómicas 576


25.1. Estados de momento angular cero (l = 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 578
25.2. Estados de momento angular no nulo (l 6= 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579
25.3. Espectro de moléculas diatómicas heteropolares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581
25.3.1. Espectro puramente rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
25.3.2. Espectro vibracional-rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583
25.4. Correcciones a la estructura espectral (opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584
25.4.1. Corrección a las funciones de onda y los niveles de energı́a . . . . . . . . . . . . . . . . . . . 587
25.4.2. Distorsión centrı́fuga de la molécula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
25.4.3. Acople vibracional-rotacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
25.5. Espectro de moléculas diatómicas homopolares: efecto Raman . . . . . . . . . . . . . . . . . . . . . 589

26.Sistemas cuánticos de partı́culas idénticas 590


26.1. Partı́culas idénticas en mecánica clásica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 590
26.2. Partı́culas idénticas en mecánica cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591
26.3. Degeneración de intercambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592
26.3.1. Degeneración de intercambio para un sistema de dos partı́culas de espı́n 1/2 . . . . . . . . . 593
26.3.2. Degeneración de intercambio para un sistema arbitrario . . . . . . . . . . . . . . . . . . . . 594
26.4. Operadores de permutación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595
26.4.1. Permutaciones en sistemas de dos partı́culas . . . . . . . . . . . . . . . . . . . . . . . . . . . 595
26.4.2. Simetrizadores y antisimetrizadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596
26.4.3. Transformación de los observables por medio de las permutaciones . . . . . . . . . . . . . . 597
26.4.4. Permutación de un conjunto arbitrario de partı́culas . . . . . . . . . . . . . . . . . . . . . . 598
26.5. Postulado de simetrización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601
26.5.1. Aplicación del postulado a partı́culas compuestas . . . . . . . . . . . . . . . . . . . . . . . . 602
26.5.2. Solución de la degeneración de intercambio . . . . . . . . . . . . . . . . . . . . . . . . . . . 602
26.6. Aplicación del postulado de simetrización para N = 2 . . . . . . . . . . . . . . . . . . . . . . . . . 603
26.7. Postulado de simetrización para N arbitrario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604
26.7.1. Postulado de simetrización para bosones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604
26.7.2. Postulado de simetrización para fermiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605
26.8. Construcción de una base de estados fı́sicos de partı́culas idénticas . . . . . . . . . . . . . . . . . . 606
26.8.1. Propiedades de los kets de ocupación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 608
26.9. Consistencia del postulado de simetrización con los otros postulados . . . . . . . . . . . . . . . . . 609
26.9.1. Postulado de simetrización y el proceso de medida . . . . . . . . . . . . . . . . . . . . . . . 609
26.9.2. Postulado de simetrización y evolución temporal . . . . . . . . . . . . . . . . . . . . . . . . 610
26.10.Consecuencias fenomenológicas del postulado de simetrización . . . . . . . . . . . . . . . . . . . . . 611
26.10.1.Diferencias entre fermiones y bosones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 611
ÍNDICE GENERAL 13

26.10.2.Estado base de un sistema de partı́culas idénticas independientes . . . . . . . . . . . . . . . 611


26.11.Predicciones fı́sicas del postulado de simetrización . . . . . . . . . . . . . . . . . . . . . . . . . . . 613
26.11.1.Predicciones sobre partı́culas aparentemente idénticas . . . . . . . . . . . . . . . . . . . . . 615
26.11.2.Colisión elástica de dos partı́culas idénticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 616
26.12.Situaciones en las cuales se puede ignorar el postulado de simetrización . . . . . . . . . . . . . . . 617
26.12.1.Partı́culas idénticas ubicadas en regiones espaciales distintas . . . . . . . . . . . . . . . . . . 617
26.12.2.Identificación de partı́culas por su dirección de espı́n . . . . . . . . . . . . . . . . . . . . . . 619

27. Átomos de muchos electrones y aproximación de campo central 620


27.1. Aproximación de campo central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 621
27.2. Configuraciones electrónicas de los átomos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624

28.El átomo de Helio 626


28.1. Configuraciones del átomo de Helio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 626
28.1.1. Degeneración de las configuraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 627
28.2. Efecto de la repulsión electrostática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629
28.2.1. Base de E (n, l; n′ , l′ ) adaptada a las simetrı́as de W . . . . . . . . . . . . . . . . . . . . . . 629
28.2.2. Restricciones impuestas por el postulado de simetrización . . . . . . . . . . . . . . . . . . . 631
28.2.3. Términos espectrales generados por la repulsión electrostática . . . . . . . . . . . . . . . . . 633
28.3. Términos espectrales que surgen de la configuración 1s, 2s . . . . . . . . . . . . . . . . . . . . . . . 634
28.3.1. La integral de intercambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 636
28.3.2. Análisis del papel del postulado de simetrización . . . . . . . . . . . . . . . . . . . . . . . . 637
28.3.3. Hamiltoniano efectivo dependiente del espı́n . . . . . . . . . . . . . . . . . . . . . . . . . . . 638
28.4. Términos espectrales que surgen de otras configuraciones excitadas . . . . . . . . . . . . . . . . . . 640
28.5. Validez del tratamiento perturbativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 640
28.6. Estructura fina del átomo de helio y multipletes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 641

29.Método de Hartree-Fock 644


29.1. Producto interno entre determinantes de Slater y un operador simétrico . . . . . . . . . . . . . . . 646
29.1.1. Ejemplo de aplicación para N = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 648
29.2. Valor esperado de la energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 649
29.2.1. Valor esperado de H (0) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 650
29.2.2. Valor esperado de H (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651
29.2.3. Valor esperado de H = H (0) + H (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653
29.2.4. Interpretación fı́sica de los términos directo y de intercambio . . . . . . . . . . . . . . . . . 653
29.3. Método de Hartree-Fock para una capa cerrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654
29.3.1. Minimización de E [D] con ligaduras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655
29.3.2. Cálculo de δF [ψ, ψ ∗ ] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 656
29.4. Operadores de Hartree-Fock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
29.5. Interpretación de la ecuación de Hartree-Fock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659
29.6. Solución por iteración de la ecuación de HF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659
29.7. Determinación del valor Fı́sico de la energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 660
Capı́tulo 1

Linear or vector spaces

We shall describe the most important properties of linear or vector spaces. This treatment is not rigorous at all,
and only some simple proofs are shown. Our aim limits to provide a framework for our subsequent developments.

1.1. Definition of a linear vector space


Any non-empty set of objects V = {xi } form a linear space (or a vector space) if there is a “sum” operation
defined between the elements, and a “multiplication” by scalars (i.e. the system of real or complex numbers) such
that

1. If xi ∈ V , and α is a scalar, then αxi ∈ V

2. If xi , xj ∈ V , then xi + xj ∈ V

3. xi + xj = xj + xi , ∀xi , xj ∈ V

4. xi + (xj + xk ) = (xi + xj ) + xk , ∀xi , xj , xk ∈ V

5. (α + β) xi = αxi + βxi ; ∀xi ∈ V

6. α (xi + xj ) = αxi + αxj , ∀xi , xj ∈ V

7. (αβ) xi = α (βxi ) ; ∀xi ∈ V

8. 1xi = xi ; ∀xi ∈ V

9. ∃ an element 0 ∈ V such that xi + 0 = xi , ∀xi ∈ V

10. ∀xi ∈ V , ∃ an element in V denoted by −xi such that xi + (−xi ) = 0

The element 0 is usually called the null vector or the origin. The element −x is called the additive inverse of x.
We should distinguish the symbols 0 (scalar) and 0 (vector). The two operations defined here (sum and product
by scalars) are called linear operations. A linear space is real (complex) if we consider the scalars as the set of real
(complex) numbers.
Let us see some simple examples

Example 1.1 The set of all real (complex) numbers with ordinary addition and multiplication taken as the linear
operations. This is a real (complex) linear space.

14
1.2. ALGEBRAIC PROPERTIES 15

Example 1.2 The set Rn (C n ) of all n-tuples of real (complex) numbers is a real (complex) linear space under
the following linear operations
x ≡ (x1 , x2 , . . . , xn ) ; y ≡ (y1 , y2 , . . . , yn )
αx ≡ (αx1 , αx2 , , αxn ) ; x + y ≡ (x1 + y1 , x2 + y2 , . . . , xn + yn )

Example 1.3 The set of all bounded continuous real functions defined on a given interval [a, b] of the real line,
with the linear operations defined pointwise as
(f + g) (x) = f (x) + g (x) ; (αf ) (x) = αf (x) ; x ∈ [a, b]

We can see that a linear or vector space forms an abelian group whose elements are the vectors, and with
addition as the law of combination. However, the vector space introduce an additional structure by considering
multiplication by scalars which is not a group property.
Some very important kinds of vector spaces are the ones containing certain sets of functions with some specific
properties. We can consider for example, the set of functions defined on certain interval with some condition of
continuity integrability etc. For instance, in quantum mechanics we use a vector space of functions.

1.2. Algebraic properties


Some algebraic properties arise from the axioms:
The origin or identity 0 must be unique. Assuming another identity 0′ we have that x + 0′ = 0′ + x = x for
all x ∈ V. Then 0′ = 0′ + 0 = 0. Hence 0′ = 0.
The additive inverse of any vector x is unique. Assume that x′ is another inverse of x then

x′ = x′ + 0 = x′ + (x+ (−x)) = x′ + x + (−x) = 0 + (−x) = −x
⇒ x′ = −x
xi + xk = xj + xk ⇒ xi = xj to see it, we simply add −xk on both sides. This property is usually called the
rearrangement lemma.
α · 0 = 0 we see it from α · 0 + αx = α · (0 + x) = αx = 0 + αx and applying the rearrangement lemma.
0 · x = 0 it proceeds from 0 · x + αx = (0 + α) x = αx = 0 + αx and using the rearrangement lemma.
(−1) x = −x we see it from x+ (−1) x = 1 · x + (−1) x = (1 + (−1)) x = 0x = 0 = x+ (−x) and the
rearrangement lemma.
αx = 0 then α = 0 or x = 0; for if α 6= 0 we can multiply both sides of the equation by α−1 to give
α (αx) = α−1 0 ⇒ α−1 α x = 0 ⇒ 1x = 0 ⇒ x = 0. If x 6= 0 we prove that α = 0 by assuming α 6= 0 and
−1

finding a contradiction. This is inmediate from the above procedure that shows that starting with α 6= 0 we arrive
to x = 0.
It is customary to simplify the notation in x + (−y) and write it as x − y. The operation is called substraction.

1.3. Vector subspaces


Definition 1.1 A non-empty subset M of V is a vector subspace of V if M is a vector space on its own right
with respect to the linear operations defined in V .

This is equivalent to the condition that M contains all sums, negatives and scalar multiples. The other pro-
perties are derived directly from the superset V . Further, since −x = (−1) x it reduces to say that M must be
closed under addition and scalar multiplication.
When M is a proper subset of V it is called a proper subspace of V . The zero space {0} and the full space V
itself are trivial subspaces of V .
The following concept is useful to study the structure of vector subspaces of a given vector space,
16 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Definition 1.2 Let S = {x1 , .., xn } be a non-empty finite subset of V , then the vector
x = α1 x1 + α2 x2 + . . . + αn xn (1.1)
is called a linear combination of the vectors in S.

We can redefine a vector subspace by saying that a non-empty subset M of V is a linear subspace if it is closed
under the formation of linear combinations. If S is a subset of V we can see that the set of all linear combinations
of vectors in S is a vector subspace of V , we denote this subspace as [S] and call it the vector subspace spanned by
S. It is clear that [S] is the smallest subspace of V that contains S. Similarly, for a given subspace M a non-empty
subset S of M is said to span M if [S] = M . Note that the closure of a vector space under an arbitrary linear
combination can be proved by induction from the closure property of vector spaces under linear operations. Notice
additionally, that the proof of induction only guarantees the closure under any finite sum of terms, if we have an
infinite sum of terms (e.g. a series) we cannot ensure that the result is an element of the space, this is the reason
to define linear combinations as finite sums. If we want a property of closure under some infinite sums additional
structure should be added as we shall see later.
Suppose now that M and N are subspaces of V . Consider the set M + N of all sums of the form x + y with
x ∈ M and y ∈ N . Since M and N are subspaces, this sum is the subspace spanned by the union of both subspaces
M + N = [M ∪ N ]. It could happen that M + N = V in this case we say that V is the sum of M and N . In turn
it means that every vector in V is expressible as a sum of a vector in M plus a vector in N . Further, in some cases
any element z of V is expressible in a unique way as such a sum, in this case we say that V is the direct sum of
M and N and it is denoted by
V =M ⊕N
we shall establish the conditions for a sum to become a direct sum

Theorem 1.1 Let a vector space V be the sum of two of its subspaces V = M + N . Then V = M ⊕ N ⇔ M ∩ N =
{0}

Proof: Assume first that V = M ⊕ N , we shall suppose that ∃ z 6= 0 with z ∈ M ∩ N , and deduce a
contradiction from it. We can express z in two different ways z = z + 0 with z ∈ M and 0 ∈ N or z = 0 + z with
0 ∈ M and z ∈ N . This contradicts the definition of a direct sum.
Now assume M ∩ N = {0}, by hypothesis V = M + N so that any z ∈ V can be expressed by z = x1 + y1
with x1 ∈ M and y1 ∈ N . Suppose that there is another decomposition z = x2 + y2 with x2 ∈ M and y2 ∈ N .
Hence x1 + y1 = x2 + y2 ⇒ x1 − x2 = y1 − y2 ; but x1 − x2 ∈ M and y1 − y2 ∈ N . Since they are equal, then both
belong to the intersection so x1 − x2 = y1 − y2 = 0 then x1 = x2 and y1 = y2 showing that the decomposition
must be unique. QED.
When two vector subspaces of a given space have only the zero vector in common, it is customary to call them
disjoint subspaces. It is understood that it does not correspond to disjointness in the set-theoretical sense, after all
two subspaces of a given space cannot be disjoint as sets, since any subspace must contain 0. Thus no confusion
arises from this practice.
The concept of direct sum can be generalized when more subspaces are involved. We say that V is the direct
sum of a collection of subspaces {M1 , .., Mn } and denote it as
V = M1 ⊕ M2 ⊕ . . . ⊕ Mn
when each z ∈ V can be expressed uniquely in the form
z = x1 + x2 + . . . + xn ; xi ∈ Mi
In this case if V = M1 + .. + Mn , this sum becomes a direct sum if and only if each Mi is disjoint from the subspace
spanned by the others. To see it, it is enough to realize that
V = M1 + M2 + .. + Mn = M1 + [M2 + .. + Mn ] = M1 + [∪ni=2 Mi ]
1.4. DIMENSION AND BASES IN VECTOR SPACES 17

then V = M1 ⊕ [M2 + .. + Mn ] if and only if M1 ∩ [∪ni=2 Mi ] = {0}, proceeding similarly for the other Mi′ s we
arrive at the condition above. Note that this condition is stronger than the condition that any given Mi is disjoint
from each of the others.
The previous facts can be illustrated by a simple example. The most general non-zero proper subspaces of R3
are lines or planes that passes through the origin. Thus let us define

M1 = {(x1 , 0, 0)} , M2 = {(0, x2 , 0)} , M3 = {(0, 0, x3 )}


M4 = {(0, x2 , x3 )} , M5 = {(x1 , 0, x3 )} , M6 = {(x1 , x2 , 0)}

M1 , M2 , M3 are the coordinate axes of R3 and M4 , M5 , M6 are its coordinate planes. R3 can be expressed by direct
sums of these spaces in several ways

R3 = M1 ⊕ M2 ⊕ M3 = M1 ⊕ M4 = M2 ⊕ M5 = M3 ⊕ M6

for the case of R3 = M1 ⊕M2 ⊕M3 we see that the subspace spanned by M2 and M3 i.e. M2 +M3 = [M2 ∪ M3 ] = M4
is disjoint from M1 . Similarly M2 ∩ [M1 ∪ M3 ] = {0} = M3 ∩ [M1 ∪ M2 ]. It is because of this, that we have a direct
sum.
Now let us take M3 , M6 and M ′ defined as a line on the plane M4 that passes through the origin making an
angle θ with the axis x3 such that 0 < θ < π/2, since R3 = M3 + M6 it is clear that

R3 = M3 + M6 + M ′ ; M3 ∩ M6 = M3 ∩ M ′ = M6 ∩ M ′ = {0} (1.2)

however this is not a direct sum because M3 + M6 = R3 so that M ′ ∩ (M3 + M6 ) 6= {0}. Despite each subspace
is disjoint from each other, there is at least one subspace that is not disjoint from the subspace spanned by the
others. Let us show that there are many decompositions for a given vector z ∈ R3 when we use the sum in (1.2).
Since R3 = M3 + M6 a possible decomposition is z = x + y + 0 with x ∈ M3 , y ∈ M6 , 0 ∈ M ′ . Now let us take an
arbitrary non-zero element w of M ′ ; clearly M3 +M6 = R3 contains M ′ so that w = x′ +y′ with x′ ∈ M3 , y′ ∈ M6 .
Now we write z = x + y = (x − x′ ) + (y − y′ ) + x′ + y′ then z = (x − x′ ) + (y − y′ ) + w. We see that (x − x′ ) is
in M3 and (y − y′ ) is in M6 . Now, since w ∈ M ′ and w 6= 0 this is clearly a different decomposition with respect
to the original one. An infinite number of different decompositions are possible since w is arbitrary.
Finally, it can be proved that for any given subspace M in V it is always possible to find another subspace N in
V such that V = M ⊕ N . Nevertheless, for a given M the subspace N is not neccesarily unique. A simple example
is the following, in R2 any line crossing the origin is a subspace M and we can define N as any line crossing the
origin as long as it is not collinear with M ; for any N accomplishing this condition we have V = M ⊕ N .

1.4. Dimension and bases in vector spaces


Definition 1.3 Let V be a vector space and S = {x1 , .., xn } a finite non-empty subset of V . S is defined as
linearly dependent if there is a set of scalars {α1 , .., αn } not all of them zero such that

α1 x1 + α2 x2 + .. + αn xn = 0 (1.3)

if S is not linearly dependent we say that it is linearly independent, this means that in Eq. (1.3) all coefficients αi
must be zero. Thus linear independence of S means that the only solution for Eq. (1.3) is the trivial one. When
non-trivial solutions exists the set is linearly dependent.

¿What is the utility of the concept of linear independence of a given set S? to see it, let us examine a given
vector x in [S], each of these vectors arise from linear combinations of vectors in S

x = α1 x1 + α2 x2 + .. + αn xn ; xi ∈ S (1.4)
18 CAPÍTULO 1. LINEAR OR VECTOR SPACES

we shall see that for the ordered set S = {x1 , .., xn } the corresponding ordered set {α1 , .., αn } associated with x
by Eq. (1.4) is unique. Suppose there is another decomposition of x as a linear combination of elements of S

x = β1 x1 + β2 x2 + .. + βn xn ; xi ∈ S (1.5)

substracting (1.4) and (1.5) we have

0 = (α1 − β1 ) x1 + (α2 − β2 ) x2 + .. + (αn − βn ) xn

but linear independence require that only the trivial solution exists, thus αi = βi and the ordered set of coefficients
is unique. This is very important for the theory of representations of vector spaces. The discussion above permits
to define linearly independence for an arbitrary (not necessarily finite) non-empty set S

Definition 1.4 An arbitrary non-empty subset S ⊆ V is linearly independent if every finite non-empty subset of
S is linearly independent in the sense previously established.

As before, an arbitrary non-empty set S is linearly independent if and only if any vector x ∈ [S] can be written
in a unique way as a linear combination of vectors in S.
The most important linearly independent sets are those that span the whole space i.e. [S] = V this linearly
independent sets are called bases. It can be checked that S is a basis if and only if it is a maximal linearly
independent set, in the sense that any proper superset of S must be linearly dependent. We shall establish
without proof a very important theorem concerning bases of vector spaces

Theorem 1.2 If S is a linearly independent set of vectors in a vector space V , there exists a basis B in V such
that S ⊆ B.

In words, given a linearly independent set, it is always possible to add some elements to S for it to become
a basis. A linearly independent set is non-empty by definition and cannot contain the null vector. Hence, we see
that if V = {0} it does not contain any basis, but if V 6= {0} and we can take a non-zero element x of V , the set
{x} is linearly independent and the previous theorem guarantees that V has a basis that contains {x}, it means
that

Theorem 1.3 Every non-zero vector space has a basis

Now, since any set consisting of a single non-zero vector can be enlarged to become a basis it is clear that any
non-zero vector space contains an infinite number of bases. It worths looking for general features shared by all
bases of a given linear space. Tne first theorem in such a direction is the following

Theorem 1.4 Let S = {x1 , x2 , .., xn } be a finite, odered, non-empty subset of the linear space V . If n = 1 then
S is linearly dependent⇔ x1 = 0. If n > 1 and x1 6= 0 then S is linearly dependent if and only if some one of the
vectors x2 , ..., xn is a linear combination of the vectors in the ordered set S that precede it.

Proof: The first assertion is trivial. Then we settle n > 1 and x1 6= 0. Assuming that one of the vectors xi in
the set x2 , ..., xn is a linear combination of the preceding ones we have

xi = α1 x1 + ... + αi−1 xi−1 ⇒ α1 x1 + ... + αi−1 xi−1 − 1 · xi = 0

since the coefficient of xi is 1, this is a non-trivial linear combination of elements of S that equals zero. Thus S is
linearly dependent. We now assume that S is linearly dependent hence the equation

α1 x1 + ... + αn xn = 0
1.4. DIMENSION AND BASES IN VECTOR SPACES 19

has a solution with at least one non-zero coefficcient. Let us define αi as the last non zero coefficient, since x1 6= 0
then i > 1 then we have
   
α1 αi−1
α1 x1 + ... + αi xi + 0 · xi+1 + ... + 0 · xn = 0 ⇒ xi = − x1 + ... + − xi−1
αi αi

and xi is written as a linear combination of the vectors that precede it in the ordered set S. QED
The next theorem provides an important structural feature of the set of bases in certain linear spaces

Theorem 1.5 If a given non-zero linear space V has a finite basis B1 = {e1 , ..., en } with n elements, then any
other basis B2 = {fi } of V must be finite and also with n elements.

The following theorem (that we give without proof) gives a complete structure to this part of the theory of
vector spaces

Theorem 1.6 Let V be a non-zero vector space. If B1 = {ei } and B2 = {uj } are two bases of the vector space,
then B1 and B2 are sets with the same cardinality.

These theorem is valid even for sets with infinite cardinality. This result says that the cardinality of a basis is
a universal attribute of the vector space since it does not depend on the particular basis used. Hence the following
are natural definitions

Definition 1.5 The dimension of a non-zero vector space is the cadinality of any of its basis. If V = {0} the
dimension is defined to be zero.

Definition 1.6 A vector space is finite-dimensional if its dimension is a non negative integer. Otherwise, it is
infinite-dimensional.

As any abstract algebraic system, vector spaces requires a theory of representations in which the most abstract
set is replaced by another set with more tangible objects. However, for the representation to preserve the abstract
properties of the vector space, set equivalence and linear operations must be preserved. This induces the following
definition

Definition 1.7 Let V and V ′ two vector spaces with the same system of scalars. An isomorphism of V onto V ′
is a one-to-one mapping f of V onto V ′ such that f (x + y) = f (x) + f (y) and f (αx) = αf (x)

Definition 1.8 Two vector spaces with the same system of scalars are called isomorphic if there exists an iso-
morphism of one onto the other.

To say that two vector spaces are isomorphic means that they are abstractly identical with respect to their
structure as vector spaces.
Now let V be a non zero finite dimensional space. If n is its dimension, there exists a basis B = {e1 , .., en }
whose elements are written in a definite order. Each vector x in V can be written uniquely in the form

x = α1 e1 + .. + αn en

so the n−tuple (α1 , .., αn ) is uniquely determined by x. If we define a mapping f by f (x) = (α1 , .., αn ) we see
that this is an isomorphism of V onto Rn or C n depending on the system of scalars defined for V .

Theorem 1.7 Any real (complex) non-zero finite dimensional vector space of dimension n is isomorphic to Rn
(C n ).
20 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Indeed, this theorem can be extended to vector spaces of arbitrary dimensions, we shall not discuss this topic
here. By now, it suffices to realize that the isomorphism establishes here is not unique for it depends on the basis
chosen and even on the order of vectors in a given basis. It can be shown also that two vector spaces V and V ′
are isomorphic if and only if they have the same scalars and the same dimension.
From the results above, we could then be tempted to say that the abstract concept of vector space is no
useful anymore. However, this is not true because on one hand the isomorphism depends on the basis chosen and
most results are desirable to be written in a basis independent way. But even more important, almost all vector
spaces studied in Mathematics and Physics posses some additional structure (topological or algebraic) that are
not neccesarily preserve by the previous isomorphisms.

1.5. Mappings and transformations in vector spaces


For two vector spaces V and V ′ with the same system of scalars we can define a mapping T of V into V ′ that
preserves linear properties
T (x + y) = T (x) + T (y) ; T (αx) = αT (x)
T is called a linear transformation. We can say that linear transformations are isomorphisms of V into V ′ since
linear operations are preserved. T also preserves the origin and negatives

T (0) = T (0 · 0) = 0 · T (0) = 0 ; T (−x) = T ((−1) x) = (−1) T (x) = −T (x)

we shall see later that the states of our physical systems are vectors of a given vector space. Hence, the transfor-
mations of these vectors are also important in Physics because they will represent transformations in the states
of our system. We shall see later that the set of all linear transformations are in turn vector spaces with their own
internal organization.
Let us now define some basic operations with linear transformations, a natural definition of the sum of two
linear transformations is of the form
(T + U ) (x) ≡ T (x) + U (x) (1.6)
and a natural definition of multiplication by scalars is

(αT ) (x) ≡ αT (x) (1.7)

finally the zero and negative linear transformations are defined as

0 (x) ≡ 0 ; (−T ) (x) ≡ −T (x) (1.8)

with these definitions it is inmediate to establish the following

Theorem 1.8 Let V and V ′ be two vector spaces with the same system of scalars. The set of all linear transfor-
mations of V into V ′ with the linear operations defined by Eqs. (1.6, 1.7, 1.8) is itself a vector space.

The most interesting cases are the linear transformations of V into itself and the linear transformations of V
into the vector space of scalars (real or complex). We shall study now the first case.

1.6. Linear transformations of a vector space into itself


In this case we usually speak of linear transformations on V . The first inmediate consequence is the capability
of defining the composition of operators (or product of operators)

(T U ) (x) ≡ T (U (x)) (1.9)


1.6. LINEAR TRANSFORMATIONS OF A VECTOR SPACE INTO ITSELF 21

associativity and distributivity properties can easily be derived

T (U V ) = (T U ) V ; T (U + V ) = T U + T V
(T + U ) V = T V + U V ; α (T U ) = (αT ) U = T (αU )

we prove for instance

[(T + U ) V ] (x) = (T + U ) (V (x)) = T (V (x)) + U (V (x))


= (T V ) (x) + (U V ) (x) = (T V + U V ) (x)

commutativity does not hold in general. It is also possible for the product of two non-zero linear transformations
to be zero. An example of non commutativity is the following: we define on the space P of polynomials p (x) the
linear operators M and D

dp dp
M (p) ≡ xp ; D (p) = ⇒ (M D) (p) = M (D (p)) = xD (p) = x
dx dx
dp
(DM ) (p) = D (M (p)) = D (xp) = x +p
dx

and M D 6= DM. Suppose now the linear transformations on R2 given by

Ta ((x1 , x2 )) = (x1 , 0) ; Tb ((x1 , x2 )) = (0, x2 ) ⇒ Ta Tb = Tb Ta = 0

thus Ta 6= 0 and Tb 6= 0 but Ta Tb = Tb Ta = 0.


Another natural definition is the identity operator I

I (x) ≡ x

we see that I 6= 0 ⇔ V 6= {0}. Further


IT = T I = T

for every linear operator T on V . For any scalar α the operator αI is called scalar multiplication since

(αI) (x) = αI (x) = αx

it is well known that for a mapping of V into V ′ to admit an inverse of V ′ into V requires to be one-to-one and
onto. In this context this induces the definition

Definition 1.9 A linear transformation T on V is non-singular if it is one-to-one and onto, and singular other-
wise.

When T is non-singular its inverse can be defined so that

T T −1 = T −1 T = I

it can be shown that when T is non-singular T −1 is also a non-singular linear transformation.


For future purposes the following theorem is highly relevant

Theorem 1.9 If T is a linear transformation on V , then T is non-singular⇔ T (B) is a basis for V whenever B
is.
22 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.6.1. Projection operators


We shall discuss some very important types of linear transformations. Let V be the direct sum of two subspaces
V = M ⊕ N it means that any vector z in V can be written in a unique way as z = x + y with x ∈ M and y ∈ N .
Since x is uniquely determined by z this decomposition induces a natural mapping of V onto M in the form

P (z) = x

it is easy to show that this transformation is linear and is called the projection on M along N . The most important
property of these transformations is that they are idempotent i.e. P 2 = P we can see it taking into account that
the unique decomposition of x is x = x + 0 so that

P 2 (z) = P (P (z)) = P (x) = x = P (z)

The opposite is also true i.e. a given linear idempotent linear transformation induces a decomposition of the space
V in a direct sum of two subspaces

Theorem 1.10 If P is a linear transformation on a vector space V , P is idempotent⇔there exists subspaces M


and N in V such that V = M ⊕ N and P is the projection on M along N .

Proof : We already showed that decomposition in a direct sum induces a projection, to prove the opposite let
define M and N in the form
M ≡ {P (z) : z ∈ V } ; N = {z : P (z) = 0}
M and N are vector subspaces and correspond to the range and the null space (or kernel) of the transformation
P respectively. We show first that M + N = V , this follows from the identity

z = P (z) + (I − P ) (z) (1.10)

P (z) belongs to M by definition, now



P ((I − P ) (z)) = (P (I − P )) (z) = P − P 2 (z) = (P − P ) (z) = 0 (z) = 0

thus (I − P ) (z) belongs to the null space N so M + N = V . To prove that this is a direct sum we must show that
M and N are disjoint (theorem 1.1). For this, assume that we have a given element P (z) in M that is also in N
then
P (P (z)) = 0 ⇒ P 2 (z) = P (z) = 0
thus the common element P (z) must be the zero element. Hence, M and N are disjoint and V = M ⊕ N . Further,
from (1.10) P is the projection on M along N .
Of course in z = x + y with x ∈ M , y ∈ N we can define a projection P ′ (z) = y on N along M . In this case
V = M ⊕ N = N ⊕ M but now M is the null space and N is the range. It is easy to see that P ′ = I − P .
On the other hand, we have seen that for a given subspace M in V we can always find another subspace N
such that V = M ⊕ N so for a given M we can find a projector with range M and null space N . However, N is
not unique so that different projections can be defined on M .
Finally, it is easy to see that the range of a projector P corresponds to the set of points fixed under P i.e.
M = {P (z) : z ∈ V } = {z : P (z) = z}.

1.7. Normed vector spaces


Inspired in the vectors of Rn in which we define their lengths in a natural way, we can define lengths of vectors
in abstract vector spaces by assuming an additional structure
1.7. NORMED VECTOR SPACES 23

Definition 1.10 A normed vector space N is a vector space in which to each vector x there corresponds a real
number denoted by kxk with the following properties: (1) kxk ≥ 0 and kxk = 0 ⇔ x = 0.(2) kx + yk ≤ kxk + kyk
(3) kαxk = |α| kxk

As well as allowing to define a length for vectors, the norm permits to define a distance between two vectors
x and y in the following way
d (x, y) ≡ kx − yk
it is easy to verify that this definition accomplishes the properties of a metric

d (x, y) ≥ 0 and d (x, y) = 0 ⇔ x = y


d (x, y) = d (y, x) ; d (x, z) ≤ d (x, y) + d (y, z)

in turn, the introduction of a metric permits to define two crucial concepts: (a) convergence of sequences, (b)
continuity of functions of N into itself (or into any metric space).
We shall examine both concepts briefly

1.7.1. Convergent sequences, cauchy sequences and completeness


If X is a metric space with metric d a given sequence in X

{xn } = {x1 , .., xn , ...}

is convergent if there exists a point x in X such that for each ε > 0, there exists a positive integer n0 such that
d (xn , x) < ε for all n ≥ n0 . x is called the limit of the sequence. A very important fact in metric spaces is that
any convergent sequence has a unique limit.
Further, assume that x is the limit of a convergent sequence, it is clear that for each ε > 0 there exists n0 such
that m, n ≥ n0 ⇒ d (x, xm ) < ε/2 and d (x, xn ) < ε/2 using the properties of the metric we have
ε ε
m, n ≥ n0 ⇒ d (xm , xn ) ≤ d (xm , x) + d (x, xn ) < + =ε
2 2
a sequence with this property is called a cauchy sequence. Thus, any convergent sequence is a cauchy sequence.
The opposite is not necessarily true. As an example let X be the interval (0, 1] the sequence xn = 1/n is a cauchy
sequence but is not convergent since the point 0 (which it wants to converge to) is not in X. Then, convergence
depends not only on the sequence itself, but also on the space in which it lies. Some authors call cauchy sequences
“intrinsically convergent” sequences.
A complete metric space is a metric space in which any cauchy sequence is convergent. The space (0, 1] is not
complete but it can be made complete by adding the point 0 to form [0, 1]. In fact, any non complete metric space
can be completed by adjoining some appropiate points. It is a fundamental fact that the real line, the complex
plane and Rn , C n are complete metric spaces.
We define an open sphere of radius r centered at x0 as the set of points such that

Sr (x0 ) = {x ∈ X : d (x, x0 ) < r}

and an open set is a subset A of the metric space such that for any x ∈ A there exists an open sphere Sr (x) such
that Sr (x) ⊆ A.
For a given subset A of X a point x in X is a limit point of A if each open sphere centered on x contains at
least one point of A different from x.
A subset A is a closed set if it contains all its limit points. There is an important theorem concerning closed
metric subspaces of a complete metric space

Theorem 1.11 Let X be a complete metric space and Y a metric subspace of X. Then Y is complete⇔it is
closed.
24 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.7.2. The importance of completeness in quantum mechanics


In quantum mechanics we work in an infinite dimensional vector space of functions in which we shall frequently
encounter series of the form
X∞
cn ψn
n=1
with ψn being functions in our space that describe physical states and cn are some appropiate coefficients. For this
series to have any physical sense, it must be convergent. To analyze convergence we should construct the sequence
of partial sums
( 1 2 3
)
X X X
cn ψn , cn ψn , cn ψn , ...
n=1 n=1 n=1
if this series is “intrisically” convergent the corresponding sequence of partial sums should be a cauchy sequence.
Any series that defines a cauchy sequence has a bounded norm

X

cn ψn < ∞

n=1

it would then be desirable that an intrinsically convergent series given by a superposition of physical states ψn
be another physical state ψ. In other words, the limit of the partial sums should be within the vector space that
describe our physical states. To ensure this property we should demand completeness of the vector space that
describe the physical states of the system.
On the other hand, it would be usual to work with subspaces of the general physical space. If we want to
guarantee for a series in a given subspace to be also convergent, we should require for the subspace to be complete
by itself, and according to theorem 1.11 it is equivalent to require the subspace to be closed with respect to the
total space. Therefore, closed subspaces of the general space of states would be particularly important in quantum
mechanics.

1.7.3. The concept of continuity and its importance in Physics


The concept of continuity arises naturally for mappings of a metric space into another metric space. Let f be
a mapping of (X, d1 ) into (Y, d2 ) we say that f is continuous at x0 ∈ X if for each ε > 0 there exists δ > 0 such
that d1 (x, x0 ) < δ ⇒ d2 (f (x) , f (x0 )) < ε. This mapping is said to be continuous if it is continuous for each point
in its domain.
Continuity is also an essential property in Physics since for most of physical observables or states we require
some kind of “smoothness” or “well behavior”. Continuity is perhaps the weakest condition of well behavior usually
required in Physics.
We have previously defined isomorphisms as mappings that preserve all structure concerning a general vector
space. It is then natural to characterize mappings that preserve the structure of a set as a metric space
Definition 1.11 If X, Y are two metric spaces with metrics d1 and d2 a mapping f of X into Y is an isometry
if d1 (x, x′ ) = d2 (f (x) , f (x′ )) ∀x, x′ ∈ X. If there exists an isometry of X onto Y , we say that X is isometric to
Y.
It is clear that an isometry is necessarily one-to-one. If X is isometric to Y then the points of these spaces
can be put in a one to one correspondence in such a way that the distance between pairs of corresponding points
are the same. In that sense, isometric spaces are abstractly identical as metric spaces. For instance, if we endow
a vector space V with a metric then another metric vector space V ′ will be identical to V as metric and vector
space if and only if there is an isometric isomorphism between them. Isometry preserves metric (distances) while
isomorphism preserve vector structure (linear operations). Of course a norm-preserving mapping is an isometry
for the metric induced by such a norm. Thus for our purposes norm preserving mappings will be isometries.
1.8. BANACH SPACES 25

1.8. Banach Spaces


From our experience in classical mechanics we have seen that the concept of a vector space is useful especially
when we associate a length to the vectors, this induces the concept of normed vector spaces, the norm in turn
induces a metric i.e. a natural concept of the distance between vectors. Metric structure in turn lead us to the
concepts of convergent sequences and continuity of functions. In particular, the previous discussion concerning
completeness incline us in favor of spaces that are complete. Then we are directly led to normed and complete
linear spaces

Definition 1.12 A banach space is a normed and complete vector space

As in any vector space, linear transformations are crucial in the characterization of Banach spaces. Since a
notion of continuity is present in these spaces and continuity is associated with well behavior in Physics, it is
natural to concentrate our attention in continuous linear transformations of a banach space B into itself or into
the set of scalars. Transformations of B into itself will be useful when we want to study posible modifications of
the vectors (for instance the time evolution of the vectors describing the state of the system). On the other hand,
transformations of B into the scalars will be useful when we are interested in connecting the state of a system
(represented by a vector) with a measurement (which is a number).
Before considering each specific type of continuous linear transformation, we should clarify what the meaning
of continuity of a linear transformation is. Since continuity depends on the metric induced on the space, we should
define for a given space of linear transformations on a Banach space B, a given metric. We shall do it by first
defining a norm, specifically we shall define the following norm

kT k = sup {|T (x)| : kxk ≤ 1} (1.11)

We shall refer to the metric induce by this norm when we talk about the continuity of any linear transformation
of a Banach space into itself or into the scalars. It can be shown that for this norm continuity is equivalent to
boundedness.

1.8.1. Continuous linear transformations of a Banach space into scalars


Let us consider first the continuous linear transformations of B into the scalars. This induces the following

Definition 1.13 A real (or complex) functional is a continuous linear transformation of a real (or complex)
normed linear space into R (or C).

Definition 1.14 The set of all functionals on a normed linear space N is called the conjugate space of N and is
denoted by N ∗ .

For the case of general normed spaces (and even for Banach spaces), the structure of their conjugate spaces
is in general very intrincate. However we shall see that conjugate spaces are much simpler when an additional
structure (inner product) is added to Banach spaces.

1.8.2. Continuous linear transformations of a Banach space into itself


Let us discuss now the continuous linear transformations of Banach spaces into themselves.

Definition 1.15 An operator is a continuous linear transformation of a normed space into itself.

A particularly useful result in quantum mechanics is the following

Theorem 1.12 If a one-to-one linear transformation T of a Banach space onto itself is continuous, then its
inverse is automatically continuous
26 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Though we do not provide a proof, it is important to note that this result requires the explicit use of com-
pleteness (it is not valid for a general normed space). We see then that completeness gives us another desirable
property in Physics: if a given transformation is continuous and its inverse exist, this inverse transformation is
also continuous.
Let us now turn to projectors on Banach spaces. For general vector spaces projectors are defined as idempotent
linear transformations. For Banach spaces we will required an additional structure which is continuity

Definition 1.16 A projector in a Banach space B, is defined as an idempotent operator on B

The consequences of the additional structure of continuity for projectors in Banach spaces are of particular
interest in quantum mechanics

Theorem 1.13 If P is a projection on a Banach space B, and if M and N are its range and null space. Then
M and N are closed subspaces of B such that B = M ⊕ N

The reciprocal is also true

Theorem 1.14 Let B be a banach space and let M and N be closed subspaces of B such that B = M ⊕ N . If
z = x + y is the unique representation of a vector z in B with x in M and y in N . Then the mapping P defined
by P (z) = x is a projection on B whose range and null space are M and N respectively.

These properties are interesting in the sense that the subspaces generated by projectors are closed subspaces
of a complete space, and then they are complete by themselves. We have already said that dealing with complete
subspaces is particularly important in quantum mechanics.
There is an important limitation with Banach spaces. If a closed subspace M is given, though we can always
find many subspaces N such that B = M ⊕ N there is not guarantee that any of them be closed. So there is not
guarantee that M alone generates a projection in our present sense. The solution of this inconvenience is another
motivation to endow B with an additional structure (inner product).
Finally, the definition of the conjugate N ∗ of a normed linear space N , induces to associate to each operator
in the normed linear space N and operator on N ∗ in the following way. Let us form a complex number c0 with
three objects, an operator T on N , a functional f on N and an element x ∈ N , we take this procedure: we map
x in T (x) and then map this new element of N into the scalar c0 through the functional f

x → T (x) → f (T (x)) = c0

Now we get the same number with other set of three objects an operator T ∗ on N ∗ , a functional f on N (the
same functional of the previous procedure) and an element x ∈ N (the same element stated before), the steps are
now the following, we start with the functional f in N ∗ and map it into another functional through T ∗ , then we
apply this new functional to the element x and produce the number c0 . Schematically it is

f → T ∗ (f ) → [T ∗ (f )] (x) = c0
with this we are defining an apropiate mapping f ′ such that f ′ (x) gives our number. In turn it induces an operator
on N ∗ that maps f in f ′ and this is the newly defined operator T ∗ on N ∗ . In summary this definition reads

[T ∗ (f )] (x) ≡ f (T (x)) (1.12)

where f is a functional on N i.e. an element in N ∗ , T an operator on N and x an element of N . If for a given


T we have that Eq. (1.12) holds for f and x arbitrary, we have induced a new operator T ∗ on N ∗ from T . It can
be shown that T ∗ is also linear and continuous i.e. an operator. When inner product is added to the structure,
this operator becomes much simpler.
1.9. HILBERT SPACES 27

By using the norm (1.11) applied to operators on B ∗ we have

kT ∗ k = sup {kT ∗ (f )k : kf k ≤ 1}

it can be proved that


kT ∗ k = kT k (1.13)
such that the mapping T → T ∗ is norm preserving and therefore an isometry, we can also see that

(αT1 + βT2 )∗ = αT1∗ + βT2∗ ; I ∗ = I ; (T1 T2 )∗ = T2∗ T1∗ (1.14)

since linear operations are preserved the mapping T → T ∗ is an isometric isomorphism. However, the product
is reversed under the mappping, this shows that the spaces ß(T ) and ß(T ∗ ) are equivalent as metric and vector
spaces but they are not equivalent as algebras (the spaces are not isomorphic as algebras).

1.9. Hilbert spaces


In R3 it is customary to define a set of three ortonormal vectors ui such that any vector in R3 can be written
as x = αi ui sum over repeated indices. The dot product is defined such that

x · y ≡ kxk kyk cos θ (1.15)

the dot product is a good mathematical tool for many purposes in solid analytic geometry. If we accept the
statement that the zero vector is orthogonal to every vector we can say that the dot product is null if and only if
both vectors are orthogonal. Let {vi } be a given basis (not necessarily orthonormal) of R3 ; any two vectors in R3
are expressed in the form
x = αi vi ; y = βj vj (1.16)
the dot product and the norm of these two vectors can be written

x · y = (αi vi ) · (βj vj ) = αi βj vi · vj ≡ αi βj mij


x · x = kxk2 = (αi vi ) · (αj vj ) = αi αj vi · vj ≡ αi αj mij

These expressions can be in general complicated. Notice that these and other algebraic operations with dot
products become much easier when an orthonormal basis is used since in this case we have mij = δij so that
x · y = αi βi and x · x = αi αi . These facts put orthonormal basis in a privileged position among other bases.
Further, an attempt of extension of these ideas to C 3 permits to define the inner product in this space in the
following way, given the vectors (1.16) where α and β are complex we define

(x, y) = (α∗i vi ) · (βj vj ) = α∗i βj mij

the conjugate on α appears to obtain the norm of a complex vectors with the inner product of such a vector with
itself, as can be seen by using an orthonormal basis in which mij = δij

(x, x) = kxk2 = α∗i αi = |αi | |αi |

the simplification above comes from the extension of the concept of orthogonality to complex vectors, they are
orthogonal if and only if (x, y) = 0.
In both the real and complex cases, the concept of orthogonality was very important not only because of the
geometry but also because of the algebra. We observe for instance, that no angle like the one in (1.15) can be
defined in the complex case, but the algebra of inner products continues being simple and useful. On the same
ground, we were able to talk about orthogonality in the complex case via the inner product and exploit the
advantages of orthonormal sets, although two vectors of the complex plane are not “perpendicular”.
28 CAPÍTULO 1. LINEAR OR VECTOR SPACES

In the same way, in abstract vector spaces is not so clear how to use the concept of orthogonality in a
geometrical way, but from the discussion above it is clear that the extension of the concept would represent great
simplifications from the algebraic sense. Notwithstanding, we shall see that the extension of the concept of inner
product will also provide some geometrical interpretations.
As always in mathematics, a natural extension should come from the extrapolation of the essential properties
of the concept in the restricted way, the inner product in the complex and real spaces has the following properties

(x, αy + βz) = α (x, y) + β (x, z) ; (x, y) = (y, x)∗ ; (x, x) = kxk2

we are led to the following

Definition 1.17 A Hilbert space is a real or complex Banach space whose norm arises from an inner product,
which in turn is defined as a complex function (x, y) of the vectors x and y with the following properties

(x, αy + βz) = α (x, y) + β (x, z)


(x, y) = (y, x)∗
(x, x) = kxk2

Definition 1.18 Two vectors x, y in a Hilbert space are said to be orthogonal if (x, y) = 0, we denote it as x ⊥ y.
A vector is said to be normal or unitary if (x, x) = 1.

From the definition the following properties hold

|(x, y)| ≤ kxk kyk (1.17)


2 2 2 2
kx + yk + kx − yk = 2 kxk + 2 kyk (1.18)
2 2 2 2
4 (x, y) = kx + yk − kx − yk + i kx + iyk − i kx − iyk (1.19)
2 2 2 2
x ⊥ y ⇒ kx + yk = kx − yk = kxk + kyk (1.20)

Eq. (1.17) is known as the Schwarz inequality. Eq. (1.18) is known as the paralelogram law because in plane
geometry it reduces to the theorem which says that the sum of the squares of the sides of a paralelogram equals
the sum of the squares of its diagonals. As well as its geometrical interpretation, this law says that only certain
Banach spaces can be converted into Hilbert spaces, only those normed complete spaces in which the norm obeys
the paralelogram law can become a Hilbert space. Further, if for a given norm, the paralelogram law is satisfied,
then Eq. (1.19), gives us the recipe to define an inner product from such a norm. Finally, for reasons easy to
visualize Eq. (1.20) is called the pithagorean theorem.
As a matter of illustration let us prove the paralelogram law Eq. (1.18)

kx + yk2 + kx − yk2 = (x + y, x + y) + (x − y, x − y) = (x, x + y) + (y, x + y) + (x, x − y) − (y, x − y)


= (x, x) + (x, y) + (y, x) + (y, y) + (x, x) − (x, y) − (y, x) + (y, y)
= (x, x) + (y, y) + (x, x) + (y, y) = 2 kxk2 + 2 kyk2

A vector x is said to be orthogonal to a non empty set S, if x ⊥ y for all y ∈ S. The orthogonal complement
of S is the set of all vectors orthogonal to S, it is denoted as S ⊥ . Two non empty sets M and N are orthogonal
if x ⊥ y for all x ∈ M and for all y ∈ N ; this is denoted as M ⊥ N . If M is a closed vector subspace of H then
M ⊥ is also closed. The following theorems are important for physical purposes

Theorem 1.15 If M and N are closed vector subspaces of a Hilbert space H such that M ⊥ N , then the linear
subspace M + N is also closed

Theorem 1.16 If M is a closed linear subspace of a Hilbert space H, then H = M ⊕ M ⊥


1.9. HILBERT SPACES 29

Thus we see that the expansion of the union of closed subspaces preserves the closure property and so the
completeness property too. In addition, theorem 1.16 says that given a closed subspace of H we can always find
a closed subspace to generate H by direct sum. Besides, the closed space that makes the work is the orthogonal
complement. It means that for any given closed subspace M we can define a projection with range M and null
space M ⊥ . Contrast this with the problem arising in Banach spaces in which we cannot guarantee the closure of
the complementary space.

1.9.1. Orthonormal sets


An orthonormal set {ei } in H is a non empty subset of H such that if i 6= j then ei ⊥ ej and kei k = 1 for
all i. this set could be of any cardinality (non necessarily countable). The zero Hilbert space has no orthonormal
sets. The following theorems are of great practical interest

Theorem 1.17 Let {e1 , .., en } be a finite orthonormal set in H. If x is a vector in H we have
n
X
|(ei , x)|2 ≤ kxk2 (1.21)
i=1
n
X
x− (ei , x) ei ⊥ ej ; j = 1, .., n (1.22)
i=1

We can give the following interpretation of this theorem: Eq. (1.21) says that the sum of the components of a
vector in the various orthogonal directions defined by the ortonormal set, cannot exceed the length of the vector.
Similarly, Eq. (1.22) says that if we substract from a vector its components in several perpendicular directions the
resultant has no components left in those directions.
The following theorem shows that the coefficients obtained for a given vector from an orthonormal set are not
arbitrary

Theorem
n 1.18 Ifo {ei } is an orthonormal set in a Hilbert space H, and if x is any vector in H, the set S =
ei : |(ei , x)|2 6= 0 is either empty or countable.

These results permit to extend theorem 1.17 for arbitrary orthonormal sets

Theorem 1.19 Let {ei } be an arbitrary orthonormal set in H. If x is a vector in H we have


X
|(ei , x)|2 ≤ kxk2 (1.23)
X
x− (ei , x) ei ⊥ ej ; j = 1, .., n (1.24)
n o
where the symbol of sum means the following, defining the set S = ei : |(ei , x)|2 6= 0 , we define the sum to be
zero (number or vector) when S is empty. If S is finite, the definitions
P in (1.24, 1.23) coincide with the ones in
(1.21, 1.22), if S is countably infinite, the sums become series ∞ n=1 for a given order of the set S = {e1 , .., ei , ..},
in this case the limit of the series is independent of the order chosen for S.

Definition 1.19 An orthonormal set in H is said to be complete if it is maximal, that is, if it is impossible to
add an element e to the set while preserving the orthonormality in the new set.

Theorem 1.20 Every orthonormal set in a Hilbert space is contained in a complete orthonormal set

Theorem 1.21 Every non-zero Hilbert space contains a complete orthonormal set
30 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Theorem 1.22 Every orthonormal set is linearly independent

Theorem 1.23 Let H be a Hilbert space and {ei } an orthonormal set in H. The following conditions are equi-
valent to one another

{ei } is complete (1.25)


x ⊥ {ei } ⇒ x = 0 (1.26)
X
∀x ∈ H⇒x= (ei , x) ei (1.27)
X
∀ x ∈ H ⇒ kxk2 = |(ei , x)|2 (1.28)

This is perhaps the most important theorem in terms of applications in Physics, and in particular quantum
mechanics. It is convenient to discuss some terminology related with it. The numbers (x, ei ) are called the Fourier
coeeficients of x and Eq. (1.27) is its Fourier expansion. Eq. (1.28) is called Parseval’s equation. All these equations
refer to a given complete orthonormal set.
This sequence of theorems are similar to the ones explained in the general theory of vector spaces in which
complete orthonormal sets replaced the concept of bases, and fourier expansions replaced linear combinations.
It is clear that for finite dimensional spaces Fourier expansions become linear combinations. On the other
hand, since orthonormal sets are linearly independent (Theorem 1.22), it is easy to see that in the case of finite
dimensional spaces complete orthonormal sets are linearly independent sets that generate any vector by linear
combinations. Hence, complete orthonormal sets are bases.
For infinite dimensional spaces there is a different story. If we remember that linear combinations are finite by
definition, we see that in this case Fourier expansions are not linear combinations. For a given linearly independent
set to be a basis, it is necessary for any vector of the space to be written as a linear combination of such a set,
basis certainly exists for Hilbert spaces according to theorem 1.3 but complete orthonormal sets are NOT bases
in the sense defined for the general theory of vector spaces.
Moreover theorem 1.18 shows that the Fourier expansion given in Eq. (1.27) is always countable, this is a
remarkable result because it means that the fourier expansion for a given complete orthonormal set is always a
series, even if the cardinality of the complete orthonormal set is higher than the aleph (cardinality of the integers).
The informal discussion above can be formally proved to produce the following statement

Theorem 1.24 A Hilbert space is finite dimensional if and only if every complete orthonormal set is a basis.

However, owing to the analogy between bases and complete orthonormal sets the following theorem is quite
expected

Theorem 1.25 Any two complete orthonormal sets of a given Hilbert space have the same cardinality.

And this fact induces a natural definition

Definition 1.20 The orthogonal dimension of a Hilbert space H is the cardinality of any complete orthonormal
set in H.

It is important to keep in mind the difference between the dimension and the orthogonal dimension of a Hilbert
space of infinite dimension.
1.9. HILBERT SPACES 31

1.9.2. The conjugate space H ∗


We have defined the conjugate space of a Banach space B as the set of all functionals in B i.e. of all linear
continuous mappings of B into the scalars. We said however that the structure of the conjugate spaces of an
arbitrary Banach space is very complex. Fortunately, this is not the case for Hilbert spaces in which the inner
product provides a natural association between H and H ∗ .
Let y be a fixed vector in H and consider the function fy defined by

fy (x) ≡ (y, x) (1.29)

it is easy to prove linearity

fy (αx1 + βx2 ) = (y, αx1 + βx2 ) = α (y, x1 ) + β (y, x2 )


fy (αx1 + βx2 ) = αfy (x1 ) + βfy (x2 )

continuity comes from the Schwarz inequality

|fy (x)| = |(x, y)| ≤ kxk kyk ⇒ |fy (x)| ≤ kyk

then fy is bounded and so continuous. Indeed it can be shown that |fy (x)| = kyk. We then have found an
algorithm to generate some functionals from the mapping

y → fy (1.30)

described above, this is a norm preserving mapping of H into H ∗ . However, it can be shown that indeed this is a
mapping of H onto H ∗ as stated in this

Theorem 1.26 Let H be a Hilbert space, and f an arbitrary functional in H ∗ . Then there exists a unique vector
y ∈ H such that
f (x) = (y, x) ∀x ∈ H

since the mapping (1.30) is norm preserving, we wonder whether it is linear, this is not the case because

fy1 +y2 (x) = (y1 + y2 , x) = (y1 , x) + (y2 , x) = fy1 (x) + fy2 (x)
fαy (x) = (αy, x) = α∗ (y, x) = α∗ fy (x)

such that
fy1 +y2 = fy1 + fy2 ; fαy = α∗ fy (1.31)

however the mapping (1.30) is an isometry (it preserves metric) since

kfx − fy k = kfx−y k = kx − yk

we can characterize H ∗ in the following way

Theorem 1.27 H ∗ is a Hilbert space with respect to the inner product defined by (fx , fy ) = (y, x).
32 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.9.3. The conjugate and the adjoint of an operator


A really crucial aspect of the theory of Hilbert spaces in Physics is the theory of operators (continuous linear
transformations of H into itself), we shall see later that observables in quantum mechanics appear as eigenvalues
of some of these operators.
We have defined the conjugate of an operator for Banach spaces but they are still too general to get a rich
structural theory of operators. The natural correspondence between H and H ∗ will provide a natural relation
between a given operator on H and its corresponding conjugate operator on H ∗ .
Let T be an operator on a Banach space B. We defined an operator on B ∗ denoted T ∗ and called the conjugate
of T by Eq. (1.12)
[T ∗ (f )] (x) = f (T (x)) (1.32)

and Eqs. (1.13, 1.14) says that T → T ∗ is an isometric isomorphism (as vector spaces) between the spaces of linear
operators on H and H ∗ . We shall see that the natural correspondence between H and H ∗ permits to induce in
turn an operator T † in H from the operator T ∗ in H ∗ . The procedure is the following: starting from a vector y in
H we map it into its corresponding functional fy , then we map fy by the operator T ∗ to get another functional
fz then we map this functional into its (unique) corresponding vector z in H the scheme reads

y → fy → T ∗ fy = fz → z (1.33)

the whole process is a mapping of y to z i.e. of H into itself. We shall write it as a single mapping of H into itself
in the form
y → z ≡ T †y

the operator T † induced in this way from T ∗ is called the adjoint operator. Its action can be understood in the
context of H only as we shall see. For every vector x ∈ H we use the definition of T ∗ Eq. (1.32) to write

[T ∗ (fy )] (x) = fy (T (x)) = (y, T x)


 
[T ∗ fy ] (x) = fz (x) = (z, x) = T † y, x

where we have used Eqs. (1.29, 1.33), so that


 
(y, T x) = T † y, x ∀x, y ∈ H (1.34)

we can see that Eq. (1.34) defines T † uniquely and we can take it as an alternative definition of the adjoint operator
associated with T . It can also be verified that T † is indeed an operator, i.e. that it is continuous and linear. We
can also prove the following

Theorem 1.28 The adjoint operation T → T † is a one-to-one onto mapping with these properties
 †
(T1 + T2 )† = T1† + T2† , (αT )† = α∗ T † , T † = T


(T1 T2 )† = T2† T1† ; T † = kT k ; T † T = T T † = kT k2
0∗ = 0 , I ∗ = I (1.35)

If T is non-singular then T † is also non-singular and


 −1 †
T† = T −1
1.10. NORMAL OPERATORS 33

†
Notice for instance that T † = T implies that
 
(T y, x) = y, T † x ∀x, y ∈ H (1.36)

We define the commutator of a couple of operators T1 , T2 as

[T1 , T2 ] ≡ T1 T2 − T2 T1

this operation has the following properties

[T1 , T2 ] = − [T2 , T1 ] (1.37)


[αT1 + βT2 , T3 ] = α [T1 , T3 ] + β [T2 , T3 ] (1.38)
[T1 , αT2 + βT3 ] = α [T1 , T2 ] + β [T1 , T3 ] (1.39)
[T1 T2 , T3 ] = T1 [T2 , T3 ] + [T1 , T3 ] T2 (1.40)
[T1 , T2 T3 ] = T2 [T1 , T3 ] + [T1 , T2 ] T3 (1.41)

[[T1 , T2 ] , T3 ] + [[T3 , T1 ] , T2 ] + [[T2 , T3 ] , T1 ] = 0 (1.42)


such properties can be proved directly from the definition, Eq. (1.37) shows antisymmetry and Eqs. (1.38, 1.39)
proves linearity. Finally, relation (1.42) is called the Jacobi identity.
It can be seen that the space of operators on a Hilbert space H (called ß(H)) is a Banach space and more
generally a Banach Algebra. This organization permits an elegant theory of the operators on Hilbert spaces.
The theory of quantum mechanics works on a Hilbert space. In addition, the most important operators on
the Hilbert space in quantum mechanics are self-adjoint and unitary operators, which are precisely operators that
have a specific relation with their adjoints.

1.10. Normal operators


 
Definition 1.21 An operator on a Hilbert space H that commutes with its adjoint N, N † = 0 is called a normal
operator

There are two reasons to study normal operators (a) From the mathematical point of view they are the most
general type of operators for which a simple structure theory is possible. (b) they contain as special cases the most
important operators in Physics: self-adjoint and unitary operators.
It is clear that if N is normal then αN is. Further, the limit N of any convergent sequence of normal operators
{Nk } is also normal

† † † †
N N † − N † N ≤ N N † − Nk Nk + Nk Nk − Nk Nk + Nk Nk − N † N


= N N † − Nk Nk† + Nk† Nk − N † N → 0

then N N † − N † N = 0 and N is normal then we have proved

Theorem 1.29 The set of all normal operators on H is a closed subset of ß(H) that is closed under scalar
multiplication

It is natural to wonder whether the sum and product of normal operators is normal. They are not, but we can
establish some conditions for these closure relations to occur

Theorem 1.30 If N1 and N2 are normal operators on H with the property that either commutes with the adjoint
of the other, then N1 + N2 and N1 N2 are normal.
34 CAPÍTULO 1. LINEAR OR VECTOR SPACES

The following are useful properties for the sake of calculations in quantum mechanics

Theorem 1.31 An operator N on H is normal ⇔ kN xk = N † x ∀x ∈ H

Theorem 1.32 If N is a normal operator on H then N 2 = kN k2

1.11. Self-Adjoint operators


We have said that the space of operators on a Hilbert space H (called ß(H)), is a special type of algebra (a
Banach Algebra) which has an algebraic structure similar to the one of the complex numbers, except for the fact
that the former is non-commutative. In particular, both are complex algebras with a natural mapping of the space
into itself of the form T → T † and z → z ∗ respectively. The most important subsystem of the complex plane is the
real line defined by the relation z = z ∗ , the corresponding subsystem in ß(H) is therefore defined as T = T † , an
operator that accomplishes that condition is called a self-adjoint operator. This is the simplest relation that can
be established between an operator and its adjoint. It is clear that self-adjoint operators are normal. Further, we
already know that 0† = 0 and I † = I thus they are self-adjoint. A real linear combination of self-adjoint operators
is also self-adjoint
(αT1 + βT2 )† = α∗ T1† + β ∗ T2† = αT1† + βT2†
further, if {Tn } is a sequence of self adjoint operators that converges to a given operator T , then T is also
self-adjoint

† † † † † †
T − T ≤ kT − Tn k + Tn − Tn + Tn − T = kT − Tn k + kTn − Tn k + Tn − T


= kT − Tn k + (Tn − T )† = kT − Tn k + k(Tn − T )k = 2 kT − Tn k → 0

shows that T − T † = 0 so that T = T † this shows the following

Theorem 1.33 The self-adjoint operators in ß(H) are a closed real linear subspace of ß(H) and therefore a real
Banach space which contains the identity transformation

Unfortunately, the product of self-adjoint operators is not necessarily self-adjoint hence they do not form an
algebra. The only statement in that sense is the following

Theorem 1.34 If T1 , T2 are self-adjoint operators on H, their product is self-adjoint if and only if [T1 , T2 ] = 0

It can be easily proved that T = 0 ⇔ (x, T y) = 0 ∀x, y ∈ H. It can be seen also that

Theorem 1.35 If T is an operator on a complex Hilbert space H then T = 0 ⇔ (x, T x) = 0 ∀x ∈ H.

It should be emphasized that the proof makes explicit use of the fact that the scalars are complex numbers
and not merely the real system.
The following theorem shows that the analogy between self-adjoint operators and real numbers goes beyond
the simple analogy from which the former arise

Theorem 1.36 An operator T on H is self-adjoint⇔ (x, T x) is real ∀x ∈ H.

An special type of self-adjoint operators are the following ones

Theorem 1.37 A positive operator on H is a self-adjoint operator such that (x, T x) ≥ 0, ∀x ∈ H. Further, if
(x, T x) ≥ 0, and (x, T x) = 0 ⇔ x = 0 we say that the operator is positive-definite.
1.12. UNITARY OPERATORS 35

It is clear that the following operators are positive: 0, I, T T † , T † T note also that all the analoguous elements
in the complex plane are non-negative numbers 0, 1, zz ∗ = z ∗ z = |z|2 .

Theorem 1.38 If A is a positive operator then I + A is non-singular

Continuing the analogy between ß(H) and the algebra of complex numbers, we can see that a complex number
can be written as its real and imaginary parts in the form

z + z∗ z − z∗
z = a1 + ia2 ; a1 ≡ , a2 ≡
2 2i
in a similar way we can decompose an arbitrary operator T on H in the form

T + T† T − T†
T = A1 + iA2 ; A1 ≡ ; A2 ≡ (1.43)
2 2i
it is clear that A1 and A2 are self-adjoint so they can be called the “real” and “imaginary” components of the
T operator. If T is self-adjoint its imaginary part is zero as expected. We can see that it is precisely because of
the non commutativity of the self-adjoint operators that non-normal operators exist

Theorem 1.39 If T is an operator on H it is normal ⇔ its real and imaginary parts commute

1.12. Unitary operators


Perhaps the most important subsystem of the complex plane after the real line is the unit circle characterized
by the equation zz ∗ = z ∗ z = |z|2 = 1. This leads to a natural definition of an special subset of the normal operators

Definition 1.22 An operator U on H which satisfies the equation U U † = U † U = I is said to be unitary

Unitary operators are thus the analogues of complex numbers of unitary absolute value. In words, unitary
operators are those non-singular operators whose inverses equal their adjoints, they are thus mappings of H onto
itself. The geometric significance of these operators can be clarified with the following theorem

Theorem 1.40 If T is an operator on H, the following conditions are equivalent to one another

T †T = I (1.44)
(T x, T y) = (x, y) ∀x, y ∈ H (1.45)
kT (x)k = kxk ∀x ∈ H (1.46)

In general an operator T with any of the properties (1.44-1.46), is an isometric isomorphism of H into itself,
since T preserves linear operations, as well as the inner product and the norm (and thus the metric). For finite-
dimensional spaces any of them are necessary and sufficient conditions for T to be unitary. Nevertheless, this is
not the case when we treat with infinite-dimensional spaces, let us see an example: consider the operator T in C ∞
given by
T {x1 , x2 , ...} = {0, x1 , x2 , ...}
which preserves norms but has no inverse. The point is that this is an isometric isomorphism into H but not onto
H (the image does not contain any element of C ∞ with a non-null first component). So in the case of infinite
dimension, the condition to be onto must be added to the conditions (1.44-1.45) for an operator to be unitary.

Theorem 1.41 An operator on H is unitary⇔is an isometric isomorphism of H onto itself.


36 CAPÍTULO 1. LINEAR OR VECTOR SPACES

In words, unitary operators are those one-to-one and onto operators that preserve all structure relevant for a
Hilbert space: linear operations, inner products, norm and metric.
In practice, unitary operators usually appear in Physics as operations that keep the norm of the vectors
unaltered (like rotations in ordinary space), even this is usually the definition utilized in Physics books.
There is another theorem useful in the theory of representations for Hilbert spaces which is also used sometimes
as the definition

Theorem 1.42 An operator T on H is unitary ⇔ T {ei } is a complete orthonormal set whenever {ei } is.

Another important characteristic for physical applications is the following

Theorem 1.43 The set of all unitary operators on H forms a group

1.13. Projections on Hilbert spaces


In Banach spaces we defined projections as idempotent continuous linear transformations or equivalently as
idempotent operators. We also saw that a couple of closed subspaces such that B = M ⊕ N induces a projection
and viceversa. We saw however that for a given closed subspace M of B there is not necessarily another closed
subspace such that B = M ⊕ N .
In contrast, theorem 1.16 guarantees that for a given closed subspace M of a Hilbert space H there always
exists a decomposition with another closed subspace in the form H = M ⊕ M ⊥ . Besides, in this decomposition
the closed complementary space is precisely the orthogonal complement of M . Since orthogonality is a very
important new concept that arises from Hilbert spaces, we shall concentrate on projections induced by this
particular decomposition. It is then natural to look for the new features required by a given projection in order
to have M as its range and M ⊥ as its null space

Theorem 1.44 If P is a projection (with the definition given for Banach spaces) on H with range M and null
space N then M ⊥ N ⇔ P = P † and in this case N = M ⊥ .

A projection in which its range and null space are perpendicular is called an orthogonal projection. Indeed,
orthogonal projections are the only ones that are relevant in the theory of operators on Hilbert spaces, then we
shall redefine the concept of projection once again

Definition 1.23 A projection on a Hilbert space will be defined as an idempotent, continuous, and self-adjoint
linear transformation. If idempotent, continuous, non-self adjoint linear transformations are of some use, we call
them non-orthogonal projections.

The following facts are easy to show, 0 and I are projections and they are distinct if and only if H 6= {0}. P
is the projection on M ⇔ I − P is the projection on M ⊥ .
We can also see that
x ∈ M ⇔ P x = x ⇔ kP xk = kxk
it can also be seen that P is a positive operator and kP k ≤ 1.
Sometimes occur in Physics that a given operator T on H maps a proper subspace M of H into itself. The
following chain of definitions permits to study this kind of operators

Definition 1.24 Let T be an operator on H, and M a closed vector subspace of H. M is said to be invariant
under T if T (M ) ⊆ M .

In this case the restriction of T to M can be regarded as an operator of M into itself. A more interesting
situation occurs when M and M ⊥ are invariant under T
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 37

Definition 1.25 If both M and M ⊥ are invariant under T , we say that M reduces T or that T is reduced by M .

This situation invites us to study T by restricting its domain to M and M ⊥ . The projections provide the most
relevant information for these scenarios

Theorem 1.45 A closed vector subspace M is invariant under an operator T ⇔ M ⊥ is invariant under T †

Theorem 1.46 A closed vector subspace M reduces an operator T ⇔ M is invariant under both T and T †

Theorem 1.47 If P is the projection on a closed vector subspace M of H, M is invariant under an operator
T ⇔ TP = PTP

Theorem 1.48 If P is the projection on a closed vector subspace M of H, M reduces an operator T ⇔ T P = P T

Theorem 1.49 If P and Q are projections on closed linear subspaces M and N then M ⊥ N ⇔ P Q = 0 ⇔
QP = 0

We wonder whether the sum of projections in our present sense is also a projection. This is the case only
under certain conditions

Theorem 1.50 If P1 , .., Pn are projections on closed subspaces M1 , .., Mn of a Hilbert space H, then the sum
P = P1 + .. + Pn is a projection ⇔the Pi′ s are pairwise orthogonal i.e. Pi Pj = δij Pi , in that case P is the projection
on M = M1 + .. + Mn .

1.14. Basic theory of representations in a general finite dimensional vector


space
In this section we intend to establish an equivalence between abstract objects such as elements of vector spaces
and linear transformations, in a more tangible language suitable for explicit calculations. This is the gist of the
theory of representations for vector spaces

1.14.1. Representation of vectors and operators in a given basis


If n is the dimension of a finite-dimensional vector space V , a set of n linearly independent vectors in V , forms
a basis for the vector space. Given a certain ordered basis {u1 , .., un } in a vector space V any vector can be
written as a linear combination of such a basis, we shall use the convention of sum over repeated indices

x = xi ui (1.47)

The coefficients xi are called the coordinates of the vector x, relative to the ordered basis {ui }. Linear inde-
pendence ensures that the set of coordinates (x1 , .., xn ) is unique when the basis is ordered in a well-defined way.
Therefore, this set of coordinates provides a representation of the vector x with respect to the ordered basis {ui }.
A mapping T of V into itself, associates each vector x with another vector y in V

y = Tx

if the mapping is one-to-one and onto it admits an inverse1

x = T −1 y
1
If the mapping is only one-to-one but not onto, the inverse still exist but restricted to the vector subspace in which all the vectors
x ∈ V are mapped.
38 CAPÍTULO 1. LINEAR OR VECTOR SPACES

if the transformation is linear we have

T (αx+βy) = αT x + βT y ∀x, y ∈ V

where α and β are complex numbers. The definition of T is intrinsic and does not depend on the particular basis
chosen for the vector space. Notwithstanding, for many practical purposes we define a representation of both
the vectors and operators in a basis {ui }. In that case, we can describe the action of T by a transformation of
coordinates (in the same basis)
yi = Ti (x1 , x2 , . . . , xn ) i = 1, . . . , n
if Ti admits an inverse we get
xi = Ti−1 (y1 , y2 , . . . , yn ) i = 1, . . . , n
the necessary and sufficient condition for the existence of the inverse is that the jacobian J ≡ ∂Ti /∂xj be different
from zero.
On the other hand, if we assume that T is a linear transformation we can write

y = T x = T (xi ui ) = xi T ui (1.48)

Eq. (1.48) says that y is a linear combination of the vectors T ui , and the coefficients of the combination
(coordinates) coincide with the coordinates of x in the basis ui . The vectors T ui must be linear combinations of
{uj } and we denote the coefficients of these linear combinations as Tji

vi ≡ T ui = uj Tji (1.49)

the real or complex coefficients Tji can be organized in a square arrangement of the form
 
T11 T12 · · · T1n
 T21 T22 · · · T2n 
 
T≡ . .. .. 
 .. . ··· . 
Tn1 Tn2 · · · Tnn

this square arrangement symbolized as T is called the matrix representative of the linear transformation T relative
to the ordered basis {ui }. Substituting in Eq. (1.48)

yj uj = uj Tji xi

and since the uj are linearly independent


yj = Tji xi
this operation is represented by the following notation
    
y1 T11 T12 ··· T1n x1
 y2   T21 T22 ··· T2n  x2 
    
 ..  =  .. .. ..  .. 
 .   . . ··· .  . 
yn Tn1 Tn2 · · · Tnn xn
   
y1 T11 x1 + T12 x2 + .. + T1n xn
 y2   T21 x1 + T22 x2 + .. + T2n xn 
   
 .. =  .. 
 .  . 
yn Tn1 x1 + Tn2 x2 + .. + Tnn xn

and is usually written in the form


y = Tx
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 39

the last equality appears in matrix notation where T is the matrix representative of the linear operator T in the
ordered basis ui . Similarly, x and y are the coordinate representatives of the intrinsic vectors in the same ordered
basis. Eq. (1.49) shows clearly how to construct the matrix T, i.e. applying the operator to each vector in the
basis, and writing the new vectors as linear combinations of the basis. The coefficient of the i − th new vector
associated to the j − th element of the basis gives the element Tji in the associated matrix. Observe that for a
matrix representative to be possible, the linearity was fundamental in the procedure.
On the other hand, since we are looking for an isomorphism among linear transformations on V and the set
of matrices (as an algebra), we should define linear operations and product of matrices in such a way that these
operations are preserved in the algebra of linear transformations. In other words, if we denote by [T ] the matrix
representative of T in a given ordered basis we should find operations with matrices such that

[T1 + T2 ] = [T1 ] + [T2 ] ; [αT ] = α [T ] ; [T1 T2 ] = [T1 ] [T2 ]

we examine first the product by a scalar, according to the definition (1.7) we have

(αT ) (ui ) = α (T ui ) = α (uj Tji ) = uj (αTji ) ⇒


(αT ) (ui ) = uj (αTji ) ⇒ (uj ) (αT )ji = uj (αTji )

using linear independence we obtain the algorithm for scalar multiplication

(αT )ji = αTji

Now for the sum we use the definition 1.6

(T + U ) uj = T uj + U uj = ui Tij + ui Uij = ui (Tij + Uij ) ⇒


(T + U ) uj = ui (Tij + Uij ) ⇒ ui (T + U )ij = ui (Tij + Uij )

and along with linear independence it leads to

(T + U )ij = (Tij + Uij )

Moreover, for multiplication (composition) we use definition 1.9

(T U ) ui = T (U ui ) = T (uj Uji ) = Uji T (uj ) = Uji (T uj ) = Uji (uk Tkj ) ⇒


(T U ) ui = (Tkj Uji ) uk ⇒ uk (T U )ki = uk (Tkj Uji )

linear independence gives


(T U )ki = Tkj Uji (1.50)
It can be easily shown that the matrix representations of the operators 0 and I are unique and equal in any
basis, they correspond to [0]ij = 0 and [I]ij = δij .
Finally, we can check from Eq. (1.49) that the mapping T → [T ] is one-to-one and onto. It completes the proof
of the isomorphism between the set of linear transformations and the set of matrices as algebras.
On the other hand, owing to the one-to-one correspondence T ↔ [T ] and the preservation of all operations, we
see that non-singular linear transformations (i.e. invertible linear transformations) should correspond to invertible
matrices. We denote T −1 the matrix representative of T −1 , and our goal is to establish the algorithm for this
inverse matrix, the definition of the inverse of the linear transformation is

T T −1 = T −1 T = I

since the representation of the identity is always [I]ij = δij , the corresponding matrix representation of this
equation is    
[T ]ik T −1 kj = T −1 ik [T ]kj = δij (1.51)
this equation can be considered as the definition of the inverse of a matrix if it exists. A natural definition is then
40 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Definition 1.26 A matrix which does not admit an inverse is called a singular matrix. Otherwise, we call it a
non-singular matrix.

Since T −1 is unique, the corresponding matrix is also unique, so the inverse of a matrix is unique when it exists.
A necessary and sufficient condition for a matrix to have an inverse is that its determinant must be non-zero.
The algebra of matrices of dimension n × n is called the total matrix algebra An , the preceding discussion can
be summarized in the following

Theorem 1.51 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, the mapping T → [T ]
which assigns to every linear transformation on V its matrix relative to B, is an isomorphism of the algebra of
the set of all linear transformations on V onto the total matrix algebra An .

Theorem 1.52 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, and T a linear
 −1  whose matrix relative to B is [aij ]. Then T is non-singular ⇔ [aij ] is non-singular and in this case
transformation
−1
[aij ] = T .

1.14.2. Change of coordinates of vectors under a change of basis


We have already seen that any vector space has an infinite number of bases. Notwithstanding, once a given
basis is obtained, any other one can be found by anlinearo transformation of the original basis.
Let {uj } be our “original” ordered basis and uj any other ordered basis. Each u′i is a linear combination

of the original basis


u′i = aij uj i = 1, . . . , n (1.52)
linear independence of {ui } ensures the uniqueness of the coefficients aij . The natural question
n o is whether we
require any condition on the matrix representation aij in Eq. (1.52) to ensure that the set u′j be linearly inde-
pendent. If we remember that there is a one-to-one correspondence between matrices and linear transformations
we see that aij must correspond to a (unique) linear transformation A. In this notation Eq. (1.52) becomes

u′i = Auj (1.53)


n o
now appealing to theorem 1.9 we see that u′j is a basis if and only if A is non-singular, but A is non-singular
if and only if [A]ij = aij is a non-singular matrix. Thus Eq. (1.53) can be written in matrix notation as

u′ = Au (1.54)

the new set {u′i } is a basis if and only if the matrix A is non-singular. Any vector x can be written in both bases

x = xi ui = x′i u′i = x′i aij uj = x′j aji ui (1.55)

and owing to the linear independence of ui

xi = x′j aji = ãij x′j ; ãij ≡ aji

where ãij ≡ aji indicates the transpose of the matrix A. In matrix form we have

u′ = Au , x = Ãx (1.56)

and using Eq. (1.56) we get

x′ = Ã−1 x (1.57)
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 41

observe that if the original basis transform to the new one by a non-singular matrix A (Eq. 1.54), the original
coordinates transform to the new ones by the matrix Ã−1 (Eq. 1.57). It is easy to show that Ã−1 = Ag e
−1 then A

is non-singular if and only if A is non-singular. Hence Eq. (1.57) makes sense whenever A is non-singular.
Defining the transpose of a column matrix as

x̃ = (x1 , x2 , . . . , xn )

Equation (1.55) can be written as


x = x̃u = x̃′ u′
which gives a convenient notation for the coordinate-form of vectors in different basis.
It is important to emphasize that the vector x has an intrinsic meaning while its coordinates depend on the
basis chosen.

1.14.3. Change of the matrix representative of linear transformations under a change of


basis
Let us define an intrinsic equation for a linear transformation T of V into itself

y = Tx (1.58)

y and x denote here intrinsic vectors while y, x are their representation in coordinates under a given ordered basis.
Starting with the ordered basis {ui } we write equation (1.58) in matrix form

y = Tx (1.59)

for any other ordered basis {u′i } the matrix and coordinate representatives are different and we write them as

y′ = T′ x′ (1.60)

we remark that Eqs. (1.59) and (1.60) represents the same intrinsic Equation (1.58).
Since we know the relation between the coordinate representatives given by Eq. (1.57), our goal here is to
know the relation between the matrix representatives of T . Using Eq. (1.57) we find
−1 −1 −1
  
y′ = Ã−1 y = Ã Tx = Ã TÃÃ x = Ã−1 TÃ Ã−1 x
y′ = T′ x′ (1.61)

where we have defined


T′ ≡ Ã−1 TÃ (1.62)
from Eqs. (1.61, 1.62) we see that T′ is the representative matrix of the operator T in the new basis u′i where
the matrix Ã−1 gives the transformation between coordinates from the old basis to the new one Eq. (1.57). We
remember that A must be non-singular to represent a change of basis.

Definition 1.27 The transform of a matrix A (also called a similarity transformation) by a non singular matrix
S, is defined as A′ = SAS−1 . The matrices A′ and A are said to be equivalent.

Eq. (1.62) shows that the new matrix representation of T (i.e. T′ ), is equivalent2 to the old matrix represen-
tation T, and the transform of T by Ã−1 is T′ .
2
Similarity transformations provides an equivalence relation between two matrices. Thus, the expression equivalent matrices becomes
logical. In addition, we see that T and T′ describe the same mathematical object (though in different bases), so that the term equivalence
acquires more sense in this context.
42 CAPÍTULO 1. LINEAR OR VECTOR SPACES

We can also consider a transformation S from a vector space V into another V ′

x′ = Sx, x = S −1 x′

For S −1 to be linear, it is necessary that V and V ′ be of the same dimensionality. If a linear operator T is defined
in V , then T and S induce a linear operator in V ′ in the following way let map x′ of V ′ into y′ of V ′ in the
following way
 
x′ → x = S −1 x′ → y = T x = T S −1 x′ → y′ = Sy = S T S −1 x′

hence the mapping x′ → y′ has been performed as


 
x′ → y′ = ST S −1 x′

or course, we can define a mapping T ′ of V ′ into itself that makes the work in a single step, thus

T ′ ≡ ST S −1 ; y′ = T ′ x′ (1.63)

The transformation given by (1.63) is also a similarity transformation. Although the transformations shown in
(1.62) and (1.63) resembles, they have fundamental differences. In (1.62) we are representing the same mathemati-
cal object by taking different bases, and is a matrix equation. By contrast, Eq. (1.63) expresses a relation between
two different mathematical transformations acting on different spaces3 , and the equation is intrinsic, independent
of the basis.

1.15. Active and passive transformations


In Physics, it is important to differentiate between two types of transformations, the passive ones and the
active ones. We can understand passive transformations by examining the transformations y → y′ , x → x′ and
T → T ′ to go from Eq. (1.59) to Eq. (1.60), if we remember that both are representatives of the same intrinsic
equation (1.58) we realize that the mappings described above do not change the vectors or the transformation but
only their representatives. These mappings (called passive mappings) thus correspond to a change in the basis
and not to a change on the mathematical objects by themselves.
In contrast, an active mapping or transformation transforms a mathematical object into another one. For
instance, in the first of Eqs. (1.63) we map a linear transformation on V into a different linear transformation
on V ′ , the mathematical object itself has changed. Similarly the mapping x′ → y′ through T ′ described by the
second of Eqs. (1.63) is an active transformation because x′ and y′ are two different vectors.
The difference between a passive and active mappings or transformations should be clear from the context.
For instance Eqs. (1.62) and (1.63) are identical in form from the algebraic point of view, but (1.62) represents a
passive transformation (a change of basis or a change of representation), while (1.63) represents an active one.

1.16. Theory of representations on finite dimensional Hilbert spaces


We shall study n−dimensional Hilbert spaces. We remember that an inner product is a mapping that takes an
ordered pair of vectors x, y in a vector space V, and associates to it a scalar α denoted by α = (x, y) such that

(x, y) = (y, x)∗ ; (x, βy) = β (x, y) ; (x1 + x2 , y) = (x1 , y) + (x2 , y)


(x, x) ≥ 0, and (x, x) = 0 ⇔ x = 0
3
It could be argued that both spaces are identical since they have the same dimensionality. This is true only for their properties as
general vector spaces, but not necessarily for any additional algebraic or topological structure on them.
1.16. THEORY OF REPRESENTATIONS ON FINITE DIMENSIONAL HILBERT SPACES 43

the definition of the inner product is intrinsic (basis independent). The norm of a vector is defined as kxk2 ≡ (x, x).
This in turn allows us to normalized the vectors, i.e. construct vectors with norm or “length” equal to one by the
rule
xi xi
ui = p = (1.64)
(x, x) kxik

such that (ui , ui ) = 1. Different inner products defined into the same vector space, lead to different Hilbert spaces.
Another important concept that arises from the inner product is that of orthogonality. An orthonormal set is a
set {xi } with xi ∈ H such that
(xi , xj ) = δij
The theory of representations of a finite dimensional Hilbert space is particularly simple if we realize that in finite
dimension, the Fourier expansion given by Eq. (1.27) becomes a linear combination, the series in (1.28) to calculate
the norm becomes a finite sum, and finally complete orthonormal sets become bases. These are the main ideas
that lead to the theory of representations in a Hilbert space
Our first goal is to find the way in which the coordinates of a given vector are obtained from the inner product.
We first see the form of the coordinates when the basis consists of a complete orthonormal basis. Rewriting the
Fourier expansion (1.27) in finite dimension and using sum over repeated indices we have

x = (ui , x) ui = xi ui

so the coordinate of a vector x associated with the normal vector ui is given by

xi = (ui , x)

Let us now see how an arbitrary inner product can be calculated using an orthonormal basis

(x, y) = (xi ui , yj uj ) = x∗i yj (ui , uj ) = x∗i yj δij = x∗i yi (1.65)

the norm of a vector is also easily seen as

kxk2 = (x, x) = x∗i xi = |xi | |xi | (1.66)

if the basis {vi } is not an orthonormal set, we can express the scalar product by determining the numbers

mij ≡ (vi , vj ) (1.67)

the properties of the inner product lead to mij = m∗ji . This numbers form a matrix that we shall call the metric
matrix. Defining (Aij )† ≡ A∗ji (the adjoint or hermitian conjugate of the matrix A) we find that m = m† , from
the definition of the adjoint matrix we see that (AB)† = B† A† . A matrix that coincides with its adjoint is called
self-adjoint or hermitian. The metric matrix is hermitian. We shall see now that knowing the metric matrix in a
certain basis, we can find any possible inner product

(x, y) = (xi vi , yj vj ) = x∗i yj (vi , vj ) = x∗i mij yj


(x, y) = x† my

and the norm becomes


(x, x) = x∗i mij xj = x† mx (1.68)
representing x as a one column matrix, x† is a one row matrix with the coordinates conjugated. The quantities of
the form x† Ay, with A hermitian, are called hermitian forms. If additionally we impose that x† Ax ≥ 0, we have
a positive definite hermitian form4 .
4
An inner product guarantees that the hermitian form constructed with the metric matrix are positive-definite. However, it is usual
in relativity to define a pseudo-metric that leads to non positive definite hermitian forms. Observe that the metric tensor in relativity
has some negative diagonal elements which would be forbidden if they arose from an authentic inner product.
44 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Gram-Schmidt process for orthonormalization of linearly independent sets


From the previous discussion, it is very clear that complete orthonormal sets posses many advantages with
respect to other sets of linearly independent vectors. It leads us to study the possibility of finding an orthonormal set
from a given set of linearly independent vectors in a Hilbert space. The so-called Gram-Schmidt orthonormalization
process starts from an arbitrary set of independent vectors {x1 , x2 , .., xn , ...} on H and exhibits a recipe to construct
a corresponding orthonormal set {u1 , u2 , .., un , ...} with the property that for each n the vector subspace spanned
by {u1 , u2 , .., un } is the same as the one spanned by {x1 , x2 , .., xn }.
The gist of the procedure is based on Eqs. (1.24, 1.64). We start by normalizing the vector x1
x1
u1 =
kx1 k

now we substract from x2 its component along u1 to obtain x2 − (u1 , x2 ) u1 and normalized it

x2 − (u1 , x2 ) u1
u2 =
kx2 − (u1 , x2 ) u1 k
it should be emphasized that x2 is not a scalar multiple of x1 so that the denominator above is non-zero. It is
clear that u2 is a linear combination of x1 , x2 and that x2 is a linear combination of u1 , u2 . Therefore, {u1 , u2 }
spans the same subspace as {x1 , x2 }. The next step is to substract from x3 its components in the directions u1
and u2 to get a vector orthogonal to u1 and u2 according with Eq. (1.24). Then we normalize the result and find

x3 − (u1 , x3 ) u1 − (u2 , x3 ) u2
u3 =
kx3 − (u1 , x3 ) u1 − (u2 , x3 ) u2 k

once again {u1 , u2 , u3 } spans the same subspace as {x1 , x2 , x3 }. Continuing this way we clearly obtain an ortho-
normal set {u1 , u2 , .., un , ...} with the stated properties.
Many important orthonormal sets arise from sequences of simple functions over which we apply the Gram-
Schmidt process
In the space L2 of square integrable functions associated with the interval [−1, 1], the functions xn (n =
0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the orthonormal
set of the Legendre Polynomials.
2
In the space L2 of square integrable functions associated with the entire real line, the functions xn e−x /2
(n = 0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the normalized
Hermite functions.
In the space L2 associated with the interval [0, +∞), the functions xn e−x (n = 0, 1, 2, ..) are linearly indepen-
dent. Orthonormalizing it we obtain the normalized Laguerre functions.
Each of these orthonormal sets described above can be shown to be complete in their corresponding Hilbert
spaces.

1.16.1. Linear operators in finite dimensional Hilbert spaces


First of all let us see how to construct the matrix representation of a linear operator by making profit of the
inner product. Eq. (1.49) shows us how to construct the matrix representation of T in a given basis by applying
the operator to each element ui of such a basis

T ui = uj Tji ⇒ (uk , T ui ) = (uk , uj Tji )


⇒ (uk , T ui ) = Tji mkj

if the basis is orthonormal then mkj = δkj and

Tki = (uk , T ui ) (1.69)


1.16. THEORY OF REPRESENTATIONS ON FINITE DIMENSIONAL HILBERT SPACES 45

Eq. (1.69) gives the way to construct an element of the matrix representative of an operator T on H through the
inner product and using an orthonormal basis.
Now we turn to the problem of finding a relation between the matrix representative of an operator and the
matrix representative of its adjoint. If we have a linear operator T on a Hilbert space, another operator called its
adjoint and denoted as T † exists such that
 
(T x, y) = x, T † y ∀x, y ∈ V

the matrix representative of T † has a rather simple relation with the matrix representative of T when an ortho-
normal basis is used
(T (xi ui ) , yk uk ) = (xi T (ui ) , yk uk ) = x∗i yk (T ui , uk )
and using (1.49) we find
x∗i yk (uj Tji , uk ) = x∗i yk Tji∗ δjk = x∗i yk Tki

= x∗i Teik

yk
on the other hand we have    
x, T † y = x∗i T † yk
ik
and taking into account that x and y are arbitrary, we have
 
T† = Teik
∗ e∗
⇒ T† = T (1.70)
ik

and so the matrix representative of T † is the conjugate transposed of the matrix representative of T . Once again,
it is important to emphasize that it is only valid in an orthonormal basis, it can easily be proved that for an
arbitrary basis described by the metric matrix m, the matrix representation of T † is m−1 T e ∗ m. Remembering
that an operator is hermitian or self-adjoint if it coincides with its adjoint operator (T = T † ) i.e. (T x, y) =
(x, T y) , ∀x, y ∈ V, we conclude that in an orthonormal basis, hermitian operators are represented by hermitian
matrices.
In particular, the form to calculate the norm described in (1.66), is usually taken for granted and it is easy to
forget that it only applies in orthonormal bases as we can see from (1.68). This is because the coordinates of a
vector with respect to {vi } are not given by Fourier coefficients of the form described in Eq. (1.27)
Now assume that we go from an orthonormal basis ui into another orthonormal basis u′i . We know from
theorem 1.42 that a linear operator is unitary if and only if it transforms a complete orthonormal set into another
complete orthonormal set, then if A is a unitary operator we have

δij = (Aui , Auj ) = u′i , u′j = (uk aki , um amj ) = a∗ki amj (uk , um ) = a∗ki amj δkm
δij = a∗ki akj = e
a∗ik akj

so the matrix of transformation from ui into u′i accomplishes

A† A = 1

now, if we demand for the matrix to be non-singular it must have a unique inverse such that

A† A = AA† = 1

therefore a matrix that transform an orthonormal basis into another orthonormal basis must satisfy

A† = A−1

by theorem 1.51 these matrices are associated with unitary operators as long as we use an orthonormal basis, thus
it is natural to call them unitary matrices.
46 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.17. Determinants and traces


A very important property of any matrix is its determinant denoted by |A| and is a real or complex number
associated with the matrix. Its construction was primarily motivated by the study of simultaneous linear equations.
We assume that the reader is familiarized with the concept and the calculation of this quantity. We have mentioned
that a matrix admits an inverse if and only if its determinant is non-null. This is because the inverse of a matrix
A depends on |A|−1 . The determinant of the transpose coincides with the determinant of the matrix

e
A = |A| (1.71)

a for the conjugate matrix (in which we conjugate each of its elements) we get

|A∗ | = |A|∗ (1.72)

Additionally it can be demostrated that the determinant of the product is the product of the determinants

|AB| = |A| · |B| (1.73)

and since the determinant of the identity is 1 we get



1 = |1| = AA−1 = |A| · A−1

so that −1
A = |A|−1 (1.74)
if any row or column is multiplied by a scalar α, the determinant is also multiplied by the scalar. For example in
three dimensions
     
α a11 α a12 α a13 a11 α a12 a13 a11 a12 a13

 a21 a22 a23  =  a21 α a22 a23  = α  a21 a22 a23  (1.75)

a31 a32 a33 a31 α a32 a33 a31 a32 a33

so that if we multiply an n × n matrix by a scalar, the determinant is

|αA| = αn |A| (1.76)

in particular
|−A| = (−1)n |A| (1.77)
another important property is the trace of the matrix defined as the sum of its diagonal elements

T rA = aii (1.78)

we emphasize the sum over repeated indices. We prove that

T r [AB] = T r [BA] (1.79)

in this way
T r [AB] = (AB)ii = aik bki = bki aik = (BA)kk = T r [BA]
it is important to see that the trace is cyclic invariant, i.e.
h i h i
T r A(1) A(2) . . . A(n−2) A(n−1) A(n) = T r A(n) A(1) A(2) . . . A(n−2) A(n−1)
h i
= T r A(n−1) A(n) A(1) A(2) . . . A(n−2) (1.80)
1.18. RECTANGULAR MATRICES 47

and so on. To prove it, we define


B ≡ A(1) A(2) . . . A(n−1)
so that
h i h i h i h i
T r A(1) A(2) . . . A(n−2) A(n−1) A(n) = T r BA(n) = T r A(n) B = T r A(n) A(1) A(2) . . . A(n−2) A(n−1)

and taking into account that the indices (1) , (2) , ... are dummy, any cyclic change is posible. It worths saying that
property (1.79) does not mean that the matrices can be commuted to calculate the trace, for instance for three
or more matrices the trace is not the same for any order of the matrices, only cyclic changes are possible. In that
sense, we should interpret (1.79) as a cyclic change and not as a commutation.
But the most important properties of the traces and determinants is that they are invariant under a similarity
transformation

A = BAB−1 = |B| · |A| · B−1 = |B| · |A| · |B|−1

⇒ A′ = |A|

where we have used (1.73) and (1.74). Now for the invariance of the trace
n

 −1
 X  X X X X
T rA = T r BAB = BAB−1 ii = bik akl b̄li = b̄li bik akl = δkl akl = akk = T rA
i=1 ikl ikl kl k

alternatively we can see it by using the cyclic invariance of the trace (see Eq. 1.80), such that
     
T r A′ = T r BAB−1 = T r B−1 BA = T rA

the invariance of determinants and traces under similarity transformations are facts of major importance because
all representations of a given linear transformation are related each other by similarity transformations. It means
that determinants and traces are intrinsic quantities that can be attributed to the linear transformations thus

Definition 1.28 We define the trace and the determinant of a given linear transformation of V into itself by
calculating the trace and determinant of the matrix representative of the linear transformation in any basis.

1.18. Rectangular matrices


A rectangular matrix is an arrangement of numbers consisting of m rows and n columns. In that case we say
that the matrix has dimensions m × n. The elements of such a matrix will be of the form

(A)ik = aik ; i = 1, . . . , m ; k = 1, . . . , n

the transpose of this matrix would have dimensions n × m. A column vector arrangement (from now on, we shall
call it simply a “vector”, though it is not neccesarily a vector in all the sense of the word) is a rectangular matrix
of dimension m × 1, its transpose (a row “vector”) is a rectangular matrix of dimensions 1 × m.
Now, it would be desirable to extrapolate the algorithm of square matrices composition to calculate products
of rectangular matrices
cij ≡ aik bkj
It is observed that this extrapolation of the matrix product to the case of rectangular matrices C = AB, can be
defined consistently only if the number of columns of A coincides with the number of rows of B.

AB = C if A ≡ Am×n and B ≡ Bn×d ⇒ Cm×d


48 CAPÍTULO 1. LINEAR OR VECTOR SPACES

In particular, the product of a column vector (m × 1 matrix) with a m × m matrix in the form xA cannot be
eA
defined. Nevertheless, the product of the transpose of the vector (row vector) and the matrix A in the form x
can be defined. In a similar fashion, the product Aex cannot be defined but Ax can. From these considerations
the quantities Ax and x eA correspond to a new column vector and a new row vector respectively.
From the dimensions of the rectangular matrices we see that

e n×m and Bn×d ⇒ B


Am×n ⇒ A e d×n

and the product AB is defined. However, their transposes can only be multiplied in the opposite order, i.e. in the
e A.
order B e Indeed, it is easy to prove that, as in the case of square matrices, the transpose of a product is the
product of the transpose of each matrix in the product, but with the product in the opposite order. Applying this
property it can be seen that
] =x
(Ax) eAe ; ]
(e
xA) = Axe

where we have taken into account that the transpose of the transpose is the original matrix.

1.19. The eigenvalue problem


If T is a linear transformation on a vector space of finite dimension n, the simplest thing that the linear
transformation can do to a vector is to produce a “dilatation” or “contraction” on it, eventually changing the
“sense” of the “arrow” but keeping its “direction”. In algebraic words, certain vectors can be transformed by
T into a scalar multiple of itself. If x is a vector in H this operation is given by

T x = λx (1.81)

a non-zero vector x such that Eq. (1.81) holds, is called an eigenvector of T , and the corresponding scalar λ is
called an eigenvalue of T . Each eigenvalue has one or more eigenvectors associated with it and to each eigenvector
corresponds a unique eigenvalue.
Let us assume for a moment that the set of eigenvalues for a given T is non-empty. For a given λ consider the
set M of all its eigenvectors together with the vector 0 (which is not an eigenvector), we denote this vectors as
(λ)
xi . M is a linear subspace of H, we see it by taking an arbitrary linear combination of vectors in M
     
(λ) (λ) (λ) (λ)
T αi xi = αi T xi = αi λxi = λ αi xi ⇒
   
(λ) (λ)
T αi xi = λ αi xi

such that a linear combination is also an eigenvector with the same eigenvalue. Indeed, for Hilbert spaces it can
be shown that M is a closed vector subspace of H. As any vector space, M has many basis and if H is finite
dimensional, complete orthonormal sets are basis. The dimension of M is thus the maximum number of linearly
independent eigenvectors associated with λ. M is called the vector eigenspace generated by the eigenvalue λ. This
discussion induces the following

Definition 1.29 A given eigenvalue λ in Eq. (1.81) is called n−fold degenerate if n is the dimension of the
eigenspace M of H generated by λ. In other words, n is the maximum number of linearly independent eigenvectors
of λ. If n = 1 we say that λ is non-degenerate.

Even for non-degenerate eigenvalues we always have an infinite number of eigenvectors, for if x(λ) is an eigen-
vector, then αx(λ) is also an eigenvector for any scalar α. Eq. (1.81) can be written equivalently as

(T − λI) x = 0 (1.82)
1.19. THE EIGENVALUE PROBLEM 49

we return to the problem of the existence of eigenvalues, the operator T on C ∞ given by

T {x1 , x2 , ...} = {0, x1 , x2 , ...}

is an operator on a Hilbert space that has no eigenvalues. We confront then the problem of characterizing the type
of operators that admit eigenvalues. In the finite dimensional case, we shall see that the theory of representations
and the fundamental theorem of algebra ensures the existence of eigenvalues for an arbitrary operator.

1.19.1. Matrix representative of the eigenvalue problem


The one to one correspondence between matrices and operators in the finite dimensional case permits to make
a matrix representation of the eigenvalue equation (1.81). Let T be the n × n matrix associated with the operator
T and x the column vector representative of x (an n × 1 matrix). Eq. (1.81) is written as

Tx = λx (1.83)

which is the eigenvalue equation associated with the matrix. The idea is trying to solve for the eigenvalues and
eigenvectors in a given representation. The values λ are in general complex. According with our previous discussion
the eigenvalue is the “dilatation”or “contraction” factor, if it is a negative real number it “inverts the sense of the
arrow”. Let us rewrite the eigenvalue equation as

(T − λ1) x = 0 (1.84)

for simplicity we shall use n = 3 but the arguments are valid for arbitrary finite dimensions. In three dimensions
the explicit form of (1.84) becomes

(T11 − λ) X1 + T12 X2 + T13 X3 = 0


T21 X1 + (T22 − λ) X2 + T23 X3 = 0
T31 X1 + T32 X2 + (T33 − λ) X3 = 0 (1.85)

This set of homogeneous equations for X1 , X2 , X3 has non trivial solution only if the determinant of the system
is null, therefore
T11 − λ T12 T13


|T − λ1| = T21 T22 − λ T23 = 0 (1.86)
T31 T32 T33 − λ
this condition is known as the secular or characteristic equation of the matrix. The variables to be found are
the eigenvalues λ associated with the matrix. It worths saying that even if non-trivial solutions exist, the set of
homogeneous equations (1.85) do not give us definite values for all the components of the eigenvectors but only
for the quotient among these components. This can be understood either from algebraic or geometric arguments.
From the algebraic point of view, it is related with the fact that the product of the eigenvector x with any
scalar is also an eigenvector, this can be seen inmediately from (1.84)5 . Geometrically, this implies that only the
“direction” of the eigenvector is determined but not its “length” neither its “sense”. This is particularly apparent
in three dimensions. Since T represents a linear transformation, it is clear that if T preserves the direction of x
i.e. Tx = λx it also preserves the “direction” of the vector αx for α arbitrary.
When the determinant (1.86) is expanded, we observe that the solution of the secular equation reduces to
finding the roots of a polynomial of n degree. Appealing to the fundamental theorem of algebra we always have
exactly n complex roots, some of them could be repeated so that we could have fewer than n distinct roots. In
5
Alternatively, this can be seen form the fact that the secular equation only has non-trivial solution when one or more of the
equations is linearly dependent with the others. In such a case there are more variables than equations and hence an infinite number
of solutions.
50 CAPÍTULO 1. LINEAR OR VECTOR SPACES

general we can construct no more than n linearly independent vectors xk each one associated with an eigenvalue
λk . By now, the set of eigenvalues are associated to a matrix, but in order to associate it to its corresponding
operator, we should be sure that the set of eigenvalues is the same for any representation of the operator i.e. that
all equivalent matrices have the same set of eigenvalues

Theorem 1.53 If two n × n matrices are equivalent i.e. T ′ = ST S −1 then both have the same set of eigenvalues.

In summary, the fundamental theorem of Algebra together with the intrinsic meaning of the set of eigenvalues,
solves the problem of the existence of eigenvalues for linear transformations on finite-dimensional vector spaces.

Definition 1.30 The set of eigenvalues of T is called its spectrum and is denoted by σ (T ).

Theorem 1.54 If T is an arbitrary linear transformation on a finite dimensional complex vector space, the
spectrum of T constitute a non-empty finite subset of the complex plane. The number of elements in this subset
does not exceed the dimension n of the space.

Some other important theorems related with the set of eigenvalues are the following

Theorem 1.55 T is singular ⇔ 0 ∈ σ (T ).



Theorem 1.56 If T is non-singular, then λ ∈ σ (T ) ⇔ λ−1 ∈ σ T −1

More information about the spectral resolution of some types of operators in a Hilbert space will be given by
means of the spectral theorem. By now, we turn to the problem of the sets of eigenvectors and its relation with
the canonical problem of matrices.

1.19.2. Eigenvectors and the canonical problem of matrices


Since we can have many representations of a given operator by changing basis, many matrix representatives
can be constructed. It is natural to wonder whether it is posible to choose the basis in such a way that the matrix
representative is as simple as possible. In practice, the simplest matrices are diagonal matrices i.e. matrices for
which Tij = 0 for i 6= j. Thus, we are looking for a basis under which the matrix representative of a given operator
T is diagonal. Starting with a given basis {ui } we obtain a matrix representative of T (denoted by T), we wonder
whether there exists another basis {u′i } for which the matrix representative T′ of T is diagonal. From Eqs. (1.54,
1.62) we see that T and T′ are related by a similarity transformation that also gives us the transformation among
the bases
u′ = Au ; T′ = A e −1 TA
e (1.87)
We shall see that for finite dimensional matrices, the canonical problem of matrices is intimately related with
the structure of its eigenvectors. Let us consider the representation Xk of the eigenvectors of T with respect to the
original basis {ui }. We denote the i−th coordinate of the k−th eigenvector in the form Xik (with respect to the
original basis). We are able to settle an square arrangement with this eigenvectors, putting them aside as column
vectors. In three dimensions, such an arrangement has the form
 
X11 X12 X13
X ≡ (X1 X2 X3 ) =  X21 X22 X23  (1.88)
X31 X32 X33

Eqs. (1.84) are written for each eigenvalue λk and its corresponding eigenvector Xk in the form

(T − λk 1) Xk = 0 ⇒ TXk = λk Xk no sum over k (1.89)


1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM 51

writing Eqs. (1.89) in components with respect to the basis {ui } we get (for n dimensions)
n
X
Tij Xjk = λk Xik ⇒
j=1
Xn n
X
Tij Xjk = Xij δjk λk (1.90)
j=1 j=1

in the two previous equations there is no sum over the repeated index k. The Xjk element is the j−th component
of the Xk vector. Now, the quantity δjk λk can be associated with a diagonal matrix, in three dimensions this
matrix is written as  
λ1 0 0
λ ≡  0 λ2 0  (1.91)
0 0 λ3
in matrix form Eq. (1.90) reads
TX = Xλ
multiplying on left by X−1 we find
X−1 TX = λ (1.92)
it corresponds to a similarity transformation acting on T. Note that the matrix X built from the eigenvectors is
the transformation matrix (comparing with 1.87 we have X ≡ A). e We see then that matrix T is diagonalized by
X by means of a similarity transformation and the elements of the diagonal correspond to the eigenvalues (λk
associated with the column vector Xk of the matrix X in Eq. 1.88). When there are some degenerate eigenvalues
i.e. some of them acquire the same value, it is not always possible to diagonalize the matrix T. It is because in
that case, the eigenvectors that form the matrix X are not necessarily linearly independent. If any given column
vector of the matrix is linearly dependent with the others, the determinant of X is zero and X−1 does not exist.
On the other hand, when diagonalization is possible, the determinant and the trace of T can be calculated
taking into account that such quantities are invariant under a similarity transformation, therefore
 
det T = det X−1 TX = det λ = λ1 λ2 . . . λn (1.93)
 
T rT = T r X−1 TX = T rλ = λ1 + λ2 + . . . + λn (1.94)

so that the determinant and the trace of a diagonalizable matrix are simply the product and sum of its eigenvalues
respectively.
In summary, a canonical form of a given matrix can be obtained as long as the eigenvectors of the matrix form
a basis, the question is now open for the conditions for the eigenvectors to form a basis, and this is part of the
program of the spectral theorem.

1.20. Normal operators and the spectral theorem


Let T be an operator on a finite-dimensional Hilbert space H. By theorem 1.54 the spectrum σ (T ) is a non-
empty finite set of complex numbers with cardinality less than or equal to the dimension n of H. Let λ1 , .., λm
be the set of distinct eigenvalues; let M1 , .., Ṁm be their corresponding eigenspaces; and let P1 , .., Pm be the
projections on these eigenspaces. The spectral theorem is the assertion that the following three statements are
equivalent to one another
I) The Mi′ s are pairwise orthogonal and H = M1 ⊕ ...⊕.Mm
P Pm
II) The Pi′ s are pairwise orthogonal, I = m i=1 Pi , and T = i=1 λi Pi .
III) T is normal.
52 CAPÍTULO 1. LINEAR OR VECTOR SPACES

The assertion I) means that any vector x ∈ H can be expressed uniquely in the form
x = x1 + .. + xm ; xi ∈ Mi ; (xi , xj ) = 0 f or i 6= j (1.95)
applying T on both sides and using linearity
T x = T x1 + .. + T xm = λ1 x1 + .. + λm xm (1.96)
this shows the action of T on each element of H in an apparent pattern from the geometrical point of view. It is
convenient to write it in terms of projections on each Mi . Taking into account that Mj ⊆ Mi⊥ for each i and for
every j 6= i we obtain from Eq. (1.95) that
Pi x = xi
from which it follows
Ix = x = x1 + .. + xm = P1 x + .. + Pm x
Ix = (P1 + .. + Pm ) x ; ∀x ∈ H
therefore
m
X
I= Pi (1.97)
i=1
and relation (1.96) gives
T x = λ1 x1 + .. + λm xm = λ1 P1 x + .. + λm Pm x
T x = (λ1 P1 + .. + λm Pm ) x ; ∀x ∈ H
hence
m
X
T = λi Pi (1.98)
i=1
Eq. (1.98) is called the spectral resolution of the operator T . In this resolution it is to be understood that all the
λ′i s are distinct and that the Pi′ s are non-zero projections which are pairwise orthogonal and satisfy condition
(1.97). It can be shown that the spectral resolution is unique when it exists.
Now, we look for the conditions that the operator must satisfies to be decomposed as Eq. (1.98). From Eq.
(1.98) we see that
T † = λ∗1 P1 + . . . + λ∗m Pm (1.99)
and multiplying (1.98) with (1.99) and using the fact that the Pi′ s are pairwise orthogonal we have
m
! m ! m X m m X m
X X X X
† ∗
TT = λi Pi λk Pk = λi λ∗k Pi Pk = λi λ∗k Pi2 δik
i=1 k=1 i=1 k=1 i=1 k=1
m
X
TT† = |λk |2 Pk (1.100)
k=1

and multiplying in the opposite order we obtain the same result


m
X
T †T = |λk |2 Pk (1.101)
k=1

from which we see that h i


T, T † = 0
and the operator must be normal. We have proved that I)→II)→III). To complete the proof we should show that
III)→I) i.e. that every normal operator T on H satisfies conditions I).
This task is accomplished by the following chain of theorems
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM 53

Theorem 1.57 If T is normal, x is an eigenvector of T with eigenvalue λ ⇔ x is an eigenvector of T † with


eigenvalue λ∗ .

Theorem 1.58 If T is normal the Mi′ s are pairwise orthogonal

Theorem 1.59 If T is normal, each Mi reduces T .

Theorem 1.60 If T is normal, the Mi′ s span H.

For most of applications theorem 1.58 is rewritten as

Theorem 1.61 If T is normal, two eigenvectors of T corresponding to different eigenvalues are orthogonal. In
particular this is valid for self-adjoint and unitary operators.

Assume that T = T † , since for a given eigenvector x there is a unique eigenvalue λ we see from theorem 1.57
that λ = λ∗ so the corresponding eigenvalues are real. Now assume for a normal operator T that σ (T ) is a subset
of the real line, using the spectral resolution of T † Eq. (1.99) we find

T † = λ∗1 P1 + . . . + λ∗m Pm = λ1 P1 + . . . + λm Pm = T

we have the following

Theorem 1.62 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{λ1 , .., λm }, then T is self-adjoint ⇔each λi is real.

It is important to emphasize that the hypothesis of real eigenvalues leads to the self-adjointness of the operator
only if normality is part of the hypothesis (because of the use of the spectral thoerem). It does not discard the
possibility of having non-normal operators with real spectrum, in that case such operators would not be self-
adjoint. In addition, it worths remembering that self-adjoint operators where constructed as the analogous of “the
real line subset” in the algebra of operators. So the fact that its eigenvalues are all real is a quite expected result.
An special type of self-adjoint operators are the positive operators for which

(x, T x) ≥ 0 ∀x ∈ H (1.102)

applying the spectral resolution of T on xi ∈ Mi with xi 6= 0, we have


m
X m
X
T xi = λk Pk xi = λk xi δik = λi xi
k=1 k=1

and using it in Eq. (1.102) we find

(xi , T xi ) = (xi , λi xi ) = λi (xi , xi ) ≥ 0 no sum over i


λi kxi k2 ≥ 0 ⇒ λi ≥ 0

on the other hand, by assuming that a normal operator T has a real non-negative spectrum we obtain
n
! n n
! n X n n X
n
X X X X X
(x, T x) = x, λi Pi x = xk , λi xi = λi (xk , xi ) = λi δki kxk k2
i=1 k=1 i=1 k=1 i=1 k=1 i=1
n
X
(x, T x) = λk kxk k2 ≥ 0
k=1

we see then that


54 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Theorem 1.63 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{λ1 , .., λm }, then T is positive ⇔ λi ≥ 0.

Now, for a normal operator T , a necessary and sufficient condition for T to be unitary is that T † T = I (in
finite dimension it is not necessary to show that T T † = I) using Eqs. (1.97, 1.100) the condition for unitarity is

m
X m
X m
X
T †T = I ⇒ |λk |2 Pk = I ⇒ |λk |2 Pk = Pk
k=1 k=1 k=1

multiplying by Pi and using the pairwise orthogonality of projectors

m
X m
X
|λk |2 Pk Pi = Pk Pi ⇒ |λi |2 Pi2 = Pi2 ⇒ |λi |2 Pi = Pi
k=1 k=1

so that |λi | = 1. This procedure also shows that if T is a normal operator in which |λi | = 1 for each i, then
T T † = I and T is unitary, then we have

Theorem 1.64 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{λ1 , .., λm }, then T is unitary ⇔ |λi | = 1 for each i.

Now, remembering that unitary operators where constructed as the analogous of “the unitary circle subset”
in the algebra of operators, the fact that its eigenvalues lie in the unitary circle of the complex plane is pretty
natural.
Now we are prepared to discuss the canonical problem for normal matrices. We denote ni the dimension of
each eigenspace Mi it is clear that
n1 + n2 + ... + nm = n

Mi contains
 i ni ilinearly
independent vectors xi1 , .., xini that can be orthonormalized by a Gram Schmidt process
to say u1 , .., uni . If we do this for each Mi the set form by the union of these orthonormal sets

 i
{u} ≡ ∪m i
i=1 u1 , .., uni

is clearly an orthonormal set because all vectors corresponding with different Mi′ s are orthogonal according to
theorem 1.58. In addition, since the Mi′ s span H according to theorem 1.60 this orthonormal set is complete and
hence a basis. Therefore, for any normal operator T of H we can always form an orthonormal complete set of
eigenvectors. If we use this orthonormal complete eigenvectors to form the matrix of diagonalization Eq. (1.88) we
see that the matrix obtained is a unitary matrix, it is clear that for this matrices the inverse always exists since
λi 6= 0 for each i and therefore the diagonalization can be carried out. Then we have the following

Theorem 1.65 The diagonalization of a normal matrix T can be performed by a similarity transformation of the
form T′ = U TU−1 where U is a unitary matrix.

This is of particular interest because it means that given a matrix representative of T in a basis consisting of
a complete orthonormal set, there exists another complete orthonormal set for which the matrix representative
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM 55

acquires its canonical form. Further, it is easy to see that the canonical form of a normal matrix is given by
 
λ1
 .. 
 . 
 
 λ 
 1 
 λ2 
 
 .. 
 . 
 
 λ2 
 
 . .. 
 
 
 λm 
 
 . . 
 . 
λm
where the elements out of the diagonal are zero and each λi is repeated ni times (λi is ni −fold degenerate). It is
easily seen that the matrix representation of Pi in this orthonormal basis is
 
  0n1 ×n1 0 0  
1n1 ×n1 0 0 0
P1 = ; P2 =  0 1n2 ×n2 0  ; Pm =
0 0 0 1nm ×nm
0 0 0
and the matrix representation of the spectral decomposition becomes clear.

1.20.1. A qualitative discussion of the spectral theorem in infinite dimensional Hilbert


spaces
The rigorous discussion of the infinite dimensional case for the spectral theorem is out of the scope of this
survey. We shall only speak qualitatively about the difficulties that arises when we go to infinite dimension. For
simplicity we assume that A is a self-adjoint operator, the spectral resolution is given by
m
X
A= λi Pi
i=1

since the eigenvalues are real we can order them in a natural way in the form λ1 < λ2 < .. < λm and we use the
Pi′ s to define new projections

Pλ0 = 0
Pλ1 = P1
Pλ2 = P1 + P2
....
Pλm = P1 + ... + Pm = I

the spectral decomposition of the self-adjoint operator A can be written as

A = λ1 P1 + λ2 P2 + ... + λm Pm

= λ1 (Pλ1 − Pλ0 ) + λ2 (Pλ2 − Pλ1 ) + ... + λm Pλm − Pλm−1
Xm

A = λi Pλi − Pλi−1
i=1

if we define
∆Pλi ≡ Pλi − Pλi−1
56 CAPÍTULO 1. LINEAR OR VECTOR SPACES

we can rewrite the decomposition of A as


m
X
A= λi ∆Pλi
i=1

which suggest an integral representation


Z
A= λ dPλ (1.103)

in this form, the spectral decomposition of a self-adjoint operator is valid for infinite dimensional Hilbert spaces.
For normal operators we have a similar pattern
Z
N= λ dPλ (1.104)

The first problem to carry out this generalization is that an operator on H need not have eigenvalues at all.
In this general case the spectrum of T is defined as

σ (T ) = {λ : T − λI is singular}

when H is finite dimensional, σ (T ) consists entirely of eigenvalues. In the infinite dimensional case we only can
say that σ (T ) is non-empty, closed and bounded. Once this difficulty is overcome we should give a precise meaning
to the integrals (1.103, 1.104) and prove the validity of those relations. We shall see later that an extension of the
spectral theorem in its present form to infinite dimensions is obtained by using the concept of observable.
It worths emphasizing that the existence of eigenvalues in the finite dimensional case came from the fundamen-
tal theorem of algebra, which in turn came from the fact that the characteristic equation of a finite dimensional
matrix is a polynomial equation. An extension to infinite dimension clearly does not lead to a polynomial equation.

1.21. The concept of “hyperbasis”


Suppose that the vector space that concerns us is V , which is a proper subspace of a bigger vector space W .
As any vector space, W has a basis {wi } that generates any vector in W by linear combinations. It is obvious that
any vector of V must be generated through linear combinations of {wi }. However, there are at least two reasons
for which {wi } is not a basis for V (a) at least one element of the set {wi } is not in V , and one of the conditions
for a given set S to be a basis of a given vector space V is that S ⊆ V . (b) given a basis {vi } of V we have that
{wi } and {vi } does not have in general the same cardinality, and we know that different bases must have the same
cardinality.
Let us see a simple example: let us use an orthonormal basis of R3 given by

1 1 1
u1 ≡ √ (1, 1, 1) ; u2 ≡ √ (4, −1, −3) ; u3 = √ (−2, 7, −5)
3 26 78

to generate all vector of the XY plane. The coordinates of ui are written with respect to the ordinary cartesian
coordinates. Since these vectors generate R3 it is clear that they generate the XY plane which is a proper subset
of R3 . Notwithstanding, none of the vectors ui lies in the XY plane, all the elements of this “hyperbasis” are
outside of the vector space we pretend to expand. Further, any basis of XY has two elements while our hyperbasis
has three elements. Therefore, the cardinality of the hyperbasis is higher than the dimension of the space that
we shall study. For our purposes however, what really matters is that any vector in XY can be generated as a
linear combination of {u1 , u2 , u3 }. For instance, the vector x of the XY plane represented by (3, −2, 0) in ordinary
1.22. DEFINITION OF AN OBSERVABLE 57

cartesian coordinates, is represented in this hyperbasis as

x = (u1 , x) u1 + (u2 , x) u2 + (u3 , x) u3


   
1 1
= √ (1, 1, 1) · (3, −2, 0) u1 + √ (4, −1, −3) · (3, −2, 0) u2 +
3 26
 
1
+ √ (−2, 7, −5) · (3, −2, 0) u3
78
1 14 20
x = √ u1 + √ u2 − √ u3
3 26 78

note that in this case an element of the plane is given by a triple with respect to the hyperbasis, in this case
 
1 14 20
x= √ ,√ , − √
3 26 78

in quantum mechanics we shall use a similar strategy but for orthogonal dimensions instead of dimensions. The
Hilbert space L2 that concerns us is of infinite countable orthogonal dimension, but we shall use frequently
orthogonal basis of a bigger space with infinite continuous orthogonal dimension. Therefore, we shall expand the
vectors of L2 in terms of orthogonal hyperbases {vx } with continuous cardinality. In general, the elements vx of
the bigger space will be outside of L2 . However, as before a fourier expansion (instead of a linear combination)
will be possible with this hyperbasis.
Notice that for any cardinality of the orthogonal dimension of a Hilbert space, we see that the Fourier expansion
Eq. (1.27) is always a series. This is by virtue of theorem 1.18 that says that the non-zero fourier coefficients of
any vector are always countable, even if the complete orthonormal set belongs to a higher cardinality. However,
such a theorem is valid for complete orthonormal sets in which all the elements of the set lies in the space under
consideration. If we use a hyper orthonormal complete set the elements of this hyper orthogonal basis do not lie
on the space that we are expanding, thus theorem 1.18 does not necessarily hold. Consequently, when continuous
hyper orthonormal basis are used, we shall obtain integrals instead of series in our Fourier expansions. Does it
make any sense to replace series by integrals? it suffices to observe that it is in general easier to solve integrals in
a closed form than series in a closed form.

1.22. Definition of an observable


Measurements in Physics are always real numbers. In quantum mechanics, such measurements are related with
eigenvalues of some operators on a Hilber space. It is then natural to associate measurements with eigenvalues of
self-adjoint operators since their spectra are always real.
For any finite-dimensional Hilbert space it is always possible to form a complete orthonormal set with the
eigenvectors of a normal operator, and in particular with the eigenvectors of a self-adjoint operator. However, in
infinite dimensional Hilbert spaces this is not necessarily the case. Therefore, we establish the following

Definition 1.31 A given self-adjoint operator A on H is called an observable, if there exists a complete ortho-
normal set of eigenvectors of A.

The following sets of theorems are of central importance in quantum mechanics

Theorem 1.66 If two operators A and B commute and if x is an eigenvector of A, then Bx is also an eigenvector
of A with the same eigenvalue. If λ is non-degenerate x is also an eigenvector of B. If λ is n−fold degenerate, the
eigensubspace Mλ is invariant under B.
58 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Since x is an eigenvector of A we have

Ax = λx ⇒ BAx = λBx ⇒ ABx = λBx

where we have used the fact that A and B commutes, hence

A (Bx) = λ (Bx)

which proves that Bx is an eigenvector of A with eigenvalue λ. Observe that if λ is non-degenerate all its eigen-
vectors are “colinear” hence Bx must be colinear with x i.e. Bx = cx and x is also an eigenvector of B.
On the other hand, if λ is n−fold degenerate, we can only say that Bx lies in the n dimensional eigensubspace
Mλ of A. In other words, if x ∈ Mλ then Bx ∈ Mλ
Another way to express the previous theorem is

Theorem 1.67 If two operators A and B commute, every eigensubspace of A is invariant under B.

Of course, the roles of A and B can be interchanged.

Theorem 1.68 If two normal operators A and B commute, and if x1 , x2 are two eigenvectors of A with different
eigenvalues, then (x1 , Bx2 ) = 0.

By hypothesis we have
Ax1 = λ1 x1 ; Ax2 = λ2 x2
but from theorem 1.66 Bx2 is an eigenvector of A with eigenvalue λ2 . Now from theorem 1.61 since λ1 6= λ2 then
Bx2 is orthogonal to x1 and the theorem is proved.
The previous theorems do not use the concept of observable6 , but the following one does

Theorem 1.69 Let A and B be two observables in a Hilbert space H. Then A and B commute⇔one can construct
a complete orthonormal set in H with eigenvectors common to A and B.

Assume that A and B commute, we shall define the normalized eigenvectors of A as uin

Auin = λn uin ; i = 1, .., gn

where gn is the degree of degeneration of λn . For n 6= n′ the eigenvectors are orthogonal and for n = n′ and i 6= i′
we can always orthonormalized the vectors in each eigensubspace of A, so that
 
uin , ujk = δnk δij

let us write H as a decomposition of the eigenspaces of A (taking into account that A is an observable)

H = M1 ⊕ M2 ⊕ M3 ⊕ ...

there are two cases. For each one dimensional Mk (each non-degenerate λk ) all vectors in Mk are “colinear” and
they are also eigenvectors of B.
In the other case, gp > 1 then Mp is gp dimensional. We can only say that Mp is invariant under B. Consider
the restriction of A and B to the subspace Mp . Since the vectors uip in Mp are eigenvectors of A, the restriction
(p)
of A to Mp has a matrix representative Aij of the form

(p)   
Aij = vpi , Avpj = vpi , λp vpj = λp vpi , vpj = λp δij
6
However, we assumed that the operators involved posses eigenvalues, and this fact cannot taken for granted in infinite dimensions.
1.23. COMPLETE SETS OF COMMUTING OBSERVABLES (C.S.C.O.) 59

thus the matrix representation of A(p) is λp I for any orthonormal set complete in Mp (not neccesarily the original).
Now let us see the matrix representative of the restriction B (p) of B on Mp , writing this representation in our
original orthonormal set
(p) 
Bij = uip , Bujp
since B is a self-adjoint operator this matrix is self-adjoint, and according to theorem 1.65 they can always
be
diagonalized by a unitary transformation, which in turn means that there exists an orthonormal set vpi in Mp
for which the matrix representative of B (p) is diagonal, hence
(p)  (p)
Bij = vpi , Bvpj = Bi δij

which means that the new orthonormal set complete in Mp consists of eigenvectors of B

(p)
Bvpi = Bi vpi

and since Mp contains only eigenvectors of A, it is clear that vpi is an orthonormal set complete in Mp that
are common eigenvectors of A and B. Proceeding in this way with all eigensubspaces of A with more than one
dimension, we obtain a complete orthonormal set in H in which the elements of the set are common eigenvectors
of A and B.
It is important to emphasize that for a given Mp the orthonormal set chosen a priori does not in general consist
of eigenvectors of B, but it is always possible to obtain another orthonormal set that are eigenvectors of B and
by definition they are also eigenvectors of A.
Now let us prove that if A and B are observables with a complete orthonormal set of common eigenvectors
then they commute. Let us denote the complete orthonormal set of common eigenvectors as uin,p then

ABuin,p = bp Auin,p = an bp uin,p


BAuin,p = an Buin,p = an bp uin,p

therefore
[A, B] uin,p = 0
since uin,p form a complete orthonormal set, then [A, B] = 0.
It is also very simple to show that if A and B are commuting observables with eigenvalues an and bp and with
common eigenvectors uin,p then
C =A+B
is also an observable with eigenvectors uin,p and eigenvalues cn,p = an + bp .

1.23. Complete sets of commuting observables (C.S.C.O.)



Consider an observable A and a complete orthonormal set uin of the Hilbert space that consists of eigenvectors
of A. If none of the eigenvalues of A are degenerate then the eigenvalues determine the eigenvectors in a unique
way (within multiplicative constant factors). All the eigensubspaces Mi are one-dimensional and the complete
orthonormal set is simply denoted by {un }. This means that there is only one complete orthonormal set (except
for multiplicative phase factors) associated with the eigenvectors of the observable A. We say that A constitutes
by itself a C.S.C.O.
On the other hand, if some eigenvalues of A are degenerate, specifying an is not enough to determine a
complete orthonormal set for H because any orthonormal set in the eigensubspace Mn can be part of such a
complete orthonormal set. Thus the complete orthonormal set determined by the eigenvectors of A is not unique
and it is not a C.S.C.O.
60 CAPÍTULO 1. LINEAR OR VECTOR SPACES

Now we add a second observable B that commutes with A, and construct a complete orthonormal set common
to A and B. By definition, A and B constitutes a C.S.C.O. if the complete orthonormal set common to both is
unique (within constant phase factors for each of the vectors in the complete set). In other words, it means that
any pair of eigenvalues an , bp determines the associated common normalized eigenvector uniquely, except for a
phase factor.
In theorem 1.69 we constructed the complete orthonormal set common to A and B by solving the eigenvalue
equation of B within each eigensubspace defined by A. For A and B to constitute a C.S.C.O. it is necessary and
sufficient that within each Mn the gn eigenvalues of B be distinct7 . In this case, since all eigenvectors vni in each
(n)
Mn have the same eigenvalue an of A, they will be distinguished by the gn distinct eigenvalues bi associated with
these eigenvectors of B. Note that it is not necessary that the eigenvalues of B be non-degenerate, we can have
two (or more) equal eigenvalues of B associated with two (or more) distinct eigensubspaces Mn and Mk of A. We
only require not to have degeneration of the eigenvalues of B within a given eigensubspace Mn of A. Indeed, if B
were non-degenerate it would be a C.S.C.O. by itself.
On the other hand, if for at least one pair {an , bp } there exist two or more linearly independent eigenvectors
common to A and B they are not a C.S.C.O.. Let us add a third observable C that commutes with both A and
B, and proceeds as above. When to the pair {an , bp } corresponds only one eigenvector common to A and B, then
it is automatically an eigenvector of C as well. On the contrary, if the eigensubspace Mn,p is gn,p dimensional,
we can construct within it, an orthonormal set of eigenvectors of C. Proceeding in this way with each Mn,p we
can construct a complete orthonormal set with eigenvectors common to A, B, C. These three observables are a
C.S.C.O. if this complete orthonormal set is unique (except for multiplicative phase factors). Once again, if Mn,p
(n,p)
has the eigenvectors uin,p common to A and B this occurs if and only if all gn,p eigenvalues of C denoted as ck are
distinct. As before, C can be degenerate, but as long as degenerate eigenvalues are not repeated within a single
eigenspace Mn,p of A and B. Therefore, a given triple of eigenvalues {an , bp , ck } of A, B, C has a unique common
eigenvector within a multiplicative factor. If two or more linearly independent eigenvectors common to A, B, C
can be constructed for a given set {an , bp , ck }, we can add a fourth observable D that commute with those three
operators and so on.

Definition 1.32 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.)
if (i) All observables commute pairwise, (ii) specifying the set of eigenvalues {an , bp , ck , ..} of the observables
determines a unique (within phase factors) complete orthonormal set of eigenvectors common to all the observables.

An equivalent form is the following

Definition 1.33 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.)
if there is a unique complete orthonormal set (within phase factors) of common eigenvectors.

It is obvious that if a given set is a C.S.C.O. we can add any observable that commutes with the observables
of the set and the new set is also a C.S.C.O. However, for most of our purposes we shall be interested in “minimal
C.S.C.O.” in the sense that by removing any observable of the set, the new set is not complete.
If a given set {A1 , .., An } of observables is a C.S.C.O., an eigenvector associated with a set {ak1 , .., akn } determines
a unique common normal eigenvector (within a phase factor) so it is natural to denote the vector as uak1 ,ak2 ,akn .
We shall see later that in quantum mechanics a global phase has no Physical information. Therefore, all normal
vectors associated with {ak1 , .., akn } have the same Physical information, this fact enhance the qualification of
“unique” for these vectors, although they are not unique from the mathematical point of view.

7
If Mn is one dimensional then an eigenvector of A in Mn is automatically an eigenvector of B and it is clearly uniquely determined,
except for multiplicative factors. Only the case in which Mn has more than one dimension is non-trivial.
1.24. SOME TERMINOLOGY CONCERNING QUANTUM MECHANICS 61

1.24. Some terminology concerning quantum mechanics


We have defined linear combinations as finite sums. A basis in a vector space is thus a set of linearly indepen-
dent vectors for which any vector of the space can be written as a finite sum of elements of the basis (multiplied
by the appropiate scalars). Notably, bases always exist even in an infinite-dimensional vector space. However, in
practice it is not easy to find a basis in an infinite dimensional Hilbert space. In this case, it is more usual to
utilize complete orthonormal sets, they make a work similar to basis in the sense that they generate any vector,
but the difference is that complete orthonormal sets expand a vector in a series (Fourier expansion) while bases
do it in finite sums.
In quantum mechanics we call a basis to mean a complete orthonormal set, and the series expansion
is usually call a linear combination. Since we never use basis in the mathematical sense, there is no confusion
with this terminology. Self-adjoint operators are usually called hermitian operators. The conjugate space H ∗
of H is usually call the dual space of H. The vectors in our Hilbert space are called kets, while the correponding
elements in the dual space (the functionals) are called bras.
In addition the Hilbert space we work with, is a separable space so that its dimension is countable (countably
infinite). We shall resort however to some hyperbases which are of continuous cardinality, the elements of these
hyperbases do not belong to our Hilbert space. Consequently, the elements of the hyperbasis will not be physical
states, but we shall call them continuous basis. Nevertheless, they will be very useful for practical calculations.
In addition there will be a change of notation to facilitate the mathematical calculations, it is called Dirac
notation

1.25. The Hilbert Space L2


We shall see later that the information of a quantum particle is described by a function of the space and time
denoted as ψ (r, t) and called the wave function. The quantity, |ψ (r, t)|2 dx dy dz will be interpreted as the
probability of finding at time t, the particle in a volume dx dy dz. Since the particle must be somewhere in the
space, we must demand that the integral over the whole volume must be equal to unity
Z
dV |ψ (r, t)|2 = 1

the integration extends over all space. However, in certain cases we could assume that the particle is in a given
confined volume and the integral will be restricted to such a volume.
The discussion above leads to the fact that the space of Physical states of one particle should be described by
a square-integrable wave function. The state space is then the Hilbert space L2 of the square-integrable functions
in a given volume. For a system of several particles we will have a space with similar features, but by now we will
concentrate on the space that describes a single particle.
For several reasons we cannot specified in general the state space of a particle. First of all, several physical
considerations can lead us to the fact that the particl is confined to a certain bounded volume. For instance,
in one dimension it is not the same the space of functions that are square integrable in the whole real line, as
(say) the space of functions that are square integrable in a bounded interval. In other words, different regions of
square integrability leads us to different L2 spaces. On the other hand, it is usual to demand as well as square
integrability, that the functions accomplish additional features of regularity. For example, to be defined all along
the interval, or to be continuous, derivable, etc. The specific conditions depend on the particular context, and
they are required to define the state space completely.
For example, it has no physical meaning to have a function that is discontinuous at a given point since no
experiment can measure a real phenomenon at scales below certain threshold. We could then be tempted to say
that we must demand the functions to be continuous. However, this is not necessarily the case since some non-
physical functions could help us to figure out what is happening. Let us take some familiar examples in classical
mechanics, it is usual in electrostatics to assume the presence of a surface charge, which leads to a discontinuity
62 CAPÍTULO 1. LINEAR OR VECTOR SPACES

in the electric field, in the real world a charge is distributed in a very thin but finite layer and the discontinuity
is replaced by a very slopy curve. Indeed, a surface charge is equivalent to an infinite volume density, but we
have seen that this assumption provides a simple picture of many electrostatic phenomena though it is not a real
physical state. Classical waves represented by a single plane wave in optics are other good examples, since it is
not possible to have a real wave being totally monochromatic (a physical state is always a superposition of several
plane waves), but many of the wave phenomena are easier to study with these non physical states, and indeed
many real physical phenomena such as the laws of geometric optics are predicted by using them.
In summary, depending on our purposes (and attitudes) we could demand to have only physical states or
to decide to study some non-physical ones that are obtain when some physical parameters are settle at extreme
values. Quantum mechanics is not the exception for this strategy, and our assumptions on the functions to work
with, affects the definition of the Hilbert space of states that we should use as a framework.
Hence, given the volume V in which the particle can stay, we say that our space of states is a subspace of the
Hilbert space L2 of the square integrable functions in the volume V . We denote by ̥ the subspace of states in
which ̥ ⊆ L2 . For this subspace to be a Hilbert space, it must be closed (for completeness to be maintained).

1.25.1. The wave function space ̥


According to the discussion above, we only can say that our wave function space that describe our physical
states is a closed subspace of L2 for a volume determined by our physical conditions. What really matters is to be
sure whether the additional conditions imposed to our functions keeps ̥ as a closed vector space. For instance,
if we assume continuity and/or derivability, it is easy to show that a finite linear combination preserves these
conditions. Less evident is to ensure that a series preserves these conditions (for the subspace to be closed in L2 ),
but we are not be concern with this problem here, neither we shall discuss the aspects concerning the completeness
of L2 . We then limite ourselves to determine the vector space character of L2 . Let ψ1 , ψ2 ∈ L2 , we show that

ψ (r) = λ1 ψ1 (r) + λ2 ψ2 (r)

is a square integrable function. For this, we expand |ψ (r)|2

|ψ (r)|2 = |λ1 |2 |ψ1 (r)|2 + |λ2 |2 |ψ2 (r)|2 + λ∗1 λ2 ψ1∗ (r) ψ2 (r) + λ1 λ∗2 ψ1 (r) ψ2∗ (r)

now for the last two terms we have


h i
|λ∗1 λ2 ψ1∗ (r) ψ2 (r)| = |λ1 λ∗2 ψ1 (r) ψ2∗ (r)| ≤ |λ1 | |λ2 | |ψ1 (r)|2 + |ψ2 (r)|2

hence h i
|ψ (r)|2 ≤ |λ1 |2 |ψ1 (r)|2 + |λ2 |2 |ψ2 (r)|2 + 2 |λ1 | |λ2 | |ψ1 (r)|2 + |ψ2 (r)|2
and the integral of each of the functions on the right-hand side converges. Then the integral
Z
|ψ (r)|2 dV

converges. So ψ is a square integrable function.


The scalar product will be defined as
Z
(ϕ, ψ) = dV ϕ∗ (r) ψ (r)

it can be shown that this integral always converges if ϕ and ψ belong to L2 . We should check that this definition
accomplishes the properties of an inner product, the properties arise directly from the definition

(ϕ, λ1 ψ1 + λ2 ψ2 ) = λ1 (ϕ, ψ1 ) + λ2 (ϕ, ψ2 ) ; (λ1 ϕ1 + λ2 ϕ2 , ψ) = λ∗1 (ϕ1 , ψ) + λ∗2 (ϕ2 , ψ)


(ϕ, ψ) = (ψ, ϕ)∗ ; (ψ, ψ) ≡ kψk2 ≥ 0 and (ψ, ψ) = 0 ⇔ ψ = 0
1.26. DISCRETE ORTHONORMAL BASIS 63

let us mention some important linear oprators on functions ψ (r) ∈ ̥.


The parity opeartor defined as
Πψ (x, y, z) = ψ (−x, −y, −z)
the product operator X defined as
Xψ (x, y, z) = xψ (x, y, z)
and the differentiation operator with respect to x denoted as Dx

∂ψ (x, y, z)
Dx ψ (x, y, z) =
∂x
it is important to notice that the operators X and Dx acting on a function ψ (r) ∈ ̥, can transform it into a
function that is not square integrable. Thus it is not an operator of ̥ into ̥ nor onto ̥. However, the non-physical
states obtained are frequently useful for practical calculations.
The commutator of the product and differentiation operator is of central importance in quantum mechanics
 
∂ ∂ ∂ ∂
[X, Dx ] ψ (r) = x − x ψ (r) = x ψ (r) − [xψ (r)]
∂x ∂x ∂x ∂x
∂ ∂
= x ψ (r) − x ψ (r) − ψ (r)
∂x ∂x
[X, Dx ] ψ (r) = −ψ (r) ∀ψ (r) ∈ ̥
therefore
[X, Dx ] = −I (1.105)

1.26. Discrete orthonormal basis


The Hilbert space L2 (and thus ̥) has a countable infinite dimension, so that any authentic basis of ̥ must
be infinite but discrete. A discrete orthonormal basis {ui (r)} with ui (r) ∈ ̥ should follows the rules given in
section 1.9.1. Thus orthonormality is characterized by
Z
(ui , uj ) = d3 r u∗i (r) uj (r) = δij

the expansion of any wave function (vector) of this space is given by the Fourier expansion described by Eq. (1.27)
X Z
ψ (r) = ci ui (r) ; ci = (ui , ψ) = d3 r u∗i (r) ψ (r) (1.106)
i

using the terminology for finite dimensional spaces we call the series a linear combination and ci are the components
or coordinates, which correspond to the Fourier coefficients. Such coordinates provide the representation of ψ (r)
in the basis {ui (r)}. It is very important to emphasize that the expansion of a given ψ (r) must be unique for
{ui } to be a basis, in this case this is guranteen by the form of the Fourier coefficients.
Now if the Fourier expansion of two wave functions are
X X
ϕ (r) = bj uj (r) ; ψ (r) = ci ui (r)
j i

The scalar product and the norm can be expressed in terms of the components or coordinates of the vectors
according with Eqs. (1.65, 1.66) X X 2
(ϕ, ψ) = b∗i ci ; (ψ, ψ) = |ci | (1.107)
i i
and the matrix representation of an operator T in a given orthonormal basis {ui } is obtained from Eq. (1.69)
Tij ≡ (ui , T uj )
64 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.26.1. Función delta de Dirac


Como veremos a continuación la función delta de Dirac es un excelente instrumento para expresar el hecho
de que un conjunto ortonormal dado sea completo. También es útil para convertir densidades puntuales, lineales
y superficiales, en densidades volumétricas equivalentes. Es importante enfatizar que la función delta de Dirac
mas que una función es una distribución. En el lenguaje del análisis funcional, es una uno-forma que actúa en
espacios vectoriales de funciones, asignándole a cada elemento del espacio, un número real de la siguiente forma:
Sea V el espacio vectorial de las funciones definidas en el dominio (b, c) con ciertas propiedades de continuidad,
derivabilidad, integrabilidad, etc. La distribución delta de Dirac es un mapeo que asigna a cada elemento f (x) de
V un número real con el siguiente algoritmo8
Z c 
f (a) si a ∈ (b, c)
f (x) δ (x − a) dx =
b 0 si a ∈/ [b, c]

mencionaremos incidentalmente que con esta distribución es posible escribir una densidad de carga (o masa)
puntual (ubicada en r0 ) como una densidad volumétrica equivalente

ρ (r) = qδ r′ − r0 (1.108)

esta densidad reproduce adecuadamente tanto la carga total como el potencial y el campo que genera, una vez
que se hagan las integrales apropiadas.
Hay varias sucesiones de distribuciones que convergen a la función Delta de Dirac, una de las mas utilizadas
es la sucesión definida por
n 2 2
fn (x − a) = √ e−n (x−a) (1.109)
π
se puede demostrar que al tomar el lı́mite cuando n → ∞ se reproduce la definición y todas las propiedades básicas
de la distribución delta de Dirac. Nótese que todas las distribuciones gaussianas contenidas en esta sucesión tienen
área unidad y están centradas en a. De otra parte, a medida que aumenta n las campanas gaussianas se vuelven
más agudas y más altas a fin de conservar el área, para valores n suficientemente altos, el área se concentra en
una vecindad cada vez más pequeña alrededor de a. En el lı́mite cuando n → ∞, toda el área se concentra en un
intervalo arbitrariamente pequeño alrededor de a.
Algunas propiedades básicas son las siguientes:
R∞
1. −∞ δ (x − a) dx = 1
R∞
2. −∞ f (x) ∇δ (r − r0 ) dV = − ∇f |r=r0
1
3. δ (ax) = |a| δ (x)

4. δ (r − r0 ) = δ (r0 − r)

5. xδ (x) = 0
 1
6. δ x2 − e2 = 2|e| [δ (x + e) + δ (x − e)]

Vale enfatizar que debido a su naturaleza de distribución, la función delta de Dirac no tiene sentido por sı́ sola,
1
sino únicamente dentro de una integral. Por ejemplo cuando decimos que δ (ax) = |a| δ (x), no estamos hablando

8 ∞ si r = 0 R
Es usual definir la “función” delta de Dirac como δ (r) = y δ (x) dx = 1. Esta definición se basa en una
0 si r = 6 0
concepción errónea de la distribución delta de Dirac como una función. A pesar de ello, hablaremos de ahora en adelante de la función
delta de Dirac para estar acorde con la literatura.
1.27. CLOSURE RELATIONS 65

de una coincidencia numérica entre ambos miembros, sino de una identidad que se debe aplicar al espacio vectorial
de funciones en que estemos trabajando, es decir
Z c Z c
1
f (x) δ (ax) dx = f (x) δ (x) dx ∀ f (x) ∈ V y ∀ a ∈ R
b b |a|
Estrictamente, el mapeo también se puede hacer sobre los números complejos con propiedades análogas. En este
mismo espı́ritu, es necesario aclarar que la densidad volumétrica equivalente de una carga puntual (y todas las
densidades equivalentes que se pueden formar con la delta) es realmente una distribución. Por ejemplo, la densidad
descrita por (1.108), solo tiene realmente sentido dentro de integrales que generan la carga total, el potencial o el
campo. Las densidades ordinarias son funciones, pero las densidades equivalentes son distribuciones. En sı́ntesis, lo
que se construye con la densidad volumétrica equivalente es una distribución que me produzca el mapeo adecuado
para reproducir la carga total, el potencial y el campo.
En másR de una dimensión la delta se convierte simplemente en productos de deltas unidimensionales, la
propiedad δ(n) (x) dn x = 1, aplicada a n dimensiones, nos dice que la delta no es adimensional, sus dimensiones
son de x−n .
De momento, el uso que le daremos a la delta estará relacionado con la completez del sistema orthonormal
que usemos. Nótese que en dimension finita la completez se comprueba simplemente asegurándonos de tener igual
número de vectores linealmente independientes que la dimensión del espacio. En espacios de dimension infinita
en cambio podrı́amos tener un conjunto infinito contable que no fuera completo y que se vuelve completo al
agregarle otro conjunto finito o infinito contable, pues en tal caso la cardinalidad no cambia. En dimensión infinita
un conjunto ortonormal puede tener la cardinalidad de la dimensión ortogonal del espacio y sin embargo no ser
completo. Es por esto que la prueba de completez es particularmente importante.

1.27. Closure relations


Naturalmente, para que todo vector arbitrario ψ (r) de ̥ sea expandible en los vectores unitarios linealmente
independientes {ui (r)}, es necesario que el conjunto que define la base sea completo, la condición de completez
puede obtenerse reemplazando los coeficientes de Fourier cn en la expansión de ψ (r)
X X XZ B  
ψ (r) = cn un (r) = (un , ψ) un (r) = u∗n r′ ψ r′ un (r) d3 r′
n n n A
Z " #
B  X 
ψ (r) = ψ r′ u∗n r′ un (r) d3 r′
A n

donde la integral con lı́mites A y B significa una integral triple de volumen. Por otro lado
Z B
 
ψ (r) = ψ r′ δ r − r′ d3 r′
A

Igualando las dos últimas expresiones, y teniendo en cuenta que ψ (r′ ) es arbitraria se obtiene
X  
u∗n r′ un (r) = δ r − r′ (1.110)
n

retrocediendo en nuestros pasos vemos que la relación anterior nos garantiza que cualquier función arbitraria
dentro del espacio se puede expandir en términos del conjunto {un (r)}. A su vez vemos que la expansion para
una base ordenada dada {un (r)} es única, lo cual se obtiene gracias a la independencia lineal del conjunto. Por
tanto a la Ec. (1.110), se le conoce como relación de completez.
We shall study several complete sets that consequently accomplish property (1.110). The proof of completeness
of these sets is however out of the scope of this manuscript.
66 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.28. Introduction of hyperbases


In the case of discrete basis each element ui (r) is square integrable and thus belong to L2 and in general to ̥
as well. As explained before, it is sometimes convenient to use some hyperbases in which the elements of the basis
do not belong to either L2 or ̥, but in terms of which a function in ̥ can be expanded, the hyperbasis {u (k, r)}
will have in general a continuous cardinality with k denoting the continuous index that labels each vector in the
hyperbasis. According to our previous discussions the Fourier expansions made with this hyperbasis are not series
but integrals, these integrals will be called continuous linear combinations.

1.29. Closure relation with hyperbases


In the hyperbasis {u (k, r)}, k is a continuous index defined in a given interval [c, d]. Such an index makes
the role of the index n in discrete bases. We shall see that a consistent way of expressing orthonormality for this
continuous basis is9
Z B
 
(uk , uk′ ) = u∗ (k, r) u k′ , r d3 r = δ k − k′ (1.111)
A

we show it by reproducing the results obtained with discrete bases. Expanding an arbitrary function ψ (r) of our
Hilbert space as a continuous linear combination of the basis gives
Z d
ψ (r) = c (k) u (k, r) dk
c

then we have
 Z d  Z d
(uk′ , ψ) = uk′ , c (k) u (k, r) dk = c (k) (uk′ , uk ) dk
c c
Z d  
= c (k) δ k − k′ dk = c k′
c

from which the fourier coefficients of the continuous expansion are evaluated as

c k′ = (uk′ , ψ) (1.112)

when the Fourier coefficients are associated with continuous linear combinations (integrals) they are usually called
Fourier transforms. In this case, a vector is represented as a continuous set of coordinates or components, where
the components or coordinates are precisely the Fourier transforms.
Therefore, in terms of the inner product, the calculation of the Fourier coefficients in a continuous basis
(Fourier transforms) given by Eq. (1.112) coincides with the calculation of them with discrete bases Eq. (1.106).
Eq. (1.112) in turn guarantees that the expansion for a given ordered continuous bases is unique10 . Those facts
in turn depends strongly on our definition of orthonormality in the continuous regime Eq. (1.111) showing the
consistency of such a definition. After all, we should remember that hyperbases are constructed as useful tools
and not as physical states, in that sense we should not expect a “truly orthonormality relation” between them11 .
9
From now on we shall say continuous bases, on the understanding that they are indeed hyperbases.
10
Remember that for a given set of vectors to constitute a basis, it is important not only to be able to expand any vector with
the elements of the set, it is also necessary for the expansion of each vector to be unique. In normal basis (not hyperbasis) this is
guaranteed by the linear independence, in our continuous set it is guranteed by our definition of orthonormality in such a set.
11
It is clear for example that with r = r′ the “orthonormality” relation diverge, so it is not a normalization in the mathematical
sense.
1.30. INNER PRODUCT AND NORM IN TERMS OF A HYPERBASIS 67

Let us see the closure relation


Z d Z d
ψ (r) = c (k) u (k, r) dk = (uk , ψ) u (k, r) dk
c c
Z d Z B 
∗ ′
 ′
 3 ′
ψ (r) = u k, r ψ r d r u (k, r) dk
c A
Z B Z d 
 
ψ (r) = u k, r u (k, r) dk ψ r′ d3 r′
∗ ′
A c

on the other hand Z B  


ψ (r) = δ r − r′ ψ r′ d3 r′
A
from which we find Z d  
u∗ k, r′ u (k, r) dk = δ r − r′ (1.113)
c
which defines us the closure relation for a continuous basis {u (k, r)}.
From the discussion above, the closure relations for discrete or continuous basis can be interpreted as “re-
presentations” of the Dirac delta function. Similar situation occurs with the orthonormality relation but only for
continuous bases.
It worths emphasizing at this point that a given representation of the delta in a given space cannot be
applied to another space. For example, it is possible
P to have a r−dimensional vector space of functions V1 with
a basis {vn (r)}, that defines a closure relation rn=1 vn∗ (r′ ) vn (r) = δ1 (r − r′ ), let us think about another r + k
dimensional vector space denoted by V2 and such that V2 ⊃ V1 , such P that a basis {um } of V2 includes the previous
basis plus other linearly independent vectors; the closure relation is: r+k ∗ ′ ′
n=1 un (r ) un (r) = δ2 (r − r ). What is the
′ ′
difference between δ1 (r − r ) and δ2 (r − r )?, the answer lies in the distribution nature of the badly called Dirac
delta function; the fundamental property of this distribution tells us that for all functions ψ (r′ ) that belongs
to V1 we have that
Z B " # Z B
 X   
′ ∗ ′ 3 ′
ψ (r) = ψ r vn r vn (r) d r = ψ r′ δ1 r − r′ d3 r′
A n A

however, if the function ψ (r) does not belong to V1 but it belongs to V2 then δ1 (r − r′ ) is not an adequate
distribution to represent this function. This is a general property of the distributions, since they are defined solely
by means of the way in which they map the functions of a specific vector space into the scalars. A representation
of the Dirac delta (and in general of any distribution) is linked to a very specific vector space of functions.

1.30. Inner product and norm in terms of the components of a vector in a


hyperbases
Let us take two vectors ϕ and ψ that belong to ̥. Both can be expressed as continuous linear combinations
of a continuous basis {uk }
Z d Z d  
ψ (r) = dk u (k, r) c (k) ; ϕ (r) = dk′ u k′ , r b k′
c c
now the idea is to write the scalar product of them in terms of the continuous set of components of each vector
i.e. in terms of their Fourier transforms c (k) and b (k′ ). The scalar product is
Z B Z d Z d Z B
3 ∗ ′ ∗ ′
 
(ϕ, ψ) = d r ϕ (r) ψ (r) = dk dk b k c (k) d3 r u∗ k′ , r u (k, r)
A c c A
68 CAPÍTULO 1. LINEAR OR VECTOR SPACES

now using the orthonormality relation Eq. (1.111) we have


Z B Z d Z d
3 ∗ ′
 
(ϕ, ψ) = d r ϕ (r) ψ (r) = dk dk b∗ k′ c (k) δ k − k′
A c c
Z d
(ϕ, ψ) = dk b∗ (k) c (k) (1.114)
c

the norm is obtained simply by taking ϕ = ψ then


Z d
(ψ, ψ) = kψk2 = dk |c (k)|2 (1.115)
c

Eqs. (1.114, 1.115) are clearly the continuous analogs of Eq. (1.107) for discrete basis.
In summary, the basic relations obtained in discrete bases (inner products, norms, fourier coefficients, ortho-
normality, completeness etc.) possses the same structure in continuous bases but with the following replacements
X Z

i(discrete) ↔ k(continuous) , ↔ dk , δij ↔ δ k − k′
i

1.31. Some specific continuous bases


1.31.1. Plane waves
We shall use a continuous basis represented by the set
n o  
ip·r/~ 1 3/2
ze ; z≡
2π~
where p is the continuous index that labels the different vectors of the basis. Indeed, p represents three continuous
indices px , py , pz . By now ~ is simply a mathematical constant, but it will become highly relevant in Physics. We
consider the space of square integrable functions over the whole space, all integrals are undestood to be triple
integrals. The continuous linear combination of a given square integrable function is given by
  Z
1 3/2 ∞ 3
ψ (r) = d p ψ̄ (p) eip·r/~
2π~ −∞

it is clear that ψ̄ (p) provides the continuous set of coordinates of the vector ψ (r) under our continuous basis.
They are thus the Fourier transforms of ψ (r) with respect to the basis of plane waves. It is useful to define

vp (r) ≡ zeip·r/~ (1.116)

from which the fourier transforms can be calculated by Eq. (1.112)


 3/2 Z ∞
1
c (k) = (uk , ψ) ⇒ ψ̄ (p) = (vp , ψ) = d3 r e−ip·r/~ ψ (r)
2π~ −∞

the basic relation in Fourier analysis Z ∞


1
d3 k eik·u = δ3 (u) (1.117)
(2π)3 −∞

can be used by assigning k → zp and u → (r − r′ ) to show that


Z ∞ Z ∞
 1 p ′ 
d3 p vp∗ r′ vp (r) = 3 d3 p ei ~ (r−r ) = δ3 r − r′ (1.118)
−∞ (2π~) −∞
1.31. SOME SPECIFIC CONTINUOUS BASES 69

by comparing it with Eq. (1.113), we see that (1.118) expresses the completeness relation for the continuous basis
{vp } in the space of functions that are square-integrable in the whole physical space. The orthonormality relation
can also be obtained from the property (1.117) but with the assignments k → zr and u → p − p′
Z ∞
 1 r ′  
vp , vp′ = 3 d3 r e−i ~ (p−p ) = δ3 p′ − p = δ3 p − p′ (1.119)
(2π~) −∞
by using p = p′ in Eq. (1.119) it is clear that kvp k2 = (vp , vp ) is divergent. Thus, the plane waves are not square-
integrable in the whole space. Therefore, the elements of this continuous basis do not belong to the Hilbert space
under study.

1.31.2. “Delta functions”


We shall use a continuous basis of “highly improper” functions defined by
ξr0 (r) ≡ δ (r − r0 ) (1.120)
{ξr0 (r)} represents the set of delta functions centered at each of the points r0 of the whole space. These functions
are not square-integrable so {ξr0 (r)} ∈/ ̥. Nevertheless, the following relations are valid for functions that belong
to ̥
Z
ψ (r) = d3 r0 ψ (r0 ) δ (r − r0 )
Z
ψ (r0 ) = d3 r ψ (r) δ (r0 − r)

rewritten them appropiately we have


Z
ψ (r) = d3 r0 ψ (r0 ) ξr0 (r) (1.121)
Z
ψ (r0 ) = d3 r ξr∗0 (r) ψ (r) = (ξr0 , ψ) (1.122)

Eq. (1.121) gives ψ (r) ∈ ̥ as a continuous linear combination of the set {ξr0 }, where ψ (r0 ) are the fourier
transforms. On the other hand, (1.122) indicates that the fourier transforms are evaluated as usual.
By using the properties of the Dirac delta function, it is possible to prove that the set {ξr0 } accomplishes
orthonormality and completeness relations
  Z  
ξr0 , ξr′0 = d3 r δ (r − r0 ) δ r − r′0 = δ r0 − r′0

and Z Z
3
  
d r0 ξr∗0 r′
ξr0 (r) = d3 r0 δ r′ − r0 δ (r − r0 ) = δ r − r′

note that the non-physical functions that constitute a continuous basis can usually be seen as limits in which one
or more parameters of a physically realizable state are taken at extreme (non-physical) values.
As an example the Dirac function can be taken as the limit of gaussians given by Eq. (1.109)
n 2 2
fn (x − a) = √ e−n (x−a)
π
for each value of n these functions are square integrable, continuous, and derivable, they could describe a physical
system. Notwithstanding, by taking n → ∞, the functions are no longer square-integrable and lose all properties
of well-behavior.
Concerning plane waves, physical states (in both classical and quantum mechanics) consists of a superposition of
plane waves with a finite width spectrum of frecuencies ∆ν, by taking the limit ∆ν → 0 we obtain a monochromatic
(non-physical) wave, corresponding to a single plane wave.
70 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.32. Tensor products of vector spaces, definition and properties


Let V1 and V2 be two vector spaces of dimension n1 and n2 . Vectors and operators on each of them will be
denoted by labels (1) and (2) respectively.

Definition 1.34 The vector space V is called the tensor product of V1 and V2

V ≡ V1 ⊗ V2

if there is associated with each pair of vectors x (1) ∈ V1 and y (2) ∈ V2 a vector in V denoted by x (1) ⊗ y (2) and
called the tensor product of x (1) and y (2), and in which this correspondence satisfies the following conditions:
(a) It is linear with respect to multiplication by a scalar

[αx (1)] ⊗ y (2) = α [x (1) ⊗ y (2)] ; x (1) ⊗ [βy (2)] = β [x (1) ⊗ y (2)] (1.123)

(b) It is distributive with respect to addition


 
x (1) + x′ (1) ⊗ y (2) = x (1) ⊗ y (2) + x′ (1) ⊗ y (2)
 
x (1) ⊗ y (2) + y′ (2) = x (1) ⊗ y (2) + x (1) ⊗ y′ (2) (1.124)

(c) When a basis is chosen in each space, say {ui (1)} in V1 and {vj (2)} in V2 , the set of vectors ui (1) ⊗ vj (2)
constitutes a basis in V . If n1 and n2 are finite, the dimension of the tensor product space V is n1 n2 .

An arbitrary couple of vectors x (1), y (2) can be written in terms of the bases {ui (1)} and {vj (2)} respectively,
in the form X X
x (1) = ai ui (1) ; y (2) = bj vj (2)
i j

Using Eqs. (1.123, 1.124) we see that the expansion of the tensor product is given by
XX
x (1) ⊗ y (2) = ai bj ui (1) ⊗ vj (2)
i j

so that the components of the tensor product of two vectors are the products of the components of the two vectors of
the product. It is clear that the tensor product is commutative i.e. V1 ⊗V2 = V2 ⊗V1 and x (1)⊗y (2) = y (2)⊗x (1)
On the other hand, it is important to emphasize that there exist in V some vectors that cannot be written
as tensor products of a vector in V1 with a vector in V2 . Nevertheless, since {ui (1) ⊗ vj (2)} is a basis in V any
vector in V can be expanded in it
XX
ψ= cij ui (1) ⊗ vj (2) (1.125)
i j

in other words, given a set of n1 n2 coefficients of the form cij it is not always possible to write them as products
of the form ai bj of n1 numbers ai and n2 numbers bj , we cannot find always a couple of vectors in V1 and V2 such
that ψ = x (1) ⊗ y (2).

1.32.1. Scalar products in tensor product spaces


If there are inner products defined in the spaces V1 and V2 we can define an inner product in the tensor product
space V . For a couple of vectors in V of the form x (1) ⊗ y (2) the inner product can be written as
  
x′ (1) ⊗ y′ (2) , x (1) ⊗ y (2) = x′ (1) , x (1) (1) y′ (2) , y (2) (2)
1.32. TENSOR PRODUCTS OF VECTOR SPACES, DEFINITION AND PROPERTIES 71

where the symbols (, )(1) and (, )(2) denote the inner product of each of the spaces of the product. From this, we can
see that if the bases {ui (1)} and {vj (2)} are orthonormal in V1 and V2 respectively, then the basis {ui (1) ⊗ vj (2)}
also is
(ui (1) ⊗ vj (2) , uk (1) ⊗ vm (2)) = (ui (1) , uk (1))(1) (vj (2) , vm (2))(2) = δik δjm
Now, for an arbitrary vector in V , we use the expansion (1.125) and the basic properties of the inner product
 
XX XX
(ψ, φ) =  cij ui (1) ⊗ vj (2) , bkm uk (1) ⊗ vm (2)
i j k m
X X X X
= c∗ij bkm (ui (1) ⊗ vj (2) , uk (1) ⊗ vm (2)) = c∗ij bkm δik δjm
i,j k,m i,j k,m
X
(ψ, φ) = c∗ij bij
i,j

it is easy to show that with these definitions the new product accomplishes the axioms of an inner product.

1.32.2. Tensor product of operators


e (1) acting on V
Consider a linear transformation A (1) defined in V1 , we associate with it a linear operator A
e
as follows: when A (1) is applied to a tensor of the type x (1) ⊗ y (2) we define
e (1) [x (1) ⊗ y (2)] = [A (1) x (1)] ⊗ y (2)
A

when the operator is applied to an arbitrary vector in V , this definition is easily extended because of the linearity
of the transformation
XX XX
Ae (1) ψ = A e (1) cij ui (1) ⊗ vj (2) = e (1) [ui (1) ⊗ vj (2)]
cij A
i j i j
XX
e (1) ψ =
A cij [A (1) ui (1)] ⊗ vj (2) (1.126)
i j

e (2) of a linear transformation in V2 is obtained in a similar way


the extension B
XX
Be (2) ψ = cij ui (1) ⊗ [B (2) vj (2)]
i j

finally, if we consider two operators A (1) , B (2) defined in V1 and V2 respectively, we can define their tensor
product A (1) ⊗ B (2) as
XX
[A (1) ⊗ B (2)] ψ = cij [A (1) ui (1)] ⊗ [B (2) vj (2)] (1.127)
i j

it is easy to show that A (1) ⊗ B (2) is also a linear operator. From Eqs. (1.126, 1.127) we can realize that the
extension of the operator A (1) on V1 to an operator A e (1) on V can be seen as the tensor product of A (1) with
the identity operator I (2) on V2 . A similar situation occurs with the extension Be (2)

e (1) = A (1) ⊗ I (2) ; B


A e (2) = I (1) ⊗ B (2) (1.128)
e (1) B
Now let us put the operators A (1)⊗B (2) and A e (2) to act on an arbitrary element of a basis {ui (1) ⊗ vj (2)}
of V

[A (1) ⊗ B (2)] ui (1) ⊗ vj (2) = [A (1) ui (1)] ⊗ [B (2) vj (2)]


h i
e (1) B
A e (2) ui (1) ⊗ vj (2) = Ae (1) {ui (1) ⊗ [B (2) vj (2)]} = [A (1) ui (1)] ⊗ [B (2) vj (2)]
72 CAPÍTULO 1. LINEAR OR VECTOR SPACES

e (1) and B
therefore, the tensor product A (1) ⊗ B (2) coincides with the ordinary product of two operators A e (2)
on V
e (1) B
A (1) ⊗ B (2) = A e (2)

additionally, it can be shown that operators of the form A e (1) and Be (2) commute in V . To see it, we put their
products in both orders to act on an arbitrary vector of a basis {ui (1) ⊗ vj (2)} of V
h i
e (1) B
A e (2) ui (1) ⊗ vj (2) = A
e (1) {ui (1) ⊗ [B (2) vj (2)]} = [A (1) ui (1)] ⊗ [B (2) vj (2)]
h i
e (2) A
B e (1) ui (1) ⊗ vj (2) = B
e (2) {[A (1) ui (1)] ⊗ vj (2)} = [A (1) ui (1)] ⊗ [B (2) vj (2)]

therefore we have h i
e (1) , B
A e (2) = 0 or A (1) ⊗ B (2) = B (2) ⊗ A (1)

an important special case of linear operators are the projectors, as any other linear operator, the projector in V is
the tensor product of the projectors in V1 and V2 . Let M1 and N1 be the range and null space of a projector in
V1 and M2 , N2 the range and null space of a projector in V2

V1 = M1 ⊕ N1 ; x (1) = xM (1) + xN (1) ; xM (1) ∈ M1 , xN (1) ∈ N1 ; P1 (x (1)) = xM (1)


V2 = M2 ⊕ N2 ; y (2) = yM (2) + yN (2) ; yM (2) ∈ M2 , yN (2) ∈ N2 ; P2 (y (2)) = yM (2)

(P1 ⊗ P2 ) (x (1) ⊗ y (2)) = [P1 x (1)] ⊗ [P2 y (2)] = xM (1) ⊗ yM (2)

for an arbitrary vector we have


XX XX
(P1 ⊗ P2 ) ψ = (P1 ⊗ P2 ) cij ui (1) ⊗ vj (2) = cij [P1 ui (1)] ⊗ [P2 vj (2)]
i j i j
XX
(P1 ⊗ P2 ) ψ = cij ui,M (1) ⊗ vj,M (2)
i j

finally, as in the case of vectors, there exists some operators on V that cannot be written as tensor products of
the form A (1) ⊗ B (2).

1.32.3. The eigenvalue problem in tensor product spaces


Let us assume that we have solved the eigenvalue problem for an operator A (1) of V1 . We want to seek for
information concerning the eigenvalue problem for the extension of this operator to the tensor product space V .
For simplicity, we shall assume a discrete spectrum

A (1) xin (1) = an xin (1) ; i = 1, 2, . . . , gn ; xin (1) ∈ V1

where gn is the degeneration associated with an . We want to solve the eigenvalue problem for the extension of
this operator in V = V1 ⊗ V2
e (1) ψ = λψ ; ψ ∈ V1 ⊗ V2
A

from the definition of such an extension, we see that a vector of the form xin (1) ⊗ y (2) for any y (2) ∈ V2 is an
e (1) with eigenvalue an
eigenvector of A
   
e (1) xi (1) ⊗ y (2) = A (1) xi (1) ⊗ y (2) = an xi (1) ⊗ y (2) ⇒
A n n n
 i   i 
e
A (1) xn (1) ⊗ y (2) = an xn (1) ⊗ y (2)
1.32. TENSOR PRODUCTS OF VECTOR SPACES, DEFINITION AND PROPERTIES 73

it is natural to ask whether any eigenvector of A e (1) can be generated in this way. We shall see that it is true if

A (1) is an observable in V1 . Assuming it, the set of orthonormal eigenvectors xin (1) forms a basis in V1 . If we
now take an orthonormal basis {ym (2)} in V2 , then the set of vectors
 i,m  i
ψn ≡ xn (1) ⊗ ym (2)
n o
forms an orthonormal basis in V . It is clear that the set ψni,m consists of eigenvectors of A e (1) with eigenvalues
an , and since they are a basis, a complete orthonormal set of eigenvectors of A e (1) have been generated with the
procedure explained above. This in turn means that if A (1) is an observable in V1 , its extension A e (1) is also an
e
observable in V . Further, the spectrum of A (1) coincides with the spectrum of A (1). Notwithstanding, it worths
to say that if N2 is the dimension of V2 , if an is gn −fold degenerate in V1 , it will be gn ·N2 −degenerate in V . This is
because for a given eigenvector xin (1) in V1 , there are N2 eigenvectors ψni,m ≡ xin (1) ⊗ ym (2) since m = 1, . . . , N2 .
We know that each eigenvalue an of A (1) in V1 defines an eigensubspace V1,an in V1 with gn dimension. The
corresponding eigensubspace generated by an in V is a N2 · gn subspace Van . The projector onto V1,an is written
by

V1 = V1,an ⊕ V1,an
; x (1) = xan (1) + x⊥ ⊥ ⊥
an (1) ; xan (1) ∈ V1,an , xan (1) ∈ V1,an
P1an (x (1)) = xan (1)

and its extension to V is defined as


   
Pe1an ≡ P1an ⊗ I2 ; Pe1an ψni,m ≡ Pe1an xin (1) ⊗ ym (2) = P1an xin (1) ⊗ ym (2)
Pe1an ψni,m = xan (1) ⊗ ym (2)

Now assume that we have a sum of operators of both spaces


e (1) + B
C=A e (2)

where A (1) and B (2) are observables in their corresponding spaces, with the following eigenvalues and eigenvectors

A (1) xin (1) = an xin (1) ; i = 1, 2, . . . , gn ; xin (1) ∈ V1


k k k
B (2) ym (2) = bm ym (2) ; k = 1, 2, . . . , hm ; ym (2) ∈ V2

we have seen that A e (1) and B


e (2) commute, so they should have a commom basis of eigenvectors in V . This basis
is precisely, the tensor product of their eigenvectors
h i h i
e (1) xin (1) ⊗ ym
A k
(2) = an xin (1) ⊗ ym
k
(2)
h i h i
Be (2) xin (1) ⊗ ym
k
(2) = bm xin (1) ⊗ ym
k
(2)

and they are also eigenvectors of C = Ae (1) + Be (2)


h ih i h i
e (1) + B
A e (2) xi (1) ⊗ yk (2) = (an + bm ) xi (1) ⊗ yk (2)
n m n m
h i h i
C xin (1) ⊗ ymk
(2) = cnm xin (1) ⊗ ym
k
(2) ; cnm = an + bm

e (1) + B
So that if C = A e (2) the eigenvalues of C are the sums of the eigenvalues of A
e (1) and B
e (2). Besides, we
can form a basis of eigenvectors of C by taking the tensor product of the basis of A (1) and B (2).
It is important to emphasize that even if an and bm are non-degenerate, it is posible that cnm be dege-
nerate. Assume that an and bm are non-degenerate, and for a given cnm let us define all the sets of pairs
74 CAPÍTULO 1. LINEAR OR VECTOR SPACES

{(nj , mj ) : j = 1, . . . , q} such that anj + bmj = cnm . In that case, the eigenvalue cnm is q−fold degenerate, and
every eigenvector corresponding to this eigenvalue can be written as
q
X  
cj xnj (1) ⊗ ymj (2)
j=1

in this case there are eigenvectors of C that are not tensor products.

1.32.4. Complete sets of commuting observables in tensor product spaces


For simplicity assume that A (1) forms a C.S.C.O. by itself in V1 , while {B (2) , C (2)} constitute a C.S.C.O.
in V2 . We shall show that by gathering the operators of the C.S.C.O. in V1 with the operators of C.S.C.O. in V2 ,
we form a C.S.C.O. in V with their corresponding extensions.
Since A (1) is a C.S.C.O. in V1 , all its eigenvalues are non-degenerate in V1

A (1) xn (1) = an x (1)

the ket x (1) is then unique within a constant factor. In V2 the set of two operators {B (2) , C (2)} defines commom
eigenvectors {ymp (2)} that are unique in V2 within constant factors

B (2) ymp (2) = bm ymp (2) ; C (2) ymp (2) = cp ymp (2)

In V , the eigenvalues are N2 −fold degenerate. Similarly, there are N1 linearly independent eigenvectors of B (2)
and C (2) associated with two given eigenvalues of the form (bm , cp ). However, the eigenvectors that are common
to the three commuting observables A e (1) , B
e (2) , C
e (2) are unique within constant factors

e (1) [xn (1) ⊗ ymp (2)] = an [x (1) ⊗ ymp (2)]


A
e (2) [xn (1) ⊗ ymp (2)] = bm [x (1) ⊗ ymp (2)]
B
e (2) [xn (1) ⊗ ymp (2)] = cp [x (1) ⊗ ymp (2)]
C

since {xn (1)} and {ymp (2)} were bases in V1 and V2 , we see n
that {xn (1) ⊗ ymp (2)}
o is a basis in V constituted
e e e
by commom eigenvectors of the three operators. Thus the set A (1) , B (2) , C (2) is a C.S.C.O. in V .

1.33. Restrictions of an operator to a subspace


It is useful in many applications to be able to restrict an operator to a certain subspace Vq of a given vector
space V . Let us assume

V = V1 ⊕ . . . ⊕ Vq ⊕ . . .
x = x1 + . . . + xq + . . . ; xi ∈ Vi

Projectors, which are the natural operators to “restrict” a vector by extracting the components that are ortho-
normal to a given subspace, will be also the natural operators to rectrict operators. Let Pq be the projector onto
a subspace Vq . A priori, we could think in defining a restriction by “restricting the vector” in which the operator
will act on. This is done by substracting all components orthogonal to the subspace Vq by applying a projection,
and then let the operator A act on this projection so we have

A = APq ⇒ Ax = APq x = Axq


1.34. FUNCTIONS OF OPERATORS 75

in this case we have restricted the domain of A appropriately, but once the operator A is applied, the image could
be outside of the subspace too. Hence, the projector must be applied again after the application of A in order to
b of the operator A to the subspace Vq as
restrict the image appropriately. We then define the restriction A

bq ≡ Pq A = Pq APq
A (1.129)

so that both the domain and the range are restricted to Vq . It can be easily checked that the matrix representation
of Abq is reduced to a submatrix in the Vq space. Let qk be the dimension of Vq . Let us use an ordered basis such
that the first qk terms expand Vq . Using such a basis we have
   
bq
A = bq uj = (ui , Pq APq uj ) = (Pq ui , APq uj )
ui , A
ij

(ui , Auj ) if i, j ≤ qk
(Pq ui , APq uj ) =
0 if i > qk and/or j > qk

observe that the submatrix associated with i, j ≤ qk (i.e. associated with the Vq subspace), remains the same with
respect to the non-restricted matrix. But the elements outside of such a submatrix are zeros, showing that the
new operator only acts in Vq .
It is important to emphasize that the restriction A bq of an operator A differs from A itself, because we are
changing the mapping. In the special case in which the subspace Vq is invariant under A, the range of A is
automatically restricted into Vq when the domain is restricted to Vq . Thus in that case the restriction can be
defined with only one projector operator
Abq ≡ APq
bq is identical to the mapping described by A when
so when Vq is invariant under A the mapping described by A
such mappings are restricted to the domain Vq .

1.34. Functions of operators


Let A be an arbitrary operator. The operator An with n being a non-negative integer is easily defined as

A0 ≡ I , An = AA · · · A (n times)

similarly for negative integers a consistent definition is


n
A−n ≡ A−1 with AA−1 = A−1 A = I

it is useful to define functions of operators. Assume that a function F can be expanded in certain domain in the
following way

X
F (z) = fn z n (1.130)
n=0

by definition, the function F (A) of the operator A corresponds to an expansion of the form (1.130) with the same
coefficients fn

X
F (A) = fn An (1.131)
n=0

for instance, the function eA of the operator A reads



X
A An A2 A3
e = =I +A+ + + ...
n=0
n! 2! 3!
76 CAPÍTULO 1. LINEAR OR VECTOR SPACES

the convergence of series of the type (1.131) depends on the eigenvalues of A and the radius of convergence of the
function (1.130). We shall not treat this topic in detail.
If F (z) is a real function the coefficients fn are real. On the other hand, if A is hermitian then F (A) also is,
as can be seen from (1.131). Owing to the analogy between real numbers and hermitian operators this relation is
quite expected. Now, assume that xi,k is an eigenvector of A with eigenvalue ai we then have

Axi,k = ai xi,k ⇒ An xi,k = ani xi,k

and applying the eigenvector in Eq. (1.131) we find



X ∞
X
F (A) xi,k = fn ani xi,k = xi,k fn ani
n=0 n=0
F (A) xi,k = F (ai ) xi,k

so that if xi,k is an eigenvector of A with eigenvalue ai , then xi,k is also eigenvector of F (A) with eigenvalue
F (ai ).
On the other hand, if the operator is diagonalizable (this is the case for observables), we can find a basis in
which the matrix representative of A is diagonal with the eigenvalues ai in the diagonal. In such a basis, the
operator F (A) has also a diagonal representation with elements F (ai ) in the diagonal. For example let σz be an
operator that in certain basis has the matrix representation
 
1 0
σz =
0 −1

in the same basis we have    


σz e1 0 e 0
e = =
0 e−1 0 1/e
if A and B do not commute, we have that in general the operators F (A) and F (B) do not commute either. For
instance

X ∞ ∞ ∞
An X B m X X An B m
eA eB = = (1.132)
n! m! n! m!
n=0 m=0 n=0 m=0
X∞ ∞
m X X∞ X ∞
B An B m An
eB eA = = (1.133)
m=0
m! n=0
n! m=0 n=0
m! n!

X (A + B)n
eA+B = (1.134)
n!
n=0

these three expressions are in general different from each other unless [A, B] = 0. We see by direct inspection
of Eqs. (1.132, 1.133, 1.134) that if A and B commute, then F (A) and F (B) also do. Notice that when A, B
commute they can be diagonalized simultaneously and so F (A) and F (B), which is another way to see that if
[A, B] = 0 then [F (A) , F (B)] = 0.

1.34.1. Some commutators involving functions of operators


Theorem 1.70 Suppose we have two operators A and B such that B commutes with their commutator, that is

[B, C] = 0 ; C ≡ [A, B] (1.135)

if F (B) is a function of the operator B then we have

[A, F (B)] = [A, B] F ′ (B) (1.136)


1.35. DIFFERENTIATION OF OPERATORS 77

where F ′ (B) is the derivative of F (B) “with respect to B” defined as



X ∞
X
F (B) = fn B n ⇒ F ′ (B) ≡ nfn B n−1 (1.137)
n=0 n=0

Proof : The commutator [A, F (B)] is given by


" ∞
# ∞
X X
n
[A, F (B)] = A, fn B = fn [A, B n ] (1.138)
n=0 n=0

we show by induction that


[A, B n ] = [A, B] nB n−1 (1.139)
for n = 0 we have B n = I and both sides clearly vanish. Now let us assume that it works for n and show that it
is satisfied by n + 1. Applying Eq. (1.41), and taking into account Eqs. (1.139, 1.135) we have
 
A, B n+1 = [A, BB n ] = [A, B] B n + B [A, B n ] = [A, B] BB n−1 + B [A, B] nB n−1
= CBB n−1 + BCnB n−1 = CB n + nCBB n−1 = C (n + 1) B n
 
A, B n+1 = [A, B] (n + 1) B n

which shows the validity of Eq. (1.139). Replacing Eq. (1.139) in Eq. (1.138), we find

X
[A, F (B)] = [A, B] fn nB n−1 = [A, B] F ′ (B)
n=0

Corollary 1.71 It is straightforward to show that if both operators commute with their commutator we see that
equations
[A, F (B)] = [A, B] F ′ (B) ; [G (A) , B] = [A, B] G′ (B) (1.140)
are satisfied simultaneously. A very important case in Physics occurs when [A, B] = αI. In that case, we have

[A, B] = αI ⇒ [A, F (B)] = αF ′ (B) ; [G (A) , B] = αG′ (B) (1.141)

1.35. Differentiation of operators


Let A (z) an operator that depends on the arbitrary variable z. We define the derivative of A (z) with respect
to z as
dA A (z + ∆z) − A (z)
= lı́m (1.142)
dz ∆z→0 ∆z
provided that this limit exists. Operating A on an arbitrary vector x and using a basis {ui } independent of z, we
have
A (z) x = A (z) xi ui = xi A (z) ui = xi uj Aji (z) (1.143)
since dA/dz is another operator, it makes sense to talk about its matrix representation
 
dA (z) dA (z) dA (z) dA (z)
x= xi ui = xi ui = xi uj (1.144)
dz dz dz dz ji

Applying the derivative on both extremes of Eq. (1.143), and taking into account that the basis {ui } is independent
of z, we have
d dAji (z)
A (z) x = xi uj (1.145)
dz dz
78 CAPÍTULO 1. LINEAR OR VECTOR SPACES

comparing Eqs. (1.144, 1.145) we obtain  


dA (z) dAji (z)
=
dz ji dz

so the matrix representative of the derivative of A is obtained by taking the derivative of each of its elements12 .
The differentiation rules are similar to the ones in ordinary calculus

d dF dG d dF dG
(F + G) = + ; (F G) = G+F (1.146)
dz dz dz dz dt dt
except that care must be taken with the order of appearance for the operators involved. Let us examine the second
of this equations, applying F G to an arbitrary vector x and using a basis {ui } we have

(F G) x = xi uj (F G)ji

taking the derivative on both sides we have


     
d (F G) d d d d
= (F G)ji = [Fjk Gki ] = Fjk Gki + Fjk Gki
dz ji dz dz dz dz
"    #
dF dG
= Gki + Fjk
dz jk dz ki

in matrix form we see that


d (FG) dF dG
= G+F
dz dz dz
since there is a one-to-one isomorphism from the operators onto the matrices, we see that this relation is also valid
for the operators.

1.35.1. Some useful formulas


Applying the derivation rules we can develop some identities for functions of operators. Let us calculate the
derivative of the operator eAt . By definition we have

X (At)n
eAt =
n!
n=0

differentiating the series term by term we have

X∞ X∞ X∞
d At An An (At)n−1
e = ntn−1 =0+ ntn−1 =A
dt n! n! (n − 1)!
n=0 n=1 n=1
"∞ # "∞ #
d At X (At)k X (At)k
e = A = A
dt k! k!
k=0 k=0

where we have used the assignment k = n − 1. The series in the brackets is eAt once again, so we have

d At
e = AeAt = eAt A (1.147)
dt
12
Care must be taken to distinguish between the derivative in Eq. (1.137) and the derivative in Eq. (1.142). In Eq. (1.137) the
derivative is taken with respect to B as the “variable of derivation”. On the other hand, in Eq. (1.142) the variable to derive with, is
a parameter z from which our matrix depend on.
1.36. STATE SPACE AND DIRAC NOTATION 79

in this case eAt and A commutes because only one operator is involved. Suppose that we want to differentiate
eAt eBt . Applying Eqs. (1.146, 1.147) we have
 
d  At Bt  d eAt Bt d eBt
e e = e + eAt = AeAt eBt + eAt BeBt
dt dt dt
the operator A can pass over eAt if desired but not over eBt unless that A and B commute. Similarly, B can pass
over eBt but not over eAt .
However, even if a single operator appears we should be careful with the order sometimes. For instance, if A (t)
is an arbitrary function of time then
d A(t) dA A(t)
e 6= e (1.148)
dt dt
it could be checked that A (t) and dA (t) /dt must commute with each other for the equality to be valid.
Consider again two operators that commute with their commutator, we shall show that
1
[A, [A, B]] = [B, [A, B]] = 0 ⇒ eA eB = eA+B e 2 [A,B] (Glauber ′ s f ormula) (1.149)

let define F (t) with t real as

dF (t)  
F (t) ≡ eAt eBt ; = AeAt eBt + eAt BeBt = A eAt eBt + eAt Be−At eAt eBt
dt
dF (t)  At −At

= A + e Be F (t) (1.150)
dt
since A, B commute with their commutator, we can apply Eq. (1.140), so that
 At 
e , B = t [A, B] eAt ⇒ eAt B = BeAt + t [A, B] eAt
⇒ eAt Be−At = B + t [A, B]

substituting this expression in Eq. (1.150) we get

dF (t)
= {A + B + t [A, B]} F (t) (1.151)
dt
by hypothesis, A + B commutes with [A, B], so that the differential equation (1.151) can be integrated as if A + B
and [A, B] were numbers
1 2
F (t) = F (0) e(A+B)t+ 2 [A,B]t
setting t = 0 we see that F (0) = I, thus we obtain
1 2
F (t) = e(A+B)t+ 2 [A,B]t

setting t = 1 and taking into account again that A + B commutes with [A, B], we obtain (1.149). It is necessary
to emphasize that this equation is valid only if A and B commutes with [A, B].

1.36. State space and Dirac notation


We have defined the space of Physical states as the one constituted by functions ψ (r) square-integrable
in a given volume. The space with these characteristics is denoted by L2 , but since in general with add some
requirements to these functions, we actually work in a subspace ̥ ⊆ L2 . On the other hand, we have seen that
several bases can be constructed to represent those functions. Therefore, the Physical system will be described
by either the functions ψ (r) or by the sete of its coordinates in a given representation. When the representation
80 CAPÍTULO 1. LINEAR OR VECTOR SPACES

is discrete we have a numerable set of coordinates (Fourier coefficients) while in the case of continuous bases,
the set of coordinates is continuous as well (Fourier transforms). In particular, the continuous basis denoted as
ξr0 (r) shows that the function ψ (r) can be considered as a coordiante system as well, because in this basis, each
coordinate is defined as ψ (r0 ) i.e. the value of ψ at each fixed point r0 of the volume13 .
We have now a situation similar to the one obtained in R3 , we can define a vector by a triple of coordinates in
any basis defined by a set of coordinate axes. However, vectors in R3 can be defined geometrically (intrinsically),
and its algebra can be performed in a coordinate-free form.
In the same way, we wish to define our state vector in a coordinate free (or intrinsic) way. The abstract space
of state vectors of a particle is denoted as Er which should be isometrically isomorphic with ̥. We should also
define the notation and algebra on the Er space.
Though we initially start with Er as identical to ̥, we shall see that it permits a generalization of the formalism
when the states in ̥do not contain all the Physical information of the system, as is the case when spin degrees of
freedom are introduced in the formalism. Hence, the algebra that we shall develop now will be valid when these
generalizations are carried out. In developing this algebra we are going to present the Dirac notation which is
useful in practical calculations

1.37. Dirac notation


We are going to establish a one-to-one correspondence between the states of ̥ and the states of Er , though
the latter will be extended later. Thus to every square-integrable function ψ (r) in ̥ we make to correspond an
abstract vector in Er in the form
ψ (r) ↔ |ψi
an abstract vector in the notation |ψi will be called a ket. Notice that no r−dependence appears in |ψi. Indeed,
ψ (r) is interpreted in this framework as a representation of |ψi in which each ψ (r) is a coordinate in the basis
given by ξr (r′ ). Therefore, r plays the role of index (three continuous indices) for the particular basis used.
The space of states of a particle in one dimension is denoted as Ex , while in three dimensions is Er .

1.37.1. Elements of the dual or conjugate space Er∗


In section 1.9.2 we defined a one-to-one correspondence between vectors (kets) of a Hilbert space and functionals
(bras) in the conjugate (dual) space in the following way (see Eqs. 1.29, 1.30)

|ψi ↔ f|ψi ; f|ψi (|ϕi) ≡ (|ψi , |ϕi)

Dirac notation designates f|ψi as hψ| which is called a bra. The correspondence above and the inner product will
be written as
|ψi ∈ Er ↔ hψ| ∈ Er∗ ; hψ| (|ϕi) ≡ (|ψi , |ϕi)
it induces a natural notation for the inner product

((|ψi , |ϕi)) ≡ hψ| ϕi

this is also called a bracket (i.e. the union of a bra with a ket). Let us now write the properties developed in
section 1.9.2 Eq. (1.31), with this new notation

fα|ψi+β|ϕi = α∗ f|ψi + β ∗ f|ϕi


α |ψi + β |ϕi ∈ Er ↔ α∗ hψ| + β ∗ hϕ| ∈ Er∗
13
Notice that this is a simple way of defining an scalar field. A scalar field is completely delimited by defining its value at each point
of the space in which the field is defined (at a given time). In this case the number of coordinates is cleraly the number of points in
our space.
1.37. DIRAC NOTATION 81

which is consistent with the properties of the inner product

(α |ψi + β |ϕi , |χi) = (α∗ hψ| + β ∗ hϕ|) |χi ⇒


hαψ + βϕ| χi = α∗ hψ| χi + β ∗ hϕ| χi

since the functionals (bras) are linear by definition, a linear combination of kets gives

f|ψi (α |ϕi + β |χi) ≡ αf|ψi (|ϕi) + βf|ψi (|χi)

in Dirac notation it reads


hψ| αϕ + βχi = α hψ| ϕi + β hψ| χi
from these facts it is clear that for any scalar α

|αψi = α |ψi ; hαψ| = α∗ hψ| (1.152)

now since

(|ψi , |ϕi) = (|ϕi , |ψi)∗ ⇒


hψ| ϕi = hϕ| ψi∗

1.37.2. The correspondence between bras and kets with hyperbases


We have seen that hyperbases are sets of elements from which any element of the space can be expanded despite
those elements do not belong to the space under study. On the other, hand we have seen that the correspondence
between vectors and functionals (kets and bras) is one-to-one and onto. However, when hyperbases are used we
shall see that some linear functionals (bras) can be well-defined while there is not a well-defined corresponding
vector (ket)
(ε)
Assume for example that we have a ket in ̥ given by a sufficiently regular function ξx0 (x) such that
Z ∞
dx ξx(ε)
0
(x) = 1
−∞
E D
(ε) (ε)
with the form of a peak of height ∼ 1/ε and width ∼ ε centered at x = x0 . If ε 6= 0 then ξx0 ∈ Ex . Let ξx0 ∈ Ex∗
be its associated bra. The idea is to have a function that conveeges to the Dirac delta function when ε → 0. For
each |ψi ∈ Ex we have that
  Z ∞
(ε) (ε)
hξx0 |ψi = ξx0 , ψ = dx ξx(ε)
0
(x) ψ (x) (1.153)
−∞

now we let ε to approach zero, and we find that

lı́m ξx(ε)
0
/ ̥x

ε→0

since the square of its norm


D tend to 1/ε and diverges. Nevertheless, in the limit ε → 0 the expression (1.153) is
(ε)
still well-defined, so that ξx0 is still associated with a functional that can be applied to any element of the state
space, we shall denote this bra as hξx0 | and this functional associates with each vector |ψi ∈ Ex the value ψ (x0 )
taken on by the associated wave function in ̥x at the point x0
D

lı́m ξx(ε)0
= hξx0 | ∈ Ex∗ if |ψi ∈ Ex ⇒ hξx0 | ψi = ψ (x0 )
ε→0

then the bra hξx0 | ∈ Ex∗ exists but there is not a ket associated with it in the hyperbasis.
82 CAPÍTULO 1. LINEAR OR VECTOR SPACES

This dissymetry is associated with the use of a hyperbasis. The elements of the hyperbasis do not belong
to ̥x and so has no elements associated in Ex either. However, the inner product of it with any element of ̥x
is well-defined and it permits to associate a bra belonging to Ex∗ . Indeed, by the theory of Hilbert spaces the
corresponding ket must exists, what really happens is that we cannot construct it as an element of our hyperbasis,
this is perfectly undestandable since such elements are out of our Hilbert space.
Notice that we have indeed extended the concept of inner product and we have applied it to elements out of
our Hilbert space. For practical reasons it is usual to associate the bras hξx0 | ∈ Ex∗ to the “generalized ket” |ξx0 i
that are not physical states but are advantageous from the practical point of view.
Another example is the continuous basis consisting of plane waves truncated outside an interval of width L
1 L L
vp(L)
0
(x) = √ eip0 x/~ ; − ≤x≤
2π~ 2 2
(L)
with the function vp0 (x) going rapidly
Eto zero outside of that interval, but keeping continuity and differentiability.
(L)
The ket associated is denoted as vp0
E
(L)
vp(L)
0
(x) ∈ ̥ x ↔ vp0 ∈ Ex

the square of the norm is ∼ L/2π~, diverges if L → ∞. Therefore


E

lı́m vp(L)
0

/ Ex
L→∞
D E
(L) (L)
now we consider the limit of the bra vp0 associated with vp0 and applied to an arbitrary vector |ψi ∈ Ex

D   Z L/2
(L) (L) 1
vp0 ψi = vp0 , ψ ≃ √ dx e−ip0 x/~
2π~ −L/2

in the limit L → ∞ we find ψ̄ (p0 ) i.e. the Fourier transform of ψ (x) evaluated at p = p0 . From which we see that
the inner product converges and is well-defined
D

lı́m vp(L)
0
≡ hvp0 | ∈ Ex∗
L→∞
E
(L)
but it does not correspond to the ket associated with the limit of kets of the form vp0 .
E
(ε)
We could take the results above with the following point of view, the ket |ξx0 i means the ket given by ξx0
with ε much smaller than any other length involved in the problem, so we are really working in Ex . The results
obtained at theEend depends very little on ε as long as it is much smaller than any other length in the problem.
(ε)
Certainly, ξx0 does not form an orthonormal basis, and do not satisfy a closure realtion with ε 6= 0, but it
aproaches the orthonormality and closure conditions as ε becomes very small.
The introduction of generalized kets, will ensure that we balance bras and kets in the limits concerned
above. Generalized kets do not have finite norm, but they can acquire a finite inner product with kets of our space
of states.

1.38. The action of linear operators in Dirac notation


Linear operators are characterized easily in Dirac notation

ψ = A |ψi ; |ψi , ψ ′ ∈ Ex
A (α |ψi + β |ϕi) = αA |ψi + βA |ϕi
1.38. THE ACTION OF LINEAR OPERATORS IN DIRAC NOTATION 83

the product of operators writes


AB |ψi = A (B |ψi)
it is also important to calculate the inner product between |ϕi and |ψ ′ i = A |ψi in the form

|ϕi , ψ ′ = (|ϕi , A |ψi) = hϕ| (A |ψi)

this is usually denoted simply as


hϕ| (A |ψi) ≡ hϕ| A |ψi

1.38.1. Projectors
The simplest of all projectors are the ones in which the range are one dimensional subspaces of the Hilbert
space. Let {|ψi} be the one dimensional space spanned by the single non-zero ket |ψi. The projector P|ψi takes
an arbitrary ket |ϕi ∈ Ex and maps it into {|ψi} i.e.

P|ψi |ϕi = α |ψi ; α ≡ hψ| ϕi

in Dirac notation it could be written as

P|ψi ≡ |ψi hψ| ; P|ψi |ϕi = (|ψi hψ|) |ϕi = |ψi hψ| ϕi = α |ψi (1.154)

the most important property of a projector is the idempotence so that


2
P|ψi ≡ (|ψi hψ|) (|ψi hψ|) = |ψi hψ| ψi hψ| = P|ψi
⇒ hψ| ψi = 1

so the definition of P|ψi Eq. (1.154) as a projector is consistent only if |ψi is normalized.
Now we can write the projector onto a subspace of more than one dimension. If nj is the dimension of the
(n )
subspace Mj j ⊆ Ex we can define the projector from a complete orthonormal set
 i
uj ; i = 1, .., nj (1.155)

that spans such a subspace

(n1 ) (nj )
Ex = M1 ⊕ . . . ⊕ Mj ⊕ ...
x = x1 + . . . + xj + . . .
n1 nj
X (1) i
X (j)
x = αi u1 + . . . + αi uij + . . .
i=1 i=1
 
(n)
αk ≡ ukn , x

nj
X (j)
PMj x = xj = αi uij
i=1
nj
X 
PMj x = uij , x uij
i=1

in Dirac notation it is
nj nj
X i X i
i 
PMj |xi = i
huj |xi uj = uj uj |xi
i=1 i=1
84 CAPÍTULO 1. LINEAR OR VECTOR SPACES

thus a direct notation for the projector is


nj
X i
i
PMj ≡ uj uj (1.156)
i=1

(nj )
it is clear that this is a projector as long as Eq. (1.155) defines an orthonormal set that spans Mj of dimension
nj .
! nj !
nj
X i
i X E D nj nj
X X ED
2
PM = uj uj k
uj k
uj = uij huij ukj
ukj
j
i=1 k=1 i=1 k=1
nj nj D X nj
XX i
i
2
PM = uij δik ukj = uj uj = PM
j j
i=1 k=1 i=1

If we have an observable A, its spectrum of eigenvectors forms a basis and we can construct a complete orthonormal
set. In that case, the spectral theorem (assuming it can be extended to infinite dimension for observables) says that
the identity and the observable A itself can be decomposed by means of the projectors built on each eigensubspace
of the observable, if Mi is the eigensubspace generated by the eigenvalue λi of A we have that

Ex = M1 ⊕ . . . ⊕ Mi ⊕ . . .
x = x1 + . . . + xi + . . .
Pi x = xi

in Dirac notation we have


ni E D
X j
Pi = ui uji
j=1

the spectral theorem says that



X ni E D
∞ X
X j
Pi = ui uji = I (1.157)
i=1 i=1 j=1

X X∞ X ni ED

λi Pi = λi uji uji = A (1.158)
i=1 i=1 j=1

n o
these forms will be applied frequently in quantum mechanics. Notice that Eq. (1.157) is valid if and only if uji
is a complete orthonormal set. Thus the decomposition of the identity in projectors is usually taken as the closure
relation for the basis (or hyperbasis) in which we are working.
It is also usual to work with a more general type of projector of the form

P = |ψi hϕ| (1.159)

applying an arbitrary vector on it we find

|ψi hϕ| χi = α |ψi ; α ≡ hϕ| χi

this is a projector on the one dimensional subspace {|ψi}. This operator is idempotent only if hϕ| is normal,
however it defines a non-orthogonal projection, since we shall see later that this operator is not self-adjoint or
hermitian.
1.39. HERMITIAN CONJUGATION 85

1.39. Hermitian conjugation


We have defined the action of a linear operator on a ket. We see that it induces a natural action of the operator
on the bra
f|ϕi (A |ψi) = (|ϕi , A |ψi) ≡ gA|ϕi (|ψi) ∀ |ψi ∈ Ex (1.160)
the definition of the new functional gA|ϕi from a given f|ϕi and a given A is written in Dirac notation as14

A
f|ϕi ≡ hϕ| → gA|ϕi ≡ hϕ| A (1.161)

and Eq. (1.160) is written as


hϕ| (A |ψi) = (hϕ| A) (|ψi) (1.162)
so it is written simply as
hϕ| A |ψi
we should check that g is indeed a functional i.e. that it is a continuous linear mapping of the vectors into the
complex numbers, the basic properties of functionals are reproduced

gαA|ϕi+βA|χi (ψ) = α∗ gA|ϕi (|ψi) + β ∗ gA|χi (|ψi)


gA|ϕi (α |ψi + β |χi) = αgA|ϕi (|ψi) + βgA|ϕi (|χi)

Further, the association (1.161) is linear, to see it, we write a linear combination of bras

hϕ| = λ1 hϕ1 | + λ2 hϕ2 |

which means that


hϕ| ψi = λ1 hϕ1 | ψi + λ2 hϕ2 | ψi ; ∀ |ψi ∈ Ex
then

(hϕ| A) (|ψi) = hϕ| (A |ψi) = (λ1 hϕ1 | + λ2 hϕ2 |) (A |ψi)


= λ1 hϕ1 | (A |ψi) + λ2 hϕ2 | (A |ψi)
= λ1 (hϕ1 | A) |ψi + λ2 (hϕ2 | A) |ψi

since ψ is arbitrary we find


hϕ| A = λ1 hϕ1 | A + λ2 hϕ2 | A
notice that is different to start with a linear combination of kets from starting with a linear combination of bras,
because the linear combination of a ket corresponds to a linear combination with conjugate coefficients in the bras
(antilinearity). The order is important, the new bra induced from hϕ| by the operator A is written as hϕ| A and
not in the form A hϕ|. For instance if we apply this relations to a ket the first expression hϕ| A |ψi is a complex
number, while the second A hϕ| ψi = αA is another operator.

1.39.1. The adjoint operator A† in Dirac notation


In Dirac notation we write |ψ ′ i = A |ψi ≡ |Aψi. We now want to know what is the corresponding bra
|ψ ′ i ↔ hψ ′ | ≡ hAψ|. In mathematical notation the question is

|ψi → f|ψi ; ψ ′ = A |ψi ≡ |Aψi ⇒
′ ?
ψ → f|ψ′ i
14
Notice that gA|ψi is a new functional induced from f|ϕi and A. Of course gA|ψi must be associated to some vector i.e. gA|ψi = f|χi
for some |χi in our vector space, but it does not concern us. In particular, it is very important to observe that gA|ψi 6= fA|ψi .
86 CAPÍTULO 1. LINEAR OR VECTOR SPACES

to elucidate the answer we apply an arbitrary vector |ϕi to the functional we want to find

fA|ψi (|ϕi) = f|ψ′ i (|ϕi) = hψ ′ |ϕi = hAψ| ϕi = hψ| A† ϕi

where we have applied property (1.36). Now we apply property (1.162) to get
 E  

f|ψ′ i (|ϕi) = hψ| A† ϕ = hψ| A† (|ϕi)

since this is valid for |ϕi arbitrary we find




f|ψ′ i ≡ ψ ′ = hψ| A†

in Dirac notation we have then



ψ = A |ψi ≡ |Aψi


ψ = hψ| A† ≡ hAψ|

notice that as before, the mapping of the dual space into itself is denoted with the operator defined on the right-
hand side and not on the left15 . Further by assigning A = λI and taking into account that A† = λ∗ I we have
that


ψ = hλψ| = hλIψ| = hψ| (λI)† = hψ| λ∗ I ⇒
hλψ| = λ∗ hψ|

in agreement with Eq. (1.152). On the other hand since




ψ ϕi = hϕ| ψ ′ i∗

we see that
hψ| A† |ϕi = hϕ| A |ψi∗ (1.163)
and we remember the most important properties of the adjoint operators (see Eqs. (1.35))
 †
A† = A , (αA + βB)† = α∗ A† + β ∗ B † (1.164)
(AB)† = B † A† (1.165)

1.39.2. Mathematical objects and hermitian conjugation in Dirac notation


In general, the order of bras, kets and operators is of major importance, the only objects we can put in any
order are scalars, for instance the mathematical objects

λ hϕ| B |ψi ; λ hψ| B |ϕi ; λ hψ| ϕiB ; λ |ψi hϕ| B (1.166)

are all distinct each other, the first and second are complex numbers, while the last two are operators, as can be
verified by applying an arbitrary vector on the right-hand side of these objects. However, expressions like

λ |ψi hϕ| B ; |ψi λ hϕ| B ; |ψi hϕ| λB ; |ψi hϕ| Bλ

are all equal, indeed we could think about the multiplication by a scalar as equivalent to the operator λI which
commutes with everything.
15
Stricktly speaking, a mapping of the dual (or conjugate) space into itself is carried out by the conjugate operator instead of the
adjoint operator since the latter maps the Hilbert space into itself and not the dual. Notwithstanding, from the practical point of view
this subtlety is irrelevant.
1.39. HERMITIAN CONJUGATION 87

We shall now define a useful operation that we call hermitian conjugation. Our basic objects are kets, bras,
operators and scalars. In general words, hermitian conjugations are mappings induced by the existence of the dual
E ∗ of our Hilbert space E.
A ket |ψi ∈ E is naturally mapped into a bra hψ| ∈ E ∗ .
A bra hψ| ∈ E ∗ is naturally mapped into an element of the conjugate space of E ∗ , i.e on E ∗∗ . However, for
Hilbert spaces it can be shown that E ∗∗ = E hence the bra is mapped into its corresponding ket16 .
An operator A in ß(E) is mapped naturally into the conjugate vector A∗ in ß(E ∗ ) but the inner product
structure permits in turn to define another operator A† in ß(E) from A∗ and from the practical point of view we
regard A∗ and A† as identical. Thus the hermitian conjugation in this case will be the mapping A → A† .
Now finally for scalars. Taking into account that for all practical uses scalars λ can be considered as operators
in ß(E) of the form λI we see that the natural hermitian conjugation gives λI → (λI)† = λ∗ . Therefore, the
natural conjugation operation is λ → λ∗ .
We notice now that the hermitian conjugation reverses the order of the objects to which it is applied. We have
seen that (A |ψi)† = hψ| A† , Eq. (1.165) shows that the order of a product of operators is reversed when we apply
the “adjointness” (or hermitian conjugation) on that product, when scalars are involved the place in which scalars
are located is irrelevant.
By the same token, let us see what is the conjugate of the non orthogonal projection defined in (1.159)

P = |ψi hϕ| ; P † = (|ψi hϕ|)†

applying Eq. (1.163) we find

hχ| (|ψi hϕ|)† |ηi = [hη| (|ψi hϕ|) |χi]∗ = hη| ψi∗ hϕ| χi∗ = hχ| ϕi hψ| ηi
hχ| (|ψi hϕ|)† |ηi = hχ| (|ϕi hψ|) |ηi ; ∀ |ηi , |χi ∈ E

then we have
(|ψi hϕ|)† = |ϕi hψ| (1.167)
once again, the hermitian conjugation converts each object in its hermitian conjugate and reverse the order of
such objects.
These observations permit to give a rule to obtain the hermitian conjugate of a mathematical object composed
by a juxtaposition of bras, kets, operators and scalars. The rule is (a) replace each object by its hermitian conjugate

|ψi → hψ| , hϕ| → |ϕi , A → A† , λ → λ∗

and (b) reverse the order of the factors, taking into account that the position of the scalars are not relevant.
The hermitian conjugate of the objects defined in (1.166) are given by

[λ hϕ| B |ψi]† = hψ| B † |ϕi λ∗ = λ∗ hψ| B † |ϕi = [λ hϕ| B |ψi]∗


[λ hψ| B |ϕi]† = hϕ| B † |ψi λ∗ = λ∗ hϕ| B † |ψi = [λ hψ| B |ϕi]∗
[λ hψ| ϕiB]† = B † hϕ| ψiλ∗ = λ∗ hϕ| ψiB † = (λ hψ| ϕi)∗ B †
[λ |ψi hϕ| B]† = B † |ϕi hψ| λ∗ = λ∗ B † |ϕi hψ| = λ∗ B † [|ψi hϕ|]†

in the first two expressions the original mathematical objects are scalars and hence the hermitian conjugates
are also scalars (the complex conjugates of the original scalars). In the third expression the original object is
an operator and its hermitian conjugate is also an operator (the adjoint of the original operator). In the fourth
expression, the original object is a product of two operators and a scalar (a scalar times a projection times the
operator B) and the adjoint is the product of the scalar and adjoint of each of the operators in reverse order. In
16
In Banach spaces, the property B ∗∗ = B is called reflexibity and is not in general satisfied. For Hilbert spaces, reflexibity is
automatic from which we can assign the dual element of a dual element to the original vector. This is another satisfying property of
Hilbert spaces, not accomplished by general Banach spaces.
88 CAPÍTULO 1. LINEAR OR VECTOR SPACES

each case, the scalars are located in the most convenient place since their positions are unimportant. Indeed, we
can put the conjugate of the scalars in any place, for instance in the case
[λ |χi hψ| B |ϕi]† = [λ hψ| B |ϕi |χi]† = λ∗ hψ| B |ϕi∗ hχ|
that coincides with the rules when we take into account Eq. (1.163).
It is important to see that according to (1.167) the projectors given by (1.154) are hermitian, thus according
to theorem 1.44, they are orthogonal projectors (i.e. projectors in the sense of a Hilbert space), this in turn says
that the sums in (1.156) are also orthogonal projectors (see theorem 1.50). On the other hand, the projectors
described by (1.159) with |ϕi =6 |ψi are non-hermitian and consequently they are non-orthogonal projections.

1.40. Theory of representations of E in Dirac notation


For most of our purposes we shall use a representation with respect to orthonormal bases. The particular
problem suggests the particular basis to work with. Most of the developments here are not new but gives us a
very good opportunity of using the Dirac notation and be aware of its great advantages as a tool for calculations.
We are going to describe the representation theory in both discrete and continuous bases.

1.40.1. Orthonormalization and closure relation


In Dirac notation, the orthonormality of a set of discrete {|ui i} or continuous {|wα i} orthonormal kets is
expressed by 
hui |uj i = δij ; hwα |wα′ i = δ α − α′
we emphasize once again that hwα |wα i diverges so that |wα i does not have a bounded norm and thus it does not
belong to our state space. We call |wα i generalized kets because they can be used to expand any ket of our state
space.
A discrete set {ui } or a continuous one {wα } constitutes a basis if each ket |ψi of our state space can be
expanded in a unique way on each of these sets
X Z
|ψi = ci |ui i ; |ψi = dα c (α) |wα i (1.168)
i

the problem is considerably simplified if we asume that the bases are orthonormal, because in that case we can
extract the coefficients by applying a bra huk | or hwα′ | on both sides of these equations
X Z
huk |ψi = huk | ci |ui i ; hwα′ |ψi = hwα′ | dα c (α) |wα i
i
X X
huk |ψi = ci huk | ui i = ci δki = ck
Zi i
Z
 
hw |ψi =
α′ dα c (α) hw | wα i =
α′ dα c (α) δ α − α′ = c α′

from which we obtain the familiar result



ck = huk |ψi ; c α′ = hwα′ |ψi (1.169)
replacing the Fourier coefficients (1.169) in the expansions (1.168) we find
!
X X X
|ψi = hui |ψi |ui i = |ui i hui |ψi = |ui i hui | |ψi
i i i
Z Z Z 
|ψi = dα hwα |ψi |wα i = dα |wα i hwα |ψi = dα |wα i hwα | |ψi
1.40. THEORY OF REPRESENTATIONS OF E IN DIRAC NOTATION 89

since this is valid for any ket |ψi ∈ E the operators in parenthesis must be the identity operator on E
X Z
P{ui } ≡ |ui i hui | = I ; P{wα } ≡ dα |wα i hwα | = 1 (1.170)
i

we can reverse the steps and show that applying the identity in the form given by Eqs. (1.170) we obtain that any
|ψi ∈ E must be a unique linear combination of {|ui i} or {|wα i}
!
X X
|ψi = I |ψi = P{ui } |ψi = |ui i hui | |ψi = |ui i hui | ψi
i i
X
|ψi = ci |ui i ; ci ≡ hui | ψi (1.171)
i

Z  Z
|ψi = I |ψi = P{wα } |ψi = dα |wα i hwα | |ψi = dα |wα i hwα | ψi
Z
|ψi = dα c (α) |wα i ; c (α) ≡ hwα | ψi

these facts show that Eqs. (1.170) manifest a closure relation in Dirac notation. This is consistent with our
discussion in Sec. 1.38.1 that led to Eq. (1.157), in which we saw that each element of the form |ui i hui | is
a projector operator and Eqs. (1.170) are decompositions of the identity in projectors17 . In other words, the
projector given by the sums in (1.170) has the whole space as its range. In the case of the continuous basis, they
are “hyperprojectors” but we shall call them projectors from now on.
Hence the representation of a ket |ψi in a discrete basis is given by the set of its fourier coefficients {hui | ψi}
it is usually written in matrix form as a column matrix
   
hu1 | ψi c1
 hu2 | ψi   c2 
   
 .
.   .. 
|ψi = 
 . = . 
  
 hui | ψi   ci 
   
.. ..
. .

the representation of a ket |ψi in a continuous basis is given by the set of its fourier transforms {hui | ψi} it is
usually written in continuous matrix form as a column matrix
   
.. ..
 .   . 
|ψi = 
 hw α | ψi  =  c (α) 
  
.. ..
. .

the representation of a bra can be obtain by the same insertion of the identity as follows
X
hψ| = hψ| I = hψ| P{ui } = hψ| ui i hui |
i
X
hψ| = c∗i hui | ; ci = hui | ψi
i

17
In Eq. (1.157) the lower index labels the eigenvalue and the upper index indicates the degree of degeneracy of the given eigenvalue.
In Eq. (1.170) the single index runs over all different eigenvectors.
90 CAPÍTULO 1. LINEAR OR VECTOR SPACES

which can also be obtained by taking the hermitian conjugation of Eq. (1.171) and applying (1.152). For continuous
basis the process is similar
Z
hψ| = hψ| I = hψ| P{wα } = dα hψ| wα i hwα |
Z
hψ| = dα c∗ (α) hwα | ; c (α) = hwα | ψi

in matrix notation the bra is represented as a one row matrix of the coefficients, in both the discrete and continuous
cases

hψ| = hψ| u1 i hψ| u2 i · · · hψ| ui i · · ·

hψ| = c∗1 c∗2 · · · c∗3 · · ·

hψ| = ··· c∗ (α) · · ·
by comparing the representation of the corresponding ket |ψi we see that the representation of the bra is obtained
by transposing the matrix representative of the ket (i.e. converting the column in a row) and taking the conjugate
of each element.
Let us reproduce the inner product expressions (1.107) and (1.114) by insertion of the identity with projectors
X
hϕ| ψi = hϕ| I |ψi = hϕ| P{ui } |ψi = hϕ| ui ihui |ψi
i
X
hϕ| ψi = b∗i ci ; bi = hui | ϕi ; ci = hui |ψi
i

Z
hϕ| ψi = hϕ| I |ψi = hϕ| P{wα } |ψi = dα hϕ| wα ihwα |ψi
Z
hϕ| ψi = dα b∗ (α) c (α) ; b (α) = hwα | ϕi ; c (α) = hwα |ψi

in matrix form we can see the inner product as the product of a row vector times a column vector
 
c1
 c2 
 
  ..  X ∗
hϕ| ψi = b1 b2 · · · b3 · · · 
∗ ∗ ∗
 . =
 bi ci
 ci  i
 
..
.

in continuum form we have




..
. Z
 
hϕ| ψi = ··· ∗  
b (α) · · ·  c (α)  = dα b∗ (α) c (α)
..
.

and the norms are obtained with ϕ = ψ i.e. bi = ci or b (α) = c (α)

2
X 2 Z
hψ| ψi = kψk = |ci | = dα |c (α)|2
i
1.40. THEORY OF REPRESENTATIONS OF E IN DIRAC NOTATION 91

1.40.2. Representation of operators in Dirac notation


Let us see the representation of an operator A under a basis {ui } or {wα }. We have seen that a matrix
representative of A under the basis {ui } is

Aij = hui | Auj i = hui | A |uj i

and in a continuous basis



A α, α′ = hwα | A |wα′ i

they are arranged in a square matrix with infinite countable or continuous numbers of columns and rows
 
A11 A12 · · · A1j ···
 A21 A22 · · · A2j ··· 
 
 .. .. .. 
A=
 . . . 

 Ai1 Ai2 · · · Aij ··· 
 
.. .. ..
. . .
 
..
 . 
A=
 ··· A (α, α′ ) · · · 

..
.
it is interesting to see the matrix representative of a product of operators by insertion of the identity
X
(AB)ij = hui | AB |uj i = hui | AIB |uj i = hui | AP{ui } B |uj i = hui | A |uk i huk | B |uj i
k
X
(AB)ij = Aik Bkj
k

which coincides with the algorithm for matrix multiplication developed in Sec. 1.14.1, Eq. (1.50). We can develop
easily the matrix multiplication algorithm with continuum matrices

(AB) (α, β) = hwα | AB |wβ i = hwα | AIB |wβ i = hwα | AP{ui } B |wβ i
Z
(AB) (α, β) = dγ hwα | A |wγ i hwγ | B |wβ i
Z
(AB) (α, β) = dγ A (α, γ) B (γ, β) (1.172)

now let us see the matrix representative of the ket |ψ ′ i given by



A |ψi = ψ ′

from the knowledge of the components of |ψi and A, in a given representation {ui }. The coordinates of |ψ ′ i in
this basis is
X
c′i = hui ψ ′ = hui | A |ψi = hui | AI |ψi = hui | AP{ui } |ψi = hui | A |uk i huk | ψi
k
X
c′i = Aik ck
k
92 CAPÍTULO 1. LINEAR OR VECTOR SPACES

that explicitly can be illustrated as


 ′    
c1 A11 A12 · · · A1j ··· c1
 c′   A21 A22 · · · A2j ···   c2 
 2    
 ..   .. .. ..  .. 
 . = . . .  . 
    
 c′   Ai1 Ai2 · · · Aij ···   ci 
 i    
.. .. .. .. ..
. . . . .

with a continuous basis {wα } we have


Z
′ ′
c (α) = hwα | ψ i = hwα | A |ψi = hwα | AI |ψi = hwα | AP{wα } |ψi = dβ hwα | A |wβ i hwβ |ψi
Z

c (α) = dβ A (α, β) c (β)

which is the continuous extension of multiplication of a matrix with a column vector.


Let us see the representation of the bra hψ| A
XX
hψ| A = hψ| IAI = hψ| ui i hui | A |uj i huj |
i j
XX
= c∗i Aij huj |
i j

Therefore, the bra hψ| A is represented by the product of the row matrix that represents hψ| times the square
matrix representing A respecting the order
 
A11 A12 · · · A1j ···
 A21 A22 · · · A2j ··· 
 
  .. .. .. 
hψ| A = c1 c2 · · · c3 · · · 
∗ ∗ ∗
 . . . 

 Ai1 Ai2 ··· Aij ··· 
 
.. .. ..
. . .

observe that the matrix product is not defined in the opposite order, thus we cannot give meaning to A hψ|.
In many cases, it is also interesting to calculate the element hϕ| A |ψi in terms of the coordinates of the bra
and the ket and in terms of the components of A. To do it, we insert an expansion of the identity twice
XX
hϕ| A |ψi = hϕ| IAI |ψi = hϕ| P{ui } AP{ui } |ψi = hϕ| ui i hui | A |uj i huj |ψi
i j
XX
hϕ| A |ψi = b∗i Aij cj ; bi = hui | ϕi, Aij = hui | A |uj i , cj = huj |ψi
i j

which in matrix form is written as a bilinear form


  
A11 A12 · · · A1j ··· c1
 A21 A22 · · · A2j ···   c2 
  
 .. .. ..  .. 
hϕ| A |ψi = b∗1 b∗2 · · · b∗3 ··· 
 . . . 
 . 
 (1.173)
 Ai1 Ai2 · · · Aij ···   ci 
  
.. .. .. ..
. . . .
1.41. CHANGE OF REPRESENTATIONS 93

this is the natural way of superposing the representations of hϕ|, A, and |ψi respecting the order. The result is of
course a number. The extension for continuous bases is
Z Z
hϕ| A |ψi = hϕ| P{wα } AP{wβ } |ψi = dα dβ hϕ| wα i hwα | A |wβ i hwβ |ψi

and we obtain
Z Z
hϕ| A |ψi = dα dβ b∗ (α) A (α, β) c (β)
b (α) = hwα | ϕi ; A (α, β) = hwα | A |wβ i ; c (β) = hwβ |ψi

notice that Eq. (1.162) expresses the associativity of the matrix expressions given by Eq. (1.173).
Finally, the projection operator P = |ψi hψ| has matrix representative given by

Pij = hui | P |uj i = hui | ψihψ |uj i = ci c∗j

in matrix language it is written as


   
c1 c1 c∗1 c1 c∗2 · · · c1 c∗j · · ·
 c2   c2 c∗1 c2 c∗2 · · · c2 c∗j · · · 
   
 ..    .. .. .. 
|ψi hψ| =  . 

 c∗1 c∗2 · · · c∗3 ··· = 
 . . . 

 ci   ci c∗1 ci c∗2 · · · ci cj · · · 

   
.. .. .. ..
. . . .

this representation is particularly simple when P = |uk i huk | i.e. when the ket that forms the projector is part of
the basis.
The matrix representation of the adjoint operator is obtained by using property (1.163)
 
A† = hui | A† |uj i = huj | A |ui i∗ = A∗ji
ij
 
A† (α, β) = hwα | A† |wβ i = hwβ | A |wα i∗ = A∗ (β, α)

these results coincide with the one obtained in Eq. (1.70). If A is hermitian then A = A† and

Aij = A∗ji ; A (α, β) = A∗ (β, α) (1.174)

in particular applying these conditions for i = j or α = β we see that the diagonal elements of an hermitian matrix
are real. These facts are valid only if the basis is orthonormal, otherwise the matrix representative of the adjoint
of the matrix takes another form.

1.41. Change of representations


In a representation characterized by a given orthonormal basis {|ui i} the kets, bras and operators have some
specific matrix representatives. We want to write the matrix representative of these objects in a new orthonormal
basis {|tk i} using the Dirac notation18 . For future purposes we define the matrix S in the form
 
Sik ≡ hui | tk i ; S† ∗
= Sik = htk | ui i
ki
18
This problem is a bit lees general that the one treated in Sec. (1.14), because in that section the bases involved are non necessarily
orthonormal. However, in this case we are treating the problem in infinite dimension.
94 CAPÍTULO 1. LINEAR OR VECTOR SPACES

(k)
To give a geometrical meaning to S, let define Vi ≡ Sik and V(k) the k−th column vector with components Sik .
Then, it is clear that V(k) is the matrix representative (column matrix) of the element |tk i in the basis {|ui i}. We
then construct a square matrix by putting these column vectors side by side
     
S11 S12 S11 S12 · · ·
      
S = V(1) V(2) · · · =  S21   S22  · · ·  =  S21 S22 · · · 
.. .. .. ..
. . . .
We can also see that S is a unitary matrix
  X † X
S †S = Ski Sim = htk | ui i hui | tm i = htk | P{ui } |tm i = htk | tm i = δkm
km
i i
  X X

SS † = Sik Skj = hui | tk i htk | uj i = hui | P{tk } |uj i = hui | uj i = δij
ij
k k
consequently
S † S = SS † = I
On the other hand, we will also require the closure and orthonormalization relations with both bases
X
P{ui } = |ui i hui | = I ; hui | uj i = δij
i
X
P{tk } = |tk i htk | = I ; htk | tm i = δkm
k

1.41.1. Transformation of the coordinates of a ket


The coordinates of a ket |ψi in the basis {|ui i} are hui | ψi ≡ |ψi(ui ) . To know the coordinates in the new basis
htk | ψi, in terms of the old ones, we insert the closure relation for {|uk i} in the element htk | ψi
X X †
htk | ψi = htk | ui i hui | ψi = Ski hui | ψi
i i
(t)
X † (u) (t)
ck = Ski ci ; c = S † c(u)
i

The inverse relation can be obtained by taking into account that S † = S −1


c(t) = S −1 c(u) ⇒ c(u) = Sc(t)
or alternatively by inserting an identity in the element hui | ψi
X X
hui | ψi = hui | tk i htk | ψi = Sik htk | ψi
k k
(u)
X (t) (u)
ci = Sik ck ; c = Sc(t)
k

1.41.2. Transformation of the coordinates of a bra


We insert the identity in the element hψ| tk i
X X
hψ| tk i = hψ| ui i hui | tk i = hψ| ui iSik
i i
∗(t)
X ∗(u) ∗(t)
ck = ci Sik ⇒e
c c∗(u) S
=e
i
similarly
c∗(u) = e
e c∗(t) S †
1.42. REPRESENTATION OF THE EIGENVALUE PROBLEM IN DIRAC NOTATION 95

1.41.3. Transformation of the matrix elements of an operator


We start with htk | A |tm i and insert two identities
XX X † (u)
htk | A |tm i = htk | IAI |tm i = htk | ui i hui | A |uj i huj |tm i = Ski Aij Sjm
i j i,j
(t)
X † (u)
Akm = Ski Aij Sjm ; A(t) = S † A(u) S (1.175)
i,j

and the inverse relation is obtained from


X X (t) †
huk | A |um i = huk | ti i hti | A |tj i htj |um i = Ski Aij Sjm
i,j i,j
(u)
X (t) †
Akm = Ski Aij Sjm ; A(u) = SA(t) S † (1.176)
i,j

or taking into account that S † = S −1 .

1.42. Representation of the eigenvalue problem in Dirac notation


For a given observable A the eigenvalue problem reads
A |ψi = λ |ψi
we want to construct its matrix representation in a basis {ui }. We first multiply by a bra of the form hui | on both
sides
hui | A |ψi = λhui |ψi
and insert an identity
X
hui | A |uj i huj |ψi = λhui |ψi
j
X
Aij cj = λci ; ci ≡ hui |ψi ; Aij ≡ hui | A |uj i
j

with ci and Aij the matrix elements of |ψi and A in the basis {ui }. This expression can be rewritten as
X
[Aij − λδij ] cj = 0
j

which is the well known expression for the eigenvalue problem in matrix form.

1.42.1. C.S.C.O. in Dirac notation


n o
(1) (m)
Assume that a given set of observables {A1 , ..., Am } forms a C.S.C.O. Then a given set of eigenvalues an1 , ..., anm
defines a unique normalized eigenvector common to all the observables (within a phase factor). We shall see later
that any set of kets that differ in a global phase factor
|ψi , eiθ1 |ψi , ..., eiθk |ψi
n o
(1) (m)
have the same physical information. Thus, the normalized ket associated with the set an1 , ..., anm is unique
from the physical pointof view. Therefore, it is usual to denote the corresponding ket in the form |ψn1 ,...,nm i or
simply as |n1 , n2 , ..., nm i and the set of eigenvalues are called quantum numbers.
Ai |n1 , . . . , ni , ..., nm i = a(i)
ni |n1 , . . . , ni , ..., nm i ; i = 1, .., m
96 CAPÍTULO 1. LINEAR OR VECTOR SPACES

1.43. The continuous bases |ri and |pi


From the wave functions space ̥ we have constructed the abstract space Er such that there is an isometric
isomorphism of ̥ onto Er , therefore they are abstractly identical as Hilbert spaces. Consequently, an element
ψ (r) ∈ ̥ has a unique image |ψi ∈ Er and vice versa. In particular, the inner product must be preserved by this
correspondence

|ψi ↔ ψ (r) ; |ϕi ↔ ϕ (r) ; hψ| ↔ ψ ∗ (r) ; hϕ| ↔ ϕ∗ (r)


Z
(|ϕi , |ψi) = (ϕ, ψ) ≡ hϕ| ψi = d3 r ϕ∗ (r) ψ (r)

Er will describe the state space of a spinless particle. We have discussed before that ψ (r) can also be interpreted
as a representation of the abstract ket |ψi in the continuous basis {ξr (r′ )} defined in Eq. (1.120). We also saw that
ξr (r′ ) are not elements of ̥, but they can be used to expand any element of ̥ in a unique way. We call ξr (r′ )
“generalized wave functions” and it is natural to associate with them some “generalized kets” denoted as |ri that
do not belong to Er but can expand any element of Er in such a way that if ψ (r) ↔ |ψi then the expansion of
ψ (r) under ξr (r′ ) has the same coefficients as the expansion of |ψi under |ri
Z Z
 
ψ (r) = dr′ c r′ ξr′ (r) ; |ψi = dr′ c r′ r′

We denote this association as ξr ↔ |ri. Similarly, for the continuous basis defined in Eq. (1.116) by {vp (r)} which
has plane waves as “generalized wave functions”, we shall have a continuous basis of Er denoted as |p0 i

ξr r′ ↔ |ri ; vp (r) ↔ |pi

therefore, using the bases {ξr (r′ )} and {vp (r)} of ̥ we have defined two continuous basis in Er denoted as
{|ri} and {|pi}. Consequently, all bras, kets and operators in Er will have a continuous matrix representation
in these bases. The basis {|ri} is labeled by three continuous indices x, y, z which are the coordinates of a point
in three dimensional space. Similarly, the basis {|pi} is labeled by three continuous indices px , py , pz which are
components of a cartesian vector.

1.43.1. Orthonormalization and closure relations


We shall calculate hr |r′ i using the definition of the scalar product in Er
Z Z
′    

hr r = d r ξr r ξr′ r = d3 r′′ δ r′′ − r δ r′′ − r′
3 ′′ ∗ ′′ ′′


hr r′ = δ r − r′ (1.177)

similarly
Z   Z   Z

3 ∗ 1 3 3 −ip·r/~ ip′ ·r 1 3 ′
hp p = d r vp (r) vp′ (r) = d re e = d3 r e−i(p−p )·r/~
2π~ 2π~
′ 

hp p = δ p−p ′

where we have used property (1.117). The closure relations for {|ri} and {|pi} are written according with the
second of Eqs. (1.170) integrating over three indices instead of one. The orthonormality and closure relations for
these bases are then
 
hr r′ = δ r − r′ ; hp p′ = δ p − p′ (1.178)
Z Z
d3 r |ri hr| = I ; d3 p |pi hp| = I (1.179)
1.43. THE CONTINUOUS BASES |Ri AND |Pi 97

1.43.2. Coordinates of kets and bras in {|ri} and {|pi}


Consider an arbitrary ket |ψi corresponding to a wave function ψ (r). The closure relations for {|ri} and {|pi}
permits to expand |ψi as
Z Z Z Z
|ψi = d r |ri hr| ψi = d r c (r) |ri ; |ψi = d p |pi hp| ψi = d3 p c̄ (p) |pi
3 3 3
(1.180)

the coefficients c (r) = hr| ψi and c̄ (p) = hp| ψi are calculated as follows
Z Z
   
hr| ψi = d r ξr r ψ r = d3 r′ δ r′ − r ψ r′ = ψ (r)
3 ′ ∗ ′ ′

Z  3/2 Z
3 1
hp| ψi = d r vp∗ (r) ψ (r) = d3 r e−ip·r/~ ψ (r) = ψ̄ (p)
2π~

hence
c (r) = hr| ψi = ψ (r) ; c̄ (p) = hp| ψi = ψ̄ (p) (1.181)
the coefficients c (r) of the expansion of |ψi under {|ri} are the wave functions evaluated at the point r, this fact
reinforces the interpretation of the wave function as the representation of |ψi under the basis |ri. The coefficients
c̄ (p) are the fourier transforms of the wave function, this coefficients ψ̄ (p) are usually called “wave functions in
momentum space”, since they represent the same abstract vector |ψi it is clear that ψ (r) and ψ̄ (p) contain the
same physical information, this can also be seen by taking into account that given ψ (r) then ψ̄ (p) is uniquely
determined and vice versa. On the other hand, by comparing Eqs. (1.180, 1.181) with Eqs. (1.121, 1.122) we see
that if ψ (r) ↔ |ψi then the expansion of ψ (r) under ξr (r′ ) has the same coefficients as the expansion of |ψi under
|ri as we demanded. Similar situation occurs with the basis {vp } in ̥ and the basis |pi in Er .
An important particular case arises when |ψi = |pi which is indeed a generalized ket. Assuming that all the
relations above are also valid for generalized kets, and taking into account that |pi ↔ vp (r), then Eq. (1.181)
gives
 
1 3/2 ip·r/~
hr| pi = vp (r) = e (1.182)
2π~
the same result is obtained by taking into account the equality of the inner product of vectors in ̥ and vectors
in Er when this equality is extended to generalized vectors
Z Z
   
hr| pi = (|ri , |pi) = (ξr , vp ) = d3 r′ ξr∗ r′ vp r′ = d3 r′ δ r′ − r vp r′ = vp (r)

applying Eq. (1.181) for |ψi = |r′ i ↔ ψ (r) = ξr′ (r) we find

hr| r′ i = ξr′ (r) = δ r − r′

which is consistent with the orthonormalization relation. Similar arguments leads to


 3/2
1 
hp| ri = vp∗ (r) = e−ip·r/~ ; hp| p′ i = δ p − p′
2π~

Assume that we have an orthonormal basis {ui (r)} in ̥ and an orthonormal basis {|ui i} in Er such that
ui (r) ↔ |ui i. Starting with the closure relation for {|ui i} in Er
X
|ui i hui | = I
i
98 CAPÍTULO 1. LINEAR OR VECTOR SPACES

and evaluating the matrix element of it between |ri and |r′ i we have
X
hr |ui i hui | r′ i = hr| I r′ = hr| r′ i
i

and using Eqs. (1.181, 1.178) we find X  


ui (r) u∗i r′ = δ r − r′
i
which is the closure relation as it was expressed in Eq. (1.110) for {ui (r)} in ̥, reversing the steps we can obtain
the closure relation for {|ui i} in Er starting from the closure relation for {ui (r)} in ̥19 .
Notice that the inner product of two kets in terms of their coordinates under the basis {|ri} is a particular
case of Eq. (1.114). Equivalently, we obtain it by insertion of the identity
Z
hϕ |ψi = d3 r hϕ |ri hr |ψi

and interpreting the components hϕ |ri and hr |ψi as in Eq. (1.181)


Z
hϕ |ψi = d3 r ϕ∗ (r) ψ (r)

a similar procedure can be done for the basis {|pi}


Z Z
hϕ |ψi = d p hϕ |pi hp |ψi = d3 p ϕ̄∗ (p) ψ̄ (p)
3

from which it is obtained Z Z


d3 r ϕ∗ (r) ψ (r) = d3 p ϕ̄∗ (p) ψ̄ (p)

this is a well-known property of the Fourier trasnforms.

1.43.3. Changing from the {|ri} representation to {|pi} representation and vice versa
The procedure is similar to the one in section 1.41 but for continuous basis. If we consider the change from
{|ri} to {|pi}, the unitary matrix S of changing the basis is
 
1 3/2 ip·r/~
S (r, p) = hr |pi = e (1.183)
2π~
a ket |ψi is represented as ψ (r) in {|ri} and we know well that in {|pi} it is given by ψ̄ (p). Here we see that it
is consistent with the formalism developed in Sec. 1.41

Z Z
3
hp |ψi = d r hp |ri hr |ψi = d3 r S† (r, p) hr |ψi
 3/2 Z
1
ψ̄ (p) = d3 r e−ip·r/~ ψ (r) (1.184)
2π~
similarly
Z Z
3
hr |ψi = d p hr |pi hp |ψi = d3 p S (r, p) hp |ψi
 3/2 Z
1
ψ (r) = d3 p eip·r/~ ψ̄ (p) (1.185)
2π~
19
Notice that I (r, r′ ) = hr′ | I |ri = hr′ | ri = δ (r − r′ ) shows that the Dirac delta can be seen as the representation of the identity
under the continuous hyperbasis {|ri}.
1.43. THE CONTINUOUS BASES |Ri AND |Pi 99

the representation of bras can be obtained by hermitian conjugation of the relations with kets.
Now for a given operator, the matrix elements in {|pi} read A (p′ , p) = hp′ | A |pi inserting two identities we
get
Z Z





p A |pi = 3 ′
d r d3 r p′ r′ i r′ A |ri hr |pi
Z Z

′  

p A |pi = 3 ′
d r d3 r S † r′ , p′ A r′ , r S (r, p)

which is the continuous generalization of (1.175). Using (1.183) we find


  Z Z

 1 3 ′ ′ 
A p ,p = d3 r′ d3 r e−ip ·r /~ A r′ , r eip·r/~
2π~
  Z Z

 1 3 ′ ′ 
A p ,p = d3 r′ d3 r e−i(p ·r −p·r)/~ A r′ , r
2π~
the inverse relation is obtained from
Z Z




r A |ri = 3 ′
d p d3 p r′ p′ i p′ A |pi hp |ri
Z Z

′  
r A |ri = d3 p′ d3 p S r′ , p′ A p′ , p S † (r, p)

this is the continuous generalization of (1.176). From (1.183) we find


  Z Z
 1 3 ′ ′ 
A r′ , r = d3 p′ d3 p eip ·r /~ A p′ , p e−ip·r/~
2π~
  Z Z
 1 3 ′ ′ 
A r′ , r = d3 p′ d3 p ei(p ·r −p·r)/~ A p′ , p
2π~

1.43.4. The R and P operators


Let |ψi be an arbitrary ket of Er and ψ (r) = ψ (x, y, z) the corresponding wave function. We define an operator
X in the form20 ′
ψ = X |ψi

such that in the {|ri} representation the associated wave function ψ ′ (r) = ψ (x, y, z) is given by

ψ ′ (x, y, z) = xψ (x, y, z) (1.186)

so in the {|ri} representation, it corresponds to the operator that multiplies the wave function by x. We should
emphasize however, that the operator X is defined on the Er state space. Eq. (1.186) can be expressed by

hr| X |ψi = hr| ψ ′ i = ψ ′ (r) = xψ (r) = xhr |ψi

Of course, we can introduce the operators Y and Z in a similar way

hr| X |ψi = xhr |ψi , hr| Y |ψi = yhr |ψi , hr| Z |ψi = zhr |ψi ; |ri = |x, y, zi (1.187)

we can consider X, Y, Z as the “components” of a “vector operator” R, by now it only means a condensed notation
inspired in the fact that x, y, z are the components of the ordinary vector r.
20
The operator X does not belong to ß(Er ), because for some square integrable functions ψ (r), the function ψ ′ (r) defined in Eq.
(1.186) is not square integrable.
100 CAPÍTULO 1. LINEAR OR VECTOR SPACES

These operators can be easily manipulated in the {|ri} representation. For instance, the element hϕ| X |ψi can
be calculated as Z Z
hϕ| X |ψi = d r hϕ| ri hr| X |ψi = d3 r ϕ∗ (r) x ψ (r)
3

similarly, we define the operators Px , Py , Pz that forms the “vector operator” P, such that their action in the {|pi}
representation is given by

hp| Px |ψi = px hp |ψi , hp| Py |ψi = py hp |ψi , hp| Pz |ψi = pz hp |ψi ; |pi = |px , py , pz i (1.188)

however, when we require to work with both operators simultaneously, we should choose only one basis. Hence,
it is important to know how the operator P acts in the {|ri} representation, and how the operator R acts in the
{|pi} representation.
Let us first look for the way in which the operator P acts in the {|ri} representation. For this, we use Eqs.
(1.181, 1.182, 1.188) to evaluate
Z Z  3/2 Z
3 3 1
hr| Px |ψi = d p hr| pi hp| Px |ψi = d p hr| pipx hp| ψi = d3 p eip·r/~ px ψ̄ (p) (1.189)
2π~

to evaluate this term we start with the expression of the Fourier transform Eq. (1.185)
 3/2 Z ∞
1
ψ (r) = d3 p eip·r/~ ψ̄ (p)
2π~ −∞
 3/2 Z ∞  
∂ψ (r) 1 ∂  ip·r/~  3
= d p e ψ̄ (p)
∂x 2π~
−∞ ∂x
  Z  
∂ψ (r) 1 3/2 ∞ 3 i
= d p px eip·r/~ ψ̄ (p)
∂x 2π~ −∞ ~

we have that
 3/2 Z ∞
~ ∂ψ (r) 1
= d3 p px eip·r/~ ψ̄ (p) (1.190)
i ∂x 2π~ −∞

if we continue derivating this expression we find


 3/2 Z ∞  n 
∂ n ψ (r) 1 i
= d3 p px eip·r/~ ψ̄ (p)
∂xn 2π~ −∞ ~

replacing (1.190) in (1.189) we obtain


~ ∂ψ (r)
hr| Px |ψi =
i ∂x
and similarly for Py , Pz . In vector form we summarize it as

~
hr| P |ψi = ∇hr |ψi (1.191)
i

in the {|ri} representation, the operator P coincides with the differential operator acting on the wave functions.
Let us calculate hϕ| Px |ψi in the {|ri} representation
Z Z 
3 3 ~ ∂

hϕ| Px |ψi = d r hϕ |ri hr| Px |ψi = d r ϕ (r) ψ (r) (1.192)
i ∂x
1.43. THE CONTINUOUS BASES |Ri AND |Pi 101

of great importance are the commutators among the components Pi , Ri . We shall calculate them in the {|ri}
representation, for instance

hr| [X, Px ] |ψi = hr| (XPx − Px X) |ψi = hr| (XPx ) |ψi − hr| (Px X) |ψi
~ ∂
= hr| X |Px ψi − hr| Px |Xψi = x hr| Px ψi − hr| Xψi
i ∂x
~ ∂ ~ ∂ ~ ∂
= x hr| Px |ψi − hr| X |ψi = x hr| ψi − [x hr| ψi]
i ∂x i ∂x i ∂x
~ ∂ ~ ∂ ~
= x hr| ψi − x [hr| ψi] − hr| ψi
i ∂x i ∂x i
so that
hr| [X, Px ] |ψi = i~ hr| ψi
since this is valid for any ket |ψi and any generalized ket |ri of the basis, we conclude that

[X, Px ] = i~I

it is usual to omit the identity operator since it is not important for practical calculations. In a similar way, we
can calculate the other commutators, to condense notation it is convenient to define

R1 ≡ X, R2 ≡ Y, R3 ≡ Z, P1 ≡ Px , P2 ≡ Py , P3 ≡ Pz

to write
[Ri , Rj ] = [Pi , Pj ] = 0 ; [Ri , Pj ] = i~δij (1.193)
they are called canonical commutation relations. These relations are intrinsic and should not depend on the basis
in which we derive them.
We can show that R and P are hermitian operators. For example let us show that X is hermitian
Z Z Z ∗
3 3 ∗ 3 ∗
hϕ| X |ψi = d r hϕ |ri hr| X |ψi = d r ϕ (r) x ψ (r) = d r ψ (r) x ϕ (r)

hϕ| X |ψi = hψ| X |ϕi∗

since this is valid for arbitrary kets |ψi and |ϕi, and taking into account Eq. (1.163) we conclude that X = X † .
For Px we see that
Z Z Z ∗
3 3 ∗ 3 ∗
hϕ| Px |ψi = d p hϕ |pi hp| Px |ψi = d p ϕ̄ (p) px ψ̄ (p) = d p ψ̄ (p) px ϕ̄ (p)

hϕ| Px |ψi = hψ| Px |ϕi∗

and Px = Px† . The procedure is the same for the other components of R and P

R = R† , P = P†

There is an alternative proof of the hermiticity of P by using its action in the {|ri} representation given by
Eq. (1.191). Integrating Eq. (1.192) by parts we have
Z Z ∞  
~ ∗ ∂
hϕ| Px |ψi = dy dz dx ϕ (r) ψ (r)
i −∞ ∂x
Z  Z ∞ 
~ ∗ x=∞ ∂ ∗
= dy dz [ϕ (r) ψ (r)]x=−∞ − dx ψ (r) ϕ (r)
i −∞ ∂x
102 CAPÍTULO 1. LINEAR OR VECTOR SPACES

since the scalar product hϕ| ψi is convergent, ϕ∗ (r) ψ (r) approaches zero when x → ±∞. Hence the first term
on the right-hand side vanishes and we find
Z  Z ∗
~ 3 ∂ ∗ ~ 3 ∗ ∂
hϕ| Px |ψi = − d r ψ (r) ϕ (r) = d r ψ (r) ϕ (r)
i ∂x i ∂x
hϕ| Px |ψi = hψ| Px |ϕi∗

two things deserve attention, first the presence of the i factor is essential because i∂/∂x is hermitian but ∂/∂x is
not. Second, we have used explicitly the fact that |ψi and |ϕi belong to Er by assuming that the scalar product
hϕ| ψi is convergent, so this proof is not valid for generalized kets.

1.43.5. The eigenvalue problem for R and P


Let us calculate the matrix element X (r′ , r) of the operator X in the basis {|ri}


 

X r′ , r = r′ X |ri = x′ r′ ri = x′ δ r − r′ = xδ r − r′ = x r′ ri



r Xri = x r′ ri

so the components of the ket X |ri in the {|r′ i} representation are equal to the ones of the ket |ri = |x, y, zi
multiplied by x
X |ri = x |ri

we proceed in the same way for Y and Z

X |ri = x |ri , Y |ri = y |ri , Z |ri = z |ri ; |ri = |x, y, zi

the kets |ri are eigenkets common to X, Y, Z. The set {|ri} of common eigenvectors of X, Y, Z forms a basis
showing that {X, Y, Z} is a complete set of commuting observables. On the other hand, the specification of the
three eigenvalues x0 , y0 , z0 determines uniquely the “normalized” eigenvector |r0 i except for a phase eiθ . In the {|ri}
representation the coordinates of |r0 i are δ (x − x0 ) δ (y − y0 ) δ (z − z0 ). Therefore, the set {X, Y, Z} constitutes a
C.S.C.O. in Er .
Analogous reasoning shows that for the commuting observables {Px , Py , Pz } the eigenvalues and eigenvectors
are
Px |pi = px |pi , Py |pi = py |pi , Pz |pi = pz |pi ; |pi = |px , py , pz i

since {|pi} is a basis the operators Px , Py , Pz are observables. Because the set of eigenvalues (p0x , p0y , p0z ) deter-
mines uniquely the vector |p0 i the set {Px , Py , Pz } constitutes as C.S.C.O. in Er .
It worths pointing out that X is not a C.S.C.O. by itself in the Er state space because when x0 is specified y0
and z0 can take any real values. Therefore, x0 is an infinitely degenerate eigenvalue. Notwithstanding in the state
space Ex of a particle in one dimension, X constitutes a C.S.C.O. since the eigenvalue x0 determines uniquely the
eigenvector |x0 i, and its coordinates in the {|xi} representation are given by δ (x − x0 ).
It can also be shown that the set {X, Py , Pz } constitutes a C.S.C.O. since they commute with each other, and
for a set of eigenvalues {x0 , p0y , p0z } there is a unique eigenvector whose associated wave function is

1 i(p0y y+p0z z)/~


ψx0 ,p0y ,p0z (x, y, z) = δ (x − x0 ) e
2π~
of course, similar C.S.C.O. are built from the sets

{Y, Px , Pz } , {Z, Px , Py }
1.43. THE CONTINUOUS BASES |Ri AND |Pi 103

1.43.6. Some properties of Fourier transforms


We have seen that if a vector |ψi acquires the value ψ (r) in the {|ri} basis, its value ψ (p) in the {|pi} basis
is connected with ψ (r) through a Fourier transform Eqs. (1.184, 1.185)
  Z
1 3/2
ψ̄ (p) = d3 r e−ip·r/~ ψ (r) (1.194)
2π~
  Z
1 3/2
ψ (r) = d3 p eip·r/~ ψ̄ (p) (1.195)
2π~
It can be seen that if ψ depends only on |r| = r, then ψ depends only on |p| = p and is given by
Z
1 2 ∞ pr
ψ (r) = ψ (r) ⇒ ψ̄ (p) = ψ̄ (p) = √ r dr sin ψ (r) (1.196)
2π~ p 0 ~
to see it, let us apply a rotation R to the vector p
p′ ≡ Rp
and we use such a rotated vector in Eq. (1.194), taking into account that ψ (r) = ψ (|r|) = ψ (r)
  Z

 1 3/2 ′
ψ̄ p = d3 r e−ip ·r/~ ψ (r)
2π~
now we use a new (rotated) variable r′ = Rr
 3/2 Z

 1 ′ ′ 
ψ̄ p = d3 r′ e−ip ·r /~ ψ r ′ (1.197)
2π~
and we take into account that the length r, the volume element, and the dot product are all conserved under a
rotation 
d3 r′ = d3 r ; p′ · r′ = p · r ; ψ r ′ = ψ (r)
applying these invariances in Eq. (1.197), we see that

ψ̄ p′ = ψ (p)

since the rotation is arbitrary, it means that ψ only depends on |p| and not on its direction. Therefore, we can
evaluate ψ (p) with Eq. (1.194), by choicing p = puz


 Z   Z Z π Z 2π
1 3/2 3 −ipz/~ 1 3/2 ∞ 2
ψ (p) = d re ψ (r) = r dr ψ (r) dθ sin θ e−ipr cos θ/~ dϕ
2π~ 2π~ 0 0 0
  Z Z π
1 3/2 ∞ 2
ψ (p) = 2π r dr ψ (r) dθ sin θ e−ipr cos θ/~ (1.198)
2π~ 0 0

let us evaluate the integral in θ


Z π Z π  
−ipr cos θ/~ − 2i pr cos θ/~2~ ipr − 2i pr cos θ/~
dθ sin θ e = dθ e sin θ e
0 0 ipr 2~
Z h i i
2~ π − 2i pr cos θ/~ d − 2 pr cos θ/~ 2~ 1 −ipr cos θ/~ π
= dθ e e = e (1.199)
ipr 0 dθ ipr 2 0
2~ 1  ipr/~  2~ 2i   2~ h  pr   pr i
= e − e−ipr/~ = Im eipr/~ = Im cos + i sin
ipr 2 ipr 2 pr ~ ~
Z π  pr 
2~
dθ sin θ e−ipr cos θ/~ = sin (1.200)
0 pr ~
104 CAPÍTULO 1. LINEAR OR VECTOR SPACES

substituting Eq. (1.200) in Eq. (1.198) we have


 3/2 Z ∞  
1 2 2~ pr
ψ (p) = 2π r dr ψ (r) sin
2π~ 0 pr ~

thus, Eq. (1.196) is obtained.

1.44. General properties of two conjugate observables


Two arbitrary observables Q and P are called conjugate if they obey the conmutation rule

[Q, P ] = i~ (1.201)

such couples of observables are frequently encountered in quantum mechanics. The position and momentum
observables are good examples. However, in what follows all properties are derived from the commutation rule
(1.201) regardless the specific form of the operators. Let us define the operator S (λ) that depends on a real
parameter λ as
S (λ) = e−iλP/~ (1.202)
since P is observable and so hermitian this operator is unitary

S † (λ) = eiλP/~ = S −1 (λ) = S (−λ) (1.203)

since P obviously commute with itself, Eq. (1.149) leads to

S (λ) S (µ) = S (λ + µ) (1.204)

now we calculate the commutator [Q, S (λ)]. To do it, we take into account that [Q, P ] = i~ clearly commutes
with Q and P , therefore we can apply theorem 1.70, Eq. (1.136) to obtain
 
′ iλ −iλP/~
[Q, S (P )] = [Q, P ] S (P ) = i~ − e = λS (P )
~

where we have written S (P ) instead of S (λ) to emphasize that when applying Eq. (1.136) we are considering S
as a function of the operator P (so the derivative is with respect to P ). Rewriting it in the old notation we have

[Q, S (λ)] = λS (λ) ⇒ QS (λ) − S (λ) Q = λS (λ)


QS (λ) = S (λ) [Q + λ] (1.205)

1.44.1. The eigenvalue problem of Q


Suppose that Q has a non-zero eigenvector |qi, with eigenvalue q

Q |qi = q |qi (1.206)

applying Eq. (1.205) on the vector |qi we have

QS (λ) |qi = S (λ) [Q + λ] |qi = S (λ) [q + λ] |qi


Q [S (λ) |qi] = [q + λ] [S (λ) |qi] (1.207)

therefore, S (λ) |qi is also an eigenvector of Q with eigenvalue q + λ. Note that S (λ) |qi is non-zero because S (λ)
is unitary so the norm of |qi is preserved. On the other hand, since λ can take any real value, we conclude that by
1.44. GENERAL PROPERTIES OF TWO CONJUGATE OBSERVABLES 105

starting with an eigenvector of Q, we can construct another eigenvector of Q with any real eigenvalue by applying
the appropiate S (λ). Consequently, the spectrum of Q is continuous and consists of all real values.
Note that this result shows in particular that conjugate operators Q, P cannot exist in finite dimensional vector
spaces since for the latter the spectrum must be finite. Even they do not exist strictly in spaces of denumerable
dimension such as L2 , (for which the spectrum must be at most denumerable), so the eigenvectors |qi will form
hyperbasis in L2 .
Let us now show that if any given q is non-degenerate, then all the other eigenvalues of Q are also non-
degenerate. For this we assume that the eigenvalue q+λ is at least two-fold degenerate and arrive to a contradiction.
From this hypothesis, there are at least two orthogonal eigenvectors |q + λ, αi and |q + λ, βi associated with the
eigenvalue q + λ
hq + λ, β |q + λ, αi = 0 (1.208)
now consider the two vectors S (−λ) |q + λ, αi and S (−λ) |q + λ, βi from Eq. (1.207) we see that

QS (−λ) |q + λ, αi = [q + λ + (−λ)] S (−λ) |q + λ, αi = qS (−λ) |q + λ, αi


QS (−λ) |q + λ, βi = [q + λ + (−λ)] S (−λ) |q + λ, βi = qS (−λ) |q + λ, βi

so S (−λ) |q + λ, αi and S (−λ) |q + λ, βi are two eigenvectors associated with the eigenvalue q. Calculating the
inner product of them
hq + λ, β| S † (−λ) S (−λ) |q + λ, αi = hq + λ, β |q + λ, αi = 0
where we have used Eq. (1.208) and the fact that S (λ) is unitary. Thus, we arrive to the fact that S (−λ) |q + λ, αi
and S (−λ) |q + λ, βi are two orthogonal (and so linearly independent) eigenvectors associated with q, contradicting
the hypothesis that q is non-degenerate. This result can be extended to find that the eigenvalues of Q must all
have the same degree of degeneracy.
We now look for the eigenvectors. We fix the relative phses of the diffrent eigenvectors of Q with respect to
the eigenvector |0i associated with the eigenvalue 0, by setting

|qi ≡ S (q) |0i (1.209)

applying S (λ) on both sides of (1.209) and using (1.204), we get

S (λ) |qi = S (λ) S (q) |0i = S (λ + q) |0i = |q + λi

and the corresponding bra gives


hq| S † (λ) = hq + λ|
now using Eq. (1.203) we see that S † (λ) = S (−λ) from which

hq| S (−λ) = hq + λ| ⇒ hq| S (λ) = hq − λ|

where we have replaced λ → −λ in the last step. In summary the action of S (λ) on the eigenvectors |qi of Q are
given by
S (λ) |qi = |q + λi ; hq| S (λ) = hq − λ| (1.210)
now we can characterize the action of the operators P, Q and S (λ) in either the {|qi} basis or the {|pi} basis.

1.44.2. The action of Q, P and S (λ) in the {|qi} basis


Since Q is an observables the set of eigenvectors {|qi} of Q forms a basis. A given ket |ψi in our Hilbert space
can be written in the {|qi} basis as
ψ (q) ≡ hq |ψi
106 CAPÍTULO 1. LINEAR OR VECTOR SPACES

let us calculate the representation of Q |ψi in this basis

hq| Q |ψi = qhq |ψi = qψ (q)

where we have used (1.206) and the hermiticity of Q. The action of Q on |ψi reduces to a simple multiplication
with its associated eigenvalue. The action of S (λ) on |ψi in this basis is also simple

hq| S (λ) |ψi = hq − λ| ψi = ψ (q − λ) ; S (λ) ≡ e−iλP/~ (1.211)

where we have used (1.210). Note that a function f (x − a) is the function that at the point x = x0 + a, takes on
the value f (x0 ), so that it is the function obtained from f (x)by a translation of +a. Therefore, Eq. (1.211, shows
that the action of S (λ) on |ψi in the basis {|qi} , can be described as a translation of the wave function over a
distance +λ parallel to the q−axis. So S (λ) is usually called the translation operator.
The action of P on |ψi in the {|qi} basis is a bit longer to obtain. Let ε be an infinitesimal quantity such that
ε 
S (−ε) = eiεP/~ = I + i P + O ε2
~
therefore
h ε i ε 
hq| S (−ε) |ψi = hq| I + i P + O ε2 |ψi = hq |ψi + i hq| P |ψi + O ε2
~ ~
ε 2

hq| S (−ε) |ψi = ψ (q) + i hq| P |ψi + O ε (1.212)
~
on the other hand, from Eq. (1.211) we have

hq| S (−ε) |ψi = ψ (q + ε) (1.213)

and comparing (1.212) with (1.213) we have


ε 
ψ (q + ε) = ψ (q) + i hq| P |ψi + O ε2 ⇒
~
ε 
i hq| P |ψi = ψ (q + ε) − ψ (q) − O ε2
~
solving for hq| P |ψi and taking into account that ε is infinitesimal we have

~ ψ (q + ε) − ψ (q)
hq| P |ψi = lı́m
i ε→0 ε
~ d
hq| P |ψi = ψ (q) (1.214)
i dq
~ d
so the action of P on a ket in the {|qi} basis is that of i dq .

1.44.3. Representation in the {|pi} basis and the symmetrical role of P and Q
From Eq. (1.214), we can obtain the wave function vp (q) associated in the {|qi} basis, with the eigenvector
|pi of P with eigenvalue p
1
vp (q) = hq |pi = √ eipq/~
2π~
we can then write Z ∞
1
|pi = √ dqeipq/~ |qi
2π~ −∞
1.45. DIAGONALIZATION OF A 2 × 2 HERMITIAN MATRIX 107

a wave function in the {|pi} representation is given by


Z Z
ψ̄ (p) = hp |ψi = hp| |qi hq| ψi = hp |qi hq| ψi
Z ∞
1
ψ̄ (p) = √ dqeipq/~ ψ (q)
2π~ −∞

which is the Fourier transform of ψ (q).


It can be shown that the action of the P operator in the {|pi} repesentation is associated with multiplication
by p, while the representation of X corresponds to the operations i~d/dp. Therefore, the results are symmetrical
in the {|qi} and {|pi} bases. It comes from the fact that we can interchange Q and P with no more cost than
changing the sign of the conmutator in (1.201). The analogous of the translation operation in the {|pi} basis is
the operator defined by
T (α) = eiαQ/~
which acts as a translation in the momentum space. The arguments developed for the basis {|qi} can be repeated
in the basis {|pi} by interchanging P by Q and i by −i everywhere. As a matter of curiosity, in Classical Mechanics,
the Hamilton equations are also symmetrical in the conjugate variables (Q, P ) and we can interchange them with
no more cost that a change in sign.
We emphasize again that the results obtained in this section only depend on the canonica rule of commutation
(1.201) and not on the explicit form of the Q and P operators.

1.45. Diagonalization of a 2 × 2 hermitian matrix


This example illustrates many concepts introduced in the eigenvalue problem in a quite simple way. Further,
it is useful in many practical calculations involving systems of two states in quantum mechanics. The eigenvalue
problem is very easy but the determination of eigenvectors could lead easily to complicated expressions. We shall
determine the eigenvalues and find the eigenvectors in a way easy to handle.

1.45.1. Formulation of the problem


Consider an hermitian operator R in a two dimensional Hilbert space. Its matrix representation in a given
orthonormal basis {|ϕ1 i , |ϕ2 i} reads
   
hϕ1 | R |ϕ1 i hϕ1 | R |ϕ2 i H11 H12
H≡ = (1.215)
hϕ2 | R |ϕ1 i hϕ2 | R |ϕ2 i H21 H22

an hermitian operator is described by an hermitian matrix when the basis used is orthonormal. Therefore,
∗ ∗ ∗
H11 = H11 ; H22 = H22 ; H12 = H21

so that diagonal elements are real. Let us express the matrix in Eq. (1.215) in the equivalent form
 1
  1 
(H11 + H22 )
2 0 2 (H11 − H22 ) H12
H = 1 +
0 2 (H11 + H22 ) H21 − 12 (H11 − H22 )
  ∗
2H21
!
1 1 0 1 1 (H11 −H22 )
H = (H11 + H22 ) + (H11 − H22 ) 2H21
2 0 1 2 (H11 −H22 ) −1

2H21
!
1 1 1 (H11 −H22 )
H = (H11 + H22 ) I + (H11 − H22 ) K ; K ≡ 2H21 (1.216)
2 2 (H11 −H22 ) −1
108 CAPÍTULO 1. LINEAR OR VECTOR SPACES

and I is the identity matrix. Let |ψ± i be two linearly independent eigenvectors of K

K |ψ± i = κ± |ψ± i (1.217)

applying the ket |ψ± i on Eq. (1.216) we have

1 1
H |ψ± i = (H11 + H22 ) I |ψ± i + (H11 − H22 ) K |ψ± i
2 2
1
H |ψ± i = [(H11 + H22 ) + (H11 − H22 ) κ± ] |ψ± i
2
therefore |ψ± i are also eigenvectors of H with eigenvalues

1
H |ψ± i = E± |ψ± i ; E± ≡ [(H11 + H22 ) + (H11 − H22 ) κ± ] (1.218)
2
note that the problem reduces to find the eigenvectors of K (which coincide with the ones of H) and also its
eigenvalues (which are related with the eigenvalues of H through Eq. 1.218). Solving the problem for K is equivalent
to choose the origin of the eigenvalues in (H11 + H22 ) /2 = (T rH)/2. Note that this shift is independent of the
basis chosen to write H.

1.45.2. Eigenvalues and eigenvectors of K


For simplicity we define the angles θ, ϕ in terms of the matrix elements Hij as follows

2 |H21 |
tan θ = , 0≤θ<π (1.219)
H11 − H22
H21 = |H21 | eiϕ , 0 ≤ ϕ < 2π (1.220)

so ϕ is the argument of the term H21 . Matrix K in Eq. (1.216) can be written as

2|H21 |e−iϕ
!  
1 (H11 −H22 ) 1 tan θ e−iϕ
K= 2|H21 |eiϕ
= (1.221)
−1 tan θ eiϕ −1
(H11 −H22 )

the characteristic equation of matrix (1.221) yields

det [K − λI] = 0 = (1 − κ) (−1 − κ) − tan2 θ ⇒


1
κ2 − 1 − tan2 θ = 0 ⇒ κ2 = 1 + tan2 θ =
cos2 θ
the eigenvalues of K read
1 1
κ+ = , κ− = − (1.222)
cos θ cos θ
and they are real as expected. We can express 1/ cos θ in terms of the matrix elements Hij by using Eqs. (1.219)
and the fact that cos θ and tan θ are both of the same sign since 0 ≤ θ < π.
s s
1 p 4 |H 21 |2
(H11 − H22 )2 + 4 |H21 |2
= 1 + tan2 θ = 1 + =
cos θ (H11 − H22 )2 (H11 − H22 )2
s
1 (H11 − H22 )2 + 4 |H21 |2
κ± = ± =± (1.223)
cos θ (H11 − H22 )2
1.45. DIAGONALIZATION OF A 2 × 2 HERMITIAN MATRIX 109

let us find the eigenvectors of K. We denote as a and b the components of |ψ+ i in the basis {|ϕ1 i , |ϕ2 i}. From
Eqs. (1.221, 1.222) this eigenvector must satisfy
    
1 tan θ e−iϕ a 1 a
iϕ =
tan θ e −1 b cos θ b

of course only one of the two equations is linearly independent since only quotients between the coefficients can
be determined, therefore
 
−iϕ a −iϕ 1
a + b tan θ e = ⇒ b tan θ e =a −1
cos θ cos θ

multiplying by eiϕ/2 and defining 2α ≡ θ this equation yields


 
sin 2α −iϕ/2 1 − cos 2α iϕ/2
b e = a e
cos 2α cos 2α
b sin 2α e−iϕ/2 = a (1 − cos 2α) eiϕ/2
 
b (2 sin α cos α) e−iϕ/2 = a 1 − 1 − 2 sin2 α eiϕ/2
2b sinα cos α e−iϕ/2 2
 = 2a sin α e
iϕ/2

b cos α e−iϕ/2 = a sin α eiϕ/2

in terms of θ we get
θ −iϕ/2 θ
e = a sin eiϕ/2
b cos (1.224)
2 2
we demand normalization with the additional requirement of positivity for the coefficient a, so we have

a sin θ eiϕ/2 2

|a|2 + |b|2 = 1 ⇒ |a|2 + θ
2
=1
cos 2 e −iϕ/2
2
θ θ
|a|2 + a tan eiϕ = 1 ⇒ |a|2 + |a|2 tan2 = 1
2 2
 
θ θ
|a|2 1 + tan2 = 1 ⇒ |a|2 = cos2
2 2
so that
θ
a = cos ≥0 since 0 ≤ θ < π (1.225)
2
replacing (1.225) in (1.224) we get
θ −iϕ/2 θ θ θ
b cos e = cos sin eiϕ/2 ⇒ b = sin eiϕ
2 2 2 2
so that the eigenvector |ψ+ i′ associated with the eigenvalue κ+ reads
θ θ
|ψ+ i′ = a |ϕ1 i + b |ϕ2 i = cos |ϕ1 i + sin eiϕ |ϕ2 i
2 2
it is clear that |ψ+ i ≡ e−iϕ/2 |ψ+ i′ is also an eigenvector of K with the same eigenvalue κ+ and this vector looks
more symmetrical. Thus, we define the eigenvector |ψ+ i as21
θ −iϕ/2 θ
|ψ+ i = cos e |ϕ1 i + sin eiϕ/2 |ϕ2 i (1.226)
2 2
21
This is equivalent to define the phase of the coefficient a as −ϕ/2 instead of zero, in the process of normalization.
110 CAPÍTULO 1. LINEAR OR VECTOR SPACES

an analogous calculation gives the eigenvector of K corresponding to κ− = −1/ cos θ

θ −iϕ/2 θ
|ψ− i = − sin e |ϕ1 i + cos eiϕ/2 |ϕ2 i (1.227)
2 2
the eigenvalues of H are obtained by combining Eqs. (1.218, 1.223)
1
E± ≡ [(H11 + H22 ) + (H11 − H22 ) κ± ]
2 s
" #
1 (H11 − H22 )2 + 4 |H21 |2
= (H11 + H22 ) ± (H11 − H22 )
2 (H11 − H22 )2
 q 
1 2 2
E± ≡ (H11 + H22 ) ± (H11 − H22 ) + 4 |H21 |
2

it worths saying that the eigenvalue problem can be solved directly without resorting to the angles θ and ϕ defined
in Eq. (1.219, 1.220). This procedure is advantageous only if we have to calculate the eigenvectors as well.

1.45.3. Eigenvalues and eigenvectors of H


Let us summarize our results. We consider an hermitian operator R in a two dimensional Hilbert space, and
its matrix representation in the orthonormal basis {|ϕ1 i , |ϕ2 i}
   
hϕ1 | R |ϕ1 i hϕ1 | R |ϕ2 i H11 H12
H≡ = (1.228)
hϕ2 | R |ϕ1 i hϕ2 | R |ϕ2 i H21 H22

its eigenvalues and eigenvectors are given by


 q 
1 2 2
E± ≡ (H11 + H22 ) ± (H11 − H22 ) + 4 |H21 | (1.229)
2
θ θ
|ψ+ i = cos e−iϕ/2 |ϕ1 i + sin eiϕ/2 |ϕ2 i (1.230)
2 2
θ −iϕ/2 θ
|ψ− i = − sin e |ϕ1 i + cos eiϕ/2 |ϕ2 i (1.231)
2 2
2 |H21 |
tan θ = , H21 = |H21 | eiϕ ; 0 ≤ θ < π , 0 ≤ ϕ < 2π (1.232)
H11 − H22
as a matter of consistence we can see that

E+ + E− = H11 + H22 = T rH , E+ E− = H11 H22 − |H12 |2 = det H

in agreement with Eq. (1.93, 1.94). From Eq. (1.229), the spectrum becomes degenerate i.e. E+ = E− when
(H11 − H22 )2 + 4 |H21 |2 = 0. That is when H11 = H22 and H12 = H21 = 0. So a 2 × 2 hermitian matrix has a
degenerate spectrum if and only if it is proportional to the identity.
It worths remarking that although functions of θ are expressed simply in terms of the Hij elements by means of
Eqs. (1.232), it is not the case when functions of θ/2 appears. Thus, when we do calculations with the eigenvectors
(1.230, 1.231), it is convenient to keep the results in terms of θ/2 up to the end of the calculation instead of
replacing it in terms of the Hij quantities.
Capı́tulo 2

Construcción fenomenológica de los


postulados de la mecánica cuántica

Nuestro presente entendimiento de la naturaleza requiere reevaluar las leyes de la mecánica clásica, especial-
mente en lo referente a los fenómenos atómicos y subatómicos. No obstante, existen manifestaciones macroscópicas
de los procesos cuánticos. A manera de ejemplo, la existencia misma de los sólidos solo se puede explicar en un
contexto cuántico, y los modelos sobre calor especı́fico de los sólidos no se pueden explicar con un modelo clásico.
A finales del siglo diecinueve, se identificaban en la fı́sica dos tipos de entidades bien diferenciadas: la materia y
la radiación. Las leyes de Newton permitı́an explicar los fenómenos relativos a la materia en la escala macroscópica
y las ecuaciones de Maxwell proporcionaban una excelente descripción de la dinámica de la radiación1 . Finalmente,
la interacción de la materia con la radiación la proporcionaba la ley de fuerza de Lorentz. Es notable el hecho
de que la teorı́a de Maxwell habia logrado la unificación de fenómenos que antes se consideraban separados: la
electricidad, el magnetismo y la óptica.
No obstante, a finales del siglo diecinueve y principios del veinte una serie de experimentos condujeron a
reevaluar la estructura fundamental de la materia y además a replantear las leyes que rigen a estas estructuras
fundamentales. La mecánica cuántica es entonces el resultado de estos replanteamientos. Vale decir por supuesto
que al menos en principio, el mundo macroscópico también se rige por la leyes de la cuántica, si bien para la
mayorı́a de fenómenos a escala humana, la Fı́sica clásica representa una descripción mucho más simple y al mismo
tiempo bastante adecuada.
A continuación se realizará una breve descripción de los experimentos que dieron lugar a las nuevas ideas sobre
el mundo microscópico, con el fin de dejar claros los puntos que es necesario reevaluar en la mecánica clásica. La
descripción de estos experimentos no pretende ser completa ni exhaustiva, solo pretende mostrar las ideas que
éstos nos arrojan sobre el comportamiento de la naturaleza a nivel microscópico (atómico y subatómico). Para un
estudio más detallado de estos experimentos el lector puede recurrir a los textos estándar sobre Fı́sica Moderna
(ver por ejemplo Ref. [1]).

2.1. La radiación del cuerpo negro


Un cuerpo negro tiene la capacidad de absorber toda la radiación que incide sobre él, a su vez esto lo convierte
en un emisor perfecto. Utilizando argumentos de la termodinámica y la mecánica estadı́stica, Rayleigh y Jeans
predijeron el espectro del cuerpo negro utilizando la distribución de Boltzmann. Sin embargo, las predicciones de
Rayleigh y Jeans estaban muy lejos del espectro experimental en el régimen de longitudes de onda corta, fenómeno
conocido como la “catástrofe del ultravioleta”. Es bien conocido que la energı́a asociada a una frecuencia particular
de la radiación del cuerpo negro se relaciona con la energı́a de una partı́cula cargada en la pared de una cavidad
del cuerpo negro oscilando sinusoidalmente a la misma frecuencia. Originalmente, Max Planck cuantizó la energı́a
1
Las ondas mecánicas podı́an explicarse en último término con las leyes de Newton.

111
112 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

de la partı́cula oscilante asumiendo que cada una de estas partı́culas solo puede tener una energı́a εn que sea
múltiplo entero de una energı́a fundamental ε0 = hν siendo ν la frecuencia de oscilación y siendo h una constante
universal que se ajusta experimentalmente, por lo tanto
εn = nhν , n = 0, 1, 2, 3, 4, . . . (2.1)
recalculando el espectro con este postulado, Planck pudo reproducir el espectro del cuerpo negro para todas
las longitudes de onda. Posteriormente, Planck observó que esto era equivalente a cuantizar directamente las
ondas electromagnéticas estacionarias asociadas a cada frecuencia y que oscilan sinusoidalmente. De hecho, Planck
generaliza su postulado diciendo que la Ec. (2.1) describe la energı́a total asociada a cualquier entidad fı́sica cuya
única coordenada generalizada efectúa oscilaciones armónicas simples (variaciones sinusoidales en el tiempo).

2.2. El efecto fotoeléctrico


Cuando se hace incidir luz ultravioleta sobre la superficie de un metal, se emiten electrones provenientes de
dicho metal. A principios del siglo XX, Lenard realizó experimentos en donde los electrones extraı́dos con luz
ultravioleta de la superficie metálica (fotocátodo) son acelerados por una diferencia de potencial con respecto a
otro electrodo. Al medir la corriente que llegaba al segundo electrodo como función del voltage entre los electrodos,
observó que todavı́a llegaba corriente incluso cuando el potencial era retardante para cargas negativas indicando
que los electrones son emitidos con energı́a cinética que no es despreciable. La forma de la curva indicó que
no todos los fotoelectrones son emitidos con la misma energı́a cinética pero existe un voltaje retardante de
corte V = −Vmáx luego del cual cesa la fotocorriente. Este voltage de corte sugiere la existencia de una energı́a
máxima bien definida para los fotoelectrones dada por Emáx = eVmáx siendo e la magnitud de la carga electrónica.
Los fotoelectrones de máxima energı́a son los que provienen de la superficie del fotocátodo en tanto que los
fotoelectrones de menor energı́a provienen del interior del fotocátodo y pierden energı́a cinética al llegar a la
superficie, esto nos indica que Emáx es una buena medida de la energı́a transmitida a los electrones en el proceso
fotoeléctrico. Lenard encontró además que la corriente fotoeléctrica es directamente proporcional a la intensidad
luminosa incidente para voltages acelerantes. Sin embargo, observó también que el potencial de corte retardante
V = −Vmáx es independiente de la intensidad luminosa. En consecuencia, la energı́a máxima adquirida por los
electrones es independiente de la intensidad luminosa incidente.
En el marco de la teorı́a clásica, se puede demostrar que la energı́a cinética promedio de los electrones sometidos
a la luz ultravioleta es proporcional al campo eléctrico al cuadrado (asociado a la onda incidente) y por tanto es
proporcional a la intensidad incidente. Esto entra en conflicto directo con el hecho de que la energı́a adquirida por
los electrones de la superficie del fotocátodo sea independiente de la intensidad luminosa. Un problema más serio
surge cuando se intenta calcular el tiempo necesario para que los fotoelectrones adquieran la energı́a suficiente para
llegar al otro electrodo. Este tiempo se estimó en unos ∼ 100seg bajo la hipótesis clásica de que la energı́a luminosa
se distribuye uniformemente sobre frentes de onda esféricos cuyo centro es la fuente. Experimentos posteriores
revelaron que el tiempo de absorción no superaba los ∼ 10−9 seg.
Lo anterior llevó a Einstein en 1905 a generalizar el postulado de Planck enunciando que el contenido energético
de una onda electromagnética de frecuencia ν en una fuente de radiación (onda libre) también puede tener solo
valores de la forma nhν siendo n entero no-negativo y ν la frecuencia de la onda que se propaga. Esto implica que
al pasar la fuente de un estado de energı́a nhν a otro de energı́a (n − 1) hν, la fuente emite un paquete de energı́a
electromagnética con energı́a hν. Einstein propuso además que este paquete de energı́a (fotón) está localizado
inicialmente en una pequeña región del espacio y permanece localizado cuando se aleja de la fuente luminosa con
velocidad c, en contraste con la expansión caracterı́stica de un frente de onda clásico. Este paquete o cuanto de
energı́a denominado fotón posee una energı́a ε = hν. Postuló además que en el proceso fotoeléctrico un cuanto era
completamente absorbido por el fotoelectrón.
En primera instancia, el hecho de que el cuanto permaneciera localizado y fuese completamente absorbido
permitı́a que los fotoelectrones absorbieran la energı́a necesaria para formar la fotocorriente de manera casi ins-
tantánea, eliminando la incompatibilidad con el tiempo de absorción que se presentaba con las ondas clásicas.
2.3. EL EFECTO COMPTON 113

Por otro lado, definamos ∆E como la energı́a necesaria para que un electrón pueda llegar al otro electrodo,
esta será igual a la energı́a necesaria para llegar a la superficie, mas la energı́a W necesaria para salir del material
venciendo la fuerzas superficiales atractivas. El mecanismo fotoeléctrico imparte una energı́a hν al fotoelectrón y
si esta energı́a es mayor que ∆E el electrón puede escapar de la superfice del fotocátodo. Es claro que para los
electrones de la superficie ∆E = W de modo que la máxima energı́a cinética con la que llegan los fotoelectrones
al otro electrodo es
Emáx = hν − W
mostrando claramente que tal energı́a máxima es función lineal de la frecuencia de la radiación incidente, pero es
independiente de su intensidad. Estas predicciones fueron corroboradas por Millikan en 1916.

2.3. El efecto compton


En 1923, Compton realizó un experimento en el cual un haz aproximadamente monocromático de rayos X de
longitud de onda λ0 , incidı́a en una placa metálica. Compton encontró que la radiación dispersada contenı́a un
pico de intensidad asociado a la longitud de onda λ1 > λ0 , además del pico asociado a λ0 . A la presencia de este
pico en λ1 se le conoce como efecto Compton. En la discusión subsecuente nos concentraremos en la explicación
del pico de intensidad en λ1 .
La observaciones mostraban que λ1 aumentaba a medida que se incrementaba el ángulo de dispersión θ, pero
era independiente del material de la lámina metálica. Puesto que λ1 es siempre mayor que λ0 , la frecuencia
ν1 = c/λ1 de la radiación dispersada disminuye al aumentar el ángulo θ de dispersión.
Adicionalmente, si asumimos que ν1 es proporcional a la energı́a E1 del cuanto asociado a la radiación (como
lo sugiere el efecto fotoeléctrico), la dependencia de E1 con θ es cualitativamente similar a la dependencia angular
de la energı́a de una partı́cula dispersada por otra partı́cula. Por supuesto esta dispersión debe ser relativista,
puesto que los fotones son eminentemente relativistas.
El procedimiento de Compton fué en consecuencia, combinar la teorı́a de la dispersión clásica relativista entre
particulas con la relación frecuencia energı́a asumida para el cuanto de radiación (fotón) en el efecto fotoeléctrico.
Consideremos entonces un cuanto o paquete localizado asociado a la radiación electromagnética (rayos X en este
caso), en la cual se cumple la relación
E = hν (2.2)
donde además el momento lineal del fotón es p. La energı́a total relativista de una partı́cula de masa en reposo
m0 es
m0 c2
E=q (2.3)
2
1 − vc2
y dado que la velocidad del fotón es c, su masa en reposo debe ser nula. Por tanto, su energı́a E es totalmente
cinética. Adicionalmente, la relación entre el momento lineal y la energı́a de una partı́cula relativista está dada
por
2
E 2 = p2 c2 + m0 c2 (2.4)
puesto que m0 = 0 para el fotón, esta relación se convierte en

E hν h
p= = = (2.5)
c c λ
Ahora bien, puesto que la frecuencia ν1 donde se obtiene un pico de intensidad (ν1 < ν0 ) de la radiación
dispersada, es independiente del material de la hoja metálica, es razonable suponer que en la dispersión no participa
el átomo completo. En consecuencia, otra de las suposiciones fundamentales de Compton, fué que los fotones se
dispersaban en virtud de las colisiones entre éstos y los electrones libres en la lámina, que están inicialmente en
reposo. Esta suposición es razonable si tenemos en cuenta que un cuanto de rayos X tiene una energı́a mayor
114 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

en varios órdenes de magnitud a la energı́a de un cuanto de luz ultravioleta, y teniendo en cuenta que a su vez
el efecto fotoeléctrico sugiere que la energı́a de un cuanto de luz ultravioleta, es comparable con la energı́a de
ligadura del electrón en el metal.
Consideraremos entonces una colisión entre un fotón y un electrón libre en reposo. Por simplicidad elegimos el
eje X a lo largo del momento lineal incidente p0 del fotón localizado. Denotaremos como (E0 , p0 ) a la energı́a y la
magnitud del momento lineal del fotón incidente, (E1 , p1 ) serán la energı́a y el momento lineal del fotón dispersado
en un ángulo θ (con respecto a X). Finalmente, (T, p) son la energı́a cinética y el momento lineal del electrón
dispersado en un ángulo φ con respecto al eje X. La conservación del momento lineal en X nos dice que

p0 = p1 cos θ + p cos φ (2.6)

y la conservación del momento lineal en Y nos dice que

p1 sin θ = p sin φ (2.7)

elevando al cuadrado ambas ecuaciones se obtiene

(p0 − p1 cos θ)2 = p2 cos2 φ ; p21 sin2 θ = p2 sin2 φ

y sumando estas expresiones, obtenemos

p20 + p21 − 2p0 p1 cos θ = p2 (2.8)

por otro lado, aplicando la conservación de la energı́a total relativista antes y después de la dispersión, se tiene
que

E0 + m0 c2 = E1 + T + m0 c2 ⇒
E0 − E1 = T

donde m0 es la masa en reposo del electrón. Aplicando la relación (2.5), que es válida solo para el fotón, se
encuentra que
c (p0 − p1 ) = T (2.9)
Adicionalmente, aplicando la relación (2.4), al electrón dispersado tenemos que
2 2
T + m0 c2 = p2 c2 + m0 c2 ⇒ T 2 + 2T m0 c2 = p2 c2
T2
+ 2T m0 = p2 (2.10)
c2
sustituyendo p2 y T de las Ecs. (2.8, 2.9) en la Ec. (2.10) resulta

c2 (p0 − p1 )2
+ 2c (p0 − p1 ) m0 = p20 + p21 − 2p0 p1 cos θ ⇒ −2p0 p1 + 2m0 c (p0 − p1 ) = −2p0 p1 cos θ ⇒
c2
(p0 − p1 ) 1
m0 c (p0 − p1 ) = p0 p1 (1 − cos θ) ⇒ = (1 − cos θ) ⇒
p0 p1 m0 c
 
1 1 1
− = (1 − cos θ)
p1 p0 m0 c

multiplicando por h y usando la relación (2.5) para el fotón, queda finalmente

h
(λ1 − λ0 ) = λC (1 − cos θ) ; λC ≡ ≃ 0,02426 × 10−8 cm (2.11)
m0 c
2.4. ESPECTROSCOPÍA, ESTABILIDAD DEL ÁTOMO Y TEORÍA DE BOHR 115

donde λC se denomina la longitud de onda de Compton. La Ec. (2.11) se conoce como ecuación de Compton.
Esta ecuación predice que el aumento en la longitud de onda asociada al segundo pico de resonancia con respecto a
la longitud de onda incidente, depende solamente del ángulo de dispersión y de la constante universal λC , pero es
independiente del material de la hoja metálica y de la longitud de onda incidente. La corroboración experimental
fué realizada por diversos autores tales como Bothe, Wilson, Geiger, y Bless entre los años 1923 y 1927.
Este experimento además de dar una prueba convincente de la existencia del cuanto de radiación (fotón),
muestra que éste puede comportarse como partı́cula en un experimento de dispersión. Vimos anteriormente que
el efecto fotoeléctrico también proporciona evidencia de la existencia de los cuantos, que además se suponen
localizados como las partı́culas. A priori pareciera darse un retroceso a una imagen corpuscular de la radiación. No
obstante, la radiación electromagnética tiene ciertas propiedades como la difracción, que solo puede ser explicada
en términos de movimiento ondulatorio. Esto nos conduce a considerar que en la radiación electromagnética
el comportamiento ondulatorio y corpuscular coexisten, fenómeno que se conoce como dualidad onda-partı́cula.
Experimentos posteriores nos permitirán profundizar sobre esta naturaleza dual en el mundo microscópico.

2.4. El problema espectroscópico, la estabilidad del átomo y la teorı́a de


Bohr
Con el advenimiento del modelo atómico de Rutherford, en el cual el átomo estaba constituı́do por un pequeño
núcleo de carga positiva con la carga negativa (electrones) orbitando en la periferia, surge el problema de la
estabilidad del átomo. Esto debido a que la electrodinámica clásica predice que una carga acelerada radı́a emitiendo
energı́a. Por tanto, los electrones al orbitar deberı́an radiar perdiendo energı́a y provocando el colapso del electrón
hacia el núcleo. El hecho de que la estructura atómica fuese estable constituyó entonces un reto para la Fı́sica de
principios del siglo XX.
Por otra parte, surgı́a el problema de la discretización de los espectros atómicos. No entraremos en detalles sobre
los montajes experimentales para medir estos espectros. Mencionaremos simplemente, que cuando una descarga
eléctrica atraviesa una región que contiene un gas monoatómico las colisiones de los átomos con los electrones
y con otros átomos hacen que los átomos adquieran una energı́a mayor que la normal. Al regresar a su estado
normal, los átomos liberan la energı́a excedente en forma de radiación electromagnética, la cual está compuesta
por ondas de diferente longitud de onda. La observación de estas longitudes de onda que componen a la radiación
(lı́neas espectrales) mostró que la radiación electromagnética emitida por un átomo libre consiste solo de ciertas
longitudes de onda, es decir el espectro es discreto2 . Adicionalmente, se observó que cada tipo de átomo tiene
su propio espectro, es decir un conjunto caracterı́stico de longitudes de onda, hecho que es de gran importancia
práctica.
Ahora bien, el espectro del átomo de Hidrógeno es relativamente simple en virtud de la simplicidad de su
estructura atómica. En dicho espectro se observa que la distancia en longitudes de onda de dos lı́neas contiguas
decrece al disminuir la longitud de onda de las lı́neas hasta llegar a una lı́nea lı́mite de convergencia que denotamos
por λ∞ = 3645,6 A. La regularidad y simplicidad de este espectro llevó a buscar fórmulas empı́ricas que revelaran
el patrón de longitudes de onda del espectro de emisión. Adicionalmente, se observó que la estructura de las lı́neas
espectrales para átomos alcalinos (con un solo electrón en la capa externa), obedece a un patrón similar. Después
de muchos análisis se encontró que en términos del número de onda k = λ−1 la fórmula empı́rica
 
1 1
k=R −
(m − a)2 (n − b)2

describı́a muy bien la distribución de lı́neas espectrales de los átomos alcalinos, donde R, a y b son constantes
propias del elemento, en tanto que m y n son enteros positivos. La constante R es conocida como constante de
2
Esto contrasta por ejemplo, con el espectro contı́nuo de la radiación electromagnética emitida por la superficie de los sólidos a alta
temperatura.
116 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

Rydberg. Para el átomo de Hidrógeno en particular, se tiene que a = b = 0 y R ≡ RH = 109677,576 cm−1 y se


escribe  
1 1
k = RH − , n>m (2.12)
m2 n 2

las series de números de onda fueron clasificadas de acuerdo a valores fijos de m. Hablamos entonces de la serie
de Lyman (m = 1), serie de Balmer (m = 2), Paschen (m = 3), Brackett (m = 4) y Pfund (m = 5).
Hemos descrito el espectro de emisión. No obstante, también existe el espectro de absorción, para el cual
se usa una fuente que emite un espectro contı́nuo cuya radiación se hace incidir sobre un recipiente de vidrio que
contiene el gas monoatómico que se desea investigar. Al medir el espectro que emite el gas monoatómico después
de haber absorbido la radiación contı́nua, se observa que el espectro es contı́nuo pero faltan algunas lı́neas muy
especı́ficas, y que corresponden a las lı́neas del espectro que han sido suprimidas del espectro contı́nuo emitido
por la fuente, y que debieron ser absorbidas por los átomos del gas. Se observó que para cada elemento, a cada
lı́nea del espectro de absorción le corresponde una lı́nea en el espectro de emisión, pero lo recı́proco no es cierto:
solo ciertas lı́neas de emisión se manifiestan en el espectro de absorción. En el espectro de absorción del átomo de
Hidrógeno, normalmente solo aparecen las lı́neas correspondientes a la serie de Lyman; pero cuando el gas está a
muy alta temperatura (por ejemplo en la superficie de una estrella), se observan las lı́neas de la serie de Balmer
en el espectro de absorción.

2.4.1. La teorı́a de Bohr


Los postulados que describiremos a continuación, enunciados por Niels Bohr en 1913, permitieron dar cuenta
razonablemente de los siguientes fenómenos: (a) La estabilidad del átomo, (b) La naturaleza discreta de los
espectros de emisión y absorción, (c) La descripción especı́fica del espectro del átomo de Hidrógeno, (d) La
diferencia entre el espectro de absorción y el de emisión. Tales postulados fueron los siguientes:

1. En el átomo, un electrón se mueve en una órbita circular alrededor del núcleo, bajo la influencia de la
interacción coulombiana entre el núcleo y el electrón, y obedeciendo a las leyes de la mecánica clásica.

2. De la infinidad de órbitas clásicamente permitidas, el electrón solo puede moverse en aquellas para las cuales
el momento angular orbital L es un multiplo entero de la cantidad ~ ≡ h/2π. Esto es

L = n~ = nh/2π , n = 1, 2, 3, . . . (2.13)

3. A pesar de que el electrón está en permanente aceleración, se mueve en una órbita permitida sin radiar
energı́a electromagnética, de modo que su energı́a total E, permanece constante.

4. Un electrón emite energı́a electromagnética, solo cuando se mueve de una órbita permitida (con energı́a Ei )
a otra órbita permitida (con energı́a Ef ), de manera discontı́nua. La frecuencia de la radiación permitida
está dada por
Ei − Ef
ν= (2.14)
h

Con estos postulados, Bohr da cuenta de la estabilidad del átomo e introduce la cuantización del momento
angular, en contraste con los postulados de cuantización antes descritos, los cuales involucran la cuantización de
la energı́a.
Nótese que el cuarto postulado Ec. (2.14) está ı́ntimamente relacionado con el postulado de Einstein, ya que
E = Ei − Ef es la energı́a del cuanto (fotón) que se emite, y por tanto E = hν.
2.4. ESPECTROSCOPÍA, ESTABILIDAD DEL ÁTOMO Y TEORÍA DE BOHR 117

2.4.2. Predicciones de la teorı́a de Bohr para átomos con un electrón


Vamos a estudiar el caso de un átomo de masa M y carga +Ze, con un electrón de masa m y carga −e. Este
es el caso del Hidrógeno (Z = 1), el helio ionizado He+ (Z = 2), el litio doblemente ionizado Li++ (Z = 3), etc.
Supongamos que el electrón se mueve en trayectoria circular alrededor del núcleo. Por simplicidad, asumiremos
que el núcleo permanece fijo en un sistema de referencia inercial, lo cual es razonable teniendo en cuenta que la
masa del núcleo es mucho mayor que la del electrón. La condición de estabilidad de esta órbita circular es que la
fuerza coulombiana iguale a la fuerza centrı́peta necesaria para mantener la trayectoria circular.
Ze2 v2
= m (2.15)
r2 r
siendo v la rapidez del electrón y r el radio del cı́rculo. El momento angular está dado por

L = mvr

aplicando la condición de cuantización Ec. (2.13), se tiene que


n~
mvr = n~ ⇒ v = , n = 1, 2, 3, 4, . . . (2.16)
mr
y sustituyendo esta rapidez en la Ec. (2.15) queda
n2 ~2 n2 ~2
Ze2 = mrv 2 = mr =
m2 r 2 mr
despejando r vemos que el radio estarı́a también cuantizado
n2 ~2
r= ; n = 1, 2, 3, 4, . . . (2.17)
mZe2
reemplazando (2.17) en (2.16) tenemos
n~ 1 n~ mZe2 Ze2
v= = = ; n = 1, 2, 3, 4, . . . (2.18)
mr m n2 ~2 n~
vemos que tanto la velocidad como el radio están cuantizados como consecuencia de la cuantización del momento
angular. Similarmente es fácil ver que los postulados de Bohr también conducen a la cuantización de la energı́a.
Para verlo, tendremos en cuenta que la energı́a potencial coulombiana está dada por
Ze2
V =−
r
donde el menos se debe a la naturaleza atractiva de la interacción. Por otro lado, la energı́a cinética (no-relativista)
se puede calcular empleando la Ec. (2.15)
1 Ze2
T = mv 2 = (2.19)
2 2r
sumando estas dos energı́as y empleando la Ec. (2.17) la energı́a total queda
Ze2 Ze2 mZe2
E = T +V =− = −T = −
2r 2 n2 ~2
mZ 2 e4
E = − ; n = 1, 2, 3, 4, . . . (2.20)
2n2 ~2
cuando se calcula el radio de la órbita menor (n = 1), empleando los valores numéricos apropiados (con Z = 1)
en la Ec. (2.17) se obtiene
~2
r0 = ≡ a0 ≈ 0,53 × 10−10 m (2.21)
me2
118 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

es claro de la Ec. (2.17) que este es el menor radio posible. Adicionalmente, este valor concuerda de forma
razonable con las predicciones para el modelo atómico de Rutherford. Ası́ mismo, la Ec. (2.20) nos dice que
cuando n = 1 obtenemos el estado de menor energı́a, de modo que n = 1 corresponde al estado base o estado
normal del átomo de Hidrógeno. El valor del radio para este estado de menor energı́a se denomina radio de
Bohr. Finalmente, la velocidad del electrón es máxima cuando n = 1 como se aprecia en la Ec. (2.18). Tomando
Z = n = 1 y los valores numéricos apropiados en la Ec. (2.18) esta velocidad está dada por

v ≈ 2,2 × 106 m/seg < 0,01c

como esta velocidad es menos del uno por ciento de la velocidad de la luz, se espera que una descripción no-
relativista sea adecuada, esto es además consistente con la suposición no-relativista dada en la Ec. (2.19). Sin
embargo, la descripción no-relativista deja de ser adecuada para valores grandes de Z.
Por otra parte, se observa que al incrementarse el número cuántico a partir del estado base n = 1, la energı́a
se hace menos negativa, y por tanto se incrementa. Claramente, E = 0 es una energı́a lı́mite (asociada a n → ∞),
y los estados de energı́a se aproximan arbitrariamente a E = 0 cuando n crece. En consecuencia, los estados
permitidos son todos de energı́a negativa. Esto se debe a que energı́as mayores que cero, corresponden a electrones
libres que ya no están ligados al átomo, y en estado libre la energı́a de los electrones corresponde a un espectro
contı́nuo. Es de enfatizar sin embargo, que la teorı́a de Bohr solo nos habla de electrones ligados a un átomo.
Queda entonces por calcular las frecuencias permitidas para la radiación emitida, para lo cual apelamos al
cuarto postulado Ec. (2.14) que combinado con la Ec. (2.20) conduce a
" #
Ei − Ef mZ 2 e4 1 1
ν= = − 2 (2.22)
h 4π~3 n2f ni

que en términos del número de onda k = λ−1 = ν/c nos da


" #
1 1 me4 2
k = RH − 2 ; RH ≡ Z (2.23)
n2f ni 4πc~3

expresión que coincide con la fórmula empı́rica (2.12), en donde una evaluación numérica de la constante RH
en la Ec. (2.23), coincidia razonablemente con el valor numérico que se habı́a obtenido empı́ricamente RH ≃
109677,576 cm−1 . La teorı́a de Bohr nos dice entonces que existe una energı́a asociada al estado base o de mı́nima
energı́a para el electrón, que corresponde a n = 1. En una descarga eléctrica el átomo puede absorber energı́a y
generar una transición a un estado de energı́a mayor o estado excitado con n > 1. Una vez excitado, el átomo
emitirá este exceso de energı́a para regresar al estado base. En general, esta desexcitación se logra mediante una
serie de transiciones en las que el electrón pasa sucesivamente por estados de energı́a cada vez más baja hasta llegar
al estado base. En cada transición se emitirá radiación electromagnética con frecuencias dadas por la Ec. (2.22).
Por ejemplo, un electrón puede ser excitado al estado con n = 6, y pasar sucesivamente por los estados n = 4, 2, 1
emitiendo tres lı́neas del espectro atómico, con frecuencias dadas por (2.22). En la infinidad de excitaciones y
desexcitaciones de todos los átomos que se efectúan en la medida del espectro de emisión, se presentan todas las
transiciones posibles y por tanto se exhibe el espectro completo.
Estas predicciones fueron corroboradas experimentalmente para el hidrógeno (Z = 1) y para el He+ (Z = 2).
Ası́ mismo, la teorı́a puede explicar el espectro de absorción para átomos con un electrón. Ya que solo ciertas
transiciones son posibles, el átomo solo absorberá cantidades discretas de energı́a de la radiación incidente. La
radiación incidente consiste de haces de cuantos de todas las frecuencias, en donde solo los fotones con frecuencias
dadas por (2.22) pueden ser absorbidos. No obstante, los átomos en general están inicialmente en el estado base
n = 1, de manera que solo pueden presentarse procesos de absorción de n = 1 a n > 1, razón por la cual se
observarán normalmente solo las lı́neas asociadas a la serie de Lymann en el caso del Hidrógeno. Cuando el gas
está a una temperatura elevada, es posible que algunos átomos estén inicialmente en el primer estado excitado
n = 2 de modo que también serán observables las lı́neas de la serie de Balmer. La temperatura necesaria para
2.5. LAS REGLAS DE CUANTIZACIÓN DE WILSON Y SOMMERFELD 119

que exista una población razonable de átomos en el estado n = 2 se puede calcular utilizando la estadı́stica de
Boltzmann, vemos que una fracción 1/e de los átomos estará en el estado n = 2 para temperaturas del orden
de 105 K, temperatura tı́pica de algunas superficies estelares. En consecuencia, la teorı́a de Bohr puede también
explicar la diferencia entre el espectro de absorción y el de emisión.
Todas las predicciones de la teorı́a de Bohr, se ajustan aún mejor cuando se tiene en cuenta la corrección de
que la masa nuclear es finita y se realiza la reducción del problema de dos cuerpos al problema de un cuerpo con
masa igual a la masa reducida del sistema (ver sección 12.1). Posteriormente, la cuantización de los estados de
energı́a de los electrones en el átomo fué corroborada por los experimentos de Franck y Hertz.

2.5. Las reglas de cuantización de Wilson y Sommerfeld


En las descripciones anteriores, vemos que las cuantizaciones introducidas hasta el momento obedecen a pro-
blemas fenomenológicos a priori diferentes y cada proceso de cuantización se ha introducido para cada fenómeno
especı́fico. Las reglas de cuantización de Wilson y Sommerfeld constituyen un intento de unificar al menos par-
cialmente estos diversos postulados de cuantización.
Una primera observación es el hecho de que la cuantización de la energı́a de Planck está asociada a oscila-
dores armónicos y la de Bohr está asociada a órbitas circulares regulares. Es decir, ambas están asociadas a un
movimiento periódico. En mecánica clásica, los movimientos periódicos son particularmente transparentes en la
formulación de Hamilton-Jacobi de la mecánica clásica, particularmente en la variante conocida como variables
acción-ángulo. Por esta razón, la formulación que veremos a continuación está basada en el formalismo de las
variables acción ángulo.
La regla de cuantización de Wilson y Sommerfeld se enuncia de la siguiente manera: Sea q una coordenada
generalizada de un sistema fı́sico que varı́a periódicamente con el tiempo, y sea pq su momento canónicamente
conjugado. Este par de variables canónicas q y pq obedecen a la siguiente regla de cuantización
I
pq dq = nq h (2.24)

siendo nq un número cuántico entero y la integral cerrada se efectúa sobre un periodo de movimiento. Nótese
que el producto de una coordenada generalizada por su momento conjugado siempre tiene unidades de momento
angular, y por eso la cuantización está directamente relacionada con la constante de Planck, la cual tiene unidades
de momento angular. Veremos que la cuantización de Bohr y de Planck surgen como casos especiales de esta regla
de cuantización, y que además permite ampliar el dominio de la mecánica cuántica.
Sin embargo, es necesario aclarar que la regla de Wilson y Sommerfeld no puede explicar la cuantización de
Einstein o Compton, puesto que en estos casos los cuantos son esencialmente libres y no poseen un movimiento
periódico.

2.5.1. El átomo de Bohr bajo las reglas de Wilson y Sommerfeld


Retomemos el átomo de Bohr con un electrón de masa m en una órbita circular de radio r0 con velocidad
constante. Usaremos la coordenada generalizada θ (la coordenada r no es independiente de modo que no se
incluye como coordenada generalizada), la coordenada θ es claramente periódica si consideramos que la rapidez
del electrón es uniforme. El momento canónicamente conjugado a θ es el momento angular orbital L = mr02 θ̇, y
dado que θ̇ = cte por ser periódico el movimiento, vemos que el momento angular es una constante de movimiento.
Al aplicar la regla de cuantización (2.24) a q = θ y pq = L tenemos
I
nh
L dθ = 2πL = nq h ⇒ L = = n~

que reproduce la regla de cuantización de Bohr.


120 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

2.5.2. Cuantización de Planck con las reglas de Wilson y Sommerfeld


Consideremos un oscilador armónico simple de masa m, frecuencia angular ω = 2πν y amplitud x0 . La
coordenada generalizada x es periódica y viene dada por3
x = x0 sin 2πνt = x0 sin ωt
el momento canónicamente conjugado a x es p = mẋ, de modo que
p = mx0 ω cos ωt (2.25)
y la regla de cuantización (2.24) nos da
I I
p dx = mx0 ω cos ωt dx = nh (2.26)

para poder evaluar esta integral debemos expresar cos ωt en función de x


 x20 − x2
x2 = x20 sin2 ωt = x20 1 − cos2 ωt ⇒ cos2 ωt =
x20
p
x20 − x2
cos ωt = ± (2.27)
x0
es claro que el signo de cos ωt (que es el signo del momento p de acuerdo con la Ec. 2.25), viene dado por el sentido
instantáneo de movimiento. Vamos a expresar el movimiento periódico completo partiendo del origen hacia la
derecha y llegando de nuevo al origen desde la izquierda. En la primera etapa desde cero hasta x0 , la velocidad (y
por tanto cos ωt) es positiva. Desde x0 hasta cero cos ωt es negativo, al igual que desde cero hasta −x0 . Finalmente
cos ωt ≥ 0 en el intervalo desde −x0 hasta cero. Tenemos entonces
I Z x0 Z 0 Z −x0 Z 0
cos ωt dx = |cos ωt| dx + (− |cos ωt|) dx + (− |cos ωt|) dx + |cos ωt| dx
0 x0 0 −x0
Z x0 Z x0 Z −x0 Z −x0
= |cos ωt| dx + |cos ωt| dx − |cos ωt| dx − |cos ωt| dx
0 0 0 0
Z x0 p Z −x0 p
x20 − x2 x20 − x2
= 2 dx − 2 dx
0 x0 0 x0
donde hemos usado la Ec. (2.27) en el último paso. Haciendo x′ = −x en la segunda integral se tiene
I Z x0 p 2 Z x0 p 2
x0 − x2 x0 − x′2 
cos ωt dx = 2 dx − 2 −dx′
0 x0 0 x0
y siendo x′ variable muda, ambas integrales son idénticas de modo que
I Z x0 p 2 " p #x0
x0 − x2 4 x x20 − x2 x20 x
cos ωt dx = 4 dx = + arcsin = 2x0 (arcsin 1 − arcsin 0) = πx0
0 x0 x0 2 2 x0
0
con lo cual la integral en (2.26) queda
I
2π mω 2 x20 1 mω 2 x20
p dx = πmωx20 = =
ω 2 ν 2
ahora bien, recordando que la energı́a total del oscilador armónico es igual a la energı́a potencial máxima E =
(1/2) mω 2 x20 (ya que en la posición de máxima elongación no hay energı́a cinética), y usando la regla de cuantización
(2.26), tenemos que I
E
p dx = = nh ⇒ E = nhν
ν
que es la regla de cuantización de Planck.
3
Naturalmente puede haber una fase, pero esto no es relevante para nuestros propósitos.
2.5. LAS REGLAS DE CUANTIZACIÓN DE WILSON Y SOMMERFELD 121

2.5.3. La teorı́a relativista de Sommerfeld y la estructura fina del átomo de Hidrógeno


Por medio de espectrómetros de gran resolución, fué posible determinar que los átomos poseen una estructura
fina en su espectro. En particular, la estructura fina del átomo de Hidrógeno poseı́a una separación en componentes
de una misma lı́nea espectral, unas 104 veces menor que la separación entre lı́neas espectrales (en términos de
número de onda). Basado en la cuantización de Wilson y Sommerfeld, el último de éstos adicionó un postulado
de la siguiente forma: Lo que se suponı́a como un solo estado del átomo de Hidrógeno, consiste en realidad de
varios estados de energı́as aproximadamente iguales, asociados a órbitas elı́pticas de diferente excentricidad. Sin
embargo, el movimiento se sigue considerando periódico, de modo que las reglas de cuantización de Wilson y
Sommerfeld permanecen válidas.
En primer lugar, Sommerfeld evaluó las consecuencias de este postulado adicional en términos de la regla de
cuantización de Wilson y Sommerfeld en el marco de la mecánica clásica no-relativista. Utilizando coordenadas
polares r y θ, y teniendo en cuenta que r ya no es constante, entonces r y θ se considerarán coordenadas generali-
zadas con sus momentos canónicamente conjugados. Por tanto, habrá dos condiciones de cuantización, a diferencia
del caso de órbita circular en el cual hay solo una. Puesto que pr = mṙ las condiciones de cuantización quedan en
la forma I I
L dθ = nθ h ; pr dr = nr h

la primera condición nos provee de la regla de cuantización ya conocida del momento angular

L = nθ ~ , nθ = 1, 2, 3, . . .

en tanto que la segunda condición de cuantización queda en la forma


a 
L − 1 = nr ~ , nr = 0, 1, 2, 3, . . .
b
siendo a y b los semiejes mayor y menor de la elipse respectivamente.. La relación de estabilidad de la órbita
elı́ptica análoga a la Ec. (2.15) para órbita circular, conduce a las relaciones de cuantización para los semiejes y
la energı́a de los electrones en las órbitas elı́pticas
n2 ~2 nθ µZ 2 e4
a= 2
, b=a , E=− ; n ≡ nθ + nr , n, nθ = 1, 2, 3, . . . (2.28)
µZe n 2n2 ~2
donde µ es la masa reducida del electrón (es decir ya se tuvo en cuenta el efecto de masa finita del núcleo). El número
cuántico n se denomina número cuántico principal, puesto que la energı́a de los estados (en aproximación no-
relativista) solo depende de él. Por otro lado, nθ se conoce como número cuántico azimutal. Obsérvese que
el semieje mayor coincide con el radio de la órbita circular de Bohr, como se observa al comparar la primera de
las Ecs. (2.28) con la Ec. (2.17). Adicionalmente, la segunda de las Ecs. (2.28) muestra que la forma de la elipse
está determinada por el cociente nθ /n. Cuando n = nθ , las órbitas son cı́rculos de radio a y nos reducimos a las
órbitas de Bohr. Es fácil ver que para un n fijo, hay n valores diferentes para el número cuántico azimutal nθ . En
consecuencia, hay n órbitas elı́pticas (una de ellas es circular) asociadas a un mismo valor de la energı́a (la cual
solo depende de n), se dice entonces que las órbitas posibles para un n dado están degeneradas.
Por otra parte, el estimativo del orden de magnitud de la velocidad máxima de un electrón en una órbita
de Bohr, nos dió que v/c ≃ 10−2 . Esto implicarı́a que la corrección relativista a la energı́a total, debida a la
variación relativista de la masa electrónica sea del orden de (v/c)2 ≃ 10−4 , que a su vez es el orden de magnitud
de separación entre componentes de la misma lı́nea espectral (con respecto a la separación de las lı́neas). Esto
sugiere que la degeneración pueda removerse aplicando la corrreción relativista al modelo. Una vez hechas tales
consideraciones, Sommerfeld encontró la siguiente expresión para la energı́a total de un electrón que se mueve en
una órbita elı́ptica caracterizada por los números cuánticos n y nθ
  
µZ 2 e4 α2 Z 2 1 3
E =− 2 2 1+ −
2n ~ n nθ 4n
122 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

donde la constante adimensional α se define como


e2 1
α≡ ≃
~c 137
la dependencia con nθ de la corrección relativista, introduce la remoción de la degeneración necesaria para explicar
la estructura fina del átomo de Hidrógeno. No obstante, existı́an algunas transiciones que no se observaban
experimentalmente. Por ejemplo, una transición del estado (n, nθ ) = (3, 2) al estado (1, 1) es posible. Pero la
transición del estado (3, 3) al estado (1, 1) no se observa en un solo paso. Sin embargo, la última transición (que
nos lleva al estado base) se puede hacer en dos transiciones directas que sı́ están permitidas: (3, 3) → (2, 2) → (1, 1).
Las observaciones experimentales nos llevan a la siguiente regla  de selección: Una transición entre dos estados
caracterizados por los números cuánticos (ni , nθi ) y nf , nθf solo es posible si se cumple la condición

nθi − nθf = ±1

esta regla de selección debe ser postulada por aparte en la teorı́a relativista de Sommerfeld.

2.6. Los postulados de De Broglie


Los modelos de Einstein y Compton sugerı́an que la radiación (fotones) podı́a tener comportamiento de partı́cu-
la. Esencialmente, la naturaleza corpuscular de la radiación se manifiesta en la interacción radiación materia (al
menos a nivel microscópico), en tanto que el patrón ondulatorio se manifiesta en la forma en que la radiación se
propaga.
Ahora bien, si la radiación puede tener comportamiento corpuscular, es natural apelar a un principio de
simetrı́a y preguntarse si las partı́culas (la materia) pueden exhibir comportamiento ondulatorio. Este principio
de simetrı́a fué el que introdujo de Broglie en 1924. Puesto que el comportamiento ondulatorio de las partı́culas
no se habı́a observado, era necesario que las predicciones sobre la longitud de la onda asociada a la partı́cula (que
De Broglie llamó onda piloto), fuesen mucho menores que todas las dimensiones tı́picas de la mayorı́a de objetos
materiales.
Para estimar la longitud de las ondas piloto asociadas a una partı́cula, De Broglie supuso que la relación entre
la energı́a total relativista E y la frecuencia ν de esta onda, era idéntica a la relación de Einstein para la radiación
electromagnética
E
ν= (2.29)
h
y que la longitud de onda λ se puede calcular con la relación usual entre λ, ν y la velocidad w de propagación de
la onda
w
λ= (2.30)
ν
para la radiación electromagnética w = c, y por tanto
c hc
λ= = (2.31)
ν E
adicionalmente, la Ec. (2.5) nos dice que el momento lineal de un fotón es p = E/c, de modo que λ queda en la
forma
h
λ= (2.32)
p
En sı́ntesis, De Broglie postuló que las Ecs. (2.32, 2.29), que hasta aquı́ eran válidas solo para fotones, también
nos dan la longitud de onda y la frecuencia de las ondas piloto asociadas a una partı́cula de momento lineal p y
energı́a relativista E, de modo que
h E
λ= ; ν= (2.33)
p h
2.6. LOS POSTULADOS DE DE BROGLIE 123

nótese que la derivación de la Ec. (2.32) provino de hacer w = c en la Ec. (2.30), lo cual no es válido para partı́culas
con masa diferente de cero, al menos si suponemos que la velocidad de la onda está relacionada con la velocidad
de la partı́cula. Sin embargo, la relación (2.32) es independiente de la velocidad de la onda y fué la relación que
De Broglie extrapoló para partı́culas.

2.6.1. Propiedades de las ondas piloto


Es de esperarse que la velocidad de la onda piloto sea la velocidad de la partı́cula, o al menos que haya una
relación simple entre las dos. Combinando las Ecs. (2.30, 2.33) vamos a calcular la velocidad de propagación w de
las ondas piloto asociadas a la partı́cula
Eh E
w = νλ = = (2.34)
hp p
y utilizando la expresión para la energı́a total relativista tenemos
q q
2
2 2
c p + (m0 c ) 2 c p2 + (m0 c)2
w = =
p p
s  2
m0 c
w = c 1+ (2.35)
p

observamos que w es mayor que c. No obstante, esto no supone una contradicción ya que w está asociado a

Figura 2.1: Apariencia de una onda piloto, asociada a una partı́cula. Puesto que suponemos que una partı́cula está
localizada, su paquete de onda asociado debe estar también localizado. El perfil ψ (x, t) del paquete, se dibuja aquı́
para una configuración instantánea evaluada en t = t0 .

la velocidad de fase de las ondas piloto. Es de esperarse que el perfil instantáneo de una onda piloto tenga una
apariencia similar a la mostrada en la Fig. 2.1. Es decir, la onda piloto debe tener un valor distinto de cero solo
en cierta vecindad espacial, ya que es lógico que la localización de la onda piloto esté asociada a la localización
de la partı́cula. Para formar un pulso de ondas como el de la Fig. 2.1 es necesario superponer un número infinito
de ondas monocromáticas, constituyendo un paquete de ondas. Para dicho paquete, debe distinguirse entre la
velocidad de fase w y la velocidad de grupo wg , del paquete4 . Es posible demostrar que estas velocidades vienen
4
Las caracterı́sticas de un paquete de ondas, su velocidad de fase y de grupo, serán consideradas en detalle en las secciones 2.11 y
2.13.
124 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

dadas por
ν dν
w= ; wg =
k dk
además, es la velocidad de grupo la que no debe superar a la velocidad de la luz, es decir la que está asociada a
los fenómenos de transporte. Calculemos entonces la velocidad de grupo de las ondas piloto de una partı́cula en
movimiento. Partimos de las Ecs. (2.33)
E 1 p
ν= ; k≡ =
h λ h
por tanto

dE dp
dν = ; dk =
h h
dν dE
wg = = (2.36)
dk dp

utilizando de nuevo la expresión relativista de la energı́a, tenemos


2
E2 = c2 p2 + m0 c2 ⇒ 2E dE = 2pc2 dp
dE p
⇒ = c2 (2.37)
dp E

reemplazando (2.37) en (2.36) se tiene


p
wg = c2 (2.38)
E
y teniendo en cuenta las expresiones relativistas

1
E = m0 γc2 , p = m0 γvp ; γ≡q (2.39)
vp2
1− c2

donde vp es la velocidad de la partı́cula y m0 su masa en reposo. Sustituyendo (2.39) en (2.38), se obtiene


m0 γvp
wg = c2 = vp (2.40)
m0 γc2

de modo que la velocidad de grupo, que es la que contiene las propiedades de propagación de la onda, es igual a la
velocidad de la partı́cula, mostrando la consistencia de los postulados de De Broglie. Por otro lado, las Ecs. (2.34,
2.38) nos dicen la relación que hay entre la velocidad de fase y la velocidad de grupo (o velocidad de la partı́cula)

c2 c2
w= =
wg vp

nótese que si usáramos las Ecs. (2.31, 2.29), en lugar de las Ecs. (2.32, 2.29) obtendrı́amos

ν E hc dν dE/h
w= = νλ = =c ; wg = = =c
k h E dk dE/hc

relación que solo es válida para cuantos que se mueven a la velocidad de la luz. Ya habı́amos enfatizado que la
Ec. (2.32) se obtenı́a usando w = c en la Ec. (2.30), lo cual solo era válido para la radiación. Sin embargo, la Ec.
(2.32) era independiente de la velocidad, y por esa razón se podı́a extrapolar a partı́culas materiales. En contraste,
la Ec. (2.31) depende explı́citamente de la velocidad c, y no puede ser extrapolada directamente.
2.6. LOS POSTULADOS DE DE BROGLIE 125

2.6.2. Corroboración experimental de los postulados de De Broglie


Para poder medir experimentalmente la longitud de la onda piloto asociada a una partı́cula, debemos encontrar
un sistema para el cual λ = h/p sea del orden de magnitud de las dimensiones caracterı́sticas de dicho sistema.
Consideremos primero una partı́cula de polvo con radio tı́pico r y densidad ρ que se mueve con una velocidad no
relativista v. Utilizando valores tı́picos tomaremos

r = 10−4 cm , ρ = 10gr/cm3 , v = 1cm/seg , h = 6,62 × 10−27 erg − seg

de modo que

4 3
p = mv = πr ρv ≃ 4 × 10−11 gr − cm − seg−1
3
h 6,62 × 10−27 gr − cm2 − seg−2 − seg
λ = = ≃ 1,6 × 10−16 cm
p 4 × 10−11 gr − cm − seg−1

esta longitud es ¡108 veces menor que un radio atómico!. Por tanto, no es viable para una exploración experimental.
Consideremos ahora un electrón cuya energı́a sea del orden de 10eV = 1,6 × 10−11 ergs, esta es aproximada-
mente, la energı́a cinética de un electrón en el átomo de Hidrógeno. Para esta energı́a cinética la velocidad es
mucho menor que c y se puede considerar no relativista. Por tanto, si asumimos un electrón libre no relativista
con esta energı́a, su impulso viene dado por la expresión no-relativista

p= 2mT ≃ 3,9 × 10−8 cm

esta longitud es casi un orden de magnitud mayor que un radio atómico tı́pico, y aproximadamente del orden de
magnitud de la distancia interatómica en un cristal5 . Esto sugiere que un electrón incidiendo en un cristal puede
presentar fenómenos de difracción, en donde las “rendijas” son los intersticios interatómicos. No describiremos
aquı́ los montajes experimentales que condujeron a la detección del patrón de difracción de los electrones. Basta
con decir que los experimentos de Davidson y Germer en 1927 tomaron el patrón de difracción de los electrones
que inciden en un cristal. El patrón anular de difracción de los electrones por cristales, no se puede atribuir a la
interferencia entre dos o más electrones distintos, sino a las ondas asociadas a un solo electrón y que provienen de
distintas partes del cristal. Esto se debe a que en el montaje experimental se empleó un haz de tan baja intensidad,
que los electrones son emitidos uno por uno, eliminando ası́ las posibles interferencias entre electrones distintos.

2.6.3. Las reglas de cuantización de Bohr a la luz de los postulados de De Broglie


Hemos visto que la longitud de la onda piloto de un electrón es aproximadamente λ ≃ 4 × 10−8 cm (asumiendo
que su energı́a cinética es aproximadamente la del electrón en el estado base del átomo de Hidrógeno). Por otro
lado, el radio de Bohr es la distancia tı́pica del electrón al núcleo en el estado base del átomo de Hidrógeno y está
dada por r0 ≃ 0,5 × 10−8 cm. En consecuencia, λ es casi un orden de magnitud mayor al radio de Bohr y por tanto,
es de esperarse que el comportamiento ondulatorio sea esencial en el entendimiento de las órbitas en el átomo
de Hidrógeno. Sin embargo, las consideraciones anteriores se realizaron para electrones libres que no repiten su
órbita periódicamente, razón por la cual su onda piloto asociada debı́a ser una onda viajera que acompañara a
la partı́cula en su propagación. Ahora bien, un electrón en una órbita atómica posee un movimiento periódico y
no posee una dirección neta de propagación6 , con lo cual esperarı́amos que su onda piloto asociada no tenga una
dirección neta de propagación. Esto nos conduce de manera natural a considerar que la onda piloto asociada a un
electrón en una órbita atómica periódica debe ser una onda estacionaria i.e. con nodos fijos.
5
Además, esta longitud de onda es muy grande con respecto a todas las dimensiones esperadas de la partı́cula asociada (el electrón).
6
Por ejemplo, si promediamos el vector r sobre un periodo completo, tomando como origen el núcleo atómico, dicho promedio es
nulo.
126 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

Veremos que la combinación de la regla de cuantización de Bohr junto con los postulados de De Broglie, nos
conducen a ondas piloto estacionarias. La regla de cuantización de Bohr Ec. (2.16) se escribe como
nh
mvr = pr = ; n = 1, 2, 3, . . .

siendo p el momento lineal del electrón en la órbita permitida de radio r. Al sustituir el momento lineal por el
primer postulado de De Broglie de la Ec. (2.33) tenemos
hr nh
= ; n = 1, 2, 3, . . .
λ 2π
2πr = nλ ; n = 1, 2, 3, . . . (2.41)

de manera que el perı́metro de las órbitas permitidas es un múltiplo entero de longitudes de onda de De Broglie.
La Ec. (2.41) es precisamente la condición para que las ondas piloto del electrón que se mueve repetidamente sobre
su órbita, se combinen coherentemente con las ondas piloto de recorridos anteriores, de modo que la superposición
forme una onda estacionaria. De hecho, si se violara la condición (2.41), entonces cuando se superpongan las ondas
asociadas a un gran número de recorridos, su interferencia será destructiva y se cancelará su intensidad promedio.
Puesto que la intensidad de la onda piloto es una medida de la ubicación de la partı́cula, lo anterior implica que el
electrón no podrı́a estar en esa órbita. La Fig. 2.2 ilustra el patrón de intensidad ψ (x, t0 ) de la onda estacionaria
asociada a las tres primeras órbitas de Bohr, para un tiempo fijo t = t0 . Cuando el tiempo evoluciona cambia la
magnitud y el signo de los patrones oscilantes, pero la ubicación de los nodos es la misma en todo tiempo, ya que
éstos son fijos en una onda estacionaria.
Por otra parte, es posible demostrar que la exigencia de ondas piloto estacionarias para partı́culas en movimien-
to periódico, conduce a que dicha partı́cula deba satisfacer las reglas de cuantización de Wilson y Sommerfeld, Ec.
(2.24). Finalmente, las caracterı́sticas independientes del tiempo de la onda estacionaria permiten explicar porqué
el electrón en movimiento periódico orbital no emite radiación electromagnética.

2.7. Sı́ntesis de los resultados experimentales


Newton consideró que la luz era un haz de corpúsculos que podı́an reflejarse en un espejo cuando “rebotan”.
Sin embargo, los experimentos que mostraron fenómenos como la interferencia y la difracción, establecieron la
naturaleza ondulatoria de la luz a mediados del siglo XIX, lo cual permitió la fusión de la óptica con la electricidad
y el magnetismo. Los fenómenos de polarización de la luz pueden interpretarse como una manifestación del carácter
vectorial del campo eléctrico.
No obstante, el estudio de la radiación del cuerpo negro sugirió la hipótesis de la cuantización de la energı́a de
las ondas electromagnéticas estacionarias (osciladores armónicos) que se generaban al interior del cuerpo negro. La
energı́a de estos osciladores es de la forma E = nhν con n = 0, 1, 2, ...; siendo ν la frecuencia de cada oscilador. Esta
cuantización permite predecir adecuadamente el espectro de emisión del cuerpo negro empleando la estadı́stica de
Boltzmann. Por otra parte, el estudio del efecto fotoeléctrico sugirió que las ondas electromagnéticas libres que
se propagaban también estaban constituı́das por paquetes de energı́a que indican valores discretos de ésta. Cada
paquete denominado fotón tendrá una energı́a dada por E = hν. Esto permitió a Einstein comprender porqué
la energı́a máxima adquirida por los electrones era independiente de la intensidad de la onda electromagnética
incidente y porqué este energı́a se adquirı́a en tiempos tan cortos. Para ello era necesario además que el paquete
estuviera localizado en una pequeña región del espacio y que permaneciera localizado a medida que se aleja de la
fuente, a diferencia de las ondas clásicas que se extienden cuando se alejan de la fuente. Más adelante, mediante la
irradiación de una placa metálica con rayos X, compton muestra que estos cuantos pueden dispersarse mediante
la colisión con un electrón libre estacionario, emulando una colisión tipo “bolas de billar”. De esta forma pudo
predecir el pico en el espectro asociado a una longitud de onda mayor que la incidente.
En sı́ntesis, estos experimentos están mostrando la naturaleza discreta de la energı́a que se propaga en una onda
electromagnética y el hecho de que el cuanto asociado se puede comportar como partı́cula. Adicionalmente, tanto
2.7. SÍNTESIS DE LOS RESULTADOS EXPERIMENTALES 127

Figura 2.2: Patrones de onda estacionaria (lineas punteadas) asociados a las tres primeras órbitas de Bohr (lineas
continuas). El perfil se dibuja para una configuración instantánea evaluada en t = t0 .

la cuantización como la colisión de fotones con electrones libres pudo explicarse satisfactoriamente relacionando
los parámetros de partı́cula (energı́a E y momento p del fotón) con los parámetros de onda (frecuencia ν y número
128 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

de onda k del fotón) de la radiación, en la forma


h
E = hν ; p = ~k ; ~ ≡ ; h ≃ 6,62 × 10−34 Joul × seg (2.42)

De otra parte, los experimentos espectroscópicos nos muestran que la radiación emitida o absorbida debida
a transiciones electrónicas en los átomos, solo nos arroja cuantos con valores discretos de longitud de onda, y
por tanto de energı́a. Esto implica que los niveles de energı́a permitidos para un electrón ligado a un átomo
también están cuantizados. Lo anterior llevó a Bohr a postular la cuantización del momento angular asociado al
electrón junto con la hipótesis de ausencia de radiación, en contraste con las predicciones de la mecánica clásica.
La cuantización de los estados de energı́a atómicos fué corroborada por los experimentos de Franck y Hertz, en
tanto que las reglas de cuantización fueron perfeccionadas por Wilson y Sommerfeld.
Una vez caracterizada la dualidad onda partı́cula de la radiación, es natural preguntarse si esta dualidad está
también presente en los objetos fı́sicos que tradicionalmente llamamos materia, por ejemplo en los electrones. Esta
pregunta condujo a De Broglie a postular que el movimiento de una partı́cula está gobernado por la propagación
ondulatoria de ciertas ondas piloto asociadas con la partı́cula. Asumiendo que la energı́a E y el momento p de la
partı́cula también cumplen las relaciones (2.42) dadas para el fotón, De Broglie estimó la frecuencia y la longitud
de onda de las ondas piloto
λ = h/p ; ν = E/h (2.43)
Este postulado fué confirmado por los experimentos de Davidson y Germer sobre difracción de electrones.
Naturalmente, el momento y la energı́a totales se deben conservar en cada proceso, en donde los momentos y
energı́as de la radiación y la materia están dados por los postulados anteriores.
Vamos ahora a examinar en más detalle el experimento de Young de la doble rendija. Veremos que este análisis
aportará ideas adicionales con respecto al comportamiento de la naturaleza a nivel subatómico.

2.8. El experimento de Young de la doble rendija


Hemos visto que es necesario incorporar aspectos corpusculares al comportamiento de la radiación electro-
magnética, la pregunta es si debemos abandonar la teorı́a ondulatoria de la radiación electromagnética. Veremos
que no es posible con una teorı́a puramente corpuscular explicar todos los fenómenos relacionados con los fotones,
de manera que tendremos que incorporar tanto los aspectos ondulatorios como corpusculares de la radiación.
El dispositivo utilizado se muestra en la Fig. 2.3, y consiste en una fuente aproximadamente monocromática
frente a la cual se coloca una placa opaca P con dos rendijas pequeñas F1 y F2 (pequeñas con respecto a la longitud
de onda emitida), detrás de esta placa opaca se ubica una pantalla de observación O que es usualmente una placa
fotográfica. Es importante que las dimensiones de las rendijas sean menores que la longitud de onda, ya que de
lo contrario las intensidades recogidas en la pantalla O serán compatibles con la óptica geométrica que puede
explicarse con una teorı́a corpuscular. En contraste, el fenómeno de difracción que se presenta cuando las rendijas
son pequeñas nos muestra la naturaleza ondulatoria del fenómeno.
Cuando obstruı́mos la rendija F2 obtenemos sobre la pantalla O una distribución de intensidades I1 (x) que es
el patrón de difracción generado por la rendija F1 . Análogamente, al cerrar F1 obtenemos el patrón de intensidades
I2 (x). Si ahora abrimos las dos rendijas simultáneamente obtendremos un nuevo patrón de intensidades I (x). La
primera observación es que la intensidad resultante NO es la suma de las intensidades obtenidas con una sola
rendija
I (x) 6= I1 (x) + I2 (x)
¿como podrı́an explicarse estos resultados a la luz de una teorı́a corpuscular?. Es bien conocido que el patrón
de Difracción generado por una sola rendija no puede ser explicado con una teorı́a corpuscular cuando la rendija
tiene una dimensión menor que la longitud de onda incidente. Sin embargo, veremos que aún cuando pudiésemos
explicar el fenómeno de una rendija con una teorı́a corpuscular, el patrón de interferencia que se forma cuando
se abren las dos rendijas entra en conflicto con una teorı́a puramente corpuscular. Asumamos que el patrón de
2.8. EL EXPERIMENTO DE YOUNG DE LA DOBLE RENDIJA 129

Figura 2.3: (a) Montaje del experimento de Young con doble rendija. (b) Patrón de intensidades asociado a la
exposición por una sola rendija. La lı́nea punteada indica la suma de los dos patrones de intensidad. (c) Patrón
de intensidades obtenido con la apertura simultánea de las dos rendijas. El contraste con la gráfica punteada nos
muestra que la intensidad resultante no es la suma de las intensidades obtenidas con la apertura de una sola
rendija, revelando la existencia de un patrón de interferencia.

interferencia que se observa, es generado por la interacción de tipo corpuscular entre los fotones que pasan por
la rendija F1 con aquellos que pasan por la rendija F2 . De ser ası́, tendrı́amos que si regulamos la potencia de la
fuente de tal manera que los fotones salgan prácticamente uno por uno, se eliminarı́an estas interacciones y por
tanto deberı́a desaparecer este patrón de interferencia, incluso si se espera mucho tiempo para que se depositen
mucho fotones sobre O.
Veamos ahora cual serı́a la predicción de una teorı́a puramente ondulatoria. La teorı́a ondulatoria predice que
la intensidad en un punto dado I (x) es proporcional a la amplitud al cuadrado del campo eléctrico evaluado
en tal punto. Cuando las dos rendijas están abiertas es claro que el campo total resultante en tal punto es la
superposición de los dos campos generados por la onda que pasa por cada rendija

E (x) = E1 (x) + E2 (x)


130 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

la intensidad es entonces proporcional a la amplitud del campo eléctrico total al cuadrado


I (x) ∝ |E (x)|2 = |E1 (x) + E2 (x)|2
I1 (x) ∝ |E1 (x)|2 ; I2 (x) ∝ |E2 (x)|2 ⇒ I (x) 6= I1 (x) + I2 (x)
si E1 (x) y E2 (x) se escriben en notación compleja, el término de interferencia resultante dependerá de la diferencia
en las fases complejas asociadas a E1 (x) y E2 (x). Esta interferencia explica el patrón de franjas que ocurre en
el fenómeno de difracción por dos rendijas. Si disminuı́mos la potencia de la fuente, las franjas de interferencia
disminuirán en intensidad pero no desaparecerán. De por sı́ este fue uno de los experimentos determinantes en
favor de la teorı́a ondulatoria en el siglo XIX.
Sin embargo, los resultados obtenidos cuando la potencia de la fuente es tal que los fotones se liberan uno a
uno, son realmente sorprendentes y entran en conflicto con la teorı́a puramente corpuscular pero también con la
teorı́a puramente ondulatoria.
Por una parte, si hacemos que el tiempo de exposición sea muy largo de manera que una gran cantidad de
fotones impactan la placa fotográfica, vemos que las franjas de interferencia no desaparecen a pesar de haber
eliminado la interacción entre los fotones. Por tanto, la teorı́a corpuscular no puede predecir este fenómeno. La
teorı́a ondulatoria en cambio ofrece una explicación satisfactoria al respecto.
De otra parte, si el tiempo de exposición lo hacemos muy corto de modo que solo unos pocos fotones impacten
la pantalla, vemos que los impactos sobre la placa son muy localizados como se esperarı́a de un comportamiento
corpuscular, y no se observa el patrón de interferencia con baja intensidad que predecirı́a la teorı́a ondulatoria.
Mas aún si el experimento para tiempos cortos de exposición se repite muchas veces para las mismas condiciones
iniciales (el mismo dispositivo con fotones de la misma energı́a y momento, ası́ como igual tiempo de exposición),
vemos que los pocos impactos localizados en cada experimento pueden tener una distribución muy diferente. Esto
indica que el proceso tiene un carácter altamente aleatorio que no es atribuı́ble al desconocimiento o falta de
control en las condiciones iniciales.
Si en cambio repetimos el experimento muchas veces bajo las mismas condiciones iniciales pero para tiempos
de exposición muy grandes, en los cuales muchos fotones han impactado la placa, vemos que el patrón contı́nuo
de intensidades se forma según lo indicado en la teorı́a ondulatoria, es decir con los patrones adecuados de
interferencia. Para este caso el fenómeno es altamente reproducible, es decir la distribución de intensidades es
esencialmente la misma en cada experimento.
Si se hacen experimentos para tiempos de exposición especı́ficos y estos tiempos de exposición se van incre-
mentando gradualmente, vemos que a medida que el tiempo de exposición aumenta el experimento se vuelve más
reproducible, pasando desde resultados muy aleatorios para tiempos de exposición cortos (pocos fotones inciden-
tes) hasta resultados altamente reproducibles para tiempos muy largos de exposición (muchos fotones incidentes).
Esto revela que la ley fundamental que rige al fenómeno debe ser de naturaleza probabilı́stica, ya que un modelo
probabilı́stico en general falla en sus predicciones cuando una muestra posee muy pocos elementos o eventos, pero
es altamente predictivo cuando la muestra consta de un enorme número de elementos o de eventos. En nuestro
caso los eventos son los impactos de los fotones sobre la placa y lo que vemos es que el patrón de interferencia se
va construyendo a medida que los fotones van impactando la placa.
Un aspecto que no hemos tocado hasta aquı́, es el referente a la determinación de la rendija por la cual pasa
cada fotón. Si queremos determinar por cual rendija pasa cada uno de los fotones que se emiten uno por uno,
podemos colocar dos detectores (digamos dos fotomultiplicadores) sobre cada rendija F1 y F2 , en tal caso podemos
determinar completamente la rendija a través de la cual pasa cada fotón, ya que cuando se emite un fotón una
señal es registrada en uno de los detectores pero no en ambos al tiempo. Sin embargo, en este caso todos los
fotones detectados son absorbidos por los detectores y no alcanzan la pantalla. En otras palabras, la completa
determinación de la rendija por la cual pasa cada fotón destruyó completamente la información sobre el patrón de
difracción. Por otro lado, si dejamos un detector solo en F1 y dejamos abierto F2 veremos que cuando han pasado
muchos fotones cerca del 50 % han sido detectados (con respecto al experimento anterior). Concluı́mos que los
demás han pasado por F2 pero entonces el patrón de difracción que se construirá gradualmente sobre la pantalla
será el correspondiente a la difracción por una rendija, no se observará entonces el fenómeno de interferencia
2.8. EL EXPERIMENTO DE YOUNG DE LA DOBLE RENDIJA 131

inherente al experimento con dos rendijas. Una vez más el proceso de medición (determinación de la rendija de
paso) ha alterado la evolución posterior del sistema.
En lo referente al carácter probabilı́stico cuántico, es necesario distinguirlo de los aspectos probabilı́sticos que
se emplean usualmente en mecánica clásica. En la termodinámica y especialmente en la mecánica estadı́stica
clásica, se utilizan conceptos de probabilidad y estadı́stica debido a que en la práctica (experimental) no es posible
determinar o controlar las condiciones iniciales de muchas partı́culas, aunado con la dificultad práctica (teórica)
de resolver un gran número de ecuaciones diferenciales acopladas. Se asume sin embargo en las teorı́as clásicas
que si conozco todas las condiciones iniciales puedo al menos en principio predecir las trayectorias exactas de
las partı́culas y por tanto de mi sistema como un todo. En cuántica nos vemos avocados a usar la probabilidad
incluso con el conocimiento y/o control de las condiciones iniciales del sistema, estamos hablando entonces de
un comportamiento probabilı́stico esencial e inherente a las leyes de la naturaleza, al menos en nuestra presente
interpretación de los fenómenos.

2.8.1. Interpretación mecano-cuántica de la dualidad onda partı́cula


Hemos visto que tanto los aspectos corpusculares como los ondulatorios son indispensables para un correcto
entendimiento de los experimentos de Young con doble rendija. Dado que en mecánica clásica estos aspectos son
mutuamente excluyentes, será necesario replantearse las ideas de la mecánica clásica, las cuales después de todo
tuvieron su semilla en los fenómenos macroscópicos. Veamos a la luz de los resultados anteriores que aspectos
deben ser revaluados
De la discusión anterior hemos visto que cuando colocamos un fotomultiplicador (o dos) para detectar por
cual rendija van a pasar los electrones, afectamos de manera fundamental al sistema produciendo un cambio
drástico en el resultado final debido a que los fotones detectados se absorben y no alcanzan la pantalla. Vemos
entonces que el proceso de medición afecta de forma fundamental al sistema que se mide. En mecánica clásica,
si bien es necesario perturbar al sistema para poder medirlo, está implı́cito que esta perturbación se puede hacer
arbitrariamente pequeña al menos en principio. En mecánica cuántica éste y otros experimentos nos indicarán
que cuando se realiza un proceso de medición existe una cierta “perturbación fundamental” que no puede ser
minimizada y que altera de manera considerable al sistema que se mide.
Por otro lado, hemos visto que aunque los fotones se envı́en uno por uno, eliminando de esta forma la interacción
entre fotones, un fotón parece comportarse diferente si están abiertas las dos rendijas con respecto al caso en que
una sola de ellas está abierta, de no ser ası́ la intensidad resultante cuando las dos están abiertas serı́a la suma de
las intensidades obtenidas cuando se abre cada una. Adicionalmente, ya hemos visto que si intentamos determinar
por cual rendija pasan los fotones, evitamos que estos alcancen la pantalla. Esto se puede replantear diciendo
que es imposible observar el patrón de interferencia y al mismo tiempo conocer por cual rendija pasó cada fotón.
Esta afirmación será reforzada más adelante cuando discutamos el principio de incertidumbre de Heisenberg. Para
resolver esta paradoja es necesario abandonar la idea de que cada fotón pasará inevitablemente por una rendija
especı́fica, lo cual nos lleva a su vez a cuestionar el concepto de trayectoria, tan firmemente establecido en la
mecánica clásica.
Ahora bien, hemos visto que cuando unos pocos fotones han impactado la pantalla, la distribución de estos
fotones no es reproducible a pesar de que los experimentos se repitan bajo las mismas condiciones iniciales. Esto
implica que para un fotón dado no podemos predecir con total certeza en qué punto golpeará a la pantalla incluso
si conocemos sus condiciones iniciales. En consecuencia, el conocimiento de las condiciones iniciales de un sistema
no determina completamente el movimiento subsecuente de éste. No obstante, el hecho de que el mismo patrón
de interferencia se construya cuando el número de fotones es muy alto, nos indica que las condiciones iniciales nos
pueden determinar una distribución de probabilidad que sı́ puede ser especificada por alguna ecuación dinámica.
En este caso especı́fico, la probabilidad de que un fotón golpee la pantalla dentro de un intervalo entre el punto
x y el punto x + dx, es proporcional a I (x) dx calculado con la teorı́a ondulatoria, es decir será proporcional a
|E (x)|2 dx. Nótese que el principio de superposición que rige el comportamiento de los fenómenos ópticos clásicos
está basado en el hecho de que las ecuaciones de Maxwell sin fuentes son ecuaciones lineales y homogéneas, para
132 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

las cuales vale el principio de superposición, si E1 y E2 son soluciones de las Ecs. de Maxwell sin fuentes, una
combinación lineal de ellas también lo es.
Los anteriores hechos se pueden entonces postular en la siguiente forma:
Los aspectos corpusculares y ondulatorios de la luz son inseparables. De modo que la luz se comporta si-
multáneamente como onda y como flujo de partı́culas. Las predicciones sobre el comportamiento del fotón son solo
de carácter probabilı́stico. El comportamiento ondulatorio nos dictamina la distribución de probabilidad de su
manifestación como partı́cula (fotón). La información fı́sica sobre el fotón en un momento dado está determinada
por la componente E (r, t) de la onda electromagnética que es solución de las ecuaciones de Maxwell. El campo
E (r, t) caracteriza al estado de los fotones en el tiempo t. Dicho campo se interpreta como la amplitud de proba-
bilidad de que un fotón aparezca en el punto r en el tiempo t. Esto implica que la correspondiente probabilidad
de que un fotón esté en el volumen d3 r centrado en r es proporcional a |E (r, t)|2 d3 r.
Más adelante veremos que la amplitud de probabilidad E (r, t) tendrá su análogo para la materia en la deno-
minada función de onda ψ (r, t). Si bien existen muchas analogı́as entre E (r, t) y ψ (r, t) también existen algunas
diferencias importantes, por ejemplo E (r, t) no caracteriza completamente al estado de un fotón, en tanto que la
función de onda caracteriza completamente el estado de una partı́cula sin espı́n. La función de onda es esencialmen-
te compleja en tanto que E se hace complejo solo por conveniencia. La teorı́a cuántica completa para los fotones
(electrodinámica cuántica) debe tener en cuenta el carácter eminentemente relativista de las ecuaciones de Maxwell
y además corresponde a la cuantización de un medio que es clásicamente contı́nuo (campos electromagnéticos).
En contraste, la mecánica cuántica para partı́culas corresponde a la cuantización de un medio que clásicamente
se considera discreto (partı́culas puntuales) y que en muchos casos se puede tratar como no-relativista. Aquı́ solo
trabajaremos la mecánica cuántica no relativista de medios clásicamente discretos y por tanto no trabajaremos el
problema concerniente al proceso matemático de cuantización del fotón.

2.9. Proceso de medición, preparación de un sistema y el principio de la


descomposición espectral
Vamos a examinar otro experimento de óptica que arrojará muchas luces sobre las ideas relativas al proceso
de medición en cuántica.
La Fig. 2.4, muestra el montaje que queremos estudiar. Asumamos que hacemos incidir una onda plana
monocromática de una fuente sobre un polarizador P , elegiremos el eje z como el eje de propagación de la onda
electromagnética y asumiremos que el polarizador P se ubica en el plano xy. Paralelo al plano xy colocaremos un
analizador A que transmitirá luz polarizada a lo largo de ux y absorberá luz polarizada a lo largo de uy .
Asumiremos que el experimento se realizará en condiciones en donde sea válida la óptica clásica, es decir
cuando el haz de luz es muy intenso. En este caso, cuando la onda pasa por P queda polarizada en una dirección
especı́fica up caracterizada por
up = cos θ ux + sin θ uy
la onda plana monocromática que sale del polarizador P está caracterizada por el campo eléctrico

E (r, t) = E0 up ei(kz−ωt) = E0 cos θei(kz−ωt) ux + E0 sin θ ei(kz−ωt) uy (2.44)

E0 es la amplitud (constante) de la onda polarizada. La intensidad es proporcional a |E0 |2 . Cuando la onda


polarizada pasa por el analizador su campo eléctrico vendrá dado por

E′ (r, t) = E0′ ux ei(kz−ωt) = E0 cos θ ux ei(kz−ωt)

que surge básicamente de la eliminación de la componente a lo largo de uy en la Ec. (2.44). La intensidad de la


onda que pasó el analizador está dada por |E0′ |2 es decir

I ′ = I cos2 θ
2.9. MEDICIÓN Y PREPARACIÓN DE UN SISTEMA: DESCOMPOSICIÓN ESPECTRAL 133

Figura 2.4: (a) Montaje experimental para medidas de polarización. En z < 0 tenemos luz no polarizada que en
z = 0 se polariza en la dirección up . El analizador A suprimirá la componente uy del campo eléctrico polarizado.

resultado conocido como la ley de Malus.


Nos preguntamos ahora por lo que ocurre a nivel cuántico. Es decir, cuando la intensidad de la fuente es
tan baja que los fotones se emiten uno a uno, de manera que la cuantización de la radiación se hace manifiesta.
Podemos colocar un detector de fotones detrás del analizador para mirar los resultados. Retomaremos para ello
los resultados de las discusiones anteriores.
En primera instancia, debido a la existencia de un cuanto indivisible (el fotón) el detector no registra una
fracción de fotón. O bien el fotón cruza el analizador o bien es absorbido completamente por él.
Adicionalmente, no podemos predecir con total certeza si un cierto fotón incidente sobre el analizador cruzará
o será absorbido por éste. Solo podremos conocer la probabilidad de que un evento especı́fico de estos ocurra.
Veremos sin embargo que en ciertos casos especı́ficos, podremos hacer predicciones con total certeza.
Cuando el número total de fotones es muy grande, es decir cuando ha pasado suficiente tiempo, se construirá
un patrón reproducible de probabilidad equivalente al que se obtiene para tiempos cortos con un haz de alta
intensidad. En sı́ntesis debe generarse un patrón reproducible (y por tanto predecible) que corresponda además al
lı́mite clásico. Es decir, si N es el número (grande) de fotones entonces un número dado por N cos2 θ de fotones
cruzará el analizador.
Nótese que el aparato de medida (analizador) solo puede dar algunos resultados especı́ficos que llamaremos
resultados propios o autoresultados. En este experimento solo hay dos resultados posibles: el fotón pasa el
analizador o es absorbido por él. Hay entonces una cuantización del resultado, lo cual es muy diferente al escenario
clásico en el cual la intensidad puede variar de manera contı́nua desde 0 hasta I cuando el ángulo θ se varı́a de
forma contı́nua.
El experimento muestra además el siguiente resultado, si el fotón está polarizado a lo largo de ux dicho fotón
pasará con toda certeza el analizador (con probabilidad 1). Análogamente, si el fotón está polarizado a lo largo
de uy hay una certeza total de que este fotón será absorbido (probabilidad cero para pasar). Estas aseveraciones
requieren naturalmente de una repetición de una gran cantidad de experimentos que muestren la naturaleza
134 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

probabilı́stica para fotones con estas polarizaciones. Adicionalmente, se observa que estos son los únicos estados
de polarización que conducen a una total certeza en la medida. Por esta razón llamaremos a estos estados de
polarización estados propios o autoestados. Vemos además que a cada resultado propio le corresponde un
estado propio, el resultado propio “fotón que cruza” está asociado con el estado propio de polarización a lo largo
de ux . El resultado propio “fotón que se absorbe” está asociado a fotones con polarización uy . En otras palabras,
para un estado propio tenemos total certeza de obtener su correspondiente resultado propio. Matemáticamente
podemos describir nuestros dos estados propios como

u(1) (2)
p = ux ; up = uy

La siguiente pregunta obvia es ¿cuál es la probabilidad de obtener un resultado propio dado, cuando el estado
es una superposición de los estados propios? es decir cuando el estado de polarización del fotón es arbitrario i.e.

up = cos θ ux + sin θ uy = cos θ u(1) (2)


p + sin θ up (2.45)

para obtener la distribución de probabilidad es necesario tener una gran cantidad de eventos para cada estado de
polarización. Esto se logra midiendo muchos fotones que poseen las mismas condiciones iniciales7 y se encuentra
experimentalmente que para un número N (grande) de fotones con polarización dada por un ángulo θ en (2.45) un
número N cos2 θ de ellos pasará, y N sin2 θ de ellos será absorbido. Por tanto, un fotón especı́fico con polarización
definida por θ tiene una probabilidad P (1) = cos2 θ de ser transmitido y una posibilidad P (2) = sin2 θ de ser
absorbido. Esto coincide con la ley clásica de Malus como esperábamos cuando el número de fotones es grande.
Lo anterior junto con la Ec. (2.45), nos indica que la probabilidad de obtener un cierto resultado propio es
proporcional al cuadrado del valor absoluto del coeficiente del estado propio asociado, al coeficiente lo llamamos
la amplitud de probabilidad, las amplitudes de probabilidad A (i) y las probabilidades P (i) para cada resultado
propio son en este caso
D D 2
(1)
A (1) = cos θ = u(1) u
p p i ; P (1) = cos 2
θ = u u
p p i
D D 2
(2)
A (2) = sin θ = u(2) 2
p up i ; P (2) = sin θ = up up i

P (1) + P (2) = cos2 θ + sin2 θ = 1

en algunos casos será necesario colocar una constante de proporcionalidad para garantizar que la suma de las
probabilidades de todos los resultados propios sea uno.
Esto nos induce a postular que si tenemos un conjunto de autoresultados {Ri } asociados a autoestados {ψi }
un estado arbitrario se escribirá como superposición de los autoestados
X
ψ= ci ψi (2.46)
i

y la probabilidad de obtener un autoresultado Rk será

|ck |2
P (Rk ) = P 2 (2.47)
i |ci |

o equivalentemente
|hψk | ψi|2
P (Rk ) = (2.48)
hψ| ψi
donde el denominador me asegura la conservación de la probabilidad
X
P (Ri ) = 1
i
7
Nótese que el polarizador tiene el papel de reproducir las mismas condiciones iniciales en cada conjunto de experimentos.
2.10. DUALIDAD ONDA PARTÍCULA PARA LA MATERIA 135

puesto que el conjunto de todos los autoresultados es por definición el conjunto de todos los resultados experimen-
tales que podemos obtener al medir el sistema. Esta afirmación se denomina el principio de descomposición
espectral.
El ejemplo de los fotones polarizados nos indica además que la descomposición espectral especı́fica depende del
tipo de instrumento de medición dado que hay que utilizar los autoestados que corresponden a este aparato. Por
ejemplo, si el analizador (aparato de medición) tiene una orientación diferente, los autoestados estarán definidos
según esta nueva dirección. Si en vez de un analizador tenemos un medidor de otra variable fı́sica (por ejemplo el
espı́n) los autoresultados deben definirse correspondientemente y por lo tanto los autoestados.
Supongamos que dos fotones poseen la misma polarización pero se diferencian en otros observables fı́sicos (mo-
mento, espı́n, etc.), un aparato que mide polarización solo puede dicernir los diferentes valores de este observable,
por tanto si existen otros observables que caracterizan a mi partı́cula, al autovalor de polarización {a}, le corres-
ponde mas de un autoestado ya que todos los autoestados con polarización {a} están asociados a este autovalor
sin importar cuales sean los valores de los otros observables. Decimos que los autoestados están degenerados con
respecto al observable o autovalor {a} lo cual según la presente discusión indica que solo tenemos una información
parcial sobre el sistema. Volveremos sobre el tema de la degeneración más adelante.
La consistencia de estos resultados se puede examinar poniendo un segundo analizador A′ después de A y que
permita el paso de fotones con polarización en ux . Dado que todos los fotones que pasaron por A quedaron “prepa-
rados” en el estado de polarización ux , todos estos fotones están en un solo autoestado del nuevo analizador A′ con
autoresultado “el fotón pasa”. Por tanto, todos los fotones que pasaron por A deben pasar por A′ . Similarmente,
si A′ está orientado según uy , todos los fotones que vienen de A deben ser absorbidos en A′ . Estas predicciones
están confirmadas por los experimentos.
Analicemos ahora un aspecto de la medición directamente asociado con la naturaleza cuántica de la radiación.
Al ser el fotón un cuanto indivisible solo existe la posibilidad de transmisión o absorción, esto desembocó en el
hecho de que a partir de un estado arbitrario de polarización, hay un cambio abrupto luego de la medición para
los fotones que pasan, pues estos pasan de la polarización up a la polarización ux que corresponde a un autoestado
de mi aparato. Existe entonces una perturbación fundamental que altera el estado del sistema y que no puede ser
disminuı́da. Nótese que después de la medición (preparación del fotón en un autoestado) tenemos una información
adicional “el fotón ha pasado el analizador”.
Lo anterior es entonces una confirmación de que el proceso de medición perturba de manera fundamental
el estado del sistema. Podrı́amos en este punto postular que luego del proceso de medición, el sistema queda
preparado en un estado propio definido por el sistema mismo y por el aparato de medición.

2.10. Dualidad onda partı́cula para la materia


Hemos visto que de acuerdo con los postulados de De Broglie, la materia al igual que los fotones exhibe un
comportamiento dual onda partı́cula. La corroboración experimental de estos postulados se realizó a través de los
experimentos de Davidsson y Germer, ası́ como los experimentos de G. P. Thomson (ambos sobre difracción de
electrones), y los experimentos de Estermann, Frisch y Stern concernientes a la difracción de átomos de Helio.
Adicionalmente, De Broglie postuló que si bien la onda asociada a una partı́cula libre era una onda viajera
(nodos en movimiento), para un electrón en un átomo que esté ligado al núcleo atómico y que recorre su órbita
periódicamente, su onda piloto debe estar asociada a una onda estacionaria (nodos fijos). Esta interpretación
permitió dar una explicación a las reglas de cuantización de Bohr, demostrando que las órbitas permitidas en
un átomo son aquellas que corresponden a un perı́metro circular con un número entero de longitudes de ondas
estacionarias. Además para órbitas no circulares la exigencia de ondas estacionarias resultó equivalente a las reglas
de cuantización de Wilson y Sommerfeld, en donde los niveles permitidos de energı́a aparecen como los análogos
de los modos normales de una cuerda vibrante.
Recordemos además que dentro de sus postulados De Broglie asume que la energı́a E y el momento p de una
136 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

partı́cula material posee la siguiente relación con sus parámetros de onda

E = hν = ~ω ; p = ~k (2.49)

siendo ν, ω, k la frecuencia, frecuencia angular y número de onda respectivamente. La correspondiente longitud de


onda es
2π h
λ= = (2.50)
|k| |p|
una estimación de la longitud de onda de la materia ordinaria nos permite comprender porqué no observamos la
naturaleza ondulatoria de la materia ordinaria en el mundo macroscópico.
En virtud de la gran simetrı́a que parece existir entre la radiación y la materia, vamos a incorporar las ideas
ya recogidas de los experimentos ópticos para incorporarlas a la naturaleza de las partı́culas materiales. Estas
extrapolaciones están soportadas en el hecho de que experimentos similares a los ópticos se pueden realizar con
los electrones y otras partı́culas materiales, y observar que el comportamiento es muy similar al mostrado por los
fotones.
Comenzaremos entonces por mencionar que el concepto clásico de trayectoria será sustituı́do por el concepto
de una distribución dinámica (dependiente del tiempo) de probabilidad de que la partı́cula esté en cierta región
del espacio. Para ello será necesario encontrar una amplitud de probabilidad ψ (r, t) que estará asociada a un
campo escalar. A esta amplitud de probabilidad se le conoce como función de onda y me define el estado de una
partı́cula en un instante dado, es decir contiene toda la información posible sobre la partı́cula. La probabilidad de
encontrar a la partı́cula en un volumen d3 r está dada por

dP (r, t) = C |ψ (r, t)|2 d3 r

donde C es una constante de normalización. Puesto que los experimentos muestran que esta distribución de
probabilidad presenta las propiedades ondulatorias, es necesario que la ecuación de movimiento que la genera
sea lineal y homogénea para que se cumpla el principio de superposición que se requiere para los fenómenos de
interferencia. Es claro que estos fenómenos de interferencia se verán reflejados en la probabilidad (al igual que en
la intensidad en los fenómenos ópticos), al elevar al cuadrado la cantidad ψ (r) (el análogo a E (r, t) en óptica).
Dado que la partı́cula debe estar siempre en algún lugar, es claro que la probabilidad total debe ser igual a la
unidad Z
C |ψ (r, t)|2 d3 r = 1 (2.51)

esto nos indica entonces que los estados fı́sicos ψ (r, t) deben ser funciones de cuadrado integrable en todas las
regiones accesibles a la partı́cula (es posible que ciertas condiciones fı́sicas hagan que algunas regiones no sean
accesibles). En otras palabras, la integral sobre el volumen accesible de la partı́cula debe ser convergente.
Asumiremos además que se cumple el principio de descomposición espectral aplicado a la medida de una
cantidad fı́sica arbitraria. Esto significa que (a) El resultado de la medida debe pertenecer a un conjunto de
autoresultados {a}. (b) Con cada autovalor a se asocia un autoestado, es decir una autofunción ψa (r). Esta
autofunción cumple la condición de que si ψ (r, t0 ) = ψa (r) siendo t0 el instante en el cual se realiza la medida, el
resultado de tal medida nos dará con toda certeza el autovalor a. (c) Para todo estado ψ (r, t) la probabilidad Pa
de obtener el autovalor a cuando se realiza una medida en el tiempo t0 , se encuentra descomponiendo ψ (r, t) en
los autoestados ψa (r, t)

X |ca |2 |hψa |ψi|2 X


ψ (r, t0 ) = ca ψa (r) ; Pa = P 2 = ; Pa = 1
a b |cb |
hψ |ψi a

en virtud de la arbitrariedad del estado inicial ψ (r, t0 ), lo anterior implica que los autoestados ψa (r) deben ser
completos, es decir deben formar una base para el conjunto de todos los estados fı́sicos posibles, esto nos llevará
de manera natural al concepto de observable. (d) Si la medida nos arroja un autovalor a, la partı́cula quedará
2.11. ASPECTOS ONDULATORIOS DE UNA PARTÍCULA MATERIAL 137

en su autoestado asociado ψa (r). (e) La ecuación que describe la evolución del sistema (evolución temporal de
la amplitud de probabilidad) debe ser lineal y homogénea en ψ. Debe tener soluciones de naturaleza ondulatoria
compatibles con las relaciones de De Broglie, en la siguiente sección estudiaremos con más detalle estas propiedades.
Es importante observar que cuando realizamos el paso de suplantar la trayectoria de una partı́cula (clásicamente
puntual), por una distribución dinámica de probabilidad (un campo) estamos reemplazando un estado clásico de
partı́cula puntual de seis parámetros en cada tiempo (tres coordenadas de posición y tres de velocidad), por un
estado cuántico determinado por un número infinito de parámetros: el valor de la función de onda en cada punto
del espacio (y en el tiempo dado). El hecho de que la distribución de probabilidad dependa del tiempo nos llevará
al concepto de propagación de la onda asociada con la partı́cula. A manera de ejemplo, en el experimento de la
doble rendija de Young cuando se observa el patrón de interferencia no poseemos información sobre la rendija por
la cual pasó cada fotón (también vale para electrones u otras partı́culas materiales), en realidad la onda asociada
cruza por ambas rendijas y solo podemos calcular la probabilidad de que pase por una de ellas.
Es importante mencionar sin embargo, que la simetrı́a materia radiación exhibida hasta el momento posee
una excepción importante: los fotones son en general emitidos (creados) o absorbidos (destruı́dos) durante un
experimento. En contraste, las partı́culas materiales no se crean ni se destruyen en los experimentos tı́picos. Por
ejemplo, un electrón emitido por un filamento caliente ya existı́a previamente en el filamento. De la misma forma
un electrón absorbido en un detector no desaparece, simplemente se vuelve parte de un átomo del detector o de
una corriente en éste. En realidad la teorı́a de la relatividad predice que es posible la creación y aniquilación de
partı́culas materiales: por ejemplo un fotón de alta energı́a que pasa cerca a un átomo puede crear un par electrón
positrón (partı́cula antipartı́cula). Recı́procamente, una colisión electrón positrón aniquila a ambas partı́culas
emitiendo un fotón, esta conversión radiación materia o viceversa es posible gracias a la equivalencia energética
de la masa. Sin embargo, en el lı́mite no relativista la materia no se puede crear ni destruı́r, lo cual nos lleva
a una ley importante de conservación del número de partı́culas. En particular, para sistemas de una partı́cula
podemos hacer la afirmación de que la partı́cula está en alguna parte para todo tiempo, lo cual nos indica una
conservación de la probabilidad (la integral de volumen 2.51 debe ser la unidad para todo tiempo).
Resumamos entonces las diferencias importantes entre materia y radiación que nos conducen a que la teorı́a
cuántica para la materia es más sencilla. (a) Los fotones son irremediablemente relativistas, la materia en cambio
puede estar en un régimen no relativista y de hecho para sólidos a temperaturas normales los electrones y núcleos
tienen velocidades mucho menores que la de la luz. Por tanto, para la materia tiene sentido una teorı́a cuántica no
relativista pero no para la radiación. (b) La naturaleza relativista de los fotones (y de la materia a altas energı́as)
conduce a que el número de fotones no se conserva en el tiempo, por tanto la distribución de probabilidad debe
colapsar para tiempos anteriores a la emisión y posteriores a la absorción, la Ec. (2.51) no es válida para todo
tiempo y debe incorporarse una ecuación o ecuaciones que me den cuenta de la dinámica en el número de partı́culas
(dinámica de creación y destrucción). (c) Desde el punto de vista clásico las partı́culas suelen modelarse como
medios discretos (partı́culas puntuales), en tanto que el escenario clásico del fotón corresponde a medios contı́nuos
(campos electromagnéticos). La cuantización de la materia se asocia entonces a menudo con la cuantización de
un medio clásicamente discreto (teorı́a cuántica “ordinaria”), en tanto que la cuantización de la radiación está
necesariamente asociada a la cuantización de un medio clásicamente contı́nuo (teorı́a cuántica de campos).

2.11. Aspectos ondulatorios de una partı́cula material

Hemos visto que la distribución de probabilidad está asociada con las propiedades ondulatorias de la materia
(o la radiación). Por tanto, la generación de la ecuación dinámica para esta distribución de la probabilidad
requerirá de estudiar las propiedades ondulatorias que dicha ecuación debe generar. En general, la mayor parte de
la discusión que se desarrollará en esta sección es también válida para ondas clásicas, los desarrollos matemáticos
son básicamente idénticos pero la interpretación difiere en ambos casos. Si seguimos los postulados de De Broglie,
el punto de partida natural será el estudio de las ondas viajeras libres. Dentro de la ecuación de onda clásica libre
138 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

(i.e. homogénea) la solución más simple (monocromática) es la solución tipo onda plana
ψ (r, t) = Aei(k·r−ωt) (2.52)
es inmediato ver que la onda plana es tal que
|ψ (r, t)|2 = |A|2
de modo que si efectivamente representa a la onda asociada a una partı́cula libre, nos predice que la distribución
de probabilidad de una partı́cula libre es uniforme en el espacio, lo cual es compatible con la homogeneidad e
isotropı́a del espacio. Podrı́a argumentarse que las ondas planas no son de cuadrado integrable de modo que no
representan estrictamente un estado fı́sico. Sin embargo, nuestra experiencia con la óptica en la cual las ondas
planas tampoco son estados fı́sicos nos muestra que el estudio de sus propiedades es muy provechoso, por un lado
porque se puede considerar como el lı́mite de un estado fı́sico y por otro lado porque los estados fı́sicos se podrán
escribir como superposición de tales funciones en virtud de su completez (ver sección 1.31.1).
Tomaremos entonces la solución (2.52) como el prototipo de una onda piloto. Nuestro objetivo será realizar
una teorı́a no relativista que sea compatible con los postulados de De Broglie. Partiremos entonces de la relación
no relativista entre E y p para una partı́cula
p2
E= (2.53)
2m
y utilizando las relaciones de De Broglie (2.49) llegamos a
~k2
ω= (2.54)
2m
la relación de dispersión (2.54) nos dice que la ecuación de onda NO es la ecuación dinámica que gobierna a la
teorı́a cuántica no relativista de una partı́cula, ya que es fácil demostrar que insertando (2.52) en la ecuación de
onda clásica se obtiene la relación de dispersión
ω 2 = k2 v 2 (2.55)
siendo v la velocidad de la onda. Volveremos sobre este problema más adelante, de momento asumiremos que la
onda viajera libre (2.52) es solución de la ecuación de movimiento para el estado cuántico ψ de una partı́cula libre
con relación de dispersión dada por (2.54). Puesto que las ondas piloto deben generar los fenómenos ondulatorios,
es necesario que la combinación lineal de soluciones sea solución de la ecuación dinámica para generar los fenómenos
de interferencia.

2.11.1. Estados cuánticos arbitrarios como superposición de ondas planas


De acuerdo con lo anterior, y dado que las ondas planas pueden generar cualquier función de cuadrado integrable
(completez) cualquier estado cuántico de una partı́cula (no necesariamente libre) se puede escribir como una
superposición de la forma Z
1
ψ (r, t) = 3/2
ψ̄ (k, t) ei[k·r−ωt] d3 k (2.56)
(2π)
donde d3 k = dkx dky dkz representa un diferencial de volumen en el espacio de las k′ s (usualmente denominado
espacio recı́proco). La transformada de Fourier ψ̄ (k) puede ser compleja pero debe ser bien comportada para
permitir derivar la solución dentro de la integral. Por supuesto, las transformadas de Fourier especı́ficas dependerán
del problema especı́fico.
Una función de onda que es superposición de ondas planas como la descrita en (2.56) se denomina un paquete
de ondas tridimensional. Por simplicidad, tomaremos el caso unidimensional
Z
1
ψ (x, t) = √ ψ̄ (k, t) ei[kx−ωt] dk (2.57)

y estudiaremos más adelante el caso tridimensional. En primer lugar estudiaremos el perfil del paquete de onda
en un instante dado
2.11. ASPECTOS ONDULATORIOS DE UNA PARTÍCULA MATERIAL 139

2.11.2. Perfil instantáneo del paquete de onda


Por simplicidad elegimos el instante como t = 0. La Ec. (2.57) se simplifica a
Z
1
ψ (x, 0) = √ ψ̄ (k, 0) eikx dk (2.58)

y su inversa es Z
1
ψ̄ (k, 0) = √ ψ (x, 0) e−ikx dx (2.59)

la forma instantánea del paquete estará dada por la dependencia x de ψ (x, 0) definida en (2.58). Trataremos
de definir el comportamiento cualitativo de ψ (x, 0) por medio de ejemplos sencillos. Supongamos que ψ (x, t)
está dado por una superposición de tres ondas planas eikx (en t = 0), caracterizadas por los números de onda
k0 , k0 − ∆k ∆k
2 , k0 + 2 con amplitudes g (k0 ), g (k0 ) /2 y g (k0 ) /2
 
g (k0 ) ik0 x 1 i(k0 − ∆k )x 1 i(k0 + ∆k )x
ψ (x) = √ e + e 2 + e 2 (2.60)
2π 2 2
  
g (k0 ) ∆k
ψ (x) = √ eik0 x 1 + cos x (2.61)
2π 2

Figura 2.5: (a) Partes reales de cada una de


 las tres ondas
 dadas por (2.60). (b) Superposición de las tres ondas. La
lı́nea punteada es la envolvente dada por 1 + cos ∆x 2 x , que le da forma al paquete de ondas. La lı́nea contı́nua
describe las oscilaciones.

La Fig. 2.5 muestra la forma de cada una de estas tres ondas (sus partes reales) y de la superposición. La Ec.
(2.61) muestra que |ψ (x)| es máximo cuando x = 0, lo cual se aprecia en la Fig. 2.5 en virtud de que en x = 0
140 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

las tres ondas están en fase y por lo tanto interfieren constructivamente. A medida que nos movemos desde x = 0
(hacia la izquierda o la derecha) las ondas están cada vez más en desfase de modo que |ψ (x)| va disminuyendo,
hasta que la interferencia se vuelve totalmente destructiva en ciertos puntos xn (posiciones de los nodos), cuando
la diferencia de fase entre eik0 x y ei(k0 ±∆k/2)x es igual a (2n + 1) π, siendo n un entero no negativo. Los nodos
xn más cercanos a x = 0 están asociados a una diferencia de fase π
 
∆k ∆k
k0 xn − k0 xn ± xn = π ⇒ ∓ xn = π
2 2
∆k 2π
xn = ∓π ⇒ xn = ∓
2 ∆k

Dado que el paquete es simétrico y está centrado en x = 0, el ancho del paquete es ∆x = 2 |xn |


∆x = ⇒ (∆x) (∆k) = 4π (2.62)
∆k

esto nos muestra que a medida que el ancho ∆k de la función ψ̄ (k) decrece, el ancho ∆x de la función |ψ (x)|
aumenta, siendo ∆x la distancia entre dos ceros de |ψ (x)|. Similarmente, si el ancho del paquete ∆x disminuye
(paquete más localizado), el ancho ∆k de ψ̄ (k) debe aumentar a fin de mantener la relación (2.62).
ik0 x es mucho mayor a la frecuencia del término
 que k0 ≫ ∆k entonces la frecuencia del término e
Si asumimos
∆k
1 + cos 2 x . Por lo tanto, la parte oscilante en x para la Ec. (2.61) está dada por la función eik0 x y la envolvente
(modulación de la amplitud de oscilación) está dada por
 
g (k0 ) ∆k
|ψ (x)| = √ 1 + cos x
2π 2

esta amplitud de la envolvente o función moduladora de la amplitud se ilustra como lı́nea punteada en la Fig. 2.5.
En este caso, vemos que la envolvente dada por |ψ (x)| es periódica en x de modo que tenemos un tren infinito
de paquetes de onda con una serie de nodos y máximos. Este hecho se debe a que la superposición es de un
número finito de ondas planas. Para una superposición contı́nua de un número infinito de ondas como el dado en
(2.58), este fenómeno no ocurre y tendremos en general un solo máximo para el perfil |ψ (x, 0)|. En realidad, lo que
esperamos de una onda piloto asociada a una partı́cula es un solo paquete relativamente “localizado” alrededor
del máximo del paquete (región de mayor probabilidad de localizar a la partı́cula).
Retornemos ahora al caso general de una superposición contı́nua de la forma (2.58), aquı́ el fenómeno de
interferencia es más complejo pero de nuevo tendremos un máximo en |ψ (x, 0)| cuando las diferentes ondas
viajeras interfieran constructivamente. Imaginemos que ψ̄ (k, 0) está dada por una curva cuyo perfil es similar
a una campana de Gauss simétrica centrada en k = k0 con un pico bien pronunciado en k0 y un ancho ∆k.
En realidad, no hay una sola forma de parametrizar este ancho, pero tomaremos por convención que el ancho lo
definimos a la mitad de la altura
del pico. Bajo esta suposición, escribamos ψ̄ (k, 0) en notación polar siendo α (k)
el argumento y siendo ψ̄ (k, 0) la longitud del fasor


ψ̄ (k, 0) = ψ̄ (k, 0) eiα(k) (2.63)

ahora asumamos
que α (k) varı́a lentamente en el intervalo [k0 − ∆k/2, k0 + ∆k/2] donde la longitud del fasor
ψ̄ (k, 0) es apreciable. Cuando ∆k es suficientemente pequeño, podemos expandir a α (k) en las vecindades de
k = k0
 

α (k) ≃ α (k0 ) + (k − k0 ) (2.64)
dk k=k0
2.11. ASPECTOS ONDULATORIOS DE UNA PARTÍCULA MATERIAL 141

reemplazando esta expansión en (2.58) se obtiene


Z ∞ Z ∞
1 1
ψ (x, 0) = √ ikx
ψ̄ (k) e dk = √ ψ̄ (k) eiα(k) eikx dk (2.65)
2π −∞ 2π −∞
Z k0 + ∆k h i
1 2 dα
≃ √ ψ̄ (k) ei α(k0 )+(k−k0 )[ dk ]k=k0 +kx dk
2π k0 − ∆k 2
Z k0 + ∆k h i
1 2 dα
= √ ψ̄ (k) ei α(k0 )+(k−k0 )[ dk ]k=k0 +kx−k0 x+k0 x dk
2π k0 − ∆k 2
Z k0 + ∆k h i
1 2 i α(k0 )+(k−k0 )[ dα ] +(k−k0 )x+k0 x
= √
ψ̄ (k) e dk k=k0
dk
2π k0 − ∆k 2
Z ∆k n  o
ei[α(k0 )+k0 x] k0 + 2 i (k−k0) [ dα ]
+x
= √ ψ̄ (k) e dk k=k0
dk (2.66)
2π k0 − ∆k
2

quedando finalmente
Z k0 + ∆k
ei[k0 x+α(k0 )] 2
ψ (x, 0) ≃ √ ψ̄ (k) ei(k−k0 )(x−x0 ) dk (2.67)
2π k0 − ∆k
2
 

x0 ≡ − (2.68)
dk k=k0

La expresión (2.67) es útil para un análisis cualitativo de las variaciones de |ψ (x, 0)| con x. Partiendo de k = k0

Figura 2.6: Variaciones con respecto a k, de la parte real del integrando en la Ec. (2.67) (a) cuando x es fijo en
un valor tal que |x − x0 | > 1/∆k, en tal caso la función oscila varias veces en el intervalo ∆k. (b) Cuando x
es fijo en un valor tal que |x − x0 | < 1/∆k, en tal caso la función oscila muy poco en tal intervalo y la función
ψ (x, 0) toma valores grandes. Por tanto, el centro del paquete
de ondas (punto donde |ψ (x, 0)| es máximo) se
ubica en x=x0 . En todo el análisis se ha supuesto que ψ (k) es una función simétrica centrada en k 0 , con un
perfil similar a una campana de Gauss.

el siguiente valor kb para el cual se ha ejecutado una oscilación es



(kb − k0 ) (x − x0 ) = 2π ⇒ (kb − k0 ) =
(x − x0 )
142 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

De modo que el valor de |x − x0 | nos dice si |kb − k0 | es mayor o menor que ∆k/2 o en otras palabras, si en el
intervalo de integración definido en (2.67) el integrando ha logrado o no completar una oscilación. Cuando |x − x0 |
es grande i.e. cuando |x − x0 | ≫ 2π/∆k, se tiene que

(kb − k0 ) = ≪ ∆k
(x − x0 )
de modo que una oscilación en el integrando de (2.67) se realiza en un intervalo mucho menor que el ancho de
integración. En consecuencia, la función de k que se integra en (2.67) oscila muchas veces dentro del intervalo ∆k
y las contribuciones de las sucesivas oscilaciones se cancelan entre sı́ (Fig. 2.6a); por tanto, la integral sobre k se
vuelve muy pequeña. Es decir que cuando x está fijo en un valor lejano a x0 las fases de las diversas ondas que
constituyen a ψ (x, 0) varı́an muy rápidamente en el dominio ∆k, y forman entre ellas una interferencia destructiva.
Por otra parte, cuando x ≃ x0 , o en otras palabras cuando

|x − x0 | ≪ 1/∆k
se tiene que
|kb − k0 | ≫ 2π∆k > ∆k
la función que se integra sobre k solo realiza una pequeña fracción de la oscilación a partir de k0 y dado que
|k − k0 | < ∆k para un k que esté en el intervalo de integración, se tiene que
 
1 ∆k ∆k
|k − k0 | |x − x0 | ≪ ∆k = 1 , k ∈ k0 − , k0 +
∆k 2 2

ψ̄ (k) ei(k−k0 )(x−x0 ) ≃ ψ̄ (k) (2.69)

de modo que la exponencial apenas modifica un poco el perfil de ψ̄ (k) (Fig. 2.6b), y en el proceso de integración
la fase se mantiene casi constante, por tanto la interferencia es constructiva y |ψ (x, 0)| es máximo.
De otra parte, la Ec. (2.69) se convierte en una igualdad para la posición xM tal que xM = x0 , en cuyo caso no
hay oscilación y la interferencia es completamente constructiva. Por tanto, la posición xM (0) = x0 corresponde al
centro del paquete de onda (máximo del módulo del paquete) que de acuerdo con la Ec. (2.68) viene dada por:
 

xM (0) = x0 = − (2.70)
dk k=k0

alternativamente, se puede ver que (2.70) nos da la posición del centro del paquete teniendo en cuenta que la Ec.
(2.58) adquiere su máximo en valor absoluto cuando las ondas de mayor amplitud (aquellas con k cercano a k0 )
interfieren constructivamente. Esto ocurre cuando las fases que dependen de k de estas ondas varı́an lentamente
alrededor de k0 . Para obtener el centro del paquete se impone que la derivada con respecto a k de la fase sea cero
para k = k0 , esta fase se puede ver en la segunda igualdad de la Ec. (2.65) y se obtiene
 
d dα
[kx + α (k)]k=k0 = 0 ⇒ x + =0 (2.71)
dk dk k=k0

vemos entonces que la condición de fase estacionaria (2.71) se reduce a (2.70).


Cuando x se aleja de x0 , el valor de |ψ (x, 0)| decrece. El propósito ahora es definir un ancho ∆x dependiendo
del decrecimiento de |ψ (x, 0)| alrededor de x0 . Nótese que este decrecimiento es apreciable si ei(k−k0 )(x−x0 ) oscila
una vez o más cuando k recorre el dominio desde k0 − ∆k ∆k
2 hasta k0 + 2 es decir cuando

∆k · |x − x0 | & 2π

donde hemos definido el “umbral” para |x − x0 | como el valor para el cual se ejecuta una oscilación. Si definimos
∆x ≡ |x − x0 | /2π como el ancho tı́pico del paquete, tenemos

∆k ∆x & 1 (2.72)
2.11. ASPECTOS ONDULATORIOS DE UNA PARTÍCULA MATERIAL 143

lo cual nos da una relación entre los anchos de dos funciones que son transformadas de Fourier una de otra.
Observemos de nuevo que no hay una única manera de definir el ancho ∆x, por ejemplo podemos definir este
ancho con dos oscilaciones, con tres etc, entre mayor sea el número de oscilaciones mayor es el efecto de cancelación,
el ancho será mayor y estaremos tomando una mayor porción del área bajo la curva. De la misma forma, puedo
tomar el ancho ∆k cuando la altura ψ̄ (k) es 1/2, 1/e, 1/3 etc, es decir puedo ensanchar ∆k para tomar una porción

más grande del área bajo la curva y tener mejores aproximaciones. En vista de lo anterior, el hecho importante
es que este producto tiene una cota inferior, ya que el valor preciso de esta cota depende de la definición de los
anchos ∆k y ∆x. Esta es la razón para utilizar el sı́mbolo & en la Ec. (2.72) en lugar de ≥.
La relación (2.72) nos dice además que no es posible construı́r paquetes cuyo producto de anchos sea mucho
menor que uno, pero en cambio sı́ es posible construı́r paquetes cuyo producto de anchos sea mucho mayor que
uno.
Nótese que este análisis ha sido completamente matemático, k y x pueden ser variables arbitrarias siempre
que ψ (x, 0) y ψ̄ (k) sean transformadas de Fourier la una de la otra. No existe ninguna suposición fı́sica en estos
argumentos.
El presente análisis se utiliza en ondas clásicas asignando a k el número de onda y a x la variable espacial en
una dimensión. La Ec. (2.72) demuestra que a medida que un paquete de ondas se hace más monocromático (a
medida que se reduce ∆k) el ancho ∆x del paquete de onda espacial se hace mayor. En un paquete estrictamente
monocromático ∆k → 0 y por tanto ∆x → ∞, por lo cual las ondas monocromáticas no corresponden a estados
fı́sicos. Este mismo principio nos muestra que no existe un tren de ondas electromagnéticas para el cual se pueda
definir la posición y la longitud de onda con infinita precisión al mismo tiempo.

2.11.3. El principio de incertidumbre de Heisenberg


En nuestro contexto de la mecánica cuántica, el paquete de onda ψ (x, t) dado por (2.57) representa el estado de
una partı́cula cuya probabilidad en t = 0 de estar fuera del paquete centrado en x0 y de ancho ∆x es prácticamente
cero.
El resultado (2.72) posee una interesante interpretación a la luz de la mecánica cuántica. Por ejemplo, hemos
visto que cuando nuestro estado se describe por una sola onda plana del tipo dado en la Ec. (2.52) (que no es
estrictamente un estado fı́sico), la probabilidad de estar en cualquier punto del eje x es uniforme, y es la misma para
todos los valores de t, de modo que no hay propagación de la probabilidad. Por otro lado, el ancho ∆x del paquete
de onda se puede considerar infinito (la amplitud no se modula), lo cual se traduce en la máxima incertidumbre
posible en la posición de la partı́cula (igual probabilidad en todas partes). Por otra parte, esta onda tiene solo
una frecuencia angular ω0 y un solo número de onda k0 (onda monocromática) y de acuerdo con las relaciones de
De Broglie su energı́a y su momento están perfectamente definidos E = ~ω0 , p = ~k0 . Esta onda plana pura se
puede considerar como un caso particular del paquete de ondas (2.57) con

ψ̄ (k) = δ (k − k0 ) ; ∆k → 0

donde el hecho de que ∆k → 0 se vé claramente si vemos a la delta de Dirac como el lı́mite de Gaussianas cada
vez más altas y agudas. La relación ∆k → 0 junto con la Ec. (2.72) nos lleva a que ∆x → ∞ como ya se dijo.
A la luz del principio de descomposición espectral este resultado se puede ver de la siguiente forma: A la
partı́cula en t = 0 le hemos asignado una función de onda ψ (x, 0) = Aeikx y hemos visto que posee un momento
bien determinado. Es decir que una medida del momento en t = 0 dará definitivamente el valor p = ~k 8 . De
esto se deduce que Aeikx caracteriza al autoestado correspondiente al autovalor p = ~k. Puesto que existen ondas
planas para todos los valores de k, los autovalores de p que se pueden obtener en una medición del momento sobre
un estado arbitrario son todos los valores reales. En este caso no hay cuantización de los autoresultados, todos los
8
Este punto es quizás el más adecuado para decir que siempre hemos tratado con medidas ideales. Decir que la medida del momento
está completamente definida no es experimentalmente cierto. Lo que en realidad se quiere decir es que en este caso no hay una
perturbación fundamental que cambie drásticamente el sistema y por tanto las demás perturbaciones se puede hacer cada vez más
pequeñas.
144 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

valores del momento son permitidos como en la mecánica clásica. Ahora bien, la total determinación de p viene
acompañada por una completa incertidumbre en x.
Volvamos ahora al caso de un paquete como el dado por (2.58). Como ψ (x, 0) es una superposición lineal de
autofunciones del momento eikx con coeficientes ψ̄ (k, 0), el principio de descomposición espectral nos conduce a
2
interpretar a ψ̄ (k, 0) dk (con un posible factor de normalización) como la probabilidad de encontrar un valor
de momento entre p = ~k y p + dp = ~ (k + dk), cuando hacemos una medida en t = 0 del momento de una
partı́cula cuyo estado es descrito por ψ (x, 0) en (2.58). Esta interpretación es necesaria cuando el autovalor tiene
un espectro contı́nuo ya que en este caso la probabilidad de estar en un punto matemático 2 especı́fico serı́a cero

y solo es finita la probabilidad de estar en un intervalo dado. En este caso ψ̄ (k, 0) serı́a una densidad de
probabilidad (probabilidad por unidad de volumen unidimensional), y no una probabilidad como ocurre en el caso
discreto.
Ahora bien, dado que para una partı́cula es más usual hacer medidas de momento y energı́a que de frecuencia
angular y número de onda, es más adecuado escribir las expresiones en términos de E y p usando las relaciones
de De Broglie Ecs. (2.49)9 . En particular, la Ec. (2.58) se reescribe como
Z
1
ψ (x, 0) = √ ψ̄ (p, 0) eipx/~ dp
2π~
dado que las transformadas de Fourier satisfacen la relación de Bessel parseval (invarianza de la norma)
Z ∞ Z ∞

hψ| ψi (0) = 2
|ψ (x, 0)| dx = ψ̄ (p, 0) 2 dp ≡ C
−∞ −∞
tendremos entonces que
1 1 2
|ψ (x, 0)|2 dx ; dP̄ (p, 0) = ψ̄ (p, 0) dp
dP (x, 0) =
C C
dP (x, 0) representa la probabilidad de encontrar a la partı́cula en t = 0 en el intervalo [x, x + dx]. Similarmente,
dP̄ (p, 0) es la probabilidad de obtener una medida del momento de la partı́cula en t = 0 que esté dentro del
intervalo [p, p + dp].
Ahora escribamos la desigualdad (2.72) en términos de E y p usando la relaciones de De Broglie (2.49)
∆x ∆p & ~ (2.73)
para dar una interpretación fı́sica a (2.73), supongamos que el estado de una partı́cula está definido por el paquete
de onda (2.57). En tal caso, la probabilidad de encontrar la partı́cula en t = 0 dentro del intervalo [x0 − ∆x/2,
x0 + ∆x/2] es prácticamente uno. Decimos entonces que ∆x es la incertidumbre en la medida de la posición de
la partı́cula. Similarmente, si medimos el momento de la partı́cula en el mismo tiempo (t = 0) tal probabilidad es
casi uno dentro del intervalo [p0 − ∆p/2, p0 + ∆p/2]. Es decir que ∆p mide la incertidumbre en la determinación
del momento de la partı́cula.
A la luz de lo anterior la Ec. (2.73) expresa que es imposible medir al mismo tiempo la posición y el momento
de la partı́cula con grado arbitrario de exactitud. Cuando alcanzamos el lı́mite inferior en (2.73) una disminución
en ∆x (es decir un aumento en la exactitud de la medición de la posición) conduce a un aumento en ∆p (es decir
un aumento en la incertidumbre de la medida del momento, o equivalentemente una disminución en la exactitud
de tal medida) y viceversa. Este enunciado se conoce como el principio de incertidumbre de Heisenberg.
Notemos que el valor del término de la derecha en (2.73) nos expresa más bien un orden de magnitud que un
lı́mite inferior preciso.
Es de anotar que si bien hay un análogo clásico del principio de incertidumbre para las ondas, no hay un análogo
clásico para las partı́culas. En realidad hemos visto que el principio de incertidumbre está asociado inicialmente a
los parámetros de onda, que se conectan a los parámetros de partı́cula por medio de las relaciones de De Broglie,
estas a su vez están asociadas a la dualidad onda partı́cula que es una caracterı́stica cuántica. La pequeñez de ~
hace que este principio de incertidumbre no se manifieste en los sistemas macroscópicos.
9
En otras palabras, es más usual medir parámetros de materia que parámetros de onda.
2.12. EL PRINCIPIO DE COMPLEMENTARIEDAD PARA LA DUALIDAD ONDA PARTÍCULA Y SU RELACIÓN CO

2.12. El principio de complementariedad para la dualidad onda partı́cula y


su relación con el principio de incertidumbre de Heisenberg

Figura 2.7: Variante del experimento de Young de la doble rendija, para el cual la placa opaca P, puede desplazarse
verticalmente.

La discusión sobre el experimento de la doble rendija nos ha mostrado que si bien la dualidad onda partı́cula
es necesaria para explicar los resultados, ambas manifestaciones parecen ser mutuamente excluyentes. La perfecta
determinación de las propiedades ondulatorias (patrón de interferencia con doble rendija) nos conduce a una total
ignorancia sobre la rendija por la cual pasa cada fotón (propiedad de “trayectoria” asociada a una partı́cula). Por
otro lado, la perfecta determinación de la rendija por la cual pasa cada fotón (determinación de sus propiedades
de partı́cula) conduce a la completa destrucción del patrón de interferencia (i.e. de sus propiedades ondulatorias).
Se dice entonces que los aspectos ondulatorio y material de la partı́cula son complementarios.
Vamos ahora a reconsiderar el experimento de la doble rendija para demostrar la profunda relación entre el
principio de complementariedad y el principio de incertidumbre de Heisenberg. Para ello analizaremos una variante
del experimento de la doble rendija ilustrada en la Fig. 2.7.
Asumamos que la placa opaca P sobre la cual se perforan las rendijas está montada sobre cojinetes que permiten
su desplazamiento vertical. Asumiremos que el foco de los fotones está muy lejos, de modo que podemos suponer
que todos los fotones inciden perpendicularmente sobre la placa P. Un fotón que golpea la placa de observación O
en el punto M (de coordenada x respecto al origen O), tuvo que sufrir un cambio de momento que fué absorbido
por P a fin de mantener el momento conservado. Nótese que si el fotón de momento p = hν/c pasa por la rendija
F1 , el momento transferido a P es

p1 = − sin θ1 (2.74)
c
146 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

y si pasa por la rendija F2 , tal momento transferido es



p2 = − sin θ2 (2.75)
c
Siendo θ1 el ángulo de deflexión del fotón cuando cruza la rendija F1 e impacta en el punto M . El ángulo θ2 se
define similarmente con la rendija F2 . Por tanto, el momento transferido a P depende de la trayectoria del fotón,
puesto que depende de la rendija por la que pase.
Enviando los fotones uno por uno podemos construir el patrón de interferencia gradualmente sobre la pantalla
de observación. Aparentemente, este dispositivo nos permite construir tal patrón de interferencia asociado a la doble
rendija al tiempo que permite determinar la rendija por la cual pasa cada fotón. A priori pareciera que podemos
determinar completamente las caracterı́sticas corpusculares y ondulatorias de los fotones en forma simultánea.
Sin embargo, las franjas de interferencia no son visibles con este montaje. El error consiste en asumir que solo
los fotones poseen un carácter cuántico. Sin embargo, la placa P aunque es un objeto macroscópico también posee
un carácter cuántico. Si queremos discriminar por cual rendija pasó el fotón, la incertidumbre ∆p en la medida
del momento vertical de P debe ser suficientemente pequeña para determinar la diferencia entre p1 y p2

∆p ≪ |p2 − p1 |

aplicando las relaciones de incertidumbre, la posición de la placa P se puede conocer a lo más dentro de un intervalo
de incertidumbre dado por
~ h
∆x & ≫ (2.76)
∆p |p2 − p1 |
si denotamos a la distancia entre las rendijas y d la distancia entre la placa P y la pantalla O, y si asumimos que
θ1 y θ2 son pequeños (i.e. a/d ≪ 1 y x/d ≪ 1) obtenemos

x − a/2 x + a/2
θ1 ≃ tan θ1 = ; θ2 ≃ tan θ2 =
d d
a
|θ2 − θ1 | ≃
d
los momentos p1 y p2 dados en las Ecs. (2.74, 2.75) nos dan

hν hν hν a ha
|p2 − p1 | = |sin θ2 − sin θ1 | ≃ |θ2 − θ1 | ≃ =
c c c d λd
siendo λ la longitud de onda asociada al fotón. Sustituyendo esta relación en (2.76) se obtiene

λd
∆x ≫ (2.77)
a
pero (λd) /a es precisamente la separación entre franjas que se espera encontrar en el patrón de difracción sobre
la pantalla O. Ahora bien, si la posición vertical de las rendijas solo se puede determinar en un intervalo de
incertidumbre mayor a la separación de las franjas, es imposible observar el patrón de interferencia.
La discusión anterior nos muestra que la construcción de una teorı́a cuántica de la radiación requiere de la
construcción de una teorı́a cuántica de la materia para evitar contradicciones. En el ejemplo anterior, si trabajamos
la placa P como un sistema clásico material, invalidamos el principio de complementariedad de los dos aspectos
corpuscular y ondulatorio de la luz y por tanto, la teorı́a cuántica de la radiación. Se puede demostrar que dificulta-
des análogas surgen cuando se considera que solo la materia posee carácter cuántico. Por tanto, la consistencia del
principio de complementariedad requiere que tanto la materia como la radiación tengan caracterı́sticas cuánticas.
Otro aspecto que vale la pena discutir, es que en este ejemplo la naturaleza cuántica de P es esencial para un
adecuado entendimiento del fenómeno, a pesar de ser un sistema macroscópico. La razón estriba en que si bien el
sistema es macroscópico, las incertidumbres combinadas para el momento y la posición que se requieren en dicho
2.13. EVOLUCIÓN TEMPORAL DE PAQUETES DE ONDAS LIBRE 147

sistema para soslayar el principio de complementariedad, están en un umbral no permitido por las relaciones de
incertidumbre.
Podemos entonces precisar el principio de complementariedad enunciado por Niels Bohr diciendo que la
naturaleza ondulatoria y corpuscular de la radiación o de las partı́culas no pueden exhibirse al mismo tiempo
en la misma medida. Los conceptos clásicos de onda y partı́cula son mutuamente excluyentes cuando se utilizan
para describir fenómenos cuánticos. Puesto que la existencia de las dos caracterı́sticas de onda y partı́cula no
puede ser observada simultáneamente, éstas no generan conflicto la una con la otra en un mismo experimento. No
obstante, ambas son necesarias para la descripción de los fenómenos cuánticos. Las dos descripciones dan visiones
complemetarias de la realidad, no visiones contradictorias. Bohr ilustraba este principio con el ejemplo simple
de una moneda que tiene dos caras pero no podemos ver las dos caras simultáneamente, el ver una de las caras
excluye la posibilidad de ver la otra.

2.13. Evolución temporal de paquetes de ondas libre


Asumamos un paquete de ondas como el descrito por (2.56), la forma especı́fica del paquete en t = 0 está
dada por las condiciones iniciales. La evolución del paquete estará entonces dictaminada por las relaciones de
dispersión que dependen de la interacción de la partı́cula con el resto del universo. Puesto que no hemos generado
una ecuación dinámica para la partı́cula no podemos en general resolver la evolución temporal de una partı́cula
interactuante, sin embargo la relación de dispersión (2.54) nos permitirá resolver el problema de la evolución
temporal para una partı́cula libre.
En el caso más simple, un paquete unidimensional está constituı́do por una sola onda plana
ω
 ω 
ψ (x, t) = Aei(kx−ωt) = Aeik(x− k t) = f x − t
k
su parte real es h  ω i
ψ (x, t) = A cos k x − t
k
su velocidad de propagación (velocidad de propagación del frente de onda i.e. de un punto con fase constante)
está dada por la velocidad con que se propaga el máximo correspondiente a xM = 0 en t = 0 (que corresponde a
fase total cero). Para cualquier tiempo la posición de este máximo corresponde a fase total cero
ω ω
xM (t) − t = 0 ⇒ xM (t) = t
k k
la velocidad de este máximo es entonces
dxM (t) ω
= Vf (k) = (2.78)
dt k
como esta es la velocidad de un punto que define una fase total constante para todo tiempo (fase cero), llamaremos

a este término velocidad de fase de la onda plana, la cual solo depende de x y t por medio de x − ωk t .
Es bien sabido que para ondas electromagnéticas en el vacio Vf es independiente de k e igual a c. Todas las
ondas que constituyen el paquete viajan a la misma velocidad de modo que el paquete mantiene su forma. Sin
embargo, en un medio dispersivo la velocidad de fase está dada por
c
Vf (k) =
n (k)

siendo n (k) el ı́ndice de refracción relativo entre el vacı́o y el medio. En este caso cada onda componente viaja a
distinta velocidad, lo cual produce un cambio de forma del paquete con el tiempo. A medida que se propaga el
paquete se ensancha, fenómeno conocido como dispersión. Fı́sicamente, esto se debe a que el material responde de
forma distinta para cada longitud de onda componente.
148 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

Volviendo a nuestro caso de onda monocromática cuántica, si usamos las Ecs. (2.78, 2.54) vemos que la
velocidad de fase está dada por
ω ~k2 ~k
Vf (k) = = = (2.79)
k 2mk 2m
de modo que Vf es función explı́cita de k. Nótese que si usáramos la relación de dispersión dada por la ecuación
de onda, Ec. (2.55) entonces Vf no presentarı́a dispersión (Vf no depende de k) como ocurre efectivamente con
las ondas clásicas libres (como las ondas electromagnéticas libres).
Ahora analizaremos el caso de ondas que son superposición de ondas planas. Veremos a continuación que
cuando las diferentes ondas tienen diferentes velocidades de fase, la velocidad del máximo xM del paquete de onda
no es la velocidad de fase promedio dada por
ω0 ~k0
=
k0 2m
como antes, comencemos con el ejemplo simple de la superposición de tres ondas planas similares a las descritas
en (2.60) pero ahora con variación temporal
 
g (k0 ) i(k0 x−ω0 t) 1 i[(k0 − ∆k )x−(ω0 − ∆ω )t] 1 i[(k0 + ∆k )x−(ω0 + ∆ω )t]
ψ (x, t) = √ e + e 2 2 + e 2 2 (2.80)
2π 2 2
  
g (k0 ) ∆k ∆ω
= √ ei(k0 x−ω0 t) 1 + cos x− t
2π 2 2
    
g (k0 ) ik0 x− ωk 0 t ∆k ∆ω
ψ (x, t) = √ e 0 1 + cos x− t (2.81)
2π 2 ∆k

puesto que las tres ondas tiene números de onda k0 y k0 ± ∆k, es claro que k0 es el número de onda promedio.
Similarmente, ω0 es la frecuencia angular promedio.
De la Ec. (2.81) se vé claramente que el máximo de |ψ (x, t)| que estaba en x = 0 cuando t = 0 está ahora en
el punto
∆ω
xM (t) = t (2.82)
∆k
y no en el punto x = ω0 t/k0 . El origen de este resultado se puede apreciar en la Fig. 2.8, en (a) se representa la

Figura 2.8: Posición de tres máximos consecutivos (1) (2) (3) para cada una de las tres ondas planas de la super-
posición en la Ec. (2.81). (a) Configuración de los máximos en t = 0, para el cual hay interferencia constructiva
en x = 0, que se da con los máximos rotulados por (2). (b) Configuración en un instante posterior en el cual la
interferencia totalmente constructiva se da a la derecha de x con los máximos (3).

posición en t = 0 de tres máximos consecutivos de cada una de las partes reales de las tres ondas. Puesto que los
2.13. EVOLUCIÓN TEMPORAL DE PAQUETES DE ONDAS LIBRE 149

máximos denotados con (2) coinciden en x = 0, hay una interferencia constructiva en este punto lo cual nos da
el máximo de |ψ (x, t = 0)|. Puesto que la velocidad de fase aumenta con k según (2.79), tenemos que el máximo
(3) de la onda k0 + ∆k 2 termina alcanzando al máximo de la onda k0 también denotado por tres. Similarmente
el máximo (3) de k0 alcanzará al máximo de k0 − ∆k 2 denotado por (3). Un análisis detallado muestra que todos
coinciden en cierto tiempo t, determinando entonces el máximo xM (t) de |ψ (x, t)| por interferencia constructiva.
El cálculo detallado del punto donde esto ocurre reproduce la Ec. (2.82).
Analicemos finalmente el caso en el cual el paquete de ondas es arbitrario y consta de una superposición
contı́nua de ondas planas como en la Ec. (2.57). El corrimiento del centro del paquete se encuentra aplicando de
nuevo el método de fase estacionaria. Comparando la forma de ψ (x, t) con la de ψ (x, 0) Ecs. (2.57, 2.58) vemos
que si la transformada de Fourier en (2.57) no depende explı́citamente del tiempo, entonces ψ (x, t) se obtiene
a partir de ψ (x, 0) con la asignación ψ̄ (k) → ψ̄ (k) e−iω(k)t . Por tanto, el razonamiento dado en la pág. 142 se
mantiene válido reemplazando el argumento α (k) de ψ̄ (k) en la Ec. (2.63), por el argumento

α (k) → α (k) − ω (k) t (2.83)

la condición de fase estacionaria (2.71) se escribe ahora de la forma


 
d dα dω (k)
[kxM + α (k) − ω (k) t]k=k0 = 0 ⇒ xM + − t =0
dk dk dk k=k0

Y la dinámica del centro del paquete estará dada por


   
dω dα
xM (t) = t−
dk k=k0 dk k=k0

que nos reproduce una vez más el resultado (2.82) solo que en este caso ∆ω y ∆k tienden a cero ya que hay un
barrido contı́nuo en estas variables. La velocidad del máximo del paquete de ondas es
 
dxM (t) dω
Vg (k0 ) = =
dt dk k=k0

conocida como velocidad de grupo del paquete. Con la relación de dispersión (2.54) para partı́cula libre y teniendo
en cuenta (2.79) tenemos que
~k0
Vg (k0 ) = = 2Vf (k0 ) (2.84)
m
Notamos entonces dos diferencias importantes entre la onda asociada a la partı́cula libre cuántica y la solución
libre ondulatoria proveniente de la ecuación de onda. (a) Las ondas electromagnéticas clásicas libres no presentan
dispersión en tanto que la solución cuántica (ondulatoria) de partı́cula libre si presenta dispersión y (b) para
las ondas electromagnéticas libres la velocidad de grupo es menor que la de fase, mientras que para la solución
ondulatoria de partı́cla libre cuántica, la velocidad de grupo es mayor que la velocidad de fase10 .
Nótese que el resultado (2.84) reproduce adecuadamente el lı́mite clásico ya que si ∆x y ∆p son ambos
despreciables, podemos hablar de la posición xM (t) y del momento p0 de la partı́cula. Pero entonces su velocidad
debe ser p0 /m según la mecánica clásica, esto es compatible con la Ec. (2.84) obtenida en el marco cuántico con
p0 = ~k0 , siempre que ∆x y ∆p sean ambos despreciables Vg se puede asociar a la velocidad de la partı́cula, que
es la velocidad del máximo del paquete.
Es posible también estudiar la forma en que evoluciona la forma del paquete. Si por ejemplo ∆p es una
constante de movimiento entonces ∆x se incrementa con el tiempo, (dipersión del paquete).
10
Nótese que el hecho de que la velocidad de grupo sea mayor a la de fase en la Ec. (2.84), no entra en contradicción con la relatividad,
puesto que nuestros resultados solo son válidos en un régimen no relativista, ya que la relación de dispersión (2.54) proviene de la
ecuación (2.53), la cual es no relativista.
150 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

2.14. Caracterización de paquetes de onda gaussianos


Estudiaremos perfiles de paquetes de onda ψ (x, 0) para los cuales la transformada de Fourier ψ̄ (k, 0) es
gaussiana. Este ejemplo especı́fico es de amplio uso en fı́sica y tiene la ventaja de permitir ilustrar los conceptos
asociados a paquetes de onda con cálculos exactos. Estudiaremos además la evolución temporal de estos paquetes.

2.14.1. Integrales básicas para paquetes gaussianos


El cálculo del paquete de onda (y muchos otros cálculos relativos a paquetes de onda gaussianos) requiere
evaluar una integral del tipo Z ∞
2 2
I (α, β) = e−α (ξ+β) dξ
−∞

donde α y β son números complejos. Es necesario que Re α2 > 0 para que la integral converja. El teorema del
residuo nos permite encontrar que
I (α, β) = I (α, 0)
de modo que la integral no depende de β. Si se satisface la condición |Arg (α)| < π/4 (lo cual siempre es posible
si Re α2 > 0), esta integral se puede escribir como

1
I (α, 0) = I (1, 0)
α
y solo resta calcular I (1, 0), lo cual se puede hacer como una integral doble en el plano XY usando coordenadas
polares Z ∞
2 √
I (1, 0) = e−ξ dξ = π
−∞

de lo cual se obtiene Z √

−α2 (ξ+β)2 π
I (α, β) = e dξ = (2.85)
−∞ α

2.14.2. Perfiles de paquetes de onda gaussianos


Consideremos el modelo unidimensional de una partı́cula libre cuya función de onda en t = 0 tiene el perfil
√ Z ∞
a 2
− a4 (k−k0 )2 ikx
ψ (x, 0) = e e dk (2.86)
(2π)3/4 −∞

el cual resulta de superponer ondas planas eikx con coeficientes de Fourier de la forma

1 a − a2 (k−k0 )2
√ ψ̄ (k, 0) = e 4 (2.87)
2π (2π)3/4

para calcular ψ (x, 0) es conveniente reescribir la exponencial en (2.86) de modo que los términos en k queden
como un cuadrado perfecto a fin de compararlos con (2.85)
 
a2 2 a2 2ix 2 x2
− (k − k0 ) + ikx = − k − k0 − 2 + ik0 x − 2
4 4 a a

con lo cual la Ec. (2.86) queda


√ 2
Z ∞ 2
h i2
a x
ik0 x − a2 − a4 k−k0 − 2ix
2
ψ (x, 0) = e e e a dk
(2π)3/4 −∞
2.15. EVOLUCIÓN TEMPORAL DE PAQUETES DE ONDA GAUSSIANOS (OPCIONAL) 151

comparando con (2.85) vemos que α = a/2 de modo que


√ √
a ik0 x − x22 2 π
ψ (x, 0) = e e a
(2π)3/4 a
 1/4
2 x2
ik0 x − a2
ψ (x, 0) = e e (2.88)
πa2

vemos entonces que la transformada de Fourier de un paquete gaussiano es también gaussiana. El módulo al
cuadrado del paquete y de su transformada en t = 0 (que estarán relacionados con las densidades de probabilidad
asociadas a la posición y momento respectivamente, para una partı́cula en t = 0) se obtienen de (2.87, 2.88), y
son
(  2 )
k−k0
r r  2 2 a exp − √
2 2x2 2 − x√ a e− a2 (k−k0 )2 ( 2/a)
|ψ (x, 0)|2 = e− 2
a = e a/ 2 ; ψ̄ (k, 0) 2 = √ = √ (2.89)
πa2 πa2 2π 2π
y la curva asociada a este módulo es una tı́pica campana de Gauss. El centro del paquete de onda corresponde al
máximo de |ψ (x, 0)|2 y se sitúa en x = 0. Esto resultado también se puede obtener por aplicación de la Ec. (2.70).

2.14.3. Relaciones de incertidumbre para paquetes gaussianos


2 2
Al igual que para todo paquete que no posee nodos, el ancho de una función gaussiana f (x) = e−x /b no
puede ser definido en forma unı́voca. Sin embargo, es costumbre definir tal ancho de modo que cuando x varı́a

entre ±∆x la función f (x) se haya reducido en un factor de 1/ e, esto conduce a un ancho
   
x 2 b
f (x) = exp − → ∆x = √ (2.90)
b 2
esta definición tiene la ventaja de coincidir con la definición de la raı́z de la desviación media cuadrática, como
veremos más adelante. Con esta convención podemos 2 definir el ancho11asociado al cuadrado del paquete de onda
|ψ (x, 0)| y de su transformada de Fourier ψ̄ (k, 0) en la Ec. (2.89)
2

a 1 ~
∆x = ; ∆k = ⇒ ∆p = (2.91)
2 a a
con lo cual se obtiene
~
(∆x) · (∆p) = (2.92)
2
relación que es compatible con el principio de incertidumbre. Nótese además que el principio de incertidumbre
se escribe en general en la forma (∆x) · (∆p) & ~/2. Esto implica que el principio de incertidumbre permite en
general, que el producto del ancho de la función con el ancho de su transformada de Fourier adquiera un valor
mayor al lı́mite inferior. Si aceptamos a ~/2 como el lı́mite inferior, vemos que los paquetes de onda gaussianos
predicen una igualdad, es decir que los productos de las incertidumbres siempre tienen el menor valor posible. En
tal sentido decimos que los paquetes de onda gaussianos son paquetes de “mı́nima incertidumbre”.

2.15. Evolución temporal de paquetes de onda gaussianos (opcional)


La Ec. (2.56) junto con la relación de dispersión (2.54) nos dan la forma del perfil de un paquete de onda
asociado a partı́cula libre, donde el paquete inicial tiene forma arbitraria. Aplicando estas ecuaciones al caso
11
Es más adecuado definir los anchos asociados a las funciones al cuadrado ya que éstas son las que tienen interpretación fı́sica
directa.
152 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

especı́fico en que el paquete inicial posee el perfil gaussiano dado por la Ec. (2.87), se tiene que
√ Z ∞
a 2
− a4 (k−k0 )2 i[kx−ω(k)t] ~k2
ψ (x, t) = e e dk ; ω (k) = (2.93)
(2π)3/4 −∞ 2m

veremos que el paquete permanece gaussiano para todo tiempo t. Se puede agrupar la parte dependiente de k de
los exponentes para formar un cuadrado perfecto, con el fin de comparar (2.93) con (2.85) y obtener
 h i2 
 2 1/4 iϕ x − ~k0
t
2a e  m 
ψ (x, t) =  1/4
eik0 x exp − 2 2i~t 
π 2 2 a + m
a4 + 4~m2t
~k02 2~
ϕ ≡ −θ − t ; tan 2θ = t
2m ma2
el módulo al cuadrado del paquete (densidad de probabilidad) en el tiempo t está dado por
  2 
r 
2 1  2a x − m t 
2 ~k0 
2
|ψ (x, t)| = q exp − 2 2 (2.94)
πa2 1 + 4~2 t2 
 a4 + 4~m2t 

2
m a4

debemos ahora calcular Z ∞


|ψ (x, t)|2 dx (2.95)
−∞

una forma serı́a empleando (2.85) para integrar (2.94). No obstante, es más simple observar de la expresión (2.93)
que la transformada de Fourier de ψ (x, t) viene dada por

ψ̄ (k, t) = e−iω(k)t ψ̄ (k, 0) (2.96)



se vé entonces que ψ̄ (k, t) = ψ̄ (k, 0) . Por otro lado, es bien conocido del análisis de Fourier, que ψ̄ (k, t) =
|ψ (x, t)| (ecuación de Parseval-Plancherel) para todo tiempo, con lo cual se obtiene

|ψ (x, t)| = ψ̄ (k, t) = ψ̄ (k, 0) = |ψ (x, 0)|

por tanto, la norma del paquete es independiente del tiempo y por tanto también la integral (2.95). Este resultado es
importante para la conservación de la probabilidad y de hecho para la consistencia de la interpretación de |ψ (x, t)|2
como una densidad de probabilidad. Veremos más adelante que esto resulta del hecho de que el Hamiltoniano de
la partı́cula libre es hermı́tico.
Ahora bien, la Ec. (2.94) nos dice que la densidad de probabilidad es gaussiana centrada en

~k0
xM = V0 t ; V0 ≡
m
donde V0 es la velocidad del paquete. Esta expresión es consistente con la velocidad de grupo dada por la Ec.
(2.84).

2.15.1. Dispersión del paquete de onda gaussiano (opcional)


Tomando la expresión (2.90) para el ancho ∆x (t) del paquete de onda, y teniendo en cuenta el perfil del
paquete Ec. (2.94), tenemos que r
a 4~2 t2
∆x (t) = 1+ 2 4 (2.97)
2 m a
2.15. EVOLUCIÓN TEMPORAL DE PAQUETES DE ONDA GAUSSIANOS (OPCIONAL) 153

Figura 2.9: Dispersión de un paquete de onda Gaussiano libre. El ancho del paquete se reduce a medida que se
propaga desde t = −∞ hasta t=0. Posteriormente, el paquete comienza a ensancharce indefinidamente a medida
que se propaga.

esta ecuación nos muestra que la evolución del paquete no consiste simplemente en una propagación con velocidad
V0 . El paquete también sufre deformación. Cuando t se incrementa desde −∞ hasta cero, el ancho del paquete
decrece y alcanza su valor mı́nimo en t = 0, a partir de entonces el paquete se ensancha indefinidamente (dispersión
del paquete de onda). Esta situación se ilustra en la Fig. 2.9.
Adicionalmente, la Ec. (2.94) para el perfil del paquete nos muestra que la altura también varı́a, pero de forma
opuesta al ancho, de tal manera que la norma de ψ (x, t) permanece constante.
Es natural ahora preguntarse por el comportamiento de la forma del “paquete de ondas en el espacio de
los momentos (o espacio recı́proco)” con el tiempo. Las propiedades de la transformada de Fourier ψ̄ (k, t) son
totalmente distintas, vemos por ejemplo que de acuerdo a la Ec. (2.96) se tiene que

ψ̄ (k, t) = ψ̄ (k, 0)

de modo que el momento promedio del paquete ~k0 y la dispersión del momento ∆p = ~∆k son constantes en
el tiempo. Veremos más adelante que esto es una consecuencia de que el momento lineal es una constante de
movimiento para la partı́cula libre. En virtud de la ausencia de interacción, la distribución de momentos de una
partı́cula libre no cambia. Adicionalmente, dado que ∆p es constante y que ∆x crece con el valor absoluto del
tiempo, es claro que estos ya no son paquetes de mı́nima incertidumbre excepto para t = 0, esto se debe a que
el paquete en el espacio recı́proco (i.e. la transformada de Fourier del paquete de ondas en el espacio) ya no es
puramente gaussiano en t 6= 0, como se puede ver en la Ec. (2.96).
Cuánticamente, la existencia de una dispersión del momento ∆p = ~∆k significa que la velocidad de la partı́cula
solo se conoce en un intervalo ∆v = ∆p/m y usando la última de las Ecs. (2.91), vemos que ∆v = ~/ma. Este
hecho posee un interesante análogo clásico: imaginemos un conjunto de partı́culas clásicas que en t = 0 están
localizadas en x = 0 y que tienen una dispersión ∆v = ~/ma de sus velocidades. Es claro que en el tiempo t la
dispersión de sus posiciones será
~ |t|
∆xcl = |t| ∆v = (2.98)
ma
donde estamos asumiendo que se calcula su dispersión también para tiempos negativos anteriores a t = 0. La
dispersión decrece linealmente para la evolución temporal desde un t < 0 y crece linealmente con t a partir de
t = 0. La Fig. 2.10, muestra una comparación entre el comportamiento temporal de los anchos clásico ∆xcl y
cuántico ∆x dados por las Ecs. (2.97, 2.98). Vemos que cuando |t| → ∞ las dos gráficas coinciden, dado que las
rectas correspondientes al ancho clásico son las ası́ntotas de la hipérbola cuántica. Por tanto, para |t| muy grande
podemos decir que hay un comportamiento cuasi-clásico del ancho cuántico ∆x. Sin embargo, cuando |t| → 0, el
comportamiento cuántico difiere cada vez más del clásico. Esto se debe a que la partı́cula cuántica debe siempre
satisfacer el principio de incertidumbre de Heisenberg ∆x ∆p ≥ ~/2 y dado que ∆p es fijo, éste impone un lı́mite
inferior para ∆x que el sistema clásico no tiene que obedecer (efectivamente nuestro sistema clásico no poseı́a
154 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS

Figura 2.10: Comparación entre el comportamiento con el tiempo de un ∆x cuántico (hipérbola) y su análogo
clásico ∆xcl (rectas).

dispersión en la posición para t = 0 ya que todas las partı́culas estaban en x = 0). No obstante, este análogo
clásico debe tomarse con cuidado. Por ejemplo, en nuestro sistema clásico la dispersión se generó con un conjunto
de partı́culas, en tanto que la dispersión cuántica esta asociada a un conjunto de ondas asociadas a UNA SOLA
partı́cula.
Vale la pena anotar que aunque hemos analizado la dispersión de un paquete de ondas libres cuya condición
inicial consta de componentes gaussianas, la dispersión se presenta para un paquete libre bajo cualquier forma
inicial del paquete, y la variación del ancho del paquete con el tiempo tiene la forma mostrada en la Fig. 2.10.
Combinando las Ecs. (2.91, 2.97) vemos que
r r
~ 4~2 t2 1 4~2 t2
∆x · ∆p = 1 + 2 4 ⇒ ∆x · ∆k = 1+ 2 4 (2.99)
2 m a 2 m a
para t = 0 el lı́mite inferior está en el mismo orden de magnitud que el dado en la Ec. (2.72)12 Pág. 142. Sin
embargo, para tiempos grandes en valor absoluto, el lı́mite inferior de (2.99) se aleja mucho de aquél que se
estimó en (2.72). Para entender esta discrepancia, recordemos que de acuerdo con la Ec. (2.64) Pág. 140, nuestro
tratamiento general asumió que la fase α (k) de la transformada de Fourier se podı́a aproximar a una función
lineal dentro del rango ∆k. Despreciar los términos no lineales en la expansión (2.64) equivale a decir que
 2 
2 d α (k)
(∆k) ≪ 2π (2.100)
dk2 k=k0

de no ser ası́ la contribución de segundo orden a α (k) no será mucho menor a 2π dentro del
2
 dominio k0 ± ∆k. En
nuestro contexto, puesto que ∆k ≃ 1/a y de la Ec. (2.93) se tiene que α (k) = − ~k /2m t, la condición (2.100)
se escribe como
~t
≪ 2π (2.101)
a2 m
esta condición se cumple en t = 0 y tiempos t ≪ 2πa2 m/~. En contraste, falla para tiempos suficientemente
grandes para los cuales el lı́mite inferior en (2.99) difiere sustancialmente de aquél en la Ec. (2.72).
12
Recordemos que para encontrar la Ec. (2.72), se asumió que la transformada de Fourier tenı́a una forma similar (en perfil genérico)
a una campana de Gauss. Esto naturalmente coincide con nuestro actual tratamiento. Observemos además que la Ec. (2.72) expresa
una desigualdad que muestra la vaguedad del lı́mite inferior.
Capı́tulo 3

Ecuación de Schrödinger y sus propiedades

Hemos estudiado la dualidad onda partı́cula partiendo de los postulados de De Broglie y hemos analizado el
comportamiento de la onda asociada a una partı́cula libre. Sin embargo, si consideramos un sistema de una o más
partı́culas interactuantes será necesario generar una ecuación de movimiento que gobierne la dinámica de la onda
asociada. Si bien esta ecuación de movimiento se postulará, existen ciertos argumentos de plausibilidad para su
construcción.

3.1. Plausibilidad de la ecuación de Schrödinger


Si aceptamos la validez de los postulados de De Broglie, debemos encontrar una ecuación de movimiento que
nos describa la propagación de las ondas piloto y su relación con la dinámica de la partı́cula, para el caso en que
la partı́cula interactúe con su entorno. Por simplicidad asumiremos un caso unidimensional en esta sección.
El punto de partida será entonces las ecuaciones de De Broglie aplicadas a una partı́cula material

λ = h/p ; ν = E/h (3.1)

ahora bien, a pesar de que las relaciones de De Broglie son consistentes con la teorı́a de la relatividad (de hecho,
fueron inspiradas por las relaciones análogas en los fotones), vamos a plantear una formulación no relativista, esto
con el fin de evitar el problema del manejo de la probabilidad que surge de la posibilidad de creación y aniquilación
de partı́culas materiales. Tomaremos entonces la relación no relativista (corpuscular) entre energı́a y momento

p2
E= +V (3.2)
2m
siendo m = m0 la masa en reposo de la partı́cula. La Ec. (3.1) nos muestra que un cambio en la definición de
energı́a (por ejemplo si tomáramos la relación relativista) nos cambiarı́a el valor de ν. Los experimentos descritos
hasta ahora no han explorado la validez de la relación (3.2), de modo que las predicciones que la ecuación dinámica
haga sobre una partı́cula interactuante deben ser corroboradas por los experimentos.
Es claro que para una partı́cula libre, los resultados deben poder obtenerse con cualquier potencial constante
(no necesariamente cero) aplicado a la Ec. (3.2). Es fácil verificar que un potencial constante predice que la
velocidad de grupo de la onda piloto corresponde a p/m y por tanto a la velocidad de la partı́cula, combinando
(3.1) con (3.2) se tiene que
E p2 V 1 p
ν= = + ; K≡ =
h 2mh h λ h
teniendo en cuenta que V es constante, tenemos

2p dp dp
dν = , dK =
2mh h

155
156 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

Ahora bien, teniendo en cuenta que


k ≡ 2πK ; ω ≡ 2πν
la velocidad de grupo queda
dω dν p dp h p
Vg = = = = = vpartı́cula
dk dK mh dp m
y podemos reescribir las relaciones de De Broglie en la forma

p = ~k ; E = ~ω (3.3)

si insertamos estas relaciones en (3.2) obtenenemos la siguiente relación de Dispersión

~2 k2
+ V (x, t) = ~ω (3.4)
2m
tomaremos como prototipo la ecuación para la partı́cula libre con potencial constante. Las consideraciones ante-
riores nos dicen que la ecuación de movimiento que genere la función de onda ψ (x, t) (i.e. la dinámica de las ondas
piloto), debe cumplir las siguientes propiedades

1. Debe ser consistente con las Ecs. (3.1, 3.2). Es decir debe cumplir los postulados de De Broglie y la relación
no relativista entre E y p.

2. Debe ser lineal y homogénea en ψ (x, t) con el fin de que sea válido el principio de superposición que a su vez
nos genera los fenómenos ondulatorios de interferencia. Esto implica que si ψ1 (x, t) y ψ2 (x, t) son soluciones
de la ecuación una combinación lineal de ellas también es solución.

3. En general, consideraremos potenciales que solo dependen de la posición y el tiempo V = V (x, t). Cuando
el potencial es constante la partı́cula es libre y por tanto se deben conservar E y p, lo cual a su vez implica
que se conservan λ = 2π/k y ν de acuerdo con las relaciones (3.1).

4. Las soluciones para partı́cula libre son funcionalmente idénticas a las soluciones de la ecuación de onda
homogénea, pero deben cumplir con una relación de dispersión que sea consistente con la Ec. (3.4) con
V constante, en vez de la relación de dispersión para ondas libres dada por (2.55), lo cual nos dice que
la ecuación de onda no es la ecuación dinámica para la función de onda ψ (r, t). Entonces la ecuación de
movimiento para partı́cula libre debe tener soluciones en forma de ondas viajeras con número de onda y
frecuencia constantes.

5. Lo anterior nos lleva a postular que funciones de onda de la forma Aei(kx−ωt) son soluciones para partı́cula
libre (i.e. con potencial constante), ya que estas funciones son soluciones de la ecuación de onda homogénea
que corresponden a ondas viajeras con número de onda y frecuencia constantes, y que gracias a las relaciones
de De Broglie, también corresponden a momento y energı́a conservados.

La linealidad y homogeneidad prohibe términos del tipo [ψ (x, t)]2 (no lineales) o términos independientes de
ψ (x, t) (términos inhomogéneos o fuentes). Puesto que la mayorı́a de ecuaciones dinámicas de la Fı́sica son a lo
más de segundo orden, postularemos que los términos lineales son a lo más de segundo orden en el espacio y el
tiempo, y posiblemente un término lineal en ψ (x, t). Parametrizaremos a la ecuación en la forma siguiente

∂ψ (x, t) ∂ 2 ψ (x, t) ∂ψ (x, t) ∂ 2 ψ (x, t)


a1 + a2 − b1 − b2 + c ψ (x, t) = 0
∂x ∂x2 ∂t ∂t2

asumamos que la solución de partı́cula libre es ψ (x, t) = Aei(kx−ωt) , además se debe cumplir la relación de
dispersión (3.4) con V constante. Esta relación de dispersión contiene un término proporcional a k2 que se obtendrı́a
de una segunda derivada espacial de la onda plana, y un término lineal en ω que se puede extraer de una primera
3.1. PLAUSIBILIDAD DE LA ECUACIÓN DE SCHRÖDINGER 157

derivada temporal de la onda plana. La ausencia de un término lineal en k y de un término cuadrático en ω


sugiere la ausencia de primeras derivadas espaciales y de segundas derivadas temporales. Finalmente, la presencia
del potencial en (3.4) sugiere la presencia de un término lineal en ψ de la forma V ψ. El ansatz para la solución se
reduce a
∂ 2 ψ (x, t) ∂ψ (x, t)
a2 2
+ V ψ (x, t) = b1 (3.5)
∂x ∂t
ahora debemos ajustar los parámetros a2 y b1 de manera que exista una solución tipo onda plana que reproduzca
la relación de dispersión (3.4). Recordemos que en mecánica clásica, el carácter complejo de las soluciones de la
ecuación de onda se introduce solo por conveniencia y la solución Fı́sica es la parte real de la solución compleja.
Por este motivo si bien podemos insertar una solución tipo onda plana en (3.5), es razonable intentar primero usar
la solución real para la ecuación de onda clásica como prototipo de solución, insertaremos entonces una función
de onda de la forma
ψ (x, t) = cos (kx − ωt) (3.6)
teniendo en cuenta que k, ω y V son constantes, se tiene que
∂ 2 ψ (x, t) ∂ψ
2
= −k2 cos (kx − ωt) ; = ω sin (kx − ωt)
∂x ∂t
y al insertar estos resultados en (3.5) obtenemos
−a2 k2 cos (kx − ωt) + V cos (kx − ωt) = b1 ω sin (kx − ωt)

V − a2 k2 cos (kx − ωt) = b1 ω sin (kx − ωt)
pero no es posible ajustar los parámetros para que esta relación sea válida para todo x, t, de modo que la solución
clásica dada por (3.6) no es compatible con la relación de dispersión de la teorı́a. Aún podemos tratar de encontrar
una solución real si agregamos una fase adicional en la forma cos (kx − ωt + δ) que es equivalente a escribir una
solución de la forma
ψ (x, t) = cos (kx − ωt) + γ sin (kx − ωt) (3.7)
lo cual también se puede postular observando que en tal caso ambas derivadas tendrán senos y cosenos que
permitirán igualar coeficientes adecuadamente
∂ 2 ψ (x, t) ∂ψ
= −k2 cos (kx − ωt) − γk2 sin (kx − ωt) ; = ω sin (kx − ωt) − γω cos (kx − ωt)
∂x2 ∂t
que al insertarlos en (3.5) nos da
−a2 k2 [cos (kx − ωt) + γ sin (kx − ωt)] + V [cos (kx − ωt) + γ sin (kx − ωt)]
= b1 ω [sin (kx − ωt) − γ cos (kx − ωt)]
quedando
 
−a2 k2 + V + b1 ωγ cos (kx − ωt) + −a2 k2 γ + V γ − b1 ω sin (kx − ωt) = 0
Los coeficientes de seno y coseno deben anularse para que esta relación sea válida para todo x, t. Tenemos
entonces dos ecuaciones con tres incógnitas (a2 , b1 , γ) que junto con la relación de dispersión (3.4), nos da
~2 k2
−a2 k2 + V + b1 ωγ = 0 ; −a2 k2 γ + V γ − b1 ω = 0 ; + V = ~ω (3.8)
2m
las dos primeras ecuaciones se pueden reescribir como
b1 b1
−a2 k2 + V = −b1 ωγ ; −a2 k2 + V = ω ⇒ −b1 ωγ = ω
γ γ
1
⇒ −γ = ⇒ γ 2 = −1
γ
158 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

tenemos entonces √
γ = ± −1 = ±i
sustituyendo en la primera de las Ecs. (3.8)

−a2 k2 + V ± iωb1 = 0 ⇒ −a2 k2 + V = ∓iωb1

al comparar esta expresión con la tercera de las Ecs. (3.8)

~2
−a2 = ; ∓ib1 = ~
2m
tenemos entonces dos soluciones que dependen de la elección del signo de γ, la elección más usual es

~2
γ = i ; a2 = − ; b1 = i~
2m
que al reemplazarlo en (3.5) nos da
~2 ∂ 2 ψ ∂ψ
− 2
+ V ψ = i~
2m ∂x ∂t
que se ha derivado para un potencial constante V . Ahora postularemos que la relación se mantiene válida para
un potencial arbitrario de la forma V (x, t). Se obtiene entonces

~2 ∂ 2 ψ ∂ψ
− 2
+ V (x, t) ψ = i~ (3.9)
2m ∂x ∂t
expresión conocida como la ecuación de Schrödinger. Por supuesto podemos postular su extensión a tres dimen-
siones como
~2 2 ∂ψ (r, t)
− ∇ ψ (r, t) + V (r, t) ψ (r, t) = i~ (3.10)
2m ∂t
Nótese que γ = ±i, lo cual indica que la pretendida solución real (3.7) nos proporciona inevitablemente
una solución compleja tipo onda plana. Vemos que hay una diferencia con las soluciones de onda clásica que se
toman complejas solo por conveniencia. En contraste, para la ecuación de Schrödinger no pudimos encontrar una
solución real consistente con las relaciones de dispersión para partı́cula libre, el carácter de la solución es en esencia
complejo. Esto se refleja en el factor imaginario que aparece a la derecha de la ecuación (3.9) de Schrödinger.

3.2. Ecuación de Schrödinger para una partı́cula sometida a un potencial


escalar independiente del tiempo: estados estacionarios
Supongamos que una partı́cula de masa m está sometida a un potencial V (r). La ecuación de Schrödinger
(3.10) se escribe entonces
~2 2 ∂ψ (r, t)
− ∇ ψ (r, t) + V (r) ψ (r, t) = i~ (3.11)
2m ∂t
plantearemos una separación de variables para la solución

ψ (r, t) = χ (t) ϕ (r) (3.12)

al introducirlo en la Ec. (3.11) se obtiene

~2 ∂χ (t)
− χ (t) ∇2 ϕ (r) + V (r) χ (t) ϕ (r) = i~ϕ (r)
2m ∂t
3.2. ECUACIÓN DE SCHRÖDINGER CON POTENCIAL ESCALAR INDEPENDIENTE DEL TIEMPO 159

dividiendo a ambos lados por χ (t) ϕ (r) se escribe

~2 ∇2 ϕ (r) 1 ∂χ (t)
− + V (r) = i~
2m ϕ (r) χ (t) ∂t
el miembro izquierdo solo depende de la posición en tanto que el derecho depende solo del tiempo. Por tanto
ambos miembros deben ser iguales a una constante que por comodidad la tomaremos como ~ω, de momento ω es
solo una constante a ajustar, aunque es claro que debe tener dimensiones de frecuencia angular. Tenemos entonces
que
1 ∂χ (t) ∂χ (t)
i~ = ~ω ⇒ = −iωχ (t)
χ (t) ∂t ∂t
χ (t) = Ae−iωt (3.13)

y la ecuación para la parte espacial es

~2 ∇2 ϕ (r)
− + V (r) = ~ω ⇒
2m ϕ (r)
~2 2
− ∇ ϕ (r) + V (r) ϕ (r) = ~ωϕ (r) (3.14)
2m
combinando las Ecs. (3.12, 3.13), la solución para la ecuación de Schrödinger (3.11) es

ψ (r, t) = ϕ (r) e−iωt (3.15)

donde hemos absorbido el factor A en la solución ϕ (r) de la ecuación (3.14).


Nótese que la solución (3.15) nos conduce a una densidad de probabilidad independiente del tiempo, aunque
inhomogénea
|ψ (r, t)|2 = |ϕ (r)|2
razón por la cual se conoce como solución estacionaria de la ecuación de Schrödinger. Ahora bien, la Ec.
(3.15) nos muestra que la constante de integración ω corresponde efectivamente a la frecuencia angular asociada
a la función de onda estacionaria. Nótese que en la solución estacionaria, solo aparece un valor de frecuencia
angular ω que a su vez nos conduce a un valor bien definido de la energı́a de acuerdo con la relación de Planck
Einstein E = ~ω. En mecánica clásica un potencial independiente del tiempo nos lleva a la conservación de la
energı́a total. En mecánica cuántica, lo que podemos decir es que para potenciales independientes del tiempo
existen estados de energı́a bien determinada. La Ec. (3.14) se puede escribir entonces como
 
~2 2
− ∇ + V (r) ϕ (r) = Eϕ (r) (3.16)
2m
que se puede reescribir como
~2 2
Hϕ (r) = Eϕ (r) ; H ≡− ∇ + V (r) (3.17)
2m
siendo H un operador diferencial que es claramente lineal

H [λ1 ϕ1 (r) + λ2 ϕ2 (r)] = λ1 Hϕ1 (r) + λ2 Hϕ2 (r)

y vemos que (3.17) es una ecuación de valores propios para el operador H en la cual ϕ (r) son las funciones propias
(vectores propios) y las energı́as E son los valores propios. Las energı́as permitidas para la partı́cula son entonces
los valores propios del operador H. Nótese que no cualquier solución ϕ (r) de la ecuación de Schrödinger es una
solución fı́sica, debemos imponer que sea de cuadrado integrable, esta imposición restringirá los valores permitidos
de energı́a y nos llevará a una cuantización de esta cantidad.
160 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

A la Ec. (3.17) se le llama usualmente ecuación de Schrödinger independiente del tiempo, en tanto que a (3.11)
se le denomina ecuación de Schrödinger dependiente del tiempo. La Ec. (3.11) nos da la evolución de la función
de onda para un estado arbitrario de la partı́cula, en tanto que la Ec. (3.17) solo nos da los estados estacionarios
de ésta.
Dado que tenemos un conjunto de valores permitidos de la energı́a (autoresultados o autovalores), vamos a
rotular las energı́as y las autofunciones de la forma

Hϕn,m (r) = En ϕn,m (r)

donde tanto n como m pueden simbolizar un ı́ndice contı́nuo o discreto o incluso varios ı́ndices. El ı́ndice m me
indica la posibilidad de degeneración, es decir de varias autofunciones linealmente independientes que pertenecen
al mismo valor propio En . Los estados estacionarios de la partı́cula son de la forma

ψn,m (r, t) = ϕn,m (r) e−iEn t/~

ψn,m (r, t) es una solución de la ecuación de Schrödinger Ec. (3.11), y en virtud de la linealidad de esta ecuación,
una superposición de las soluciones estacionarias es también solución
XX
ψ (r, t) = cnm ϕn,m (r) e−iEn t/~ (3.18)
n m

en realidad es usual que se requiera la superposición puesto que soluciones arbitrarias no satisfacen en general
las condiciones iniciales y de frontera que pide un problema especı́fico. La superposición garantiza que podemos
obtener cualquier estado siempre que las funciones ϕnm (r) sean completas como funciones espaciales (las funciones
temporales son ondas planas y por tanto completas), esto requiere a su vez que el operador H tenga el carácter
de observable.
Para t = 0 la Ec. (3.18) nos da XX
ψ (r, 0) = cnm ϕn,m (r) (3.19)
n m

de modo que si conocemos el estado inicial del sistema (el cual es en principio arbitrario) podemos descomponerlo
en la base de las autofunciones ϕn,m de H (siempre que H sea un observable). Para obtener la evolución temporal
basta con multiplicar cada término en (3.19) por e−iEn t/~ , debe aclararse que cada término corresponde a una fase
diferente y por tanto la superposición ya no corresponde en general a un estado estacionario.
Es esencial tener presente que toda esta discusión solo es válida cuando V (r) no es función explı́cita del tiempo,
de otro modo no es posible en general tener soluciones con separación de variables.

3.3. Propiedades generales de la ecuación de Schrödinger


Retornaremos ahora a la forma general de la ecuación de Schrödinger Ec. (3.10)
 
~2 2 ∂ψ (r, t)
− ∇ + V (r, t) ψ (r, t) = i~
2m ∂t
∂ψ (r, t)
H (r, t) ψ (r, t) = i~ (3.20)
∂t
en la cual el potencial puede depender del espacio y del tiempo. La primera observación relevante es que el operador
H es hermı́tico. Para ver esto, basta con tener en cuenta que desde el punto de vista de los kets, las funciones de
onda son kets escritos en la representación de coordenadas, y en tal representación el operador H se puede escribir
como
(−i~∇) (−i~∇) P2
H= + V (r, t) = + V (r, t) (3.21)
2m 2m
3.3. PROPIEDADES GENERALES DE LA ECUACIÓN DE SCHRÖDINGER 161

siendo P el operador definido por las Ecs. (1.188), que en representación de la base {|ri} está dado por la Ec.
(1.191). Ya vimos en la sección 1.43.4 que este operador es Hermı́tico, y como V (r, t) es una función real, también
es hermı́tica1 . En consecuencia H también es hermı́tico. Nótese que esto es indispensable para que el espectro de
este operador (la energı́a) sea real (ver teorema 1.62).
Ahora bien, recordemos que a cada función de onda en el espacio ̥ le asociamos un ket en el espacio E en la
forma ψ (r, t) ↔ |ψ (t)i es conveniente escribir la ecuación de Schrödinger como una ecuación dinámica de los kets
(en lugar de la función de onda), debido a que una ecuación planteada para el vector abstracto se puede tomar
de manera muy sencilla en cualquier representación. Es fácil ver que la Ec. de Schrödinger para kets de la forma
d
i~ |ψ (t)i = H (t) |ψ (t)i (3.22)
dt
conduce a la Ec. de Schrödinger (3.20) cuando usamos la representación de la base {|ri}, siempre que H (t) sea el
operador (abstracto) que en representación de la base {|ri} esté dado por (3.21). Para verlo aplicamos el bra hr|
a ambos lados de (3.22)
d
i~ hr| |ψ (t)i = hr| H (t) |ψ (t)i
dt
dado que |ψ (t)i no depende de r, la derivada total o parcial en el tiempo coinciden para el ket. Adicionalmente,
cuando el ket se transforma en función de onda la cual es un campo, debe tenerse en cuenta que las coordenadas r
en ψ (r, t) son lugares geométricos y no variables dinámicas, por tanto las variables r y t son todas independientes,
de modo que2
d ∂ ∂
i~ hr| |ψ (t)i = i~ hr| |ψ (t)i = hr |ψ (t)i
dt ∂t ∂t
d ∂ψ (r, t)
i~ hr| |ψ (t)i =
dt ∂t
y de la condición establecida para H (t) se tiene que

hr| H (t) |ψ (t)i = H (r, t) hr |ψ (t)i = H (r, t) ψ (r, t)

con lo cual se reproduce la Ec. de Schrödinger (3.20) en representación de coordenadas. Veamos las principales
propiedades de la ecuación de Schrödinger.

3.3.1. Determinismo en las soluciones


Puesto que la ecuación es de primer orden en el tiempo, dado un estado inicial |ψ (t0 )i el estado |ψ (t)i en un
tiempo t subsequente está determinado, esto se debe a que la ecuación no es invariante ante t → −t (como sı́ ocurre
con la ecuación de onda). No hay indeterminación en la evolución del estado del sistema. La indeterminación se
produce es con el proceso de medida de una cantidad Fı́sica, en cuyo caso el vector de estado sufre un cambio
abrupto y parcialmente impredecible (ya que se puede evaluar una probabilidad para cada cambio abrupto posible).
Sin embargo, en el tiempo comprendido entre dos medidas, el vector de estado evoluciona en forma perfectamente
determinista según la Ec. (3.22).

3.3.2. Principio de superposición


Puesto que la Ec. (3.22) es lineal y homogénea (por construcción), si |ψ1 (t)i y |ψ2 (t)i son soluciones, también
lo será |ψ (t)i = λ1 |ψ1 (t)i + λ2 |ψ2 (t)i. Esto implica que si el estado inicial es de la forma |ψ (t0 )i = λ1 |ψ1 (t0 )i +
1
Visto de otro modo el potencial es un operador del tipo V (r, t) I, siendo I la identidad. Si V (r, t) es real, este operador es hermı́tico.
2
En una teorı́a clásica de campos, las coordenadas espaciales se convierten en parámetros y las coordenadas generalizadas son los
campos. Tenemos entonces cuatro parámetros: 3 posiciones y el tiempo, siendo la posiciones lugares geométricos en la “grilla” del
espacio euclidiano. Los cuatro parámetros son totalmente independientes unos de otros.
162 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

λ2 |ψ2 (t0 )i entonces el estado en un tiempo t posterior será |ψ (t)i = λ1 |ψ1 (t)i + λ2 |ψ2 (t)i con lo cual tenemos
una correspondencia lineal entre |ψ (t0 )i y |ψ (t)i. Por tanto, hay un operador lineal conocido como operador
evolución temporal que conecta a estas dos funciones

|ψ (t)i = U (t, t0 ) |ψ (t0 )i (3.23)

analizaremos este operador más en detalle en la Sec. 7.1.

3.3.3. Conservación de la probabilidad


En virtud de la interpretación de |ψ (r, t)|2 como una densidad de probabilidad es necesario que
Z
hψ (t)| ψ (t)i = kψk = |ψ (r, t)|2 d3 r = 1
2

para todo tiempo, i.e. en cualquier instante la partı́cula debe encontrarse en algún lugar del espacio (excepto
cuando hay procesos de creación y destrucción de partı́culas que no incluı́mos en el presente formalismo). Esto
significa que la norma de un ket |ψ (t)i debe ser constante en el tiempo. Es necesario por tanto que la ecuación
de Schrödinger mantenga invariante en el tiempo la norma de los vectores, con el fin de dar una interpretación
probabilı́stica coherente.
Para mirar la conservación de la probabilidad debemos evaluar la derivada total de la norma en el tiempo
   
d d d
hψ (t)| ψ (t)i = hψ (t)| |ψ (t)i + hψ (t)| |ψ (t)i (3.24)
dt dt dt

la derivada temporal del ket se obtiene directamente de la ecuación de Schrödinger Ec. (3.22)

d 1
|ψ (t)i = H (t) |ψ (t)i (3.25)
dt i~
para obtener la derivada temporal del bra, sacamos el hermı́tico conjugado de dicha ecuación
d 1 1
hψ (t)| = − hψ (t)| H † (t) = − hψ (t)| H (t) (3.26)
dt i~ i~
donde hemos usado la hermiticidad de H. Reemplazando (3.25) y (3.26) en (3.24) se obtiene
   
d 1 1
hψ (t)| ψ (t)i = − hψ (t)| H (t) |ψ (t)i + hψ (t)| H (t) |ψ (t)i = 0
dt i~ i~

esto implica entonces que si normalizamos el estado inicial, el estado en cualquier tiempo continuará normaliza-
do. Nótese la importancia de la hermiticidad de H para lograr la conservación de la norma y por tanto, de la
probabilidad.

3.3.4. La ecuación de continuidad para la probabilidad


Por simplicidad trabajaremos el caso de una sola partı́cula (sin espı́n). Asumiremos que la función de onda
ψ (r, t) está normalizada, en tal caso |ψ (r, t)|2 representa la densidad de probabilidad de que la partı́cula esté en
la posición r en el tiempo t
dP (r, t) = ρ (r, t) dV = |ψ (r, t)|2 dV (3.27)
tenemos que la probabilidad total nos da
Z
PT ≡ ρ (r, t) dV = 1
3.3. PROPIEDADES GENERALES DE LA ECUACIÓN DE SCHRÖDINGER 163

para todo tiempo, de modo que PT representa una “carga generalizada” que se conserva. Por supuesto esto no
significa que la distribución de esta “carga” (distribución de probabilidad), permanezca igual en el tiempo para
cada punto r, las variaciones de ρ (r, t) con el tiempo generan una propagación de la distribución de carga. En
general tanto las variaciones espaciales como temporales de ρ (r, t) generan una corriente de probabilidad, si ρ
no es función del tiempo se genera una corriente estacionaria. Recordemos que el volumen no es necesariamente
todo el espacio si existen regiones con probabilidad cero. Lo importante es que no cruce corriente de probabilidad
en la superficie que delimita al volumen de integración, ya que si esto ocurre, habrá probabilidad diferente de cero
en regiones que en tiempos anteriores eran inaccesibles. Esta situación es análoga al caso en que ρ (r, t) simbolizaba
una densidad de carga eléctrica a la cual le podemos asociar una densidad de corriente J (r, t).
Es bien conocido que la conservación global de la carga generalizada proviene de una ley de conservación local
que prohibe la creación espontánea de carga generalizada neta. Esto implica que si tomamos un volumen por cuya
superficie limitadora cruza corriente de carga generalizada, el flujo neto de carga por la superficie hacia afuera
(adentro) debe estar compensado por una disminución (aumento) en la carga interior al volumen, el enunciado
preciso de esta ley local de conservación es


ρ (r, t) + ∇ · J (r, t) = 0 (3.28)
∂t
siendo ρ la densidad de carga generalizada y J la densidad de corriente generalizada, esta expresión es conocida
como ecuación de continuidad. Puesto que hemos encontrado la carga conservada (probabilidad total) y definido
ya la densidad de probabilidad, debemos encontrar una densidad de corriente de probabilidad que nos dé una
ecuación de la forma (3.28), en este caso estamos tratando a la probabilidad como un fluı́do o medio contı́nuo.
Volveremos a la ecuación de Schrödinger en representación de coordenadas dado por (3.10)

~2 2 ∂ψ (r, t)
− ∇ ψ (r, t) + V (r, t) ψ (r, t) = i~ (3.29)
2m ∂t
el potencial V (r, t) debe ser real para que H sea hermı́tico (lo cual es esencial para la conservación de la proba-
bilidad como ya vimos). La ecuación compleja conjugada de la Ec. de Schrödinger es

~2 2 ∗ ∂ψ ∗ (r, t)
− ∇ ψ (r, t) + V (r, t) ψ ∗ (r, t) = −i~ (3.30)
2m ∂t
multiplicamos (3.29) por ψ ∗ (r, t) y (3.30) por −ψ (r, t) y sumamos

~2 ∗ ∂ψ (r, t)
− ψ (r, t) ∇2 ψ (r, t) + V (r, t) ψ ∗ (r, t) ψ (r, t) = i~ψ ∗ (r, t)
2m ∂t
~2 ∗
∂ψ (r, t)
ψ (r, t) ∇2 ψ ∗ (r, t) − V (r, t) ψ (r, t) ψ ∗ (r, t) = i~ψ (r, t)
2m ∂t
quedando
 
~2  ∗ 2 2 ∗
 ∗ ∂ψ ∂ψ ∗
− ψ ∇ ψ − ψ∇ ψ = i~ ψ +ψ
2m ∂t ∂t
~   ∂ ∗
− ψ ∗ ∇2 ψ − ψ∇2 ψ ∗ = [ψ ψ]
2mi ∂t
sumando y restando un término a la izquierda

~  ∗ 2  ∂ ∗
− ψ ∇ ψ + (∇ψ ∗ ) · (∇ψ) − (∇ψ ∗ ) · (∇ψ) − ψ∇2 ψ ∗ = [ψ ψ]
2mi ∂t
~ ∂ρ
− ∇ · [ψ ∗ ∇ψ − ψ∇ψ ∗ ] =
2mi ∂t
164 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

quedando finalmente  
∂ρ ~ ∗ ∗
+∇· [ψ ∇ψ − ψ∇ψ ] = 0 (3.31)
∂t 2mi
y comparando (3.31) con la ecuación (3.28) de continuidad se tiene que
~
J= [ψ ∗ ∇ψ − ψ∇ψ ∗ ]
2mi
esta ecuación se puede reescribir definiendo
 
~ 1
J = [Z − Z ∗ ] ; Z ≡ ψ ∗ ∇ψ
m 2i
      
1 1 ~Z ~Z ∗ 1 ~Z
J = + = Re
m 2 i i m i
de modo que   
~ ∗ ∗ 1 ∗ ~
J (r, t) = [ψ ∇ψ − ψ∇ψ ] = Re ψ ∇ψ (3.32)
2mi m i
hemos probado entonces la conservación local de la probabilidad y encontramos la forma explı́cita de la densidad
de corriente, la cual es real como era de esperarse.
Vale la pena calcular la corriente de probabilidad para el caso especial de estados estacionarios de la forma
(3.15), en tal caso al reemplazar (3.15) en (3.32) resulta
~ ~ n ∗      ∗ o
J = [ψ ∗ ∇ψ − ψ∇ψ ∗ ] = ϕ (r) e−iωt ∇ ϕ (r) e−iωt − ϕ (r) e−iωt ∇ ϕ (r) e−iωt
2mi 2mi
~  ∗ iωt −iωt

J = ϕ (r) e e ∇ϕ (r) − ϕ (r) e−iωt eiωt ∇ϕ∗ (r)
2mi
quedando finalmente
 
~ ∗ ∗ 1 ∗ ~
J (r) = {ϕ (r) ∇ϕ (r) − ϕ (r) ∇ϕ (r)} = Re ϕ (r) ∇ϕ (r) estados estacionarios (3.33)
2mi m i
comparando, (3.32) con (3.33), vemos que para estados estacionarios, la corriente se puede calcular reemplazando
ψ (r, t) por ϕ (r), es decir omitiendo la componente temporal de ψ. Efectivamente, (3.33) corresponde a una
corriente estacionaria tal como se usa en mecánica clásica, i.e. una corriente que depende de la posición pero que
no depende explı́citamente del tiempo.

3.3.5. Expresión polar de la corriente de probabilidad


Consideremos una función de onda arbitraria ψ (r), utilizando su descomposición compleja polar tenemos

ψ (r) = α (r) eiξ(r) ; α (r) ≥ 0 , 0 ≤ ξ (r) < 2π

si sustituı́mos esta expresión polar en la Ec. (3.32) para la densidad de corriente de probabilidad encontramos
que3
~ n h i h io
J (r) = α (r) e−iξ(r) ∇ α (r) eiξ(r) − α (r) eiξ(r) ∇ α (r) e−iξ(r)
2mi
~ n o
= α (r) e−iξ(r) eiξ(r) [∇α (r) + iα (r) ∇ξ (r)] − α (r) eiξ(r) e−iξ(r) [∇α (r) − iα (r) ∇ξ (r)]
2mi
~ 2
J (r, t) = α (r, t) ∇ξ (r, t) (3.34)
m
3
Por simplicidad hemos omitido la posible dependencia explı́cita del tiempo pero esto no altera los resultados.
3.4. APLICACIÓN DE LA ECUACIÓN DE SCHRÖDINGER A POTENCIALES DISCONTÍNUOS 165

y la densidad de probabilidad está dada por

ρ (r, t) = |ψ (r, t)|2 = α2 (r, t) (3.35)

vemos que ρ (r, t) solo depende del módulo del complejo ψ (r, t), en tanto que J (r, t) depende del módulo y del
gradiente de la fase. Por ejemplo, si la fase es constante en el espacio, J (r, t) es cero, aunque la densidad no lo
sea4 . Las Ecs. (3.34, 3.35) nos dan a J (r, t) y ρ (r, t) cuando conocemos ψ (r, t), vale preguntarse si inversamente
podemos determinar unı́vocamente a ψ (r, t) con base en el conocimiento de J (r, t) y ρ (r, t). La Ec. (3.35) nos da
a ρ (r, t) en función del módulo de ψ (r, t). Por otro lado, dividiendo las Ecs. (3.34, 3.35) resulta

m J (r, t)
∇ξ (r, t) =
~ ρ (r, t)

esta ecuación solo tiene solución si


J (r, t)
∇× =0 (3.36)
ρ (r, t)
que tiene un conjunto infinito de soluciones que solo diferen en una constante (o en una función solo del tiempo),
que corresponderı́a a una fase global irrelevante en ψ (r, t). Por tanto, si conocemos a ρ (r, t) y J (r, t) entonces
ψ (r, t) está bien especificada siempre y cuando se satisfaga la condición (3.36). Si dicha condición no se satisface,
no existe una función de onda asociada a ρ (r, t) y J (r, t) incluso si éstas cumplen con la ecuación de continuidad.

3.4. Aplicación de la ecuación de Schrödinger a potenciales discontı́nuos


Hemos visto que los efectos cuánticos no son evidentes cuando se considera a h como muy pequeña. En
particular, si la longitud de onda λ = h/p asociada a la partı́cula es mucho menor que todas las demás longitudes
involucradas en el problema, la naturaleza ondulatoria de la materia quedará apantallada y el comportamiento
de la partı́cula será esencialmente clásico. Esto es análogo a lo que ocurre entre la óptica geométrica y la óptica
ondulatoria. Cuando la longitud de la onda es mucho menor que las demás longitudes involucradas en el problema,
la óptica geométrica nos predice muy bien los fenómenos ópticos, el comportamiento de los rayos es esencialmente
corpuscular. Cuando esto no se cumple, los aspectos ondulatorios de la luz se vuelven importantes para una
adecuada descripción de los fenómenos.
De la misma forma, cuando un potencial actúa sobre una partı́cula, los efectos cuánticos debidos a esta
interacción solo serán significativos si el potencial varı́a significativamente sobre una distancia menor a la longitud
de onda de DeBroglie asociada a la partı́cula. Es por esta razón que estudiaremos potenciales discontı́nuos en donde
la variación será finita para una distancia básicamente cero (es decir menor que cualquier longitud de onda). Es
claro que esto constituye una idealización ya que los potenciales fı́sicos deben ser contı́nuos si bien pueden exhibir
una enorme pendiente. Este lı́mite solo corresponderá aproximadamente a la realidad si la distancia δx en que
ocurre esta fuerte variación, es mucho menor que la longitud de onda de De Broglie asociada a la partı́cula y
mucho menor que cualquier otra longitud tı́pica del problema. Estos potenciales se podrán definir adecuadamente
a través de la función paso definida por

0 si x < x0
θ (x − x0 ) =
1 si x > x0

3.5. Potenciales rectangulares, análogo óptico


Definamos un potencial de la forma
4
Esto es una consecuencia más del carácter intrı́nsecamente complejo de la función de onda, pues la fase tiene un claro contenido
fı́sico.
166 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES


 V0 si −∞ < x < x0
V (x) = V1 si x0 < x < x1 ; V1 < V2 < V0 (3.37)

V2 si x1 < x < ∞
la fuerza F (x) = −dV (x) /dx serı́a del tipo

F (x) = F0 δ (x − x0 ) − F1 δ (x − x1 )

En primer lugar las predicciones de la mecánica clásica son inmediatas, por ejemplo si V (x) es una energı́a
potencial gravitacional, el perfil del potencial representa el perfil de la superficie sobre la cual se mueve la partı́cula,
los valores de x para los cuales E < V estarán prohibidos. En las regiones de potencial constante la velocidad
de la partı́cula es constante ya que es libre, solo en las discontinuidades experimenta una fuerza y si pasa a la
otra región (si E > V ) su energı́a cinética se verá aumentada (disminuı́da) si pasa a una zona de menor (mayor)
potencial.
Como el potencial no depende del tiempo podemos encontrar soluciones estacionarias para la ecuación de
Schrödinger. En la región de potencial constante V , la ecuación de Schrödinger independiente del tiempo nos da
 
~2 d2
− + V ϕ (x) = Eϕ (x)
2m dx2
 2 
d 2m
+ 2 (E − V ) ϕ (x) = 0 (3.38)
dx2 ~
escrita en esta forma la ecuación tiene un interesante análogo óptico. Consideremos un medio transparente de
ı́ndice de refracción n independiente de la posición y el tiempo. En tal medio puede haber ondas electromagnéticas
con campo eléctrico independiente de y y z

E (r, t) = uE (x) e−iΩt (3.39)

siendo u un vector unitario perpendicular al eje x, teniendo en cuenta que E satisface la ecuación de onda y las
ecuaciones de Maxwell, resulta  2 
d n2 Ω2
+ E (x) = 0 (3.40)
dx2 c2
las Ecs. (3.38) y (3.40) son idénticas si hacemos la asignación

2m n2 Ω2
2
(E − V ) = 2 (3.41)
~ c
adicionalmente, en los lugares en donde V (y por tanto n) son discontı́nuos las condiciones de frontera para ϕ (x)
y E (x) son las mismas: las soluciones y sus primeras derivadas deben permanecer contı́nuas (lo veremos más
adelante para las ϕ (x)). Esta analogı́a permite asociar al problema de una partı́cula en un potencial del tipo
(3.37) un problema óptico asociado a la propagación de una onda electromagnética de frecuencia angular Ω en un
medio cuyo ı́ndice de refracción n tiene discontinuidades del mismo tipo. En la Ec. (3.41) podemos despejar para
n (Ω) y obtener
1 p
n (Ω) = 2mc2 (E − V ) (3.42)
~Ω
nótese que para la onda electromagnética, la región con E > V corresponde a un medio transparente con ı́ndice
de refracción real y la onda es de la forma eikx . Por otro lado, cuando E < V corresponde a un medio con un
ı́ndice de refracción imaginario de modo que n2 < 0 y al reemplazar esto en (3.40) se obtiene una solución de la
forma e−ρx que es del tipo de onda evanescente.
Debe tenerse en cuenta que si bien obtendremos un comportamiento funcional análogo al óptico, la interpre-
tación probabilı́stica es muy diferente a la interpretación clásica para onda electromagnética.
3.5. POTENCIALES RECTANGULARES, ANÁLOGO ÓPTICO 167

3.5.1. Estrategia de solución para potenciales acotados con discontinuidades de salto


Veamos ahora la estrategia especı́fica de solución para los estados estacionarios de la partı́cula sometidas a
potenciales discontı́nuos. En las regiones de energı́a potencial constante usamos la Ec. (3.38)
 2 
d 2m
+ (E − V ) ϕ (x) = 0 (3.43)
dx2 ~2

es útil distinguir tres casos


(a) E > V , introduzcamos por conveniencia una constante positiva k definida por

~2 k2
E−V ≡ (3.44)
2m
al reemplazar en (3.43) queda  
d2 2
+ k ϕ (x) = 0 (3.45)
dx2
que es la ecuación de un oscilador armónico y la solución de la Ec. (3.45) se puede escribir como

ϕ (x) = Aeikx + A′ e−ikx (3.46)

donde A y A′ son complejos constantes.


(b) E < V , esta condición corresponde a regiones del espacio que están clásicamente prohibidas. En este caso
introducimos la constante positiva ρ dada por

~2 ρ2
V −E ≡ (3.47)
2m
y la Ec. (3.43) queda  
d2 2
− ρ ϕ (x) = 0 (3.48)
dx2
con solución
ϕ (x) = Beρx + B ′ e−ρx (3.49)
siendo B y B ′ constantes complejas.
(c) E = V , en este caso
d2 ϕ (x)
= 0 ⇒ ϕ (x) = Cx + C ′
dx2
Ahora veamos el comportamiento de las soluciones en la discontinuidad. La primera tentación es pensar que
la función de onda debe ser discontı́nua en un punto donde el potencial lo sea, veremos sin embargo que tanto
ϕ (x) como dϕ (x) /dx deben ser contı́nuas y solo es la segunda derivada d2 ϕ (x) /dx2 la que es discontı́nua en el
punto. Para ver esto, recordemos que un potencial con una discontinuidad de salto en x1 representa en fı́sica el
lı́mite cuando ε → 0 de un potencial Vε (x) que es igual a V (x) fuera del intervalo [x1 − ε, x1 + ε], pero que varı́a
de forma contı́nua en dicho intervalo. Consideremos la ecuación
d2 2m
2
ϕε (x) + 2 [E − Vε (x)] ϕε (x) = 0 (3.50)
dx ~
asumimos que Vε (x) está acotado en el intervalo [x1 − ε, x1 + ε], y que esta cota no depende del parámetro ε.
Esto se cumple en la mayorı́a de los casos, ya que usualmente Vε estará definido dentro de los valores [V0 , V1 ] que
se tienen en la discontinuidad de salto a la izquierda y la derecha de x1 . Escogemos una solución ϕε (x) que para
x < x1 − ε y para x > x1 + ε coincida con una solución dada de la Ec. (3.43). La idea es demostrar que cuando
ε → 0 entonces ϕε (x) tiende a una función ϕ (x) contı́nua y diferenciable a primer orden en x1 . Es posible probar
168 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

a través de las propiedades de la ecuación diferencial (3.43) que ϕε (x) permanece acotada para cualquier valor
de ε con una cota independiente de ε, en la vecindad de x = x1 . Esto fı́sicamente implica que la densidad de
probabilidad permanece finita. Integrando la Ec. (3.50) en el intervalo [x1 − η, x1 + η] resulta
Z x1 +η    Z
d d 2m x1 +η
ϕε (x) dx + 2 [E − Vε (x)] ϕε (x) dx = 0
x1 −η dx dx ~ x1 −η
Z x1 +η
dϕε (x1 + η) dϕε (x1 − η) 2m
− = 2 [Vε (x) − E] ϕε (x) dx (3.51)
dx dx ~ x1 −η

y dado que Vε (x) y ϕε (x) permanecen acotados con cotas independientes de ε, la integral a la derecha de la Ec.
(3.51) tiende a cero cuando η tiende a cero. Por lo tanto
 
dϕε (x1 + η) dϕε (x1 − η)
lı́m − =0
η→0 dx dx

por tanto, en este lı́mite, dϕ/dx es contı́nua en x = x1 y por tanto también ϕ (x) ya que derivabilidad implica
continuidad. Por otro lado, d2 ϕ/dx2 es discontı́nua en x = x1 puesto que en la Ec. (3.43) vemos que
 2 
d ϕ (x1 + η) 2m
lı́m + [E − V (x 1 + η)] ϕ (x 1 + η) = 0
η→0+ dx2 ~2
 2 
d ϕ (x1 + η) 2m
lı́m 2
= lı́m 2 {[V (x1 + η) − E] ϕ (x1 + η)}
η→0+ dx η→0+ ~
 2 
d ϕ (x1 + η) 2m
lı́m 2
= 2 {[V1 − E] ϕ (x1 )}
η→0 + dx ~

siendo V1 el valor del potencial a la derecha de x1 , similarmente


 2 
d ϕ (x1 + η) 2m
lı́m 2
= 2 {[V0 − E] ϕ (x1 )}
η→0− dx ~

siendo V0 el valor del potencial a la izquierda de x1 . Tenemos entonces que en x1 la segunda derivada presenta un
salto dado por  2   2 
d ϕ (x1 + η) d ϕ (x1 + η) 2m
lı́m 2
− lı́m 2
= 2 (V1 − V0 ) ϕ (x1 )
η→0 + dx η→0 − dx ~
esto es una discontinuidad de salto para la segunda derivada ya que V1 6= V0 . Nótese sin embargo, que la segunda
derivada permanece acotada. Es importante resaltar la importancia de que Vε (x) permanezca acotado. Por ejem-
plo, si V (x) = aδ (x) tenemos una función cuya integral permanece finita pero que no es acotada. En tal caso,
ϕ (x) permanece contı́nua pero no la primera derivada.
Por tanto, para encontrar la solución de los estados estacionarios cuando el potencial es contı́nuo a trozos
con discontinuidades de salto finito, calculamos primero las soluciones para las regiones en donde el potencial es
constante (con E > V ó E < V según el caso), y hacemos el “empalme” en los puntos donde hay discontinuidades
exigiendo la continuidad de la solución y de su primera derivada.

3.5.2. Expresión para la corriente en regiones de potencial constante


Por simplicidad consideraremos un problema unidimensional de una partı́cula colocada en un potencial cons-
tante V0 . Aunque este caso corresponde a partı́cula libre, resulta interesante obtener la corriente en términos de
V0 ya que después consideraremos la posibilidad de regiones con potencial constante pero diferente en cada región.
Como la corriente (3.33) depende de la solución para la función de onda estacionaria debemos considerar varios
casos según la sección 3.5.1
3.5. POTENCIALES RECTANGULARES, ANÁLOGO ÓPTICO 169

(a) E > V0 , en tal caso la solución estacionaria viene dada por la Ec. (3.46)

ϕ (x) = Aeikx + A′ e−ikx (3.52)

donde hemos usado la definición (3.44)


~2 k2
E − V0 ≡
2m
y sustituyendo (3.52) en la expresión (3.33) para la corriente

~
Jx = [ϕ∗ ∂x ϕ − ϕ∂x ϕ∗ ]
2mi
~ h ∗ −ikx       i
Jx = A e + A′∗ eikx ∂x Aeikx + A′ e−ikx − Aeikx + A′ e−ikx ∂x A∗ e−ikx + A′∗ eikx
2mi
~ h ∗ −ikx     i
Jx = A e + A′∗ eikx ikAeikx − ikA′ e−ikx − Aeikx + A′ e−ikx −ikA∗ e−ikx + ikA′∗ eikx
2mi
~k h ∗ −ikx   
Jx = A e + A′∗ eikx Aeikx − A∗ e−ikx + A′∗ eikx A′ e−ikx
2m    i
+ Aeikx + A′ e−ikx A∗ e−ikx − Aeikx + A′ e−ikx A′∗ eikx
~k h ∗ i
Jx = A A + A′∗ Ae2ikx − A∗ A′ e−2ikx − A′∗ A′ + AA∗ + A′ A∗ e−2ikx − AA′∗ e2ikx − A′ A′∗
2m
~k h 2 i
Jx = 2 |A|2 + A′∗ Ae2ikx − AA′∗ e2ikx − A∗ A′ e−2ikx + A′ A∗ e−2ikx − 2 A′
2m
~k h 2 ′ 2 i
Jx = |A| − A (3.53)
m
el signo relativo se puede entender teniendo en cuenta que la función de onda (3.52) representa dos ondas con
momentos opuestos p = ±~k con densidades de probabilidad |A|2 y |A′ |2 , además ~k p
m = m = vg nos dice que Jx es
de la forma ρvg como era de esperarse.
(b) Cuando E < V0 la solución está dada por las Ecs. (3.47, 3.49)

ϕ (x) = Beρx + B ′ e−ρx (3.54)


~2 ρ2
V0 − E ≡ (3.55)
2m
sustituyendo (3.54) en (3.33) nos da
~
Jx = [ϕ∗ ∂x ϕ − ϕ∂x ϕ∗ ]
2mi
~  ∗ ρx    
Jx = B e + B ′∗ e−ρx ∂x Beρx + B ′ e−ρx − Beρx + B ′ e−ρx ∂x B ∗ eρx + B ′∗ e−ρx
2mi
~  ∗ ρx    
Jx = B e + B ′∗ e−ρx ρBeρx − ρB ′ e−ρx − Beρx + B ′ e−ρx ρB ∗ eρx − ρB ′∗ e−ρx
2mi
~ρ  ∗ ρx  
Jx = B e + B ′∗ e−ρx Beρx − B ∗ eρx + B ′∗ e−ρx B ′ e−ρx
2mi   
− Beρx + B ′ e−ρx B ∗ eρx + Beρx + B ′ e−ρx B ′∗ e−ρx
~ρ  ∗ 2ρx 
Jx = B Be + B ′∗ B − B ∗ B ′ − B ′∗ B ′ e−2ρx − BB ∗ e2ρx − B ′ B ∗ + BB ′∗ + B ′ B ′∗ e−2ρx
2mi
~ρ  ∗ 2ρx 
Jx = B Be − BB ∗ e2ρx + 2B ′∗ B − 2B ∗ B ′ − B ′∗ B ′ e−2ρx + B ′ B ′∗ e−2ρx
2mi
~ρ  ′∗ 
Jx = 2B B − 2B ∗ B ′
2mi
170 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

~ρ   ~ρ  
Jx = BB ′∗ − B ∗ B ′ = Im BB ′∗ (3.56)
2mi m
vemos que es necesario que en la función de onda (3.54) ambos coeficientes sean no nulos para que la corriente de
probabilidad sea diferente de cero.

3.6. El potencial escalón

Figura 3.1: Perfil de un potencial escalón con discontinuidad en x = 0 y altura V0 .

Definamos un potencial en la forma



0 si x < 0 (Región I)
V (x) = V0 θ (x) =
V0 si x > 0 (Región II)

cuyo perfil se ilustra en la Fig. 3.1. Asumiremos que la partı́cula viene desde x = −∞ en t = −∞ de modo que
inicialmente solo hay una onda viajera que se propaga hacia la derecha. Distinguiremos dos casos

3.6.1. E > V0 , reflexión parcial


Como la energı́a es mayor que el potencial en ambas regiones, la Ec. (3.45) y la definición (3.44) son válidas
para las dos regiones I y II
 2  r
d 2 2mE
+ k1 ϕ (x) = 0 ; k1 ≡ (región I) (3.57)
dx2 ~2
 2  r
d 2 2m (E − V0 )
+ k2 ϕ (x) = 0 ; k2 ≡ (región II) (3.58)
dx2 ~2
ası́ mismo las soluciones en las dos regiones son de la forma (3.46)

ϕI (x) = A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = A2 eik2 x + A′2 e−ik2 x (3.59)
dϕI (x)   dϕII (x)  
= ik1 A1 eik1 x − A′1 e−ik1 x ; = ik2 A2 eik2 x − A′2 e−ik2 x (3.60)
dx dx
y puesto que la ecuación (3.43) es homogénea, si ϕ es solución también lo será ϕ/A, siendo A una constante. Esto
implica que solo podemos determinar los cocientes entre las amplitudes pero no todas las amplitudes. Ahora bien,
3.6. EL POTENCIAL ESCALÓN 171

puesto que la amplitud de entrada es la de la onda incidente, es decir la de la onda que viaja hacia la derecha
en la región I, tenemos que A1 es el parámetro de entrada y todos los demás deben compararse con él. Por tanto
determinaremos los cocientes
A′1 A2 A′2
, , .
A1 A1 A1
Veamos la información que nos dan las condiciones de empalme, la continuidad de la función en x = 0 nos da

lı́m ϕ (x) = lı́m ϕ (x) ⇒ ϕI (x = 0) = ϕII (x = 0)


x→0− x→0+
A1 + A′1 = A2 + A′2 (3.61)

y la continuidad de la primera derivada en x = 0 nos da


dϕ (x) dϕ (x) dϕI (x = 0) dϕII (x = 0)
lı́m = lı́m ⇒ =
x→0− dx x→0 + dx dx dx

 ′

k1 A1 − A1 = k2 A2 − A2 (3.62)

como solo tenemos dos ecuaciones (3.61) y (3.62) para los tres cocientes, debemos fijar una amplitud para poder
determinar los cocientes. Para ello tengamos en cuenta que cuando la función de onda penetra la región II vuelve
a ser una función de onda libre (potencial constante) y ya hemos visto que la función de onda libre es una onda
viajera en una sola dirección, de modo que no es de esperarse que surja una onda reflejada en el interior de la
región II (solo en el lı́mite entre I y II donde sı́ hay interacción). En consecuencia, no habrá onda reflejada en la
región II, por lo cual según la Ec. (3.59) vemos que

A′2 = 0 (3.63)

nótese que esto está relacionado con el hecho de que hayamos tomado el caso de una partı́cula incidente que
proviene de x = −∞ (condiciones iniciales)5 . Las Ecs. (3.61, 3.62) se simplifican a

A1 + A′1 = A2 ; k1 A1 − A′1 = k2 A2 (3.64)
A1 + A1′ A2 ′
k1 (A1 − A1 ) A2
= ; = k2
A1 A1 A A1
 1 ′
A′1 A2 k1 A1 A2
1+ = ; 1− = (3.65)
A1 A1 k2 A1 A1

igualando las dos Ecs. (3.65)


     
A′ k1 A′1 k1 k1 A′1 k2 − k1 k2 + k1 A′1
1+ 1 = 1− ⇒1− =− 1+ ⇒ =−
A1 k2 A1 k2 k2 A1 k2 k2 A1
A′1 k1 − k2
=
A1 k1 + k2
y reemplazando en la primera de las Ecs. (3.65)
k1 − k2 A2 2k1 A2
1+ = ⇒ =
k1 + k2 A1 k1 + k2 A1
tenemos entonces que las condiciones iniciales y de empalme nos llevan a
A′1 k1 − k2 A2 2k1
A′2 = 0 ; = >0 ; = >0 (3.66)
A1 k1 + k2 A1 k1 + k2
5
Si la partı́cula proviniera de x = +∞ y viajara hacia la izquierda, esperarı́amos onda incidente y reflejada en la región II y solo
onda transmitida en la región I.
172 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

donde el hecho de que el primer cociente es positivo proviene de las expresiones para k1 y k2 Ecs. (3.57, 3.58).
Ahora bien, para E > V0 , la función ϕI (x) en la Ec. (3.59) representa dos ondas con momentos opuestos, es decir
propagándose en direcciones opuestas. La onda proporcional a A1 se propaga de izquierda a derecha de modo que
representa una partı́cula incidente (p = ~k1 ), la onda proporcional a A′1 tiene momento p = −~k1 por lo cual
representa una partı́cula reflejada. Puesto que A′2 = 0 tenemos que ϕII (x) en la Ec. (3.59) representa solo una
onda que corresponde a una partı́cula transmitida. Es natural entonces preguntarse por la probabilidad de que
una partı́cula que incide desde x = −∞ pase el escalón de potencial o rebote en él (que en términos cuánticos es la
probabilidad de detectar a la partı́cula en las regiones II y I respectivamente). A tales cantidades las llamaremos
coeficientes de transmisión T y de reflexión R respectivamente. Para calcular estas cantidades debemos calcular
primero la corriente asociada a cada región de potencial constante. Para el caso E > V0 esta corriente viene dada
por las Ecs. (3.52, 3.53), que aplicadas a las soluciones (3.59) y con la condición A′2 = 0 Ec. (3.63) nos da
~k1 h 2 i
JI (x) = |A1 |2 − A′1 (3.67)
m
~k2
JII (x) = |A2 |2 (3.68)
m
JI es la superposición entre la corriente incidente y la corriente reflejada, en tanto que JII es la corriente trans-
mitida, por lo tanto
~k1 ~k1 ′ 2
JI (x) = Jinc + Jref l ; Jinc = |A1 |2 ; Jref l = − A1
m m
~k2
JII (x) = Jtr = |A2 |2
m
Ahora bien, la corriente incidente Jinc se divide en dos términos cuando incide sobre la discontinuidad: la corriente
reflejada y la transmitida
Jinc = Jtr + Jref l
El coeficiente de reflexión del escalón es entonces el cociente entre la corriente reflejada sobre la corriente incidente

Jref l A′1 2
R= = (3.69)
Jinc A1
y el coeficiente de transmisión es el cociente entre la corriente transmitida sobre la corriente incidente

Jtr k2 A2 2
T = = (3.70)
Jinc k1 A1
podemos escribir R y T en términos de k1 y k2 . Para hacerlo con R reemplazamos (3.66) en (3.69)
′ 2
A1 k1 − k2 2 (k1 − k2 )2 (k1 + k2 )2 − 4k1 k2

R = = = =
A1 k1 + k2 (k1 + k2 )2 (k1 + k2 )2
4k1 k2
R = 1−
(k1 + k2 )2
para el caso de T , reemplazamos (3.66) en (3.70)

k2 A2 2 k2 2k1 2 k2 4k12 4k1 k2
T = = = 2 =
k1 A1 k1 k1 + k2 k1 (k1 + k2 ) (k1 + k2 )2
los coeficientes R y T quedan finalmente
4k1 k2 4k1 k2
R =1− 2 , T = (3.71)
(k1 + k2 ) (k1 + k2 )2
3.6. EL POTENCIAL ESCALÓN 173

ahora bien, en un experimento concreto es claro que la partı́cula debe reflejarse o transmitirse, y esto se traduce
en que necesariamente
R+T =1
lo cual es consistente con las Ecs. (3.71). Es de enfatizar que contrario a las predicciones de la mecánica clásica,
tenemos una probabilidad diferente de cero de que la partı́cula se devuelva.
Ahora estamos preparados para la analogı́a óptica: De las Ecs. (3.42) vemos que un escalón de potencial con
V = 0 para x < x1 (región I) y V = V0 < E para x > x1 (región II), corresponde a una onda electromagnética
que se propaga de izquierda a derecha desde una región I de ı́ndice real n1 dado por
c √
n1 = 2mE
~Ω
hacia una región II (separada de la región I por el punto x = x1 ) de ı́ndice de refracción real n2
c p
n2 = 2m (E − V0 )
~Ω
de modo que tenemos una interfase plana en x = x1 con n1 > n2 (la región I podrı́a ser vidrio y la región II podria
ser aire o el vacı́o). Ambos medios son transparentes. En este caso la onda incidente (con dirección de propagación
normal a la interfase) se parte en una onda transmitida (o refractada) y una onda reflejada. Ahora bien, las Ecs.
(3.66) muestran que los cocientes A′1 /A1 y A2 /A1 son reales positivos, i.e. A′1 y A2 tienen la misma fase que A1 6 .
Fı́sicamente, esto significa que no hay corrimiento de fase en la onda reflejada ni en la transmitida, con respecto
a la onda incidente. Por tanto, la partı́cula cuántica no es retardada por su reflexión o transmisión.
Es interesante ver lo que ocurre en el lı́mite cuando E ≫ V0 . De las definiciones de k1 y k2 en las Ecs. (3.57,
3.58), junto con las Ecs. (3.71) es fácil ver que
q  q 
√  p 
2mE 2m(E−V0 )
4 ~ 2 ~ 2 8m E (E − V0 )
4k1 k2
T = = q q 2 = √ p 2
(k1 + k2 )2 2mE 2m(E−V0 ) 2mE + 2m (E − V )
~2
+ ~2
0

hp i hp i h√ i
4 E(E−V0 )
8m E (E − V0 ) 4 E (E − V0 )
T = h√ √ √ i 2 = h √ √ i2 = √ √E 2
2m E + E − V0 E + E − V0 [( E+ E−V0 )]
E
q  q 
4 1 − VE0 4 1 − VE0
4
T =  √ √ 2 =  q 2 ≈ =1
( E+√ E−V0 ) V0 [1 + 1]2
E
1+ 1− E

por tanto si E ≫ V0 entonces R ∼ =0yT ∼ = 1, de modo que para energı́as suficientemente grandes comparadas con
la altura del potencial, la partı́cula saltará el escalón prácticamente con toda certeza.
La diferencia en la interpretación en óptica y en cuántica se puede apreciar con el proceso de medición. Si
justo después de que la onda incidente se parte en dos, colocamos dos detectores en la regiones I y II, en un
experimento óptico los dos aparatos detectarán una onda cada una con intensidad menor a la incidente (siendo
la suma de las dos intensidades la intensidad incidente). En un experimento cuántico solo uno de los detectores
detectará una partı́cula, pero si repetimos el experimento muchas veces, la partı́cula será detectada en uno u otro
detector en cada experimento, en una proporción dada por el patrón de probabilidad.
6

Para el cociente de dos amplitudes complejas podemos escribir tales cocientes en forma polar i.e A1 /A2 = |A1 | eiδ1 / |A2 | eiδ2 . De
modo que si el cociente es positivo entonces δ1 = δ2 , si el cociente es negativo hay una diferencia de fase π y si el cociente es complejo
hay una diferencia de fase arbitraria diferente a cero y π.
174 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

3.6.2. E < V0 ; reflexión total


Asumiendo E ≥ 0 se tiene que en la región I son válidas la Ec. (3.45) y la definición (3.44), en tanto que en
la región II son válidas la Ec. (3.48) y la definición (3.47)
 2  r
d 2 2mE
+ k1 ϕ (x) = 0 ; k1 ≡ (región I) (3.72)
dx2 ~2
 2  r
d 2 2m (V0 − E)
− ρ2 ϕ (x) = 0 ; ρ2 ≡ (región II) (3.73)
dx2 ~2
De modo que la solución en la región I es del tipo armónico Ec. (3.46) y en la región II es del tipo exponencial
Ec. (3.49)

ϕI = A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = B2 eρ2 x + B2′ e−ρ2 x (3.74)


dϕI   dϕII 
= ik1 A1 eik1 x − A′1 e−ik1 x ; = ρ2 B2 eρ2 x − B2′ e−ρ2 x (3.75)
dx dx
para que la solución se mantenga acotada cuando x → +∞ es necesario que7

B2 = 0 (3.76)

y las condiciones de empalme nos dan

dϕ (x) dϕ (x)
lı́m ϕ (x) = lı́m ϕ (x) ; lı́m
= lı́m ⇒
x→0− x→0+ dx x→0−x→0 + dx
dϕI dϕII
ϕI (x = 0) = ϕII (x = 0) ; (x = 0) = (x = 0) (3.77)
dx dx
y reemplazando (3.74, 3.75, 3.76) en (3.77) resulta

A1 + A′1 = B2′ ; ik1 A1 − A′1 = −ρ2 B2′ (3.78)

Debido a la nulidad de B2 , podremos encontrar todos los cocientes de la forma A′1 /A1 y B2′ /A1 sin ninguna
suposición adicional. Dividiendo las Ecs. (3.78) por A1 queda
 
A′ B2′ A′ B′
1+ 1 = ; ik1 1 − 1 = −ρ2 2
A1 A1 A1 A1
′ ′  ′ 
A B2 ik1 A B′
1+ 1 = ; − 1− 1 = 2 (3.79)
A1 A1 ρ2 A1 A1
igualando estas ecuaciones
 
A′ ik1 A′1 A′ ik1 A′1 ik1
1+ 1 = − 1− ⇒ 1− =− −1
A1 ρ2 A1 A1 ρ2 A1 ρ2
   
ik1 A′1 ik1 A′
1− = − + 1 ⇒ (ρ2 − ik1 ) 1 = −ik1 − ρ2
ρ2 A1 ρ2 A1
A′ A1′ k1 − iρ2
(iρ2 + k1 ) 1 = k1 − iρ2 ; =
A1 A1 k1 + iρ2
y reemplazando este cociente en la primera de las Ecs. (3.79)
k1 − iρ2 B′ B′ 2k1
1+ = 2 ⇒ 2 =
k1 + iρ2 A1 A1 k1 + iρ2
7
En x → −∞ la solución es oscilante ya que estamos en la región I. Por lo tanto, no hay problemas de divergencia.
3.6. EL POTENCIAL ESCALÓN 175

tenemos que los cocientes están dados por

A′1 k1 − iρ2 B2′ 2k1


= ; = (3.80)
A1 k1 + iρ2 A1 k1 + iρ2

Las expresiones finales para ϕI (x) y ϕII (x) están dadas por las Ecs. (3.74, 3.75, 3.76)

ϕI = A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = B2′ e−ρ2 x (3.81)


dϕI   dϕII (x)
= ik1 A1 eik1 x − A′1 e−ik1 x ; = −ρ2 B2′ e−ρ2 x (3.82)
dx dx

reemplazando la primera de las Ecs. (3.81) en (3.53)

~k h 2 i
JI = |A1 |2 − A′1
m

Por otro lado, usando la segunda de las Ecs. (3.81) en la Ec. (3.56) y teniendo en cuenta que en la Ec. (3.56)
los dos coeficientes deben ser no nulos para que exista corriente, se tiene que

JII = 0

de modo que el flujo transmitido es cero.


En el análogo óptico, cuando E < V0 el ı́ndice n2 correspondiente a la región II (x > x1 ) se vuelve puramente
imaginario y la onda se refleja completamente. Sin embargo, la onda evanescente para la región II muestra que una
fracción de la intensidad de la onda cruza la frontera (onda sobreamortiguada i.e. sin oscilación). Similarmente en
el caso cuántico la partı́cula es siempre reflejada (reflexión total) pero hay una probabilidad diferente de cero de
que la partı́cula pase a la región II8 , esto difiere sin embargo del comportamiento clásico de una partı́cula para
la cual esta región estarı́a estrictamente prohibida. No obstante, en el caso cuántico, esta probabilidad disminuye
con x exponencialmente de modo que se vuelve despreciable cuando x es mayor a la “longitud de penetración”
1/ρ2 de la onda evanescente. Adicionalmente, las Ecs. (3.80) nos dicen que el coeficiente A′1 /A1 es complejo de
modo que hay cierto corrimiento de fase en la reflexión que fı́sicamente se debe a que la partı́cula es retardada
cuando penetra la región II. Este fenómeno es parcialmente análogo al efecto piel de penetración de una onda en
un metal, aunque en el efecto piel hay una parte oscilante y una de amortiguamiento (subamortiguamiento), en
tanto que en el caso presente solo hay término amortiguado (sobreamortiguamiento)9 .
Surge una aparente paradoja teniendo en cuenta que en la región II, la corriente de probabilidad es cero
en tanto que la probabilidad de que la partı́cula esté en esta región es no nula. Un análisis mas detallado del
paquete de onda incidente muestra que parte del paquete de onda incidente entra en la región II clásicamente
prohibida para la partı́cula y se refleja después de haber penetrado, esta onda reflejada desde la región II interfiere
destructivamente con la onda incidente que está penetrando de modo que se anula la corriente en la región II.
Vale decir que esta interferencia perfectamente destructiva solo aparece en el caso unidimensional. Un análisis
del caso bidimensional muestra que efectivamente aparece una corriente no nula en la región II cuando la incidencia
es oblı́cua.
Es interesante analizar el caso en el cual V0 → ∞, de la definición para ρ2 en (3.73) vemos que ρ2 → ∞ de
modo que la segunda de las Ecs. (3.80) nos da B2′ → 0, y usando esto en la primera de las Ecs. (3.80) se obtiene
A′1 /A1 → −1 es decir
A′1 → −A1 ; B2′ → 0 (3.83)
8
Hablamos de reflexión total en el sentido de que solo las funciones de onda incidente y reflejada oscilan. La onda transmitida está
en cambio sobreamortiguada.
9
Esta diferencia se debe a que en el efecto piel el número de onda es un complejo cuya parte real da cuenta de la oscilación y cuya
parte imaginaria da cuenta del amortiguamiento. En nuestro caso en cambio, el número de onda es imaginario puro.
176 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

y la segunda de las Ecs. (3.81) muestra que en la región II la función de onda tiende a cero, ası́ como el rango de
penetración 1/ρ2 de ésta10 . Aplicando los lı́mites (3.83) a las Ecs. (3.81)

lı́m ϕ (x) = ϕI (0) = A1 + A′1 → 0 , lı́m ϕ (x) = ϕII (0) = B2′ → 0 (3.84)
x→0− x→0+

la función de onda ϕ (x) se va para cero en x = x1 de manera que se mantiene contı́nua en el punto de discontinuidad
del potencial. Veamos ahora los lı́mites laterales en la derivadas, Ecs. (3.82)

dϕ (x) dϕI (0) 


lı́m = = ik1 A1 − A′1 → 2ik1 A1
x→0 − dx dx
dϕ (x) dϕII (x)
lı́m = lı́m = − lı́m ρ2 B2′ e−ρ2 x
x→0+ dx x→0 + dx x→0+

usando la segunda de las Ecs. (3.79) se obtiene


 
dϕ (x) ik1 ′
 −ρ2 x
lı́m = − lı́m ρ2 − A1 − A1 e = 2ik1 A1 lı́m e−ρ2 x (3.85)
x→0+ dx x→0+ ρ2 x→0+

el valor de este lı́mite dependerá del crecimiento comparativo entre ρ2 y x. Por ejemplo si suponemos que el
potencial V0 crece como x−3 tenemos que
r r
2m 2m −3/2
ρ2 → V0 → x ≡ kx−3/2
~2 ~2

con lo cual la Ec. (3.85) queda

dϕ (x) −1/2
lı́m = 2ik1 A1 lı́m e−ρ2 x = 2ik1 A1 lı́m e−kx =0
x→0+ dx x→0 + x→0 +

Vemos entonces que la derivada puede cambiar abruptamente del valor 2ikA1 a cero, en cuyo caso no serı́a
contı́nua. Esto se debe a que el potencial no es acotado (requisito para la validez del desarrollo en la sección 3.5.1)
de modo que la integral en la Ec. (3.51) no necesariamente tiende a cero cuando η → 0.

3.7. Barrera de potencial


La barrera de potencial se describe a través de la siguiente expresión

 0 si x < 0 (región I)
V (x) = V >0 si 0 < x < L (región II)
 0
0 si L < x (región III)
Para E > V0 veremos que la transmisión es total para ciertos valores del ancho de la barrera, fenómeno conocido
como resonancia en la transmisión. También hay ciertos anchos especı́ficos de la barrera para los cuales la reflexión
es maxima, aunque la transmisión nunca se anula completamente.
Para E < V0 , una partı́cula clásica debe rebotar. Si el ancho de la barrera no es mucho mayor que la longitud
de penetración 1/ρ de la onda evanescente, veremos que parte de la onda incidente se transmite a la región III.
En consecuencia, incluso para E < V0 la probabilidad de que la partı́cula cruce la barrera es diferente de cero.
Este hecho se conoce como efecto túnel.
10
En otras palabras, el escalón se vuelve un obstáculo totalmente rı́gido, como era de esperarse.
3.7. BARRERA DE POTENCIAL 177

Figura 3.2: Perfil de una barrera de potencial de altura V0 , con discontinuidades en x = 0 y x = L.

3.7.1. E > V0 , resonancias


En el análogo óptico tenemos una capa transparente de ancho L (en 0 < x < L) con ı́ndice de refracción real
n2 rodeado de un medio transparente (en x < 0 y x > L) de ı́ndice de refracción real n1 > n2 . Como la energı́a es
mayor que el potencial, la Ec. (3.45) y la definición (3.44) son válidas para las tres regiones
 2  r
d 2mE
2
+ k12 ϕ (x) = 0 ; k1 ≡ (región I) (3.86)
dx ~2
 2  r
d 2 2m (E − V0 )
2
+ k2 ϕ (x) = 0 ; k2 ≡ (región II) (3.87)
dx ~2
 2  r
d 2 2mE
2
+ k3 ϕ (x) = 0 ; k3 = k1 ≡ (región III) (3.88)
dx ~2
ası́ mismo las soluciones en las tres regiones son de la forma (3.46)
ϕI (x) = A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = A2 eik2 x + A′2 e−ik2 x ; ϕIII (x) = A3 eik1 x + A′3 e−ik1 x (3.89)
dϕI (x)   dϕII (x)  
= ik1 A1 eik1 x − A′1 e−ik1 x ; = ik2 A2 eik2 x − A′2 e−ik2 x
dx dx
dϕIII (x)  
= ik1 A3 eik1 x − A′3 e−ik1 x (3.90)
dx
donde hemos usado la segunda de las Ecs. (3.88). Como antes se tiene que
A′3 = 0 (3.91)
ya que asumimos una onda incidente desde x → −∞ y no es de esperarse una onda reflejada desde el interior de
la región III. Usando (3.91), las condiciones de empalme aplicadas a las Ecs. (3.89) en x = 0 y en x = L quedan
lı́m ϕ (x) = lı́m ϕ (x) ⇒ ϕI (0) = ϕII (0) ⇒ A1 + A′1 = A2 + A′2
x→0+ x→0−
lı́m ϕ (x) = lı́m ϕ (x) ⇒ ϕII (L) = ϕIII (L) ⇒ A2 eik2 L + A′2 e−ik2 L = A3 eik1 L
x→L+ x→L−
dϕ (x) dϕ (x) dϕI (0) dϕII (0)  
lı́m = lı́m ⇒ = ⇒ k1 A1 − A′1 = k2 A2 − A′2
x→0+ dx x→0−dx dx dx
dϕ (x) dϕ (x) dϕII (L) dϕIII (L)  
lı́m = lı́m ⇒ = ⇒ k2 A2 eik2 L − A′2 e−ik2 L = k1 A3 eik1 L
x→L+ dx x→L− dx dx dx
178 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

una vez más podemos determinar los cocientes A′1 /A1 , A2 /A1 , A′2 /A1 , A3 /A1 . Es decir, normalizados con respecto
a la amplitud de la onda incidente. Con respecto a estos cocientes las ecuaciones quedan
A′1 A2 A′2 A2 ik2 L A′2 −ik2 L A3 ik1 L
1+ = + ; e + e = e (3.92)
A1 A1 A1 A1 A1 A1
     
A′ k2 A2 A′2 k2 A2 ik2 L A′2 −ik2 L A3 ik1 L
1− 1 = − ; e − e = e (3.93)
A1 k1 A1 A1 k1 A1 A1 A1
despejando A′1 /A1 en la primera de las Ecs. (3.92) y en la primera de las Ecs. (3.93) e igualando resulta
     
A2 A′2 k2 A2 A′2 A2 k2 A′2 k2
+ −1 = 1− − ⇒ 1+ + 1− =2
A1 A1 k1 A1 A1 A1 k1 A1 k1
A2 A′ A′2 2k1 A2 (k1 + k2 )
(k1 + k2 ) + 2 (k1 − k2 ) = 2k1 ⇒ = − (3.94)
A1 A1 A1 (k1 − k2 ) A1 (k1 − k2 )
igualando la segunda de las Ecs. (3.92) con la segunda de las Ecs. (3.93), resulta
     
A2 ik2 L A′2 −ik2 L k2 A2 ik2 L A′2 −ik2 L A′2 −ik2 L k2 A2 ik2 L k2
e + e = e − e ⇒ e 1+ = e −1 (3.95)
A1 A1 k1 A1 A1 A1 k1 A1 k1
reemplazando (3.94) en (3.95) queda
     
2k1 A2 (k1 + k2 ) −ik2 L k1 + k2 A2 ik2 L k2 − k1
− e = e
(k1 − k2 ) A1 (k1 − k2 ) k1 A1 k1
 
A2 A2
2k1 (k1 + k2 ) − (k1 + k2 )2 e−ik2 L = − eik2 L (k1 − k2 )2
A1 A1
A2 h i
(k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = 2k1 (k1 + k2 ) e−ik2 L (3.96)
A1
reescribamos el término en paréntesis cuadrados en la Ec. (3.96)
 
(k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = k12 + 2k1 k2 + k22 e−ik2 L − k12 − 2k1 k2 + k22 eik2 L
     
= −k12 eik2 L − e−ik2 L + 2k1 k2 eik2 L + e−ik2 L − k22 eik2 L − e−ik2 L
= −2ik12 sin k2 L + 4k1 k2 cos k2 L − 2ik22 sin k2 L

(k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L
con lo cual la Ec. (3.96) queda
A2   
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L = k1 (k1 + k2 ) e−ik2 L
A1
A2 k1 (k1 + k2 ) e−ik2 L
=    (3.97)
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
reemplazando (3.97) en la Ec. (3.94) resulta
A′2 2k1 A2 (k1 + k2 ) 2k1 k1 (k1 + k2 ) e−ik2 L (k + k2 )
= − = − 2 2
  1
A1 (k1 − k2 ) A1 (k1 − k2 ) (k1 − k2 ) −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
  
2k1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L − k1 (k1 + k2 )2 e−ik2 L
2 2
=   
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
   
A′2 −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L − k12 + k22 + 2k1 k2 e−ik2 L
=    k1
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
Z k1
≡   
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
3.7. BARRERA DE POTENCIAL 179

la cantidad Z se evalúa como


   
Z ≡ −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L − k12 + k22 + 2k1 k2 e−ik2 L
h i h i h i
= −k12 2i sin k2 L + e−ik2 L − k22 2i sin k2 L + e−ik2 L + 2k1 k2 2 cos k2 L − e−ik2 L
h i h  i
= − k12 + k22 2i sin k2 L + e−ik2 L + 2k1 k2 eik2 L + e−ik2 L − e−ik2 L
 h ik2 L  i
= − k12 + k22 e − e−ik2 L + e−ik2 L + 2k1 k2 eik2 L
  
= − k12 + k22 eik2 L + 2k1 k2 eik2 L = − k12 + k22 − 2k1 k2 eik2 L
Z = − (k1 − k2 )2 eik2 L

con lo cual el cociente A′2 /A1 queda finalmente

A′2 k1 (k1 − k2 ) eik2 L


= −   (3.98)
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L

despejando A′1 /A1 en la primera de las Ecs. (3.92) y reemplazando las Ecs. (3.97, 3.98) en la ecuación resultante
se obtiene
A′1 A2 A′2 k1 (k1 + k2 ) e−ik2 L k1 (k1 − k2 ) eik2 L
= + −1=    −    −1
A1 A1 A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
 
−k12 eik2 L − e−ik2 L + k1 k2 eik2 L + e−ik2 L −2ik12 sin k2 L + 2k1 k2 cos k2 L
=    − 1 =    −1
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
  
−2ik12 sin k2 L + 2k1 k2 cos k2 L − −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
=   
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L


A′1 −2ik12 sin k2 L + 2k1 k2 cos k2 L + i k12 + k22 sin k2 L − 2k1 k2 cos k2 L
=   
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L

A′1 i k22 − k12 sin k2 L M
=  2 2
 ≡ (3.99)
A1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L N

reemplazando las Ecs. (3.97, 3.98) en la segunda de las Ecs. (3.92) resulta
A3 ik1 L A2 ik2 L A′2 −ik2 L
e = e + e
A1 A1 A1
A3 ik1 L k1 (k1 + k2 ) e−ik2 L ik2 L k1 (k1 − k2 ) eik2 L
e =    e −    e−ik2 L
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
A3 ik1 L k1 (k1 + k2 ) − k1 (k1 − k2 ) 2k1 k2
e =  2 2
 = 2 2
 
A1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L

A3 2k1 k2 e−ik1 L P
= 2 2
 ≡ (3.100)
A1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L N
ahora calculamos los coeficientes de reflexión y transmisión por medio de las Ecs. (3.99)
2
Jref l A′1 2 M M ∗ |M |2 k22 − k12 sin2 k2 L
R = = = = = (3.101)
Jinc A1 N N∗ |N |2 |N |2

Jtrans A3 2 2 2 2
T = = = |P | = 4k1 k2 (3.102)
Jinc A1 |N | 2
|N |2
180 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

calculamos ahora la magnitud al cuadrado del denominador N


    
|N |2 = N N ∗ = 2k1 k2 cos k2 L − i k12 + k22 sin k2 L 2k1 k2 cos k2 L + i k12 + k22 sin k2 L
2  
= 4k12 k22 cos2 k2 L + k12 + k22 sin2 k2 L = 4k12 k22 1 − sin2 k2 L + k14 + k24 + 2k12 k22 sin2 k2 L

= 4k12 k22 + k14 + k24 − 2k12 k22 sin2 k2 L
2
|N |2 = 4k12 k22 + k22 − k12 sin2 k2 L (3.103)

reemplazando (3.103) en las Ecs.(3.101, 3.102), los coeficientes de reflexión y transmisión quedan
′ 2 
2 − k 2 2 sin2 k L
A1 k2 1 2
R = = 2 2 (3.104)
A1 2 2 2 2
4k1 k2 + k2 − k1 sin k2 L
2
A3 4k12 k22
T = = 2 (3.105)
A1 4k12 k22 + k22 − k12 sin2 k2 L

se vé inmediatamente que R + T = 1. Es más útil escribir a R y T en términos de cantidades Fı́sicas más directas
como E y V0 . Para ello reemplazamos las expresiones (3.86, 3.87) en la Ec. (3.105)

2mE
 h 2m(E−V0 ) i
2 2
4k1 k2 4 ~ 2 ~2
T =  = h i h i √ 
2
4k12 k22 + k22 − k12 sin2 k2 L 2mE
 2m(E−V0 ) 2mE 2m(E−V0 ) 2 2 2m(E−V0 )
4 ~2 ~2
+ ~2 − ~2
sin ~ L

4E (E − V0 )
= √ 
2 2 2m(E−V0 )
4E (E − V0 ) + [E − (E − V0 )] sin ~ L

4E (E − V0 )
T = √  (3.106)
2 2 2m(E−V0 )
4E (E − V0 ) + V0 sin ~ L

si hacemos una gráfica de T contra L con valores fijos de E, V0 y m (ver Fig 3.3), y tenemos en cuenta que sin2 x
es periódica en x con periodo π, entonces T es periódica en L con periodo
π π~
∆L = =p (3.107)
k2 2m (E − V0 )

El mı́nimo de T se obtiene cuando el seno al cuadrado adquiere el valor 1 y el máximo se obtiene cuando el seno
al cuadrado adquiere el valor cero. Es claro entonces que
4E (E − V0 )
Tmı́n = > 0 ; Tmáx = 1 (3.108)
4E (E − V0 ) + V02

vemos que se obtienen valores de L para los cuales la transmisión es total (T = 1), lo cual ocurre cuando
Ln = n∆L = nπ/k2 o equivalentemente
nπ nπ~
Ln = =p (3.109)
k2 2m (E − V0 )

decimos entonces que se obtienen resonancias en la transmisión para estos valores de Ln , los cuales corresponden
a múltiplos enteros de la semilongitud de onda de la partı́cula en la región II11 . Estos hechos se ilustran en la Fig.
11
El hecho de que sean múltiplos enteros de semilongitudes de onda (y no de las longitudes de onda) proviene del hecho de que la
Ec. (3.106), depende de sin2 x cuyo periodo π es la mitad del periodo de la función sin x.
3.7. BARRERA DE POTENCIAL 181

Figura 3.3: Gráfica de T vs L, con E, V0 y m fijos, para una barrera de potencial como la indicada en la Fig. 3.2
con la condición E > V0 .

3.3. Este es el análogo cuántico de la transmisión en un interferómetro de Fabry-Perot en óptica, en el cual también
se observan estas resonancias en la transmisión. Cuando E > V0 , se tiene que la reflexión de la partı́cula en cada
discontinuidad del potencial (i.e. en x = 0, L) ocurre sin corrimiento de fase de la función de onda cuando L = Ln .
Por esta razón, la condición de resonancia k2 L = nπ coincide con los valores de L para los cuales pueden existir
ondas estacionarias en la región II. Por otro lado, cuando L 6= Ln surge un corrimiento de fase en las reflexiones
que genera interferencia destructiva, la cual se maximiza lejos de la resonancia, es decir cuando L = (n + 1/2) π,
como se aprecia en la Fig. 3.3 esto genera el valor mı́nimo de T . Nótese que en L = (n + 1/2) π tendrı́amos una
resonancia en la reflexión, pero la reflexión no es total ya que la transmisión nunca es nula12 .
Un estudio del comportamiento del paquete de onda en una barrera de potencial con E > V0 muestra que
cuando se cumple la condición de resonancia, el paquete de onda pasa un tiempo relativamente grande en la región
II. En mecánica cuántica esto se denomina resonancia en el scattering, ya que en un problema de dispersión
por este tipo de potencial el paquete de onda estarı́a pasando un tiempo relativamente largo en la región de colisión
(que serı́a la región II).

3.7.2. Caso E < V0 : Efecto túnel

En el análogo óptico, tenemos una capa de ancho L con ı́ndice de refracción imaginario (región II) rodeado de
un medio transparente (regiones I y III). En este caso las regiones I y III poseen ondas oscilantes en tanto que la

12
Naturalmente, la condición de resonancia en la transmisión Ec. (3.109) puede interpretarse para L fijo como los valores k2n de
número de onda que producen dicha resonancia. Si asumimos por ejemplo que L, V0 y m son fijos, lo que estamos obteniendo son las
energı́as de resonancia En , que implicarán unas frecuencias de resonancia En = hνn .
182 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

región II corresponde a ondas evanescentes lo cual se escribe como


 2  r
d 2 2mE
+ k1 ϕ (x) = 0 ; k1 ≡ (región I) (3.110)
dx2 ~2
 2  r
d 2 2m (V0 − E)
− ρ2 ϕ (x) = 0 ; ρ2 ≡ (región II) (3.111)
dx2 ~2
 2  r
d 2 2mE
+ k3 ϕ (x) = 0 ; k3 = k1 ≡ (región III) (3.112)
dx2 ~2
comparando las Ecs. (3.110, 3.111, 3.112) con las Ecs. (3.86, 3.87, 3.88), vemos que podemos utilizar las soluciones
anteriores reemplazando k2 por −iρ2 con lo cual se obtiene
2
A3 4E (V0 − E)
T = = √  ; R=1−T (3.113)
A1 2 2 2m(V0 −E)
4E (V0 − E) + V0 sinh ~ L

para una partı́cula clásica que en t → −∞ está en x → −∞, es decir en la región I, las regiones II y III están
prohibidas. Contrario a las predicciones para una partı́cula clásica, vemos que en el caso cuántico las probabilidades
en las regiones II y III son distintas de cero. En particular esto implica una probabilidad diferente de cero de que la
partı́cula cruce la barrera de potencial, fenómeno conocido como efecto túnel. En la región II el comportamiento
es de onda evanescente de rango 1/ρ2 . Cuando L . 1/ρ2 la partı́cula tiene una probabilidad considerable de
cruzar la barrera por efecto túnel. Este efecto tiene muchas aplicaciones en Fı́sica tales como el efecto Josephson,
la inversión de la molécula de amonio, el diodo túnel etc.
Es natural entonces comparar la longitud o rango de penetración 1/ρ2 de la onda evanescente, con el ancho
L de la barrera. Si el ancho de la barrera es mucho mayor que el rango de la onda evanescente tenemos que
L ≫ 1/ρ2 de modo que ρ2 L ≫ 1, usando la Ec. (3.111) esta condición queda
r
2m (V0 − E) ex
ρ2 L = L ≫ 1 ; sinh x ≃ ; x≫1
~2 2
con estas aproximaciones, la Ec. (3.113) queda
2
A3 4E (V0 − E) 4E (V0 − E) 16E (V0 − E) −2ρ2 L
T = ≃  ρ L 2 ≃ = e
A1 2
V0 4e 2ρ2 L
V02
4E (V0 − E) + V02 e 22
 
E E
T ≃ 16 1− e−2ρ2 L ≪ 1 (3.114)
V0 V0
en tal caso la atenuación es muy fuerte y la probabilidad de transmisión muy baja.
Para tener una idea de los órdenes de magnitud del efecto, pensemos en un electrón con energı́a E =
o
1eV (electrón-voltio) que cruzará una barrera de potencial V0 = 2eV, de ancho L = 1A. Usando V0 = 2E = 2eV ası́
como los valores de la masa del electrón y de la constante de Planck en la Ec. (3.111), vemos que el rango
o
1/ρ2 ≃ 1,96A, es decir del orden de magnitud de la ancho de la barrera, por lo cual se espera una probabilidad
considerable de que el electrón cruce la barrera, evaluando esta probabilidad con la Ec. (3.113) se obtiene T ≃ 0,78
un resultado muy diferente al clásico ya que en este caso es de hecho más probable la transmisión que la reflexión.
Si reemplazamos al electrón por un protón solo hay que cambiar la masa asociada (unas 1840 veces la del
o
electrón), permaneciendo iguales los demás datos. En tal caso el rango es 1/ρ2 ≃ 4,6 × 10−2 A de modo que la
barrera es mucho más ancha que el rango de la onda evanescente. Usando la Ec. (3.113) o la Ec. (3.114) tenemos
que T ≃ 4×10−19 . Esta tremenda diferencia con respecto al electrón se debe a la gran sensibilidad de la exponencial
decreciente en la Ec. (3.114) con la masa, o del seno hiperbólico en (3.113) con la masa. Esto también explica
porqué el efecto túnel no es observable en sistemas macroscópicos.
3.8. POZO DE POTENCIAL 183

3.8. Pozo de potencial


El pozo de potencial se describe con el perfil

 0 si x < x1 (región I)
V (x) = −V0 < 0 si x1 < x < x2 (región II)

0 si x2 < x (región III)

3.8.1. Partı́cula con energı́a −V0 < E < 0

Figura 3.4: Perfil de un pozo de potencial de profundidad V0 , con discontinuidades en x = −a/2 y x = a/2.

Para esta situación, definiremos el pozo de potencial en la forma (ver Fig. 3.4)

 0 si x < − a2 (región I)
V (x) = −V0 < 0 si − a2 < x < a2 (región II)

0 si a2 < x (región III)
donde hemos elegido colocar el origen de tal modo que V (x) = V (−x).
Una partı́cula clásica en un pozo de potencial como éste, y con energı́a E negativa (pero mayor que −V0 )
solo puede oscilar entre −a/2 y a/2 con energı́a cinética Ek = E + V0 . En el análogo óptico, para la situación
184 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

−V0 < E < 0 los ı́ndices de refracción n1 y n3 en las regiones I y III son imaginarios, en tanto que n2 es real.
Esto es equivalente a una capa de aire de ancho “a” entre dos medios reflectivos. Las diferentes ondas que se
reflejan sucesivamente en x = −a/2 y x = a/2 se destruyen unas a otras excepto para ciertas frecuencias muy
especı́ficas (modos normales) que permiten la formación de ondas estacionarias. Desde el punto de vista cuántico,
esto significa que las energı́as negativas de la partı́cula están cuantizadas. En contraste, para la partı́cula clásica
todos los valores de energı́a entre −V0 y cero son posibles. Vale la pena mencionar que los valores permitidos de
la longitud de onda (y por tanto de la energı́a) no están dados por la bien conocida condición a = kλ2 /2, ya que
existen ondas evanescentes que generan un corrimiento de fase en los puntos de reflexión x = −a/2 y x = a/2.
En las regiones I, II y III las soluciones de la ecuación de Schrödinger independiente del tiempo son
r
2mE
ϕI (x) = B1 eρx + B1′ e−ρx ; ρ = − 2 > 0 (3.115)
~
r
2m (E + V0 )
ϕII (x) = A2 eikx + A′2 e−ikx ; k = 2
>0 (3.116)
r ~
ρx ′ −ρx 2mE
ϕIII (x) = B3 e + B3 e ; ρ= − 2 >0 (3.117)
~
asumiremos de nuevo la condición inicial de que la onda viaja inicialmente desde la región I. A fin de que estas
funciones sean acotadas en la región I (x → −∞) y en la región III (x → ∞) se requiere que

B1′ = B3 = 0 (3.118)

con lo cual las ecuaciones se simplifican a

ϕI (x) = B1 eρx ; ϕII (x) = A2 eikx + A′2 e−ikx ; ϕIII (x) = B3′ e−ρx (3.119)

las condiciones de empalme resultan


 a  a  
dϕI − a2 dϕII − a2
ϕI − = ϕII − ; =
2 2 dx  dx 
a a dϕII a2 dϕIII a2
ϕII = ϕIII ; =
2 2 dx dx
estas condiciones aplicadas sobre las Ecs. (3.119) nos dan
a a a a
 a a

B1 e−ρ 2 = A2 e−ik 2 + A′2 eik 2 ; ρB1 e−ρ 2 = ik A2 e−ik 2 − A′2 eik 2
a a a a
 a a

B3′ e−ρ 2 = A2 eik 2 + A′2 e−ik 2 ; −ρB3′ e−ρ 2 = ik A2 eik 2 − A′2 e−ik 2 (3.120)

en este caso la amplitud incidente es B1 (aunque de una onda evanescente) y por tanto los cocientes se normalizan
con esta cantidad. Las Ecs. (3.120) quedan
 
A2 (ρ−ik) a A′2 (ρ+ik) a ik A2 (ρ−ik) a A′2 (ρ+ik) a
1 = e 2 + e 2 ; 1= e 2 − e 2 (3.121)
B1 B1 ρ B1 B1
 
B3′ A2 (ρ+ik) a A′2 (ρ−ik) a B3′ ik A′2 (ρ−ik) a A2 (ρ+ik) a
= e 2 + e 2 ; = e 2 − e 2 (3.122)
B1 B1 B1 B1 ρ B1 B1

de la primera de las ecuaciones (3.121) tenemos

A′2 (ρ+ik) a A2 (ρ−ik) a


− e 2 = e 2 − 1 (3.123)
B1 B1
3.8. POZO DE POTENCIAL 185

y reemplazando esta cantidad en la segunda de las ecuaciones (3.121) se obtiene


 
ik A2 (ρ−ik) a A2 (ρ−ik) a ρ A2 a 1ρ  a A2
1 = e 2 + e 2 − 1 ⇒ = 2 e(ρ−ik) 2 − 1 ⇒ + 1 e(−ρ+ik) 2 =
ρ B1 B1 ik B1 2 ik B1
 
A2 ρ + ik a
= e(−ρ+ik) 2 (3.124)
B1 2ik
reemplazando (3.124) en (3.123) tenemos
     
A′2 (ρ+ik) a ρ + ik (−ρ+ik) a a A′2 ρ + ik a
− e 2 = e 2 e(ρ−ik) 2 − 1 ⇒ =− − 1 e−(ρ+ik) 2
B1 2ik B1 2ik

 
A2 ρ − ik a
= − e−(ρ+ik) 2 (3.125)
B1 2ik
reemplazando (3.124, 3.125) en la primera Ec. (3.122) tenemos
         
B3′ ρ + ik a a ρ − ik a a ρ + ik ρ − ik
= e(−ρ+ik) 2 e(ρ+ik) 2 − e−(ρ+ik) 2 e(ρ−ik) 2 = eika − e−ika
B1 2ik 2ik 2ik 2ik
ρ  ika  1h i
= e − e−ika + eika + e−ika
2ik 2
B3′ ρ
= sin ka + cos ka (3.126)
B1 k
igualando las Ecs. (3.122) y usando las expresiones (3.124, 3.125), obtenemos
 
A2 (ρ+ik) a A′2 (ρ−ik) a ik A′2 (ρ−ik) a A2 (ρ+ik) a
e 2 + e 2 = e 2 − e 2 ⇒
B1 B1 ρ B1 B1
          
ρ + ik (−ρ+ik) a2 (ρ+ik) a2 ρ − ik −(ρ+ik) a2 a ik ρ − ik −(ρ+ik) a2 a
e e + − e e(ρ−ik) 2 = − e e(ρ−ik) 2
2ik 2ik ρ 2ik
   
ρ + ik (−ρ+ik) a2 (ρ+ik) a2
− e e
2ik
   
ρ + ik ika ρ − ik −ik n o
e − e−ika = (ρ − ik) e−ika + (ρ + ik) eika
2ik 2ik 2ikρ
−ik n o
(ρ + ik) eika − (ρ − ik) e−ika = (ρ − ik) e−ika + (ρ + ik) eika
ρ
   
ρ + ik ika ρ − ik −ik n o
e − e−ika = (ρ − ik) e−ika + (ρ + ik) eika
2ik 2ik 2ikρ
−ik n o
(ρ + ik) eika − (ρ − ik) e−ika = (ρ − ik) e−ika + (ρ + ik) eika
ρ
dividiendo ambos miembros por ρ + ik resulta
     
ika (ρ − ik) −ika −ik (ρ − ik) −ika ika ika ik (ρ − ik) −ika ik
e − e = e +e ⇒ e 1+ = e 1−
(ρ + ik) ρ (ρ + ik) ρ (ρ + ik) ρ
   
2ika ρ + ik (ρ − ik) ρ − ik
e =
ρ (ρ + ik) ρ
(ρ − ik)2
e2ika = (3.127)
(ρ + ik)2
186 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

vale la pena discutir la estrategia de solución antes de seguir adelante. A priori podrı́a pensarse que las Ecs. (3.120)
nos pueden dar solución para todas las amplitudes B1 , A2 , A′2 y B3 , puesto que tenemos cuatro ecuaciones. Sin
embargo, no es lógico fı́sicamente que la amplitud de entrada B1 pueda ser determinada por las condiciones de
empalme ya que esta amplitud tiene relación con las condiciones iniciales, las cuales puedo acomodar en principio
arbitrariamente. Por esta razón la estrategia de solución se interpreta diciendo que las cuatro ecuaciones (3.120)
nos brindan soluciones para los tres cocientes A2 /B1 , A′2 /B1 , B3′ /B1 mas una ligadura entre las cantidades ρ y k
dada por la Ec. (3.127).
Por otro lado, las Ecs. (3.115, 3.116) nos muestran que ρ y k están relacionadas con la energı́a E de la partı́cula.
Esto implica que la ligadura (3.127) solo se satisface para ciertos valores de la energı́a. Por tanto, al imponer el
acotamiento de ϕ (x) hemos llegado a una cuantización de la energı́a. Esto se puede ver teniendo en cuenta que
la ligadura (3.127) provino del hecho de que el sistema de cuatro ecuaciones (3.121, 3.122) está sobredeterminado
para el conjunto de tres cocientes A2 /B1 , A′2 /B1 , B3′ /B1 ; pero esto a su vez ocurre debido a la eliminación de las
amplitudes Ec. (3.118) que se realizó para mantener acotada la solución.
En resumen, para un pozo de potencial como el de la Fig. 3.4 de profundidad V0 y de ancho a, la función de
onda (acotada) en las tres regiones en que el potencial divide al espacio vienen dadas por

ϕI (x) = B1 eρx ; ϕII (x) = A2 eikx + A′2 e−ikx ; ϕIII (x) = B3′ e−ρx (3.128)
r r
2mE 2m (E + V0 )
ρ = − 2 >0 ; k= 2
>0 (3.129)
 ~  ~  
A2 ρ + ik a A′2 ρ − ik a B3′ ρ
= e(−ρ+ik) 2 ; =− e−(ρ+ik) 2 ; = sin ka + cos ka (3.130)
B1 2ik B1 2ik B1 k
(ρ − ik)2
e2ika = (3.131)
(ρ + ik)2

donde hemos supuesto que la partı́cula incide desde la región I.

Caso 1 para energı́a negativa

La ligadura (3.131) nos conduce a dos situaciones posibles


I)
ρ − ik
= −eika (3.132)
ρ + ik
reescribimos esta relación en la forma

(ρ/k) − i ρ ρ  ρh i h i
= −eika ⇒ −i=− + i eika ⇒ 1 + eika = i 1 − eika
(ρ/k) + i k k k
 (e −1) e−ika/2
ika  
ρ eika − 1 i 2 eika/2 − e−ika/2 /2i sin ka
2
= = = −ika/2  = 
k i (1 + eika ) (1 + eika ) e
−ika/2
e + eika/2 /2 cos ka
2
2

quedando finalmente
 
ρ ka
= tan (3.133)
k 2
definimos la magnitud del complejo ρ + ik en la forma
r
p 2mV0
k0 ≡ k2 + ρ2 = (3.134)
~2
3.8. POZO DE POTENCIAL 187

donde hemos tenido en cuenta las Ecs. (3.129). Usando identidades trigonométricas y las Ecs. (3.133, 3.134),
tenemos que

1 ka ρ2 k2 + ρ2
ka
 = 1 + tan2 =1+ 2 =
cos2 2
2 k k2
 2
1 k0
ka
 = (3.135)
cos2 2
k

de modo que la Ec. (3.132) es equivalente a las Ecs. (3.133, 3.135) que se pueden sintentizar en las ecuaciones
   

cos ka = k ; tan
ka
>0 (3.136)
2 k0 2

Donde hemos tenido en cuenta que la Ec. (3.135) proviene de la Ec. (3.133), pero sustituyendo una tangente al

Figura 3.5: Solución gráfica de las Ecs. (3.136, 3.142). La intersección de la lı́nea recta con las lı́neas punteadas
cosenoidales nos dan los puntos denotados por P , correspondientes a soluciones de las Ecs. (3.136) y asociados a
funciones de onda pares. La intersección de la recta con las lı́neas punteadas del arco senoidal nos dan los puntos
denotados por I, correspondientes a soluciones de las Ecs. (3.142) y asociados a funciones de onda impares.

cuadrado con lo cual se pierde la información del signo de esta tangente al llegar a la Ec. (3.135).

La primera de las Ecs. (3.136) se puede solucionar graficando la parte izquierda y = cos ka 2
y la parte derecha
y = k/k0 y encontrando la intersección entre las dos gráficas. Es decir graficamos los arcos cosenoidales (arcos del
coseno con nodos en (2q + 1) π/a de la Fig. 3.5 con q entero no negativo) y la lı́nea recta de pendiente 1/k0 para
obtener tal intersección. Ahora bien, las franjas ascendentes del coseno (lı́neas contı́nuas del arco cosenoidal en la
Fig. 3.5) violan la condición dada por la segunda ecuación (3.136), en tanto que las franjas descendentes (lı́neas
punteadas del arco cosenoidal en la Fig. 3.5) satisfacen tal condición13 . Los puntos de intersección de la recta con
las lı́neas punteadas del coseno se denotan en la Fig. 3.5 con la letra P , y sus componentes x nos dan los valores
kn que cuantizan al número de onda y por tanto a la energı́a, la cual viene dada por la ecuación (3.129)
r
2m (En + V0 )
kn = (3.137)
~2
13
Por ejemplo en la franja 0 ≤ k ≤ π/a es claro que tan (ka/2) > 0, en tanto que en la franja π/a < k < 2π/a se tiene que
tan (ka/2) ≤ 0, y ası́ sucesivamente.
188 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

Por otro lado, dividiendo las dos primeras Ecs. (3.130) se obtiene
  a
ρ−ik
A2 ′ − 2ik e−(ρ+ik) 2 (ρ − ik) e−ik 2
a
(ρ − ik) −ika
=   =− ik a2
=− e
A2 ρ+ik (−ρ+ik) a2 (ρ + ik) e (ρ + ik)
2ik e

y utilizando la Ec. (3.132) resulta


A′2
=1
A2
si reemplazamos la Ec. (3.133) (la cual es equivalente a la Ec. 3.132) en la tercera de las Ecs. (3.130) y definiendo
x ≡ ka/2 obtenemos
 
B3′ ρ ka
= sin ka + cos ka = tan sin ka + cos ka = tan x sin 2x + cos 2x
B1 k 2
 sin x
= tan x (2 sin x cos x) + 1 − 2 sin2 x = 2 sin x cos x + 1 − 2 sin2 x
cos x
B3′
= 1
B1
En conclusión la Ec. (3.132) que define el caso 1 de nuestro análisis, conduce a las relaciones
A′2 = A2 ; B3′ = B1 (3.138)
y al reemplazar estas relaciones en la Ecs. (3.128) esto nos da
ϕI (x) = B1 eρx ; ϕII (x) = 2A2 cos kx ; ϕIII (x) = B1 e−ρx (3.139)
para −a/2 ≤ x ≤ a/2 (región II), es claro que −x también pertenece a la región II. Si x pertenece a la región I (x ≤
−a/2) entonces −x pertenece a la región III (−x ≥ a/2). Similarmente, si x está en la región III entonces −x está
en la región I. Vemos además que la Ec. (3.139) nos dice que
ϕI (x) = B1 eρx = ϕIII (−x) ; ϕII (x) = ϕII (−x)
lo cual nos lleva a la conclusión de que en el caso 1 caracterizado por la Ec. (3.132), la función de onda es par en
todas las regiones i.e.
ϕ (−x) = ϕ (x) ; x ∈ (−∞, ∞) (3.140)

Caso 2 para energı́a negativa


La Ec. (3.131), tiene dos soluciones, la primera corresponde a la Ec. (3.132) y la segunda vendrá dada por
ρ − ik
= eika (3.141)
ρ + ik
un cálculo análogo nos lleva a que los números de onda permitidos están dados por
   

sin ka = k ; tan ka < 0 (3.142)
2 k0 2
la Fig. 3.5 muestra la intersección entre la recta de pendiente 1/k0 y los arcos senoidales (arcos del seno con nodos
en k = 2qπ/a siendo q entero no negativo). La intersección entre la recta y la parte punteada (descendente) de
los arcos senoidales, nos da los puntos denotados por I en la Fig. 3.5, cuya abcisa nos da el valor cuantizado de
kn , con el cual se encuentra la energı́a cuantizada usando la Ec. (3.137). Nótese que los niveles encontrados se
encuentran entre los niveles hallados para el primer caso. Puede similarmente demostrarse que la función de onda
asociada es impar
ϕ (x) = −ϕ (−x) ; x ∈ (−∞, ∞) (3.143)
Puede observarse además que el hecho de que el potecial sea par V (x) = V (−x), es lo que genera la existencia
de soluciones pares e impares en los casos 1 y 2 Ecs. (3.140, 3.143).
3.8. POZO DE POTENCIAL 189

Relación entre k0 y los estados acotados


Obsérvese que si
π
0 ≤ k0 ≤
a
La Fig. 3.5 nos muestra que solo existe un estado acotado para la partı́cula y dicho estado se asocia con una
función de onda par. En otras palabras, la recta tiene una pendiente muy alta de modo que cruza la recta
horizontal (máximo de los sinusoides) antes de llegar al primer nodo de la función cosenoidal (de modo que solo
cruza una vez la lı́nea punteada del coseno) y antes de llegar al primer máximo de la función senoidal (de modo
que no cruza la lı́nea punteada del seno). Un análisis similar nos muestra que cuando tenemos

π 2π
≤ k0 ≤
a a
aparecen solo dos estados uno par y otro impar. Generalizando, si se cumple la condición

2pπ (2p + 1) π 1 3 5
≤ k0 ≤ ; p = 0, , 1, , 2, , . . . (3.144)
a a 2 2 2
 
aparecen [p + 1] estados pares y p + 12 estados impares, siendo [p] la función parte entera de p que se define como

[p] ≡ k tal que : k es entero con k ≤ p < k + 1

Para el ejemplo de la figura 3.5 tenemos que 4π/a  < k0 < 5π/a, de modo que p = 2. El número de estados pares
es [2 + 1] = 3, el número de estados impares es 2 + 12 = 2.
Es útil escribir la condición (3.144), en términos de parámetros más fı́sicos. De la definición (3.134) podemos
escribir la condición (3.144) en la forma
r    
2pπ 2mV0 (2p + 1) π 2pπ 2 2mV0 (2p + 1) π 2
≤ ≤ ⇒ ≤ ≤
a ~2 a a ~2 a
2
π ~ 2 2
π ~ 2
(2p)2 2
≤ V0 ≤ (2p + 1)2
2ma 2ma2
π 2 ~2 1 3 5
(2p)2 V1 ≤ V0 ≤ (2p + 1)2 V1 ; V1 ≡ 2
; p = 0, , 1, , 2, , . . . (3.145)
2ma 2 2 2
La Ec. (3.145), nos sugiere definir a V1 como un potencial umbral. Por ejemplo si p = 0 tenemos que 0 ≤ V0 ≤ V1
conduce a un estado par y ningún estado impar. Si p = 1/2, la condición queda V1 ≤ V0 ≤ 4V1 que conduce a una
función par y otra impar y ası́ sucesivamente.
Si V0 ≫ V1 (de modo que p ≫ 1) entonces la pendiente de la recta 1/k0 es muy pequeña y los primeros números
de onda prácticamente coinciden con los nodos de los arcos senoidal y cosenoidal. Es decir, para los números de
onda más bajos tenemos que

k≃ ; para n entero y n ≪ p
a
y aplicando la Ec. (3.137), la energı́a queda

n2 π 2 ~2
E≃ − V0 ; para n entero y n ≪ p (3.146)
2ma2

Pozo de potencial con profundidad infinita


Asumiremos que V (x) es cero fuera del intervalo 0 < x < a, e infinito negativo −V0 → −∞ en dicho intervalo.
Supondremos sin embargo que E + V0 ≡ ∆E > 0 en 0 < x < a y que ∆E es finito, a fin de que la partı́cula
posea energı́a cinética finita. La discusión es totalmente análoga a la realizada en la sección 3.6.2, Pág. 175 para
190 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES

escalón de potencial infinito. Según esta discusión, al penetrar en la barrera la onda es evanescente con longitud de
penetración que tiende a cero, en el lı́mite podemos entonces considerar que la función decae a cero inmediatamente,
es decir la función de onda se anula en las discontinuidades de salto infinito. Esto es consistente con las ecuaciones
que se obtienen en este lı́mite para el empalme, como se aprecia en las Ecs. (3.83, 3.84). Adicionalmente, la Ec.
(3.84) también nos muestra que la función de onda debe seguir siendo continua en los empalmes, con lo cual la
función de onda en nuestro caso debe ser nula fuera del intervalo [0, a]. No obstante, vimos que en general la
primera derivada ya no es contı́nua, debido a que tenemos un potencial no acotado.
Como E + V0 ≡ ∆E es positivo y finito, la solución de la ecuación de onda está dada por
r
ikx ′ −ikx 2m ∆E
ϕ (x) = Ae + A e para 0 ≤ x ≤ a ; k ≡ (3.147)
~2
poniendo la condición de nulidad de la función de onda en el extremo x = 0 tenemos que

ϕ (0) = 0 = A + A′ ⇒ A = −A′ ⇒
 
ϕ (x) = A eikx − e−ikx = 2iA sin kx (3.148)

usando nulidad de la función de onda (3.148) en el extremo x = a tenemos

ϕ (a) = 2iA sin ka = 0

con lo cual ka = nπ o equivalentemente



kn = ; n entero positivo (3.149)
a
n es positivo ya que se asume k positivo en la Ec. (3.147)14 . La función queda

ϕ (x) = 2iA sin x
a
la constante 2iA la elegimos como positiva (fase cero) de modo que normalice a la función de onda. Con esto se
tiene finalmente r
2  nπx 
ϕn (x) = sin
a a
con energı́as
n2 π 2 ~2
∆En = (3.150)
2ma2
en este caso la cuantización de la energı́a es mucho más simple de demostrar. Nótese que la Ec. (3.149), nos dice
que la condición para el estado estacionario es tal que el ancho a del potencial debe contener un número entero de
semilongitudes de onda π/k. Este es el análogo a la formación de ondas estacionarias con extremo fijo en óptica.
Vemos que la condición de extremo fijo (nulidad de la función de onda en los extremos) solo se da para pozos
infinitamente profundos. Si el pozo tiene profundidad finita, el extremo no es totalmente fijo, lo cual se traduce
en la penetración de una onda evanescente (pero no nula) en las regiones fuera del pozo.
Si bien no hay pozos infinitos, en la práctica pozos muy profundos poseen el comportamiento aquı́ descrito.
Pero ¿que es un pozo muy profundo?. La respuesta está en el potencial umbral V1 definido en la Ec. (3.145).
Efectivamente, vimos que cuando V0 ≫ V1 los estados más bajos se comportan como los de un pozo infinito como
se vé al comparar las Ecs. (3.146, 3.150). Debe tenerse en cuenta sin embargo, que aún cuando V0 sea mucho mayor
que V1 siempre habrá estados excitados que se desvı́en significativamente del comportamiento aquı́ descrito, vale
decir cuando la aproximación n ≪ p ya no sea válida, como se vé en la Ec. (3.146).
14
Si tomáramos la raı́z negativa en la Ec. (3.147) tendrı́amos la misma solución de la función de onda.
3.8. POZO DE POTENCIAL 191

3.8.2. Partı́cula con energı́a E > 0


En esta situación, definiremos el origen de modo que

 0 si x < 0 (región I)
V (x) = −V0 < 0 si 0 < x < L (región II)

0 si L < x (región III)

con el fin de poder comparar con los resultados de la sección 3.7.1. Cuando la partı́cula clásica tiene energı́a
positiva y viene desde −∞, viaja con energı́a cinética constante Ek = E hasta x = 0, donde experimenta un
aumento abrupto en su energı́a cinética a Ek = E + V0 , y luego una desaceleración similar en x = L, continuando
hacia la derecha con energı́a cinética constante Ek = E.
Para E > 0, en el análogo óptico todos los ı́ndices de refracción son reales
c 1√ c 1p
n1 = n3 = 2mE ; n2 = 2m (E + V0 )
Ω~ Ω~
y los resultados se pueden extraer de la Sec. 3.7.1, con la asignación V0 → −V0 . Puesto que n2 es mayor que n1 y
n3 la situación óptica es análoga a tener una capa de vidrio en medio del aire15 . Para obtener la onda reflejada
para x < 0, o la onda transmitida para x > L, es necesario superponer un número infinito de ondas que surgen de
la reflexión sucesiva entre x = 0 y x = L (interferómetro múltiple análogo a un Fabry-Pérot). Se encuentra que
para ciertas frecuencias incidentes la onda es completamente transmitida (asumiendo que L, V0 y m son fijos).
En el caso cuántico, la partı́cula tiene cierta probabilidad de ser reflejada, pero existen ciertos valores llamados
energı́as resonantes para los cuales la probabilidad de transmisión es 1 y por tanto la probabilidad de reflexión
es cero.

15
En la Sec. 3.7.1, la situación óptica era la de una capa de aire rodeada de vidrio.
Capı́tulo 4

Enunciado matemático de los postulados de


la mecánica cuántica

4.1. Los fenómenos clásicos


En mecánica clásica, un sistema discreto de partı́culas se describe a través de un conjunto de coordenadas gene-
ralizadas qi (t) y de velocidades generalizadas q̇i (t), y podemos utilizar por ejemplo el Lagragiano L = L (qi , q̇i , t)
como el generador de las ecuaciones de movimiento del conjunto {qi (t) , q̇i (t)}. Las qi′ s deben ser independientes
en el sentido de que debe ser posible mover una sola de estas coordenadas sin violar las ligaduras impuestas
sobre el sistema. De esta forma, para un péndulo simple con el origen ubicado en el pivote, la única coordenada
generalizada es θ puesto que la distancia r de la lenteja es fija, de modo que no es posible mover el valor de r sin
violar la ligadura de distancia constante al origen. Por esta razón el número de coordenadas generalizadas n del
sistema no es en general igual a 3N , siendo N el número de partı́culas. No obstante, las ligaduras son usualmente
manifestaciones macroscópicas de fuerzas microscópicas, por ejemplo la tensión de la cuerda del péndulo es el re-
sultado de las fuerzas que generan los enlaces moleculares de la cuerda. Por esta razón, en el mundo microscópico
el concepto de ligadura básicamente desaparece y los sistemas de partı́culas se tratan en general como sistemas
no ligados por las interacciones. Por tanto, el número de grados de libertad de posición será usualmente n = 3N .
A menudo resulta más ventajoso utilizar en lugar del conjunto {qi , q̇i } un nuevo conjunto {qi , pi } donde las
variables pi están dadas por
∂L (q, q̇, t)
pi ≡
∂ q̇i
y pi se denomina el momento canónicamente conjugado a la variable qi . Si definimos la transformada de Legendre
del Lagrangiano en la forma
X
H≡ pi q̇i − L (qi , q̇i , t)
i

a esta cantidad cuando se escribe enteramente en términos del conjunto {qi , pi }, la llamamos el Hamiltoniano del
sistema y actúa como generador de ecuaciones de movimiento para el sistema {qi , pi }, a través de las llamadas
ecuaciones de Hamilton
∂H ∂H
q̇i = ; ṗi = − (4.1)
∂pi ∂qi
La resolución de estas ecuaciones nos genera el comportamiento de qi y pi como función del tiempo y por tanto
toda la información fı́sica del sistema. El Hamiltoniano es una función que puede variar tanto funcional como
numéricamente cuando se hace un cambio en el sistema coordenado. El uso directo de las ecuaciones de Hamilton
permite demostrar que
dH ∂H
= (4.2)
dt ∂t

192
4.1. LOS FENÓMENOS CLÁSICOS 193

En consecuencia, si para un sistema coordenado dado el Hamiltoniano no es función explı́cita del tiempo, esta
cantidad será una constante de movimiento. Adicionalmente, la Ec. (4.1) nos dice que si una cierta coordenada
generalizada qi no aparece en el Hamiltoniano, pero sı́ aparece su momento conjugado pi , se tiene que este
momento conjugado será una constante de movimiento. Por otro lado, para muchos casos de interés el Hamiltoniano
corresponde a la energı́a total del sistema, para que el Hamiltoniano sea la energı́a del sistema se deben cumplir
los siguientes requisitos (como condiciones de suficiencia): (a) El lagrangiano asociado debe poder descomponerse
en la forma
L (q, q̇, t) = L0 (q, t) + L1 (q, q̇, t) + L2 (q, q̇, t)
siendo Li con i = 0, 1, 2 una función homogénea de grados 0, 1 y 2 en las variables q̇i . (b) La transformación que
lleva de las coordenadas cartesianas a las coordenadas generalizadas

ri = ri (q1 , ..., qn )

no debe depender explı́citamente del tiempo, y (c) el potencial asociado solo debe ser función de las coordenadas y
el tiempo. Para los sistemas microscópicos estas condiciones se cumplen en casi todos los casos de interés. Vale decir
que la condición (c) es violada por los potenciales asociados a las interacciones electromagnéticas para las cuales el
potencial depende también de las q̇i . No obstante, se puede demostrar que aún con la violación de esta condición,
el Hamiltoniano sigue siendo la energı́a del sistema para el caso especial de interacciones electromagnéticas. Nótese
que esto tiene que ver con el hecho de que estas son condiciones de suficiencia pero no de necesidad.
En virtud de la discusión anterior, asumiremos para nuestros propósitos que el Hamiltoniano corresponde
numéricamente a la energı́a total del sistema. De particular importancia será el Hamiltoniano asociado a una
partı́cula no relativista, no ligada y sometida a un potencial que no depende de las velocidades generalizadas. En
este caso el Hamiltoniano corresponde a la energı́a total de la partı́cula y se podrá escribir en la forma

p2
H= + V (r, t)
2m
si usamos como coordenadas generalizadas las coordenadas cartesianas de la partı́cula, se tendrá que el momento
lineal pi será el momento canónicamente conjugado a la variable xi con i = 1, 2, 3. Si aplicamos las ecuaciones de
Hamilton a este Hamiltoniano, las ecuaciones de movimiento quedan
pi ∂V
ẋi = ; ṗi = −
m ∂xi
que coinciden con las leyes Newtonianas básicas.
Por otro lado, existen en la mecánica clásica los fenómenos ondulatorios, estos aparecen de manera natural
como excitaciones o perturbaciones colectivas de un sistema de partı́culas, como es el caso de las cuerdas vibrantes
o las olas en el agua, estos fenómenos colectivos se pueden entender a la luz de las leyes de Newton pero no se
presentan fenómenos ondulatorios clásicos para una sola partı́cula. Más bien se trata de una perturbación que
se transmite de una partı́cula a otra generando propiedades de propagación. Por otro lado, existen fenómenos
ondulatorios (electromagnéticos) que no están asociados clásicamente a partı́culas y que no están regidos por
las leyes de Newton sino por las denominadas ecuaciones de Maxwell. Podemos entonces por un lado hablar de
materia (regida por la mecánica Newtoniana) que genera los fenómenos corpusculares y las ondas mecánicas, y
la radiación (regida por las ecuaciones de Maxwell, que genera fenómenos ondulatorios que clásicamente no están
asociados a la materia). De otra parte, podemos hablar de fenómenos corpusculares generados por las partı́culas
individuales y fenómenos ondulatorios generados por los campos electromagnéticos o por perturbaciones colectivas
en la materia. En todo caso, salvo por la ley de Lorentz que nos da la interacción de la radiación con la materia,
estos dos tipos de entes fı́sicos radiación y materia son completamente distintos en mecánica clásica y se rigen por
leyes muy distintas. Por otro lado, una partı́cula individual no puede generar fenómenos ondulatorios de modo
que el comportamiento corpuscular está bien diferenciado del comportamiento ondulatorio.
De la anterior discusión podemos inferir las principales caracterı́sticas de los sistemas clásicos
194 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS

(1) El estado de un sistema en un tiempo t queda totalmente especificado por el valor de sus coordenadas y
momentos conjugados en tal tiempo. Esto equivale a conocer sus posiciones, masas y velocidades en dicho instante.
(2) Al especificar el estado del sistema en cierto tiempo, cualquier cantidad fı́sica tiene un valor único que se
reflejará en el proceso de medida (con ciertas incertidumbres de ı́ndole experimental).
(3) Las ecuaciones de Hamilton son un posible conjunto de ecuaciones de movimiento. De ellas se observa que
dados los valores de qi (t0 ) , pi (t0 ) para un tiempo inicial t0 , la evolución de qi , pi es única de modo que los valores
qi (t) , pi (t), están completamtne determinados para todo tiempo. En consecuencia el estado del sistema se conoce
completamente para cualquier tiempo t ≥ t0 si lo conocemos para t0 . Esto a su vez implica que cualquier cantidad
fı́sica evoluciona de manera única y su valor al ser medido será único en cualquier instante.
(4) En principio todos valores reales de qi , pi son posibles de obtener en un sistema mecánico (al menos dentro
de ciertos intervalos). Por tanto un observable F (qi , pi ) también posee valores en un espectro contı́nuo al menos
dentro de cierto intervalo. Además en el proceso de medición estos serán también los valores accesibles de las
cantidades fı́sicas.
(5) Las ecuaciones de Maxwell nos dan cuenta de la radiación a través de grados de libertad contı́nuos ca-
racterizados por los campos eléctricos y magnéticos. La evolución de estas ecuaciones es única para condiciones
iniciales y de frontera adecuadas, junto con el conocimiento de la distribución de cargas y corrientes. Al igual que
en la mecánica clásica del discreto la evolución temporal de los observables es determinista ası́ como el valor de
las medidas que se efectúen. Similarmente, el espectro posible de valores para los observables es contı́nuo.

4.2. Los fenómenos cuánticos


La exposición sistemática de los sistemas microscópicos descritos anteriormente nos ha llevado a encontrar
fenómenos que difieren radicalmente de los fenómenos clásicos, veamos los más importantes
(1) Existen ciertas cantidades fı́sicas tales como la energı́a, el momento angular etc. que bajo ciertas condiciones
solo nos arrojan medidas discretas. Este fenómeno de cuantización de las medidas accesibles aparece en escenarios
tan diversos como la radiación del cuerpo negro, el efecto fotoeléctrico y la medición de los espectros atómicos.
(2) Tanto la materia como la radiación presentan fenómenos de dualidad onda partı́cula. Pueden dispersarse
como partı́culas pero también interferir y difractarse como las ondas.
(3) La repetición sistemática de ciertos experimentos bajo las mismas condiciones iniciales, nos lleva a que la
medida de los observables no es reproducible. Sin embargo, cuando muchos experimentos idénticos son realizados,
aparece un patrón reproducible relativo a la distribución con que se obtienen las diferentes medidas. Estos nos
lleva a la idea de que existe un patrón de probabilidad para obtener cada uno de los resultados accesibles (que en
general pueden o no estar cuantizados).
(4) La distribución de probabilidad está asociada con el carácter ondulatorio de los sistemas.
(5) En un proceso de medida se evidencia solo uno de los aspectos (ondulatorio o corpuscular) de la naturaleza
cuántica, como una moneda que posee dos caras pero solo nos muestra una a la vez (principio de complementa-
riedad).
(6) La cuantización de los observables nos conduce a pensar que los estados asociados a estos observables
también están cuantizados (autoestados del sistema). El principio de superposición que poseen las ondas sugiere
pensar que el estado del sistema en un tiempo t es la superposición de todos los autoestados, en donde cada
autoestado contribuye con cierto peso.
(7) El proceso de medida nos cambia el estado del sistema de manera drástica: justo antes de la medida el
estado del sistema es la superposición de todos los autoestados, justo después de la medida el sistema queda
preparado en una superposición que solo incluye a los autoestados asociados con el autovalor obtenido.
(8) Lo anterior nos induce a pensar que existe una perturbación fundamental que no puede ser minimizada, y
que es inherente al proceso de medición e independiente de la resolución del aparato de medida.
(9) La probabilidad de obtener un autovalor está relacionada con los coeficientes asociados a sus autoestados.
Lo anterior es confirmado por la repetición sucesiva de los experimentos. Nótese que esto además implica que la
forma en que actuará la perturbación fundamental no se puede predecir con certeza.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 195

(10) Como corolario se obtiene que si vuelvo a hacer una medida del mismo observable justo después de la
primera medición, el autovalor se reproduce con total certeza. Lo anterior es confirmado por los hechos experi-
mentales.
(11) La distribución de probabilidad para la materia evoluciona de manera determinista, siendo la ecuación de
Schrödinger un buen prospecto como generador de esta evolución, al menos en el régimen no relativista.
(12) La función de onda (solución de la ecuación de Schrödinger) que describe la distribución de probabilidad
debe ser de cuadrado integrable para poder mantener la conservación de la probabilidad.
(13) Para una partı́cula el estado clásico en un tiempo t se caracteriza por seis cantidades (3 posiciones y tres
momentos) en tanto que para una partı́cula cuántica está caracterizada por un número infinito de cantidades: los
valores de ψ (r, t) para cada posición r.
En sı́ntesis, los postulados deben dar cuenta de las caracterı́sticas arriba citadas.

4.3. Establecimiento de los postulados


4.3.1. Descripción de los estados y las cantidades fı́sicas
Hemos visto que el estado de una partı́cula se caracteriza por la función de onda ψ (r, t) que es una función
de cuadrado integrable. Adicionalmente, vimos que a cada función de onda en el espacio ̥ le corresponde un ket
|ψi en el espacio de estados Er . Donde la relación entre ambos viene dada por |ψ (t)i → hr |ψ (t)i = ψ (r, t). Esta
relación nos muestra a la función de onda como una representación del ket |ψ (t)i en la base {|ri}. Además, la
representación por kets posee la flexibilidad de ser expresada en cualquier base. Generalizaremos este enunciado
de una partı́cula al caso de un sistema fı́sico arbitrario
Primer postulado: El estado de un sistema fı́sico en un tiempo t0 está especificado por un ket |ψ (t0 )i ∈ E.
Siendo E un subespacio de un espacio de Hilbert H, donde H es isomorfo e isométrico al espacio L2 de las
funciones cuadráticamente integrables en un volumen dado.
Al ser E un espacio vectorial, una combinación lineal de estados es también un estado, lo cual implica un
principio de superposición. Más adelante veremos las implicaciones fı́sicas de este principio de superposición.
De otra parte, observamos que la ecuación de Schrödinger independiente del tiempo nos lleva a una ecuación
de valores propios
H |ψi = E |ψi
donde el operador H está definido por
P2
H= + V (r)
2m
siendo P el operador cuyos valores propios corresponden al momento de la partı́cula. Este operador H tiene como
valores propios los valores accesibles de energı́a del sistema. En forma similar vimos que al menos para partı́cula
libre los operadores R y P tiene como valores propios los valores accesibles (contı́nuos) de posición y momento.
Vale además decir que H, R y P son todos observables. La generalización de estos hechos nos lleva al segundo y
tercer postulado
Segundo postulado: Toda cantidad fı́sica medible A, está descrita por un operador A que actúa sobre el
espacio vectorial E. Dicho operador es un observable, i.e. un operador hermı́tico cuyo espectro de autoestados es
completo.
Más adelante veremos que la caracterı́stica de observable es esencial. Nótese que en la mecánica cuántica los
estados están representados por vectores y las cantidades Fı́sicas por operadores.
Tercer postulado: El único resultado posible en una medición de una cantidad fı́sica A es uno de los auto-
valores del correspondiente observable A.
Por supuesto, toda medida experimental debe ser un número real. El carácter hermı́tico de A nos garantiza
que una medida de A nos dará un valor real, ya que todo valor propio de A es real. Adicionalmente, dado que
el problema de valores propios conduce en muchas circunstancias a valores propios discretos, es de esperarse que
este postulado nos de cuenta de la naturaleza cuántica de algunas cantidades fı́sicas.
196 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS

4.3.2. El proceso de medición y la distribución de probabilidad


Cuando analizamos el experimento de fotones polarizados (sección 2.9), nos topamos con el principio de
descomposición espectral, al cual le daremos un carácter más general en la presente sección. Consideremos que un
sistema está caracterizado en el tiempo t, por el ket |ψ (t)i (de acuerdo con el primer postulado) el cual asumiremos
como normalizado a 1
hψ |ψi = 1
sabemos que si queremos medir una cantidad fı́sica A asociada a un observable A no podemos hacer una predicción
del resultado con toda certeza sino solo una predicción de la probabilidad de obtener un valor dado accesible, es
decir un autovalor dado de A.
Asumamos por ahora que el espectro de A es totalmente discreto y no degenerado, en tal caso a cada valor
propio an le corresponde un único vector propio normalizado |un i (excepto por una fase constante). La ecuación
de valores propios de A es
A |un i = an |un i
y dado que A es un observable, los vectores propios {|un i} forman una base ortonormal en E. El vector de estado
|ψi se puede entonces expandir en esta base
X
|ψi = cn |un i
n

y postularemos siguiendo el principio de descomposición espectral (sección 2.9 Ecs. 2.46, 2.47, 2.48), que la
probabilidad de obtener el valor propio ak está dada por

P (ak ) = |ck |2 = |huk |ψi|2

¿Que ocurre si el autovalor es degenerado?, en este caso varios vectores ortonormales corresponden a este valor
propio
A uin = an uin ; i = 1, ..., gn

dado que A es observable, el conjunto uin forma una base de modo que podemos expandir el estado |ψi en
dicha base
XX gn

|ψi = cin uin (4.3)
n i=1

en este caso la probabilidad P (ak ) debe involucrar a todos los coeficientes asociados a los estados propios con
valor propio ak
gk
X gk
i 2 X i
P (ak ) =
ck = hu |ψi 2
k
i=1 i=1

con lo cual estableceremos el cuarto postulado para espectros discretos


Cuarto postulado (caso de espectro discreto): Cuando se mide una cantidad fı́sica A sobre un sistema que
está en el estado normalizado |ψi, la probabilidad P (ak ) de obtener el autovalor ak correspondiente al observable
A es
gk
X i
P (ak ) = hu |ψi 2 (4.4)
k
i=1

siendo gk el grado de degeneración de ak y uik i = 1, ..., gk un conjunto ortonormal de vectores que forman
una base en el autosubespacio Ek generado por el valor propio ak del observable A.
Naturalmente, cuando ak no es degenerado, entonces gk = 1 y la suma solo contiene un término, siendo el
autoespacio Ek de una dimensión.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 197

Nótese que para que


 ieste
postulado tenga sentido, es necesario que el cálculo de la probabilidad no dependa

de la base especı́fica uk que se use. Esto se puede ver fácilmente considerando la descomposición de E como
suma directa de los autoespacios Ek
E = E1 ⊕ E2 ⊕ . . . ⊕ Ek ⊕ . . . (4.5)
nótese que para poder hacer esta descomposición, es necesario que el operador sea un observable (extensión del
teorema espectral a dimensión infinita). Si retomamos la Ec. (4.3) y la reescribimos adecuadamente resulta
g1
X g2
X gk
X

|ψi = ci1 ui1 + ci2 ui2 + ... + cik uik + . . .
i=1 i=1 i=1

y es claro que
gm
X
|ψm i ≡ cim uim ∈ Em (4.6)
i=1

de modo que
|ψi = |ψ1 i + |ψ2 i + . . . + |ψk i + . . . ; |ψm i ∈ Em (4.7)
Por otro lado, en virtud de la descomposición (4.5), existe una única expansión de |ψi en vectores de cada
autoespacio. En otras palabras, cada |ψm i en la expansión es único. En términos de proyectores tenemos que

|ψi = (P1 + P2 + . . . + Pk + . . .) |ψi = P1 |ψi + P2 |ψi + . . . + Pk |ψi + . . .


Pm |ψi = |ψm i ∈ Em

en notación de Dirac el proyector Pm se escribe


gm
X i
i
Pm = um um
i=1

como se puede verificar al operar sobre |ψi


gm
X gm
X
i
i
Pm |ψi =
um um ψi = cim uim = |ψm i ∈ Em
i=1 i=1

la probabilidad es
gk
X gk gk
i 2 X i 2 X
P (ak ) =
ck =
huk |ψi = hψ uik huik |ψi
i=1 i=1 i=1
P (ak ) = hψ| Pk |ψi (4.8)

y usando la idempotencia y hermiticidad de Pk se tiene que


 
P (ak ) = hψ| Pk Pk |ψi = hψ| Pk† (Pk |ψi)
P (ak ) = hψk | ψk i = k|ψk ik2

pero dado que |ψk i es único y su norma es independiente de la base en que se calcule, vemos que esta probabilidad
es independiente de la base como se esperaba. La Ec. (4.8) es una forma alternativa de calcular esta probabilidad.
Veamos el caso de un espectro contı́nuo no degenerado. La ecuación de valores propios de A es

A |vα i = α |vα i
198 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS

siendo α un ı́ndice contı́nuo y siendo |vα i ortonormal en el sentido extendido. Siendo A un observable (también
en el sentido extendido), podemos expandir el ket |ψi en términos de los autoestados de A
Z
|ψi = dα c (α) |vα i

puesto que el conjunto de medidas accesibles de A es contı́nuo, debemos definir una densidad de probabilidad, tal
como lo hicimos con la función de onda ψ (r, t) y su transformada de Fourier ψ̄ (p, t). En el caso de estas funciones
la probabilidad de encontrar a la partı́cula en un volumen d3 r o dentro de un intervalo tridimensional de momento
d3 p están dados por

dP (r) = |ψ (r, t)|2 d3 r = |hr |ψi|2 d3 r ; R |ri = r |ri


2
dP̄ (p) = ψ̄ (p, t) d3 p = |hp |ψi|2 d3 p ; P |pi = p |pi

la extrapolación natural para un espectro contı́nuo arbitrario es

dP (α) = ρ (α) dα ; ρ (α) = |hvα |ψi|2

siendo dP (α) la probabilidad de obtener un valor dentro del intervalo entre α y α + dα. Naturalmente, α puede
estar indicando varios ı́ndices contı́nuos.
Cuarto postulado (caso contı́nuo no degenerado): Cuando se mide la cantidad fı́sica A sobre un sistema
que está en el estado normalizado |ψi, la probabilidad de obtener un valor dentro del intervalo entre α y α + dα
está dada por
dP (α) = |hvα |ψi|2 dα ≡ ρ (α) dα (4.9)
siendo |vα i el autovector correspondiente al autovalor α del observable A asociado a la cantidad Fı́sica A. A la
cantidad ρ (α) la llamamos la densidad de probabilidad asociada al autovalor α.
Nótese que tanto en el contı́nuo como en el discreto, la probabilidad de obtener cualquier valor accesible es
igual a la unidad como debe ser
!
X X X
P (ak ) = hψ| Pk |ψi = hψ| Pk |ψi = hψ| I |ψi = hψ |ψi = 1
k k k

o alternativamente
X gk
XX i 2
P (ak ) = c = hψ |ψi = 1
k
k k i=1
en el caso contı́nuo
Z b Z b Z b Z b 
2
dP (α) = |hvα |ψi| dα = hψ |vα i hvα |ψi dα = hψ| |vα i hvα | dα |ψi = hψ| I |ψi = 1
a a a a

siendo [a, b] el intervalo en donde se define la variable contı́nua α. Por supuesto, si la función es de cuadrado
integrable pero no está normalizada, estas probabilidades se pueden calcular normalizando a |ψi

ψ = p 1 |ψi
hψ |ψi
y para el discreto y el contı́nuo se obtiene
gk
X g
i ′ 2
hu ψ = 1 X k
i
hu |ψi 2
P (ak ) = k k
hψ |ψi
i=1 i=1
1
dP (α) = ρ (α) dα = |c (α)|2 dα
hψ |ψi
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 199

es importante enfatizar que el carácter de observable de A es vital para la construcción del cuarto postulado, ya
que éste depende de que un estado (arbitrario) pueda expandirse en términos de los autovectores de A.
Si el espectro contı́nuo es degenerado podemos escribir
E E

A vαβ = α vαβ β ∈ [c, d]

y la densidad de probabilidad asociada a α se obtiene sumando sobre todos los vectores propios con valor propio
α Z d 
Z d 2 2
β β
ρ (α) = hvα |ψi dβ ; dP (α) = hvα |ψi dβ dα
c c

la extensión a casos en donde parte del espectro es contı́nuo y parte discreto es relativamente simple y será ilustrada
posteriormente con ejemplos.

4.3.3. Relevancia fı́sica de las fases en mecánica cuántica


Consideremos dos kets |ψi y |ψ ′ i relacionados en la forma

ψ = eiθ |ψi

siendo θ un número real. Es fácil ver que los dos vectores poseen la misma norma y que la probabilidad predicha
para una medición arbitraria es la misma para ambos kets.

hψ ′ ψ ′ = hψ| e−iθ eiθ |ψi = hψ |ψi
i ′ 2 iθ i i
hu |ψ i e hu |ψi 2 hu |ψi 2
k k k
= =
hψ ′ |ψ ′ i hψ |ψi hψ |ψi

aún más, los kets relacionados en la forma


′′
ψ = αeiθ |ψi

también contienen la misma información fı́sica, ya que estrictamente los observables solo se calculan con kets
normalizados. En consecuencia, dos kets linealmente dependientes representan el mismo estado del sistema fı́sico.
Este resultado debe interpretarse con cuidado. Por ejemplo, sea el estado

|ψi = λ1 |ψ1 i + λ2 |ψ2 i

donde λ1 y λ2 son complejos. De lo anterior, sabemos que eiθ1 |ψ1 i representa al mismo estado que |ψ1 i y que
eiθ2 |ψ2 i representa al mismo estado que |ψ2 i, no obstante el estado

|ϕi = λ1 eiθ1 |ψ1 i + λ2 eiθ2 |ψ2 i

no representa el mismo estado fı́sico que |ψi, ya que la diferencia de fase θ2 − θ1 dará lugar a fenómenos de
interferencia, volveremos sobre esto más adelante. Por el momento mencionaremos que los dos estados describirán
la misma fı́sica solo si θ1 = θ2 + 2nπ, siendo n un entero. Pues en tal caso eiθ1 = eiθ2 y resulta

|ϕi = eiθ1 [λ1 |ψ1 i + λ2 |ψ2 i] = eiθ1 |ψi

de modo que un factor de fase global no afecta las predicciones fı́sicas, pero las fases relativas de los coeficientes
de una expansión son significativas.
200 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS

4.3.4. El proceso de medida y la reducción del paquete de onda


Hasta el momento hemos hablado del valor experimental obtenido en la medición pero no del estado del sistema
una vez que la medición se ha efectuado. En el experimento de polarización de fotones vimos que justo después
de que la medida es realizada, el sistema queda preparado en el autoestado asociado al autovalor que se obtuvo
en la medición. Vamos ahora a generalizar este proceso conocido como reducción del paquete de onda.
Supongamos que queremos medir una cantidad fı́sica A asociada a un observable A en un tiempo dado t.
Si |ψi representa el estado del sistema justo antes de la medición, el cuarto postulado nos permite obtener la
probabilidad para cada autovalor posible en la medición. Sin embargo, una vez que la medida es efectuada solo
uno de los posibles autovalores es obtenido. Por tanto, justo después de la medición, ya no podemos hablar de
la probabilidad de obtener un autovalor, pues ya sabemos cual de ellos se obtuvo, de manera que poseemos una
información adicional y es comprensible que el estado del sistema ya no sea |ψi ya que justo después de la medición
el estado debe incorporar la información del autovalor especı́fico que se obtuvo. Por tanto, es de esperarse que
el estado |ψk i justo después de la medida sea la componente de |ψi asociada con el autoestado ak . Tendremos
entonces que cuando se ejecuta una medida con resultado ak , el estado tendrá un cambio abrupto desde |ψi (justo
antes de la medición) hasta |ψk i pero normalizado (justo después de la medición).

(a )
k 1 Pk |ψi
|ψi −→ p |ψk i = p
hψk |ψk i hψ| Pk |ψi

Es importante decir que la normalización es necesaria ya después de la medición |ψk i describe todo el estado del
sistema y no solo una componente de tal estado como antes de la medición. Recordando las expansiones (4.3, 4.7)
y la expresión (4.6) para la componente |ψk i de |ψi sobre el autoespacio Ek , se tiene
gn
XX
|ψi = cin uin
n i=1
gk
X
(ak ) 1
|ψi −→ qP 2 cik uik
gk cm
m=1 k i=1

Quinto postulado: Si la medida de la cantidad fı́sica A sobre el sistema en el estado |ψi, nos da el valor
propio ak , el estado del sistema inmediatamente después de la medida está dado por la proyección normalizada
de |ψi sobre el autoespacio Ek asociado con ak

Xgk
(ak ) Pk |ψi 1 1
|ψi −→ p =p |ψk i = qP cik uik (4.10)
hψ| Pk |ψi hψk |ψk i gk m 2 i=1
m=1 ck

el estado del sistema inmediatamente después de la medición es entonces un autovector de A con autovalor ak .
Pero no un autovector cualquiera de Ek , sino la componente sobre este autoespacio del estado |ψi que se tenı́a
antes de la medición. Cuando hay ausencia de degeneración gk = 1 y se tiene que el estado después de la medición
es
(ak ) 1 1 
|ψi −→ q ck |uk i = |ck | eiα |uk i
|ck |
|ck |2
(ak )
|ψi −→ eiα |uk i

el cual es fı́sicamente idéntico a |uk i. Efectivamente en este caso salvo por una constante de proporcionalidad,
el autovector asociado a ak es único. Este postulado nos da cuenta de los cambios abruptos en el estado, o
perturbaciones fundamentales que se aprecian en diversos experimentos.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 201

Por otra parte, la combinación del cuarto y el quinto postulado nos dice que si el estado de un sistema fı́sico
coincide con un autovector |ψk i de un observable A asociado a un autovalor ak , entonces la medición del observable
A nos dará con toda certeza el valor propio ak y el estado permanecerá intacto. Estas son las caracterı́sticas con
las cuales hemos definido a los autoresultados y a los autoestados del sistema con respecto al observable A, de
modo que los autoresultados y autoestados del sistema asociados con un observable A corresponden a sus valores
propios y kets propios1 .

4.3.5. Evolución fı́sica de los sistemas cuánticos


Ya hemos usado argumentos de plausibilidad para suponer que la ecuación de Schrödinger es la ecuación
que gobierna la evolución temporal de los estados correspondientes a un sistema de una partı́cula cuántica no
relativista. Postularemos que esta misma ecuación gobierna la evolución temporal de todos los sistemas cuánticos
no relativistas
Sexto postulado: La evolución temporal de un vector de estado |ψ (t)i está regida por la ecuación de Schrödin-
ger
d
i~ |ψ (t)i = H (t) |ψ (t)i
dt
donde H (t) es el observable asociado con la energı́a total del sistema. H (t) se conoce como el operador Hamilto-
niano del sistema y se obtiene del Hamiltoniano clásico por medio de ciertas reglas de cuantización.
Antes de explicar las reglas de cuantización, discutiremos un aspecto importante de la evolución temporal
que resulta de la combinación del quinto y sexto postulados. La ecuación de Schrödinger me dará la evolución
del estado del sistema desde un tiempo inicial t0 hasta un tiempo final t2 , siempre que en este intervalo no se
realice ninguna medida. Asumamos por el contrario, que se realiza la medida de una cantidad A asociada a un
observable A, en el tiempo t1 con t0 < t1 < t2 , y que el resultado es el valor propio ak . En tal caso, la ecuación de
Schrödinger me permitirá calcular la evolución del estado desde su valor en t0 dado por |ψ (t0 )i hasta el valor que
adquiere en t1 (justo antes de la medida) dado por |ψ (t1 )i, como en ese instante se realiza una medida el sistema
tendrá un cambio discontı́nuo de estado de modo que en t1 (pero justo después de la medida) el sistema queda
en el estado |ψk |−1 |ψk i, por tanto la evolución temporal del sistema para tiempos posteriores a t1 deberá tomar
este valor como condición inicial |ψ ′ (t1 )i = |ψk |−1 |ψk i para obtener su evolución hasta cualquier valor posterior
del tiempo digamos t2 , siempre que no se haga otra medida entre t1 y t2 . En general, cada medida obligará a
una “recalibración” de las condiciones iniciales (tomando como tiempo inicial el tiempo en que se realiza cada
medida), para calcular la evolución temporal del estado.
Volvamos ahora a las condiciones de cuantización

4.3.6. Reglas de cuantización


Hemos visto que el Hamiltoniano clásico tiene asociado un operador cuyos valores propios son las energı́as
accesibles del sistema. Conocemos la forma de este operador para la representación en la base {|ri}, y vemos que
a partir del Hamiltoniano clásico H (r, p, t) el operador Hamiltoniano queda en la forma

p2 P2 ~2 2
+ V (r) → + V (R) = − ∇ + V (r)
2m 2m 2m
H (r, p, t) → H (R, P, t)

siendo P y R los operadores de momento y posición definidos en la sección 1.43.4. En lo anterior hemos usado
el hecho de que en la representación de la base {|ri}, el operador P está representado por el operador diferencial
−i~∇, y el operador R está representado por la multiplicación por el valor de posición R → r (ver Ecs. 1.186,
1.191).
1
Nótese que si cambiamos de observable los autoestados y autoresultados (kets y valores propios), se redefinen completamente ya
que estos conceptos están ligados al sistema fı́sico junto con el aparato de medida.
202 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS

Nuevamente, extenderemos este algoritmo a la construcción de un operador A asociado a una cantidad fı́sica
A que está definida en la mecánica clásica. Consideremos una partı́cula sin espı́n sujeta a un potencial escalar,
estableceremos la siguiente regla de cuantización
A la posición r (x, y, z) de la partı́cula se le asocia el observable R (x, y, z). Al momento p (px , py , pz ) de la
partı́cula se le asocia el observable P (px , py , pz ).
Recordemos que las componentes de los operadores R y P satisfacen las relaciones canónicas de commutación

[Ri , Rj ] = [Pi , Pj ] = 0 ; [Ri , Pj ] = − [Pj , Ri ] = i~δij (4.11)

por tanto, dado que una cantidad fı́sica clásica A se puede escribir en términos de r, p, t i.e. A (r, p, t), el corres-
pondiente observable A se obtendrá reemplazando las variables dinámicas r, p en la expresión A (r, p, t) por los
observables R y P
A (t) = A (R, P, t)
sin embargo, este algoritmo puede generar algunas ambigüedades e inconsistencias. Asumamos por ejemplo que
en la cantidad fı́sica A (r, p, t) aparece un término de la forma

r · p = xpx + ypy + zpz

en mecánica clásica, el producto r · p es conmutativo, de modo que también podemos escribirlo como

p · r = px x + py y + pz z

pero en el proceso de cuantización, ambos términos conducen a operadores diferentes ya que R y P no conmutan

R · P 6= P · R

adicionalmente, ninguno de estos operadores es Hermı́tico2

(R · P)† = (XPx + Y Py + ZPz )† = Px† X † + Py† Y † + Pz† Z † = Px X + Py Y + Pz Z = P · R

la segunda de las Ecs. (1.43) nos sugiere la forma de generar un operador hermı́tico con este producto

R · P + (R · P)† R·P+P·R P · R + (P · R)†


Z ≡ = = ⇒
2 2 2
R·P+P·R
Z ≡
2
esta forma además de ser hermı́tica, es simétrica con respecto a R·P y P · R es decir con respecto a la cuantización
de cualquiera de los dos operadores. De modo que debemos añadir una regla de simetrización de los operadores
que incluya operadores más complejos que R · P
Regla de cuantización y simetrización: El observable A que describe a una cantidad fı́sica definida clási-
camente por A (r, p, t), se obtiene reemplazando para A a las variables dinámicas r, p (canónicamente conjugadas)
por los observables R, P, en una forma adecuadamente simetrizada.
Más adelante veremos sin embargo, que ciertos observables A en mecánica cuántica no provienen de una
cantidad fı́sica A definida clásicamente, sino que surgen directamente como observables cuánticos, este es el caso
del espı́n de la partı́cula.
Es importante enfatizar que las reglas de cuantización y las propiedades de commutación establecidas en
esta sección solo son válidas para las coordenadas cartesianas. Si bien es posible extenderlas a otros tipos de
coordenadas, no adquirirán formas tan simples. Veamos algunos ejemplos del uso de las reglas de cuantización.
2
Recordemos que el producto de operadores hermı́ticos no es en general hermı́tico (ver teorema 1.34).
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 203

(a) El caso más simple es el de una partı́cula de masa m, bajo una interacción que se puede describir por un
potencial que solo depende de la posición y el tiempo, el Hamiltoniano clásico en coordenadas cartesianas vendrá
dado por
p2 dr
H (r, p) = + V (r) ; p = m = mv
2m dt
la regla de cuantización no presenta dificultades ya que no es necesaria ninguna simetrización puesto que R y P
nunca se acoplan, de modo que no aparecen productos de operadores que no conmutan. El Hamiltoniano como
observable queda
P2
H (R, P) = + V (R)
2m
en este caso particular en virtud del sexto postulado la ecuación de Schrödinger queda
 2 
d P
i~ |ψ (t)i = + V (R) |ψ (t)i
dt 2m

(b) Veamos ahora el Hamiltoniano de una partı́cula sometida a una interacción electromagnética, en tal caso
el Hamiltoniano clásico se escribe en la forma
1
H (r, p) = [p − qA (r, t)]2 + qφ (r, t) (4.12)
2m
siendo A (r, t) , φ (r, t) los potenciales vectorial y escalar, p es el momento canónicamente conjugado a r y está
dado por
dr
p = m + qA (R, t) = mv + qA (R, t)
dt
nótese que el momento p canónicamente conjugado a r, no es el momento lineal de la partı́cula, esto se debe a
que para una partı́cula en un campo electromagnético, el potencial generalizado asociado depende de la velocidad
generalizada y no solo de la posición. De nuevo la cuantización es sencilla puesto que no hay operadores para
simetrizar, el Hamiltoniano como observable queda
1
H (R, P) = [P − qA (R, t)]2 + V (R, t) ; V (R, t) ≡ qφ (R, t)
2m
y la ecuación de Schrödinger resulta
 
d 1
i~ |ψ (t)i = [P − qA (R, t)]2 + V (R, t) |ψ (t)i
dt 2m
habiamos mencionado antes que a pesar de que el potencial generalizado depende de la velocidad, el Hamiltoniano
continúa siendo la energı́a del sistema, esto se puede ver teniendo en cuenta que el momento lineal de la partı́cula
que denotaremos por p~ está relacionado con el momento conjugado a la variable r en la forma

p~ = p − qA

de modo que el Hamiltoniano clásico queda

~2
p
H= + V (r, t)
2m
el primer término es la energı́a cinética y el segundo es la componente del potencial que genera trabajo. La clave
está en el hecho de que el campo magnético (que es el que introduce el potencial dependiente de la velocidad) no
realiza trabajo.
Este ejemplo también nos sirve para realizar una aclaración importante, en la regla de cuantización es el
momento p canónicamente conjugado a r, y no el momento lineal ~ p el que debe reemplazarse por el operador
204 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS

P. Si recordamos que dos variables xi , pi canónicamente conjugadas clásicamente son tales que sus corchetes de
Poisson cumplen la relación

[xi , xj ]pois = [pi , pj ]pois = 0 ; [xi , pj ]pois = − [pj , xi ]pois = δij (4.13)

diremos que las cantidades que clásicamente cumplen las relaciones canónicas (4.13) con corchetes de Poisson,
pasarán en el proceso de cuantización a cumplir las relaciones canónicas (4.11) con conmutadores. Nótese además
que las propiedades fundamentales de los conmutadores (1.37-1.42) también las cumplen los corchetes de Poisson
y con ambas se podrá generar un álgebra de Lie.
Capı́tulo 5

Consecuencias de los postulados sobre los


observables y sus medidas

Ya hemos estudiado los kets de posición |ri y los kets de momento |pi ası́ como los operadores de posición y
momento R y P. Por simplicidad usaremos el caso unidimensional, las ecuaciones de valores propios para X, Px son
X |xi = x |xi ; Px |px i = px |px i
estos operadores tienen un espectro contı́nuo lo cual coincide con el hecho experimental de que todos los valores
reales son posibles para las posiciones y momentos de la partı́cula. Si utilizamos el cuarto postulado podemos
calcular la probabilidad de obtener una posición dentro del intervalo entre x y x + dx o la probabilidad de obtener
un momento en el intervalo entre px y px + dpx .
2
dP (x) = |hx |ψi|2 dx = |ψ (x)|2 dx ; dP̄ (p) = |hp |ψi|2 dp = ψ̄ (p) dp
de hecho estas expresiones fueron usadas para establecer el cuarto postulado. No obstante, es de particular interés
la interpretación a la luz de este postulado del caso en el que el estado del sistema está descrito justamente por
|x′ i o |p′ i, en tal caso estas probabilidades quedan
2  2 2  2
dP (x) = hx x′ dx = δ x − x′ dx ; dP̄ (p) = hp p′ dp = δ p − p′ dp
si integramos estas probabilidades entre x′ − ε y x′ + ε o entre p′ − ε y p′ + ε respectivamente, tenemos que la
probabilidad da la unidad sin importar el tamaño de ε, si por el contrario calculamos la integral en cualquier
volumen que excluya al punto x′ o p′ esta integral da cero. Por tanto |x′ i describe un estado en donde la partı́cula
está en un punto bien definido del espacio y |p′ i describe una partı́cula con momento especı́fico p′ . Para el estado
|x′ i la medida de posición es totalmente predecible y para el estado |p′ i es totalmente predecible la medida del
momento. Nótese que para el estado |x′ i la densidad de probabilidad asociada a la posición diverge en el punto
x′ y se anula en los demás, esto está relacionado con el hecho de que este no es un estado fı́sicamente realizable,
ya que no es de cuadrado integrable1 . Similar discusión ocurre para el estado |p′ i para el cual la densidad de
probabilidad asociada al momento diverge en el punto p′ y se anula en los demás.
El estado |x′ i se puede calcular en las bases {|xi} y {|pi}
′  ′ e−ipx′ /~

x (x) = hx x = δ x − x ′
; x̄ (p) = hp x = √

2π~
si calculamos la probabilidad de que al medir el momento lineal de la partı́cula en el estado |x′ i se encuentre un
valor entre p y p + dp, obtenemos
2 dp
dP (p) = x̄′ (p) dp =
2π~
1
En mecánica clásica el fenómeno es similar. Una partı́cula puntual (localizada en r′ ) corresponde a un sistema fı́sico de densidad
infinita de masa ρ (r) = mδ (r − r′ ). Por tanto, este es un estado clásico impropio.

205
206 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

es decir, una probabilidad uniforme. Nuevamente, la probabilidad diverge por ser un estado impropio. Sin embargo,
es interesante ver que el colapso de la función de onda en un punto del espacio (es decir la certeza total de tener
una posición descrita por el estado |x′ i) lleva a la incertidumbre total en el momento, como ya se discutió para el
principio de incertidumbre de Heisenberg. Un análisis similar se puede hacer para el estado impropio |p′ i. Como
X, P tienen como valores propios las posiciones y momentos de estos estados colapsados, tiene sentido que la
regla de cuantización reemplace x por X y p por P .
Vale la pena mencionar que para interpretar adecuadamente una función de onda, es esencial conocer la base
en la que está escrita. A manera de ejemplo, obsérvese que el ket |xi corresponde a una partı́cula perfectamente
localizada en x y con incertidumbre total del momento, en tanto que el ket |−pi corresponde a una partı́cula con
momento perfectamente definido −p y con total incertidumbre en la posición. Ahora veamos como se escribe |xi
en la base {|pi} y como se escribe |−pi en la base {|xi}

e−ipx/~ e−ipx/~
x̄ (p) = hp |xi = √ ; −p (x) = hx |−pi = √
2π~ 2π~
nótese que dos estados totalmente distintos pueden ser descritos con la misma forma funcional si ambos están
escritos en bases diferentes. Una onda plana en la base {|pi} corresponde a una partı́cula bien localizada, en tanto
que la misma onda plana en la base {|xi} está asociada a una partı́cula con momento bien definido.
Como ya se mencionó, en algunos casos la ecuación de valores propios (establecida en el tercer postulado)
conduce a un espectro discreto y en otros casos a un espectro contı́nuo, lo cual nos generará la discretización de
ciertas cantidades fı́sicas. Lo interesante es que tanto para los casos discretos como para los contı́nuos hay una
excelente concordancia con los experimentos.
Los postulados cuatro y cinco plantean ciertos problemas fundamentales inherentes al proceso de medida. Por
ejemplo, la existencia de una perturbación fundamental implica que el sistema no se puede considerar indepen-
dientemente al aparato de medida, en realidad el conjunto sistema fı́sico-aparato de medida deben considerarse
como un todo. El punto es que el proceso de observación requiere de una interacción entre el sistema y el aparato.
Además el aparato de medida (para un sistema fı́sico dado) define tanto los autoresultados como los autoestados
que se pueden obtener en el proceso de medición, como se discutió en la sección 2.9, página 135 sobre la medición
de fotones polarizados. Esto conlleva a preguntas delicadas sobre el proceso de medida que no discutiremos aquı́.
Nótese que de acuerdo con los postulados cuarto y quinto, la indeterminación en el proceso de medida indica
por un lado la existencia de la perturbación fundamental pero también la no determinación de su comportamiento
especı́fico, ya que a partir del estado antes de la medida (que se puede obtener en forma totalmente determinista),
la medida nos lleva a un cambio abrupto que no se puede determinar con certeza. Puesto que la ecuación de
Schrödinger es totalmente determinista, la generación de la perturbación fundamental y de la indeterminación son
inherentes al proceso de medida.
En lo que sigue consideraremos solo medidas ideales. Esto significa que se asume que el aparato de medida es
perfecto, de modo que solo se generan las perturbaciones e incertidumbres inherentes a las leyes cuánticas. En la
realidad, los aparatos son imperfectos y por tanto presentan una incertidumbre experimental que afecta de manera
adicional a la medida. Por ejemplo, un analizador deja pasar ondas polarizadas no solo en una dirección fija sino
en cierto intervalo alrededor de esta dirección. Sin embargo, a diferencia de las incertidumbres y perturbaciones
cuánticas, estas incertidumbres y perturbaciones experimentales pueden disminuı́rse indefinidamente (al menos en
principio) para acercarse cada vez más al lı́mite ideal.

5.1. Consideraciones estadı́sticas


5.1.1. Valor medio de un observable para un sistema en un estado dado
Para verificar el cuarto postulado, es necesario preparar un sistema en un estado bien definido y repetir
el experimento muchas veces, donde para cada experimento tenemos un sistema idéntico con el mismo estado
inicial. Estrictamente, las predicciones solo se reproducirán en el lı́mite cuando N (número de reproducciones del
5.1. CONSIDERACIONES ESTADÍSTICAS 207

experimento o número de eventos) tiende a infinito. En la práctica N es finito y por tanto deben usarse técnicas
estadı́sticas para interpretar los resultados.
De aquı́ en adelante denominaremos observable tanto a la cantidad fı́sica como al operador cuántico asociado.
Definiremos el valor esperado (o valor medio) de un observable, como el promedio de los resultados obtenidos
cuando se realiza un gran número de mediciones N de dicho observable, para sistemas idénticos que se preparan
en un estado especı́fico |ψi. Denotaremos al valor esperado del observable A para el sistema en el estado |ψi en la
forma hAi|ψi o cuando se sobreentienda cual es el estado, la notación se simplificará en la forma hAi.
La idea es poder predecir el valor esperado con base en los postulados. Comencemos primero con el caso de
espectro discreto. Si se realizan N experimentos para idénticos sistemas cada uno en el estado |ψi y se obtiene
el autovalor an para el observable A un número N (an ) de veces, la probabilidad de obtener dicho autovalor se
define como
N (an )
P (an ) ≡ lı́m (5.1)
N →∞ N
y es claro que
X
N (an ) = N
n

el valor medio es simplemente la suma de todas las medidas obtenidas dividida por el número N de medidas. Por
supuesto, cuando un número N (an ) de medidas han dado el mismo resultado an , la suma con que contribuyen
estos eventos se escribe simplemente como an N (an ) y se suma sobre los resultados diferentes obtenidos

1 X
hAi|ψi = an N (an )
N n

a N (an ) se le conoce como la frecuencia del evento. Si tomamos el lı́mite cuando N → ∞ y usamos la definición
(5.1) de probabilidad se tiene que
X
hAi|ψi = an P (an )
n

y usando la Ec. (4.4) que proviene del cuarto postulado, se obtiene

X gn
X gn
i 2 X X
hAi|ψi = an
hψ un = an hψ uin huin |ψi
n i=1 n i=1

donde uin son los vectores propios (ortonormalizados) de A asociados al valor propio an

A uin = an uin

de modo que
gn
XX gn
XX
i i
hAi|ψi =
hψ| an un hun |ψi = hψ| A uin huin |ψi
n i=1 n i=1
" gn
# " #
XX i
i X
hAi|ψi = hψ| A un un |ψi = hψ| A Pn |ψi = hψ| AI |ψi
n i=1 n

donde hemos usado la relación de completez para el discreto Ec. (1.170), nótese que el uso de la completez requiere
una vez más que A sea un observable. Finalmente, la expresión para el valor esperado queda

hAi|ψi = hψ| A |ψi (5.2)


208 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

para el caso del espectro contı́nuo no degenerado, el argumento es similar. Consideremos N experimentos idénticos
y denominemos dN (α) el número de experimentos cuyo resultado esté incluı́do entre α y α + dα, la probabilidad
la definimos similarmente como
dN (α)
dP (α) = lı́m
N →∞ N
el valor medio o esperado se escribe como
Z Z
1
hAi|ψi = lı́m α dN (α) = α dP (α)
N →∞ N

usando de nuevo el cuarto postulado (para espectro contı́nuo), sustituı́mos dP (α) por su valor en la Ec. (4.9)
Z Z
2
hAi|ψi = α |hψ |vα i| dα = α hψ |vα i hvα |ψi dα

y dado que
A |vα i = α |vα i
se obtiene
Z Z
hAi|ψi = hψ| α |vα i hvα |ψi dα = hψ| A |vα i hvα |ψi dα
Z 
hAi|ψi = hψ| A |vα i hvα | dα |ψi = hψ| AI |ψi = hψ| A |ψi

donde hemos usado la relación de completez para el contı́nuo Ec. (1.170). Por tanto, se obtiene de nuevo la Ec.
(5.2). Es importante aclarar que hAi|ψi es un promedio realizado sobre un conjunto de mediciones idénticas, y no
debe confundirse con los promedios temporales que se utilizan con frecuencia en fı́sica para estados que dependen
del tiempo.
Si el ket no está normalizado, la Ec. (5.2) se debe convertir en
hψ| A |ψi
hAi|ψi =
hψ |ψi

5.1.2. Valor esperado para los observables X, P


Para realizar el cálculo del valor esperado de un observable debemos recurrir a una representación especı́fica.
Calculemos hXi|ψi usando la representación {|ri}
Z Z
hXi|ψi = hψ| X |ψi = d r hψ |ri hr| X |ψi = d3 r ψ ∗ (r) xhr |ψi
3

Z
hXi|ψi = d3 r ψ ∗ (r) x ψ (r) (5.3)

calculando hP i|ψi usando la representación {|pi} se obtiene


Z
hPx i|ψi = d3 p ψ̄ ∗ (p) px ψ̄ (p) (5.4)

si por ejemplo se calcula hP i|ψi usando la representación {|ri} se tiene


Z Z  
3 3 ∗ ~
hPx i|ψi = hψ| Px |ψi = d r hψ |ri hr| Px |ψi = d r ψ (r) ∂x hr |ψi
i
Z  
~
hPx i|ψi = d3 r ψ ∗ (r) ∂x ψ (r) (5.5)
i
5.1. CONSIDERACIONES ESTADÍSTICAS 209

5.1.3. Valor esperado para el commutador de dos observables


Es fácil ver que el commutador de dos operadores hermı́ticos es antihermı́tico

[A, B]† = (AB − BA)† = BA − AB = − [A, B]

esto significa que podemos escribir el commutador entre dos operadores hermı́ticos como

[A, B] = iC ; C = C †

siendo C un operador hermı́tico, los valores propios de iC son puramente imaginarios al igual que su valor esperado
con respecto a cualquier estado |ψi. Podemos escribir entonces

h[A, B]i = iM

siendo M un número real. Vemos que si A y B son observables, su commutador no es un observable ya que no es
hermı́tico.

5.1.4. La desviación media cuadrática


Si bien el valor medio o esperado hAi nos da el orden de magnitud de los resultados esperados al medir la
cantidad fı́sica A, es también estadı́sticamente importante conocer la dispersión que presentan los datos cuando
se realizan una gran cantidad de medidas. Asumamos que el espectro de A es contı́nuo. Si hacemos una gráfica de
ρ (α) vs α, el valor esperado hAi será la abscisa del “centro de gravedad” del área bajo la curva, nótese además que
si esta curva no es simétrica alrededor de hAi entonces el valor αm para el cual ρ (αm ) adquiere su valor máximo,
no necesariamente coincide con hAi. De hecho, puede existir más de un máximo local.
La gráfica de ρ (α) vs α suele ser asintótica, es decir tiende a cero para α → ±∞, pero usualmente no es igual a
cero para ningún α real. Esto implica que estrictamente hay en la mayorı́a de los casos una probabilidad diferente
de cero de encontrar cualquier valor real de α. Sin embargo, es usual definir un ancho δA centrado en hAi en el
cual esté la mayor parte del área bajo la curva, es decir existe una probabilidad cercana a la unidad de que la
medida de α arroje un valor entre hAi − δA/2 y hAi + δA/2. La cantidad δA caracteriza el ancho de la curva de
modo que a menor δA, tenemos que los resultados estarán más concentrados alrededor de hAi, lo cual indica una
menor dispersión de las medidas.
Veremos ahora como encontrar una cantidad que caracterice la dispersión de las medidas. A priori uno podrı́a
pensar en tomar la diferencia entre cada valor αi obtenido y hAi, (a esta diferencia la llamamos la desviación del
dato αi ), para luego promediar estas desviaciones. Este método sin embargo, no es adecuado ya que el promedio
de las desviaciones es siempre cero tanto en el contı́nuo como en el discreto
N N
1 X 1 X
D (αi ) ≡ hAi − αi ; hD (A)i = D (αi ) = [hAi − αi ] ⇒
N N
i=1 i=1
N
X n
X
1 1 1
hD (A)i = N hAi − αi = hAi − nk αk = hAi − hAi = 0
N N N
i=1 k=1

donde el promedio de A se reescribió multiplicando αk por su frecuencia nk (número de datos con el mismo
resultado) y sumando sobre los datos diferentes (k = 1, .., n). Similarmente en el contı́nuo
Z α1
1
hD (A)i = hhAi − αi = hAi − ρ (α) α dα
α1 − α0 α0
hD (A)i = hAi − hAi = 0

donde el ρ (α) dα es la frecuencia diferencial en el contı́nuo (densidad multiplicada por el diferencial de volumen).
La anulación de la desviación promedio tiene que ver con la definición misma de valor promedio o esperado, en el
210 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

cual las desviaciones negativas se compensan con las positivas. Para evitar este fenómeno de cancelación, podemos
definir las desviaciones cuadráticas en la forma
D E
(∆A)2 ≡ (A − hAi)2

y definimos entonces la raı́z de la desviación media cuadrática como


rD E
∆A = (A − hAi)2 (5.6)

y usando la expresión para el valor medio o esperado dada por la Ec. (5.2) obtenemos
q
∆A = hψ| (A − hAi)2 |ψi

la desviación media cuadrática se puede reescribir en la forma


D E Dh iE

(A − hAi)2 = A2 − 2A hAi + hAi2 = A2 − 2 hAi hAi + hAi2
D E

(A − hAi)2 = A2 − hAi2

y la raı́z de la desviación media cuadrática queda


q
∆A = hA2 i − hAi2 (5.7)

por ejemplo para el espectro contı́nuo de un observable A, ∆A queda en la forma


Z α1
2
(∆A) = [α − hAi]2 ρ (α) dα
α0
Z α1 Z α1 2
2 2
(∆A) = α ρ (α) dα − α ρ (α) dα
α0 α0

5.2. Observables compatibles


Consideremos dos observables A y B que conmutan

[A, B] = 0

asumiremos por simplicidad que ambos espectros son discretos. El teorema 1.69 nos dice que existe un conjunto
completo de vectores propios comunes a ambos observables, es usual denotar esta base como {|an , bp , ii}, o aún
más simple como {|n, p, ii}
A |n, p, ii = an |n, p, ii ; B |n, p, ii = bp |n, p, ii
donde el ı́ndice i indica que a cada par de autovalores (an , bp ) le pueden corresponder varios autovectores lineal-
mente independientes. Por tanto, para cada posible valor del par (an , bp ) existe por lo menos un vector |n, p, ii
para el cual la medida de A siempre será an y la medida de B siempre será bp . Veamos las implicaciones fı́sicas
sobre los observables asociados a operadores que conmutan.
Partamos de un estado inicial normalizado dado |ψi (que en principio es arbitrario). Este estado se puede
escribir como una combinación lineal de la base {|n, p, ii} común a A y B:
X
|ψi = cn′ ,u,v n′ , u, v (5.8)
n′ ,u,v
5.2. OBSERVABLES COMPATIBLES 211

asumamos que primero hacemos una medida del observable A y se obtiene an y que inmediatamente después (de
modo que en el tiempo transcurrido se pueda despreciar la evolución temporal del estado) realizamos una medida
de B de la cual obtenemos el valor bp . Calculemos la probabilidad P (an , bp ) de obtener an en la primera medida y
bp en la segunda. Usando el cuarto postulado Ec. (4.4) y la Ec. (5.8), la probabilidad P (an ) de obtener la primera
medida es
  2
X
X X
2

P (an ) = n, p , i ψi =
′ ′ n, p , i 
′ ′
cn′ ,u,v n , u, v 


p′ ,i′ p′ ,i′ n′ ,u,v
2 2
X X


X X

= c ′ ′ ′
′ ,u,v n, p , i n , u, vi = c ′ ,u,v δn,n′ δp′ u δi′ v
n n
p′ ,i′ n′ ,u,v p′ ,i′ n′ ,u,v
X
P (an ) = cn,p′ ,i′ 2 (5.9)
p′ ,i′

pero según el quinto postulado Ec. (4.10), el sistema luego de esta primera medición queda preparado en el estado
normalizado |ψn i definido por
1 X
|ψn i = qP cn,p′ ,i′ n, p′ , i′ (5.10)
2 ′ ′
k,m |cn,k,m | p ,i

este será entonces el estado en el que estará el sistema justo antes de la medición de B. Recurriendo de nuevo al
cuarto postulado Ec. (4.4) la probabilidad de que habiendo obtenido en la primera medición el valor an se obtenga
en la segunda medición el valor bp estará dada por
  2

X
2
X
1 X
′ ′  cn,p′ ,i′ n, p , i 
′ ′
Pan (bp ) = n , p, i ψn i = n , p, i qP 2 ′ ′
n′ ,i n′ ,i k,m |cn,k,m | p ,i

P P 2 P P
′ ′ ′ 2
n′ ,i p′ ,i′ cn,p′ ,i′ hn , p, i |n, p , i i n′ ,i p′ ,i′ cn,p′ ,i′ δn′ n δpp′ δii′
= P 2 = P 2
k,m |cn,k,m | k,m |cn,k,m |
P
|cn,p,i |2
Pan (bp ) = P i 2 (5.11)
k,m |cn,k,m |

ahora bien, la probabilidad P (an , bp ) que buscamos corresponde a una composición de eventos: para que estos
dos eventos de hecho ocurran, debemos primero encontrar an para lo cual hay una probabilidad P (an ) y entonces
habiendo cumplido la primera condición, debemos encontrar bp para lo cual hay una probabilidad Pan (bp ) por lo
tanto
P (an , bp ) = P (an ) × Pan (bp ) (5.12)
sustituyendo (5.9) y (5.11) en (5.12) se obtiene
 " #
X P 2
2 |c |
P (an , bp ) =  cn,p′ ,i′  P i n,p,i
2
p′ ,i′ k,m |cn,k,m |
X
P (an , bp ) = |cn,p,i |2 (5.13)
i

y el estado del sistema después de la segunda medición de acuerdo con el quinto postulado Ec. (4.10), será
Pp |ψn i
|ψn,p i = p (5.14)
hψn | Pp |ψn i
212 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

evaluemos el numerador y el denominador de esta expresión, usando la Ec. (5.10).


  
X 1 X
Pp |ψn i =  |l, p, vi hl, p, v|  qP cn,p′ ,i′ n, p′ , i′ 
2 ′ ′
l,v k,m |cn,k,m | p ,i
hP P i hP P i
c ′ ′ |l, p, vi hl, p, v| n, p ′ , i′ i c ′ ′ |l, p, vi δ δ ′ δ ′
l,v p′ ,i′ n,p ,i l,v p′ ,i′ n,p ,i ln pp vi
= qP = qP
2 2
k,m |cn,k,m | k,m |cn,k,m |
P ′
′ cn,p,i′ |n, p, i i
Pp |ψn i = qiP (5.15)
2
k,m |cn,k,m |

  P P ∗
X P ′ ′


′ cn,p,i′ |n, p, i i p′ ,r i′ cn,p′ ,r cn,p,i′ hn, p , r| n, p, i i
hψn | Pp |ψn i =  cn,p′ ,r n, p , r  P
∗ ′ i
2 = P
2
p′ ,r k ′ ,m′ cn,k ′ ,m′ k ′ ,m′ cn,k ′ ,m′
P P ∗ P ∗ P 2
i′ cn,p′ ,r cn,p,i′ δnn δp′ p δri′ i′ cn,p,i′ cn,p,i′

p′ ,r i′ cn,p,i′
hψn | Pp |ψn i = P 2 =P 2 = P ⇒
′ ′
cn,k′ ,m′ ′ ′
cn,k′ ,m′ ′ ′
cn,k′ ,m′ 2
k ,m k ,m k ,m
qP 2
q
i′ cn,p,i′
hψn | Pp |ψn i = qP 2 (5.16)


′ cn,k ′ ,m′

k ,m

Reemplazando (5.15, 5.16) en (5.14), el estado justo después de la segunda medida queda finalmente
1 X
|ψn,p i = qP cn,p,i |n, p, ii (5.17)
2
|c
k n,p,k | i

es fácil verificar que |ψn,p i es un estado propio de A y B con valores propios an y bp


P P P
cn,p,i [A |n, p, ii]
iq cn,p,i [an |n, p, ii]
iq i cn,p,i [|n, p, ii]
A |ψn,p i = P = P = an q P
2 2 2
k |cn,p,k | k |cn,p,k | k |cn,p,k |
A |ψn,p i = an |ψn,p i
y similarmente para B
B |ψn,p i = bp |ψn,p i
Por tanto, si midiéramos de nuevo A (nuevamente los tiempos deben ser cortos para que el estado no haya
evolucionado significativamente a partir del estado descrito por la Ec. 5.17) la probabilidad de obtener el resultado
an es 1 y no se altera el estado del sistema. Igualmente si medimos B con el sistema en el estado |ψn,p i la
probabilidad de obtener bp es 1 y el estado permanece inalterado después de la medición.
Volvamos ahora al estado inicial |ψi del sistema y hagamos las mediciones en el orden contrario (primero
B y luego A). Evaluaremos la probabilidad de obtener el valor bp en la primera medida y el valor an en la
segunda medida que denotamos como P (bp , an ), siguiendo los mismos razonamientos del caso anterior vemos que
la probabilidad de obtener bp en la primera medida es
X
P (bp ) = cn′ ,p,i′ 2
n′ ,i′

y si el valor bp es obtenido, el estado después de la medición será


1 X
|ϕp i = qP cn′ ,p,i′ n′ , p, i′
2 ′ ′
uv |cu,p,v | n ,i
5.2. OBSERVABLES COMPATIBLES 213

y la probabilidad de que partiendo del estado |ϕp i se obtenga el valor an del observable A en la segunda medida
es X
1
Pbp (an ) = P 2 |cn,p,i |2
uv |cu,p,v | i
adicionalmente la probabilidad de que ocurran ambos eventos en este orden será
P (bp , an ) = P (bp ) × Pbp (an )
X
P (bp , an ) = |cn,p,i |2 (5.18)
i

si de hecho encontramos bp en la primera medida y an en la segunda, el estado del sistema después de la segunda
medida será X
1
|ϕp,n i = qP cn,p,i |n, p, ii (5.19)
2
k |cn,p,k | i

comparando la Ec. (5.13) con la Ec. (5.18) vemos que la probabilidad de obtener un par especı́fico de valores
(an , bp ) de los observables A y B respectivamente, es igual sin importar el orden en que se midan (siempre teniendo
en cuenta que la distancia temporal entre dos medidas debe ser pequeña para evitar la evolución del sistema).
Adicionalmente, al comparar (5.17) con (5.19) vemos que el estado después de la segunda medida también es el
mismo en ambos casos. Finalmente, una medida posterior de A ó B nos dará con certeza los valores an ó bp .
Nótese que estos hechos dependen de que podamos encontrar un conjunto completo común de vectores propios
para ambos observables, para lo cual es necesario y suficiente que ambos observables conmuten (teorema 1.69).
Por esta razón a los observables conmutantes también se les denomina observables compatibles.
Podemos resumir las propiedades de los observables compatibles de la siguiente manera: Cuando dos observables
A y B son compatibles, si medimos primero A entonces la medida posterior de B no causa ninguna pérdida de
información previamente obtenida en la medida de A y viceversa. Por el contrario, la medida de B se “adiciona”
como información a lo que se obtiene en la primera medida. Además la realización de las dos medidas ejecutadas
en cualquier orden arroja la misma distribución de probabilidad para cada par accesible de valores propios. Ahora
supongamos que se realizan dos experimentos ambos con el mismo estado inicial, midiendo en el primero la
secuencia A ⇒ B y en el segundo la secuencia B ⇒ A, si en ambos experimentos se obtienen los mismos valores
propios, entonces obtendremos el mismo estado final.
Vale decir que si en un experimento particular en el orden A ⇒ B se obtuvo (an , bp ), no quiere decir que
en otro experimento especı́fico con las mismas condiciones iniciales y en el orden B ⇒ A se obtenga (bp , an ), ya
que lo que se igualan son las probabilidades2 . Adicionalmente, tampoco tenemos que llegar al mismo estado final
en ambos experimentos, solo tenemos garantizado que si en ambos experimentos obtenemos los mismos valores
propios, el estado final será el mismo.
Ahora bien, puesto que no es relevante el orden en que se ejecutan las medidas de A y B podemos considerar
la medición simultánea de ambos observables. Nótese que para observables compatibles se puede hacer una especie
de “extensión” de los postulados cuarto y quinto como se puede apreciar de las Ecs. (5.13, 5.18) y de las Ecs.
(5.17, 5.19). De estas ecuaciones se observa que podemos considerar a la dupla (an , bp ) como un solo resultado
que corresponde a la superposición de vectores ortonormales |n, p, ii donde i indica la degeneración asociada al
“único valor propio” cnp ≡ (an , bp ).
Un aspecto importante cuando se realizan medidas sucesivas de observables compatibles es que la adición de
información que se obtiene luego de cada medida, conduce a una reducción “acumulativa” del paquete de ondas
cuando este paquete se define con respecto a kets propios comunes a todos los observables3 . Esto se puede observar
2
Es decir el patrón de distribución de valores propios en ambos casos debe ser el mismo cuando se hace una gran cantidad de
experimentos de cada tipo.
3
Es esencial comprender que la definición de paquete de ondas en el presente contexto, depende de una base especı́fica. Por ejemplo, si
el estado de un sistema en un instante dado es |ψk i donde éste es un ket propio de A, entonces el paquete asociado será “monocromático”
si lo referimos a una base de kets propios de A en donde |ψk i hace parte de la base. No obstante, si el paquete lo definimos eligiendo
una base asociada a kets propios de otro observable B, entonces |ψk i será una superposición “policromática” con respecto a dicha base.
214 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

si comparamos al estado |ψi en la Ec. (5.8) (antes de la medida de A) con el estado |ψn i en la Ec. (5.10) (posterior
a la medida de A) y luego con el estado |ψn,p i en la Ec. (5.17) (después de la medida de A y B). Es decir, que al
medir sucesivamente observables compatibles A1 , A2 , . . . , Am el paquete de onda después de medir el observable
Ai es un subconjunto propio del paquete justo antes de dicha medición. En principio, la reducción del paquete
será máxima cuando el conjunto de observables compatibles forme un C.S.C.O. volveremos sobre este punto en la
sección 5.5.

5.3. Observables no compatibles e incertidumbres


Según el teorema 1.69 si A y B no conmutan, no existe un conjunto completo de vectores propios comunes
a ambos observables4 . Por tanto, los argumentos anteriores no serán válidos. Esto se puede ilustrar de manera
sencilla si reemplazamos el espacio de Hilbert E por el espacio vectorial real de dos dimensiones. Supongamos que
|u1 i , |u2 i son autovectores ortonormales del observable A (que definen a los ejes X,Y ) con autovalores a1 y a2 .
Sean |v1 i , |v2 i autovectores ortonormales de B (que definen ejes X ′ Y ′ en general rotados con respecto a XY ),
con valores propios b1 y b2 . Si definimos θ el ángulo de rotación (en dirección antihoraria) de los ejes X ′ Y ′ con
respecto a los ejes XY tenemos que las bases correspondientes a los autovectores de A y B están relacionadas por

|v1 i = cos θ |u1 i + sin θ |u2 i


 π  π
|v2 i = cos θ + |u1 i + sin θ + |u2 i = − sin θ |u1 i + cos θ |u2 i
2 2
en resumen estas relaciones y sus inversas quedan

|v1 i = cos θ |u1 i + sin θ |u2 i ; |v2 i = − sin θ |u1 i + cos θ |u2 i
|u1 i = cos θ |v1 i − sin θ |v2 i ; |u2 i = sin θ |v1 i + cos θ |v2 i

ahora pensemos que la condición inicial está dada por un vector unitario |ψi en dirección arbitraria que hace un
ángulo ϕ con |u1 i. En ambas bases este vector se escribe

|ψi = cos ϕ |u1 i + sin ϕ |u2 i ; |ψi = cos (ϕ − θ) |v1 i + sin (ϕ − θ) |v2 i

Primero mediremos A y asumamos que encontramos el valor a1 , el sistema quedará preparado en el estado |u1 i.
Si luego medimos B y encontramos por ejemplo b2 el estado final del sistema será |v2 i.
(a1 ) (b2 )
|ψi =⇒ |u1 i =⇒ |v2 i (5.20)
si por otro lado, realizamos las medidas en el orden opuesto y encontramos los mismos valores propios anteriores
pero en la secuencia b2 ⇒ a1 el esquema será
(b2 ) (a1 )
|ψi =⇒ |v2 i =⇒ |u1 i (5.21)

el estado final del sistema no es el mismo en ambos casos. Ahora, las probabilidades en ambos casos serı́an

P (a1 , b2 ) = P (a1 ) × Pa1 (b2 ) = |hψ| u1 i|2 × |hu1 | v2 i|2


P (b2 , a1 ) = P (b2 ) × Pb2 (a1 ) = |hψ| v2 i|2 × |hv2 | u1 i|2

cada uno de estos productos internos da

hψ| u1 i = cos ϕ ; hψ| v2 i = sin (ϕ − θ) ; hu1 | v2 i = hv2 | u1 i = − sin θ


4
Esto no significa que no puedan existir vectores propios comunes a ambos. Pero si estos existen, no serán suficientes para conformar
una base.
5.4. DESVIACIÓN MEDIA CUADRÁTICA Y PRINCIPIO DE INCERTIDUMBRE 215

por lo tanto
P (a1 , b2 ) = cos2 ϕ sin2 θ ; P (b2 , a1 ) = sin2 (ϕ − θ) sin2 θ
con lo cual se observa que
P (b2 , a1 ) 6= P (a1 , b2 )
esto significa entonces que dos observables no compatibles no se pueden medir simultáneamente5 . Se puede ver
de las Ecs. (5.20, 5.21) que la segunda medida genera la pérdida de la información suministrada por la primera.
Si por ejemplo después de la secuencia A ⇒ B representada por (5.20) medimos de nuevo A, no podemos tener
certeza del resultado ya que |v2 i no es autovector de A. Toda la información que se ganó en la primera medida
de A se ha perdido al ejecutar la posterior medición de B.
Es claro de los postulados que si definimos un paquete de ondas con respecto a una base generada por A
entonces la medida de A conduce a una reducción de este paquete, algo similar ocurre con el observable B. Sin
embargo, no podemos construı́r una base fija en donde el paquete se reduzca acumulativamente con respecto a dicha
base cuando se miden sucesivamente A y B. Esto se debe a la ausencia de una base común, que en términos más
fı́sicos implicarı́a la posibilidad de adicionar información en cada medida con respecto a la información obtenida
en la medida anterior.

5.4. La desviación media cuadrática y el principio de incertidumbre para


observables arbitrarios (opcional)
Supongamos que tenemos dos observables A y B arbitrarios, siguiendo los argumentos de la sección 5.1.3,
definiremos el valor esperado de su conmutador en la forma

iM ≡ h[A, B]i (5.22)

donde M es un número real. Asumamos que el sistema fı́sico está en el estado |ψi. Con base en dicho estado,
construiremos un ket |ϕi y su bra asociado hϕ| en la forma

|ϕi = (A + iλB) |ψi ; hϕ| = hψ| (A − iλB) (5.23)

siendo λ una variable real arbitraria. Estudiaremos las predicciones para el producto de las incertidumbres ∆A, ∆B
donde las incertidumbres se definirán a través de la raı́z de la desviación media cuadrática de cada observable.
La norma al cuadrado de |ϕi se escribe como

hϕ| ϕi = hψ| (A − iλB) (A + iλB) |ψi = hψ| A2 + iλAB − iλBA + λ2 B 2 |ψi





hϕ| ϕi = A2 + iλ hAB − BAi + λ2 B 2 = λ2 B 2 + iλ h[A, B]i + A2



hϕ| ϕi = λ2 B 2 − λM + A2 ≥ 0 (5.24)

donde hemos usado la Ec. (5.22). Ahora bien, por definición la norma al cuadrado de |ϕi es no negativa para todo
valor de λ. Por tanto, el polinomio cuadrático en λ definido por la ecuación (5.24) debe ser no negativo para todo
λ, esto solo es posible si tal polinomio no posee raı́ces reales en λ o a lo más las raı́ces reales deben ser degeneradas
y corresponder a un mı́nimo local (en cuyo caso la norma de |ϕi es cero para un valor dado de λ, y positiva para
los otros valores). Esto implica que como ecuación cuadrática para λ, el discriminante deber ser negativo o cero



M 2 − 4 A2 B 2 ≤ 0 ⇒ (5.25)

2
2 M 2
A B ≥ (5.26)
4
5
Supongamos que medimos un observable A en el tiempo t y otro observable B en el tiempo t + ∆t. La medición simultánea se
puede definir consistentemente solo si los “lı́mites laterales” ∆t → 0+ (donde se mide en el orden A ⇒ B) y ∆t → 0− (donde se mide
en el orden B ⇒ A) conducen a las mismas predicciones en términos de distribución de probabilidad, y estados. Por esta razón solo se
puede definir adecuadamente la medición simultánea de observables compatibles.
216 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

recordando que |ψi describe el estado del sistema, introducimos dos nuevos observables A′ , B ′ definidos por

A′ = A − hAi I = A − hψ| A |ψi (5.27)



B = B − hBi I = B − hψ| B |ψi (5.28)

donde hAi y hBi son números reales e I es el operador identidad. Es claro que las relaciones de conmutación de
A′ , B ′ coinciden con las de A y B
 ′ ′
A , B = [A, B] = iM (5.29)
con lo cual el resultado (5.26) también es válido para A′ y B ′



M2
A′2
B ′2 ≥ ⇒
4
D ED E M2
(A − hAi)2 (B − hBi)2 ≥
4
y teniendo en cuenta la definición de la raı́z de la deviación media cuadrática Ec. (5.6), tenemos que

M2
(∆A)2 (∆B)2 ≥ ⇒
4
|M |
(∆A) · (∆B) ≥
2
y recordando la definición (5.22) resulta

|h[A, B]i|
(∆A) · (∆B) ≥ (5.30)
2
Si definimos la incertidumbre en los observables como la raı́z de la desviación media cuadrática de su distri-
bución, esto se puede considerar como una extensión del principio de incertidumbre. Nótese que en este caso el
lı́mite inferior está muy bien definido, precisamente porque hemos definido de manera muy clara el ancho de la
distribución por medio de la raı́z de la desviación media cuadrática.
Vale decir además que solo tendremos un lı́mite inferior no nulo, cuando los observables NO son compatibles
(no conmutantes). Para los observables compatibles no hay un principio de incertidumbre, lo que permite sin
ambigüedad su medición simultánea y la no destrucción de la información por efecto de mediciones adicionales.
Un caso especial muy importante es el de dos variable conjugadas. Se dice que dos observables Q, P son
conjugados si
[Q, P ] = i~
esta es una extrapolación natural del concepto de variables canónicamente conjugadas en mecánica clásica, que
cumplen propiedades similares pero con los corchetes de Poisson en lugar de los conmutadores. Para observables
conjugados, la expresión (5.30) queda en la forma

∆Q · ∆P ≥ ~/2

A su vez, un caso especial de variables conjugadas son los pares de posición y momento (X, Px ), (Y, Py ) y
(Z, Pz ). Se obtiene entonces

∆X · ∆Px ≥ ~/2 ; ∆Y · ∆Py ≥ ~/2 ; ∆Z · ∆Pz ≥ ~/2

que son las relaciones de incertidumbre de Heisenberg (2.73), pero con lı́mites inferiores precisos, lo cual surge de
haber definido de manera precisa las incertidumbres.
5.4. DESVIACIÓN MEDIA CUADRÁTICA Y PRINCIPIO DE INCERTIDUMBRE 217

5.4.1. Paquetes de mı́nima incertidumbre


Es natural preguntarse por las condiciones que se requieren para obtener un paquete de mı́nima incertidumbre.
Es decir, bajo que condiciones obtenemos la igualdad en la Ec. (5.30). Esto implica imponer la igualdad en las
desigualdades (5.24-5.30). En particular, esto implica que el polinomio cuadrático en λ definido por la ecuación
(5.24) sea nulo y corresponda a un mı́nimo local para algún valor λ0 (raı́z real degenerada), esto conlleva a la
nulidad de la norma de |ϕi. Lo anterior se obtiene con la anulación del discriminante Ec. (5.25)


2
2 M 2
M2
A B = ⇒ A2 = (5.31)
4 4 hB 2 i

usando la Ec. (5.31), llegamos a una solución única λ ≡ λ0 para la cuadrática (5.24)


M 2 A2
λ0 = = (5.32)
2 hB 2 i M

Redefiniendo los observables a través de las Ecs. (5.27, 5.28) y teniendo en cuenta la invarianza del conmutador
Ec. (5.29) vemos que los resultados obtenidos para A y B son también válidos para A′ y B ′ (ya que todos ellos
dependen solo de la relación de conmutación Ec. 5.22). Por tanto para el ket
′ 
′ 
ϕ = A′ + iλB ′ |ψi ; ϕ = hψ| A′ − iλB ′

podemos hacer el mismo procedimiento que se realizó para el ket |ϕi de la Ec. (5.23), y llegar a que la norma de
|ϕ′ i es nula cuando λ = λ0 . Pero la norma es cero si y solo si el ket es nulo, por lo tanto
′ 
ϕ ≡ A′ + iλB ′ |ψi = 0 ⇒
[A − hAi + iλ0 (B − hBi)] |ψi = 0 (5.33)

ası́ mismo las Ecs. (5.31, 5.32) son aplicables también para A′ , B ′ con lo cual



′2
M2 M 2 A′2
A = ; λ0 = = (5.34)
4 hB ′2 i 2 hB ′2 i M

y teniendo en cuenta que



D E
D E
A′2 ≡ (A − hAi)2 ≡ (∆A)2 ; B ′2 ≡ (B − hBi)2 ≡ (∆B)2

las Ecs. (5.34) quedan finalmente

M2 M 2 (∆A)2
(∆A)2 = ; λ0 = = (5.35)
4 (∆B)2 2 (∆B)2 M

la Ec. (5.33) junto con las ligaduras (5.35) nos dictaminan la condición para obtener paquetes de mı́nima incerti-
dumbre. Su solución explı́cita debe realizarse en una base especı́fica y depende de la naturaleza de los operadores
A y B.
Un caso particular de interés surge para variables conjugadas para lo cual definimos A ≡ Q, B ≡ P y M ≡ ~.
La Ec. (5.33) y las ligaduras (5.35) quedan en la forma

~2 ~ 2 (∆Q)2
[Q − hQi + iλ0 (P − hP i)] |ψi = 0 ; (∆Q)2 = ; λ0 = = (5.36)
4 (∆P )2 2 (∆P )2 ~
218 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

usando la representación {|qi} y el hecho de que en esta representación P actúa como (~/i)d/dq (ver Ec. 1.214,
Pág. 106) se obtiene6
  
~ d
hq| [Q − hQi + iλ0 (P − hP i)] |ψi = 0 ⇒ q − hQi + iλ0 − hP i hq |ψi = 0 ⇒
i dq
 
d
q + ~λ0 − hQi − iλ0 hP i ψ (q) = 0 (5.37)
dq
para resolver la ecuación diferencial (5.37) es conveniente introducir la función h (q) definida por
ψ (q) = eihP iq/~ h (q − hQi) (5.38)
insertando la Ec. (5.38) en la Ec. (5.37) resulta
 h i
d
q + ~λ0 − hQi − iλ0 hP i eihP iq/~ h (q − hQi) = 0
dq
d h ihP iq/~ i
[q − hQi − iλ0 hP i] eihP iq/~ h (q − hQi) + ~λ0 e h (q − hQi) = 0
dq
i hP i d
[q − hQi − iλ0 hP i] eihP iq/~ h (q − hQi) + ~λ0 h (q − hQi) eihP iq/~ + ~λ0 eihP iq/~ h (q − hQi) = 0
~ dq
d
[q − hQi] h (q − hQi) + ~λ0 h (q − hQi) = 0
dq
sustituyendo
q ′ = q − hQi (5.39)
queda  
d 
q + ~λ0 ′ h q ′ = 0

(5.40)
dq
cuya solución es
 − q
′2

h q ′ = Ce 2λ0 ~ (5.41)
siendo C una constante de normalización que elegiremos como positiva. Reemplazando las Ecs. (5.36, 5.39) en la
solución (5.41), tenemos
h i
(q−hQi)2 (q−hQi) 2
− −
h (q − hQi) = Ce 4(∆Q)2 = Ce 2(∆Q)
(5.42)
finalmente reemplazando (5.42) en (5.38) y normalizando (con constante positiva) resulta
h i
(q−hQi) 2
1 −
ψ (q) = q eihP iq/~ e 2(∆Q)
(5.43)
4 2
2π (∆Q)
para encontrar el paquete de onda recı́proco, es decir en la base {|pi}, podemos proceder de manera análoga al
desarrollo anterior, o haciendo la transformada de Fourier de la Ec. (5.43). En tal caso se encuentra la función de
onda recı́proca ψ̄ (p) definida por
h i
(q−hP i) 2
1 − ~i hQip −
ψ̄ (p) = q e e 2(∆P )
(5.44)
4
2π (∆P )2
En la Sec. 2.14.3, pág. 151, habı́amos demostrado que los paquetes gaussianos son de mı́nima incertidumbre
para un par de observables conjugados. En la presente sección hemos demostrado el recı́proco: para dos observables
conjugados Q y P , hemos demostrado que si ∆Q · ∆P es exactamente ~/2, la función de onda asociada con este
estado en la representación |qi es un paquete gaussiano ası́ como la representación de la función de onda en la
base |pi.
6
Debe tenerse en cuenta que la Ec. (1.214) fué demostrada para cualquier par de observables conjugados y no solo para posiciones
y momentos.
5.5. PREPARACIÓN DE UN ESTADO 219

5.5. Preparación de un estado


Consideremos un sistema fı́sico en el estado |ψi dado por
gn
XX
|ψi = cik uik
k i=1

siendo uik autoestados del observable A. Asumiremos que todos los observables tienen espectro discreto. Si
medimos el observable A y el valor obtenido an es no degenerado, el autovector normalizado |un i en que se prepara
el sistema es fı́sicamente único, por tanto conocemos perfectamente el estado después de la medida, y además dicho
estado es independiente de |ψi (el estado justo antes de la medida).
Sin embargo, si el autovalor an es degenerado, el estado inmediatamente después de la medida será
gn
X
′ Pn |ψi 1
ψn = = qP cin uin
hψ| Pn |ψi gn m 2
m=1 |cn | i=1

tanto los valores absolutos de los coeficientes cin como sus fases son relevantes. Y puesto que este estado es
la proyección |ψn′ i (normalizada) del vector |ψi sobre el autosubespacio En tendremos que el autoestado final
depende de |ψi y por lo tanto también los coeficientes cin siempre que En sea de más de una dimensión (si En es
de una sola dimensión, solo hay un vector normalizado fı́sicamente relevante).
Ahora bien, dado que vimos que la medición de otro observable B compatible con A adiciona información
sobre el estado, y se puede medir simultáneamente con A, vemos que si el resultado (an , bp ) de las dos medidas
corresponde a un único autovector |an , bp i ≡ |n, pi común a A y B no tendremos suma sobre i en (5.17) y resulta
cnp
|ψnp i = |n, pi = eiθ |n, pi
|cnp |

que es fı́sicamente equivalente a |n, pi. En otras palabras, el autoespacio Enp de autovectores comunes a A y B
con valores propios an y bp es de una dimensión y por tanto define fı́sicamente un único vector normalizado. Por
tanto, la especificación de estos dos valores determina el estado final de manera única e independiente de |ψi.
Podrı́a ocurrir sin embargo que existan varios vectores |n, p, ii linealmente independientes que conduzcan al
mismo par (an , bp ) de valores propios de A y B, es decir el espacio Enp no es unidimensional y para determinar la
proyección de |ψi sobre Enp se requiere conocer a |ψi. En este caso podemos ganar más información introduciendo
un tercer observable C compatible con los otros dos y medir su valor propio cq . El proceso debe continuar hasta
que se remueva completamente la degeneración es decir cuando el autoespacio Enpq... sea unidimensional, en cuyo
caso el estado |npq . . .i es fı́sicamente único.
Por otro lado, es posible que la medición de cierto conjunto de autovalores especı́ficos sea suficiente para
determinar el estado de manera única, pero cuando el mismo sistema me arroja otros valores propios las medidas
podrı́an resultar insuficientes. Por ejemplo, si medimos el observable A y se obtiene el valor no degenerado a1 , el
estado estará totalmente determinado. Pero si la medida nos arroja el valor a2 (degenerado), necesitaremos medir
otro observable compatible para determinar el estado.
La idea por supuesto es determinar un conjunto de observables A1 , A2 , . . . , Am ; que determine de manera
única el estado después de la medida (independiente de |ψi) sin importar los valores experimentales obtenidos.
Para ello es necesario que todos los autoespacios de la forma En1 ,n2 ,...,nm sean unidimensionales. En otras pala-
bras, el conjunto completo de autovectores {|n1 , n2 , . . . , nm i} común a los observables A1 , A2 , . . . , Am no debe
presentar degeneración para ningún conjunto posible de medidas (an1 , . . . , anm ). Esto indica entonces que el con-
junto {A1 , A2 , . . . , Am } forma un C.S.C.O. (ver sección 1.23). Adicionalmente, es natural pensar que el conjunto
{A1 , A2 , . . . , Am } sea minimal en el sentido de que al remover un observable del conjunto el sistema ya no sea un
C.S.C.O. Usualmente se asume que un C.S.C.O. dado es minimal a menos que se indique lo contrario.
220 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

Los métodos para preparar un sistema cuántico en un estado bien definido son similares en principio a los que
se usan para polarizar luz. Cuando se coloca un polarizador en el camino de un haz de luz, la luz que sale está
polarizada en una dirección especı́fica caracterı́stica del polarizador, e independiente del estado de polarización de
la luz incidente. Similarmente se pueden construı́r dispositivos para preparar un sistema cuántico de manera que
solo permitan el paso de un estado correspondiente a un autovalor especı́fico. Si queremos preparar completamente
el estado, será necesario usar m dispositivos que midan a los observables A1 , .., Am que solo permitan el paso de
un conjunto especı́fico de autovalores (an1 , ..., anm ).
Es claro que puede haber infinidad de C.S.C.O, si cambiamos el conjunto completo de observables compatibles,
obtendremos otros estados del sistema. Para entender mejor esto, recordemos que los autoestados están definidos
no solo por el sistema a estudiar sino también por los aparatos de medición (ver sección 2.9, pág 135).

5.6. Propiedades adicionales de la ecuación de Schrödinger


Hemos establecido formalmente en el sexto postulado, que la ecuación de Schrödinger es la ecuación de evolución
de los estados de sistemas cuánticos no relativistas. Veremos algunas propiedades adicionales de esta ecuación (ver
sección 3.3)

5.6.1. Aspectos adicionales sobre la conservación de la probabilidad (opcional)


Hemos visto que la norma de los estados permanece invariante en el tiempo cuando la ecuación de Schrödinger
es la ecuación de evolución, lo cual es esencial para la conservación de la probabilidad. Adicionalmente para una
partı́cula sometida a un potencial que solo depende de la posición V (r, t) cuyo Hamiltoniano es

P2
H= + V (R, t)
2m
podemos encontrar una ecuación de continuidad que nos expresa la conservación local de la probabilidad en la
forma
∂ρ
+ ∇ · J = 0 ; ρ ≡ ψψ ∗ = |ψ (r, t)|2 (5.45)
∂t   
~ ∗ ∗ 1 ∗ ~
J ≡ [ψ ∇ψ − ψ∇ψ ] = Re ψ ∇ψ (5.46)
2mi m i
siendo ρ, J la densidad y corriente de probabilidad respectivamente. Escribamos J en la forma
          ∗ 
1 ∗ ~ ~ ∗ 1 ∗ ~ ~
J ≡ ψ ∇ ψ−ψ ∇ ψ = ψ ∇ ψ − ψ − ∇ψ
2m i i 2m i i
    ∗ 
1 ~ ~
= hψ| ri ∇ hr| ψi + hr| ψi ∇ hr| ψi
2m i i
1 1
J = [hψ| ri hr| P |ψi + hr| ψi hr| P |ψi∗ ] = [hψ| ri hr| P |ψi + hψ| P |ri hr| ψi]
2m 2m
1
J = {hψ| [|ri hr| P + P |ri hr|] |ψi}
2m
donde hemos usado la Ec. (1.191). Finalmente
 
1 P P
J = [hψ| K (r) |ψi] ; K (r) ≡ |ri hr| + |ri hr| (5.47)
2 m m
para la densidad de corriente es más fácil ver que

ρ = [hψ| [|ri hr|] |ψi] = hψ| ̺ (r) |ψi ; ̺ (r) ≡ |ri hr| (5.48)
5.7. EVOLUCIÓN TEMPORAL DEL VALOR ESPERADO DE UN OBSERVABLE 221

si comparamos las Ecs. (5.47, 5.48) con la Ec. (5.2), vemos que la densidad de probabilidad ρ y la densidad de
corriente de probabilidad J, se pueden ver como el valor esperado de los operadores K (r) y ̺ (r) respectivamente.
Ahora bien, en coordenadas cartesianas los momentos canónicos son los momentos lineales (cuando el potencial
no depende de la velocidad). Por tanto, P/m se puede considerar el “operador velocidad” V. En consecuencia, el
“operador densidad de corriente” K (r) está relacionado con el operador densidad ̺ (r) en la forma
1
K (r) ≡ {̺V + V̺}
2
que corresponde a la cuantización de la relación J =ρv, pero adecuadamente simetrizada.
Si la partı́cula se coloca en un campo electromagnético descrito por los potenciales φ (r, t) y A (r, t) , el Ha-
miltoniano asociado es (ver Ec. 4.12)

[P − qA (R, t)]2
H= + V̄ (R, t) ; V̄ (R, t) ≡ qφ (R, t) + V (R) (5.49)
2m
donde V (R) es un potencial escalar que describe una interacción adicional a la del campo electromagnético sobre
la partı́cula. Con un procedimiento similar al de la sección 3.3.4, la densidad de corriente resultante es
   
1 ∗ ~
JEM = Re ψ ∇ − qA ψ (5.50)
m i

que también se puede obtener de la corriente (5.46) simplemente reemplazando P → P − qA, o equivalentemente
~ ~
i ∇ → i ∇ − qA (R, t).
Un ejemplo sencillo para el cálculo de ρ y J es la onda plana. Sea un estado (no estrictamente fı́sico) descrito
por una onda plana
ψ (r, t) = Aei(k·r−ωt)
la densidad de probabilidad es claramente
ρ = ψψ ∗ = |A|2
que es uniforme y constante. El cálculo de J (r, t) es inmediato
     
1 ∗ ~ 1 ∗ −i(k·r−ωt) ~A i(k·r−ωt)
J = Re ψ ∇ψ = Re A e ∇e
m i m i
   n o
1 ∗ −i(k·r−ωt) ~A 1
J = Re A e ikei(k·r−ωt)
= Re ~ |A|2 k
m i m
~k
J = |A|2 (5.51)
m
y recordando que vg = ~k/m es la velocidad de grupo asociada al momento ~k (sección 2.13 Ec. 2.84). Vemos
que esta corriente también es análoga a la relación clásica J = ρv. La corriente generada por una onda plana es
estacionaria (independiente del tiempo) y además es uniforme y homogénea.

5.7. Evolución temporal del valor esperado de un observable y su relación


con la mecánica clásica
Si A es un observable, su valor esperado cuando el sistema está en el estado |ψ (t)i se escribe como

hAi (t) = hψ (t)| A |ψ (t)i

Vale decir que el valor medio o esperado solo depende de t ya que por ejemplo si usamos la representación de
{|ri} este valor esperado corresponde a una integral sobre todo el espacio para un tiempo fijo. En contraste, el
222 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

observable clásico A (r, p, t) asume un valor para ciertas posiciones y momentos especı́ficos en un tiempo dado (ya
que las partı́culas están localizadas y sus momentos se pueden medir simultáneamente junto con las posiciones).
Para estos observables clásicos, la dependencia con el tiempo puede ser tanto explı́cita como implı́cita, es decir a
través de r (t) y p (t).
Cuando cuantizamos el observable asignamos a la cantidad clásica A (r, p, t) el operador hermı́tico A ≡
A (R, P, t). Obsérvese que ni los autoestados ni los autovalores de los operadores R y P dependen del tiem-
po, por tanto los observables cuánticos R y P no pueden dar cuenta de una dependencia implı́cita con el tiempo.
En conclusión, los observables cuánticos solo dependen del tiempo de manera explı́cita. En cuanto al valor esperado
del observable, la variación temporal de hAi se debe tanto a la variación temporal del estado |ψ (t)i (dictaminada
por la ecuación de Schrödinger), como a la variación temporal del observable mismo A (t). Si usamos por ejemplo
la representación de coordenadas, el valor esperado de A queda
Z Z  
3 3 ∗ ~
hAi = hψ (t)| A (R, P, t) |ψ (t)i = d r hψ (t)| ri hr| A (R, P, t) |ψ (t)i = d r ψ (r, t) A r, ∇, t ψ (r, t)
i

de lo cual es claro que esta cantidad solo depende del tiempo, ya que está integrada sobre las variables espaciales.
Vamos a estudiar la variación temporal del valor esperado de un observable arbitrario y a relacionarla con la
variación temporal clásica. Derivando el valor esperado con respecto al tiempo resulta
     
d d ∂A d
hψ (t)| A |ψ (t)i = hψ (t)| A |ψ (t)i + hψ (t)| |ψ (t)i + hψ (t)| A |ψ (t)i
dt dt ∂t dt

donde hemos usado que dA/dt = ∂A/∂t ya que un observable cuántico solo puede depender del tiempo de manera
explı́cita. Usando las Ecs. (3.25, 3.26) tenemos
     
d 1 ∂A 1
hψ (t)| A |ψ (t)i = hψ (t)| − H (t) A |ψ (t)i + hψ (t)| |ψ (t)i + hψ (t)| A H (t) |ψ (t)i
dt i~ ∂t i~
 
d 1 ∂A
hψ (t)| A |ψ (t)i = hψ (t)| [AH − HA] |ψ (t)i + hψ (t)| |ψ (t)i
dt i~ ∂t

quedando finalmente  
d 1 ∂A
hAi = h[A, H]i + (5.52)
dt i~ ∂t
vale recordar que en el formalismo clásico Hamiltoniano, un observable Acl que es función de las variables del
espacio de fase y del tiempo es decir Acl = Acl (q, p, t), posee una evolución temporal dada por

dAcl ∂Acl
= [Acl , H]pois + (5.53)
dt ∂t
donde en lugar del conmutador, está el corchete de Poisson entre el observable y el Hamiltoniano. Volviendo al
problema cuántico, veremos que el valor esperado (y no el operador A r, ~i ∇, t ) es el que debe ser comparado
con el correspondiente observable clásico.

5.7.1. Evolución temporal de los valores esperados de R, P: Teorema de Ehrenfest


Dado que R, P son todos los observables fundamentales para la cuantización de una partı́cula sin espı́n,
es necesario explorar la evolución temporal de sus valores esperados. Si bien estos observables no dependen del
tiempo, sus valores esperados sı́ poseen una dependencia temporal proveniente de la evolución del estado |ψ (t)i.
Asumiendo un Hamiltoniano de la forma
P2
H= + V (R) (5.54)
2m
5.7. EVOLUCIÓN TEMPORAL DEL VALOR ESPERADO DE UN OBSERVABLE 223

asignando A → R en la Ec. (5.52) y usando el Hamiltoniano (5.54) tenemos


     
d 1 P2 ∂R 1 P2 1
hRi = R, + V (R) + = R, + h[R, V (R)]i
dt i~ 2m ∂t i~ 2m i~
y usando las propiedades de los conmutadores (1.37-1.42) ası́ como las relaciones canónicas de conmutación (4.11)
obtenemos    
d 1 1 i~I i~I
hRi = h[R, P] Pi + hP [R, P]i = P + P
dt 2mi~ 2mi~ 2mi~ 2mi~
quedando finalmente
d 1
hRi = hPi
dt m
similarmente el valor esperado para P es
     
d 1 P2 ∂P 1 P2 1
hPi = P, + V (R) + = P, + h[P, V (R)]i
dt i~ 2m ∂t i~ 2m i~
d 1
hPi = h[P, V (R)]i
dt i~
y usando la Ec. (1.141) pág. 77, se obtiene

[P, V (R)] = −i~∇V (R)

se obtienen entonces la relaciones fundamentales


d 1 d
hRi = hPi ; hPi = − h∇V (R)i (5.55)
dt m dt
estas dos ecuaciones se conocen como teorema de Ehrenfest. Muy semejantes a las relaciones asociadas a sus
correspondientes observables clásicos.
En virtud de la similitud con las relaciones clásicas, es natural buscar el lı́mite clásico a través del teorema
de Ehrenfest Ecs. (5.55). La función de onda ψ (r, t) que describe el estado de una partı́cula, es en general un
paquete de ondas. hRi representa tres coordenadas hXi i que en general dependen del tiempo. Al punto definido
por hRi (t) en el instante t, lo llamaremos el centro del paquete de onda en tal instante. Nótese que si el paquete
es asimétrico el centro del paquete será en general diferente del punto en donde la amplitud es máxima. Cuando
movemos el parámetro tiempo el punto hRi (t) se mueve en el espacio generando la trayectoria del centro del
paquete. Por supuesto, esta trayectoria no se puede asociar a la partı́cula cuyo estado está descrito por el paquete
completo que tiene una extensión dada7 . Sin embargo, si la extensión del paquete de ondas es mucho menor que
todas las demás longitudes involucradas en el problema, podemos aproximar el paquete de ondas por su centro y
la descripción clásica resultará una buena aproximación.
La pregunta natural es entonces si el movimiento del centro del paquete de onda obedece las leyes de la
mecánica clásica. La respuesta yace en el teorema de Ehrenfest, la primera de las Ecs. (5.55) nos dice que la
velocidad del centro del paquete es igual al momento promedio del paquete dividido por m. Por tanto la segunda
de las Ecs. (5.55) se puede escribir como
d2 hRi
m = − h∇V (R)i
dt2
por tanto, el centro del paquete seguirá una trayectoria clásica solo si la cantidad − h∇V (R)i coincide con la
fuerza clásica en el punto donde se ubica el centro del paquete

Fcl = [−∇V (r)]r=hRi


7
Nótese incluso que cada punto en esta trayectoria no necesariamente coincide con el punto de máxima densidad de probabilidad
en cada instante.
224 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

debemos observar sin embargo que − h∇V (R)i es en realidad el valor promedio de la fuerza sobre el paquete
completo, que no necesariamente debe coincidir con su valor en el centro del paquete

h∇V (R)i =
6 [∇V (r)]r=hRi (5.56)

lo cual se puede expresar diciendo que el valor medio de una función no es en general igual al valor que toma
cuando se evalúa en el valor medio de la variable. Esto se puede ver con facilidad tomando un ejemplo especı́fico,
sea un potencial de la forma
V (x) = λxn (5.57)
siendo λ una constante real y n un entero positivo. La cuantización de este potencial nos lleva a

V (X) = λX n (5.58)

el lado izquierdo de (5.56) nos da


   
d d

V (X) = (λX n ) = λn X n−1
dx dx

en tanto que el lado derecho de (5.56) es


   
d d  
V (x) = n
(λx ) = nλxn−1 x=hXi = λn hXin−1
dx x=hXi dx x=hXi



y en general X n−1 6= hXin−1 . Por ejemplo, para n = 3 se tiene que X 2 6= hXi2 y la diferencia entre ambas es
proporcional a la raı́z de la desviación media cuadrática definida en la Ec. (5.7).
Sin embargo, para n = 0 (partı́cula libre), n = 1 (partı́cula en un campo de fuerzas uniforme) y n = 2 (partı́cula
en un potencial parabólico i.e. un oscilador armónico), la igualdad sı́ se cumple y vemos que el centro del paquete
de onda en estos casos obedece las leyes de la mecánica clásica.
Por otra parte, aunque los dos lados de (5.56) no son en general iguales, ocurre que en algunas circunstancias
(escenarios semiclásicos) la diferencia entre ambos es despreciable, esto ocurre cuando el paquete de onda es lo
suficientemente localizado. Para verlo, escribamos el lado izquierdo de (5.56) en la base {|ri}.
Z Z
h∇V (R)i = d r ψ (r, t) [∇V (r)] ψ (r, t) = d3 r |ψ (r, t)|2 ∇V (r)
3 ∗
(5.59)

asumir el paquete muy localizado equivale a decir que |ψ (r, t)|2 es una distribución que toma valores no desprecia-
bles solo en cierto dominio cuyas dimensiones son mucho mas pequeñas que las distancias sobre las cuales ∇V (r)
varı́a apreciablemente. Por tanto, en este dominio centrado alrededor de hRi, la cantidad ∇V (r) es prácticamente
constante. En tal caso se puede reemplazar ∇V (r) en (5.59) por su valor en r = hRi y se puede sacar de la in-
tegral en (5.59), y teniendo en cuenta que ψ (r, t) está normalizada, se obtiene que para paquetes suficientemente
localizados tenemos que
h∇V (R)i ∼ = [∇V (r)]r=hRi (5.60)
es claro en particular que en el lı́mite macroscópico en el cual las longitudes de onda de De Broglie son mucho
menores que las distancias sobre las cuales los potenciales y sus gradientes varı́an, los paquetes de onda pueden
ser lo suficientemente localizados para satisfacer la Ec. (5.60) y al mismo tiempo mantener un momento bien
definido. Este último punto es muy importante, ya que no basta con que hRi se comporte de manera semejante
al valor clásico de posición para llegar a un escenario clásico, pues un paquete muy localizado en hRi implica que
el paquete de onda en el espacio de los momentos puede ser muy disperso, y tendrı́amos que aunque hPi pueda
tener un comportamiento similar al valor clásico, la dispersión de hPi significará una incertidumbre enorme en
su medida lo cual nos aleja del escenario clásico. Por tanto, es necesario que los valores de ∆r y ∆p compatibles
5.8. ECUACIÓN DE SCHRÖDINGER PARA SISTEMAS CONSERVATIVOS 225

con el principio de incertidumbre sean mucho menores que todas las distancias y momentos involucrados en el
problema, situación que en general se cumple en los sistemas macroscópicos.
Bajo las condiciones anteriores, el movimiento del paquete de onda es prácticamente el de una partı́cula clásica
de masa m sometida al potencial V (r). Vemos como era de esperarse que la ecuación de Schrödinger genera las
soluciones clásicas con ciertas condiciones lı́mite apropiadas que en particular son satisfechas por los sistemas
macroscópicos.

5.8. Soluciones de la ecuación de Schrödinger para sistemas conservativos


En mecánica clásica, si el Hamiltoniano no depende explı́citamente del tiempo, es una constante de movimiento
en virtud de que su derivada total coincide con su derivada parcial. Si además el Hamiltoniano coincide con la
energı́a del sistema entonces la energı́a total del sistema es constante en el tiempo y hablamos de un sistema
conservativo. Es natural entonces averiguar por las propiedades de un sistema conservativo cuando cuantizamos
un Hamiltoniano que es clásicamente constante de movimiento y que corresponde a la energı́a del sistema.
Consideremos en primer lugar la ecuación de valores propios del Hamiltoniano

H |ϕn,τ i = En |ϕn,τ i (5.61)

asumiremos por simplicidad un espectro discreto. El ı́ndice τ denota la degeneración de los valores propios que
puede corresponder a varios ı́ndices. Tales ı́ndices nos fijarán los autovalores de observables que constituyen un
C.S.C.O. junto con H. Puesto que H no depende explı́citamente del tiempo, los autovalores En y autovectores
|ϕn,τ i tampoco dependerán del tiempo.
Hemos visto para un caso especı́fico de sistema conservativo (ver sección 3.2) que la Ec. de Schrödinger se
puede solucionar a partir de este problema de valores propios. En este caso veremos que la Ec. (5.61) también
se puede utilizar para resolver la ecuación de Schrödinger. Teniendo en cuenta que H es observable, podemos
expandir la solución de la Ec. de Schrödinger en términos de la base {|ϕn,τ i}
X
|ψ (t)i = cn,τ (t) |ϕn,τ i ; cn,τ (t) ≡ hϕn,τ |ψ (t)i (5.62)
n,τ

nótese que toda la dependencia temporal de |ψ (t)i está contenida en los cn,τ (t). Aplicando el bra hϕn,τ | sobre la
ecuación de Schrödinger y teniendo en cuenta que este bra no depende del tiempo

d
i~ hϕn,τ |ψ (t)i = hϕn,τ | H |ψ (t)i (5.63)
dt
y dada la hermiticidad de H el hermı́tico conjugado de (5.61) es

hϕn,τ | H = En hϕn,τ | (5.64)

aplicando (5.64) y la segunda Ec. (5.62) en (5.63) se obtiene

d
i~ cn,τ (t) = En cn,τ (t)
dt
la cual se puede integrar directamente para obtener

cn,τ (t) = cn,τ (t0 ) e−iEn (t−t0 )/~ (5.65)

por tanto, si H no depende del tiempo podemos encontrar a |ψ (t)i a partir de su valor inicial |ψ (t0 )i en la
siguiente forma
226 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

(a) Expandimos el valor inicial del estado en la base de autoestados de H


XX
|ψ (t0 )i = cn,τ (t0 ) |ϕn,τ i ; cn,τ (t0 ) ≡ hϕn,τ |ψ (t0 )i (5.66)
n τ

(b) En virtud de las Ecs. (5.62) y (5.65), multiplicamos cada sumando en la expansión (5.66) por la fase
e−iEn (t−t0 )/~ , siendo En el autovalor asociado a los autoestados |ϕn,τ i
XX
|ψ (t)i = cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i (5.67)
n τ

para el caso de espectro contı́nuo se realiza un procedimiento análogo para obtener


XZ
|ψ (t)i = dE cτ (E, t0 ) e−iE(t−t0 )/~ |ϕE,τ i (5.68)
τ

o si la degeneración τ también es contı́nua tenemos


Z Z
|ψ (t)i = dτ dE c (τ, E, t0 ) e−iE(t−t0 )/~ |ϕE,τ i

nótese finalmente que los sumandos en (5.67) poseen fases diferentes para diferentes valores de n. Por tanto, dichas
fases son fı́sicamente relevantes y producen fenómenos de interferencia.

5.8.1. Estados estacionarios


Un caso especial importante surge cuando el estado inicial del sistema |ψ (t0 )i coincide con un ket propio de
H. En tal caso la expansión (5.66) viene dada por autoestados de H asociados a un solo valor propio
X
|ψ (t0 )i = cn,τ (t0 ) |ϕn,τ i (5.69)
τ

y dado que no hay suma sobre n, la Ec. (5.67) para el estado |ψ (t)i queda
X
|ψ (t)i = e−iEn (t−t0 )/~ cn,τ (t0 ) |ϕn,τ i = e−iEn (t−t0 )/~ |ψ (t0 )i
τ

de modo que el estado inicial y el estado en cualquier tiempo solo difieren en una fase global fı́sicamente irrelevante.
Por tanto, todas las propiedades fı́sicas de sistemas que están inicialmente preparados en un autoestado de H,
permanecen inalteradas en el tiempo. Por esta razón a los estados propios del Hamiltoniano se les denomina
estados estacionarios.
De aquı́ surge además la manifestación cuántica de la conservación de la energı́a para sistemas conservativos.
Si en el tiempo t0 medimos la energı́a de un sistema conservativo y encontramos el valor En , el sistema queda
preparado luego de la medición en un autoestado de H dado por (5.69) con valor propio En . A partir de este
momento se puede aplicar la ecuación de Schrödinger tomando este autoestado de H como estado inicial, pero
dado que dicho estado es estacionario, no se genera fı́sicamente evolución temporal y para todo tiempo el estado
continúa siendo autoestado de H con energı́a En . En consecuencia, una segunda medida de la energı́a del sistema
en cualquier tiempo posterior nos dará el mismo valor de energı́a En obtenido en la primera medición.
Finalmente, vale la pena señalar que lo anterior nos conduce a que solo hay evolución cuando la energı́a en
el estado inicial no está bien definida (de manera que hay varias fases de la forma e−iEk (t−t0 )/~ ). Esto nos llevará
más adelante a una relación de incertidumbre entre el tiempo de evolución y la energı́a.
5.8. ECUACIÓN DE SCHRÖDINGER PARA SISTEMAS CONSERVATIVOS 227

5.8.2. Constantes de movimiento


La Ec. (5.52) nos dice que la cantidad hAi será constante de movimiento si se cumplen las condiciones

∂A
= 0 ; [A, H] = 0 (5.70)
∂t

aplicando estas condiciones en (5.52) se obtiene que

d hAi d
= hψ (t)| A |ψ (t)i = 0 (5.71)
dt dt

para cualquier estado |ψ (t)i del sistema. Es claro que si se cumplen las condiciones (5.70) el valor medio de A
será constante de movimiento8 . En consecuencia, definiremos por extensión que un observable A es constante
de movimiento si cumplen las condiciones (5.70). En palabras, un observable es constante de movimiento si no
depende explı́citamente del tiempo y conmuta con el Hamiltoniano. En particular si H no depende del tiempo
(sistemas conservativos), H como tal es constante de movimiento.
Veremos que si A es constante de movimiento hay algunas consecuencias fı́sicas adicionales. En primer lugar,
puesto que A y H son observables que conmutan, poseen un conjunto común completo de kets propios

H |ϕn,p,τ i = En |ϕn,p,τ i ; A |ϕn,p,τ i = ap |ϕn,p,τ i

de nuevo asumimos espectros discretos por simplicidad9 . El ı́ndice τ fija los valores propios de observables que
forman un C.S.C.O. con H y A. Ahora bien, los kets |ϕn,p,τ i son autoestados de H y por tanto son estados
estacionarios (siempre que H no dependa del tiempo). En consecuencia, si |ϕn,p,τ i define el estado inicial del
sistema, permanecerá en este estado indefinidamente (excepto por una fase global irrelevante). No obstante, |ϕn,p,τ i
también es ket propio de A. En consecuencia, cuando A es una constante de movimiento y H no depende del tiempo,
existen estados estacionarios |ϕn,p,τ i del sistema fı́sico que permanecen para todo tiempo como autoestados de A
con el mismo autovalor ap . Por esta razón a los autovalores de A se les denomina números cuánticos buenos.
Es claro que si |ϕn,p,τ i es el estado inicial, el valor de la energı́a y de ap serán siempre el mismo sin importar
el tiempo en que se midan, el orden en que se midan (son observables compatibles), o cuantas veces se midan,
además hay una certeza total en sus valores (ambas cantidades están bien definidas y se conservan).
Ahora supongamos que el estado inicial no es del tipo |ϕn,p,τ i, sino un ket arbitrario |ψ (t0 )i. Veremos que si
el sistema es conservativo, la probabilidad de encontrar un cierto valor ap es independiente del tiempo cuando se
mide la constante de movimiento A. Expandiendo |ψ (t0 )i en la base {|ϕn,p,τ i} se tiene
XXX
|ψ (t0 )i = cn,p,τ (t0 ) |ϕn,p,τ i
n p τ

y aplicando el procedimiento descrito por las Ecs. (5.66) y (5.67) se obtiene


XXX
|ψ (t)i = cn,p,τ (t) |ϕn,p,τ i ; cn,p,τ (t) = cn,p,τ (t0 ) e−iEn (t−t0 )/~
n p τ

y usando el postulado de descomposición espectral, la probabilidad P (ap , t) de obtener ap cuando A se mide sobre
8


Si se pide ∂A
∂t
= h[A, H]i = 0, entonces la Ec. (5.71) solo será válida para un estado o estados especı́ficos |ψ (t)i. La idea aquı́ es
estudiar constantes de movimiento inherentes al sistema y no a condiciones iniciales especı́ficas.
9
Si en lugar de la Ec. (5.70) asumimos la condición más débil ∂A
∂t
+ [A, H] = 0, tenemos que A no conmuta en general con H. Por
tanto, aunque tal condición conduce a la conservación de hAi Ec. (5.71), no conduce a la existencia de una base común para A y H de
modo que las consecuencias fı́sicas adicionales que discutiremos aquı́, no son válidas para esta condición más débil.
228 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

el sistema en el tiempo t (y por tanto en el estado |ψ (t)i) está dado por


2
X X X

P (ap , t) = |hϕn,p,τ |ψ (t)i| = 2 hϕ | c ′ ′ ′ (t) ϕ ′ ′ ′
n,p,τ n ,p ,τ n ,p ,τ
n,τ n,τ ′
npτ ′ ′
2 2
X X
X X



=
cn′ ,p′ ,τ ′ (t) hϕn,p,τ ϕn′ ,p′ ,τ ′ = cn′ ,p′ ,τ ′ (t) δn,n′ δp,p′ δτ,τ ′

n,τ n′ p′ τ ′ n,τ n′ p′ τ ′
XX X X
= |cn,p,τ (t)|2 = cn,p,τ (t) c∗n,p,τ (t)
n τ n τ
XX
−iEn (t−t0 )/~
P (ap , t) = cn,p,τ (t0 ) e c∗n,p,τ (t0 ) eiEn (t−t0 )/~
n τ

cada fase se anula y se obtiene XX


P (ap , t) = |cn,p,τ (t0 )|2 = P (ap , t0 )
n τ
lo cual prueba la independencia con el tiempo de esta distribución de probabilidad. En particular, si en t0 el sistema
está en un autoestado de A con autovalor am , de modo que P (ak , t0 ) = δkm , esta probabilidad no evoluciona en el
tiempo; por lo tanto, para cualquier instante se obtiene la misma medida am , y el estado del sistema en cualquier
tiempo continúa siendo autoestado de A con valor propio am .

5.8.3. Frecuencias de Bohr de un sistema y reglas de selección


Sea B un observable del sistema que estamos estudiando y que no necesariamente conmuta con H. La evolución
temporal de hBi está dada por la Ec. (5.52)
 
d 1 ∂B
hBi = h[B, H]i +
dt i~ ∂t
para un sistema conservativo el estado en cualquier instante vendrá dado por (5.67), con lo cual podemos calcular
el valor esperado de B cuando el sistema está en el estado |ψ (t)i. Para ello necesitamos el bra asociado a (5.67)
el cual viene dado por XX

hψ (t)| = c∗n′ ,τ ′ (t0 ) eiEn′ (t−t0 )/~ ϕn′ ,τ ′ (5.72)


n′ τ′

usando (5.67, 5.72) el valor esperado de B resulta


" # " #
XX
XX
hψ (t)| B |ψ (t)i = c∗n′ ,τ ′ (t0 ) eiEn′ (t−t0 )/~ ϕn′ ,τ ′ B cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i
n′ τ′ n τ
XXXX

hBi|ψ(t)i = c∗n′ ,τ ′ (t0 ) cn,τ (t0 ) ϕn′ ,τ ′ B |ϕn,τ i ei(En′ −En )(t−t0 )/~ (5.73)
n′ τ′ n τ

asumiremos
de aquı́ en adelante que B no depende explı́citamente del tiempo, en tal caso los elementos matriciales
′ ′
ϕn ,τ B |ϕn,τ i son constantes. De esto y de la Ec. (5.73) se vé que la evolución temporal de hBi (t) se debe
exclusivamente a las fases, es decir a términos oscilantes con frecuencias dadas por
1 |En′ − En | |En′ − En |
νn′ ,n ≡ = (5.74)
2π ~ h
tales frecuencias son caracterı́sticas del sistema bajo estudio pero son independientes del observable B considerado
y de las condiciones iniciales del sistema (descritas por los coeficientes c∗n′ ,τ ′ (t0 ) cn,τ (t0 ) ), ya que solo dependen
de los valores propios de H.
5.8. ECUACIÓN DE SCHRÖDINGER PARA SISTEMAS CONSERVATIVOS 229

Las frecuencias νn′ ,n se denominan las frecuencias de Bohr del sistema. Por ejemplo, para un átomo los valores
esperados de todos los parámetros atómicos (tales como momentos dipolares eléctricos y magnéticos), oscilan
a las varias frecuencias de Bohr del átomo. Es razonable imaginar que estas frecuencias pueden ser absorbidas
o emitidas por el átomo, lo cual nos permite entender intuitivamente la relación de Bohr entre las diferentes
frecuencias absorbidas o emitidas y las diferencias en las energı́as atómicas.
Puede verse de (5.73) que aunque las frecuencias involucradas en la evolución temporal de
hBi no dependen

de B, los pesos de cada frecuencia
sı́ dependen de B a través de los elementos matriciales ϕn′ ,τ ′ B |ϕn,τ i. En

particular si hay elementos ϕn′ ,τ ′ B |ϕn,τ i que sean nulos, las correspondientes frecuencias vn′ ,n estarán ausentes
de la expansión de hBi (t) sin importar cual sea el estado inicial del sistema. Este es el origen de las reglas de
selección que nos indican
las frecuencias que pueden ser emitidas o absorbidas bajo las condiciones dadas. Los
elementos de matriz ϕn′ ,τ ′ B |ϕn,τ i nos dicen la importancia de cada frecuencia de Bohr.

De lo anterior vemos que el estudio de las reglas de selección proviene del cálculo de los elementos no diagonales
ϕn′ ,τ ′ B |ϕn,τ i de los diversos observables atómicos (o de cualquier otro sistema cuántico) tales como los dipolos
eléctricos y magnéticos.
Por otro lado, la Ec. (5.73) muestra que el peso completo de cada frecuencia está dado por el producto
 XX ∗

W n, n′ = cn′ ,τ ′ (t0 ) cn,τ (t0 ) ϕn′ ,τ ′ B |ϕn,τ i
τ τ′

y por tanto también depende de las condiciones iniciales por medio de c∗n′ ,τ ′ (t0 ) cn,τ (t0 ). Vale la pena anotar


que si bien la nulidad de los elementos ϕn′ ,τ ′ B |ϕn,τ i conduce a la ausencia de una frecuencia de Bohr para
cualquier estado inicial del sistema, también se puede dar la ausencia de una frecuencia por la nulidad del producto
c∗n′ ,τ ′ (t0 ) cn,τ (t0 ), es decir por ciertas condiciones iniciales especı́ficas. En particular, si el estado inicial es un
estado estacionario de energı́a Ek la expansión de |ψ (t0 )i solo contiene un valor de n (n = k) y el producto
c∗n′ ,τ ′ (t0 ) cn,τ (t0 ) solo es no nulo para n = n′ = k, en este caso hBi no depende del tiempo y no hay frecuencias
de Bohr no triviales, nótese que esta regla de selección se da por condiciones iniciales y se da para cualquier
observable B.
Es interesante ver que de la Ec. (5.73) también podemos verificar que el valor esperado de una constante de
movimiento no depende del tiempo. Al ser B constante de movimiento, no depende explı́citamente del tiempo con
lo cual la dependencia temporal de hBi recae exclusivamente en las fases que contienen la energı́a en la Ec. (5.73).
Ahora bien el teorema 1.68 (pág. 58) nos dice que dado que B conmuta con H (por ser constante

de movimiento),
si |ϕn,τ i y ϕn′ ,τ ′ corresponden a autovalores diferentes (En′ 6= En ) entonces el producto ϕn′ ,τ ′ B |ϕn,τ i es cero.

Por tanto para una constante de movimiento solo sobreviven los términos con n = n′ para los cuales las fases
ei(En′ −En )(t−t0 )/~ serán iguales a la unidad y no habrá dependencia temporal.

5.8.4. Relación de incertidumbre entre tiempo y energı́a para sistemas conservativos


A continuación veremos que los sistemas conservativos presentan la propiedad de que entre mayor sea la
incertidumbre en la energı́a, más rápida es la evolución temporal. Para ver esto, definimos ∆t como un intervalo
de tiempo caracterı́stico al final del cual el sistema ha evolucionado de forma apreciable, y ∆E denotará la
incertidumbre en la energı́a.
Veamos primero el caso en el cual la energı́a está completamente definida, esto ocurre cuando el sistema está
en un autoestado de H, de modo que ∆E = 0. Hemos visto que este estado es estacionario y que por tanto no
evoluciona, podemos considerar entonces que el tiempo para que el sistema evolucione apreciablemente es infinito,
vemos entonces que cuando ∆E = 0 se tiene que ∆t → ∞.
Ahora asumamos que el sistema en el estado inicial se encuentra en el estado |ψ (t0 )i que es una superposición
de solo dos autoestados de H que denotamos por |ϕ1 i , |ϕ2 i

|ψ (t0 )i = c1 |ϕ1 i + c2 |ϕ2 i (5.75)


230 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

el estado en cualquier tiempo será entonces

|ψ (t)i = c1 e−E1 (t−t0 )/~ |ϕ1 i + c2 e−E2 (t−t0 )/~ |ϕ2 i

si medimos la energı́a encontramos E1 ó E2 . En consecuencia, la incertidumbre en la energı́a es del orden de

∆E ∼
= |E2 − E1 |

ahora consideremos un observable arbitrario B que no conmuta con H. La probabilidad de encontrar en una
medida de B en el tiempo t el valor propio bm (que asumimos no degenerado por simplicidad) asociado con el
autovector |um i nos da

P (bm , t) = |hum |ψ (t)i|2 = hum |ψ (t)i hψ (t) |um i


n h io
= hum | c1 e−E1 (t−t0 )/~ |ϕ1 i + c2 e−E2 (t−t0 )/~ |ϕ2 i
nh i o
× c∗1 eE1 (t−t0 )/~ hϕ1 | + c∗2 eE2 (t−t0 )/~ hϕ2 | |um i

n o
P (bm , t) = c1 e−E1 (t−t0 )/~ hum | ϕ1 i + c2 e−E2 (t−t0 )/~ hum | ϕ2 i
n o
× c∗1 eE1 (t−t0 )/~ hϕ1 | um i + c∗2 eE2 (t−t0 )/~ hϕ2 | um i
= c1 c∗1 hum | ϕ1 i hϕ1 | um i + c2 c∗2 hum | ϕ2 i hϕ2 | um i
+c1 c∗2 e−E1 (t−t0 )/~ eE2 (t−t0 )/~ hum | ϕ1 i hϕ2 | um i + c2 c∗1 e−E2 (t−t0 )/~ eE1 (t−t0 )/~ hum | ϕ2 i hϕ1 | um i

P (bm , t) = |c1 |2 |hum | ϕ1 i|2 + |c2 |2 |hum | ϕ2 i|2 + c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i
h i∗
+ c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i
n o
P (bm , t) = |c1 |2 |hum | ϕ1 i|2 + |c2 |2 |hum | ϕ2 i|2 + 2Re c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i (5.76)

nótese que la interferencia está dada por la diferencia entre las dos fases. Esta ecuación muestra que la probabilidad
oscila entre dos valores extremos, con una frecuencia de Bohr dada por

|E2 − E1 |
v21 =
h
vale la pena mencionar que el valor de esta frecuencia de Bohr no dependió del observable, sino de los valores
propios del Hamiltoniano. Sin embargo, la Ec. (5.76) nos muestra que el peso con el cual contribuye tal frecuencia
depende de las condiciones iniciales descritas por la Ec. (5.75), y del observable mismo a través de |um i que es el
vector propio de B asociado al valor propio bm , al cual se le está calculado la probabilidad. El tiempo caracterı́stico
de evolución será entonces un periodo de oscilación de la probabilidad
1 h h
∆t ∼
= = ∼
=
ν21 |E2 − E1 | ∆E

con lo cual se obtiene la relación


∆t · ∆E ∼
=h (5.77)
Asumamos ahora que el espectro de H es contı́nuo y no degenerado. El estado inicial |ψ (t0 )i se puede escribir
como Z
|ψ (t0 )i = dE c (E) |ϕE i
5.8. ECUACIÓN DE SCHRÖDINGER PARA SISTEMAS CONSERVATIVOS 231

siendo |ϕE i el ket propio de H con autovalor E. Asumamos que en una gráfica de |c (E)|2 (densidad de probabilidad
para E) vs. E, la densidad de probabilidad solo es apreciable en un intervalo [E0 − ∆E/2, E0 + ∆E/2]. La
cantidad ∆E representa entonces la incertidumbre en la energı́a del sistema (que depende del algoritmo para
elegir el ancho). El estado en un tiempo t se obtiene de (5.68)
Z
|ψ (t)i = dE c (E) e−iE(t−t0 )/~ |ϕE i

la probabilidad de obtener bm cuando se mide el observable B (de espectro discreto) en el estado |ψ (t)i es
Z 2

2
P (bm , t) = |hum |ψ (t)i| = dE c (E) e −iE(t−t0 )/~
hum |ϕE i
Z 2
E0 +∆E/2
∼ −iE(t−t )/~
P (bm , t) = dE c (E) e 0
hum |ϕE i (5.78)
E0 −∆E/2

en general hum |ϕE i no varı́a en forma rápida con E cuando E varı́a alrededor de E0 . Si ∆E es lo suficientemente
pequeño, la variación de hum |ϕE i en la integral (5.78) se puede despreciar con respecto a la variación de c (E).
Con lo cual la integral (5.78) se puede aproximar a
Z 2
E0 +∆E/2

P (bm , t) ∼ 2
= |hum |ϕE0 i| dE c (E) e−iE(t−t0 )/~
E0 −∆E/2

cuando esta aproximación es válida vemos que P (bm , t) es proporcional al cuadrado del módulo de la transformada
de Fourier de c (E). Aplicando la propiedad de incertidumbre para la transformada de Fourier, vemos que el ancho
en t de P (bm , t), es decir ∆t está relacionado con el ancho ∆E de |c (E)|2 por medio de la relación
∆E · ∆t & h
usualmente conocida como la cuarta relación de incertidumbre de Heisenberg. Sin embargo, esta relación es
diferente a la mostrada por las componentes de R y P ya que el tiempo es un parámetro para el cual no existe
un operador cuántico asociado, y las variables H y t no son canónicamente conjugadas. Adicionalmente, ∆t no es
en realidad una incertidumbre en la medida del tiempo, sino un tiempo que caracteriza la “rapidez” con que el
sistema fı́sico evoluciona.
A priori podrı́a pensarse que la presencia de incertidumbre en la energı́a para un sistema conservativo, entra
en conflicto con la conservación de la energı́a. Debemos observar sin embargo, que el concepto de conservación
(o no conservación) de una cantidad fı́sica involucra la comparación entre dos o más medidas de dicha cantidad.
Si el estado inicial no es estacionario, entonces hay una incertidumbre en la energı́a, tal incertidumbre persiste y
puede evolucionar en el tiempo mientras no se realice una medida. No obstante, cuando se realiza una medida de
la energı́a, el sistema queda preparado en un estado estacionario con energı́a bien definida En , y ya se discutió que
toda medida posterior de la energı́a dará el mismo valor En con toda certeza. Lo mismo ocurrirá con cualquier
cantidad posterior de medidas de este observable. Tenemos entonces un principio de conservación puesto que el
experimento revela que para un sistema conservativo, las medidas de esta cantidad fı́sica en diferentes tiempos
coinciden siempre. Similar discusión se puede dar para la conservación del momento u otra cantidad fı́sica.

5.8.5. Cuarta relación de incertidumbre para un paquete de onda unidimensional


Veamos el caso de un paquete de ondas unidimensional. A la incertidumbre ∆p en el momento del paquete le
podemos asociar una incertidumbre en la energı́a de la forma
dE
∆E = ∆p ; E = ~ω ; p = ~k ⇒
dp

∆E = ∆p = vg ∆p (5.79)
dk
232 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

por otra parte, es razonable definir el tiempo caracterı́stico de evolución ∆t de un paquete de ondas viajeras
unidimensional como el tiempo que le toma a este paquete de onda viajando a la velocidad vg para “pasar” un
punto fijo en el espacio, es decir para que haya recorrido una longitud igual a su extensión espacial ∆x. Por tanto
∆x
∆t ∼
= (5.80)
vg

y combinando las Ecs. (5.79, 5.80) resulta

∆E · ∆t ∼
= ∆x · ∆p & ~

5.9. Consecuencias fı́sicas del principio de superposición


El primer postulado nos dice que los estados accesibles de un sistema cuántico forman un espacio vectorial
completo, lo cual implica que la superposición lineal (incluso infinita) de estados fı́sicamente realizables también
nos da un estado fı́sicamente realizable. Veremos las consecuencias fı́sicas de este primer postulado.
Hemos mencionado ya los efectos de interferencia que surgen de este primer postulado cuando se combina con
los demás, estos fueron especialmente importantes en la explicación de la dualidad onda partı́cula. Vimos además
que la interferencia se da entre las amplitudes de probabilidad por lo cual debemos examinar tales amplitudes en
forma detallada

5.9.1. Diferencia entre superposición lineal y mezcla estadı́stica


Sean |ψ1 i y |ψ2 i dos estados normalizados ortogonales

hψ1 |ψ1 i = hψ2 |ψ2 i = 1 ; hψ1 |ψ2 i = 0

estos estados podrı́an ser por ejemplo estados propios de un observable B asociados a valores propios diferentes
b1 y b2 . Si el sistema está en el estado |ψ1 i podemos calcular todas las probabilidades concernientes a resultados
de medidas de un cierto observable A. Si asumimos por ejemplo que el autovalor an de A es no degenerado y
denotamos |un i a su autovector asociado normalizado, la probabilidad de encontrar el valor an cuando se mide A
sobre el sistema estando éste en el estado |ψ1 i está dado por

P1 (an ) = |hun |ψ1 i|2 (5.81)

análogamente podemos medir esta probabilidad cuando el sistema está en el estado |ψ2 i

P2 (an ) = |hun |ψ2 i|2 (5.82)

ahora consideremos un estado normalizado |ψi que se construye como superposición de los estados |ψ1 i y |ψ2 i

|ψi = c1 |ψ1 i + c2 |ψ2 i ; |c1 |2 + |c2 |2 = 1 (5.83)

este vector estará normalizado si |ψ1 i y |ψ2 i lo están. Puesto que |ψ1 i y |ψ2 i son autovectores del observable
B correspondientes a valores propios diferentes b1 y b2 , la probabilidad de medir b1 es |c1 |2 y la de medir b2 es
|c2 |2 . Con frecuencia se dice que cuando el sistema está en el estado |ψi descrito por (5.83), entonces |c1 |2 es la
probabilidad de encontrar al sistema en el estado |ψ1 i y |c2 |2 es la probabilidad de encontrarlo en el estado |ψ2 i,
debe decirse sin embargo que esto solo es cierto si se ejecuta una medida del observable B, ya que si se mide
cualquier otro observable C en general |ψ1 i y |ψ2 i no serán autoestados de C y por tanto luego de la medida el
sistema no quedará en ninguno de estos estados. En este caso se tendrá que expandir a |ψi en autoestados de C
(esto es posible dado que es un observable), y obtener los respectivos coeficientes. Esto nos muestra una vez más
que el aparato de medida y la medida misma juegan un papel muy importante en los postulados.
5.9. CONSECUENCIAS FÍSICAS DEL PRINCIPIO DE SUPERPOSICIÓN 233

Volviendo a la distribución de probabilidades para b1 y b2 , lo anterior podrı́a sugerir erróneamente que N


sistemas idénticos cada uno en el estado |ψi descrito por (5.83), equivalen a otro conjunto compuesto por N |c1 |2
sistemas idénticos cada uno en el estado |ψ1 i, junto con N |c2 |2 sistemas idénticos cada uno en el estado |ψ2 i. A
esto último se le denomina una mezcla estadı́stica de los estados |ψ1 i y |ψ2 i con pesos |c1 |2 y |c2 |2 .
Para chequear esta hipótesis calcularemos la probabilidad de encontrar el autovalor an cuando medimos A,
sobre el sistema en el estado |ψi. Si interpretamos este estado como una mezcla estadı́stica de los estados |ψ1 i y |ψ2 i
con pesos |c1 |2 y |c2 |2 , esta probabilidad se puede calcular como la suma ponderada de probabilidades P1 (an ) y
P2 (an ) 10
?
P (an ) = |c1 |2 P1 (an ) + |c2 |2 P2 (an ) (5.84)
por otro lado, aplicando los postulados de la mecánica cuántica, esta probabilidad se calcula como

P (an ) = |hun | ψi|2

la probabilidad es el módulo al cuadrado de la amplitud de probabilidad hun | ψi. Tal amplitud es la suma de
dos términos
hun | ψi = hun | {c1 |ψ1 i + c2 |ψ2 i} = c1 hun | ψ1 i + c2 hun | ψ2 i
el módulo al cuadrado se calcula con un procedimiento idéntico al que nos llevó a la Ec. (5.76) (excepto por la
ausencia de las exponenciales de la energı́a)

P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2Re {c1 c∗2 hun | ψ1 i hψ2 | un i}

puesto que las cantidades c1 , c2 , hun | ψ1 i y hψ2 | un i son complejas podemos escribirlas en notación polar

c1 = |c1 | eiθ1 , c2 = |c2 | eiθ2 , hun | ψ1 i = |hun | ψ1 i| eiδ1


hψ2 | un i = hun | ψ2 i∗ = |hun | ψ2 i| e−iδ2

con lo cual la probabilidad queda


n o
P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2Re |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| ei(θ1 +δ1 −θ2 −δ2 )
n o
P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| Re ei(θ1 +δ1 −θ2 −δ2 )

quedando finalmente

P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| cos (θ1 + δ1 − θ2 − δ2 )

usando las Ecs. (5.81, 5.82) esta expresión se puede reescribir como

P (an , t) = |c1 |2 P1 (an ) + |c2 |2 P2 (an ) + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| cos (θ1 + δ1 − θ2 − δ2 )

este resultado difiere del mostrado en (5.84) en donde se consideró a |ψi como una mezcla estadı́stica. El punto es
que la mezcla estadı́stica no considera los efectos de interferencia contenidos en el producto cruzado que se obtiene
cuando se eleva al cuadrado una suma de amplitudes. El resultado muestra que la probabilidad no depende solo
de los módulos de los pesos |c1 | y |c2 | y de las amplitudes |hun | ψ1 i| y |hun | ψ2 i| sino también de sus fases relativas
θ1 , θ2 , δ1 y δ2 . Nótese sin embargo, que una fase global eiθ multiplicando al estado |ψi no afecta esta probabilidad
puesto que se elimina con su conjugado en el término de interferencia.
10
Puesto que P1 (an ) es la probabilidad de obtener el valor an cuando el sistema está en el estado |ψ1 i, es claro 2 que en una mezcla
estadı́stica con N muy grande, el número de estados |ψ 1 i que arrojará a n cuando se mide A sobre los N c1 estados |ψ1 i, viene
2 2

dada por N c1 P1 (an ). Similarmente, N c2 P2 (an ) es el número de estados |ψ2 i de la mezcla estadı́stica que arrojarán el valor an
en la medición de A. Es claro entonces que la probabilidad de obtener an cuando se mide sobre la mezcla estadı́stica completa es
N | c2
1 |P1 (an )+N |c2 |P2 (an )
2
lı́mN→∞ N
que coincide con la Ec. (5.84).
234 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

5.9.2. Efectos de interferencia en fotones polarizados


Consideremos fotones polarizados que se propagan en la dirección uz en los cuales el estado de polarización
está representado por el vector unitario
1
u = √ (ux + uy ) (5.85)
2
este estado es una superposición de dos estados de polarización ortogonales ux y uy . Esto representa luz polarizada
linealmente a un ángulo de π/4 con respecto a los ejes X e Y .
Si consideráramos u como una mezcla estadı́stica de los estados ux y uy con idénticos pesos, tendrı́amos que
 2
N fotones en el estado u son equivalentes a N × √12 = N2 fotones en el estado ux y N2 fotones en el estado uy .
Si colocáramos en la trayectoria del haz de luz un analizador cuyo eje u′ sea perpendicular a u (y de modo que
u, u′ generen un plano paralelo a XY), para la mezcla estadı́stica la mitad de los fotones pasarı́a el analizador.
En contraste, tanto la teorı́a cuántica como los experimentos muestran que ninguno de los N fotones en el estado
u pasa el analizador (ver sección 2.9).
Este ejemplo muestra que una superposición lineal de la forma (5.85) es diferente a una mezcla estadı́stica
de iguales proporciones entre los estados ux y uy . Nótese por ejemplo que la superposición en (5.85) describe un
haz de luz polarizada a π/4 de los ejes X e Y . En contraste, una mezcla estadı́stica está asociada con un haz
no polarizado puesto que el sistema contiene fotones de diferente polarización la mitad en dirección ux y la otra
mitad en la dirección uy .
La importancia de las fases relativas de los coeficientes de la expansión se puede ilustrar con los siguientes
estados de polarización
1 1 1 1
u1 = √ (ux + uy ) ; u1 = √ (ux − uy ) ; u1 = √ (ux + iuy ) ; u1 = √ (ux − iuy )
2 2 2 2
los cuales difieren solo en las fases relativas de sus coeficientes siendo estas fases 0, π, π/2 y −π/2 respectivamen-
te. Estos cuatro estados son fı́sicamente distintos: los dos primeros representan luz polarizada linealmente pero
en direcciones distintas (el primer estado es ortogonal al segundo). Los dos últimos representan luz polarizada
circularmente (dextrógira y levógira respectivamente).

5.9.3. Suma sobre los estados intermedios


Para ilustrar el uso adecuado del principio de superposición, vamos a examinar dos experimentos ilustrativos.
En esta sección asumiremos que los observables A, B, C tienen un espectro discreto y no degenerado. Asumiremos
también que todas las medidas sucesivas se hacen en intervalos de tiempo cortos, de manera que el sistema no ha
tenido tiempo de evolucionar.
Primer experimento: Asumamos que en cierto tiempo, se midió el observable A y se obtuvo el valor propio
a. El estado después de la medida será el ket propio |ua i asociado con a. Inmediatamente después medimos al
observable C que no conmuta con A y obtenemos el valor c, de modo que el sistema quedará en el estado |vc i.
La probabilidad de que habiendo obtenido el valor a en la primera medida, obtengamos en la segunda medida un
valor c está dada por
Pa (c) = |hvc |ua i|2 (5.86)
Segundo experimento: En este experimento medimos de forma sucesiva los observables A, B, y C que no
conmutan entre sı́. Si Pa (b, c) es la probabilidad de que habiendo obtenido el resultado a en la primera medida se
obtengan los valores b y c en las otras dos, tenemos que esta probabilidad es el producto

Pa (b, c) = Pa (b) × Pb (c)

es decir Pa (b, c) es la probabilidad Pa (b) de que habiendo obtenido el valor a del observable A en la primera
medida, obtengamos b en la segunda, multiplicada por la probabilidad de que habiendo obtenido un valor b del
5.9. CONSECUENCIAS FÍSICAS DEL PRINCIPIO DE SUPERPOSICIÓN 235

observable B en la segunda medida obtengamos un valor c de C en la tercera. Si denotamos |wb i al ket propio de
B asociado con el valor propio b, la cantidad Pa (b, c) estará dada por

Pa (b, c) = |hvc | wb i|2 |hwb | ua i|2 (5.87)

Veamos ahora las semejanzas y diferencias entre ambos experimentos. Asumiremos que en ambos experimentos
se han obtenido los mismos valores especı́ficos de A y C. En ambos experimentos el estado después de la medición
de A es |ua i, de hecho el papel de esta medición es el de fijar a |ua i como el estado inicial (o “preparar” el sistema
en el estado inicial |ua i). Después de la medición de C en ambos experimentos, el estado será |vc i que lo tomaremos
como el estado final. Los dos experimentos coinciden entonces en el estado inicial y en el final.
Para ambos experimentos es posible descomponer el estado justo antes de la medida de C en términos de
autovectores |wb i de B, y decir que entre los estados |ua i y |vc i el sistema puede “pasar” a través de diferentes
“estados intermedios” |wbi i. Cada uno de estos estados intermedios define un posible “camino” entre el estado
inicial |ua i y el estado final |vc i.
De aquı́ surge la diferencia fundamental entre los dos experimentos. En el primero el camino que el sistema
ha tomado para ir desde |ua i hasta |vc i no ha sido determinado experimentalmente, ya que solo hemos medido la
probabilidad Pc (a) de que comenzando en el estado |ua i terminemos en el estado |vc i. En el segundo experimento
el camino para ir desde |ua i hasta |vc i ha sido determinado experimentalmente midiendo el observable B, ya que
esta medida nos permite obtener la probabilidad Pa (b, c) de que el sistema comenzando en |ua i, pase a través de
un estado intermedio dado |wb i y termine en el estado |vc i.
La idea ahora es relacionar a Pa (c) con Pa (b, c). Resulta tentador pensar que en el primer experimento el
sistema es “libre de pasar” a través de todos los estados intermedios |wb i, pareciera entonces que la probabilidad
global Pa (c) es la suma de todas las probabilidades Pa (b, c) asociadas con cada uno de los posibles “caminos”,
esto conducirı́a a X
?
Pa (c) = Pa (b, c) (5.88)
b

veremos que este resultado es incorrecto a la luz de los postulados de la mecánica cuántica. La manera más simple
para relacionar Pa (c) con Pa (b, c) consiste en tomar la fórmula de probabilidad Pa (c) Ec. (5.86) y aplicarle la
relación de completez para la base {|wb i}

2
X

Pa (c) = |hvc |ua i|2 = hvc |wb i hwb |ua i (5.89)

b
" #" #∗
X X
Pa (c) = hvc |wb i hwb |ua i hvc |wb′ i hwb′ |ua i
b b′
XX
Pa (c) = hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗
b b′

es conveniente separar los términos en las componentes diagonales b = b′ y las no diagonales


X XX
Pa (c) = hvc |wb i hwb |ua i hvc |wb i∗ hwb |ua i∗ + hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗
b b b′ 6=b
X XX
Pa (c) = |hvc |wb i|2 |hwb |ua i|2 + hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗
b b b′ 6=b

y teniendo en cuenta la Ec. (5.87) tenemos que


X XX
Pa (c) = Pa (b, c) + hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗ (5.90)
b b b′ 6=b
236 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

comparando (5.90) con (5.88) vemos nuevamente que los términos cruzados que aparecen en el cuadrado del
módulo de la suma en (5.89) están ausentes en (5.88), y por tanto todos los efectos de interferencia entre los
diferentes posibles caminos.
Los argumentos anteriores nos muestran que es necesario razonar en términos de amplitudes de probabilidad
para aplicar adecuadamente el principio de superposición. Cuando los estados intermedios del sistema no están
determinados experimentalmente son las amplitudes de probabilidad y no las probabilidades las que se deben
sumar.
Para comprender mejor el error en el razonamiento que nos llevó a la Ec. (5.88), recurrimos al quinto pos-
tulado de reducción del paquete de onda. En el segundo experimento, la medida del observable B involucra una
perturbación del sistema bajo estudio y durante la medida su ket de estado experimenta un cambio abrupto que
se manifiesta como la proyección sobre uno de los estados |wb i, esta perturbación inevitable y fundamental es la
responsable de la desaparición de los efectos de interferencia. En el primer experimento no podemos decir que el
sistema fı́sico “pasa” a través de uno u otro de los estados |wb i, es más acertado decir que el sistema pasa a través
de todos los estados |wb i en forma ponderada. Esto se puede ver teniendo en cuenta que el estado antes de la
medida de B del segundo experimento es |ua i y este también es el estado del sistema en el primer experimento
antes de la medida de C, en el primer experimento el estado antes de la medida de C es
X
|ua i = cb |wb i
b

vemos entonces que cuando no se realiza la medida de B el sistema “está en todos los estados posibles |wb i”
aunque en forma ponderada por los coeficientes cb .
De otra parte si las medidas sucesivas no se hacen en tiempos cortos, es posible realizar razonamientos similares
teniendo en cuenta la evolución del sistema con la ecuación de Schrödinger, y en todo caso la diferencia fundamental
entre superposiciones lineales de estados y mezcla estadı́stica de estados continúa existiendo (ver sección 7.1.2 Pág.
262).
Nótese que estos razonamientos son muy similares a los que se describieron en la sección 2.8 sobre el experimento
de Young de la doble rendija. En él, la densidad de probabilidad de que un fotón emitido por la fuente llegue a
un punto dado M en la pantalla se obtiene primero superponiendo linealmente los campos eléctricos radiados por
cada rendija para luego elevar al cuadrado y obtener la intensidad en M (y por tanto la densidad de probabilidad
deseada). El campo eléctrico hace las veces de la amplitud de probabilidad y la intensidad hace las veces de la
densidad de probabilidad como tal. Cuando no intentamos determinar por cual rendija pasa el fotón (es decir
no determinamos experimentalmente el “estado intermedio”), son los campos eléctricos radiados por cada rendija
los que se deben superponer linealmente y no sus intensidades, con el fin de obtener la intensidad (densidad
de probabilidad) resultante. Podemos decir entonces que el campo radiado por una rendija sobre el punto M
representa la amplitud para un fotón emitido desde la fuente (estado inicial) de pasar a través de tal rendija
(estado intermedio) antes de arrivar al punto M sobre la pantalla (estado final), pero sin la medición del estado
intermedio se considera que el fotón pasa por ambas rendijas (todos los estados intermedios accesibles).
De lo anterior podemos obtener las siguientes conclusiones
(a) Las predicciones probabilı́sticas de la teorı́a cuántica se obtienen siempre elevando al cuadrado el módulo
de una amplitud de probabilidad
(b) Cuando en un experimento particular no se mide un estado intermedio, no se debe razonar en términos de
las probabilidades de los diversos resultados accesibles que se hubieran obtenido en tales medidas. Se debe razonar
en términos de las amplitudes de probabilidad. Esto tiene que ver con que las medidas destruyen la interferencia,
dado que se obtienen valores bien definidos de un observable y un estado intermedio dado. En contraste cuando
una medida no se efectúa, el sistema está simultáneamente en todos los estados intermedios posibles y es esta
simultaneidad la que permite la interferencia.
(c) El hecho de que los estados de un sistema fı́sico se pueden superponer linealmente significa que las am-
plitudes de probabilidad con frecuencia tienen la forma de una suma de amplitudes parciales. La correspondiente
5.10. PRINCIPIO DE SUPERPOSICIÓN CON VARIOS ESTADOS ASOCIADOS A UNA MEDIDA 237

probabilidad es entonces igual al módulo al cuadrado de esta suma de términos con lo cual las amplitudes parciales
interfieren entre sı́.

5.10. El principio de superposición para casos en que varios estados están


asociados a una medida
En la anterior sección hemos trabajado el caso de mediciones asociadas a valores propios no degenerados en los
cuales hay un solo estado asociado a cada medida. En este caso la probabilidad de ocurrencia de un evento se ha
escrito como el cuadrado del módulo de una suma de términos (amplitudes). No obstante, cuando hay presencia
de degeneración el cuarto postulado Ec. (4.4) nos dice que la probabilidad de obtener un valor propio degenerado
involucra una suma de cuadrados de módulos. Debe tenerse en cuenta sin embargo que cada sumando en (4.4)
puede a su vez ser el módulo al cuadrado de una suma de amplitudes. Esto implicará discutir con cuidado el uso
adecuado del principio de superposición para obtener la probabilidad asociada a valores propios degenerados.
Por otra parte, existe otro escenario importante en el cual varios estados están asociados con una medición:
cuando la resolución del aparato de medida es insuficiente (como ocurre en la realidad). Hasta el momento
hemos considerado medidas ideales pero es necesario discutir cómo las limitaciones experimentales deben ser
manejadas para obtener predicciones teóricas sobre los resultados. Esta discusión permitirá además extender el
quinto postulado de reducción del paquete de onda a los espectros contı́nuos.

5.10.1. El principio de superposición para valores propios degenerados



Cuando un valor propio an es gn −degenerado, sus kets propios linealmente independientes uin generan un
autosubespacio En de dimensión gn . En este caso, el estado en el cual queda el sistema después de obtener an en
la medición no está unı́vocamente determinado, ya que depende del estado inicial |ψi (estado justo antes de la
medición). Si el estado inicial |ψi es dado, el estado justo después de la medición vendrá dado por la proyección
normalizada de |ψi sobre En que denotamos por |ψn i. Sin embargo, incluso cuando se obtiene la misma medida
an esta proyección es diferente cuando cambia el vector inicial, por lo cual podemos decir que hay varios estados
finales asociados a la medida an .
La Ec. (4.4) nos dice como calcular la probabilidad P (an ) de obtener el valor an cuando conocemos el estado
|ψi del sistema justo antes de la medición.

gn
X
i 2
P (an ) = u ψi (5.91)
n
i=1


para calcular esta probabilidad escogemos una base ortonormal uin del autosubespacio En y calculamos los

2
pesos uin ψi asociados a cada uno de los estados de esta base, la probabilidad P (an ) será entonces la suma

2
de estos gn pesos. Debemos tener en cuenta que cada probabilidad uin ψi puede ser el cuadrado del módulo
de una suma de amplitudes que nos generará interferencias. Por ejemplo si el estado inicial normalizado es de la
forma
|ψi = c1 |ψ1 i + c2 |ψ2 i

cada sumando en (5.91) será de la forma



i 2
i

u ψi = c1 u ψ1 i + c2 ui ψ2 i 2
n n n

con lo cual se obtienen interferencias al expandir el módulo al cuadrado.


238 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

5.10.2. Aparatos insuficientemente selectivos en la medida


Supongamos que tenemos un dispositivo para medir el observable A de un sistema fı́sico dado, y que el estado
justo antes de la medición viene dado por
X
|ψi = ck,i uik (5.92)
k,i

siendo uik los estados propios de A con valor propio ak . Asumamos que el dispositivo posee las siguientes
caracterı́sticas.
(a) El dispositivo solo puede dar dos respuestas (autoresultados), que por convención denotaremos como “si”
y “no”.
(b) Si el estado inicial del sistema |ψi está en una combinación lineal cuyos valores propios yacen todos en un
intervalo dado ∆ del eje real, la respuesta será definitivamente “sı́”. En otras palabras, la respuesta es “sı́” con
toda certeza, cuando todos los ck,i no nulos de (5.92) sean tales que ak ∈ ∆.
(c) La respuesta es definitivamente “no” si el estado inicial del sistema |ψi está en una combinación lineal de
estados donde todos los valores propios asociados a los estados de la combinación lineal yacen fuera del intervalo
∆.
Vemos que ∆ define el poder de resolución del instrumento. Ası́ mismo ∆ define los autoestados asociados a
los autoresultados “si” y “no”. Si existe un solo valor propio an de A en el intervalo ∆ el dispositivo tendrá una
resolución infinita, ya que para el sistema en un estado inicial arbitrario, la probabilidad P (si) será igual a la
probabilidad de obtener an en la medida de A. La probabilidad de obtener “no” es naturalmente P (no) = 1−P (si).
Por otro lado, si existen varios valores propios an de A en ∆, el dispositivo no tiene suficiente resolución para
discriminar entre estos diferentes autovalores. En este caso hablamos de un aparato o dispositivo insuficiente-
mente selectivo.
Para estudiar la distribución de probabilidad de P (no) , P (si) con estos dispositivos insuficientemente selec-
tivos, debemos primero estudiar la perturbación que estos aparatos crean sobre el sistema cuando realizan una
medida. Para caracterizar esta perturbación añadiremos la siguiente hipótesis: El dispositivo transmite sin per-
turbar todos los estados propios de A asociados con autovalores incluı́dos en el intervalo ∆, ası́ como cualquier
combinación lineal de estos estados, en cambio el dispositivo bloquea los autoestados de A asociados con valores
propios fuera del intervalo ∆ ası́ como todas sus combinaciones lineales. El dispositivo actúa entonces como un
filtro perfecto para todos los estados asociados con ∆.
Ilustraremos la plausibilidad de esta hipótesis con un ejemplo. Cuando el espectro de un observable es contı́nuo,
todo dispositivo experimental para medir este espectro es siempre insuficientemente selectivo. Tomaremos en
consecuencia un ejemplo con espectro contı́nuo. Supongamos que queremos medir la coordenada x de un electrón
que se propaga en la dirección uz . Para ello colocamos sobre el plano XY (en z = 0) una superficie bloqueadora
con una ranura con bordes entre x1 y x2 y de ancho infinito paralelo al eje Y . Un paquete de onda que esté
completamente incluı́do entre los planos x = x1 y x = x2 , entrará a la región derecha (viniendo desde la izquierda)
sin ninguna modificación (esto equivale a un “sı́”). Que el paquete de onda esté entre los planos x = x1 y x = x2
significa que es una superposición de autoestados de R con autovalores x, y, z donde los x están todos incluı́dos
en el intervalo [x1 , x2 ]. Por otro lado, cualquier paquete de onda situado por debajo de x = x1 o por encima de
x = x2 será bloqueado por la superficie y no pasará a la derecha (esto equivale a un “no”).
Vemos que para un dispositivo insuficientemente selectivo, hay varios estados finales posibles luego de una
medición que ha dado la respuesta “si” incluso cuando el espectro de A es no degenerado, ya que los estados
propios de A asociados a los diferentes autovalores ak en ∆ son estados posibles finales.
Queremos estudiar cuales son las predicciones que podemos hacer con estos dispositivos cuando un sistema
fı́sico en un estado arbitrario es medido con uno de ellos. Para el ejemplo anterior cuando el paquete de onda está
completamente adentro (o afuera) del intervalo [x1 , x2 ], la respuesta es definitivamente si (no). Debemos estudiar
las probabilidades P (si) y P (no) cuando el paquete no está completamente adentro ni completamente afuera.
Veremos que esto es equivalente a medir un observable cuyo espectro sea degenerado.
5.10. PRINCIPIO DE SUPERPOSICIÓN CON VARIOS ESTADOS ASOCIADOS A UNA MEDIDA 239

 i al caso de un espectro discreto. Consideremos el autosubespacio E∆ generado


Por el momento retornaremos
por todos los autoestados un de A cuyos valores propios yacen en el intervalo ∆. El proyector P∆ sobre este
subespacio es
X X gn
i
i
P∆ = u un (5.93)
n
an ∈∆ i=1

donde hemos tenido en cuenta que las autovalores an pueden ser degenerados. Nótese que E∆ está compuesto
por todos los estados accesibles del sistema después de que la medida de A ha dado el valor “si”. En términos
más matemáticos, podemos decir que la respuesta del dispositivo es definitivamente “si” cuando el estado inicial
pertenece a E∆ , es decir para cualquier estado propio de P∆ con valor propio +1. Adicionalmente, la respuesta es
definitivamente “no” cuando el estado inicial pertenece al complemento ortogonal de E∆ es decir cuando el estado
es autoestado de P∆ con valor propio 0. Si denotamos Ee∆ al complemento ortogonal de E∆ podemos escribir

E ]
= E∆ ⊕ Ee∆ ; |ψi = |ψ∆ i ⊕ |ψ ] e
∆ i ; |ψi ∈ E ; |ψ∆ i ∈ E∆ ; |ψ∆ i ∈ E∆ (5.94)
]
P∆ |ψi = |ψ∆ i ; P∆ |ψ∆ i = (+1) |ψ∆ i ; P∆ |ψ ]
∆ i = (0) |ψ∆ i (5.95)

donde |ψi es un estado arbitrario. Vemos entonces que las respuestas “si” y “no” que nos da nuestro dispositivo
equivalen a los autovalores +1 y 0 respectivamente del observable P∆ . Podemos decir entonces que el dispositivo
está realmente midiendo los valores propios de P∆ en lugar de los de A.
Con tal interpretación podemos calcular las distribuciones de probabilidad P (si) y P (no) aplicando los pos-
tulados al observable P∆ que es el que realmente se está midiendo. La probabilidad P (si) es la probabilidad de
obtener el valor propio +1 para el observable P∆ . Si el estado inicial normalizado es |ψi tal probabilidad se puede
escribir aplicando el cuarto postulado (pag. 196) y la Ec. (4.4)
X
P (si) = P (+1) = |hvm | ψi|2 ; P (no) = 1 − P (si)
m

donde {|vm i} es una base ortonormal asociada al subespacio E(+1) generado por el valor propio +1 de P∆ . De
es claro que E(+1) es justamente E∆ ; por tanto una base ortonormal {|vm i} posible es precisamente la base
(5.95)

uin con an ∈ ∆, que se construyó para E∆ . Por tanto, las probabilidades quedan en la forma

gn
X X
i 2
P (si) = P (+1) = un ψi ; P (no) = 1 − P (si) (5.96)
an ∈∆ i=1

otra forma es usar las Ecs. (4.8, 5.94) donde en este caso el proyector sobre el autoespacio E(+1) = E∆ del observable
P∆ es justamente P∆
P (si) = hψ| P∆ |ψi = hψ∆ |ψ∆ i (5.97)

aplicando (5.93) en (5.97) vemos que se reproduce (5.96)

gn
" gn
#
X X i
i X X i
i
|ψ∆ i = P∆ |ψi = un un ψi ; hψ| P∆ |ψi = hψ| un un ψi (5.98)
an ∈∆ i=1 an ∈∆ i=1
gn
X X gn
X X


i 2
hψ| P∆ |ψi = hψ uin uin ψi = un ψi (5.99)
an ∈∆ i=1 an ∈∆ i=1

Similarmente, puesto que el dispositivo no perturba los estados que pertenecen a E∆ y bloquea aquellos que
pertenecen a Ee∆ , vemos que el estado del sistema después de la medición cuando ha dado un resultado “si”, es
240 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

decir cuando el autovalor obtenido para P∆ es +1 está dado por |ψ∆ i pero normalizado, de las Ecs. (5.98, 5.99)
se tiene
′ |ψ∆ i P∆ |ψi
ψ = = (5.100)
si hψ∆ |ψ∆ i hψ| P∆ |ψi
P Pgn i
i
′ an ∈∆ i=1 un un ψi
ψ = qP (5.101)
si Pg m k 2
am ∈∆ k=1 |hum | ψi|

similarmente, la probabilidad de obtener el resultado “no” y el estado del sistema luego de que una medida nos
arroje este resultado es
E
f
P (no) = P (0) = hψf ∆ ψ∆ = 1 − P (si)
E
f P Pgn i
i
′ ψ∆ f
ψ P∆ |ψi (I − P∆ ) |ψi an ∈∆
/ i=1 un un ψi
= E= = = qP
no hψ| Pf hψ| (I − P∆ ) |ψi P
hψf ψf
∆ ∆ ∆ |ψi gm
am ∈∆
/ |huk | ψi|
k=1 m
2

Cuando ∆ contiene solo un autovalor an de A, E∆ y P∆ se reducen a En y Pn y la resolución del aparato es


infinita, en el sentido de que las incertidumbres y perturbaciones son solo las inherentes a las leyes de la mecánica
cuántica, es decir estamos hablando de medidas ideales en el sentido cuántico. Vemos entonces que las Ecs. (4.8,
4.10) se pueden ver como casos particulares de las Ecs. (5.97, 5.100). Nótese que la suma sobre an en las Ecs.
(5.96, 5.101) se puede ver como una “degeneración adicional”. Se puede observar que cuando ∆ contiene varios
valores propios, el problema se asemeja a un problema con degeneración incluso si cada an en ∆ es no degenerado,
ya que en lo que concierne al cálculo de la probabilidad Ec. (5.96), la suma sobre an es también una suma de
módulos al cuadrado al igual que la suma sobre i.

5.11. Discusión general sobre el fenómeno de interferencia


Hemos visto que en algunos casos la probabilidad se calcula como el cuadrado del módulo de una suma de
amplitudes y en otros casos como suma de módulos cuadrados (sumas de probabilidades). Es importante dejar
claro cuando se emplea cada algoritmo.
Nuevamente el experimento de Young de la doble rendija resulta ilustrativo. Supongamos que queremos calcular
la probabilidad de que un determinado fotón golpee la pantalla en un cierto intervalo [x1 , x2 ]. Esta probabilidad
es proporcional a la intensidad total incidente sobre todo este intervalo
Z x2 Z x2
IT = I (x) dx = |E (x)|2 dx
x1 x1

es decir es una suma de cuadrados (suma de densidades de probabilidad). No obstante, la intensidad en un punto
de la pantalla x ∈ [x1 , x2 ] es el cuadrado del campo eléctrico E (x) el cual es la superposición lineal de los campos
eléctricos EA (x) y EB (x) radiados por las dos rendijas A y B sobre el punto x en la pantalla. I (x) es entonces
|EA (x) + EB (x)|2 es decir el cuadrado de una suma. EA (x) y EB (x) son las amplitudes asociadas a los dos
caminos posibles (paso por cada rendija) que terminan en el mismo punto x. Estas amplitudes se adicionan para
obtener la amplitud en x ya que no estamos tratando de determinar por cual rendija pasa el fotón. Luego, para
calcular la intensidad total se suman estos módulos al cuadrado (suma de intensidades), es decir se suman las
intensidades sobre los diferentes puntos x, para obtener la intensidad total en el intervalo [x1 , x2 ] (equivalente a
suma de probabilidades para obtener probabilidad total).
La anterior discusión nos muestra que la suma de amplitudes se realiza cuando partiendo desde un estado
inicial dado llegamos por diferentes caminos al mismo estado final (en este caso un punto fijo x en la pantalla).
Tendremos tantas amplitudes como caminos intermedios considerados. Una vez calculado el módulo al cuadrado
5.12. MEDICIÓN INSUFICIENTE DE ESPECTROS CONTÍNUOS 241

de la suma de estas amplitudes se suman estos cuadrados sobre estados finales diferentes (en este ejemplo
corresponde a sumar las intensidades sobre los diferentes puntos x del intervalo).
Resumimos el algoritmo en la siguiente forma: Se suman las amplitudes correspondientes al mismo estado final,
luego se suman las probabilidades correspondientes a estados finales ortogonales.
El hecho de que se sume sobre estados ortogonales tiene que ver con que usualmente los diferentes estados
que se usan para construı́r una base son todos ortogonales entre sı́. En general, debemos decir que se suma sobre
estados linealmente independientes.

5.12. Medición insuficiente de espectros contı́nuos


Ya mencionamos que todo dispositivo que mida un observable con espectro contı́nuo necesariamente debe ser
insuficiente, ya que ningún instrumento de medición está exento de la incertidumbre experimental. Por tanto, la
discusión sobre la aplicación de los postulados para medidas insuficientes resulta apropiado para el estudio de la
medición de espectros contı́nuos.
El ejemplo más simple y directo es la medición de la posición de una partı́cula. Nos preguntamos por la
probabilidad de encontrar a la partı́cula en una posición dentro de un intervalo ∆ = [x1 , x2 ] con un dispositivo
similar al descrito anteriormente.
Asumamos que la partı́cula (sin espı́n) está en un estado |ψi. El subespacio E∆ asociado con esta medida es
el expandido por los kets {|ri = |x, y, zi / x1 ≤ x ≤ x2 }. Puesto que estos kets son ortonormales en el sentido
extendido, la aplicación de la regla descrita en la sección 5.11 nos dice que
Z x2 Z ∞ Z ∞ Z x2 Z ∞ Z ∞
2
P (x1 ≤ x ≤ x2 ) = dx dy dz |hx, y, z |ψi| = dx dy dz |ψ (r)|2 (5.102)
x1 −∞ −∞ x1 −∞ −∞

vemos que la Ec. (5.97) conduce al mismo resultado ya que P∆ viene dado en este caso por
Z x2 Z ∞ Z ∞
P∆ = dx dy dz |x, y, zi hx, y, z|
x1 −∞ −∞

de modo que
Z x2 Z ∞ Z ∞ 
P (x1 ≤ x ≤ x2 ) = hψ| P∆ |ψi = hψ| dx dy dz |x, y, zi hx, y, z| |ψi
x1 −∞ −∞
Z x2 Z ∞ Z ∞
P (x1 ≤ x ≤ x2 ) = dx dy dz hψ |x, y, zi hx, y, z| ψi (5.103)
Zx1x2 Z−∞
∞ Z −∞

P (x1 ≤ x ≤ x2 ) = dx dy dz |ψ (r)|2 (5.104)
x1 −∞ −∞

ahora debemos encontrar el estado |ψ ′ i después de que la medición arroje un valor “si”, es decir cuando la posición
de la partı́cula esté dentro de ∆ después de la medición. Para ello aplicamos la Ec. (5.100)
Z x2 Z ∞ Z ∞
′ P∆ |ψi 1

ψ = = dx ′
dy ′
dz ′ x′ , y ′ , z ′ x′ , y ′ , z ′ ψi
hψ| P∆ |ψi hψ| P∆ |ψi x1 −∞ −∞
Z Z Z
′ 1 x2 ′ ∞ ′ ∞ ′ ′ 
ψ = dx dy dz r ψ r′ ; N ≡ hψ| P∆ |ψi
N x1 −∞ −∞

donde el factor de normalización N ≡ hψ| P∆ |ψi = P (x1 ≤ x ≤ x2 ), está dado por la Ec. (5.104). Es inmediato
242 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS

encontrar la función de onda asociada a |ψ ′ i


Z Z Z
1 x2 ′ ∞ ′ ∞ ′ ′ 
hr ψ ′ = dx dy dz hr r ψ r′
N x1
Z x2 Z−∞
∞ Z−∞∞
1    
ψ ′ (x, y, z) = dx′ dy ′ dz ′ δ x − x′ δ y − y ′ δ z − z ′ ψ x′ , y ′ , z ′
N x1 −∞ −∞
Z x2
1  
ψ ′ (x, y, z) = dx′ δ x − x′ ψ x′ , y, z
N x1
y como x puede estar dentro o fuera del intervalo [x1 , x2 ] la función de onda será

′ ψ (x, y, z) si x1 ≤ x ≤ x2
ψ (x, y, z) = (5.105)
0 si x ∈ / [x1 , x2 ]
vemos entonces que la parte de ψ (r) que corresponde al intervalo asociado al aparato de medición persiste sin
modificación, ya que el factor 1/N simplemente asegura que el estado se mantenga normalizado. El resto es
suprimido por la medición. Podemos decir entonces que el paquete de onda inicial ψ (r) de la partı́cula está siendo
“truncado” por los lı́mites de la “ranura”. Podemos entonces entender a partir de estos procesos porqué hablamos
de una reducción del paquete de onda.
Ahora bien, si tenemos un gran número de partı́culas todas en el estado |ψi, entrando sucesivamente en el
aparato, el resultado será algunas veces “si” y otras veces “no” según la distribución de probabilidad prescrita
anteriormente. Si la respuesta es “si”, la partı́cula sigue su camino a partir de un estado inicial “truncado” o
“reducido” dado por |ψ ′ i; si el resultado es “no” la partı́cula es absorbida por la placa colocada en el plano XY .
Es claro que cuando el espectro es contı́nuo, el dispositivo será siempre insuficientemente selectivo puesto que
el intervalo [x1 , x2 ] siempre contiene infinitos puntos por pequeño que este sea. Vale la pena sin embargo, analizar
el lı́mite cuando el ancho de este intervalo tiende a cero. Tomemos un intervalo de ancho ∆x centrado en x0 , si
∆x lo tomamos lo suficientemente pequeño podemos despreciar la variación de ψ (r) en x y reemplazarla por su
valor en x0 , en cuyo caso se puede integrar en x la probabilidad dada por (5.102)
  Z ∞ Z ∞
∆x ∆x
P x0 − , x0 + ≃ ∆x dy dz |ψ (x0 , y, z)|2
2 2 −∞ −∞
dP (x0 ) = ρ (x0 ) dx
donde de acuerdo con el cuarto postulado hemos interpretado a la densidad de probabilidad asociada a x0 como la
integral en y y z de la expresión anterior. La diferencia con la Ec. (4.9) es que en (4.9) el espectro se consideraba
no degenerado en tanto que aquı́ el espectro de X es infinitamente degenerado en Er , ya que todo vector de la
forma |x, y, zi es vector propio de X. Por esta razón, en esta densidad de probabilidad interviene una integral
doble sobre y y z.

5.13. Postulado de reducción del paquete de onda (quinto postulado) para


un espectro continuo
En la discusión del quinto postulado dada en la sección 4.3.4, nos hemos restringido al caso discreto. Sin
embargo, la discusión realizada en la sección 5.12 sobre dispositivos insuficientemente selectivos nos permite
extender el postulado al caso de espectro contı́nuo. El cual estableceremos de la siguiente forma
Quinto postulado o postulado de reducción del paquete de onda (caso contı́nuo): Si estando
el sistema en un estado |ψi realizamos una medida sobre el observable A de espectro contı́nuo no degenerado,
obteniendo como resultado un valor dentro del intervalo [α0 − ∆α, α0 + ∆α], el estado del sistema inmediatamente
después de la medida está descrito por
Z α0 + ∆α

ψ = P∆α (α0 ) |ψi
2
; P∆α (α0 ) ≡ dα |να i hνα |
hψ| P∆α (α0 ) |ψi α0 − ∆α 2
5.13. REDUCCIÓN DEL PAQUETE DE ONDA PARA ESPECTRO CONTINUO 243

el proceso de reducción aparece con claridad en la Ec. (5.105), si la generalizamos a cualquier observable A de
espectro contı́nuo {α} con función de onda hνα |ψi que representa a |ψi en la base {|να i}. Según la Ec. (5.105)
adecuadamente generalizada, el sistema queda preparado en un estado cuya función de onda es cero fuera del
intervalo de selección y dentro de dicho intervalo conserva la forma de la función de onda original (excepto por
un factor de normalización). Sin importar que tan pequeño sea ∆α nunca obtenemos el autoestado |να0 i después
de la medida, el cual en la base {|να i} estarı́a representado por hνα |να0 i = δ (α − α0 ). Pues la función de onda
truncada siempre tiene un ancho finito ∆α. Finalmente, es claro que el factor de normalización debe ser mayor
que la unidad.
Capı́tulo 6

Aplicación de los postulados cuando se


posee información parcial de un sistema

Hemos estudiado hasta el momento la aplicación de los postulados cuando el estado del sistema se conoce
perfectamente. Veremos dos casos en los cuales manejamos información parcial del sistema (a) cuando el sistema
está compuesto de dos o más subsistemas, y solo realizamos medidas de un subsistema especı́fico. (b) cuando
desconocemos las condiciones iniciales detalladas y solo poseemos información en forma de probabilidad, como
ocurre en la mecánica estadı́stica. Estudiaremos primero el caso (a).

6.1. Aplicación de los postulados cuando se mide un observable de un sub-


sistema
Cuando dos subsistemas cuánticos se condensan, podemos formar un único sistema global a través del producto
tensorial de los espacios de Hilbert asociados a cada subsistema. Nuestro propósito es estudiar el comportamiento
del sistema global cuando se realiza la medida de un observable asociado a uno de los subsistemas.
Consideremos el sistema fı́sico como compuesto de dos subsistemas (1) y (2) descritos por los espacios de
Hilbert E (1) y E (2). El espacio de estados asociado al sistema global es

E ≡ E (1) ⊗ E (2)

por ejemplo un sistema de dos electrones (sin espı́n), está descrito por una función de onda de la forma

ψ (r1 , r2 ) ≡ hr1 , r2 |ψi = ψ (x1 , y1 , z1 ; x2 , y2 , z2 ) ; ψ (r1 , r2 ) ∈ Er (1) ⊗ Er (2)

Estudiaremos el caso en el cual se mide un observable asociado a solo uno de los subsistemas. Asumiremos de
aquı́ en adelante que las medidas se realizarán sobre el subsistema (1) ya que el análisis del caso en que se hace
una medida sobre el subsistema (2) es totalmente análogo. El observable A e (1) asociado a una medida sobre el
subsistema (1) es la extensión tensorial del observable A (1) (ver Ec. 1.128)
e (1) ≡ A (1) ⊗ I (2)
A (6.1)

ya vimos en la sección 1.32.3 que el espectro de Ae (1) en E (1) ⊗ E (2) es idéntico al espectro de A (1) en E (1).
Vimos adicionalmente que la degeneración de cada valor propio en E (1) ⊗ E (2) es el producto de su degeneración
en E (1) por la dimensión de E (2). Esto implica que (si E (2) es de dos o más dimensiones) todo valor propio de
Ae (1) es degenerado. En consecuencia, cuando se realiza una medida sobre el subsistema (1), el estado del sistema
global después de la medida dependerá tanto del resultado de la medida como del estado justo antes de ésta.
Fı́sicamente, esto se debe a que el resultado no da ninguna información sobre el subsistema (2), y por tanto el
observable asociado no constituye un C.S.C.O.

244
6.1. APLICACIÓN DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 245

e (1). Para
Vamos a calcular la probabilidad de obtener un valor propio dado an en una medida del observable A
ello apelamos a la Ec. (4.8) pág 197
P (1) (an ) = hψ| Pen (1) |ψi (6.2)
siendo |ψi el estado (normalizado) en el que se encuentra el sistema global antes de la medición. El proyector
extendido Pen (1) se escribe en términos del proyector Pn (1) en E (1) en la forma
gn
X i

Pen (1) ≡ Pn (1) ⊗ I (2) ; Pn (1) = un (1) uin (1) (6.3)
i=1

siendo uin (1) una base ortonormal en E (1) y gn la degeneración de an en E (1). Pen (1) es entonces el proyector
(1)
en E (1) ⊗ E (2) sobre el autosubespacio generado por an en E (1) ⊗ E (2), el cual es claramente Ean ⊗ E (2).
Adicionalmente podemos expresar la identidad de (2) usando una base ortonormal {|vk (2)i} de E (2) con lo cual
Pen (1) queda
" gn # " #
X
i X
Pen (1) ≡ Pn (1) ⊗ I (2) = un (1) un (1) ⊗
i
|vk (2)i hvk (2)|
i=1 k
gn X
X  i  

= u (1) ⊗ |vk (2)i ui (1) ⊗ hvk (2)|
n n
i=1 k
gn X
X i

e
Pn (1) = un (1) vk (2) uin (1) vk (2) (6.4)
i=1 k

aplicando este proyector en la Ec. (6.2) resulta


gn X
X 

P (1) (an ) = hψ| Pen (1) |ψi = hψ| uin (1) vk (2) uin (1) vk (2) |ψi
i=1 k
gn X
X

= hψ| uin (1) vk (2)i uin (1) vk (2) ψi
i=1 k
gn X
X
i
P (1)
(an ) = hψ| Pen (1) |ψi = u (1) vk (2) ψi 2 (6.5)
n
i=1 k

adicionalmente, el estado |ψ ′ i justo después de la medición se puede calcular empleando la Ec. (4.10) pág. 200, y
teniendo en cuenta las Ecs. (6.5, 6.4)
Pgn P i
i
ψi
′ en (1) |ψi
P un (1) vk (2) un (1) vk (2)
ψ = q = i=1
qP k
(6.6)
gn P 2
hψ| Pen (1) |ψi m=1
m
p |hun (1) vp (2)| ψi|

Nótese que las Ecs. (6.2, 6.3, 6.6), nos dicen que la base ortonormal {|vk (2)i} en E (2) se puede elegir arbitraria-
mente, en el sentido de que ninguna base ortonormal especı́fica de E (2) presenta ventajas operativas especiales,
cuando se miden solo observables del subsistema (1). Esto es de esperarse, ya que al no realizarse ninguna medida
en el sistema (2), ningún conjunto de estados en E (2) es preferencial.

6.1.1. Interpretación fı́sica de los estados que son productos tensoriales


En la sección 1.32, vimos que no todos los estados en E (1) ⊗ E (2) se pueden expresar como producto tensorial
de estados en E (1) y en E (2). Estudiaremos aquı́ el significado fı́sico de los estados que sı́ son producto tensorial
de los subespacios anteriores, sea |ψi ∈ E (1) ⊗ E (2) tal que
|ψi = |ϕ (1)i ⊗ |χ (2)i = |ϕ (1) χ (2)i ; |ϕ (1)i ∈ E (1) , |χ (2)i ∈ E (2) , k|ϕ (1)ik = k|χ (2)ik = 1 (6.7)
246 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL

e (1), el estado |ψ ′ i después de la medición


supongamos que |ψi es el estado del sistema antes de la medición de A
se obtiene aplicando las Ecs. (6.6, 6.7, 6.3)

′ Pe (1) |ψi [Pn (1) ⊗ I (2)] [|ϕ (1)i ⊗ |χ (2)i]


ψ = q n =p
hψ| Pen (1) |ψi [hϕ (1)| ⊗ hχ (2)|] [Pn (1) ⊗ I (2)] [|ϕ (1)i ⊗ |χ (2)i]
′ Pn (1) |ϕ (1)i ⊗ I (2) |χ (2)i Pn (1) |ϕ (1)i ⊗ |χ (2)i
ψ = p =p
[hϕ (1)| ⊗ hχ (2)|] [Pn (1) |ϕ (1)i ⊗ I (2) |χ (2)i] hϕ (1)| Pn (1) |ϕ (1)i hχ (2)| χ (2)i

que se puede escribir como

′ ′
ψ = ϕ (1) ⊗ |χ (2)i ; ϕ′ (1) ≡ p Pn (1) |ϕ (1)i
hϕ (1)| Pn (1) |ϕ (1)i

vemos que el estado posterior a la medición también es un producto tensorial tal que el estado del subsistema (1)
ha cambiado pero no el estado asociado al subsistema (2). La probabilidad P (an ) queda en la forma

P (1) (an ) = hψ| Pen (1) |ψi = hϕ (1) χ (2)| [Pn (1) ⊗ I (2)] |ϕ (1) χ (2)i
= hϕ (1)| Pn (1) |ϕ (1)i hχ (2)| I (2) |χ (2)i
(1)
P (an ) = hϕ (1)| Pn (1) |ϕ (1)i

de lo cual se vé que P (1) (an ) no depende de |χ (2)i solo del estado |ϕ (1)i del subsistema (1). Por tanto, cuando el
estado del sistema está descrito por un producto tensorial como en la Ec. (6.7), las predicciones fı́sicas asociadas
a solo uno de los dos subsistemas, no dependen del estado del otro subsistema y se obtienen únicamente a partir
del estado del subsistema sobre el que se mide.
En consecuencia, un estado producto |ϕ (1)i⊗|χ (2)i describe una simple yuxtaposición de los subsistemas (1) y
(2) cada uno de ellos en los estados |ϕ (1)i y |χ (2)i respectivamente. En tal estado, se dice que los dos subsistemas
NO están correlacionados, esto implica que la medición de observables que pertenecen a uno u otro subsistema
corresponden a variable aleatorias independientes. Esto ocurre cuando los subsistemas han sido preparados en los
estados |ϕ (1)i y |χ (2)i para luego unirlos sin interacción.

Example 6.1 Sea H1 el Hamiltoniano que describe al sistema (1) y H2 el Hamiltoniano que describe al sistema
(2). Si la ecuación de Schrödinger independiente y dependiente del tiempo vienen dadas por

d
H1 |ϕ1 i = E1 |ϕ1 i ; i~ |ψ1 i = H1 |ψ1 i
dt
d
H2 |ϕ2 i = E2 |ϕ2 i ; i~ |ψ2 i = H2 |ψ2 i
dt

y si el hamiltoniano del sistema (1) + (2) está dado por H = H1 + H2 , es fácil verificar que

d
H |ϕi = E |ϕi ; i~ |ψi = H |ψi
dt
H = H1 + H2 ; E = E1 + E2 ; |ϕi = |ϕ1 i ⊗ |ϕ2 i ; |ψi = |ψ1 i ⊗ |ψ2 i

dado que en el sistema completo H1 y H2 son operadores sobre E = E (1) ⊗ E (2) entonces cada Hi se refiere a
su extensión sobre E. Efectivamente, esta es la forma del Hamiltoniano cuando simplemente se agregan los dos
sistemas sin interacción entre ellos, en cuyo caso la energı́a total es simplemente la suma de las energı́as asociadas
a cada subsistema.
6.1. APLICACIÓN DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 247

6.1.2. Significado fı́sico de estados que no son productos tensoriales


Sean {|un (1)i} y {|vk (2)i} bases de E (1) y E (2) respectivamente. Si el estado |ψi no está asociado a un
producto tensorial entonces este se escribe como
X
|ψi = cn,k |un (1)i ⊗ |vk (2)i
n,k

donde hay por lo menos dos sumandos diferentes de cero. Veamos las predicciones sobre la medición de un
observable A e (1) asociado solo al subsistema (1). En tal caso, es fácil probar que las predicciones fı́sicas no se
pueden escribir solo en términos de un estado del subsistema (1). Esto se puede ver aplicando las fórmulas (6.5,
6.6) en el contexto más general. Esta situación corresponde entonces a la existencia de correlaciones entre los dos
subsistemas, los resultados de medidas sobre cada subsistema corresponden a variables aleatorias dependientes y
que pueden ser correlacionadas. Puede demostrarse por ejemplo que si dos subsistemas descritos por un producto
tensorial se “conectan” entre sı́ por medio de una interacción, el nuevo estado ya no será un producto tensorial.
Esto se puede ilustrar re-examinando el ejemplo 6.1, en el caso en el cual el Hamiltoniano del sistema se escriba
como
H = H1 + H2 + Hint
donde Hint es un Hamiltoniano que modela la interacción entre los dos subsistemas. En este caso las soluciones
de la ecuación de Schrödinger dependiente e independiente del tiempo para el sistema completo, ya no son los
productos tensoriales de las soluciones para cada subsistema.
Estudiemos primero el caso más sencillo, asumiendo que el valor propio an obtenido en la medida, es no
degenerado en el subsistema (1). En tal caso desaparece la sumatoria sobre i en la Ec. (6.3) y en todas las demás
ecuaciones. El estado después de la medida se obtiene de (6.6) suprimiendo la suma sobre i
P P
′ k |u (1) v (2)i hun (1) vk (2)| ψi |un (1)i ⊗ k |vk (2)i hun (1) vk (2)| ψi
ψ = qnP k = qP
2 2
p |hun (1) vp (2)| ψi| p |hun (1) vp (2)| ψi|
P
′ ′ ′ k |vk (2)i hun (1) vk (2)| ψi
ψ
= |un (1)i ⊗ χ (2) ; χ (2) = q (6.8)
P 2
p |hun (1) vp (2)| ψi|

en conclusión, sin importar el estado |ψi previo a la medición del subsistema (1), el estado global posterior a
la medición de un observable que no es degenerado en el subsistema (1), es siempre un producto tensorial. Este
resultado se puede extender al caso en que se realiza un conjunto de mediciones asociadas a un C.S.C.O. de E (1),
es decir cuando la medición es completa con respecto a un subsistema (estas mediciones son naturalmente parciales
con respecto al sistema global).
Cuando el estado del sistema global no es un producto tensorial del tipo |ϕ (1)i ⊗ |χ (2)i, no podemos asociar
un ket |ϕ (1)i , |χ (2)i a cada subsistema (1) y (2) 1 . Surge entonces la pregunta de como caracterizar cada
sistema parcial en un sistema correlacionado. Esta pregunta es de gran interés si tenemos en cuenta que en general
todo sistema fı́sico ha interactuado en el pasado con otros sistemas incluso si está aislado en el momento en que
estudiamos tal sistema. Esto implica que el sistema total (sistema bajo estudio más el sistema con el que interactuó
en el pasado) no es en general un estado producto y no es posible asociar un vector de estado |ϕ (1)i con el sistema
bajo estudio. Este problema se resuelve asociando al subsistema (1) (sistema bajo estudio) un operador (operador
densidad) en lugar de un vector, volveremos sobre este punto en la sección 6.2.
Por el momento, tomaremos un caso en el cual se puede asociar un vector de estado para el sistema (1). Esto
ocurre cuando se realiza un conjunto completo de medidas del subsistema (1). Hemos visto que en tal situación,
para cualquier estado del sistema global (1) + (2) antes de la medida, un conjunto completo de medidas en E (1)
1
Por ejemplo, la energı́a de un sistema compuesto no es en general la suma de las energı́as individuales ya que la interacción aporta
a dicha energı́a, además no hay una manera no ambigüa de “repartir” la energı́a total del sistema asignándole una porción a cada
sistema.
248 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL

coloca al sistema global en un estado que es producto tensorial como se vé en la Ec. (6.8). El vector asociado
con (1) es el que se obtiene de manera única (salvo por un factor multiplicativo), por medio de los valores del
conjunto completo de medidas sobre (1). En consecuencia, el conjunto completo de medidas sobre (1) borra todas
las correlaciones que surgen de interacciones previas entre los dos sistemas. En particular, si en el momento de la
medida el sistema (2) está muy lejos y ya no interactúa con el sistema (1), el sistema (2) puede ser totalmente
omitido para efectos de estudiar al sistema (1).
Hemos visto que cuando el estado |ψi es un producto tensorial, el vector de estado asociado al subsistema
(2), no depende de medidas hechas sobre el sistema (1). Ahora bien, cuando el estado del sistema global es |ψi
antes de las medidas, y realizamos un conjunto completo de medidas sobre (1), la Ec. (6.8) nos muestra el estado
|ψ ′ i en el cual queda preparado el sistema global. Dicha ecuación nos muestra que cuando |ψi no es un producto
tensorial, el vector de estado |χ′ (2)i asociado al sistema (2) posterior a las medidas, depende del resultado del
conjunto completo de medidas en (1). Esto es a priori sorprendente ya que el estado del sistema (2) después de
ejecutar un conjunto completo de medidas en (1), dependerá del resultado de dichas medidas incluso si el sistema
(2) está muy lejos del sistema (1) en el momento de realizar las medidas. En otras palabras un conjunto completo
de medidas sobre (1) influirı́a sobre el sistema (2) incluso cuando éstos no interactúan. Esta paradoja ha sido
ampliamente estudiada por cientı́ficos como Einstein, Podolsky, Rosen y Bell.

6.2. Operador densidad


Cuando conocemos completamente el estado del sistema en un cierto tiempo, podemos predecir determinı́sti-
camente el estado en cualquier tiempo posterior en tanto no se realice una medida. También podemos predecir
perfectamente probabilidades de obtener determinados resultados cuando se realizan medidas. Para determinar
completamente el estado en cierto tiempo es suficiente realizar un conjunto de medidas que formen un C.S.C.O.
Este es el caso en el experimento de polarización de fotones descrito en la sección 2.9, en el cual el estado de
polarización es conocido perfectamente cuando el haz atravieza el polarizador.
Sin embargo, ocurre con frecuencia que el estado del sistema no está completamente determinado. Por ejemplo,
los estados de polarización de los fotones que emanan de una fuente de luz natural (no polarizada) no están bien
definidos. Otro ejemplo lo constituyen los átomos de un gas a cierta temperatura, para los cuales el valor de
la energı́a cinética de los átomos solo se conoce estadı́sticamente. La pregunta natural es cómo incorporar esta
información incompleta en el formalismo de modo que se pueda aprovechar de la mejor manera posible. Esto
nos llevará a la introducción del operador densidad que nos permitirá incorporar los resultados parciales en los
postulados de la mecánica cuántica.

6.2.1. El concepto de mezcla estadı́stica de estados


Ya hemos mencionado el concepto de mezcla estadı́stica de estados (ver sección 5.9.1, pág 232). Cuando
tenemos información incompleta de un sistema es usual utilizar el concepto de probabilidad para incorporar la
información parcial. Como ejemplo, cada estado de polarización posible para un fotón posee la misma probabilidad
en un haz de luz no polarizada. Un sistema termodinámico en equilibrio a temperatura T posee una probabilidad
proporcional a e−En /kT de estar en el estado de energı́a En .
En mecánica cuántica es usual que la información parcial se presente de la siguiente forma: Un sistema cuántico
dado posee un conjunto de estados accesibles {|ψn i} siendo pk la probabilidad de obtener un estado especı́fico |ψk i
donde obviamente X
pk = 1 ; 0 ≤ pk ≤ 1
k

decimos entonces que el sistema está en una mezcla estadı́stica de estados accesibles {|ψn i} con probabilidades {pn }.
Queremos ahora hacer predicciones sobre los resultados cuando se realiza un conjunto de medidas sobre el sistema.
Si el sistema estuviera en un estado |ψk i podrı́amos aplicar los postulados para realizar las correspondientes
predicciones. Sin embargo, dado que no tenemos certeza sobre el estado inicial sino solo una probabilidad pk de
6.2. OPERADOR DENSIDAD 249

que se encuentre en ese estado, los resultados obtenidos deben ser ponderados por el factor pk y luego sumados
sobre todos los estados accesibles en la mezcla estadı́stica.
Los estados accesibles {|ψk i} se pueden normalizar y de hecho asumiremos de aquı́ en adelante que están
normalizados. Sin embargo, estos estados no son necesariamente ortogonales.
Por otra parte será necesario distinguir en nuestro estudio dos tipos diferentes de probabilidad: (a) Probabilidad
de obtener un estado |ψk i en el tiempo inicial. En otras palabras, probabilidad de encontrar al sistema en t0 en
unas condiciones iniciales dadas. Este tipo de probabilidad se utiliza también en mecánica estadı́stica clásica y es
inherente a la información incompleta sobre las condiciones iniciales. (b) Probabilidad de obtener ciertos resultados
cuando se realizan medidas en el sistema, esta probabilidad es eminentemente cuántica y proviene de los postulados
de la mecánica cuántica, además no desaparece incluso si determinamos perfectamente las condiciones iniciales
(estado {|ψk i}) del sistema.
Adicionalmente, es necesario diferenciar entre una mezcla estadı́stica y una superposición lineal de estados
(ver secciones 5.9.1, 5.9.3). Para una superposición lineal de estados
X
|ψi = ck |ψk i (6.9)
k

es frecuente decir que cuando el vector de estado es |ψi, el sistema tiene probabilidad |ck |2 de estar en el estado
|ψk i. Esto en realidad significa que cuando se realiza un conjunto de medidas que corresponden a un C.S.C.O. y
que tienen a |ψk i como autovector, la probabilidad de encontrar el conjunto de autovalores asociados con |ψk i es
|ck |2 . Vimos en la sección 5.9.3 que un estado |ψi dado por la Ec. (6.9) no equivale simplemente a un sistema que
tiene la probabilidad |ck |2 de estar en el estado |ψk i para cada estado accesible. Esto se debe a que una combinación
lineal del conjunto {|ψk i} genera interferencias entre los estados accesibles debidas a términos cruzados de la forma
ck c∗p que surgen cuando los módulos de la amplitud de probabilidad se suman y luego se elevan al cuadrado. En
una mezcla estadı́stica el sistema está en un estado especı́fico |ψm i de los estados accesibles {|ψk i}, aunque no
sepamos en cual de ellos está (esta falta de información se parametriza con la distribución de probabilidad). En
contraste, en una superposición lineal de los estados {|ψk i}, el sistema está simultáneamente en todos los estados
aunque ponderados por los coeficientes ck .
Lo anterior implica que no podemos en general describir una mezcla estadı́stica a través de un “vector de estado
promedio” que sea una superposición de los estados {|ψk i}. Como ya mencionamos, cuando tomamos una suma
ponderada de probabilidades no se obtienen términos de interferencia entre los estados accesibles de la mezcla
estadı́stica.
Ya hemos sugerido una estrategia para estudiar los estados que son una mezcla estadı́stica que es calcular
las predicciones fı́sicas asociadas a cada estado |ψk i ponderando cada estado con su probabilidad para entonces
sumar sobre los estados accesibles. Aunque este método es correcto resulta engorroso en muchos casos. Por otro
lado ante la imposibilidad de describir los estados mezclados por medio de un “vector promedio”, recurriremos
a utilizar un “operador promedio” que denominaremos operador densidad. Comenzaremos el tratamiento con el
caso más sencillo en el cual el estado del sistema es completamente conocido

6.2.2. Estados puros y operador densidad


Cuando el estado inicial es perfectamente conocido solo hay un estado accesible |ψm i de modo que las proba-
bilidades asociadas a los estados están dadas por pk = δkm . En tal caso existe un vector de estado que describe al
sistema en cualquier instante de tiempo X
|ψ (t)i = cn (t) |un i
n
siendo {|un i} una base ortonormal en el espacio de estados, que por simplicidad asumiremos discreta. Si el estado
está normalizado los coeficientes satisfacen la relación
X
|cn (t)|2 = 1 (6.10)
n
250 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL

si A es un observable, sus elementos de matriz en la base {|un i} y su valor esperado cuando el sistema está en el
estado |ψ (t)i están dados por

hun | A |up i = Anp (6.11)


X
hAi (t) = hψ (t)| A |ψ (t)i = hψ (t)| un i hun | A |up i hup |ψ (t)i (6.12)
n,p
X
hAi (t) = c∗n (t) cp (t) Anp ; ck (t) ≡ huk |ψ (t)i (6.13)
n,p

y la evolución de |ψ (t)i se describe con la ecuación de Schrödinger

d
i~ |ψ (t)i = H (t) |ψ (t)i (6.14)
dt
siendo H (t) el Hamiltoniano del sistema. Nótese que el valor esperado de A depende cuadráticamente de los
coeficientes de Fourier como se aprecia en la Ec. (6.13). El producto de coeficientes c∗n (t) cp (t) que aparece en
dicha ecuación se puede escribir en la forma

c∗n (t) cp (t) = hup |ψ (t)i hψ (t)| un i = hup | [|ψ (t)i hψ (t)|] |un i

de modo que este producto es claramente un elemento de la representación matricial del proyector |ψ (t)i hψ (t)|
en la base {|uk i}. Es natural entonces definir un operador ρ (t) en la forma

ρ (t) ≡ |ψ (t)i hψ (t)| (6.15)

que denominaremos operador densidad. Su representación matricial en la base {|uk i} es claramente

ρpn = hup | ρ (t) |un i = c∗n (t) cp (t) (6.16)

mostraremos a continuación que el operador densidad ρ (t), posee la misma información fı́sica que el vector de
estado |ψ (t)i. Para verlo reescribiremos las fórmulas (6.10, 6.13, 6.14) en términos de ρ (t). Sustituyendo (6.16)
en (6.10) tenemos X X X
|cn |2 = c∗n cn = 1 ⇒ ρnn = 1
n n n

de modo que en virtud de la normalización del estado |ψ (t)i en (6.15), la traza del operador densidad es igual a
la unidad
T rρ (t) = 1 (6.17)
teniendo en cuenta las relaciones (6.11, 6.16), la Ec. (6.13) queda
X X X
hAi (t) = c∗n (t) cp (t) Anp = hup | ρ (t) |un i hun | A |up i = hup | ρ (t) A |up i
n,p n,p p
hAi (t) = T r {ρ (t) A} (6.18)

ahora calcularemos la evolución temporal de ρ (t), partiendo de la Ecuación de Schrödinger y su conjugada


   
d d d d
ρ (t) = [|ψ (t)i hψ (t)|] = |ψ (t)i hψ (t)| + |ψ (t)i hψ (t)|
dt dt dt dt
1 1 1 1
= H (t) |ψ (t)i hψ (t)| + |ψ (t)i hψ (t)| H (t) = H (t) ρ (t) − ρ (t) H (t)
i~ (−i~) i~ i~
d 1
ρ (t) = [H (t) , ρ (t)]
dt i~
6.2. OPERADOR DENSIDAD 251

veamos ahora como se escribe la probabilidad P (an ) de obtener el valor an cuando se mide el observable A, en
términos del operador densidad. La Ec. (4.8) nos muestra que P (an ) es el valor esperado del proyector Pn sobre
el autoespacio generado por an
P (an ) = hψ (t)| Pn |ψ (t)i = hPn i (6.19)
y usando (6.18) en (6.19) se obtiene
P (an ) = hPn i = T r {Pn ρ (t)} (6.20)
otras propiedades del operador densidad se siguen directamente de su definición Ec. (6.15)
ρ† (t) = ρ (t) ; ρ2 (t) = ρ (t) ; T rρ2 (t) = 1
En resumen, hemos encontrado las siguientes expresiones para el operador densidad y su relación con los
observables fı́sicos

hAi (t) = T r {ρ (t) A} ; P (an ) = T r {Pn ρ (t)} (6.21)


d
i~ ρ (t) = [H (t) , ρ (t)] (6.22)
dt
T rρ = 1, ρ† (t) = ρ (t) (6.23)
2 2
ρ (t) = ρ (t) ; T rρ (t) = 1 (6.24)

la segunda de las Ecs. (6.21) nos expresa la conservación de la probabilidad en el lenguaje del operador densidad.
Veremos que estas ecuaciones serán también válidas en el caso de estados mezclados, excepto las Ecs. (6.24), las
cuales provienen del hecho de que para estados puros, el operador densidad es un proyector.
Para el caso de estados puros, el formalismo de operador densidad es totalmente equivalente al de vectores
de estado. No obstante, el formalismo de operador densidad posee algunas ventajas incluso para estudiar estados
puros. Por ejemplo, los estados fı́sicamente equivalentes |ψ (t)i y eiθ |ψ (t)i están asociados a un solo operador
densidad ρ (t) = |ψ (t)i hψ (t)| de modo que el operador densidad remueve la arbitrariedad introducida por la
fase en el vector de estado. Por otra parte, las Ecs. (6.21, 6.22, 6.23) muestran que las fórmulas básicas para los
observables son lineales con respecto al operador densidad ρ (t). En contraste, las Ecs. (6.12, 6.19) son cuadráticas
en el vector de estado |ψ (t)i. Veremos que la linealidad simplificará el tratamiento considerablemente.

6.2.3. Mezcla estadı́stica de estados: estados no puros


Estudiaremos ahora la incorporación del operador densidad para la caracterización de estados mezclados, en
los cuales no es posible una caracterización por vectores de estado. Sea pn la probabilidad de encontrar al sistema
en el estado accesible |ψn i. Estas probabilidades {pk } son números reales que satisfacen las condiciones
X
0 ≤ pk ≤ 1 ; pk = 1 (6.25)
k

veamos como calcular la probabilidad P (an ) de que al medir el observable A se obtenga el valor an . Comenzaremos
por evaluar la probabilidad Pk (an ) de obtener el valor an del observable A, cuando el sistema se encuentra en el
estado |ψk i, puesto que tal probabilidad sale directamente de los postulados

Pk (an ) = hψk | Pn |ψk i


para obtener P (an ) debemos entonces ponderar esta probabilidad con la probabilidad pk de que el sistema esté
en el estado |ψk i 2 , para luego sumar sobre todos los estados accesibles
X
P (an ) = pk Pk (an ) (6.26)
k
2
Esto nos da la probabilidad de que ocurran simultáneamnte dos hechos: (a) que el estado del sistema sea |ψk i y (b) que el valor
obtenido en la medida del observable A sea an .
252 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL

Pk (an ) es una probabilidad asociada a un estado puro (con vector de estado |ψk i) de modo que podemos evaluarla
aplicando la Ec. (6.20)
Pk (an ) = T r {ρk Pn } (6.27)
siendo ρk = |ψk i hψk | el operador densidad asociado al vector de estado |ψk i. Para obtener P (an ) en términos de
los operadores densidad ρk sustituı́mos (6.27) en (6.26)
( )
X X
P (an ) = pk T r {ρk Pn } = T r pk ρk Pn (6.28)
k k

obsérvese que si definimos X


ρ (t) ≡ pk ρk (t) (6.29)
k
y sustituı́mos esta definición en (6.28), obtendremos una expresión para estados mezclados análoga a la Ec. (6.20)
para estados puros
P (an ) = T r {ρPn } (6.30)
es natural entonces definir a ρ en la Ec. (6.29), como el operador densidad asociado al sistema en un estado
mezclado. Nótese que ρ es el promedio ponderado de los operadores ρk asociados a estados puros.

6.2.4. Propiedades generales del operador densidad


Derivaremos las propiedades del operador densidad para estados mezclados. Obviamente, tales propiedades
deben contener como caso particular las propiedades del operador densidad para estados puros, para lo cual debe
hacerse pk = δkm . Calculemos primero la traza de ρ
" #
X X X
T rρ = T r pk ρk = pk T rρk = pk = 1
k k k

donde hemos usado las Ecs. (6.29, 6.17, 6.25). La expresión para la probabilidad Ec. (6.30) coincide con la expresión
para estados puros, con la extensión apropiada del operador densidad Ec. (6.29). Veamos lo que ocurre con el
valor esperado de un observable
(" # )
X X X
hAi = pk hAk i = pk T r {ρk A} = T r pk ρk A
k k k
hAi = T r {ρA}
esto también se puede ver usando la Ec. (6.30) en la forma
( )
X X X
hAi = an P (an ) = an T r {ρPn } = T r ρ an Pn = T r {ρA}
n n n

donde hemos usado el teorema espectral Ec. (1.98), Pág. 52. Calculemos ahora la evolución temporal del operador
densidad para estados mezclados. Para ello asumiremos que a diferencia del estado del sistema, su Hamiltoniano
está bien definido. En otras palabras, el sistema como tal está perfectamente definido aunque no lo esté su estado.
Puede verse fácilmente que si en el tiempo t0 el sistema tiene una probabilidad pk de estar en el estado |ψk i
entonces en un tiempo posterior t, tiene la misma probabilidad de estar en el estado |ψk (t)i 3 . Si el sistema está
3
Esto se puede ver teniendo en cuenta que la probabilidad de que en el tiempo t el sistema esté en el estado |ψk (t)i es la composición
de dos probabilidades: (i) La probabilidad pk de que en t0 el sistema esté en el estado |ψk (t0 )i y (ii) la probabilidad pt de que estando
el sistema en el estado |ψk (t0 )i en t0 , quede en el estado |ψk (t)i en el tiempo posterior t. La probabilidad total es el producto de las
dos probabilidades. Sin embargo, la probabilidad del segundo evento es pt = 1 debido a la naturaleza determinista de la ecuación de
Schrödinger. Nótese que para que el segundo evento sea determinista, es necesario que el Hamiltoniano del sistema esté bien definido
(y por tanto la Ec. de Schrödinger), aunque el estado inicial no esté bien definido.
6.2. OPERADOR DENSIDAD 253

en el estado |ψk i (puro) en t0 , la evolución temporal está dada por la ecuación de Schrödinger

d
i~ |ψk (t)i = H (t) |ψk (t)i ; |ψk (t0 )i = |ψk i
dt
el operador densidad en el tiempo t está dado por
X
ρ (t) = pk ρk (t) (6.31)
k

donde hemos usado el hecho ya mencionado de que pk no evoluciona en el tiempo. Usando (6.22, 6.31) encontramos
que
" #
dρ (t) X dρk (t) X 1 1 X 1
= pk = pk [H (t) , ρk (t)] = H (t) , pk ρk (t) = [H (t) , ρ]
dt dt i~ i~ i~
k k k
dρ (t)
i~ = [H (t) , ρ]
dt
nótese que hemos usado la linealidad de las Ecs. (6.22, 6.31) con respecto a ρk (t) para obtener la evolución
temporal de ρ. Vemos entonces que la ecuación de evolución temporal es totalmente análoga a la obtenida para
estados puros Ec. (6.22).
Nótese sin embargo, que ρ definido por (6.31) no es un proyector (a menos que pk = δkm , en cuyo caso tenemos
un estado puro). Se puede verificar que cuando el estado es mezclado i.e. pk 6= δkm tenemos que

ρ2 6= ρ ; T rρ2 < 1 (6.32)

y que verificando una sola de las ecuaciones (6.24) nos dice que el sistema está en un estado puro. En conclusión,
utilizando la definición (6.31) del operador densidad ρ para estados mezclados, se obtienen las Ecs. (6.21-6.23),
pero las Ecs. (6.24) para estados puros son reemplazadas por las Ecs. (6.32) para estados mezclados.
Demostraremos adicionalmente que ρ es un operador positivo, en primer lugar es claro que ρ es hermı́tico puesto
que pk son números reales no negativos y cada ρk es hermı́tico. Adicionalmente, si tomamos un ket arbitrario |ui
podemos escribir
X X X
hu| ρ |ui = pk hu| ρk |ui = pk hu| ψk ihψk |ui = pk |hu| ψk i|2
k k k
hu| ρ |ui ≥ 0 (6.33)

donde hemos usado el hecho de que las probabilidades pk son no negativas. Esto demuestra que ρ es un operador
positivo.
Resumimos estos resultados en la siguiente forma: sea un sistema que está en una mezcla estadı́stica de estados
con estados accesibles {|ψk i}, cada uno de ellos asociado a una probabilidad {pk }, definimos el operador densidad
ρ con las siguientes propiedades
X
ρ (t) ≡ pk ρk (t) ; ρk (t) ≡ |ψk i hψk | (6.34)
k
ρ = ρ† ; T rρ = 1 ; ρ es un operador positivo (6.35)
2 2
ρ (t) = ρ (t) ; T rρ (t) = 1 para estados puros (i.e. pk = δkm ) (6.36)
ρ2 (t) 6= ρ (t) ; T rρ2 (t) < 1 para estados mezclados (i.e. pk 6= δkm ) (6.37)
hAi (t) = T r {ρ (t) A} ; P (an ) = T r {Pn ρ (t)} (6.38)
d
i~ ρ (t) = [H (t) , ρ (t)] (6.39)
dt
254 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL

6.2.5. Populaciones y coherencias


Veremos ahora el significado Fı́sico de los elementos matriciales ρnp de ρ en una cierta base {|un i} de vectores
propios asociados a un cierto observable A que por simplicidad asumimos no degenerado. Consideremos primero
los elementos diagonales ρnn . De acuerdo con (6.34) estos elementos están dados por
X X X X
ρnn = pk [ρk ]nn = pk [|ψk i hψk |]nn = pk hun |ψk i hψk | un i = pk |hun |ψk i|2
k k k k
X 2

ρnn = pk c(k)
n ; c(k)
n ≡ hun |ψk i (6.40)
k

(k) 2
los factores cn son cantidades positivas que fı́sicamente se interpretan de la siguiente manera: Si el estado del

(k) 2
sistema es |ψk i y si se mide el observable A cuyos vectores propios están dados por la base {|un i}, entonces cn
es la probabilidad de que el sistema quede preparado en el estado |un i después de la medida de A 4 .
Ahora bien, la Ec. (6.40), nos dice que ρnn es la suma ponderada (a través de las probabilidades asociadas a
los estados) de las probabilidades arriba mencionadas. En otras palabras, ρnn representa la probabilidad promedio
de encontrar al sistema en el estado |un i. Este promedio surge de la indeterminación que tenemos sobre el estado
inicial del sistema. Por las razones anteriores, ρnn se conoce como la populación del estado |un i; puesto que si
realizáramos la misma medida un número N de veces para sistemas idénticos bajo las mismas condiciones iniciales5
con N → ∞, entonces un número N ρnn de sistemas estarán en el estado |un i. Es claro además de la Ec. (6.40),

(k) 2
que ρnn es un número real positivo, igual a cero solo si todos los cn son cero.
Con un cálculo muy similar se encuentran los elementos no diagonales de ρ en la base {|un i}
X
ρnp = pk c(k)
n cp
(k)∗
; c(k)
n ≡ hun |ψk i (6.41)
k

(k) (k)∗
los términos cruzados cn cp son del mismo tipo que los estudiados en la sección 5.9.1. Por tanto, ellos expresan
los efectos de interferencia entre los estados |un i y |up i que pueden surgir cuando el estado |ψk i es una superposición
lineal coherente de éstos estados. La Ec. (6.41) nos dice que ρnp es el promedio de éstos términos cruzados tomados
sobre todos los estados accesibles de la mezcla estadı́stica. A diferencia de las populaciones, ρnp se puede anular
incluso si los términos cruzados no son nulos, esto se debe a que estos términos cruzados son números complejos
(y no números reales no negativos como ocurre con los ρnn ). Si un ρnp es cero, significa que hay una cancelación
estadı́stica de los efectos de interferencia entre los estados |un i y |up i. Por otro lado, si ρnp no es cero, decimos
que existe cierta coherencia entre éstos estados. Por esta razón, a los elementos no diagonales ρnp suele llamárseles
coherencias.
Es importante mencionar que la distinción entre populaciones y coherencias depende de la base {|un i} escogida
en el espacio de estados, o en otras palabras del observable A para el cual construı́mos la base {|un i} de vectores
propios. Puesto que ρ es hermı́tico, es posible encontrar una base ortonormal {|χl i} donde ρ sea diagonal, ρ se
puede escribir entonces en la forma X
ρ= πl |χl i hχl |
l
P n (k) 2
4
Si existe degeneración, de modo que A uin = an uin , solo podremos decir que gi=1 cn,i es la probabilidad de que al medir el
observable A el sistema quede en un estado que pertenece al subespacio Ean . En otras palabras, es la probabilidad de que al medir A
el sistema quede en algún estado asociado al valor propio an . Sin embargo, el estado especı́fico no es único, ya que depende del estado
del sistema antes de la medida cuando hay degeneración.
5
En este caso, las mismas condiciones iniciales no significan que el sistema parta siempre del mismo estado |ψk i. Lo que significa es
que en el momento inicial para cada experimento, el sistema posee los mismo estados accesibles {|ψk i} con las mismas ponderaciones
{pk } para éstos. Podemos decir que el sistema está en la misma condición mezclada inicial, ya que para cada experimento, el operador
densidad es el mismo en el tiempo inicial.
6.3. APLICACIONES DEL OPERADOR DENSIDAD 255

siendo πl los valores propios de ρ yP|χl i sus vectores propios. Dado que ρ es positivo, sus valores propios son reales
no-negativos y puesto que T rρ = l πl = 1 tenemos que
X
0 ≤ πl ≤ 1 ; πl = 1
l

por tanto se puede considerar que ρ describe una mezcla estadı́stica de sus propios autoestados |χl i con probabi-
lidades πl . Claramente, no hay coherencias entre los estados {|χl i}.
Usando la Ec. (6.33) se puede demostrar que

ρnn ρpp ≥ |ρnp |2

de esto se obtiene en particular, que ρ solo puede tener coherencias entre estados cuya populación es no nula.
Esto es razonable ya que implica que un estado puede generar una coherencia con otro, solo si forma parte de los
estados accesibles del sistema.
Un caso interesante ocurre cuando la base elegida {|un i} son autovectores del Hamiltoniano, y éste último no
depende explı́citamente del tiempo. Por simplicidad, asumiremos que el Hamiltoniano es no degenerado. Tenemos
entonces que
H |un i = En |un i
usando la Ec. (6.39) y teniendo en cuenta que |un i y En no dependen del tiempo (ya que el Hamiltoniano no
depende del tiempo) se encuentra que
 
d d
hun | i~ ρ |up i = hun | [H, ρ] |up i ⇒ i~ hun | ρ |up i = hun | [Hρ − ρH] |up i
dt dt
dρnp dρnp
⇒ i~ = hun | [En ρ − ρEp ] |up i ⇒ i~ = (En − Ep ) hun | ρ |up i
dt dt
dρnp
i~ = (En − Ep ) ρnp
dt
conviene colocar los términos diagonales y no diagonales por aparte

dρnn dρnp
i~ = 0 ; i~ = (En − Ep ) ρnp
dt dt
de lo cual se deduce
i
ρnn (t) = constante ; ρnp = e ~ (Ep −En )t ρnp (0)
de modo que las populaciones relativas a estados propios del Hamiltoniano son constantes, y sus coherencias
oscilan a las frecuencias de Bohr del sistema.

6.3. Aplicaciones del operador densidad


6.3.1. Sistema en equilibrio termodinámico
Este ejemplo es tomado de la mecánica estadı́stica cuántica. Consideremos un sistema termodinámico en
equilibrio con un baño térmico a temperatura absoluta T . Se puede mostrar que su operador densidad es
n o
ρ = Z −1 e−H/kT ; Z ≡ T r e−H/kT

donde H es el Hamiltoniano del sistema, k la constante de Boltzmann y Z es una función de normalización


(conocida como función de partición) para mantener la traza de ρ igual a la unidad.
256 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL

Vamos a calcular las populaciones y coherencias para la base ortonormal {|un i} asociada a los autoestados del
Hamiltoniano. Los elementos matriciales de ρ estarán dados por

ρnp = Z −1 hun | e−H/kT |up i = Z −1 hun | e−Ep /kT |up i = Z −1 e−Ep /kT hun | up i
ρnp = Z −1 e−Ep /kT δnp

vemos entonces que en el equilibrio termodinámico, las populaciones de los estados estacionarios |un i son funciones
exponencialmente decrecientes de la energı́a, además el decrecimiento es más rápido a medida que disminuye la
temperatura. Por otro lado, las coherencias entre los estados estacionarios son nulas.

6.3.2. Descripción de subsistemas con base en observables globales de un sistema: el con-


cepto de traza parcial
Volveremos a estudiar sistemas consistentes en dos subsistemas (1) y (2) como se describió en la sección 6.1.
Sea E (1) [E (2)] el espacio de estados del subsistema (1) [(2)], y sea {|un (1)i} [{|vp (2)i}] una base ortonormal en
el espacio E (1) [E (2)]. El espacio de estados para el sistema global E y una base ortonormal para dicho espacio
se obtienen como

E = E (1) ⊗ E (2) ; {|un (1)i ⊗ |vp (2)i} ≡ {|un (1)i |vp (2)i} ≡ {|un (1) vp (2)i}

Sea un observable A que actúa en el espacio E. Ya hemos estudiado como extender un operador que proviene
de uno de los espacios factores. Ahora estudiaremos un proceso inverso: con base en el operador A que actúa en
el espacio producto, encontraremos un operador A (1) que actúa en el espacio E (1), y que nos permitirá hacer
predicciones fı́sicas sobre el sistema (1). Esta operación se denominará la traza parcial con respecto al sistema (2).
Naturalmente, se puede inducir análogamente el operador A (2) sobre el sistema (2) usando la traza parcial con
respecto al sistema (1).
Introduciremos el operador A (1) por medio del operador A, definiendo los elementos matriciales de A (1) en
la base {|un (1)i} de E (1)
( )
X X
hun (1)| A (1) |un′ (1)i ≡ hun (1) vp (2)| A |un′ (1) vp (2)i = hun (1)| [hvp (2)| A |vp (2)i] |un′ (1)i (6.42)
p p

como esta definición es válida para cualquier base {|un (1)i} de E (1) tenemos
X
A (1) ≡ [hvp (2)| A |vp (2)i] (6.43)
p

si definimos la traza parcial con respecto al sistema (2) de un operador A sobre E en la forma
X
T r2 A ≡ hvp (2)| A |vp (2)i (6.44)
p

podemos escribir la definición de A (1), Ec. (6.43) en la forma

A (1) ≡ T r2 A (6.45)

para comprender el concepto de traza parcial, escribamos la traza “normal” de un operador A en términos de la
base {|un (1)i |vp (2)i} de E XX
T rA = hun (1) vp (2)| A |un (1) vp (2)i (6.46)
n p

comparando (6.46) con (6.44) vemos que la apariencia de las dos ecuaciones es similar, excepto que en (6.44) solo
se suma sobre la base del sistema (2). Por esta razón, hablamos de la traza parcial de A con respecto al sistema
6.3. APLICACIONES DEL OPERADOR DENSIDAD 257

(2). Nótese además que la traza parcial con respecto al sistema (2) de un operador A sobre E, es un operador
en E (1). Esta es una gran diferencia con respecto a la traza normal, la cual es un número complejo. Para ver que
dicha traza parcial es un operador sobre E (1), aplicaremos esta traza parcial sobre un ket |ψ (1)i ∈ E (1)
X X
A (1) |ψ (1)i ≡ (T r2 A) |ψ (1)i ≡ hvm (2)| A |vm (2)i |ψ (1)i = hvm (2)| {A |vm (2) ψ (1)i}
m m

y dado que A |vm (2) ψ (1)i es un ket en el espacio E = E (1) ⊗ E (2), se puede escribir como una superposición de
la base {|un (1)i |vp (2)i} de E, por tanto
( ) ( )
X X X X
A (1) |ψ (1)i = hvm (2)| cnp |un (1)i |vp (2)i = hvm (2)| vp (2)i cnp |un (1)i
m n,p m n,p
X
⇒ A (1) |ψ (1)i = cnp |un (1)i ≡ |χ (1)i ∈ E (1)
n,p

como se querı́a demostrar. Veamos ahora como se escribe la traza normal de A en términos de las trazas parciales
sobre los sistemas (1) y (2).
( )
XX X X
T rA = hun (1)| {hvp (2)| A |vp (2)i} |un (1)i = hun (1)| hvp (2)| A |vp (2)i |un (1)i
n p n p
X
= hun (1)| {T r2 A} |un (1)i = T r1 (T r2 A)
n

asumiendo que las sumatorias pueden intercambiarse encontramos que

T rA = T r1 (T r2 A) = T r2 (T r1 A) (6.47)

Es fácil ver que la traza parcial con respecto al sistema (1) de un operador sobre E (1) es un número complejo, e
igualmente cuando tomamos el sistema (2). Por esta razón, si tomamos la traza parcial con respecto a (1) y luego
la traza parcial con respecto a (2) (o viceversa) de un observable A sobre E, el resultado es un número complejo
como se vé en la Ec. (6.47).
Obtendremos ahora la traza (normal) de A (1) (calculada sobre E (1)). Para ello usamos la Ec. (6.43), con lo
cual se obtiene
" #
X X X XX
T rA (1) = hun | A (1) |un i = hun | hvp (2)| A |vp (2)i |un i = hun vp (2)| A |un vp (2)i
n n p n p
T rA (1) = T rA (6.48)

En conclusión la traza de A (calculada sobre E) coincide con la traza de A (1) (calculada sobre E (1)) y obviamente
también coincide con la traza de A (2) (calculada sobre E (2)).
Adicionalmente, es fácil ver a partir de la Ec. (6.43), que si A es hermı́tico entonces A (1) y A (2) también lo
son.

6.3.3. Traza parcial y operador densidad


Una de las aplicaciones de mayor interés del concepto de traza parcial se obtiene cuando lo aplicamos al
operador densidad ρ sobre E = E (1) ⊗ E (2). Puesto que la traza de ρ es igual a la unidad, la traza de ρ (1) y ρ (2)
también lo será, de acuerdo con la Ec. (6.48). Ası́ mismo, los operadores ρ (1) y ρ (2) también serán hermı́ticos y en
general, puede demostrarse que ρ (1) y ρ (2) satisfacen todas las propiedades de un operador densidad establecidas
en la sección 6.2.46 .
6
Sin embargo, la evolución temporal de ρ (1) ó ρ (2) no viene en general dada por la Ec. (6.39).
258 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL

Sea además A (1) un observable definido sobre E (1). La Ec. (6.38) nos dice que el valor esperado del observable
e
A (1) ≡ A (1) ⊗ I2 sobre E está dado por
D E n o X h i
Ae (1) = T r ρA e (1) = e (1) |un (1) vp (2)i
hun (1) vp (2)| ρA
n,p
 
X X

= hun (1) vp (2)| ρ un′ (1) vp′ (2) un′ (1) vp′ (2) (A (1) ⊗ I2 ) |un (1) vp (2)i
n,p
 ′ ′ 
n ,p
XX

= hun (1) vp (2)| ρ un′ (1) vp′ (2) hun′ (1)| A (1) |un (1)i vp′ (2) I2 |vp (2)i
n,p n′ ,p′
XX
= hun (1) vp (2)| ρ un′ (1) vp′ (2) hun′ (1)| A (1) |un (1)i δpp′
n,p n′ ,p′

e (1) queda
con lo cual es valor esperado de A
" #
D E X X
e (1)
A = hun (1) vp (2)| ρ |un′ (1) vp (2)i hun′ (1)| A (1) |un (1)i
n,n′ p
" #
D E X X
e (1)
A = hun (1)| hvp (2)| ρ |vp (2)i |un′ (1)i hun′ (1)| A (1) |un (1)i
n,n′ p

pero el factor dentro de paréntesis cuadrados es el elemento matricial de ρ (1), como se observa en la definición
(6.43). Con lo cual tenemos
D E X XX X
Ae (1) = [hun (1)| ρ (1) |un′ (1)i] hun′ (1)| A (1) |un (1)i = [ρ (1)]nn′ [A (1)]n′ n = [ρ (1) A (1)]nn
n,n′ n n′ n
D E
Ae (1) = T r [ρ (1) A (1)] (6.49)

comparando con la expresión


D E (6.38) vemos que la traza parcial ρ (1) nos permite calcular los valores esperados de
e
observables del tipo A (1) como si el sistema (1) estuviera aislado y tuviera a ρ (1) como su operador densidad.
Similarmente, obtenemos una expresión análoga a la segunda de las Ecs. (6.38) para calcular probabilidades
asociadas a observables del tipo A e (1), es decir para resultados de medidas realizadas solo sobre el sistema (1).
En la sección 6.1.2, vimos que no es posible asignar un vector de estado al sistema (1), si el estado del sistema
global (1) + (2) no está descrito por un producto tensorial de estados de E (1) y E (2). Esto nos muestra otra
ventaja del operador densidad: independientemente de que el sistema global esté o no esté en un producto de
estados, o de que el sistema esté en un estado puro o mezclado, siempre es posible construı́r un operador densidad
ρ (1) asociado al subsistema (1), utilizando las trazas parciales. Esto permite el cálculo de todas las cantidades
asociadas solo con el sistema (1). En contraste, para que podamos asignar un vector de estado a cada subsistema
del sistema global, se requiere que dicho sistema global esté en un estado puro y que el vector de estado que lo
describe sea un producto tensorial de vectores de cada subsistema. 
Por otro lado, se puede demostrar a partir de la Ec. (6.42) que T r ρ2 (1) no es en general igual a la unidad,
incluso si T rρ = T rρ2 = 1. Fı́sicamente, esto significa que incluso si ρ describe un estado puro, los operadores
densidad ρ (1) y ρ (2) obtenidos por trazas parciales no necesariamente describen estados puros. En otras palabras,
incluso si se puede asignar un vector de estado al sistema global, no es en general posible asignar un vector de
estado al subsistema (1) [o al (2)], excepto en el caso en el cual el sistema global está en un estado producto.
Lo anterior nos induce a estudiar el caso en el cual el sistema global está en un estado producto

|ψi = |ϕ (1)i ⊗ |χ (2)i = |ϕ (1) χ (2)i (6.50)


6.3. APLICACIONES DEL OPERADOR DENSIDAD 259

puesto que esto implica un estado puro, el operador densidad viene dado por la Ec. (6.15)

ρ = |ϕ (1) χ (2)i hϕ (1) χ (2)| = [|ϕ (1)i hϕ (1)|] ⊗ [|χ (2)i hχ (2)|]

esto se puede escribir en la forma

ρ = σ (1) ⊗ τ (2) (6.51)


σ (1) ≡ |ϕ (1)i hϕ (1)| , τ (2) ≡ |χ (2)i hχ (2)| (6.52)

Calculando las trazas parciales a partir de (6.44) se tiene que


X X
T r2 {σ (1) ⊗ τ (2)} ≡ hvp (2)| [σ (1) ⊗ τ (2)] |vp (2)i = σ (1) hvp (2)| τ (2) |vp (2)i
p p
T r2 {σ (1) ⊗ τ (2)} = σ (1) T r [τ (2)] = σ (1)

y similarmente para T r1 {σ (1) ⊗ τ (2)}, con lo cual se obtiene

T r2 {σ (1) ⊗ τ (2)} = σ (1) ; T r1 {σ (1) ⊗ τ (2)} = τ (2) (6.53)

por tanto si el operador densidad está descrito por (6.51), tal operador representa una simple yuxtaposición de un
sistema (1) descrito por el operador densidad σ(1), y un sistema (2) descrito por τ (2). No hay correlación entre
estos dos subsistemas.
Nótese que los resultados arriba mencionados dependen de la Ec. (6.51), pero no de las Ecs. (6.50, 6.52). Esto
implica que la validez de (6.53) se extiende a un contexto más general, ya que es posible encontrar estados del
sistema en los cuales ρ se puede factorizar en la forma (6.51), pero en donde los operadores factor no necesariamente
son de la forma descrita por (6.52), es decir σ (1) y τ (2) pueden corresponder a estados puros y/o mezclados. Si
al menos uno de los operadores σ (1) , τ (2) corresponde a un estado mezclado, el estado del sistema no estará
descrito por un vector de la forma (6.50). Lo anterior implica la simple yuxtaposición de dos sistemas cada uno
en un estado mezclado, pero que no están correlacionados entre sı́, y el sistema global será en general mezclado.
Capı́tulo 7

Formulaciones alternativas de la mecánica


cuántica

7.1. Operador evolución temporal: definición y propiedades


En la sección 3.3.2 vimos que la transformación que nos lleva de un estado inicial |ψ (t0 )i al estado |ψ (t)i del
mismo sistema en un instante posterior t, es una transformación lineal descrita por la Ec. (3.23)

|ψ (t)i = U (t, t0 ) |ψ (t0 )i (7.1)

por otro lado, vimos en la sección 3.3.3, que los kets |ψ (t)i poseen la misma norma para todo tiempo, propiedad
fundamental para obtener conservación de la probabilidad. Esto implica entonces que el operador U (t, t0 ) debe
ser unitario (debe conservar la norma). Caracterizar este operador conocido como operador evolución temporal,
es en todo sentido equivalente fı́sicamente a resolver la ecuación de Schrödinger. Una primera propiedad que se
desprende directamente de la definición Eq. (7.1) es que

U (t0 , t0 ) = I (7.2)

escribiendo la Ec. de Schrödinger en el lenguaje de los kets y usando la Eq. (7.1) se tiene
d
i~ |ψ (t)i = H (t) |ψ (t)i (7.3)
 dt


i~ U (t, t0 ) |ψ (t0 )i = H (t) U (t, t0 ) |ψ (t0 )i
∂t
y teniendo en cuenta que el estado inicial es en principio arbitrario, podemos escribir

i~ U (t, t0 ) = H (t) U (t, t0 ) (7.4)
∂t
vemos que (7.4) es una ecuación diferencial de primer orden para U (t, t0 ) que debe cumplir la condición inicial
(7.2). Las Ecs. (7.2, 7.4) se pueden sintetizar en una sola ecuación integral
Z
i t  
U (t, t0 ) = I − H t′ U t′ , t0 dt′
~ t0
La Ec. (7.1) es válida para todos los valores de t y t0 (de momento no hemos introducido causalidad), por tanto
podemos escribir

|ψ (t1 )i = U (t1 , t0 ) |ψ (t0 )i (7.5)


|ψ (t2 )i = U (t2 , t1 ) |ψ (t1 )i (7.6)

260
7.1. OPERADOR EVOLUCIÓN TEMPORAL: DEFINICIÓN Y PROPIEDADES 261

y sustituyendo (7.5) en (7.6) se tiene


|ψ (t2 )i = U (t2 , t1 ) [U (t1 , t0 ) |ψ (t0 )i]
|ψ (t2 )i = [U (t2 , t1 ) U (t1 , t0 )] |ψ (t0 )i (7.7)
de la misma forma, la acción de U (t2 , t0 ) se puede escribir usando (7.1)
|ψ (t2 )i = U (t2 , t0 ) |ψ (t0 )i (7.8)
y puesto que |ψ (t2 )i y |ψ (t0 )i son arbitrarios, la comparación de las Ecs. (7.7, 7.8) nos da
U (t2 , t0 ) = U (t2 , t1 ) U (t1 , t0 ) (7.9)
este procedimiento se puede generalizar para escribir
U (tn , t0 ) = U (tn , tn−1 ) U (tn−1 , tn−2 ) . . . U (t2 , t1 ) U (t1 , t0 ) (7.10)
donde t0 , t1 , . . . , tn son arbitrarios. Si asumimos causalidad i.e. t0 < t1 < . . . < tn , la Ec. (7.10) se puede interpretar
diciendo que el sistema evoluciona desde t0 pasando progresivamente por los estados intermedios t1 , t2 , . . .,tn−1
hasta llegar a tn . Si usamos t0 = t2 en (7.9) y tenemos en cuenta (7.2) llegamos a
U (t2 , t2 ) = I = U (t2 , t1 ) U (t1 , t2 )
U (t1 , t2 ) = U −1 (t2 , t1 ) (7.11)
es importante insistir en que t1 y t2 son arbitrarios y no se ha asumido causalidad. La relación (7.11) es sin
embargo muy lógica desde el punto de vista causal.
Veremos como es el operador evolución temporal infinitesimal, es decir el que conecta a un tiempo t con un
tiempo t + dt, para ello escribimos la ecuación de Schrödinger (7.3) en forma diferencial
i
i~ d |ψ (t)i = H (t) |ψ (t)i dt ⇒ [|ψ (t + dt)i − |ψ (t)i] = − H (t) |ψ (t)i dt ⇒
  ~
i
|ψ (t + dt)i = I − H (t) dt |ψ (t)i (7.12)
~
de la definición de operador evolución temporal se tiene
|ψ (t + dt)i = U (t + dt, t) |ψ (t)i (7.13)
comparando (7.12) con (7.13) se tiene que
 
i
U (t + dt, t) = I − H (t) dt
~
vemos que el operador infinitesimal de evolución temporal es unitario a primer orden ya que H es hermı́tico
 
† i
U (t + dt, t) = I + H (t) dt ⇒
~
  
† i i
U (t + dt, t) U (t + dt, t) = I − H (t) dt I + H (t) dt
~ ~
 
U (t + dt, t) U † (t + dt, t) = I + O (dt)2

una transformación unitaria finita se obtiene con sucesivas transformaciones infinitesimales, este proceso de inte-
gración solo requiere términos de primer orden ya que los de segundo orden continúan yendo a cero cuando se
toma el lı́mite. Por tanto, el operador finito de evolución temporal será también unitario como tenı́a que ser
U † (t1 , t2 ) = U −1 (t1 , t2 ) = U (t2 , t1 )
262 CAPÍTULO 7. FORMULACIONES ALTERNATIVAS DE LA MECÁNICA CUÁNTICA

7.1.1. Operador evolución temporal para sistemas conservativos


Cuando H no es función del tiempo, la Ec. (7.4) junto con la condición inicial (7.2) se pueden integrar para
obtener1
U (t, t0 ) = e−iH(t−t0 )/~ (7.14)
es fácil verificar que este operador es unitario y que U (t0 , t) = U −1 (t, t0 ). La unitariedad de U (t, t0 ) (y por tanto
la conservación de la probabilidad) está directamente relacionada con la hermiticidad de H. Una vez más, vemos el
papel clave de la hermiticidad del Hamiltoniano en la conservación de la probabilidad. A manera de consistencia,
vamos a encontrar la Ec. (5.67) a partir de la Ec. (5.66) aplicando el operador evolución temporal para sistemas
conservativos. La Ec. (5.66) es una expansión del estado inicial del sistema en la base |ϕn,τ i de estados propios
del Hamiltoniano XX
|ψ (t0 )i = cn,τ (t0 ) |ϕn,τ i ; cn,τ (t0 ) ≡ hϕn,τ |ψ (t0 )i (7.15)
n τ

al aplicar el operador evolución temporal a un |ϕn,τ i queda

X∞  k X∞  k
1 i 1 i
U (t, t0 ) |ϕn,τ i = e−iH(t−t0 )/~ |ϕn,τ i = − H (t − t0 ) |ϕn,τ i = − (t − t0 ) H k |ϕn,τ i
k! ~ k! ~
k=0 k=0

X  k X∞  k
1 i k 1 i
= − (t − t0 ) En |ϕn,τ i = − En (t − t0 ) |ϕn,τ i
k! ~ k! ~
k=0 k=0
−iEn (t−t0 )/~
U (t, t0 ) |ϕn,τ i = e |ϕn,τ i (7.16)

aplicando U (t, t0 ) a ambos lados de la Ec. (7.15) y teniendo en cuenta que este operador es lineal tenemos
XX
U (t, t0 ) |ψ (t0 )i = cn,τ (t0 ) U (t, t0 ) |ϕn,τ i
n τ
XX
|ψ (t)i = cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i (7.17)
n τ

donde hemos usado (7.16). Esta ecuación coincide con (5.67).

7.1.2. Observaciones adicionales sobre el operador evolución temporal (opcional)


Cuando H depende explı́citamente del tiempo podrı́amos pensar en analogı́a con la ecuación (7.14), que el
operador evolución temporal es igual al operador V (t, t0 ) dado por
Rt
− ~i H(t′ ) dt′
V (t, t0 ) = e t0

sin embargo, esto no es correcto en general, dado que la derivada de un operador de la forma eF (t) no es en general
igual a F ′ (t) eF (t) (ver Eq. 1.148, pag. 79) de modo que en este caso

∂V (t, t0 )
i~ 6= H (t) V (t, t0 )
∂t
Consideremos ahora los experimentos descritos en la sección 5.9.3 en los cuales se llegaba desde el mismo
estado inicial |ua i hasta el mismo estado final |vc i de dos maneras: (1) Efectuando medidas de los observables A
y C obteniendo dichos estados y (2) Efectuando sucesivamente medidas de los observables A, B y C donde para
el estado intermedio se obtiene |wb i. En la discusión de la sección 5.9.3 se asumió que las medidas se hacı́an en
intervalos muy cortos de modo que el sistema no tenı́a tiempo de evolucionar. Ahora asumiremos que las medidas
1
Aplicando la Ec. (1.147) Pág. 78, al operador en (7.14), podemos verificar que se cumple la Ec. (7.4).
7.2. BRAS, KETS Y OBSERVABLES EQUIVALENTES 263

se hacen en intervalos en los cuales la evolución temporal es apreciable. Para el primer caso asumimos que el
sistema está en el estado |ua i en t0 , y |vc i en t2 . Para el segundo caso asumimos que el sistema está en el estado
|ua i en t0 , en el estado |wb i en t1 y finalmente en el estado |vc i en t2 . Es decir t0 , t1 y t2 definen los tiempos en
que se realizan las medidas.
En tal situación, la Ec. (5.86) se convierte en
 2
Pa (c) = hvc | ψ t−
2 i = |hvc | U (t2 , t0 ) |ua i|
2
(7.18)

donde ψ t− 2 es el estado del sistema que evoluciona
 desde |ua i en t0 hasta el instante justo antes de la medida
− +
de C, por eso la notación t2 , es claro que ψ t2 = |vc i (estado justo después de la medida de C). La Ec. (5.87)
queda  2 
Pa (b, c) = hvc | φ t− hwb | ψ t− i 2 = |hvc | U (t2 , t1 ) |wb i|2 |hwb | U (t1 , t0 ) |ua i|2
2 i 1 (7.19)

siendo φ t− 2 el estado del sistema justo antes de la medida de C, cuando el sistema evoluciona a partir del
estado |wb i en t1 . El estado ψ t− 1 describe al sistema justo antes de la medida de B cuando evoluciona desde
|ua i en t0 .
Ahora usando la Ec. (7.9) se tiene

hvc | U (t2 , t0 ) |ua i = hvc | U (t2 , t1 ) U (t1 , t0 ) |ua i


X
hvc | U (t2 , t0 ) |ua i = hvc | U (t2 , t1 ) |wb i hwb | U (t1 , t0 ) |ua i (7.20)
b

sustituyendo (7.20) en la Ec. (7.18), y comparando el resultado con la Ec. (7.19), se puede verificar que al igual
que en la ecuación (5.90) se tiene que X
Pa (c) 6= Pa (b, c)
b

7.2. Bras, kets y observables equivalentes


A través de la discusión de los postulados de la mecánica cuántica y sus consecuencias, hemos observado que
las predicciones de la mecánica cuántica tales como valores accesibles de un observable, probabilidades, valores
esperados del observable etc. están expresados en términos de ecuaciones de valores propios y productos escalares,
es decir expresiones de la forma
A |ηi = a |ηi ; m = hφ| A |ψi (7.21)
donde |ηi , |φi , |ψi se refiere a estados arbitrarios del sistema y A es un observable (operador hermı́tico completo).
Desde este punto de vista los bras, kets y observables (entendidos estos últimos como operadores hermı́ticos
completos) no son cantidades medibles sino solo herramientas para calcular los verdaderos observables fı́sicos
(valores propios y productos escalares). Esto es análogo a lo que ocurre con los potenciales escalar y vectorial en
electrodinámica los cuales son excelentes herramientas pero no corresponden a observables fı́sicos.
Esto indica que si los kets, bras y observables se redefinen de manera que no se alteran los valores propios ni
los productos escalares, tendremos una imagen diferente pero totalmente equivalente fı́sicamente desde el punto
de vista de los postulados. La alternativa más evidente para hacer este cambio de imagen es el uso de operadores
unitarios ya que estos no alteran el valor del producto interno. Vamos a reexpresar el producto interno en (7.21)
insertando operadores identidad a través de un operador unitario I = O† O = OO†
    h i 
hφ| A |ψi = hφ| O† O A O† O |ψi = hφ| O† OAO† [O |ψi]
 

hφ| A |ψi = hOφ| OAO |Oψi (7.22)

ahora redefinimos los operadores, kets y bras en la forma




A′ ≡ OAO† ; ψ ′ ≡ |Oψi = O |ψi ; ψ ′ ≡ hOψ| = hψ| O† (7.23)
264 CAPÍTULO 7. FORMULACIONES ALTERNATIVAS DE LA MECÁNICA CUÁNTICA

y combinando las Ecs. (7.22, 7.23) es claro que




hφ| A |ψi = φ′ A′ ψ ′ (7.24)

adicionalmente puede verificarse que el espectro de valores propios de A′ coincide con el de A, y los vectores
propios de A′ están dados por |η ′ i ≡ O |ηi , siendo |ηi los kets propios de A
 
A |ηi = a |ηi ⇒ OA |ηi = aO |ηi ⇒ OA O† O |ηi = aO |ηi
 
⇒ OAO† [O |ηi] = a [O |ηi]

se deduce entonces que



A |ηi = a |ηi ⇒ A′ η ′ = a η ′ ; A′ ≡ OAO† , η ≡ O |ηi

En conclusion, los nuevos bras, kets y operadores mantienen intactos los valores propios y productos internos
asociados con los observables fı́sicos y por tanto describen la misma Fı́sica que los bras, kets y operadores originales.

7.2.1. La transformada de un operador y sus propiedades


Si tomamos la igualdad expresada en (7.24) para los elementos de una base del espacio


hui | A |uj i = u′i A′ u′j
E

tal igualdad se puede interpretar diciendo que el elemento matricial A′ij de A′ en la base u′j coincide con el
elemento matricial Aij de A en la base |uj i; siendo ambas bases ortonormales (conectadas por una transformación
unitaria). En este contexto se dice que A′ es la transformada del operador A. La transformada A′ posee propiedades
muy útiles, ya vimos que el espectro de ambos operadores es idéntico y sus vectores propios están conectados por
una transformación unitaria. Las siguientes propiedades se obtienen de la definición
†  †  ′
A′ = OAO† = OA† O† = A†

en particular, se obtiene que


†
A = A† ⇔ A′ = A′
de modo que la hermiticidad se preserva con esta relación. Vemos además que la transformada de A está conectada
con A por una transformación de similaridad, con el requerimiento de que el operador que realiza la transformación
sea unitario. Como las transformaciones de similaridad preservan el producto, es claro que
n
A′ = (An )′

y usando la definición para una función F (A) del operador A, Ec. (1.131) se obtiene

F ′ (A) = F A′ (7.25)

donde en este caso F ′ (A) significa la transformada de la función F (A) con respecto al operador O, y no la
derivada de F (A) “con respecto a A” (ver notación en la sección 1.34.1 Eq. 1.137). Para los conmutadores de las
transformadas de dos operadores A y B tenemos
 ′ ′ h i      
A ,B = OAO† , OBO† = OAO† OBO† − OBO† OAO†
   
= OA O† O BO† − OB O† O AO† = OABO† − OBAO† = O (AB − BA) O†
 ′ ′
A ,B = O [A, B] O† = [A, B]′ (7.26)
7.3. LA IMAGEN DE SCHRÖDINGER Y LA IMAGEN DE HEISENBERG 265

de modo que el conmutador de las transformadas es la transformada del conmutador. Si el conmutador es propor-
cional a la identidad (observables conjugados) tenemos

 
[Q, P ] = αI ⇒ Q′ , P ′ = O [Q, P ] O† = αOIO† = αI
 
[Q, P ] = αI ⇒ Q′ , P ′ = [Q, P ] (7.27)

el caso más importante son los observables X, P para los cuales vemos que el conmutador de sus transformadas
X ′ , P ′ , es idéntico al de los operadores originales.

7.3. La imagen de Schrödinger y la imagen de Heisenberg

Denotaremos a los kets, bras y observables originalmente utilizados en la mecánica cuántica como |ψS i , hψS | ,
AS ; indicando que están en la “imagen de Schrödinger”. En esta imagen, los observables básicos X, P no dependen
del tiempo y los observables que se construyen con ellos solo pueden tener dependencia explı́cita con el tiempo
(excluiremos el espı́n por ahora) de modo que AS = AS (X, P, t), simplificaremos la notación a AS = AS (t). La
evolución temporal del estado en la imagen de Schrödinger se obtiene a través de la ecuación de Schrödinger (de
allı́ el nombre de la imagen) o equivalentemente, a través del operador evolución temporal Ec. (7.1)

|ψS (t)i = U (t, t0 ) |ψS (t0 )i ⇒ |ψS (t0 )i = U † (t, t0 ) |ψS (t)i (7.28)

donde hemos tenido en cuenta que U (t, t0 ) es unitario, y por tanto también lo es U † (t, t0 ). Nótese que definiendo
a O ≡ U † (t, t0 ) como el operador unitario para transformar bras, kets y observables, según la Ec. (7.23), vemos
que la Ec. (7.28) nos conduce a que los nuevos bras y kets serán independientes del tiempo. Denotaremos a los
nuevos bras, kets y operadores con el subı́ndice H para indicar “la imagen de Heisenberg”. Usando O ≡ U † (t, t0 )
en las Ecs. (7.23) y aplicando la Ec. (7.28) se obtiene

|ψH i ≡ U † (t, t0 ) |ψS (t)i = |ψS (t0 )i ; hψH | ≡ hψS (t)| U (t, t0 ) = hψS (t0 )| (7.29)

AH ≡ U (t, t0 ) AS (t) U (t, t0 ) (7.30)

la Ec. (7.29) nos muestra que en la imagen de Heisenberg, los kets y bras no poseen evolución temporal y su
valor coincide con el del estado en la imagen de Schrödinger en t0 . Por otro lado, incluso los observables A que en
la imagen de Schrödinger no dependen del tiempo, adquieren dependencia temporal en la imagen de Heisenberg
como se aprecia en la Ec. (7.30). Se tiene entonces que la evolución temporal en la imagen de Heisenberg recae
completamente en los operadores.
Calculemos la evolución temporal del operador AH (t) para un operador arbitrario AS (t). Derivando la Ec.
(7.30) y usando la Ec. (7.4) ası́ como su adjunta, se tiene que

dAH (t) dU † (t, t0 ) dAS (t) dU (t, t0 )


= AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 ) + U † (t, t0 ) AS (t)
dt dt dt dt
dAH (t) 1 † dA S (t)
= − U (t, t0 ) HS† (t) AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 )
dt i~ dt
1
+ U † (t, t0 ) AS (t) HS (t) U (t, t0 )
i~
266 CAPÍTULO 7. FORMULACIONES ALTERNATIVAS DE LA MECÁNICA CUÁNTICA

insertando un operador identidad apropiadamente tenemos


dAH (t) 1 h i dAS (t)
= − U † (t, t0 ) HS (t) U (t, t0 ) U † (t, t0 ) AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 )
dt i~ dt
1 h i
+ U † (t, t0 ) AS (t) U (t, t0 ) U † (t, t0 ) HS (t) U (t, t0 )
i~
dAH (t) 1 h † ih i dAS (t)
= − U (t, t0 ) HS (t) U (t, t0 ) U † (t, t0 ) AS (t) U (t, t0 ) + U † (t, t0 ) U (t, t0 )
dt i~ dt
1 h † ih i
+ U (t, t0 ) AS (t) U (t, t0 ) U † (t, t0 ) HS (t) U (t, t0 )
i~  
dAH (t) 1 † dAS (t) 1
= − HH (t) AH (t) + U (t, t0 ) U (t, t0 ) + AH (t) HH (t)
dt i~ dt i~
 
dAH (t) dAS (t)
i~ = [AH (t) , HH (t)] + i~ (7.31)
dt dt H
una ecuación muy similar a la ecuación para un observable clásico u (q, p) que es función del espacio de fase q, p,
en donde tenemos corchete de Poisson en lugar de conmutador (ver Ec. 5.53, Pág. 222). A manera de consistencia,
veremos que es fácil reproducir la Ec. (5.52) teniendo en cuenta que por construcción

hAi (t) = hψS (t)| AS (t) |ψS (t)i = hψH | AH (t) |ψH i

teniendo en cuenta la Ec. (7.31) y el hecho de que en la imagen de Heisenberg los estados no dependen del tiempo
se tiene
   
d hAi (t) dAH (t) 1 dAS (t)
= hψH | |ψH i = hψH | [AH (t) , HH (t)] + |ψH i
dt dt i~ dt H
  
d hAi (t) 1 dAS (t)
= h[AH (t) , HH (t)]iH + (7.32)
dt i~ dt H H

una vez más, por construcción estas cantidades son iguales al caso en que todo lo evaluamos en la imagen de
Schrödinger, de modo que sustituyendo el subı́ndice H por S en la Ec. (7.32), se reproduce la Ec. (5.52). Nótese
sin embargo, que la expresión (7.31) es más general que la Ec. (5.52) ya que la última es válida solo para valores
esperados en tanto que (7.31) es válida para los operadores como tal.

7.3.1. Algunos sistemas simples en la imagen de Heisenberg


Tomemos el caso de una partı́cula no-relativista unidimensional de masa m sometida a un potencial del tipo
V (XS , t). Usando la Ec. (7.25), tenemos que

PS2 P2
HS (t) = + V (XS , t) ; HH (t) = H + V (XH , t) (7.33)
2m 2m
la Ec. (7.27) nos dice que
[XH , PH ] = [XS , PS ] = i~ (7.34)
sustituyendo (7.33, 7.34) en (7.31) se obtiene la evolución temporal de los operadores XH , PH
   
dXH (t) dXS PH2
i~ = [XH (t) , HH (t)] + i~ = XH (t) , + V (XH , t)
dt dt H 2m
 
PH2 PH PH PH
= XH (t) , = [XH (t) , PH ] + [XH (t) , PH ] = i~
2m 2m 2m m
dXH (t) PH
=
dt m
7.4. LA IMAGEN DE INTERACCIÓN 267

  
dPH (t) dPS PH2
i~ = [PH (t) , HH (t)] + i~ = PH (t) , + V (XH , t)
dt dt H 2m
= [PH (t) , V (XH , t)] = −i~∂XH V (XH , t)
dPH (t) ∂V (XH , t)
= −
dt ∂XH

donde se ha usado la Ec. (1.141) pág. 77. Hemos obtenido entonces la evolución temporal de los observables básicos
en la imagen de Heisenberg
dXH (t) PH dPH (t) ∂V (XH , t)
= ; =− (7.35)
dt m dt ∂XH
estas ecuaciones son una generalización del teorema de Ehrenfest Ec. (5.55) Pág. 223, ya que estas ecuaciones son
válidas para los operadores como tal y no solo para sus valores esperados.
Vemos que la analogı́a con las ecuaciones clásicas es más fuerte en la imagen de Heisenberg. En la imagen de
Schrödinger, la analogı́a aparece solo cuando se toman los valores esperados de los observables. En contraste, en
la imagen de Heisenberg la analogı́a aparece directamente en la ecuaciones de movimiento para los observables.
Un sistema simple de amplio interés ocurre cuando el sistema es conservativo (HS es independiente del tiempo),
y el observable AS conmuta con el Hamiltoniano HS . Para sistemas conservativos, el operador evolución temporal
está dado por (7.14)
i
U (t, t0 ) = e− ~ HS (t−t0 )
si AS conmuta con HS también conmuta con eαHS de modo que conmuta con U (t, t0 ). El observable asociado en
la imagen de Heisenberg queda entonces

AH (t) = U † (t, t0 ) AS (t) U (t, t0 ) = U † (t, t0 ) U (t, t0 ) AS (t) = AS (t)

En conclusión, si el sistema es conservativo y AS conmuta con HS , los observables en las imágenes de Schrödinger y
de Heisenberg coinciden. Como caso particular, HS = HH para sistemas conservativos. Nótese que no es necesario
que AS sea constante de movimiento, ya que en general hemos permitido que AS (t) sea función explı́cita del
tiempo.

7.4. La imagen de interacción


Consideremos un sistema fı́sico descrito por un Hamiltoniano H0S en la imagen de Schrödinger. Denotaremos
el operador evolución temporal asociado a H0S como U0 (t, t0 ) de modo que se cumplen las Ecs. (7.4)

∂U0 (t, t0 )
i~ = H0S (t) U0 (t, t0 ) ; U0 (t0 , t0 ) = I (7.36)
∂t
asumimos ahora que el sistema es “perturbado” por cierta interacción adicional, de modo que el Hamiltoniano se
modifica en la forma
HS (t) = H0S (t) + WS (t) (7.37)
definiremos una transformación unitaria para kets, bras y observables a través del operador evolución temporal
del “Hamiltoniano no perturbado” H0S . Por tanto, los nuevos kets, bras y observables se definirán como

|ψI (t)i ≡ U0† (t, t0 ) |ψS (t)i ; hψI (t)| ≡ hψS (t)| U0 (t, t0 ) ; AI ≡ U0† (t, t0 ) AS U0 (t, t0 ) (7.38)

nótese que en ausencia de perturbación i.e. cuando WS (t) = 0, el ket |ψI (t)i es independiente del tiempo (y
todo coincide con la imagen de Heisenberg). No obstante, la presencia de WS (t) hace que |ψI (t)i tenga aún
dependencia temporal. Coloquialmente, podemos decir que el operador unitario elegido, “absorbe” la dependencia
temporal del ket debida a H0S dejándonos solo con la dependencia temporal causada por WS (t). Ya veremos que
268 CAPÍTULO 7. FORMULACIONES ALTERNATIVAS DE LA MECÁNICA CUÁNTICA

las ecuaciones de movimiento apoyan esta visión cualitativa de la situación. Las Ecs. (7.36, 7.37, 7.38), describen
lo que se denomina la “imagen de interacción”.
Primero describiremos la dinámica de los kets |ψI (t)i en la imagen de interacción. Derivando la primera de
las Ecs. (7.38) resulta
d |ψI (t)i dU † (t, t0 ) d |ψS (t)i
i~ ≡ i~ 0 |ψS (t)i + i~U0† (t, t0 )
dt dt dt
y usando las Ecs. (7.36, 7.3) tenemos

d |ψI (t)i
i~ ≡ −U0† (t, t0 ) H0S (t) |ψS (t)i + U0† (t, t0 ) HS (t) |ψS (t)i
dt h i
= −U0† (t, t0 ) H0S (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
h i
+U0† (t, t0 ) HS (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i

d |ψI (t)i h ih i
† †
i~ = − U0 (t, t0 ) H0S (t) U0 (t, t0 ) U0 (t, t0 ) |ψS (t)i
dt h ih i
† †
+ U0 (t, t0 ) HS (t) U0 (t, t0 ) U0 (t, t0 ) |ψS (t)i
d |ψI (t)i n oh i
i~ = U0† (t, t0 ) [HS (t) − H0S (t)] U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
dt h ih i
= U0† (t, t0 ) WS (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i

quedando finalmente
d |ψI (t)i
i~ = WI (t) |ψI (t)i (7.39)
dt
de modo que la evolución temporal del ket |ψI (t)i en la imagen de interacción está regida solo por el término de
perturbación como se habı́a anticipado. Es fácil demostrar que la ecuación diferencial (7.39) es equivalente a la
ecuación integral dada por Z
1 t ′  
|ψI (t)i = |ψI (t0 )i + dt WI t′ ψI t′ (7.40)
i~ t0
Teniendo en cuenta la Ec. (7.38) y el hecho de que U0 (t0 , t0 ) = I, obtenemos la condición

|ψI (t0 )i = |ψS (t0 )i

la ecuación integral (7.40) se puede resolver por iteración de manera que |ψI (t)i queda escrita como una expansión
en series de potencias integrales de WI (t)
( Z  2 Z t Z t1 )
1 t 1
|ψI (t)i = I + dt1 WI (t1 ) + dt1 WI (t1 ) dt2 WI (t2 ) + . . . |ψI (t0 )i (7.41)
i~ t0 i~ t0 t0

Estudiemos ahora la evolución temporal de los observables en esta imagen. Para esto se deriva en el tiempo la
tercera de las ecuaciones (7.38), el procedimiento es muy similar al realizado para obtener la Ec. (7.31), el único
detalle a tener en cuenta es que aquı́ se usa U0 (t, t0 ) que está asociado a H0S , de modo que el análogo a la Ec.
(7.31) queda  
dAI (t) dAS (t)
i~ = [AI (t) , H0I (t)] + i~ (7.42)
dt dt I
las ecuaciones de evolución (7.39) y (7.42) muestran que los kets de estado tienen solo a WI (t) como fuente
de cambio, en tanto que los operadores tiene solo a H0I como fuente de cambio. Cada parte del Hamiltoniano
7.4. LA IMAGEN DE INTERACCIÓN 269

contribuye a uno u otro cambio, a diferencia de la imágen de Schrödinger en donde la dinámica de los kets está
regida por el Hamiltoniano completo, o la de Heisenberg en la cual la dinámica de los operadores se rige por el
Hamiltoniano completo.
Es notable que la Ec. (7.39) para los kets, se asemeja a la ecuación de Schrödinger en la imagen del mismo
nombre, aunque en la Ec. (7.39) solo aparece la perturbación. Análogamente, la Ec. (7.42) para los operadores se
asemeja a la Ec. (7.31) en la imagen de Heisenberg, aunque en (7.42) solo aparece el Hamiltoniano no perturbado.
Si por ejemplo, WS (t) es mucho menor2 que H0S (t), la dinámica del vector |ψI (t)i es mucho mas “suave”
que la dinámica de |ψS (t)i. Este hecho facilita el uso de diversos métodos de aproximación. En la práctica, esta
imagen resulta útil cuando H0S es un Hamiltoniano suficientemente simple para conocer su solución analı́tica,
de modo que WS (t) se considera una perturbación que se puede evaluar por diferentes métodos. Dado que los
operadores toman sus valores no perturbados (que en principio se asumen conocidos), podemos concentrarnos
solo en la evolución de los kets |ψI i que en general tienen una evolución suave. Por ejemplo H0S puede ser la
energı́a cinética (solución de partı́cula libre como caso no perturbado) y WS (t) puede ser la energı́a potencial, o
H0S puede ser la energı́a cinética más una parte de la energı́a potencial que sea suficientemente simple, y WS (t)
contiene interacciones externas adicionales más complejas.

2
Naturalmente, la comparación entre dos observables se refiere en realidad a la comparación entre sus valores propios.
Capı́tulo 8

El oscilador armónico cuántico

El oscilador armónico es un sistema de gran importancia en la fı́sica clásica. Tal importancia radica en el
hecho de que todo movimiento acotado alrededor de un punto de equilibrio estable puede ser aproximado a
un movimiento armónico simple, siempre que las oscilaciones sean suficientemente pequeñas. La cuantización
del oscilador armónico aparece en el nacimiento mismo de la mecánica cuántica, ya que la hipótesis de Planck
consistió en cuantizar los modos normales que están asociados a osciladores armónicos en el interior de un cuerpo
negro. Adicionalmente, las pequeñas oscilaciones alrededor del equilibrio también están presentes en el mundo
microscópico, como es el caso de las vibraciones de moléculas diatómicas o de los átomos alrededor del punto
de equilibrio en un red cristalina, etc. Puesto que en estos casos las “elongaciones” alrededor del equilibrio son
comparables a la longitud de onda de De Broglie de los objetos que vibran, es claro que las correcciones cuánticas
serán importantes para estos sistemas que se comportan como osciladores armónicos.

8.1. Propiedades generales del oscilador armónico cuántico unidimensional


El Hamiltoniano cuantizado del oscilador armónico será de la forma
P2 1
H= + mω 2 X 2 (8.1)
2m 2
puesto que H no es función del tiempo, el oscilador armónico cuántico define un sistema conservativo. En conse-
cuencia, el estudio mecánico cuántico de dicho sistema se reduce al estudio de su ecuación de valores propios

H |ϕi = E |ϕi

que en la base {|xi} se escribe como


 
~2 d2 1 2 2
− + mω x ϕ (x) = E ϕ (x) (8.2)
2m dx2 2

antes de resolver en detalle la ecuación de valores propios vale la pena mencionar que la forma del potencial
1 1
V (x) = kx2 = mω 2 x2
2 2
nos permite obtener algunas propiedades generales de las soluciones. En primer lugar, los autovalores del Hamil-
toniano son positivos, ya que se puede mostrar que en general si la función potencial tiene una cota inferior, los
autovalores E de un Hamiltoniano de la forma
P2
H= + V (X)
2m

270
8.2. EL PROBLEMA DE VALORES PROPIOS DEL HAMILTONIANO 271

son mayores que el mı́nimo de V (x) de modo que si V (x) ≥ Vm ⇒ E > Vm . Para nuestro caso Vm = 0 y por
tanto E > 0.
Por otro lado, debido a que el potencial es una función par en el argumento x

V (−x) = V (x)

existen autofunciones ψ (x) de H en la base {|xi} con paridad definida (pares o impares en x). Veremos que esto
combinado con el hecho de que el espectro no es degenerado, nos conduce a que las funciones de onda asociadas
con los estados estacionarios son necesariamente pares o impares.
Adicionalmente, es bien sabido que el movimiento clásico está limitado a un intervalo acotado para cualquier
valor de la energı́a total del oscilador. Con base en este hecho, se puede demostrar que todos los autovalores de
energı́a son discretos.
Veremos ahora el problema de valores propios en detalle.

8.2. El problema de valores propios del Hamiltoniano


Veremos que el espectro de energı́as de la ecuación de valores propios

H |ϕi = E |ϕi

se puede resolver con base en las relaciones canónicas de conmutación

[X, P ] = i~

por conveniencia utilizaremos los siguientes operadores adimensionales


r
Xb ≡ mω X ; Pb ≡ √
P
(8.3)
~ m~ω
con los cuales, las relaciones canónicas de conmutación quedan
h i
b Pb = i
X, (8.4)

y el Hamiltoniano se puede escribir en la forma


 
b
H = ~ω H ; b ≡1 X
H b 2 + Pb2 (8.5)
2
podemos entonces simplificar la ecuación de valores propios en la forma

b ϕi = εν ϕi
H ν ν

donde tanto el operador H b como los valores propios εν son adimensionales. Los ı́ndices ν, i pueden ser (por el
momento) contı́nuos o discretos y el ı́ndice i nos indica el grado de degeneración.   
b y Pb fueran números, podrı́amos escribir Hb en (8.5) de la forma H b Pb
b = X+i b Pb
X−i
Nótese que si X √
2

2
, es decir
como el producto de dos funciones lineales. Sin embargo, dado que X b y Pb son operadores no conmutantes, esta
factorización no es correcta. Sin embargo, veremos que la redefinición de estos operadores lineales nos simplifica
considerablemente el problema de valores propios, definiremos entonces
1 b  1 b 
a ≡ √ X + iPb ; a† ≡ √ X − iPb (8.6)
2 2
r  r 
mω P † mω P
a = X + i√ ; a = X − i√ (8.7)
2~ 2m~ω 2~ 2m~ω
272 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

cuya inversa se escribe como

b = 1   i  
X √ a† + a ; Pb = √ a† − a (8.8)
2 2
r   r
~ † m~ω  † 
X = a +a ; P =i a −a (8.9)
2mω 2

el conmutador de a† y a se calcula con las reglas canónicas de conmutación


h i 1hb i h i h i
a, a† = X + iPb, Xb − iPb = 1 X b −i X
b + iPb, X b + iPb, Pb
2 2 2
1 h b b i i h b b i i h b bi i h b bi
= X, X + P, X − X, P − iP , P
2 2 2 2
i h b bi i h b bi h i
= P, X + P , X = i Pb , X b
2 2
y usando la Ec. (8.4) queda h i
a, a† = I (8.10)

esta relación es entonces equivalente a las reglas canónicas de conmutación. Ahora queremos escribir el Hamilto-
niano en términos de los operadores a, a† , para ello calculamos primero el producto a† a 1
1b  
b + iPb = 1 X
 
a† a = X − iPb X b 2 + Pb 2 + iX
b Pb − iPbX
b
2 2
† 1  b 2 b2 h
b Pb
i
aa = X + P + i X,
2
1  b 2 b2 
a† a = X +P −I (8.11)
2
de aquı́ en adelante reemplazamos la identidad I por el número 1 lo cual no es causa de ambigüedad. Nótese que
la presencia del término adicional I/2 es debido a la no conmutatividad de Xb y Pb. Comparando (8.5) con (8.11)
vemos que el Hamiltoniano adimensional será

b =N+1
H ; N ≡ a† a (8.12)
2
es claro que el nuevo operador N es Hermı́tico
 †  †
N † = a† a = (a)† a† = a† a = N

por otro lado el Hamiltoniano adimensional también se puede escribir como

b = aa† − 1
H
2
b y N solo difieren en un operador que es múltiplo de la identidad. En
ahora bien, de acuerdo con la Ec. (8.12), H
consecuencia, los autovectores de Hb son autovectores de N y viceversa.
Ahora calcularemos los conmutadores de N con a y a† por medio de la Ec. (8.10)
h i h i
[N, a] = a† a, a = a† [a, a] + a† , a a = −a
h i h i h i h i
N, a† = a† a, a† = a† a, a† + a† , a† a = a†

1
De acuerdo con la discusión anterior este producto serı́a el Hamiltoniano si los operadores Pb , X
b fueran conmutantes.
8.3. DETERMINACIÓN DEL ESPECTRO 273

en resumen, el álgebra de conmutadores entre a, a† y N se escribe


h i h i
a, a† = 1 ; [N, a] = −a ; N, a† = a† (8.13)

donde también hemos tenido en cuenta la Ec. (8.10). Veremos que la ecuación de valores propios se resolverá en
términos de las propiedades de los operadores a, a† y N . De momento, hemos reducido el problema a encontrar
los vectores y valores propios del operador N

N ϕiν = ν ϕiν
i
y teniendo en cuenta las Ecs. (8.5, 8.12) los autovectores ϕν serán también autovectores del Hamiltoniano H
1

con autovalores E = ν + 2 ~ω  
i 1

H ϕν = ν + ~ω ϕiν (8.14)
2

8.3. Determinación del espectro



En todo lo que sigue, asumiremos que los ϕiν están normalizados. Calculemos la norma del vector a ϕiν .
Dicha norma es obviamente no negativa
i 2


a ϕν = ϕiν a† a ϕiν = ϕiν N ϕiν
i 2

a ϕν = ν ϕiν ϕiν i = ν ≥ 0 (8.15)

lo cual nos indica que

Lemma 1 Los valores propios del operador N son no negativos



La Ec. (8.15) nos muestra que a ϕiν = 0 ⇔ ν = 0 pero dado que a ϕiν = 0 ⇔ a ϕiν = 0 se tiene que
a ϕiν = 0 ⇔ ν = 0. i
De acuerdo
i a lo anterior, si ν > 0 entonces a ϕν no es cero. Apliquemos ahora el conmutador [N, a] sobre el
autovector ϕν usando las reglas de conmutación (8.13)

[N, a] ϕiν = −a ϕiν ⇒ N a ϕiν = aN ϕiν − a ϕiν = aν ϕiν − a ϕiν
   
N a ϕiν = (ν − 1) a ϕiν

esta expresión nos indica que cuando ν > 0 el vector a ϕiν es vector propio de N con autovalor ν − 1. Esto indica
además que ν ≥ 1 cuando ν > 0, ya que de lo contrario ν − 1 serı́a un autovalor negativo de N contradiciendo el
lema anterior. Estos resultados los podemos resumir en la siguiente forma
i
Lemma 2 Sea ϕν un autovector no nulo de N con autovalor ν. Tenemos que (a) a ϕiν = 0 ⇔ ν = 0. (b) Si

ν > 0 ⇒ a ϕiν es un autovector no nulo de N con autovalor ν − 1.

El anterior lema nos caracteriza
las propiedades de los vectores a ϕiν , es natural entonces preguntarse por las
propiedades de los vectores a† ϕiν . Con un proceso similar al anterior se tiene que
2

n o
nh i o
† i
a ϕν = ϕiν aa† ϕiν = ϕiν aa† − a† a + a† a ϕiν = ϕiν a, a† + N ϕiν
2


† i
a ϕν = ϕiν (1 + N ) ϕiν = (ν + 1) ϕiν ϕiν i
2
† i
a ϕν = ν + 1
274 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO


donde hemos usado la Ec. (8.10). Puesto que ν ≥ 0 el vector a† ϕiν es siempre no nulo. Ahora usando la Ec.
(8.13) calculemos
h i
N, a† ϕiν = a† ϕiν ⇒ N a† ϕiν = a† N ϕiν + a† ϕiν = νa† ϕiν + a† ϕiν
h i h i
N a† ϕiν = (ν + 1) a† ϕiν

vemos que a† ϕiν es un autovector de N con autovalor ν + 1. Lo anterior podemos resumirlo en la forma

Lemma 3 Sea ϕiν un autovector no nulo de N con autovalor ν. Tenemos que (a) a† ϕiν es siempre no nulo.
(b) a† ϕiν es un autovector de N con autovalor ν + 1.

Por ahora sabemos que el espectro de N es no negativo. Asumamos que ν no es entero y mostraremos que
esta hipótesis contradice al lema 1 y por tanto debe ser rechazada. Si ν no es entero podemos encontrar un entero
n tal que
n < ν < n+1 (8.16)
consideremos la sucesión de kets
i
ϕν , a ϕiν , a2 ϕiν , . . . , ap ϕiν , . . . , an ϕiν (8.17)

aplicaremos iterativamente el lema 2. ϕiν = a0 ϕiν es por hipótesis un autovector no nulo de N con valor
propio ν0 = ν − 0. Ahora a ϕiν de acuerdo con el lema i es un autovector
no nulo (ya que ν > 0) de N con
valor propio ν1 = ν − 1, podemos i
entonces a ϕν ≡ ϕν−1 . Otra aplicación del lema lleva a que si
denotar
2 ϕi = a ϕi

v − 1 > 0 entonces a
 p−1 i  ν i ν−1 es un autovector no nulo de N con valor propio ν2 = ν − 2. En general
p i
a ϕν = a a
ϕν = a ϕν−p+1 es autovector no nulo de N con valor propio ν − p, siempre y cuando se
cumpla que ν − p + 1 > 0. Adicionalmente, puesto que ν no es entero, ν − p es no nulo, con lo cual el lema 1, nos
dice que ν − p > 0. A su vez, de la Ec. (8.16) vemos que la condición ν − p > 0 solo se cumple en el intervalo
0 ≤ p ≤ n.
En sı́ntesis, de acuerdo con el lema 2, un vector ap ϕiν de la sucesión (8.17) con 0 ≤ p ≤ n, es un autovector
no nulo de N con valor propio ν − p > 0.
Veamos ahora que pasa con un vector fuera de la sucesión para lo cual calculamos
 
an+1 ϕiν = a an ϕiν

an ϕiν es un autovector no nulo de N con valor propio v − n > 0 (de acuerdo con la Ec. 8.16). Por tanto podemos
aplicar el lema 2 para decir que an+1 ϕiν es autovector de N con autovalor ν − n − 1 pero este valor propio es
estrictamente negativo de acuerdo con la Ec. (8.16). Esto contradice el lema 1 por lo cual debemos rechazar la
hipótesis de que ν es no entero.
Lo anterior se puede describir de otra forma diciendo que ap ϕiν con 0 ≤ p ≤ n es autovector de N donde los
valores propios νp tienen la siguiente caracterı́stica: ν0 = ν ∈ (n, n + 1); ν1 ∈ (n − 1, n); v2 ∈ (n − 2, n − 1) ; . . . ;
νn−1 ∈ (1, 2); νn ∈ (0, 1). Al aplicar de nuevo el operador a, el valor propio correspondiente quedarı́a en el intervalo
(−1, 0) que está prohibido por el lema 1.
Veremos ahora que la hipótesis de que ν es entero es perfectamente consistente con los lemas anteriores, en tal
caso la Ec. (8.16) se cambia por
n = ν < n+1

y el ket an ϕiν es un autovector no nulo de N con valor propio v − n = 0. Como su valor propio es cero, el lema
2 nos dice que2
an+1 ϕin = 0 (8.18)
2
Estrictamente, debemos escribir |0i a la derecha de la Ec. (8.18), ya que este es un elemento del espacio de Hilbert (vector nulo).
Sin embargo, no se presenta confusión al usar el sı́mbolo 0.
8.3. DETERMINACIÓN DEL ESPECTRO 275


por tanto el conjunto de vectores diferentes obtenida por aplicación reiterada de a sobre ϕiν está
limitada cuando
m i
ν = n es entero, ya que el lema 2 predice que para todo entero m ≥ n + 1 tenemos que a ϕν = 0, y se obtiene
el vector cero para cualquier aplicación adicional del operador a. De esta manera se evita la contradicción con el
lema 1 evitando valores propios negativos.
Veremos ahora que el espectro de N consta
de todos los enteros no negativos. Ya hemos construı́do un auto-
vector de N con valor propio nulo: an ϕin ≡ ϕi0 . Ahora bien, el lema 3 nos dice que la aplicación sucesiva de a†
k
sobre ϕi0 nos genera autoestados a† ϕi0 , con valor propio k, barriendo claramente todos los valores enteros
no negativos.
Utilizando la Ec. (8.14) decimos que los autovalores de H tienen la forma
 
1
En = n + ~ω ; n = 0, 1, 2, . . . (8.19)
2
vemos entonces que la energı́a del oscilador armónico cuántico está cuantizada, ya que no puede adquirir cualquier
valor. El espaciamiento entre los valores accesibles es además uniforme, es decir cada estado excitado consiste
en agregar un cuanto ~ω al estado anterior. Adicionalmente, el estado base (estado de menor energı́a) no posee
energı́a cero sino ~ω/2. Nótese que el espaciamiento uniforme de los niveles de energı́a del oscilador armónico
cuántico con valor de espaciamiento ~ω, coincide con la hipótesis de Planck para el estudio de la radiación del
cuerpo negro.

8.3.1. Interpretación de los operadores a, a† y N



Si comenzamos
con un estado ϕin de H con valor propio En = n + 12 ~ω, la aplicación de los operadores
a y a† sobre ϕin nos da
 
i i i 1

a ϕn = αn−1 ϕn−1 ; ϕn−1 → En−1 = (n − 1) + ~ω = En − ~ω
2
 

† i
i i 1

a ϕn = αn+1 ϕn+1 ; ϕn+1 → En+1 = (n + 1) + ~ω = En + ~ω
2

N = a† a ϕin = n ϕin ; n = 0, 1, 2, 3, . . .
i
vemos que la acción de a sobre ϕn equivale a “extraer” un cuanto de energı́a ~ω del valor de energı́a En del
estado original. En otras palabras, su acción sobre un autovector de N (o de H) consiste en hacer desaparecer un
cuanto de energı́a. Por esta razón se denomina
i operador de destrucción o de aniquilación.
Similarmente, la acción de a sobre ϕn equivale a “añadir” un cuanto de energı́a ~ω al valor original de

energı́a En . Su acción sobre un autovector de N (o de H) consiste en hacer aparecer un cuanto de energı́a. Por
esta razón se denomina operador de construcción o creación.

Finalmente, vemos que el operador N aplicado sobre ϕin nos da el valor n de cuantos que están asociados
con el nivel de energı́a (hay n cuantos agregados al valor del mı́nimo de la energı́a). Por esta razón N se conoce
como operador número.

8.3.2. Estudio de la degeneración del espectro


Mostraremos que el espectro del oscilador armónico es no degenerado. Comenzaremos estudiando el estado
base. Todos los autoestados de H asociados a E0 = ~ω/2, o equivalentemente todos los autoestados de N asociados
con n = 0, deben satisfacer según el lema 2 la siguiente condición

a ϕi0 = 0 (8.20)

debemos ver entonces cuantos kets linealmente independientes satisfacen esta condición. Usando las Ecs. (8.7), la
Ec. (8.20) queda en la forma
276 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

r  r r r 
1 mω i i mω mω mω i
√ X+ √
P ϕ0 = 0 ⇒ X+ √ P ϕi0 = 0 ⇒
2 ~ m~ω ~ ~ ~ m~ω
 
mω i i
X + P ϕ0 = 0
~ ~

que en la base {|xi} se escribe


 
mω d
x+ ϕi0 (x) = 0 ; ϕi0 (x) = hx ϕi0 (8.21)
~ dx

debemos entonces resolver la ecuación diferencial de primer orden (8.21). Su solución más general es de la forma
1 mω 2
ϕi0 (x) = ce− 2 ~
x
(8.22)

siendo c una constante de integración (solo hay una en virtud de que la ecuación es de primer orden). Por tanto
todas las soluciones no nulas posibles de (8.21) son linealmente dependientes. Existe por tanto un único ket dentro
de factores multiplicativos asociado a E0 = ~ω/2. Por tanto, el estado base es no degenerado3 .
La demostración de que los demás estados no son degenerados la haremos por inducción para lo cual ya tenemos
el primer paso al demostrar que el estado base no es degenerado.
El segundo paso en la inducción es probar que si En = (n + 1/2) ~ω no es degenerado entonces el nivel
En+1 = (n + 1 + 1/2) ~ω tampoco lo es. Nuestra hipótesis es entonces que dentro de factores multiplicativos, solo
hay un vector |ϕn i tal que
N |ϕn i = n |ϕn i (8.23)
i
ahora consideramos un autovector ϕn+1 correspondiente al autovalor n + 1, donde el ı́ndice i indica una posible
degeneración
N ϕin+1 = (n + 1) ϕin+1 (8.24)
i
el lema 2 nos dice que a ϕn+1 es un
autovector no nulo de N con autovalor n. Dado que este ket no es degenerado
i
por hipótesis, tenemos que a ϕn+1 es linealmente dependiente con |ϕn i

a ϕin+1 = ci |ϕn i

si aplicamos a† a ambos lados se tiene



a† a ϕin+1 = ci a† |ϕn i

N ϕin+1 = ci a† |ϕn i (8.25)

donde hemos usado la definición de N Ec. (8.12). Combinando (8.24) con (8.25) se tiene

(n + 1) ϕin+1 = ci a† |ϕn i
i ci h i
ϕn+1 = a† |ϕn i (8.26)
(n + 1)

a |ϕn i es autovector de N con autovalor (n + 1). La expresión †(8.26) nos muestra que
el lema 3 nos dice que
todos los kets ϕn+1 asociados al valor propio (n + 1) son linealmente dependientes con a |ϕn i. Por tanto el valor
i

propio n + 1 es no degenerado y la demostración está completa. Todos los valores propios del Hamiltoniano son
no degenerados.
3
Aunque aquı́ usamos la base {|xi}, es claro que el grado de degeneración es independiente de la base utilizada.
8.4. ESTADOS PROPIOS DEL HAMILTONIANO 277

8.4. Estados propios del Hamiltoniano


Ya que hemos resuelto el problema de valores propios, procederemos ahora a estudiar el problema de los kets
propios del Hamiltoniano del oscilador armónico unidimensional. Tomaremos como hipótesis de trabajo que N y
H son observables, de modo que sus kets propios {|ϕn i} constituyen una base ortonormal4 de Ex , y se cumplen
por lo tanto, relaciones de ortonormalidad y completez
X
hϕn′ |ϕn i = δn′ n ; |ϕn i hϕn | = 1
n

la completez será probada más adelante utilizando la representación {|xi}, es decir calculando las funciones de onda
ϕn (x) y mostrando que estas funciones son completas en el espacio de las funciones cuadráticamente integrables
en x.
Por otro lado N y H tienen un espectro no degenerado. Por tanto cada uno de estos observables constituye
por sı́ solo un C.S.C.O. en Ex .

8.4.1. Construcción de los kets propios con base en el ket del estado base
El ket |ϕ0 i asociado al estado base i.e. a n = 0 en N y a E0 = ~ω/2 en H, es el vector en Ex que satisface la
condición
a |ϕ0 i = 0
y es único salvo constantes de proporcionalidad. Si lo asumimos normalizado, la ambigüedad se reduce a solo un
factor de fase global arbitraria eiθ , con θ real. Aplicando el lema 3 pág 274, el vector |ϕ1 i asociado a n = 1 es
proporcional a a† |ϕ0 i
|ϕ1 i = c1 a† |ϕ0 i (8.27)
determinaremos c1 requiriendo que |ϕ1 i esté normalizado y que tal coeficiente sea real y positivo (es decir c1 se
fija con fase cero). Para esto se calcula la norma de |ϕ1 i
  †  n o
hϕ1 |ϕ1 i = hϕ0 | a† c∗1 c1 a† |ϕ0 i = |c1 |2 hϕ0 | aa† |ϕ0 i

y usando la regla de conmutación (8.10) se obtiene


 
hϕ1 |ϕ1 i = |c1 |2 hϕ0 | a† a + 1 |ϕ0 i = |c1 |2 hϕ0 | (N + 1) |ϕ0 i = |c1 |2 hϕ0 | (0 + 1) |ϕ0 i
hϕ1 |ϕ1 i = |c1 |2 hϕ0 | ϕ0 i ⇒ c1 = 1

la Ec. (8.27) queda entonces


|ϕ1 i = a† |ϕ0 i
De manera similar construı́mos a |ϕ2 i aplicando el operador creación a† sobre |ϕ1 i

|ϕ2 i = c2 a† |ϕ1 i (8.28)

nuevamente requeriremos que c2 sea una constante real positiva que normalice a |ϕ2 i. De aquı́ en adelante este
será el requerimiento para todas las constantes con que se construyen los siguientes estados.

hϕ2 |ϕ2 i = |c2 |2 hϕ1 | aa† |ϕ1 i = |c2 |2 hϕ1 | (N + 1) |ϕ1 i = |c2 |2 hϕ1 | (1 + 1) |ϕ1 i
1
hϕ2 |ϕ2 i = 2 |c2 |2 = 1 ⇒ c2 = √
2
4
La ortonormalidad está garantizada automáticamente, debido a la ausencia de degeneración.
278 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

con lo cual la Ec. (8.28) queda


1 1  † 2
|ϕ2 i = √ a† |ϕ1 i = √ a |ϕ0 i
2 2
este proceso se puede generalizar para construı́r al estado |ϕn i con base en el estado |ϕn−1 i

|ϕn i = cn a† |ϕn−1 i (8.29)

hϕn |ϕn i = |cn |2 hϕn−1 | aa† |ϕn−1 i = |cn |2 hϕn−1 | (N + 1) |ϕn−1 i = |cn |2 hϕn−1 | [(n − 1) + 1] |ϕn−1 i
1
hϕn |ϕn i = n |cn |2 ⇒ cn = √
n

con lo cual la Ec. (8.29) queda


1
|ϕn i = √ a† |ϕn−1 i ; n = 1, 2, 3, . . . (8.30)
n
usando la Ec. (8.30) iterativamente, podemos conectar a |ϕn i con el estado base

1 1 1  2 1 1 1  3
|ϕn i = √ a† |ϕn−1 i = √ √ a† |ϕn−2 i = √ √ √ a† |ϕn−3 i
n n n−1 n n−1 n−2
1 1 1 1 1  n
|ϕn i = √ √ √ . . . √ √ a† |ϕ0 i
n n−1 n−2 2 1

quedando finalmente
1  † n
|ϕn i = √ a |ϕ0 i ; n = 0, 1, 2, 3, . . . (8.31)
n!
En sı́ntesis, todos los autoestados de N y H se √ pueden construı́r con base en el autoestado base |ϕ0 i por
aplicación sucesiva del operador creación. El factor 1/ n! garantiza la normalización de cada nuevo estado creado,
bajo la convención de que los coeficientes de normalización tengan fase cero, es decir que sean reales y positivos.

8.4.2. Ortonormalidad de los kets propios (opcional)


Es interesante ver a manera de consistencia, que la expresión (8.31) conduce a que los kets |ϕn i son ortonormales

1 ′
 n
hϕn′ |ϕn i = √ hϕ0 | an a† |ϕ0 i (8.32)
n! n′ !

veamos como actúan los operadores sobre el ket


 n    n−1   
n−1
n′ † n′ −1 † † n′ −1 †
a a |ϕ0 i = a aa a |ϕ0 i = a (N + 1) a |ϕ0 i

  n ′
h p i ′
hp i
an a† |ϕ0 i = an −1 (N + 1) (n − 1)! |ϕn−1 i = an −1 [(n − 1) + 1] (n − 1)! |ϕn−1 i
" #

 n ′ p 1  n−1
an a† |ϕ0 i = nan −1 (n − 1)! p a† |ϕ0 i
(n − 1)!


 n ′
 n−1
an a† |ϕ0 i = nan −1 a† |ϕ0 i (8.33)

donde hemos usado la Ec. (8.31). Utilizaremos el resultado (8.33) iterativamente, para ello analizamos tres casos
8.4. ESTADOS PROPIOS DEL HAMILTONIANO 279

1) n < n′ . En este caso usamos la propiedad (8.33) n−veces de forma iterativa


 n   n−1    n−2 
n′ † n′ −1 † n′ −2 †
a a |ϕ0 i = n a a |ϕ0 i = n (n − 1) a a |ϕ0 i
 n   n−3 
′ ′
an a† |ϕ0 i = n (n − 1) (n − 2) an −3 a† |ϕ0 i
 n   n−n 
n′ † n′ −n †
a a |ϕ0 i = n [n − 1] [n − 2] . . . [n − (n − 1)] a a |ϕ0 i (8.34)
 n   0 
′ ′
an a† |ϕ0 i = n × [n − 1] × . . . × 1 × a|n −n| a† |ϕ0 i (8.35)

finalmente  n
′ ′
an a† |ϕ0 i = n!a|n −n| |ϕ0 i (8.36)

pero por hipótesis |n′ − n| es un entero mayor o igual que 1, por tanto a|n −n| |ϕ0 i = 0 ya que a |ϕ0 i = 0. Usando
(8.32) y (8.36) resulta que

1 ′
 n 1 n ′
o
hϕn′ |ϕn i = √ hϕ0 | an a† |ϕ0 i = √ hϕ0 | n!a|n −n| |ϕ0 i = 0
n! n′ ! n! n′ !

2) si n = n′ podemos usar (8.34) para obtener


 n  0
an a† |ϕ0 i = n!a0 a† |ϕ0 i = n! |ϕ0 i (8.37)

Usando (8.32) y (8.37) resulta que si n = n′

1  n 1
hϕn |ϕn i = √ hϕ0 | an a† |ϕ0 i = hϕ0 | {n! |ϕ0 i} = 1
n! n! n!

3) n > n′ . En este caso podemos conjugar el producto interno hϕn′ |ϕn i = hϕn |ϕn′ i∗ y probar la ortogonalidad
del miembro derecho con lo cual quedamos nuevamente en el primer caso. Alternativamente, podemos usar la
propiedad (8.33) n′ −veces de forma iterativa, aplicando la Ec. (8.31). En tal caso el análogo de la Ec. (8.34) es
 n  
n′ †
 ′
 n′ −n′  † n−n′
a a |ϕ0 i = n [n − 1] [n − 2] . . . n − n − 1 a a |ϕ0 i (8.38)
 n    
′   |n−n′ |
an a† |ϕ0 i = n [n − 1] [n − 2] . . . n − n′ + 1 × a0 a† |ϕ0 i (8.39)

 n   hp i
an a† |ϕ0 i = n [n − 1] [n − 2] . . . n − n′ + 1 × (n − n′ )! |ϕn−n′ i (8.40)

y el producto interno (8.32) queda

1 ′
 n
hϕn′ |ϕn i = √ hϕ0 | an a† |ϕ0 i
n! n′ !
p
n [n − 1] [n − 2] . . . [n − n′ + 1] (n − n′ )!
= √ hϕ0 |ϕn−n′ i = 0
n! n′ !

donde hemos usado el hecho de que n − n′ es un entero mayor o igual que uno, de modo que hϕ0 |ϕn−n′ i = 0.
280 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

8.4.3. Acción de los operadores creación y destrucción sobre los autoestados del Hamilto-
niano
Las Ecs. (8.9) nos muestran que los observables X, P se pueden escribir en términos de a y a† , por lo tanto
cualquier observable fı́sico (sin espı́n) se puede escribir en términos de a y a† . Por otro lado, como los autoestados
{|ϕn i} del Hamiltoniano del oscilador armónico, constituyen una base en Ex , recurriremos con frecuencia a esta
base para construı́r representaciones matriciales. Por lo anterior, resulta de especial importancia estudiar la acción
de los operadores a y a† sobre los estados {|ϕn i}.
La acción de a† sobre |ϕn i se puede obtener reemplazando n por n + 1 en la Ec. (8.30)

a† |ϕn i = n + 1 |ϕn+1 i ; n = 0, 1, 2, . . .

para obtener a |ϕn i multiplicamos la Ec. (8.30) por a.

1 1 1
a |ϕn i = √ aa† |ϕn−1 i = √ (N + 1) |ϕn−1 i = √ [(n − 1) + 1] |ϕn−1 i
n n n

a |ϕn i = n |ϕn−1 i ; n = 0, 1, 2, . . .

tenemos entonces que la acción de los operadores más relevantes sobre los autoestados |ϕn i son
√ √
a† |ϕn i = n + 1 |ϕn+1 i ; a |ϕn i = n |ϕn−1 i ; n = 0, 1, 2, . . . (8.41)
 
1
N |ϕn i = n |ϕn i ; H |ϕn i = n + ~ω |ϕn i ; n = 0, 1, 2, . . . (8.42)
2

Se puede ver que la segunda de las Ecs. (8.41) contiene automáticamente el hecho de que a |ϕ0 i = 0. Nótese que
el adjunto de las Ecs. (8.41) es
√ √
hϕn | a = n + 1 hϕn+1 | ; hϕn | a† = n hϕn−1 | (8.43)

podemos expresar el significado de las Ecs. (8.41, 8.43) en palabras diciendo que a es un operador destrucción
(construcción) para kets (bras), en tanto que a† es un operador construcción (destrucción) para kets (bras).
La acción de los observables básicos X y P sobre los autoestados |ϕn i se obtiene usando las Ecs. (8.9)
r r
~  †  ~ √ √ 
X |ϕn i = a + a |ϕn i = n + 1 |ϕn+1 i + n |ϕn−1 i
2mω 2mω
r r
mω~  †  mω~ √ √ 
P |ϕn i = i a − a |ϕn i = i n + 1 |ϕn+1 i − n |ϕn−1 i
2 2
con estas relaciones es fácil encontrar la representación matricial de los operadores a, a† , X y P en la base {|ϕn i}
√ √
hϕm | a |ϕn i = nhϕm |ϕn−1 i = nδm,n−1 (8.44)
√ √
hϕm | a† |ϕn i = n + 1hϕm |ϕn+1 i = n + 1δm,n+1 (8.45)
r
~ √ √ 
hϕm | X |ϕn i = n + 1δm,n+1 + nδm,n−1 (8.46)
2mω
r
mω~ √ √ 
hϕm | P |ϕn i = i n + 1δm,n+1 − nδm,n−1 (8.47)
2

se puede ver que las matrices representativas de a y a† son hermı́ticas conjugadas una de otra como era de
esperarse, pues en este caso las matrices son reales y la una es la traspuesta de la otra. En forma explı́cita estas
matrices vienen dadas por
8.5. FUNCIONES PROPIAS ASOCIADAS A LOS ESTADOS ESTACIONARIOS EN LA BASE {|Xi} 281

 √   
0 1 √0 0 ··· √0 0 0 0 ···
 0 0 2 √0 · · ·   1 √0 0 0 ··· 
   
 3 ···   0 2 √0 0 ··· 
a= 0 0 0  ; a† =  
 0 0 0 0 ···   0 0 3 0 ··· 
   
.. .. .. .. . . .. .. .. .. ..
. . . . . . . . . .
nótese que las matrices de X y P son proporcionales a la suma y la diferencia de las matrices anteriores. Finalmente,
las matrices asociadas a X y P son hermı́ticas como se esperaba.

8.5. Funciones propias asociadas a los estados estacionarios en la base {|xi}


Los resultados obtenidos hasta el momento se han extraı́do a partir de los kets abstractos |ϕn i y el álgebra
abstracta de los operadores a, a† y N . En otras palabras, todos los resultados anteriores son independientes de la
base5 . El único resultado que no ha sido demostrado es el hecho de que los estados {|ϕn i} forman una base, lo cual
hasta el momento es solo una hipótesis de trabajo que debe ser examinada. Con el fin de verificar la completez
de los kets propios de H y con el fin de poder hacer cálculos concretos de probabilidades vamos a encontrar estos
kets propios de H en la base {|xi} es decir las funciones de onda asociadas.
Ya hemos determinado la función de onda asociada al estado base ϕ0 (x) la cual está dada por la Ec. (8.22)
 mω 1/4 1 mω 2
ϕ0 (x) = hx |ϕ0 i = e− 2 ~
x
(8.48)
π~

donde (mω/π~)1/4 es un factor de normalización. Dado que los demás estados se obtienen de la Ec. (8.31)

1  † n
|ϕn i = √ a |ϕ0 i (8.49)
n!

debemos obtener la representación del vector |ϕn i en la base {|xi} para ello multiplicamos la Ec. (8.49) por el bra
hx|
 n  n
1 † 1 1 b b
hx |ϕn i = √ hx| a |ϕ0 i = √ hx| √ X − iP |ϕ0 i
n! n! 2
 r n
1 1 mω i
ϕn (x) = √ hx| √ X− √ P |ϕ0 i
n! 2 ~ mω~
 r n
1 1 mω i ~ d
ϕn (x) = √ √ x− √ hx| ϕ0 i
n! 2n ~ mω~ i dx

"r r #n
1mω ~ d
ϕn (x) = √ x− hx| ϕ0 i
~
2n n! mω dx
"r  #n
1 ~ mω d
ϕn (x) = √ x− hx| ϕ0 i
2n n! mω ~ dx
  n  1  n
1 ~ 2 mω d
ϕn (x) = x− ϕ0 (x)
n! 2mω ~ dx
5
La ausencia de degeneración del estado base se demostró utilizando la base especı́fica {|xi}, pero el resultado debe ser independiente
de la base.
282 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

ahora usando en forma explı́cita la función de onda del estado base Ec. (8.48) se tiene que
  n  1   n
1 ~ 2 mω  14 mω d 1 mω 2
ϕn (x) = x− e− 2 ~ x (8.50)
n! 2mω π~ ~ dx
1 mω 2
de lo anterior se puede ver fácilmente que ϕn (x) es el producto de e− 2 ~ x por un polinomio de grado n y paridad
(−1)n . Los polinomios que surgen se denominan polinomios de Hermite.
Las dos primeras funciones asociadas a estados excitados (con energı́a mayor al estado base) son
  
4 mω 3 1/4 − 1 mω x2
ϕ1 (x) = xe 2 ~ (8.51)
π ~
 mω 1/4 h mω i 1 mω 2
ϕ2 (x) = 2 x2 − 1 e− 2 ~ x (8.52)
4π~ ~
si se grafica la función de onda y la densidad de probabilidad para n = 0, 1, 2 (ver Figs. 8.1, 8.2) y para valores

Figura 8.1: Funciones de onda asociadas a n = 0, 1, 2 para el oscilador armónico.

Figura 8.2: Densidades de probabilidad asociadas a n = 0, 1, 2 para el oscilador armónico.

grandes de n (Figs. 8.3), se pueden observar las siguientes caracterı́sticas: cuando n aumenta, la región en x
en la cual la densidad de probabilidad toma valores no despreciables se vuelve mayor. Esto corresponde a la
caracterı́stica clásica de que la amplitud de movimiento (y por tanto la región accesible) aumenta con la energı́a.
También veremos que el valor promedio o esperado de la energı́a potencial se incrementa con la energı́a (y por
tanto con n). Aunque esto se puede ver de un cálculo directo, se puede explicar cualitativamente teniendo en
cuenta que para n grandes, ϕn (x) toma valores no despreciables en regiones donde x es grande y por tanto donde
V (x) es grande. Las gráficas también muestran que el número de ceros de ϕn (x) es igual a n, lo cual se puede
demostrar formalmente con las propiedades de los polinomios de Hermite. Un análisis de estos polinomios muestra
8.6. VALORES ESPERADOS Y DISPERSIÓN EN UN ESTADO ESTACIONARIO DEL OSCILADOR 283

Figura 8.3: Función de onda (izquierda) y densidad de probabilidad (derecha) asociadas a n = 10, para el oscilador
armónico.

también que el valor promedio de la energı́a cinética se incrementa con n, puesto que tal valor promedio viene
dado por Z ∞
1
2 ~2 d2 ϕn
P =− ϕ∗n (x) dx (8.53)
2m 2m −∞ dx2
y cuando el número de ceros de ϕn (x) aumenta, también se incrementa la curvatura de la función de onda y en
la Ec. (8.53) la segunda derivada de ϕn se incrementa a su vez.
Otra caracterı́stica sobresaliente para grandes valores de n es que la densidad de probabilidad es grande
para x ∼= ±xM siendo xM la amplitud clásica de movimiento cuando la energı́a es En . Esto se relaciona con la
caracterı́stica clásica de que en xM la partı́cula está en reposo instantáneo y por tanto, en promedio se mantiene
más tiempo en las vecindades de ±xM que por ejemplo en las vecindades de x = 0 donde la rapidez es máxima.

8.6. Valores esperados y dispersión para los observables cuando el sistema


está en un estado estacionario del oscilador armónico
Dado que ninguno de los observables X y P conmuta con H, los autoestados |ϕn i del Hamiltoniano no son
autoestados de X ni P . Por tanto, si el oscilador armónico está en un estado estacionario |ϕn i la medida de X ó
P dará en principio cualquier valor ya que el espectro de estos observables incluye a todos los números reales.
Calcularemos los valores esperados de X y P y las raı́ces de la desviación media cuadrática ∆X y ∆P , cuando
el sistema está en un estado estacionario |ϕn i. Los valores esperados se calculan directamente de las Ecs. (8.46,
8.47)
hXi = hϕn | X |ϕn i = hP i = hϕn | P |ϕn i = 0 (8.54)
estos valores son válidos para todo tiempo. Nótese que el comportamiento del centro del paquete de onda difiere
profundamente del caso clásico en el cual las variables x y p son oscilantes en el tiempo (excepto cuando la energı́a
es cero)6 . Para calcular ∆X, ∆P deben calcularse los valores esperados de X 2 y P 2

(∆X)2 = hϕn | X 2 |ϕn i − [hϕn | X |ϕn i]2 = hϕn | X 2 |ϕn i (8.55)


2 2 2 2
(∆P ) = hϕn | P |ϕn i − [hϕn | P |ϕn i] = hϕn | P |ϕn i (8.56)
6
Puede verse que clásicamente los valores promedio de x y p tomados sobre un periodo completo de movimiento, sı́ son nulos
como en el caso cuántico. Sin embargo, debemos recordar que en el caso cuántico los promedios no son tomados sobre un periodo de
movimiento.
284 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

y usando (8.9) tenemos que


     
2 ~ † † ~ †
2
† † 2
X = a +a a +a = a + aa + a a + a
2mω 2mω
  
~ 2
X2 = a† + (1 + N ) + N + a2
2mω
  
~ 2
X2 = a † 2
+ a + 2N + 1 (8.57)
2mω

    
2 m~ω † † m~ω  † 2 † † 2
P = − a −a a −a =− a − aa − a a + a
2 2
  
m~ω 2
P2 = − a† + a2 − 2N − 1 (8.58)
2

reemplazando (8.57, 8.58) en (8.55, 8.56) es claro que


  
2 ~ †
2
2
(∆X) = hϕn | a + a + 2N + 1 |ϕn i (8.59)
2mω
  
2 m~ω †
2
2
(∆P ) = − hϕn | a + a − 2N − 1 |ϕn i (8.60)
2
calculando cada elemento matricial se tiene
p
hϕn | a2 |ϕn i = n (n − 1)hϕn |ϕn−2 i = 0 (8.61)
 2 p
hϕn | a† |ϕn i = (n + 1) (n + 2)hϕn |ϕn+2 i = 0 (8.62)
hϕn | (2N + 1) |ϕn i = (2n + 1) hϕn |ϕn i = (2n + 1) (8.63)

reemplazando (8.61, 8.62, 8.63) en (8.59, 8.60), resulta

(2n + 1) ~ (2n + 1) m~ω


(∆X)2 = ; (∆P )2 =
2mω 2
Finalmente    
2 1 ~ En 1
(∆X) = n+ = ; (∆P )2 = n+ m~ω = mEn (8.64)
2 mω mω 2 2
nótese que a medida que aumenta el nivel de energı́a, se ensanchan ambos paquetes. Esto es perfectamente
permitido por el principio de incertidumbre el cual solo prohibe un angostamiento indefinido de ambos paquetes.
El producto de estas desviaciones que se puede tomar como la definición de incertidumbre, es
 
1 ~
∆X · ∆P = n + ~≥
2 2
La cota inferior para el producto ∆X · ∆P depende de la forma del potencial, y en el caso del oscilador armónico
adquiere el mı́nimo valor posible ~/2 cuando n = 0, es decir cuando el sistema está en el estado base. Esto está
relacionado con el hecho de que en el estado base, la función de onda es una gaussiana y las gaussianas son
distribuciones de mı́nima incertidumbre (ver Sec. 2.14.3).
Por otro lado, es bien sabido que si xM es la amplitud del oscilador armónico clásico con energı́a En =
(n + 1/2) ~ω, la relación entre la energı́a y la amplitud es
1
En = mω 2 x2M
2
8.6. VALORES ESPERADOS Y DISPERSIÓN EN UN ESTADO ESTACIONARIO DEL OSCILADOR 285

usando (8.64) se tiene que


En 1 mω 2 x2M 1
(∆X)2 = 2
= 2
= x2M
mω 2 mω 2
1
∆X = √ xM (8.65)
2
análogamente, si pM es la amplitud de oscilación del momento clásico se tiene que
pM = mωxM
1
∆P = √ pM (8.66)
2
vemos que el ancho ∆X es del orden del ancho del intervalo [−xM , xM ], esto es de esperarse ya que esta es la
región clásicamente accesible y ya vimos en la sección 8.5 que es aproximadamente en esta región en donde ϕn (x)
adquiere valores no despreciables. Un resultado similar se sigue para el intervalo [−pM , pM ].
Lo anterior permite también entender porqué ∆X se incrementa con n: la densidad |ϕn (x)|2 posee dos picos
simétricos situados aproximadamente en x = ±xM . La desviación media cuadrática no puede ser mucho menor
que la distancias entre picos incluso si estos son muy agudos. Un argumento similar se sigue para ∆P .
Ahora bien, el valor esperado de la energı́a potencial en el estado |ϕn i, se puede calcular teniendo en cuenta
la Ec. (8.55), y está dado por
1
1
hV (X)i = mω 2 X 2 ⇒ hV (X)i = mω 2 (∆X)2 (8.67)
2 2
similarmente, el valor esperado de la energı́a cinética es
 2
P 1
= (∆P )2 (8.68)
2m 2m
y reemplazando (8.64) en (8.67, 8.68) resulta
 
1 1 En
hV (X)i = n+ ~ω =
2 2 2
 2  
P 1 1 En
= n+ ~ω =
2m 2 2 2
el valor esperado de las energı́as cinética y potencial es igual. Esto es consistente con el teorema del virial. No
obstante, debe tenerse en cuenta que en el teorema del virial el promedio es sacado sobre un periodo de movimiento,
en tanto que el promedio cuántico no está asociado a una evolución temporal.
Es notable además la simetrı́a entre los resultados sobre las variables X y P , esto se debe a que el Hamiltoniano
es muy simétrico en ambos ya que la energı́a cinética es proporcional a P 2 y la energı́a potencial es proporcional
X 2 . Tal simetrı́a se vé de forma manifiesta en la Ec. (8.5).
Los estados estacionarios |ϕn i no tienen equivalente en la mecánica clásica ya que tienen energı́a no nula a
pesar de que hXi y hP i sı́ son nulos. Sin embargo, podemos establecer cierta analogı́a entre el estado estacionario
|ϕn i y el estado de una partı́cula clásica cuya posición está descrita por
x = xM cos (ωt − ϕ)
y para el cual la fase inicial ϕ es escogida arbitrariamente, es decir puede tomar cualquier valor entre 0 y 2π con
la misma probabilidad. Los valores esperados de x y p son entonces nulos ya que
 Z 2π 
1
x̄cl = xM cos (ωt − ϕ) dϕ = 0
2π 0
 Z 2π 
1
p̄cl = −pM sin (ωt − ϕ) dϕ = 0
2π 0
286 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

ahora, calculando el valor esperado de x2cl y p2cl

 Z 2π 
1 x2
x2cl = xM cos2 (ωt − ϕ) dϕ = M
2π 0 2
 Z 2π  2
1 p
p2cl = pM sin2 (ωt − ϕ) dϕ = M
2π 0 2
la desviación media cuadrática clásica de x y p queda
q q
xM pM
∆xcl = x2cl − (xcl )2 = √ ; ∆pcl = p2cl − (pcl )2 = √
2 2
y vemos que coincide con sus valores cuánticos Ecs. (8.65, 8.66). Este promedio clásico se está realizando sobre
los posible valores de la fase y no sobre un periodo de movimiento. Es decir, al igual que el promedio cuántico, no
involucra evolución temporal.

8.7. Propiedades del estado base


En la mecánica clásica, el estado de más baja energı́a del oscilador armónico se obtiene cuando la partı́cula
está en reposo en el origen (condiciones iniciales x = p = 0) y la energı́a total es cero. En contraste, el sistema
cuántico posee un estado de mı́nima energı́a |ϕ0 i con energı́a no nula y lapfunción de onda asociada posee una
extensión espacial caracterizada por la desviación media cuadrática ∆X = ~/2mω.
La diferencia entre las dos descripciones tiene su origen en el principio de incertidumbre, que impide la mini-
mización simultánea de la energı́a cinética y la potencial, ya que los operadores energı́a cinética y potencial no
conmutan entre sı́. El estado base es entonces el resultado de la minimización de la suma de las dos energı́as.
Nótese que el resultado clásico x = p = 0 para obtener energı́a mı́nima cero, requerirı́a una determinación total
simultánea de posición y momento, que cuánticamente no es posible.
Podemos realizar un argumento semicuantitativo para estimar el orden de magnitud de la energı́a base y la
extensión espacial de su función de onda. Pensemos que la distancia ξ caracteriza la extensión espacial de la
función de onda, es decir ξ ∼ ∆X. Entonces, de acuerdo con (8.67) el potencial promedio será del orden de
1
V ∼
= mω 2 ξ 2
2
pero
∆X · ∆P ∼
= ~ ⇒ ξ · ∆P ∼
=~ (8.69)
por tanto
~ p2 (∆P )2 ∼ ~2
∆P ∼ = ⇒T = = =
ξ 2m 2m 2mξ 2
con lo cual el orden de magnitud de la energı́a total es
~2 1
E =T +V ∼
= 2
+ mω 2 ξ 2 (8.70)
2mξ 2

para valores pequeños de ξ, T domina sobre V y para valores grandes de ξ ocurre lo contrario. El estado base se
calcula de manera aproximada con el mı́nimo de la función E en la Ec. (8.70)
 
dE ~2
= 0 ⇒ − 3 + mω 2 ξm = 0
dξ ξ=ξm mξm
~2 ~2
− + mω 2 ξm
4 4
= 0 ⇒ ξm = 2 2
m m ω
8.8. EVOLUCIÓN TEMPORAL DE LOS OBSERVABLES DEL OSCILADOR ARMÓNICO 287

por tanto el valor mı́mimo aproximado del promedio de la energı́a total es


 
~2 1 ~2 1 ~ ~ω ~ω
E ∼
= 2
+ mω 2 ξm
2
= ~
 + mω 2 = +
2mξm 2 2m mω 2 mω 2 2
E ∼
= ~ω

nótese que la Ec. (8.69) implica tomar un principio de “mı́nima incertidumbre” ya que implica que el producto de
las incertidumbres se acerca al lı́mite inferior. Vemos entonces que la combinación de mı́nima incertidumbre con
la minimización del promedio de la suma de las energı́as cinética y potencial, nos predice correctamente el orden
de magnitud de la energı́a del estado base.
Finalmente, podrı́a argumentarse que el aumento en la energı́a base con respecto al caso clásico es irrelevante
ya que es una cantidad constante ~ω/2. Al fin y al cabo, el verdadero observable fı́sico está en las transiciones
o diferencias de energı́a y no en la energı́a misma. Sin embargo, esto no es en general cierto, puesto que hay
procesos en los cuales interviene más de una frecuencia caracterı́stica ω, en los cuales pueden haber diferencias en
la energı́a base de varios osciladores. Adicionalmente, la diferencia entre la energı́a clásica y cuántica del oscilador
es intrı́nseca y no depende de la calibración que se defina en el caso clásico. Por ejemplo, si defino la energı́a
mı́nima clásica como E0 = −~ω/2, entonces el estado de menor energı́a cuántica será E0 = 0. Una vez más esta
redefinición de la energı́a base debe tomarse con cuidado, puesto que si hay más de una frecuencia involucrada,
solo puedo redefinir E0 = −~ωi /2 para ωi fijo, y solo ese oscilador quedará con energı́a cuántica cero.

8.8. Evolución temporal de los observables del oscilador armónico


Consideremos un oscilador armónico cuyo estado en t = 0 está descrito por el estado normalizado

X
|ψ (0)i = cn (0) |ϕn i (8.71)
n=0

como el sistema es conservativo, el estado en cualquier tiempo se obtiene empleando las Ecs. (5.66, 5.67).

X 1
|ψ (t)i = cn (0) e−i(n+ 2 )ωt |ϕn i
n=0

el valor esperado de cualquier observable estará dado por


" ∞ # "∞ #
X 1 X 1
hψ (t)| A |ψ (t)i = c∗m (0) ei(m+ 2 )ωt hϕm | A cn (0) e−i(n+ 2 )ωt |ϕn i
m=0 n=0
∞ X
X ∞
hψ (t)| A |ψ (t)i = c∗m (0) cn (0) ei(m−n)ωt hϕm | A |ϕn i
m=0 n=0

el valor esperado de A es entonces


∞ X
X ∞
hψ (t)| A |ψ (t)i = c∗m (0) cn (0) Amn ei(m−n)ωt ; Amn ≡ hϕm | A |ϕn i (8.72)
m=0 n=0

puesto que m y n son enteros, la evolución temporal de los valores esperados solo involucra frecuencias de la forma
kω/2π con k entero. Por tanto las frecuencias de Bohr están constituı́das por “armónicos” que son múltiplos enteros
del “armónico fundamental” ω/2π. Para el caso particular de los observables X y P estos valores esperados se
288 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

obtienen de (8.46, 8.72)


∞ X
X ∞
hXi = c∗m (0) cn (0) Xmn ei(m−n)ωt
m=0 n=0
r ∞ ∞
~ XX ∗ √ √ 
hXi = cm (0) cn (0) n + 1δm,n+1 + nδm,n−1 ei(m−n)ωt
2mω m=0 n=0
r (∞ ∞
)
~ X √  X √ 
hXi = c∗n+1 (0) cn (0) n + 1 ei[(n+1)−n]ωt + c∗m (0) cm+1 (0) m + 1 ei[m−(m+1)]ωt
2mω
n=0 m=0

r ( ∞ ∞
)
~ X √ X √
hXi = n + 1c∗n+1 (0) cn (0) eiωt + n + 1c∗n (0) cn+1 (0) e−iωt
2mω
n=0 n=0

donde hemos tenido en cuenta que los ı́ndices m y n son mudos


r ∞
2~ X √  
hXi = n + 1Re c∗n+1 (0) cn (0) eiωt (8.73)
mω n=0

Vemos entonces que solo se incluyen ondas sinusoidales de frecuencia angular ω. Esto está relacionado con la
solución clásica del oscilador armónico la cual es monocromática para la variable x. Para hP i se obtiene un
resultado similar.
Por otro lado, en la discusión del teorema de Ehrenfest de la sección 5.7.1 vimos que la condición de igualdad
de los dos miembros en la Ec. (5.56) necesaria para obtener el lı́mite clásico adecuado, se cumple para todo estado
|ψi, cuando se usa el potencial del oscilador armónico que corresponde a n = 2 en la Ec. (5.58). Por tanto, de
acuerdo con las Ecs. (5.55, 5.52) se tiene que

d hXi 1 hP i
= h[X, H]i =
dt i~ m
d hP i 1
= h[P, H]i = −mω 2 hXi
dt i~
integrando estas ecuaciones se obtiene

1
hXi (t) = hXi (0) cos ωt + hP i (0) sin ωt (8.74)

hP i (t) = hP i (0) cos ωt − mω hXi (0) sin ωt (8.75)

que es la forma sinusoidal que se obtuvo en (8.73), aunque escrita en términos de otras condiciones iniciales, puesto
que (8.73) está escrita en términos de los pesos iniciales del paquete de onda Ec. (8.71). En contraste, las Ecs.
(8.74, 8.75) están escritas en términos de condiciones iniciales concernientes al valor esperado del momento y la
posición.
Es importante mencionar que este análogo clásico solo es válido si el estado |ψ (0)i descrito por (8.71) es una
superposición con al menos dos coeficientes no nulos, ya que si solo uno de ellos es no nulo el sistema estará
inicialmente en un estado estacionario y los valores esperados no evolucionarán en el tiempo7 . En consecuencia,
cuando el oscilador está en un estado estacionario el comportamiento cuántico será muy diferente al clásico incluso
si n es muy grande. Si queremos un paquete de onda cuya posición promedio oscile en el tiempo, deben superponerse
varios estados estacionarios.
7
Cuando solo uno de los coeficientes en (8.71) es no nulo, entonces al menos uno de los coeficientes cn (0) ó cn+1 (0) es nulo para
cada n en la Ec. (8.73), con lo cual hXi = 0. Similarmente hP i = 0. Como en particular hXi (0) = hP i (0) = 0, también se obtiene que
hXi (t) = hP i (t) = 0 de las Ecs. (8.74, 8.75).
8.9. OSCILADOR ARMÓNICO CARGADO EN UN CAMPO ELÉCTRICO UNIFORME (OPCIONAL) 289

8.9. Oscilador armónico cargado en un campo eléctrico uniforme (Opcional)

Asumamos que un oscilador armónico unidimensional posee carga q y está inmerso en un campo eléctrico
uniforme E en la dirección ux . Veremos como cambian los valores y vectores propios del oscilador armónico cuántico
cuando se le añade al Hamiltoniano la energı́a potencial asociada a esta nueva interacción, la cual clásicamente
viene descrita por
w (E) = −qEx (8.76)
con lo cual el Hamiltoniano cuántico completo será
P2 1
H ′ (E) = + mω 2 X 2 − qEX (8.77)
2m 2
la ecuación de valores propios será

H ′ (E) ϕ′ = E ′ ϕ′
 
~2 d2 1
− + mω x − qEx ϕ′ (x) = E ′ ϕ′ (x)
2 2
(8.78)
2m dx2 2
completando el cuadrado con respecto a x al lado izquierdo de la ecuación (8.78) queda
"  2 #
~2 d2 1 qE q 2 E2
− + mω 2 x − − ϕ′ (x) = E ′ ϕ′ (x) (8.79)
2m dx2 2 mω 2 2mω 2

realizando el cambio de variable


qE
u=x− ; du = dx (8.80)
mω 2
la ecuación (8.79) queda
   
~2 d2 1 2 2 ′ ′ q 2 E2
− + mω u ϕ (u) = E + ϕ′ (u)
2m du2 2 2mω 2
 
~2 d2 1 2 2 ′ ′′ ′ ′′ ′ q 2 E2
− + mω u ϕ (u) = E ϕ (u) ; E ≡ E + (8.81)
2m du2 2 2mω 2
la ecuación (8.81) coincide exactamente con la ecuación (8.2) asociada a los estados estacionarios del oscilador
armónico simple (sin campo eléctrico). Por tanto los valores propios E ′′ viene dados por la Ec. (8.19)
 
′′ 1
E = n+ ~ω ; n = 0, 1, 2, 3, . . .
2
De la definición de E ′′ en (8.81) obtenemos los valores propios de nuestra ecuación (8.78)
 
′ 1 q 2 E2
En = n + ~ω − ; n = 0, 1, 2, 3, . . . (8.82)
2 2mω 2
ası́ mismo las funciones propias de (8.81) coincidirán con los estados estacionarios del oscilador armónico dados
por la Ec. (8.50)
  n  1   n
′ 1 ~ 2 mω  14 mω d 1 mω 2
ϕn (u) = u− e− 2 ~ u
n! 2mω π~ ~ du
y teniendo en cuenta el cambio de variable (8.80), la función propia de la Ec. (8.78) será
 
′ qE
ϕn (x) = ϕn x − (8.83)
mω 2
290 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

Las ecuaciones (8.82) muestran que el efecto del campo eléctrico uniforme E sobre el espectro del oscilador
armónico consiste en un corrimiento constante del espectro por un cantidad q 2 E2 / 2mω 2 . Por otro lado, la Ec.
(8.83) muestra que el efecto sobre el estado,  es una traslación de la función de onda estacionaria del oscilador
armónico simple en una cantidad qE/ mω 2 . Esta traslación se debe a que el campo eléctrico ejerce una fuerza
constante sobre la partı́cula, cuyo efecto neto es redefinir el punto de equilibrio del oscilador. Ya que usualmente
definimos el origen en el punto de equilibrio, podemos decir que el único efecto del campo eléctrico uniforme es el
de cambiar el origen de x y de la energı́a. Por ejemplo, si qE > 0, la traslación en la función de onda se realiza en
la dirección positiva de las x, que es la dirección de la fuerza ejercida por E. El caso qE < 0, es análogo.
Otra forma de ver el fenómeno es analizando la estructura del potencial con y sin campo eléctrico. El potencial
clásico del oscilador armónico con campo eléctrico uniforme viene dado por
 
′ 1 2 2 1 2 qE 2 q 2 E2
V = mω x − qEx = mω x − −
2 2 mω 2 2mω 2
1 q 2 E2 qE
V′ = −V0 + mω 2 (x − x0 )2 ; V0 = 2
, x0 = (8.84)
2 2mω mω 2
el potencial V sin campo eléctrico es una parábola centrada en cero y con mı́nimo V = 0 en x = 0. La Ec. (8.84)
muestra que el potencial con la contribución del campo es también una parábola asociada al mismo valor de ω,
pero centrada en x0 y con mı́nimo en V = −V0 . La Ec. (8.82) con n = 0, muestra que el proceso de cuantización
incrementa el mı́nimo de la energı́a en una cantidad ~ω/2, en virtud del principio de incertidumbre como ya se
discutió en la sección 8.7.

8.9.1. Solución utilizando el operador traslación


El hecho de que la función de onda que se obtiene cuando se aplica el campo uniforme corresponde a una
traslación de la función de onda sin campo, sugiere emplear el operador traslación definido en la Ec. (1.211) Pág.
106
hq| S (Λ) |ψi = hq − Λ| ψi = ψ (q − Λ) ; S (Λ) ≡ e−iΛP/~ (8.85)
puesto que conocemos mejor la acción de los operadores creación y destrucción sobre los estados del oscilador
armónico, será conveniente escribir el operador traslación S (Λ) en términos de ellos usando la Ec. (8.9)
(" "r # #)  r
m~ω  †  mω  † 
S (Λ) ≡ exp [−iΛP/~] = exp −iΛ i a − a /~ = exp Λ a −a
2 2~
h  i r
† mω
S (λ) ≡ exp [−iΛP/~] ≡ exp −λ a − a ; λ≡Λ (8.86)
2~

desarrollaremos algunas expresiones algebráicas relativas a S (λ), a y a† para propósitos futuros. Dado que P es
hermı́tico es claro de (8.85) que S (λ) es unitario

S (λ) = e−λ(a−a ) S † (λ) = S −1 (λ) = eλ(a−a )


† †
;

de la Ec. (8.10) es claro que tanto a como a† conmutan con el conmutador entre ambos. Por tanto, es aplicable la
fórmula de Glauber (1.149) Pág. 79
1 † 1 2 † 1 2
S (λ) = e−λ(a−a ) = e−λa+λa = e−λa eλa e− 2 [−λa,λa ] = e−λa eλa e 2 λ [a,a ] = e−λa eλa e 2 λ
† † † † †

el adjunto se calcula similarmente y se obtiene


1 2 † 1 2 †
S (λ) = e 2 λ e−λa eλa ; S † (λ) = e− 2 λ e−λa eλa (8.87)
8.9. OSCILADOR ARMÓNICO CARGADO EN UN CAMPO ELÉCTRICO UNIFORME (OPCIONAL) 291

la misma condición de que a y a† conmutan con su conmutador nos permite utilizar la primera de las Ecs. (1.140)
Pág. 77, con a† = A y a = B, para calcular
h i h i h i ′ h i 
e−λa , a† = − a† , e−λa = − a† , a e−λa = a, a† −λe−λa = −λe−λa


de manera similar se obtiene el conmutador entre eλa y a, obteniéndose
h i h † i †
e−λa , a† = −λe−λa ; eλa , a = −λeλa (8.88)

a partir de las Ecs. (8.88) se obtiene


  nh i o n o
e−λa a† eλa = e−λa a† eλa = e−λa , a† + a† e−λa eλa = −λe−λa + a† e−λa eλa = a† − λ
† †
 †  †
nh † i †
o †
n † †
o †
eλa ae−λa = eλa a e−λa = eλa , a + aeλa e−λa = −λeλa + aeλa e−λa = a − λ

quedando entonces
† †
e−λa a† eλa = a† − λ ; eλa ae−λa = a − λ (8.89)
Partiremos de la ecuación de valores propios sin campo eléctrico

H |ϕi = E |ϕi (8.90)

y haremos una transformación pasiva8 asociada al operador unitario S (λ). Para ello multiplicamos la ecuación
por S (λ) e insertamos un operador identidad en la forma
h i h i
S (λ) H S † (λ) S (λ) |ϕi = ES (λ) |ϕi ⇒ S (λ) HS † (λ) [S (λ) |ϕi] = E [S (λ) |ϕi]
e |ϕi
H e = E |ϕi
e ; e ≡ S (λ) HS † (λ)
H , |ϕi
e ≡ S (λ) |ϕi (8.91)

calcularemos la transformación pasiva del Hamiltoniano del oscilador armónico sin campo Ec. (8.12)
   
e † 1 † † 1 † †
H ≡ S (λ) HS (λ) = ~ω S (λ) + a a S (λ) = + S (λ) a aS (λ) ~ω
2 2
h i h ih i
e = ~ω + ~ω S (λ) a† S † (λ) S (λ) aS † (λ) = ~ω + ~ω S (λ) a† S † (λ) S (λ) aS † (λ)
H
2  2
e = 1
H a†e
+e a ~ω ; e a ≡ S (λ) aS † (λ) ; e
a† ≡ S (λ) a† S † (λ) (8.92)
2

utilizando las Ecs. (8.87) y (8.89), podemos calcular los operadores transformados e a† en términos de los
a y e
operadores originales
h 1 2 †
i h 1 2 †
i  † †

a ≡ S (λ) aS † (λ) = e 2 λ e−λa eλa a e− 2 λ e−λa eλa = e−λa eλa ae−λa eλa
e
a = e−λa (a − λ) eλa = a − λ
e

a† , se obtiene entonces
y similarmente para e

a =a−λ
e a† = a† − λ
; e (8.93)
8
Sin embargo, esta transformación no serı́a un cambio de base, ya que el operador unitario en cuestión produce una traslación (y
no una rotación) que conserva norma. Desde el punto de vista pasivo, serı́a más bien un cambio de origen.
292 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO

sustituyendo (8.93) en (8.92) resulta


     
e 1 † 1  †  1 †



2
H = +eae a ~ω = ~ω + a − λ (a − λ) = ~ω +a a−λ a+a +λ
2 2 2
  r
e † 2 2mω
H = H − λ~ω a + a + λ ~ω = H − λ~ω X + λ2 ~ω
~
donde hemos usado las Ecs. (8.9). El Hamiltoniano transformado queda finalmente

He (λ) = H − λω 2m~ωX + λ2 ~ω (8.94)

teniendo en cuenta que H es el Hamiltoniano del oscilador armónico (sin trasladar) y comparando los Hamilto-
e y H ′ (E) Ecs. (8.77, 8.94), vemos que H
nianos H e coincide con H ′ (E) (excepto por una constante) si definimos el
parámetro λ en la forma r
qE 1
λE = (8.95)
ω 2m~ω
en cuyo caso obtenemos
2 2 2 2
e (λE ) = H − qEX + q E = H ′ (E) + q E
H
2mω 2 2mω 2
2 2
e (λE ) = H ′ (E) + κ1 ; κ ≡ q E
H (8.96)
2mω 2

puesto que He (λE ) y H ′ (E) solo difieren en un operador proporcional a la identidad, tendrán los mismos auto-
vectores y sus valores propios difieren por la constante de proporcionalidad κ. Adicionalmente, de las Ecs. (8.90,
e están dados por
8.91) vemos que si los autovectores de H son los kets |ϕn i, los autovectores de H


en i = S (λ) |ϕn i (8.97)

y que los autovalores de H y H e coinciden. Los estados estacionarios |ϕ′ i del oscilador armónico en presencia del
n
campo uniforme E, estarán dados entonces por los estados |ϕ en i dados por la Ec. (8.97). De acuerdo con la Ec.
(8.96) los autovalores de H ′ (E) están dados por
 
′ 1 q 2 E2
En (E) = n + ~ω −
2 2mω 2

que coincide con la Ec. (8.82) obtenida por métodos directos. La expresión (8.97) para el autovector, viene dada
por
  " r #
′ i i 2~
ϕ (E) = |ϕ en (λE )i = S (λE ) |ϕn i = exp − ΛE P |ϕn i = exp − λE P |ϕn i
n
~ ~ mω
" r !r #
i qE 1 2~
= exp − P |ϕn i
~ ω 2m~ω mω
 

ϕn (E) = exp − i qE P |ϕn i (8.98)
~ mω 2

donde hemos usado (8.86, 8.95). La ecuación (8.85), nos dice que S (Λ) ≡ exp [−iΛP/~] es precisamente el operador
traslación sobre una distancia Λ a lo largo de x, vemos de la Ec. (8.98) que |ϕ′n (E)i se obtiene por una traslación
de |ϕn i en la cantidad qE/ mω 2 , en consistencia con la función de onda (8.83) calculada con los métodos
tradicionales.
Capı́tulo 9

Estados coherentes cuasi-clásicos del


oscilador armónico (opcional)

Ya hemos estudiado las propiedades de los estados estacionarios del oscilador armónico y hemos observado que
su comportamiento difiere significativamente del oscilador armónico clásico. Por ejemplo, los valores esperados de
X y P son cero y no oscilantes como ocurre en el caso clásico (excepto en el caso en que la energı́a clásica es
cero). Vimos también que para emular razonablemente el caso clásico, se necesita la superposición de al menos dos
estados estacionarios. Por otro lado, es de esperarse que en el lı́mite de energı́as mucho mayores que ~ω (números
cuánticos n muy grandes), las predicciones clásicas y cuánticas sean casi idénticas, ya que al tener una enorme
cantidad de cuantos se enmascara su carácter discreto.
Hemos visto que muchos sistemas clásicos y cuánticos se pueden describir con el oscilador armónico al menos
en primera aproximación. Por esta razón es importante saber como pasar gradualmente de una descripción clásica
a una descripción cuántica o vice versa. En otras palabras es importante caracterizar ciertos parámetros que nos
indiquen como dicernir cuando los resultados clásicos o cuánticos sean adecuados para describir cierto sistema fı́sico.
Un caso importante es la radiación electromagnética, hemos visto que para altas intensidades la descripción clásica
es adecuada, en tanto que para bajas intensidades el carácter discreto de la radiación se manifiesta claramente.
Lo anterior nos induce a indagar por la existencia de estados cuánticos que conduzcan a predicciones fı́sicas muy
similares a las clásicas, al menos para el oscilador armónico macroscópico. Veremos que los estados que cumplen
esta condición son superposiciones coherentes de los estados estacionarios |ϕn i del oscilador armónico. Por tal
razón a dichos estados se les denomina como estados coherentes del oscilador armónico o también estados
cuasi-clásicos. Los estados coherentes de la radiación electromagnética permiten dicernir cuantitativamente la
importancia de los efectos cuánticos en la radiación para cada sistema radiativo.
La idea es entonces encontrar estados para los cuales los valores de hXi , hP i , y hHi sean semejantes a los
valores clásicos para todo tiempo. Adicionalmente, puesto que estos observables no son compatibles (no conmutan
entre sı́) no es posible construı́r un estado cuántico en donde las tres cantidades estén bien definidas. Los estados
coherentes deben entonces lidiar inevitablemente con el principio de incertidumbre, de modo que también deben
lograr que las desviaciones medias cuadráticas ∆X, ∆P, ∆H sean despreciables en el lı́mite macroscópico.

9.1. Parametrización del oscilador clásico con parámetros cuánticos


Tomemos como punto de partida las ecuaciones clásicas del oscilador armónico
dx (t) p (t) dp (t)
= ; = −mω 2 x (t) (9.1)
dt m dt
reescribiremos por conveniencia estas ecuaciones en variables adimensionales x b y pb definidas por
r
1 mω
b (t) = βx (t) , pb (t) =
x p (t) ; β = (9.2)
~β ~

293
294 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO

reemplazando (9.2) en (9.1) tenemos

db
x (t) db
p (t)
= ωb
p (t) ; = −ωb
x (t) (9.3)
dt dt
nótese que la “normalización” de las variables x y p se realizó con constantes que dependen de ~, de modo que
facilite la comparación del oscilador clásico con el oscilador cuántico. El estado clásico está determinado para todo
tiempo por las variables x (t) , p (t) o equivalentemente, por las variables x b (t) y pb (t). Estas a su vez se pueden
sintetizar en un número complejo adimensional α (t) en la forma
1
α (t) = √ [bx (t) + ib
p (t)] (9.4)
2
y las ecuaciones (9.3) se pueden escribir como una única ecuación compleja en la forma

dα (t)
= −iω α (t) (9.5)
dt
cuya solución es
1
α (t) = α0 e−iωt ; α0 = α (0) = √ [b p (0)] ≡ |α0 | eiδ
x (0) + ib (9.6)
2
siendo α0 un número complejo que se puede escribir como α0 = |α0 | eiδ , claramente la solución representa un fasor
de magnitud |α0 | y cuya fase está dada por δ − ωt. Es decir, el fasor rota con velocidad angular −ω (de modo que
si ω > 0 el giro es en dirección horaria alrededor de O). √
Es claro
√ además que las componentes cartesianas del fasor α (t) en cualquier instante, corresponden a x b (t) / 2
y pb (t) / 2. Vemos entonces que la descripción completa del movimiento se obtiene a través de la condición inicial
descrita por α0 , en la Ec. (9.6). Esta condición inicial se expresa bien sea como posición y momento inicial
(componentes cartesianas adimensionales) o bien sea como |α0 | y δ (parámetros polares correspondientes a la
amplitud adimensional de la oscilación y fase inicial respectivamente). De las Ecs. (9.4, 9.6) se obtiene
1   √   i   √  
b (t) = √ α0 e−iωt + α∗0 eiωt = 2Re α0 e−iωt ; pb (t) = − √ α0 e−iωt − α∗0 eiωt = 2Im α0 e−iωt
x (9.7)
2 2
ahora escribiremos la energı́a del sistema clásico H la cual es una constante de movimiento y por tanto coincide
con su valor inicial para todo tiempo
1 1
H = [p (0)]2 + mω 2 [x (0)]2
2m 2
~ω n o
H = x (0)]2 + [b
[b p (0)]2 (9.8)
2
teniendo en cuenta la segunda de las Ecs. (9.6), la energı́a queda en la forma

H = ~ω |α0 |2 (9.9)

para un oscilador macroscópico es claro que la energı́a es mucho mayor a la energı́a del cuanto fundamental de
modo que
|α0 | ≫ 1 (9.10)

9.2. Construcción de los estados coherentes o cuasi-clásicos


Buscaremos estados mecano-cuánticos para los cuales los valores esperados hXi , hP i y hHi sean muy simi-
lares a los valores clásicos x, p, H. Para ello compararemos a X, P con las variables adimensionales x
b, pb para lo
9.2. CONSTRUCCIÓN DE LOS ESTADOS COHERENTES O CUASI-CLÁSICOS 295

cual definiremos los correspondientes observables adimensionales. Adicionalmente, escribiremos los observables en
términos de los operadores creación y destrucción. De las Ecs. (8.8, 8.12) se obtiene
     
1
b = βX = √ a + a 1 i 1
X †
; Pb = P = −√ a − a † †
; H = ~ω a a + (9.11)
2 ~β 2 2

si comparamos las Ecs. (9.11) con las Ecs. (9.7, 9.6) vemos que el operador a es el análogo de la cantidad clásica
α (t) y a† posee el papel de α∗ (t). Clásicamente hemos visto que la cantidad compleja α0 (condiciones iniciales)
nos dictamina la evolución temporal de los observables clásicos que se describen con α (t) en la Ec. (9.6), y dado
que a es el análogo cuántico de α, es natural continuar la analogı́a calculando la evolución temporal de hai para
el sistema en un estado arbitrario |ψ (t)i. Tal evolución se obtiene de la Ec. (5.52)

d
i~ hai (t) = h[a, H]i (t) (9.12)
dt
donde hemos tenido en cuenta que a es solo función de X y P y por tanto no depende explı́citamente del tiempo.
El miembro derecho de (9.12) se escribe como
  Dh iE Dh i E
† I
h[a, H]i (t) = ~ω a, a a + (t) = ~ω a, a† a (t) = ~ω a, a† a (t)
2
h[a, H]i (t) = ~ω hai (t)

donde hemos usado la Ec. (8.10) Pág. 272. Con lo anterior, la Ec. (9.12) queda

d
i hai (t) = ω hai (t) (9.13)
dt
cuya solución es
hai (t) = hai (0) e−iωt (9.14)


la solución para a† (t) es la compleja conjugada de (9.14)
D E D E
a† (t) = a† (0) eiωt = hai∗ (0) eiωt (9.15)

nótese que las soluciones cuánticas (9.14, 9.15) son los análogos de la solución clásica (9.6), como era de esperarse
en virtud de la analogı́a a, a† ↔ α, α∗ . Sustituyendo (9.14) y (9.15) en (9.11) se obtiene
D E 1  
b (t) =
X √ hai (0) e−iωt + hai∗ (0) eiωt
2
D E i  
Pb (t) = − √ hai (0) e−iωt − hai∗ (0) eiωt (9.16)
2
el lı́mite clásico se obtiene igualando los valores esperados con las variables clásicas
D E D E
Xb (t) = xb (t) ; Pb (t) = pb (t) (9.17)

esta igualación se realiza comparando las Ecs. (9.16) con las Ecs. (9.7). De esto se ve que la condición necesaria y
suficiente para obtener el lı́mite clásico (9.17) es que en t = 0 se cumpla la condición

hai (0) = α0 (9.18)

siendo α0 el parámetro complejo que caracteriza al movimiento clásico que pretendemos emular cuánticamente, y
viene dado por la segunda de las Ecs. (9.6). Debemos ahora obtener la condición para la igualación de las energı́as
296 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO

clásica y cuántica, para ello calculamos el valor esperado del Hamiltoniano cuántico, como éste es constante de
movimiento, se puede evaluar en cero
D E ~ω
hHi = ~ω a† a (0) +
2
debemos igualar esta energı́a con su valor clásico H y obtener la condición que se genera con tal igualación. Para
ello podemos despreciar el término ~ω/2, ya que el lı́mite clásico corresponde a energı́as mucho mayores

que ~ω.
Recordemos que el término ~ω/2 es puramente cuántico en su origen. La igualación de hHi ≃ ~ω a† a (0) con el
valor clásico dado por la Ec. (9.9) nos lleva a la condición
D E
a† a (0) = |α0 |2 (9.19)

recordando que hemos asumido un estado |ψ (t)i para el sistema, las condiciones (9.18, 9.19) se escriben como

hψ (0)| a |ψ (0)i = α0 ; hψ (0)| a† a |ψ (0)i = |α0 |2 (9.20)

veremos que las condiciones (9.20) son suficientes para determinar el estado normalizado |ψ (0)i excepto por un
factor de fase constante. Para verlo introducimos el operador b (α0 ) definido por

b (α0 ) ≡ a − α0

nótese que este operador mide la “desviación” entre el comportamiento del operador cuántico a y el de su análogo
clásico α0 en el tiempo inicial, tenemos que
 
b† (α0 ) b (α0 ) = a† − α∗0 (a − α0 ) = a† a − a† α0 − α∗0 a + |α0 |2

con lo cual
n o
kb (α0 ) |ψ (0)ik2 = hψ (0)| b† (α0 ) b (α0 ) |ψ (0)i = hψ (0)| a† a − a† α0 − α∗0 a + |α0 |2 |ψ (0)i
kb (α0 ) |ψ (0)ik2 = hψ (0)| a† a |ψ (0)i − α0 hψ (0)| a† |ψ (0)i − α∗0 hψ (0)| a |ψ (0)i + |α0 |2

y usando las condiciones (9.20) tenemos que

kb (α) |ψ (0)ik2 = |α0 |2 − α0 α∗0 − α∗0 α0 + |α0 |2 = 0

como la norma del ket b (α) |ψ (0)i es nula entonces el ket como tal es nulo, por tanto

b (α) |ψ (0)i = 0 ⇒ (a − α0 ) |ψ (0)i = 0


a |ψ (0)i = α0 |ψ (0)i (9.21)

recı́procamente, si el ket normalizado |ψ (0)i satisface esta relación, podemos devolvernos en los pasos y ver que
las condiciones (9.20) se satisfacen. Nótese que el resultado b (α) |ψ (0)i = 0 es el esperado, ya que cuando el estado
|ψ (0)i es cuasi-clásico, es razonable que la “desviación” entre el comportamiento clásico y el cuántico se anule.
Lo anterior nos lleva a la conclusión de que el estado cuasi-clásico asociado con un movimiento clásico ca-
racterizado por el parámetro α0 , es tal que el vector de estado |ψ (0)i en t = 0 es un autovector del operador
destrucción a con autovalor α0 . Escribiremos los autovectores de a y su autovalores en la forma

a |αi = α |αi (9.22)

veremos además que la solución de (9.22) es única salvo constantes.


9.3. PROPIEDADES DE LOS ESTADOS |αi 297

9.3. Propiedades de los estados |αi


Vamos a determinar las soluciones para el ket |αi de la Ec. (9.22). Para ello expandiremos el ket |αi en la base
de estados estacionarios del oscilador armónico

X
|αi = cn (α) |ϕn i (9.23)
n=0

aplicando el operador destrucción a ambos lados de la expansión y usando la Ec. (8.41), se obtiene

X ∞
X √ 
a |αi = cn (α) [a |ϕn i] ⇒ a |αi = cn (α) n |ϕn−1 i (9.24)
n=0 n=0

sustituyendo la Ec. (9.24) en la Ec. (9.22) y usando (9.23) resulta



X ∞
X

ncn (α) |ϕn−1 i = α ck (α) |ϕk i
n=0 k=0

reemplazando n → k + 1 en el miembro izquierdo, se tiene



X ∞
X

k + 1ck+1 (α) |ϕk i = α ck (α) |ϕk i
k=0 k=0

nótese que aunque la suma de la izquierda debe ir desde k = −1, este primer término es nulo. Apelando a la
independencia lineal de los |ϕk i se obtiene
α
ck+1 (α) = √ ck (α) (9.25)
k+1
utilizando esta relación iterativamente tenemos
 
α α α α2
ck (α) = √ ck−1 (α) = √ √ ck−2 (α) = p ck−2 (α)
k k k−1 k (k − 1)
 
α2 α α3
ck (α) = p √ ck−3 (α) = p ck−3 (α)
k (k − 1) k−2 k (k − 1) (k − 2)
αk
ck (α) = p ck−k (α)
k (k − 1) (k − 2) . . . × 2 × 1

de modo que todos los coeficientes de la expansión de |αi se pueden generar a partir de c0 (α)

αk
ck (α) = √ c0 (α) (9.26)
k!
Escogeremos a c0 (α) como real y positivo (fase cero). Adicionalmente, escogeremos c0 (α) de modo que |αi quede
adecuadamente normalizado. De acuerdo con (9.23), la normalización de |αi nos lleva a

X ∞
X ∞ X
X ∞
1 = hα |αi = c∗k (α) cn (α) hϕk |ϕn i = c∗k (α) cn (α) δkn
k=0 n=0 k=0 n=0

X
⇒ |ck (α)|2 = 1 (9.27)
k=0
298 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO

reemplazando (9.26) en (9.27) se tiene



X |α|2k 2
|c0 (α)|2 = 1 ⇒ |c0 (α)|2 e|α| = 1
k!
k=0
|α|2
c0 (α) = e− 2 (9.28)

reemplazando (9.26) y (9.28) en (9.23) queda finalmente



X X∞ X∞
αn αn |α|2
|αi = cn (α) |ϕn i = √ c0 (α) |ϕn i = √ e− 2 |ϕn i
n=0 n=0 n! n=0 n!
X∞
|α|2 αn
|αi = e− 2 √ |ϕn i (9.29)
n=0 n!

9.3.1. Valores permitidos de la energı́a para un estado coherente |αi


Los estados coherentes son autoestados de un operador que no es observable (el operador a no es hermı́tico). Por
tanto sus valores propios pueden ser complejos y no corresponden a observables fı́sicos. Sin embargo, estos estados
son de cuadrado integrable y por tanto pertenecen al espacio de estados fı́sicos posibles. Asumamos entonces un
oscilador en el estado |αi descrito por la Ec. (9.29). La probabilidad de obtener el valor Em = (m + 1/2) ~ω para
el sistema en el estado |αi se puede calcular de (9.29)
2
|α|2 X∞
αn
− 2 2
Pm (α) = |hϕm |αi| = e √ hϕm |ϕn i
n!
n=0
2 |α|2m
Pm (α) = e−|α|
m!
es fácil ver que la probabilidad anterior cumple con la condición
!
|α|2 −|α|2 |α|
2(m−1)
Pm (α) = e ⇒
m (m − 1)!
|α|2
Pm (α) = Pm−1 (α)
m
de modo que la distribución de la probabilidad es del tipo Poisson. Se puede verificar que el máximo de esta
probabilidad se obtiene cuando
m = la parte entera de |α|2 (9.30)
calcularemos ahora el valor esperado de la energı́a el cual debe ser comparado con la energı́a clásica. Para ello
notemos primero que de la Ec. (9.22), se tiene que

ka |αik2 = kα |αik2 ⇒ hα| a† a |αi = hα| α∗ α |αi ⇒


hα| a† a |αi = |α|2 (9.31)

con lo cual
 
1 †
hHiα = ~ω hα| a a + |αi
2
 
1
hHiα = ~ω |α|2 + (9.32)
2
9.3. PROPIEDADES DE LOS ESTADOS |αi 299

teniendo en cuenta el resultado (9.30), vemos que si |α| ≫ 1 (como corresponde al lı́mite clásico), la cantidad
hHiα es muy similar en valor

relativo
a la energı́a En que corresponde al máximo de Pn (α). Con el fin de calcular
el ancho ∆H calcularemos H 2 α
      

2 2 2 † 1 2 2 2 † † † 1
H α = ~ ω hα| a a + |αi = ~ ω hα| a a a a + a a + |αi
2 4
   
2 2 2 2 † 1 2 2 2 2 2 1
= ~ ω hα| N N |αi + ~ ω hα| a a + |αi = ~ ω hN α |N αi + ~ ω |α| +
4 4
 

2 1
H α = ~2 ω 2 k|N αik2 + ~2 ω 2 |α|2 + (9.33)
4
donde hemos usado la Ec. (9.31) y el hecho de que N = a† a es hermı́tico. Multiplicando (9.22) por a† se tiene que
2

a† a |αi = αa† |αi ⇒ N |αi = αa† |αi ⇒ kN |αik2 = |α|2 a† |αi
 
⇒ kN |αik2 = |α|2 hα| aa† |αi ⇒ kN |αik2 = |α|2 hα| a† a + 1 |αi
 
kN |αik2 = |α|2 |α|2 + 1 (9.34)

donde hemos usado nuevamente (9.31). Reemplazando (9.34) en (9.33) se obtiene


   

2 2 2 2 2 2 2 2 1
H α = ~ ω |α| |α| + 1 + ~ ω |α| +
4
 

2 1
H α = ~2 ω 2 |α|4 + 2 |α|2 + (9.35)
4
y el ancho se obtiene usando (9.32) y (9.35)
    
2
1 1 2
(∆Hα ) = H α − 2
hHi2α 4 2 2 2
= ~ ω |α| + 2 |α| + − ~ω |α| + 2
4 2
 
1 1
(∆Hα )2 = ~2 ω 2 |α|4 + 2 |α|2 + − |α|4 − |α|2 − = ~2 ω 2 |α|2
4 4
(∆Hα ) = ~ω |α| (9.36)
en el lı́mite cuasi-clásico el ancho relativo debe ser mucho menor que uno, con el fin de poder afirmar que la energı́a
está bien definida. El ancho relativo se puede calcular de (9.32) y (9.36)
∆Hα |α|
=  (9.37)
hHiα |α|2 + 12

para el lı́mite cuasi-clásico |α| ≫ 1, se tiene que


∆Hα |α| 1
≃ 2 = ≪1 (9.38)
hHα i |α| |α|
de modo que se puede considerar que la energı́a está bien definida en el lı́mite cuasi-clásico. Es inmediato ver que
hN iα = |α|2 ; ∆Nα = |α|
lo cual nos dice que para obtener un estado cuasi-clásico |α| ≫ 1, se debe suporponer un enorme número de
estados |ϕn i ya que ∆Nα ≫ 1. Sin embargo, el valor relativo de la dispersión sobre N también es muy pequeño
∆Nα 1
≃ ≪1
hN iα |α|
300 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO

9.3.2. Cálculo de los observables X, P en el estado |αi


Con el fin de realizar la comparación con los valores clásicos, calcularemos hXi , hP i , ∆X, ∆P . Para ello se
usan las expresiones de X y P en términos de a y a† (ver Ecs. 8.9), junto con la Ec. (9.22)
r   r h i r ~ r
~ ~ 2~
hXiα = hα| a† + a |αi = hα| a† |αi + hα| a |αi = (α∗ + α) = Re (α)
2mω 2mω 2mω mω
r   r r
m~ω m~ω ∗ m~ω (α − α∗ ) √
hP iα = i hα| a† − a |αi = i (α − α) = (−2i) i = 2m~ωIm (α)
2 2 2 2i   

2 ~  2 ~  2 ~ 2
X α = hα| a† + a |αi = hα| a† + a2 + a† a + aa† |αi = hα| a† + a2 + 2N + 1 |αi
2mω 2mω 2mω
~ h i ~ h i
= α∗2 + α2 + 2 |α|2 + 1 = (α∗ + α)2 + 1
2mω 2mω  

2 m~ω  2 m~ω  2 m~ω h ∗2 i


P α = − †
hα| a − a |αi = − hα| a † 2
+ a − 2N − 1 |αi = −α − α2 + 2 |α|2 + 1
2 2 2
m~ω h i
= − (α − α∗ )2 + 1
2


~ h ∗ i ~ ~
(∆Xα )2 = X2 α
(α + α)2 + 1 −
− hXi2α = (α∗ + α)2 =
2mω 2mω 2mω
"r #2

2 m~ω h i m~ω
(∆Pα )2 2
= P α − hP iα = 2
− (α − α∗ ) + 1 − i (α∗ − α)
2 2
m~ω h i m~ω m~ω
= − (α − α∗ )2 + 1 + (α∗ − α)2 =
2 2 2
resumiendo los anteriores resultados tenemos que
r
2~ √
hXiα = hα| X |αi = Re (α) ; hP iα = hα| P |αi = 2m~ωIm (α) (9.39)


2 ~ h i
m~ω h i
X α = (α + α∗ )2 + 1 ; P 2 α = 1 − (α − α∗ )2 (9.40)
2mω
r r 2
~ m~ω
∆Xα = ; ∆Pα = (9.41)
2mω 2
se observa que los anchos ∆Xα y ∆Pα no dependen de α y el producto de los anchos toma su valor mı́nimo
~
∆Xα · ∆Pα = (9.42)
2
lo cual es muy deseable para un lı́mite cuasi-clásico.

9.4. Generador y función de onda de los estados coherentes


Teniendo en cuenta la Ec. (8.31) vemos que el estado coherente de la Ec. (9.29) se puede escribir en términos
del operador construcción a partir del estado base del oscilador armónico
n "  #

|α|2 X αn

|α|2 X αn a†

|α|2 X αa
† n
− 2 − 2 − 2
|αi = e √ |ϕn i = e √ √ |ϕ0 i = e |ϕ0 i
n! n! n! n!
n=0 n=0 n=0
 
|α|2 †
|αi = e− 2 eαa |ϕ0 i ≡ D̄ (α) |ϕ0 i (9.43)
9.4. GENERADOR Y FUNCIÓN DE ONDA DE LOS ESTADOS COHERENTES 301

podemos generar a |αi a partir de |ϕ0 i con un operador más simétrico, para ello tenemos en cuenta que el operador
destrucción a aniquila el estado base, con lo cual tenemos que
 
−α∗ a ∗ α∗2 2
e |ϕ0 i = 1 − α a + a + . . . |ϕ0 i = |ϕ0 i (9.44)
2!
de la Ec. (9.44) podemos reescribir la Ec. (9.43) en la forma
 
|α|2
− 2 αa† −α∗ a
|αi = e e e |ϕ0 i

con lo cual se obtiene

|αi = D (α) |ϕ0 i (9.45)


2
− |α| αa† −α∗ a
D (α) ≡ e 2 e e (9.46)

teniendo en cuenta que h i h i


αa† , −α∗ a = −αα∗ a† , a = |α|2 I
y usando la relación (1.149), las Ecs. (9.45, 9.46) quedan
† −α∗ a
D (α) = eαa ; |αi = D (α) |ϕ0 i (9.47)

este operador (conocido como operador de Weyl) es unitario


∗ a−αa†
D † (α) = eα ⇒ D (α) D † (α) = D † (α) D (α) = I

La Ec. (9.47) nos muestra que podemos ver al operador unitario D (α) como un operador “creación” del estado
coherente |αi a partir del estado base del oscilador armónico. La Ec. (9.47) nos permite encontrar la función de
onda asociada a los estados coherentes

ψα (x) = hx| αi = hx| D (α) |ϕ0 i (9.48)

para calcular la función de onda, primero escribimos el operador αa† − α∗ a en términos de X y P usando las Ecs.
(8.7) r    
† ∗ mω α − α∗ i α + α∗
αa − α a = √ X−√ √ P
~ 2 m~ω 2
teniendo en cuenta que
r      r
mω α − α∗ i α + α∗ i mω
√ X, − √ √ P = − √ (α − α∗ ) (α + α∗ ) [X, P ]
~ 2 m~ω 2 2 m~ω ~
1 2 
= α − α∗2
2
y usando de nuevo la relación (1.149), el operador D (α) queda
r     ∗2 
αa† −α∗ a mω α − α∗ i α + α∗ α − α2
D (α) = e = exp √ X exp − √ √ P exp
~ 2 m~ω 2 4
sustituyendo este resultado en (9.48) se obtiene
 ∗2  r   
α − α2 mω α − α∗ i α + α∗
ψα (x) = exp hx| exp √ X exp − √ √ P |ϕ0 i
4 ~ 2 m~ω 2
 ∗2  r  ( "r # )
α −α 2 mω α − α ∗ i ~
ψα (x) = exp exp √ x hx| exp − (α + α∗ ) P |ϕ0 i (9.49)
4 ~ 2 ~ 2mω
302 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO

ahora bien, el operador e−iλP/~ es el operador traslación de λ a lo largo de x (siendo P la componente x del
momento) ver sección 1.44.2 Ec. (1.211), pág 106, de modo que
( "r # ) * r
i ~ ~

hx| exp − (α + α∗ ) P = x − (α + α∗ )
~ 2mω 2mω

con lo cual la Ec. (9.49) queda


  r  r !
α∗2 − α2 mω α − α∗ ~
ψα (x) = exp exp √ x ϕ0 x− (α + α∗ ) (9.50)
4 ~ 2 2mω

si escribimos α y α∗ en términos de hXiα y hP iα según las Ecs. (9.39), tenemos que


r
∗ hP iα ∗ mω
α−α = 2i Im(α) = 2i √ ; α + α = 2Re (α) = 2 hXiα (9.51)
2m~ω 2~
hXiα hP iα
α∗2 − α2 = − (α − α∗ ) (α + α∗ ) = −2i (9.52)
~

reemplazando las Ecs. (9.51, 9.52) en la función de onda (9.50) tenemos que
  r  r  r !
hXiα hP iα mω 2i hP iα ~ mω
ψα (x) = exp −i exp √ √ x ϕ0 x− 2 hXiα
2~ ~ 2 2m~ω 2mω 2~
hXiα hP iα
ψα (x) = eiθα eihP iα x/~ ϕ0 (x − hXiα ) ; θα ≡ − (9.53)
2~

la ecuación (9.53) nos muestra que ψα (x) se puede obtener a partir de la función de onda ϕ0 (x) del estado base
del oscilador armónico en la siguiente forma: Se traslada esta función a lo largo de x en una cantidad hXiα y
se multiplica por la exponencial oscilante eihP iα x/~ . El factor eiθa es irrelevante y puede ser omitido, nótese sin
embargo que el término eihP iα x no es una fase global sino local ya que depende de x, y por tanto es relevante. Esta
exponencial nos asegura que el valor promedio de P en el estado ψα (x) sea hP iα .
Si reemplazamos la forma explı́cita de ϕ0 (x) (Ec. 8.48, Pág. 281), en la Ec. (9.53) obtenemos
 mω  1  
4 1 mω
iθα ihP iα x/~ 2
ψα (x) = e e exp − (x − hXiα )
π~ 2 ~
 " r #2 
 mω  1  1 2mω 
4 iθα ihP i x/~
ψα (x) = e e α exp − (x − hXiα )
π~  2 ~ 
(   )
 1 x − hXiα 2
iθα mω 4 x
ψα (x) = e exp − + i hP iα (9.54)
π~ 2∆Xα ~

donde hemos usado también la Ec. (9.41). La forma del paquete de onda asociada con el estado |αi está dada por
r (   )
2 mω 1 x − hXiα 2
|ψα (x)| = exp − (9.55)
π~ 2 ∆Xα

con lo cual para cualquier estado coherente |αi obtenemos un paquete Gaussiano. Esto a su vez está relacionado
con la propiedad de mı́nima incertidumbre que obtuvimos en la Ec. (9.42).
9.5. LOS ESTADOS COHERENTES SON COMPLETOS PERO NO ORTOGONALES 303

9.5. Los estados coherentes son completos pero no ortogonales


Los estados coherentes o cuasi-clásicos |αi son autovectores del operador a, el cual no es hermı́tico1 . Por tanto,
no es claro si estos estados satisfacen relaciones de completez y ortogonalidad. Veremos que el conjunto de los
estados coherentes {|αi} es completo pero no es ortogonal.
Consideremos primero el producto interno de dos estados cuasi-clásicos. Aplicando (9.29) tenemos
" ∞
#" ∞
#
′ |α|2 X α∗m |α′ |2 X α′n
hα α = e 2 −
√ hϕm | e 2 −
√ |ϕn i
m=0 m! n=0 n!
" ∞ ∞ #
|α|2 |α′ |2 X X α′n α∗m
= e− 2 e− 2 √ √ hϕm | ϕn i
m=0 n=0 n! m!
"∞ # "∞ #
|α|2 |α′ |2 X α′n α∗n |α|2 |α′ |2 X (α′ α∗ )n
= e− 2 e− 2 √ √ = e− 2 e− 2
n=0 n! n! n=0
n!
′ − |α|
2 |α′ |2 ∗ ′

hα α = e 2 e− 2
eα α

con lo cual resulta ′ 2 2


hα α = e−|α−α′ | (9.56)
de modo que este producto escalar nunca es cero. Los estados coherentes no son ortogonales.
Veremos no obstante que los estados |αi poseen una relación de completez de la forma
Z Z
1
I≡ |αi hα| d2 α = 1 (9.57)
π
comenzaremos reemplazando |αi al lado izquierdo de (9.57) por su expresión en (9.29)
Z Z Z Z " 2 X∞
#" ∞
#
1 1 αn |α|2 X α∗m
2 − |α| −
I ≡ |αi hα| d α = e 2 √ |ϕn i e 2 √ hϕm | d2 α
π π n! m!
n=0 m=0
Z Z " ∞ X ∞
#
1 X αn α∗m
−|α|2
I = e √ √ |ϕn i hϕm | d2 α (9.58)
π n! m!
n=0 m=0

el complejo α lo podemos escribir como

α = ρeiϕ = x + iy ; d2 α = ρ dρ dϕ = dx dy = d {Re (α)} d {Im (α)} (9.59)

donde hemos tenido en cuenta la expresión del diferencial de área en coordenadas polares2 . Sustituyendo la
parametrización polar de la Ec. (9.59) en la integral (9.58), ésta última queda como
Z Z "∞ ∞   #
1 2 X X ρeiϕ n ρe−iϕ m
e−|ρe |

I = √ √ |ϕn i hϕm | ρ dρ dϕ
π n=0 m=0 n! m!
Z Z "∞ ∞ #
1 2 X X ρn+m ei(n−m)ϕ
I = e−|ρ| √ |ϕn i hϕm | ρ dρ dϕ
π n!m!
n=0 m=0
∞ ∞ Z Z 2π
1 X X ∞ −ρ2 n+m 1
I = e ρ ρ dρ √ |ϕn i hϕm | dϕ ei(n−m)ϕ (9.60)
π n!m!
n=0 m=0 0 0

1
De hecho el operador destrucción “a” no es ni siquiera normal, de modo que no es válido en general el teorema espectral para este
operador.
2
Combinando las Ecs. (9.39, 9.59), podemos ver que d2 α = d {Re (α)} d {Im (α)} = 2~ 1
d hXiα d hP iα , con lo cual la Ec. (9.57) que
expresa la completez de los estados coherentes, se puede interpretar como una integral sobre el espacio de fase clásico.
304 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO

la integral sobre ϕ es inmediata Z 2π


ei(n−m)ϕ dϕ = 2πδnm
0
de modo que la Ec. (9.60) queda en la forma
X∞ X ∞ Z ∞ X∞ Z ∞
−ρ2 n+m 1 2 1
I = 2 e ρ ρ dρ √ |ϕn i hϕm | δmn = 2 e−ρ ρn+n ρ dρ √ |ϕn i hϕn |
n=0 m=0 0 n!m! n=0 0 n!n!
X∞ Z ∞ 
−ρ2 2n 1
I = 2 e ρ ρ dρ |ϕn i hϕn |
n=0 0 n!

haciendo el cambio de variable u = ρ2 , du = 2ρ dρ tenemos


X 1 Z ∞ Z ∞
−ρ2 2n
In |ϕn i hϕn | ; In = 2 ρ dρ e ρ = du e−u un (9.61)
n
n! 0 0

haciendo dV = du e−u y U = un integramos In por partes


Z ∞ Z

n −u ∞ −u n−1

In = −u e 0 − −e nu du = n du e−u un−1
0

con lo cual encontramos una relación de recurrencia para In

In = nIn−1

cuya solución es

In = nIn−1 = n (n − 1) In−2 = n (n − 1) (n − 2) In−3 = . . . = [n × (n − 1) × (n − 2) × · · · × 2 × 1] In−n


In = n!I0

de la Ec. (9.61) tenemos que


Z ∞ ∞
I0 = du e−u = −e−u 0 = 1 ⇒
0
In = n!I0 = n!

que al sustituı́rlo en (9.61) nos da X


I= |ϕn i hϕn | = 1
n
donde hemos usado la completez de las autofunciones del oscilador armónico. Con esto se demuestra la Ec. (9.57),
que nos expresa la completez de los estados coherentes |αi.

9.6. Evolución temporal de los estados coherentes


Consideremos un oscilador armónico que en t = 0 está en un estado coherente dado |ψ (0)i = |α0 i. Veremos
la evolución temporal de este estado y de los observables más importantes. Ya hemos visto que hXi (t) y hP i (t)
permanecen iguales a sus valores clásicos para todo tiempo. De hecho, esta caracterı́stica fué la motivación para
la construcción de estos estados.
Para calcular la evolución temporal del estado del sistema, expandimos el estado inicial en autoestados del
Hamiltoniano del oscilador armónico usando (9.29)
X |α0 |2 αn
|ψ (0)i = |α0 i = cn (0) |ϕn i ; cn (0) ≡ e− 2 √0 (9.62)
n n!
9.6. EVOLUCIÓN TEMPORAL DE LOS ESTADOS COHERENTES 305

Como el Hamiltoniano del oscilador armónico es independiente del tiempo, la evolución temporal del estado
se puede calcular con la Ec. (5.67)
X |α0 |2 X αn 1
|ψ (t)i = cn (0) e−iEn t/~ |ϕn i = e− 2 √ 0 e−i(n+ 2 )ωt |ϕn i
n n n!
2 n
|α0 |2 X αn |α0 e−iωt | X α0 e−iωt
−i ωt − ωt
|ψ (t)i = e 2 e 2 √ 0 e−inωt |ϕn i = e−i 2 e− 2 √ |ϕn i (9.63)
n n! n n!

comparando (9.63) con (9.62), vemos que el ket |ψ (t)i se obtiene del ket inicial |ψ (0)i = |α0 i cambiando α0 por
ωt
α0 e−iωt y multiplicando el ket resultante por la fase global (irrelevante) e−i 2 , con lo cual |ψ (t)i se puede reescribir
como
|ψ (t)i = e−iωt/2 α = α0 e−iωt ; |ψ (0)i = |α0 i (9.64)
por tanto el estado cuasi-clásico continúa siendo autovector del operador a, para todo tiempo t. Su autovalor es
α0 e−iωt que es el parámetro α (t) descrito por las ecuaciones (9.4, 9.6) y que geométricamente es un fasor que rota
en el plano complejo con velocidad angular −ω. Recordemos que este fasor caracteriza en todo tiempo al oscilador
armónico clásico cuya evolución pretendemos reproducir a través del estado |ψ (t)i. Los valores esperados de hXi
y hP i para todo tiempo se obtienen a partir de (9.64) y (9.39)
r
2~   √  
hXiα(t) (t) = Re α0 e−iωt ; hP iα(t) (t) = 2m~ωIm α0 e−iωt (9.65)

y tal como se predijo, estas ecuaciones son similares a la evolución clásica Ecs. (9.7).
Por otro lado, la energı́a promedio es independiente del tiempo
   
2 1 1
hHiα(t) (t) = ~ω α0 e−iωt + = ~ω |α0 |2 + (9.66)
2 2

finalmente, las raı́ces de las desviaciones medias cuadráticas ∆Hα(t) , ∆Xα(t) y ∆Pα(t) calculadas con las Ecs. (9.36,
9.41) nos dan r r
~ m~ω
∆H = ~ω |α0 | ; ∆X = ; ∆P = (9.67)
2mω 2
vemos que los anchos no dependen del tiempo. En particular ∆X y ∆P permanecen siendo paquetes de mı́nima
incertidumbre para todo tiempo. No hay dispersión de los paquetes de onda. Veamos un poco más en detalle la
evolución del paquete de onda, la función de onda ψ (x, t) para todo tiempo se puede calcular con las Ecs. (9.54,
9.64)
 mω 1/4 h i2
xhP i(t) − x−hXi(t)
ψ (x, t) = eiθα e−iωt/2 ei ~ e 2∆X
π~
vemos que la forma del paquete es Gaussiana para todo tiempo t. Su forma no varı́a en el tiempo puesto que

|ψ (t)|2 = |ϕ0 (x − hXi (t))|2

vemos que los estados cuasi-clásicos son tales que los anchos ∆X y ∆P permanecen como paquetes de mı́nima
incertidumbre y la forma del paquete permanece intacta cuando éste se propaga. Esta ausencia de dispersión y
de cambio del perfil del paquete es la que le da el nombre de “estados coherentes” a los estados cuasi-clásicos del
oscilador armónico.
La Fig. 9.1 muestra el movimiento de un paquete de onda de un estado coherente. De acuerdo con la Ec.
(9.65), el valor esperado de X oscila alrededor de x = 0 con periodo T = 2π/ω, y dado que el paquete de onda
no se distorsiona, este será también el movimiento del paquete como un todo. En contraste, vimos en la sección
2.15.1 que un paquete Gaussiano libre se distorsiona cuando se propaga, ya que su ancho aumenta a medida que se
306 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO

Figura 9.1: Propagación de un paquete de onda Gaussiano sometido a un potencial parabólico y asociado a un estado
cuasi-clásico. El paquete oscila alrededor del punto de equilibrio. La forma y el ancho del paquete Permanecen
intactos en el tiempo.

propaga (dispersión del paquete de onda). Vemos en contraste que un paquete Gaussiano sometido a un potencial
parabólico (oscilador armónico) no posee dispersión. Esto se debe a que la tendencia del paquete a dispersarse
es compensada por el potencial, cuyo efecto es empujar al paquete hacia el origen desde regiones donde x (y por
tanto V (x)) es grande.

Adicionalmente, ya hemos visto en las secciones (9.3.1, 9.3.2) que cuando |α| ≫ 1, las raı́ces de las desviaciones
medias cuadráticas de X, P y H son mucho menores que sus valores esperados asociados, y además dichos valores
esperados emulan en todo tiempo la evolución clásica. De modo que escogiendo un valor de |α| lo suficientemente
alto, obtenemos una evolución temporal cuántica para la cual la posición y momento de los osciladores son en valor
relativo, tan definidos como es posible, ya que los paquetes son de mı́nima incertidumbre, y su valor caracterı́stico
tiene un comportamiento similar al clásico. Por tanto, en este lı́mite el estado |αi emula muy bien las propiedades
de un oscilador macroscópico (clásico) para el cual la posición, momento y energı́a están bien definidos.
9.7. TRATAMIENTO MECANO-CUÁNTICO DE UN OSCILADOR ARMÓNICO MACROSCÓPICO 307

9.7. Tratamiento mecano-cuántico de un oscilador armónico macroscópico


Consideraremos un ejemplo macroscópico que nos permita una apreciación numérica de la discusión anterior.
Sea un cuerpo de masa m = 1kg, suspendido de una cuerda de longitud l = 0,1m colocado en un campo
gravitacional g ≃ 10m/seg2 . Sabemos que para pequeñas oscilaciones el periodo de movimiento es
s
l
T = 2π ≃ 0,63seg ; ω = 10Rad/seg
g

asumamos que este oscilador realiza movimiento periódico de amplitud xM = 1cm. Nos preguntamos ahora por
el estado mecano-cuántico que mejor representa esta oscilación.
De acuerdo con la discusión anterior, dicho estado es del tipo |αi. Combinando la relación clásica entre energı́a
y amplitud con la Ec. (9.32) (despreciando el factor 1/2 en esta última) se obtiene
1
E = mω 2 x2M = ~ω |α|2 ⇒
2
r

|α| = xM
2~

en donde el argumento de α depende de la fase inicial de movimiento. Para nuestro caso tenemos las siguientes
estimaciones numéricas

|α| ≃ 5 × 1015 ≫ 1
r
~
∆X = ≃ 2,2 × 10−18 m ≪ xM
2mω
r
m~ω
∆P = ≃ 2,2 × 10−17 kg m/s
2
la raı́z de la desviación media cuadrática para la velocidad está dada por

∆V ≃ 2,2 × 10−17 m/s

el valor máximo de la velocidad del oscilador es 0,1m/s y la raı́z del valor medio cuadrático es de este mismo
orden de magnitud. Por tanto, las incertidumbres en la posición y velocidad son completamente despreciables con
respecto a las cantidades involucradas en el problema. Por ejemplo ∆X es menor que un fermi (10−15 m) que
es el tamaño aproximado de un núcleo atómico. Es claro que esta cantidad es despreciable para una longitud
macroscópica.
Finalmente, la energı́a del oscilador se conoce con una excelente precisión relativa, usando la Ec. (9.38) resulta

∆H 1
≃ ≃ 0,4 × 10−15 ≪ 1
hHi |α|

todo esto nos muestra porqué la mecánica clásica provee una adecuada descripción del oscilador armónico ma-
croscópico.
Capı́tulo 10

Teorı́a general del momento angular en


mecánica cuántica

Es bien conocida la gran importancia que tiene el momento angular en mecánica clásica. En primer lugar es
una constante de movimiento cuando el sistema es aislado constituyendo uno de los principios de conservación
más fundamentales en la teorı́a clásica. Además, también es una cantidad conservada para una partı́cula sometida
a una fuerza central, y trae como consecuencia el hecho de que el movimiento sea en un plano y que se conserve
la velocidad aerolar (segunda ley de Kepler).

Veremos que estas propiedades tienen su contrapartida cuántica. Por ejemplo, veremos más adelante que para
una partı́cula sometida a una interacción central, los operadores L1 , L2 , L3 que surgen de cuantizar las cantidades
clásicas, son constantes de movimiento en el sentido cuántico, es decir no dependen explı́citamente del tiempo
y conmutan con el Hamiltoniano. Veremos además que existe otro tipo de momento angular que no depende
de R ni P ni de ninguna otra variable geométrica clásica. Estos momentos angulares que surgen directamente
como observables cuánticos y no como la cuantización de observables clásicos se denominan momentos angulares
intrı́nsecos. Este momento angular intrı́nseco (también conocido como espı́n), está cuantizado desde el principio
y es esencial para entender el mundo microscópico como veremos más adelante.

De aquı́ en adelante denotaremos como momento angular orbital L a cualquier momento angular que provenga
de la cuantización de un momento angular clásico. Llamaremos momento angular de espı́n S o simplemente espı́n, a
cualquier momento angular intrı́nseco de una partı́cula. Finalmente, en sistemas complejos como núcleos, átomos,
moléculas, etc. los momentos angulares orbitales de sus constituyentes se combinan y también se combinan con
los espines de sus constituyentes para formar el momento angular total J. La notación J representará entonces la
resultante entre la suma de momentos orbitales e intrı́nsecos, pero también se usará para denotar un momento
angular genérico cuando no hagamos distinción entre el momento angular intrı́nseco y orbital. Las reglas de adición
de los momentos angulares se estudiarán en capı́tulos subsecuentes.

Existen una serie de propiedades de los momentos angulares que solo dependen de sus relaciones de conmutación
y que serán válidas para cualquier momento angular sin importar su naturaleza. Veremos en particular, que toda
componente de un momento angular posee un espectro discreto, propiedad denominada “cuantización espacial”.
Desarrollaremos en capı́tulos posteriores, las aplicaciones concernientes tanto al momento angular orbital como al
intrı́nseco.

308
10.1. DEFINICIÓN DE MOMENTO ANGULAR POR SUS PROPIEDADES DE CONMUTACIÓN 309

10.1. Definición de momento angular por sus propiedades de conmutación


10.1.1. Cuantización del momento angular orbital
Para obtener los tres observables L1 , L2 , L3 asociados a un momento angular orbital clásico de componentes
L1 , L2 , L3 , donde


L = r×p (10.1)
Li = εijk xj pk ; i, j, k = 1, 2, 3 (10.2)
simplemente reemplazamos cada componente xj , pk por los correspondientes operadores Xj , Pk . La cantidad εijk
es el tensor de Levi Civita. Nótese que aunque aparece un producto de estos operadores, no es necesaria una
simetrización puesto que en (10.2) solo sobreviven los términos con j 6= k de modo que los operadores en el
producto conmutan según las reglas canónicas de conmutación (4.11). Por esta razón, no hay ambigüedad en
el orden y el operador que se obtiene es automáticamente hermı́tico. Visto de otra manera, la simetrización del
producto coincide con el producto original cuando los operadores conmutan. Los observables cuánticos son entonces
Li = εijk Xj Pk ; i, j, k = 1, 2, 3 (10.3)
L = R×P (10.4)
calculemos entonces los conmutadores entre los Li con base en las relaciones canónicas de conmutación (4.11)
[L1 , L2 ] = [X2 P3 − X3 P2 , X3 P1 − X1 P3 ] = [X2 P3 , X3 P1 − X1 P3 ] − [X3 P2 , X3 P1 − X1 P3 ]
= [X2 P3 , X3 P1 ] − [X2 P3 , X1 P3 ] − [X3 P2 , X3 P1 ] + [X3 P2 , X1 P3 ]
= X2 [P3 , X3 P1 ] + [X2 , X3 P1 ] P3 − X2 [P3 , X1 P3 ] − [X2 , X1 P3 ] P3
−X3 [P2 , X3 P1 ] − [X3 , X3 P1 ] P2 + X3 [P2 , X1 P3 ] + [X3 , X1 P3 ] P2

[L1 , L2 ] = X2 [P3 , X3 ] P1 + X3 [X2 , P1 ] P3 − X2 [P3 , X1 ] P3 − X1 [X2 , P3 ] P3


−X3 [P2 , X3 ] P1 − X3 [X3 , P1 ] P2 + X3 [P2 , X1 ] P3 + X1 [X3 , P3 ] P2

[L1 , L2 ] = −i~X2 P1 + i~X1 P2 = i~ (R × P)3


[L1 , L2 ] = i~L3
procediendo de forma similar con los demás conmutadores se obtiene
[L1 , L2 ] = i~L3 ; [L1 , L3 ] = −i~L2 ; [L2 , L3 ] = i~L1
o más sintéticamente
[Li , Lj ] = i~εijk Lk (10.5)
este resultado se puede generalizar cuando tenemos N partı́culas sin espı́n. El momento angular total del sistema
en mecánica cuántica es
XN
L= L(i) ; L(i) ≡ R(i) × P(i)
i=1

y cada momento angular individual L(i)


satisface relaciones de conmutación del tipo (10.5) y conmuta con L(j)
para i 6= j, ya que son operadores actuando en el espacio de estados de partı́culas diferentes. Por tanto para N
partı́culas tendrı́amos h i
(m) (n) (m)
Li , Lj = i~εijk δmn Lk
Se puede demostrar adicionalmente que el origen de las reglas de conmutación (10.5) yace en las propiedades
geométricas de las rotaciones en tres dimensiones. Esto está relacionado con el hecho de que en mecánica clásica,
el momento angular junto con el torque forman las variables fundamentales de la dinámica rotacional.
310 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

10.1.2. Definición de momento angular


De nuestro trabajo con el oscilador armónico hemos aprendido que muchas propiedades se pueden extraer de las
reglas de conmutación entre los operadores sin utilizar una representación especı́fica. Esto nos induce a generalizar
los resultados anteriores para definir un operador momento angular como cualquier tripla de observables J =
(J1 , J2 , J3 ), que satisface las relaciones
[Ji , Jj ] = i~εijk Jk (10.6)

será de gran utilidad el operador


J2 = J12 + J22 + J32

este operador es Hermı́tico ya que cada componente es hermı́tica. Vale la pena enfatizar que el carácter de
observable de los Ji forma parte esencial de la definición de momento angular1 . Calculemos primero el conmutador
de J2 con J, para lo cual calculamos para cada componente
   2     
J2 , J1 = J1 + J22 + J32 , J1 = J22 , J1 + J32 , J1
= J2 [J2 , J1 ] + [J2 , J1 ] J2 + J3 [J3 , J1 ] + [J3 , J1 ] J3
= −i~J2 J3 − i~J3 J2 + i~J3 J2 + i~J2 J3
 2

J , J1 = 0

y similarmente con las otras componentes de modo que


 
J2 , J = 0 (10.7)

toda la teorı́a del momento angular en cuántica se basará completamente en las reglas de conmutación (10.6,
10.7). En particular, estas relaciones muestran que no es posible medir simultáneamente las tres componentes
del momento angular, pero sı́ es posible medir simultáneamente una sola componente y la cantidad J2 . Es decir
cualquier componente de J es una variable compatible con J2 . Esto implicará que si asumimos que J2 y Ji son
observables, podemos encontrar una base común de vectores propios para J2 y uno de los Ji . Es usual elegir la
componente de J3 , y decimos que tomamos a X3 como “eje de cuantización” de modo que construı́mos una base
que diagonalice simultáneamente a J2 y a J3 .

10.2. Propiedades algebráicas del momento angular


Estudiaremos la estructura del espectro de J2 y J3 ası́ como la estructura de sus vectores propios comunes.
Veremos que muchos de los argumentos se asemejan a los que se utilizaron para el oscilador armónico.
En primer lugar, inspirados por la definición de los operadores a y a† en las Ecs. (8.6) introduciremos los
siguientes operadores

J+ ≡ J1 + iJ2 ; J− ≡ J1 − iJ2 (10.8)


1 1
J1 = (J+ + J− ) ; J2 = (J+ − J− ) (10.9)
2 2i

y al igual que los operadores a y a† , los operadores J± no son hermı́ticos y son conjugados el uno del otro. En todo
el estudio del momento angular trabajaremos con los operadores J2 , J3 , J+ , J− por lo cual será necesario encontrar
todas las relaciones de conmutación entre ellos
1
Para un conjunto concreto de tres operadores, el carácter de observable solo podrá verificarse cuando se sepa sobre que espacio
actúan los operadores momento angular. Las reglas de conmutación no especifican sobre qué espacio actúan los momentos angulares.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 311

10.2.1. Álgebra de los operadores J2 , J3 , J+ , J−


Usando las Ecs. (10.6, 10.7, 10.8) podemos encontrar las relaciones de conmutación requeridas

[J3 , J± ] = [J3 , J1 ± iJ2 ] = [J3 , J1 ] ± i [J3 , J2 ] = i~J2 ± i (−i~J1 ) = ~ {iJ2 ± J1 }


[J3 , J+ ] = ~J+ ; [J3 , J− ] = −~J−

[J+ , J− ] = [J1 + iJ2 , J1 − iJ2 ] = [J1 , J1 − iJ2 ] + i [J2 , J1 − iJ2 ]


= [J1 , J1 ] − i [J1 , J2 ] + i [J2 , J1 ] + [J2 , J2 ] = 2i [J2 , J1 ] = 2i (−i~J3 )
[J+ , J− ] = 2~J3 (10.10)

       
J2 , J± = J2 , J1 ± iJ2 = J2 , J1 ± i J2 , J2
 
J2 , J± = 0

también serán útiles los siguientes productos

J+ J− = (J1 + iJ2 ) (J1 − iJ2 ) = J12 + J22 + iJ2 J1 − iJ1 J2


= J12 + J22 + J32 − J32 + i [J2 , J1 ] = J2 − J32 + i (−i~J3 )
J+ J− = J2 − J32 + ~J3 (10.11)

el producto J− J+ se puede obtener explı́citamente o usando las Ecs. (10.10, 10.11)

J− J+ = J+ J− − [J+ , J− ] = J2 − J32 + ~J3 − 2~J3


J− J+ = J2 − J32 − ~J3

resumiremos el álgebra encontrada hasta ahora. Tenemos las definiciones

J ≡ (J1 , J2 , J3 ) ; J2 ≡ J12 + J22 + J32 (10.12)


J+ ≡ (J1 + iJ2 ) ; J− ≡ (J1 − iJ2 ) (10.13)

donde los Ji son observables con las siguientes propiedades algebráicas


 2 
[Ji , Jj ] = i~εijk Jk ; J ,J = 0 (10.14)
[J3 , J+ ] = ~J+ ; [J3 , J− ] = −~J− (10.15)
 2 
[J+ , J− ] = 2~J3 ; J , J± = 0 (10.16)
2
J+ J− = J − J32 + ~J3 ; J− J+ = J − 2
J32 − ~J3 (10.17)

10.3. Estructura de valores y vectores propios


10.3.1. Notación
Dado que J2 es la suma de cuadrados de tres operadores hermı́ticos, tal operador es positivo

hψ| J2 |ψi = hψ| J12 |ψi + hψ| J22 |ψi + hψ| J32 |ψi = hψ| J1† J1 |ψi + hψ| J2† J2 |ψi + hψ| J3† J3 |ψi
= kJ1 |ψik2 + kJ2 |ψik2 + kJ3 |ψik2 ≥ 0

este resultado era de esperarse ya que la variable clásica es el módulo al cuadrado de un vector el cual es no
negativo. En particular eligiendo a |ψi como un autovector de J2 vemos que

hψ| J2 |ψi = hψ| a |ψi = a hψ| ψi = a k|ψik2 ≥ 0 ⇒ a ≥ 0


312 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

los autovalores deben ser no negativos (en analogı́a con los autovectores de N en el oscilador armónico). Dado
que J tiene dimensiones de momento angular, el valor propio de J2 se puede parametrizar como a = µ~2 siendo
µ una cantidad adimensional no negativa. Adicionalmente, se puede demostrar que para todo µ ≥ 0 la ecuación

j (j + 1) = µ (10.18)

tiene una y solo una raı́z no negativa2 . Por tanto la especificación de µ determina completamente a j y viceversa.
Por tanto, sin pérdida de generalidad podemos denotar a los valores propios de J2 en la forma

J2 |ψi = j (j + 1) ~2 |ψi ; j ≥ 0

si consideramos que {|ψi} es la base de vectores propios comunes a J2 y J3 denotaremos a los valores propios de
J3 en la forma
J3 |ψi = m~ |ψi
siendo m una cantidad adimensional.
Puesto que J2 y J3 son observables conmutantes, ellos hacen parte de un C.S.C.O pero no necesariamente
lo constituyen por sı́ solos. Por esa razón denotaremos a los kets propios comunes a los dos con tres números
cuánticos: j para rotular los valores propios de J2 , m para rotular los valores propios de J3 y k asociado a la
degeneración. Naturalmente, estos ı́ndices pueden ser de momento contı́nuos o discretos y k podrı́a simbolizar
varios ı́ndices (los necesarios para completar un C.S.C.O.).
En sı́ntesis escribiremos la ecuación de valores propios en la forma

J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki (10.19)

10.3.2. Caracterı́sticas generales de los valores propios de J2 y J3


Asumiremos que los estados propios están normalizados y que J2 y J3 son observables. En analogı́a con el
oscilador armónico, vamos a caracterizar primero a los vectores J+ |j, m, ki y J− |j, m, ki, por medio de sus normas
al cuadrado

kJ+ |j, m, kik2 = hj, m, k| J− J+ |j, m, ki ≥ 0 (10.20)


2
kJ− |j, m, kik = hj, m, k| J+ J− |j, m, ki ≥ 0 (10.21)

y usando las Ecs. (10.17, 10.19) resulta



kJ± |j, m, kik2 = hj, m, k| J2 − J32 ∓ ~J3 |j, m, ki

= hj, m, k| j (j + 1) ~2 − m2 ~2 ∓ m~2 |j, m, ki
= j (j + 1) ~2 − m2 ~2 ∓ m~2
kJ± |j, m, kik2 = ~2 {j (j + 1) − m (m ± 1)} (10.22)

reemplazando (10.22) en (10.20, 10.21) se tiene que

j (j + 1) − m (m + 1) = (j − m) (j + m + 1) ≥ 0 (10.23)
j (j + 1) − m (m − 1) = (j − m + 1) (j + m) ≥ 0 (10.24)

asumamos que j − m < 0, dado que j ≥ 0 entonces m > 0 y j + m + 1 > 0. Por tanto, (j − m) (j + m + 1) < 0,
contradiciendo la Ec. (10.23). Debemos rechazar la hipótesis de que j − m < 0.
Es necesario entonces que j − m ≥ 0, de esta hipótesis se obtiene que j − m + 1 > 0, y para satisfacer la Ec.
(10.24) se requiere que (j + m) ≥ 0, tenemos entonces que las condiciones

j−m≥0 y j+m≥0 (10.25)


2 √ 
La Ec. (10.18) tiene como solución j± = −1 ± 1 + 4µ /2. Si µ ≥ 0, la única solución no negativa para j es j+ .
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 313

por construcción satisfacen (10.24). Solo falta ver que estas condiciones también cumplen con la desigualdad
(10.23). Usando la segunda condición j + m ≥ 0 vemos que implica j + m + 1 > 0, y esto junto con la primera
condición en (10.25) nos satisface la Ec. (10.23). Vemos entonces que las condiciones (10.25) son necesarias y
suficientes para que se cumplan las desigualdades (10.23) y (10.24). Finalmente, y teniendo en cuenta que j es no
negativo, estas condiciones se pueden reescribir como

j−m ≥ 0 y j+m≥0 ⇔ j ≥m y j ≥ −m
⇔ j ≥ |m| ⇔ −j ≤ m ≤ j

con lo cual obtenemos el siguiente lema

Lemma 4 Si j (j + 1) ~2 y m~ son valores propios de J2 y J3 asociados al ket propio común |j, m, ki entonces j
y m satisfacen la desigualdad
−j ≤ m ≤ j (10.26)

Ahora veremos con base en la Ec. (10.26), las caracterı́sticas de los kets J− |j, m, ki y J+ |j, m, ki, siendo
|j, m, ki autovector común de J2 y J3 .
En primer lugar, veremos las condiciones necesarias y suficientes para la nulidad del vector J− |j, m, ki. Esto
se puede hacer con base en la Ec. (10.22)

J− |j, m, ki = 0 ⇔ kJ− |j, m, kik2 = 0 ⇔ ~2 {j (j + 1) − m (m − 1)} = 0


⇔ (j − m + 1) (j + m) = 0

cuyas soluciones son m = −j (su mı́nimo valor posible) y m = j + 1. Pero la segunda solución contradice al lema
4 Ec. (10.26). Por tanto
m = −j ⇔ J− |j, m, ki = 0 (10.27)
por tanto si m > −j el vector J− |j, m, ki será no nulo siempre que se cumpla la Ec. (10.26). Esto se puede
corroborar reemplazando m > −j en la Ec. (10.22) verificando que la norma de J− |j, m, ki no es nula. Ahora
demostraremos que J− |j, m, ki es un ket propio de J2 y J3 . Puesto que J2 y J− conmutan según la Ec. (10.16),
podemos escribir

 
J2 , J− |j, m, ki = 0 ⇒ J2 J− |j, m, ki = J− J2 |j, m, ki ⇒ J2 J− |j, m, ki = J− j (j + 1) ~2 |j, m, ki
⇒ J2 [J− |j, m, ki] = j (j + 1) ~2 [J− |j, m, ki]

por tanto J− |j, m, ki es ket propio de J2 con valor propio j (j + 1) ~2 . Este resultado está relacionado con el hecho
de que J2 y J− conmutan, como se aprecia en el teorema 1.66, pág. 57. Ahora veremos que J− |j, m, ki es también
ket propio de J3 , para lo cual empleamos la Ec. (10.15)

[J3 , J− ] |j, m, ki = −~J− |j, m, ki ⇒ J3 J− |j, m, ki = (J− J3 − ~J− ) |j, m, ki ⇒


J3 J− |j, m, ki = (J− m − J− ) ~ |j, m, ki
⇒ J3 [J− |j, m, ki] = (m − 1) ~ [J− |j, m, ki]

de modo que J− |j, m, ki es autovector de J3 con autovalor (m − 1) ~. Los anteriores resultados se pueden resumir
en el siguiente lema

Lemma 5 Sea |j, m, ki un vector propio común a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a)
6 0 y es autovector de J2 y J3 con
m = −j si y solo si J− |j, m, ki = 0. (b) Si m > −j entonces J− |j, m, ki =
2
valores propios j (j + 1) ~ y (m − 1) ~.
314 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

El siguiente paso natural es estudiar al vector J+ |j, m, ki. De la Ec. (10.22) podemos ver las condiciones
necesarias y suficientes para que J+ |j, m, ki sea nulo.

J+ |j, m, ki = 0 ⇔ kJ+ |j, m, kik2 = 0 ⇔ ~2 {j (j + 1) − m (m + 1)} = 0


⇔ (j + m + 1) (j − m) = 0

las soluciones son m = j y m = − (j + 1) pero la segunda solución es incompatible con el lema 4 Ec. (10.26). Por
tanto
m = j ⇔ J+ |j, m, ki = 0 (10.28)
si m < j, y usando (10.16, 10.15) obtenemos
 2 
J , J+ |j, m, ki = 0 ⇒ J2 J+ |j, m, ki = J+ J2 |j, m, ki ⇒
J2 [J+ |j, m, ki] = j (j + 1) ~2 [J+ |j, m, ki]

[J3 , J+ ] |j, m, ki = ~J+ |j, m, ki ⇒ J3 J+ |j, m, ki = J+ J3 |j, m, ki + ~J+ |j, m, ki


J3 J+ |j, m, ki = m~J+ |j, m, ki + ~J+ |j, m, ki
J3 [J+ |j, m, ki] = (m + 1) ~ [J+ |j, m, ki]

por tanto J+ |j, m, ki es vector propio de J2 y de J3 con valores propios j (j + 1) ~2 y (m + 1) ~. Tenemos entonces
el siguiente lema

Lemma 6 Sea |j, m, ki un vector propio común a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a)
6 0 y es autovector de J2 y J3 con valores
m = j si y solo si J+ |j, m, ki = 0. (b) Si m < j entonces J+ |j, m, ki =
2
propios j (j + 1) ~ y (m + 1) ~.

Veremos que estos lemas permiten encontrar el espectro de J2 y J3 .

10.3.3. Determinación de los valores propios de J2 y J3


Asumamos que |j, m, ki es un autovector de J2 y J3 con valores propios j (j + 1) ~2 y m~. El lema 4 nos dice
que
−j ≤ m ≤ j
como el ket es fijo los valores de j y m son fijos. Es claro que existe un número entero no negativo p, tal que

−j ≤ m − p < −j + 1 (10.29)

formamos ahora una sucesión de vectores


n o
|j, m, ki , J− |j, m, ki , (J− )2 |j, m, ki , . . . , (J− )p |j, m, ki (10.30)

demostraremos que estos son vectores propios no nulos de J2 y J3 y que para potencias más altas de J− , se
obtienen vectores nulos. Esto se realiza aplicando iterativamente el lema 5
Comenzamos aplicando el lema 5 a |j, m, ki. Por hipótesis |j, m, ki es vector propio no nulo de J2 y J3 con valores
propios j (j + 1) ~2 y m~. Si m > −j podemos aplicar el lema 5 con lo cual J− |j, m, ki ≡ |j, m − 1, ki es vector
propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m − 1) ~. Si m − 1 > −j podemos aplicar de nuevo
el lema y J− |j, m − 1, ki = (J− )2 |j, m, ki ≡ |j, m − 2, ki es vector propio
h no nulo de iJ2 y J3 con valores propios
n−1
j (j + 1) ~2 y (m − 2) ~. En general si m − (n − 1) > −j entonces J− (J− ) |j, m, ki = J− |j, m − (n − 1) , ki =
(J− )n |j, m, ki ≡ |j, m − n, ki es vector propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m − n) ~.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 315

Veremos que estas condiciones se satisfacen solo para n = 0, 1, . . . , p. Si asumimos que 0 ≤ n ≤ p entonces

m − (n − 1) = m − n + 1 ≥ m − p + 1 ≥ −j + 1

donde hemos usado la primera de las desigualdades (10.29) en el último paso. Por tanto

m − (n − 1) ≥ −j + 1 > −j

de modo que la condición m − (n − 1) > −j necesaria para aplicar el lema 5 se cumple cuando n = 0, 1, . . . , p.
Ahora veamos lo que ocurre con el vector (J− )p+1 |j, m, ki = J− [(J− )p |j, m, ki]. Puesto que (J− )p |j, m, ki es
autovector de J2 y J3 con valores propios j (j + 1) ~2 y (m − p) ~, el lema 4 Ec. (10.26) nos dice que (m − p) ≥ −j.
Asumamos de momento que
(m − p) > −j
una aplicación adicional del lema 5 nos dice que J− [(J− )p |j, m, ki] es autovector no nulo de J2 y J3 con valores
propios j (j + 1) ~2 y (m − p − 1) ~. Ahora aplicando la segunda de las desigualdades en la expresión (10.29), se
tiene que
m − p − 1 < −j
lo cual contradice al lema 4 Ec. (10.26). Por tanto debemos rechazar la hipótesis m − p > −j. Solo nos queda
entonces que m − p = −j y al aplicar el lema 5 se obtiene

(J− )p+1 |j, m, ki = J− |j, m − p, ki = 0

y todas las potencias mayores también se anulan. Esta anulación evita el conflicto con el lema 4.
De lo anterior se deduce que existe un entero no negativo p tal que

m − p = −j (10.31)

Por un razonamiento similar, existe un entero no negativo q, tal que

j−1<m+q ≤j

y se puede demostrar que para este entero no negativo q, la sucesión


n o
|j, m, ki , J+ |j, m, ki , (J+ )2 |j, m, ki , . . . , (J+ )q |j, m, ki (10.32)

consiste de vectores no nulos, pero potencias mayores de J+ producen vectores nulos con lo cual se evita una
contradicción con el lema 4. Esto implica a su vez que existe un entero no negativo q tal que

m+q =j (10.33)

aquı́ aparece una diferencia con respecto al oscilador armónico, ya que ambos operadores J+ y J− tienen una
sucesión limitada de potencias que generan vectores no nulos. En el oscilador armónico, la sucesión de a† no está
limitada. Esto tiene que ver con el hecho de que J+ ( J− ) es un operador que incrementa (decrementa) el valor
de m dejando j sin cambiar. Pero para un j dado, m tiene lı́mite superior e inferior, por tanto hay lı́mites tanto
para el decremento como para el incremento. Otra diferencia importante es la degeneración y el hecho de que el
conjunto J2 , J3 no forma en general un C.S.C.O.3
3
La cuestión es que la teorı́a del momento angular no parte de un Hamiltoniano definido ni tampoco de un espacio de Hilbert
definido, a diferencia de la teorı́a del oscilador armónico en donde el espacio de estados y el Hamiltoniano son bien especı́ficos. Por esta
razón, la teorı́a general del momento angular no nos puede decir a priori cual es el grado de degeneración de los estados propios de J2
y J3 .
316 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

Combinando las Ecs. (10.31, 10.33) se tiene que

p+q
p + q = 2j ⇒ j =
2

pero p + q es un entero no negativo. Por tanto, j solo puede adquirir valores enteros o semienteros no negativo

1 3 5
j = 0, , 1, , 2, , . . .
2 2 2

Estos son los valores posibles pero no hemos demostrado que tenga que tomarlos todos (de hecho no es ası́ en
general4 ). Adicionalmente, si existe un autovector no nulo |j, m, ki de J2 y J3 , las sucesiones (10.30, 10.32) constan
de autovectores no nulos de J2 con valores propios j (j + 1) ~2 y también de J3 con autovalores dados por

mj = −j~, (−j + 1) ~, (−j + 2) ~, . . . , (j − 2) ~, (j − 1) ~, j~ (10.34)

es decir tenemos 2j + 1 valores posibles de m para un j dado. Puesto que estos valores se obtienen de las sucesiones
ya mencionadas, todos los 2j + 1 valores de m posibles bajo la restricción (10.26) son valores propios accesibles
para un valor dado de j. Adicionalmente, puesto que p y q son enteros no negativos, las Ecs. (10.31, 10.33) nos
dicen que m es entero (semi-entero) si y solo si j es entero (semi-entero). Lo anterior nos dice que para un j dado,
todos los valores de m expresados en la Ec. (10.34) están asociados a un vector |j, m, ki y son además los únicos
valores accesibles de m para dicho valor de j.
Podemos sintetizar estos resultados en la siguiente forma: Sea J un momento angular arbitrario que obedece
las reglas de conmutación (10.6). Si j (j + 1) ~2 y m~ denotan los autovalores de J2 y J3 asociados al ket común
|j, m, ki. Tenemos que

Los únicos valores posibles de j son enteros o semienteros no negativos: 0, 12 , 1, 32 , 2, 52 , . . .. No necesariamente


j debe tomar todos estos valores.

Para un valor dado de j existen 2j + 1 valores posibles de m: −j, − j + 1, − j + 2, . . . , j − 2, j − 1, j. La


cantidad m es entera si y solo si j es entera. Ası́ mismo, m es semi-entero si y solo si j es entero. Todos los
valores de m son permitidos si uno de ellos lo es.

10.4. Propiedades de los vectores propios de J2 y J3


Veremos que las propiedades algebráicas de los operadores J2 , J3 , J+ , J− , nos permiten extraer información
sobre los estados propios de J2 y J3 incluso sin especificar el espacio de Hilbert E sobre el cual actúan los operadores.
Para ello solo requerimos dos hipótesis de trabajo: (1) Que J2 y J3 son observables con respecto al espacio E sobre
el cual actúan, y (2) Que conocemos por algún medio experimental y/o teórico, los valores de j que son permitidos
en nuestro sistema fı́sico (recordemos que j debe ser entero o semientero no negativo, pero no necesariamente debe
cubrir todos los valores enteros y semienteros no negativos).
Debemos recordar que para un j dado que esté permitido, todos los valores de m permitidos por la Ec. (10.26)
deben aparecer. En el oscilador armónico aprendimos que con un solo estado (el estado base) podemos generar
todos los estados propios por medio del operador construcción. En esta sección desarrollaremos un método para
generar los autoestados de J2 y J3 a partir de un subconjunto de estos estados y de los operadores J+ y J− .

4
Esto también está relacionado con el hecho de que el Hamiltoniano y el espacio vectorial sobre el cual operan los Ji no están
definidos.
10.4. PROPIEDADES DE LOS VECTORES PROPIOS DE J2 Y J3 317

10.4.1. Generación de autoestados por medio de los operadores J+ y J−


Consideremos un operador momento angular J que actúa sobre un espacio de estados E, y mostraremos un
algoritmo para construir una base ortonormal en E de vectores propios comunes a J2 y J3 .
Tomemos un par de valores propios j (j + 1) ~2 y m~ que sean realizables fı́sicamente para nuestro sistema
fı́sico. Los autovectores asociados |j, m, ki pueden ser degenerados en j, m lo cual se indica con el ı́ndice k. Los
vectores propios asociados al par (j, m) forman un autosubespacio E (j, m) de dimensión g (j, m). Si g (j, m) > 1
para al menos un par (j, m), entonces el conjunto J2 , J3 no forma un C.S.C.O. Escogeremos en E (j, m) una base
ortonormal de vectores {|j, m, ki} con k = 1, . . . , g (j, m).
Si m 6= j existe un subespacio E (j, m + 1) de E compuesto por autovectores de J2 , J3 con valores propios
j (j + 1) ~2 y (m + 1) ~. Análogamente, si m 6= −j existe un subespacio E (j, m − 1) con autovectores de J2 , J3
y valores propios j (j + 1) ~2 , (m − 1) ~. Si m 6= j construiremos una base ortonormal en E (j, m + 1) a partir de
la base ya construı́da para E (j, m). Similarmente, si m 6= −j generaremos una base ortonormal en E (j, m − 1)
partiendo de la base en E (j, m).
En primer lugar mostraremos que si |j, m, k1 i y |j, m, k2 i son ortogonales para k1 6= k2 , entonces los vectores
J+ |j, m, k1 i y J+ |j, m, k2 i también son ortogonales. De igual forma se verá que J− |j, m, k1 i y J− |j, m, k2 i también
son ortogonales. Para ello calculamos el producto interno entre los kets en cuestión utilizando las fórmulas (10.17)

(J± |j, m, k2 i , J± |j, m, k1 i) = hj, m, k2 | J∓ J± |j, m, k1 i = hj, m, k2 | J2 − J32 ∓ ~J3 |j, m, k1 i
 
= j (j + 1) − m2 ∓ m ~2 hj, m, k2 | j, m, k1 i
(J± |j, m, k2 i , J± |j, m, k1 i) = [j (j + 1) − m (m ± 1)] ~2 hj, m, k2 | j, m, k1 i (10.35)

y puesto que los vectores {|j, m, ki i} asociados a E (j, m) son ortonormales por hipótesis, se tiene

Theorem 10.1 Sean |j, m, k1 i y |j, m, k2 i dos autovectores ortogonales de J2 y J3 con valores propios j (j + 1) ~2 ,
m~, y k1 6= k2 . Entonces J± |j, m, k2 i es ortogonal a J± |j, m, k1 i.

Si k1 = k2 ≡ k, la Ec. (10.35) nos permite calcular la norma de J± |j, m, ki. Asumiendo que |j, m, ki está
normalizado se tiene
kJ± |j, m, kik2 = [j (j + 1) − m (m ± 1)] ~2
por tanto podemos construı́r vectores ortonormales asociados a |j, m ± 1, ki para lo cual simplemente debemos
normalizar los vectores J± |j, m, ki.
Comencemos con J+ |j, m, ki, normalizando los vectores J+ |j, m, ki obtenemos un conjunto ortonormal en
E (j, m + 1) dado por
J+ |j, m, ki
|j, m + 1, ki ≡ p (10.36)
~ j (j + 1) − m (m + 1)
multipliquemos (10.36) por J− usando (10.17)

J− J+ |j, m, ki J2 − J32 − ~J3 |j, m, ki
J− |j, m + 1, ki = p = p
~ j (j + 1) − m (m + 1) ~ j (j + 1) − m (m + 1)
[j (j + 1) − m (m + 1)] ~ |j, m, ki
= p
j (j + 1) − m (m + 1)
p
J− |j, m + 1, ki = ~ j (j + 1) − m (m + 1) |j, m, ki (10.37)

Vamos a demostrar que el conjunto ortonormal {|j, m + 1, ki} en E (j, m + 1) generado por todos los elementos
de la base {|j, m, ki} de E (j, m) a través de (10.36), constituye una base para E (j, m + 1). La demostración se
hará por contradicción, es decir asumiendo que {|j, m + 1, ki} no es una base, según el teorema 1.23, Pág. 30, esta
negación equivale a decir que existe un vector no nulo |j, m + 1, αi en E (j, m + 1) ortogonal a todos los vectores
del conjunto.
318 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

Asumamos que existe un vector no nulo |j, m + 1, αi en E (j, m + 1) ortogonal a todos los elementos del conjunto
ortonormal {|j, m + 1, ki}. Por tanto, α 6= k para todos los k′ s del conjunto anterior. Dado que m + 1 6= −j, el
vector J− |j, m + 1, αi es no nulo en virtud del lema 5, y dicho vector yace en E (j, m). Ahora bien, puesto que
α 6= k, el teorema 10.1 dice que J− |j, m + 1, αi será ortogonal a todos los vectores J− |j, m + 1, ki. Por otro
lado, la Ec. (10.37) nos dice que J− |j, m + 1, ki es colineal con |j, m, ki. En consecuencia, al barrer toda la
base {|j, m, ki} obtenemos que el conjunto {J− |j, m + 1, ki} generado de esta manera también es una base para
E (j, m). De lo anterior vemos que J− |j, m + 1, αi es un vector no nulo de E (j, m), ortogonal a todos los vectores
de la base {|j, m, ki}, pero esto es imposible en virtud del teorema 1.23. Por tanto, el conjunto de vectores
{|j, m + 1, ki} generado por la base {|j, m, ki} de E (j, m) por medio de (10.36) es completo.
De una forma similar se puede demostrar que cuando m 6= −j podemos definir vectores |j, m − 1i en la forma
J− |j, m, ki
|j, m − 1, ki ≡ p (10.38)
~ j (j + 1) − m (m − 1)
para formar una base ortonormal en E (j, m − 1). Nótese que (10.38) se obtiene de (10.37) reemplazando m → m−1.
Las Ecs. (10.36, 10.38) implican una escogencia de fase cero entre |j, m ± 1, ki y el vector J± |j, m, ki, de modo que
la constante de proporcionalidad entre ambos es real y positiva. Esta convención de fase cero es conocida como
convención de Cordon-Shortley.
En particular vemos que las Ecs. (10.36) establecen relaciones uno a uno y sobreyectivas entre las bases de
E (j, m) y E (j, m + 1). Igualmente las Ecs. (10.38) nos dan una relación uno a uno y sobreyectiva entre las bases
de E (j, m) y E (j, m − 1). En consecuencia, los espacios E (j, m) y E (j, m ± 1) son de la misma dimensionalidad.
Por inducción se obtiene entonces que la dimensionalidad de cualquier E (j, m) solo depende de j
g (j, m) = g (j)
describamos un procedimiento sistemático para generar una base ortonormal para el espacio completo E. Para
un valor accesible de j encontramos un subespacio de la forma E (j, m) digamos E (j, j), y encontramos una base
ortonormal de dicho espacio {|j, j, ki ; k = 1, . . . , g (j)}. Ahora usando (10.38) contruı́mos iterativamente las bases
para E (j, j − 1) , E (j, j − 2) , . . . , E (j, −j). La unión de las bases de los 2j + 1 subespacios asociados a j nos da
una base ortonormal para el subespacio E (j) dado por
E (j) = E (j, j) ⊕ E (j, j − 1) ⊕ E (j, j − 2) ⊕ . . . ⊕ E (j, −j) (10.39)
es claro que el espacio E (j) es de dimensionalidad (2j + 1) g (j). Una vez generada la base para un E (j), cambiamos
a otro valor accesible de j y repetimos el procedimiento, barriendo todos los valores accesibles de j. La base
ortonormal para E se obtiene de la unión de las bases asociadas a cada valor de j puesto que
E = E (j1 ) ⊕ E (j2 ) ⊕ E (j3 ) ⊕ . . . (10.40)
siendo {j1 , j2 , j3 , . . .} los valores accesibles de j en el sistema fı́sico considerado5 . Insistimos que este debe ser un
subconjunto del conjunto de todos los enteros y semienteros no negativos. La tabla 10.1 describe esquemáticamente
el algoritmo para generar una base para E (j) a partir de la base para E (j, j).
La base generada con este algoritmo se conoce como la base estándar del espacio de estados E, para la cual
existen relaciones de completez y ortonormalidad
g(j)
+j X
′ ′ ′ X X

hj, m, k j , m , k = δjj ′ δmm′ δkk′ ; |j, m, ki hj, m, k| = I (10.41)
j m=−j k=1

Por supuesto podemos empezar por E (j, −j) y construı́r con base en J+ . Finalmente, podemos empezar por
un E (j, m) con −j < m < j, en tal caso habrá que generar con J+ “hacia arriba” hasta j y con J− “hacia abajo”
hasta −j.
5
Nótese que la Ec. (10.40) es cierta bajo la hipótesis de que los operadores Ji sean observables. Es decir, que los valores permitidos
de j nos den una base para E .
10.5. CONSTRUCCIÓN DE UNA BASE ESTÁNDAR CON BASE EN UN C.S.C.O 319

k=1 k=2 ... k = g (j)


E (j, j) |j, j, 1i |j, j, 2i ... |j, j, g (j)i
⇓ J− ⇓ J− ⇓ J− ... ⇓ J−
E (j, j − 1) |j, j − 1, 1i |j, j − 1, 2i ... |j, j − 1, g (j)i
⇓ J− ⇓ J− ⇓ J− ... ⇓ J−
.. .. .. ..
. . . .
E (j, m) |j, j − m, 1i |j, j − m, 2i ... |j, j − m, g (j)i
⇓ J− ⇓ J− ⇓ J− ... ⇓ J−
.. .. .. ..
. . . .
E (j, −j) |j, −j, 1i |j, −j, 2i ... |j, −j, g (j)i
E (j, k = 1) E (j, k = 2) E (j, k = g (j))
Cuadro 10.1: Construcción de la base estándar para E (j) de dimensión (2j + 1) g (j). Comenzando con cada
uno de los g (j) vectores |j, j, ki de la primera fila, usamos el operador J− para construı́r los 2j + 1 vectores de
cada columna. Los g (j) vectores de la m−ésima fila, expanden al subespacio E (j, m). Los 2j + 1 vectores de la
k−ésima columna expanden al subespacio E (j, k). Hay un total de 2j + 1 subespacios de la forma E (j, m) y un
total de g (j) subespacios de la forma E (j, k). El espacio total se puede obtener por suma directa de los E (j, m),
o alternativamente por suma directa de los E (j, k).

10.5. Construcción de una base estándar con base en un C.S.C.O


Un método muy utilizado para generar una base estándar consiste en usar un conjunto de observables

{A1 , A2 , . . . , An }

que junto con J2 y J3 formen un C.S.C.O. y que además conmuten con todas las componentes de J

[Ai , J] = 0 ; i = 1, . . . , n

un observable que conmute con las componentes de J se denomina un escalar. Por simplicidad asumiremos que un
solo escalar A es suficiente para formar un C.S.C.O con J2 y J3 . Veamos la acción de A sobre un estado arbitrario
|j, m, ki de E (j, m), definiendo |ψi ≡ A |j, m, ki tenemos que

J2 |ψi = J2 A |j, m, ki = AJ2 |j, m, ki = j (j + 1) ~2 A |j, m, ki = j (j + 1) ~2 |ψi


J3 |ψi = J3 A |j, m, ki = AJ3 |j, m, ki = m~A |j, m, ki = m~ |ψi

donde hemos usado el hecho de que A conmuta con J2 y J3 . Tenemos entonces que |ψi ≡ A |j, m, ki es autovector
de J2 y J3 con autovalores j (j + 1) ~2 y m~, y por lo tanto pertenece a E (j, m). En consecuencia, cada subespacio
E (j, m) es globalmente invariante bajo la acción de un operador A que conmute con J2 y J3 . Si ahora escogemos
un valor de j, el subespacio E (j, j) será en particular invariante bajo A y podemos diagonalizar la restricción de
A sobre E (j, j), con cierta base ortonormal {|j, j, ki} de E (j, j),6 de modo que

A |j, j, ki = ajk |j, j, ki (10.42)

el conjunto {|j, j, ki ; j f ijo; k = 1, . . . , g (j)} es una base ortonormal de E (j, j), a partir de la cual se puede
construı́r la base ortonormal para E (j). Aplicando este procedimiento para cada valor accesible de j obtenemos
la base ortonormal {|j, m, ki} para el espacio completo E.
Los resultados anteriores no requieren que A sea escalar, solo requieren que conmute con J2 y J3 . Sea {|j, m, ki}
la base de vectores de E (j, m) obtenida por la aplicación sucesiva de J− sobre la base {|j, j, ki}. Veremos que si
6
Recordemos que A es hermı́tico y por tanto normal. Para todo operador normal existe una representación ortonormal que lo
diagonaliza.
320 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

A es escalar y los elementos de la base {|j, j, ki} son autovectores de A, entonces los kets {|j, m, ki} (obtenidos
por aplicación sucesiva de J− ) además de ser vectores propios de J2 y J3 también serán automáticamente vectores
propios de A. Para ver esto observemos que para un escalar A se tiene

[A, J− ] = [A, J1 − iJ2 ] = [A, J1 ] − i [A, J2 ] = 0 (10.43)

al asumir que los elementos de la base {|j, j, ki} son autovectores de A, podemos usar la Ec. (10.42), la cual
combinada con la Ec. (10.43) nos da

A [J− |j, j, ki] = J− A |j, j, ki = ajk [J− |j, j, ki]

de modo que J− |j, j, ki es autovector de A con el mismo autovalor que |j, j, ki (teorema 1.66). Equivalentemente,
|j, j − 1, ki es autovector de A con el mismo autovalor que |j, j, ki. Aplicando sucesivamente este proceso vemos
que los kets dados por
|j, j, ki , |j, j − 1, ki , . . . , |j, −j, ki
son vectores propios de A con valor propio ajk por tanto podemos escribir

A |j, m, ki = ajk |j, m, ki ; m = j, j − 1, . . . , −j + 1, − j (10.44)

el espectro de A es entonces el mismo para todos los subespacios E (j, m) con j fijo, pero depende en general tanto
de j como de k, de modo que un conjunto de números cuánticos (j, m, k) define unı́vocamente a un vector |j, m, ki
de E, como corresponde a un C.S.C.O.
Nótese que un observable que conmute con J2 y J3 no necesariamente conmuta con J1 y J2 . En particular, el
conjunto (J2 , J3 , A) podrı́a formar un C.S.C.O. sin que A conmute con J1 y/o J2 . En tal caso sin embargo, J±
no conmuta con A y por tanto J± |j, m, ki no necesariamente es autovector de A con el mismo valor propio de
|j, m, ki, incluso si |j, j, ki es autovector de A. Por tanto, cuando A conmuta con J2 y J3 pero no es escalar, la
base {|j, m, ki} obtenida por aplicación sucesiva de J− sobre {|j, j, ki} debe ser rotada a otra base {|j, m, αi} cada
vez que se aplica J− , con el fin de diagonalizar a la restricción de A sobre cada E (j, m). En cambio, cuando A
es escalar solo es necesaria la rotación de los elementos |j, j, k′ i para obtener autovectores de A como en la Ec.
(10.42), y la aplicación sucesiva de J− genera automáticamente autovectores de A.

10.5.1. Descomposición de E en subespacios del tipo E (j, k)


En los procedimientos anteriores hemos descompuesto el espacio completo E en la forma dada por la combi-
nación de las Ecs. (10.39, 10.40)

E = E (j1 , j1 ) ⊕ E (j1 , j1 − 1) ⊕ E (j1 , j1 − 2) ⊕ . . . ⊕ E (j1 , −j1 ) ⊕


E (j2 , j2 ) ⊕ E (j2 , j2 − 1) ⊕ E (j2 , j2 − 2) ⊕ . . . ⊕ E (j2 , −j2 ) ⊕
E (j3 , j3 ) ⊕ E (j3 , j3 − 1) ⊕ E (j3 , j3 − 2) ⊕ . . . ⊕ E (j3 , −j3 ) ⊕ . . .

siendo j1 , j2 , j3 , . . . los valores permitidos de j para el sistema en estudio. Esta es una descomposición en subespacios
del tipo E (j, m). Sin embargo los subespacios E (j, m) tienen ciertas desventajas, por un lado su dimensión g (j)
depende del sistema fı́sico especı́fico ya que esta dimensión nos da cuenta de la degeneración asociada al par (j, m),
por tanto g (j) es desconocido al menos en el caso general. Adicionalmente un subespacio del tipo E (j, m) no es
invariante ante J, por ejemplo
1 1 1
J1 |j, m, ki = (J+ + J− ) |j, m, ki = c+ |j, m + 1, ki + c− |j, m − 1, ki (10.45)
2 2 2
de acuerdo con (10.41) este estado es ortonormal a |j, m, ki y no es nulo ya que por lo menos uno de los estados
|j, m + 1, ki , |j, m − 1, ki tiene que ser no nulo y ambos son ortogonales entre sı́.
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 321

Examinando la tabla (10.1) vemos que cada subespacio del tipo E (j, m) es generado por la expansión de los
g (j) vectores de la m−ésima fila de la tabla (los g (j) valores posibles de k). Vemos sin embargo que hay otra
manera de agrupar los vectores: podemos generar un subespacio con los (2j + 1) vectores de una columna fija
de la tabla, con lo cual obtenemos un subespacio del tipo E (j, k) puesto que en este caso es el par (j, k) el que
permanece fijo en la expansión.
La descomposición de E quedarı́a en la forma

E = E (j1 , k = 1) ⊕ E (j1 , k = 2) ⊕ . . . ⊕ E (j1 , k = g (j1 )) ⊕


E (j2 , k = 1) ⊕ E (j2 , k = 2) ⊕ . . . ⊕ E (j2 , k = g (j2 )) ⊕
E (j3 , k = 1) ⊕ E (j3 , k = 2) ⊕ . . . ⊕ E (j3 , k = g (j3 )) ⊕ . . . (10.46)

los subespacios E (j, k) poseen las propiedades siguientes: (a) la dimensión de E (j, k) es 2j + 1 de modo que para
un j dado su dimensión se conoce sin importar el sistema fı́sico que se esté trabajando. (b) E (j, k) es globalmente
invariante bajo J. Incluso se puede demostrar que E (j, k) es irreducible como subespacio invariante de J, es decir
no hay un subespacio propio no nulo de E (j, k) que sea invariante bajo J.
Nos limitaremos a demostrar la invarianza de E (j, k) bajo J. Una base para este espacio es de la forma
{|j, m, ki ; m = −j, −j + 1, . . . , j − 1, j}. Para J3 es inmediato, para J1 tomamos el resultado de la Ec. (10.45)
notando que los dos kets son estados con el mismo valor de j, k y solo difieren en m. Por tanto J1 |j, m, ki pertenece
a E (j, k). Para J2 el argumento es similar. En general E (j, k) será invariante bajo cualquier función del tipo F (J),
lo cual se puede ver simplemente de la expansión de Taylor de F (J) y de que E (j, k) es invariante ante cualquier
potencia de J.

10.6. Representaciones matriciales de los operadores momento angular


Los elementos matriciales de los Ji en la base estándar {|j, m, ki}, se pueden calcular a través de la acción de
los operadores J3 , J± sobre los kets propios |j, m, ki de J2 y J3 descritos por las Ecs. (10.19, 10.36, 10.38)
p
J3 |j, m, ki = m~ |j, m, ki ; J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki (10.47)

combinando las Ecs. (10.9, 10.47) encontramos la acción de J1 y J2 sobre los kets de la base
1 ~ hp
J1 j ′ , m′ , k′ = (J+ + J− ) j ′ , m′ , k′ = j ′ (j ′ + 1) − m′ (m′ + 1) j ′ , m′ + 1, k′
2 2
p i
+ j (j + 1) − m (m − 1) j ′ , m′ − 1, k′
′ ′ ′ ′ (10.48)

1 ~ hp ′ ′
J2 j ′ , m′ , k′ = (J+ − J− ) j ′ , m′ , k′ = j (j + 1) − m′ (m′ + 1) j ′ , m′ + 1, k′
2i 2i
p i
− j (j + 1) − m (m − 1) j ′ , m′ − 1, k′
′ ′ ′ ′ (10.49)

de las Ecs. (10.47, 10.48, 10.49) y la ortonormalidad de la base, los elementos matriciales de Ji y J± quedan

hj, m, k| J3 j ′ , m′ , k′ = m~δkk′ δjj ′ δmm′ (10.50)
′ ′ ′ p
hj, m, k| J± j , m , k = ~ j (j + 1) − m′ (m′ ± 1)δkk′ δjj ′ δm,m′ ±1 (10.51)

1 ~ hp
hj, m, k| J1 j ′ , m′ , k′ = hj, m, k| (J+ + J− ) j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2 2i
p
+ j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.52)
322 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

1 ~ hp
hj, m, k| J2 j ′ , m′ , k′ = hj, m, k| (J+ − J− ) j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2i 2i
i
p
− j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.53)

lo cual muestra que los elementos matriciales de J solo dependen de j y m pero no de k. Este hecho implica que la
representación matricial de las componentes de J en la base estándar {|j, m, ki} tiene una forma particularmente
simple cuando descomponemos E en subespacios del tipo E (j, k). Las Ecs. (10.50, 10.51, 10.52, 10.53) muestran
que un operador Ji (o una función de la forma F (J)) tiene elementos matriciales nulos cuando el elemento enlaza
dos kets base asociados a espacios E (j1 , k1 ) y E (j2 , k2 ) con j1 6= j2 y/o con k1 6= k2 . Por tanto la matriz será
diagonal por bloques donde los bloques son todos de dimensión 2j + 1 (que es la dimensión de un espacio E (j, k))
en la forma

E (j, k) ··· E (j, k′ ) E (j ′ , k′ ) ···


matriz
E (j, k) 0 0 0
(2j + 1) × (2j + 1)
matriz
E (j, k′ ) 0 0 0
(2j + 1) × (2j + 1)
(10.54)
..
.
matriz
E (j ′ , k′ ) 0 0 0
(2j ′ + 1) × (2j ′ + 1)
..
. 0 0 0 0

comenzando por el valor de j1 más bajo permitido construı́mos las matrices asociadas a E (j1 , k1 ) para el k = k1 más
bajo permitido, luego manteniendo j1 fijo recorremos los posibles valores de k, una vez terminado este recorrido,
continuamos con el siguiente valor permitido j2 de j, recorriendo el ı́ndice k nuevamente y ası́ sucesivamente. Las
matrices asociadas a estos subespacios son de dimensión 2ji + 1.
Por tanto, lo que debemos hacer es calcular las matrices de dimensión finita (2j + 1)× (2j + 1) que representan
a cada operador en cada subespacio E (j, k). Adicionalmente, estas matrices no dependen de k y por tanto no
dependen del sistema fı́sico bajo estudio. Solo dependen de j y del operador que se quiere representar.
En sı́ntesis, la representación matricial de una componente Ji del momento angular en la base estándar, se puede
calcular dentro de un subespacio de la forma E (j, k) sin alusión alguna al sistema fı́sico que se está trabajando.
La matrices del tipo (Ji )(j) son en consecuencia de carácter universal y representan al operador Ji dentro del
subespacio E (j, k) para todos los posibles valores de j es decir j = 0, 12 , 1, . . .. Cuando tenemos un sistema fı́sico
especı́fico, debemos determinar cuales de estos valores de j son permitidos y el número de subespacios E (j, k)
asociados con cada j, es decir el grado de degeneración (2j + 1) g (j). La matriz representativa de Ji será entonces
diagonal por bloques con la estructura descrita en la Ec. (10.54), y se puede construı́r a partir de las matrices
universales definidas para cada subespacio E (j, k). Para cada valor de j, tendremos g (j) bloques idénticos de
(Ji )(j) , es decir todos los valores posibles de k, una vez que para un j dado se barren los valores posibles de k, se

cambia al siguiente valor accesible j ′ y se construyen g (j ′ ) bloques idénticos de (Ji )(j ) y ası́ sucesivamente.

10.6.1. Representaciones matriciales del tipo (Ji )(j) en la base estándar para j arbitrario
De lo anterior, los elementos matriciales para j arbitrario de un operador (Ji )(j) dentro de un subespacio
E (j, k) están dados por

hj, m, k| J3 j ′ , m′ , k′ = m~δkk′ δjj ′ δmm′ (10.55)

2 ′ ′ ′
2
hj, m, k| J j , m , k = j (j + 1) ~ δkk′ δjj ′ δmm′ (10.56)
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 323

p
hj, m, k| J± j ′ , m′ , k′ = ~ j (j + 1) − m′ (m′ ± 1)δkk′ δjj ′ δm,m′ ±1 (10.57)

~ hp
hj, m, k| J1 j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2 i
p
+ j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.58)

~ hp
hj, m, k| J2 j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2i i
p
− j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.59)

vemos que la matriz de (J3 )(j) es diagonal, esto se debe a que se eligió a X3 como el eje de cuantización (la
base estándar consta de vectores propios de J2 y J3 ), sus elementos son los 2j + 1 valores de m~. Para las
matrices (J1,2 )(j) los únicos elementos no nulos son los que están por encima y por debajo de la diagonal. (J1 )(j)
(j)
es una matriz simétrica y real en tanto que (J2 )(j) es antisimétrica y puramente imaginaria. La matriz J2 es
naturalmente diagonal ya que esta es una base de vectores propios de J2 , y adémas sus elementos diagonales son
(j)
idénticos, de modo que J2 es j (j + 1) ~2 I, siendo I la matriz identidad de dimensión (2j + 1) × (2j + 1). La
matriz (J+ )(j) solo tiene elementos no nulos por encima de la diagonal, en tanto que la matriz (J− )(j) solo tiene
elementos no nulos por debajo de la diagonal.
Puesto que todas las direcciones del espacio son equivalentes, es claro que la elección del eje de cuantización
es arbitraria. De esto se desprende que todos los Ji deben tener los mismos valores propios. Los vectores propios
serán sin embargo diferentes ya que los Ji no conmutan entre sı́. En consecuencia, dentro de un subespacio dado
E (j, k) los autovalores de J1 , J2 , J3 son j~, (j − 1) ~, . . . , (−j + 1) ~, −j~. Estos también serán los valores propios de
cualquier componente de la forma Jn = J · n siendo n un vector unitario de dirección arbitraria. Los autovectores
comunes de J2 y J1 son combinaciones lineales de los |j, m, ki con j y k fijos. Lo mismo ocurre con los vectores
propios comunes a J2 y J2 .
En conclusión una base ortonormal {|j, m, ki} del espacio de estados compuesta por vectores comunes a J2 y
J3
J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki

se denomina un base estándar si la acción de J± sobre estos vectores está dada por
p
J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki

10.6.2. Representaciones matriciales en la base estándar para j = 0


Los subespacios E (j = 0, k) son de dimensión 2 (0) + 1 = 1. Y el único valor posible de m es cero. Las matrices
(Ji )(j) son números y de acuerdo con las Ecs. (10.58, 10.59, 10.55) estos números son cero.

10.6.3. Representaciones matriciales en la base estándar para j = 1/2


Los subespacios E (j = 1/2, k) son de dimensión 2 (1/2) + 1 = 2. Las matrices dentro de un subespacio
E (j = 1/2, k) son de dimensión 2 × 2 y los vectores base los elegiremos en el orden m1 = 1/2, m2 = −1/2.
Las representaciones matriciales se obtienen usando las Ecs. (10.58, 10.59, 10.55, 10.56), teniendo en cuenta que
estamos interesados en las representaciones dentro de un subespacio E (j = 1/2, k) de modo que k = k′ . Con estas
324 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA

consideraciones calcularemos la representación matricial de J1 usando (10.58)


  "s  
1 1 ~ 1 1
(J1 )pq ≡ , mp , k J1 , mq , k = δkk δ 1 , 1 + 1 − mq (mq + 1) δmp ,mq +1
2 2 2 2 2 2 2
s   #
1 1
+ + 1 − mq (mq − 1) δmp ,mq −1
2 2
"r r #
~ 3 3
(J1 )pq = − mq (mq + 1) δmp ,mq +1 + − mq (mq − 1) δmp ,mq −1
2 4 4

de aquı́ en adelante se omite el ı́ndice k ya que las representaciones matriciales no dependen de tal ı́ndice. Estas
expresiones muestran que los elementos diagonales son cero, por tanto
 
(1/2) 1 1 1 1
(J1 )11 ≡ , J1 , =0
2 2 2 2
 
(1/2) 1 1 1 1
(J1 )22 ≡ , − J1 , − =0
2 2 2 2

y los términos no diagonales son


  "s   
(1/2) 1 1 1 1 ~ 3 1 1
(J1 )12 ≡ , J1 , − = − − − + 1 δ 1 ,− 1 +1
2 2 2 2 2 4 2 2 2 2

s    #
3 1 1
+ − − − − 1 δ 1 ,− 1 −1
4 2 2 2 2

r
(1/2) ~ 3 1 ~
(J1 )12 = + δ1,1 =
2 4 4 2 2 2

  "s  
(1/2) 1 1 1 1 ~ 3 1 1
(J1 )21 ≡ , − J1 , = − + 1 δ− 1 , 1 +1
2 2 2 2 2 4 2 2 2 2

s   #
3 1 1
+ − − 1 δ− 1 , 1 −1
4 2 2 2 2

(1/2) ~
(J1 )21 =
2
este elemento se podı́a también calcular teniendo en cuenta que la matriz de J1 es simétrica real. La matriz
representativa queda entonces
 
(1/2) ~ 0 1
(J1 ) =
2 1 0
de manera similar se calculan los elementos matriciales de los otros operadores, el resultado es
     
(1/2) ~ 0 1 (1/2) ~ 0 −i (1/2) ~ 1 0
(J1 ) = ; (J2 ) = ; (J3 ) = (10.60)
2 1 0 2 i 0 2 0 −1
     
(1/2) 3 2 1 0 0 1 0 0
J2 = ~ ; (J+ )(1/2) =~ ; (J− )(1/2) = ~ (10.61)
4 0 1 0 0 1 0
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 325

10.6.4. Representaciones matriciales en la base estándar para j = 1


Los subespacios E (j = 1, k) son de dimensión 2 (1) + 1 = 3. Las matrices son de dimensión 3 × 3. Ordenaremos
los vectores base con m1 = 1, m2 = 0, m3 = −1.
Calculemos por ejemplo la representación de J2 usando (10.59), esta ecuación muestra que los términos de la
diagonal son cero ası́ como aquellos en donde los ı́ndices difieren en más de una unidad, por tanto
(1) (1) (1) (1) (1)
(J2 )11 = (J2 )22 = (J2 )33 = (J2 )13 = (J2 )31 = 0
para los otros elementos usamos (10.59) con j = 1, k = k′ , y omitimos k
q q 
~
h1, mp | J2 |1, mq i = 1 (1 + 1) − mq (mq + 1) δmp ,mq +1 − 1 (1 + 1) − mq (mq − 1) δmp ,mq −1
2i
q q 
~
h1, mp | J2 |1, mq i = 2 − mq (mq + 1) δmp ,mq +1 − 2 − mq (mq − 1) δmp ,mq −1
2i
teniendo en cuenta además que la matriz asociada a J2 es antisimétrica, solo tendremos que calcular dos términos
(1) ~ h√ √ i ~ ~
(J2 )12 = h1, m1 | J2 |1, m2 i = h1, 1| J2 |1, 0i = 2 δ1,0+1 − 2 δ1,0−1 = √ [δ1,1 − δ1,−1 ] = √
2i 2i 2i
(1) i~ (1)
(J2 )12 = − √ = − (J2 )21
2

(1) ~ hp
(J2 )23 = h1, m2 | J2 |1, m3 i = h1, 0| J2 |1, −1i = 2 − (−1) [(−1) + 1] δ0,−1+1
p 2i
− 2 − (−1) [(−1) − 1] δ0,−1−1
(1) ~√
(J2 )23 = 2⇒
2i
(1) i~ (1)
(J2 )23 = − √ = − (J2 )23 ⇒
2
la matriz queda entonces  
0 −i 0
~
(J2 )(1) = √  i 0 −i 
2 0 i 0
de manera similar se obtienen las otras matrices resultando
   
0 1 0 0 −i 0
~ ~
(J1 )(1) = √  1 0 1  ; (J2 )(1) = √  i 0 −i 
2 0 1 0 2 0 i 0
   
1 0 0  1 0 0
(1)
(J3 )(1) = ~  0 0 0  ; J2 = 2~2  0 1 0 
0 0 −1 0 0 1
 √   
0 2 √0 √0 0 0
(J+ )(1) = ~  0 0 2  ; (J− )(1) = ~  2 √0 0 
0 0 0 0 2 0
se puede verificar que las representaciones matriciales construı́das obedecen las reglas de conmutación (10.6).
Se puede verificar que los autovalores de las matrices (Ji )(1/2) son todos iguales y están dados por ±~/2. Si-
milarmente, los valores propios de las matrices (Ji )(1) son todos iguales y corresponden a +~, 0, −~. En sı́ntesis
todas las caracterı́sticas generales discutidas al final de la sección 10.6.1 se cumplen para las matrices calculadas
explı́citamente.
Capı́tulo 11

Propiedades de los momentos angulares


orbitales

Aplicaremos la teorı́a general desarrollada en el capı́tulo 10 al caso del momento angular orbital que sirvió
originalmente para encontrar el álgebra con la cual se definió un momento angular generalizado. Utilizaremos
la base {|ri} para mostrar que los valores propios de L2 son de la forma l (l + 1) ~2 con l entero no negativo.
Es decir las consideraciones fı́sicas excluirán a los valores semienteros en tanto que todos los valores enteros no
negativos aparecen en el espectro. Encontraremos también las funciones propias en la base {|ri} y sus principales
propiedades.
En la representación {|ri} los observables R y P corresponden a multiplicación por r y al operador diferencial
−i~∇ respectivamente. La cuantización de las tres componentes del momento angular en la base {|ri} se representa
como

L = R× P = −i~r × ∇     
~ ∂ ∂ ~ ∂ ∂ ~ ∂ ∂
L1 = x2 − x3 ; L2 = x3 − x1 ; L3 = x1 − x2 (11.1)
i ∂x3 ∂x2 i ∂x1 ∂x3 i ∂x2 ∂x1
L± ≡ L1 ± iL2 (11.2)

será más conveniente trabajar en coordenadas polares esféricas, ya que más adelante veremos que el operador
momento angular solo operará sobre los ángulos θ, ϕ y no sobre la variable r.

x1 = r sin θ cos ϕ ; x2 = r sin θ sin ϕ ; x3 = r cos θ


r ≥ 0 ; 0 ≤ θ ≤ π ; 0 ≤ ϕ < 2π (11.3)

un elemento de volumen d3 r = dx dy dz en coordenadas esféricas está dado por

d3 r = r 2 dr dΩ ; dΩ = sin θ dθ dϕ (11.4)

donde dΩ es un elemento diferencial de ángulo sólido en la dirección de los ángulos θ y ϕ.


A partir de (11.3) calculamos las derivadas parciales

∂x1 ∂x1 ∂x1


= sin θ cos ϕ ; = r cos θ cos ϕ ; = −r sin θ sin ϕ
∂r ∂θ ∂ϕ
∂x2 ∂x2 ∂x2
= sin θ sin ϕ ; = r cos θ sin ϕ ; = r sin θ cos ϕ
∂r ∂θ ∂ϕ
∂x3 ∂x3 ∂x3
= cos θ ; = −r sin θ ; =0
∂r ∂θ ∂ϕ

326
327

y las relaciones entre derivadas parciales esféricas y cartesianas nos dan

∂ ∂x1 ∂ ∂x2 ∂ ∂x3 ∂ ∂ ∂ ∂


= + + = sin θ cos ϕ + sin θ sin ϕ + cos θ
∂r ∂r ∂x1 ∂r ∂x2 ∂r ∂x3 ∂x1 ∂x2 ∂x3
∂ ∂x1 ∂ ∂x2 ∂ ∂x3 ∂ ∂ ∂ ∂
= + + = r cos θ cos ϕ + r cos θ sin ϕ − r sin θ
∂θ ∂θ ∂x1 ∂θ ∂x2 ∂θ ∂x3 ∂x1 ∂x2 ∂x3
∂ ∂x1 ∂ ∂x2 ∂ ∂x3 ∂ ∂ ∂
= + + = −r sin θ sin ϕ + r sin θ cos ϕ
∂ϕ ∂ϕ ∂x1 ∂ϕ ∂x2 ∂ϕ ∂x3 ∂x1 ∂x2

en forma matricial
    
∂r sin θ cos ϕ sin θ sin ϕ cos θ ∂1
 ∂θ  =  r cos θ cos ϕ r cos θ sin ϕ −r sin θ   ∂2 
∂ϕ −r sin θ sin ϕ r sin θ cos ϕ 0 ∂3

calculando la inversa de esta matriz se obtiene


   cos θ cos ϕ  
∂1 cos ϕ sin θ r − rsin ϕ
sin θ ∂r
 ∂2  =  sin θ sin ϕ cos θ sin ϕ cos ϕ   ∂θ  (11.5)
r r sin θ
∂3 cos θ − sinr θ 0 ∂ϕ

reemplazando (11.3, 11.5) en (11.1) obtenemos


   
i sin θ cos θ sin ϕ cos ϕ
L1 = x2 ∂3 − x3 ∂2 = r sin θ sin ϕ cos θ ∂r − ∂θ − r cos θ sin θ sin ϕ ∂r + ∂θ + ∂ϕ
~ r r r sin θ
cos θ cos ϕ
= − sin2 θ sin ϕ ∂θ − cos2 θ sin ϕ ∂θ − ∂ϕ
sin θ
i cos ϕ
L1 = − sin ϕ ∂θ − ∂ϕ (11.6)
~ tan θ

y se proceden de forma similar con las otras componentes


   
i cos θ cos ϕ sin ϕ sin θ
L2 = x3 ∂1 − x1 ∂3 = r cos θ cos ϕ sin θ ∂r + ∂θ − ∂ϕ − r sin θ cos ϕ cos θ ∂r − ∂θ
~ r r sin θ r
sin ϕ
= cos2 θ cos ϕ ∂θ − cos θ ∂ϕ + sin2 θ cos ϕ ∂θ
sin θ
i sin ϕ
L2 = cos ϕ ∂θ − ∂ϕ (11.7)
~ tan θ

 
i cos θ sin ϕ cos ϕ
L3 = x1 ∂2 − x2 ∂1 = r sin θ cos ϕ sin θ sin ϕ ∂r + ∂θ + ∂ϕ
~ r r sin θ
 
cos θ cos ϕ sin ϕ
−r sin θ sin ϕ cos ϕ sin θ ∂r + ∂θ − ∂ϕ
r r sin θ
= sin θ cos θ cos ϕ sin ϕ∂θ + cos2 ϕ ∂ϕ − sin θ cos θ sin ϕ cos ϕ ∂θ + sin2 ϕ ∂ϕ
i
L3 = ∂ϕ (11.8)
~

con las Ecs. (11.6, 11.7, 11.8), se puede evaluar L2 = L21 + L22 + L23 , lo cual es más sencillo si lo ponemos actuar
sobre una función arbitraria ψ (r, θ, ϕ)
328 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

  2   2  
2 ∂ cos ϕ ∂ ∂ sin ϕ ∂ ∂ 2
L ψ = i~ sin ϕ + ψ + i~ − cos ϕ + ψ + −i~ ψ
∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ
  
∂ cos ϕ ∂ ∂ cos ϕ ∂
= −~2 sin ϕ + sin ϕ + ψ
∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ
  
2 ∂ sin ϕ ∂ ∂ sin ϕ ∂ ∂2ψ
−~ − cos ϕ + − cos ϕ + ψ − ~2 2
∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ
   
∂ ∂ψ cos ϕ ∂ψ cos ϕ ∂ ∂ψ cos ϕ ∂ψ
= −~2 sin ϕ sin ϕ + − ~2 sin ϕ +
∂θ ∂θ tan θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ
   
2 ∂ ∂ψ sin ϕ ∂ψ 2 sin ϕ ∂ ∂ψ sin ϕ ∂ψ ∂2ψ
+~ cos ϕ − cos ϕ + −~ − cos ϕ + − ~2 2
∂θ ∂θ tan θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ
 
∂ ∂ψ ∂ψ ∂ 1 cos ϕ ∂ ∂ψ
= −~2 sin ϕ sin ϕ + cos ϕ +
∂θ ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
 
2 cos ϕ ∂ψ ∂ ∂ ∂ψ 1 ∂ψ ∂ cos ϕ ∂ ∂ψ
−~ sin ϕ + sin ϕ + cos ϕ +
tan θ ∂θ ∂ϕ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ tan θ ∂ϕ ∂ϕ
 
∂ ∂ψ ∂ψ ∂ 1 sin ϕ ∂ ∂ψ
+~2 cos ϕ − cos ϕ + sin ϕ +
∂θ ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
 
2 sin ϕ ∂ψ ∂ ∂ ∂ψ 1 ∂ψ ∂ sin ϕ ∂ ∂ψ ∂2ψ
−~ − cos ϕ − cos ϕ + sin ϕ + − ~2 2
tan θ ∂θ ∂ϕ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ tan θ ∂ϕ ∂ϕ ∂ϕ
 
2 2 ∂2ψ 2 ∂ψ ∂ 1 sin ϕ cos ϕ ∂ ∂ψ
L ψ = −~ sin ϕ 2 + sin ϕ cos ϕ +
∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
 2 
2 cos ϕ ∂ψ cos ϕ sin ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ψ cos2 ϕ ∂ 2 ψ
−~ + − +
tan θ ∂θ tan θ ∂ϕ ∂θ tan2 θ ∂ϕ tan2 θ ∂ϕ2
 2

2 2 ∂ ψ ∂ψ ∂ 1 cos ϕ sin ϕ ∂ ∂ψ
+~ − cos ϕ 2 + cos ϕ sin ϕ +
∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
 2 
2 sin ϕ ∂ψ sin ϕ cos ϕ ∂ ∂ψ sin ϕ cos ϕ ∂ψ sin2 ϕ ∂ 2 ψ 2
2∂ ψ
−~ − + + − ~
tan θ ∂θ tan θ ∂ϕ ∂θ tan2 θ ∂ϕ tan2 θ ∂ϕ2 ∂ϕ2
agrupando derivadas se tiene
L2 ψ ∂2ψ 2
2 ∂ ψ cos2 ϕ ∂ 2 ψ sin2 ϕ ∂ 2 ψ ∂ 2 ψ
= sin2 ϕ + cos ϕ + + +
−~2 ∂θ 2 ∂θ 2 tan2 θ ∂ϕ2 tan2 θ ∂ϕ2 ∂ϕ2
sin ϕ cos ϕ ∂ ∂ψ sin ϕ cos ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ ∂ψ
+ − + −
tan θ ∂θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂θ tan θ ∂θ ∂ϕ
∂ψ ∂ 1 ∂ψ ∂ 1 cos ϕ ∂ψ sin2 ϕ ∂ψ
2
+ sin ϕ cos ϕ − cos ϕ sin ϕ + +
∂ϕ ∂θ tan θ ∂ϕ ∂θ tan θ tan θ ∂θ tan θ ∂θ
cos ϕ sin ϕ ∂ψ sin ϕ cos ϕ ∂ψ
− +
tan2 θ ∂ϕ tan2 θ ∂ϕ

L2 ψ ∂2ψ 1 ∂2ψ ∂2ψ 1 ∂ψ


= + 2 + +
−~2 ∂θ 2 tan θ ∂ϕ 2 ∂ϕ 2 tan θ ∂θ
 2   2 
∂ 1 ∂ 1 ∂
= + +1 + ψ
∂θ 2 tan2 θ ∂ϕ2 tan θ ∂θ
 2 
L2 ψ ∂ 1 ∂2 1 ∂
= + + ψ (11.9)
−~2 ∂θ 2 sin2 θ ∂ϕ2 tan θ ∂θ
11.1. MOMENTOS ANGULARES ORBITALES COMO OPERADORES DIFERENCIALES 329

11.1. Momentos angulares orbitales como operadores diferenciales en coor-


denadas esféricas
Las Ecs. (11.6, 11.7, 11.8) nos dicen que las componentes del momento angular en coordenadas esféricas se
escriben en la forma

 
∂ cos ϕ ∂
L1 = i~ sin ϕ + (11.10)
∂θ tan θ ∂ϕ
 
∂ sin ϕ ∂
L2 = i~ − cos ϕ + (11.11)
∂θ tan θ ∂ϕ
~ ∂
L3 = (11.12)
i ∂ϕ

y las Ecs. (11.9, 11.2) nos dicen que los operadores L2 , L± quedan
 2 
2 2 ∂ 1 ∂ 1 ∂2
L = −~ + + (11.13)
∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2
 
iϕ ∂ ∂
L+ = ~e + i cot θ (11.14)
∂θ ∂ϕ
 
−iϕ ∂ ∂
L− = ~e − + i cot θ (11.15)
∂θ ∂ϕ

en la representación {|ri} las funciones propias asociadas a los valores propios l (l + 1) ~2 de L2 y m~ de L3


cumplen
L2 ψ (r, θ, ϕ) = l (l + 1) ~2 ψ (r, θ, ϕ) ; L3 ψ (r, θ, ϕ) = m~ψ (r, θ, ϕ) (11.16)
y al reemplazar (11.13, 11.12) en las Ecs. (11.16) estas últimas se convierten en ecuaciones diferenciales parciales
cuya solución son las funciones propias
 2 
∂ 1 ∂ 1 ∂2
− + + ψ (r, θ, ϕ) = l (l + 1) ψ (r, θ, ϕ) (11.17)
∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2

−i ψ (r, θ, ϕ) = m~ψ (r, θ, ϕ) (11.18)
∂ϕ

donde l es en general entero o semientero no negativo y m toma solo los valores −l, −l + 1, . . . , l − 1, l.
Nótese que en las ecuaciones (11.17, 11.18) no hay operador derivada asociado a r. Por tanto r se puede
considerar un parámetro y asumir una separación de variables de la forma

ψlmk (r, θ, ϕ) = f (r) Ylm (θ, ϕ) (11.19)

insertando (11.19) en las ecuaciones diferenciales (11.17, 11.18) queda


 2 
∂ 1 ∂ 1 ∂2
− + + Ylm (θ, ϕ) = l (l + 1) Ylm (θ, ϕ) (11.20)
∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2

−i~ Ylm (θ, ϕ) = m~Ylm (θ, ϕ) (11.21)
∂ϕ

que están expresando la ecuación de valores propios

L2 Ylm (θ, ϕ) = l (l + 1) Ylm (θ, ϕ) ; L3 Ylm (θ, ϕ) = m~Ylm (θ, ϕ)


330 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

f (r) es una función de r que aparece como constante de integración para las ecuaciones diferenciales (11.17,
11.18). Es importante tener en cuenta que f (r) debe ser tal que ψl,m,k (r, θ, ϕ) = f (r) Ylm (θ, ϕ) sea de cuadrado
integrable. El hecho de que f (r) sea arbitrario nos indica que L2 y L3 no forman un C.S.C.O. en el espacio Er
de funciones de r es decir de funciones en r, θ, ϕ. En virtud de esto deberı́amos introducir un ı́ndice adicional en
las Ecs. (11.20, 11.21) para las soluciones indicando la posible degeneración de éstas. Sin embargo, veremos que
estas soluciones serán únicas para l y m dados salvo por un factor constante. Esto indica que toda la degeneración
estará en el factor f (r) en la Ec. (11.19).
Para normalizar la función completa ψlmk (r, θ, ϕ) es conveniente normalizar la parte angular Ylm (θ, ϕ) y la
parte radial f (r) separadamente. Estas relaciones de normalización se manifestarán en ecuaciones de la forma
Z 2π Z
dϕ sin θ |Ylm (θ, ϕ)|2 dθ = 1
0
Z ∞
r 2 |f (r)|2 dr = 1
0

11.2. Valores permitidos de l y m


La Ec. (11.21) para Ylm (θ, ϕ) muestra que Ylm (θ, ϕ) es igual a

Ylm (θ, ϕ) = Flm (θ) eimϕ (11.22)

podemos cubrir todo el espacio barriendo ϕ entre 0 y 2π. Nótese que si Ylm (θ, ϕ) no fuera contı́nua en algún valor
de θ, ϕ, no serı́a diferenciable y no podrı́a ser función propia de los operadores diferenciales L3 y L2 . En particular
la continuidad en ϕ = 0 nos lleva a
Ylm (θ, ϕ = 0) = Ylm (θ, ϕ = 2π)
que implica además
e2imπ = 1 (11.23)
m solo puede ser entero o semientero. Si m es semientero se puede parametrizar como m = (n + 1/2) con n =
0, 1, 2, . . ., en este caso se tiene
1
e2imπ = e2(n+ 2 )iπ = e2niπ eiπ = −1
de modo que si m es semientero viola la condición (11.23). Por otro lado, sabemos que l y m son ambos enteros o
ambos semienteros. En consecuencia, tanto m como l solo pueden tomar valores enteros.
La siguiente pregunta natural es si l puede tomar todos los valores enteros no negativos. Para ello tendremos
en cuenta que según la teorı́a general (lema 6, Pág. 314) se debe satisfacer

L+ Yll (θ, ϕ) = 0 (11.24)

ahora reemplazando (11.14) y (11.22), en la Ec. (11.24) tenemos


 
iϕ ∂ ∂ h i
~e + i cot θ Fll (θ) eilϕ = 0
∂θ ∂ϕ
 
∂Fll (θ)
+ i (il) cot θ Fll (θ) eilϕ = 0
∂θ
finalmente  
d
− l cot θ Fll (θ) = 0 (11.25)

teniendo en cuenta que
d (sin θ)
cot θ dθ = (11.26)
sin θ
11.3. PROPIEDADES FUNDAMENTALES DE LOS ARMÓNICOS ESFÉRICOS 331

la solución general de la ecuación es


Fll (θ) = cl (sin θ)l (11.27)
siendo cl una constante de normalización. Se puede demostrar inversamente que esta función es función propia de
L2 y L3 con autovalores l (l + 1) ~2 y l~. Usando (11.12) y (11.22) vemos que

~ ∂ h i il~
L3 Yll (θ, ϕ) = Fll (θ) eilϕ = Fll (θ) eilϕ
i ∂ϕ i

L3 Yll (θ, ϕ) = l~Yll (θ, ϕ) (11.28)


multiplicando (11.24) por L− y usando (10.17) resulta

L− L+ Yll (θ, ϕ) = 0 ⇒ L2 − L23 − ~L3 Yll (θ, ϕ) = 0 ⇒

⇒ L2 Yll (θ, ϕ) = L23 + ~L3 Yll (θ, ϕ) = (L3 + ~) L3 Yll (θ, ϕ)

y usando (11.28) mostramos que

L2 Yll (θ, ϕ) = (L3 + ~) (l~) Yll (θ, ϕ) = (l~ + ~) (l~) Yll (θ, ϕ)
L2 Yll (θ, ϕ) = l (l + 1) ~2 Yll (θ, ϕ)

por tanto para cada valor entero no negativo de l, existe una función Yll única dentro de factores constantes de la
forma
Yll (θ, ϕ) = cl (sin θ)l eilϕ
adicionalmente, el factor cl se determina por normalización. Es usual además elegir una fase 0 para l par y π para
l impar, de modo que r
1 (2l + 1)!
|cl | = l ; cl = (−1)l |cl |
2 l! 4π
quedando finalmente r
l 1 (2l + 1)!
Yll (θ, ϕ) = (−1) l (sin θ)l eilϕ (11.29)
2 l! 4π
y a través de la acción iterativa de L− podemos construı́r Yl,l−1 , . . . , Yl,m , . . . , Yl,−l . En sı́ntesis, para cada par (l, m)
con l entero no negativo y m entero con la condición −l ≤ m ≤ l; existe una y solo una función Ylm (θ, ϕ) (dentro
de factores constantes), que se puede calcular de (11.29) y que es función propia de L2 y L3 con valores propios
l (l + 1) ~2 y m~. A estas autofunciones se les denomina armónicos esféricos. La forma general de estas funciones
viene dada por
s
2l + 1 (l − m)! m
Ylm (θ, ϕ) = P (cos θ) eimϕ (11.30)
4π (l + m)! l
(−1)m 
2 m/2 d
l+m l
Plm (x) = l
1 − x l+m
x2 − 1 (11.31)
2 · l! dx
donde las funciones Plm (x) se conocen como polinomios asociados de Legendre.

11.3. Propiedades fundamentales de los armónicos esféricos


Algunas de las propiedades de los armónicos esféricos se pueden extraer de la teorı́a general. Por ejemplo, de
la Ec. (10.47) tenemos que
p
L± Ylm (θ, ϕ) = ~ l (l + 1) − m (m ± 1)Yl,m±1 (θ, ϕ) (11.32)
332 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

utilizando las expresiones diferenciales de L± Ecs. (11.14, 11.15) junto con (11.22), expresamos esta propiedad en
forma diferencial
 
iϕ ∂ p
e − m cot θ Ylm (θ, ϕ) = l (l + 1) − m (m + 1)Yl,m+1 (θ, ϕ)
∂θ
 
∂ p
e−iϕ − − m cot θ Ylm (θ, ϕ) = l (l + 1) − m (m − 1)Yl,m−1 (θ, ϕ)
∂θ

11.3.1. Ortonormalidad y completez


Las Ecuaciones (11.20, 11.21) determinan a los armónicos esféricos salvo por un factor multiplicativo. Podemos
escoger este factor de manera que se normalicen estas autofunciones. La condición de ortonormalidad se escribe
como1 Z
Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) dΩ = δll′ δmm′

teniendo en cuenta la expresión del ángulo sólido (11.4) esta se escribe como
Z 2π Z π
dϕ sin θ dθ Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) = δll′ δmm′ (11.33)
0 0

es un hecho además que cualquier función de θ y ϕ que sea de cuadrado integrable, se puede expandir en términos
de los armónicos esféricos
∞ X
X +l Z 2π Z π

f (θ, ϕ) = clm Ylm (θ, ϕ) ; clm = hlm| f i = dϕ sin θ dθ Ylm (θ, ϕ) f (θ, ϕ)
l=0 m=−l 0 0

por tanto los armónicos esféricos son una base ortonormal en el espacio EΩ de funciones de θ y ϕ. Esto se expresa
con relaciones de completez que aplican en este espacio
∞ X
X +l

   δ (θ − θ ′ ) δ (ϕ − ϕ′ )
Ylm (θ, ϕ) Ylm θ ′ , ϕ′ = δ cos θ − cos θ ′ δ ϕ − ϕ′ =
sin θ
l=0 m=−l

la inclusión de δ (cos θ − cos θ ′ ) en la relación de completez se debe a que el elemento diferencial de ángulo sólido
se escribe como dΩ = sin θ dθ dϕ = −d (cos θ) dϕ. Nótese que la completez no está garantizada por la teorı́a
general cuando el espacio vectorial es de dimensión infinita, es de hecho una hipótesis de trabajo que debe ser
demostrada explı́citamente.

11.3.2. Propiedades de paridad y conjugación


El cambio r → −r en coordenadas cartesianas se expresa como (x1 , x2 , x3 ) → (−x1 , −x2 , −x3 ). En coordenadas
esféricas esta transformación de paridad se expresa en la forma

r →r , θ →π−θ , ϕ→π+ϕ

se puede demostrar que


Ylm (π − θ, π + ϕ) = (−1)l Ylm (θ, ϕ) (11.34)
1
La constante de normalización para Ylm (θ, ϕ) arbitrario se puede calcular determinando la constante de normalización para
Yll (θ, ϕ) en la Ec. (11.29) y usando la Ec. (10.38) de la Pág. 318, que garantiza la normalización de cada Ylm (θ, ϕ) generado a través
de L− a partir de Yll (θ, ϕ). La ortogonalidad en l y m está garantizada por el hecho de que si l 6= l′ tenemos dos vectores propios
asociados a valores propios diferentes del operador hermı́tico L2 , y si m 6= m′ tenemos dos vectores propios asociados a dos valores
propios diferentes del operador hermı́tico L3 .
11.3. PROPIEDADES FUNDAMENTALES DE LOS ARMÓNICOS ESFÉRICOS 333

de modo que los armónicos esféricos tienen paridad definida, la cual es independiente de m. Si l es par (impar) todos
sus 2l + 1 armónicos esféricos asociados son pares (impares). También se puede demostrar que bajo conjugación
los armónicos esféricos tienen la propiedad

Ylm (θ, ϕ) = (−1)m Yl,−m (θ, ϕ) (11.35)

11.3.3. Armónicos esféricos de la forma Yl,0 (θ) y polinomios de Legendre


Para m = 0, los armónicos esféricos se vuelven independientes de ϕ, y adquieren la forma
r
(−1)l 2l + 1 dl
Yl,0 (θ) = (sin θ)2l (11.36)
2l l! 4π d (cos θ)l
r
2l + 1 (−1)l dl 
2 l
Yl,0 (θ) = Pl (cos θ) ; Pl (u) ≡ l 1 − u (11.37)
4π 2 l! dul
Pl (u) se denomina el polinomio de Legendre de grado l. Estos polinomios son ortogonales
Z +1 Z π
2
du Pl (u) Pl′ (u) = sin θ dθ Pl (cos θ) Pl′ (cos θ) = δll′ (11.38)
−1 0 2l + 1

y generan una base para generar cualquier función de θ de cuadrado integrable



X Z π
2l + 1
f (θ) = cl Pl (cos θ) ; cl = sin θ dθ Pl (cos θ) f (θ) (11.39)
2 0
l=0

por tanto, cuando el problema tiene simetrı́a azimutal i.e. es independiente de ϕ, es usual utilizar polinomios de
Legendre o armónicos esféricos del tipo Yl,0 (θ). De hecho, en una expansión de una función f (θ) en armónicos
esféricos Yl,m (θ, ϕ), solo contribuirán los armónicos con m = 0. Otras propiedades de los polinomios de Legendre
son
Pl (1) = 1 ; Pl (−u) = (−1)l Pl (u) (11.40)
nótese que la paridad está definida con respecto a la variable u. Al hacer u = cos θ esta propiedad de paridad se
manifiesta en la variable espacial θ en la forma

Yl,0 (π − θ) = (−1)l Yl,0 (θ)

que es un caso especial de (11.34). La Ec. (11.38) nos muestra que los polinomios de Legendre son ortogonales
pero no están normalizados. En contraste, las funciones Yl,0 (θ) son ortonormales.

11.3.4. Teorema de adición de los armónicos esféricos


Consideremos dos direcciones arbitrarias en el espacio cuyas orientaciones están especificadas por los ángulos
(θ1 , ϕ1 ) y (θ2 , ϕ2 ), ası́ como por los vectores unitarios u1 (θ1 , ϕ1 ) y u2 (θ2 , ϕ2 ). El ángulo entre los vectores u1 y
u2 lo denotamos por α. Para esta situación hay una relación especı́fica entre los armónicos esféricos asociados a
(θ1 , ϕ1 ) y (θ2 , ϕ2 ) y los polinomios de Legendre asociados a α
l
X l
X
2l + 1 m ∗
Pl (cos α) = (−1) Ylm (θ1 , ϕ1 ) Yl,−m (θ2 , ϕ2 ) = Ylm (θ1 , ϕ1 ) Yl,m (θ2 , ϕ2 ) (11.41)

m=−l m=−l

donde hemos utilizado también la propiedad (11.35). Esta relación se conoce como teorema de adición de los
armónicos esféricos.
334 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

11.4. Construcción de bases estándar de la función de onda espacial de una


partı́cula sin espı́n
En general L2 y L3 no forman un C.S.C.O. de modo que los subespacios Er (l, m) no son en general unidimen-
sionales. Por tanto aplicaremos el algoritmo descrito en la sección 10.4.1 para construir una base estándar para
Er .
Comenzamos entonces por el subespacio Er (l, l) que serı́a el espacio de las autofunciones de L2 y L3 con valores
propios l (l + 1) ~2 y l~. El punto de partida es construı́r una base ortonormal en Er (l, l) que denotaremos por
{ψl,l,k (r)} donde k es el ı́ndice que recorre la base cuando L2 y L3 no forman un C.S.C.O.
El siguiente paso consiste en aplicar iterativamente el operador L− sobre todos los elementos {ψl,l,k (r)} de
Er (l, l) para generar una base ortonormal sobre los subespacios

Er (l, l − 1) , Er (l, l − 2) , . . . , Er (l, m) , . . . , Er (l, −l + 1) , Er (l, −l)

Todos los elementos de estas bases cumplen con las Ecs. (10.19, 10.47), que en este contexto se escriben como

L2 ψl,m,k (r) = l (l + 1) ~2 ψl,m,k (r) ; L3 ψl,m,k (r) = m~ψl,m,k (r) (11.42)


p
L± ψl,m,k (r) = ~ l (l + 1) − m (m ± 1)ψl,m±1,k (r) (11.43)

pero ya hemos visto que todas las funciones propias de L2 y L3 correspondientes a un par especı́fico (l, m) poseen
la misma dependencia angular denotada por Ylm (θ, ϕ). Es decir la variación de k para l, m fijos, solo hace que varı́e
la dependencia radial de ψl,m,k (r). De las Ecuaciones (11.19) ya dedujimos que las funciones propias ψl,m,k (r)
tienen la forma
ψl,m,k (r) = Rl,m,k (r) Ylm (θ, ϕ) (11.44)
apliquemos el operador L± sobre la Ec. (11.44) teniendo en cuenta que tales operadores solo actúan sobre la
componente angular
p
L± ψl,m,k (r) = Rl,m,k (r) L± Ylm (θ, ϕ) = ~ l (l + 1) − m (m ± 1)Rl,m,k (r) Yl,m±1 (r)

comparando con la Ec. (11.43) vemos que la función radial debe satisfacer para todo r la condición

Rl,m±1,k (r) = Rl,m,k (r)

la aplicación sucesiva de L± nos lleva a que R (r) no puede depender de m. Este resultado se puede enunciar de la
siguiente manera: Si {ψl,m,k (r)} constituye una base estándar de Er , su función radial asociada no puede depender
de m de modo que estas funciones se escriben como

ψl,m,k (r) = Rl,k (r) Ylm (θ, ϕ) (11.45)

Podrı́amos estar tentados a pensar que la función radial solo depende de la degeneración k. Sin embargo, la
función radial también depende en general de l por la siguiente razón: una función de la forma f (r) g (θ, ϕ) solo
puede ser contı́nua en el origen (r = 0, θ y ϕ arbitrarios) si g (θ, ϕ) se reduce a una constante o si f (r) tiende
a cero cuando r → 0 con f (0) = 0. Para ver esto, basta con observar que si g (θ, ϕ) es no trivial, entonces el
lı́mite de f (r) g (θ, ϕ) cuando r → 0 dependerá de la dirección por la cual nos aproximemos al origen si f (r) no
tiende a cero cuando r → 0. De lo anterior vemos que si requerimos que ψl,m,k (r) sea contı́nuo, entonces solo las
funciones radiales con l = 0 pueden ser no nulas en el origen (puesto que Y00 es constante). Si además requerimos
diferenciabilidad hasta cierto orden en el origen obtendremos condiciones sobre Rl,k (r) que dependen de l.
Las relaciones de ortonormalidad de estas funciones se escriben en la forma
Z Z ∞
d3 r ψl,m,k

(r) ψl′ ,m′ ,k′ (r) = r 2 dr Rl,k

(r) Rl′ ,k′ (r)
0
Z 2π Z π

× dϕ sin θ dθ Ylm (θ, ϕ) Yl′ m′ (θ, ϕ) = δkk′ δll′ δmm′
0 0
11.5. VALORES ESPERADOS Y DISPERSIÓN PARA SISTEMAS EN UN ESTADO |L, M, Ki 335

y dado que los armónicos esféricos son ortonormales Ec. (11.33) tenemos que
Z ∞ Z 2π Z π 
2 ∗ ∗
r dr Rl,k (r) Rl′ ,k′ (r) dϕ sin θ dθ Ylm (θ, ϕ) Yl′ m′ (θ, ϕ) = δkk′ δll′ δmm′
0 0 0
Z ∞
δll′ δmm′ r 2 dr Rl,k

(r) Rl′ ,k′ (r) = δkk′ δll′ δmm′ (11.46)
0

Z ∞
r 2 dr Rl,k

(r) Rl,k′ (r) = δkk′ (11.47)
0

de modo que las funciones radiales Rl,k (r) están normalizadas con respecto a r y dos funciones radiales asociadas
al mismo valor de l pero con diferente valor de k son ortogonales.
Nótese que la relación (11.47) proviene del hecho de que las funciones ψl,l,k (r) = Rl,k (r) Yll (θ, ϕ) que se
escogieron como base en el subespacio Er (l, l) son ortonormales. Por tal razón, es esencial que el ı́ndice l sea
el mismo en ambas funciones radiales de la ecuación (11.47). Si l 6= l′ entonces ψl,m,k y ψl′ ,m′ ,k′ deben ser
ortogonales puesto que corresponden a funciones propias de L2 con diferente valor propio, pero la ortogonalidad
de los armónicos esféricos ya garantiza la ortogonalidad de las ψ ′ s cuando l 6= l′ , de modo que en general la integral
a la izquierda de (11.47) toma cualquier valor, esto se puede apreciar haciendo l 6= l′ en (11.46).

11.5. Valores esperados y desviaciones medias cuadráticas de observables


cuando el sistema está en un estado |l, m, ki
Supongamos que una partı́cula sin espı́n está en el estado |l, m, ki que es autoestado de L2 y L3 con valores
propios l (l + 1) ~2 y m~. Por tanto, el cuadrado de su momento angular y su proyección a lo largo de X3 están
bien definidos. Supongamos ahora que queremos medir las proyecciones a lo largo de los otros dos ejes L1 y L2 ;
puesto que estos observables no conmutan con L3 , los estados |l, m, ki no son en general autoestados de L1 ni de
L2 , por tanto las predicciones sobre sus autovalores serán solo probabilı́sticas.
Calculemos entonces los valores esperados y las raı́ces de las desviaciones medias cuadráticas de L1 y L2 . Para
ello expresamos estos observables en términos de los operadores escalera L± invirtiendo las Ecs. (11.45)

1 1
L1 = (L+ + L− ) ; L2 = (L+ − L− )
2 2i

por tanto L1 |l, m, ki es una combinación lineal de los estados |l, m + 1, ki y |l, m − 1, ki, similarmente ocurre con
L2 |l, m, ki, esto nos lleva por tanto a que

hl, m, k| L1 |l, m, ki = hl, m, k| L2 |l, m, ki = 0 (11.48)

para calcular las desviaciones medias cuadráticas debemos calcular los valores esperados de L21 , L22

1
hl, m, k| L21 |l, m, ki = hl, m, k| (L+ + L− ) (L+ + L− ) |l, m, ki
4
1  
= hl, m, k| L2+ + L2− + L+ L− + L− L+ |l, m, ki
4

1
hl, m, k| L22 |l, m, ki = − hl, m, k| (L+ − L− ) (L+ − L− ) |l, m, ki
4
1  
= − hl, m, k| L2+ + L2− − L+ L− − L− L+ |l, m, ki
4
336 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

los términos con L2± no contribuyen puesto que L2+ |l, m, ki = c± |l, m ± 2, ki. Por tanto ambos valores esperados
son idénticos. Usando la Ec. (10.17) se obtiene

1
hl, m, k| L21 |l, m, ki = hl, m, k| L22 |l, m, ki = hl, m, k| [L+ L− + L− L+ ] |l, m, ki
4
1   ~2  
= hl, m, k| 2L2 − 2L23 |l, m, ki = l (l + 1) − m2 (11.49)
4 2
las desviaciones medias cuadráticas son
~2  
(∆L1 )2 = (∆L2 )2 = hl, m, k| L21 |l, m, ki − [hl, m, k| L1 |l, m, ki]2 = l (l + 1) − m2
2
en resumen cuando la partı́cula está en el estado |l, m, ki, los valores esperados y raı́ces de las desviaciones medias
cuadráticas de L1 y L2 son

hl, m, k| L1 |l, m, ki = hl, m, k| L2 |l, m, ki = 0 (11.50)


r
1
∆L1 = ∆L2 = ~ [l (l + 1) − m2 ] (11.51)
2

p resultado posee el siguiente análogo clásico: asumamos un momento angular clásico de módulo |L| = L =
Este
~ l (l + 1) y cuya tercera componente L3 es igual a m~. Si graficamos a L en un espacio de configuración con ejes
L1 , L2 , L3 colocando el vector L con la cola en el origen, podemos describir tal vector en coordenadas esféricas
con ángulo polar θ y ángulo azimutal ϕ

L1 = L sin θ cos ϕ ; L2 = L sin θ sin ϕ ; L3 = L cos θ


L21 + L22 = L2 sin2 θ

de acuerdo con nuestras hipótesis p


L = ~ l (l + 1) ; L3 = m~
por tanto
 
L21 + L22 = L2 − L23 = l (l + 1) ~2 − m2 ~2 = l (l + 1) − m2 ~2
q p
L21 + L22 = L sin θ = ~ [l (l + 1) − m2 ]

y las componentes del momento angular son


p
L1 = L sin θ cos ϕ = ~ [l (l + 1) − m2 ] cos ϕ
p
L2 = L sin θ sin ϕ = ~ [l (l + 1) − m2 ] sin ϕ
p
L3 = L cos θ = ~ l (l + 1) cos θ

asumamos ahora que los valores de L y θ son conocidos y que el ángulo azimutal ϕ es una variable aleatoria que
puede tomar cualquier valor en el intervalo [0, 2π) con igual probabilidad en todo el rango. Si promediamos sobre
ϕ tenemos
Z 2π
~p
L1 = [l (l + 1) − m2 ] cos ϕ dϕ = 0
2π 0
Z 2π
~p 2
L2 = [l (l + 1) − m ] sin ϕ dϕ = 0
2π 0
L1 = L2 = 0 (11.52)
11.6. PROBABILIDADES ASOCIADAS A LA MEDIDA DE L2 Y L3 EN UN ESTADO ARBITRARIO 337

adicionalmente
Z 2π
~2   ~2  
L21 = l (l + 1) − m2 cos2 ϕ dϕ =
l (l + 1) − m2
2π 0 2
Z 2π
~2  ~2  
L22 = l (l + 1) − m2 sin2 ϕ dϕ = l (l + 1) − m2
2π 0 2
~ 
2 
L21 = L22 = l (l + 1) − m2 (11.53)
2

vemos que los promedios clásicos de L1 , L2 , L21 , L22 dados por las Ecs. (11.52, 11.53) son idénticos a los valores
esperados cuánticos dados en las Ecs. (11.50,
para una partı́cula en el estado |l, m, ki. Por tanto, en lo

11.51)
que concierne a los valores de hL1 i, hL2 i , L21 , L22 , una partı́cula cuántica en el estado |l, m, ki se comporta
p
de manera similar a una particula clásica con momento angular de magnitud L = ~ l (l + 1) y con tercera
componente L3 = m~ para el cual ϕ es una variable aleatoria con distribución uniforme de probabilidad sobre el
intervalo [0, 2π).
No obstante, este análogo clásico también tiene sus limitaciones. Por ejemplo en este modelo clásico puesto
que ϕ es aleatoria
p y puede tomar cualquier
p valor en el contı́nuo nos lleva a que L1 y L2 puede tomar cualquier
valor entre −~ [l (l + 1) − m2 ] y ~ [l (l + 1) − m2 ]. En contraste, para el caso cuántico los valores accesibles
de todas las componentes para una medida individual de la partı́cula en el estado |l, m, ki están cuantizados.
Especı́ficamente, hemos visto que los valores accesibles de L1 y L2 coinciden con los de L3 , puesto que l es fijo
hay 2l + 1 valores accesibles que son l~, (l − 1) ~, . . . , (−l + 1) ~, −l~.

11.6. Probabilidades asociadas a la medida de L2 y L3 en un estado arbitrario


Consideremos una partı́cula cuyo estado está descrito por la función de onda normalizada dada por

hr |ψi = ψ (r) = ψ (r, θ, ϕ)

calcularemos ahora la probabilidad de obtener un valor especı́fico l (l + 1) ~2 de L2 y/o un valor especı́fico m~ de


L3 .
Puesto que L2 y L3 son variables compatibles, podemos hacer una medición simultánea de estas cantidades.
Denotaremos PL2 ,L3 (l, m) la probabilidad de obtener los valores l (l + 1) ~2 y m~ en una medición simultánea
de dichas cantidades. Para ello expandimos ψ (r) en autoestados de L2 y L3 , para lo cual escogeremos una base
estándar de la forma (11.45)
ψl,m,k (r) = Rl,k (r) Ylm (θ, ϕ)
esta expansión es entonces XXX
ψ (r) = cl,m,k Rl,k (r) Ylm (θ, ϕ) (11.54)
k l m

donde los coeficientes de Fourier de la expansión son los usuales


Z
cl,m,k = hl, m, k |ψi = d3 r ψl,m,k ∗
(r) ψ (r)
Z ∞ Z 2π Z π
= r 2 dr Rl,k

(r) dϕ ∗
sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ) (11.55)
0 0 0

de acuerdo con los postulados, la probabilidad PL2 ,L3 (l, m) está dada por
X
PL2 ,L3 (l, m) = |cl,m,k |2 (11.56)
k
338 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

si medimos L2 solamente, la probabilidad PL2 (l) de obtener l (l + 1) ~2 es


l
X l
X X
PL2 (l) = PL2 ,L3 (l, m) = |cl,m,k |2 (11.57)
m=−l k m=−l

ahora, si medimos L3 únicamente, la probabilidad de obtener m~ es


X X X
PL3 (m) = PL2 ,L3 (l, m) = |cl,m,k |2 (11.58)
l≥|m| k l≥|m|

estrictamente la condición l ≥ |m| se satisface automáticamente ya que no hay coeficientes cl,k,m con l < |m|.
Adicionalmente, si tenemos en cuenta que L2 , Li , L± son operadores diferenciales que solo actúan sobre las
variables angulares, solo la dependencia angular en ψ (r) será relevante para calcular estas probabilidades. En
consecuencia, r se puede ver como un parámetro para estos cálculos (cantidad arbitraria pero fija). Si consideramos
que ψ (r, θ, ϕ) es función de las variables θ, ϕ y que r es un parámetro, entonces puesto que toda función de θ y ϕ
se podrá expandir en armónicos esféricos con coeficientes que dependen del parámetro r, tendremos
XX
ψ (r, θ, ϕ) = al,m (r) Ylm (θ, ϕ) (11.59)
l m
Z 2π Z π

alm (r) = hlm| ψi = dϕ sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ) (11.60)
0 0

si comparamos las expansiones (11.54, 11.59) vemos que los cl,m,k son los coeficientes de la expansión de al,m (r)
en las funciones Rl,k (r) X
al,m (r) = cl,m,k Rl,k (r) (11.61)
k
usando (11.55) y (11.60) se obtiene
Z ∞ Z 2π Z π 
cl,m,k = r 2 dr Rl,k

(r) dϕ ∗
sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ)
Z0 ∞ 0 0

cl,m,k = r 2 dr Rl,k

(r) al,m (r) (11.62)
0

la Ec. (11.62) es la inversa de (11.61). De hecho la Ec. (11.62) se puede obtener multiplicando (11.61) por r 2 Rl,k
∗ (r),

integrando en r y utilizando la relación de ortonormalidad (11.47). Usando las Ecs. (11.47, 11.61) se obtiene
Z ∞ Z ∞ " #" #
2
X X
r 2 dr |al,m (r)| = r 2 dr c∗l,m,k Rl,k

(r) cl,m,k′ Rl,k′ (r)
0 0 k k′
Z ∞ XX Z ∞ X
r 2 dr |al,m (r)|2 = c∗l,m,k cl,m,k′ r 2 dr Rl,k

(r) Rl,k′ (r) = c∗l,m,k cl,m,k′ δkk′
0 k k′ 0 k,k ′
Z ∞ X
r 2 dr |al,m (r)|2 = |cl,m,k |2
0 k

por lo tanto, la probabilidad PL2 ,L3 (l, m) descrita por la Ec. (11.56) se puede reescribir como
Z ∞
PL2 ,L3 (l, m) = r 2 dr |al,m (r)|2 (11.63)
0

de lo cual se puede deducir las probabilidades PL2 (l) y PL3 (m)


l
X Z ∞ X Z ∞
2
PL2 (l) = 2
r dr |al,m (r)| ; PL3 (m) = r 2 dr |al,m (r)|2 (11.64)
m=−l 0 l≥|m| 0
11.6. PROBABILIDADES ASOCIADAS A LA MEDIDA DE L2 Y L3 EN UN ESTADO ARBITRARIO 339

en sı́ntesis, para calcular las probabilidades asociadas a las medidas de los observables L2 y L3 podemos considerar
a la función de onda solo como función de las variables θ, ϕ y expandir dicha función en armónicos esféricos como
se vé en la Ec. (11.59). Los coeficientes de esta expansión se usan entonces para calcular las probabilidades como
se vé en las Ecs. (11.63, 11.64).
Ahora bien, la Ec. (11.12) nos muestra que el operador L3 solo depende del ángulo azimutal ϕ. Por tanto,
para el cálculo de PL3 (m) podemos considerar a ϕ como la única variable en ψ (r) siendo r y θ parámetros en la
función de onda. Para ver esto basta con observar que los armónicos esféricos son el producto de una función de
solo θ por una función de solo ϕ
eimϕ
Ylm (θ, ϕ) = Zlm (θ) √ (11.65)

con esta parametrización cada una de las funciones del producto está normalizada, esto se vé teniendo en cuenta
que
Z 2π ′
e−imϕ eim ϕ
dϕ √ √ = δmm′
0 2π 2π
si sustituı́mos esto en la relación de ortonormalidad para los armónicos esféricos Ec. (11.33) encontramos que
Z 2π Z π
dϕ sin θ dθ Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) = δll′ δmm′
0
Z 2π Z π " 0 #  
e −im′ ϕ eimϕ

dϕ sin θ dθ Zl′ m′ (θ) √ Zlm (θ) √ = δll′ δmm′
0 0 2π 2π
"Z #Z
2π −im′ ϕ imϕ π
e e
√ √ dϕ sin θ dθ Zl∗′ m′ (θ) Zlm (θ) = δll′ δmm′
0 2π 2π 0
Z π
δmm′ sin θ dθ Zl∗′ m′ (θ) Zlm (θ) = δll′ δmm′ (11.66)
0
Z π

sin θ dθ Zl,m (θ) Zl′ ,m (θ) = δll′ (11.67)
0
nótese que en esta relación solo aparece un número cuántico m ya que si m 6= m′ ambos miembros en (11.66) se
anulan para cualquier valor de la integral que aparece a la izquierda de (11.66), de modo que a priori esta integral
puede tomar cualquier valor.
Tomaremos entonces para el cálculo de PL3 a la función de onda ψ (r) como una función que solo depende de
ϕ como variable y que depende solo paramétricamente de θ y r. Su expansión de Fourier será
X Z 2π
eimϕ 1
ψ (r, θ, ϕ) = bm (r, θ) √ ; bm (r, θ) = √ dϕ e−imϕ ψ (r, θ, ϕ) (11.68)
m 2π 2π 0

si reescribimos las Ecs. (11.59, 11.60) con la parametrización (11.65) obtenemos


XX eimϕ
ψ (r, θ, ϕ) = al,m (r) Zlm (θ) √ (11.69)
l m 2π
Z 2π Z π
∗ e−imϕ
alm (r) = hlm| ψi = dϕ sin θ dθ Zlm (θ) √ ψ (r, θ, ϕ) (11.70)
0 0 2π
si comparamos las Ecs. (11.68) con las Ecs. (11.69, 11.70) vemos que los alm con m fijo son los coeficientes de la
expansión de bm (r, θ) sobre las funciones Zlm (θ) para tal valor de m
X Z π

bm (r, θ) = al,m (r) Zlm (θ) ; alm (r) = sin θ dθ Zlm (θ) bm (r, θ) (11.71)
l 0
340 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

multiplicando a ambos lados de (11.71) por sin θ dθ y por el conjugado de cada miembro e integrando resulta
" #" #
X X
∗ ∗ ∗
bm (r, θ) bm (r, θ) sin θ dθ = al,m (r) Zlm (θ) al′ ,m (r) Zl′ m (θ) sin θ dθ
l l′
Z π XX Z π
2
|bm (r, θ)| sin θ dθ = al,m (r) a∗l′ ,m (r) Zlm (θ) Zl∗′ m (θ) sin θ dθ
0 l l′ 0

y usando (11.67) resulta


Z π XX
|bm (r, θ)|2 sin θ dθ = al,m (r) a∗l′ ,m (r) δll′
0 l l′
Z π X
|bm (r, θ)|2 sin θ dθ = |al,m (r)|2 (11.72)
0 l

y sustituyendo (11.72) en la segunda de las ecuaciones (11.64), la probabilidad PL3 (m) queda en la forma
Z ∞ Z π
PL3 (m) = 2
r dr sin θ dθ |bm (r, θ)|2 (11.73)
0 0

Por lo tanto, en lo que respecta al cálculo de PL3 (m) se puede considerar que para la función de onda, las
cantidades r y θ son parámetros y la única variable es ϕ. Con esta consideración, la expansión de Fourier se hace
en la forma indicada en (11.68) y los coeficientes de la expansión se utilizan para calcular PL3 (m) como se observa
en la Ec. (11.73).
Por otro lado, vemos que para calcular PL2 los dos ángulos θ y ϕ son relevantes ya que el operador diferencial
asociado (11.13) depende de ambos ángulos. Por tanto la única cantidad que se puede considerar como parámetro
para este cálculo es r y debemos emplear la fórmula (11.64).

11.7. Ejemplos de cálculos de probabilidad para L2 y L3


11.7.1. Función de onda parcialmente separable
Supongamos que la función de onda ψ (r) de una partı́cula tiene la forma

ψ (r, θ, ϕ) = f (r) g (θ, ϕ) (11.74)

siempre es posible normalizar cada función por separado de modo que


Z ∞ Z 2π Z π
2
2
r dr |f (r)| = 1 ; dϕ sin θ dθ |g (θ, ϕ)|2 = 1 (11.75)
0 0 0

la expansión (11.59, 11.60) se escribe entonces en la forma


XX Z 2π Z π

f (r) g (θ, ϕ) = al,m (r) Ylm (θ, ϕ) ; alm (r) = f (r) dϕ sin θ dθ Ylm (θ, ϕ) g (θ, ϕ)
l m 0 0
XX
f (r) g (θ, ϕ) = f (r) dl,m Ylm (θ, ϕ) ; alm (r) ≡ f (r) dlm (11.76)
l m

quedando entonces
XX Z 2π Z π

g (θ, ϕ) = dl,m Ylm (θ, ϕ) ; dlm ≡ dϕ sin θ dθ Ylm (θ, ϕ) g (θ, ϕ)
l m 0 0
11.7. EJEMPLOS DE CÁLCULOS DE PROBABILIDAD PARA L2 Y L3 341

usando la segunda Ec. (11.76), la probabilidad PL2 ,L3 dada en (11.63) queda en la forma
Z ∞ Z ∞
2 2
PL2 ,L3 (l, m) = 2
r dr |al,m (r)| = |dl,m | r 2 dr |f (r)|2
0 0
Z 2π Z π
PL2 ,L3 (l, m) = |dl,m |2 ; dlm ≡ dϕ sin θ dθ Ylm∗
(θ, ϕ) g (θ, ϕ) (11.77)
0 0

donde hemos usado la condición de normalización radial (11.75). Esta probabilidad es totalmente independiente
de la parte radial de la función de onda f (r).

11.7.2. Función de onda totalmente separable


Consideremos ahora el caso en el cual la función de onda admite una separación total

ψ (r, θ, ϕ) = f (r) h (θ) k (ϕ) (11.78)

de nuevo asumimos que cada función está normalizada por aparte


Z ∞ Z π Z 2π
2 2
2
r dr |f (r)| = sin θ dθ |h (θ)| = dϕ |k (ϕ)|2 = 1 (11.79)
0 0 0

Por supuesto la Ec. (11.78) es un caso especial de (11.74) de modo que los resultados precedentes son válidos aquı́.
Pero la separación adicional nos permite simplificar el cálculo de PL3 , pues la expansión (11.68) queda en este
caso en la forma
X Z 2π
eimϕ 1
f (r) h (θ) k (ϕ) = bm (r, θ) √ ; bm (r, θ) = √ f (r) h (θ) dϕ e−imϕ k (ϕ)
m 2π 2π 0
X eimϕ
f (r) h (θ) k (ϕ) = f (r) h (θ) cm √ ; bm (r, θ) ≡ cm f (r) h (θ) (11.80)
m 2π

quedando finalmente Z
X eimϕ 1 2π
k (ϕ) = cm √ ; cm ≡ √ dϕ e−imϕ k (ϕ) (11.81)
m 2π 2π 0

ahora aplicando (11.80 y 11.81) a la Ec. (11.73) para el cálculo de PL3 se obtiene
Z ∞ Z π Z ∞ Z π
2
PL3 (m) = 2
r dr sin θ dθ |bm (r, θ)| = 2
r dr sin θ dθ |cm f (r) h (θ)|2
0
Z ∞ 0 Z π 0 0

= |cm |2 r 2 dr |f (r)|2 sin θ dθ |h (θ)|2


0 0

y usando las condiciones de normalización (11.79) se tiene


Z 2π
1
PL3 (m) = |cm |2 ; cm ≡ √ dϕ e−imϕ k (ϕ) (11.82)
2π 0

11.7.3. Comportamiento de la probabilidad con θ y ϕ


Hasta ahora solo se ha considerado una estructura especı́fica de separación de variables en la función de onda en
forma de las Ecs. (11.74, 11.78). Tomaremos ahora ejemplos concretos que cumplan con alguna de estas ecuaciones,
por ejemplo asumamos que la función de onda es de la forma (11.78) pero totalmente independiente de θ y ϕ
1 1
h (θ) = √ ; k (ϕ) = √ (11.83)
2 2π
342 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES

con lo cual la Ec. (11.78) se convierte en


1
ψ (r) = f (r) √ = f (r) Y00 (θ, ϕ)

de modo que una medida de L2 y/o L3 da el valor cero con total certeza.
Ahora modifiquemos solo la dependencia con θ
r
3 1
h (θ) = cos θ ; k (ϕ) = √
2 2π
r
3
ψ (r) = f (r) cos θ = Y10 (θ, ϕ)

de nuevo tenemos certeza total sobre los valores de L2 y L3 en una medida (l = 1, m = 0). Para L2 obtenemos
2~2 y para L3 tendremos cero. Vemos que la modificación de la dependencia de θ no modifica las predicciones
concernientes a L3 puesto que tales predicciones solo dependen del ángulo ϕ.
Ahora modificamos la dependencia de ϕ (con respecto al primer problema) de modo que

1 eiϕ
h (θ) = √ ; k (ϕ) = √
2 2π
eiϕ
ψ (r) = f (r) √ (11.84)

la dependencia angular ya no está dada por un solo armónico esférico. Aplicando (11.82) vemos que PL3 (m) nos
da
Z 2π Z 2π
2 1 −imϕ 1
PL3 (m) = |cm | ; cm ≡ √ dϕ e k (ϕ) = dϕ e−imϕ eiϕ = δm1
2π 0 2π 0
PL3 (m) = δm1

por tanto m solo puede tomar el valor m = 1, vemos entonces que las predicciones sobre L3 han cambiado por
la introducción de la dependencia azimutal. Las predicciones
√ sobre L2 cambian también con respecto a las dadas
por (11.83). Para calcular PL2 es necesario expandir eiϕ / 4π en armónicos esféricos. Se puede verificar que todos
los armónicos con l impar y m = 1 aparecen en dicha expansión. Por tanto, ya no hay certeza en la medida de L2
sino una distribución de probabilidad. Tal como ya se discutió, la dependencia de ϕ entra en las predicciones sobre
L2 . Nótese que la Ec. (11.84) nos describe una autofunción de L3 que no es autofunción de L2 . Esto no supone
ninguna contradicción, ya que está garantizado que existe una base común para ambos, pero esto no significa que
no pueda existir una base (o en particular un vector) que consista de autovectores de solo uno de los operadores.
Capı́tulo 12

Interacciones centrales en mecánica


cuántica

En mecánica cuántica es frecuente encontrarse con el problema de dos partı́culas interactuantes como es el
caso de la interacción electrón núcleo en un átomo hidrogenoide (sistema consistente en un núcleo y un electrón).
Cuando la interacción entre las dos partı́culas se puede describir por un potencial que solo depende de la posición
relativa entre ambas, es posible demostrar al igual que en mecánica clásica, que el problema se puede reducir
al estudio de una sola partı́cula ficticia. Además cuando la interacción entre las partı́culas depende solo de la
distancia entre ellas, el sistema equivalente es la partı́cula ficticia sujeta a un potencial central.
Una vez que el problema se reduce al problema equivalente de una partı́cula, se considerarán las propiedades
mecano cuánticas de una partı́cula sujeta a un potencial central V (r). Este problema está ı́ntimamente relacionado
con el problema del momento angular, ya que el hecho de que V (r) sea invariante ante rotaciones alrededor del
origen significará que el Hamiltoniano H conmuta con todas las componentes del momento angular orbital L,
es decir es un escalar. Esto simplificará considerablemente el problema de valores propios ya que será posible
construı́r una base común de funciones propias de H, L2 y L3 . Esto a su vez permitirá que la dependencia angular
de la ecuación de valores propios se convierta en el problema de valores propios del momento angular orbital que
ya se ha estudiado en detalle. Por tanto, el problema se reducirá a encontrar la dependencia radial.

12.1. El problema de dos cuerpos y su reducción al problema equivalente de


una partı́cula en Mecánica Clásica
Consideremos un sistema de dos masas puntuales m1 y m2 como lo indica la Fig. 12.1, donde las únicas fuerzas
que actúan sobre ellas son las debidas al potencial mutuo U . La isotropı́a del espacio nos sugiere que si las masas
no poseen alguna propiedad vectorial, la interacción entre ellas debe ir dirigida a lo largo de la lı́nea que las
une, esto indica que el potencial debe ser función del valor absoluto de la coordenada relativa1 r2 − r1 ≡ r. Este
sistema tiene seis grados de libertad y por tanto requiere de seis coordenadas generalizadas. Quizás el sistema
de coordenadas generalizadas más conveniente lo constituye las coordenadas de posición del centro de masa R,
y las coordenadas que determinan al vector relativo r. Estas coordenadas se pueden escribir en términos de las
coordenadas de posición de las partı́culas r1 y r2

m1 r1 + m2 r2
r ≡ r2 − r1 ; R ≡ (12.1)
m1 + m2

1
Esto adicionalmente es compatible con la homogeneidad del espacio ya que un cambio de origen no debe cambiar la naturaleza de
la interacción. Efectivamente, el vector r = r2 − r1 es invariante ante un cambio de origen.

343
344 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA

Figura 12.1: Variables de posición fundamentales en el problema de dos cuerpos.

estas ecuaciones se pueden invertir para obtener


m2
r1 = R − r
m1 + m2
m1
r2 = R+ r (12.2)
m1 + m2
también son útiles las coordenadas de posición de las partı́culas relativas al centro de masa r′1 y r′2

r1 = R + r′1 ; r2 = R + r′2 (12.3)

con lo cual
m2
r′1 = − r
m1 + m2
m1
r′2 = r (12.4)
m1 + m2
En esta sección consideraremos una situación algo más general en donde el potencial puede depender también de
las derivadas temporales del vector relativo r. El Lagrangiano del sistema se puede escribir como
 
L = T Ṙ, ṙ − U (r, ṙ, ..)

es bien sabido que la energı́a cinética de un sistema clásico de partı́culas se puede escribir como la energı́a cinética
del centro de masa mas la energı́a cinética con respecto al centro de masa
  1 1 1 1 1
T Ṙ, ṙ = m1 ṙ21 + m2 ṙ22 = m1 ṙ′2 ′2
1 + m2 ṙ2 + M Ṙ
2
(12.5)
2 2 2 2 2
donde M ≡ m1 + m2 . Usando (12.4) se puede escribir la energı́a cinética en términos de las coordenadas genera-
lizadas elegidas i.e. las componentes de Ṙ y ṙ
1 m1 m2 2 1
T = ṙ + M Ṙ2
2 M 2
el Lagrangiano queda de la forma
1 1 m1 m2 2
L= M Ṙ2 + ṙ − U (r, ṙ, ..) (12.6)
2 2 M
12.1. EL PROBLEMA DE DOS CUERPOS EN MECÁNICA CLÁSICA 345

se puede ver que las coordenadas de R son todas cı́clicas, es decir no aparecen en el Lagrangiano pero sı́ aparecen
las coordenadas Ṙ. Si elegimos como coordenadas generalizadas las tres componentes cartesianas de R, vemos
que los tres momentos lineales (que serı́an los momentos canónicos) son constantes y por tanto, Ṙ = cte, de modo
que el centro de masa está en reposo o movimiento rectilı́neo uniforme2

R = R0 + Ṙt (12.7)

si nuestro sistema original de referencia es inercial, entonces el sistema con origen en el centro de masa también
lo es. Podemos entonces ver el movimiento a partir del centro de masa en cuyo caso el Lagrangiano queda
1 2
L= µṙ − U (r, ṙ, ..) (12.8)
2
donde hemos definido
m1 m2
µ≡ (12.9)
M
como la masa reducida del sistema. El Lagrangiano (12.8) es el equivalente al Lagrangiano que se obtendrı́a
si tuviéramos una partı́cula de masa µ sometida a una fuerza que apunta siempre hacia un punto fijo (fuerza
central), y a una distancia r del centro de fuerza. Por lo tanto el problema de dos cuerpos sometidos a fuerzas
centrales mutuas, se puede reducir a un problema de una sola partı́cula que interactúa con un centro de fuerzas.
No debemos olvidar sin embargo, que la partı́cula equivalente a la cual está asociada el Lagrangiano (12.8),
NO existe, no hay ninguna partı́cula de masa µ y las trayectorias que se encuentran son para esta partı́cula
imaginaria. Para encontrar la trayectoria de las partı́culas originales con respecto al sistema inercial original, es
necesario devolverse tomando las Ecs. (12.2, 12.7) junto con las soluciones que encontremos para r. No obstante,
si ocurre que m1 ≪ m2 entonces tanto la trayectoria como la masa imaginarias van a ser muy semejantes a la
trayectoria y masa real de m1 .
Ahora queremos construı́r un Hamiltoniano equivalente para cuantizar más adelante. Usando (12.6) suponiendo
que U solo depende de r, podemos calcular los momentos conjugados asociados a las componentes de R y de r,
los cuales están dados por
 
∂L ∂ 1 1 1 1
Pi = = M Ẋk Ẋk + µẋk ẋk − V (r) = M δik Ẋk + M Ẋk δik = M Ẋi
∂ Ẋi ∂ Ẋi 2 2 2 2
 
∂L ∂ 1 1
pi = = M Ẋk Ẋk + µẋk ẋk − V (r) = µẋi
∂ ẋi ∂ ẋi 2 2
tenemos entonces que

P = M Ṙ = m1 ṙ1 + m2 ṙ2 = p1 + p2 (12.10)


m1 m2 m1 m2 ṙ2 − m2 m1 ṙ1 m1 p2 − m2 p1
p = µṙ = (ṙ2 − ṙ1 ) = = (12.11)
m1 + m2 m1 + m2 m1 + m2
p p2 p1
= − (12.12)
µ m2 m1
P es el momento total y p es el momento relativo de las dos partı́culas. El Hamiltoniano clásico se escribe como
P2 p2
H (R, P, r, p) = + + V (r) (12.13)
2M 2µ
empleando las ecuaciones de Hamilton encontramos que

Ṗ = 0 ; ṗ = −∇V (r) (12.14)


2
Desde el punto de vista Newtoniano esto se puede ver por el hecho de que el sistema está aislado, de modo que el centro de masa
no puede estar acelerado. En términos de simetrı́as, se dice que el sistema tiene invarianza traslacional que conduce a la conservación
del momento lineal.
346 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA

la primera ecuación nos dice que el centro de masa tiene movimiento rectilı́neo uniforme como ya se habia obser-
vado. La segunda ecuación es la segunda ley de Newton aplicada a la partı́cula imaginaria de masa µ. Puesto que
el centro de masa es también inercial, podemos ubicarnos allı́ para ver las ecuaciones de movimiento, en cuyo caso
el Hamiltoniano queda
p2
H (r, p) = + V (r) (12.15)

que es el equivalente al Lagrangiano (12.8) para la partı́cula µ con posición r y momento p (excepto que ya
asumimos que el potencial solo depende de r). Nótese que el primer término a la derecha de las Ecs. (12.6, 12.13)
junto con la primera de las Ecs. (12.14) nos permite interpretar al par R, P como variables conjugadas a una
segunda partı́cula imaginaria de masa M y que viaja a la velocidad constante del centro de masa ocupando para
todo tiempo la posición del centro de masa3 .
También se observa que la Ec. (12.12) nos dice que la velocidad p/µ de la partı́cula imaginaria es igual a la
diferencia entre la velocidades de las dos partı́culas es decir su velocidad relativa, lo cual es consistente con derivar
la primera de las Ecs. (12.1) con respecto al tiempo.

12.2. Reducción del problema de dos cuerpos en mecánica cuántica


Cuando se realiza un proceso de cuantización no es obvio a priori que el problema de dos cuerpos se reduzca
al problema de un solo cuerpo. La razón estriba en que debemos cuantizar las variables asociadas a las partı́culas
reales, es decir debemos cuantizar (R1 , P1 ) y (R2 , P2 ), después de esto podemos pasar a las coordenadas de centro
de masa que denotamos por (RC , PC ) y las coordenadas relativas (Rr , Pr ). Sin embargo, para poder interpretar
consistentemente estas nuevas coordenadas como equivalentes a dos partı́culas imaginarias, es necesario que dichas
nuevas coordenadas sean canónicas (es decir que obedezcan las reglas canónicas de conmutación). Adicionalmente,
para que el movimiento de estas dos partı́culas imaginarias se pueda desacoplar, es necesario que las variables
(RC , PC ) conmuten con las variables (Rr , Pr ). Veremos sin embargo, que estas condiciones sı́ se satisfacen para el
problema cuántico de dos cuerpos que interactúan con una fuerza central, de modo que la reducción al problema
de dos cuerpos desacoplados también es posible en mecánica cuántica.
Asociaremos los operadores R1 , P1 y R2 , P2 que describen la posición y el momento de las dos partı́culas y
que satisfacen las relaciones canónicas
h i h i h i
(i) (k) (i) (k) (i) (k)
Pj , Pm = Xj , Xm = 0 ; Xj , Pm = δjm δik i~ ; i, k = 1, 2 ; j, m = 1, 2, 3 (12.16)

donde i, k rotulan partı́culas en tanto que j, m rotulan componentes. Definimos ahora los observables RC y Rr en
forma análoga a las Ecs. (12.1)
m1 R1 + m2 R2
RC = ; Rr = R2 − R1 (12.17)
m1 + m2
y los momentos tienen expresiones de la forma (12.10, 12.11)

m1 P2 − m2 P1
PC = P1 + P2 ; Pr = (12.18)
m1 + m2

los conmutadores entre las componentes de RC , Rr , PC , Pr se pueden calcular con base en las definiciones (12.17,
12.18) y las reglas de conmutación (12.16) y se obtiene
h i h i h i
e (i) , X
X em(k)
= e(i) , Pem
P (k)
= 0 ; e (i) , Pem
X (k)
= δjm δik i~ ; i, k = 1, 2 ; j, m = 1, 2, 3
j j j

e (1) ≡ (RC ) ; X
X e (2) ≡ (Rr ) ; Pe(1) ≡ (PC ) ; Pe(2) ≡ (Pr )
j j j j j j j j
3
En sı́ntesis hemos cambiado el problema de dos cuerpos (reales) acoplados por el problema de dos cuerpos (imaginarios) totalmente
desacoplados.
12.2. REDUCCIÓN DEL PROBLEMA DE DOS CUERPOS EN MECÁNICA CUÁNTICA 347

es decir tanto el par RC , PC , como el par Rr , Pr obedecen reglas canónicas de conmutación. Además todo
observable del conjunto {RC , PC } conmuta con todo observable del conjunto {Rr , Pr }.
Lo anterior nos permite interpretar al par RC , PC , y al par Rr , Pr como los observables posición y momento
de dos partı́culas ficticias distintas y desacopladas, al igual que en el caso clásico.

12.2.1. Autovalores y autofunciones del Hamiltoniano


Usando las reglas de cuantización, el Hamiltoniano para dos cuerpos sometidos a una fuerza central está dado
por
P21 P2
H= + 2 + V (R2 − R1 )
2m1 2m2
teniendo en cuenta que este Hamiltoniano no acopla observables de momento con observables de posición, el cálculo
para llegar del conjunto (R1 , P1 , R2 , P2 ) al conjunto (RC , PC , Rr , Pr ) es idéntico al del caso clásico puesto que
todos los productos que aparecen conmutan. El resultado es entonces totalmente análogo a (12.13)
P2C P2
H= + r + V (Rr )
2M 2µ
este Hamiltoniano se puede separar en la forma
P2C P2
H = HC + Hr ; HC ≡ ; Hr ≡ r + V (Rr )
2M 2µ
[HC , Hr ] = 0 ⇒ [HC , H] = 0 ; [Hr , H] = 0

Asumiendo que H, HC , Hr son observables, tal conjunto tendrá entonces una base común de kets propios.

HC |ϕi = EC |ϕi ; Hr |ϕi = Er |ϕi ; H |ϕi = E |ϕi


H = HC + Hr ⇒ E = EC + Er (12.19)

consideremos la base {|rC , rr i}, donde los elementos de esta base son vectores propios comunes a los observables
RC y Rr . En esta base, un estado se representa por la función de onda ϕ (rC , rr ) que es función de seis variables.
Los operadores RC y Rr se representan por multiplicación de las funciones de onda por las variables rC y rr
respectivamente, en tanto que PC y Pr se representan por los gradientes
 
∂ ∂ ∂
PC → −i~∇C ≡ −i~ , ,
∂xC,1 ∂xC,2 ∂xC,3
 
∂ ∂ ∂
Pr → −i~∇r ≡ −i~ , ,
∂xr,1 ∂xr,2 ∂xr,3
el espacio de estados E puede ser considerado como el producto tensorial

E = Er C ⊗ Er r

donde los espacios ErC , Err están asociados a RC y Rr respectivamente. HC y Hr son entonces extensiones a E
de Hamiltonianos originalmente definidos en ErC y Err respectivamente. Podemos entonces encontrar una base |ϕi
que cumple las Ecs. (12.19) en la forma siguiente4

|ϕi = |ϕC i ⊗ |ϕr i ; |ϕC i ∈ ErC ; |ϕr i ∈ Err (12.20)


HC |ϕC i = EC |ϕC i ; Hr |ϕr i = Er |ϕr i ; H |ϕi = (EC + Er ) |ϕi (12.21)
4
El hecho de que |ϕi sea el producto tensorial de un vector en EC por otro vector en Er , es consecuencia de que el estado resultante
es una simple yuxtaposición de los estados factor, debido a que las dos partı́culas (ficticias) asociadas a cada estado |ϕC i y |ϕr i están
desacopladas, es decir no son interactuantes (ver sección 6.1.1, pág. 245).
348 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA

las dos primeras ecuaciones se pueden escribir en la base {|rC i} y {|rr i} respectivamente y se obtiene
~2 2
− ∇ ϕC (rC ) = EC ϕC (rC ) (12.22)
 2M C
~2 2
− ∇ + V (rr ) ϕr (rr ) = Er ϕr (rr ) (12.23)
2µ r
la Ec. (12.22) muestra que la partı́cula equivalente para la descripción del centro de masa es libre como en la
mecánica clásica. Sus soluciones son del tipo onda plana
1 i p2C
ϕC (rC ) = 3/2
e ~ pC ·rC ; EC = ≥0
(2π~) 2M

el espectro de energı́a es no negativo y contı́nuo y corresponde a la energı́a cinética del movimiento del sistema
como un todo.
La Ec. (12.23) describe la dinámica de la partı́cula imaginaria de masa µ con posición equivalente a la posición
relativa entre las dos partı́culas. Describe entonces el comportamiento del sistema de dos partı́culas en el sistema
de referencia del centro de masa. Si el potencial solo depende de |r2 − r1 | y no de la dirección de este vector
relativo, la partı́cula µ estará sujeta a un potencial central V (r). El problema se reduce entonces a resolver la
dinámica de la partı́cula µ.
El momento angular del sistema es

J = L1 + L2 ; L1 = R1 × P1 ; L2 = R2 × P2

se puede demostrar que este momento angular total también se puede escribir como
J = LC + Lr ; LC = RC × PC ; Lr = Rr × Pr

Adicionalmente, se puede demostrar que LC y Lr satisfacen las reglas de conmutación de un momento angular.
Naturalmente, las componentes de LC conmutan con las de Lr . Una vez más, estas propiedades nos permiten
interpretar consistentemente a LC y a Lr como momentos angulares de dos partı́culas cuánticas imaginarias
desacopladas.

12.3. El problema clásico de una partı́cula sometida a una fuerza central


Asumamos una partı́cula clásica sometida a una fuerza de la forma5
dV
F = −∇V (r) = − ur
dr
dado que la fuerza es paralela al vector posición (siempre que el origen se elija en el centro de fuerza) tenemos
que ~τ = r × F = 0 y puesto que ~τ = dL/dt, se tiene que L = cte. El momento angular clásico es entonces una
constante de movimiento para una partı́cula clásica sometida a una fuerza central. La trayectoria está contenida
entonces en un plano que pasa por el centro de fuerzas y que es perpendicular al momento angular. La velocidad
se puede descomponer en una componente radial (paralela a r) y una transversal (perpendicular a r). La velocidad
radial tiene como magnitud
dr
vr =
dt
y la magnitud de la velocidad tangencial está dada por
1
|vθ | = |v sin δ| = |ur × v| = |r × v|
r
5
De aquı́ en adelante simplificaremos la notación y usaremos r, p en lugar de rr y pr para las variables dinámicas fundamentales
del problema de una partı́cula.
12.3. EL PROBLEMA CLÁSICO DE UNA PARTÍCULA SOMETIDA A UNA FUERZA CENTRAL 349

siendo δ el ángulo entre ur y v. El módulo del momento angular es

|L| = |r × µv| = µr |vθ | ⇒


|L|
|vθ | =
µr
la energı́a total (cinética mas potencial) es
1 2 1 1
E = µv + V (r) = µvr2 + µvθ2 + V (r)
2 2 2
 2
1 2 1 |L|
E = µv + µ + V (r)
2 r 2 µr
1 2 L2
E = µvr + + V (r) (12.24)
2 2µr 2
El Hamiltoniano clásico en coordenadas esféricas se escribe como
!
p2r 1 p2ϕ
H = + + p2θ + V (r)
2µ 2µr 2 sin2 θ
p2ϕ
L2 = + p2θ
sin2 θ
La energı́a cinética en (12.24) se dividió en dos términos: la energı́a cinética radial y la transversal. Nótese que la
dependencia angular del Hamiltoniano se puede absorber en L2 teniendo en cuenta que esta es una constante de
movimiento
p2 L2
H= r + + V (r) (12.25)
2µ 2µr 2
la absorción de los ángulos y sus momentos conjugados en L2 está relacionada con el hecho de que V (r) no depende
de los ángulos. El Hamiltoniano es la energı́a del sistema en este caso como se aprecia al comparar (12.24) con
(12.25). Podemos entonces tratar al Hamiltoniano como función solo de r y pr tomando a L2 como parámetro.
Tenemos entonces solo dos ecuaciones de Hamilton
∂H ∂H
ṙ = ; ṗr = −
∂pr ∂r
tomando el Hamiltoniano (12.25) estas ecuaciones quedan

dr pr dpr L2 dV
= ; = 3−
dt µ dt µr dr
d2 r 1 dpr 2
d r L 2 dV
= ; µ 2 = 3− (12.26)
dt2 µ dt dt µr dr
si definimos el potencial efectivo
L2
Vef f (r) = V (r) +
2µr 2
el Hamiltoniano (12.25) y las ecuaciones de movimiento (12.26) quedan

p2r d2 r dVef f
H= + Vef f (r) ; µ 2 = −
2µ dt dr
que es equivalente a un problema unidimensional sujeto a la interacción descrita por el potencial efectivo (teniendo
en cuenta que r va entre 0 e ∞). Veremos como se traducen estas caracterı́sticas en la mecánica cuántica.
350 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA

12.4. Hamiltoniano cuántico


De aquı́ en adelante nos concentraremos en la ecuación (12.23) de valores propios para el Hamiltoniano en la
representación de la coordenada relativa {|rr i}. Por tanto simplificamos su notación en la forma
 2 
~ 2
− ∇ + V (r) ϕ (r) = Eϕ (r) (12.27)

puesto que el potencial V solo depende de la distancia r de la partı́cula al origen, las coordenadas esféricas son
más adecuadas para el problema. El Laplaciano en coordenadas esféricas se escribe
 2 
2 1 ∂2 1 ∂ 1 ∂ 1 ∂2
∇ = r+ 2 + + (12.28)
r ∂r 2 r ∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2
esta expresión da el Laplaciano solo para r 6= 0 y no está definida para r = 0, lo cual se debe a la posición
privilegiada del origen en coordenadas esféricas (el origen corresponde a r = 0 para cualquier valor de θ, ϕ), más
adelante impondremos condiciones sobre la función de onda en el origen. De la Ec. (11.13) vemos que el Laplaciano
(12.28) se puede escribir en términos de L2

1 ∂2 L2
∇2 = r − (12.29)
r ∂r 2 ~2 r 2
de modo que el Hamiltoniano cuántico se puede escribir
 
~2 2 ~2 1 ∂ 2 L2
H = − ∇ + V (r) = − r − 2 2 + V (r)
2µ 2µ r ∂r 2 ~ r
2
~ ∂ 2 L 2
H = − 2
r+ + V (r) (12.30)
2µr ∂r 2µr 2

que es el análogo del Hamiltoniano clásico (12.25). El operador diferencial L2 contiene toda la dependencia angular.
El problema de valores propios del Hamiltoniano queda escrito en la forma
 
~2 ∂ 2 L2
− r+ + V (r) ϕ (r, θ, ϕ) = E ϕ (r, θ, ϕ) (12.31)
2µr ∂r 2 2µr 2

12.5. Solución general del problema de valores propios


Puesto que las componentes de L solo actúan en la variables angulares, conmutan con todos los operadores
que solo dependan de r. Además, sabemos que Li conmuta con L2 . Por tanto de acuerdo con (12.30), las tres
componentes de L conmutan con el Hamiltoniano y como no dependen explı́citamente del tiempo, son todas
constantes de movimiento en el sentido cuántico (sección 5.8.2)

∂L d hLi
[H, L] = 0 ; = =0
∂t dt
por tanto H es un operador escalar con respecto a las rotaciones alrededor del origen, lo cual proviene de la
invarianza del potencial bajo rotaciones alrededor del origen. Por supuesto H también conmuta con L2 . Sin
embargo, aunque tenemos a nuestra disposición cinco constantes de movimiento (L, L2 , H), no podemos usarlas
todas para solucionar el problema de valores propios (12.31) ya que no todos estos operadores conmutan entre
sı́. Solo podremos usar L2 , L3 (u otra componente) y H. Si asumimos que H, L2 , L3 son observables, existirá
una base común de funciones propias en el espacio Er de una partı́cula. Por lo tanto podemos sin retringir la
generalidad del problema requerir que la funciones de onda en (12.31) también sean funciones de onda de L2 y L3

Hϕ (r) = Eϕ (r) ; L2 ϕ (r) = l (l + 1) ~2 ϕ (r) ; L3 ϕ (r) = m~ϕ (r) (12.32)


12.5. SOLUCIÓN GENERAL DEL PROBLEMA DE VALORES PROPIOS 351

pero ya conocemos la forma de la parte angular de las autofunciones comunes de L2 y L3 (sección 11.4). La Ec.
(11.45) nos indica que estas funciones son de la forma

ϕ (r) = Rlk (r) Ylm (θ, ϕ) (12.33)

donde este ϕ (r) es solución de las dos últimas ecuaciones (12.32) sin importar la forma de la parte radial. Por
tanto, solo queda resolver el problema de determinar R (r) a fin de que ϕ (r) sea autofunción del Hamiltoniano.

12.5.1. La ecuación radial


Si sustituı́mos (12.33) en la Ec. (12.31) de valores propios del Hamiltoniano
 
~2 ∂ 2 L2
− r+ + V (r) Rlk (r) Ylm (θ, ϕ) = E Rlk (r) Ylm (θ, ϕ)
2µr ∂r 2 2µr 2
 
~2 ∂ 2 L2 Ylm (θ, ϕ)
Ylm (θ, ϕ) − r + V (r) R lk (r) + Rlk (r) = E Rlk (r) Ylm (θ, ϕ)
2µr ∂r 2 2µr 2

y teniendo en cuenta que los armónicos esféricos son autofunciones de L2 con valor propio l (l + 1) ~2 se tiene
 
~2 ∂ 2 l (l + 1) ~2 Ylm (θ, ϕ)
Ylm (θ, ϕ) − r + V (r) R lk (r) + Rlk (r) = E Rlk (r) Ylm (θ, ϕ)
2µr ∂r 2 2µr 2
la ecuación radial toma finalmente la forma
 
~2 d2 l (l + 1) ~2
− r+ + V (r) Rlk (r) = El,k Rlk (r) (12.34)
2µr dr 2 2µr 2
en realidad una solución de (12.34), sustituı́da en (12.33) no necesariamente representa una solución de la ecuación
de valores propios (12.27) del Hamiltoniano. Esto se debe a que la expresión (12.28) para el Laplaciano no es nece-
sariamente válida en r = 0. Debemos por tanto asegurarnos que la solución R (r) de (12.34) sea lo suficientemente
regular en el origen para que (12.33) sea en realidad solución de (12.27). Nótese además que aunque la Ec. (12.34)
no depende de los ángulos, sı́ depende de l, en realidad para cada valor de l tenemos un operador diferente en
(12.34).
De las Ecs. (12.32), podemos decir que el problema de valores propios de L2 , L3 , H lo resolvemos para cada par
de valores fijos de l y m. Esto implica que en el espacio de estados Er resolvemos el problema para cada subespacio
E (l, m) asociado a valores fijos de l y m. La Ec. (12.34) nos muestra que cuando estudiamos la parte radial (que es
la única desconocida) de las funciones propias del Hamiltoniano, la ecuación asociada depende de l pero no de m,
es decir la ecuación (12.34) es idéntica para todos los 2l + 1 subespacios E (l, m) con l fijo. Denotaremos por El,k
los autovalores del operador Hl definido por (12.34) y que corresponderá a los autovalores del Hamiltoniano dentro
de un subespacio dado E (l, m). El ı́ndice k (discreto o contı́nuo) indica los diferentes valores propios asociados
al mismo número cuántico l, los valores posibles de k indican la dimensionalidad de cada subespacio E (l, m). En
(12.34) hemos denotado las funciones propias de Hl con los ı́ndices Rl,k (r). Debe notarse sin embargo que los
ı́ndices de la función radial no tienen que ser los mismos de los valores propios El,k puesto que podrı́amos tener
varias funciones radiales propias de Hl para un valor propio dado El,k en cuyo caso la función radial requerirı́a
un ı́ndice adicional. Sin embargo, demostraremos más adelante que para cada l, k solo existe una función radial
linealmente independiente.
Por otra parte, para la Ec. (12.34)
 
~2 d2 l (l + 1) ~2
− r+ + V (r) Rlk (r) = El,k Rlk (r) (12.35)
2µr dr 2 2µr 2
Definimos el cambio de variable
1
Rl,k (r) = ul,k (r) (12.36)
r
352 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA

y multiplicamos a ambos lados por r


  
~2 d2 l (l + 1) ~2 1 1
r − 2
r+ 2
+ V (r) ul,k (r) = rEl,k ul,k (r)
2µr dr 2µr r r
 2 2
  2
  
~ d 1 l (l + 1) ~ 1 1
r − r ul,k (r) + ul,k (r) + V (r) ul,k (r) = El,k ul,k (r)
2µr dr 2 r 2µr 2 r r
 2 2 
~ d l (l + 1) ~2
− ul,k (r) + ul,k (r) + V (r) ul,k (r) = El,k ul,k (r)
2µ dr 2 2µr 2
quedando finalmente  2 2 
~ d l (l + 1) ~2
− + + V (r) ul,k (r) = El,k ul,k (r) (12.37)
2µ dr 2 2µr 2
de nuevo la Ec. (12.37) es análoga a un problema unidimensional de un partı́cula de masa µ sometida al potencial
efectivo Vef f definido por
l (l + 1) ~2
Vef f = V (r) + (12.38)
2µr 2

teniendo en cuenta que r solo puede tomar valores no negativos. El término l (l + 1) ~2 / 2µr 2 es siempre positivo
de modo que si correspondiera a una interacción real corresponderı́a a una fuerza repulsiva, por este motivo se
conoce como potencial centrı́fugo. Debe tenerse en cuenta sin embargo, que el término centrı́fugo no corresponde a
una verdadera interacción sino a una porción de la energı́a cinética (energı́a cinética transversal). Cuando l = 0 el
término centrı́fugo está ausente. Para una interacción Coulombiana V (r) = −e2 /r, si l 6= 0 el término centrı́fugo
domina para valores pequeños de r de modo que el potencial efectivo es repulsivo a cortas distancias.

12.5.2. Comportamiento de la solución radial en el origen


Ya hemos mencionado que debemos examinar las soluciones R (r) de la ecuación radial (12.34) en el origen
para garantizar que éstas también sean soluciones de la Ec. (12.27) puesto que en el paso de (12.27) a (12.34) se
ha usado el Laplaciano en coordenadas esféricas (12.28) que no está definido en el origen.
Asumiremos que el potencial V (r) es tal que

lı́m r 2 V (r) = 0 (12.39)


r→0

es decir, permanece finito o diverge menos rápido que 1/r 2 . Esta hipótesis es válida en la mayorı́a de los casos
y en particular para el potencial de Coulomb. Consideremos una solución de la Ec. (12.34) asumamos que en el
origen se comporta en la forma
lı́m Rl,k (r) ∼ Cr s (12.40)
r→0

sustituyendo (12.40) en (12.34) tenemos


 
~2 d2 l (l + 1) ~2
− r+ + V (r) Cr s = El,k Cr s
2µr dr 2 2µr 2
~2 d2 s+1 l (l + 1) ~2 s
− r + r + V (r) r s = El,k r s
2µr dr 2 2µr 2
~2 s−1 l (l + 1) ~2 s
−s (s + 1) r + r + V (r) r s = El,k r s
2µr 2µr 2
~2 l (l + 1) ~2 s−2
−s (s + 1) r s−2 + r + [V (r) − El,k ] r s = 0
2µ 2µ
 
s−2 ~2 l (l + 1) ~2 2
r −s (s + 1) + + [V (r) − El,k ] r = 0
2µ 2µ
12.6. ESTADOS ESTACIONARIOS DE UNA PARTÍCULA EN UN POTENCIAL CENTRAL 353

asumimos que r 6= 0 de modo que


~2 l (l + 1) ~2
−s (s + 1) + + [V (r) − El,k ] r 2 = 0
2µ 2µ
tomando el lı́mite cuando r → 0 y teniendo en cuenta la condición (12.39)

−s (s + 1) + l (l + 1) = 0
(l − s) (s + l + 1) = 0 (12.41)

por tanto tenemos dos soluciones posibles

s=l ó s = − (l + 1) (12.42)

es decir que para un valor propio dado El,k hay dos soluciones linealmente independientes de la ecuación de
segundo orden (12.34), que se comportan como r l y como 1/r l+1 en la vecindad del origen respectivamente. La
solución 1/r l+1 claramente diverge en el origen para todos los valores de l. Adicionalmente, se puede demostrar
que la función Ylm (θ, ϕ) /r l+1 no es una solución de la ecuación de valores propios (12.27) para r = 0, esto se debe
a que el laplaciano de Ylm (θ, ϕ) /r l+1 involucra la l−ésima derivada de δ (r). Por tales razones, la solución 1/r l+1
debe ser descartada.
De lo anterior las soluciones aceptables para (12.37) deben ir a cero en el origen para todo l ya que

lı́m ul,k (r) = lı́m [rRl,k (r)] ∼ Cr l+1 (12.43)


r→0 r→0

de modo que a la Ec. (12.37) se le debe agregar la condición

ul,k (0) = 0 (12.44)

en la Ec. (12.37) r va entre 0 e infinito. Sin embargo, es posible asumir el problema como un problema unidi-
mensional equivalente en donde r tome todos los valores reales pero con potencial efectivo infinito para valores
negativos de r. En tal caso, la función de onda toma valores idénticamente ceros en la parte negativa de r y la
condición (12.44) asegura la continuidad de la función de onda en r = 0.

12.6. Estados estacionarios de una partı́cula en un potencial central


Hemos visto que cuando el potencial V (r) es independiente de θ y ϕ podemos requerir que las autofunciones
del Hamiltoniano sean también autofunciones de L2 y L3 . Esto permite aseverar que la dependencia angular viene
dada por las autofunciones de L2 y L3 es decir los armónicos esféricos
1
ϕl,m,k (r) = Rl,k (r) Ylm (θ, ϕ) = ul,k (r) Ylm (θ, ϕ) (12.45)
r
por tanto, la ecuación de valores propios del Hamiltoniano que involucra a r, θ, ϕ puede ser reemplazada por una
ecuación diferencial que solo involucra a r y que depende del parámetro l, Ec. (12.37), dicha ecuación junto con
la condición (12.44) nos dictamina la dependencia radial de la función de onda. Nótese que estas caracterı́sticas
emulan el comportamiento clásico.
Las funciones ϕl,m,k (r, θ, ϕ) deben ser de cuadrado integrable
Z
|ϕl,m,k (r, θ, ϕ)|2 r 2 dr dΩ = 1

la estructura de la función de onda Ec. (12.45) permite separar la parte radial y la angular
Z Z ∞ Z
2 2 2
|ϕl,m,k (r, θ, ϕ)| r dr dΩ = 2
r dr |Rl,m,k (r)| |Ylm (θ, ϕ)|2 dΩ = 1
0
354 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA

y puesto que los armónicos esféricos están normalizados entonces la función radial está normalizada por aparte
Z ∞ Z ∞
r 2 dr |Rl,m,k (r)|2 = dr |ul,m,k (r)|2 = 1 (12.46)
0 0

en realidad es conveniente aceptar en algunos casos autofunciones que no sean de cuadrado integrable. Esto ocurre
cuando al menos parte del espectro de H es contı́nuo, en cuyo caso requerimos que las funciones de onda sean
ortonormales en el sentido extendido es decir
Z ∞ Z ∞
2 ∗

r dr Rl,k′ (r) Rl,k (r) = dr u∗l,k′ (r) ul,k (r) = δ k − k′ (12.47)
0 0

siendo k un ı́ndice contı́nuo.


En las Ecs. (12.46, 12.47), los integrandos convergen en su lı́mite inferior r = 0 debido a la condición (12.44).
Esto es fı́sicamente necesario ya que la probabilidad de encontrar a la partı́cula en cualquier volumen de dimensión
finita permanece finita (en particular para un volumen que contiene al origen)6 . Por tanto, es solo debido al
comportamiento de la función de onda en r → ∞ que la integral (12.47) diverge en k = k′ cuando el espectro es
contı́nuo.
Las Ecs. (12.45) nos dicen que las funciones propias del Hamiltoniano de una partı́cula inmersa en un poten-
cial central V (r) dependen de por lo menos tres ı́ndices l, m, k (k podrı́a representar varios ı́ndices contı́nuos o
discretos). La función ϕl,m,k (r) en (12.45) es autofunción simultánea de H, L2 , L3 con autovalores El,k , l (l + 1) ~2
y m~. A k se le conoce como número cuántico radial, l se denomina número cuántico azimutal y m el número
cuántico magnético. La parte radial Rl,k (r) = ul,k /r de la autofunción ası́ como el autovalor El,k no dependen del
número cuántico magnético m y están dadas por la ecuación radial (12.37) junto con la condición (12.44). Por
otro lado, la parte angular de la función de onda (armónicos esféricos) depende de l y m pero no de k, dicha parte
angular es independiente de la forma del potencial V (r).

12.6.1. Degeneración de los niveles de energı́a


Consideraremos ahora el problema de la degeneración de los niveles de energı́a. Las 2l+1 funciones ϕl,m,k (r, θ, ϕ)
con l y k fijos y m variando entre −l y l son autofunciones de H con el mismo valor propio El,k , dado que estas
2l +1 funciones corresponden a valores propios diferentes de L3 serán claramente ortogonales. En consecuencia hay
por lo menos un degeneración de orden 2l + 1 del valor propio El,k , tal degeneración es independiente de la forma
del potencial y por esta razón se denomina una degeneración esencial. La degeneración esencial se debe al hecho
de que H contiene a L2 pero no a L3 y a que el Hamiltoniano es siempre invariante rotacional (escalar). Puesto
que H contiene a L2 pero no a L3 , se tiene que m no aparece en la ecuación radial que proviene del problema de
valores propios del Hamiltoniano pero sı́ aparece l.
No obstante, es posible que El,k correspondiente a la ecuación radial con operador Hl coincida con El′ ,k′ de otra
ecuación radial (l 6= l′ ). Esto ocurre para ciertos potenciales, y se conoce como degeneraciones accidentales. En
particular, el potencial de Coulomb que describe a los átomos hidrogenoides exhibe degeneraciones accidentales.
La ecuación radial (12.37) para un l fijo, al ser una ecuación de segundo orden posee a priori dos soluciones
linealmente independientes. Sin embargo, la condición (12.44) ha surgido de eliminar una de ellas puesto que se
descartó el comportamiento del tipo lı́mr→0 Rl,k (r) = 1/r l+1 . Por tanto solo tenemos una solución linealmente
independiente para cada El,k . Debemos también considerar el comportamiento de las soluciones para r → ∞. Si
V (r) → 0 cuando r → ∞ los valores de El,k para los cuales la solución clásica es acotada ( y que cuánticamente
cumplen la condición 12.44) forman un conjunto discreto, como veremos más adelante para el átomo de Hidrógeno.
Si asumimos que los operadores H, L2 y L3 son observables, la discusión anterior nos muestra que constituyen
un C.S.C.O. ya que para valores fijos de El,k solo hay una función radial linealmente independiente, y para
l y m fijos la función angular (armónico esférico) es única. Por tanto, para un conjunto dado de autovalores
6
Nótese que si no se hubiera descartado la posibilidad de que lı́mr→0 Rl,k (r) ∼ 1/r l+1 , hubiésemos tenido comportamiento divergente
en el origen.
12.6. ESTADOS ESTACIONARIOS DE UNA PARTÍCULA EN UN POTENCIAL CENTRAL 355

El,k , l (l + 1) ~2 , m~ existe una única función normalizada (dentro de factores de fase) del tipo ϕl,m,k (r). El
autovalor de L2 dictamina la forma especı́fica de la ecuación radial, el autovalor de H nos determina la función
radial Rl,k (r) de forma única y m determina junto con l el armónico esférico (solución angular).
Capı́tulo 13

Átomos hidrogenoides

El problema de mayor interés de la interacción central entre dos cuerpos microscópicos lo constituyen los átomos
Hidrogenoides consistentes en un núcleo y un electrón. Tal es el caso del átomo de Hidrógeno y sus isótopos el
deuterio y el tritio. Ası́ mismo también son átomos hidrogenoides los iones con un solo electrón como el He+ , Li++
etc. Veremos más adelante que los átomos alcalinos (con un solo electrón en el último nivel de energı́a) se pueden
tratar también como Hidrogenoides si consideramos que los electrones internos actúan como un apantallamiento
del núcleo y que el sistema núcleo-electrones internos actúa como un “núcleo efectivo” para el electrón externo.
De momento trabajaremos con el caso más simple.

13.1. El átomo de Hidrógeno


El átomo de Hidrógeno consiste en un electrón y un protón que interactúan de manera esencialmente elec-
trostática, es decir bajo un potencial de la forma

q2 e2 q2
V (r) = − =− ; ≡ e2
4πε0 r r 4πε0
siendo r la distancia entre el protón y el electrón, q corresponde a la carga electrónica en unidades SI en tanto
que e es el valor en unidades cgs. Numéricamente tenemos los siguientes valores aproximados para la masa mp del
protón, me del electrón y la carga q del protón

mp = 1,7 × 10−27 kg ; me = 0,91 × 10−30 kg ; q = 1,6 × 10−19 Coulombs

puesto que se trata de dos partı́culas sujetas a una interacción central, podemos reducirlo al problema de una
partı́cula libre con masa mp + me y con la dinámica del centro de masa, junto con una partı́cula de masa µ
sometida a una fuerza central y donde el vector posición de la partı́cula µ, es el vector posición relativo entre las
dos partı́culas reales (las partı́culas imaginarias están desacopladas). Usaremos un Hamiltoniano del tipo (12.15)

p2 e2
H (r, p) = − (13.1)
2µ r
puesto que mp ≫ me la masa reducida del sistema será prácticamente la masa del electrón
 
me mp me ∼ me ∼
µ≡ = me = me 1 − = me
mp + me 1+ m p
mp

y el centro de masa del sistema está prácticamente en la posición del protón. Por tanto la partı́cula imaginaria
asociada al centro de masa, tiene prácticamente las caracterı́sticas del protón (la masa del protón es casi la masa
total del sistema y el centro de masa está prácticamente en la posición del protón). La partı́cula imaginaria de

356
13.2. PROBLEMA DE VALORES PROPIOS DEL ÁTOMO DE HIDRÓGENO 357

masa reducida tiene prácticamente las caracterı́sticas del electrón, ya que la masa reducida del sistema es casi
la masa del electrón y la posición del electrón con respecto al centro de masa es prácticamente su posición con
respecto al protón. Adoptaremos la posición de que el protón está en el centro de masa y que el electrón es la
partı́cula relativa.
Con el fin de fijar el valor de ciertos parámetros, usaremos el modelo semi-clásico de Bohr que si bien no es
compatible con nuestros postulados, permitirá definir conceptos y parámetros útiles para el estudio de los espectros
atómicos. Dentro de este modelo el electrón viaja en una órbita circular de radio r alrededor del protón, la energı́a
total es la energı́a cinética más la potencial electrostática y obedece la segunda ley de Newton. Adicionalmente,
el momento angular del electrón está cuantizado en unidades de ~, estas suposiciones se condensan en

1 2 v2 e2
E = µv + V (r) ; µ = −∇V (r) ; l = n~ ; V (r) = −
2 r r
1 2 e2 v2 e2
E = µv − ; µ = 2 ; µvr = n~ ; n entero positivo
2 r r r
las órbitas posibles son solo aquellas que cumplen la regla de cuantización del momento angular. Con este postulado
Bohr explicó la existencia de niveles discretos de energı́a. Calculemos los valores cuantizados de En , rn y vn . Para
ello primero se calcula la energı́a de ionización EI que es la energı́a que se le debe dar al átomo de Hidrógeno en
su estado base para remover su electrón. También se pueden estimar con base en el modelo, el radio del átomo
para el estado base (radio de Bohr a0 ) y la velocidad del electrón v0 en el estado base, tales cantidades dan

µe4 ~2 e2
EI = ; a0 = ; v0 = (13.2)
2~2 µe2 ~
con estos parámetros de entrada los valores cuantizados de En , rn y vn son
1 1
En = − 2
EI ; rn = n2 a0 ; vn = v0 (13.3)
n n
los valores experimentales de EI y de los niveles de energı́a En estuvieron en concordancia con la teorı́a de Bohr.
Un estimativo de la energı́a de ionización y del radio que caracteriza las dimensiones atómicas es

EI ∼
= 13,6eV , a0 ∼
= 0,52 A

puede verse que el principio de incertidumbre explica la existencia de un estado base estable y permite además la
estimación del orden de magnitud de la energı́a base y de la extensión espacial de su función de onda.

13.2. Problema de valores propios del átomo de Hidrógeno


Dado que el potencial es central, podemos aplicar los resultados del capı́tulo 12. En la representación {|ri}, el
Hamiltoniano (13.1) cuantizado está dado por

~2 2 e2
H =− ∇ − (13.4)
2m r
y la ecuación de valores propios del Hamiltoniano es
 
~2 2 e2
− ∇ − ϕ (r) = Eϕ (r)
2m r

la función propia ϕ (r) admite la forma


1
ϕl,m,k (r) = ul,k (r) Ylm (θ, ϕ)
r
358 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES

donde ul,k (r) está dado por la ecuación (12.37)


 
~2 d2 l (l + 1) ~2 e2
− + − ul,k (r) = El,k ul,k (r) (13.5)
2µ dr 2 2µr 2 r

a la cual le debemos agregar la condición (12.44)

ul,k (0) = 0 (13.6)

El espectro de H posee una parte discreta (energı́as negativas) y una parte contı́nua (energı́as positivas). El
espectro contı́nuo está asociado con el hecho de que para E > 0 la región accesible clásica no está acotada, en
este caso las autofunciones asociadas no serán de cuadrado integrable. En contraste, para E < 0, la naturaleza
discreta del espectro está asociada con el hecho de que la región accesible clásicamente es acotada, en tal caso las
funciones propias son de cuadrado integrable.
Es cómodo trabajar de modo que a0 y EI sean las unidades de longitud y energı́a, lo cual se logra introduciendo
los parámetros adimensionales s
r El,k
ρ= ; λl,k = − (13.7)
a0 EI
Vamos a examinar los estados acotados de energı́a negativa por lo cual el signo negativo dentro del radical es de
hecho necesario. Usando la primera de las Ecs. (13.7) en la ecuación radial (13.5), ésta se escribe como
 2 
~ d2 l (l + 1) ~2 e2
− + − ul,k (ρ) = El,k ul,k (ρ)
2µ d (a0 ρ)2 2µ (a0 ρ)2 a0 ρ
 
~2 d2 l (l + 1) ~2 1 e2
− + − − E l,k ul,k (ρ) = 0
2µa20 dρ2 2µa20 ρ2 a0 ρ

multiplicando la ecuación por −2µa20 /~2 se obtiene


 2 
d l (l + 1) 2µa0 e2 2µa20
− + 2 + 2 El,k ul,k (ρ) = 0
dρ2 ρ2 ~ ρ ~

y usando las Ecs. (13.2)


(    2 )
d2 l (l + 1) 2µ ~2 e2 2µ ~2
− + 2 + 2 El,k ul,k (ρ) = 0
dρ2 ρ2 ~ µe2 ρ ~ µe2
 
d2 l (l + 1) 2 2~2
− + + 4 El,k ul,k (ρ) = 0
dρ2 ρ2 ρ µe
 2  
d l (l + 1) 2 El,k
− + − − ul,k (ρ) = 0
dρ2 ρ2 ρ EI

finalmente usando la segunda de las Ecs. (13.7) la ecuación radial queda


 2 
d l (l + 1) 2 2
− + − λl,k ul,k (ρ) = 0 (13.8)
dρ2 ρ2 ρ

Un análisis asintótico cualitativo del comportamiento de ul,k (ρ) nos permitirá simplificar la forma de la Ec.
(13.8). Cuando ρ → ∞, los términos proporcionales a 1/ρ y 1/ρ2 se vuelven despreciables y la Ec. (13.8) se
convierte en  2 
d 2
− λl,k ul,k (ρ) = 0
dρ2
13.3. SOLUCIÓN DE LA ECUACIÓN RADIAL POR SERIES DE POTENCIAS 359

cuyas soluciones son e±ρλl,k . Sin embargo, más adelante veremos que incluso en este lı́mite no se puede despreciar
completamente a los términos 1/ρ y 1/ρ2 lo cual nos llevará a soluciones del tipo ρn e±ρλl,k .
No obstante, este análisis asintótico cualitativo permite encontrar una forma aproximada de la solución espe-
rada en la ası́ntota. Nótese que la solución eρλl,k es divergente en ρ → ∞ lo cual nos permite predecir que este
tipo de solución será descartada. Todo lo anterior nos induce a realizar el siguiente cambio de variable

ul,k (ρ) = e−ρλl,k yl,k (ρ) (13.9)

naturalmente este cambio de variable no significa ninguna pérdida de generalidad, ni descarta ningún tipo de
solución. Simplemente, parece simplificar a priori la forma funcional de la solución que de antemano consideramos
como aceptable. Realizando el cambio de variable (13.9) en la Ec. (13.8) nos queda

d2 h −ρλl,k i  l (l + 1) 2 
e yl,k (ρ) + − + − λl,k e−ρλl,k yl,k (ρ) = 0
2
(13.10)
dρ2 ρ2 ρ
calculamos la derivada
 
d2 h −ρλl,k i d −ρλl,k −ρλl,k dyl,k (ρ)
e y l,k (ρ) = −λl,k e yl,k (ρ) + e
dρ2 dρ dρ

dyl,k (ρ)
= (−λl,k )2 e−ρλl,k yl,k (ρ) − λl,k e−ρλl,k

2 
−ρλl,k dyl,k (ρ) −ρλl,k d yl,k (ρ)
−λl,k e +e
dρ dρ2
 
d d2
= e−ρλl,k λ2l,k − 2λl,k + 2 yl,k (ρ)
dρ dρ

reemplazando esta derivada en (13.10) se obtiene


 
d d2 l (l + 1) 2
e−ρλl,k λ2l,k − 2λl,k + 2− + − λ2
l,k yl,k (ρ) = 0
dρ dρ ρ2 ρ

simplificando y reorganizando queda finalmente


 2  
d d 2 l (l + 1)
− 2λl,k + − yl,k (ρ) = 0 (13.11)
dρ2 dρ ρ ρ2

y la condición (13.6) queda


yl,k (0) = 0 (13.12)

13.3. Solución de la ecuación radial por series de potencias


13.3.1. Serie de potencias radial y relaciones de recurrencia
Consideraremos la expansión de yl,k (ρ) en series de potencias

X
s
yl,k (ρ) = ρ cq ρq (13.13)
q=0

donde por definición c0 es el primer coeficiente no nulo en la expansión

c0 6= 0
360 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES

La condición (13.12) implica que s es estrictamente positivo. De modo que s es la mı́mima potencia de ρ que
aparece en la expansión (13.13). Calculemos la primera y segunda derivada de la expansión (13.13)
 
∞ ∞
dyl,k (ρ) d X X
= cq ρq+s  = (q + s) cq ρq+s−1 (13.14)
dρ dρ
q=0 q=0
 
2 X∞ X∞
d yl,k (ρ) d  q+s−1 
= (q + s) cq ρ = (q + s) (q + s − 1) cq ρq+s−2 (13.15)
dρ2 dρ q=0 q=0

reemplazando (13.13, 13.14, 13.15) en (13.11) resulta


 
d2 yl,k (ρ) dyl,k (ρ) 2 l (l + 1)
− 2λl,k + − yl,k (ρ) = 0
dρ2 dρ ρ ρ2

X ∞
X   ∞
2 l (l + 1) X
(q + s) (q + s − 1) cq ρq+s−2 − 2λl,k (q + s) cq ρq+s−1 + − cq ρq+s = 0
ρ ρ2
q=0 q=0 q=0


X ∞
X ∞
X ∞
X
(q + s) (q + s − 1) cq ρq+s−2 − 2λl,k (q + s) cq ρq+s−1 + 2cq ρq+s−1 − l (l + 1) cq ρq+s−2 = 0
q=0 q=0 q=0 q=0

X ∞
X
[(q + s) (q + s − 1) − l (l + 1)] cq ρq+s−2 + [2 − 2λl,k (q + s)] cq ρq+s−1 = 0
q=0 q=0

escribiendo separadamente el primer término de la primera sumatoria



X
s−2
0 = [s (s − 1) − l (l + 1)] c0 ρ + [(q + s) (q + s − 1) − l (l + 1)] cq ρq+s−2
q=1

X
+ [2 − 2λl,k (q + s)] cq ρq+s−1 (13.16)
q=0

para la primera sumatoria hacemos q ′ = q − 1 de modo que



X ∞
X     ′
[(q + s) (q + s − 1) − l (l + 1)] cq ρq+s−2 = q ′ + s + 1 q ′ + s − l (l + 1) cq′ +1 ρq +s−1 (13.17)
q=1 q ′ =0

reemplazando (13.17) en (13.16) y teniendo en cuenta que los ı́ndices son mudos resulta

X
0 = [s (s − 1) − l (l + 1)] c0 ρs−2 + [(q + s + 1) (q + s) − l (l + 1)] cq+1 ρq+s−1
q=0

X
+ 2 [1 − λl,k (q + s)] cq ρq+s−1
q=0

X
[s (s − 1) − l (l + 1)] c0 ρs−2 + {[(q + s + 1) (q + s) − l (l + 1)] cq+1 + 2 [1 − λl,k (q + s)] cq } ρq+s−1 = 0
q=0

para que la serie sea cero para todo ρ, es necesario y suficiente que cada coeficiente de la expansión sea cero lo
cual nos conduce a
[s (s − 1) − l (l + 1)] c0 = 0
[(q + s + 1) (q + s) − l (l + 1)] cq+1 + 2 [1 − λl,k (q + s)] cq = 0 ; q = 0, 1, . . . , ∞
13.3. SOLUCIÓN DE LA ECUACIÓN RADIAL POR SERIES DE POTENCIAS 361

que se pueden reescribir como

(s − l − 1) (s + l) c0 = 0 (13.18)
[(q + s + 1) (q + s) − l (l + 1)] cq+1 = 2 [λl,k (q + s) − 1] cq ; q = 0, 1, . . . , ∞ (13.19)

y teniendo en cuenta que c0 6= 0 por definición, la Ec. (13.18) nos dice que s solo puede tomar dos valores

s = l + 1 ó s = −l

pero recordando que s debe ser estrictamente positivo para garantizar un comportamiento aceptable en el origen
(condición 13.12), el único valor aceptable como solución es

s=l+1 (13.20)

Esto es consistente con la discusión de la sección 12.5.2, Eq. (12.43). Reemplazando s = l + 1 en (13.19) se obtiene

[(q + l + 2) (q + l + 1) − l (l + 1)] cq+1 = 2 [λl,k (q + l + 1) − 1] cq ; q = 0, 1, . . . , ∞

haciendo q ′ = q + 1 esta relación se convierte en


 ′      
q + l + 1 q ′ + l − l (l + 1) cq′ = 2 λl,k q ′ + l − 1 cq′ −1 ; q ′ = 1, 2, . . . , ∞

teniendo en cuenta que q ′ es ı́ndice mudo y reorganizando términos se obtiene

q (q + 2l + 1) cq = 2 [(q + l) λl,k − 1] cq−1 ; q = 1, 2, . . . , ∞ (13.21)

la Ec. (13.21) define una relación de recurrencia para los coeficientes de la expansión (13.13). Si fijamos c0 podemos
calcular todos los demás coeficientes con esta recurrencia. Por otro lado, de la Ec. (13.21) se obtiene

cq 2 [(q + l) λl,k − 1]
= (13.22)
cq−1 q (q + 2l + 1)

que claramente tiende a cero cuando q → 0, por tanto la serie converge para todo ρ (criterio del cociente para
series). En consecuencia, hemos determinado para todo λl,k una solución de (13.11) que satisface la condición
(13.12).

13.3.2. Condición asintótica ρ → ∞ y truncamiento de la serie


Ya hemos mirado la condición en el origen pero no en ρ → ∞. Si el término entre paréntesis a la derecha de
(13.21) no es cero para ningún valor entero q, la expansión (13.13) será una verdadera serie ya que la relación de
recurrencia generará infinitos coeficientes cq , para q grande podemos ver de (13.22) que

cq 2qλl,k 2λl,k
lı́m = 2
→ (13.23)
q→∞ cq−1 q q

ahora la expansión en series de potencias de la función e2ρλl,k es



X (2λl,k )q dq 2λl,k
e2ρλl,k = dq ρq ; dq = ⇒ = (13.24)
q! dq−1 q
q=0

comparando (13.23) con (13.24) se puede demostrar que para valores grandes de ρ, la serie se comporta en la
forma e2ρλl,k . De la Ec. (13.9), la función radial ul,k (r) se comporta como

ul,k (ρ) ∼ eρλl,k


362 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES

la cual no es fı́sicamente aceptable1 . Por tanto, no es aceptable una solución en serie (cantidad infinita de términos
no nulos). En consecuencia, es necesario que la expansión (13.13) sea truncada y se convierta en una sumatoria
(polinomio). En tal caso la Ec. (13.9) nos dice que el comportamiento asintótico de ul,k (r) es el producto de un
polinomio por una función e−ρλl,k el cual es aceptable.
Definiremos ck como el primer coeficiente nulo de la expansión. Esto equivale a decir que existe un valor
entero positivo k tal que ck−1 6= 0, pero el término entre paréntesis a la derecha de (13.21) es cero para q = k. En
tal caso, la relación de recurrencia (13.21), nos indica que el coeficiente ck será nulo y que los términos subsecuentes
también serán nulos. La expansión (13.13) será un polinomio ya que la relación de recurrencia generará un número
finito de coeficientes cq . Para un valor fijo de l, rotulamos el correspondiente valor de λl,k con este entero k. Es
claro que k ≥ 1, puesto que c0 6= 0. Igualando a cero el término entre paréntesis a la derecha de (13.21) cuando
q = k se obtiene
1
λl,k = ; k = 1, 2, 3, . . . (13.25)
l+k
reemplazando estos valores permitidos de λl,k en la Ec. (13.7) para la energı́a se obtiene
s
1 El,k
= −
l+k EI
EI
El,k = − ; k = 1, 2, 3, . . . (13.26)
(l + k)2

Tomando en cuenta (13.13, 13.20), y el hecho de que cq = 0 para q ≥ k, la función yl,k (ρ) queda en la forma

k−1
X
l+1
yl,k (ρ) = ρ cq ρq (13.27)
q=0

tenemos entonces que yl,k (ρ) es un polinomio donde la menor potencia es ρl+1 y la máxima potencia es ρl+k .

13.3.3. Coeficientes del polinomio radial en términos de c0


La relación de recurrencia (13.21) permite encontrar los coeficientes del polinomio a partir de c0 , reemplazando
(13.25) en (13.21) la relación de recurrencia queda
 
1 2 (q + l) − 2 (l + k)
q (q + 2l + 1) cq = 2 (q + l) − 1 cq−1 = cq−1
l+k (l + k)
2q + 2l − 2l − 2k
q (q + 2l + 1) cq = cq−1
(l + k)
2 (k − q)
cq = − cq−1 (13.28)
q (q + 2l + 1) (l + k)

demostraremos por inducción que


 q
2 (k − 1)! (2l + 1)!
cq = (−1)q c0 (13.29)
l+k (k − q − 1)! q! (q + 2l + 1)!
1
Esta función radial diverge cuando ρ → ∞. Además no es de cuadrado integrable, en tanto que para soluciones de energı́a negativa
(acotadas clásicamente), se esperan funciones de cuadrado integrable. Además, estas funciones ni siquiera son ortonormales en el sentido
extendido.
13.3. SOLUCIÓN DE LA ECUACIÓN RADIAL POR SERIES DE POTENCIAS 363

primero para q = 1, la relación (13.28) nos dice que2


 
2 (k − 1) 2 1
c1 = − c0 = − (k − 1) c0
1 × (1 + 2l + 1) (l + k) l+k 1 × (1 + 2l + 1)
 1
1 2 (k − 1)! (2l + 1)!
c1 = (−1) c0
l+k (k − 2)! 1! × (1 + 2l + 1)!
 1
1 2 (k − 1)! (2l + 1)!
c1 = (−1) c0 (13.30)
l+k (k − 1 − 1)! 1! (1 + 2l + 1)!

comparando (13.30) con (13.29) vemos que (13.29) se cumple para q = 1. Ahora asumimos que se cumple para q
y demostraremos que se cumple para q + 1. Usando (13.28) con q → q + 1 se obtiene

2 (k − q − 1)
cq+1 = − cq
(q + 1) (q + 2l + 2) (l + k)
(q + 1) (q + 2l + 2) (l + k)
cq = − cq+1 (13.31)
2 (k − q − 1)

reemplazando (13.31) en (13.29) tenemos

 q
q 2 (k − 1)! (2l + 1)!
cq = (−1) c0
l+k (k − q − 1)! q! (q + 2l + 1)!
 q
(q + 1) (q + 2l + 2) (l + k) 2 (k − 1)! (2l + 1)!
− cq+1 = (−1)q c0
2 (k − q − 1) l+k (k − q − 1)! q! (q + 2l + 1)!

 q
2 2 (k − 1)! (k − q − 1) (2l + 1)!
cq+1 = (−1) (−1)q c0
(l + k) l + k (k − q − 1)! q! (q + 1) (q + 2l + 1)! (q + 2l + 2)
 q+1
2 (k − 1)! (2l + 1)!
cq+1 = (−1)q+1 c0
l+k (k − q − 2)! (q + 1)! (q + 2l + 2)!
 q+1
2 (k − 1)! (2l + 1)!
cq+1 = (−1)q+1 c0 (13.32)
l+k [k − (q + 1) − 1]! (q + 1)! [(q + 1) + 2l + 1]!

comparando (13.32) con (13.29) vemos que si la relación (13.29) se cumple para q entonces se cumple para q + 1,
lo cual demuestra la validez de (13.29).

13.3.4. Cálculo de c0 y de la función radial para l = 0, k = 1


Ahora falta evaluar a c0 , lo cual se logra con la ecuación de normalización (12.46). Nótese que la Ec. (13.25)
nos dice que l = k = 0 está prohibido, ya que k ≥ 1. Por tanto, calcularemos explı́citamente la función radial más
simple que es ul=0,k=1 (r). Comenzaremos empleando las ecuaciones (13.27) con l = 0, k = 1
k−1
X 0
X
yl,k (ρ) = ρl+1 cq ρq ⇒ y0,1 (ρ) = ρ0+1 cq ρq = c0 ρ
q=0 q=0

verifiquemos explı́citamente que ck = c1 = 0. Usando (13.28) para l = 0 y q = k = 1 se obtiene

2 (k − q) 2 (1 − 1)
cq = − cq−1 ⇒ c1 = − c0 = 0
q (q + 2l + 1) (l + k) 1 × [1 + 2 (0) + 1] (0 + 1)
2
También podemos ver que para q = 0, la Ec. (13.29) conduce a c0 = c0 . Por tanto podemos comenzar la inducción con q = 0.
364 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES

ahora usando (13.9, 13.25) y la relación entre ρ y r Ec. (13.7)


1
u0,1 (ρ) = e−ρλ0,1 y0,1 (ρ) ; λ0,1 = = 1 ⇒ u0,1 (ρ) = c0 ρe−ρ
0+1
c0 −r/a0
u0,1 (r) = re
a0
finalmente usamos la ecuación de normalización (12.46) y elegimos c0 con fase cero (constante real positiva)
Z ∞ Z ∞ Z
2 2 c20 ∞ 2 −2r/a0
|ul,k (r)| dr = 1 ⇒ |u0,1 (r)| dr = 1 ⇒ 2 r e dr = 1
0 0 a0 0
Z ∞
1 − 2 r  ∞ 1
r 2 e−2r/a0 dr = − a0 e a0 a20 + 2a0 r + 2r 2 = a30 ⇒
0 4 0 4
c20 a30 c20 a0
= 1⇒ =1
4a20 4
(0,1) 2
c0 = √ (13.33)
a0

donde hemos tenido en cuenta que c0 en general depende de los valores de l y k. Finalmente la función radial
Rl,k (r) está dada por (12.36), para el caso de l = 0, k = 1 se tiene que
(0,1)
1 1 c0 2 1 −r/a0
R0,1 (r) = u0,1 (r) = re−r/a0 = √ e
r r a0 a0 a0
2 −r/a0
R0,1 (r) = 3/2
e
a0

13.3.5. Cálculo de c0 y de la función radial para l = 0, k = 2


Calculemos ahora Rl,k (r) con l = 0, k = 2. Usando las Ecs. (13.27) con l = 0, k = 2
k−1
X 1
X
l+1 q 0+1
yl,k (ρ) = ρ cq ρ ⇒ y0,2 (ρ) = ρ cq ρq = ρ (c0 + c1 ρ)
q=0 q=0

usando (13.28) para l = 0, k = 2, q = 1, 2 se obtiene

2 (k − q) 2 (2 − 1) 1
cq = − cq−1 ⇒ c1 = − c0 = − c0 ⇒
q (q + 2l + 1) (l + k) (1 + 1) (0 + 2) 2
2 (2 − 2)
c2 = − c1 = 0
2 (2 + 1) (0 + 2)

verificando una vez más que ck = c2 = 0. Con estos coeficientes y0,2 (ρ) queda
   
1 1
y0,2 (ρ) = ρ c0 − c0 ρ = c0 ρ 1 − ρ
2 2

y usando (13.9, 13.25, 13.7)


 
−ρλ0,2 1 1 1 1
u0,2 (ρ) = e y0,2 (ρ) ; λ0,2 = = ⇒ u0,2 (ρ) = c0 ρ 1 − ρ e− 2 ρ
0+2 2 2
 
r r − r
u0,2 (r) = c0 1− e 2a0 (13.34)
a0 2a0
13.3. SOLUCIÓN DE LA ECUACIÓN RADIAL POR SERIES DE POTENCIAS 365

ahora debemos calcular el c0 que normaliza a u0,2 (r) de acuerdo con las Ecs. (13.34, 12.46) eligiendo fase cero
para c0
Z ∞ Z ∞  2  
2 2 r r 2 − ar
|u0,2 (r)| dr = 1 ⇒ c0 1− e 0 dr = 1
0 0 a0 2a0
evaluando la integral
Z ∞ 2  2
r r − ar 1 − a1 r  ∞
1− e 0 dr = − 3 e 0 8a0 + 8a0 r + 4a0 r + r = 2a0
4 3 2 2 4
0 a0 2a0 4a0 0

por tanto
(0,2) 1
c20 (2a0 ) = 1 ⇒ c0 =√
2a0
reemplazando en (13.34) queda
   
1 r r − 2ar 2r r − 2ar
u0,2 (r) = √ 1− e 0 = 1− e 0
2a0 a0 2a0 (2a0 )3/2 2a0
 
2 r − 2ar
R0,2 (r) = 1− e 0
(2a0 )3/2 2a0

13.3.6. Cálculo de c0 y de la función radial para l = k = 1


Como último ejemplo evaluamos Rl,k (r) para l = k = 1. Usando (13.27) con l = k = 1

k−1
X 0
X
l+1 q 1+1
yl,k (ρ) = ρ cq ρ ; y1,1 (ρ) = ρ cq ρq
q=0 q=0
2
y1,1 (ρ) = c0 ρ

usando (13.9, 13.25, 13.7)


1 1 r2 − r
u1,1 (ρ) = e−ρλ1,1 y1,1 (ρ) ; λ1,1 = = ⇒ u1,1 (r) = c0 2 e 2a0 (13.35)
1+1 2 a0
normalizando u1,1 (r) con las Ecs. (13.35, 12.46) con c0 positivo
Z ∞ Z ∞ 4
2 2 r − ar
|u1,1 (r)| dr = 1 ⇒ c0 e 0 dr = 1
0 0 a40
evaluando la integral
Z ∞ 
r 4 − ar 1 − ar 4  ∞
e 0 dr = − 3 e 0 r + 4r a0 + 12r a0 + 24ra0 + 24a0 = 24a0
3 2 2 3 4
0 a40 a0 0

con lo cual resulta


(1,1) 1 1 1
c20 (24a0 ) = 1 ⇒ c0 =√ = √
24a0 2 6a0
quedando
1 1 r 2 − 2ar 1 r 2 − 2ar 1 r 2 − 2ar
u1,1 (r) = √ e 0 = √ √ e 0 = √ e 0
2 6a0 a20 2 2 3 a5/2 (2a0 ) 3/2
3 a 0
0
quedando finalmente
1 1 r − 2ar
R1,1 (r) = 3/2
√ e 0
(2a0 ) 3 a0
366 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES

13.3.7. Estructura de los niveles de energı́a


La Ec. (13.26) nos muestra que en el átomo de Hidrógeno, l y k no definen un nivel de energı́a por separado,
es conveniente introducir un número cuántico de la forma

n≡l+k (13.36)

de modo que n determina unı́vocamente el valor de la energı́a según se observa en (13.26) ya que en tal caso
tenemos
EI
En = − 2 ; n = 1, 2, 3, . . .
n
Puesto que determinar n y l es equivalente a determinar k y l, será más conveniente reemplazar a k por n. En
consecuencia, utilizaremos los números cuánticos n, l, m en lugar de k, l, m de aquı́ en adelante. En virtud de que
n define la energı́a, se denomina el número cuántico principal, de aquı́ en adelante citaremos los números
cuánticos usando primero el número cuántico principal, luego el número cuántico azimutal y finalmente el número
cuántico magnético i.e. n, l, m.

13.4. Parámetros atómicos


Las fórmulas para la función de onda han sido escritas tomando a a0 (radio de Bohr) como unidad de longitud
que nos dará una idea de la extensión espacial de las funciones de onda de los estados acotados del átomo de
Hidrógeno. Similarmente, la energı́a de ionización EI se utilizará para obtener el orden de magnitud de los niveles
de energı́a. Las ecuaciones (13.2) se pueden reescribir como
 2  
µe4 µe4 c2 1 e2 ~2 ~2 c ~c ~
EI = 2
= 2 2 = µc2 ; a0 = 2
= 2 = 2
2~ 2~ c 2 ~c µe µe c e µc

que se pueden reescribir como

1 1 e2 q2 ~
EI = α2 µc2 , a0 = λel ; α ≡ = ; λel ≡ (13.37)
2 α ~c 4πε0 ~c µc
la constante adimensional α se conoce como constante de estructura fina. Por otro lado puesto que µ ≃ me se
tiene que λel está relacionada con la longitud de onda de compton del electrón λC [ver Ec. (2.11) Pág. 114].
Numéricamente
1 λC ~
α≃ ; λel ≡ ≃ ≃ 3,8 × 10−3 A (13.38)
137 2π me c
la segunda de las Ecs. (13.37) nos dice que el radio de Bohr (radio atómico tı́pico) es unas dos órdenes de magnitud
mayor que la longitud de onda de Compton del electrón. La primera de las Ecs. (13.37) se escribe numéricamente
como
 
1 2 2 1 1 2
EI ≃ α me c ≃ me c2 ⇒ EI ≃ 2. 7 × 10−5 me c2
2 2 137
me c2 ≃ 0,5 × 106 eV

de modo que la energı́a de enlace tı́pica de un átomo es unas 10−5 veces menor que la energı́a en reposo del
electrón me c2 .
EI ≪ me c2
esta relación es indispensable para poder justificar una aproximación no relativista al problema. Los efectos
relativistas son pequeños pero observables. Debido a que los efectos relativistas son pequeños pueden calcularse a
través de la teorı́a de perturbaciones.
13.5. RESUMEN DE RESULTADOS 367

13.5. Resumen de resultados


Para el átomo de Hidrógeno, que es un problema de dos cuerpos (un protón y un electrón) reducimos el problema
al de una partı́cula equivalente de masa aproximadamente igual a la masa me del electrón (masa reducida µ del
sistema) y en donde el centro de masa está aproximadamente en la posición del protón. Es conveniente expresar los
resultados en términos del radio de Bohr a0 y la energı́a de ionización EI los cuales en términos de las constantes
fı́sicas universales vienen dados por
 
µe4 1 2 2 ~2 1 ~ 1
EI = 2
= α µc ; a0 = 2 = ≃ λel (13.39)
2~ 2 µe α µc α
e2 q2 ~
α ≡ = ; λel ≡ (13.40)
~c 4πε0 ~c me c
Siendo α la constante de estructura fina y λel la longitud de onda de Compton del electrón. Teniendo en cuenta
la Ec. (13.36)
n≡l+k
enunciaremos los resultados en términos de los números cuánticos n, l, m. Un estado será rotulado usando el orden
|n, l, mi, es decir usando primero el número cuántico principal n, luego el número cuántico azimutal l y finalmente
el número cuántico magnético m.
La función de onda asociada es de la forma
un,l (r)
ϕn,l,m (r, θ, ϕ) = Rn,l (r) Ylm (θ, ϕ) = Ylm (θ, ϕ) (13.41)
r r
−ρλn r En 1 eimϕ
un,l (ρ) = e yn,l (ρ) ; ρ ≡ ; λn ≡ − = ; Ylm (θ, ϕ) = Zl,m (θ) √ (13.42)
a0 EI n 2
y los valores de energı́a son
EI
En = − ; n = 1, 2, 3, . . . (13.43)
n2
siendo Ylm (θ, ϕ) los armónicos esféricos. La solución de la función radial yn,l (ρ) es un polinomio dado por
n−l−1
X
yn,l (ρ) = ρl+1 cq ρq (13.44)
q=0

donde los coeficientes cq se pueden encontrar a partir de c0 , con la siguiente fórmula de recurrencia
2 (n − l − q)
cq = − cq−1 (13.45)
q (q + 2l + 1) n
 q
q 2 (n − l − 1)! (2l + 1)!
cq = (−1) c0 (13.46)
n (n − l − q − 1)! q! (q + 2l + 1)!
finalmente la constante c0 (que en general depende de los valores de n y l) se determina como constante de
normalización para la función radial un,l (r)
Z ∞
|un,l (r)|2 dr = 1 (13.47)
0

a manera de ejemplo escribimos explı́citamente algunas funciones radiales


 
−3/2 −r/a0 −3/2 r − 2ar
Rn=1,l=0 (r) = 2 (a0 ) e ; R2,0 (r) = 2 (2a0 ) 1− e 0 (13.48)
2a0
1 r − 2ar
R2,1 (r) = (2a0 )−3/2 √ e 0 (13.49)
3 a0
368 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES

13.6. Discusión de los resultados


La Ec. (13.43) nos da el espectro de energı́as del átomo de Hidrógeno

EI
El,k = − ; k = 1, 2, 3, ... (13.50)
(l + k)2

y nos muestra que para un l fijo existen infinitos valores de energı́a asociados a k = 1, 2, 3, .... Adicionalmente,
para cada par l, k la energı́a posee al menos una degeneración de orden 2l + 1 debido a los diferentes valores
de m asociados a l fijo, esta degeneración debida a la ausencia del número cuántico m en la ecuación radial, se
denomina degeneración esencial puesto que es propia de cualquier interacción central. No obstante, también están
presentes degeneraciones accidentales propias de la interacción especı́fica, ya que la Ec. (13.50) nos dice que dos
autovalores El,k y El′ ,k′ asociados a ecuaciones radiales distintas (l 6= l′ ) serán iguales si l′ + k′ = l + k.
Usando ahora los números cuánticos n, l, m, la Ec. (13.50) queda

EI
En = − ; n = 1, 2, 3, . . . (13.51)
n2

utilizando la terminologı́a espectroscópica un valor de n especifica una capa o nivel electrónico.


Puesto que k es un entero positivo, hay un número finito de valores de l asociados a un valor dado de n. De
la definición de n Ec. (13.36) y los valores permitidos de k (1, 2, 3, ...) es claro que

l = 0, 1, 2, ..., n − 1 ; n = 1, 2, 3, ...

Cada combinación especı́fica n, l se denomina una subcapa o subnivel electrónico. Puesto que hay n valores de l
para un n dado se dice que cada capa o nivel n contiene n subcapas o subniveles. Ahora bien, puesto que L2 , L3 y
H forman un C.S.C.O. se tiene que un estado está definido unı́vocamente por una tripla (n, l, m). En consecuencia,
cada subnivel (n, l) contiene 2l + 1 estados diferentes asociados a los diferentes valores de m para l fijo.
Dado que n especifica unı́vocamente a la energı́a y (n, l, m) especifica completamente al estado, la degeneración
de la energı́a para un n dado es el número total de valores de l, m para dicho valor de n

n−1 n−1
!
X X 2n (n − 1)
gn = (2l + 1) = 2 l +n= +n
2
l=0 l=0
gn = n2

veremos más adelante que la presencia del momento angular intrı́nseco del electrón nos duplica este valor. Si
tenemos en cuenta adicionalmente el espı́n del protón, tendrı́amos un factor de dos adicional.
Usando una vez más la notación espectroscópica, los valores de l se denotan con una letra del alfabeto en la
siguiente forma
l=0↔s , l=1↔p , l=2↔d , l=3↔f , l=4↔g

la notación espectroscópica rotula un subnivel por el número n seguido por la letra que caracteriza al valor de l.
Por ejemplo, para el nivel base n = 1 (que no es degenerado según la Ec. (13.51) y que se conoce como “nivel
K”) solo l = 0 es posible, de modo que solo tiene el subnivel 1s. El primer estado excitado n = 2 (conocido como
“nivel L”) permite l = 0, 1 de modo que contiene los subniveles 2s y 2p. El segundo estado excitado (“nivel M ”)
posee los subniveles 3s, 3p, 3d.
Hemos visto que un estado se especifica con los números cuánticos n, l, m. Donde n, l especifica la dependencia
radial y l, m la dependencia angular. Veamos ahora las caracterı́sticas de la dependencia angular.
13.6. DISCUSIÓN DE LOS RESULTADOS 369

13.6.1. Dependencia angular


Si bien la función de onda
eimϕ
ϕ (r, θ, ϕ) = Rn,l (r) Ylm (θ, ϕ) = Rn,l (r) Zl,m (θ) √
2
depende de ambos ángulos, puesto que la mayorı́a de observables dependen del módulo al cuadrado de la función
de onda, debemos calcular la dependencia angular de |Ylm (θ, ϕ)|2 este módulo nos da
2
eimϕ 1
2
|Ylm (θ, ϕ)| = Zl,m (θ) √ = |Zl,m (θ)|2 (13.52)
2 2

vemos entonces que este módulo al cuadrado tiene simetrı́a azimutal. Por tanto se obtiene una superficie de
revolución alrededor del eje X3 de cuantización. En particular, |Y00 |2 es constante y por tanto esféricamente
2
simétrico. |Y1m (θ, ϕ)|2 es proporcional a cos2 θ; |Y2m (θ, ϕ)|2 es proporcional a 3 cos2 θ − 1 etc.
La función radial Rn,l (r) caracteriza a cada subnivel y se puede calcular con los resultados de la sección 13.5
introduciendo nuestro cambio de notación de Rl,m,k (r) a Rn,l,m (r) .
El comportamiento de Rn,l (r) en la vecindad del origen es del tipo r l , de modo que solo los estados que
pertenecen a un subnivel s (l = 0) tienen una densidad de probabilidad diferente de cero en el origen. A medida
que l aumenta, es mayor la región alrededor del protón para la cual la probabilidad de encontrar el electrón es
despreciable, es de esperarse que esto aumente el valor esperado del radio atómico3 . Esto tiene consecuencias en
procesos fı́sicos tales como la captura de electrones por núcleos y la estructura hiperfina de las lı́neas espectrales.
Vale la pena recordar que el concepto de subnivel aparece en el modelo semiclásico de Sommerfeld que asigna
a cada valor de n (número cuántico de Bohr) un número n de órbitas elı́pticas de la misma energı́a y diferente
momento angular. La órbita asociada al máximo momento angular para un n dado es circular. Puesto que el
modelo semiclásico de Sommerfeld fué exitoso para predecir la degeneración de los niveles de energı́a, es lógico
pensar que el modelo de Bohr se reproduce para los estados con l = n − 1 (máximo valor del momento angular
para n dado). En particular vamos a mostrar que para l = n − 1 se obtiene la segunda expresión (13.3) para
los radios de Bohr. La probabilidad de encontrar al electrón en un volumen dV que en coordenadas esféricas se
caracteriza por
dV = r 2 dr sin θ dθ dϕ = r 2 dr dΩ
estará dada por

dPn,l,m (r, θ, ϕ) = |ϕn,l,m (r, θ, ϕ)|2 r 2 dr dΩ = |Rn,l (r)|2 r 2 dr × |Yl,m (θ, ϕ)|2 dΩ

si queremos calcular la probabilidad de encontrar al electrón entre r y r + dr dentro de un cierto ángulo sólido,
tenemos que esta probabilidad se obtiene usando (13.52)
Z ϕ2 Z θ2
1
2 2
dPn,l,m (r) = |Rn,l (r)| r dr × dϕ |Zl,m (θ)|2 sin θ dθ
2 ϕ1 θ1
Z θ2
2 2 ϕ2 − ϕ1
dPn,l,m (r) = Ml,m |Rn,l (r)| r dr ; Ml,m ≡ |Zl,m (θ)|2 sin θ dθ (13.53)
2 θ1

donde [ϕ1 , ϕ2 ] y [θ1 , θ2 ] definen el intervalo de los ángulos que generan el ángulo sólido dentro del cual se quiere
evaluar la probabilidad.
3
Esto se asemeja al comportamiento clásico en el cual el aumento de la magnitud del momento angular produce un aumento en el
radio promedio de una órbita cerrada. En particular, clásicamente un momento angular nulo significa que la velocidad inicial “apunta”
hacia el centro de interacción, lo cual indica que la trayectoria de la partı́cula es una lı́nea recta que pasa en principio por este punto
(el origen), pero si el momento angular es no nulo, la trayectoria no pasa por el origen o centro de fuerzas. La contrapartida cuántica
es el hecho de que solo para l = 0 tenemos una probabilidad no nula de que el electrón se encuentre en el origen.
370 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES

Ahora evaluaremos esta probabilidad para l = n − 1. Aplicando l = n − 1 en (13.44)


0
X
(n−1)+1
yn,n−1 (ρ) = ρ cq ρq = c0 ρn
q=0

Con esto y usando la primera y la tercera de las Ecs. (13.42) se calcula la función radial
1
un,n−1 (ρ) = e−ρλn c0 ρn ; λn =
n n
ρ − r r
un,n−1 (ρ) = c0 e− n ρn = c0 e a0 n
a0
 n  
−a nr 1 r c0 − a rn a0 r n
Rn,n−1 (r) = c0 e 0 = e 0
r a0 a0 r a0
 n−1
c0 r − r
Rn,n−1 (r) = e a0 n (13.54)
a0 a0

finalmente la probabilidad se obtiene de (13.53) y (13.54)


Z θ2
ϕ2 − ϕ1
dPn,n−1,m (r) = Mn−1,m |Rn,n−1 (r)|2 r 2 dr ; Mn−1,m ≡ |Zn−1,m (θ)|2 sin θ dθ
2 θ1
"  n−1 #2 " n−1 #2  2
c0 r − a rn 2 r − a rn r
dPn,n−1,m (r) = Mn−1,m e 0 r dr = c20 Mn−1,m e 0 dr
a0 a0 a0 a0
 2n
− a2rn r
dPn,n−1,m (r) = c20 Mn−1,m e 0 dr
a0

la densidad de probabilidad radial para l = n − 1 es


 2n
dPn,n−1,m (r) r − a2rn
ρn,n−1 (r) ≡ = c20 Mn−1,m e 0
dr a0

esta densidad de probabilidad tiene un máximo en

r = rn = n2 a0

que es el radio de Bohr para una órbita de energı́a En .


La tabla 13.1, ilustra los niveles de energı́a y la degeneración de algunos estados. La tabla 13.2 muestra las
expresiones de la función de onda para los primeros niveles de energı́a.
13.6. DISCUSIÓN DE LOS RESULTADOS 371

n→∞ E=0 E=0 E=0 E=0


n=4 4s 4p 4d 4f
n=3 3s 3p 3d

n=2 2s 2p

n = 1 (E = EI ) 1s
l = 0 (s) l = 1 (p) l = 2 (d) l = 3 (f )
Cuadro 13.1: Niveles de energı́a (negativos) para estados acotados del átomo de hidrógeno. Los niveles sobre una
fila poseen la misma energı́a (mismo número cuántico principal n). En n = 1 la energı́a corresponde en valor
absoluto a la energı́a de ionización, y para n muy grande la energı́a tiende a cero por la izquierda. A medida que
se incrementa n disminuye la brecha entre los valores de energı́a permitidos.

nivel 1s ϕ1,0,0 (r) = √1 3 e−r/a0


 πa0 
nivel 2s ϕ2,0,0 (r) = √ 3 1 − 2ar 0 e−r/2a0
1
8πa0
ϕ2,1,1 (r) = − √1 r −r/2a0
e sin θ eiϕ
8 πa30 a0
nivel 2p ϕ2,1,0 (r) = √1 3 ar0 e−r/2a0 cos θ
4 2πa0
ϕ2,1,−1 (r) = √1 3 ar0 e−r/2a0 sin θ e−iϕ
8 πa0
Cuadro 13.2: Funciones de onda asociadas al estado base ( n = 1) y al primer estado excitado ( n = 2).
Capı́tulo 14

Corrientes de probabilidad en átomos


hidrogenoides, acoples con campos
magnéticos

14.1. Corrientes de probabilidad para las soluciones estacionarias del átomo


de Hidrógeno
Siguiendo los resultados de la sección 3.3.5, expresamos la función de onda estacionaria en forma polar

ϕ (r) = α (r) eiξ(r) ; α (r) ≥ 0, 0 ≤ ξ (r) < 2π (14.1)

de modo que la densidad de probabilidad ρ (r) y la densidad de corriente de probabilidad J (r) están dadas por
las Ecs. (3.34, 3.35)
~
ρ (r) = α2 (r) ; J (r) = α2 (r) ∇ξ (r) (14.2)
µ
Teniendo en cuenta la estructura de las soluciones estacionarias Ecs. (13.41, 13.42) el módulo α (r) y la fase ξ (r)
para las soluciones hidrogenoides estacionarias están dadas por

1
αn,l,m (r) = |Rn,l (r)| |Ylm (θ, ϕ)| = √ |Rn,l (r)| |Zlm (θ)| ; ξ (r) = mϕ (14.3)
2

es importante tener en cuenta que µ denota la masa y m denota el autovalor m~ de L3 . Aplicando las Ecs. (14.2)
y usando la expresión para el gradiente en coordenadas esféricas tenemos que:
 
~ 2 ~ ∂ 1 ∂ 1 ∂
Jn,l,m (r) = α (r) ∇ξ (r) = ρn,l,m (r) ur + uθ + uϕ (mϕ)
µ µ ∂r r ∂θ r sin θ ∂ϕ
~ m
Jn,l,m (r) = ρn,l,m (r) uϕ (14.4)
µ r sin θ

donde uϕ es el vector unitario ortogonal al plano formado por r y u3 en el sentido en el cual se incrementa el
ángulo azimutal ϕ. La Ec. (14.4) nos dice que el sentido de rotación de la corriente está dictaminado por el signo
de m y de sin θ ya que las demás cantidades son todas positivas. La Ec. (14.4) nos dice que la corriente en cada
punto M definida por el vector posición r, es perpendicular al plano definido por r y u3 . El fluı́do de probabilidad
rota alrededor del eje X3 . Puesto que |J| no es proporcional a r sin θ ρ (r) el sistema no rota como un todo. Es
decir, la velocidad angular de la corriente es diferente en cada punto. Si queremos ver la estructura de la corriente
asociada a un estado estacionario para un plano perpendicular a u3 (es decir para θ fijo) vemos que si sin θ > 0,

372
14.1. CORRIENTES DE PROBABILIDAD PARA EL ÁTOMO DE HIDRÓGENO 373

tenemos rotación del fluı́do de probabilidad alrededor de u3 en el sentido antihorario (horario) si m > 0, (m < 0).
Si m = 0 no hay corriente de probabilidad en ningún punto del espacio.
Tomemos un elemento de volumen d3 r situado en el punto r, su contribución al momento angular con respecto
al origen (en el centro del núcleo) es:
dL = r × dP = r × (dµ) v
donde dµ es la “fracción de masa equivalente” que ocuparı́a el volumen dV si la distribución de probabilidad fuese
una distribución de masa1 . En consecuencia, dµ = µ ρ dV con lo cual
dL = µr × ρn,l,mv dV = µr × Jn,l,m (r) d3 r (14.5)
el momento angular total se obtiene por integración de la Ec. (14.5). Por simetrı́a todas las componentes en X1 y
X2 se anulan y solo sobrevive la componente sobre X3 la cual vendrá dada por
Z Z Z
ρn,l,m (r) ρn,l,m (r)
L3 = µ d3 r u3 · [r × Jn,l,m (r)] = m~ d3 r u3 · [r × uϕ ] = m~ d3 r uϕ · [u3 × r]
r sin θ r sin θ
Z Z Z
3 ρn,l,m (r)
= m~ d r uϕ · [r sin θ uϕ ] = m~ d r ρn,l,m (r) = m~ d3 r |ψ (r)|2
3
r sin θ
L3 = m~
donde hemos usado la Ec. (14.4), la identidad a · (b × c) = c · (a × b), y la Ec. (3.27) para la densidad de
probabilidad. De lo anterior se concluye que el autovalor m~ de L3 puede interpretarse como el momento angular
clásico asociado al movimiento rotacional del fluı́do de probabilidad.

14.1.1. Efecto sobre la corriente debido a la introducción de un campo magnético


Asumamos ahora que al átomo de Hidrógeno se le aplica un campo magnético constante B. Tal campo puede
ser descrito por el siguiente potencial vectorial
1
A (r) = − r × B (14.6)
2
estudiaremos la corriente de probabilidad asociada al estado base. Por simplicidad asumiremos que el campo
magnético no modifica al estado base. Puesto que el Hamiltoniano H depende de B, esto no es del todo correcto,
pero puede demostrarse que para B = Bu3 en el gauge descrito por la Ec. (14.6), las funciones ϕn,l,m (r) son
auto funciones de H dentro de términos de segundo orden en B, los cuales son despreciables para campos tı́picos
de laboratorio. Aplicaremos entonces la expresión de la densidad de corriente para una partı́cula inmersa en un
campo electromagnético descrita por las Ecs. (5.49, 5.50) donde hacemos φ (R, t) = 0, aplicaremos además las
Ecs. (14.1, 14.2)
       
1 ∗ ~ 1 −iξ(r) ~ iξ(r)
Jn,l,m = Re ϕn,l,m (r) ∇ − qA (r) ϕn,l,m (r) = Re α (r) e ∇ − qA (r) α (r) e
µ i µ i
 h i 
1 −iξ(r) ~ iξ(r) −iξ(r) iξ(r)
= Re α (r) e ∇ α (r) e − qα (r) e A (r) α (r) e
µ i
 
1 −iξ(r) iξ(r) ~ 2 −iξ(r) ~ iξ(r) 2
= Re α (r) e e ∇α (r) + α (r) e ∇e − qα (r) A (r)
µ i i
 
1 ~ 2 −iξ(r) iξ(r) i~ 2
= Re α (r) ∇α (r) + α (r) e e ∇ξ (r) − qα (r) A (r)
µ i i
1 
= Re −i~α (r) ∇α (r) + ~α2 (r) ∇ξ (r) − qα2 (r) A (r)
µ
1
Debe tenerse en cuenta sin embargo, que la nube electrónica en cuántica no es una distribución de masa que ocupa todo el espacio,
sino una distribución de probabilidad de que la masa se encuentra en cierta región del espacio. No obstante, esta distribución de masa
equivalente reproduce adecuadamente los valores de las cantidades globales (como las densidades volumétricas equivalentes).
374 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS

y teniendo en cuenta que α (r) , ξ (r) y A (r) son cantidades reales, se obtiene que

α2 (r)
Jn,l,m = {~ ∇ξ (r) − qA (r)}
µ
ρn,l,m
Jn,l,m = [~ ∇ξn,l,m (r) − qA (r)] (14.7)
µ
sustituyendo (14.6) en la Ec. (14.7) con B = Bu3 , el estado base tendrá una corriente dada por
    
ρ1,0,0 qB ρ1,0,0 ∂ (mϕ) 1 ∂ (mϕ) 1 ∂ (mϕ)
J1,0,0 = ~ ∇ξ1,0,0 (r) + r × u3 = ~ ur + uθ + uϕ
µ 2 µ ∂r r ∂θ r sin θ ∂ϕ m=0

qB
+ r × u3
2
     
~ [m]m=0 qB ρ1,0,0 qB
= ρ1,0,0 +r× u3 = − u3 × r
µ 2µ 2 µ
ρ1,0,0 qB
J1,0,0 = ωc × r) ; ~
(~ ωc ≡ − u3 (14.8)
2 µ
donde hemos usado la Ec. (14.3). El vector ~ ωc es la frecuencia angular de ciclotrón2 . La velocidad equivalente del
fluı́do está dada por J1,0,0 = ρ1,0,0 v1,0,0 con lo cual la velocidad equivalente nos da
~c
ω
v1,0,0 = ×r≡ω
~f × r (14.9)
2
La Ec. (14.8) nos muestra que la corriente de probabilidad en el estado base no es cero en presencia de un campo
magnético, es claro que esta corriente se anula al hacer B = 0. Las Ecs. (14.8, 14.9) nos muestran que el fluı́do de
probabilidad, gira como un todo3 alrededor de B (o de u3 ) con un frecuencia angular4 ~ ωf = ~ωc /2. Fı́sicamente,
este resultado se debe a la presencia del campo eléctrico E (r) transiente que se induce cuando se “enciende” el
campo magnético. Bajo la influencia de este campo eléctrico transitorio el electrón permanece aproximadamente
en su estado base y comienza a rotar alrededor del protón, con una velocidad angular que depende solo del valor
de B y no de la forma precisa en que se enciende el campo magnético. Por supuesto, una vez que la corriente se
genera (y desaparece el campo eléctrico transitorio), el campo magnético permanente puede sostenerla via fuerza
de Lorentz, ya que la carga ahora está en movimiento.
Es importante mencionar que si usamos un gauge diferente al dado por la Ec. (14.6) las funciones de onda
serı́an diferentes, y en la Ec. (14.7) existirı́an otras contribuciones a primer orden en B. Sin embargo, en cualquier
gauge se debe reproducir la Ec. (14.8) a primer orden en B, puesto que los resultados fı́sicos no pueden depender
del gauge.
La Ec. (14.8), también se puede escribir en términos de los parámetros atómicos usando la función de onda
explı́cita del estado base del átomo de Hidrógeno que aparace en la tabla 13.2 página 371
 
|ϕ1,0,0 |2 e−2r/a0 qB qB e−2r/a0
J1,0,0 = ωc × r) =
(~ − u3 × r = − (r sin θ uϕ )
2 2πa30 µ µ 2πa30
qBe−2r/a0
J1,0,0 = − r sin θ uϕ (14.10)
2πµa30
aquı́ vemos además que la densidad de corriente es proporcional a ρ (r) r sin θ, lo cual nos ratifica que el fluı́do de
probabilidad gira como un todo.
2
La frecuencia angular de ciclotrón es la que tendrı́a una carga q clásica que se mueve en una trayectoria circular debido a su
interacción con un campo magnético constante, cuando la velocidad inicial de dicha carga es perpendicular al campo magnético.
3
Es claro de las Ecs. (14.8, 14.9), que la velocidad angular ~
ωf del fluı́do no depende de la posición en este caso.
4
El hecho de que la corriente de la nube electrónica tenga la mitad de la frecuencia de ciclotrón, se debe al efecto adicional del
campo eléctrico generado por el núcleo.
14.2. ÁTOMO DE HIDRÓGENO EN UN CAMPO MAGNÉTICO UNIFORME 375

14.2. Átomo de hidrógeno en un campo magnético uniforme: paramagnetis-


mo, diamagnetismo y efecto Zeeman
Estudiaremos ahora los efectos que surgen cuando el átomo de hidrógeno está inmerso en un campo magnético.
Para los campos magnéticos tı́picos de laboratorio, el gradiente de dichos campos es tal que B no varı́a aprecia-
blemente en distancias comparables a la escala atómica. Por tanto, para muchos casos tomar este campo como
uniforme será una buena aproximación, y ası́ lo haremos de aquı́ en adelante. Estudiaremos entonces el espectro
de un electrón sujeto a la interacción eléctrica interna debida al núcleo y a un campo magnético externo. Si bien
la solución exacta de la ecuación de Schrödinger es muy compleja en este caso, ésta será soluble bajo ciertas
aproximaciones.
Una aproximación importante es la de ignorar los efectos debidos a la masa finita del núcleo, esta aproximación
está justificada dado que el protón es mucho más pesado que el electrón. Es importante observar que bajo la
influencia de un campo magnético no es rigurosamente posible reducir el problema de dos cuerpos acoplados al
problema de dos cuerpos desacoplados uno en el centro de masa con la masa del sistema y otro con la masa
reducida del sistema y la dinámica del vector relativo5 . Por tanto, al tener en cuenta los efectos de masa finita del
núcleo no es suficiente con reemplazar la masa del electrón por la masa reducida del sistema.
Usaremos además el hecho de que para campos magnéticos tı́picos de laboratorio el corrimiento del espectro
atómico debido al campo magnético externo es mucho menor al causado por el campo eléctrico interno. Los
corrimientos de los niveles atómicos son mucho menores que las separaciones entre niveles del átomo libre.
El estudio de los efectos de introducir un campo magnético nos permitirá comprender como surge el paramag-
netismo y el diamagnetismo en la mecánica cuántica

14.2.1. Hamiltoniano del sistema


Consideremos un electrón sin espı́n de masa me y carga q sujeto a un potencial central V (r) y a un potencial
vectorial magnético A (r). Su Hamiltoniano es

1
H= [P − qA (R)]2 + V (R) (14.11)
2me
si el campo magnético B es uniforme, el potencial vectorial se puede escribir como
1
A (r) = − r × B (14.12)
2
para introducir esta cantidad en el Hamiltoniano (14.11) calcularemos el siguiente factor
h q i2 q2 q
[P − qA (R)]2 = P + R × B = P2 + (R × B)2 + [P · (R × B) + (R × B) · P] (14.13)
2 4 2
ahora bien, B es un vector constante y no un operador, por tanto conmuta con todos los operadores. Adicional-
mente, tenemos que

P · (R × B) = Pi εijk Rj Bk ; (R × B) · P = εijk Rj Bk Pi ; (R × P)i = εijk Rj Pk

suma sobre ı́ndices repetidos. Los únicos términos no nulos de esta sumatoria corresponden a aquellos en donde
todos los ı́ndices son diferentes, por tanto Rj conmuta con Pi para los términos no nulos, de modo que

P · (R × B) = (R × B) · P ; R × P = −R × P
5
Debe tenerse en cuenta que la reducción del problema de dos cuerpos acoplados al de dos cuerpos desacoplados, solo es en general
posible cuando la interacción neta es central. Cuando superponemos el potencial Coulombiano debido al núcleo con la fuerza de Lorentz
generada por el campo magnético, la interacción resultante deja de ser central.
376 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS

En consecuencia, a las expresiones anteriores se les puede aplicar las identidades vectoriales usuales. Utilizando

a · (b × c) = c · (a × b)
(a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c)

en la Ec. (14.13) queda

q2 q
[P − qA (R)]2 = P2 + (R × B) · (R × B) + [2P · (R × B)]
4 2
q 2
= P2 + [(R · R) (B · B) − (R · B) (B · R)] + q [B · (P × R)]
4
q 2 h i
[P − qA (R)]2 = P2 + R2 B2 − (R · B)2 − qB · (R × P) (14.14)
4

Ahora bien, la proyección r⊥ de un vector arbitrario r sobre un plano perpendicular a B se escribe

 r2 B2 cos2 θ
|r⊥ | = |r| sin θ ⇒ r2⊥ = r2 sin2 θ = r2 1 − cos2 θ = r2 − ⇒
B2
(r · B)2
r2⊥ = r2 −
B2

donde θ es el ángulo entre r y B. Con base en esto definimos el operador vectorial R⊥ como la proyección de R
sobre un plano perpendicular a B
(R · B)2
R2⊥ ≡ R2 − (14.15)
B2
en particular si B = Bu3 tenemos que
R2⊥ = X12 + X22

reemplazando (14.15) en (14.14) y recordando que R × P es el momento angular orbital cuántico, tenemos

q2B 2 2
[P − qA (R)]2 = P2 + R⊥ − qL · B (14.16)
4

reemplazando (14.16) en el Hamiltoniano (14.11) tenemos


 
1 2 q2B 2 2
H = P + R⊥ − qL · B + V (R)
2me 4
P2 µB q2B 2 2
H ≡ H0 + H1 + H2 ; H0 ≡ + V (R) , H1 ≡ − [L · B] , H2 ≡ R (14.17)
2me ~ 8me ⊥
q~ (R · B)2
µB ≡ ; R2⊥ ≡ R2 − (14.18)
2me B2

donde H0 es el Hamiltoniano “no perturbado” asociado al átomo de Hidrógeno libre. Nótese que cuando B 6= 0 el
momento mecánico ya no es P sino [P − qA (R)], por tanto la energı́a cinética será [P − qA (R)]2 /2me . Aún más,
el término P2 /2me depende del gauge escogido. Puede demostrarse que en el gauge definido por la Ec. (14.12)
~ R es el momento mecánico de la partı́cula con respecto
P2 /2me es la energı́a cinética “relativa” Π2R /2me donde Π
a un sistema rotante de Larmor que rota alrededor de B con velocidad angular ωL = −qB/2me . Ası́ mismo, se
puede demostrar que el término H2 corresponde a la energı́a cinética Π2E /2me relativa a la velocidad de arrastre
de este marco de referencia, en tanto que el término H1 está asociado al término cruzado Π~R ·Π
~ E /me .
14.2. ÁTOMO DE HIDRÓGENO EN UN CAMPO MAGNÉTICO UNIFORME 377

14.2.2. Estimación numérica de las contribuciones H0 , H1 y H2


Haremos un estimativo numérico de las diferencias de energı́a ∆E (y las frecuencias correspondientes ∆E/h),
asociadas a cada Hamiltoniano. Hemos visto que las diferencias de energı́a ∆E0 asociadas a H0 (átomo de
Hidrógeno libre) son del orden de magnitud de la energı́a de ionización EI como se aprecia en la Ec. (13.43).
Utilizando las Ecs. (13.39) se tiene que
 2 2
me 4 me ~
∆E0 ≃ EI = 2 e = 2
2~ 2~ me a0
~2 ∆E0
∆E0 ≃ ; ≃ 1014 Hz
2me a20 h

ahora usando las Ecs. (14.17) para H1 y teniendo en cuenta que los momentos angulares son del orden de la
constante de Planck, se obtiene

∆E1 µB [~B] B q~ B qB 1 qB
≃ = µB = = =
h ~ h h 2me h 4πme 2π 2me
∆E1 ωL qB
≃ ; ωL ≡
h 2π 2me
donde hemos tenido en cuenta (14.18). La cantidad ωL se refiere a la velocidad angular de Larmor. Podemos ver
que ωL /2π es la mitad de la frecuencia de ciclotrón. Para campos tı́picos de laboratorio asumiremos B . 105 gauss,
con lo cual se obtiene
∆E1 ωL
≃ . 1011 Hz ⇒
h 2π
∆E1 ≪ ∆E0

ahora evaluaremos el orden de magnitud de ∆E2 asociado a H2 . Los elementos matriciales del operador R2⊥ =
X12 + X22 son de dimensiones atómicas y por tanto del orden de magnitud de a0 (radio de Bohr). Por tanto, de la
Ec. (14.17) se obtiene

q2B 2 2 ∆E2 q 2 B 2 2 2π q 2 B 2 2 2π 2me


∆E2 ≃ a0 ⇒ ≃ a0 = a ⇒
8me ∆E1 8me hωL 8me 0 h qB
∆E2 πqBa20

∆E1 2h
por otro lado
∆E1 h qB 2me a20 qBa20 2πqBa20 ∆E2
≃ = = =4
∆E0 2π 2me ~2 ~ h ∆E1
vemos que
∆E2 1 ∆E1

∆E1 4 ∆E0
de modo que las diferencias de energı́a presentan una clara jerarquı́a

∆E2 ≪ ∆E1 ≪ ∆E0

los efectos del campo magnético son en la práctica mucho menores que los del campo eléctrico interno, además
será en general suficiente tener en cuenta solo el término H1 y el término H2 solo se tendrá en cuenta cuando H1
se anule.
Aunque el término H1 es más importante, analizaremos primero el término H2 ya que esto permitirá justificar
algunas aproximaciones que se usan cuando solo se considera H1
378 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS

14.2.3. Término diamagnético


Hemos dicho que solo consideraremos el efecto de H2 cuando se anule el efecto de H1 . Tal es el caso cuando
tenemos un estado de momento angular cero en el átomo de Hidrógeno. En la sección 14.1.1 vimos que la presencia
de un campo magnético uniforme modifica la corriente de probabilidad asociada al electrón. Esta corriente tiene
simetrı́a axial con respecto al eje B. La corriente gira como un todo alrededor de B en la dirección horaria
(antihoraria) cuando q > 0 (q < 0). La corriente eléctrica que se genera tiene asociado un momento magnético
hM2 i que como veremos es antiparalelo a B y por tanto está asociado a una energı́a de acople positiva que explica
el origen del término H2 .
Para ver esto recurrimos a calcular clásicamente el momento magnético M2 asociado a una carga q en movi-
miento circular de radio r. Si la velocidad de la carga es v su movimiento equivale a una corriente de la forma
v
i=q
2πr

la superficie definida por el circuito es S = πr 2 de modo que el momento magnético está dado por
qrv
|M| = |i × S| = (14.19)
2

ahora bien el momento angular ~λ viene dado por

~λ = r × me v = r × (P − qA (r)) = L
~ − qr × A (r)

~ es el momento angular canónico. Puesto que la velocidad es tangencial, la magnitud de ~λ está dada por
donde L

~
|λ| = L − qr × A (r) = me rv

podemos escribir la Ec. (14.19) en la forma

~ = q ~ q h~ i
M λ= L − qr × A (r) (14.20)
2me 2me

puesto que estamos estudiando el caso L = 0, usando el gauge (14.12) el momento magnético queda6
2 2 2  
~ 2 = − q r × A (r) = q r × (r × B) = q
M (r · B) r − r2 B
2me 4me 4me

vemos que M ~ 2 es proporcional a B. Por otro lado, si bien M ~ 2 no es colineal con B, es fácil ver que en el estado
~
base del átomo de hidrógeno (en el cual L = 0), el valor esperado de M2 (donde M2 es la cuantización de M ~ 2 ) es
antiparalelo a B. En consecuencia, M ~ 2 representa el momento magnético inducido por B en el átomo . Su energı́a
7

de acople con B viene dada por


Z B 2 
 
W2 = − M~ 2 B′ · dB′ = − 1 M ~ 2 (B) · B = − 1 q (r · B) r − r2 B · B
0 2 2 4me
" #
q 2 h i q 2 B 2 (r · B) 2
W2 = r2 B2 − (r · B)2 = r2 −
8me 8me B2
6
Debe tenerse en cuenta que cuando m = 0, el momento angular que se anula es el canónico y no el mecánico. Esto tiene que ver
con el hecho de que es el momento angular canónico el que se cuantiza.
7
Vale recordar que la modificación de la corriente (con respecto a la que se genera para el átomo libre) se forma gracias al campo
eléctrico transiente que se induce cuando se conecta el campo magnético. Además, en el estado base no hay corriente ni momento
dipolar magnético permanente.
14.2. ÁTOMO DE HIDRÓGENO EN UN CAMPO MAGNÉTICO UNIFORME 379

y usando la Ec. (14.18) tenemos


q2 2 2
W2 = r B
8me ⊥
cuya cuantización conduce al Hamiltoniano H2 descrito en la Ec. (14.17). Vemos entonces que H2 describe el
~ 2 inducido por B en el átomo. Puesto que de acuerdo con la
acople entre el campo B y el momento magnético M
ley de Lenz el momento inducido se opone al campo aplicado8 , la energı́a de acople es positiva. H2 se denomina
el término diamagnético del Hamiltoniano.

14.2.4. Término paramagnético


Asumiremos ahora que L ~ =
6 0 de modo que el Hamiltoniano H1 es el dominante (con respecto a H2 ). La
~
relación (14.20) nos indica la relación general entre el momento angular canónico λ̃ y el momento magnético M.
~ ~
Por otro lado, hemos demostrado que la contribución de H2 sobre M está dada por la Ec. (14.20) con L = 0. Por
tanto para L ~=6 0 tal ecuación se puede escribir como

q ~ 2
~ =M
M ~2
~ 1 +M ; ~1≡
M L , ~ 2 ≡ − q r × A (r)
M
2me 2me
pero el análisis numérico indica que para el átomo de hidrógeno, la contribución del Hamiltoniano H1 domina
sobre la contribución de H2 siempre que la primera sea no nula (i.e. L ~ 6= 0). Por lo tanto, si L
~ =
6 0 podemos
aproximar el momento magnético en la forma

~ ≃M
~1= q ~
M L (14.21)
2me

de modo que L ~ es prácticamente paralelo a M


~ y ambos son perpendiculares al plano de la órbita clásica. La
energı́a de acople con B está dada por
~1·B
W1 = − M (14.22)
Al cuantizar las relaciones (14.21, 14.22) se obtiene
q q
M1 = L ; H1 = −M1 · B = − L·B (14.23)
2me 2me
que coincide con la Ec. (14.17), de modo que el Hamiltoniano H1 corresponde al acople entre el campo magnético
B y el momento magnético atómico permanente puesto que M1 es independiente de B, es decir M1 existe aunque
no exista campo magnético. En consecuencia, M1 se genera a través de la corriente asociada al átomo de Hidrógeno
libre (ver sección 14.1).
De acuerdo con la Ec. (14.23), los autovalores del operador M1 vienen dados por
 
q
m~ ≡ mµB (14.24)
2me

de modo que µB es el “cuanto fundamental” de momento magnético como lo es ~ del momento angular. Es este
hecho lo que le da relevancia al magnetón de Bohr µB . Más adelante veremos que además del momento angular
orbital L, el electrón posee un momento angular intrı́nseco o espı́n S, que también posee un momento magnético
asociado MS proporcional a S en la forma
µB
MS = 2 S
~
de hecho la necesidad de introducir este momento magnético adicional para explicar la estructura fina del átomo
de Hidrógeno, es una de las evidencias experimentales de la existencia del espı́n del electrón (ver sección 15.4.2).
8
En realidad se opone al cambio de flujo, pero cuando el campo se conecta aumenta desde cero hacia B de modo que el aumento
de flujo va en la dirección del campo.
380 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS

Finalmente, es importante mencionar que el dominio de los efectos paramagnéticos sobre los diamagnéticos
(cuando los primeros son no nulos) se debe al pequeño tamaño del radio atómico, que a su vez genera una superficie
y un flujo muy pequeños. Por ejemplo, para un electrón libre sometido a un campo magnético, las contribuciones
paramagnética y diamagnética tienen la misma importancia relativa.

14.3. Efecto Zeeman


Hemos visto los nuevos términos que aparecen en el Hamiltoniano del átomo de Hidrógeno cuando se introduce
un campo magnético uniforme. A continuación veremos como estos nuevos términos modifican el espectro del átomo
de Hidrógeno. En particular, examinaremos la forma en que se modifica la emisión de la lı́nea óptica conocida
o
como la “lı́nea de resonancia” (λ ≃ 1200A) con la inclusión del campo magnético. Veremos que no solo se cambia
la frecuencia sino también la polarización de las lı́neas atómicas. Esto se conoce como efecto Zeeman.
Sin embargo, es necesario aclarar que para predecir el espectro real es necesario incluı́r el momento angular
intrı́nseco o espı́n del electrón (e incluso del protón) del cual surge la estructura fina e hiperfina del espectro y
modifica sustancialmente las componentes de la lı́nea de resonancia. A esto se le conoce usualmente como efecto
Zeeman anómalo. No obstante, la discusión que realizaremos aquı́ será válida cualitativamente.

14.3.1. Corrimiento de los niveles atómicos con la corrección paramagnética


Estudiaremos la transición entre el estado base y el estado más bajo con momento angular no nulo es decir
entre los niveles 1s (n = 1, l = m = 0) y 2p (n = 2, l = 1, m = 1, 0, −1)9 . Esta transición corresponde a la lı́nea de
resonancia del átomo de hidrógeno. Aunque el momento angular en el estado base es cero, no lo es en el estado
2p, por tanto despreciaremos la respuesta diamagnética cuando se coloca un campo magnético B, incluyendo solo
las correcciones de H1 . Si denotamos |ϕn,l,m i los estados comunes de H0 , L2 y L3 , se puede ver de inmediato que
si B = Bu3 entonces |ϕn,l,mi también es autoestado del Hamiltoniano perturbado H0 + H1
 µB   µB 
(H0 + H1 ) |ϕn,l,m i = H0 − L · B |ϕn,l,m i = H0 − BL3 |ϕn,l,m i
~ ~
(H0 + H1 ) |ϕn,l,m i = (En − mµB B) |ϕn,l,m i
por tanto si ignoramos el término diamagnético, los |ϕn,l,m i son aún estados estacionarios de H0 + H1 , y solo se
modifican los valores de energı́a. Adicionalmente, vemos que el espectro se modifica de tal forma que depende
ahora de dos números cuánticos n y m, removiendo parcialmente la degeneración (aún existe degeneración en l).
El hecho de que el corrimiento de la energı́a (con respecto a la energı́a en ausencia de campo magnético) dependa
del número cuántico m y del campo B, es la razón para denominar a m como número cuántico magnético.
Calculemos el espectro de los estados involucrados en la lı́nea de resonancia
(H0 + H1 ) |ϕ1,0,0 i = E1 |ϕ1,0,0 i = −EI |ϕ1,0,0 i
 
EI
(H0 + H1 ) |ϕ2,1,m i = (E2 − mµB B) |ϕ2,1,m i = − − mµB B |ϕ2,1,m i
4
el nivel de energı́a 2p en presencia de B suele escribirse en la forma
 
B EI 3 q~ 3EI qB
E2p = − − mµB B = −EI + EI − m B = −EI + ~ + m~ −
4 4 2me 4~ 2me
B 3E I E2 − E1
E2p = −EI + ~ (Ω + mωL ) ; Ω ≡ =
4~ ~
donde Ω es claramente la frecuencia de la lı́nea de resonancia en ausencia de B. En tanto que en presencia de B
tal frecuencia de resonancia es (Ω + mωL ).
9
La transición más baja corresponde al paso de 1s a 2s, pero en este caso la respuesta diamagnética es dominante, ya que el momento
angular es cero en ambos estados.
14.3. EFECTO ZEEMAN 381

14.3.2. Oscilaciones dipolares eléctricas


El momento dipolar eléctrico cuantizado del átomo está dado por
D = qR
para calcular el valor esperado hDi calculamos los elementos matriciales de D. Bajo paridad el operador D se
transforma a −D (ya que bajo paridad R → −R y q → q). El momento dipolar es por tanto un operador impar.
Adicionalmente los estados ϕn,l,m (r) tiene paridad bien definida en la base |ri, esto se debe a que los armónicos
esféricos tiene paridad definida teniendo paridad +1 (−1) para l par (impar). En particular se tiene que


hϕ1,0,0 | D |ϕ1,0,0 i = ϕ2,1,m′ D |ϕ2,1,m i = 0 ; ∀m, m′ (14.25)
los elementos de matriz no nulos asociados a la lı́nea de resonancia son entonces no-diagonales. Para calcular los
elementos de matrix hϕ2,1,m | D |ϕ1,0,0 i = q hϕ2,1,m | R |ϕ1,0,0 i escribiremos a x1 , x2 , x3 en términos de armónicos
esféricos
r

x1 = r sin θ cos ϕ = r [Y1,−1 (θ, ϕ) − Y1,1, (θ, ϕ)] (14.26)
3
r

x2 = r sin θ sin ϕ = ir [Y1,−1 (θ, ϕ) + Y1,1 (θ, ϕ)] (14.27)
3
r

x3 = r cos θ = r Y1,0 (θ, ϕ) (14.28)
3
el cálculo de los elementos matriciales involucra una integral radial y una angular, en virtud de la separabilidad
de las funciones de onda estacionarias. La integral radial la definimos como una cantidad χ
Z ∞
χ≡ R2,1 (r) R1,0 (r) r 3 dr (14.29)
0
la parte angular consiste en productos escalares de armónicos esféricos que se pueden calcular fácilmente debido
a sus propiedades de ortogonalidad. Por ejemplo, calculemos el elemento matricial hϕ2,1,1 | Dx1 |ϕ1,0,0 i en la base
{|ri}, para lo cual aplicamos la Ec. (5.3)
Z
hϕ2,1,1 | Dx1 |ϕ1,0,0 i = q hϕ2,1,1 | X1 |ϕ1,0,0 i = q ϕ∗2,1,1 (r) x1 ϕ1,0,0 (r) d3 r
Z ( r )
 ∗
 2π
= q R2,1 (r) Y1,1 (θ, ϕ) r [Y1,−1 (θ, ϕ) − Y1,1, (θ, ϕ)] [R1,0 (r) Y0,0 (θ, ϕ)] r 2 dr dΩ
3
r Z  Z 

2π 3 ∗
= q R2,1 (r) R1,0 (r) r dr dΩ Y1,1 (θ, ϕ) [Y1,−1 (θ, ϕ) − Y1,1, (θ, ϕ)] Y0,0 (θ, ϕ)
3 0
r Z 
2π  ∗ ∗
 1
= q χ dΩ Y1,1 (θ, ϕ) Y1,−1 (θ, ϕ) − Y1,1 (θ, ϕ) Y1,1, (θ, ϕ) √
3 4π
q
= √ χ {δ1,1 δ1,−1 − δ1,1 δ1,1 }
6
q
hϕ2,1,1 | Dx1 |ϕ1,0,0 i = − √ χ
6
donde hemos usado las Ecs. (14.26, 14.29) y la ortonormalidad de los armónicos esféricos. Procediendo de manera
similar con los otros elementos matriciales se obtiene

hϕ2,1,1 | Dx1 |ϕ1,0,0 i = − hϕ2,1,−1 | Dx1 |ϕ1,0,0 i = − √ ; hϕ2,1,0 | Dx1 |ϕ1,0,0 i = 0 (14.30)
6
iqχ
hϕ2,1,1 | Dx2 |ϕ1,0,0 i = hϕ2,1,−1 | Dx2 |ϕ1,0,0 i = √ ; hϕ2,1,0 | Dx2 |ϕ1,0,0 i = 0 (14.31)
6

hϕ2,1,1 | Dx3 |ϕ1,0,0 i = hϕ2,1,−1 | Dx3 |ϕ1,0,0 i = 0 ; hϕ2,1,0 | Dx3 |ϕ1,0,0 i = √ (14.32)
3
382 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS

se concluye que si el sistema está en un estado estacionario, la cantidad hDi es cero ya que los elementos diagonales
se anulan. Supondremos entonces que el sistema está inicialmente en una superposición del estado base 1s y uno
de los estados 2p.
ψ (0) = cos α |ϕ1,0,0 i + sin α |ϕ2,1,m i
donde m asume uno de sus valores permitidos 1, 0, −1. Consideraremos a α como un parámetro real, aplicando la
evolución temporal de un sistema conservativo calculamos la evolución temporal de este estado

|ψm (t)i = eiEI t/~


cos α |ϕ1,0,0 i + ei[EI −~(Ω+mωL )] t/~ sin α |ϕ2,1,m i
n o
= eiEI t/~
cos α |ϕ1,0,0 i + e−i(Ω+mωL ) t sin α |ϕ2,1,m i
|ψm (t)i = cos α |ϕ1,0,0 i + e−i(Ω+mωL ) t sin α |ϕ2,1,m i (14.33)

donde hemos omitido la fase global irrelevante en el último paso. Calcularemos hDi cuando el sistema está en el
estado |ψm (t)i en el tiempo t. Usando las Ecs. (14.25, 14.30, 14.31, 14.32, 14.33), obtendremos el valor esperado
de D para los casos m = 1, 0, −1. Para m = 1 obtenemos
h i
hψm=1 (t)| Dx1 |ψm=1 (t)i = cos α hϕ1,0,0 | + ei(Ω+ωL ) t sin α hϕ2,1,1 | Dx1
h i
× cos α |ϕ1,0,0 i + e−i(Ω+ωL ) t sin α |ϕ2,1,1 i
= cos2 α hϕ1,0,0 | Dx1 |ϕ1,0,0 i + e−i(Ω+ωL ) t cos α sin α hϕ1,0,0 | Dx1 |ϕ2,1,1 i
+ei(Ω+ωL ) t sin α cos α hϕ2,1,1 | Dx1 |ϕ1,0,0 i + sin2 α hϕ2,1,1 | Dx1 |ϕ2,1,1 i
qχ qχ
= − √ e−i(Ω+ωL ) t sin 2α − √ ei(Ω+ωL ) t sin 2α
2 6 2 6
" #
qχ e−i(Ω+ω L ) t + ei(Ω+ωL ) t
= − √ sin 2α
6 2

hψm=1 (t)| Dx1 |ψm=1 (t)i = − √ sin 2α cos [(Ω + ωL ) t]
6
y se procede de manera similar com m = 0, −1. Los resultados son:
qχ qχ
hDx1 im=1 = − √ sin 2α cos [(Ω + ωL ) t] ; hDx2 im=1 = − √ sin 2α sin [(Ω + ωL ) t] ; hDx3 i1 = 0 (14.34)
6 6

hDx1 im=0 = hDx2 im=0 = 0 ; hDx3 im=0 = √ sin 2α cos Ωt (14.35)
3
qχ qχ
hDx1 im=−1 = √ sin 2α cos [(Ω − ωL ) t] ; hDx2 im=−1 = − √ sin 2α sin [(Ω − ωL ) t] ; hDx3 im=−1 = (14.36)
0
6 6

estas ecuaciones muestran que: (a) El vector hDim=1 (t) rota en el plano X1 X2 alrededor de X3 , en dirección
antihoraria con velocidad angular Ω + ωL .(b) El vector hDim=0 (t) oscila a lo largo de X3 con frecuencia angular
Ω. (c) El vector hDim=−1 (t) rota en el plano X1 X2 alrededor de X3 pero en dirección horaria con velocidad
angular Ω − ωL .

14.3.3. Frecuencia y polarización de la radiación emitida


En los tres casos m = 1, 0, −1; el valor medio del dipolo eléctrico es una función oscilante del tiempo. Por lo
tanto, dicho dipolo debe radiar.
Puesto que las dimensiones atómicas son mucho menores que la longitud de onda óptica, la radiación de los
átomos a grandes distancias se puede tratar como la de un dipolo puntual. Asumiremos que la radiación emi-
tida o absorbida por el átomo durante la transición entre el estado |ϕ2,1,m i y el estado base, se puede predecir
14.3. EFECTO ZEEMAN 383

correctamente utilizando la teorı́a clásica de la radiación. Un tratamiento riguroso del problema requiere la cuan-
tización del campo electromagnético (electrodinámica cuántica), que predice el comportamiento de los fotones y
la forma en que estos se emiten en la radiación. Sin embargo, los resultados obtenidos por el método semi-clásico
que abordaremos (en donde la materia se trata cuánticamente y la radiación se trata clásicamente), predicen la
distribución de la radiación en muy buena aproximación.
Supondremos que tenemos una muestra que contiene un gran número de átomos de hidrógeno y que los
excitamos de alguna manera10 al estado 2p. En la mayorı́a de experimentos la excitación de los átomos es isotrópica
y los tres estados |ϕ2,1,m i ocurren con la misma probabilidad. En primer lugar, estudiaremos la distribución angular
de la radiación y de la polarización para cada m fijo, y posteriormente se superponen los resultados para encontrar
el espectro que se observa.
Cuando m = 1, la frecuencia angular de la radiación emitida es Ω + ωL según la Ec. (14.34). De modo que
el campo magnético corre ligeramente la frecuencia de la lı́nea óptica (recordemos que Ω es la frecuencia de la
lı́nea óptica en ausencia de B). De acuerdo con la teorı́a electromagnética clásica, un dipolo rotante como hDi1 (t)
emite radiación en la dirección u3 con polarización circular de helicidad positiva σ+ . Por otro lado, la radiación
emitida en el plano X1 X2 está linealmente polarizada (paralela a este plano) en otras direcciones la polarización
es elı́ptica.
Para m = 0, el dipolo oscila linealmente en la dirección u3 . Las Ecs. (14.35) muestran que la frecuencia angular
es Ω, es decir igual a la asociada a la ausencia de B, esto se debe a que el corrimiento de la frecuencia debida
al campo es proporcional a m. En este caso la electrodinámica clásica predice que su polarización es lineal en
todas las direcciones. En particular, para una dirección de propagación sobre el plano X1 X2 , esta polarización
es paralela a u3 (polarización π). Además no se emite radiación en la dirección u3 , ya que un dipolo que oscila
linealmente no radı́a en la dirección de su eje de oscilación.
En el caso m = −1, las Ecs. (14.36) muestran que la frecuencia angular de la radiación emitida es Ω − ωL . La
distribución angular de la radiación es similar al caso m = 1. Sin embargo, puesto que el dipolo hDim=−1 gira en
la dirección opuesta a hDim=1 , la polarización elı́ptica y circular tiene helicidad opuesta a la correspondiente a
m = 1.
Si ahora asumimos que hay un número igual de átomos con m = 1, 0, −1, tenemos que se emiten tres frecuencias
bien definidas en todas direcciones (Ω+mωL con m = 1, 0, −1). La polarización asociada a m = 0 es lineal y la de las
otras dos es en general elı́ptica. Nótese que en la dirección de propagación perpendicular a B las tres polarizaciones
son lineales, la de m = 0 está polarizada en la dirección de B y las otras dos en dirección perpendicular a B.
Las Ecs. (14.34, 14.35, 14.36) nos muestran además que la intensidad de la lı́nea central m = 0 es dos veces la de
cada una de las lı́neas corridas. En la dirección paralela a B solo hay radiación debida a m = ±1 con frecuencias
(Ω ± ωL ) /2π, ambas asociadas a polarización circular pero de helicidad opuesta σ± .
Hemos visto que un campo magnético constante remueve parcialmente la degeneración asociada a la energı́a
de un átomo de hidrógeno, ya que la energı́a ahora depende de los números cuánticos n y m. Es este efecto el que
le da el nombre de número cuántico magnético al valor propio de L3 (y de cualquier momento angular J3 ).

10
Por ejemplo, haciendo incidir un haz de luz muy monocromática cuyos fotones tengan una energı́a igual a la necesaria para realizar
la transición 1s → 2p.
Capı́tulo 15

Momento angular intrı́nseco

15.1. Comportamiento clásico de átomos paramagnéticos inmersos en un


campo magnético
Asumamos que el átomo bajo estudio es neutro de modo que no está sujeto a la fuerza de Lorentz cuando se
le aplica un campo magnético B. Para una gran cantidad de átomos neutros inmersos en un campo magnético
B, es posible demostrar que cuando domina el término paramagnético, el momento dipolar magnético electrónico
(primer término en la expansión multipolar magnética de la distribución) es proporcional al momento angular
electrónico para un nivel atómico dado1
M ~ = γL (15.1)
la constante de proporcionalidad se denomina factor giromagnético del nivel bajo consideración2 . La fuerza re-
sultante F sobre el átomo neutro paramagnético, se puede obtener de la energı́a potencial W dada en la Ec.
(14.22)  
W = −M ~ ·B ; F=∇ M ~ ·B

El torque asociado (tomando el origen en la posición del centro del átomo) es


~ ×B
~τ = M

y puesto que el teorema del momento angular nos dice que


dL
= ~τ
dt
se tiene que
dL ~ × B = γL × B
=M
dt
esto nos muestra que L es perpendicular a su razón de cambio y adicionalmente, la razón de cambio es perpendicular
al campo magnético B. Si B es constante en el tiempo en el punto donde se evalúa, esto indica que L no cambia
de magnitud y precesa alrededor del eje definido por el campo magnético, el ángulo θ entre B y L permanece
constante y la velocidad angular de precesión es ω = γ |B|. Ahora bien, puesto que M ~ es paralelo a L y sus
magnitudes están relacionadas por una constante, concluı́mos que también M ~ conserva su magnitud y precesa
con el mismo ángulo θ y la misma velocidad angular ω alrededor de B.
Si definimos al eje X3 a lo largo de B, para calcular la fuerza F podremos en buena aproximación despreciar
en W los términos proporcionales a M1 y M2 tomando a M3 como constante. Esto se debe a la tendencia natural
1
Hemos visto esta caracterı́stica para átomos de Hidrógeno en la sección 14.2.4. Sin embargo, esto se puede extrapolar para átomos
de varios electrones.
2
Antes del advenimiento de la teorı́a cuántica, la espectroscopı́a permitı́a distinguir entre diferentes estados de un átomo.

384
15.2. EXPERIMENTO DE STERN-GERLACH 385

de los átomos a alinear su momento magnético con el campo magnético, si bien existen componentes “laterales”
M1 y M2 estas tienden a cancelarse cuando se toma un promedio temporal que comprenda muchos periodos de
precesión y dado que las frecuencias de precesión son tan altas, solo estos promedios temporales de M1 y M2
juegan un papel en W y estos promedios son cero, ya que todas las direcciones ocurren en la precesión con igual
magnitud. Adicionalmente, cuando se tiene en cuenta el efecto sobre muchas partı́culas, la cancelación estadı́stica
funciona aún mejor. La fuerza será entonces aproximadamente

F = ∇ (M3 B3 ) = M3 ∇B3

nótese que la fuerza resultante serı́a cero si el campo es uniforme independientemente de su intensidad. Por tanto,
una fuerza significativa requiere un alto gradiente del campo. Si asumimos por simplicidad que B3 solo varı́a a lo
largo de X3 , es decir si ∂B3 /∂x1 = ∂B3 /∂x2 = 0 la fuerza sobre el átomo será paralela al eje X3 y proporcional
a M3 . Si asumimos que tenemos una gran cantidad de átomos, se espera que los momentos magnéticos de éstos
estén orientados aleatoriamente antes de la aplicación del campo, pues tales orientaciones estarán dictaminadas
por fluctuaciones térmicas que son de naturaleza aleatoria3 . Por tanto, antes de la aplicación del campo todos
los valores de M3 entre − |M| y |M| están presentes, en otras palabras, el ángulo θ entre B y M ~ puede tomar
cualquier valor entre 0 y π.

15.2. Experimento de Stern-Gerlach

Figura 15.1: (a) En el experimento de Stern-Gerlach, los átomos de plata que se emiten a alta temperatura del horno
E son colimados en F para luego ser deflectados por el gradiente de campo magnético creado por el electroimán A.
Finalmente, el átomo es registrado en el punto N de la pantalla P. (b) Vista frontal del electroimán. El haz incide
sobre el eje X2 perpendicular al papel.
3
Esto implica despreciar posibles correlaciones entre los diferentes momentos magnéticos de los átomos.
386 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

Stern y Gerlach realizaron un experimento en 1922 para estudiar la deflexión de un haz de átomos neutros
paramagnéticos en un campo magnético de alto gradiente.
El montaje se muestra en la Fig. 15.1a. En un horno E se colocan átomos neutros de plata (que son para-
magnéticos) y se calientan a alta temperatura, luego se dejan escapar por un pequeño agujero y se propagan en
lı́nea recta en el alto vacı́o del montaje. El agujero colimador permite solo el paso de átomos en cierta dirección
que elegimos como eje X2 . El haz colimado en esta forma entra entonces a un electroimán A para ser deflectado
antes de impactar la pantalla P .
De acuerdo con la teorı́a clásica, si queremos producir una deflexión apreciable, el electroimán debe producir
un campo B de alto gradiente. Una forma de lograrlo es a través de un imán configurado como se ilustra en la
Fig. 15.1b. El campo magnético generado tiene un plano de simetrı́a (el plano X2 X3 ) que contiene la dirección
inicial del haz colimado. Si despreciamos efectos de borde el campo magnético no tiene componente en la dirección
X2 , por tanto el efecto sobre el haz es el mismo en cualquier punto sobre el eje X2 dentro del electroimán. La
componente más grande de B es en la dirección de X3 , además la variación del campo a lo largo de X3 es muy
fuerte, esto ocurre gracias a la configuración angulosa del polo norte que produce una gran acumulación de lı́neas
de campo en la vecindad del ángulo, en tanto que en el polo sur la densidad de lı́neas es mucho menor. Puesto que
el campo magnético es solenoidal (∇ · B = 0), este debe adquirir una componente en la dirección X1 que varı́a
con la distancia x1 al plano de simetrı́a X2 X3 .
La simetrı́a del electroimán muestra claramente que ∂B3 /∂x2 = 0 ya que el campo magnético no depende de
x2 . Además ∂B3 /∂x1 = 0 en todos los puntos del plano de simetrı́a X2 X3 .
En virtud de que el experimento reúne todas las condiciones descritas en la sección 15.1, concluı́mos que la
deflexión HN de un átomo que golpea la pantalla es proporcional a M3 y por tanto a L3 . En consecuencia,
medir HN es equivalente a medir M3 ó L3 . Puesto que los momentos magnéticos de los átomos de plata estaban
distribuı́dos isotrópicamente antes de entrar en el electroimán, los valores de M3 toman todos los valores posibles
(para una gran cantidad de átomos) entre − |M| y |M|. Por tanto, esperamos que se forme sobre la pantalla
un patrón contı́nuo simétrico con respecto a H, sobre la pantalla P . En otras palabras, se espera que haya
impactos sobre todos los puntos en el intervalo N1 , N2 de manera mas o menos uniforme, donde N1 (cota máxima)
corresponde al caso en que M3 toma el valor máximo M3 = |M| y N2 corresponde al caso en el cual M3 toma el
valor mı́nimo M3 = − |M|. Desde el punto de vista experimental efectos tales como la dispersión de las velocidades
y el tamaño finito del colimador ocasionarán que átomos con el mismo valor de M3 no golpeen en el mismo punto,
sino en una vecindad de un punto que corresponde a la velocidad promedio de una partı́cula que pasa por el centro
del colimador. Por tanto el resultado clásico predice una distribución como la lı́nea punteada de la Fig. 15.2, que
va un poco más allá de N1 y N2 por aspectos experimentales.

15.3. Resultados del experimento y el momento angular intrı́nseco


En el experimento no se observó una distribución homogénea a lo largo de [N1 , N2 ] como predecı́a el modelo
clásico. Lo que se observó fueron dos manchas bien definidas centradas en N1 y N2 simétricas con respecto a H,
como lo muestran las lı́neas contı́nuas de la Fig. 15.2. Puesto que el ancho de estas manchas era mucho menor que
el ancho de N1 y N2 ; esto hacı́a sospechar que la deflexión estaba “cuantizada” en dos haces bien definidos. Este
hecho se puede confirmar disminuyendo el tamaño del colimador y/o disminuyendo la dispersión de velocidades
del haz (con un filtro de velocidades colocado antes del electroimán). Si la cuantización existe, lo anterior debe
disminuir el ancho de las manchas alrededor de N1 y N2 . La formación de dos zonas de impacto “cuantizadas”
está en franca contradicción con la teorı́a clásica.
Podrı́a pensarse por ejemplo que esta cuantización proviene de la cuantización del momento angular clásico
(que a su vez conducirı́a a la cuantización de M si asumimos que se mantiene la relación 15.1) hay varias razones
para rechazar este hipótesis como veremos a continuación.
En primer lugar, mostraremos que bajo las condiciones de este experimento no es necesario tratar los grados de
libertad de posición y momento cuánticamente. Para esto debemos verificar que para describir el movimiento de los
átomos de plata, es posible construı́r paquetes de onda cuyo ancho ∆x3 y cuya dispersión ∆p3 sean completamente
15.3. RESULTADOS DEL EXPERIMENTO Y EL MOMENTO ANGULAR INTRÍNSECO 387

Figura 15.2: La lı́nea contı́nua nos muestra las dos manchas bien localizadas alrededor de los puntos N1 y N2 , que
se obtuvieron en el experimento de Stern-Gerlach. La lı́nea punteada nos muestra la predicción clásica.

despreciables con respecto a la escala de longitudes y momentos que se manejan en el experimento. Estos anchos
deben cumplir el principio de incertidumbre
∆x3 ∆p3 & ~
la masa M de un átomo de plata es de 1,8 × 10−25 kg. Los anchos ∆x3 y ∆v3 = ∆p3 /M deben ser tales que

~
∆x3 ∆v3 & ≃ 10−9 M.K.S.A. (15.2)
M
ahora veamos cuales son las longitudes y velocidades tı́picas en el experimento. El ancho del colimador F es de
unos 10−4 m, la separación entre N1 y N2 entre las manchas es de varios milı́metros. La distancia sobre la cual
el campo magnético varı́a apreciablemente se puede deducir de los valores del campo en medio del electroimán
(B ≃ 104 gauss) y su gradiente (∂B/∂x3 ≃ 105 gauss/cm), que nos da

B
≃ 10−3 mt
∂B/∂x3

ahora la velocidad de un átomo de plata que abandona el horno a una temperatura de 103 K es del orden de
500m/s. Para haces bien colimados, la dispersión de las velocidades a lo largo de X3 no es mucho menor a varios
metros por segundo. De lo anterior, es posible encontrar valores de ∆x3 y ∆v3 que satisfagan la relación (15.2)
388 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

que proviene de la relación de incertidumbre, y que al mismo tiempo sean mucho menores que todas las escalas de
longitud y velocidad del experimento. Por tanto, los observables r y p se pueden tratar como clásicos y podemos
pensar en paquetes casi puntuales que se mueven sobre trayectorias clásicas. La cuantización de estos observables
(o de otros que dependan de éstos como el momento angular) darı́a una enorme cantidad de valores propios que
simuları́an un contı́nuo, esto estarı́a muy lejos de explicar una cuantización tan drástica en tan solo dos estados.
Una segunda razón es que los momentos angulares orbitales cuánticos l (l + 1) ~2 solo pueden tener valores de
l enteros. Esto implica que el número de proyecciones posibles a lo largo de X3 para un l dado, es siempre un
número impar (2l + 1) como se observa en la Ec. (14.24) Pág. 379. Lo anterior entrarı́a en conflicto con la idea de
tener un número par de “auto resultados” que en este caso son dos.
Si asumimos que la deflexión aún se da por el acople del campo con un momento angular (es decir que aún
hay un momento angular que cumpla la Ec. 15.1) este momento angular debe tener solo dos proyecciones posibles
a lo largo de X3 , es decir
2j + 1 = 2
lo cual nos lleva a j = 1/2. De esto se concluye que si el observable asociado a la deflexión observada es aún
un momento angular, no puede ser un momento angular orbital, ya que para éstos los valores semienteros están
excluı́dos por razones de periodicidad. El observable asociado no proviene entonces de la cuantización de un
momento angular clásico y se conoce como momento angular intrı́nseco o espı́n.

15.4. Evidencia experimental del momento angular intrı́nseco del electrón


Existen numerosas evidencias experimentales de la existencia del espı́n en los electrones. En particular, las
propiedades magnéticas de muchas sustancias requieren tener en cuenta esta propiedad. A manera de ejemplo, la
explicación del ferromagnetismo requiere el espı́n del electrón como componente esencial.
En esta sección solo citaremos dos propiedades a nivel atómico que evidencian la existencia de un momento
angular intrı́nseco del electrón: La estructura fina de las lı́neas espectrales atómicas y el efecto Zeeman anómalo

15.4.1. Estructura fina de las lı́neas espectrales


La teorı́a del átomo de Hidrógeno desarrollada en el capı́tulo 13 consideró al electrón como una partı́cula
puntual cuyo estado se puede describir con una función de onda espacial ϕ (x, y, z). Los resultados obtenidos en
el capı́tulo 13 describen el espectro de emisión y absorción del átomo de Hidrógeno con buena precisión, ası́ como
los niveles de energı́a y las reglas de selección que nos indican las frecuencias de Bohr permitidas en el espectro.
Sin embargo, un estudio de alta resolución del espectro nos revela ciertas diferencias que aunque pequeñas son
observables. Estas diferencias se deben principalmente a dos aspectos: las correcciones relativistas y los efectos de
introducir un campo magnético que interactúe con el átomo.
En lo que respecta a la estructura fina del espectro del átomo de hidrógeno, se observó que cada lı́nea posee
varias componentes, es decir para un nivel de energı́a dado n hay realmente varias energı́as muy cercanas entre sı́.
Por supuesto, las diferencias entre energı́as de un mismo nivel son mucho menores que las diferencias entre energı́as
de niveles distintos, razón por la cual la concordancia con los experimentos de baja resolución era buena. Por lo
tanto, debe introducirse alguna corrección a la teorı́a desarrollada en el capı́tulo 13 para explicar el desdoblamiento
de las lı́neas espectrales allı́ predichas.

15.4.2. Efecto Zeeman anómalo


En la sección 14.3, vimos que cuando un átomo se coloca en un campo magnético uniforme, cada una de las
lı́neas (es decir, cada componente de la estructura fina) se desdobla en ciertas lı́neas equidistantes, donde la brecha
es proporcional al campo magnético y al número cuántico magnético, esto se conoce como efecto Zeeman. Los
desarrollos en la sección 14.3, muestran que este efecto se puede explicar usando el formalismo cuántico hasta
15.5. MOMENTO ANGULAR INTRÍNSECO EN LA CUÁNTICA NO-RELATIVISTA 389

ahora descrito. La explicación teórica se basa en la relación del momento dipolar magnético M con el momento
angular orbital del electrón
µB q~
M= L ; µB = (15.3)
~ 2me
donde µB se conoce como el “magnetón de Bohr”. Sin embargo, la teorı́a presentada en el capı́tulo 14 solo está
en concordancia con el experimento en algunos casos que llamaremos “efecto Zeeman” normal. En otros casos,
sin embargo aparece un “efecto Zeeman anómalo” que resulta particularmente sustancial en átomos con número
atómico impar (en particular, el átomo de Hidrógeno), ya que sus niveles se dividen en un número par de subniveles
en tanto que la teorı́a predice que el número de subniveles debe ser impar ya que es igual a 2l + 1 con l entero. Si
asumimos que en el efecto Zeeman anómalo el desdoblamiento continúa siendo generado por un momento angular
J2 , es necesario que el valor propio j (j + 1) ~2 de este momento angular corresponda a j semi-entero para poder
explicar que el número de subniveles 2j + 1 sea par.
Nótese que un experimento del tipo Stern-Gerlach no serı́a práctico para la medición del momento angular
electrónico debido a que el electrón tiene carga neta (monopolo eléctrico), y la interacción del momento dipolar
magnético del electrón con el campo es mucho más débil que la interacción de Lorentz descrita por qv × B.

15.5. Introducción del momento angular intrı́nseco en el formalismo de la


mecánica cuántica no relativista
Para poder introducir el momento angular intrı́nseco en el formalismo no relativista de la mecanica cuántica
será necesario introducir algunos postulados adicionales. La teorı́a no relativista para incorporar al espı́n fué
desarrollada por Pauli. Más adelante, Dirac desarrolló una teorı́a relativista que desembocó en la llamada ecuación
de Dirac, en la cual el espı́n aparece en forma natural debido a la covarianza de la ecuación con el grupo de
transformaciones de Lorentz. Si bien, el espı́n también se puede deducir de las transformaciones no relativistas del
grupo de Galileo, la aparición del espı́n es mucho más natural en las teorı́as relativistas.
Sin embargo, dado que la teorı́a de Pauli es más simple que la de Dirac y que estamos desarrollando una teorı́a
no relativista, introduciremos el espı́n con los postulados de Pauli.
Antes de Pauli, Uhlenbeck y Goudsmit en 1925 propusieron que el electrón poseı́a un efecto de rotación
que generaba un momento angular intrı́nseco que llamaron espı́n (del inglés spin que significa rotación o giro).
Se postula entonces que existe un momento dipolar magnético MS que esta asociado con el momento angular
intrı́nseco o espı́n (denotado por S) en la forma
µB
MS = 2 S (15.4)
~
que tiene la misma estructura que la relación (15.3) para el momento angular orbital, pero con un factor de
dos, que nos dice que el factor giromagnético de espı́n es dos veces mayor que el factor giromagnético orbital.
Esta relación se impuso por razones estrictamente fenomenológicas, con el fin de ajustar la concordancia teorı́a
experimento.
Más adelante, Pauli estableció una forma de incorporar este momento angular intrı́nseco en el formalismo de
la mecánica cuántica no relativista agregando unos postulados sobre estos observables.
Hasta el momento, hemos cuantizado solo observables que dependen de los observables básicos R y P y que
denominaremos observables orbitales, los cuales actúan en el espacio de estados Er que es isométrico e isomorfo
con el espacio F de las funciones de onda. Similarmente denominamos espacio orbital de estados a Er .
Dentro de los postulados de Pauli, añadiremos a estos observables orbitales un conjunto de observables de
espı́n en la siguiente forma
(I) El operador de espı́n S ≡ (S1 , S2 , S3 ) es un momento angular, es decir cumple con las reglas de conmutación
(10.6)
[Si , Sj ] = i~εijk Sk
390 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

(II) Estos operadores de espı́n actúan en un espacio de estados de espı́n Es , en el cual los observables S2
y S3 constituyen un C.S.C.O. Por tanto, Es es expandido por los estados propios comunes de S2 y S3

S2 |s, ms i = s (s + 1) ~2 |s, ms i ; S3 |s, ms i = ms ~ |s, ms i

de acuerdo con la teorı́a general del momento angular, sabemos que s debe ser entero o semientero y que ms toma
todos los valores incluı́dos entre −s y s en saltos de unidad. Sabemos también que ms es entero (semi-entero) si
y solo si s es entero (semi-entero).
III) Una partı́cula dada está caracterizada por un valor único de espı́n s y diremos que esta partı́cula tiene
espı́n s.
Puesto que {|s, ms i} con s fijo es una base para el espacio de estados de espı́n Es , dicho espacio es de dimensión
finita 2s + 1. Nótese además que todos los elementos de Es son estados propios de S2 con el mismo valor propio
s (s + 1) ~2 .
IV) El espacio de estados E de una partı́cula es el producto tensorial4 de Er con Es

E = Er ⊗ Es

consecuentemente, todos los observables de espı́n conmutan con todos los observables orbitales. Además excepto
para s = 0, esto implica que para la caracterización del estado de una partı́cula no será suficiente especificar un
ket de Er . Por ejemplo, los observables X1 , X2 , X3 constituyen un C.S.C.O. en Er pero no en E, para formar un
C.S.C.O. en E debemos agregar un C.S.C.O. del espacio Es , por ejemplo S2 y algún Si (usualmente S3 ).
Adicionalmente, de las propiedades del producto tensorial, el producto tensorial de los elementos de una base
{|ϕn i} en Er con los elementos de una base {χi } en Es será una base de E = Er ⊗ Es

{|ϕn , χi i} ≡ {|ϕn i ⊗ |χi i}

Esto implica que todo estado de una partı́cula es una combinación lineal de estos productos tensoriales
XX XX
|ψi = cn,i |ϕn , χi i = cn,i |ϕn i ⊗ |χi i ; cn,i = hϕn , χi |ψi
n i n i

debemos recordar sin embargo, que no todo estado |ψi ∈ E proviene del producto tensorial de un estado |ϕi ∈ Er
con un estado |χi ∈ Es . Es decir que la relación

|ψi = |ϕi ⊗ |χi ; |ϕi ∈ Er ; |χi ∈ Es ; |ψi ∈ E (15.5)

no es válida en general. Sin embargo, cuando la relación (15.5) es válida para un cierto |ψi es claro que
XX
|ψi = cn,i |ϕn , χi i ; cn,i = hϕn |ϕi hχi |χi
n i

Estos postulados conciernen a una teorı́a general de espı́n. El siguiente postulado está dirigido más especifica-
mente al espı́n del electrón
(V) El electrón es una partı́cula de espı́n 1/2 (s = 1/2) y su momento dipolar magnético intrı́nseco está dado
por
µB µB
MS = (2s + 1) S=2 S
~ ~
que coincide con (15.4).
Adicionalmente, los constituyentes nucleares (protones y neutrones) también son partı́culas de espı́n 1/2 aunque
su factor giromagnético es diferente al del electrón. También existen partı́culas de espı́n 0, 1/2, 1, 3/2, 2, ...
A priori podrı́amos estar tentados a pensar que el espı́n es un efecto del tamaño del electrón que genera la
posibilidad de que esta partı́cula produzca rotaciones. En tal caso, además de los observables de posición (del
4
Para detalles sobre productos tensoriales ver sección 1.32, page 70.
15.6. PROPIEDADES DE UN MOMENTO ANGULAR 1/2 391

centro de masa del electrón), será necesario añadir tres observables asociados a la rotación (por ejemplo una
cuantización adecuada de los ángulos de Euler). Sin embargo, las rotaciones espaciales deben cumplir relaciones
de periodicidad similares a las que se imponen para los armónicos esféricos, lo cual nos exige que s sea entero.
La presencia de espı́n semientero indica que este observable no tiene un origen rotacional, ni puede provenir de la
cuantización de un momento angular clásico que sea función exclusiva de R y P. En el presente tratamiento, el
electrón continúa siendo una partı́cula puntual y el espı́n no tiene análogo clásico.

15.6. Propiedades de un momento angular 1/2


Puesto que los electrones ası́ como los nucleones son partı́cula de espı́n 1/2, el espacio de estados Es=1/2 merece
especial atención. En esta sección nos ocuparemos de estudiar solo el espacio E1/2 y en el siguiente nos ocuparemos
de caracterizar el espacio de estados completo E = E 1/2 ⊗ Er
El espacio de estados E1/2 es de dimensión dos. Los autoestados comunes de S2 y S3 , que conforman una base
ortonormal en E1/2 están dados por
     
1 1 1
s = 1 , ms = 1 , s = 1 , ms = − 1
≡ ,
, , −
1
2 2 2 2 2 2 2 2

Simplificaremos la notación para estos autoestados comunes de S2 y S3 en la forma


 
1 1 1 1
,
2 2 ≡ |+i ; 2 , − 2 ≡ |−i

es común referirse a los autoestados |±i, como estado con espı́n “arriba” y “abajo” respectivamente5 . Es claro que
 
1 1 1
S2 |±i = + 1 ~2 |±i ; S3 |±i = ± ~ |±i
2 2 2
3 2 1
S2 |±i = ~ |±i ; S3 |±i = ± ~ |±i (15.6)
4 2
con relaciones de ortonormalidad y completez

h+ |+i = h− |−i = 1 ; h+ |−i = 0 ; |+i h+| + |−i h−| = Is (15.7)

el estado más general de espı́n es entonces una combinación lineal de esta base

|χi = c+ |+i + c− |−i (15.8)

siendo c± números complejos. Dado que ambos estados |±i son autoestados de S2 con el mismo autovalor, cualquier
combinación lineal de ellos también lo es. Por tanto, todos los estados de Es son autoestados de S2 con el mismo
valor propio (3/4) ~2 , esto implica que S2 es proporcional al operador identidad de Es
3
S2 = ~2 Is (15.9)
4
definiendo los operadores escalera Ec. (10.13), tenemos

S± = S1 ± iS2 (15.10)

Invirtiendo la relaciones (15.10) escribimos


S+ + S− S+ − S−
S1 = ; S2 = (15.11)
2 2i
5
Este es por supuesto un abuso del lenguaje, ya que ambos estados poseen el mismo espı́n y se diferencian solo en su momento
magnético intrı́nseco.
392 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

La acción de los operadores S± sobre los vectores base está dada por las Ecs. (10.47) con j = s = 1/2

S+ |+i = S− |−i = 0 ; S+ |−i = ~ |+i ; S− |+i = ~ |−i (15.12)

Los operadores Si , S2 , S± poseen el álgebra de cualquier momento angular Ecs. (10.14-10.17). Sin embargo,
hay algunas propiedades algebráicas adicionales propias de j = s = 1/2. En lo que sigue tomaremos j = s = 1/2.
Las expresiones (15.11) junto con (15.12) nos permiten demostrar ciertas propiedades de los Si y de S± .
Calculemos primero S12 , S22 , S1 S2 , S2 S1
1 2  1 2 
S12 = S+ + S− 2
+ S+ S− + S− S+ ; S22 = − S+ + S− 2
− S+ S− − S− S+ (15.13)
4 4
1 2 2
 1 2 2

S1 S2 = S+ − S+ S− + S− S+ − S− ; S2 S1 = S+ + S+ S− − S− S+ − S−
4i 4i
S+2 − [S , S ] − S 2 S 2 + [S , S ] − S 2
+ − − + −
S1 S2 = ; S2 S1 = + −
4i 4i
S+2 − 2~S − S 2 S 2 + 2~S3 − S− 2
3 −
S1 S2 = ; S2 S1 = + (15.14)
4i 4i
donde hemos usado (10.16). Similarmente podemos calcular los otros productos
1 1
S1 S3 = (S+ S3 + S− S3 ) ; S3 S1 = (S3 S+ + S3 S− ) (15.15)
2 2
1 1
S2 S3 = (S+ S3 − S− S3 ) ; S3 S1 = (S3 S+ − S3 S− ) (15.16)
2i 2i
un estado arbitrario de Es está dado por (15.8). Por tanto la acción de los operadores S± sobre un estado arbitrario
de Es se obtiene combinando (15.12) con (15.8)
2 2 2
S+ |χi = S+ [c+ |+i + c− |−i] = c− S+ |−i = ~c− S+ |+i = 0
2 2 2
S− |χi = S− [c+ |+i + c− |−i] = c+ S− |+i = ~c+ S− |−i = 0
S+ S− |χi = S+ S− [c+ |+i + c− |−i] = c+ S+ S− |+i = ~c+ S+ |−i = ~2 c+ |+i = ~2 P+ |χi
S− S+ |χi = S− S+ [c+ |+i + c− |−i] = c− S− S+ |−i = ~c− S− |+i = ~2 c− |−i = ~2 P− |χi
(S+ S− + S− S+ ) |χi = ~2 [P+ + P− ] |χi = ~2 |χi

y como |χi es arbitrario, se obtiene


2 2
S+ = S− = 0 ; S+ S− = ~2 P+ ; S− S+ = ~2 P− ; (S+ S− + S− S+ ) = ~2 Is (15.17)

donde hemos definido los proyectores P± de modo que

Es = E+ ⊕ E− ; |χi = |χi+ + |χi− ; |χi± ∈ E± , |χi ∈ Es


P± |χi = |χi± = c± |±i

usando (15.17) en (15.13) se obtiene


1 2  1
S12 = S+ + S−2
+ S+ S− + S− S+ = ~2 Is
4 4
1 2  1 2
S22 2
= − S + + S − − S + S − − S − S + = ~ Is
4 4
3 1 1 1
S32 = S2 − S12 − S22 = ~2 Is − ~2 Is − ~2 Is = ~2 Is
4 4 4 4
2 2 2 1 2
⇒ S 1 = S 2 = S 3 = ~ Is (15.18)
4
15.6. PROPIEDADES DE UN MOMENTO ANGULAR 1/2 393

Ahora utilizando (15.17) en (15.14) se obtiene


i 2 2
 ~ i 2 2
 ~
S1 S2 = − S+ − 2~S3 − S− = i S3 ; S2 S1 = − S+ + 2~S3 − S− = −i S3
4 2 4 2
i~
⇒ S1 S2 + S2 S1 = 0 ; S1 S2 = S3 (15.19)
2
empleando (15.12) en (15.15) tenemos
1 1
S1 S3 |χi = (S+ S3 + S− S3 ) [c+ |+i + c− |−i] = (S+ + S− ) [c+ S3 |+i + c− S3 |−i]
2 2
~ ~c+ ~c−
= (S+ + S− ) [c+ |+i − c− |−i] = (S+ + S− ) |+i − (S+ + S− ) |−i
4 4 4
~2 c+ ~2 c−
= |−i − |+i
4 4
~2
S1 S3 |χi = [c+ |−i − c− |+i] (15.20)
4
1 c+ c−
S3 S1 |χi = (S3 S+ + S3 S− ) [c+ |+i + c− |−i] = (S3 S+ + S3 S− ) |+i + (S3 S+ + S3 S− ) |−i
2 2 2
~c+ ~c− ~2 c+ ~2 c− ~2
= S3 |−i + S3 |+i = − |−i + |+i = − [c+ |−i − c− |+i]
2 2 4 4 4
~2
S3 S1 |χi = − [c+ |−i − c− |+i] (15.21)
4
comparando (15.20) con (15.21) teniendo en cuenta que |χi es arbitrario se obtiene
S1 S3 + S3 S1 = 0
ahora miremos la acción de S2 sobre |χi
S+ − S− S+ − S− S+ − S− ~ ~
S2 |χi = [c+ |+i + c− |−i] = c+ |+i + c− |−i = −c+ |−i + c− |+i
2i 2i 2i 2i 2i
i~
S2 |χi = [c+ |−i − c− |+i] (15.22)
2
comparando (15.22) con (15.21) resulta
i~
S3 S1 = S2 (15.23)
2
similarmente se puede demostrar que
i~
S2 S3 + S3 S2 = 0 ; S2 S3 = S1 (15.24)
2

15.6.1. Resumen de resultados


Los observables Si , S2 , S± poseen el álgebra de un momento angular Ecs. (10.14-10.17). Pero hay algunas
propiedades algebráicas adicionales especı́ficas de j = s = 1/2. Definiendo el anticonmutador de dos operadores
como
{A, B} ≡ AB + BA
Este álgebra especı́fica está dada por
2 2
S+ = S− = 0 ; S+ S− = ~2 P+ ; S− S+ = ~2 P− ; {S+ , S− } = ~2 Is (15.25)
1 i~
S12 = S22 = S32 = ~2 Is ; Si Sj = εijk Sk ; {Si , Sj } = 0 ; i 6= j (15.26)
4 2
vale la pena enfatizar que la última de las relaciones (15.26) nos dice que para s = 1/2, los operadores de espı́n Si
son anticonmutantes.
394 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

15.6.2. Representación matricial de los observables de espı́n


Un operador que actúa en Es se puede representar en la base {|+i , |−i} con una matriz 2 × 2. En particular,
usando (15.6, 15.10, 15.12) se puede construı́r la representación matricial de los S± , Si y S2 (ver también las Ecs.
10.60, 10.61 Pag. 324). Esta representación matricial se puede resumir en la forma
     
~ 0 1 0 −i 1 0
(S) = σ ; σ1 = ; σ2 = ; σ3 =
2 1 0 i 0 0 −1
   
2
 3 2 3 2 0 1 0 0
S = ~ Is ≡ ~ σ0 ; (S+ ) = ~ ≡ ~σ+ ; (S− ) = ~ ≡ ~σ−
4 4 0 0 1 0

puesto que las matrices (~/2) σi y las matrices ~σ± son representaciones de los operadores Si y S± deben cumplir
el álgebra de éstos operadores Ecs. (15.25, 15.26)

[σi , σj ] = 2iεijk σk ; σ12 = σ22 = σ32 = 12×2


{σi , σj } = 0 ; σi σj = iεijk σk f or i 6= j
2 2
σ+ = σ− = 0 ; σ+ σ− = P+ ; σ− σ+ = P− ; σ+ σ− + σ− σ+ = Is (15.27)

estas relaciones se pueden verificar explı́citamente. También se puede verificar explı́citamente que

T rσi = 0 ; det (σi ) = −1 ; i = 1, 2, 3 (15.28)

Las Ecs. (15.28) son independientes de la base ya que la traza y el determinante son invariantes ante transforma-
ciones de similaridad. Podemos verificar también la siguiente identidad

(~σ ·A) (~σ ·B) = 12×2 (A · B) + i~σ · (A × B) ; ~σ ≡ (σ1 , σ2 , σ3 ) (15.29)

donde A y B son vectores arbitrarios u operadores vectoriales cuyas tres componentes conmutan con las compo-
nentes de S. No es necesario que A y B conmuten, pero si no conmutan, el orden de aparición de los operadores
en (15.29) debe ser estricto. La Ec. (15.29) se puede demostrar usando las propiedades (15.27) y la hipótesis de
que las componentes de A y B conmutan con las σi . Usaremos sı́mbolos explı́citos de sumatoria para efectos de
claridad
XX X XX
(~σ ·A) (~σ ·B) = (σm Am ) (σn Bn ) = (σm Am ) (σm Bm ) + (σm Am ) (σn Bn )
m n m m n6=m
" #
X XX X XX X
2
= σm Am Bm + σm σn Am Bn = 12×2 Am Bm + iεmnk σk Am Bn
m m n6=m m m n6=m k
X X XX X
= 12×2 Am Bm + i σk εmnk Am Bn = 12×2 (A · B) + i σk (A × B)k
m k m n6=m k
(~σ ·A) (~σ ·B) = 12×2 (A · B) + i~σ · (A × B)

Finalmente, si definimos el conjunto de matrices

σµ ≡ (σ0 , ~σ ) = (I, σ1 , σ2 , σ3 ) (15.30)

cualquier matriz compleja 2 × 2 se puede escribir como una combinación lineal compleja de estas cuatro matrices

M2×2 = cµ σµ ; µ = 0, 1, 2, 3

sumando sobre ı́ndices repetidos. Esto se debe a que las cuatro matrices σµ son linealmente independientes y
se necesitan cuatro elementos (complejos) para determinar una matriz compleja 2 × 2. Por lo tanto, las cuatro
15.7. DESCRIPCIÓN NO-RELATIVISTA DE PARTÍCULAS CON ESPÍN 1/2 395

matrices σµ forman una base para el espacio vectorial complejo de todas las matrices complejas 2 × 2. Para ver
la independencia lineal de las matrices, basta con escribir cada matriz compleja 2 × 2 como si fuera un vector
complejo de cuatro componentes
   
  1   0
1 0  0  0 1  1 
σ0 = ↔ 
 0  ; σ1 = 1 0 ↔  1 
 
0 1
1 0
   
  0   1
0 −i  −i   0 
σ2 = ↔  ; σ3 = 1 0 ↔ 
i 0  i  0 −1  0 
0 −1

y calculando el determinante de la matriz compleja 4 × 4 que se forma con los vectores comlumna
 
1 0 0 1
 0 1 −i 0 
det 
 0 1
 = −4i 6= 0
i 0 
1 0 0 −1

de modo que los vectores columna (y por tanto las matrices complejas equivalentes) son linealmente independientes,
de hecho son ortogonales, aunque no están normalizados.

15.7. Descripción no relativista completa de operadores y estados de partı́cu-


las con espı́n 1/2
Hemos visto como se describen los estados y operadores de Er y de Es por aparte. Pero la descripción completa
del sistema cuántico requiere construı́r un único espacio de estados para el formalismo. El espacio de estados
completo E para una partı́cula de espı́n 1/2, se construye como el producto tensorial de Er y Es

E = Er ⊗ Es

15.7.1. Construcción de los estados


Si tenemos un operador definido en Er podemos extenderlo al espacio E mediante el producto tensorial con la
identidad de Es . Si A es un operador que transforma sobre Er podemos extenderlo a un operador A′ que transforma
sobre E en la forma
A′ ≡ A ⊗ Is
similarmente un operador B de Es se puede extender a un operador sobre E con la prescripción

B ′ = Ir ⊗ B

Sin embargo, no cambiaremos la notación para estas extensiones y las seguiremos llamando A y B. En particular,
podemos obtener un C.S.C.O. en E como la yuxtaposición de un C.S.C.O. en Er con un C.S.C.O. en Es . Por
ejemplo, en Es el conjunto S2 , S3 forma un C.S.C.O. a esto le podemos añadir un C.S.C.O. de Er para obtener un
C.S.C.O. de E. Como ejemplos tenemos
  
X1 , X2 , X3 , S2 , S3 ; P1 , P2 , P3 , S2 , S3 ; L2 , L3 , H, S2 , S3 (15.31)

puesto que todos los kets de E son kets propios de S2 , este operador podrı́a ser omitido y aún tendrı́amos un
C.S.C.O. en E. Esto se debe a que estrictamente S3 por sı́ solo ya forma un C.S.C.O. en Es . Sin embargo, es usual
396 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

dejar S2 dentro del C.S.C.O. ya que si bien es deseable que éste contenga el mı́nimo de operadores posible, no es
obligatorio que ası́ sea.
Vamos a escribir las relaciones con el primero de los C.S.C.O. en la Ec. (15.31). Una base en E se obtiene como
el producto tensorial de las bases en cada espacio

|r, εi ≡ |x1 , x2 , x3 , εi = |ri ⊗ |εi , |εi ∈ Es

las componentes xi varı́an entre −∞ e ∞ y ε toma los valores +1 o −1 (ı́ndice


 discreto que realmente significa
ms = ±1/2). Por definición {|r, εi} es una base de autovectores comunes a X1 , X2 , X3 , S2 , S3 en E

3 ~
Xi |r, εi = xi |r, εi ; S2 |r, εi = ~2 |r, εi ; S3 |r, εi = ε |r, εi ; ε ≡ ±1
4 2
puesto que esto es un C.S.C.O. cada |r, εi es único salvo factores constantes. Dado que {|ri} es ortonormal en
Er en el sentido extendido, y {|εi} es ortonormal en Es (ver Ecs. 15.7) entonces {|r, εi} es ortonormal en E en el
sentido extendido


′ 
hr′ ε′ |r, εi = r ⊗ ε (|ri ⊗ |εi) = hr′ |ri hε′ |εi

hr′ ε′ |r, εi = δ r − r′ δεε′

la relación de completez que nos dice que {|r, εi} es una base en E es
XZ Z Z
d3 r |r, εi hr, ε| = d3 r |r, +i hr, +| + d3 r |r, −i hr, −| = IE
ε

por tanto, todo estado |ψi ∈ E se puede expandir en {|r, εi}


XZ
|ψi = IE |ψi = d3 r |r, εi hr, ε| ψi
ε
XZ
|ψi = d3 r ψε (r) |r, εi , ψε (r) ≡ hr, ε| ψi (15.32)
ε

donde ψε (r) son las coordenadas o componentes (transformadas de Fourier) en la base {|r, εi}. Estas coordenadas
o componentes, dependen de tres ı́ndices contı́nuos r y del ı́ndice discreto ε. Por tanto, una función de onda en E
se especifica a través de dos funciones de onda espaciales correspondientes a los dos estados de espı́n

ψ (r) = ψ+ (r) + ψ− (r) (15.33)


ψ± (r) ≡ hr, ± |ψi (15.34)

como ψ+ (r) y ψ− (r) son estados ortogonales, es usual escribirlos en forma de un arreglo de dos componentes
conocido como espinor  
ψ+ (r)
[ψ] (r) = (15.35)
ψ− (r)
el bra hψ| asociado al espacio dual E ∗ se obtiene con el hermı́tico conjugado de la Ec. (15.32)
XZ
hψ| = d3 r ψε∗ (r) hr, ε|
ε

conjugando las Ecs. (15.33, 15.34) vemos que

ψ ∗ (r) = ψ+
∗ ∗
(r) + ψ− (r) ∗
; ψ± (r) ≡ hψ |r, ±i
15.7. DESCRIPCIÓN NO-RELATIVISTA DE PARTÍCULAS CON ESPÍN 1/2 397

∗ (r) que se pueden escribir en forma de espinor como


nos dice que el bra hψ| está representado por dos funciones ψ±
el adjunto de (15.35) 
[ψ]† (r) = ψ+ ∗ (r) ψ ∗ (r)
− (15.36)
el producto escalar entre dos estados |ψi y |ϕi, se puede escribir como
" #
XZ Z X
3 3
hψ |ϕi = hψ| IE |ϕi = d r hψ |r, εi hr, ε| ϕi = d r hψ |r, εi hr, ε| ϕi
ε ε
Z
hψ |ϕi = d3 r [hψ |r, +i hr, +| ϕi + hψ |r, −i hr, −| ϕi]
Z
 ∗ 
hψ |ϕi = d3 r ψ+ ∗
(r) ϕ+ (r) + ψ− (r) ϕ− (r)

esto también se puede escribir en la forma


Z   
3 ∗ ∗
 ϕ+ (r)
hψ |ϕi = d r ψ+ (r) ψ− (r)
ϕ− (r)
Z
hψ |ϕi = d3 r [ψ]† (r) [ϕ] (r)

donde hemos usado (15.35, 15.36). Esta expresión se asemeja a la que se obtiene para el producto interno de dos kets
en Er , pero teniendo en cuenta que en vez de funciones de onda escalares tenemos espinores de dos componentes, de
modo que se debe realizar la multiplicación matricial antes de integrar en el espacio. En particular la normalización
queda en la forma
Z Z h i
hψ |ψi = |ψ|2 = d3 r [ψ]† (r) [ψ] (r) = d3 r |ψ+ (r)|2 + |ψ− (r)|2 = 1 (15.37)

hemos visto que un vector de E no necesariamente es el producto tensorial de un vector en Er por otro en Es . Sin
embargo, esto es válido para algunos vectores (en particular los vectores base |r, εi), si el vector |ψi en cuestión
es de este tipo
|ψi = |ϕi ⊗ |χi ; |ϕi ∈ Er , |χi ∈ Es
el espinor asociado tendrá una forma simple ya que
Z
|ϕi = d3 r ϕ (r) |ri ; |χi = c+ |+i + c− |−i

usando las Ecs. (15.33, 15.34) se tiene que


ψ± (r) ≡ hr, ± |ψi = [hr| ⊗ h±|] [|ϕi ⊗ |χi] = hr |ϕi h± |χi = ϕ (r) h±| [c+ |+i + c− |−i]
ψ± (r) = c± ϕ (r)
y los espinores dados en (15.35, 15.36) quedan
   
c+ ϕ (r) c+
[ψ] (r) = = ϕ (r)
c− ϕ (r) c−

[ψ]† (r) = ϕ∗ (r) c∗+ c∗−
si en particular |χi = |+i entonces c+ = 1, c− = 0. Resultando
|ψi = |ϕi ⊗ |+i ⇒ ψ+ (r) ≡ hr |ϕi h+ |+i = ϕ (r) ; ψ− (r) ≡ hr |ϕi h− |+i = 0
 
1 
[ψ] (r) = ϕ (r) ; [ψ]† (r) = ϕ∗ (r) 1 0
0
similarmente, si |χi = |−i  
0 
[ψ] (r) = ϕ (r) ; [ψ]† (r) = ϕ∗ (r) 0 1
1
398 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

15.7.2. Construcción de operadores


Veremos como se puede caracterizar la acción de los operadores en E. Para ello trabajaremos primero operadores
originalmente definidos en Es , después operadores definidos en Er y finalmente operadores mixtos.

Operadores espinoriales
Asumamos que el operador As está definido originalmente solo por su acción sobre Es

As |εi = ε′ ; |εi , ε′ ∈ Es
Su extensión como operador sobre E se escribe
A′s ≡ As ⊗ Ir
definimos la acción del operador extendido en la forma

A′s |ψi = ψ ′ ; |ψi , ψ ′ ∈ E
expandiendo |ψi en la base |r, εi
XZ
|ψi = d3 r ψε (r) |r, εi
ε
XZ  
A′s |ψi = d3 r ψε (r) A′s |r, εi
ε

la acción de A′s sobre |r, εi es muy clara, ya que



A′s |r, εi = (As ⊗ Ir ) [|ri ⊗ |εi] = (Ir |ri) ⊗ [As |εi] = |ri ⊗ ε′

A′s |r, εi = r,ε′
XZ

As |ψi = d3 r ψε (r) r,ε′
ε

la extensión del operador solo afectará a la parte espinorial de |r, εi y la transformará de la misma forma que lo
hace el operador original, en tanto que la parte espacial permanece intacta. Estos operadores se pueden representar
como matrices 2×2 y de aquı́ en adelante usamos A para denotar al operador extendido6 . Tomemos como ejemplo
a S+ , este operador actuando sobre un estado arbitrario |ψi de E nos da
XZ Z
S+ |ψi = d r ψε (r) [S+ |r,εi] = d3 r {ψ+ (r) [S+ |r,+i] + ψ− (r) [S+ |r,−i]}
3


S+ |ψi = d3 r ψ− (r) [S+ |r,−i]

donde hemos usado que S+ |+i = 0 y por tanto S+ |r,+i = 0. Y como S+ |−i = ~ |+i se tiene finalmente
Z

ψ ≡ S+ |ψi = ~ d3 r ψ− (r) |r,+i

las componentes espinoriales de |ψ ′ i son entonces


Z Z Z
′   ′ 
ψ+ (r) ≡ hr, + ψ = hr, +| ~ d r ψ− r r ,+ = ~ d r ψ− r hr, + r ,+ = ~ d3 r′ ψ− r′ hr r′ h+ |+i
′ 3 ′ ′ ′ 3 ′ ′
Z
 
= ~ d3 r′ ψ− r′ δ r − r′ = ~ψ− (r)

6
Por supuesto la representación matricial de A′s es estrictamente de dimensión infinita, pero dado que A′s = As ⊗ 1r , se tiene que
la parte no trivial de la matriz es de dimensión finita.
15.7. DESCRIPCIÓN NO-RELATIVISTA DE PARTÍCULAS CON ESPÍN 1/2 399

′ (r), con lo cual resulta


de manera similar podemos obtener ψ−

ψ+′
(r) ≡ hr, + ψ ′ = ~ψ− (r) ; ψ− ′
(r) ≡ hr, − ψ ′ = 0
 
 ′ ψ− (r)
ψ (r) = ~
0
pero esto también se puede escribir como
  
 ′ 0 1 ψ+ (r)
ψ (r) = ~
0 0 ψ− (r)
 ′
ψ (r) = ~σ+ [ψ] (r)
es decir la misma representación matricial sirve para definir a S+ tanto en Es como en E. ¿Cuál es la diferencia?.
Formalmente, en Es cada elemento de la matriz es un número. En cambio en E cada elemento matricial representa a
un operador que actúa sobre Er , por ejemplo, la matriz σ+ como representación extendida, rigurosamente significa
lo siguiente  
′ 0r Ir
σ+ =
0r 0r
es decir cada elemento matricial representa a los operadores nulo e identidad del espacio Er . No obstante, desde
el punto de vista práctico, esta notación es innecesaria.

Operadores orbitales
El procedimiento es similar. Asumamos Ax que actúa sobre Er , definiendo su extensión y su acción sobre un
ket |ψi de E obtenemos

Ax |ri = r′ ; |ri , r′ ∈ Er

A′x ≡ Ax ⊗ Is ; A′x |r, εi = r′ , ε

XZ
|ψi = d3 r ψε (r) |r, εi
ε
X Z XZ
′  
ψ ≡ A′x |ψi = 3
d r ψε (r) A′x |r, εi = d3 r ψε (r) r′ , ε
Zε ε
′     
ψ ≡ A′x |ψi = d3 r ψ+ (r) A′x |r, +i + ψ− (r) A′x |r, −i

como A′x |r, +i actúa sobre un espacio idéntico a |ri (ya que actúa sobre un subespacio unidimensional de Es ),
podemos escribir Ax |r, +i. Igual ocurre para Ax |r, −i
XZ XZ

ψ+ (r) ≡ hr, + ψ ′ = hr, +| Ax |ψi = hr, +| Ax d3 x ψε (x) |x, εi = d3 x hr, +| Ax ψε (x) |x, εi
ε ε
XZ Z
= 3bx (r) {ψε (x) hr, +| x, εi} =
d xA bx (r) {ψ+ (x) hr, +| x, +i + ψ− (x) hr, +| x, −i}
d xA 3


= bx (r) ψ+ (x) δ (r − x) = A
d3 x A bx (r) ψ+ (r)

bx (r) denota la forma del operador Ax en la base {|ri}, con un procedimiento similar se obtiene ψ−
donde A ′ (r) de

modo que


ψ+ (r) ≡ hr, + ψ ′ = A bx (r) ψ+ (r)


ψ− (r) ≡ hr, − ψ ′ = A bx (r) ψ− (r)
400 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

! 
 ′ bx (r)
A 0 ψ+ (r) h i
ψ (r) = = Abx (r) ⊗ Is [ψ] (r)
0 bx (r)
A ψ− (r)
que nos muestra la forma correcta para la extensión del operador Ax
Por tanto, la representación matricial 2 × 2 del operador es proporcional a la identidad, puesto que no hay
cambio en los estados espinoriales. Los operadores actúan sobre la parte espacial tal como lo hace el operador
original. Tomemos como ejemplo a los operadores X1 , P1

ψε′ (r) = hr, ε| X1 |ψi = x1 ψε (r)


′′ ~ ∂
ψε (r) = hr, ε| P1 |ψi = ψε (r)
i ∂x1
sus representaciones matriciales son
  !

x1 0 ~ ∂x1 0
[X1 ] = ; [P1 ] = ∂
0 x1 i 0 ∂x1

de nuevo cada elemento de la matriz es un operador sobre Er aunque esta vez es un operador no trivial. En este
caso el operador trivial es sobre los espinores y por eso la matriz es proporcional a la identidad7 .

Operadores mixtos
Si un operador es de carácter mixto, será una matriz 2 × 2 no trivial que actúa sobre Es y en donde cada
elemento matricial es un operador no trivial sobre Er . Algunos ejemplos de operadores mixtos que aparecen en
cuántica son L3 S3 , S · P. De acuerdo con la teorı́a de representaciones, las representaciones matriciales deben
manifestar la preservación del producto
  
~ ∂ ~
[L3 S3 ] = [L3 ] [S3 ] = Is Ir σ3
i ∂ϕ 2
" !#   

~ ∂ϕ 0 ~ 1 0
= ∂
i 0 ∂ϕ 2 0 −1
!

~2 ∂ϕ 0
[L3 S3 ] = ∂
2i 0 − ∂ϕ

[S · P] = [S1 P1 ] + [S2 P2 ] + [S3 P3 ] = [S1 ] [P1 ] + [S2 ] [P2 ] + [S3 ] [P3 ]


        
~ ~ ∂ ~ ~ ∂ ~ ~ ∂
= σ1 + σ2 + σ3
2 i ∂x1 2 i ∂x2 2 i ∂x3
2
 
~ ∂ ∂ ∂
= σ1 + σ2 + σ3
2i ∂x1 ∂x2 ∂x3

      
~2 0 1 ∂ 0 −i ∂ 1 0 ∂
[S · P] = + +
2i 1 0 ∂x1 i 0 ∂x2 0 −1 ∂x3
" ! ! !#

~2 0 ∂x1 0 −i ∂x∂ 2 ∂
∂x 0
[S · P] = ∂ + + 3
2i ∂x1 0 i ∂x∂ 2 0 0 − ∂x∂ 3
!
∂ ∂
~2 ∂x3 ∂x1 − i ∂x∂ 2
[S · P] = ∂
2i ∂x1 + i ∂x∂ 2 − ∂x∂ 3
7
Para los operadores espinoriales, son los elementos de la matriz 2 × 2 los que son proporcionales a la identidad.
15.8. REPRESENTACIÓN EN LA BASE |P, εi 401

vale enfatizar que por construcción, operadores de espacios distintos conmutan.


En sı́ntesis, para un operador arbitrario A de E tal que

A |ψi = ψ ′

podemos asociarle una matriz 2 × 2 en la forma


 ′
ψ (r) = [A] [ψ] (r)

donde la estructura de la matriz representa la transformación sobre el espacio de espines y cada elemento de la
matriz representa un operador en el espacio de coordenadas. Un elemento matricial hψ| A |ϕi estará dado por
Z
hψ| A |ϕi = d3 r [ψ]† (r) [A] [ϕ] (r)

expresión similar a la que se encuentra para el espacio de coordenadas, pero teniendo en cuenta que en vez de
funciones de onda escalares aquı́ tenemos espinores de dos componentes. Los productos matriciales deben hacerse
para entonces evaluar la integral. Esta representación solo se usará cuando sea particularmente simple. En general
al igual que en Er suele ser mejor trabajar con los operadores y estados en abstracto hasta donde sea posible.

15.8. Representación en la base |p, εi


Un tratamiento similar se puede desarrollar si escojemos los C.S.C.O como P1 , P2 , P3 , S2 , S3 . En tal caso la
base es {|p, εi} el producto escalar con la base {|r, εi} nos da
p·r
ei ~
hr, ε p, ε′ = hr |pi hε ε′ = δεε′ (15.38)
(2π~)3/2

a cada vector |ψi se le asocia un espinor de dos componentes


 
  ψ̄+ (p)
ψ̄ (p) ≡ ; ψ̄± (p) = hp, ± |ψi
ψ̄− (p)

de acuerdo con (15.38) ψ̄± (p) es la transformada de Fourier de ψ± (r).


XZ

ψ̄ε (p) = hp, ε |ψi = d3 r hp, ε r, ε′ r, ε′ ψi
ε′
XZ e−i p·r
~
ψ̄ε (p) = d3 r δεε′ ψε′ (r)
ε′ (2π~)3/2
Z
1 p·r
ψ̄ε (p) = 3/2
d3 r e−i ~ ψε (r)
(2π~)

los operadores también se representan por matrices 2×2. Cuando el operador original es espinorial la representación
matricial es idéntica a la que se encontró para la base {|r, εi}.

15.9. Cálculos de probabilidad para estados de espı́n 1/2


Aplicaremos los postulados de la mecánica cuántica para los observables sobre el espacio de estados E. Imagi-
nemos que queremos medir simultáneamente la posición y la componente del espı́n de un partı́cula de espı́n 1/2 a
lo largo de X3 . Puesto que R, S3 constituyen un C.S.C.O., hay un único estado asociado a cada medida de estos
402 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO

observables, x1 , x2 , x3 , ± ~2 . La probabilidad dP (r, +) de que la partı́cula se encuentre dentro de un volumen d3 r


alrededor del punto r con su espı́n “arriba” (que es una forma de designar el caso en el cual la componente del
espı́n a lo largo de X3 es +~/2), está dada por

dP (r, +) = |hr, +| ψi|2 d3 r = |ψ+ (r)|2 d3 r

donde hemos asumido que la función de onda está normalizada en la forma (15.37). Similarmente la probabilidad de
que la partı́cula se encuentre dentro de un volumen d3 r centrado en r con su espı́n “abajo” (es decir con la
componente del espı́n a lo largo de X3 igual a −~/2), está dada por

dP (r, −) = |hr, −| ψi|2 d3 r = |ψ− (r)|2 d3 r

Si lo que queremos es medir la componente del espı́n a lo largo de X1 , debemos tener en cuenta que los autoestados
(normalizados) de S1 vienen dados por
1
|±iS1 = √ [|r, +i ± |r, −i] (15.39)
2
siendo |±i los autoestados de S3 . Podemos verificar que estos son autoestados de S1 en la siguiente forma
1 1 1
S1 |±iS1 = √ S1 [|r, +i ± |r, −i] = √ (S+ + S− ) [|r, +i ± |r, −i] = √ [S− |r, +i ± S+ |r, −i]
2 2 2 2 2
~ ~ ~
S1 |±iS1 = √ [|r, −i ± |r, +i] = ± √ [|r, +i ± |r, −i] = ± |±iS1
2 2 2 2 2

La probabilidad de encontrar al electrón en el volumen d3 r centrado en r y con componente positiva de espı́n a lo


largo de X1 es
2
1 1
dPS1 (r, +) = |S1 hr, +| ψi| d r = √ [hr, +| + hr, −|] |ψi = |[hr, +| ψi + hr, −| ψi]|2
2 3
2 2
1
dPS1 (r, +) = |ψ+ (r) + ψ− (r)|2 d3 r (15.40)
2
Por supuesto, podemos estar interesados en calcular la probabilidad de que la partı́cula posea un momento
centrado en p en un volumen (de momento) d3 p y con componente de espı́n a lo largo de X3 de ±~/2. Para ello
usamos las componentes del estado |ψi en la base {|p, εi}, que nos da las transformadas de Fourier de ψ̄± (r)

ψ̄± (p) ≡ hp, ± |ψi

la probabilidad ya mencionada será entonces


2
dP (p, ±) = |hp, ± |ψi|2 d3 p = ψ̄± (p) d3 p

Por otro lado, podemos estar interesados en hacer mediciones incompletas en el sentido de que los observables
asociados a las medidas no formen un C.S.C.O. es decir que las medidas no conducen a determinar el estado de
manera única. Cuando las medidas son incompletas hay varios estados ortogonales asociados al mismo resultado
y debe sumarse los cuadrados de los módulos de las amplitudes correspondientes.
Como ejemplo, si no nos interesa conocer el espı́n, la probabilidad dP (r) de encontrar a la partı́cula en el
volumen d3 r centrado en r es igual a
n o n o
dP (r) = |hr, +| ψi|2 + |hr, −| ψi|2 d3 r = |ψ+ (r)|2 + |ψ− (r)|2 d3 r

dado que los dos estados ortogonales |r, +i y |r, −i están asociados al mismo resultado r donde sus amplitudes de
probabilidad son ψ+ (r) y ψ− (r).
15.9. CÁLCULOS DE PROBABILIDAD PARA ESTADOS DE ESPÍN 1/2 403

Ahora supongamos que queremos saber la probabilidad de que la partı́cula tenga componente S3 igual a +~/2,
pero sin importar su ubicación ni el valor de las demás variables orbitales. Hay un conjunto infinito de estados
ortogonales {|r, +i} asociados a este resultado, cuyas probabilidades deben ser sumadas
Z Z
P+ = d3 r |hr, +| ψi|2 = d3 r |ψ+ (r)|2

si por ejemplo queremos encontrar la probabilidad de obtener un espı́n +~/2 a lo largo de X1 , debemos integrar
la Ec. (15.40) en todo el espacio.
Capı́tulo 16

Adición de momentos angulares

16.1. El problema clásico de la adición del momento angular


Cuando tenemos un sistema de partı́culas el momento angular total del sistema es la suma de los momentos
angulares individuales
Xn
L= ri × pi (16.1)
i=1
cuando no hay fuerzas externas, el torque externo sobre el sistema es cero, y el momento angular total es constante
de movimiento. Algo similar ocurre cuando el torque neto con respecto a un origen dado es cero, ya que el momento
angular alrededor del mismo origen será constante de movimiento. En el último caso sin embargo, hay que tener
en cuenta que en general al cambiar el origen, el torque puede ser diferente de cero y el momento angular ya no
será constante de movimiento.
Cuando el sistema esté aislado, el momento angular total se conserva, sin embargo no necesariamente se
conservará el momento angular de cada partı́cula, si hay fuerzas internas ellas causarán un cambio en los momentos
angulares individuales, de forma que la suma total sea constante. Solo cuando las partı́culas no son interactuantes
podemos garantizar la conservación de los momentos angulares individuales, ya que en este caso cada partı́cula
forma un sistema aislado.
Otro escenario en donde se conserva el momento angular, es en fuerzas centrales. Si tenemos dos partı́culas no
interactuantes cada una interactuando con el mismo centro de fuerzas (originada por una tercera partı́cula mucho
más masiva que las otras), el momento angular de cada partı́cula se conserva puesto que cada una está sometida
a una fuerza central. Pero si hay una interacciona entre las dos partı́culas, la fuerza neta sobre la partı́cula 1
ya no es en general central, por tanto su momento angular ya no necesariamente es constante de movimiento,
similarmente ocurre para la partı́cula 2. No obstante, si se cumple el principio de acción y reacción en su forma
fuerte, el momento angular total de las dos partı́culas se conserva por la cancelación de los torques internos. En
conclusión, en un sistema aislado de partı́culas interactuantes solo el momento angular total se conserva pero no
los momentos individuales. Veremos que este fenómeno tiene su contrapartida cuántica.

16.2. Momento angular total en mecánica cuántica


16.2.1. Dos partı́culas sin espı́n bajo una interacción central
Trabajaremos el sistema de dos partı́culas sin espı́n en mecánica cuántica. Primero asumiremos que no son
interactuantes. El Hamiltoniano en la base de {|r1 , r2 i} está dado por

H0 = H1 + H2
~2 2 ~2 2
H1 = − ∇1 + V (r1 ) ; H2 = − ∇ + V (r2 ) (16.2)
2µ1 2µ2 2

404
16.2. MOMENTO ANGULAR TOTAL EN MECÁNICA CUÁNTICA 405

donde µi son las masas, V (r) el potencial central al cual están sometidas, y ∇2i indica el Laplaciano tomado con
las coordenadas de la partı́cula i. Del capı́tulo 12 sabemos que L(1) conmuta con H1 , y teniendo en cuenta que
todos los observables relacionados con una partı́cula conmutan con todos los observables relacionados con la otra,
se obtiene h i h i
L(1) , H1 = L(1) , H2 = 0 (16.3)

argumento similar se tiene para L(2) . Estos nos indica que


h i h i
L(1) , H0 = L(2) , H0 = 0

y como L(α) no depende explı́citamente del tiempo, se tiene que cada momento angular es constante de movimiento
por aparte, tal como en el caso clásico. Ahora asumimos que las dos partı́culas interactúan por medio de un
potencial W (|r2 − r1 |) que solo depende de la distancia entre las partı́culas, esto implica por supuesto asumir la
validez de la ley de acción y reacción. La distancia |r2 − r1 | se escribe
r  
(1) (2) (1) (2)
|r2 − r1 | = xi − xi xi − xi (16.4)

suma sobre ı́ndices repetidos, el Hamiltoniano se escribe como

H = H1 + H2 + W (|r2 − r1 |) (16.5)

con Hi dados por (16.2). Las relaciones (16.3) nos dan


h i h i h i
L(1) , H = L(1) , H1 + H2 + W (|r2 − r1 |) = L(1) , W (|r2 − r1 |)

(1)
analicemos por ejemplo la componente L3 , para calcular el conmutador con W debemos aplicar el conmutador
a una función de onda arbitraria ψ (r)
! !
h i ~ ~
(1) (1) ∂ (1) ∂ (1) ∂ (1) ∂
L3 , W ψ (r) = x1 (1)
− x2 (1)
(W ψ) − W x1 (1)
− x2 (1)
ψ
i ∂x2 ∂x1 i ∂x2 ∂x1
! !
~ (1) ∂W (1) ∂W ~ (1) ∂ψ (1) ∂ψ
= x1 (1)
− x2 (1)
ψ+ x1 (1)
− x2 W
i ∂x2 ∂x1 i ∂x2 ∂x1
!
~ (1) ∂ψ (1) ∂ψ
−W x1 (1)
− x2 (1)
i ∂x2 ∂x1
!
~ (1) ∂W (1) ∂W
= x1 (1)
− x2 (1)
ψ (r)
i ∂x ∂x
2 1

y como ψ (r) es arbitraria se concluye que


!
h i ~ ∂W ∂W
(1) (1) (1)
L3 , W (|r2 − r1 |) = x1 (1)
− x2 (1)
i ∂x2 ∂x1

esta expresión no es necesariamente cero, de modo que L(1) no es en general constante de movimiento. Ahora bien,
si definimos el momento angular total L con una expresión análoga al caso clásico Ec. (16.1) tenemos

L = L(1) + L(2)
406 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

obtenemos un operador cuyas tres componentes son constantes de movimiento. Por ejemplo, se vé que
h i
(1) (2)
[L3 , H] = L3 + L3 , H
!
~ (1) ∂W (1) ∂W (2) ∂W (2) ∂W
[L3 , H] = x1 (1)
− x2 (1)
+ x1 (2)
− x2 (2)
(16.6)
i ∂x ∂x ∂x ∂x
2 1 2 1

y puesto que W solo depende de |r2 − r1 | dada por (16.4) tenemos que
r  
(1) (2) (1) (2)
∂ xk − xk xk − xk
∂W ∂W ∂ |r2 − r1 | ∂W
(1)
= =
∂xi ∂ |r2 − r1 | ∂x(1) ∂ |r2 − r1 | ∂xi
(1)
 i     
(1) (2) ∂ (1) (2) (1) (2)
2 xk − xk (1) x k − x k x − x δik
∂W ∂xi ∂W k k
= r   = r
∂ |r2 − r1 | (1) (2) (1) (2) ∂ |r2 − r1 |  (1) (2)

(1) (2)

2 xm − xm xm − xm xm − xm xm − xm
(1) (2)
∂W ∂W xi − xi
(1)
=
∂xi ∂ |r2 − r1 | |r2 − r1 |

(2)
similarmente se calcula ∂W/∂xi se obtiene entonces
(1) (2)
∂W ∂W ∂ |r2 − r1 | ∂W xi − xi
(1)
= =
∂xi ∂ |r2 − r1 | ∂x(1) ∂ |r2 − r1 | |r2 − r1 |
i
(2) (1)
∂W ∂W ∂ |r2 − r1 | ∂W xi − xi
(2)
= (2)
= (16.7)
∂xi ∂ |r2 − r1 | ∂x ∂ |r2 − r1 | |r2 − r1 |
i

reemplazando (16.7) en (16.6), resulta

~ 1 ∂W h    
(1) (1) (2) (1) (1) (2)
[L3 , H] = x1 x2 − x2 − x2 x1 − x1
i |r2 − r1 | ∂ |r2 − r1 |
   i
(2) (2) (1) (2) (2) (1)
+x1 x2 − x2 − x2 x1 − x1

por tanto tenemos que


[L3 , H] = 0
y similarmente para las otras componentes. En consecuencia podemos escribir

[L, H] = 0 ; L ≡ L(1) + L(2) (16.8)

De modo que aunque L(1) y L(2) no son individualmente constantes de movimiento, sı́ lo es su suma L(1) + L(2)
definida como el momento total del sistema, al igual que en el caso clásico.

16.2.2. Una partı́cula con espı́n bajo una interacción central


En lo anterior asumimos que las partı́culas no tienen espı́n. Vamos a tomar como segundo ejemplo a una
partı́cula con espı́n sujeta a una interacción de tipo central. El Hamiltoniano para una partı́cula sin espı́n sometida
a una fuerza central Ec. (12.27), conmuta con el momento angular orbital L de la partı́cula, y como todos los
operadores de espı́n conmutan con todos los operadores orbitales, entonces S también conmuta con el Hamiltoniano.
Por tanto, L y S son cada una constantes de movimiento, cuando el Hamiltoniano de una partı́cula bajo una fuerza
16.2. MOMENTO ANGULAR TOTAL EN MECÁNICA CUÁNTICA 407

central es puramente orbital. Sin embargo, puede demostrarse que las correcciones relativistas introducen en el
Hamiltoniano un acoplamiento espı́n-órbita que es un término de la forma

HSO = ξ (r) L · S

siendo ξ (r) una función conocida de la variable r. Por el momento no analizaremos la procedencia fı́sica de este
término, pero sı́ sus consecuencias. El Hamiltoniano ahora es

H ′ = H + ξ (r) L · S

Y se puede ver que ni L ni S conmutan con el nuevo Hamiltoniano


 
L3 , H ′ = [L3 , H + HSO ] = [L3 , HSO ] = ξ (r) [L3 , L1 S1 + L2 S2 + L3 S3 ]
 
L3 , H ′ = ξ (r) [L3 , L1 S1 + L2 S2 ] = ξ (r) [L3 , L1 ] S1 + ξ (r) [L3 , L2 ] S2
 
L3 , H ′ = i~ξ (r) {L2 S1 − L1 S2 }

similarmente
 
S3 , H ′ = [S3 , HSO ] = ξ (r) [S3 , L1 S1 + L2 S2 + L3 S3 ]
 ′

S3 , H = ξ (r) [S3 , L1 S1 + L2 S2 ] = ξ (r) L1 [S3 , S1 ] + ξ (r) L2 [S3 , S2 ]
 ′
  
S3 , H = i~ξ (r) {L1 S2 − L2 S1 } = − L3 , H ′

vemos entonces que  


S 3 + L3 , H ′ = 0
e igualmente para las otras componentes. De esto se deduce que

J≡L+S

es una constante de movimiento a pesar de que L y S no lo son. Llamaremos a J el momento angular total del
sistema.

16.2.3. Análisis general de dos momentos angulares asociados a una fuerza central
Hay varias semejanzas entre los dos ejemplos realizados. En ambos tenemos dos momentos angulares parciales
J(1) y J(2) que conmutan entre sı́. En ambos casos conocemos una base {|j1 , j2 ; m1 , m2 i} de autovectores de
(1) (2)
J2(1) , J3 , J2(2) , J3 . También ocurre en los dos ejemplos que cada momento angular no es constante de movimiento
(cuando los subsistemas uno y dos se acoplan) pero su suma sı́ lo es, definiendo

J ≡ J(1) + J(2)
(1) (2)
J conmuta con el Hamiltoniano del sistema. Nótese que la base de autovectores (conocida) de J2(1) , J3 , J2(2) , J3
(1) (2)
no diagonaliza al Hamiltoniano puesto que éste no conmuta con J3 ni con J3 . En contraste J2 y J3 sı́ conmutan
con el Hamiltoniano, por tanto una base común de J2 y J3 hará que la matriz del Hamiltoniano sea diagonal por
bloques1 , tantos bloques como autosubespacios asociados a los conjuntos de autovalores de J2 y J3 . Por tanto,
la estructura de la matriz será más simple en la base de vectores propios comunes a J2 y J3 que en la base de
(1) (2)
vectores comunes a J2(1) , J3 , J2(2) , J3 .
(1) (2)
Puesto que el punto de partida es la base conocida de vectores propios comunes de J2(1) , J3 , J2(2) , J3 nuestra
tarea será entonces construı́r a partir de ésta, una nueva base de vectores comunes a J2 y J3 , esto nos enfrentará
con el problema de las reglas de adición o composición de los momentos angulares J(1) y J(2) . Comenzaremos por
analizar algunas propiedades generales de la adición de dos momentos angulares.
1
De hecho existirá una base que diagonaliza a los tres operadores simultáneamente.
408 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

16.3. La adición de dos momentos angulares es otro momento angular


Si tenemos dos momentos angulares arbitrarios J(1) y J(2) ambos sobre espacios diferentes, la suma (de los
operadores extendidos) es también un momento angular. Como cada J(α) es un momento angular, se tiene que
h i h i
(1) (1) (1) (2) (2) (2)
Ji , Jj = iεijk Jk ; Ji , Jj = iεijk Jk

ahora se tiene que


h i h i h i
(1)
(2) (1) (2) (1) (1) (2) (2) (1) (2)
[Ji , Jj ] = Ji
+ Ji , Jj + Jj = Ji , Jj + Jj + Ji , Jj + Jj
h i h i h i h i
(1) (1) (1) (2) (2) (1) (2) (2)
[Ji , Jj ] = Ji , Jj + Ji , Jj + Ji , Jj + Ji , Jj

dado que los momentos angulares J(1) y J(2) conmutan por ser de espacios diferentes, se tiene que
h i h i h i
(1) (1) (2) (2) (1) (2) (1) (2)
[Ji , Jj ] = Ji , Jj + Ji , Jj = iεijk Jk + iεijk Jk = iεijk Jk + Jk
[Ji , Jj ] = iεijk Jk

lo cual muestra que si J(1) y J(2) son dos momentos angulares arbitrarios que conmutan entre sı́, entonces el
operador
J ≡ J(1) + J(2)
también es un momento angular. Todas las propiedades generales de un momento angular serán válidas entonces
para J. Tendremos además otras propiedades para conmutadores mixtos (que involucren por ejemplo un momento
angular total y un momento angular parcial). En particular, veamos las propiedades de conmutación de J2
 2
J2 = J(1) + J(2) = J2(1) + J2(2) + 2J(1) · J(2) (16.9)

donde hemos tenido en cuenta que J(1) y J(2) conmutan. El producto escalar se puede expresar en términos de los
(1) (2) (1) (2)
operadores escalera J± , J± y los operadores J3 y J3 .
(1) (2) (1) (2) (1) (2)
J(1) · J(2) = J1 J1 + J2 J2 + J3 J3 (16.10)
1  (1) (1)

(2) (2)
 1  (1) (1)

(2) (2)

(1) (2)
= J+ + J− J+ + J− + 2 J+ − J− J+ − J− + J3 J3
4 4i
1 h (1) (2) (1) (2) (1) (2) (1) (2) (1) (2) (1) (2)
= J J + J+ J− + J− J+ + J− J− − J+ J+ + J+ J−
4 + + i
(1) (2) (1) (2) (1) (2)
+J− J+ − J− J− + J3 J3
1  (1) (2) (1) (2)

(1) (2)
J(1) · J(2) = J+ J− + J− J+ + J3 J3 (16.11)
2
La idea ahora es comparar los conjuntos conmutantes
n o 
(1) (2)
J2(1) , J3 , J2(2) , J3 ; J2 , J3 (16.12)

con el fin de averiguar si al conjunto J2 , J3 de variables conmutantes, le podemos agregar algunos momentos
angulares parciales de modo que aún formen un conjunto conmutante. Es claro que el primer conjunto de operadores
en (16.12) consiste de momentos angulares parciales y el segundo de momentos angulares totales. Puesto que J(1)
y J(2) conmutan con J2(1) y J2(2) , también conmuta J
h i h i
J, J2(1) = J, J2(2) = 0
16.4. ADICIÓN DE DOS MOMENTOS ANGULARES CON J(1) = J(2) = 1/2 409

en particular J2 y J3 conmutan con J2(1) y J2(2)


h i i h
J3 , J2(1) J3 , J2(2) = 0
= (16.13)
h i h i
J2 , J2(1) = J2 , J2(2) = 0 (16.14)

(1) (2)
por otro lado, es obvio que J3 conmuta con J3 y J3
h i h i
(1) (2)
J3 , J3 = J3 , J3 =0 (16.15)

(1) (2)
pero J2 no conmuta ni con J3 ni con J3 , lo cual vemos usando (16.9, 16.10)
h i h i h i
(1) (1) (1)
J2 , J3 = J2(1) + J2(2) + 2J(1) · J(2) , J3 = 2 J(1) · J(2) , J3
h i h i h i h i
(1) (1) (2) (1) (2) (1) (1) (2) (1) (1) (2) (1)
J2 , J3 = 2 J1 J1 + J2 J2 , J3 = 2 J1 J1 , J3 + 2 J2 J2 , J3
h i h i h i h i
(1) (2) (1) (1) (1) (2) (1) (2) (1) (1) (1) (2)
= 2J1 J1 , J3 + 2 J1 , J3 J1 + 2J2 J2 , J3 + 2 J2 , J3 J2
h i
(1) (1) (2) (1) (2)
J2 , J3 = −2i~J2 J1 + 2i~J1 J2

quedando finalmente h i h i
(1) (1) (2) (1) (2)
J2 , J3 = 2i~ J1 J2 − J2 J1 (16.16)
y puesto que J es un momento angular, se cumple que
 2 
J ,J = 0

y por tanto h i h i h i
(1) (2) (1) (2)
J2 , J3 + J3 =0 ⇒ J2 , J3 = − J2 , J3

el análisis anterior nos muestra que el siguiente conjunto de operadores conmuta entre sı́
n o
J2 , J3 , J2(1) , J2(2)

Abordaremos inicialmente el problema de la adición de dos momentos angulares con j(1) = j(2) = 1/2.

16.4. Adición de dos momentos angulares con j(1) = j(2) = 1/2


(k)
Cada espacio E1/2 asociado a j(k) fijo, es un espacio de dos dimensiones. Por tanto, su producto tenso-
(1) (2)
rial E = E 1/2 ⊗ E1/2 será de 4 dimensiones. Denotaremos a la base ortonormal “natural” en este espacio por
{|ε1 i ⊗ |ε2 i} ≡ {|ε1 , ε2 i} y en forma explı́cita escribimos

{|ε1 , ε2 i} = {|+, +i , |+, −i , |−, +i , |−, −i} (16.17)


(1) (2)
estos vectores son autoestados de los observables J2(1) , J3 , J2(2) , J3 . Estrictamente estos operadores deben ser las
extensiones tensoriales de los operadores originales.
3 2
J2(1) |ε1 , ε2 i = J2(2) |ε1 , ε2 i = ~ |ε1 , ε2 i (16.18)
4
(1) ~ (2) ~
J3 |ε1 , ε2 i = ε1 |ε1 , ε2 i ; J3 |ε1 , ε2 i = ε2 |ε1 , ε2 i (16.19)
2 2
410 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

el conjunto
(1) (2)
J2(1) , J3 , J2(2) , J3 (16.20)
(1) (2)
forma para el espacio E = E 1/2 ⊗ E1/2 , un C.S.C.O. “natural”, en el sentido de que este es el C.S.C.O. que
n “natural” de E. oEn otras palabras, la base (16.17) está compuesta por vectores propios
se desprende de la base
(1) (2)
comunes al C.S.C.O. J2(1) , J3 , J2(2) , J3 . Estrictamente J2(1) , J2(2) pueden ser excluı́dos ya que son proporcionales
a la identidad2 .
También hemos visto que los 4 observables

J2(1) , J2(2) , J2 , J3 (16.21)

(1) (2)
conmutan entre sı́. Veremos ahora que este conjunto también es un C.S.C.O. en E = E 1/2 ⊗ E1/2 . Adicionar dos
momentos angulares implica construı́r el sistema ortonormal de autovectores comunes al conjunto (16.21). Este
(1) (2)
conjunto diferirá de (16.17) ya que J2 no conmuta con J3 , J3 . Denotaremos los vectores de la nueva base en
la forma |J, M i donde los autovalores de J2(1) , J2(2) (que permanecen iguales) están implı́citos3 . Estos vectores
satisfacen las relaciones
3
J2(1) |J, M i = J2(2) |J, M i = ~2 |J, M i (16.22)
4
J2 |J, M i = J (J + 1) ~2 |J, M i (16.23)
J3 |J, M i = M ~ |J, M i (16.24)

ya que J es un momento angular, entonces J debe ser entero o semientero no negativo, M debe estar entre −J y
J variando en saltos unidad. El problema es entonces encontrar los valores que J y M pueden tomar con base en
los valores de j1 , j2 y m1 , m2 , ası́ como expresar la base {|J, M i} en términos de la base conocida (16.17).
A continuación resolveremos el problema diagonalizando las matrices 4×4 que representan a J2 y a J3 en la
base {|ε1 , ε2 i}. Más adelante se empleará un método más general que se puede usar en espacios vectoriales de
dimensión arbitraria.

16.4.1. Autovalores de J3 y su degeneración


(1) (2)
Nótese que para los observables J2(1,2) todos los vectores en el espacio E = E 1/2 ⊗ E1/2 son autovectores, por
tanto |J, M i ya son autovectores de estos observables.
Por otro lado, las Ecs. (16.13, 16.15) nos dicen que J3 conmuta con los cuatro observables del C.S.C.O. dados
por la Ec. (16.20). Por tanto, esperamos que los vectores base {|ε1 , ε2 i} sean automáticamente autovectores de
J3 . Usando (16.19) se encuentra que
  ~
(1) (2)
J3 |ε1 , ε2 i = J3 + J3 |ε1 , ε2 i = (ε1 + ε2 ) |ε1 , ε2 i
2
vemos entonces que |ε1 , ε2 i es autovector de J3 con autovalor
1
M~ = (ε1 + ε2 ) ~ (16.25)
2
puesto que ε1 y ε2 toman los valores ±1, vemos que M toma los valores +1, 0, −1.
2
Nótese que la ecuación (16.18) nos dice que J2(1) = J2(2) , entendidos como extensiones sobre el espacio tensorial, ya que actúan de
manera idéntica sobre todos los elementos de la base. Esto también se puede ver teniendo en cuenta que ambos son proporcionales
a la identidad
 en sus respectivos espacios, y con la misma constante de proporcionalidad. En consecuencia, sus extensiones son
2 2 (1)
J(1) = 3/4~ E ⊗ E (2) y J2(2) = E (1) ⊗ 3/4~2 E (2) de modo que J2(1) = J2(2) = 3/4~2 E (1×2) .

3
La notación completa serı́a J, M j(1) , j(2) = |J, M (1/2, 1/2)i.
16.4. ADICIÓN DE DOS MOMENTOS ANGULARES CON J(1) = J(2) = 1/2 411

Los valores M = ±1 son no degenerados. Solo un autovector corresponde a cada uno de ellos: |+, +i corresponde
a +1 y |−, −i corresponde a −1. En otras palabras para que M = +1 solo hay una posibilidad ε1 = ε2 = +1, el
caso M = −1 solo es posible si ε1 = ε2 = −1. En contraste, M = 0 tiene degeneración dos, a él corresponden los
estados |+, −i y |−, +i. Esto se traduce en que hay dos soluciones para M = 0, ε1 = −ε2 = 1 y ε1 = −ε2 = −1.
Cualquier combinación lineal de los vectores |+, −i y |−, +i es un autoestado de J3 con autovalor M = 0.
Estos resultados se ven claramente en la representación matricial de J3 en la base {|ε1 , ε2 i}. Ordenando los
vectores en la forma de la Ec. (16.17) esta matriz es
 
1 0 0 0
 0 0 0 0 
(J3 ) = ~ 
 0

0 0 0 
0 0 0 −1

16.4.2. Diagonalización de J2
Aplicaremos J2 a los vectores de la base (16.17), para lo cual usaremos las Ecs. (16.9, 16.11)
 2
(1) (2) (1) (2) (1) (2)
J2 = J(1) + J(2) = J2(1) + J2(2) + J+ J− + J− J+ + 2J3 J3

(1) (2)
los 4 vectores |ε1 , ε2 i son autovectores de J2(1) , J2(2) , J3 y J3 como se vé en la Ecs. (16.18, 16.19), y la acción
de los operadores escalera viene dada por la Ecs. (15.12), por tanto podemos evaluar J2 |ε1 , ε2 i para todos los
elementos de la base {|ε1 , ε2 i}
 
2 3 2 3 2 1
J |+, +i = ~ + ~ |+, +i + ~2 |+, +i
4 4 2
= 2~2 |+, +i (16.26)
 
2 3 2 3 2 1
J |+, −i = ~ + ~ |+, −i − ~2 |+, −i + ~2 |−, +i
4 4 2
= ~2 [|+, −i + |−, +i] (16.27)
 
2 3 2 3 2 1
J |−, +i = ~ + ~ |−, +i − ~2 |−, +i + ~2 |+, −i
4 4 2
= ~2 [|+, −i + |−, +i] (16.28)
 
3 2 3 2 1
J2 |−, −i = ~ + ~ |−, −i + ~2 |−, −i
4 4 2
= 2~2 |−, −i (16.29)

la matriz representativa de J2 en la base {|ε1 , ε2 i} en el orden dado por (16.17) está dada por
 
2 0 0 0
  0 1 1 0 
J2 = ~2 
 0

1 1 0 
0 0 0 2

puesto que J2 conmuta con J3 , la matriz tendrá elementos no cero solo entre autovectores de J3 asociados con
el mismo autovalor, lo cual explica los ceros de la matriz. De acuerdo con los resultados de la sección 16.4.1,
los únicos elementos no diagonales de J2 que son diferentes de cero, son aquellos que relacionan a los vectores
{|+, −i , |−, +i}, los cuales están asociados al mismo valor de M (M = 0).
412 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

Ahora para diagonalizar esta matriz podemos tener en cuenta que es diagonal por bloques partiéndose en tres
submatrices  
A1×1 0 0
 0 B2×2 0 
0 0 C1×1
La matrices unidimensionales son las asociadas a los vectores |±, ±i que son autovectores de J2 , como se vé en
las Ecs. (16.26, 16.29). Los autovalores asociados son 2~2 . Ahora debemos diagonalizar la submatriz
 
1 1
B2×2 = ~2
1 1

que representa a J2 dentro del subespacio dos dimensional generado por {|+, −i , |−, +i}, es decir el autosubespacio
de J3 que corresponde a M = 0. Los autovalores λ~2 = J (J + 1) ~2 de esta matriz se encuentran con la ecuación
caracterı́stica
(1 − λ)2 − 1 = 0
cuyas raı́ces son λ = 0 y λ = 2. Esto nos da los últimos autovalores de J2 : 0 y 2~2 , es decir J = 0 y 1. Los
autovectores nos dan
1
|J = 1, M = 0i = √ [|+, −i + |−, +i] (16.30)
2
1
|J = 0, M = 0i = √ [|+, −i − |−, +i] (16.31)
2
como siempre, se puede colocar una fase global si se desea.
Vemos entonces que J2 tiene dos autovalores diferentes: 0 y 2~2 . El autovalor nulo es no degenerado y tiene
como único vector asociado a (16.31). Por otro lado, el valor propio 2~2 tiene degeneración triple, ya que está
asociado a los vectores |+, +i , |−−i y a la combinación lineal (16.30).

16.4.3. Autoestados de J2 y J3 : singlete y triplete


Hemos obtenido entonces los autovalores de J2 y J3 ası́ como un conjunto completo de autovectores comunes
de J2 y J3 (que automáticamente son autoestados de J2(1) y J2(2) ). Expresaremos los autoestados en la notación
(16.22-16.24).
El número cuántico J de (16.23) puede tomar dos valores: 0 y 1. El primero está asociado con un único vector,
que es también autovector de J3 con autovalor cero, el cual denotamos por
1
|0, 0i = √ [|+, −i − |−, +i] (16.32)
2
en tanto que para J = 1 hay tres vectores asociados con tres valores distintos de M
1
|1, 1i = |+, +i ; |1, 0i = √ [|+, −i + |−, +i] ; |1, −1i = |−−i (16.33)
2
se puede chequear fácilmente que los cuatro vectores dados en (16.32, 16.33) son ortonormales. La especificación
de J y M determina a un vector de esta base unı́vocamente, de modo que J2 y J3 forman un C.S.C.O.. Aunque
no es necesario, a este C.S.C.O se le pueden agregar los operadores J2(1) y J2(2) .
Por tanto cuando adicionamos dos momentos angulares con j1 = j2 = 1/2 (por ejemplo dos espı́nes), el número
J que caracteriza al autovalor J (J + 1) ~2 del operador J2 puede ser igual a cero o igual a uno. Con cada uno
de estos valores se asocia una familia de (2J + 1) vectores ortogonales (tres para J = 1, uno para J = 0) que
corresponden a los 2J + 1 valores de M para J fijo.
16.5. MÉTODO GENERAL DE ADICIÓN DE DOS MOMENTOS ANGULARES ARBITRARIOS 413

A la familia (16.33) de tres vectores asociados a J = 1 se le denomina un triplete. Al vector |0, 0i asociado
a J = 0 se le denomina un singlete. La Ec. (16.33) nos muestra que los estados del triplete son simétricos
con respecto al intercambio de dos momentos angulares (por ejemplo espı́nes), en tanto que el estado singlete Ec.
(16.32) es antisimétrico. Es decir si cada vector |ε1 , ε2 i se reemplaza por |ε2 , ε1 i, las expresiones (16.33) permanecen
invariantes en tanto que (16.32) cambia de signo. Esto tendrá gran importancia cuando las partı́culas cuyos espines
se adicionan sean idénticas. Además esto nos indica la combinación lineal de |+, −i con |−, +i que se requiere
para completar el triplete (debe ser simétrica). La parte singlete serı́a entonces la combinación lineal antisimétrica
de |+, −i con |−, +i la cual es ortogonal a la parte simétrica y por supuesto a los demás estados del triplete.

16.5. Método general de adición de dos momentos angulares arbitrarios


Consideraremos un sistema fı́sico descrito por el espacio E, y J un momento angular relativo a este sistema.
J puede ser un momento angular parcial o el momento angular total del sistema. Vimos en la sección 10.4.1, que
siempre es posible construı́r una base estándar {|j, m, ki} compuesta de autovectores comunes a J2 y J3

J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki (16.34)

de modo que la acción de los operadores escalera sobre esta base estándar está dada por las Ecs. (10.47)
p
J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki (16.35)

denotamos como E (j, k) al autosubespacio expandido por vectores de la base estándar con j, k fijos. Este espacio
es de dimensión 2j + 1 correspondiente a los valores de m para un j dado. La dimensión no depende de k. Las
Ecs. (16.34, 16.35) nos dicen que los 2j + 1 vectores de la base para E (j, k) se transforman entre sı́ por medio
de los operadores J2 , J3 , J+ , J− . Es decir, el autosubespacio E (j, k) es globalmente invariante bajo estos cuatro
operadores y más en general es globalmente invariante bajo la acción de una función F (J). El espacio completo
E se puede escribir como una suma directa de subespacios ortogonales E (j, k) como se vé en la Ec. (10.46)

E = E (j1 , k = 1) ⊕ E (j1 , k = 2) ⊕ . . . ⊕ E (j1 , k = g (j1 )) ⊕


E (j2 , k = 1) ⊕ E (j2 , k = 2) ⊕ . . . ⊕ E (j2 , k = g (j2 )) ⊕
E (j3 , k = 1) ⊕ E (j3 , k = 2) ⊕ . . . ⊕ E (j3 , k = g (j3 )) ⊕ . . . (16.36)

debido a la invariancia de estos subespacios bajo los operadores J2 , J3 , J+ , J− , F (J) estos operadores tendrán
una representación matricial en la base estándar donde los elementos matriciales no nulos están dentro de cada
subespacio E (j, k). Además dentro de cada subespacio E (j, k) los elementos de matriz de una función del tipo
F (J) son independientes de k.
Recordemos además que si a J2 y J3 le agregamos los operadores necesarios para formar un C.S.C.O. podemos
dar un significado fı́sico a k construyendo los vectores propios comunes a todo el C.S.C.O. si por ejemplo solo se
requiere un operador A para formar el C.S.C.O. y asumimos que A conmuta con J (escalar), podemos requerir
que los autovectores |j, m, ki también sean autovectores de A

A |j, m, ki = aj,k |j, m, ki (16.37)

de modo que la base estándar {|j, m, ki} estará determinada por las Ecs. (16.34, 16.35, 16.37). Cada E (j, k) es
también autosubespacio de A y el ı́ndice k discrimina entre los diferentes autovalores aj,k asociados a cada valor
de k. Cuando se requiere más de un operador para formar el C.S.C.O. el ı́ndice k corresponde realmente a varios
ı́ndices.
414 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

16.5.1. Formación del sistema a partir de dos subsistemas


Asumamos que nuestro sistema fı́sico se forma por la unión de dos subsistemas (por ejemplo un sistema de
dos partı́culas o la unión del sistema orbital con el de espı́n para una sola partı́cula). Usaremos los ı́ndices (1) y
(2) para denotar cantidades relativas a cada subsistema.
Asumiremos que para el espacio de estados E1 del subsistema (1) conocemos una base estándar {|j1 , m1 , k1 i}
(1)
de vectores propios comunes a J2(1) y J3 siendo J(1) el momento angular asociado al subsistema (1) por tanto las
Ecs. (16.34, 16.35) nos dan
(1)
J2(1) |j1 , m1 , k1 i = j1 (j1 + 1) ~2 |j1 , m1 , k1 i ; J3 |j1 , m1 , k1 i = m1 ~ |j1 , m1 , k1 i
(1)
p
J± |j1 , m1 , k1 i = ~ j1 (j1 + 1) − m1 (m1 ± 1) |j1 , m1 ± 1, k1 i

y similarmente para la base estándar {|j2 , m2 , k2 i} del espacio E2 asociado al subsistema (2)
(2)
J2(2) |j2 , m2 , k2 i = j2 (j2 + 1) ~2 |j2 , m2 , k2 i ; J3 |j2 , m2 , k2 i = m2 ~ |j2 , m2 , k2 i
(2)
p
J± |j2 , m2 , k2 i = ~ j2 (j2 + 1) − m2 (m2 ± 1) |j2 , m2 ± 1, k2 i

el espacio de estados del sistema completo es el producto tensorial de los espacios E1 y E2

E = E1 ⊗ E2

y sabemos que el producto tensorial de las bases de E1 y E2 formará una base en E. Denotamos esta base como

|j1 , m1 , k1 i ⊗ |j2 , m2 , k2 i ≡ |j1 , j2 ; m1 , m2 ; k1 , k2 i (16.38)

los espacios E1 y E2 son sumas directas de subespacios del tipo E1 (j1 , k1 ) y E2 (j2 , k2 ) respectivamente. Estas sumas
están descritas por la Ec. (16.36)
      
(1) (1) (1) (1)
E1 = E1 j1 , k(1) = 1 ⊕ E1 j1 , k(1) = 2 ⊕ . . . ⊕ E1 j1 , k(1) = g j1 ⊕
      
(1) (1) (1) (1)
E1 j2 , k(1) = 1 ⊕ E1 j2 , k(1) = 2 ⊕ . . . ⊕ E1 j2 , k(1) = g j2 ⊕
      
(1) (1) (1) (1)
E1 j3 , k(1) = 1 ⊕ E1 j3 , k(1) = 2 ⊕ . . . ⊕ E1 j3 , k(1) = g j3 ⊕ ... (16.39)

(m)
y similarmente para el sistema (2). En este caso la notación ji representa diversos valores de j para el subsistema
m. No obstante, esta notación no será necesaria de aquı́ en adelante y usaremos jm para denotar el valor de j
asociado al subsistema m. Estas sumas las resumimos en la forma
X X
E1 = E1 (j1 , k1 ) ; E2 = E2 (j2 , k2 )
⊕ ⊕

por lo tanto E será la suma directa de subespacios E (j1 , j2 ; k1 , k2 ) obtenido por el producto tensorial de los
subespacios E1 (j1 , k1 ) y E2 (j2 , k2 )
X
E= E (j1 , j2 ; k1 , k2 ) ; E (j1 , j2 ; k1 , k2 ) = E1 (j1 , k1 ) ⊗ E2 (j2 , k2 ) (16.40)

la dimensión del subespacio E (j1 , j2 ; k1 , k2 ) es (2j1 + 1) (2j2 + 1). Este subespacio será globalmente invariante ante
cualquier función de F (J1 ) y F (J2 ), donde naturalmente J1 y J2 son las extensiones de los operadores definidos
originalmente en cada subsistema.
16.5. MÉTODO GENERAL DE ADICIÓN DE DOS MOMENTOS ANGULARES ARBITRARIOS 415

16.5.2. Momento angular total y sus relaciones de conmutación


Vimos en la sección 16.3 que la suma de los momentos angulares

J = J(1) + J(2)

es también un momento angular siendo J(1) y J(2) las extensiones adecuadas. Por tanto J al igual que J(1) y J(2)
satisface las propiedades algebráicas de un momento angular. No obstante, también hay algunas relaciones de
conmutación entre momentos angulares totales y parciales que son de importancia en nuestra discusión (ver
sección 16.3). Vimos que J(1) y J(2) conmutan con J2(1) y J2(2) y por tanto también con J. En particular J2 y J3
(1) (2)
conmutan con J2(1) y J2(2) . Además es inmediato que J3 y J3 conmutan con J3 , por tanto
h i h i h i h i h i h i
(1) (2)
J3 , J2(1) = J3 , J2(2) = J2 , J2(1) = J2 , J2(2) = J3 , J3 = J3 , J3 = 0 (16.41)

(1) (2)
sin embargo, J3 y J3 no conmutan con J2 lo cual se pudo ver partiendo de las Ecs. (16.9, 16.11)

J2 = J2(1) + J2(2) + 2J(1) · J(2) (16.42)


(1) (2) (1) (2) (1) (2)
J2 = J2(1) + J2(2) + 2J3 J3 + J+ J− + J− J+ (16.43)

con lo cual se llega a la Ec. (16.16)


h i h i h i
(1) (2) (1) (2) (1) (2)
J2 , J3 = − J2 , J3 = 2i~ J1 J2 − J2 J1 (16.44)

16.5.3. Cambio de base a realizar


Un vector de la base
{|j1 , m1 , k1 i ⊗ |j2 , m2 , k2 i} ≡ {|j1 , j2 ; m1 , m2 ; k1 , k2 i} (16.45)
es autoestado simultáneo de los observables
(1) (2)
J2(1) , J2(2) , J3 , J3

con autovalores j1 (j1 + 1) ~2 , j2 (j2 + 1) ~2 , m1 ~, m2 ~. Se observa entonces que la base (16.45) es adecuada para
el estudio de los momentos angulares individuales J(1) y J(2) de cada subsistema. Ahora bien, las Ecs. (16.41) nos
dicen que el conjunto de observables
J2(1) , J2(2) , J2 , J3
también conmutan entre sı́. Obsérvese que si construı́mos una base común a estos observables, serı́a más adecuada
para el estudio del momento angular total del sistema ya que un vector de esta base permitirı́a extraer los valores
propios de J2 y J3 . Esta base debe ser diferente a la anterior puesto que según la Ec. (16.44), J2 no conmuta con
(1) (2)
J3 ni con J3 . Una motivación adicional para encontrar una base común a J2 y J3 , es el hecho de que para
un sistema sujeto a una interacción central que posee dos momentos angulares acoplados, se tiene que J total es
constante de movimiento aunque los momentos angulares parciales no lo son (ver secciones 16.2.1, 16.2.2, 16.2.3).
Además los nı́ndices k1 y ko2 tienen un significado fı́sico que es extensión natural del procedimiento para cada
(1)
subsistema. Si A1 , J2(1) , J3 forma un C.S.C.O. en E1 donde A1 conmuta con J(1) entonces podemos escoger
una base estándar {|j1 , m1 , k1 i} consistente en los vectores
n ortonormales
o completos comunes a estos observables.
2 (2)
Si algo similar ocurre con un conjunto de observables A2 , J(2) , J3 en E2 entonces el conjunto

(1) (2)
A1 , A2 ; J2(1) , J2(2) ; J3 , J3
416 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

forma un C.S.C.O. en E cuyos autovectores están dados por la Ec. (16.45). Por otro lado, puesto que A1 conmuta
con J(1) y con J(2) entonces conmutará con J. Esto a su vez implica que A1 conmuta con J2 y J3 . Lo mismo ocurre
para el observable A2 , por tanto los observables en el conjunto
A1 , A2 ; J2(1) , J2(2) ; J2 , J3
conmutan entre ellos. Puede demostrarse que además forman un C.S.C.O. y la nueva base que buscaremos es un
sistema ortonormal de vectores propios comunes de este C.S.C.O.
Ahora bien, el subespacio E (j1 , j2 ; k1 , k2 ) definido en (16.40) es globalmente invariante bajo la acción de un
operador que sea función de J(1) o que sea función de J(2) . Por tanto, es globalmente invariante ante la acción
de un F (J). Esto implica que los observables J2 y J3 que pretendemos diagonalizar, tienen elementos matriciales
no nulos solo dentro de cada espacio E (j1 , j2 ; k1 , k2 ). Las matrices de dimensión infinita que representan a J2 y
J3 en la base (16.45) son diagonales por bloques y se pueden escribir como suma directa de submatrices cada
una asociado a un subespacio de la forma E (j1 , j2 ; k1 , k2 ). Por tanto, el problema se reduce a diagonalizar las
submatrices asociadas a cada subespacio E (j1 , j2 ; k1 , k2 ) cuya dimensión es (2j1 + 1) (2j2 + 1).  
Por otro lado, los elementos matriciales en la base (16.45) para cualquier función F J(1) ó F J(2) son
independientes de k1 y k2 (solo los elementos matriciales de A1 dependen de k1 y los de A2 dependen de k2 ).
Por tanto, esto también vale para J2 y J3 . En consecuencia, la diagonalización de estos dos operadores dentro de
todos los subespacios E (j1 , j2 ; k1 , k2 ) con el mismo valor de j1 y j2 , se realiza de forma idéntica. Por esta razón
hablamos de adición de los momentos angulares sin hacer referencia a los otros números cuánticos. Simplificaremos
la notación omitiendo los ı́ndices k1 y k2 escribiendo entonces
E (j1 , j2 ) ≡ E (j1 , j2 ; k1 , k2 ) ; |j1 , j2 ; m1 , m2 i ≡ |j1 , j2 ; m1 , m2 ; k1 , k2 i
puesto que J es un momento angular y E (j1 , j2 ) es invariante ante F (J) entonces E (j1 , j2 ) es una suma directa
de subespacios ortogonales E (J, k) cada uno de los cuales es invariante ante la acción de J2 , J3 , J±
X
E (j1 , j2 ) = E (J, k) (16.46)

de aquı́ surgen las siguientes preguntas, dado un par j1 y j2 ¿Cuáles son los valores de J que contribuyen en la
suma directa (16.46)? y ¿Cuántos subespacios E (J, k) están asociados con un J dado?.
Dado que tenemos una base conocida (16.45) esta será nuestro punto de partida para llegar a la base asociada
a J2 y J3 . Surge entonces el problema de expandir los autovectores de la base buscada asociados a E (j1 , j2 ) en
términos de los autovectores de la base conocida (16.45).
Es importante mencionar que si tenemos más momentos angulares podemos adicionar los dos primeros y al
resultado le adicionamos un tercero y ası́ sucesivamente. Esto solo es posible puesto que el algoritmo de suma es
conmutativo y asociativo como veremos más adelante.

16.5.4. Autovalores de J2 y J3 : Caso de dos espines j1 = j2 = 1/2.


En este caso cada espacio E1 y E2 contiene solo un subespacio invariante ya que están asociados cada uno a un
valor fijo de j. El producto tensorial E = E1 ⊗ E2 está asociado a un solo subespacio E (j1 , j2 ) con j1 = j2 = 1/2.
De acuerdo con la descomposición (16.46), el espacio E (1/2, 1/2) es la suma directa de subespacios del tipo
E (J, k) de dimensión 2J + 1. Cada uno de estos subespacios contiene uno y solo un autovector de J3 asociado
a cada uno de los valores de M tal que |M | ≤ J. Hemos visto en la sección 16.4.1 que M solo toma los valores
1, 0, −1; donde el primero y el tercero no son degenerados en tanto que M = 0 es doblemente degenerado. De esto
se concluye que:

1. Valores de J > 1 están excluı́dos. Por ejemplo para que J = 2 fuera posible tendrı́a que existir al menos un
autovector de J3 con M = 2. Esto se debe a que la teorı́a del momento angular nos dice que para un j dado
los valores permitidos de m consisten en todos los valores enteros o semienteros que cubren el intervalo
−j ≤ m ≤ j en saltos unidad.
16.5. MÉTODO GENERAL DE ADICIÓN DE DOS MOMENTOS ANGULARES ARBITRARIOS 417

2. E (J = 1, k) aparece solo una vez (es decir k es único), puesto que M = ±1 solo aparece una vez, es decir
M = ±1 es no degenerado.

3. E (J = 0, k) aparece una sola vez. Esto se debe a que M = 0 es dos veces degenerado pero uno de los
autovectores con M = 0 está en el subespacio con J = 1, de modo que solo un autovector con M = 0 está
asociado a un subespacio con J = 0.

Por tanto, el espacio 4-dimensional E (1/2, 1/2) se descompone en subespacios del tipo E (J, k) según la Ec.
(16.46) en la forma  
1 1
E , = E (J = 1) ⊕ E (J = 0)
2 2
que son de dimensión 3 y 1 respectivamente. Veremos ahora como extender estas conclusiones al caso general.

16.5.5. Autovalores de J3 y su degeneración: Caso general

Figura 16.1: (a) Ilustración de las reglas de adición para momentos angulares en el caso general. (b) Pares de
posibles valores de (m, m′ ) = (m1 , m2 ) para el caso especı́fico j = j1 = 2, j ′ = j2 = 1. En ambos casos, los puntos
asociados con un valor dado de M = m + m′ = m1 + m2 están localizados sobre una lı́nea recta de pendiente −1
pintada como lı́nea punteada. Hemos supuesto que j = j1 ≥ j ′ = j2 , con lo cual el ancho del rectángulo es mayor
o igual a su altura.

Consideremos un subespacio de la forma E (j1 , j2 ) de dimensión (2j1 + 1) (2j2 + 1). Asumiremos que j1 y j2
están rotulados de modo que
j1 ≥ j2 (16.47)
los vectores base {|j1 , j2 ; m1 , m2 i} de este subespacio (que se construyen con el producto tensorial de las bases de
los espacios factor) ya son autovectores de J3
 
(1) (2)
J3 |j1 , j2 ; m1 , m2 i = J3 + J3 |j1 , j2 ; m1 , m2 i = (m1 + m2 ) ~ |j1 , j2 ; m1 , m2 i
≡ M ~ |j1 , j2 ; m1 , m2 i

de modo que el correspondiente autovalor de M ~ es tal que

M = m1 + m2 (16.48)

de lo cual, M toma los valores

M = j1 + j2 , j1 + j2 − 1, j1 + j2 − 2, . . . , − (j1 + j2 ) (16.49)
418 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

Denotaremos el grado de degeneración de cada M en el subespacio E (j1 , j2 ), en la forma gj1 ,j2 (M ). Para encontrar
esta degeneración usaremos el siguiente procedimiento geométrico: realizamos un diagrama en dos dimensiones
asociando a cada vector |j1 , j2 ; m1 , m2 i un par ordenado donde el eje de abcisas se asocia con m1 y el eje de
ordenadas con m2
|j1 , j2 ; m1 , m2 i ≡ (m1 , m2 )
todos los puntos asociados a estos vectores están ubicados en el borde o interior de un rectángulo cuyos vértices
están en (j1 , j2 ) , (j1 , −j2 ) , (−j1 , −j2 ) y (−j1 , j2 ). La Fig. 16.1 representa los puntos asociados a una configuración
arbitraria (izquierda) y una configuración con j1 = 2, j2 = 1 (derecha). Si partimos de un punto dado (vector)
del tipo P = (m1 , m2 ) es claro que estados “vecinos” del tipo P± ≡ (m1 ± 1, m2 ∓ 1) poseen el mismo valor de
M = m1 + m2 siempre y cuando existan los valores incrementados y decrementados de m1 y m2 . Cuando alguno
de los valores incrementados o decrementados no exista, es por que el estado (m1 , m2 ) se encuentra en alguno de
los bordes del rectángulo (o en una esquina). Para estados P en el interior del rectángulo, existe tanto P+ como
P− . Dos puntos vecinos definidos con esta relación están unidos por una recta de pendiente −1

(m2 ∓ 1) − m2
pendiente = = −1
(m1 ± 1) − m1

En conclusión, los puntos situados a lo largo de las lı́neas punteadas de las Figs. 16.1a, y 16.1b, de pendiente −1,
corresponden a los vectores con el mismo valor de M = m1 + m2 . El número de puntos (vectores) unidos por una
lı́nea define el grado de degeneración gj1 ,j2 (M ) del valor de M asociado.
Consideremos ahora los diferentes valores de M en orden descendente Ec. (16.49). Observaremos el patrón de
las lı́neas punteadas a medida que disminuye M . Empezando por el máximo M = j1 + j2 vemos que este valor es
no-degenerado, ya que la lı́nea que lo cruza pasa solo por la esquina superior derecha (es en realidad un punto),
cuyas coordenadas son (j1 , j2 ). Vemos entonces que

gj1 ,j2 (j1 + j2 ) = 1 (16.50)

para el siguiente M = j1 + j2 − 1 la degeneración es doble (a menos que j1 y/o j2 sean nulos), ya que la lı́nea
correspondiente contiene los puntos (j1 , j2 − 1) y (j1 − 1, j2 ). Entonces

gj1 ,j2 (j1 + j2 − 1) = 2 , si j1 6= 0 y j2 6= 0 (16.51)

La degeneración aumenta una unidad por cada decremento de M en una unidad, hasta que se alcanza la esquina
inferior derecha (j1 , −j2 ) del rectángulo4 , que corresponde al valor M = j1 − j2 ≥ 0 ya que suponemos siempre
que j1 ≥ j2 . El número de puntos llega entonces a su máximo (que es el número de puntos que miden “la altura”
del rectángulo) y es igual a
gj1 ,j2 (j1 − j2 ) = 2j2 + 1 (16.52)
si continuamos decrementando M , el número de puntos permanece constante en 2j2 + 1 siempre que la lı́nea
asociada a M cruce al rectángulo tocando sus lados superior (m2 = j2 ) e inferior (m2 = −j2 ). Esto ocurre hasta
que la lı́nea asociada alcanza la esquina superior izquierda (−j1 , j2 ) del rectángulo, para el cual M = −j1 + j2 ≤ 0.
Por tanto, el número máximo de puntos 2j2 + 1 se mantiene en un intervalo para M dado por

gj1 ,j2 (M ) = 2j2 + 1 para − (j1 − j2 ) ≤ M ≤ j1 − j2 (16.53)

finalmente, para valores de M menores que − (j1 − j2 ), la lı́nea asociada a cada M ya no intersecta la lı́nea superior
del rectángulo (m2 = j2 ) y gj1 ,j2 (M ) decrece monótonamente en la unidad por cada decremento unidad de M ,
4
Como estamos asumiendo que j1 ≥ j2 , siempre se alcanza la esquina inferior derecha (j1 , −j2 ) antes que la esquina superior
izquierda (−j1 , j2 ) en esta secuencia. A lo más ocurre que las dos esquinas se alcanzan al mismo tiempo cuando j1 = j2 , en cuyo caso
tenemos un cuadrado.
16.5. MÉTODO GENERAL DE ADICIÓN DE DOS MOMENTOS ANGULARES ARBITRARIOS 419

alcanzando el valor 1 nuevamente cuando M = − (j1 + j2 ), correspondiente a la esquina inferior izquierda del
rectángulo. Por lo tanto
gj1 ,j2 (−M ) = gj1 ,j2 (M ) (16.54)

estos resultados se resumen en la figura 16.2 para el caso j1 = 2 y j2 = 1, esta figura muestra g2,1 (M ) como
función de M .

Figura 16.2: Gráfica del grado de degeneración gj1 ,j2 (M ) versus M , para el caso j1 = 2, j2 = 1 ilustrado en
la Fig. 16.1b. El grado de degeneración se obtiene por simple conteo del número de puntos que toca cada lı́nea
punteada en la Fig. 16.1b. Adicionalmente, esta figura muestra la simetrı́a expresada por la Ec. (16.54).

16.5.6. Autovalores de J2 : caso general


De la Ec. (16.49) vemos que los valores de M son enteros si j1 y j2 son ambos enteros o ambos semi-enteros.
Ası́ mismo, los valores M son semi-enteros si uno de los ji es entero y el otro semientero. Por otro lado, la teorı́a
general del momento angular nos dice que J es entero (semi-entero) si y solo si M es entero (semi-entero). Podemos
entonces distinguir dos situaciones (1) j1 y j2 son ambos enteros o semi-enteros, (2) Uno de los ji es entero y el
otro semientero. El primer caso conduce a pares (J, M ) enteros y el segundo caso a pares (J, M ) semi-enteros.
Puesto que el máximo valor de M es j1 + j2 , tenemos que J > j1 + j2 no aparece en E (j1 , j2 ) y por tanto
no aparece en la suma directa (16.46). Esto se debe a que para este valor J > j1 + j2 tendrı́a que existir el
correspondiente valor de M = J según la teorı́a general del momento angular. Para J = j1 + j2 hay un subespacio
invariante asociado E (J = j1 + j2 ), puesto que M = j1 +j2 existe, pero este subespacio es único ya que M = j1 +j2
es no-degenerado. En este subespacio hay uno y solo un vector asociado a M = j1 +j2 −1, y dado que M = j1 +j2 −1
es doblemente degenerado en E (j1 , j2 ), tenemos que J = j1 + j2 − 1 también está presente y a él corresponde un
único subespacio invariante E (J = j1 + j2 − 1).
En un contexto general denotaremos como pj1 ,j2 (J) el número de subespacios E (J, k) de E (j1 , j2 ) asociados a
un J dado. En otras palabras, este es el número de diferentes valores de k para el valor dado de J (siendo j1 y j2
fijos desde el principio).
Veremos que pj1 ,j2 (J) y gj1 ,j2 (M ) están asociados de manera sencilla. Consideremos un valor particular de
M , a este valor de M está asociado uno y solo un vector en cada subespacio E (J, k) siempre que J ≥ |M |. Su
grado de degeneración está dado entonces por

gj1 ,j2 (M ) = pj1,j2 (J = |M |) + pj1 ,j2 (J = |M | + 1) + pj1 ,j2 (J = |M | + 2) + . . . + pj1 ,j2 (J = j1 + j2 )


420 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

Invirtiendo esta relación, se obtiene a pj1 ,j2 (J) en términos de gj1 ,j2 (M )

pj1 ,j2 (J) = gj1 ,j2 (M = J) − gj1 ,j2 (M = J + 1)


= gj1 ,j2 (M = −J) − gj1 ,j2 (M = −J − 1) (16.55)

es de resaltar que en la Ec. (16.55), J es fijo y los valores de M no están asociados al valor fijo de J, sino a todos
los valores permitidos de M en E (j1 , j2 ). Por esta razón, los valores de gj1 ,j2 (M = J + 1) y gj1 ,j2 (M = −J − 1)
pueden ser no nulos.
Teniendo en cuenta la degeneración de los valores de M estudiada en la sección 16.5.5, podemos determinar los
valores del número cuántico J que ocurren en E (j1 , j2 ) y el número de subespacios invariantes E (J, k) asociados
con cada uno de ellos. En primer lugar tenemos que

pj1 ,j2 (J) = 0 para J > j1 + j2

ya que gj1 ,j2 (M ) = 0 para |M | > j1 + j2 . Si ahora aplicamos las Ecs. (16.50, 16.51) tenemos que

pj1 ,j2 (J = j1 + j2 ) = gj1 ,j2 (M = j1 + j2 ) − gj1 ,j2 (M = j1 + j2 + 1)


pj1 ,j2 (J = j1 + j2 ) = gj1 ,j2 (M = j1 + j2 ) = 1

pj1 ,j2 (J = j1 + j2 − 1) = gj1 ,j2 (M = j1 + j2 − 1) − gj1 ,j2 (M = j1 + j2 ) = 2 − 1


pj1 ,j2 (J = j1 + j2 − 1) = 1

por tanto todos los valores de pj1 ,j2 (J) se pueden encontrar por iteración

pj1,j2 (J = j1 + j2 − 2) = 1, . . . , pj1 ,j2 (J = j1 − j2 ) = 1

finalmente, aplicando la Ec. (16.53) tenemos

pj1 ,j2 (J) = 0 para J < j1 − j2 = |j1 − j2 |

la última igualdad se obtiene recordando que hemos mantenido la suposición j1 ≥ j2 en todo el tratamiento. Para
el caso j2 ≥ j1 solo hay que invertir los ı́ndices 1 y 2.
En conclusión, para valores fijos de j1 y j2 , es decir dentro de un subespacio E (j1 , j2 ) de dimension (2j1 + 1) (2j2 + 1),
los autovalores de J2 son tales que

J = j1 + j2 , j1 + j2 − 1, j1 + j2 − 2, . . . , |j1 − j2 | (16.56)

y cada valor de J está asociado a un único subespacio invariante E (J, k) en la suma directa dada por la Ec.
(16.46), la cual se reduce a
jX
1 +j2

E (j1 , j2 ) = E (J) (16.57)


⊕J=|j1 −j2 |

de modo que el ı́ndice k es realmente innecesario. Esto implica en particular que si tomamos un valor fijo de J y un
valor fijo de M compatible con J (|M | ≤ J), existe un único vector |J, M i (salvo constantes) en E (j1 , j2 ) asociado
a estos números cuánticos. La especificación de J es suficiente para determinar el subespacio invariante, y la
especificación de M me lleva a un único vector (excepto por una constante) en dicho subespacio. En consecuencia
J2 y J3 forman un C.S.C.O. en E (j1 , j2 ).
A manera de consistencia, podemos mostrar que el número N de pares (J, M ) encontrados para E (j1 , j2 )
coincide con la dimensión (2j1 + 1) (2j2 + 1) de E (j1 , j2 ), puesto que el conjunto {|J, M i} constituye una base
16.6. AUTOVECTORES COMUNES DE J2 Y J3 421

para E (j1 , j2 ). Asumiremos por simplicidad que j1 ≥ j2 . Puesto que cada subespacio E (J) es de dimensión 2J + 1
(es decir tiene 2J + 1 valores diferentes de M ), la suma directa (16.57) nos dice que

jX
1 +j2

N= (2J + 1) (16.58)
J=j1 −j2

si reemplazamos
J = j1 − j2 + i
podemos calcular (16.58)

jX
1 +j2 2j2
X 2j2
X 2j2
X
N = (2J + 1) = [2 (j1 − j2 + i) + 1] = [2 (j1 − j2 ) + 1] 1+2 i
J=j1 −j2 i=0 i=0 i=0
2j2 (2j2 + 1)
= [2 (j1 − j2 ) + 1] (2j2 + 1) + 2 = (2j1 − 2j2 + 1) (2j2 + 1) + 2j2 (2j2 + 1)
2
= [(2j1 − 2j2 + 1) + 2j2 ] (2j2 + 1) = (2j1 + 1) (2j2 + 1)

16.6. Autovectores comunes de J2 y J3


La base “natural” de E (j1 , j2 ) es la base de los productos tensoriales entre las bases de E (j1 ) y E (j2 ) denotada
(1) (2)
por {|j1 , j2 , m1 , m2 i}. Esta es la base de vectores propios comunes a J2(1) , J3 , J2(2) , J3 . Ahora bien, los vectores
propios comunes a J2 , J3 , J2(1) , J2(2) serán denotados por |JM i. Estrictamente la notación deberı́a incluir los valores
j1 y j2 de donde proviene el producto tensorial. Sin embargo, esta notación se omitirá ya que j1 y j2 son fijos en
todo el proceso. Por la misma razón, se simplificará la notación de la base natural escribiéndola simplemente como
{|m1 , m2 i}. Cuando sea necesario se distinguirán ambas bases por un subı́ndice en la forma |JM iJ y |m1 , m2 ij . La
transformación de la base {|m1 , m2 i} a la base {|JM i}, se debe realizar con una transformación unitaria, puesto
que ambas bases son ortonormales. Como los {|JM i} son autovectores comunes de J2 , J3 , J2(1) , J2(2) tenemos que

J2 |JM i = J (J + 1) ~2 |JM i ; J3 |JM i = M ~ |JM i


J2(1) |JM i = j1 (j1 + 1) ~ |JM i ; J2(2) |JM i = j2 (j2 + 1) ~2 |JM i
2

16.6.1. Caso especial j1 = j2 = 1/2


En la sección 16.4, hemos encontrado los vectores propios |J, M i en E (1/2, 1/2) a través de la diagonalización
de las representaciones matriciales. En este caso recurriremos a la generación de los diferentes vectores por medio
de operadores escalera J± . La ventaja de este método es que es más fácil de generalizar y de manejar cuando
tenemos valores altos de los momentos angulares.
En primer lugar el ket |1/2, 1/2i ≡ |++i es el único vector propio de J3 en E (1/2, 1/2) que corresponde a
M = 1. Puesto que J2 y J3 conmutan, y el valor M = 1 es no degenerado, el teorema 1.66 página 57 nos dice que
|++i también tiene que ser autovector de J2 . Siguiendo los razonamientos de la sección 16.5.4 el valor propio para
J2 tiene que ser J = 1. Por tanto, podemos escoger la fase del vector |J = 1, M = 1i para que coincida con |++i

|1, 1i = |++i (16.59)

los otros estados del triplete J = 1 se obtienen por aplicación sucesiva del operador J− tal como se describió en
la sección 10.4.1. Usando la Ec. (10.47), tenemos entonces
p √
J− |1, 1i = ~ 1 (1 + 1) − 1 (1 − 1) |1, 0i = ~ 2 |1, 0i
422 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

con lo cual se tiene


1 1
|1, 0i = √ J− |1, 1i = √ J− |++i
~ 2 ~ 2
para calcular |1, 0i en términos de la base original {|m1 , m2 i} basta recordar que

(1) (2)
J− = J− + J−

con lo cual
1  (1) (2)
 1
|1, 0i = √ J− + J− |++i = √ (~ |−+i + ~ |+−i)
~ 2 ~ 2
1
|1, 0i = √ (|−+i + |+−i) (16.60)
2

ahora aplicamos J− a |1, 0i para obtener el último elemento |1, −1i del triplete.

J− |1, 0i = ~ 2 |1, −1i (16.61)

combinando las Ecs. (16.60, 16.61) tenemos

1 1  (1)  1 
(2)
|1, −1i = √ J− |1, 0i = √ J− + J− √ (|−+i + |+−i)
~ 2 ~ 2 2
1 h    i 1 h (2) i
(1) (2) (1) (2) (1)
= J− + J− |−+i + J− + J− |+−i = J− |−+i + J− |+−i
2~ 2~
1
= [~ |−−i + ~ |−−i]
2~
|1, −1i = |−−i

nótese que el estado |−−i se pudo haber extraı́do con un argumento similar al usado para encontrar |++i, ya que
el estado con M = −1 al igual que el asociado a M = 1 es no degenerado. El procedimiento anterior tiene sin
embargo la ventaja de mostrar el algoritmo general y además nos permite ajustar las convenciones de fases que
podrı́an aparecer en |1, 0i y |1, −1i. Existen dos lugares en el procedimiento en donde se fijan las fases, en la Ec.
(16.59) se puede colocar una fase arbitraria, y en las Ecs. (10.47) para J± se pueden colocar fases que dependan
de m.
Finalmente, encontraremos el estado singlete |J = 0, M = 0i , que es el único vector del subespacio unidi-
mensional E (J = 0). Este se puede encontrar dentro de fases constantes, con la condición de ser ortonormal al
triplete.
Al ser ortonormal a |1, 1i = |++i y a |1, −1i = |−−i, se tiene que |0, 0i debe ser una combinación lineal de
|+−i y |−+i

|0, 0i = α |+−i + β |−+i (16.62)


2 2
h0, 0 |0, 0i = |α| + |β| = 1 (16.63)

en donde hemos agregado la condición de normalización. Teniendo en cuenta que |0, 0i también debe ser ortogonal
a |1, 0i, las Ecs. (16.60, 16.62) nos dan

1
h1, 0 |0, 0i = √ [h−+| + h+−|] [α |+−i + β |−+i] = 0
2
⇒ α h−+| + −i + β h−+| − +i + α h+−| + −i + β h+−| − +i = 0
β+α = 0 (16.64)
16.7. AUTOVECTORES DE J2 Y J3 : CASO GENERAL 423

combinando las Ecs. (16.63, 16.64) tenemos

1
α = −β ⇒ |α|2 = |β|2 ⇒ 2 |α|2 = 1 ⇒ |α| = √
2

con lo cual
1
α = −β = √ eiχ
2
siendo χ cualquier número real. Eligiendo χ = 0, tenemos

1
|0, 0i = √ [|+−i − |−+i] (16.65)
2

es importante observar que con este método no fué necesario recurrir a las representaciones matriciales de los
operadores, en particular de J2 (que fué la que se tuvo que diagonalizar).

16.7. Autovectores de J2 y J3 : Caso general


Hemos visto en la sección 16.5.6, Ec. (16.57) que la descomposición de E (j1 , j2 ) como suma directa de subes-
pacios invariantes E (J) está dada por

E (j1 , j2 ) = E (j1 + j2 ) ⊕ E (j1 + j2 − 1) ⊕ . . . ⊕ E (|j1 − j2 |) (16.66)

determinaremos los vectores |J, M i para cada uno de estos subespacios

16.7.1. Determinación de los vectores |JMi del subespacio E (j1 + j2 )


El ket |m1 = j1 , m2 = j2 i es el único autovector de J3 en E (j1 , j2 ) con M = j1 + j2 . Puesto que J2 y J3
conmutan y M = j1 + j2 es no-degenerado, el teorema 1.66 página 57 nos dice que |m1 = j1 , m2 = j2 i también
tiene que ser autovector de J2 . De acuerdo con (16.66) el valor asociado de J solo puede ser J = j1 + j2 . Podemos
escoger el factor de fase de manera que

|J = j1 + j2 , M = j1 + j2 i = |m1 = j1 , m2 = j2 i

que también denotaremos por


|j1 + j2 , j1 + j2 iJ = |j1 , j2 ij (16.67)
la aplicación reiterada de J− permitirá encontrar todos los vectores del tipo |J, M i asociados a J = j1 + j2 .
Aplicando las Ecs. (10.47), tenemos
p
J− |j1 + j2 , j1 + j2 iJ = ~ 2 (j1 + j2 ) |j1 + j2 , j1 + j2 − 1iJ
1
|j1 + j2 , j1 + j2 − 1iJ = p J− |j1 + j2 , j1 + j2 iJ (16.68)
~ 2 (j1 + j2 )

para escribir el vector |j1 + j2 , j1 + j2 − 1iJ en términos de la base original |m1 , m2 ij , debemos escribir el término
(1) (2)
de la derecha en la Ec. (16.68) en la base original, para lo cual tenemos en cuenta que J− = J− + J− y que
|j1 + j2 , j1 + j2 iJ = |j1 , j2 ij ; con lo cual la Ec. (16.68) queda
 
(1) (2) √ √
J− + J− |j1 , j2 ij ~ 2j1 |j1 − 1, j2 ij + ~ 2j2 |j1 , j2 − 1ij
|j1 + j2 , j1 + j2 − 1iJ = p = p
~ 2 (j1 + j2 ) ~ 2 (j1 + j2 )
424 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

obteniendo finalmente
s s
j1 j2
|j1 + j2 , j1 + j2 − 1iJ = |j1 − 1, j2 ij + |j1 , j2 − 1ij (16.69)
j1 + j2 j1 + j2

nótese además que la combinación lineal de vectores originales que me forma a |j1 + j2 , j1 + j2 − 1iJ está au-
tomáticamente normalizada.
Para obtener |j1 + j2 , j1 + j2 − 2iJ , aplicamos J− a ambos lados de la Ec. (16.69) escribiendo tal operador
(1) (2)
como J− = J− + J− a la derecha de dicha ecuación. Podemos repetir este procedimiento sistemáticamente, hasta
llegar al estado |j1 + j2 , − (j1 + j2 )iJ , el cual se puede ver que es igual a |−j1 , −j2 ij por un argumento similar
al que nos llevó a la Ec. (16.67), puesto que M = −j1 − j2 también es no-degenerado.
Al finalizar este proceso hemos encontrado todos los 2 (j1 + j2 ) + 1 vectores de la forma |J = j1 + j2 , M i, los
cuales expanden el subespacio E (J = j1 + j2 ) de E (j1 , j2 ).

16.7.2. Determinación de los vectores |JMi en los otros subespacios


Definiremos ahora a G (j1 + j2 ) como el suplemento o complemento ortogonal de E (j1 + j2 ) en E (j1 , j2 ). De
acuerdo con la Ec. (16.66), tal complemento ortogonal estará dado por

G (j1 + j2 ) = E (j1 + j2 − 1) ⊕ E (j1 + j2 − 2) ⊕ . . . ⊕ E (|j1 − j2 |)

y aplicamos a G (j1 + j2 ) un análisis análogo al realizado en la sección 16.7.1 para E (j1 + j2 ).


En G (j1 + j2 ) el grado de degeneración gj′ 1 ,j2 (M ) de un valor dado de M es menor en la unidad que la
degeneración en el espacio completo E (j1 , j2 )

gj′ 1 ,j2 (M ) = gj1 ,j2 (M ) − 1 (16.70)

esto se debe a que E (j1 + j2 ) posee uno, y solo un vector asociado a cada valor accesible de M en E (j1 , j2 ). Es
decir, para cada M en el intervalo − (j1 + j2 ) ≤ M ≤ j1 + j2 hay uno y solo un vector en E (j1 + j2 ). En particular,
M = j1 + j2 ya no existe en G (j1 + j2 ), y por tanto el valor máximo de M en G (j1 + j2 ) es M = j1 + j2 − 1,
como este era doblemente degenerado en E (j1 , j2 ), será no-degenerado en G (j1 + j2 ). Por argumentos similares
a los de la sección 16.7.1, el vector asociado a M = j1 + j2 − 1 en este subespacio, debe ser proporcional a
|J = j1 + j2 − 1, M = j1 + j2 − 1i. Queremos ahora encontrar su expansión en términos de la base {|m1 , m2 i}. En
virtud del valor de M = j1 + j2 − 1, la expansión debe ser de la forma

|j1 + j2 − 1, j1 + j2 − 1iJ = α |j1 , j2 − 1ij + β |j1 − 1, j2 ij ; |α|2 + |β|2 = 1 (16.71)

donde además requerimos la normalización. Adicionalmente, este estado debe ser ortogonal a |j1 + j2 , j1 + j2 − 1iJ ∈
E (j1 + j2 ), i.e. al estado del complemento ortogonal de G (j1 + j2 ) con el mismo valor de M = j1 + j2 − 1. Usando
las expresiones (16.69, 16.71) para este vector, dicha ortogonalidad se escribe como

J hj1 + j2 , j1 + j2 − 1 |j1 + j2 − 1, j1 + j2 − 1iJ = 0


"s s #
j1 j2 h i
j hj1 − 1, j2 | + hj ,
j 1 2 j − 1| α |j ,
1 2j − 1ij + β |j1 − 1, j i
2 j = 0
j1 + j2 j1 + j2
s s
j1 j2
β j hj1 − 1, j2 | j1 − 1, j2 ij + α j hj1 , j2 − 1| j1 , j2 − 1ij = 0
j1 + j2 j1 + j2
s s
j1 j2
β +α = 0 (16.72)
j1 + j2 j1 + j2
16.8. TRANSFORMACIÓN DE LA BASE DESACOPLADA A LA BASE ACOPLADA 425

la condición de normalización (16.71) junto con la Ec. (16.72) nos permiten encontrar α y β dentro de un factor
de fase. Escogiendo α real y positivo, la Ec. (16.72) nos dice que β es real y toma el valor
s    
j2 j2 j1 + j2
β = −α ⇒ α2 + β 2 = α2 1 + = 1 ⇒ α2 =1
j1 j1 j1
s s s
j1 j2 j2
α = ; β = −α =−
j1 + j2 j1 j1 + j2

Con lo cual la Ec. (16.71) queda


s s
j1 j2
|j1 + j2 − 1, j1 + j2 − 1iJ = |j1 , j2 − 1ij − |j1 − 1, j2 ij (16.73)
j1 + j2 j1 + j2

este es el primer vector de una nueva familia caracterizada por J = j1 +j2 −1, de forma similar al vector asociado a
J = j1 + j2 en la sección 16.7.1. Los otros vectores de esta nueva familia se pueden generar por aplicación sucesiva
del operador J− . De esta forma, obtenemos [2 (j1 + j2 − 1) + 1] vectores del tipo |J = j1 + j2 − 1, M i donde J y
M toman los valores

J = j1 + j2 − 1 ; M = j1 + j2 − 1, j1 + j2 − 2, . . . , − (j1 + j2 − 1)

estos vectores nos permiten expandir al subespacio E (j1 + j2 − 1).


Ahora bien, si j1 +j2 −2 ≥ |j1 − j2 | podemos formar el suplemento de la suma directa E (j1 + j2 )⊕E (j1 + j2 − 1)
en el espacio E (j1 , j2 )

G (j1 + j2 , j1 + j2 − 1) = E (j1 + j2 − 2) ⊕ E (j1 + j2 − 3) ⊕ . . . ⊕ E (|j1 − j2 |)

en el suplemento G (j1 + j2 , j1 + j2 − 1), la degeneración de cada valor de M decrece en una unidad con respecto a
la degeneración en el suplemento anterior G (j1 + j2 ). En particular, el máximo valor de M es ahora M = j1 +j2 −2
y es no-degenerado. El vector asociado en G (j1 + j2 , j1 + j2 − 1) será |J = j1 + j2 − 2, M = j1 + j2 − 2i.
Para calcular al vector |j1 + j2 − 2, j1 + j2 − 2iJ en términos de la base |m1 , m2 i, basta notar que éste debe
ser una combinación lineal de tres vectores

|j1 + j2 − 2, j1 + j2 − 2iJ = α1 |j1 , j2 − 2ij + α2 |j1 − 1, j2 − 1ij + α3 |j1 − 2, j2 ij (16.74)

los tres coeficientes se fijan dentro de un factor de fase por la condición de normalización y de ortogonalidad con
los vectores (ya conocidos) dados por: |j1 + j2 , j1 + j2 − 2i , |j1 + j2 − 1, j1 + j2 − 2i. Es decir, los vectores en el
complemento ortogonal de G (j1 + j2 , j1 + j2 − 1), con el mismo valor de M = j1 + j2 − 2. Una vez determinados
los coeficientes en (16.74), podemos encontrar los demás vectores de esta tercera familia, por aplicación sucesiva
de J− . Estos vectores nos permiten expandir a E (j1 + j2 − 2).
El procedimiento se puede repetir hasta abarcar todos los valores de M mayores o iguales a |j1 − j2 |, y en
virtud de la Ec. (16.54) también todos los valores correspondientes a M menores o iguales a − |j1 − j2 |. De esta
forma determinamos todos los vectores {|J, M i} en términos de la base original {|m1 , m2 i}.

16.8. Transformación de la base desacoplada a la base acoplada y coeficientes


de Clebsch-Gordan
(1) (2)
En el espacio E (j1 , j2 ), los autovectores comunes a J2(1) , J3 , J2(2) , J3 , y que denotamos (en notación completa)
por {|j1 , j2 ; m1 , m2 i} forman una base ortonormal conocida como la base “desacoplada” en el sentido de que esta
base nos da información directa de los números cuánticos individuales de cada partı́cula (o de cada grado de
426 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES

libertad). Por otra parte, los autovectores comunes a J2 , J3 , J2(1) , J2(2) , y que denotamos (en notación completa)
por {|j1 , j2 ; J, M i} forman una base ortonormal conocida como la base “acoplada” ya que esta base nos da
información directa de los números cuánticos asociados al sistema como un todo.
La transformación que nos lleva desde la base desacoplada hasta la base acoplada es unitaria puesto que es una
transformación de una base ortonormal a otra base también ortonormal. Esta transformación unitaria se escribe
fácilmente usando la completez en E (j1 , j2 ) de la base desacoplada
j1
X j2
X
|j1 , j2 ; J, M i = |j1 , j2 ; m1 , m2 i hj1 , j2 ; m1 , m2 | J, M i (16.75)
m1 =−j1 m=−j2

cambiaremos ligeramente la notación para los coeficientes de esta expansión en la forma


hj1 , j2 ; m1 , m2 | J, M i ≡ hm1 , m2 (j1 , j2 ) J, M i (16.76)
con lo cual la expansión (16.75) se escribe como
j1
X j2
X
|j1 , j2 ; J, M i = |j1 , j2 ; m1 , m2 i hm1 , m2 (j1 , j2 ) J, M i (16.77)
m1 =−j1 m=−j2

los coeficientes hm1 , m2 (j1 , j2 ) J, M i de la expansión, que son elementos de la matriz unitaria de transformación,
se conocen como coeficientes de Clebsch-Gordan. Los números cuánticos de la izquierda indican un ket de la
base desacoplada, los de la derecha indica un ket de la base acoplada y los números cuánticos (j1 , j2 ) del centro,
indican los momentos angulares j1 y j2 que se están acoplando. Un aspecto importante es que la notación original
|j1 , j2 ; m1 , m2 ; k1 , k2 i , |j1 , j2 ; J, M ; k1 , k2 i para las bases no es necesaria dado que los productos internos son
independientes de k1 y k2 , y dentro del espacio E (j1 , j2 ) los k′ s toman un solo valor, de modo que dentro de este
subespacio este número cuántico no discrimina diferentes estados.
No es posible dar expresiones generales para los coeficientes de Clebsch-Gordan. Estos coeficientes se pueden
generar con el algoritmo explicado en las secciones anteriores. Adicionalmente, existen tablas numéricas de estos
coeficientes. Por ejemplo, las Ecs. (16.67, 16.69, 16.73) nos permiten encontrar algunos coeficientes de Clebsch-
Gordan
hj1 , j2 (j1 , j2 ) j1 + j2 , j1 + j2 i = 1
s
j1
hj1 − 1, j2 (j1 , j2 ) j1 + j2 , j1 + j2 − 1i =
j1 + j2
s
j2
hj1 , j2 − 1 (j1 , j2 ) j1 + j2 , j1 + j2 − 1i =
j1 + j2
s
j1
hj1 , j2 − 1 (j1 , j2 ) j1 + j2 − 1, j1 + j2 − 1i =
j1 + j2
s
j2
hj1 − 1, j2 (j1 , j2 ) j1 + j2 − 1, j1 + j2 − 1i = −
j1 + j2

Es importante mencionar que para determinar estos coeficientes en forma única, deben escogerse ciertas con-
venciones de fases. Lo usual es definir estos coeficientes como reales. Sin embargo, la escogencia de ciertas fases
dictamina el signo de algunos coeficientes. Por supuesto, los signos relativos de los coeficientes que aparecen en la
expansión del mismo vector |J, M i están fijos, solo se puede escoger en forma arbitraria el signo global.
Adicionalmente, la reglas de adición que hemos obtenido muestran que estos coeficientes tienen unas reglas de
selección: el coeficiente hj1 , j2 ; m1 , m2 | J, M i ≡ hm1 , m2 (j1 , j2 ) J, M i es diferente de cero solo si
M = m1 + m2 ; |j1 − j2 | ≤ J ≤ j1 + j2 (16.78)
16.8. TRANSFORMACIÓN DE LA BASE DESACOPLADA A LA BASE ACOPLADA 427

donde J debe ser del mismo tipo (entero o semi-entero) que los valores j1 + j2 y |j1 − j2 |. La segunda condición en
(16.78) se conoce usualmente como “regla del triángulo” ya que expresa el hecho de que si la condición se satisface,
debe poderse formar un triángulo con tres segmentos de longitud j1 , j2 y J. En otras palabras, la segunda ecuación
(16.78) expresa el conocido teorema que nos dice que un lado J de un triángulo es menor que la suma de los otros
dos lados y mayor que su diferencia.
Naturalmente la relación inversa de la expresada en (16.77) se puede obtener usando la completez de la base
acoplada
jX
1 +j2 J
X jX
1 +j2 J
X
|j1 , j2 ; m1 , m2 i = |J, M i hJ, M |j1 , j2 ; m1 , m2 i ≡ |J, M i hJ, M (j1 , j2 ) m1 , m2 i
J=j1 −j2 M =−J J=j1 −j2 M =−J
(16.79)
dado que los coeficientes de C-G son elementos de una matriz unitaria y se eligen como reales, la matriz será
ortogonal real, por tanto se cumple la condición

hm1 , m2 (j1 , j2 ) J, M i = hJ, M (j1 , j2 ) m1 , m2 i (16.80)

En sı́ntesis, los coeficientes de Clebsch-Gordan determinan la transformación de la base desacoplada a la base


acoplada y viceversa.
Capı́tulo 17

Propiedades generales de los sistemas de


dos estados

Si por ejemplo consideramos los estados propios de los operadores de espı́n S2 y S3 para una partı́cula de espı́n
s = 1/2, tenemos que hay solo dos autoestados de S2 y S3 que usualmente denotamos |±i. Si estamos interesados
en información concerniente solo a variables de espı́n, por ejemplo la probabilidad de que el momento magnético
de espı́n sea +1/2 en una medida de espı́n (sin importar los valores que tomen las variables espaciales), entonces
podemos por simplicidad considerar un espacio vectorial (espinorial) de solo dos dimensiones para realizar los
cálculos, tal que los dos estados |±i formarán una base para dicho espacio.
Existen otros escenarios en los cuales los sistemas de dos estados resultan relevantes en mecánica cuántica.
Consideremos un sistema para el cual existen dos estados con energı́as muy cercanas entre sı́, y que son muy
diferentes a las energı́as de los otros autoestados de energı́a del sistema. Asumamos que queremos evaluar el
efecto de una perturbación externa o de una perturbación interna previamente ignorada. Si la intensidad de la
perturbación es suficientemente pequeña, se puede demostrar que su efecto sobre los dos estados “cercanos”, se
puede calcular en primera aproximación ignorando los otros niveles de energı́a. De modo que todos los cálculos
involucran un espacio de dos dimensiones.

17.1. Formulación del problema


Consideremos un sistema fı́sico cuyo espacio de estados es de dos dimensiones. Como ya se mencionó esto
es usualmente solo una aproximación, en la cual asumimos que hay un subespacio dos dimensional del espacio
completo de estados que está casi desacoplado de su complemento ortogonal. Es decir, la probabilidad de obtener
valores de energı́a diferentes a las de los dos estados en una medición es mucho menor que la probabilidad de
obtener alguna de las dos energı́as de los dos estados en cuestión. De acuerdo con el quinto postulado, esto implica
que la probabilidad de que el sistema esté en una combinación lineal que involucra solo a los dos estados es casi
uno.
Definamos un Hamiltoniano H0 que denominaremos Hamiltoniano no perturbado, y usaremos la base de sus
vectores propios |ϕ1 i , |ϕ2 i para realizar los cálculos. Sus niveles de energı́a serán E1 y E2 de modo que
H0 |ϕ1 i = E1 |ϕ1 i ; H0 |ϕ2 i = E2 |ϕ2 i , hϕi |ϕj i = δij , i, j = 1, 2 (17.1)
ahora queremos tener en cuenta una perturbación externa o interacción interna previamente ignorada. Tal per-
turbación (también llamado acople) será simbolizada como W , y el Hamiltoniano perturbado H viene dado por
H = H0 + W (17.2)
denotaremos a los autoestados y autovalores de H como |ψ± i y E± respectivamente
H |ψ+ i = E+ |ψ+ i ; H |ψ− i = E− |ψ− i (17.3)

428
17.2. EFECTO DEL ACOPLE SOBRE LA ENERGÍA Y LOS ESTADOS ESTACIONARIOS 429

asumiremos que W es independiente del tiempo. Expresaremos matricialmente a la perturbación W usando la


base no perturbada |ϕ1 i , |ϕ2 i (i.e. la base de vectores propios del Hamiltoniano no perturbado H0 )
   
hϕ1 | W |ϕ1 i hϕ1 | W |ϕ2 i W11 W12
W = = , Wij = Wji∗ (17.4)
hϕ2 | W |ϕ1 i hϕ2 | W |ϕ2 i W21 W22

de modo que W11 y W22 son reales y W12 = W21 ∗ . En ausencia del acople o perturbación W , las energı́as accesibles

del sistema son E1 y E2 , siendo |ϕ1 i , |ϕ2 i los estados estacionarios del sistema, de modo que si en t = 0 el sistema
está en uno de estos dos estados, permanecerá en el indefinidamente. Veremos entonces como se modifican las
energı́as y estados estacionarios cuando se introduce el acople W .

17.2. Consecuencias de la introducción del acople sobre los niveles de energı́a


y los estados estacionarios
Al introducir el acople, el Hamiltoniano del sistema será el descrito en la Ec. (17.2). Por tanto, de acuerdo con
los postulados, los niveles de energı́a y estados estacionarios serán ahora los descritos en la Ec. (17.3). Una medida
de la energı́a solo podrá dar alguno de los valores E+ ó E− y los estados estacionarios serán sus autoestados
asociados |ψ+ i y |ψ− i. Esto implica en particular que E1 y E2 ya no son energı́as permitidas en el sistema y los
estados |ϕ1 i y |ϕ2 i ya no serán estados estacionarios (pues estos no son en general autovalores ni autoestados del
Hamiltoniano perturbado H). Esto implica que si el sistema está inicialmente en el estado |ϕ1 i la introducción de
la perturbación genera una evolución temporal y por tanto hay cierta probabilidad P12 (t) de encontrar al sistema
en el estado |ϕ2 i en el tiempo t. Decimos entonces que W induce transiciones entre los estados no perturbados.
Por esta razón decimos que W actúa como un acople entre |ϕ1 i y |ϕ2 i.

17.2.1. Efecto del acople sobre los estados estacionarios del sistema
La representación matricial del Hamiltoniano perturbado en la base |ϕ1 i, |ϕ2 i será
 ∗

E1 + W11 W21
H=
W21 E2 + W22

los valores y vectores propios de esta matriz se realizaron en detalle en la sección 1.45.3. Las Ecs. (1.229, 1.230,
1.231) nos muestran tales autovalores y autovectores
q
1 1
E± = (E1 + W11 + E2 + W22 ) ± (E1 + W11 − E2 − W22 )2 + 4 |W12 |2 (17.5)
2 2
θ θ
|ψ+ i = cos e−iϕ/2 |ϕ1 i + sin eiϕ/2 |ϕ2 i (17.6)
2 2
θ −iϕ/2 θ
|ψ− i = − sin e |ϕ1 i + cos eiϕ/2 |ϕ2 i (17.7)
2 2

donde los ángulos θ y ϕ están dados por la Ecs. (1.232)

2 |W21 |
tan θ = , W21 = |W21 | eiϕ ; 0 ≤ θ < π , 0 ≤ ϕ < 2π (17.8)
E1 + W11 − E2 − W22

Es fácil ver que si W12 = 0, los autoestados de H son los autoestados de H0 y los nuevos niveles de energı́a
son simplemente E1 + W11 y E2 + W22 . Por tanto, los efectos interesantes surgen cuando W posee elementos
no-diagonales W12 = W21 ∗ . Para simplificar la discusión asumimos que la matriz de W en la base {|ϕ i , |ϕ i} es
1 2
430 CAPÍTULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS

puramente no-diagonal1 . Haciendo W11 = W22 = 0 en las Ecs. (17.5, 17.8) obtenemos
q
1 1
E± = (E1 + E2 ) ± (E1 − E2 )2 + 4 |W12 |2 (17.9)
2 2
2 |W21 |
tan θ = , 0 ≤ θ < π ; W21 = |W21 | eiϕ (17.10)
E1 − E2
es conveniente definir las siguientes variables
1 1
Em ≡ (E1 + E2 ) ; ∆≡ (E1 − E2 ) (17.11)
2 2
que corresponden al promedio y el desdoblamiento de los niveles no perturbados. Sustituyendo (17.11) en las Ecs.
(17.9, 17.10) tenemos que
q q
|W21 |
E+ = Em + ∆ + |W21 | ; E− = Em − ∆2 + |W21 |2 ; tan θ =
2 2
(17.12)

Las Ecs. (17.12) muestran que cuando Em cambia, la variación de E± es equivalente a correr el origen a lo

Figura 17.1: Variación de las energı́as E± con respecto al desdoblamiento ∆ ≡ (E1 − E2 ) /2. Hemos definido el
cero del eje de energı́a en Em . En ausencia de acoplamiento los niveles se cruzan en el origen como lo muestran
las lı́neas rectas punteadas. Al introducir el acople W no-diagonal, los dos niveles perturbados se “repelen uno a
otro” y se obtienen curvas de E+ y E− que no se cruzan. Tales curvas son ramas hiperbólicas (lı́neas sólidas en la
figura) cuyas ası́ntotas son los niveles no perturbados.

largo del eje de energı́a. Adicionalmente, las Ecs. (17.6, 17.7, 17.10, 17.12) muestran que los autovectores |ψ± i no
dependen de Em sino solo del desdoblamiento ∆. Es interesante mostrar el comportamiento de las energı́as E1,2 y
1
Si W11 y W22 son no nulos, podemos definir E e1 = E1 + W11 y E
e2 = E2 + W22 . Todos los resultados que se obtendrán en esta
e1 y E2 → E
sección serán válidos en este caso, haciendo los reemplazos E1 → E e2 .
17.2. EFECTO DEL ACOPLE SOBRE LA ENERGÍA Y LOS ESTADOS ESTACIONARIOS 431

E± en un diagrama de ∆ versus energı́a. La Fig. 17.1 muestra que tal diagrama para las energı́as E± corresponde
a ramas hiperbólicas simétricas con respecto a los ejes coordenados (en donde el zero del eje vertical se ubicó
en Em ), y cuyas ası́ntotas son las lı́neas rectas punteadas que describen el comportamiento de las energı́as E1 y
E2 . La Fig. 17.1 también muestra que la separación mı́nima entre las ramas hiperbólicas es 2 |W21 |. Puede verse
entonces que en ausencia de acople, los niveles de energı́a E1 y E2 se cruzan en ∆ = 0 (como se vé también en
las Ecs. 17.11). Con la introducción del acople, los niveles de energı́a “se repelen” es decir tienden a alejarse. Por
esta razón se suele hablar de diagramas anti-cruzantes, para curvas del tipo mostrado por E± . Se observa además
que cuando W → 0 tenemos que E± → E1,2 si E1 > E2 en tanto que E± → E2,1 si E2 > E1 . De las Ecs. (17.11,
17.12) vemos que
q
|E+ − E− | = 2 ∆2 + |W21 |2 > 2∆ ; |E1 − E2 | ≡ 2∆ ⇒ (17.13)
|E+ − E− | > |E1 − E2 | (17.14)

donde el aumento en el desdoblamiento es mayor a medida que crece el acople. Vemos entonces que el acople
separa la frecuencias normales, situación que aparece en muchos escenarios fı́sicos.
Es necesario poder discriminar cuando podemos hablar de un acople “fuerte” o “débil”. Para ello vemos que
las Ecs. (17.12) se pueden reescribir como
p
W21
E± = Em ± ∆ 1 + K 2 ; K≡ , ∆ 6= 0 (17.15)

de modo que la intensidad del acople se puede medir en términos de K



W21
K ≡ ≪ 1 ⇒ acople débil


W21
K ≡ ≫ 1 ⇒ acople f uerte

17.2.2. Efecto de un acople débil sobre los niveles de energı́a y estados estacionarios
El acople débil está caracterizado por |∆| ≫ |W21 |. La Fig. 17.1 nos muestra que en este lı́mite todas las energı́as
se comportan aproximadamente como las ası́ntotas. Puesto que K ≪ 1, las Ecs. (17.15) se pueden expandir en
series de potencias de K !

1 W21 2
E± = Em ± ∆ 1 + + ... (17.16)
2 ∆
adicionalmente, la Ec. (17.12) nos dice que θ ≃ 0 en este lı́mite. Por tanto tan θ ≃ θ ≃ sin θ, de modo que a primer
orden obtenemos
θ θ θ tan θ |W21 |
cos ≃ 1 ; sin ≃ ≃ =
2 2 2 2 2∆
reemplazando estas aproximaciones en las Ecs. (17.6, 17.7), los autoestados en el lı́mite de acople débil quedan

|W21 | iϕ/2 |W21 | −iϕ/2


|ψ+ i ≃ e−iϕ/2 |ϕ1 i + e |ϕ2 i ; |ψ− i ≃ − e |ϕ1 i + eiϕ/2 |ϕ2 i (17.17)
 2∆   2∆ 
|W21 | iϕ |W21 | −iϕ
|ψ+ i ≃ e−iϕ/2 |ϕ1 i + e |ϕ2 i ; |ψ− i ≃ − e |ϕ1 i + |ϕ2 i eiϕ/2 (17.18)
2∆ 2∆

puesto que las fases globales son irrelevantes, vemos que un acople débil genera estados perturbados muy similares
a los estados no perturbados como era de esperarse. Por ejemplo, el estado |ψ+ i se puede ver como el estado |ϕ1 i
ligeramente “contaminado” por una pequeña contribución del estado |ϕ2 i. Similarmente, |ψ− i es casi el estado
|ϕ2 i con una pequeña contribución de |ϕ1 i.
432 CAPÍTULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS

17.2.3. Efecto de un acople fuerte sobre los niveles de energı́a y estados estacionarios
El acople fuerte se caracteriza por |∆| ≪ |W21 |. La Fig. 17.1 nos muestra que este lı́mite corresponde al
comportamiento de las energı́as alrededor de ∆ = 0. En particular, si tomamos ∆ = 0 el acople se considera fuerte
para cualquier valor no nulo de W21 . En el lı́mite E1 = E2 i.e. ∆ = 0, las Ecs. (17.12) quedan en la forma

E± = Em ± |W21 | (17.19)

y vemos entonces que el efecto del acople es más mucho más importante cuando los dos niveles no perturbados
tienen la misma energı́a (por ejemplo por degeneración). Las Ecs. (17.19) muestran que este efecto es de primer
orden, en tanto que en el lı́mite de acople débil el efecto es de segundo orden como se aprecia en la Ec. (17.16).
Cuando ∆ = 0 vemos de (17.12) que θ = π/2 y los autoestados (17.6, 17.7) quedan
π −iϕ/2 π π π
|ψ+ i = cos e |ϕ1 i + sin eiϕ/2 |ϕ2 i ; |ψ− i = − sin e−iϕ/2 |ϕ1 i + cos eiϕ/2 |ϕ2 i (17.20)
4 4 4 4
1 h −iϕ/2 i 1 h i
|ψ+ i = √ e |ϕ1 i + eiϕ/2 |ϕ2 i ; |ψ− i = √ −e−iϕ/2 |ϕ1 i + eiϕ/2 |ϕ2 i (17.21)
2 2

de modo que en el lı́mite de acople fuerte, los estados |ψ± i difieren radicalmente de |ϕ1,2 i como se esperaba. Vemos
que |ψ± i son superposiciones de |ϕ1 i y |ϕ2 i con coeficientes del mismo módulo. Podemos decir que |ψ± i son estados
de “máxima mezcla” de los estados |ϕ1 i y |ϕ2 i.

17.3. Evolución temporal del vector de estado: oscilación del sistema entre
dos estados sin perturbar
La evolución del estado |ψ (t)i del sistema de dos estados está governada por la ecuación de Schrödinger

d
i~ |ψ (t)i = (H0 + W ) |ψ (t)i (17.22)
dt
y dado que |ψ (t)i es una superposición de los estados |ϕ1 i y |ϕ2 i para todo tiempo tenemos que

|ψ (t)i = a1 (t) |ϕ1 i + a2 (t) |ϕ2 i (17.23)

insertando la expansión (17.23) en la ecuación de Schrödinger (17.22), aplicando el bra hϕ1 | y usando la Ec. (17.4)
con W11 = W22 = 0, resulta

d
i~ hϕ1 | [a1 (t) |ϕ1 i + a2 (t) |ϕ2 i] = hϕ1 | (H0 + W ) [a1 (t) |ϕ1 i + a2 (t) |ϕ2 i]
dt
d
i~ [a1 (t) hϕ1 |ϕ1 i + a2 (t) hϕ1 |ϕ2 i] = a1 (t) hϕ1 | (H0 + W ) |ϕ1 i + a2 (t) hϕ1 | (H0 + W ) |ϕ2 i
dt
d
i~ a1 (t) = a1 (t) (E1 + W11 ) + a2 (t) [E2 hϕ1 |ϕ2 i + W12 ]
dt
d
i~ a1 (t) = E1 a1 (t) + W12 a2 (t)
dt
donde hemos asumido que H0 es conservativo y por tanto |ϕ1 i es independiente del tiempo. Un procedimiento
similar aplicando el bra hϕ2 | nos lleva a las ecuaciones

d
i~ a1 (t) = E1 a1 (t) + W12 a2 (t) (17.24)
dt
d
i~ a2 (t) = W21 a1 (t) + E2 a2 (t) (17.25)
dt
17.3. EVOLUCIÓN DEL VECTOR DE ESTADO: OSCILACIÓN ENTRE DOS ESTADOS 433

si W12 6= 0, tenemos una sistema de dos ecuaciones diferenciales homogéneas acopladas.


La evolución temporal de |ψ (t)i se puede obtener utilizando el método descrito en la sección 5.8. Esto es, se
escribe la expansión de |ψ (0)i en términos de los autoestados |ψ± i del Hamiltoniano H
|ψ (0)i = λ |ψ+ i + µ |ψ− i (17.26)
de modo que la evolución temporal vendrá dada por
|ψ (t)i = λe−iE+ t/~ |ψ+ i + µe−iE− t/~ |ψ− i (17.27)
lo cual nos permite obtener a1 (t) y a2 (t) aplicando los bras hϕ1 | y hϕ2 | a ambos lados de la Ec. (17.27).
Dado que los estados |ϕ1 i y |ϕ2 i ya no son estacionarios, es de esperarse que incluso si el estado inicial es por
ejemplo |ϕ1 i el sistema evolucione temporalmente. Veremos de hecho que si el estado del sistema está descrito por
la Ec. (17.27), el sistema oscila entre los estados no perturbados |ϕ1 i y |ϕ2 i. Para verlo asumiremos que en t = 0
el sistema está en el estado |ϕ1 i
|ψ (0)i = |ϕ1 i
ahora debemos expandir este estado inicial en términos de |ψ± i como en la Ec. (17.26). Para ello invertimos las
Ecs. (17.6, 17.7). Esto se realiza multiplicando la Ec. (17.6) por cos (θ/2) y la Ec. (17.7) por − sin (θ/2) y sumando
θ θ θ θ
cos |ψ+ i − sin |ψ− i = cos2 e−iϕ/2 |ϕ1 i + sin2 e−iϕ/2 |ϕ1 i = e−iϕ/2 |ϕ1 i
2 2 2  2 
iϕ/2 θ θ
|ϕ1 i = |ψ (0)i = e cos |ψ+ i − sin |ψ− i (17.28)
2 2
comparando la Ec. (17.28) con la Ec. (17.26) vemos que λ = eiϕ/2 cos (θ/2) y µ = −eiϕ/2 sin (θ/2), con lo cual la
Ec. (17.27) queda  
iϕ/2 θ −iE+ t/~ θ −iE− t/~
|ψ (t)i = e cos e |ψ+ i − sin e |ψ− i (17.29)
2 2
si el sistema evoluciona bajo el Hamiltoniano perturbado hasta el tiempo t, el sistema estará en este tiempo en el
estado |ψ (t)i descrito por la Ec. (17.29). Asumamos ahora que la perturbación W se “desconecta” en el tiempo t.
Si justo después de desconectar la perturbación medimos la energı́a, obtendremos E1 ó E2 (ya que estos vuelven
a ser los valores de energı́a accesibles del sistema), y la probabilidad de obtener cada uno de estos valores viene
dada por
PEi = |hϕi |ψ (t)i|2 ; i = 1, 2 (17.30)
pero esto es equivalente a decir que esta es la probabilidad de que el sistema quede preparado en el estado |ϕi i.
Por esta razón, suele decirse que |hϕi |ψ (t)i|2 es la probabilidad de encontrar al sistema en el tiempo t en |ϕi i.
No obstante, vale la pena mencionar que esta afirmación solo es válida si: (a) Se desconecta la perturbación en el
tiempo t y (b) Justo después de desconectar la perturbación, se hace la medida del observable H (si se mide otro
observable, el sistema queda preparado en un autoestado de ese otro observable). Nótese que si la perturbación no
se desconecta en t, una medición del observable H solo puede dar E+ o E− lo cual a su vez implica que el sistema
quedará preparado en el estado |ψ+ i o en el estado |ψ− i y no hay posibilidad de que quede en el estado |ϕi i. De
otra parte, si no se realiza ninguna medición, el sistema evoluciona de acuerdo con la ecuación de Schrödinger y
no podemos hablar de la probabilidad de obtener un estado (ya que la ecuación de Schrödinger es determinista).
La anterior discusión nos muestra que si no se realiza ninguna medida en el tiempo t, la cantidad hϕi |ψ (t)i ≡ ai
es simplemente el coeficiente de Fourier de la expansión de |ψ (t)i en términos de |ϕ1 i y |ϕ2 i. En otras palabras,
el coeficiente ai nos dice el “peso” con el cual contribuye cada estado |ϕi i al estado |ψ (t)i con la restricción de
que |a1 |2 + |a2 |2 = 1.
Con estas aclaraciones interpretaremos de aquı́ en adelante a |hϕ2 |ψ (t)i|2 como la probabilidad de encontrar
al sistema en el tiempo t en |ϕ2 i. La amplitud de probabilidad asociada está dada por
 
iϕ/2 θ −iE+ t/~ θ −iE− t/~
hϕ2 |ψ (t)i = e cos e hϕ2 |ψ+ i − sin e hϕ2 |ψ− i (17.31)
2 2
434 CAPÍTULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS

de las Ecs. (17.6, 17.7) tenemos que

θ θ θ θ
hϕ2 |ψ+ i = cos e−iϕ/2 hϕ2 |ϕ1 i + sin eiϕ/2 hϕ2 |ϕ2 i ; hϕ2 |ψ− i = − sin e−iϕ/2 hϕ2 |ϕ1 i + cos eiϕ/2 hϕ2 |ϕ2 i
2 2 2 2
θ iϕ/2 θ iϕ/2
hϕ2 |ψ+ i = sin e ; hϕ2 |ψ− i = cos e (17.32)
2 2
reemplazando (17.32) en (17.31), la probabilidad de encontrar al sistema en el tiempo t en |ϕ2 i queda
 
2
iϕ/2
θ −iE+ t/~ θ iϕ/2 θ −iE− t/~ θ iϕ/2 2
P12 (t) = |hϕ2 |ψ (t)i| = e cos e sin e − sin e cos e
2 2 2 2
iϕ h
i 2 1 2
e 2 −iE+ t/~ −iE− t/~
= sin θ e−iE+ t/~
− sin θ e−iE− t/~
= sin θ e − e
2 4
1    1 h i
P12 (t) = sin2 θ e−iE+ t/~ − e−iE− t/~ eiE+ t/~ − eiE− t/~ = sin2 θ 1 − e−i(E+ −E− )t/~ − ei(E+ −E− )t/~ + 1
4 4   
1 n h io 1 (E+ − E− ) t
2 −i(E+ −E− )t/~ i(E+ −E− )t/~ 2
= sin θ 2 − e +e = sin θ 2 − 2 cos
4 4 ~

teniendo en cuenta que 1 − cos θ = 2 sin2 (θ/2), tenemos finalmente


  
1 2 (E+ − E− ) t
P12 (t) = sin θ 1 − cos
2 ~
 
(E+ − E− ) t
P12 (t) = sin2 θ sin2 (17.33)
2~

usando la Ec. (1.223), Pág. 108, tenemos que

(H11 − H22 )2 (E1 − E2 )2


sin2 θ = 1 − cos2 θ = 1 − = 1 −
(H11 − H22 )2 + 4 |H21 |2 (E1 − E2 )2 + 4 |W21 |2
4 |W21 |2
sin2 θ = (17.34)
(E1 − E2 )2 + 4 |W21 |2

reemplazando las Ecs. (17.34, 17.9) en la Ec. (17.33) podemos escribir P12 en términos de los elementos matriciales
Wij y de las energı́as no perturbadas E1 y E2
q 
4 |W21 | 2 4 |W12 |2 + (E1 − E2 )2
P12 (t) = sin2  t (17.35)
(E1 − E2 )2 + 4 |W21 |2 2~

la Ec. (17.35) es conocida como Fórmula de Rabi.


La Ec. (17.33) nos muestra que P12 (t) oscila en el tiempo con una frecuencia (E+ − E− ) /h, que corresponde
a la única frecuencia de Bohr del sistema. P12 (t) varı́a desde cero hasta sin2 θ, este valor máximo se alcanza para
tiempos
(2k + 1) π~
tk = , k = 0, 1, 2, . . .
E+ − E−
la frecuencia de oscilación y el máximo sin2 θ de la probabilidad dependen de |W21 | y de ∆ ≡ E1 − E2 . Usando
(17.12), con ∆ = 0 tenemos que

E+ − E− 2 |W21 |
∆=0 ⇒ = , sin2 θ = 1
h h
17.3. EVOLUCIÓN DEL VECTOR DE ESTADO: OSCILACIÓN ENTRE DOS ESTADOS 435

de modo que en un tiempo tk = (2k+1)π~ 2|W21 | el sistema (cuyo estado inicial es |ϕ1 i) estará en el estado |ϕ2 i . En
consecuencia, todo acople entre dos estados de igual energı́a hace que el sistema oscile completamente de un
estado a otro con una frecuencia proporcional al acople.
Nótese que este fenómeno es análogo al que ocurre con dos péndulos acoplados de la misma frecuencia natural.
Si el péndulo 1 se desplaza dejando fijo al péndulo 2, el primero comienza a oscilar pero su oscilación disminuye
en tanto que va aumentando la del péndulo 2 hasta que se llega a la condición opuesta para un cierto tiempo, en
el cual el péndulo 2 oscila y el péndulo 1 está instantáneamente en reposo. Luego comienza la transferencia de
energı́a al péndulo 1 de nuevo y ası́ sucesivamente. Similarmente, cuando aumenta el acople (constante del resorte
que acopla a los péndulos), disminuye el tiempo de transferencia.
Por otro lado, cuando ∆ ≡ E1 − E2 aumenta, la frecuencia (E+ − E− ) /h también aumenta (ver Ecs. 17.13,
17.14) en tanto que sin2 θ disminuye como se aprecia en la Ec. (17.34). Para un acople débil |∆| = |E1 − E2 | ≫
|W21 |, se observa de las Ecs. (17.13, 17.14) que el desdoblamiento E+ − E− de los niveles perturbados solo difiere
ligeramente del desdoblamiento ∆ de los estados no perturbados. Se puede ver también de la Ec. (17.34) que la
cantidad sin2 θ es muy pequeña en tal lı́mite. Esto es de esperarse ya que en el lı́mite de acople débil |ψ+ i es muy
similar a |ϕ1 i, con lo cual el sistema estarı́a en t = 0 en un estado cuasi-estacionario.
Capı́tulo 18

Teorı́a cuántica de la dispersión

Un experimento tı́pico de dispersión (scattering) consiste en un haz de partı́culas que se utilizan como proyecti-
les (usualmente en un acelerador) y se proyectan sobre un blanco (otro conjunto de partı́culas) que con frecuencia
está en reposo en el sistema de referencia de laboratorio1 . Este tipo de experimentos se realizan usualmente con
alguno de estos objetivos: (a) Caracterizar la interacción que hay entre los proyectiles y el blanco, ó (b) Conociendo
el tipo de interacción entre el proyectil y el blanco, obtener información sobre la distribución de masa del blan-
co. Cualquiera de estos objetivos se realiza midiendo la desviación del haz de proyectiles después de interactuar
con el blanco. Primero describiremos brevemente el escenario clásico de la teorı́a de la dispersión, puesto que los
conceptos básicos son más fáciles de construı́r y asimilar en un escenario clásico. Para posteriormente mostrar la
imagen cuántica del fenómeno.

18.1. Teorı́a clásica de la dispersión


Imaginemos una partı́cula incidente (proyectil) sobre un centro dispersor (blanco) que viene desde una distancia
considerable (r → ∞, t → −∞). Es decir la partı́cula incidente es esencialmente libre en este régimen asintótico
con r → ∞, t → −∞, y por tanto se mueve en lı́nea recta. Definiremos el origen O, sobre el blanco o centro
dispersor, y el eje Z será una lı́nea paralela a la lı́nea de propagación de la partı́cula incidente, que pasa por el
origen O. El parámetro de impacto de la partı́cula se define como la distancia entre la lı́nea de propagación
asintótica incidente de la partı́cula y el eje Z. En el régimen asintótico incidente, la partı́cula viene con una energı́a
y momento lineal E y p, bien definidos, y con un parámetro de impacto b. A medida que la partı́cula se acerca
al blanco, la interacción con éste se vuelve considerable de modo que su trayectoria ya no es una lı́nea recta, a
la región donde esta interacción es considerable se le denomina la región de colisión o región de dispersión.
Por convención, se asume que t ∼ 0 cuando el proyectil está dentro de la región de colisión. Cuando el proyectil
se aleja bastante del blanco, éste vuelve a ser libre y su trayectoria será nuevamente una lı́nea recta, la región
asintótica saliente está entonces caracterizada por r → ∞ y t → ∞. Sin embargo, la dirección saliente será
en general diferente a la dirección incidente de la partı́cula, ya que la interacción con el blanco en la región de
colisión se manifiesta en una deflexión de la trayectoria del proyectil. El ángulo θ entre la dirección entrante (o
incidente) y la dirección saliente se denomina ángulo de dispersión de la partı́cula. Este ángulo es el que
contiene información sobre la dispersión y que nos puede arrojar luces sobre la interacción entre el proyectil y el
blanco, o la distribución de masa del blanco. La Fig. 18.1 muestra la dispersión de un proyectil por un blanco fijo.

En un experimento real no utilizamos un solo proyectil ni un solo blanco, sino un haz de partı́culas incidentes
sobre una serie de blancos. A manera de ejemplo, en el experimento de Rutherford se utilizaron como proyectiles
1
En muchos experimentos reales con aceleradores de partı́culas, no hay un blanco fijo con respecto al laboratorio, sino que se ponen
a colisionar dos haces que se aproximan frontalmente. Esto se hace con el fin de aumentar la energı́a cinética total de la colisión. Sin
embargo, si los haces no presentan mucha dispersión en sus velocidades, siempre es posible pasar a un sistema de referencia en el cual
las partı́culas de uno de los haces están en reposo.

436
18.1. TEORÍA CLÁSICA DE LA DISPERSIÓN 437

Figura 18.1: Ilustración del parámetro de impacto b y del ángulo de dispersión θ, en el problema clásico de la
dispersión.

un haz de partı́culas α (núcleos de He4 ) emitidos en un decaimiento radiactivo. Por otro lado, los blancos eran
átomos de oro en forma de una delgada lámina de dicho elemento. La distribución angular de las partı́culas
α, dió una evidencia clara de que la carga positiva del átomo de oro estaba concentrada en un núcleo donde
se encontraba casi toda la masa de dicho átomo. En el caso del experimento de Rutherford, el objetivo era
caracterizar la distribución de masa de los blancos asumiendo conocida la interacción entre los proyectiles y los
blancos (interacción de Coulomb).
Es claro que la deflexión de la partı́cula va a depender tanto de la energı́a E como del parámetro de impacto
b. Adicionalmente, puesto que no tenemos un solo proyectil, es importante caracterizar la intensidad (también
denominada luminosidad o flujo) del haz incidente i.e. la cantidad de partı́culas por unidad de área por unidad de
tiempo que cruzan un área perpendicular a la dirección de propagación del haz. Recordemos que por convención,
la dirección de propagación incidente es uz . Puesto que el haz posee un tamaño o ancho, tendremos proyectiles con
diferentes parámetros de impacto (incluso si todos se preparan con la misma energı́a) y por tanto no tendremos
un ángulo especı́fico de dispersión, sino más bien una distribución angular que se debe medir con algún detector.
El detector de las partı́culas salientes debe estar ubicado a una distancia suficientemente lejana para que se pueda
considerar que está en la región asintótica saliente (lejos de la región de colisión).
Nótese que un haz muy intenso producirı́a dispersión debida a la interacción entre los proyectiles, incluso en
las “regiones asintóticas” incidente y saliente. Esto es indeseable para la mayoria de experimentos en donde se
pretende caracterizar solo la interacción proyectil-blanco. Por otro lado, haces de muy baja intensidad producirán
una estadı́stica muy pobre debido al bajo número de eventos detectados. Esto puede compensarse usando haces
de baja intensidad enviando una serie de haces en tiempos prolongados, a fin de mantener baja la interacción
entre los proyectiles y al mismo tiempo acumular la estadı́stica suficiente. Esto implica retos experimentales que
no trataremos aquı́.
La Fig. 18.2, muestra que las partı́culas incidentes dentro de un “parche” infinitesimal de área transversal dσ,
se dispersarán en un ángulo sólido infinitesimal asociado dΩ centrado alrededor de cierta dirección Ω ≡ (θ, ϕ).
438 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

Figura 18.2: Las partı́culas que inciden en el área dσ, se dispersan dentro del ángulo sólido dΩ centrado en la
dirección (θ, ϕ).

A mayor dσ le corresponderá un mayor ángulo sólido dΩ, al factor de proporcionalidad entre ambos D (Ω) se le
conoce como la sección eficaz diferencial2 en la dirección Ω ≡ (θ, ϕ)

dσ ≡ D (Ω) dΩ ; D (Ω) ≡ (18.1)
dΩ
Adicionalmente, si dn es el número de partı́culas que cruza el área dσ por unidad de tiempo, por definición de
intensidad se tiene que
dn
I≡ ⇒ dn = I dσ

por lo tanto, la sección eficaz diferencial se puede definir como el factor de proporcionalidad que conecta a dn con
la intensidad del haz y el ángulo sólido dΩ (centrado en la dirección Ω ≡ (θ, ϕ)) asociado a dn y dσ
dn
dn = I dσ = I D (Ω) dΩ ⇒ D (Ω) dΩ ≡ (18.2)
I
en palabras decimos que

número de partı́culas dispersadas por unidad de tiempo en


un ángulo sólido dΩ centrado en la dirección Ω ≡ (θ, ϕ)
D (Ω) dΩ ≡ (18.3)
Intensidad incidente
dn tiene dimensiones de tiempo−1 , dΩ es adimensional, e I tiene dimensiones de area−1 × tiempo−1 . Por tanto,
D (Ω) tiene dimensiones de área. Para experimentos de dispersión a escala atómica es usual tomar la unidad básica
barn como medida de la sección eficaz diferencial

1barn = 10−24 cm2

La definición (18.3) implica que se tiene en cuenta solo las partı́culas que se deflectan. El flujo de estas partı́culas
al alcanzar el detector D es inversamente proporcional al cuadrado de la distancia entre el detector y el centro
dispersor, ya que el detector (centrado en una dirección dada (θ, ϕ)) tiene una superficie fija y por tanto el ángulo
sólido ∆Ω que subtendiende con respecto a O, disminuye con la distancia al blanco como r −2 . En la práctica, el
ancho del haz está acotado lateralmente, pero este ancho suele extenderse más allá de la región de influencia de
2
El término sección eficaz diferencial no es muy apropiado, puesto que D (Ω) definido en (18.3) no es una cantidad diferencial
(infinitesimal) sino finita. Es una derivada mas no un diferencial.
18.2. DIFERENTES TIPOS DE COLISIONES 439

la interacción, es decir que en los “bordes exteriores” del haz, no hay una interacción considerable con el blanco y
no hay deflexión de los proyectiles. Sin embargo, el detector suele estar fuera de la trayectoria de estas partı́culas
que no se deflectan, de modo que solo recibe partı́culas deflectadas. Con este arreglo experimental, no es posible
medir la sección eficaz en la dirección frontal (θ = 0) ya que a ella contribuyen las partı́culas con parámetro de
impacto cero o muy grande (al menos para potenciales con simetrı́a esférica). Usualmente la sección eficaz frontal,
se obtiene por extrapolación de los valores de D (θ, ϕ) para valores pequeños de θ.
Por otro lado, de la Fig. 18.2 vemos que el diferencial de área dσ viene dado por

dσ = b |db| dϕ

siendo ϕ el ángulo azimutal (ya explicaremos la razón para introducir el valor absoluto de db), y puesto que el
diferencial del ángulo sólido es dΩ = sin θ dθ dϕ, la Ec. (18.1) nos da3

b db
D (Ω) = (18.4)
sin θ dθ
nótese que D (Ω) puede depender de θ y ϕ si el parámetro de impacto es función de θ y ϕ. En la expresión (18.4) se
ha colocado un valor absoluto debido a que b es tı́picamente una función decreciente de θ y por tanto, la derivada
es tı́picamente negativa.
Definiremos además la sección eficaz total en la forma
Z
σ≡ D (Ω) dΩ

dicho en términos muy generales, σ corresponde al área total del haz incidente que es dispersada por el blanco.

18.2. Diferentes tipos de colisiones


En algunos experimentos de colisión es posible que no se conserve el número y/o la identidad de las partı́culas.
Por ejemplo, en la colisión algunas partı́culas se pueden fusionar o fragmentar, de modo que cambia la identidad
y tal vez el número de partı́culas salientes. Esto ocurre en particular cuando las partı́culas que forman el proyectil
y/o el blanco no son elementales, sino que están compuestas de otras partı́culas más pequeñas. En este tipo
de colisiones, la energı́a interna de las partı́culas involucradas cambia de modo que la energı́a cinética inicial es
diferente a la energı́a cinética total final (colisiones inelásticas).
De otra parte, en un régimen relativista, es posible que se creen o aniquilen partı́culas a expensas de la
energı́a de las partı́culas entrantes gracias a la equivalencia masa-energı́a. Por ejemplo, en Fı́sica de partı́culas un
electrón y un positrón (la antipartı́cula del electrón) colisionando a altas energı́as se pueden convertir en un par
muón-antimuón. El muón es una partı́cula con caracterı́sticas similares al electrón pero con masa en reposo unas
doscientas veces mayor, este proceso se simboliza como

e− e+ → µ− µ+ (18.5)

en esta colisión cambia la naturaleza de las partı́culas salientes. Nótese que el producto final es de partı́culas mucho
más masivas, que se pueden crear a expensas de la energı́a cinética de las partı́culas incidentes. También existen
en Fı́sica de partı́culas los decaimientos, en los cuales una partı́cula se fragmenta en dos o más. Por ejemplo, un
muón µ− puede decaer en dos electrones y un positrón

µ− → e− e− e+ (18.6)

en particular es posible que se dé el proceso (18.5) y el muón resultante decaiga como en (18.6) resultando

e− e+ → µ− µ+ → e− e− e+ µ+
3
Para construı́r dΩ, los diferenciales dϕ y dθ se definen positivos.
440 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

que en forma efectiva se puede ver como


e− e+ → e− e− e+ µ+

en esta colisión cambió tanto el número de partı́culas como su naturaleza. Este tipo de colisiones las llamamos
genéricamente reacciones. En la dispersión o scattering el estado final y el inicial están compuestos de las mismas
partı́culas en número y en identidad. Nos limitaremos a este tipo de reacciones. Sin embargo, el concepto de
sección eficaz puede extrapolarse a reacciones generales.
Normalmente denominamos dispersión o scattering a aquellas colisiones en las cuales el número y la identidad
de las partı́culas se conserva. Si además se conserva la energı́a cinética total, es decir si no hay cambios en la
energı́a interna de las partı́culas, decimos que la dispersión es elástica. En el presente contexto nos limitaremos a
estudiar el fenómeno de la dispersión elástica.

18.3. Ejemplos de dispersión en mecánica clásica


18.3.1. Dispersión elástica por esfera rı́gida

Figura 18.3: Dispersión de una masa puntual por una esfera rı́gida. El ángulo de incidencia α, coincide con el
ángulo de reflexión.

Esta dispersión puede simular la colisión elástica de una esfera rı́gida de masa m y radio r como proyectil,
que choca con otra esfera rı́gida en reposo de masa M ≫ m y de radio R ≫ r. Podemos por simplicidad tratar
el proyectil como puntual, y considerar que el blanco no recula en el choque. Si la colisión es elástica el ángulo
de incidencia α es igual al ángulo de reflexión (medidos con respecto a la normal a la superficie del blanco) como
se vé en la Fig. 18.3. Siendo θ el ángulo de dispersión y b el parámetro de impacto, de la Fig. 18.3 son claras las
relaciones

b = R sin α ; θ = π − 2α siempre que b ≤ R


θ = 0 siempre que b > R

Tendremos entonces que


 
π θ θ
b = R sin − = R cos (18.7)
2 2 2
18.3. EJEMPLOS DE DISPERSIÓN EN MECÁNICA CLÁSICA 441

nótese que para definir b como función de θ asignamos únicamente el valor b = R para θ = 0. Tenemos entonces
que  
db 1 θ
= − R sin (18.8)
dθ 2 2
puesto que θ está entre cero y π, la derivada (18.8) es negativa como se anticipó. Sustituyendo (18.7) y (18.8) en
la Ec. (18.4) nos queda
  θ θ

R cos θ2 1 2
− R sin θ = R cos 2 sin 2 R2 sin2 θ
D (θ) = 2 =
sin θ 2 2 sin θ 2 sin θ
R2
D (θ) =
4
en este caso la sección eficaz diferencial es independiente de θ. La sección eficaz total estará dada por
Z Z
R2
σ= D (Ω) dΩ = dΩ = πR2 (18.9)
Ω 4 Ω

habı́amos dicho que en términos muy generales, σ corresponde al área total del haz incidente que es dispersada
por el blanco. Efectivamente, en este caso σ es el área transversal del blanco y solo proyectiles que incidan dentro
de este área golpearán el blanco y se dispersarán, los que vengan fuera de este área (b > R) no se dispersan en lo
absoluto.
El lector puede verificar que si consideramos el tamaño del proyectil, definiendo R1 y R2 como los radios del
blanco y el proyectil respectivamente, la sección eficaz diferencial toma la forma

(R1 + R2 )2
D (θ) = ; σ = π (R1 + R2 )2
4
donde vemos que la expresión para D (θ) es simétrica con respecto a los radios del proyectil y el blanco (ver por
ejemplo la Ref. [6], Sec. 9.9).

18.3.2. Dispersión de Rutherford


Si un proyectil muy liviano de carga q1 y energı́a cinética E, se dispersa por un blanco fijo muy pesado de
carga q2 , podemos utilizar la ley de Coulomb como ley de interacción4 . El parámetro de impacto en términos del
ángulo de dispersión y de la energı́a E está dado por

q1 q2 θ
b= cot (18.10)
8πǫ0 E 2

y la sección eficaz diferencial viene dada por


" #2
q1 q2
D (θ) = θ
 (18.11)
16πǫ0 E sin2 2

al integrar sobre el ángulo sólido, puede verse que la sección eficaz total es infinita. Esto se debe a que la interacción
coulombiana es de alcance infinito, de modo que para un haz de cualquier área transversal todas sus partı́culas
son dispersadas.
El cálculo de las ecuaciones (18.10, 18.11) es extenso y el lector lo puede consultar en cualquier texto de
mecánica clásica (ver por ejemplo la Ref. [6], Sec. 9.10).
4
Esta es la situación por ejemplo, cuando los proyectiles son electrones y los blancos son núcleos.
442 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

18.4. Teorı́a cuántica de la dispersión


En escala atómica, nuclear o subnuclear, los efectos cuánticos son considerables y de hecho resulta inapropiado
utilizar la teorı́a clásica. En los modelos clásicos las partı́culas poseen posición y momento bien definidos, confi-
gurando trayectorias bien definidas. En el escenario cuántico, las partı́culas y sus trayectorias son reemplazadas
por funciones de onda que se propagan (usualmente en forma de paquetes de onda) y que además obedecen a un
principio de incertidumbre que prohibe localizar el paquete y definir su momento simultáneamente, con precisión
indefinida. Nótese que a pesar de que ya no tenemos trayectorias asociadas a las partı́culas, sı́ tenemos direcciones
de propagación de las ondas asociadas, lo cual nos permite definir aún un ángulo de dispersión θ, de manera
coherente. Un aspecto sobresaliente que surge de la cuantización, es la posibilidad de que las ondas asociadas a las
partı́culas incidentes interfieran con las ondas asociadas a las partı́culas salientes. Tal fenómeno de interferencia
puede generar diferencias significativas con respecto a las predicciones clásicas.
Asumiremos el escenario más simple de dispersión elástica de partı́culas incidentes que rotulamos con (1)
debidas a la interacción con partı́culas blanco que denotamos por (2). Supondremos además que el blanco es
mucho más masivo que los proyectiles de modo que no recula. Es decir que asumiremos blanco fijo a lo largo de
todo el proceso. También haremos las siguientes aproximaciones adicionales.

1. Supondremos que las partı́culas (1) y (2) no poseen espı́n. Esto simplificará considerablemente el problema.
Sin embargo, en un escenario cuántico realista el espı́n juega un papel muy importante en la dispersión.
2. Asumiremos que el blanco es lo suficientemente delgado para que no ocurra dispersión múltiple. Es decir
procesos en los que una partı́cula incidente se dispersa varias veces antes de abandonar la región de colisión.
Por ejemplo, en el experimento de Rutherford (estrictamente, de Geiger y Marsden 1909), la lámina de oro
poseı́a un espesor de unos 10−4 cm. El número promedio de átomos atravesados por la partı́cula α, está
aproximadamente dado por el espesor de la lámina dividido por el diámetro de un átomo (∼ 10−8 cm). Es
decir que el proyectil atraviesa unos 104 átomos de oro, de modo que es de esperarse que existan dispersiones
múltiples. Estas dispersiones múltiples requieren un tratamiento estadı́stico que no estudiaremos aquı́.
3. Ignoraremos la posibilidad de coherencia entre las ondas dispersadas por las diferentes partı́culas que cons-
tituyen el blanco. Esta aproximación se justifica si el ancho del paquete asociado a las partı́culas (1) es
pequeño comparado con la distancia promedio entre las partı́culas (2). De modo que solo tendremos en
cuenta procesos de dispersión de una partı́cula (1) del haz por una partı́cula (2) del blanco. Cuando estas
coherencias son despreciadas, el flujo de partı́culas detectadas es la suma de los flujos dispersados por cada
una de las N partı́culas del blanco. Es decir N veces el flujo dispersado por cualquiera de las partı́culas del
blanco. Nótese que la posición del proyectil dentro del blanco no es relevante siempre y cuando las dimensio-
nes del blanco y de la región de colisión sean mucho menores que la distancia entre el blanco y el detector.
Esta condición asintótica de hecho es fundamental en los experimentos de dispersión. Esta aproximación
excluye por ejemplo el scattering coherente de electrones en un cristal (que forma los patrones de difracción
de Bragg)5 .
4. Supondremos que la interacción entre proyectiles (1) y blancos (2) se describe mediante un potencial
V (r) ≡ V (r1 − r2 ) que depende solo de la posición relativa r entre las partı́culas proyectil y blanco. No
consideraremos la interacción entre proyectiles o entre blancos. Como se vió en las secciones 12.1, 12.2, en
el sistema de referencia centro de masa, este problema se reduce al estudio de la dispersión de una partı́cula
sometida a un potencial V (r) de masa
m1 m2
µ=
(m1 + m2 )
si asumimos que el blanco no recula, podemos asumir que el sistema de referencia del laboratorio y el del
centro de masa son aproximadamente iguales.
5
En la difracción de Bragg, las dimensiones tı́picas de la onda (longitud de onda), son comparables a la distancia promedio entre
los blancos (distancias interatómicas en el cristal), de lo cual surge el fenómeno de la difracción.
18.5. ESTADOS ESTACIONARIOS DE DISPERSIÓN 443

18.5. Estados estacionarios de dispersión


Asumiremos que se conoce la estructura del paquete de onda incidente, esto es para r → ∞ y t → −∞,
ya que estas son las condiciones iniciales en las que se prepara el experimento. La interacción de los proyectiles
con el blanco se modelará por medio de un potencial central V (r), y colocamos por conveniencia el origen en
el centro dispersor. La idea es describir el scattering calculando la evolución temporal del paquete de onda del
proyectil. Puesto que todo paquete de onda se puede escribir como una superposición de estados estacionarios, la
determinación de dichos estados será un buen punto de partida. Comenzaremos por tanto, estudiando la ecuación
de valores propios del Hamiltoniano asociado al proyectil

P2
H = H0 + V (r) = + V (r)

estrictamente, basaremos nuestros razonamientos en el comportamiento de las soluciones estacionarias en lugar de
los paquetes de ondas. Esta forma de razonamiento fué la que se utilizó en las secciones 3.4-3.8, para potenciales
“rectangulares” en una dimensión, y consistió en considerar el flujo estacionario de probabilidad asociado al estado
estacionario, para estudiar las corrientes de probabilidad que genera. Aunque este tratamiento no es riguroso,
es posible probar que se obtienen los mismo resultados que en el caso más realista en el cual se estudia el
comportamiento del paquete de onda completo6 .
Puesto que el potencial V (r) no depende explı́citamente del tiempo, existe un conjunto de soluciones ψ (r, t)
de la ecuación de Schrödinger, que admite separación de variables [ver sección 3.2, Ecs. (3.15, 3.16) Pág. 159], en
la forma
ψ (r, t) = η (r) e−iEt/~ (18.12)
donde η (r) es la solución de la ecuación de valores propios
 
~ 2
− ∇ + V (r) η (r) = Eη (r) (18.13)

además los estados estacionarios (18.12) describen un autoestado de energı́a E. Asumiremos que el potencial
decrece más rápido que 1/r. Por tanto, la interacción tipo Coulomb debe tratarse por aparte. Puesto que la colisión
es elástica y los estados que consideraremos son de energı́a bien definida, tenemos que la energı́a se conserva y es
igual a la energı́a de la partı́cula incidente, la cual es puramente cinética. En consecuencia, estaremos interesados
solo en las soluciones de energı́a positiva de (18.13), asociadas a partı́cula libre

~2 k2
E= (18.14)

redefiniendo el potencial en la forma
~2
V (r) = U (r) (18.15)

podemos reescribir la Ec. (18.13) en términos del número de onda k
 2 
∇ + k2 − U (r) η (r) = 0 (18.16)

Para un valor fijo de k (i.e. de la energı́a), hay infinitas soluciones linealmente independientes para la Ec. (18.16), es
decir cada valor positivo de la energı́a está infinitamente degenerado7 . Debemos entonces seleccionar las soluciones
que satisfagan las condiciones fı́sicas del problema en cuestión. Este fué el procedimiento que se siguió en las
secciones 3.4-3.8. A manera de ejemplo, en la sección 3.6 se supone que la onda reflejada solo surge en la interfase
6
Una demostración de este hecho para el scattering de una partı́cula en un potencial unidimensional particular, se puede encontrar
en el complemento JI del Volumen 1 de la Ref. [4].
7
Adicionalmente, puesto que el problema es no acotado, el espectro es a priori contı́nuo.
444 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

entre las dos regiones y por tanto, la solución estacionaria en la región II consta solo de una onda transmitida,
esto nos lleva a su vez a la condición descrita por la Ec. (3.63), Pág. 171. En el presente contexto la determinación
de las soluciones fı́sicas será más compleja debido a que es un problema tridimensional y además el potencial
es en principio arbitrario. A pesar de que usaremos soluciones estacionarias, utilizaremos algunas condiciones
asociadas a las propiedades de los paquetes de onda. Los estados estacionarios que surjan cuando se impongan
estas condiciones en las soluciones de la Ec. (18.16) se denominarán estados estacionarios de dispersión, y su
función de onda espacial se denotará por ηk (r).
Para valores negativos grandes de t, el paquete de onda está en sus condiciones iniciales. Lo usual es preparar
el proyectil en un estado bien definido de momento, es decir una onda plana. Por tanto, en t → −∞, el estado
estacionario η (r) que buscamos debe contener una onda incidente con momento bien definido que se propaga en
dirección Z, i.e. eikz . Cuando el paquete se aproxima a la región de dispersión, se deforma de una manera en
general compleja y que depende de la forma especı́fica del potencial. Sin embargo, para t → ∞, el paquete se ha
alejado bastante de la región de dispersión y por tanto su perfil se simplifica de nuevo. El paquete saliente debe
poseer una onda eikz que continúa propagándose en la dirección positiva de Z (como si no existiera potencial), y un
paquete dispersado por el potencial. Por tanto, el paquete de onda completo (al menos en las regiones asintóticas)
que representa a la solución estacionaria de dispersión para una energı́a dada E = ~2 k2 /2µ, será la superposición
de una onda plana y una onda dispersada
(k) (k)
lı́m ηk (r) → ηinc (r) + ηsc (r) = Ceikz + ηsc
(k)
(r) (18.17)
r→∞

(k) (k)
donde ηinc (r), ηsc (r) representan la onda incidente y dispersada respectivamente. Puesto que esta solución es
(k)
válida solo en las regiones asintóticas en donde el proyectil es libre, entonces ηsc (r) es solución de la ecuación
(18.13)8 pero con V (r) = 0. Realizaremos un ansatz de separación de variables similar al de las Ecs. (12.33, 12.36),
Pág. 351
(k) uk (r)
ηsc (r) = fk (θ, ϕ) Rk (r) ≡ fk (θ, ϕ) (18.18)
r
la Ec. (18.13) en coordenadas esféricas está dada por la Ec. (12.31) Pág. 350
 
~2 ∂ 2 L2
− r+ + V (r) η (r, θ, ϕ) = E η (r, θ, ϕ) (18.19)
2µr ∂r 2 2µr 2
insertando el ansatz (18.18) en (18.19), se obtiene
 
~2 ∂ 2 L2
− r+ + V (r) fk (θ, ϕ) Rk (r) = E fk (θ, ϕ) Rk (r)
2µr ∂r 2 2µr 2
 
~2 ∂ 2 L2 fk (θ, ϕ)
fk (θ, ϕ) − r + V (r) R k (r) + Rk (r) = E fk (θ, ϕ) Rk (r)
2µr ∂r 2 2µr 2
 
~2 ∂ 2 Rk (r) L2 fk (θ, ϕ)
− r + V (r) Rk (r) + = E Rk (r) (18.20)
2µr ∂r 2 2µr 2 fk (θ, ϕ)
y teniendo en cuenta que L2 es un operador diferencial que solo involucra a los ángulos, podemos definir una
función angular
L2 fk (θ, ϕ)
Hk (θ, ϕ) ≡ (18.21)
fk (θ, ϕ)
con lo cual la Ec. (18.20) queda
 
~2 ∂ 2 Hk (θ, ϕ)
− r + V (r) + Rk (r) = E Rk (r)
2µr ∂r 2 2µr 2
8
Naturalmente, la solución completa de la ecuación (18.13) con V (r) = 0, debe ser (18.17). Pero dado que Ceikz ya es solución y
puesto que esta ecuación es lineal, se deduce que cada sumando en (18.17) es solución de la Ec. (18.13) con V (r) = 0.
18.5. ESTADOS ESTACIONARIOS DE DISPERSIÓN 445

haciendo V (r) = 0 (ya que estamos buscando la solución en la región asintótica), y escribiendo Rk (r) = uk (r) /r,
con un procedimiento similar al usado para llegar de la Ec. (12.35) a la Ec. (12.37) obtenemos9
 2 2 
~ d Hk (θ, ϕ)
− + uk (r) = Ek uk (r) (18.22)
2µ dr 2 2µr 2
ahora, puesto que las soluciones que buscamos son para r → ∞, despreciaremos el término proporcional a 1/r 2 ,
de modo que buscaremos la solución de la ecuación

~2 d2 uk (r)
− = Ek uk (r) (18.23)
2µ dr 2

La solución de la Ec. (18.23) tiene la forma


r
ikr −ikr 2µE
uk (r) = Ae + Be ; k≡ (18.24)
~2

de la Ec. (18.14) vemos que esta k corresponde efectivamente al número de onda asociado a partı́cula libre. Teniendo
en cuenta que la solución completa debe tener el término temporal e−iEt/~ , dicha solución es una superposición
Et
de los dos términos ei(±kr− ~ ) . Ahora bien, el estado asintótico saliente debe mantener fase constante, por tanto
el término ±kr − Et/~ debe permanecer acotado para r → +∞ y t → +∞ (es claro que cuando el tiempo crece la
distancia r al origen también crece), pero esto solo es posible eligiendo el término con signo positivo (el término
con signo negativo claramente tiende a −∞ cuando el tiempo crece). En consecuencia, solo la parte con eikr
corresponde a la onda dispersada. Las condiciones fı́sicas nos llevan entonces a
r
2µE
uk (r) = Aeikr ; k≡ (18.25)
~2

sustituyendo (18.25) en (18.18) y esta a su vez en (18.17) tenemos que

(k) (k) eikr


lı́m ηk (r) → ηinc (r) + ηsc (r) = Ceikz + fk (θ, ϕ) (18.26)
r→∞ r

donde el factor A de la Ec. (18.25) se absorbió en la función angular fk (θ, ϕ). Nótese que a pesar de la simetrı́a
esférica del potencial puede aparecer una dependencia angular en la función de onda estacionaria de dispersión,
debido a que la dirección del haz rompe la simetrı́a esférica del potencial, reduciéndola a una simetrı́a cilı́ndrica.
No obstante, de la simetrı́a cilı́ndrica remanente se espera que la dependencia angular sea solo en θ, pero no en el
ángulo azimutal ϕ. Si adicionalmente el potencial no es central, también se rompe la simetrı́a cilı́ndrica y esperamos
que haya dependencia con el ángulo azimutal ϕ. De hecho la función fk (θ, ϕ) conocida como la amplitud de
dispersión es la única en la Ec. (18.26) que depende de la forma especı́fica del potencial. La Fig. 18.4 muestra
las ondas planas incidentes, ası́ como las ondas esféricas salientes o dispersadas.

18.5.1. Condiciones fı́sicas sobre el paquete de ondas


A pesar de que utilizaremos estados estacionarios, es necesario verificar que la solución real (paquete de ondas)
satisface ciertas condiciones fı́sicas que analizaremos en forma semi-cuantitativa. Consideremos el paquete real
9
El procedimiento es similar al que nos llevó a la Ec. (12.37) Pág. 352, con V (r) = 0. Sin embargo, si se compara la ecuación
(18.22) con la Ec. (12.37), vemos que en (18.22) no desaparece la dependencia angular en contraste con (12.37). Esto se debe a que en
la separación de variables (18.18), las fk (θ, ϕ) no son funciones propias del operador momento angular, como sı́ ocurre en la separación
de variables de las Ecs. (12.33, 12.36). De hecho para llegar a las ecuaciones (12.33, 12.36) se exigió que las funciones en cuestión fueran
funciones propias simultáneas de H, L2 y L3 .
446 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

Figura 18.4: Dispersión elástica de ondas planas incidentes por un potencial central. La figura ilustra las ondas
planas incidentes y las ondas esféricas dispersadas o salientes.

ψ (r, t) escrito en términos de las soluciones estacionarias fı́sicas ψk (r, t) (autoestados del Hamiltoniano total H)10

Z ∞ Z ∞
lı́m ψ (r, t) → dk g (k) ψk (r, t) = dk g (k) ηk (r) e−iEk t/~ (18.27)
r→∞ 0 0
Z ∞ Z ∞
eikr −iEk t/~ ~2 k2
lı́m ψ (r, t) → dk g (k) eikz e−iEk t/~
+ dk g (k) fk (θ, ϕ) e ; Ek = (18.28)
r→∞ 0 0 r 2µ

para que estas sean soluciones válidas en ambos regı́menes asintóticos (t → ∞ y t → −∞) es necesario probar que
la onda dispersada tiende a cero para valores grandes de −t, ya que en el régimen incidente la onda todavı́a no se ha
dispersado con el potencial11 . Tomaremos como hipótesis que la función g (k) es real, con un pico muy pronunciado
alrededor de k = k0 y simétrica alrededor de este punto. Es decir que la mayor parte de la contribución está en una
región muy cercana a k = k0 . La posición del máximo de cada paquete se puede calcular utilizando la condición
de fase estacionaria discutida en las secciones 2.11.2, 2.1312 . Para el paquete de ondas planas la condición de fase
estacionaria nos dice que el máximo del paquete está ubicado en

~k0
zM (t) = vG t ; vG = (18.29)
µ

10
Nótese que en este caso, hemos escrito el paquete en términos de autoestados de H en lugar de ondas planas. Con respecto a tales
estados, incluso la onda plana pura incidente es “policromática”.
11
Aquı́ hemos despreciado una posible dispersión en la orientación del vector de onda k. Es decir, hemos supuesto que la onda
incidente va en dirección uz perfectamente definida, y toda la dispersión se la endilgamos al módulo de k, o equivalentemente a la
energı́a incidente.
12
Ver en particular las discusiones alrededor de las Ecs. (2.64, 2.83) Págs. 140, 149 respectivamente.
18.5. ESTADOS ESTACIONARIOS DE DISPERSIÓN 447

en tanto que para el paquete de ondas dispersadas, dicho máximo en la dirección (θ, ϕ) se ubica a una distancia
del origen dada por

dαk (θ, ϕ)
rM (θ, ϕ, t) = − + vG t ; fk (θ, ϕ) = |fk (θ, ϕ)| eiαk (θ,ϕ) (18.30)
dk k=k0

es importante tener presente que las Ecs. (18.29, 18.30) solo son válidas para valores grandes de |t|. De la Ec.
(18.30) se observa que para valores grandes de −t, necesariamente estamos muy lejos de la condición de máximo
para r, ya que tal ecuación muestra que para lograr una interferencia constructiva que nos conduzca a un máximo
del paquete de ondas dispersadas en t → −∞, requerirı́amos valores negativos de r los cuales están fuera del
dominio de la coordenada r. Por tanto, el paquete de onda (18.28) es tal que para t → −∞ solo contribuyen las
ondas planas incidentes, y de acuerdo con la Ec. (18.29), el máximo del paquete está ubicado en zM → −∞ como
debe ser. En cambio, para valores grandes positivos de t podemos encontrar máximos tanto en el paquete de ondas
planas como en el paquete de ondas dispersadas (naturalmente, ambos máximos no necesariamente coinciden en
el tiempo, y por tanto el máximo de la suma podrı́a estar a su vez en otro tiempo), mostrando que en el régimen
asintótico saliente ambas ondas son relevantes como esperábamos.
Asumiendo que g (k) es aproximadamente gaussiano, podemos suponer (aproximadamente) paquetes de mı́nima
incertidumbre. Por tanto, la extensión espacial ∆z del paquete de ondas (18.27) está relacionada con la dispersión
del momento p = ~k en la forma
1
∆z ∆p ≃ ~ ⇒ ∆z ≃
∆k
hemos hecho la hipótesis de que g (k) es una distribución muy “aguda” i.e. ∆k muy pequeño. De hecho asumiremos
que ∆k es lo suficientemente pequeño13 para que ∆z sea mucho mayor que las dimensiones lineales de la región de
dispersión14 . Bajo estas condiciones, el paquete de onda que se mueve a una velocidad vG hacia el origen, cruzará
la región de dispersión en un tiempo
∆z 1
∆T ≃ ≃ (18.31)
vG vG ∆k
es razonable tomar este como un “tiempo caracterı́stico de dispersión”15 . Si definimos t = 0 cuando el paquete
de ondas cruza el origen, podemos decir que existe onda dispersada para t & −∆T /2 que es cuando el extremo
frontal del paquete incidente ha llegado a la región de influencia del potencial. Para t = 0, la parte más distante
al origen del paquete dispersado está a una distancia del orden de ∆z/2.
Cualitativamente, este problema se asemeja al siguiente: supongamos un potencial de la forma V (r) f (t), en
el cual f (t) se incrementa lentamente desde 0 hasta 1 en el intervalo [−∆T /2, 0], y el potencial es cero para
t < −∆T /2. Supongamos que la partı́cula está descrita por una onda plana en todo el espacio. La onda plana se
empieza a modificar para t & ∆T /2, y se puede demostrar que la dispersión en t = 0 se asemeja a la de nuestro
problema.
En nuestro problema tenemos dispersión por un potencial constante en el tiempo y la amplitud del paquete se
incrementa gradualmente entre −∆T /2 y cero. En el problema análogo, la onda plana es de amplitud constante
y lo que se aumenta gradualmente en el intervalo [−∆T /2, 0] es el módulo del potencial.
Esta analogı́a es particularmente interesante cuando examinamos el lı́mite con ∆k → 0, de manera que g (k) →
δ (k − k0 ). En este lı́mite, la descripción de nuestro problema por estados estacionarios se vuelve exacta. Por otro
lado, la Ec. (18.31) nos dice que en este lı́mite ∆T → ∞, y el comportamiento análogo del potencial dependiente
del tiempo corresponderá a que el “encendido” del potencial sea infinitamente lento i.e. “adiabático”. Por esta
13
Puesto que las condiciones iniciales experimentales suelen ser preparar casi un autoestado de momento, esta suposición es muy
razonable si los coeficientes g (k) no cambian mucho en el tiempo.
14
Esto no necesariamente entra en contradicción con nuestra suposición de que el ancho del paquete incidente es pequeño comparado
con la separación promedio entre las partı́culas del blanco (ver Pág. 442). Es plausible que la distancia promedio d entre partı́culas
del blanco sea mucho mayor que la mayor longitud L asociada a la región de dispersión. El ancho ∆z del paquete debe ser tal que
L << ∆z << d, para que nuestros argumentos sean válidos.
15
Esto nos permite definir tiempo grandes y pequeños, el comportamiento asintótico se da entonces para |t| >> ∆T .
448 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

razón, podemos decir que la descripción de la dispersión por medio de estados estacionarios es muy semejante a
la que se obtiene imponiendo un potencial que se modula adiabáticamente sobre una onda plana libre.

18.6. Cálculo de la sección eficaz usando corrientes de probabilidad


Ya hemos dicho que la dispersión del paquete de ondas la simularemos como una dispersión de estados esta-
cionarios. Para calcular la sección eficaz, debemos suplantar las trayectorias clásicas que describen las propiedades
de propagación de las partı́culas, por alguna propiedad de propagación asociada a la ecuación de Schrödinger.
Clásicamente, la intensidad era el número de partı́culas por unidad de área por unidad de tiempo que cruza un
área perpendicular a la dirección de propagación, y se le puede asignar la dirección de propagación de las partı́cu-
las incidentes. El análogo cuántico, es la densidad de corriente de probabilidad que va en la dirección incidente y
describe la propagación de la distribución de probabilidad. No obstante, debe tenerse en cuenta que los detectores
no registran probabilidades sino partı́culas, por lo cual debemos enlazar la densidad de corriente de probabilidad
con una densidad de corriente (flujo) asociada a las partı́culas.
En virtud de lo anterior, consideraremos que los estados estacionarios describen un flujo de probabilidad
estacionario, con lo cual calculamos la sección eficaz para las corrientes incidente y dispersada. Este método es
análogo al que utilizamos en los problemas unidimensionales con potenciales rectangulares, en los cuales calculamos
las corrientes incidentes, reflejadas y transmitidas para obtener los coeficientes de reflexión y transmisión. Ya hemos
obtenido la expresión para la densidad de corriente de probabilidad asociada a estados estacionarios Ec. (3.33),
Pág. 164  
1 ∗ ~
J (r) = Re η (r) ∇η (r) (18.32)
µ i
(k)
para la onda incidente tenemos que ηinc (r) = Ceikz con lo cual la densidad de corriente de probabilidad incidente
Jinc vendrá dada por
    h i
|C|2 −ikz ~ ikz |C|2 −ikz ~ ∂eikz |C|2
Jinc (r) = Re e ∇e = Re e uz = uz Re e−ikz ~keikz
µ i µ i ∂z µ
~k
Jinc (r) = |C|2 uz (18.33)
µ

puesto que |C|2 es la densidad de probabilidad de la onda incidente y p = ~k, esta corriente tiene la forma ρv, en
(k)
la dirección uz de propagación. Para la onda dispersada tenemos ηsc (r) = fk (θ, ϕ) eikr /r, de modo que debemos
expresar el gradiente en (18.32) en coordenadas esféricas
  
1 e−ikr ~ eikr
Jsc = Re fk∗ (θ, ϕ) ∇ fk (θ, ϕ)
µ r i r
  
1 ∗ −ikr ~ eikr
Jsc = Re fk (θ, ϕ) e ∇ fk (θ, ϕ) (18.34)
µr i r

calcularemos cada componente de la densidad de corriente dispersada (18.34) por aparte


     ikr 
1 ~ ∂ eikr 1 ~ e ik eikr
(Jsc )r = Re fk∗ (θ, ϕ) e−ikr fk (θ, ϕ) = Re |fk (θ, ϕ)|2 e−ikr − 2 +
µr i ∂r r µr i r r
   ( )
1 1 1 ~ |fk (θ, ϕ)|2
= 2
Re |fk (θ, ϕ)|2 ~ − + k = Re i + |fk (θ, ϕ)|2 ~k
µr ir µr 2 r
~k 1
(Jsc )r = |fk (θ, ϕ)|2 (18.35)
µ r2
18.6. CÁLCULO DE LA SECCIÓN EFICAZ USANDO CORRIENTES DE PROBABILIDAD 449

    
1 ∗ −ikr ~ 1 ∂ eikr 1 ∗ −ikr ~ e
ikr ∂f (θ, ϕ)
k
(Jsc )θ = Re fk (θ, ϕ) e fk (θ, ϕ) = Re fk (θ, ϕ) e
µr i r ∂θ r µr i r2 ∂θ
 
~ 1 1 ∗ ∂fk (θ, ϕ)
(Jsc )θ = Re f (θ, ϕ) (18.36)
µ r3 i k ∂θ

    
1 ∗ −ikr ~ 1 ∂ eikr 1 ∗ ~ 1 ∂fk (θ, ϕ)
(Jsc )ϕ = Re fk (θ, ϕ) e fk (θ, ϕ) = Re fk (θ, ϕ)
µr i r sin θ ∂ϕ r µr i r 2 sin θ ∂ϕ
 
~ 1 1 ∗ ∂fk (θ, ϕ)
(Jsc )ϕ = Re f (θ, ϕ) (18.37)
µ r 3 sin θ i k ∂ϕ
A partir de las Ecs. (18.35, 18.36, 18.37), la densidad de corriente dispersada queda
~k 1
Jsc = (Jsc )r ur + (Jsc )θ uθ + (Jsc )ϕ uϕ ; (Jsc )r = |fk (θ, ϕ)|2 (18.38)
µ r2
   
~ 1 1 ∗ ∂fk (θ, ϕ) ~ 1 1 ∗ ∂fk (θ, ϕ)
(Jsc )θ = Re f (θ, ϕ) ; (Jsc )ϕ = Re f (θ, ϕ) (18.39)
µ r3 i k ∂θ µ r 3 sin θ i k ∂ϕ
para valores muy grandes de r las componentes angulares son mucho menores que la radial ya que las primeras van
como r −3 y la radial como r −2 . Por tanto en el régimen asintótico saliente, la corriente dispersada es prácticamente
radial
~k 1
lı́m J ≃
r→∞ sc 2
|fk (θ, ϕ)|2 ur (18.40)
t→∞
µ r
Ahora bien, el haz incidente consta de partı́culas independientes ya que hemos despreciado la interacción entre
proyectiles. Puesto que asumimos que todos los proyectiles se preparan en el mismo estado inicial, enviar si-
multáneamente un gran número de estos proyectiles es equivalente a repetir el mismo experimento con una sola
partı́cula un gran número de veces bajo las mismas condiciones iniciales. Si el estado estacionario en el que se
preparan las partı́culas es ηk (r), el flujo de partı́culas incidente kFinc k (número de partı́culas del haz incidente que
cruzan una superficie unidad perpendicular a uz por unidad de tiempo) debe ser proporcional al flujo de probabi-
lidad incidente kJinc k (probabilidad por unidad de área por unidad de tiempo que se propaga en la dirección uz ).
Por supuesto ambos vectores son paralelos (en la dirección de propagación uz de las partı́culas y la probabilidad).
Usando la Ec. (18.33) tenemos
~k
kFinc k = K kJinc k = K |C|2
µ
~k
⇒ Finc = K |C|2 uz (18.41)
µ
ahora bien, si tenemos un detector ubicado a una distancia r del origen, un parche de superficie dS del detector
normal a la dirección ur , subtiende un ángulo sólido dΩ dado por
dS
dΩ =
r2
por otro lado, el número de partı́culas dn que golpeará la superficie dS del detector por unidad de tiempo, es igual
al flujo de partı́culas que atravieza dicha superficie

dn = Fsc · dS = K Jsc · dS

donde hemos usado el hecho de que la constante de proporcionalidad entre flujo de probabilidad y flujo de partı́culas
es universal e independiente del valor de tales flujos. Si suponemos que el detector tiene superficie esférica con
centro en el origen entonces
dS = dS ur = r 2 dΩ ur (18.42)
450 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

y por tanto  
~k 1 ~k
dn = K (Jsc )r dS = K |fk (θ, ϕ)|2 r 2 dΩ = K |fk (θ, ϕ)|2 dΩ (18.43)
µ r2 µ
donde hemos usado (18.38, 18.42). Vale decir que incluso si el parche no es un sector esférico, para valores
suficientemente grandes de r podemos usar la aproximación (18.40) y dn serı́a independiente de r. Esta condición
de hecho se debe cumplir en los experimentos. Insertando las Ecs. (18.41, 18.43) en la definición de la sección
eficaz diferencial Ec. (18.2) resulta
~k ~k
dn = kFinc k D (Ω) dΩ ⇒ K |fk (θ, ϕ)|2 dΩ = K |C|2 D (Ω) dΩ
µ µ
de lo cual resulta 2
1

D (Ω) = fk (θ, ϕ) (18.44)
C
de modo que la sección eficaz diferencial es esencialmente el cuadrado del módulo de la amplitud de dispersión.
Nótese que hemos omitido la contribución a la corriente asociada al estado estacionario ηk (r) que proviene
de la interferencia entre la onda plana y la onda dispersada. De hecho la expresión correcta para la densidad de
corriente (18.32) involucra al término estacionario completo y debe escribirse en la forma
   
1 ∗ ~ 1 ∗ ∗ ~
J (r) = Re η (r) ∇η (r) = Re [ηinc (r) + ηsc (r)] ∇ [ηinc (r) + ηsc (r)] (18.45)
µ i µ i
de modo que en los cálculos hemos omitido los términos de interferencia de la forma
 
1 ∗ ~ ∗ ~
J (r) = Re ηinc (r) ∇ηsc (r) + ηsc (r) ∇ηinc (r)
µ i i
sin embargo, veremos que esta interferencia solo contribuye en la dirección frontal de dispersión (θ = 0). La
Fig. 18.5 muestra la colisión en términos de paquetes de onda. En esta figura se observa que en la práctica, el
paquete incidente tiene un ancho lateral finito. Inicialmente, el paquete se mueve hacia la región de dispersión (Fig.
18.5.a), después de la colisión tenemos dos paquetes: el paquete de ondas planas que resulta de la propagación
de la onda incidente como si no hubiese potencial dispersor, y el dispersado que se propaga desde el origen en
todas direcciones. En consecuencia, la onda transmitida se forma con la interferencia entre el paquete plano y el
dispersado. Sin embargo como ya se discutió, el detector se coloca fuera de la sección transversal del haz incidente
de modo que no es golpeado por partı́culas transmitidas, por tanto el detector solo observa el paquete de onda
dispersado, por lo cual no se requiere considerar los términos de interferencia entre la onda plana y la dispersada.
La Fig. 18.5b. nos muestra que en la dirección frontal debe tenerse en cuenta tal interferencia, ya que en este caso
ambos paquetes ocupan la misma región del espacio, y la onda transmitida es el resultado de esta interferencia.
Adicionalmente, la amplitud de la onda transmitida debe ser menor que la de la onda incidente por conservación
de la probabilidad total (que se manifiesta en conservación del número de partı́culas). Esto se puede ver teniendo
en cuenta que las partı́culas dispersadas abandonan el haz y por tanto el haz transmitido debe atenuarse con
respecto al incidente. También puede verse como que el flujo de probabilidad incidente se debe repartir en un
flujo transmitido y otro dispersado, de modo que el flujo transmitido debe ser menor al incidente. Debe existir
entonces una interferencia destructiva entre los paquetes plano y dispersado frontalmente, para dar cuenta de la
conservación de la probabilidad i.e. del número total de partı́culas.

18.7. Ecuación integral de dispersión


18.7.1. Ecuación integral y función de Green
La ecuación (18.16) de valores propios de H

∇2 + k2 η (r) = U (r) η (r) (18.46)
18.7. ECUACIÓN INTEGRAL DE DISPERSIÓN 451

Figura 18.5: (a) El frente de onda plano incidente se acerca a la región de dispersión. Se observa que el ancho
lateral del paquete es en la práctica finito. (b) La onda transmitida se forma con la interferencia entre la onda
plana que no se dispersa y la onda dispersada en la dirección frontal. Se observa que tı́picamente el detector se
coloca fuera de la región de la onda transmitida, en una región en la cual solo contribuye la onda dispersada.

se puede resolver alternativamente utilizando la función de Green G (r) asociada a dicha ecuación

∇2 + k2 G (r) = δ (r) (18.47)

en términos eurı́sticos la función de Green asociada al operador ∇2 +k2 , puede verse como una especie de “inverso”
de dicho operador, puesto que la función delta de Dirac actúa como una identidad en el contı́nuo. Sea η0 (r) una
solución de la ecuación homogénea asociada a (18.46)

∇2 + k2 η0 (r) = 0 (18.48)

Es posible demostrar que si una función η (r) satisface la identidad


Z
  
η (r) = η0 (r) + d3 r′ G r − r′ U r′ η r′ (18.49)

entonces esta función es solución de la Ec. (18.46). Recı́procamente, puede demostrarse que toda solución de la
Ec. (18.46) debe satisfacer (18.49).
Para ver que la función definida en (18.49) es solución de la Ec. (18.46) aplicaremos el operador ∇2 + k2 a
ambos lados de (18.49) asumiendo que dicho operador puede entrar en la integral. Debe tenerse en cuenta que ∇2
es una derivada con respecto a r pero no con respecto a r′
Z
     
∇ + k η (r) = ∇ + k η0 (r) + d3 r′ ∇2 + k2 G r − r′ U r′ η r′
2 2 2 2

Z Z
  2     
= d r U r η r ∇ + k G r − r = d3 r′ U r′ η r′ δ r − r′
3 ′ ′ ′ 2 ′


∇2 + k2 η (r) = U (r) η (r)

donde hemos usado (18.47, 18.48). No probaremos rigurosamente que toda solución de (18.46) es de la forma
(18.49). Sin embargo, vale la pena observar que la solución (18.49) consiste en la suma de la solución de la
452 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

ecuación homogénea asociada (18.48), más una solución particular de la ecuación inhomogénea (18.46), como
corresponde en la teorı́a de ecuaciones diferenciales. Por tanto la ecuación diferencial (18.46) es equivalente a la
ecuación integral (18.49).
Por supuesto, ni la solución de η0 (r) de la ecuación homogénea, ni la función de Green son únicas, ya que no
hemos fijado condiciones de frontera. En realidad, no determinaremos nuestra solución por condiciones de frontera
sino por condiciones asintóticas. De hecho, la ventaja del uso de la formulación integral consiste en la facilidad
de escoger valores adecuados de η0 (r) y de G (r) para que la solución η (r) posea el comportamiento asintótico
deseado. Adicionalmente, la función de Green no depende de la parte inhomogénea de la Ec. (18.46) como se vé
de su definición Ec. (18.47).

18.7.2. Determinación de la función de Green


En lo que sigue utilizaremos la identidad
 
2 1 
∇ = −4πδ r − r′ (18.50)
|r − r′ |

y la forma del laplaciano en coordenadas esféricas para una función que solo depende de r
 
2 1 ∂ 2 ∂f (r)
∇ f (r) = 2 r (18.51)
r ∂r ∂r

obsérvese que la ecuación de Green (18.47) nos dice que ∇2 + k2 G (r) debe ser cero en toda región que no
incluya al origen. Por otro lado, el hecho de que f (θ, ϕ) eikr /r, se encontró como solución de la Ec. (18.16) con
U (r) = 0 16 , nos muestra que
 eikr
∇2 + k 2 =0 ; para r 6= 0
r
y nos sugiere que dicha función puede ser la función de Green adecuada. Utilizando las identidades (18.50, 18.51),
vemos que
 ±ikr    ±ikr      
2 e 1 ∂ 2 ∂ e 1 ∂ 2 ±ikr ∂ 1 1 ∂ ±ikr
∇ = r = 2 r e + e
r r 2 ∂r ∂r r r ∂r ∂r r r ∂r
        
1 ∂ 2 ±ikr ∂ 1 ∂ ±ikr 1 ∂ ±ikr 2 ∂ 1 ∂  ±ikr
= r e +r e = 2 e r ± ikre
r 2 ∂r ∂r r ∂r r ∂r ∂r r ∂r
       i
1 ±ikr ∂ 2 ∂ 1 2 ∂ 1 ∂ h ±ikr i h ±ikr 2 ±ikr
= e r +r e ± ike ± (ik) re
r2 ∂r ∂r r ∂r r ∂r
      h i e±ikr 
±ikr 1 ∂ 2 ∂ 1 ∂ 1 ±ikr 2

= e r + ±ike ± ik ∓ k r
r 2 ∂r ∂r r ∂r r r2

aplicando (18.51) a la función 1/r, y usando nuevamente (18.50), se tiene


 ±ikr     
2 e ±ikr 2 1 1 h i ike±ikr k2 e±ikr
∇ = e ∇ + − 2 ±ike±ikr ± −
r r r r2 r
 ±ikr  ±ikr
e e
∇2 = −4πe±ikr δ (r) − k2
r r

teniendo en cuenta que δ (r) = 0 para r 6= 0 y que e±ikr = 1 en r = 0, se deduce que

e±ikr δ (r) = δ (r) (18.52)


16
Ver comentarios arriba de la Ec. (18.18).
18.7. ECUACIÓN INTEGRAL DE DISPERSIÓN 453

Por tanto17

e±ikr
2 e±ikr
∇ = −4πδ (r) − k2
r r
 2  e±ikr
∇ + k2 = −4πδ (r) (18.53)
r
Las Ecs. (18.47, 18.53) nos sugieren dos funciones de Green dadas por

 1 e±ikr
∇2 + k2 G± (r) = δ (r) ; G± (r) ≡ − (18.54)
4π r
Por razones que veremos más adelante, G+ y G− se denominan función de Green saliente y función de
Green entrante respectivamente.

18.7.3. Solución de la ecuación integral


El comportamiento asintótico que buscamos Ec. (18.26), nos sugiere usar la onda plana Ceikz como la solución
η0 (r) de la ecuación homogénea18 , y la función de Green saliente G+ (r) en la Ec. (18.54) como la función de
Green para nuestra ecuación integral. Con estas asignaciones la ecuación integral (18.49) queda en la forma
Z Z ′
   1 eik|r−r |  
ηk (r) = Ceikz + d3 r′ G+ r − r′ U r′ ηk r′ = Ceikz − d3 r′ ′
U r′ ηk r′ (18.55)
4π |r − r |

veremos que esta solución nos reproduce el comportamiento asintótico esperado Ec. (18.26).
Por construcción esta ya es una solución de la ecuación diferencial (18.46). Probaremos ahora que cumple con
el comportamiento asintótico requerido Ecs. (18.26). Para verlo definamos un punto M de posición r en la región
asintótica, de modo que su distancia al origen O, es mucho mayor que todas las dimensiones lineales de la región
de dispersión (ver Fig. 18.6). Sea P un punto de posición r′ dentro de la región de dispersión. Si definimos a L
como el orden de magnitud de la longitud lineal máxima de la región de dispersión, tendremos que se cumplen las
relaciones
r ≫ L, r ′ . L, r ≫ r ′

si α es el ángulo entre M O y M P , es claro que α ≪ 1. Si M Q define la proyección de M P sobre M O, tenemos


que

|M Q| = |M P | cos α ≃ |M P | = r − r′

ahora bien si δ es el ángulo entre OP y OQ (i.e. entre r y r′ ), tenemos por otro lado

|M Q| = |M O| − |QO| = r − r′ cos δ = r − ur · r′

combinando estas dos expresiones resulta



r − r′ ≃ r − ur · r′ ; r ≫ r′
17
Estrictamente, por el carácter de distribución de la delta de Dirac tenemos que
Z ε Z ε
lı́m e±ikr δ (r) f (r) dr = lı́m δ (r) f (r) dr
ε→0+ −ε ε→0+ −ε

de lo cual se deduce (18.52).


18
Se puede verificar que esta onda plana es solución de la Ec. homogénea (18.48). De hecho, la onda plana es una solución de partı́cula
libre, i.e. con U (r) = 0.
454 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

Figura 18.6: M define un punto en la región asintótica, en tanto que P define un punto dentro de la región de dis-
persión. Con respecto al origen O, la posición de los puntos M y P se define por los vectores r y r′ respectivamente.

por tanto para un punto de posición r en la región asintótica y un punto r′ dentro de la región de dispersión, se
puede hacer la siguiente aproximación para la función de Green saliente:
′ ′
 1 eik|r−r | 1 eik[r−ur ·r ] 1 eikr ′
G+ r − r′ = − ∼ − = − e−ik(ur ·r )
4π |r − r′ | r→∞ 4π |r − ur · r′ | 4π r 1 − rr′ cos δ
 1 eik|r−r′ | 1 eikr −ik(ur ·r′ )
G+ r − r′ = − ∼ − e (18.56)
4π |r − r′ | r→∞ 4π r
insertando la aproximación (18.56) en la solución integral (18.55) resulta
Z
1 eikr ′  
ηk (r) ∼ Ceikz − d3 r′ e−ik(ur ·r ) U r′ ηk r′ (18.57)
r→∞ 4π r
nótese que la integral solo es función de r a través del vector unitario ur . Precisamente el carácter unitario de ur
me dice que este vector solo depende de la orientación de r i.e. ur = ur (θ, ϕ). Es claro entonces que la integral
solo depende de θ y ϕ por tanto podemos escribir la Ec. (18.57) en la forma
Z
ikz eikr 1 ′  
ηk (r) ∼ Ce + fk (θ, ϕ) ; fk (θ, ϕ) ≡ − d3 r′ e−ik(ur ·r ) U r′ ηk r′ (18.58)
r→∞ r 4π
18.8. APROXIMACIÓN DE BORN 455

que claramente cumple las condiciones asintóticas (18.26).

18.8. Aproximación de Born


La aproximación de Born es una estrategia para encontrar una solución aproximada a la ecuación integral
de dispersión. Definimos al vector de onda incidente ki como un vector en la dirección del haz incidente de
módulo k tal que la energı́a de una partı́cula incidente es E = ~2 k2 /2m

ki ≡ kuz ⇒ eikz = eiki ·r (18.59)

puesto que la colisión es elástica, el vector de onda dispersado ks posee el mismo módulo, pero su dirección
ur está caracterizada por los ángulos θ, ϕ, siendo θ el ángulo de dispersión y ϕ el ángulo azimuthal

ks = kur ; ur ≡ ur (θ, ϕ) (18.60)

finalmente, se puede definir el vector de onda de dispersión o vector de onda transferido en la dirección
(θ, ϕ) como el vector diferencia entre los anteriores

K = ks − ki (18.61)

a partir de la Ec. (18.59), podemos escribir la ecuación integral de dispersión (18.55) en la forma
Z
ηk (r) = Ceiki ·r + d3 r1 G+ (r − r1 ) U (r1 ) ηk (r1 ) (18.62)

la idea es resolver la ecuación por iteración. Para ello hacemos el cambio de variables r → r1 , r1 → r2 en la Ec.
(18.62) para escribir Z
iki ·r1
ηk (r1 ) = Ce + d3 r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 ) (18.63)

Al reemplazar (18.63) en (18.62) resulta


Z  Z 
iki ·r 3 iki ·r1 3
ηk (r) = Ce + d r1 G+ (r − r1 ) U (r1 ) Ce + d r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 )
Z
ηk (r) = Ceiki ·r + C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1
Z Z
+ d3 r1 d3 r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) ηk (r2 ) (18.64)

nótese que los dos primeros términos a la derecha de (18.64) son conocidos, y solo el tercero contiene a la cantidad
desconocida ηk (r2 ). Por supuesto, la iteración puede continuar hasta el orden deseado. Usando el cambio de
variables r1 → r2 , r2 → r3 en la Ec. (18.63) y reemplazando en (18.64) obtenemos
Z
iki ·r
ηk (r) = Ce + C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1 +
Z Z  Z 
3 3 iki ·r2 3
+ d r1 d r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) Ce + d r3 G+ (r2 − r3 ) U (r3 ) ηk (r3 )

Z
iki ·r
ηk (r) = Ce + C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1 +
Z Z
3
+C d r1 d3 r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) eiki ·r2
Z Z Z
3 3
+ d r1 d r2 d3 r3 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) G+ (r2 − r3 ) U (r3 ) ηk (r3 ) (18.65)
456 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

en esta expresión los tres primeros términos de la derecha son conocidos y el término desconocido ηk (r3 ) solo
aparece en el cuarto término de la derecha. Estas iteraciones constituyen la expansión de Born del estado
estacionario de dispersión. Comparando las Ecs. (18.62, 18.64, 18.65), vemos que el término que posee la cantidad
desconocida ηk , es proporcional a una potencia de U (r) más alta en cada iteración19 . Si el potencial es débil, cada
potencia más alta será menor que la anterior, de modo que para un número suficientemente grande de iteraciones,
podemos despreciar el último término que contiene la cantidad desconocida, y calcular ηk (r) en términos de
cantidades conocidas.
Ahora bien, si sustituı́mos la expansión de ηk (r) (hasta cierto orden de iteración), en la expresión (18.58)
para fk (θ, ϕ), obtendremos la expansión de Born de la amplitud de dispersión. En particular, si reemplazamos la
iteración a orden cero Ec. (18.62) al lado derecho de (18.58) tenemos que
Z  Z 
1 3 −ik(ur ·r1 ) iki ·r1 3
fk (θ, ϕ) ≡ − d r1 e U (r1 ) Ce + d r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 )

si queremos calcular solo a primer orden en U (r), esta expresión queda


Z
(B) C
fk (θ, ϕ) = − d3 r1 e−ik(ur ·r1 ) U (r1 ) eiki ·r1 (18.66)


que equivale a reemplazar ηk (r′ ) por Ceiki ·r al lado derecho de (18.58). Usando las definiciones (18.60, 18.61) de
número de onda dispersado y transferido tenemos que
Z Z
(B) C 3 −iks ·r1 iki ·r1 C
fk (θ, ϕ) = − d r1 e U (r1 ) e =− d3 r1 e−i(ks −ki )·r1 U (r1 )
4π 4π
Z
(B) C
fk (θ, ϕ) = − d3 r1 e−iK·r1 U (r1 ) (18.67)

Esta es la aproximación de Born para fk (θ, ϕ). De las Ecs. (18.44, 18.67) podemos escribir la sección eficaz
diferencial en dicha aproximación
2 Z 2 Z 2
(B) 1 1 1 2µ −iK·r1 ~
2

Dk (Ω) = fk (θ, ϕ) = 3
d r1 e −iK·r1
U (r1 ) = 3
d r1 e U (r1 )
C 4π 4π ~2 2µ
Z 2
(B) µ
2
Dk (Ω) = 2 4 d3 r1 e−iK·r1 V (r1 ) ; K ≡ ks − ki (18.68)
4π ~

donde hemos usado la Ec. (18.15), para escribir D (Ω) en términos del potencial V (r). Vemos que en aproximación
de Born, la sección eficaz diferencial es directamente proporcional a la norma al cuadrado de la transformada de
Fourier del potencial. Las Ecs. (18.59, 18.60, 18.61) muestran que el vector de onda transferido K es función del
módulo k de los vectores ki y ks , ası́ como de la dirección (θ, ϕ) de ks . Por tanto, para un valor fijo de k (y por
(B)
tanto, de la energı́a) Dk (Ω) varı́a con la orientación Ω ≡ (θ, ϕ). Similarmente, para una orientación fija (θ, ϕ), la
sección eficaz diferencial cambia con k y por tanto con la energı́a. En consecuencia, la Ec. (18.68) nos dice que en
(B)
la aproximación de Born, el estudio de la dependencia de Dk (Ω) con la orientación y con la energı́a, nos puede
dar información sobre el potencial V (r).
A la fórmula (18.64), podemos darle una interpretación fı́sica que nos brinda una vez más una fuerte analogı́a
entre la mecánica cuántica y la óptica ondulatoria. Vamos a considerar a la región de influencia del potencial
como un medio dispersivo cuya densidad es proporcional a U (r). La función de Green G+ (r − r1 ) dada por la
Ec. (18.54), representa la amplitud en el punto r de la onda radiada desde el punto fuente en la posición r1 .
De esta forma, los dos primeros términos a la derecha de (18.64) describen la onda total en el punto r que
resulta de superponer la onda incidente eiki ·r con una infinidad de ondas provenientes de fuentes secundarias
19
Si definimos las Ecs. (18.62, 18.64) como las iteraciones de orden cero y uno respectivamente, entonces el término desconocido en
la n−ésima iteración contiene U (r) a la potencia n + 1.
18.8. APROXIMACIÓN DE BORN 457

inducidas en el medio dispersivo por la onda incidente. Esto se vé del hecho de que hay una integral sobre r1 , de
modo que contribuyen las ondas secundarias que provienen de cada punto en la región de dispersión. Sin embargo,
en esta integral cada onda secundaria tiene un peso diferente, de hecho la amplitud de la onda secundaria generada
en cada punto r1 es proporcional a la onda incidente en ese punto eiki ·r1 y la densidad del material dispersor U (r1 )
en dicho punto. Esta interpretación está ilustrada en la Fig. 18.7a y nos evoca el principio de Huygens.

Figura 18.7: Interpretación Fı́sica de la Ec. (18.64). (a) Los dos primeros términos a la derecha en (18.64)
corresponden a la onda incidente llegando directamente al punto r, más la contribución de las ondas dispersadas
desde algún punto r1 interior a la región de dispersión. En el segundo término de la Ec. (18.64) se integra sobre
r1 de modo que se toman todas las fuentes secundarias en la región de dispersión. (b) Representación esquemática
del tercer término en la Ec. (18.64) y que es de segundo orden en U (r) en la expansión de Born. En tal término
se consideran ondas que se dispersan dos veces en la región de dispersión. Se integra sobre r1 y r2 es decir sobre
todas las fuentes secundarias posibles que contribuyen a la doble dispersión.

Adicionalmente, hay un tercer término en (18.64). Puesto que el medio de dispersión se extiende sobre cierta
región, en la superposición de la ondas sobre el punto r pueden contribuir ondas secundarias que han sido dis-
persadas dos veces por el potencial: la onda incidente es dispersada en el punto r2 y luego en el punto r1 (ambos
dentro de la región de dispersión) para finalmente llegar a r, como se ilustra en la Fig. 18.7b. Cada fuente r1 y r2
contribuye con su peso proporcional a eiki ·r y U (r) evaluados en cada punto. Si realizamos más iteraciones, los
términos sucesivos de la expansión de Born implicarán más dispersiones dentro de la región del potencial. Si la
densidad del medio dispersivo es baja [U (r) pequeño] entonces podemos despreciar la contribución de las ondas
secundarias, o considerarlas solo en sus primeros órdenes.
Es importante no confundir esta interpretación de los términos de alto orden en la expansión de Born, con los
procesos de dispersión múltiple que ocurren cuando el blanco es grueso. En nuestro contexto estamos considerando
procesos de dispersión de una partı́cula del haz con una sola partı́cula del blanco. La dispersión múltiple implica
interacciones sucesivas de la misma partı́cula incidente con varias (diferentes) partı́culas del blanco.

18.8.1. Rango de validez de la aproximación de Born


Un estimativo aproximado del rango de validez de la aproximación de Born (18.67) se puede obtener teniendo
en cuenta que en (18.67) hemos reemplazado el estado asintótico completo ηk (r) por solo la parte incidente
(k)
ηinc (r) = Ceiki ·r [ver comentario después de la ecuación (18.66)]. Por tanto, requerimos que se cumpla la condición

η (k) (r)
sc
(k) ≪1
η (r)
inc
458 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

dentro de la región de dispersión, ya que la integral sobre r1 en (18.67) solo es significativa dentro de dicha región.
Por definición, la región de dispersión está alrededor de r = 0. Esta condición será entonces aproximadamente
equivalente a
η (k) (0)
sc
(k) ≪1 (18.69)
η (0)
inc
si asumimos que el potencial es central, en el régimen de altas energı́as (k → ∞), la Ec. (18.69) nos lleva a la
condición
V0
≪1 (18.70)
E
es decir que la energı́a del haz incidente debe ser mucho mayor a la magnitud del potencial. Ası́ mismo, para bajas
energı́as (k → 0), la Ec. (18.69) conduce a
µV0 L2
≪1 (18.71)
~2
donde L es el rango o alcance del potencial. Sin embargo, en la práctica la condición (18.71) es mucho más
restrictiva que (18.70), razón por la cual la aproximación de Born se utiliza principalmente en el régimen de altas
energı́as. Para detalles sobre este análisis el lector puede consultar la Ref. [8], sección 13.2

18.8.2. Aproximación de Born para el potencial de Yukawa


En 1935, Hideki Yukawa propuso un modelo para la interacción entre los constituyentes del núcleo atómico o
nucleones. Según este modelo, la interacción entre nucleones se da a través de un cuanto (que hace el rol del fotón
en la interacción electromagnética), que se denomina el pión o mesón π (descubierto en 1947 por C. Powell y sus
colaboradores). Sin embargo, a diferencia de la interacción electromagnética, esta interacción es de corto alcance
y la partı́cula intermediaria tiene masa en reposo no nula. No entraremos en detalles sobre la construcción del
modelo de Yukawa, el lector interesado puede consultar la bibliografı́a asociada (por ejemplo las Refs. [1, 10]). De
momento solo mencionaremos que las consideraciones fenomenológicas hechas por Yukawa, lo llevaron a modelar
la interacción entre nucleones con un potencial de la forma
e−αr 2µ e−αr
V (r) = V0 ; U (r) = V0 (18.72)
r ~2 r
donde V0 y α son constantes reales. El potencial puede ser atractivo o repulsivo de acuerdo con el signo de V0 .
La intensidad del potencial está determinada por |V0 | y el alcance está regulado por la constante positiva α. Para
definir un alcance caracterı́stico (y por tanto un orden de magnitud para las dimensiones lineales de la región de
dispersión), es usual tomar un r0 definido por
1
r0 = (18.73)
α
puede verse que el potencial ha decrecido sustancialmente y se hace prácticamente cero para r & 2r0 . El alcance
de las fuerzas que el potencial de Yukawa describe está en el orden de los fermis (1f m = 10−15 m). Obsérvese
que para α = 0 se reproduce el potencial de Coulomb, que en este contexto se denomina el potencial de Yukawa
de rango infinito. La presencia de α > 0, hace que el potencial de Yukawa decrezca mucho más rápido que el de
Coulomb.

Cálculo de la amplitud de dispersión y la sección eficaz con el potencial de Yukawa


Asumiremos que la intensidad |V0 | caracterı́stica del potencial es suficientemente pequeña para utilizar la
aproximación de Born. Sustituyendo (18.72) en (18.67), obtenemos la amplitud de dispersión para el potencial de
Yukawa en aproximación de Born.
Z Z −αr1
(B) C 3 −iK·r1 µCV0 3 −iK·r1 e
fk (θ, ϕ) = − d r1 e U (r1 ) = − d r1 e (18.74)
4π 2π~2 r1
18.8. APROXIMACIÓN DE BORN 459

donde K es el número de onda transferido en la dirección (θ, ϕ). La expresión (18.74) es básicamente la transfor-
mada de Fourier del potencial de Yukawa. Como este potencial solo depende de |r| = r, podemos aplicar la Ec.
(1.196), Pág. 103. Para ello escribimos la Ec. (18.74) con P = ~K
Z  1/2 "  Z #
(B) µCV0 3 −i P ·r e−αr 2π 1 3/2 3 −i P
·r e−αr
fk (θ, ϕ) = − d re ~ = −µCV0 d re ~
2π~2 r ~ 2π~ r
 1/2  Z  
2π 1 2 ∞ e−αr Pr
= −µCV0 √ r dr sin
~ 2π~ P 0 r ~
 Z ∞ −αr

12 e
= −µCV0 r dr sin Kr
~P 0 r
Z  −rα ∞
(B) 2µCV0 ∞ −αr 2µCV0 e
fk (θ, ϕ) = − 2 dr e sin Kr = 2 (K cos Kr + α sin Kr)
~ K 0 ~ K K 2 + α2
 −rα
   0
(B) 2µCV 0 e 2µCV 0 K
fk (θ, ϕ) = − 2 (K cos Kr + α sin Kr) =− 2
~2 K K + α2 r=0 ~ K K 2 + α2
obteniéndose finalmente
(B) 2µCV0
fk (θ, ϕ) = − (18.75)
~2 (K 2 + α2 )
ahora bien teniendo en cuenta que K + ki = ks , y que kki k = kks k = k, los vectores K, ki , ks forman un triángulo
isósceles, donde el ángulo de dispersión θ, es el ángulo entre los dos lados iguales. La Fig 18.8 nos muestra que

Figura 18.8: Los vectores K, ki y ks forman un triángulo isósceles en donde el ángulo de dispersión θ, es el ángulo
entre los dos lados de igual longitud. Esta figura ilustra la validez geométrica de (18.76).

θ K/2 θ
sin = ⇒ K = 2k sin (18.76)
2 k 2
(B)
por tanto, podemos escribir fk (θ, ϕ) de la Ec. (18.75) en términos de k y θ que son los parámetros que se miden
en un experimento.
(B) 2µCV0
fk (θ) = − 
~2 α2 + 4k2 sin2 θ2
y la sección eficaz diferencial Ec. (18.44), Pág. 450, en aproximación de Born queda
4µ2 V02
D (B) (θ) =   (18.77)
θ 2
~4 α2 + 4k2 sin2 2
460 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN

esta sección eficaz tiene simetrı́a azimutal como se previó para potenciales esféricamente simétricos. Ahora bien,
para una energı́a dada (valor fijo de k), la sección eficaz depende de θ. En particular la sección eficaz frontal
(θ = 0) es mayor que la sección eficaz de retroceso (θ = π). Por otro lado, para un valor fijo de θ, la sección eficaz
es una función decreciente de la energı́a. Finalmente, puede verse que D (θ) no es sensible al signo de V0 i.e. no es
sensible al carácter repulsivo o atractivo de la interacción, al menos en la aproximación de Born.
Podemos calcular la sección eficaz total
Z Z 2π Z π Z
4µ2 V02 π sin θ dθ
σ (B) = D (B) (θ) dΩ = dϕ dθ sin θ D (B) (θ) = 2π 4  2
Ω 0 0 ~ 0 α + 4k2 sin2 θ2
2
Z
(B) 8πµ2 V02 π sin θ dθ 8πµ2 V02 2
σ = 4 h i 2 = 4
~ 0 α4 1 + 4k 2 sin2 θ ~ α (α + 4k2 )
2 2
α2 2

16πµ2 V02
σ (B) = (18.78)
~4 α2 (α2 + 4k2 )

vemos que en este caso la sección eficaz total no diverge (en contraste con el caso de la interacción coulombiana),
debido a que este potencial decae mucho más rápido que el coulombiano. En virtud de la convergencia de la sección
eficaz total, se suele decir que este potencial es de alcance finito, si bien estrictamente hablando no es exactamente
cero para ningún valor de r.

Lı́mite de Coulomb, o de rango infinito


Hemos visto que con α = 0, el potencial tipo Yukawa se convierte en un potencial tipo Coulomb. Para obtener
el potencial tipo Coulomb entre dos partı́culas de cargas Z1 q y Z2 q (siendo q la carga del electrón), debemos hacer
las asignaciones
q2
α = 0 ; V0 = Z1 Z2 e2 ; e2 =
4πǫ0
con lo cual la Ec. (18.77) se convierte en
 2  −2
(B) 4µ2 Z12 Z22 e4 Z12 Z22 e4 2µ Z 2 Z 2 e4 p2
DC (θ) = = = 1 24 θ
~4 16k4 sin4 θ2 16 sin4 2θ ~2 k2 16 sin 2 2µ
(B) Z12 Z22 e4
DC (θ) = θ
(18.79)
16E 2 sin4 2

la expresión (18.79) coincide con la fórmula de Rutherford Ec. (18.11) Pág. 441, que nos da la sección eficaz
asociada al potencial de Coulomb. Este es un resultado un tanto sorprendente ya que por un lado, la formulación
aquı́ presentada solo vale para potenciales que decrecen más rápido que r −1 , de modo que la interacción de
Coulomb queda excluı́da de la formulación, y por otro lado el resultado para la interacción de Yukawa está en un
contexto aproximado (aproximación de Born).
La sección eficaz total diverge cuando α = 0, como ocurre con el caso clásico, también debido al alcance infinito
de la interacción. Sin embargo, en la realidad nunca se observa el potencial de Coulomb puro, ya que el potencial
creado por una carga está siempre modificado por la presencia de otras cargas alrededor, que usualmente son
de carga opuesta de modo que generan un apantallamiento. En consecuencia, aún para una interacción de tipo
eléctrico esperamos que para el potencial resultante (potencial efectivo), el apantallamiento decaiga más rápido
que 1/r y/o presente una carga efectiva menor que la del blanco.
Capı́tulo 19

Teorı́a cuántica de la dispersión II:


Descomposición en ondas parciales para la
dispersión por un potencial central

Hemos visto que la aproximación de Born funciona primordialmente a altas energı́as (ver sección 18.8.1). La
expansión por ondas parciales es un acercamiento alternativo que funciona mejor a bajas energı́as, por lo cual en
cierto modo es complementario a la aproximación de Born.
En la sección 12.5 vimos que en el caso de un potencial central, el momento angular orbital es constante de
movimiento ya que conmuta con el Hamiltoniano y no depende explı́citamente del tiempo. Esto indica que existen
autoestados comunes para los observables H, L2 y L3 . Fı́sicamente, indica que existen estados estacionarios (de
energı́a bien definida) en los cuales el momento angular también está bien definido. Las funciones de onda asociadas
a los estados estacionarios de momento angular bien definido, se denominan ondas parciales y las denotaremos
por ϕk,l,m (r). Recordando que los resultados de la sección 12.5 solo dependı́an del carácter central del potencial,
vemos que la dependencia angular de las ondas parciales estará dada siempre por los armónicos esféricos Ylm (θ, ϕ),
y el potencial V (r) solo modifica la componente radial de tales estados.
Es de esperarse que para valores grandes de r, el comportamiento de las ondas parciales sea similar al de
los autoestados comunes a H0 , L2 y L3 , siendo H0 el hamiltoniano de partı́cula libre. Comenzaremos entonces
(0)
estudiando las ondas parciales asociadas a partı́cula libre ϕk,l,m (r), que denominaremos ondas libres esféricas.
Su dependencia angular continúa siendo descrita por los armónicos esféricos ya que el potencial no afecta la
dependencia angular. En cuanto a su dependencia radial, veremos que para valores grandes de r las ondas esféricas
estarán constituı́das por la superposición de una onda entrante e−ikr /r y una onda saliente eikr /r con una diferencia
de fase bien definida entre ambas.
Por otro lado, las ondas parciales ϕk,l,m (r) asociadas al potencial V (r), también serán la superposición de una
onda entrante y una saliente, pero la diferencia de fase entre estas dos ondas es diferente de la que se obtiene para
las ondas esféricas libres. El potencial V (r) introduce un corrimiento de fase adicional δl . Veremos además que
(0)
este corrimiento extra δl es la única diferencia entre los estados asintóticos obtenidos con ϕk,l,m (r) y con ϕk,l,m (r).
Ahora bien, con el fin de calcular la sección eficaz expresaremos los estados estacionarios de dispersión ηk (r),
como una combinación lineal de ondas parciales con la misma energı́a pero diferentes momentos angulares. Veremos
por argumentos fı́sicos y con un cálculo explı́cito que tales coeficientes coinciden con los de la expansión de la
onda plana eikz en términos de ondas esféricas libres. El uso de ondas parciales permitirá escribir la amplitud de
dispersión y la sección eficaz en términos de los corrimientos de fase δl . Veremos que el método es particularmente
útil cuando el rango del potencial no es mucho mayor a la longitud de onda de la partı́cula en movimiento, ya que
en estos casos la sección eficaz dependerá de unos pocos corrimientos de fase δl .

461
462 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

19.1. Estados estacionarios de partı́cula libre


En mecánica clásica, las partı́culas libres se propagan en lı́nea recta con velocidad constante. Su energı́a,
momento lineal y momento angular están bien definidos y son constantes de movimiento.
En mecánica cuántica los operadores P y L ≡ R×P, no conmutan y por tanto no pueden estar simultáneamente
bien definidos. El Hamiltoniano de partı́cula libre está dado por
P2
H0 ≡

sin embargo, H0 no constituye un C.S.C.O. en el espacio Er , sus valores están infinitamente degenerados1 . Por
otra parte, para el caso de partı́cula libre, los observables

H0 , P1 , P2 , P3 (19.1)

forman un C.S.C.O. y los estados estacionarios comunes a estos observables poseen momento bien definido. Por
otro lado, si aplicamos los resultados de la sección 12.5 para potencial cero, deducimos que para una partı́cula
libre los observables
H 0 , L2 , L3 (19.2)
también forman un C.S.C.O. En este caso los estados estacionarios poseerán momento angular bien definido.
Vale decir que momento angular bien definido significa que los valores de L2 y de una de las componentes de L
(usualmente L3 ) estarán bien definidos. Recordemos que las componentes del momento angular son incompatibles
(ver Ec. 10.5, Pág. 309) y por tanto no pueden estar simultáneamente bien definidas.
Es claro sin embargo que los estados estacionarios definidos por los C.S.C.O de las Ecs. (19.1) y (19.2) serán
diferentes puesto que los observables P y L son incompatibles2 . Vamos a estudiar estas bases y la manera de pasar
de la una a la otra.

19.2. Estados estacionarios de partı́cula libre con momento bien definido:


Ondas planas
Ya hemos visto que los observables P1 , P2 , P3 forman un C.S.C.O. en el espacio orbital de estados. Sus estados
propios comunes {|pi} forman una hiperbase del espacio orbital

P |pi = p |pi

y puesto que H0 conmuta con estos observables, se puede agregar al C.S.C.O. y los estados |pi también son
autoestados de H0
P2 p2
H0 |pi = |pi = |pi (19.3)
2µ 2µ
el espectro de H0 es entonces contı́nuo e incluye todos los valores no-negativos de energı́a. Cada autovalor es
infinitamente degenerado, puesto que a un valor dado de energı́a le corresponden infinitos kets |pi linealmente
independientes. Esto puede verse teniendo en cuenta que un valor dado de energı́a E solo impone la ligadura
2µE = p21 + p22 + p23 lo cual deja
√ aún un número infinito contı́nuo de grados de libertad, i.e. todos los puntos de
una superficie esférica de radio 2µE. Por tanto un valor dado de la energı́a nos deja con el conjunto de todos los
kets |pi cuyo módulo es p
|p| = 2µE
1
En este capı́tulo, cuando hablemos de un C.S.C.O. será con respecto al espacio orbital Er , puesto que no hemos incluı́do al espı́n
en la formulación.
2
Desde el punto de vista experimental, es importante saber como se preparó el sistema (cuales son las condiciones iniciales).
Cuánticamente, podemos preparar un estado de partı́cula libre con momento lineal bien definido, o con momento angular bien definido,
pero no ambos al tiempo.
19.3. ESTADOS ESTACIONARIOS DE PARTÍCULA LIBRE CON MOMENTO ANGULAR BIEN DEFINIDO: ONDAS

las funciones de onda asociadas a estos estados |pi son las ondas planas (ver Ec. 1.182, Pág. 97)
 
1 3/2 ip·r/~
hr| pi = e
2π~
también podemos caracterizar estos estados estacionarios a través del vector de onda k
p
k= ; |ki = ~3/2 |pi
~
estos estados poseen el mismo contenido fı́sico que los estados |pi, ya que para partı́cula libre un vector de onda
bien definido es equivalente a un momento bien definido
~2 k2
H0 |ki = |ki ; P |ki = ~k |ki

los estados {|ki} son ortonormales y completos en el sentido extendido
Z
′ ′

hk| k i = δ k − k ; d3 k |ki hk| = I

19.3. Estados estacionarios de partı́cula libre con momento angular bien


definido: Ondas esféricas libres.
En la sección 12.5, ya caracterizamos los estados estacionarios comunes a H, L2 y L3 para un potencial central
V (r). Podemos entonces retomar los resultados de dicha sección para V (r) = 0 i.e. para H = H0 . Por tanto, los
estados propios comunes a H0 , L2 y L3 (ondas esféricas libres) tienen la forma de la Ec. (12.33), Pág. 351
(0) (0)
ϕk,l,m (r) = Rk,l (r) Ylm (θ, ϕ) (19.4)

donde la función radial es una solución de la Ec. (12.35), Pág. 351 con V (r) = 0
 2 
~ 1 d2 l (l + 1) ~2 (0) (0)
− r + Rk,l (r) = Ek,l Rk,l (r) (19.5)
2µ r dr 2 2µr 2
(0)
siendo Ek,l el valor propio de H0 asociado a ϕk,l,m (r). Si hacemos un cambio de variable similar a la Ec. (12.36),
Pág. 351
(0) 1 (0)
Rk,l (r) = uk,l (r) (19.6)
r
(0)
la función uk,l (r) está dada por la Ec. (12.37) Pág. 352 con V (r) = 0
 2 
d l (l + 1) 2µEk,l (0)
− + uk,l (r) = 0 (19.7)
dr 2 r2 ~2
y se debe cumplir la relación asintótica en el origen dada por la Ec. (12.44), Pág. 353
(0)
uk,l (0) = 0 (19.8)

La combinación de las Ecs. (19.7, 19.8) nos permite encontrar el espectro de H0 que como veremos coincide con
el que se obtiene con las ondas planas Ec. (19.3). Dado que el mı́nimo de nuestro potencial es cero (de hecho el
potencial es nulo), entonces no habrá estados estacionarios de energı́a negativa. Consideraremos entonces valores
no-negativos de Ek,l en la Ec. (19.7), e introducimos el parámetro real k en la forma
1p
k= 2µEk,l (19.9)
~
464 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

en la región asintótica con r muy grande, el término centrı́fugo l (l + 1) /r 2 se puede despreciar en la Ec. (19.7)
para obtener  2 
d 2 (0)
+ k uk,l (r) ≃ 0 (19.10)
dr 2 r→∞

donde hemos tenido en cuenta la definición (19.9). Ya examinamos la solución general de esta ecuación [Ver Ecs.
(18.23, 18.24), Pág. 445] obteniéndose
(0)
uk,l (r) ≃ Aeikr + Be−ikr (19.11)
r→∞

en la sección 12.6 también se concluyó que la ecuación (19.7) junto con la condición asintótica en el origen (19.8)
nos lleva a una única solución. Por tanto, las Ecs. (19.7, 19.8) nos llevarán a una única solución del tipo (19.11).
Vemos por otro lado, que la energı́a no depende de l, y por tanto omitiremos este ı́ndice en los valores de la
energı́a. Ahora bien, las soluciones aceptables del tipo (19.11) incluyen todos los valores positivos de k y por tanto
de acuerdo con la Ec. (19.9), la energı́a toma todos los valores no negativos.

~2 k2
Ek = ; k≥0

cada energı́a dada es infinitamente degenerada. Para un valor fijo de k, existen soluciones fı́sicamente aceptables
(0)
uk,l (r) de la ecuación radial para todos los valores permitidos (enteros no-negativos) de l. Adicionalmente, la
solución completa ϕk,l,m (r) en la Ec. (19.4) añade una degeneración (2l + 1) veces mayor, para una función
(0)
radial uk,l (r) dada. Al igual que en la sección 12.6, vemos que en este caso los observables H0 , L2 y L3 forman un
C.S.C.O. en Er , de modo que la especificación de los ı́ndices k, l, m nos da la información suficiente para determinar
de manera única el estado estacionario normalizado asociado (excepto por una fase irrelevante).

19.4. Caracterización de las ondas esféricas libres


En la presente sección construiremos las funciones propias de H0 , L2 y L3 , definiendo unos generadores que
(0)
permiten encontrar dichas funciones con base en la función esférica libre más simple ϕk,0,0 (r). Una vez determi-
nadas las ondas esféricas libres debidamente ortonormalizadas, se estudiará su comportamiento asintótico (para
r → 0 y para r → ∞), su relación con las ondas planas, y finalmente su interpretación fı́sica.

19.4.1. Álgebra de generadores de ondas esféricas


Con una estrategia similar a la utilizada para construir los operadores escalera de momento angular [ver sección
10.2, Ecs. (10.8), Pág. 310], construiremos una serie de operadores que permitirán generar las funciones propias
comunes de H0 , L2 , L3 , a partir de las autofunciones asociadas al autovalor con l = 0 de L2 . Tendremos en cuenta
que H0 conmuta con L y P
[H0 , L] = 0 ; [H0 , P] = 0 (19.12)
Comenzaremos definiendo el operador
P+ ≡ P1 + iP2 (19.13)
queremos encontrar las relaciones de conmutación de este operador con los observables H0 , L2 , L3 , cuyas funciones
propias comunes queremos encontrar. A partir de las relaciones canónicas de conmutación entre observables de
posición y momento [Ecs. (1.193), Pág. 101] podemos obtener las relaciones de conmutación entre Li y Pi

[Li , Pj ] = [εimn Rm Pn , Pj ] = εimn [Rm Pn , Pj ] = εimn (Rm [Pn , Pj ] + [Rm , Pj ] Pn )


= εimn [Rm , Pj ] Pn = i~δmj εimn Pn
[Li , Pj ] = i~εijn Pn (19.14)
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 465

Con estas relaciones, se pueden obtener los conmutadores de L3 y L2 con P+

[Li , P+ ] = [Li , P1 + iP2 ] = [Li , P1 ] + i [Li , P2 ] = i~εi1n Pn + i (i~εi2k Pk )


[Li , P+ ] = ~ (iεi1n Pn − εi2k Pk )

para cada componente i = 1, 2, 3 se tiene

[L1 , P+ ] = −~ε123 P3 = −~P3 ; [L2 , P+ ] = i~ε213 P3 = −i~P3


[L3 , P+ ] = ~ (iε312 P2 − ε321 P1 ) = ~ (iP2 + P1 ) = ~P+
⇒ [L1 , P+ ] = −~P3 ; [L2 , P+ ] = −i~P3 ; [L3 , P+ ] = ~P+ (19.15)

también necesitaremos el conmutador de L+ con P3 para lo cual usamos las Ecs. (19.14)

[L+ , P3 ] = [L1 + iL2 , P3 ] = [L1 , P3 ] + i [L2 , P3 ] = i~ε132 P2 + i (i~ε231 P1 )


= −i~P2 − ~P1 = −~ (iP2 + P1 )
[L+ , P3 ] = −~P+ (19.16)

finalmente calculamos el conmutador de L2 con P+


 2 
L , P+ = [Li Li , P+ ] = Li [Li , P+ ] + [Li , P+ ] Li
= L1 [L1 , P+ ] + L2 [L2 , P+ ] + L3 [L3 , P+ ] + [L1 , P+ ] L1 + [L2 , P+ ] L2 + [L3 , P+ ] L3
= −~L1 P3 − i~L2 P3 + ~L3 P+ − ~P3 L1 − i~P3 L2 + ~P+ L3
= −~ (L1 + iL2 ) P3 + ~L3 P+ − ~P3 (L1 + iL2 ) + ~P+ L3
= −~L+ P3 − ~P3 L+ + ~L3 P+ + ~P+ L3

sumando y restando términos adecuadamente y aplicando las Ecs. (19.15, 19.16), se obtiene
 2 
L , P+ = −~L+ P3 + (~P3 L+ − ~P3 L+ ) − ~P3 L+ + ~L3 P+ + (−~P+ L3 + ~P+ L3 ) + ~P+ L3
= −~L+ P3 + ~P3 L+ − 2~P3 L+ + ~L3 P+ − ~P+ L3 + 2~P+ L3
= −~ [L+ , P3 ] − 2~P3 L+ + ~ [L3 , P+ ] + 2~P+ L3
= ~2 P+ − 2~P3 L+ + ~2 P+ + 2~P+ L3
 
L2 , P+ = 2~ (P+ L3 − P3 L+ ) + 2~2 P+ (19.17)

Por comodidad, condensaremos las relaciones algebráicas anteriores

[H0 , L] = [H0 , P] = 0 ; [Li , Pj ] = i~εijn Pn ; P+ ≡ P1 + iP2 (19.18)


[L1 , P+ ] = −~P3 ; [L2 , P+ ] = −i~P3 ; [L3 , P+ ] = ~P+ ; [L+ , P3 ] = −~P+ (19.19)
 2 
L , P+ = 2~ (P+ L3 − P3 L+ ) + 2~2 P+ (19.20)

19.4.2. Relaciones de recurrencia para las ondas esféricas libres


(0)
Teniendo en cuenta que ϕk,l,m (r) tiene la estructura dada en las Ecs. (19.4, 19.6) y que los operadores momento
angular solo actúan sobre variables angulares, tenemos que
(0)
p
L+ ϕk,l,m (r) = Rk,l (r) L+ Ylm (θ, ϕ) = ~ l (l + 1) − m (m + 1)Rk,l (r) Yl,m+1 (θ, ϕ)
(0)
p (0)
L+ ϕk,l,m (r) = ~ l (l + 1) − m (m + 1)ϕk,l,m+1 (r)

donde hemos usado la forma en que L+ actúa sobre los autoestados de L2 y L3 Ec. (10.47), Pág. 321. Esta
(0) (0)
ecuación muestra que L+ ϕk,l,m = 0 si m = l. Para m 6= l, tenemos que L+ ϕk,l,m (r) es también autoestado de H0
466 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

y L2 con el mismo valor de energı́a Ek y de l (esto también se puede ver del hecho de que L+ conmuta con H0
(0)
y con L2 usando el teorema 1.66, Pág. 57). Ası́ mismo, L+ ϕk,l,m (r) es autoestado de L3 con autovalor (m + 1) ~.
(0)
Similarmente es fácil ver la acción de L− , L3 y L2 sobre ϕk,l,m (r)
(0) (0) (0) (0)
L3 ϕk,l,m (r) = m~ϕk,l,m (r) ; L2 ϕk,l,m (r) = l (l + 1) ~2 ϕk,l,m (r) (19.21)
(0)
p (0)
L± ϕk,l,m (r) = ~ l (l + 1) − m (m ± 1)ϕk,l,m±1 (r) (19.22)
(0)
Ahora aplicamos el operador P+ sobre ϕk,l,m (r). Teniendo en cuenta que P+ conmuta con H0 , tenemos que
(0)
P+ ϕk,l,m (r) es función propia de H0 con la misma energı́a Ek . Con respecto al operador L3 , el comportamiento
de este estado, se obtiene aplicando la Ec. (19.19)
(0) (0) (0) (0) (0)
[L3 , P+ ] ϕk,l,m (r) = ~P+ ϕk,l,m (r) ⇒ L3 P+ ϕk,l,m (r) = P+ L3 ϕk,l,m (r) + ~P+ ϕk,l,m (r)
(0) (0) (0)
L3 P+ ϕk,l,m (r) = m~P+ ϕk,l,m (r) + ~P+ ϕk,l,m (r)
h i h i
(0) (0)
L3 P+ ϕk,l,m (r) = (m + 1) ~ P+ ϕk,l,m (r)
(0)
de modo que P+ ϕk,l,m (r) es autofunción de L3 con valor propio (m + 1) ~. El siguiente paso natural es caracterizar
(0)
al estado P+ ϕk,l,m (r) con respecto a L2 . La presencia del término P3 L+ en el conmutador de L2 con P+ Ec. (19.20),
(0) (0)
nos dice que P+ ϕk,l,m (r) no es en general función propia de L2 . Sin embargo, debido a que L+ ϕk,l,l (r) = 0, el
término P3 L+ se anula cuando m = l
 2  (0) (0) (0)
L , P+ ϕk,l,l (r) = 2~ (P+ L3 − P3 L+ ) ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r)
h i h i h i
(0) (0) (0) (0) (0)
L2 P+ ϕk,l,l (r) = P+ L2 ϕk,l,l (r) + 2~P+ L3 ϕk,l,l (r) − 2~P3 L+ ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r)
(0) (0) (0) (0) (0)
L2 P+ ϕk,l,l (r) = l (l + 1) ~2 P+ ϕk,l,l (r) + 2l~2 P+ ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r) = [l (l + 1) + 2l + 2] ~2 P+ ϕk,l,l (r)
(0) (0)
L2 P+ ϕk,l,l (r) = (l + 1) (l + 2) ~2 P+ ϕk,l,l (r)
(0)
por tanto, P+ ϕk,l,l (r) es función propia común de H0 , L3 y L2 con valores propios Ek , (l + 1) ~ y (l + 1) (l + 2) ~2
respectivamente. Puesto que estos tres observables forman un C.S.C.O. en el espacio orbital, existe una única
autofunción espacial normalizada (excepto por una fase) asociada a estos tres valores propios
(0) (0)
P+ ϕk,l,l (r) = Mk,l ϕk,l+1,l+1 (r) (19.23)
n o
(0)
usaremos las relaciones de recurrencia (19.22, 19.23) para construir la base ϕk,l,m (r) de ondas esféricas a partir
(0)
de las funciones ϕk,0,0 (r), ya que el operador P+ permite incrementar el número cuántico l, en tanto que los
operadores L± permiten generar las funciones para todos los valores posibles de m con k y l fijos. Para ello
(0)
primero tenemos que encontrar las funciones ϕk,0,0 (r) .
Un comentario final, a priori podrı́a pensarse que el operador P− ≡ P1 − iP2 , permite bajar el número cuántico
l hasta cero. Sin embargo, este no es el caso, puede mostrarse con un procedimiento similar al aquı́ mostrado que
la acción de P− está dada por
(0) ′ (0)
P− ϕk,l,−l (r) = Mkl ϕk,l+1,−(l+1) (r) (19.24)

19.4.3. Solución de la ecuación radial para l = 0


(0)
La función ϕk,0,0 (r) viene dada por

(0) 1 (0) 1 1 (0)


ϕk,0,0 (r) = uk,0 (r) Y00 (θ, ϕ) = √ u (r)
r 4π r k,0
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 467

(0)
por tanto, debemos determinar la función radial uk,0 (r). Usando las Ecs. (19.7, 19.8) y (19.9) con l = 0 tenemos
que  2 
d 2 (0) (0)
+ k uk,0 (r) = 0 ; uk,0 (0) = 0 (19.25)
dr 2
la solución del tipo (19.11) que se anula en el origen está dada por
(0)
uk,0 (r) = ak sin kr (19.26)

(0)
de modo que la función de onda ϕk,0,0 (r) viene dada por

(0) 1 (0) ak sin kr


ϕk,0,0 (r) = uk,0 (r) Y00 (θ, ϕ) = √ (19.27)
r 4π r

la constante ak se escoge real positiva y de modo que la función de onda completa sea ortonormal en el sentido
extendido, puesto que k es un ı́ndice contı́nuo
Z
(0)∗ (0) 
hk, 0, 0| k , 0, 0i = d3 r ϕk,0,0 (r) ϕk′ ,0,0 (r) = δ k − k′

(19.28)

reemplazando la Ec. (19.27) en la integral de la Ec. (19.28) tenemos que


Z Z Z Z ∞
(0)∗ (0) a2 ∞ 2 sin kr sin k′ r
I ≡ d3 r ϕk,0,0 (r) ϕk′ ,0,0 (r) = k r dr dΩ = a2k dr sin kr sin k′ r
4π 0 r r 0
 ′ 
Z ∞  ik r −ik ′r
Z  
eikr − e−ikr e −e a2 ∞ ′ ′ ′ ′
I = a2k dr =− k dr ei(k+k )r + e−i(k+k )r − ei(k−k )r − e−i(k−k )r
0 2i 2i 4 0
Z ∞ Z ∞ Z ∞ Z
ak2
′ a 2
′ a 2
′ a2 ∞ ′
I = dr ei(k−k )r + k dr e−i(k−k )r − k dr ei(k+k )r − k dr e−i(k+k )r
4 0 4 0 4 0 4 0

haciendo el cambio de variable r → −r en la segunda y cuarta integral, tenemos que


Z Z Z Z
a2k ∞ i(k−k ′ )r a2k −∞ i(k−k ′ )r a2k ∞ i(k+k ′ )r a2k −∞ ′
I = dr e − dr e − dr e + dr ei(k+k )r
4 0 4 0 4 0 4 0
Z ∞ Z 0 Z ∞ Z
ak2
i(k−k ′ )r ak2
i(k−k ′ )r ak2
i(k+k ′ )r ak 0
2

= dr e + dr e − dr e − dr ei(k+k )r
4 0 4 −∞ 4 0 4 −∞
2  Z ∞ h i 
a 1 ′ ′
= 2π k dr ei(k−k )r − ei(k+k )r
4 2π −∞
π  
I = a2k δ k − k′ − δ k + k′
2
donde hemos usado el equivalente unidimensional de la delta de Dirac de la Ec. (1.117), Pág. 68. Ahora bien,
puesto que k y k′ son ambos positivos, k + k′ es siempre diferente de cero y por tanto δ (k + k′ ) no contribuye en
la integral, quedando Z
(0)∗ (0) π 
d3 r ϕk,0,0 (r) ϕk′ ,0,0 (r) = a2k δ k − k′
2
p (0)
y exigiendo la ortonormalidad extendida (19.28) tenemos que ak = 2/π, por tanto la función ϕk,0,0 (r) de la Ec.
(19.27) queda finalmente
(0) 1 sin kr
ϕk,0,0 (r) = √ (19.29)
π 2 r
468 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

19.4.4. Generación de ondas esféricas libres con l 6= 0, a través de P+ y L±


(0) (0)
La Ec. (19.23) nos permite generar ϕk,1,1 (r) a partir de ϕk,0,0 (r)
(0) (0) (0) (0)
P+ ϕk,0,0 (r) = Mk,1 ϕk,1,1 (r) ; (P1 + iP2 ) ϕk,0,0 (r) = Mk,1 ϕk,1,1 (r)
escribiremos los operadores P1 y P2 en la base de las {|ri}
   
~ ∂ ∂ ∂ ∂
P+ = +i = −i~ +~
i ∂x1 ∂x2 ∂x1 ∂x2
y lo expresamos en coordenadas esféricas, para ello utilizamos la Ec. (11.5) Pág. 327
   ϕ  
∂1 cos ϕ sin θ cos θrcos ϕ − rsin
sin θ ∂r
 ∂2  =  sin θ sin ϕ cos θ sin ϕ cos ϕ   ∂θ  (19.30)
r r sin θ
∂3 sin θ ∂ϕ
cos θ − r 0
con lo cual P+ en coordenadas esféricas queda
∂ cos θ cos ϕ ∂ sin ϕ ∂ ∂ cos θ sin ϕ ∂ cos ϕ ∂
P+ = −i~ cos ϕ sin θ − i~ + i~ + ~ sin θ sin ϕ +~ +~
∂r r ∂θ r sin θ ∂ϕ ∂r r ∂θ r sin θ ∂ϕ
∂ ~ cos θ ∂ ~ ∂
P+ = ~ sin θ (sin ϕ − i cos ϕ) + (sin ϕ − i cos ϕ) + (cos ϕ + i sin ϕ)
∂r r ∂θ r sin θ ∂ϕ
∂ ~ cos θ ∂ ~eiϕ ∂
P+ = −i~ sin θ (i sin ϕ + cos ϕ) −i (i sin ϕ + cos ϕ) +
∂r r ∂θ r sin θ ∂ϕ
∂ i~ cos θ iϕ ∂ ~eiϕ ∂
P+ = −i~ sin θ eiϕ − e + (19.31)
∂r r ∂θ r sin θ ∂ϕ
de las Ecs. (19.31) y (19.29) se obtiene
     
(0) 1 sin kr iϕ ∂ 1 sin kr i~ sin θ iϕ k cos kr sin kr
P+ ϕk,0,0 (r) = P+ √ = −i~ sin θ e √ =− √ e −
π 2 r ∂r π 2 r π 2 r r2
 
(0) i~k2 cos kr sin kr
P+ ϕk,0,0 (r) = − √ sin θ eiϕ −
π 2 kr (kr)2
es conveniente escribir el operador diferencial radial en coordenadas cartesianas
∂f (r) ∂f (r)
P+ f (r) = −i~ sin θ eiϕ = −i~ sin θ (cos ϕ + i sin ϕ)
 ∂r  ∂r
r sin θ cos ϕ r sin θ sin ϕ ∂f (r)  x1 x2  ∂f (r)
P+ f (r) = ~ −i + = ~ −i +
r r ∂r r r ∂r
i~ ∂f (r)
P+ f (r) = − (x1 + ix2 ) (19.32)
r ∂r
(0) (0)
la expresión (19.32) permite calcular P+2 ϕk,0,0 (r) de una manera muy simple, teniendo en cuenta que ϕk,0,0 (r)
solo depende de r, y que P+ cumple la relación de conmutación
[P+ , X1 + iX2 ] = [P1 + iP2 , X1 + iX2 ] = 0 (19.33)
en particular la relación (19.33) se cumple en la base {|ri}, de modo que
     
(0) 2 sin kr (x1 + ix2 ) ∂ sin kr 1 ∂ sin kr
ϕk,2,2 (r) ∝ P+ ∝ P+ = (x1 + ix2 ) P+
kr r ∂r kr r ∂r kr
    2  
1 ∂ 1 ∂ sin kr 1 ∂ sin kr
∝ (x1 + ix2 )2 = (x1 + ix2 )2
r ∂r r ∂r kr r ∂r kr
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 469

donde hemos omitido las constantes de proporcionalidad, debido a que estas se pueden absorber en la constante
de normalización. Aplicando sucesivamente P+ con este procedimiento, es fácil ver que
 l  
(0) l 1 ∂ sin kr
ϕk,l,l (r) ∝ (x1 + ix2 ) (19.34)
r ∂r kr
(0)
la dependencia angular de ϕk,l,l (r) está contenida en el factor cartesiano

(x1 + ix2 )l = (r sin θ cos ϕ + ir sin θ sin ϕ)l = r l (sin θ)l (cos ϕ + i sin ϕ)l
r
l l l Y ll (θ, ϕ) 1 (2l + 1)!
(x1 + ix2 ) = r l (sin θ) eilϕ = (−1) r l ; |cl | = l (19.35)
|cl | 2 l! 4π
donde hemos usado la Ec. (11.29) Pág. 331. Vemos que el factor angular es proporcional a Yl,l (θ, ϕ) como es-
perábamos. Sustituyendo (19.35) en (19.34) tendremos entonces que
    l  
(0) Yl,l (θ, ϕ) l1 ∂ l sin kr kl 1 ∂ sin kr
ϕk,l,l (r) ∝ (−1)l r = (−1)l Yl,l (θ, ϕ) (kr)l
|cl | r ∂r kr |cl | kr ∂ (kr) kr
 l  
(0) 1 ∂ sin kr
ϕk,l,l (r) ∝ (−1)l Yl,l (θ, ϕ) (kr)l (19.36)
kr ∂ (kr) kr

Donde el factor kl / |cl | lo hemos absorbido en el factor de normalización. Definiremos la función esférica de
Bessel de orden l, en la forma
 l
l l 1 d sin ρ
jl (ρ) ≡ (−1) ρ (19.37)
ρ dρ ρ
es claro que para k, l dados, se pueden generar todas las autofunciones asociadas a todos los valores permitidos
de m por medio de los operadores L± . Sin embargo, estos valores solo generan la dependencia angular que ya
conocemos previamente (armónicos esféricos). Por tanto, combinando las ecuaciones (19.36, 19.37), vemos que las
ondas esféricas libres se escriben en la forma
(0)
ϕk,l,m (r) = Ck,l jl (kr) Ylm (θ, ϕ) (19.38)

donde la constante de normalización no depende de m, puesto que los armónicos esféricos ya están adecuadamente
normalizados. Solo queda encontrar la constante de normalización en términos de k y l asociada a las funciones
de Bessel esféricas.

19.4.5. Ondas esféricas libres normalizadas


Definiremos a las Ck,l como constantes positivas. La constante de proporcionalidad la elegimos para que se
cumpla la relación de ortonormalidad
Z
(0)∗ (0) 
d3 r ϕk,l,m (r) ϕk′ ,l′ ,m′ (r) = δ k − k′ δll′ δmm′ (19.39)

y la relación de completez
Z ∞ ∞ X
X l
(0) (0)∗  
dk ϕk,l,m (r) ϕk,l,m r′ = δ r − r′ (19.40)
0 l=0 m=−l

La constante de normalización da cuenta de la normalización de las funciones esféricas de Bessel, puesto que los
armónicos esféricos ya están normalizados. Para encontrar esta constante de normalización, comenzaremos por
calcular el factor exacto en la Ec. (19.23), para ello necesitaremos calcular las derivadas de jl (kr) y de Yl,l (θ, ϕ),
y algunas de sus propiedades
470 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

"  l #  " #
d d d h i  1 d l sin ρ 
1 d l sin ρ
l l 1 d sin ρ l l l l d
jl (ρ) = (−1) ρ = (−1) ρ + (−1) ρ
dρ dρ ρ dρ ρ dρ ρ dρ ρ dρ ρ dρ ρ
   "
   #
1 d l sin ρ 1 d 1 d l sin ρ
= (−1)l lρl−1 − (−1)l+1 ρl+1
ρ dρ ρ ρ dρ ρ dρ ρ
   
l 1 d l sin ρ 1 d l+1 sin ρ l
= (−1)l ρl − (−1)l+1 ρl+1 = jl (ρ) − jl+1 (ρ)
ρ ρ dρ ρ ρ dρ ρ ρ

r r
∂Yll (θ, ϕ) (−1)l (2l + 1)! ilϕ ∂ h l
i l (−1)l (2l + 1)!
= e (sin θ) = cos θ eilϕ (sin θ)l−1
∂θ 2l l! r 4π ∂θ 2l l! 4π
∂Yll (θ, ϕ) l (−1)l (2l + 1)! cos θ ilϕ cos θ
= l
e (sin θ)l = l Yl,l (θ, ϕ)
∂θ 2 l! 4π sin θ sin θ

r r
∂Yll (θ, ϕ) (−1)l (2l + 1)! ∂ ilϕ (−1)l (2l + 1)!
= (sin θ)l e = il l (sin θ)l eilϕ
∂ϕ 2l l! 4π ∂ϕ 2 l! 4π
∂Yll (θ, ϕ)
= ilYl,l (θ, ϕ)
∂ϕ

r
(−1)l+1 [2 (l + 1) + 1]!
Yl+1,l+1 (θ, ϕ) = (sin θ)l+1 ei(l+1)ϕ
2l+1 (l + 1)! 4π
p " r #
(−1) sin θ eiϕ (2l + 2) (2l + 3) (−1)l [2l + 1]! l ilϕ
= (sin θ) e
2 (l + 1) 2l l! 4π
p s
(−1) sin θ eiϕ (2l + 2) (2l + 3) (2l + 3)
Yl+1,l+1 (θ, ϕ) = Yl,l (θ, ϕ) = (−1) sin θ eiϕ Yl,l (θ, ϕ)
(2l + 2) (2l + 2)

condensaremos estas propiedades en la forma

s
d l iϕ (2l + 3)
jl (ρ) = jl (ρ) − jl+1 (ρ) ; Yl+1,l+1 (θ, ϕ) = (−1) sin θ e Yl,l (θ, ϕ) (19.41)
dρ ρ (2l + 2)
∂Yll (θ, ϕ) cos θ ∂Yll (θ, ϕ)
= l Yl,l (θ, ϕ) ; = ilYl,l (θ, ϕ) (19.42)
∂θ sin θ ∂ϕ

Tomaremos como hipótesis que la constante de normalización Ck,l en la Ec. (19.38) solo depende de k, i.e. Ck,l ≡ Ck ,
y demostraremos por inducción que si ϕk,l,l (r) está normalizado con este Ck , entonces ϕk,l+1,l+1 (r) también
(0)
lo estará y puesto que para ϕk,0,0 (r) la constante de normalización solo dependı́a de k, esta misma constante
(0)
normaliza a todos los ϕk,l,l (r). Usando la forma explı́cita de P+ y de ϕk,l,l (r), Ecs. (19.31, 19.38) junto con las
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 471

propiedades (19.41, 19.42), se obtiene


 
(0) iϕ ∂ i~ cos θ iϕ ∂ ~eiϕ ∂
P+ ϕk,l,l (r) = Ck −i~ sin θ e − e + jl (kr) Yll (θ, ϕ)
∂r r ∂θ r sin θ ∂ϕ
 
iϕ ∂ i~ cos θ iϕ ∂Yll (θ, ϕ) ~eiϕ ∂Yll (θ, ϕ)
= Ck −i~Yll (θ, ϕ) sin θ e k jl (kr) − e jl (kr) + jl (kr)
∂ (kr) r ∂θ r sin θ ∂ϕ
    
l i~ cos θ iϕ cos θ
= Ck −i~Yll (θ, ϕ) sin θ eiϕ k jl (kr) − jl+1 (kr) − e jl (kr) l Yl,l (θ, ϕ)
kr r sin θ

~eiϕ
+jl (kr) ilYl,l (θ, ϕ)
r sin θ

  Yll (θ, ϕ) iϕ  
= Ck i~k sin θ eiϕ Yll (θ, ϕ) jl+1 (kr) − i~ e jl (kr) l sin2 θ
r sin θ

Yl,l (θ, ϕ) iϕ  2
 Y l,l (θ, ϕ) iϕ
−i~ e jl (kr) l cos θ + i~ e jl (kr) l
r sin θ r sin θ
( " s # )
(2l + 2) Yll (θ, ϕ) iϕ  
= Ck i~k (−1) Yl+1,l+1 (θ, ϕ) jl+1 (kr) − i~ e jl (kr) l sin2 θ + l cos2 θ − l
(2l + 3) r sin θ
s
(0) (2l + 2)
P+ ϕk,l,l (r) = −i~k Ck Yl+1,l+1 (θ, ϕ) jl+1 (kr)
(2l + 3)

quedando finalmente r
(0) 2l + 2 (0)
P+ ϕk,l,l (r) = −i~k ϕ (r) (19.43)
2l + 3 k,l+1,l+1
con lo cual hemos encontrado el factor de proporcionalidad Mk,l de la Ec. (19.23).

19.4.6. Ortonormalidad de las funciones esféricas libres


En la relación de ortonormalidad (19.39) los factores δll′ δmm′ provienen de la ortonormalidad de las funciones
(0)
angulares (armónicos esféricos) la cual ya está garantizada. Como consecuencia, podemos ver que si ϕk,l,l (r) está
(0)
normalizada, entonces ϕk,l,m (r) también lo está para todo m
D E Z Z
(0) (0) (0)∗ (0) 
ϕk,l,m ϕk′ ,l,m ≡ d3 r ϕk,l,m (r) ϕk′ ,l,m (r) = Ck2 r 2 dr dΩ jl∗ (kr) Yl,m∗
(θ, ϕ) jl k′ r Yl,m (θ, ϕ)
Z Z
2 2 ∗ ′
 ∗
= Ck r dr jl (kr) jl k r Yl,m (θ, ϕ) Yl,m (θ, ϕ) dΩ
D E Z 
(0) (0) 
ϕk,l,m ϕk′ ,l,m = Ck2 r 2 dr jl∗ (kr) jl k′ r (19.44)

La Ec. (19.44) nos muestra que este producto interno no depende de m. Como caso particular, se tiene que
D E D E Z 
(0) (0) (0) (0) 2 2 ∗ ′

ϕk,l,l ϕk′ ,l,l = ϕk,l,m ϕk′ ,l,m = Ck r dr jl (kr) jl k r (19.45)

y puesto que los armónicos esféricos ya garantizan la ortogonalidad en los números cuánticos l, m, será suficiente
(0)
mostrar la ortonormalización en el sentido extendido sobre la variable k, para las funciones del tipo ϕk,l,l
Z D E

 (0)∗ (0) (0) (0)
Il k, k ≡ d3 r ϕk,l,l (r) ϕk′ ,l,l (r) = ϕk,l,l ϕk′ ,l,l (19.46)
472 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

demostraremos que si Il (k, k′ ) está ortonormalizada entonces Il+1 (k, k′ ) también lo está. Partimos entonces de la
hipótesis
 D (0) (0) E 
Il k, k = ϕk,l,l ϕk′ ,l,l = δ k − k′

(19.47)

utilizando (19.43) en la integral (19.46) para l + 1, tenemos que


 D E 1 2l + 3 D E
(0) (0) (0) (0)
Il+1 k, k′ = ϕk,l+1,l+1 ϕk′ ,l+1,l+1 = 2 ′ P+ ϕk,l,l P+ ϕk′ ,l,l
~ kk 2l + 2
 D E 2l + 3
(0) (0)
Il+1 k, k′ = Al,k,k′ ϕk,l,l P− P+ ϕk′ ,l,l ; Al,k,k′ ≡ 2 ′ (19.48)
~ kk (2l + 2)

donde P+† ≡ P− = P1 − iP2 , vemos que

P− P+ = P12 + P22 = P2 − P32 (19.49)


(0)
puesto que las ondas esféricas libres ϕk,l,l (r), son autoestados de H0 = P2 /2µ, son también autoestados de P2 ,
con valor propio 2µEk = ~2 k2 . Adicionalmente, puesto que P3 es hermı́tico, podemos escribir
 D  (0) E D  (0) E
(0) (0)
Il+1 k, k′ = Al,k,k′ ϕk,l,l P2 − P32 ϕk′ ,l,l = Al,k,k′ ϕk,l,l ~2 k′2 − P32 ϕk′ ,l,l
D E D E
(0) (0) (0) (0)
= Al,k,k′ ~2 k′2 ϕk,l,l ϕk′ ,l,l − Al,k,k′ ϕk,l,l P3† P3 ϕk′ ,l,l
  D E
(0) (0)
Il+1 k, k′ = Al,k,k′ ~2 k′2 Il k, k′ − Al,k,k′ P3 ϕk,l,l P3 ϕk′ ,l,l (19.50)

ahora debemos calcular la acción de P3 sobre las funciones esféricas libres, para lo cual usamos las ecuaciones
(19.30, 19.41, 19.42)
(0)  
(0) ∂ϕk,l,l (r) ∂ sin θ ∂ (0)
P3 ϕk,l,l (r) = −i~ = −i~ cos θ − ϕk,l,l (r)
∂x3 ∂r r ∂θ
 
∂jl (kr) sin θ ∂Yl,l (θ, ϕ)
= −i~Ck k cos θ Yl,l (θ, ϕ) − jl (kr)
∂ (kr) r ∂θ
    
l sin θ cos θ
= −i~Ck k cos θ Yl,l (θ, ϕ) jl (kr) − jl+1 (kr) − jl (kr) l Yl,l (θ, ϕ)
kr r sin θ
 
l l
= −i~Ck cos θ Yl,l (θ, ϕ) jl (kr) − k cos θ Yl,l (θ, ϕ) jl+1 (kr) − cos θ Yl,l (θ, ϕ) jl (kr)
r r
(0)
P3 ϕk,l,l (r) = i~k cos θ Ck Yl,l (θ, ϕ) jl+1 (kr) (19.51)
(0)
Para propósitos de la demostración es conveniente escribir el miembro derecho de (19.51) en términos de ϕk,l+1,l (r).
Para hacerlo debemos escribir el miembro derecho de (19.51) en términos de Yl+1,l (θ, ϕ). De la Ec. (11.32), Pág.
331 con m = l se tiene
p √
L− Yl,l (θ, ϕ) = ~ l (l + 1) − l (l − 1) Yl,l−1 (θ, ϕ) = ~ 2l Yl,l−1 (θ, ϕ)

usando la forma explı́cita de L− en la base de las {|ri}, Ec. (11.15) Pág. 329, nos queda
 
1 1 ∂Y (θ, ϕ) cos θ ∂Yl,l (θ, ϕ)
Yl,l−1 (θ, ϕ) = √ L− Yl,l (θ, ϕ) = √ ~e−iϕ − l,l +i
~ 2l ~ 2l ∂θ sin θ ∂ϕ
−iϕ
  −iϕ
e cos θ cos θ e cos θ
= √ −l Yl,l (θ, ϕ) + i (ilYl,l (θ, ϕ)) = −2l √ Yl,l (θ, ϕ)
2l sin θ sin θ 2l sin θ
√ cos θ
Yl,l−1 (θ, ϕ) = − 2l e−iϕ Yl,l (θ, ϕ) (19.52)
sin θ
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 473

con la sustitución l → l + 1 en la ecuación (19.52) y usando la Ec. (19.41) tenemos


" s #
p −iϕ cos θ
√ −iϕ cos θ iϕ (2l + 3)
Yl+1,l (θ, ϕ) = − 2 (l + 1) e Yl+1,l+1 (θ, ϕ) = − 2l + 2 e (−1) sin θ e Yl,l (θ, ϕ)
sin θ sin θ (2l + 2)
p
Yl+1,l (θ, ϕ) = cos θ (2l + 3)Yl,l (θ, ϕ) (19.53)

sustituyendo (19.53) en (19.51) se obtiene


" #
(0) Yl+1,l (θ, ϕ) i~k
P3 ϕk,l,l (r) = i~k cos θCk p jl+1 (kr) = p Ck Yl+1,l (θ, ϕ) jl+1 (kr)
cos θ (2l + 3) (2l + 3)
(0) i~k (0)
P3 ϕk,l,l (r) = p ϕk,l+1,l (r) (19.54)
(2l + 3)
y ahora sustituyendo (19.54) en (19.50) tenemos que
* +
  i~k i~k ′
′ (0) (0)
Il+1 k, k = Al,k,k′ ~2 k′2 Il k, k − Al,k,k′

p ϕk,l+1,l p ϕ ′
(2l + 3) (2l + 3) k ,l+1,l
!
 −i~k i~k′ D E
(0) (0)
= Al,k,k′ ~2 k′2 Il k, k′ − Al,k,k′ p p ϕk,l+1,l ϕk′ ,l+1,l
(2l + 3) (2l + 3)

usando la forma explı́cita de Al,k,k′ , ecuación (19.48), ası́ como la Ec. (19.45) tenemos que
 2 ′ D E

 2l + 3 2 ′2 ′
 2l + 3 ~ kk (0) (0)
Il+1 k, k = ~ k I l k, k − ϕk,l+1,l+1 ϕk ′ ,l+1,l+1
~2 kk′ (2l + 2) ~2 kk′ (2l + 2) (2l + 3)
 ′
k (2l + 3)  1 
Il+1 k, k′ = Il k, k′ − Il+1 k, k′
k (2l + 2) (2l + 2)
aplicando la hipótesis (19.47) resulta
 k′ (2l + 3)  1 
Il+1 k, k′ = δ k − k′ − Il+1 k, k′
k (2l + 2) (2l + 2)
  ′
1  k (2l + 3) 
1+ Il+1 k, k′ = δ k − k′
(2l + 2) k (2l + 2)
 
(2l + 2) + 1  k′ (2l + 3) 
Il+1 k, k′ = δ k − k′
(2l + 2) k (2l + 2)
la anterior expresión muestra que Il+1 (k, k′ ) es cero si k 6= k′ por tanto
 
2l + 3  k (2l + 3) 
Il+1 k, k′ = δ k − k′
(2l + 2) k (2l + 2)

 
Il+1 k, k = δ k − k′

por tanto hemos demostrado que si Il (k, k′ ) está ortonormalizado con el factor Ck , entonces Il+1 (k, k′ ) también lo
(0)
está. Por último, hallamos el factor Ck por medio de la función esférica libre más simple ϕk,0,0 (r). Comenzamos
reescribiendo la Ec. (19.29) (que ya está debidamente normalizada) en la forma
r r
(0) k sin kr 2 sin kr 1 2
ϕk,0,0 (r) = √ =k √ =k j0 (kr) Y00 (θ, ϕ)
π 2 kr π kr 4π π
r
(0) 2
ϕk,0,0 (r) = Ck j0 (kr) Y00 (θ, ϕ) ; Ck ≡ k
π
474 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

la expresión final para las ondas esféricas libres Ec. (19.38), será entonces
r
(0) 2
ϕk,l,m (r) = k jl (kr) Ylm (θ, ϕ) (19.55)
π

19.4.7. Comportamiento asintótico de las ondas esféricas libres


Estudiaremos el comportamiento de jl (ρ) cerca al origen y para r muy grande. Utilizando la expansión de
sin ρ/ρ en serie de potencias

sin ρ X ρ2p
= (−1)p (19.56)
ρ (2p + 1)!
p=0
l
y aplicando el operador (−1)l ρl ρ−1 ∂ρ obtenemos jl (ρ) según la definición (19.37)
 l ∞
X  
l l 1 d sin ρ l l (−1)p 1 d l 2p
jl (ρ) = (−1) ρ = (−1) ρ ρ (19.57)
ρ dρ ρ (2p + 1)! ρ dρ
p=0

podemos ver que


        
1 d l 2p 1 d l−1 1 d 2p 1 d l−1 2(p−1)
ρ = ρ = 2p ρ
ρ dρ ρ dρ ρ dρ ρ dρ
         
1 d l−2 1 d 2(p−1) 1 d l−3 1 d 2(p−2)
= 2p ρ = 2p [2 (p − 1)] ρ
ρ dρ ρ dρ ρ dρ ρ dρ
   
1 d l 2p 1 d l−3 2(p−3)
ρ = 2p [2 (p − 1)] [2 (p − 2)] ρ
ρ dρ ρ dρ
de lo cual ya podemos ver la secuencia
 
1 d l 2p
ρ = 2p [2 (p − 1)] [2 (p − 2)] · · · {2 [p − (l − 1)]} ρ2(p−l)
ρ dρ
 
1 d l 2p
ρ = 2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)] ρ2(p−l) (19.58)
ρ dρ
sustituyendo (19.58) en (19.57) tenemos

X
l 2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)] 2(p−l)
jl (ρ) = (−1) ρ l
(−1)p ρ (19.59)
(2p + 1)!
p=0

es claro que el factor


2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)]
(2p + 1)!
es nulo para p = 0, 1, 2, . . . , l − 1. Por tanto la Ec. (19.59) queda en la forma

X 2p (2p − 2) (2p − 4) · · · [2p − 2 (l − 1)] 2p−2l
jl (ρ) = (−1)l ρl (−1)p ρ (19.60)
(2p + 1)!
p=l

en el lı́mite cuando ρ → 0, podemos quedarnos solo con el primer término de la expansión (19.60)
2l (2l − 2) (2l − 4) · · · × 4 × 2 2l (2l − 2) (2l − 4) · · · × 4 × 2
jl (ρ) ∼ (−1)l ρl (−1)l = ρl
ρ→0 (2l + 1)! (2l + 1) (2l) (2l − 1) (2l − 2) · · · 3 × 2 × 1
ρl
=
(2l + 1) (2l − 1) (2l − 3) · · · × 3 × 1
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 475

ρl
jl (ρ) ∼ (19.61)
ρ→0 (2l + 1)!!

con lo cual ϕk,l,m (r) es proporcional a r l en el lı́mite de ρ = kr muy pequeño. Sustituyendo (19.61) en (19.55)
resulta r
(0) 2 (kr)l
ϕk,l,m (r) ∼ k Ylm (θ, ϕ) (19.62)
r→0 π (2l + 1)!!
veamos ahora el lı́mite para ρ muy grande. De la definición de jl (ρ) se tiene
 l  l−1     l−1  
l 1 d sin ρ 1 d 1 d sin ρ l l 1 d cos ρ sin ρ
jl (ρ) = (−1) ρ l
= (−1)l ρl = (−1) ρ − 3
ρ dρ ρ ρ dρ ρ dρ ρ ρ dρ ρ2 ρ

el segundo término en paréntesis cuadrados es mucho menor que el primero cuando ρ → ∞. Tenemos entonces
que
 l−1  l−1  
l l 1 d cos ρ l l 1 d 1 d
jl (ρ) ∼ (−1) ρ = (−1) ρ sin ρ
ρ→∞ ρ dρ ρ2 ρ dρ ρ2 dρ

Adicionalmente, al aplicar de nuevo el operador ρ−1 ∂ρ , tenemos


  l−2 
  l−2  
l l 1 d
1 d cos ρ l l 1 d sin ρ 2 cos ρ
jl (ρ) ∼ (−1) ρ = (−1) ρ − 3 −
ρ→∞ ρ dρρ dρρ2 ρ dρ ρ ρ4
 l−2    l−2  
1 d sin ρ 1 d 1 d2
jl (ρ) ∼ (−1)l ρl − 3 = (−1)l ρl sin ρ
ρ→∞ ρ dρ ρ ρ dρ ρ3 dρ2

el término dominante continúa siendo el término proveniente de la derivada de la función sin ρ. Por tanto, jl (ρ)
se comporta en la forma
 l
l l 1 d
jl (ρ) ∼ (−1) ρ sin ρ
ρ→∞ ρl+1 dρ
 l
1 d
jl (ρ) ∼ (−1)l sin ρ
ρ→∞ ρ dρ

y teniendo en cuenta que


 l 
d π 
sin ρ = (−1)l sin ρ − l
dρ 2
obtenemos finalmente 
1 π 
jl (ρ) ∼ sin ρ − l (19.63)
ρ→∞ ρ 2
en este punto recalcamos la importancia de la condición uk,l (0) = 0. Por ejemplo, si hacemos kr = ρ en la ecuación
radial (19.5) obtenemos
 
~2 k2 d2 k2 l (l + 1) ~2 (0) ~2 k2 (0)
− (kr) + Rk,l (ρ) = R (ρ)
2µ kr d (kr)2 2µ (kr)2 2µ k,l
 
~2 k2 1 d2 l (l + 1) (0)
− ρ+ − 1 Rk,l (ρ) = 0
2µ ρ dρ2 ρ2
 
1 d2 l (l + 1) (0)
2
ρ+1− 2
Rl (ρ) = 0 (19.64)
ρ dρ ρ
476 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

en el último paso hemos suprimido la dependencia de k como número cuántico en Rk,l (ρ), puesto que dicho
número cuántico se factorizó por completo del operador (por supuesto Rl (ρ) depende de k a través del factor de
normalización Ck y de la relación ρ ≡ kr). Por otro lado
   
1 d2 h (0) i 1 d (0) d (0) 1 d (0) d (0) d2 (0)
ρRl (ρ) = Rl (ρ) + ρ Rl (ρ) = R (ρ) + Rl (ρ) + ρ 2 Rl (ρ)
ρ dρ2 ρ dρ dρ ρ dρ l dρ dρ
2 h i  2 
1 d (0) 2 d (0) d (0)
2
ρRl (ρ) = Rl (ρ) + 2 Rl (ρ) (19.65)
ρ dρ ρ dρ dρ
sustituyendo (19.65) en (19.64) queda finalmente
 2  
d 2 d l (l + 1) (0)
2
+ + 1− 2
Rl (ρ) = 0 (19.66)
dρ ρ dρ ρ
esta es la ecuación de Bessel esférica de orden l. Dicha ecuación posee dos soluciones linealmente independientes,
que se pueden distinguir en particular por su comportamiento en el origen. Una de ellas es la función de Bessel
esférica jl (ρ) que satisface las condiciones asintóticas (19.61, 19.63). Para la otra solución linealmente indepen-
diente se pueden elegir las funciones esféricas de Neumann de orden l, denotadas por ηl (ρ), que poseen el
siguiente comportamiento asintótico
(2l − 1)!! 1  π 
ηl (ρ) ∼ ; ηl (ρ) ∼ cos ρ − l (19.67)
ρ→0 ρl+1 ρ→∞ ρ 2
para ver si la solución es fı́sicamente aceptable, examinamos el lı́mite de r pequeño para uk,l (ρ) para el cual
tendrı́amos
(0) (0) ρ (0) (2l − 1)!!
lı́m uk,l (ρ) = lı́m rRk,l (ρ) = lı́m ηl (ρ) =
ρ→0 ρ→0 ρ→0 k kρl
este lı́mite no es nulo para ningún l, y de hecho diverge para l 6= 0. Por tanto, no se cumple la condición (19.8)
con lo cual la solución es fı́sicamente descartable.

19.4.8. Relación entre las ondas esféricas libres y las planas


n o n o
(0) (0)
Tanto las ondas esféricas libres ϕk,l,m (r) como las ondas planas ηk (r) son bases para el espacio orbital
Er . Por tanto, cada base se puede expresar en términos de la otra. Comenzaremos por expresar las ondas planas en
(0)
términos de las ondas esféricas libres. Puesto que la onda plana ηk (r), es función propia de H0 con valor propio
~2 k2 /2µ, su expansión solo incluirá a las ondas ϕk,l,m (r) que corresponden a esta energı́a, es decir aquellas que
cumplen la condición √
2µE
|k| =
~
de manera que la expansión tendrá la forma
∞ X
X l
(0) ik·r (0)
ηk (r) =e = cl,m (k) ϕk,l,m (r) (19.68)
l=0 m=−l

comenzaremos por simplicidad con el caso en el cual k = ku3 . Definiendo θ como el ángulo entre r y el eje Z,
vamos a expandir la función
eikz = eikr cos θ (19.69)
puesto que esta función es independiente de ϕ, solo contribuyen los armónicos esféricos con m = 0. Por tanto la
Ec. (19.68) quedará en la forma

X ∞
X
ikz ikr cos θ (0)
e =e = cl,0 (k) ϕk,l,0 (r) = cl (k) jl (kr) Yl,0 (θ) (19.70)
l=0 l=0
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 477

si consideramos a eikr cos θ como función de θ, asumiendo a r como un parámetro, podemos considerar a cl (k) jl (kr)
como un coeficiente y expandirlo en la base ortonormal de los armónicos esféricos3 . Multiplicando la Ec. (19.70)
∗ (θ) dΩ, integrando en el ángulo sólido y utilizando la ortonormalidad de los armónicos esféricos, tenemos
por Yl,0
Z ∞
X Z ∞
X
eikr cos θ Yl,0

(θ) dΩ = cl′ (k) jl′ (kr) ∗
Yl′ ,0 (θ) Yl,0 (θ) dΩ = cl′ (k) jl′ (kr) δll′ = cl (k) jl (kr)
l′ =0 l′ =0
Z
cl (k) jl (kr) = eikr cos θ Yl,0

(θ) dΩ (19.71)

por otro lado, Yl,0 (θ) se puede escribir en términos de Yl,l (θ, ϕ) aplicando l−veces el operador escalera L−. . De la
Ec. (11.32), Pág. 331 vemos que
p
L− Yl,m (θ, ϕ) = ~ l (l + 1) − m (m − 1)Yl,m−1 (θ, ϕ)

que reescribiremos en la forma


p p
L− Yl,l−k (θ, ϕ) = ~ l (l + 1) − (l − k) (l − k − 1) Yl,l−k−1 (θ, ϕ) = ~ (2l − k) (k + 1) Yl,l−k−1 (θ, ϕ)
p p
L− Yl,l−k (θ, ϕ) = ~ (k + 1) (2l − k) Yl,l−k−1 (θ, ϕ) ; 0 ≤ k ≤ 2l (19.72)

si aplicamos l veces el operador L− al armónico Yl,l (θ, ϕ) entonces k pasará por los valores

k = 0, 1, 2, . . . , (l − 3) , (l − 2) , (l − 1) (19.73)

y combinando la Ec. (19.72) con (19.73) vemos que


p p
(L− )l Yl,l (θ, ϕ) = ~l 1 · 2 · . . . · (l − 1) · l (2l) (2l − 1) (2l − 2) . . . (l + 2) (l + 1) Yl,0 (θ, ϕ)
p
(L− )l Yl,l (θ, ϕ) = ~l (2l)! Yl,0 (θ, ϕ) (19.74)

sustituyendo (19.74) en (19.71) se obtiene


Z Z "  #∗
∗ 1 L− l
cl (k) jl (kr) = Yl,0 (θ) eikr cos θ
dΩ = p Yl,l (θ, ϕ) eikr cos θ dΩ
(2l)! ~
* l "  #†
1 L− 1 L− l
= p (l, l) |ki = p hl, l| |ki (19.75)
(2l)! ~ (2l)! ~
Z " l #†
1 L −
= p Yl,l∗ (θ, ϕ) eikr cos θ dΩ
(2l)! ~
Z " l #
1 L +
cl (k) jl (kr) = p Yl,l∗ (θ, ϕ) eikr cos θ dΩ (19.76)
(2l)! ~

donde hemos usado el hecho de que L+ es el adjunto de L− . Por otro lado, de la forma explı́cita de L± Ecs. (11.14,
11.15), Pág. 329 se puede probar que
  d  
L± einϕ F (θ) = ∓~ei(n±1)ϕ (sin θ)1±n (sin θ)∓n F (θ) (19.77)
d (cos θ)
a partir de lo cual se puede demostrar por recurrencia que
  dp  
(L± )p einϕ F (θ) = (∓~)p ei(n±p)ϕ (sin θ)p±n p (sin θ)
∓n
F (θ) (19.78)
d (cos θ)
3
De hecho, los armónicos esféricos de la forma Yl,0 (θ) son una base ortonormal para funciones de la variable θ.
478 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

aplicando (19.78) con p = l y con n = 0, tenemos que


 
L+ l ikr cos θ dl
e = (−1)l eilϕ (sin θ)l l
eikr cos θ
~ d (cos θ)
= (−1)l eilϕ (sin θ)l (ikr)l eikr cos θ
 l s
L+ l 4π
eikr cos θ = (ikr) 2l l! Yl,l (θ, ϕ) eikr cos θ (19.79)
~ (2l + 1)!
donde hemos utilizado la expresión (11.29) Pág. 331 para Yl,l (θ, ϕ). Aplicando la Ec. (19.79) en (19.76) resulta
s Z
l 4π 2l l!
cl (k) jl (kr) = (ikr) p |Yl,l (θ, ϕ)|2 eikr cos θ dΩ (19.80)
(2l + 1)! (2l)!
ahora bien, puesto que cl (k) es independiente de r podemos tomar cualquier valor dado de r para evaluar cl (k) en
la expresión (19.80). Tomaremos r → 0, con lo cual la función esférica de Bessel jl (kr) adquiere el valor asintótico
(19.61). En este lı́mite, la Ec. (19.80) queda en la forma
s Z
(kr)l l 4π 2l l!
cl (k) = (ikr) p |Yl,l (θ, ϕ)|2 dΩ
(2l + 1)!! (2l + 1)! (2l)!
s
4π 2l l!
cl (k) = il (2l + 1)!! p
(2l + 1)! (2l)!
donde hemos tenido en cuenta que los armónicos esféricos están normalizados. El coeficiente cl es entonces inde-
pendiente de k y viene dado por
s s
l 4π 2l + 1 l (2l + 1)!! p
cl = i (2l + 1)!! 2 l! = il 4π (2l + 1) 2l l!
(2l + 1)! (2l + 1)! (2l + 1)!
p 2l l!
cl = il 4π (2l + 1) (19.81)
(2l)!!
es fácil ver que
(2l)!! = [2l] [2l − 2] [2l − 4] [2l − 6] ... [2l − 2 (l − 1)] = [2l] [2 (l − 1)] [2 (l − 2)] [2 (l − 3)] ... [2 (l − (l − 1))]
= 2l · l (l − 1) (l − 2) (l − 3) ... (l − (l − 1))
(2l)!! = 2l · l!
con lo cual (19.81) se reduce a p
cl = il 4π (2l + 1) (19.82)
por tanto, la expansión de eikz Ec. (19.70) queda en la forma

X p ∞
X
eikz = il 4π (2l + 1) jl (kr) Yl,0 (θ) = il (2l + 1) jl (kr) Pl (cos θ) (19.83)
l=0 l=0

donde Pl (cos θ) es el polinomio de Legendre de grado l. Es bien sabido que los polinomios de Legendre son una
base para cualquier función del ángulo polar θ. Por otro lado, podemos escribir la expansión (19.83) en términos
de las ondas esféricas libres (19.55)
r ∞ " r #
1 π X p 2
eikz = il 4π (2l + 1) k jl (kr) Yl,0 (θ)
k 2 π
l=0
r ∞
ikz 1 π X lp (0)
e = i 4π (2l + 1) ϕk,l,0 (r) (19.84)
k 2
l=0
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 479

Ahora bien, podemos sin pérdida de generalidad definir al vector k en la dirección u3 . Por otro lado, θ es el
ángulo entre u3 y r o equivalentemente el ángulo entre k y r. Adicionalmente, la expresión (19.83) depende única-
mente del ángulo entre k y r sin importar la dirección de los vectores individuales. Por conveniencia, redefinimos
como α al ángulo entre k y r, de modo que la expresión (19.83) para direcciones arbitrarias de k y r se escribe en
la forma

X
eik·r = il (2l + 1) jl (kr) Pl (cos α) (19.85)
l=0
La dirección (arbitraria) de k la definimos con los ángulos (θk , ϕk ), y la dirección arbitraria de r con los ángulos
(θ, ϕ). Ahora bien, puesto que α es el ángulo entre k y r, podemos utilizar el teorema de adición de los armónicos
esféricos Ec. (11.41), Pág. 333 para obtener
∞ X
l r ∞ l
X 4π πX X l ∗ (0)
ik·r l ∗
e = 4π i jl (kr) Ylm (θk , ϕk ) Yl,m (θ, ϕ) = i Ylm (θk , ϕk ) ϕk,l,m (r) (19.86)
k 2
l=0 m=−l l=0 m=−l

donde hemos utilizado la expresión (19.55) para las ondas esféricas libres. Por supuesto, es posible invertir la Ec.
(19.86), con el fin de obtener las ondas esféricas libres ϕk,l,m (r) en términos de ondas planas. Multiplicando la Ec.
(19.86) por Ylm (θk , ϕk ) dΩk , integrando y usando la ortonormalidad de los armónicos esféricos, se tiene que
Z ∞
X l
X
′ Z
ik·r l′
e Ylm (θk , ϕk ) dΩk = 4π i j (kr) Y
l′ l′ ,m′ (θ, ϕ) Yl∗′ m′ (θk , ϕk ) Ylm (θk , ϕk ) dΩk
l′ =0 m′ =−l′
∞ l ′
X X ′
= 4π il jl′ (kr) Yl′ ,m′ (θ, ϕ) δll′ δmm′ = 4πil jl (kr) Ylm (θ, ϕ)
l′ =0 m′ =−l′
Z r " r # r
ik·r 4πil π 2 4π π (0)
e Ylm (θk , ϕk ) dΩk = k jl (kr) Ylm (θ, ϕ) = l
ϕk,l,m (r)
k 2 π (−i) k 2
quedando finalmente r Z
(0) (−1)l il k 2
ϕk,l,m (r) = eik·r Ylm (θk , ϕk ) dΩk (19.87)
4π π
La Ec. (19.86) nos dice que un estado con momento lineal bien definido, involucra todos los valores posibles del
momento angular orbital. Recı́procamente, la Ec. (19.87) nos dice que un estado con momento angular orbital
bien definido,
√ involucra todas las ondas planas con la misma energı́a. Esto es, todas las ondas planas tales que
~ |k| = 2µE, incluyendo todas las direcciones posibles (θk , ϕk ).

19.4.9. Interpretación fı́sica de las ondas esférica libres


Hemos visto que la dependencia angular de la onda esférica está dada por los armónicos esféricos. Por lo
tanto, la dependencia angular está completamente fijada por los autovalores de L2 y L3 , pero es completamente
independiente de k, y por tanto de la energı́a. Por ejemplo, una onda esférica libre tipo s (i.e. con l = 0) es
isotrópica sin importar su energı́a.
Consideremos un ángulo sólido infinitesimal dΩ0 centrado en cierta dirección Ω0 ≡ (θ0 , ϕ0 ). Cuando la partı́cula
(0)
está en el estado ϕk,l,m (r) descrito por la Ec. (19.55), la probabilidad de encontrar a la partı́cula en un intervalo
radial entre r y r + dr y un intervalo angular dΩ0 está dada por
2 2k2 2 2 d (kr)
(0)
dP = ϕk,l,m (r) r 2 dr dΩ0 = j (kr) |Yl,m (θ0 , ϕ0 )|2 r 2 dr dΩ0 = (kr)2 jl2 (kr) |Yl,m (θ0 , ϕ0 )|2 dΩ0
π l π k
2 ρ2 2
dP = j (ρ) |Yl,m (θ0 , ϕ0 )|2 dρ dΩ0 ; ρ ≡ kr (19.88)
π k l
480 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

De la forma explı́cita de los armónicos esféricos Eq. (11.30) pág. 331, vemos que esta probabilidad es independiente
de ϕ, de modo que tiene simetrı́a azimutal. Adicionalmente, en virtud del comportamiento asintótico de jl (ρ) cerca
al origen Ec. (19.61), vemos que la probabilidad (19.88) en la vecindad del origen se comporta en la forma

2 ρ2 ρ2l
dP ∼ |Yl,m (θ0 , ϕ0 )|2 dρ dΩ0
r→0 π k [(2l + 1)!!]2
 
21 ρ2l+2
dP ∼ dρ |Yl,m (θ0 , ϕ0 )|2 dΩ0
r→0 π k [(2l + 1)!!]2

por tanto al incrementar l, disminuye más rápidamente la probabilidad a medida que nos acercamos al origen. De
la Ec. (19.88), es claro que el comportamiento radial de la probabilidad está regulado por la función ρ2 jl2 (ρ). El
comportamiento de esta función se grafica en la Fig. 19.1. Tal figura muestra que esta función permanece pequeña
en el intervalo p
ρ < l (l + 1)
podemos entonces asumir que la probabilidad es prácticamente cero para

Figura 19.1: Comportamiento de ρ2 jl2 (ρ) con respecto a ρ. Aquı́ se grafica para l = 4.

1p
r< l (l + 1) (19.89)
k
lo anterior implica que una partı́cula en el estado ϕk,l,m (r) prácticamente no se afecta por lo que ocurra en el
interior de la esfera centrada en el origen O y de radio
1p
bl (k) = l (l + 1) (19.90)
k
lo anterior posee un interesante análogo semi-clásico. En mecánica clásica una partı́cula libre de momento p y
momento angular L, se mueve en lı́nea recta con parámetro de impacto
|L|
b= (19.91)
|p|

y el parámetro de impactopcrece con el módulo de L y decrece con el módulo de p (y por tanto con la energı́a).
Si reemplazamos |L| por ~ l (l + 1) y |p| por ~k, la Ec. (19.91) se convierte en (19.90). Puesto que clásicamente
el parámetro de impacto es la distancia de máximo acercamiento al origen, vemos que también clásicamente, la
“esfera de exclusión” de la partı́cula aumenta con el aumento del módulo del momento angular y disminuye con
el aumento de la energı́a (i.e. del módulo de p).
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 481

A priori parece extraño que exista una esfera de exclusión alrededor del origen. Después de todo, si las partı́culas
son libres el origen no es un punto privilegiado, ya que no hay un centro dispersor. Sin embargo, debe tenerse en
cuenta que el momento angular es una cantidad que se mide con respecto a cierto origen. En el análogo clásico,
un alto valor del momento angular (con respecto a un origen dado) significa un alto parámetro de impacto, es
decir la distancia de mayor aproximación al origen es grande. Cuánticamente, esto se manifiesta en el crecimiento
de la esfera de exclusión cuando aumenta el momento angular.
Como en cualquier experimento de dispersión, el lı́mite más importante es el lı́mite asintótico con r → ∞.
(0)
Usando tal lı́mite en la función esférica de Bessel Ec. (19.63), vemos que el comportamiento de ϕk,l,m (r) en este
régimen asintótico, vendrá dado por
r r π 
(0) 2 21
ϕk,l,m (r) = k jl (kr) Ylm (θ, ϕ) ∼ −k sin l − ρ Ylm (θ, ϕ)
π r→∞ πρ 2
r π π r π π
2 1 ei( 2 l−ρ) − e−i( 2 l−ρ) 2 ei( 2 l−kr) − e−i( 2 l−kr)
= −k Ylm (θ, ϕ) = −k Ylm (θ, ϕ)
πρ 2i π 2ikr
quedando finalmente
r π π
(0) 2 e−ikr eil 2 − eikr e−il 2
ϕk,l,m (r) ∼ −k Ylm (θ, ϕ)
r→∞ π 2ikr
r  −ikr ilπ 
(0) 2 e e − eikr −il π
ϕk,l,m (r) ∼ −k Ylm (θ, ϕ) e 2 (19.92)
r→∞ π 2ikr

con lo cual en el infinito vemos que la función de onda esférica libre puede verse como la superposición de una
onda entrante r −1 e−ikr y una onda saliente r −1 eikr , cuyas amplitudes difieren por una diferencia de fase de lπ.
Si se construye un paquete de ondas esféricas libres, todas correspondientes al mismo valor de l y m (es decir
barriendo valores de k), podemos realizar una análisis similar al de la sección 18.5.1, y se concluye que para
t → −∞, solo existe un paquete de ondas entrante y para t → ∞ solo existe un paquete de ondas saliente.
De esta manera podemos pensar en la evolución temporal de una onda esférica libre en la siguiente forma: En
t → −∞ tenemos una onda entrante que converje hacia el origen O. A medida que se aproxima al origen comienza
a distorsionarse4 y vuelve sobre sus pasos cuando está a una distancia del orden de bl (k) dada por (19.90), de lo
cual surge una onda saliente con corrimiento de fase lπ con respecto a la onda entrante.

19.5. Ondas parciales en el potencial V (r)


A continuación estudiaremos los estados propios simultáneos de H (el Hamiltoniano total con interacción) L2
y L3 . Tales estados se denominan ondas parciales y se denotan por ϕk,l,m (r). Ya vimos que para un potencial
central V (r) las ondas parciales tienen la forma
1
ϕk,l,m (r) = Rk,l (r) Ylm (θ, ϕ) = uk,l (r) Ylm (θ, ϕ) (19.93)
r
siendo uk,l (r) la solución de la ecuación radial
 2 2 
~ d l (l + 1) ~2 ~2 k2
− + + V (r) uk,l (r) = uk,l (r) (19.94)
2µ dr 2 2µr 2 2µ
uk,l (0) = 0 (19.95)

este problema es análogo al de un problema unidimensional de una partı́cula de masa µ, bajo la influencia de un
potencial efectivo. Es claro que la variable r es no negativa en coordenadas esféricas. Sin embargo, en el problema
4
Debemos tener en cuenta que esta distorsión se debe a una barrera centrı́fuga y no a un potencial real.
482 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

unidimensional equivalente, es conveniente ver a r como una variable que puede tomar valores negativos pero
tal que hay una barrera de potencial de altura infinita para r < 0, que excluye esta región (tanto clásica como
cuánticamente). El potencial efectivo se escribirá entonces en la forma
( 2
V (r) + l(l+1)~
2 para r > 0
Vef f (r) = 2µr
∞ para r < 0

para valores grandes de r, la Ec. (19.94) se reduce a


 2 
d 2
+ k uk,l (r) ≃ 0 (19.96)
dr 2 r→∞

cuya solución general tiene la forma


uk,l (r) ≃ Aeikr + Be−ikr (19.97)
r→∞
pero como uk,l (r) debe satisfacer la condición (19.95) A y B no son independientes. En el problema unidimensional
equivalente, la condición (19.95) está asociada al hecho de que al aproximarnos al origen nos aproximamos a la
barrera infinita de potencial y la Ec. (19.97) representa en este problema equivalente la superposición de una onda
“incidente” plana e−ikr viniendo de la derecha (a lo largo del eje en el cual se mueve la partı́cula unidimensional
fictisia equivalente)5 , y una onda plana “reflejada” eikr que se propaga de izquierda a derecha. Puesto que no puede
haber una onda “transmitida” (en r < 0) debido a la barrera infinita de potencial, la intensidad de la corriente
“reflejada” debe ser igual a la “incidente”. En consecuencia, la condición (19.95) implica que en la expresión
asintótica (19.97) tenemos que
|A| = |B| (19.98)
aunque puede haber en general, una diferencia de fase entre ambas amplitudes
A = |A| eiϕA ; B = |A| eiϕB (19.99)
con lo cual la Ec. (19.97) queda h i
uk,l (r) ≃ |A| eiϕA eikr + eiϕB e−ikr
r→∞
que se puede reescribir en la forma
uk,l (r) ≃ C0 sin (kr − βl ) (19.100)
r→∞
donde la fase βl se puede determinar completamente imponiendo continuidad entre la solución asintótica (19.100)
y la solución completa de (19.94) que se anula en el origen. En la sección 19.4.9 vimos que para potencial nulo, βl
era lπ/2. En consecuencia, es conveniente utilizar este valor como punto de referencia y reescribir la Ec. (19.100)
en la forma  
π
uk,l (r) ≃ C0 sin kr − l + δl (19.101)
r→∞ 2
a la cantidad δl definida ası́, se le denomina el corrimiento de fase de la onda parcial ϕk,l,m (r) con respecto a la
(0)
onda esférica libre ϕk,l,m (r). Este corrimiento de fase depende obviamente de k y l i.e. de la energı́a y el momento
angular.
De las Ecs. (19.93, 19.101) podemos escribir el comportamiento asintótico de la onda parcial en la forma
1 1  π 
ϕk,l,m (r) = uk,l (r) Ylm (θ, ϕ) ≃ C0 sin kr − l + δl Ylm (θ, ϕ)
r r→∞ r 2
i(kr−l π2 +δl ) −i(kr−l π2 +δl ) π π
C0 e −e e−i(kr−l 2 +δl ) − ei(kr−l 2 +δl )
= Ylm (θ, ϕ) = −C0 Ylm (θ, ϕ)
r 2i 2ir
5
En mecánica clásica ocurre un fenómeno similar. En el problema unidimensional equivalente al problema de Kepler podemos pensar
en una partı́cula fictisia que se mueve en una dimensión en la coordenada r con puntos de retorno en r. Sin embargo, la partı́cula
real se mueve en dos dimensiones y los puntos de retorno son puntos en donde se invierte el crecimiento de la coordenada r, pero no
implican un retorno en la trayectoria.
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 483

π π
e−ikr ei(l 2 −δl ) − eikr e−i(l 2 −δl )
ϕk,l,m (r) ≃ −kC0 Ylm (θ, ϕ) (19.102)
r→∞ 2ikr
la onda parcial al igual que la onda esférica libre está constituı́da por la superposición de una onda entrante y una
saliente. Para facilitar la comparación entre las ondas parciales y las ondas esféricas libres, podemos modificar la
onda entrante de (19.102) para que quede casi idéntica a la dada por la Ec. (19.92). Para ello definimos una nueva
onda parcial ϕek,l,m (r) multiplicando ϕk,l,m (r) por una fase global eiδl que claramente no altera el contenido fı́sico
del estado, y redefiniendo la constante C0 de modo que
π
e−ikr eil 2 − eikr e−i(l 2 −2δl )
π
iδl
ek,l,m (r) ≡ e ϕk,l,m (r) ≃ −kC0 Ylm (θ, ϕ)
ϕ
"r #
r→∞ 2ikr
−ikr il π2 ikr −i(l π2 −2δl )
2 e e −e e
= −k C̄0 Ylm (θ, ϕ)
π 2ikr
p
ahora bien, el factor k 2/π garantiza la normalización de la función [ya que la función (19.55) está debidamente
normalizada]. En consecuencia, C̄0 tiene módulo unidad y por tanto es una fase global constante que se puede
remover. Tenemos finalmente
r  −ikr ilπ 
2 e e − eikr e2iδl −il π
ek,l,m (r) ≃ −k
ϕ Ylm (θ, ϕ) e 2 (19.103)
r→∞ π 2ikr
comparando las Ecs. (19.92, 19.103), podemos entonces interpretar esta expresión en la siguiente forma: Comen-
zamos con la misma onda entrante que en el caso de las ondas esféricas libres. A medida que se acerca al origen
(región de dispersión) esta onda entrante es cada vez más perturbada por el potencial. Después de reflejarse trans-
formada en una onda saliente, ha acumulado un corrimiento de fase de 2δl , con respecto a la onda saliente libre
que hubiera resultado en ausencia del potencial. Por tanto, el factor e2iδl (que varı́a con l y k) sintetiza el efecto
total del potencial sobre la partı́cula de momento angular l y energı́a ~2 k2 /2µ.
La anterior discusión es válida cuando tenemos un paquete de ondas compuesto por la superposición de ondas
parciales ϕk,l,m (r) todas con los mimos valores de l,m en las cuales la distribución de las k está muy concentrada
alrededor de cierto valor k0 . El análisis de este tipo de paquete muestra que para t → −∞, solo tenemos un paquete
de onda entrante que posteriormente interactúa con el potencial para dar paso al paquete saliente. También se
puede hacer una analogı́a semejante a la realizada en la sección 18.5.1. El fenómeno antes descrito es similar al
que se obtendrı́a si ponemos a interactuar a las ondas esféricas libres con un potencial dependiente del tiempo que
se “enciende” lentamente (adiabáticamente), tal potencial generarı́a las ondas parciales ϕk,l,m (r).

19.5.1. Ondas parciales en potenciales de rango finito


Supongamos que tenemos un potencial de rango finito r0 definido por

V (r) = 0 para r > r0 (19.104)


(0)
ya hemos concluı́do que las ondas esféricas libres ϕk,l,m (r) casi no penetran la zona interior a la esfera de radio
bl (k) dada por la Ec. (19.90). Esto implica que el potencial definido por (19.104) prácticamente no influye sobre
los estados para los cuales
bl (k) ≫ r0 (19.105)
debido a que las ondas entrantes asociadas, retroceden antes de alcanzar la zona de influencia de V (r). Por tanto,
para cada valor de la energı́a existe un momento angular crı́tico lM que de acuerdo con (19.90, 19.105) viene dado
por p
lM (lM + 1) ≃ kr0 (19.106)
de modo que los corrimientos de fase δl solo son apreciables para valores de l del orden de lM o menores. Es
claro que para potenciales de menor alcance, el valor de lM para una energı́a incidente dada es menor. Ası́ mismo,
484 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

para un potencial dado, lM decrece a medida que decrece la energı́a incidente. Por tanto, puede ocurrir que los
corrimientos de fase significativos sean solo aquellos que estén asociados a las primeras ondas parciales. Para muy
bajas energı́as puede ser razonable incluı́r solo la onda s (i.e. l = 0), para energı́as un poco mayores se incluirı́an
las ondas parciales s y p (l = 0, 1) etc. Por esta razón, el método de ondas parciales adquiere su importancia
práctica en un régimen de bajas energı́as, que conduzca a un valor de lM no mucho mayor a la unidad. Cuando
esta condición se cumple, pueden tomarse pocas ondas parciales en buena aproximación, y el método es manejable.
Por otro lado, puesto que lM ∼ kr0 = 2πr0 /λ, vemos que lM es del orden del cociente entre el rango r0 del
potencial y la longitud de onda de la partı́cula incidente.
Finalmente, el argumento aquı́ presentado se puede extender al caso de potenciales de rango infinito si existe
alguna longitud caracterı́stica luego de la cual el potencial se pueda considerar despreciable. Tal longitud carac-
terı́stica harı́a las veces del rango r0 , y la discusión anterior serı́a válida aunque solo en forma aproximada. Este
es el caso de la longitud r0 definida en la Ec. (18.73) Pág. 458, para el potencial de Yukawa.

19.5.2. Sección eficaz en términos de los corrimientos de fase δl


La información de la interacción con el potencial de estados con momento angular bien definido está guardada
en las fases δl . Ahora bien, si expresamos los estados estacionarios de dispersión ηk (r) en términos de ondas
parciales, podemos calcular la amplitud de scattering y la sección eficaz con tal expansión. Como resultado, la
interacción con el potencial se verá reflejada en la superposición de los corrimientos de fase δl , presentes en la
expansión. Es importante mencionar que si existen estados acotados para la partı́cula bajo el potencial V (r)
(estados estacionarios de energı́a negativa como en el átomo de hidrógeno), el conjunto de las ondas parciales
no constituirá una base para expandir estos estados, ya que las ondas parciales solo abarcan estados de energı́a
positiva6 . En tal caso, será necesario añadir a las ondas parciales, funciones de onda de estados acotados.
Ya que los estados estacionarios de dispersión deben cumplir la condición asintótica (18.26) Pág. 445, será
necesario verificar que la superposición de ondas parciales que los genera cumple dicha condición. Puesto que los
estados estacionarios de dispersión ηk (r), son autoestados del Hamiltoniano, la expansión de ηk (r) solo involucra
ondas parciales con la misma energı́a ~2 k2 /2µ, de modo que no hay suma sobre k. Por otro lado, si el potencial es
central el problema tiene simetrı́a azimutal ya que es simétrico con respecto a la rotación alrededor del eje OZ.
Por tanto, solo contribuirán ondas parciales con m = 0. Con estas consideraciones, tal expansión toma la forma

X
ηk (r) = ek,l,0 (r)
cl ϕ (19.107)
l=0

ahora debemos encontrar los coeficientes cl . Comencemos considerando el caso en que V (r) = 0, de modo que
(0)
ηk (r) se reduce a la onda plana eikz , y las ondas parciales se reducen a ondas esféricas libres ϕk,l,m (r), en tal caso
la expansión (19.107) se convierte en la expansión (19.84)
r ∞
(0) C π X lp (0)
ηk (r) = Ceikz = i 4π (2l + 1) ϕk,l,0 (r) (19.108)
k 2
l=0

para el potencial no nulo V (r), se debe incluir la onda esférica dispersada además de la onda plana. Por otro
lado, hemos visto que en su comportamiento asintótico, la onda parcial ϕ ek,l,0 (r) descrita por (19.103), difiere de
(0)
la onda esférica libre ϕk,l,m (r) descrita por (19.92) solo por la presencia de una onda esférica saliente, que tiene
la misma dependencia radial que la onda dispersada. En consecuencia, es de esperarse que los coeficientes cl de la
expansión (19.107) sean idénticos a los de la expansión (19.108) esto es
r ∞
C π X lp
ηk (r) = i 4π (2l + 1) ϕ ek,l,0 (r) (19.109)
k 2
l=0
6
En tal sentido las ondas parciales no son una base de Er .
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 485

esto también se puede ver con un argumento similar a los de las secciones 19.5, 18.5.1. Si tenemos una onda
plana cuya expansión viene dada por (19.108) y “encendemos” el potencial V (r) adiabáticamente, la onda plana
(0)
se transforma en la onda estacionaria de dispersión ηk (r). Similarmente, cada onda esférica libre ϕk,l,0 (r) se
transforma en la onda parcial ϕ ek,l,0 (r) cuando el potencial se activa, y teniendo en cuenta la linealidad de la
ecuación de Schrödinger, se tiene que cuando el potencial se activa la expresión (19.108) se mantiene en la misma
(0) (0)
forma reemplazando ηk (r) ≡ Aeikz por ηk (r) y cada onda esférica libre ϕk,l,m (r) por la onda parcial ϕ ek,l,0 (r).
De esta forma obtenemos la expresión (19.109).
Ahora debemos verificar que (19.109) cumpla con los requisitos de un estado estacionario de dispersión. En
primer lugar, puesto que cada onda parcial en la suma corresponde a un estado de energı́a bien definida y
todos corresponden a la misma energı́a ~2 k2 /2µ, tenemos que la superposición continúa siendo un autoestado del
Hamiltoniano i.e. un estado estacionario. Adicionalmente, debemos verificar que la expansión (19.109) cumple con
las condiciones asintóticas (18.26) Pág. 445, para estados estacionarios de dispersión. Para verlo, utilizaremos la
Ec. (19.103)

r ∞ ∞ π π
C π X lp X
l
p e−ikr eil 2 − eikr e−il 2 e2iδl
ηk (r) = ek,l,0 (r) ≃ −C
i 4π (2l + 1) ϕ i 4π (2l + 1) Yl,0 (θ) (19.110)
k 2 r→∞ 2ikr
l=0 l=0

para examinar este lı́mite asintótico usaremos la identidad

e2iδl = 1 + 2ieiδl sin δl (19.111)

y separando los términos que son independientes de δl se obtiene


" #
X∞ p e−ikr eil π2 − eikr e−il π2 1 + 2ieiδl sin δ
l
ηk (r) ≃ −C il 4π (2l + 1) Yl,0 (θ)
r→∞ 2ikr
l=0

" #
X p e−ikr eil 2 − eikr e−il π2
π
2ieikr e−il π2 eiδl sin δ
l
ηk (r) ≃ −C il 4π (2l + 1) Yl,0 (θ) −
r→∞ 2ikr 2ikr
l=0

" π π
#
X p e−ikr eil 2 − eikr e−il 2 1 eikr −il π iδl
l
ηk (r) ≃ −C i 4π (2l + 1) Yl,0 (θ) − e 2 e sin δl (19.112)
r→∞ 2ikr k r
l=0

teniendo en cuenta las Ecs. (19.92, 19.84) la expresión (19.112) queda


r ∞ ∞
C π X lp (0)
X p 1 eikr −il π iδl
ηk (r) ≃ i 4π (2l + 1) ϕk,l,0 (r) + C il 4π (2l + 1) Yl,0 (θ) e 2 e sin δl
r→∞ k 2 k r
l=0 l=0
r ∞ ∞  
C π X lp (0)
X π l p 1 eikr −il π iδl
ηk (r) ≃ i 4π (2l + 1) ϕk,l,0 (r) + C ei 2 4π (2l + 1) Yl,0 (θ) e 2 e sin δl
r→∞ k 2 k r
l=0 l=0

ikz C X il π p eikr π
ηk (r) ≃ Ce + e 2 4π (2l + 1) Yl,0 (θ) e−il 2 eiδl sin δl
r→∞ r k
l=0

quedando finalmente

eikr C Xp
ηk (r) ≃ Ceikz + fk (θ) ; fk (θ) ≡ 4π (2l + 1) Yl,0 (θ) eiδl sin δl (19.113)
r→∞ r k
l=0

con lo cual demostramos que la expansión (19.109) cumple con la condición asintótica (18.26). Adicionalmente, la
Ec. (19.113) nos brinda la forma explı́cita de la amplitud de dispersión fk (θ) en términos de los corrimientos de
486 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

fase δl . Con la amplitud de dispersión podemos proceder a calcular la sección eficaz diferencial a través de la Ec.
(18.44), Pág. 450
2 ∞ 2
1 1 X p

D (θ) = fk (θ) = 2 iδ
4π (2l + 1) Yl,0 (θ) e l sin δl
C k
l=0
∞ ∞
1 XX p
D (θ) = 4π (2l + 1) (2l′ + 1) Yl∗′ ,0 (θ) Yl,0 (θ) ei(δl −δl′ ) sin δl sin δl′ (19.114)
k2 ′
l=0 l =0

y la sección eficaz total la obtenemos integrando D (θ) sobre todo el ángulo sólido
Z ∞ ∞ Z
1 XX p ′ + 1) ei(δl −δl′ ) sin δ sin δ ′
σ = dΩ D (θ) = 4π (2l + 1) (2l l l dΩ Yl∗′ ,0 (θ) Yl,0 (θ)
k2 ′
l=0 l =0
∞ ∞
1 XX p
σ = 4π (2l + 1) (2l′ + 1) ei(δl −δl′ ) sin δl sin δl′ δll′
k2 ′
l=0 l =0
X∞

σ = (2l + 1) sin2 δl (19.115)
k2
l=0

nótese que en virtud de la ortonormalidad de los armónicos esféricos, los términos de interferencia asociados a
diferentes momentos angulares y que están presentes en la sección eficaz diferencial (19.114), están ausentes en la
sección eficaz total (19.115). Vemos además que para cualquier potencial central V (r), la contribución asociada a
cada l a la sección eficaz total es positiva

(2l + 1) sin2 δl ≥ 0
k2
y tiene una cota superior para una energı́a dada (k dado):
4π 4π
2
(2l + 1) sin2 δl ≤ 2 (2l + 1) (19.116)
k k
Vemos que las expresiones (19.114, 19.115) requieren conocer en principio todos los corrimientos de fase δl . En la
sección 19.5 vimos que si el potencial V (r) es conocido, estos corrimientos de fase se calculan de la ecuación radial
asociada (19.94). La ecuación radial (19.94) debe ser solucionada para cada l por aparte. Por lo anterior, el método
de ondas parciales es atractivo en la práctica cuando hay un número suficientemente pequeño de corrimientos de
fase δl que adquieren un valor considerable y los demás son despreciables. En la sección 19.5.1, vimos que para
el caso de potenciales de rango finito, los corrimientos de fase δl son despreciables cuando l > lM , siendo lM un
momento angular crı́tico dado por la fórmula (19.106), y que los argumentos allı́ discutidos se pueden extender
para potenciales de rango infinito, siempre y cuando podamos definir un rango o alcance caracterı́stico para la
interacción.
Sin embargo, en muchos experimentos de dispersión, el potencial es desconocido y de hecho muchos experimen-
tos se diseñan para modelarlo. En tal caso, usualmente se procura reproducir las curvas experimentales de sección
eficaz diferencial a una energı́a fija introduciendo un pequeño número de corrimientos de fase δl . Con frecuencia
la dependencia con θ de D (θ) sugiere el mı́nimo número de fases a utilizar. Por ejemplo, si la sección eficaz es
aproximadamente isotrópica, esto sugiere que solo la onda s (l = 0) contribuye significativamente, ya que Y00 es
constante. Una vez que determinamos las fases δl que contribuyen a diferentes valores de energı́a, podemos buscar
modelos de potenciales que reproduzcan las fases para cada energı́a dada. Es decir, las fases y su dependencia con
la energı́a.
La dependencia de la sección eficaz con la energı́a es tan importante como su dependencia angular. En algunos
casos se observa una rápida variación de la sección eficaz total cuando nos movemos en cierta vecindad del rango
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 487

de energı́a. Por ejemplo, si una de las fases δl toma el valor π/2 para E = E0 , la contribución asociada a σ adquiere
su cota superior (ver Ec. 19.116), y la sección eficaz puede mostrar un pico agudo en E = E0 . Este fenómeno
se conoce como resonancia en la dispersión. Este fenómeno es similar a la resonancia en la transmisión que
ocurre en una barrera de potencial unidimensional, como se discutió en la sección 3.7.1, Pág. 177.

19.5.3. Dispersión por esfera rı́gida


Ya vimos la dispersión clásica por esfera rı́gida en la sección 18.3.1, Pág. 440. Cuánticamente, la esfera rı́gida
de radio r0 la simulamos con el potencial

0 si r > r0
V (r) =
∞ si r ≤ r0

este es un caso tı́pico de potencial de rango finito (con rango r0 ) como se discutió en la sección 19.5.1. Asumiremos
que la energı́a de la partı́cula incidente es suficientemente pequeña de modo que se cumple la condición

kr0 ≪ 1 (19.117)

Combinando la condición (19.117) con (19.106) vemos que lM ≪ 1, y debido al carácter discreto de l, se concluye
que lM = 0. Como consecuencia, podemos despreciar todos los corrimientos de fase δl , excepto el asociado a la
onda s con l = 0. En tal caso, la amplitud de dispersión (19.113) viene dada por
C√
fk (θ) = 4π Y0,0 (θ) eiδ0 sin δ0
k
C iδ0 (k)
fk (θ) = e sin δ0 (k)
k
y la sección eficaz diferencial resulta isotrópica
2
1 1
D (θ) = fk (θ) = 2 sin2 δ0 (k)
C k

por otro lado, la sección eficaz total (19.115) queda en la forma



σ= sin2 δ0 (k) (19.118)
k2
solo nos queda calcular el corrimiento de fase δ0 (k), resolviendo la ecuación radial (19.94) para l = 0
 2 
d 2
+ k uk,0 (r) = 0 para r > r0 (19.119)
dr 2
además debe cumplirse la condición
uk,0 (r) = 0 para r ≤ r0 (19.120)
dado que el potencial es infinito para r ≤ r0 y por tanto la esfera de radio r0 centrada en el origen, es una esfera
de exclusión total [en particular se cumple la condición uk,0 (0) = 0, requerida en la Ec. (19.95)]. Solo hay una
solución linealmente independiente de las Ecs. (19.119, 19.120)

A sin (kr − kr0 ) para r > r0
uk,0 (r) = (19.121)
0 para r ≤ r0

por definición, el corrimiento de fase δ0 está dado por la forma asintótica de uk,0 (r), Ec. (19.101), Pág. 482

uk,0 (r) ∼ A sin (kr + δ0 ) (19.122)


r→∞
488 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

comparando (19.122) con la solución (19.121) vemos que

δ0 (k) = −kr0 (19.123)

insertando (19.123) en (19.118) y teniendo en cuenta que kr0 ≪ 1, la sección eficaz total queda

4π 4π
σ = 2
sin2 kr0 ≃ 2 (kr0 )2
k k
σ ≃ 4πr02 (19.124)

vemos que σ es independiente de la energı́a, aunque debe mantenerse la condición (19.117). Y es igual a cuatro
veces la sección transversal que ven las partı́culas del haz (i.e. cuatro veces el resultado clásico Ec. 18.9). La
desviación con respecto al resultado clásico se debe a que en el caso cuántico estudiamos la evolución de la onda
asociada a las partı́culas incidentes, y el cambio abrupto de V (r) en r = r0 , produce un fenómeno análogo a la
difracción de una onda de luz. De hecho, el lı́mite (19.117) nos dice que la longitud de onda de las partı́culas
incidentes es mucho mayor que r0 de modo que en tal lı́mite el fenómeno es notoriamente ondulatorio, por lo cual
es de esperarse una fuerte desviación con respecto al resultado de partı́cula clásica.
Se puede demostrar que en el lı́mite
kr0 ≫ 1 (19.125)
la sección eficaz total toma el valor
σ ∼ 2πr02 (19.126)
k→∞

puesto que este lı́mite corresponde al caso en el cual la longitud de onda de las partı́culas incidentes es despreciable
con respecto a r0 , podrı́a pensarse a priori que debe emularse el comportamiento corpuscular clásico. Sin embargo,
la comparación entre los resultados clásico (18.9) y cuántico (19.126) muestra que no es ası́. Esto se debe al hecho
de que el potencial es discontı́nuo en r = r0 y por tanto varı́a apreciablemente dentro de un intervalo más pequeño
que la longitud de onda de las partı́culas (ver discusión en la sección 3.4, Pág. 165), de modo que también se
manifiesta fuertemente el carácter cuántico de la interacción.

19.6. Colisiones con absorción


Hasta ahora hemos trabajado colisiones elásticas en las cuales no cambia ni el número ni la naturaleza de las
partı́culas que se dispersan. Sin embargo, en la sección 18.2 vimos que existe una amplia variedad de reacciones
que pueden ocurrir para que se genere creación y/o destrucción de partı́culas durante la dispersión. Con frecuencia
ocurre que en los experimentos solo podemos detectar las partı́culas dispersadas elásticamente. En tal caso, si la
dispersión no es elástica observaremos que algunas partı́culas del haz incidente “desaparecen”, de modo que no se
encuentran ni en el haz transmitido ni entre las partı́culas elásticamente dispersadas. Se dice que estas partı́culas
han sido absorbidas durante la colisión. En esta sección estudiaremos el proceso de absorción en el contexto más
simple posible, en el cual no nos enfocamos en las reacciones detalladas que ocurren, sino que nos concentramos
en la absorción global, vista como la diferencia entre las partı́culas incidentes y las detectadas. Veremos que el
método de ondas parciales es muy conveniente para esta descripción.
Supondremos que la interacción responsable de la desaparición de las partı́culas incidentes, es invariante bajo
rotaciones con respecto al origen O. Por tanto, la amplitud de dispersión podrá siempre descomponerse en ondas
parciales cada una de ellas asociada a un momento angular bien definido7 .
En la sección 19.5, interpretamos las ondas parciales diciendo que una onda entrante libre penetra la región de
dispersión en la cual se vé perturbada por el potencial. Posteriormente, se genera la onda saliente que naturalmente
debe estar modificada con respecto a la que se obtendrı́a en ausencia de potencial. El efecto neto del potencial
sobre la onda saliente es un corrimiento de fase 2δl con respecto al caso de ondas esféricas libres. Vemos que al
7
Si el potencial no es central, no hay una base común de vectores propios de H, L2 y L3 .
19.6. COLISIONES CON ABSORCIÓN 489

multiplicar la onda saliente libre por e2iδl (que es como se obtiene la onda saliente con potencial), no se altera
la amplitud de ésta y por tanto la onda saliente tiene la amplitud de la entrante, ya que tal factor tiene módulo
unidad (ver Ec. 19.98, Pág. 482). Esto implica que el flujo total de la onda entrante es igual al de la onda saliente,
con lo cual la probabilidad se conserva durante la dispersión y por tanto el número de partı́culas es constante.
La discusión anterior sugiere que los procesos de absorción se pueden incluı́r introduciendo un factor de la forma
e2iδl de módulo menor que la unidad, para lo cual serı́a necesario que δl ya no sea una fase real sino compleja

δl = αl + iβl ⇒ e2iδl = e2i(αl +iβl ) = e−2βl e2iαl



siendo αl y βl números reales. Para que e2iδl < 1 es necesario que βl (la parte imaginaria de δl ) sea positiva.
Con esto la amplitud de la onda saliente con momento angular l, es más pequeña que la de la onda entrante de
la cual se origina. Esto se traduce en una disminución del flujo de probabilidad saliente con respecto al flujo de
probabilidad entrante que expresa la “desaparición” de algunas de las partı́cula incidentes.
Con base en las anteriores consideraciones calcularemos las secciones eficaces de dispersión y absorción. Sin
embargo, este es un acercamiento puramente fenomenológico, y los parámetros con los cuales describimos la
absorción (módulo de e2iδl para cada onda parcial l) solo nos dan cuenta del fenómeno de absorción en forma
global. Si por ejemplo se pueden detectar las partı́culas de naturaleza distinta a las incidentes, es posible obtener
información sobre las reacciones especı́ficas que ocurren en el proceso de colisión. En este último caso, el presente
formalismo no es adecuado. De hecho, el formalismo cuántico seguido a lo largo de todo el texto, no es el más
adecuado para tratar problemas en donde la probabilidad no se conserva. Para tales problemas es mucho más
adecuado el uso de la teorı́a cuántica de campos.

19.6.1. Sección eficaz en procesos absortivos


Para dar cuenta de las posibles reacciones diferentes a la dispersión elástica, retornaremos a los cálculos
realizados en la sección 19.5.2, en donde definiremos

ξl ≡ e2iδl ; |ξl | ≤ 1 (19.127)

donde la condición sobre el módulo nos dará cuenta del fenómeno absortivo. En el lı́mite elástico este módulo será
igual a la unidad. Tomando la forma asintótica del estado estacionario de dispersión ηk (r), bajo el potencial V (r)
ecuación (19.110) Pág. 485, en términos de ξl tenemos

X p π π
e−ikr eil 2 − ξl eikr e−il 2
ηk (r) ∼ −C il 4π (2l + 1) Yl,0 (θ) (19.128)
r→∞ 2ikr
l=0

la identidad (19.111) continúa siendo válida para δl complejo, y por tanto la amplitud de dispersión fk (θ) continúa
siendo la indicada en (19.113) que en términos de ξl se escribe
∞ ∞
C Xp C Xp e2iδl − 1
fk (θ) ≡ 4π (2l + 1) Yl,0 (θ) eiδl sin δl = 4π (2l + 1) Yl,0 (θ)
k k 2i
l=0 l=0

C Xp ξl − 1
fk (θ) = 4π (2l + 1) Yl,0 (θ) (19.129)
k 2i
l=0

con lo cual se obtiene la sección eficaz diferencial para la parte elástica del proceso, la cual viene dada por
2
fk (θ) 2 X∞ p

Del (θ) = = 1


4π (2l + 1) Yl,0 (θ) (ξl − 1) (19.130)
C 4k2
l=0
490 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

y la sección eficaz total elástica será

Z ∞ ∞ Z
1 XXp p ∗
σel = Del (θ) dΩ = 2 ′
4π (2l + 1) 4π (2l + 1) (ξl − 1) (ξl′ − 1) Yl,0 (θ) Yl∗′ ,0 (θ) dΩ
Ω 4k ′ Ω
l=0 l =0
∞ ∞
π XXp
= (2l + 1) (2l′ + 1) (ξl − 1) (ξl∗′ − 1) δll′
k2 ′l=0 l =0

quedando finalmente

π X
σel = (2l + 1) |1 − ξl |2 (19.131)
k2
l=0

de acuerdo con nuestra discusión, la absorción de la onda l, alcanza su máximo cuando ξl = 0. Sin embargo, la
Ec. (19.131) nos indica que aún en este lı́mite, la onda l contribuye a la sección eficaz elástica. Es decir, incluso
si la región de interacción es perfectamente absorbente, produce dispersión elástica. Este fenómeno es análogo al
comportamiento de una onda luminosa que incide en un medio absorbente. Incluso si la absorción es total (por
ejemplo una esfera o disco perfectamente negros) se observa una onda difractada concentrada en un ángulo sólido
que disminuye a medida que la superficie del disco aumenta. Este fenómeno no tiene análogo en la dispersión
clásica de partı́culas ya que depende del comportamiento ondulatorio de éstas. La dispersión elástica producida
por una interacción totalmente absorbente se denomina dispersión de sombra.
Ahora bien, ası́ como se definió la sección eficaz de dispersión como un cociente entre número de partı́culas
dispersadas por unidad de tiempo y flujo incidente, definiremos la sección eficaz de absorción como el cociente
entre el número de partı́culas absorbidas por unidad de tiempo y el flujo incidente.
Para calcular esta sección eficaz calcularemos la cantidad total de probabilidad ∆P que “desaparece” por
unidad de tiempo, la cual es proporcional a la cantidad total de partı́culas incidentes que “desaparecen” por
unidad de tiempo. Esta probabilidad se puede obtener a través de la densidad de corriente J asociada con la
función de onda (19.128). La cantidad ∆P corresponde a la diferencia entre el flujo de la onda entrante através
de una esfera S de radio muy grande R0 y la de la onda saliente sobre la misma superficie. Por tanto, ∆P es igual
a menos el flujo neto del vector J que sale de la esfera8

Z  
~
∆P = − J · dS ; J = Re ηk∗ (r) ∇ηk (r)

puesto que para la esfera de radio muy grande R0 se tiene que dS = R02 dΩ ur , entonces solo la componente radial
de la corriente Jr contribuye a la integral. Tendremos entonces que

Z  
2 ~ ∂
∆P = − Jr r dΩ ; Jr = Re ηk∗ (r) ηk (r)
r=R0 iµ ∂r

teniendo en cuenta que R0 corresponde a radio muy grande, podemos usar el lı́mite asintótico (19.128) y tenemos

8
El signo menos se debe a que el diferencial de superficie se define hacia afuera de la esfera y nos interesa medir el flujo neto hacia
adentro.
19.6. COLISIONES CON ABSORCIÓN 491

que
∞ p
X p
Jr = 4π |C|2 (2l + 1) ∗
(2l′ + 1) Yl,0 (θ) Yl′ ,0 (θ)
l,l′ =0
 π π
 !
eikr e−il 2 − ξl∗ e−ikr eil 2 ~ ∂ e−ikr eil
′π
2 − ξl′ eikr e−il
′π
2
×Re  
(−2ikr) iµ ∂r 2ikr

π~ |C|2 X p ∗
Jr = (2l + 1) (2l′ + 1)Yl,0 (θ) Yl′ ,0 (θ) Ml,l′ (r)
k2 µ
l,l′ =0
" !#
1  ikr −il π ∗ −ikr il π
 ∂ e−ikr eil′ π2 − ξ ′ eikr e−il′ π2
l
Ml,l′ (r) ≡ Re e e 2 − ξl e e 2 (19.132)
r ∂r ir
al realizar la integral sobre el ángulo sólido y usar la ortonormalidad de los armónicos esféricos queda
Z ∞ Z
π~ |C|2 X p
∆P = − Jr r 2 dΩ = − 2 (2l + 1) (2l′ + 1) R02 Ml,l′ (R0 ) Yl,0

(θ) Yl′ ,0 (θ) dΩ
r=R0 k µ ′ Ω
l,l =0

2 X
π~ |C|
∆P = − (2l + 1) R02 Ml,l (R0 ) (19.133)
k2 µ
l=0

de modo que solo tenemos que calcular Ml,l (r) de la Ec. (19.132)
Ml,l (r) = Re Hl,l (r)
!
1  ikr −il π  ∂ π π
π e−ikr eil 2 − ξl eikr e−il 2
Hl,l (r) = e e 2 − ξl∗ e−ikr eil 2
r ∂r ir
!
1  ikr −il π π
 e−ikr eil π2 + ξ eikr e−il π2
l e−ikr eil π2 − ξ eikr e−il π2
l
= e e 2 − ξl∗ e−ikr eil 2 −ik −
r ir ir 2
  
    e −ikr eil π2 − ξ eikr e−il π2
1 π π π π l
= 2 eikr e−il 2 − ξl∗ e−ikr eil 2 −k e−ikr eil 2 + ξl eikr e−il 2 + i 
r r
k  π π
 π π

= 2 ξl∗ e−ikr eil 2 − eikr e−il 2 e−ikr eil 2 + ξl eikr e−il 2
r
i  π π
 π π

+ 3 eikr e−il 2 − ξl∗ e−ikr eil 2 e−ikr eil 2 − ξl eikr e−il 2
r
k h ∗ −2ikr ilπ i i h i
= 2 ξl e e + |ξl |2 − 1 − ξl e2ikr e−ilπ + 3 1 − ξl e2ikr e−ilπ − ξl∗ e−2ikr eilπ + |ξl |2
r r
k h   i i h  i
Hl,l (r) = 2 −2i Im ξl e2ikr e−ilπ + |ξl |2 − 1 + 3 1 + |ξl |2 − 2Re ξl e2ikr e−ilπ
r r
tomando la parte real de Hl,l (r) queda
k h i
Ml,l (r) = Re Hl,l (r) = 2 |ξl |2 − 1 (19.134)
r
sustituyendo (19.134) en (19.133) resulta
k h i

π~ |C|2 X
∆P = − 2 (2l + 1) R02 2 |ξl |2 − 1
k µ R0
l=0
2
~k |C| π X∞ h i
∆P = (2l + 1) 1 − |ξl |2 (19.135)
µ k2
l=0
492 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

la sección eficaz total de absorción σabs es por tanto la probabilidad por unidad de tiempo ∆P, dividida por la
corriente incidente ~k |C|2 /µ
π X
∞ h i
σabs = 2 (2l + 1) 1 − |ξl |2 (19.136)
k
l=0
vemos que si |ξl | = 1 para cada l, la sección eficaz total de absorción es cero. De acuerdo con (19.127), esto
corresponde al caso en el cual todos los corrimientos de fase δl son reales y por tanto la dispersión es completamente
elástica, en cuyo caso el flujo neto de probabilidad que sale de la esfera de radio R0 es cero. La probabilidad total
transportada por la onda entrante es totalmente transferida a la onda saliente (no hay “pérdida” de probabilidad,
y por tanto la probabilidad se conserva).
Nótese que si ξl = 0, la contribución de la onda parcial (l) a la sección eficaz de absorción es máxima. En este
caso, el cálculo de (19.135) nos muestra que la expresión

~k |C|2 π
∆Pl ≡ (2l + 1)
µ k2
es la cantidad de probabilidad entrante por unidad de tiempo, que surge de la onda parcial (l). Si dividimos esta
cantidad por la corriente incidente ~k |C|2 /µ, obtenemos una superficie denominada sección eficaz entrante
para la onda parcial (l).
π
σl = 2 (2l + 1) (19.137)
k
la expresión (19.137) posee un análogo semi-clásico interesante. Podemos considerar que la onda incidente plana
describe un haz de partı́culas de densidad uniformep 9 , con momento ~ku . ¿Que proporción de estas partı́culas al-
3
canzan el potencial dispersor con momento angular l (l + 1)~?. Para verlo usaremos la relación entre el momento
angular y el parámetro de impacto en mecánica clásica Ec. (19.91)

kLk = b kpk = ~kb

si pintamos un anillo circular centrado en O y perpendicular al eje OZ,pde radio interior bl − ∆bl /2 y radio exterior
bl + ∆bl /2, podemos ver que una partı́cula con momento angular ~ l (l + 1) tendrı́a parámetro de impacto bl
dado por p
~ l (l + 1) = ~kbl (19.138)
el anillo tiene radio promedio bl y ancho ∆bl correspondiente a ∆l = 1 (debido a la cuantización del número
cuántico l) en la expresión (19.138). Todas
p las partı́culas que cruzan esta superficie alcanzan el potencial dispersor
con un momento angular dado por ~ l (l + 1) dentro de ~ [es decir dentro del intervalo (l − 1, l + 1)]. De la Ec.
(19.138) podemos ver que10  
1p 1 1
bl = l (l + 1) ≃ l+ si l ≫ 1 (19.139)
k k 2
y por tanto
    
bl+1 − bl−1 1 1 1 1 1
∆bl = = (l + 1) + − (l − 1) +
2 2 k 2 k 2
1
∆bl =
k
9
Sin embargo debe tenerse cuidado con la analogı́a, ya que cuánticamente la onda plana representa una sola partı́cula, cuyo estado
se describe como la superposición de muchas ondas parciales.
10
Si hacemos x = l−1 y usamos la expansión
s  
1 1 1 1 1 1 2
+1 = + − x+ x + ...
x x x 2 8 16

para x << 1, obtenemos (19.139).


19.6. COLISIONES CON ABSORCIÓN 493

el área del anillo circular es por tanto


 
1 1 1
∆A ≃ 2πbl ∆bl ≃ 2π l+
k 2 k
π
∆A ≃ (2l + 1)
k2
con lo cual encontramos de nuevo σl en forma simple.

19.6.2. Teorema óptico


Cuando una colisión da lugar a diversas reacciones o fenómenos de dispersión, la sección eficaz total σtot se
define como la suma de las secciones eficaces (integradas sobre todas las direcciones del espacio) correspondientes
a todos estos procesos. La sección eficaz total es entonces el número de partı́culas por unidad de tiempo que
participan en una u otra de las posibles reacciones, dividida por el flujo incidente. En el presente contexto, hemos
tratado todas las reacciones en forma global de modo que la sección eficaz total es la suma de la sección eficaz
elástica más la absortiva
σtot = σel + σabs
de las Ecs. (19.131, 19.136) se obtiene

π X n h io
σtot = 2 (2l + 1) |1 − ξl |2 + 1 − |ξl |2
k
l=0

teniendo en cuenta que


h i
|1 − ξl |2 + 1 − |ξl |2 = (1 − ξl ) (1 − ξl∗ ) + 1 − |ξl |2 = 1 − ξl∗ − ξl + |ξl |2 + 1 − |ξl |2
h i
|1 − ξl |2 + 1 − |ξl |2 = 2 − 2Re ξl

se obtiene
∞ ∞
2π X 2π X
σtot = (2l + 1) (1 − Re ξ l ) = (2l + 1) Re (1 − ξl ) (19.140)
k2 k2
l=0 l=0
Por otro lado, teniendo en cuenta que r
2l + 1
Yl,0 (0) = (19.141)

podemos calcular la amplitud de dispersión elástica Ec. (19.129), en la dirección frontal (θ = 0).
∞ ∞ r
C Xp ξl − 1 C Xp 2l + 1 Reξl + i Imξl − 1
fk (0) = 4π (2l + 1) Yl,0 (0) = 4π (2l + 1)
k 2i k 4π 2i
l=0 l=0
∞ ∞
CX −iRe ξl + Imξl + i CX Imξl + i (1 − Re ξl )
fk (0) = (2l + 1) = (2l + 1)
k 2 k 2
l=0 l=0

la parte imaginaria de la amplitud de dispersión elástica en la dirección frontal, estará dada por

CX 1 − Re ξl
Imfk (0) = (2l + 1) (19.142)
k 2
l=0

al comparar (19.142) con la Ec. (19.140) nos da



σtot = Imfk (0)
Ck
494 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES

esta relación entre la sección eficaz total y la parte imaginaria de la amplitud de dispersión elástica en la dirección
frontal es válida en un contexto muy general y se conoce como teorema óptico.
Es claro que el teorema óptico es válido en el caso especial de dispersión puramente elástica en el cual σabs = 0
y σtot = σel . En este caso el hecho de que fk (0) (y por tanto la onda dispersada en la dirección frontal) esté
relacionada con la sección eficaz total se puede deducir de los argumentos de la sección 18.6. En la dirección
frontal, tenemos una interferencia entre la onda plana incidente y la onda dispersada, tal interferencia nos da
cuenta de la atenuación del haz transmitido, debido a la dispersión de partı́culas en todas las direcciones del
espacio.
Capı́tulo 20

Teorı́a estacionaria de perturbaciones

La ecuación de Schrödinger para sistemas conservativos se resuelve por medio de la ecuación de valores propios
del Hamiltoniano. Existen algunos problemas que involucran Hamiltonianos independientes del tiempo que se
pueden resolver analı́ticamente en forma exacta, como ocurre con el oscilador armónico y el átomo de Hidrógeno.
Sin embargo, son pocos los problemas que en la práctica se pueden resolver analı́ticamente en forma exacta. Por
ejemplo, el átomo de Helio que consta de dos electrones no tiene solución analı́tica exacta, y menos aún los átomos
de más electrones. Cuando al átomo de Hidrógeno se le agregan las correcciones relativistas, tampoco se puede
resolver el problema en forma exacta.
Por esta razón, suele recurrirse a los métodos numéricos computacionales. No obstante, existen algunos métodos
analı́ticos para resolver el problema de valores propios. En este capı́tulo estudiaremos uno de estos métodos
conocido como teorı́a estacionaria de perturbaciones.
Este método se basa en una estrategia según la cual comenzamos estudiando los efectos principales o dominantes
sobre el sistema fı́sico. Una vez que entendemos estos efectos, procedemos a enfocarnos en efectos más pequeños
que fueron despreciados en la primera aproximación. Es en el tratamiento de estos efectos secundarios en el
que la teorı́a de perturbaciones entra en acción. En capı́tulos subsecuentes veremos aplicaciones de la teorı́a de
perturbaciones en fı́sica atómica y molecular.

20.1. Descripción del problema


La teorı́a de perturbaciones es aplicable cuando el Hamiltoniano H del sistema bajo estudio tiene la forma

H = H0 + W (20.1)

en donde H0 es el Hamiltoniano “no perturbado” que da cuenta de los efectos principales y cuyos valores y vectores
propios son conocidos. El término W conocido como la “perturbación” se asume mucho más pequeño que H0 ,
lo cual significa que en la base de autoestados de H0 , los elementos matriciales de W son mucho más pequeños
que los de H0 . De hecho, veremos más adelante que se requiere una condición más fuerte, y es que los elementos
de matriz de W deben ser mucho menores que las diferencias entre los autovalores de H0 correspondientes. Para
hacer más explı́cita esta “pequeñez” escribiremos

c
W = λW ; λ ≪ 1. (20.2)

siendo λ un parámetro adimensional mucho menor que 1, y el operador W c tiene elementos matriciales comparables
a los de H0 . En nuestra presente formulación asumiremos que tanto H0 como W son independientes del tiempo,
razón por la cual hablamos de teorı́a estacionaria de perturbaciones. La idea es encontrar la forma en que W
cambia los niveles de energı́a y los estados estacionarios del sistema. La teorı́a de perturbaciones consistirá en
expandir estas cantidades en potencias de λ, conservando solo las primeras potencias. Consideraremos que los

495
496 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES


niveles de energı́a Ep0 asociados a H0 son conocidos y discretos, ası́ como los estados estacionarios ϕip

H0 ϕip = Ep0 ϕip

y los estados estacionarios de H0 son ortonormales y completos


XX

hϕip ϕjn = δpn δij ; ϕip ϕip = 1
p i

sustituyendo (20.2) en (20.1) podemos considerar al Hamiltoniano H “de perturbación” como una función contı́nua
del parámetro λ, el cual regula la intensidad de la perturbación
c
H (λ) = H0 + λW (20.3)

es obvio que H (λ = 0) = H0 . Los autovalores perturbados E dependen de λ, y es claro que para λ = 0, el valor
propio E (λ) debe coincidir con algún valor propio de H0 , digamos En0 . El valor propio perturbado E (λ) puede
comportarse de diversas formas con respecto 0
i a λ. Por ejemplo, supongamos que un valor propio En de H0 es
degenerado, y está asociado a los estados ϕn . Si “prendemos” de forma contı́nua la perturbación aumentando
contı́nuamente el parámetro λ desde cero, es posible que la degeneración se levante total o parcialmente, de manera
que varios niveles distintos de energı́a E (λ) surgen a partir de En0 cuando se incrementa λ desde cero (ver Fig.
20.1). En la Fig. 20.1 se muestra que también es posible que la degeneración se mantenga de modo que no se
separan varias curvas a partir de En0 cuando se incrementa λ. Adicionalmente, la Fig. 20.1 muestra que puede
ocurrir que las curvas que parten desde distintos niveles de energı́a no perturbados En0 y Ep0 se corten en algún
punto fijo λ1 , en cuyo caso es la perturbación la que está generando una degeneración.

Figura 20.1: Comportamiento de E (λ) con respecto a λ para diferentes valores del nivel no perturbado. Las curvas
que parten de los niveles E10 y E20 corresponden a estados no degenerados. La curva de E30 , corresponde a un nivel
no perturbado doblemente degenerado, cuya degeneración se levanta para λ 6= 0 por efecto de la perturbación. El
nivel asociado a E40 es doblemente degenerado y la perturbación conserva la degeneración. Vemos además que dos
curvas asociadas a E20 y E30 se cruzan en λ = λ1 produciendo una degeneración accidental.

Dado que H (λ) es un observable, el conjunto de todos sus kets propios linealmente independientes será una
base para el espacio de estados. Cuando λ → 0 todas las cantidades tienden a sus valores no perturbados.
20.2. SOLUCIÓN APROXIMADA PARA LOS VALORES PROPIOS DE H (λ) 497

20.2. Solución aproximada para los valores propios de H (λ)


La ecuación de valores propios perturbada es

H (λ) |ψ (λ)i = E (λ) |ψ (λ)i (20.4)

asumiremos que E (λ) y |ψ (λ)i se pueden expandir en potencias de λ, de la forma

E (λ) = ε0 + λε1 + λ2 ε2 + . . . + λq εq + . . . (20.5)


2 q
|ψ (λ)i = |0i + λ |1i + λ |2i + . . . + λ |qi + . . . (20.6)

por supuesto es necesario garantizar la convergencia de estas series. En la práctica, estas series convergen rápida-
mente para una gran cantidad de problemas fı́sicos siempre que λ ≪ 1. Si sustituı́mos estas expansiones al igual
que la definición (20.3) en la ecuación de valores propios perturbada (20.4) tenemos que
  " # ∞ 
  X ∞ X∞ X
H0 + λW c  λq |qi = λm εm  λq |qi (20.7)
q=0 m=0 q=0

ahora bien, esta ecuación debe ser válida para λ pequeño pero por lo demás arbitrario. Por tanto, debemos igualar
coeficientes asociados a la misma potencia en la Ec. (20.7). En la práctica, nos interesa simplificar el problema
tomando solo algunos términos en las series dadas en la Ec. (20.7). Puesto que se deben igualar coeficientes
asociados a potencias iguales de λ en ambos miembros de la Ec. (20.7), es necesario asegurarse de incluir todas
las contribuciones que se generan para cada potencia de λ. Si nos interesa incluir los términos hasta un potencia
λp , entonces debemos convertir cada serie de (20.7) en una sumatoria desde q = 0 hasta q = p, y al realizar las
multiplicaciones no se considerarán los términos con potencias mayores a p.
De las anteriores consideraciones, si queremos calcular las contribuciones a orden cero (para potencias hasta
λ ) debemos reemplazar las series en (20.7) por las sumatorias1
0

  " 0 # 0 
X0 X X
H0  λq |qi = λm εm  λq |qi
q=0 m=0 q=0

H0 |0i = ε0 |0i a orden cero en λ (20.8)

a primer orden en λ, la Ec. (20.7) queda en la forma


  " 1 # 1 
  X 1 X X
H0 + λWc  λq |qi = λm εm  λq |qi
q=0 m=0 q=0
 
H0 + λW c [|0i + λ |1i] = [ε0 + λε1 ] [|0i + λ |1i]
 
c |0i + O λ2 = ε0 |0i + λε1 |0i + λε0 |1i + O λ2
H0 |0i + λH0 |1i + λW

donde O λ2 denota términos de orden cuadrático en λ o mayor. A primer orden en λ tenemos entonces

H0 |0i − ε0 |0i + λH0 |1i − λε0 |1i + λWc |0i − λε1 |0i = 0 , a primer orden en λ
λH0 |1i − λε0 |1i + λWc |0i − λε1 |0i = 0 , a primer orden en λ
 
(H0 − ε0 ) |1i + Wc − ε1 |0i = 0 , a primer orden en λ (20.9)

1 c a orden cero es simplemente H0 , ya que el otro término es de primer orden en λ.


Ası́ mismo, el Hamiltoniano H0 + λW
498 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

donde hemos usado la expresión (20.8) a orden cero. En el método perturbativo, es importante que las condiciones
que impongamos sean válidas en cada orden, por esta razón asumimos que la condición (20.8) obtenida a orden
cero, sigue siendo válida a primer orden. Para la aproximación de segundo orden la Ec. (20.7) queda
  " 2 # 2 
  X 2 X X
H0 + λWc  λq |qi = λm εm  λq |qi
q=0 m=0 q=0
     
c
|0i + λ |1i + λ2 |2i = ε0 + λε1 + λ2 ε2 |0i + λ |1i + λ2 |2i
H0 + λW

c |0i + λ2 W
H0 |0i + λH0 |1i + λ2 H0 |2i + λW c |1i + O λ3 = ε0 |0i + λε1 |0i + λ2 ε2 |0i + λε0 |1i

+λ2 ε1 |1i + λ2 ε0 |2i + O λ3

a segundo orden en λ resulta entonces


h   i n   o
[(H0 − ε0 ) |0i] + λ (H0 − ε0 ) |1i + Wc − ε1 |0i + λ2 (H0 − ε0 ) |2i + Wc − ε1 |1i − ε2 |0i = 0 (20.10)

una vez más tenemos en cuenta que las expresiones obtenidas a orden cero y uno, también deben ser válidas a
segundo orden2 . Por tanto, los términos entre paréntesis cuadrados se anulan en virtud de las ecuaciones (20.8,
20.9), quedando  
(H0 − ε0 ) |2i + W c − ε1 |1i − ε2 |0i = 0 ; a segundo orden en λ (20.11)
el lector puede comprobar que a un orden arbitrario q en λ se obtiene la ecuación
 
(H0 − ε0 ) |qi + Wc − ε1 |q − 1i − ε2 |q − 2i . . . − εq |0i = 0 ; q − ésimo orden en λ (20.12)

En este contexto estudiaremos las contribuciones hasta de segundo orden en λ. Puesto que la ecuación (20.4)
solo define a los kets |ψ (λ)i dentro de un factor constante, fijaremos su valor exigiendo que todos los |ψ (λ)i estén
normalizados. Adicionalmente, escogeremos su fase de tal modo que se cumpla la condición

h0 |ψ (λ)i ∈ R (20.13)

es decir elegimos que |ψ (λ)i esté en fase con |0i para todo λ. De nuevo la relación (20.13) ası́ como la condición
de normalización, deben ser válidas a todos los órdenes en teorı́a de perturbaciones. En particular, a orden cero la
Ec. (20.6) implica que |ψ (λ)i ≃ |0i, de modo que la condición de normalización de |ψ (λ)i a orden cero requiere
que el ket |0i esté normalizado
k|0ik2 = h0 |0i = 1 (20.14)
sin embargo, la fase de |0i aún permanece arbitraria. Más adelante veremos como fijar la fase de este ket. De
acuerdo con la Ec. (20.6), a primer orden la norma al cuadrado de |ψ (λ)i está dada por

k|ψ (λ)ik2 = hψ (λ) |ψ (λ)i = [h0| + λ h1|] [|0i + λ |1i] + O λ2

= h0 |0i + λ [h0 |1i + h1 |0i] + O λ2

usando (20.14) vemos que |ψ (λ)i estarı́a normalizado a primer orden si

h0 |1i + h1 |0i = 0 (20.15)

Ahora aplicamos la convención de fases (20.13) a primer orden

h0| [|0i + λ |1i] = h0 |0i + λ h0| 1i = 1 + λ h0| 1i ∈ R


2
Alternativamente podemos decir que un serie de potencias en λ solo puede ser cero para λ arbitrario, si los coeficientes de cada
potencia de λ son cero. Por tanto los coeficientes asociados a λ0 , λ y λ2 en la Ec. (20.10) deben ser cada uno igual a cero.
20.2. SOLUCIÓN APROXIMADA PARA LOS VALORES PROPIOS DE H (λ) 499

y puesto que λ es real, h0 |1i es real de modo que h0 |1i = h1 |0i. Este hecho junto con la Ec. (20.15) nos da

h0 |1i = h1 |0i = 0 (20.16)

para segundo orden podemos hacer un procedimiento similar


   
k|ψ (λ)ik2 = hψ (λ) |ψ (λ)i = h0| + λ h1| + λ2 h2| |0i + λ |1i + λ2 |2i + O λ3

= h0 |0i + λ [h0 |1i + h1 |0i] + λ2 [h2 |0i + h0 |2i + h1 |1i] + O λ3

aplicando las Ecs. (20.14, 20.16) (que son producto de la exigencia de normalización de |ψ (λ)i y convención de
fase a orden cero y uno) nos da

k|ψ (λ)ik2 = 1 + λ2 [h2 |0i + h0 |2i + h1 |1i] + O λ3

la convención de fase (20.13) a segundo orden junto con la Ec. (20.16) nos llevan a
 
h0| |0i + λ |1i + λ2 |2i = h0 |0i + λ h0| 1i + λ2 h0| 2i = 1 + λ2 h0| 2i ∈ R

y puesto que λ es real, se tiene que h0| 2i es real. Esto junto con la exigencia de normalización para |ψ (λ)i a
segundo orden, nos da

h2 |0i = h0 |2i h2 |0i + h0 |2i + h1 |1i = 0 ⇒


;
1
h2 |0i = h0 |2i = − h1 |1i (20.17)
2
y a orden q se obtiene la condición
1
h0 |qi = hq |0i = − [hq − 1 |1i + hq − 2 |2i + . . . + h2 |q − 2i + h1 |q − 1i] (20.18)
2
En resumen, si tenemos un Hamiltoniano dado por
c
H = H0 + W ≡ H0 + λW (20.19)

La ecuación de valores propios perturbada es

H (λ) |ψ (λ)i = E (λ) |ψ (λ)i (20.20)

y si asumimos que el espectro E (λ) y los kets propios |ψ (λ)i de H se pueden expandir como una serie de potencias
en λ

X
E (λ) = ε0 + λε1 + λ2 ε2 + . . . + λq εq + . . . = λq εq (20.21)
q=0

X
2 q
|ψ (λ)i = |0i + λ |1i + λ |2i + . . . + λ |qi + . . . = λq |qi (20.22)
q=0

las ecuaciones perturbativas a diversos órdenes en λ viene dadas por

H0 |0i = ε0 |0i , orden cero en λ (20.23)


 
(H0 − ε0 ) |1i + W c − ε1 |0i = 0 , primer orden en λ (20.24)
 
(H0 − ε0 ) |2i + Wc − ε1 |1i − ε2 |0i = 0 , segundo orden en λ (20.25)
 
(H0 − ε0 ) |qi + Wc − ε1 |q − 1i − ε2 |q − 2i . . . − εq |0i = 0 ; q − ésimo orden en λ (20.26)
500 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

ası́ mismo se exige que |ψ (λ)i esté normalizado y que cumpla la convención de fase

h0 |ψ (λ)i ∈ R (20.27)

la exigencia de que tanto la normalización como la convención de fase deben cumplirse a cada orden en teorı́a de
perturbaciones, nos lleva a las siguientes condiciones

k|0ik2 = h0 |0i = 1 (20.28)


h0 |1i = h1 |0i = 0 (20.29)
1
h2 |0i = h0 |2i = − h1 |1i (20.30)
2
1
h0 |qi = hq |0i = − [hq − 1 |1i + hq − 2 |2i + . . . + h2 |q − 2i + h1 |q − 1i] (20.31)
2
Las ecuaciones de perturbación hasta segundo orden son por tanto (20.23, 20.24, 20.25) y con nuestra conven-
ción de normalización y de fases deben agregarse las Ecs. (20.28, 20.29, 20.30). La ecuación (20.23) nos dice que
|0i es un autovector de H0 con valor propio ε0 . Por tanto, ε0 es parte del espectro de H0 , esto era de esperarse
ya que cuando λ → 0 cada autovalor de H (λ) se convierte en un autovalor de H (0) = H0 . En consecuencia,
escogiendo un ε0 particular, es decir un cierto autovalor En0 de H0 , podemos calcular E (λ).
Como ya mencionamos, es posible que diferentes valores de E (λ) converjan en el mismo valor ε0 = En0 . Consi-
deremos el conjunto de autoestados linealmente independientes de H (λ) correspondientes a los varios autovalores
que converjen en un mismo valor propio En0 de H0 cuando λ → 0. Estos autoestados expanden un subespacio
vectorial cuya dimensión no puede cambiar discontı́nuamente cuando λ se barre de manera contı́nua en la vecindad
derecha de cero. Por tanto, esta dimensión debe ser independiente de λ y en particular se puede calcular en λ = 0.
De esto se concluye que la dimensión de este espacio es el grado de degeneración gn de En0 . En particular, si En0 es
no degenerado, solo generará un autovalor E (λ) de H (λ), de modo que esta energı́a tampoco estará degenerada.
Estudiaremos primero el caso en el cual el nivel asociado de H0 es no degenerado.

20.3. Perturbación de un nivel no degenerado


Consideremos un nivel no degenerado En0 correspondiente a un autoestado |ϕn i que es único salvo un factor
constante. La idea es determinar la modificación que la perturbación W hace sobre el nivel En0 y el autoestado
|ϕn i. Para calcularlo utilizamos las ecuaciones (20.23, 20.24, 20.25), junto con las convenciones de normalización
y fase (20.28, 20.29, 20.30). Para el autovalor de H (λ) cuando λ → 0 es claro que

ε0 = En0 (20.32)

esta ecuación junto con (20.23) implican que |0i debe ser proporcional a |ϕn i 3 . Puesto que ambos vectores están
normalizados es natural escoger
|0i = |ϕn i (20.33)
de modo que cuando λ → 0 encontraremos el autoestado sin perturbar |ϕn i (con la misma norma y la misma
fase)4 .
Denominamos E (λ) al valor propio de H (λ) que toma el valor de En0 cuando λ → 0. Asumiremos que λ es
suficientemente pequeño para que permanezca no degenerado para todo λ, recordemos que es posible que las curvas
de E (λ) vs λ asociadas a dos estados no perturbados distintos En0 y Ep0 se crucen en algún punto λ1 produciendo
una degeneración accidental (ver Fig. 20.1, Pág 496). En tal caso debemos imponer que λ < λ1 . Comenzaremos
con la corrección de la energı́a a primer orden.
3
Nótese que esta afirmación depende del carácter no degenerado de En0 , ya que de lo contrario el ket asociado a tal valor propio no
es único.
4
Recordemos que la fase del ket |0i estaba aún sin determinar. La Ec. (20.33), nos determina dicha fase.
20.3. PERTURBACIÓN DE UN NIVEL NO DEGENERADO 501

20.3.1. Corrección de primer orden para la energı́a


Calculando la proyección de la Ec. (20.24) sobre el autoestado |ϕn i, se obtiene
 
hϕn | (H0 − ε0 ) |1i + hϕn | Wc − ε1 |0i = 0
  
hϕn | En0 − En0 |1i + hϕn | W c − ε1 |ϕn i = 0
 
hϕn | Wc − ε1 |ϕn i = 0

donde hemos usado las Ecs. (20.32, 20.33), ası́ como el hecho de que H0 puede actuar sobre el bra debido a su
carácter hermı́tico. Esta ecuación se puede reescribir como

c |ϕn i
ε1 = hϕn | W (20.34)

Sustituyendo (20.32) y (20.34) en (20.21) resulta

c |ϕn i = En0 + hϕn | W |ϕn i


En (λ) = En0 + λ hϕn | W (20.35)

con lo cual cuando el estado no perturbado En0 es no degenerado, el autovalor E (λ) de H asociado a En0 puede
escribirse a primer orden en la perturbación W = λWc en la forma (20.35). Vemos que la corrección a primer
0
orden de un nivel no degenerado En es igual al valor esperado del término de perturbación W en el estado no
perturbado |ϕn i.

20.3.2. Corrección de primer orden para el autovector


Para obtener la información completa contenida en la ecuación
de perturbación, tenemos que realizar las
proyecciones de la i
Ec. (20.24) sobre todos los autoestados ϕp de H0 . Realizando estas proyecciones sobre todos
los vectores ϕip diferentes a |ϕn i se obtiene


 
c − ε1 |0i = 0 ;
ϕip (H0 − ε0 ) |1i + ϕip W (p 6= n)

i 0 


ϕp Ep − En0 |1i + ϕip W c |ϕn i − ε1 ϕip ϕn i = 0 ; (p 6= n) (20.36)

donde hemos usado las Ecs. (20.32, 20.33). El ı́ndice i indica que otros valores propios pueden
ser degenerados.
Puesto que vectores propios asociados a valores propios distintos son ortogonales, se tiene que ϕip ϕn i = 0. Por
tanto, la Ec. (20.36) queda



Ep0 − En0 ϕip 1i + ϕip W
c |ϕn i = 0 ; (p 6= n)

esto nos da los coeficientes de Fourier de la expansión de |1i sobre toda la base no perturbada excepto |ϕn i



ϕip W
c |ϕn i
ϕip 1i =  ; (p 6= n)
En0 − Ep0

el coeficiente hϕn | 1i es cero en virtud de la condición (20.29) y de la Ec. (20.33)

h0| 1i = hϕn | 1i = 0 (20.37)



puesto que conocemos la expansión de |1i en la base ϕip el vector se puede escribir en esta base en la forma


XX
X X ϕip W c |ϕn i
|1i = ϕp ϕp 1i =
i i ϕp
i  (20.38)
E 0 − E0
p i p6=n i n p
502 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

y aplicando (20.22) vemos que el autovector |ψn (λ)i de H asociado a el estado no perturbado |ϕn i, se escribe a
c en la forma
primer orden en la perturbación W = λW


X X ϕip Wc |ϕn i 
|ψn (λ)i = |ϕn i + λ i
ϕp  + O λ2 (20.39)
0
En − Ep0
p6=n i

la corrección a primer orden del vector de estado es una superposición de todos los estados no perturbados
excepto su autoestado no perturbado asociado. Se dice entonces que la perturbación
W produce una “mezcla” del
estado |ϕn i con los otros autoestados de H0 . La contribución de un estado ϕip será nula si el elemento matricial

i

c |ϕn i es cero. En general la mezcla con el estado ϕi aumenta con el aumento del acople ϕi W
ϕp W c |ϕn i entre
i p p
0 0
los estados |ϕn i y ϕp , y también aumenta al disminuir el desdoblamiento En − Ep entre los niveles asociados.
De la discusión anterior y la Ec. (20.39) se desprende que no es suficiente que los elementos matriciales de W
sean mucho menores que los de H0 , para que la contribución de W sea pequeña. Para que la corrección de primer
orden al vector de estado sea pequeña, es necesario además que los elementos no diagonales de la matriz W sean
mucho más pequeños que el desdoblamiento de los niveles de energı́a asociados.

20.3.3. Corrección de segundo orden para la energı́a


Para calcular ε2 se proyecta la ecuación (20.25) asociada al segundo orden con el ket |ϕn i, aplicando además
las Ecs. (20.32, 20.33, 20.37)
 
hϕn | (H0 − ε0 ) |2i + hϕn | Wc − ε1 |1i − ε2 hϕn |0i = 0

hϕn | En0 − En0 |2i + hϕn | Wc |1i − ε1 hϕn | 1i − ε2 hϕn |ϕn i = 0
c |1i = ε2
hϕn | W (20.40)

Sustituyendo (20.38) en (20.40) se obtiene





X X ϕip W c ϕip ϕip W
c |ϕn i X X hϕn | W c |ϕn i
ε2 c |1i = hϕn | W
= hϕn | W c ϕip  = 
p6=n i
En0 − Ep0 p6=n i
En0 − Ep0

2
c |ϕn i
X X ϕip W
ε2 =  (20.41)
E 0 − E0
p6=n i n p

reemplazando (20.32, 20.34, 20.41) en (20.21) tenemos a segundo orden



2
i c
 XX ϕp W |ϕ i
n 
2 3 0
En (λ) = ε0 + λε1 + λ ε2 + O λ = En + λ hϕn | W c |ϕn i + λ2  + O λ3
0
En − Ep0
p6=n i


X X ϕip W |ϕn i 2 
0  + O λ3
En (λ) = En + hϕn | W |ϕn i + 0 0
(20.42)
p6=n i
En − Ep

nótese que la corrección a segundo orden de la energı́a


i (no degenerada) asociada al estado
no perturbado |ϕn i,
contiene contribuciones de todos los otros estados ϕ . La contribución del estado ϕi tiene el signo del desdo-
 p
p
blamiento En0 − Ep0 . Además tal contribución crece con el tamaño del “acople” ϕip W |ϕn i y con la disminución
del desdoblamiento En0 − Ep0 .
20.3. PERTURBACIÓN DE UN NIVEL NO DEGENERADO 503

20.3.4. Corrección de segundo orden para el estado


La expresión a segundo orden
i para el autovector de H (λ) se puede obtener proyectando la Ec. (20.25) sobre
el autoestado no perturbado ϕp y utilizando las condiciones (20.30). De esta manera se obtiene el ket |2i con el
cual se calcula |ψ (λ)i a segundo orden por medio de la ecuación (20.22). Se deja este procedimiento como ejercicio
para el lector.
Por otro lado, puede verse de la Ec. (20.35), que la corrección a primer orden de la energı́a depende de la
corrección a orden cero del autoestado (es decir del autoestado no perturbado). Similarmente, la Ec. (20.42)
muestra que la corrección a segundo orden de la energı́a depende de la corrección a primer orden al autoestado,
por esta razón las Ecs. (20.38, 20.41) son muy similares. Este hecho se puede generalizar: si se proyecta la Ec.
(20.26) sobre |ϕn i, el primer término se anula, con lo cual εq estará en términos de las correcciones de orden q − 1,
q − 2,. . . del autovector. Por esta razón, es usual que se haga la corrección hasta orden q de la energı́a y hasta
orden q − 1 en el autovector. En esta tónica, nosotros calcularemos en el presente texto correcciones hasta de
primer orden en el autoestado y hasta de segundo orden en la energı́a.

20.3.5. Cota superior para ε2


Cuando se calcula la corrección perturbativa de la energı́a a primer orden, podemos encontrar una cota superior
para la corrección de segundo orden que nos da una idea aproximada del error cometido. Definiremos ∆E como el
valor absoluto de la diferencia entre el nivel En0 que se pretende corregir, con el nivel no perturbado más cercano.
Por definición tenemos entonces que 0
En − Ep0 ≥ ∆E ; p 6= n (20.43)
de las Ecs. (20.41, 20.43) obtenemos entonces una cota superior para ε2
1 X X
i c 2
1 XX

c ϕi ϕi W
c |ϕn i
|ε2 | ≤ ϕ
p W |ϕ i
n = hϕn | W p p
∆E ∆E
p6=n i p6=n i
 
1 XX

|ε2 | ≤ c
hϕn | W ϕip ϕip  W
c |ϕn i (20.44)
∆E
p6=n i

en virtud de la completez de ϕip tenemos
XX

|ϕn i hϕn | + ϕi ϕi = 1 (20.45)
p p
p6=n i

sustituyendo (20.45) en (20.44) queda


1 h i
|ε2 | ≤ c [1 − |ϕn i hϕn |] W
hϕn | W c |ϕn i = 1 hϕn | W c 2 |ϕn i − hϕn | W
c |ϕn i hϕn | W
c |ϕn i
∆E  ∆E
1 2   2
|ε2 | ≤ hϕn | W c |ϕn i = 1 ∆W
c 2 |ϕn i − hϕn | W c
∆E ∆E n
2 1
λ ε2 ≤ (∆W )2n (20.46)
∆E
donde (∆W )2n es la desviación media cuadrática del observable W evaluada en el estado |ϕn i asociada al nivel (no
degenerado) de energı́a En0 cuya corrección se está evaluando. La Ec. (20.46) nos da una idea del orden de magnitud
de la corrección de segundo orden y por tanto del error cometido al considerar solo la corrección de primer orden.
Debe advertirse sin embargo, que esta desigualdad solo nos da información sobre el orden de magnitud de la
corrección a segundo orden y no de los órdenes superiores. Solo si el comportamiento perturbativo es bueno (de
modo que los órdenes superiores son mucho menores) podemos decir que este orden de magnitud corresponde a
un estimado aproximado del error total.
504 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

20.4. Perturbación de un nivel degenerado


Asumamos 0
 i que el nivel En tiene degeneración de grado gn de modo que hay gn vectores linealmente indepen-

dientes ϕn que son vectores propios asociados a En y que expanden un subespacio En0 del espacio orbital y de
0

dimensión gn . En este caso la escogencia


ε0 = En0
no es suficiente para determinar al ket |0i, ya que la Ec. (20.23) se satisface para cualquier combinación lineal de
autovectores de En0 . Por el momento solo podemos decir que |0i es un ket del autosubespacio En0 . Veremos que bajo
la perturbación W , el nivel En0 genera varios subniveles, siendo el número de subniveles menor o igual a gn . Si el
número fn de subniveles es menor que gn , algunos de estos niveles deben estar degenerados puesto que el número
total de vectores ortogonales de H asociados con los fn subniveles debe ser siempre igual a gn . Nos limitaremos
en esta discusión al cálculo del autoestado a orden cero y de la energı́a a primer orden. 
Para determinar ε1 y |0i comenzamos proyectando la ecuación (20.24) sobre los gn autovectores ϕin , de lo
cual se obtienen las relaciones

i
 
ϕn (H0 − ε0 ) |1i + ϕin W
c − ε1 |0i = 0

i 0 


ϕn En − En0 |1i + ϕin W c |0i − ε1 ϕi 0i = 0
n

i

ϕn W |0i = ε1 ϕin 0i
c

al
insertar
E un operador identidad y teniendo en cuenta que |0i debe ser ortogonal a cualquier vector de la forma
j
ϕp con p 6= n (ya que |0i ∈ En0 y por tanto es ortogonal a Ep0 con p 6= n), nos queda
gp
XX
j j

ϕin W
c ϕ hϕ |0i = ε1 ϕi 0i
p p n
p j=1
gn
X
j j

ϕin W
c ϕn hϕn |0i = ε1 ϕin 0i (20.47)
j=1


j E
c ϕn como elementos de una matriz gn ×gn con ı́ndice de fila “i” e ı́ndice
ahora consideramos las cantidades ϕin W

j E
de columna “j”. Las cantidades ϕin W
c ϕp son los elementos de la representación matricial del operador W c en

j E
la base ϕip del espacio Er . Por tanto, los elementos ϕin Wc ϕn corresponden a la restricción (o submatriz)

correspondiente al subespacio En0 de Er . Denotaremos esta submatriz como W c (n) . Nótese entonces que la Ec.
(n)
k
(20.47) nos dice que el vector columna definido por ϕk = ϕn 0i que pertenece a En0 , es autovector de W
c (n) con
(n) 
autovalor ε1 . Por supuesto ϕk es la representación del vector |0i en la base ϕip 5 . La Ec. (20.47) se puede
escribir entonces
c (n) ϕ(n) = ε1 ϕ(n)
W (20.48)
ij j i

En vista de lo anterior, si definimos W c (n) como la restricción del operador W


c al subespacio En0 (ver sección
1.33, Pág. 74 y Ec. 1.129), podemos ver la Ec. (20.47) como una ecuación de valores propios para dicho operador
restringido en el espacio En0 . La Ec. (20.47) puede escribirse también en la forma
c (n) |0i = ε1 |0i
W (20.49)

debe enfatizarse sin embargo, que la restricción W c (n) del operador Wc al subespacio E 0 es diferente del operador
n
0
en sı́, y que la ecuación (20.49) está definida en En y no en el espacio orbital completo Er .

5
Nótese que el vector |0i pertenece a En0 de modo que las componentes asociadas a cada ϕip con p 6= n, son nulas. En este sentido,
la restricción del vector |0i al subespacio En0 , coincide con el vector en sı́.
20.4. PERTURBACIÓN DE UN NIVEL DEGENERADO 505

Por tanto, para calcular los autovalores a primer orden y los autoestados a orden cero del Hamiltoniano asociado
a un estado no perturbado degenerado En0 , debemos diagonalizar la matriz W c (n) que representa la restricción del
operador de perturbación W c al subespacio En de dimensión gn generado por el autovalor En0 . La Ec.(20.49) o
0

equivalentemente la Ec. (20.48) nos generan un polinomio caracterı́stico de grado gn , con gn raı́ces reales (ya que
(1)
la restricción de un operador hermı́tico también es un operador hermı́tico6 ). Definamos εj1 con j = 1, 2, . . . , fn
(1) c (n) . De acuerdo con el teorema fundamental
como las fn raı́ces distintas de la ecuación caracterı́stica para W
del álgebra, la suma de las degeneraciones de estas raı́ces debe ser gn . En otras palabras, si el valor propio εj1 tiene
degeneración bj tenemos que
(1)
fn
X
bj = gn ; fn(1) ≤ gn (20.50)
j=1

cada autovalor εj1 para j dado introduce una corrección diferente al nivel de energı́a. Usando la Ec. (20.21) vemos
que
En,j (λ) = En0 + λεj1 ; j = 1, 2, . . . , fn(1) ≤ gn (20.51)
que nos muestra que bajo la influencia de la perturbación W = λW c , el nivel degenerado se desdobla a primer orden
(1)
en fn subniveles distintos dados por la Ec. (20.51). Cada subnivel En,j (λ) tendrá una degeneración bj y se debe
(1)
cumplir la relación (20.50). En particular, si fn = gn , se dice que a primer orden, la perturbación W remueve
por completo la degeneración de En0 , ya que en este caso bj = 1 para todo j y los subniveles serán no degenerados.
(1)
Si fn < gn , habrá por lo menos un bj tal que bj > 1, de modo que la degeneración solo se remueve parcialmente.
(1)
Finalmente, sin fn = 1, el grado de degeneración no cambia en lo absoluto, y solo aparece corrección a En0 pero
no hay subniveles distintos asociados a él.
Ahora nos ocuparemos de la determinación del vector |0i. Para ello, nos enfocamos en un εj1 fijo. Si este
autovalor es no degenerado, el autovector |0i asociado por medio de (20.49) es único salvo un factor constante.
Existe entonces un único autovalor E (λ) de H (λ) dado por (20.51), de modo que En,j (λ) es no degenerado. Por
otro lado, si el autovalor εj1 es bj −degenerado (con bj > 1), entonces la Ec. (20.49) solo nos dice que el autovector
(1)
asociado |0i, pertenece al subespacio En,j ⊆ En0 , de dimensión bj ≤ gn .
Es notable la simplificación del problema de calcular las energı́as degeneradas por método perturbativo es-
tacionario a primer orden. Para verlo, nótese que para una energı́a no perturbada dada En0 , hemos cambiado
el problema de diagonalizar el Hamiltoniano de perturbación W en un espacio de dimensión infinita Er , por el
problema de diagonalizar la restricción de este operador en el autoespacio En0 de dimensión finita gn , generado por
En0 . En particular, si el nivel no es degenerado el autosubespacio asociado es de dimensión 1, y no es necesaria
ninguna diagonalización.

20.4.1. Comportamiento de subniveles degenerados a más alto orden en perturbaciones


Cuando un determinado autovalor εj1 tiene degeneración de grado bj > 1 en un cálculo perturbativo a primer
orden, es natural preguntarse si esta degeneración es esencial, o si solo es caracterı́stica de la aproximación de
primer orden en λ. Para verlo, debemos examinar el cálculo a más altos órdenes en λ. Pueden ocurrir dos casos.

1. Supongamos que hay una sola energı́a exacta E (λ), que es igual a primer orden a En0 + λεj1 y que esta
energı́a es bj −degenerada (en la Fig. 20.1 corresponderı́a a la energı́a E (λ) que parte desde E40 , la cual tiene
degeneración doble para todo λ). Por tanto, para todo valor de λ tenemos un autosubespacio de dimensión
bj generado por E (λ), de modo que la degeneración que aparece a primer orden no se removerá a ningún
orden en λ y es una degeneración esencial. En tal caso, el vector a orden cero |0i no puede especificarse
completamente, puesto que la única condición impuesta sobre tal vector es que pertenezca a un subespacio
que es el lı́mite cuando λ → 0, del autoespacio bj −dimensional de H (λ) asociado a E (λ). Este serı́a el
6
Esto se puede ver de la definición (1.129) Pág. 75, y del carácter hermı́tico de los operadores proyección.
506 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

(1) c (n) asociado al autovalor εj escogido. Este caso surge usualmente cuando H0 y W
autoespacio En,j de W 1
poseen propiedades de simetrı́a comunes, que implican una degeneración esencial en H (λ), que por tanto
debe prevalecer a todos los órdenes de perturbación en λ.

2. Para un valor fijo de n y j, puede ocurrir que varias energı́as distintas En,j,k (λ) coincidan entre sı́, en una
aproximación de primer orden. Por tanto, la diferencia entre estas energı́as solo aparece en un cálculo a
(1)
segundo orden o más alto. En tal caso, el subespacio En,j obtenido a primer orden es solo la suma directa
de los lı́mites cuando λ → 0 de varios autosubespacios asociados a estas energı́as distintas En,j,k (λ)

(1) (1) (1) (1)


En,j = En,j,1 ⊕ En,j,2 ⊕ . . . ⊕ En,j,knj

Donde knj denota el número de energı́as distintas que surgen a más alto orden en teorı́a de perturbaciones
(1)
para valores dados de n y j. Por supuesto, es posible que uno o más de los autoespacios En,j,p sea de más de
(1)
una dimensión (es decir que knj sea menor que la dimensión del subespacio En,j ), en cuyo caso la degeneración
se ha reducido pero no se ha removido completamente a ningún orden en teorı́a de perturbaciones. En vista
de lo anterior, todos los autovectores de H (λ) asociados a estas energı́as En,j,k (λ) (con n y j fijos) serán
(1) (1)
kets de En,j , pero no necesariamente un ket de En,j corresponderá a el lı́mite |0i de un autoestado de H (λ).
Cuando este es el caso, las correcciones de segundo o más orden no solo aumentan la precisión con que se
calculan las energı́as, sino que permiten determinar los kets de orden cero7 |0i. En la práctica sin embargo,
se suele utilizar solo la información parcial contenida en (20.49) a primer orden.

20.5. Consideraciones generales sobre teorı́a estacionaria de perturbaciones


La diagonalización
 del problema de valores propios (20.49) restringida al autosubespacio En0 requiere encontrar
ED 

una base canónica ϕjn en donde el operador W (n) adquiera forma diagonal. Con este propósito, es conve-
niente tomar como punto de partida una base que simplifique al máximo la forma matricial del operador W (n) .
Para este fin, es usual emplear observables que conmuten tanto con H0 como con W (aunque en general H0 y W
no conmutan  entre
sı́). 0Supongamos que tenemos un observable A que conmuta con H0 y W . Es posible encontrar
una base ϕin de En de autoestados comunes a H0 y A. Por otro lado, debido a que A conmuta con W , el
teorema 1.68, Pág. 58 nos dice que los elementos matriciales de W son cero entre autovectores de A asociados a
autovalores distintos. En tal caso, la matriz W (n) contendrá bastantes ceros, lo cual facilita la diagonalización. En
particular si H0 y W conmutan, se puede buscar una base de vectores propios comunes a ambos para diagonalizar
a W y no será necesario el uso de un observable extra.
Para el caso de niveles degenerados al igual que para el caso no degenerado, el estudio de las correcciones
perturbativas a más alto orden, revela que este método es válido solo si los elementos matriciales de W son mucho
menores que las diferencias entre las energı́as del nivel bajo estudio y aquellas asociadas a los otros niveles. No
obstante, es posible extender este método al caso en el cual hay un grupo de niveles no perturbados muy cercanos
entre sı́ (pero diferentes) y que está lejos de los demás niveles del sistema. Esto significa que los elementos
matriciales de W son del mismo orden de magnitud que las diferencias de energı́a dentro del grupo, pero son en
general mucho menores que las diferencias entre un nivel fuera del grupo y un nivel dentro del grupo. En esta
situación, podemos determinar la influencia de W , diagonalizando la matriz que representa a H = H0 + W dentro
del grupo de niveles cercanos. Esta fué la linea de razonamientos utilizada en el capı́tulo 17 para estudiar sistemas
de dos estados.

7 (1)
Por supuesto la determinación unı́voca de estos kets |0i solo es posible para los autosubespacios En,j,p que son unidimensionales.
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMÓNICO 507

20.6. Perturbaciones estacionarias sobre el oscilador armónico


Ilustraremos la teorı́a de perturbaciones estacionaria considerando el efecto de potenciales proporcionales a x,
x2 y x3 , sobre el oscilador armónico unidimensional. Este es un caso de perturbaciones sobre estados no degenerados
(más adelante veremos aplicaciones en Fı́sica Atómica para el caso degenerado). Los primeros dos casos se pueden
solucionar de manera exacta y nos servirán más para probar la consistencia del método. El caso de potencial
proporcional a x3 es muy importante, dado que si hacemos la expansión de Taylor de un potencial V (x) alrededor
de un mı́nimo local de dicho potencial, el primer término no trivial es el término armónico (proporcional a x2 ) y el
siguiente término no trivial es proporcional a x3 , razón por la cual lo denominamos primer término anarmónico. Por
tanto, este suele ser el término dominante cuando queremos estudiar las desviaciones de los fenómenos vibratorios
(clásicos o cuánticos) con respecto al comportamiento armónico.

20.6.1. Orden de magnitud de los observables no perturbados


Antes de introducir la perturbación, conviene determinar el orden de magnitud de algunos observables asociados
al problema no perturbado, con el fin de parametrizar la perturbación adecuadamente. Nuestro Hamiltoniano “no
perturbado” será el asociado al oscilador armónico simple unidimensional
P2 1
H0 = + mω 2 X 2
2m 2
las energı́as no perturbadas serán entonces
 
1
En0 = n+ ~ω ; n = 0, 1, 2, 3, . . .
2
b es del orden de uno.
teniendo en cuenta las Ecs. (8.3, 8.5) Pág. 271, veremos que el operador adimensional X
Puesto que el Hamiltoniano no perturbado H0 claramente es del orden de ~ω (orden de magnitud de sus valores
propios), la Ec. (8.5) nos dice que
H 1
b 0 b b 2 b2
H0 = ≈ 1 ; H 0 ≡ X + P ≈ 1 (20.52)
~ω 2
b 2 y Pb2 podemos sustituir estos operadores adimensionales por sus valores
para estimar el orden de magnitudDde EX D E
esperados teniendo en cuenta que X b = Pb = 0 según la Ec. (8.54). Por tanto
D E  2 D E  2
b 2 = ∆X
X b ; Pb2 = ∆Pb

utilizando las definiciones (8.3) y las Ecs. (8.64) resulta


D E mω   D E (∆P )2 
b 2 2 mω 1 ~ b 2 n + 12 m~ω
X = (∆X) = n+ ; P = =
~ ~ 2 mω m~ω m~ω
para valores no muy grandes de n (i.e. estados no muy excitados), podemos escribir
D E   D E 1
b mω 1 ~ 1 m~ω 1
X 2
≈ = ; Pb2 ≈ 2 =
~ 2 mω 2 m~ω 2
D E D E 1
b2
X ≈ Pb2 ≈ (20.53)
2
D E D E
sustituyendo X b 2 ≈ Pb2 en (20.52) resulta
1 D E D E D E
b b 2 + Pb2 b2 ≈ 1
H0 ≈ X ≈ X (20.54)
2
508 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

esta aproximación es consistente con la obtenida en la Ec. (20.53) si tenemos en cuenta que solo es una estimación
del orden de magnitud. Tomaremos entonces la aproximación8
rD E
b b2 ≈ 1 ; O b ≡ X,
b Pb, H b0
O ≈ O

20.6.2. Parametrización de la perturbación al oscilador con potencial lineal adicional


En virtud de las estimaciones anteriores, parametrizaremos la perturbación lineal en la forma

W = λ~ω X b = λω m~ω X (20.55)

esta forma de parametrizar la perturbación es muy lógica ya que el operador X b es del orden de uno y ~ω es del
orden de H0 , de modo que W c ≡ ~ω X b es del orden de H0 , que es lo que se busca para el operador W
c . Por tanto,
c
la expansión perturbativa con W = λW funciona solo si λ ≪ 1 para asegurar que W ≪ H0 . El Hamiltoniano
completo es entonces
2
H = H0 + W = H0 + λW c = P + 1 mω 2 X 2 + λ~ω X b
2m 2
sin embargo, debemos tener presente que las estimaciones en orden de magnitud que se hicieron solo son válidas
si el número cuántico n no es mucho mayor que uno. Por tanto, para estados altamente excitados es posible que
las predicciones de la expansión perturbativa fallen.

Solución exacta del oscilador con potencial lineal adicional


Para encontrar la solución exacta, podemos utilizar los resultados de la sección 8.9, en la cual se estudió el
oscilador armónico simple unidimensional sometido a un campo eléctrico uniforme E, cuyo potencial asociado es
de la forma W = −qEX. Comparando tal potencial con la Ec. (20.55) vemos que la solución se obtiene con el
reemplazo
√ qE
−qE ≡ λω m~ω ⇒ λ ≡ − √ (20.56)
ω m~ω
empleando la definición (20.56) en la ecuación (8.82) el espectro del oscilador con potencial lineal adicional queda
 √ 2
  −λω m~ω
1
En (λ) = ~ω −
n+
2 2mω 2
 
1 ~ω
En (λ) = n+ ~ω − λ2 (20.57)
2 2

Por otro lado, la Ec. (8.98), Pág. 292, se puede reescribir en términos de operadores creación y destrucción
usando las Ecs. (8.9), Pág. 272
  ( "r #) 
i qE i qE m~ω  †  qE h i

|ϕn (λ)i = exp − P |ϕn i = exp − i a −a |ϕn i = exp √ √ a − a |ϕn i
~ mω 2 ~ mω 2 2 2 ω m~ω

y usando nuestra asignación de λ ecuación (20.56) se obtiene


 
λ  †
|ϕn (λ)i = exp − √ a − a |ϕn i (20.58)
2
8
Es mejor tomar el orden de magnitud del operador como la raı́z cuadrada del promedio cuadrático, ya que lo que nos interesa es
b y Pb es nulo.
un promedio de su magnitud y no de su valor. De hecho, el promedio lineal de los operadores X
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMÓNICO 509

Expandiendo la Ec. (20.58) a primer orden en λ, y utilizando las Ecs. (8.41) Pág. 280, tenemos
 
λ  † 
2
 λ λ 
|ϕn (λ)i = 1 − √ a − a + O λ |ϕn i = |ϕn i − √ a† |ϕn i + √ a |ϕn i + O λ2
2 2 2
r r
n+1 n 
|ϕn (λ)i = |ϕn i − λ |ϕn+1 i + λ |ϕn−1 i + O λ2 (20.59)
2 2

Expansión perturbativa con potencial lineal

Escribiendo el Hamiltoniano de perturbación W en términos de operadores creación y destrucción, tenemos

~ω 
b = λ√

W = λ~ω X a + a†
2

Por tanto W mezcla al estado |ϕn i solo con los estados |ϕn±1 i, de modo que los únicos elements de matriz no
nulos son

  √ √
~ω † ~ω † ~ω n + 1 ~ω n + 1
hϕn+1 | W |ϕn i = λ √ hϕn+1 | a + a |ϕn i = λ √ hϕn+1 | a |ϕn i = λ √ hϕn+1 | ϕn+1 i = λ √
2 2 2 2
  √ √
~ω ~ω ~ω n ~ω n
hϕn−1 | W |ϕn i = λ √ hϕn−1 | a + a† |ϕn i = λ √ hϕn−1 | a |ϕn i = λ √ hϕn−1 | ϕn−1 i = λ √
2 2 2 2

quedando finalmente
r r
n+1 n
hϕn+1 | W |ϕn i = λ ~ω ; hϕn−1 | W |ϕn i = λ ~ω (20.60)
2 2

utilizando la expresión (20.42) para la corrección de E (λ) a segundo orden se tiene

X |hϕm | W |ϕn i|2 


En (λ) = En0 + hϕn | W |ϕn i + + O λ3
En0 − Em0
m6=n

|hϕn+1 | W |ϕn i|2 |hϕn−1 | W |ϕn i|2 


= En0 + 0 + 0 0 + 0 0 + O λ3
En − En+1 En − En−1
q 2
  pn 2
λ n+1 2 ~ω λ
2 ~ω
1 
En (λ) = n+ ~ω + + + O λ3
2 [n − (n + 1)] ~ω [n − (n − 1)] ~ω
 
1 λ2 (n + 1) ~ω λ2 n~ω 
= n+ ~ω − + + O λ3
2 2 2

quedando finalmente
 
1 ~ω 
En (λ) = n+ ~ω − λ2 + O λ3
2 2

vemos que la expansión perturbativa del autovalor a segundo orden en λ, coincide con el resultado exacto Ec.
(20.57). De hecho, puede demostrarse que todos los términos de orden superior a dos se anulan en la expansión
perturbativa. Adicionalmente, se observa que no hay contribución de primer orden, en virtud de que los elementos
diagonales hϕn | W |ϕn i son nulos.
510 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

Por otra parte, la expansión del autoestado a primer orden lo da la Ec. (20.39)
X hϕm | W |ϕn i 
|ϕn (λ)i = |ϕn i + 0 0
|ϕm i + O λ2
En − Em
m6=n
hϕn+1 | W |ϕn i hϕn−1 | W |ϕn i 
= |ϕn i + 0 0 |ϕn+1 i + 0 0 |ϕn−1 i + O λ2
En − En+1 En − En−1
q
p
λ n+12 ~ω λ n2 ~ω 
= |ϕn i + |ϕn+1 i + |ϕn−1 i + O λ2
−~ω ~ω
r r
n+1 n 
|ϕn (λ)i = |ϕn i − λ |ϕn+1 i + λ |ϕn−1 i + O λ2
2 2

que coincide con la expansión a primer orden de la solución exacta Ec. (20.59).

20.6.3. Perturbación al oscilador armónico con potencial cuadrático


En este caso la perturbación se escribirá como

1 b 2 = 1 λmω 2 X 2
W = λ~ω X (20.61)
2 2
siendo λ el parámetro perturbativo que debe ser mucho menor que 1. El Hamiltoniano perturbado queda

P2 1
H = H0 + W = + mω 2 (1 + λ) X 2
2m 2
P2 1
H = + mω ′2 X 2 ; ω ′2 = ω 2 (1 + λ) (20.62)
2m 2
por tanto, el Hamiltoniano sigue estando asociado a un oscilador armónico simple, y el efecto de la perturbación
es simplemente un cambio en la frecuencia angular al valor ω ′ definido en (20.62). Estudiaremos solo el cambio en
los autovalores. El espectro del Hamiltoniano perturbado es claramente
   
1 ′ 1 √
En = n + ~ω = n + ~ω 1 + λ
2 2

expandiendo el radical se obtiene


   
1 1 1 
En = n+ ~ω 1 + λ − λ2 + O λ3 (20.63)
2 2 8

ahora reproduciremos el espectro (20.63) utilizando teorı́a de perturbaciones estacionaria. El Hamiltoniano de


perturbación (20.61) se puede escribir como
 2
1 b 2 = 1 λ~ω a† + a
W = λ~ω X √
2 2 2
2
primero calculamos a† + a
 2 h i
a† + a = a†2 + a2 + a† a + aa† = a†2 + a2 + a† a + a, a† + a† a
 2
a† + a = a†2 + a2 + 2a† a + 1 (20.64)
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMÓNICO 511

con lo cual queda n o


1
W = λ~ω a†2 + a2 + 2a† a + 1
4
en consecuencia, los únicos elementos matriciales no nulos de W con respecto a |ϕn i son
 n o  
1 †2 2 † 1 1
hϕn | W |ϕn i = hϕn | λ~ω a + a + 2a a + 1 |ϕn i = λ~ω hϕn | 2a† a + 1 |ϕn i = λ~ω (2n + 1)
4 4 4
 
1 1
hϕn | W |ϕn i = λ~ω n +
2 2
1   1 √ 1 √ √
hϕn+2 | W |ϕn i = λ~ω hϕn+2 | a†2 |ϕn i = λ~ω n + 1 hϕn+2 | a† |ϕn+1 i = λ~ω n + 1 n + 2 hϕn+2 | ϕn+2 i
4 4 4
1 p
hϕn+2 | W |ϕn i = λ~ω (n + 1) (n + 2)
4
1 1 √ 1 √ √
hϕn−2 | W |ϕn i = λ~ω hϕn−2 | a2 |ϕn i = λ~ω n hϕn−2 | a |ϕn−1 i = λ~ω n n − 1 hϕn−2 | ϕn−2 i
4 4 4
1 p
hϕn−2 | W |ϕn i = λ~ω n (n − 1)
4
Evaluando la contribución de segundo orden para la energı́a a través de la Ec. (20.42), obtenemos
X |hϕp | W |ϕn i|2 
En = En0 + hϕn | W |ϕn i + 0 0
+ O λ3
En − Ep
p6=n
   
1 1 1 |hϕn+2 | W |ϕn i|2 |hϕn−2 | W |ϕn i|2 3

= n+ ~ω + λ~ω n + + 0 + 0 + O λ
2 2 2 En0 − En+2 En0 − En−2
    1 2 2 2 1 2 2 2
1 1 λ ~ ω (n + 1) (n + 2) λ ~ ω n (n − 1) 
= n+ ~ω 1 + λ + 16 + 16 + O λ3
2 2 −2~ω 2~ω
    2 2
1 1 λ ~ω λ ~ω 
= n+ ~ω 1 + λ − (n + 1) (n + 2) + n (n − 1) + O λ3
2 2 32 32
    2
1 1 λ ~ω 
En = n+ ~ω 1 + λ + [n (n − 1) − (n + 1) (n + 2)] + O λ3
2 2 32
    2
1 1 λ ~ω 
= n+ ~ω 1 + λ − [4n + 2] + O λ3
2 2 32
     
1 1 4λ2 1 
= n+ ~ω 1 + λ − ~ω n + + O λ3
2 2 32 2
   2

1 1 λ 
En = n+ ~ω 1 + λ − + O λ3
2 2 8

que coincide con la expansión (20.63).

20.6.4. Perturbación del oscilador armónico por un potencial cúbico


Tomaremos un potencial de la forma
b3
W = λ~ω X
En mecánica clásica, la partı́cula con energı́a total E sometida al potencial V = mω 2 x2 /2 + Cx3 oscila entre dos
puntos de retorno xa y xb que no están ubicados simétricamente con respecto al origen, ya que el potencial total
no tiene paridad definida. El movimiento sigue siendo periódico pero ya no es sinusoidal (i.e. no es armónico). De
hecho, en la expansión de Fourier de x (t), aparecen una serie de armónicos de la frecuencia fundamental. Por tal
razón a este sistema se le denomina oscilador anarmónico. Adicionalmente, el periodo del movimiento ya no es
512 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

independiente de la energı́a (y por tanto no es independiente de la amplitud), decimos entonces que el oscilador
anarmónico ya no es isócrono.

Expansión perturbativa

Nuevamente escribimos el potencial de perturbación en términos de operadores creación y destrucción. Primero


3
calculamos a + a† teniendo en cuenta (20.64)

 3  2        
a + a† = a + a† a + a† = a†2 + a2 + 2a† a + 1 a + a† = a†2 + a2 + 2N + 1 a + a†
= a†2a + a3 + 2N a + a + a†3 + a2 a† +2N a† + a†
= a† a† a + a3 + 2N a + a + a†3 + a aa† + 2N a† + a†
h i 
= a† N + a3 + 2N a + a + a†3 + a a, a† + a† a + 2N a† + a†
= a† N + a3 + 2N a + a + a†3 + a (1 + N ) + 2N a† + a†
= a†3 + a3 + a† †
h N +i2N a + aN + 2N a + 2a + a

= a†3 + a3 + a† , N + N a† + 2N a† + [a, N ] + N a + 2N a + 2a + a†
= a†3 + a3 − a† + N a† + 2N a† + a + N a + 2N a + 2a + a†
 3
a + a† = a†3 + a3 + 3N a† + 3N a + 3a

donde hemos usado las Ecs. (8.13). Pág. 273. Con esto el potencial de perturbación queda

 3
b 3 = λ~ω a + a†
W = λ~ω X √
2
λ~ω h †3 3 †
i
W = a + a + 3N a + 3 (N + 1) a
23/2

Los únicos elementos de matriz de W no nulos asociados con |ϕn i son

λ~ω h i λ~ω
†3 3 †
hϕn+3 | W |ϕn i = 3/2
hϕ n+3 | a + a + 3N a + 3 (N + 1) a |ϕn i = 3/2 hϕn+3 | a†3 |ϕn i
2 2
λ~ω √ λ~ω √ √
= n + 1 hϕn+3 | a |ϕn+1 i = 3/2 n + 1 n + 2 hϕn+3 | a† |ϕn+2 i
†2
23/2 2
λ~ω p
hϕn+3 | W |ϕn i = (n + 1) (n + 2) (n + 3)
23/2
λ~ω 3 λ~ω √ 2 λ~ω p
hϕn−3 | W |ϕn i = hϕ n−3 | a |ϕ n i = n hϕn−3 | a |ϕ n−1 i = n (n − 1) hϕn−3 | a |ϕn−2 i
23/2 23/2 23/2
λ~ω p
hϕn−3 | W |ϕn i = n (n − 1) (n − 2)
23/2
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMÓNICO 513

λ~ω h i λ~ω h i
†3 3 † †
hϕn+1 | W |ϕn i = hϕ n+1 | a + a + 3N a + 3 (N + 1) a |ϕn i = hϕn+1 | 3N a |ϕn i
23/2 23/2
λ~ω √ λ~ω √
= 3 3/2 n + 1 hϕn+1 | N |ϕn+1 i = 3 3/2 n + 1 (n + 1) hϕn+1 | ϕn+1 i
2 2
3λ~ω 3/2
hϕn+1 | W |ϕn i = (n + 1)
23/2
λ~ω h i λ~ω
†3 3 †
hϕn−1 | W |ϕn i = hϕ n−1 | a + a + 3N a + 3 (N + 1) a |ϕn i = 3/2 hϕn−1 | [3 (N + 1) a] |ϕn i
23/2 2
3λ~ω √ λ~ω √
= 3/2
n hϕn−1 | [(N + 1)] |ϕn−1 i = 3 3/2 [(n − 1) + 1] n hϕn−1 | ϕn−1 i
2 2
3λ~ω 3/2
hϕn−1 | W |ϕn i = n
23/2
quedando finalmente
r r
(n + 1) (n + 2) (n + 3) n (n − 1) (n − 2)
hϕn+3 | W |ϕn i = λ~ω ; hϕn−3 | W |ϕn i = λ~ω
8 8
 3/2  
n+1 n 3/2
hϕn+1 | W |ϕn i = 3λ~ω ; hϕn−1 | W |ϕn i = 3λ~ω (20.65)
2 2
la energı́a se calcula por medio de (20.42)
X |hϕp | W |ϕn i|2 
En = En0 + hϕn | W |ϕn i + 0 0
+ O λ3
En − Ep
p6=n
2
|hϕn+3 | W |ϕn i| |hϕn−3 | W |ϕn i|2 |hϕn+1 | W |ϕn i|2 |hϕn−1 | W |ϕn i|2 
En = En0 + 0 + 0 + 0 + 0 + O λ 3
En0 − En+3 En0 − En−3 En0 − En+1 En0 − En−1
 
1 λ2 ~2 ω 2 (n+1)(n+2)(n+3)
8 λ2 ~2 ω 2 n(n−1)(n−2)
8
En = n+ ~ω + +
2 −3~ω 3~ω
3 2 ~2 ω 2 n 3

9λ2 ~2 ω 2 n+1 9λ 
+ 2
+ 2
+ O λ3
−~ω ~ω
 
1 (n + 1) (n + 2) (n + 3) 2 n (n − 1) (n − 2) 2
En = n+ ~ω − λ ~ω + λ ~ω
2 24 24
9 (n + 1)3 2 9n3 2 
− λ ~ω + λ ~ω + O λ3
8 " 8 #
 
1 n (n − 1) (n − 2) (n + 1) (n + 2) (n + 3) 9n3 9 (n + 1)3 2
En = n+ ~ω + − + − λ ~ω
2 24 24 8 8

+O λ3
calcularemos la cantidad entre paréntesis cuadrados
1 h i 1  
kn = −9n2 − 9n − 6 + 27n3 − 27 (n + 1)3 = −9n2 − 9n − 6 − 81n2 − 81n − 27
24  24
  
1  2
 90 2 33 15 2 11
= − 90n + 90n + 33 = − n +n+ =− n +n+
24 24 90 4 30
" 2 # " 2 #
15 1 1 11 15 1 7
= − n+ − + =− n+ +
4 2 4 30 4 2 60
 2
15 1 7
kn = − n+ −
4 2 16
514 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES

con lo cual el espectro a segundo orden queda


   2
1 15 1 7 2 
En = n+ ~ω − n+ λ2 ~ω − λ ~ω + O λ3
2 4 2 16

nótese que no hay contribución de primer orden de modo que la corrección debida a W requiere como mı́nimo
calcular el espectro a segundo orden. Por efecto de W , los niveles decrecen sin importar el signo de λ. Además el
corrimiento se incrementa con n. La diferencia entre dos niveles adyacentes a segundo orden es
 
15 2
En − En−1 = ~ω 1 − λ n
2

de nuevo valores de n muy grandes (tales que 15λ2 n/2 & 1), invalidarı́an este cálculo perturbativo. Nótese que la
distancia entre niveles adyacentes depende ahora de n. Los niveles de energı́a consecutivos ya no son equidistantes,
y están más cerca a medida que crece n.
De las Ecs. (20.39, 20.65), el estado perturbado a primer orden nos da


X X ϕip W |ϕn i 
|ψn (λ)i = |ϕn i + i
ϕp  + O λ2
0
En − Ep0
p6=n i
hϕn+1 | W |ϕn i hϕ | W |ϕ i
= |ϕn i + |ϕn+1 i 0
 + |ϕn−1 i n−1 0 n
0
En − En+1 0
En − En−1
hϕn+3 | W |ϕn i hϕ | W |ϕ i 
+ |ϕn+3 i 0
 + |ϕn−3 i n−3 0 n + O λ2
0
En − En+3 0
En − En−3

 3/2  n 3/2
n+1
|ψn (λ)i = |ϕn i − 3λ |ϕn+1 i + 3λ |ϕn−1 i
2 2
r r
λ (n + 1) (n + 2) (n + 3) λ n (n − 1) (n − 2) 
− |ϕn+3 i + |ϕn−3 i + O λ2
3 8 3 8
Capı́tulo 21

Método variacional

21.1. Descripción del método


Supongamos que tenemos un Hamiltoniano independiente del tiempo H, con espectro discreto

H |ϕpn i = En |ϕpn i

Si el Hamiltoniano no puede resolverse analı́ticamente en forma exacta, el método variacional es otra alternativa de
solución aproximada. El método consiste en escoger una familia de kets, asociados con un conjunto de parámetros
α
|ψ (α)i = |ψ (α1 , α2 , . . . , αn )i
conocidas como funciones de prueba. Aunque estas funciones se pueden elegir en forma arbitraria, una aproxima-
ción razonablemente buena solo se obtendrá si las funciones de prueba se eligen con algún criterio Fı́sico. La idea
es entonces calcular el valor esperado del Hamiltoniano hHi (α) en estos estados y minimizar tal valor esperado
con respecto a los parámetros α. El valor mı́nimo obtenido de esta forma constituye una aproximación para el
valor del estado base E0 del sistema. Este método de minimización es una variante del cálculo funcional cono-
cida como método de variación de parámetros. De allı́ que el método de aproximación se conozca como método
variacional. Veremos que además es posible obtener con el método variacional una aproximación a los estados
excitados, aunque en la práctica solo es viable para los primeros estados excitados.

21.2. Implementación del método variacional


El método variacional se basa en los siguientes resultados

Theorem 21.1 Dado un ket arbitrario |ψi del espacio de estados del sistema, el valor medio del Hamiltoniano
con respecto a dicho estado cumple la condición

hψ| H |ψi
hHi = ≥ E0 (21.1)
hψ| ψi

siendo E0 el autovalor más pequeño de H (estado base de H)1 . La igualdad se obtiene si y solo si el ket |ψi es un
autoestado de H con autovalor E0 .

Por simplicidad asumiremos que la base {|ϕpn i} de vectores propios de H es ortonormal, es decir que también
es ortonormal la base de cada subespacio En generado por cada valor propio En . Puesto que los resultados finales
1
La expresión (21.1) tiene en cuenta que en general el estado |ψi no está normalizado.

515
516 CAPÍTULO 21. MÉTODO VARIACIONAL

son independientes de la base, esto no le quita generalidad al teorema. Para probarlo expandimos al estado |ψi en
la base de los estados propios {|ϕpn i} de H
gn
∞ X
X
|ψi = cpn |ϕpn i (21.2)
n=0 p=1

con lo cual
X gm X
∞ X gn
∞ X XX
hψ| H |ψi = cq∗ p q p
m cn hϕm | H |ϕn i = En cq∗ p
m cn δmn δqp
m=0 q=1 n=0 p=1 m,n q,p
X∞ X gn gn
∞ X
X
hψ| H |ψi = |cpn |2 En ≥ E0 |cpn |2 (21.3)
n=0 p=1 n=0 p=1

por otro lado, de la Ec. (21.2) la norma al cuadrado de |ψi nos da


gn
∞ X
X
hψ| ψi = |cpn |2 (21.4)
n=0 p=1

y la combinación de las Ecs. (21.3, 21.4) nos da la Ec. (21.1). De la expresión (21.2) vemos que el estado |ψi
pertenece al subespacio E0 generado por el estado base E0 , si y solo si cpn = δn0 cp0 , y al utilizar esta condición en
(21.3) se obtiene la igualdad en dicha expresión. Recı́procamente, si asumimos la igualdad en la expresión (21.3),
dicha igualdad se puede escribir como

X gn
∞ X gn
∞ X
X
|cpn |2 (En − E0 ) = 0 ⇒ |cpn |2 |En − E0 | = 0
n=0 p=1 n=1 p=1

donde hemos tenido en cuenta que En − E0 > 0 para n ≥ 1. Por tanto, la igualdad es posible si y solo si cpn = δn0 cp0
o equivalentemente si el estado |ψi pertenece a E0 . En conclusión, la igualdad en (21.3) ocurre si y solo si |ψi es
autoestado de H con autovalor E0 .
Por simplicidad escribiremos los gn vectores linealmente independientes asociados a un valor propio En en una
notación condensada de la siguiente manera

{|ϕgnn i} ≡ ϕ1n , ϕ2n , . . . , |ϕgnn i

De los resultados anteriores se deriva un teorema que permite acotar los estados excitados

Theorem 21.2 Sea ϕg0 0 , ϕg1 1 , ϕg2 2 , . . . la secuencia ordenada de los estados propios (discretos) del Ha-
miltoniano H, asociados a valores g1 {E0 , Eg1k ,
 g0 propios E2 , . . .} colocados en orden ascendente En < En+1 . Si |ψi es

un ket ortogonal a los kets ϕ0 , ϕ1 , . . . , ϕk , el valor esperado de H asociado a dicho estado cumple la
condición
hψ| H |ψi
hHi = ≥ Ek+1 (21.5)
hψ| ψi
y la igualdad se obtiene si y solo si |ψi es autoestado de H con valor propio Ek+1 .

Para probarlo, basta observar que la ortogonalidad de |ψi con los estados asociados a los primeros k valores
propios Ei , nos lleva a que los términos de la expansión asociados a los k primeros valores propios en (21.2) deben
ser nulos
X∞ X gn
|ψi = cpn |ϕpn i (21.6)
n=k+1 p=1
21.2. IMPLEMENTACIÓN DEL MÉTODO VARIACIONAL 517

con el mismo procedimiento que nos lleva a las Ecs. (21.3, 21.4), obtenemos

X gn
∞ X gn
∞ X
X gn
∞ X
X
hψ| H |ψi = |cpn |2 En ≥ Ek+1 |cpn |2 ; hψ| ψi = |cpn |2
n=k+1 p=1 n=k+1 p=1 n=k+1 p=1

combinando estas dos ecuaciones obtenemos (21.5). De nuevo la igualdad se obtiene si y solo si cpn = δn,k+1 cpk+1 ,
con lo cual la Ec. (21.6) nos dice que |ψi ∈ Ek+1 , o equivalentemente que |ψi es autoestado de H con valor propio
Ek+1 .
Otro resultado fundamental es el siguiente

Theorem 21.3 (Ritz) El valor medio del Hamiltoniano hHi|ψi es estacionario si y solo si el vector de estado |ψi
en el cual se evalúa, es autovector de H. Además los valores estacionarios de hHi son los valores propios de H,
esto es
H |ψi = hHi |ψi (21.7)
se dice también que el valor esperado de H solo es estacionario en la vecindad de sus estados propios discretos.

Para verlo tenemos en cuenta que el valor esperado del Hamiltoniano es


hψ| H |ψi
hHi = (21.8)
hψ| ψi

es claro entonces que este valor esperado es un funcional del estado |ψi. Vamos a calcular el incremento δhHi
cuando el estado |ψi sufre el cambio infinitesimal al estado |ψi + |δψi. Para calcular el variacional de hHi debido
al cambio infinitesimal en el estado, escribimos la Ec. (21.8) en la forma

hHi hψ| ψi = hψ| H |ψi

y calculando el variacional a ambos lados tenemos

hψ| ψiδhHi + hHi [hδψ| ψi + hψ| δψi] = hδψ| H |ψi + hψ| H |δψi

y teniendo en cuenta que hHi es un número

hψ| ψiδhHi = hδψ| [H − hHi] |ψi + hψ| [H − hHi] |δψi (21.9)

buscaremos las condiciones para que δ hHi se anule, es decir las condiciones para que se anule el lado derecho de
la ecuación (21.9)
hδψ| [H − hHi] |ψi + hψ| [H − hHi] |δψi = 0 (21.10)
definiendo
|ϕi ≡ [H − hHi] |ψi (21.11)
la relación (21.10) se escribe como
hδψ| ϕi + hϕ| δψi = 0 (21.12)
la condición (21.12) se debe cumplir para cualquier ket infinitesimal |δψi, ya que la condición de estacionaridad
requiere que δ hHi = 0, sin importar la forma de la variación de |ψi, con la única condición de que esta variación
sea infinitesimal. En particular, la expresión (21.12) se debe cumplir para la variación infinitesimal dada por

|δψi = (δλ) |ϕi

siendo δλ un número real infinitesimal, para este ket la Ec. (21.12) queda en la forma

2 hϕ| ϕi δλ = 0
518 CAPÍTULO 21. MÉTODO VARIACIONAL

de modo que la norma del ket (y por lo tanto el ket) debe ser nulo i.e. |ϕi = 0. Aplicando esta condición en la
definición (21.11) resulta
H |ψi = hHi |ψi (21.13)
mostrando que la Ec. (21.13) es una condición de necesidad para la anulación de δ hHi. La demostración de la
suficiencia se obtiene simplemente reemplazando la condición (21.13) en la Ec. (21.9).
El anterior teorema implica que el método variacional se puede generalizar para aplicarlo a la determinación
aproximada de algunos valores propios de H. Si la función hHi (α) obtenida por medio de los kets de prueba
|ψ (α)i tiene varios extremos, éstos nos darán un valor aproximado de algunos de los autovalores En .
Nótese que en los anteriores teoremas no es estrictamente necesario que el observable sea el Hamiltoniano.
Un repaso cuidadoso le muestra al lector que las demostraciones anteriores quedan intactas si en lugar del Ha-
miltoniano utilizamos cualquier observable (operador hermı́tico completo) cuyo espectro sea discreto y acotado
inferiormente (es decir que exista un valor propio que sea menor que todos los demás valores propios del espectro).
En consecuencia, los teoremas anteriores se pueden generalizar para cualquier observable con espectro discreto
acotado inferiormente.

21.3. Funciones de prueba restringidas a un subespacio de E


Si elegimos los kets de prueba como el conjunto de kets en un subespacio F ⊆ E, entonces el método variacional
se reduce a la resolución de la ecuación de valores propios del Hamiltoniano H dentro del subespacio F y no en
el espacio vectorial E. Esto se puede ver aplicando los argumentos de la sección 21.2, pero restringidos a vectores
|ψi que pertenecen a F. Los máximos y mı́nimos que encontramos con la condición de estacionaridad δ hHi = 0,
se obtienen cuando |ψi es un autovector de H que pertenece a F. Los autovalores ası́ obtenidos constituyen una
aproximación variacional para los autovalores de H en E que son los que estamos buscando.
Cuando se utiliza la restricción del problema de valores propios de H a un subespacio F ⊆ E, el problema se
simplifica considerablemente. Sin embargo, es importante mencionar que incluso la solución exacta del problema
de valores propios restringido a F, constituye solo una aproximación al problema de valores propios en E. Esto se
debe a que la restricción de un operador a un subespacio cambia la naturaleza del operador como tal (ver sección
1.33, Pág. 74), de modo que la restricción H b del Hamiltoniano es un operador diferente al Hamiltoniano en sı́.
Esta aproximación de cambiar el problema de valores propios del Hamiltoniano H sobre E, por el problema
de valores propios de su restricción H b a un subespacio F ⊆ E , es razonable solo si los elementos matriciales de la
forma hϕ| H |ψi con |ϕi y |ψi dentro de F son mucho mayores (en valor absoluto) que los elementos matriciales
de la forma hχ| H |ψi con |ψi ∈ F y con |χi ∈ / F. Esta hipótesis fué la que se supuso para asumir que existen
sistemas cuánticos que pueden tratarse como sistemas de dos estados (ver Cap. 17). En algunos casos es posible
asumir que el sistema se puede tratar aproximadamente como un sistema de n estados con n finito. Es en estos
escenarios en los cuales el método variacional restringido a un subespacio de E, adquiere importancia práctica.
Por tanto, para que el problema de valores propios de H restringido a un subespacio F de E, nos de una
buena aproximación de los valores propios del Hamiltoniano considerado como operador de E, es necesario que
el subespacio F se escoja adecuadamente. En fı́sica molecular, utilizaremos el método de combinación lineal
de orbitales atómicos (L.C.A.O por sus siglas en inglés) que consiste en determinar la función de onda de los
electrones en una molécula en forma de combinaciones lineales de autofunciones asociadas a cada uno de los
átomos que constituyen la molécula, tratados como si fueran aislados. Los coeficientes de la combinación lineal
serán los parámetros variacionales y el conjunto de todos los orbitales linealmente independientes solo expande
un subespacio de E. Obsérvese que la teorı́a de perturbaciones a primer orden se ajusta a este método variacional
particular, siendo F un autosubespacio del Hamiltoniano sin perturbar H0 .
Ahora bien, lo usual en el método variacional es tomar un conjunto de funciones de prueba de la forma
ψ (α1 , . . . , αn ) con el fin de encontrar los valores de los parámetros αk que minimicen la distancia entre la función
de prueba y la solución de la función de onda. Es también usual que estas funciones cumplan ciertas ligaduras
(por ejemplo ser de cuadrado integrable, tener norma unidad, paridad definida etc.). Cuando barremos todos
21.4. ESPECTRO DEL OSCILADOR ARMÓNICO POR MÉTODOS VARIACIONALES 519

los valores posibles del conjunto de n parámetros (compatibles con las ligaduras) se generan un conjunto de
funciones linealmente independientes que usualmente no forman una base del espacio de Hilbert completo sino de
un subespacio propio de éste2 . Por esta razón aún la solución exacta del problema variacional no es una solución
exacta del problema de valores propios en el espacio de Hilbert completo. De hecho en la práctica es muy difı́cil
determinar cual subespacio es el más pequeño que contiene a esta familia de soluciones.

21.4. Espectro del oscilador armónico por métodos variacionales


21.4.1. Estimación del estado base
Utilizaremos el oscilador armónico unidimensional para ilustrar las ideas inherentes al método variacional.
Partimos entonces del Hamiltoniano
~2 d2 1
H=− + mω 2 x2
2m dx2 2
puesto que este Hamiltoniano es par, puede demostrarse que el estado base debe estar representado por una función
de onda par. Por tanto, debemos elegir funciones de prueba pares. Tomaremos entonces la familia uniparamétrica
de funciones
2
ψα (x) = e−αx ; α > 0 (21.14)
esta función es par, y la condición α > 0 se requiere para que ψα (x) sea de cuadrado integrable. El cuadrado de
la norma del ket viene dado por Z ∞ r
−2αx2 π
hψα |ψα i = e dx = (21.15)
−∞ 2α
y el elemento matricial hψα | H |ψα i queda

Z ∞  
~2 d2
−αx2 1 2
I ≡ hψα | H |ψα i = dx e − 2
+ mω x e−αx
2 2
−∞ 2m dx 2
Z ∞  2 h i 
−αx2 ~ d −αx2 1 2 2 −αx2
= dx e 2αxe + mω x e
−∞ 2m dx 2
Z ∞  2 2  Z ∞  2   
~ 2 2 ~ 1 2 2 −2αx2 ~ 1 2 2α2 ~2 2 −2αx2
= dx α − 4α x + mω x e = dx α + mω − x e
−∞ m 2m 2 −∞ m 2 m
Z  Z ∞
~2 ∞ −2αx2 1 2 2α2 ~2 2
I = α dx e + mω − dx x2 e−2αx (21.16)
m −∞ 2 m −∞
2
por otro lado, integrando x2 e−2αx por partes resulta
2 1 2
u = x , dv = xe−2αx dx ; du = dx , v = − e−2αx
Z Z 4α
2 x −2αx2 1 −2αx2
x2 e−2αx dx = − e + e dx
4α 4α
Z ∞ Z ∞
2 1 2
x2 e−2αx dx = e−2αx dx (21.17)
−∞ 4α −∞
sustituyendo (21.17) en (21.16), la integral I queda
 2 Z ∞
α~ mω 2 α~2 2
I= + − e−2αx dx
m 8α 2m −∞
2
De hecho el conjunto de todas las funciones que se obtienen al barrer los parámetros, no necesariamente forma un espacio vec-
torial. Podrı́a ser solo un subconjunto propio del espacio vectorial generado por todas las funciones linealmente independientes antes
mencionadas.
520 CAPÍTULO 21. MÉTODO VARIACIONAL

con lo cual el elemento matricial hψα | H |ψα i queda finalmente


 2 Z ∞  2 
~ mω 2 −2αx2 ~ mω 2
hψα | H |ψα i = α+ dx e = α+ hψα |ψα i
2m 8α −∞ 2m 8α

donde hemos usado (21.15). Aplicando la Ec. (21.8) tenemos


 2 
hψα | H |ψα i ~ mω 2
hHi (α) = = α+ (21.18)
hψα |ψα i 2m 8α

calculamos el valor (o valores) de α para el cual hHi (α) se convierte en un extremo

∂ hHi (α) ~2 mω 2
= − =0
∂α 2m 8α2
~2 2 mω 2
⇒ α − =0
2m 8
las soluciones son α1,2 = ±mω/2~, pero recordemos que α debe ser positivo para que la función de prueba (21.14)
sea de cuadrado integrable. Por tanto, el valor de α ≡ α0 para el cual hHi (α) es estacionario está dado por

α0 = (21.19)
2~
sustituyendo (21.19) en (21.18) obtenemos el valor estacionario de hHi (α0 )

~2 mω 2 ~2 mω 2~mω 2 ~ω ~ω
hHi (α0 ) = α0 + = + = +
2m 8α0 2m 2~ 8mω 4 4

hHi (α0 ) =
2
en este caso, el valor mı́nimo de hHi (α) coincide exactamente con la energı́a base del problema ya conocido
del oscilador armónico unidimensional. Esto se debe a que la función de onda exacta (sin normalizar) coincide
exactamente con la función de onda de prueba para un valor especı́fico del parámetro α, como se puede ver al
comparar la Ec. (8.48), Pág. 281 con la Ec. (21.14). El hecho de que la condición de estacionaridad de hHi (α)
nos lleve al valor de α que iguala las ecuaciones (8.48, 21.14) se debe precisamente al teorema 21.1.

21.4.2. Estimación del primer estado excitado


Si queremos calcular en forma aproximada el valor del primer estado excitado E1 , debemos buscar funciones
de prueba que sean ortogonales a la función de onda del estado base. En tal caso según el teorema 21.2, el valor
esperado hHi nos provee de una cota superior para el estado E1 . Utilizaremos entonces una función de prueba
impar y que sea ortogonal al estado base
2
ψα (x) = xe−αx (21.20)
en cuyo caso tenemos Z ∞
2
hψα |ψα i = x2 e−2αx dx
−∞

y el elemento matricial hψα | H |ψα i queda


Z ∞     3~2 Z ∞
−αx2 ~2 d2 1 2 2 −αx2 3mω 2 2
hψα | H |ψα i = dx xe − 2
+ mω x xe = α+ dx x2 e−2αx
−∞ 2m dx 2 2m 8α −∞
 2 2

3~ 3mω
hψα | H |ψα i = α+ hψα |ψα i
2m 8α
21.5. ESPECTRO DEL OSCILADOR ARMÓNICO CON OTRAS FUNCIONES DE PRUEBA 521

el valor esperado de H queda entonces

hψα | H |ψα i 3~2 3mω 2


hHi (α) = = α+ (21.21)
hψα |ψα i 2m 8α

la condición estacionaria nos da


∂ hHi 3~2 3mω 2 3~2 2 3mω 2
= − =0 ⇒ α =
∂α0 2m 8α20 2m 0 8

α0 =
2~
por tanto hHi (α) presenta un mı́nimo en el mismo valor α0 que para el caso del estado base como se vé en la Ec.
(21.19). Con este valor de α0 , la Ec. (21.21) queda

3~2 3mω 2 3~2 mω 6~mω 2


hHi (α0 ) = α0 + = +
2m 8α0 2m 2~ 8mω
3~ω
hHi (α0 ) =
2
una vez más se obtiene el valor exacto de E1 para el oscilador armónico unidimensional, debido a que la familia
de funciones de prueba (21.20) incluye a la solución exacta (sin normalizar) dada en la Ec. (8.51), Pág. 282.

21.5. Espectro del oscilador armónico con otras funciones de prueba


Aunque los cálculos de la sección 21.4 nos permiten familiarizarnos con el método variacional, no nos permiten
tener una idea de la efectividad de la aproximación, puesto que las funciones de prueba propuestas incluyen la
solución exacta. Usaremos entonces funciones de prueba diferentes, aunque mantendremos la idea de que sean
funciones pares de cuadrado integrable para el estado base. Otra familia de funciones que cumple con dichas
propiedades es la siguiente
1
ψα (x) = 2 ; α>0
x +α
la norma de estas funciones de prueba está dada por
Z ∞
dx π
hψα |ψα i = 2 = √
−∞ (x2 + α) 2α α

el valor esperado queda finalmente


~2 1 1
hHi (α) = + mω 2 α
2m α 2
esta función adquiere su valor mı́nimo en α = α0 dado por
1 ~ ~ω
α0 = √ ⇒ hHi (α0 ) = √
2 mω 2
el error porcentual cometido en este caso se puede evaluar dado que conocemos el valor exacto de E0

hHi (α0 ) − 12 ~ω 2−1
= ≈ 20 %
~ω 2
????????????????????????
Capı́tulo 22

Teorı́a de perturbaciones dependiente del


tiempo

Al igual que en la teorı́a de perturbaciones estacionaria, vamos a suponer que tenemos un Hamiltoniano H0
no perturbado cuya solución conocemos. Por simplicidad asumiremos que el espectro de H0 es discreto y no
degenerado
H0 |ϕn i = En |ϕn i
será fácil generalizar las fórmulas obtenidas para el caso degenerado. Asumiremos que el Hamiltoniano no pertur-
bado es independiente del tiempo, con lo cual los autoestados |ϕn i tampoco dependen del tiempo. En consecuencia,
los estados |ϕn i son estacionarios1 . En el tiempo t = 0, se aplica una perturbación al sistema parametrizada en la
forma
H = H0 + W (t) ≡ H0 + λW c (t)

donde λ es un parámetro adimensional mucho menor que la unidad y W c (t) es un observable que puede depender
explı́citamente del tiempo y que es del mismo orden de magnitud de H0 en el intervalo de tiempo involucrado. Se
asume que W c (t) = 0 para t < 0.
Se asume además que el sistema está inicialmente en el estado estacionario |ϕk i de H0 asociado a la energı́a
Ek . Si no existiera la perturbación este estado no evolucionarı́a en el tiempo, pero al introducir la perturbación
en t = 0, el estado |ϕk i no será en general autoestado de H de modo que deja de ser un estado estacionario,
y comenzará a evolucionar en el tiempo. Nuestro objetivo será calcular la probabilidad de transición Pif (t) de
encontrar al sistema en otro autoestado |ϕf i de H0 en el tiempo t. Es decir queremos estudiar las transiciones
que se inducen a través de W (t) entre los estados estacionarios de H0 . Debemos recordar que la probabilidad de
transición entre |ϕk i y |ϕf i realmente significa la probabilidad de obtener la medida Ef de la energı́a cuando la
perturbación W (t) se activa en t = 0 y se desactiva en t (es decir en el tiempo en el cual se ejecuta la medición
de la energı́a), teniendo a |ϕk i como estado inicial [ver discusión en la sección 17.3, particularmente después de la
Ec. (17.30), Pág. 4332 ].
Entre los tiempos 0 y t, el sistema evoluciona de acuerdo con la ecuación de Schrödinger

d h i
i~ c (t) |ψ (t)i
|ψ (t)i = H0 + λW (22.1)
dt
con la condición inicial
|ψ (t = 0)i = |ϕi i (22.2)
1
Cuando el Hamiltoniano es dependiente del tiempo sus autoestados ya no son estacionarios. Esto es una manifestación de la no
conservación de la energı́a, cuando el Hamiltoniano depende explı́citamente del tiempo (ver sección 3.2 Pág. 158 y sección 5.8 Pág.
225).
2
De hecho la discusión en el presente capı́tulo constituye una generalización de los resultados obtenidos para sistemas de dos estados,
en el capı́tulo 17.

522
22.1. SOLUCIÓN PERTURBATIVA DE LA ECUACIÓN DE SCHRÖDINGER DEPENDIENTE DEL TIEMPO523

la solución de la ecuación de Schrödinger (22.1) con la condición inicial (22.2) es única de modo que la evolución
del estado es determinista en tanto no se realice una medida. La probabilidad Pif (t) que buscamos está dada por

Pif (t) = |hϕf | ψ (t)i|2 (22.3)

por tanto el problema se reduce a encontrar la solución |ψ (t)i de la ecuación de Schrödinger (22.1) con la condición
inicial (22.1). No obstante, para la mayorı́a de problemas reales esta solución no se puede encontrar en forma
exacta, por lo cual recurriremos a una solución aproximada utilizando series de potencias en λ de forma similar
a la teorı́a de perturbaciones estacionaria. Como antes, la solución es aproximadamente correcta cuando λ ≪ 1.
Encontraremos |ψ (t)i y Pif (t) a primer orden en λ. Estudiaremos un caso de particular importancia en el cual la
perturbación es una función sinusoidal del tiempo, del cual surgirán fenómenos de resonancia. Se estudiará el caso
en el cual el espectro de H0 es discreto y aquél en el cual el estado inicial está acoplado a un contı́nuo de estados
finales. En el último caso probaremos una importante relación conocida como la regla de oro de Fermi.

22.1. Solución perturbativa de la ecuación de Schrödinger dependiente del


tiempo
Para resolver la ecuación de Schrödinger es necesario utilizar una base. Puesto que esperamos que las soluciones
no sean muy diferentes a los estados estacionarios, es razonable utilizar estos últimos como base para resolver la
ecuación de Schrödinger. Comenzamos entonces expandiendo el estado a resolver en términos de los autoestados
de H0 X
|ψ (t)i = cm (t) |ϕm i ; cm (t) = hϕm | ψ (t)i (22.4)
m

para escribir la ecuación de Schrödinger en la base {|ϕn i}, multiplicamos la ecuación (22.1) por el bra hϕn |,
insertando una identidad asociada a la completez de los estados estacionarios
!
d X
i~ hϕn |ψ (t)i = hϕn | H0 |ψ (t)i + λ hϕn | Wc (t) |ϕk i hϕk | |ψ (t)i
dt
k
d X
i~ hϕn |ψ (t)i = En hϕn |ψ (t)i + λ c (t) |ϕk i hϕk |ψ (t)i
hϕn | W
dt
k

nótese que hemos usado el hecho de que hϕn | no depende del tiempo (lo cual a su vez proviene de que H0 no
dependa del tiempo). Utilizando la Ec. (22.4), la ecuación queda finalmente

d X
i~ cn (t) = En cn (t) + λ cnk (t) ck (t)
W ; cnk (t) ≡ hϕn | W
W c (t) |ϕk i (22.5)
dt
k

el conjunto de ecuaciones (22.5) para todo n es un conjunto de ecuaciones diferenciales lineales acopladas de primer
orden en t, que nos determinan las componentes cn (t) de la expansión (22.4) del estado que buscamos. Nótese
que el acople surge debido a la presencia de los elementos matriciales no diagonales W cnk (t) de la perturbación
c c
W (t) en la base de los estados estacionarios. El elemento Wnk (t) acopla la evolución de la componente cn (t) con
c es nulo, o si solo son no nulos los elementos diagonales W
la evolución de ck (t). Vemos entonces que si W cnn (t),
3
las ecuaciones (22.5) se desacoplan . Esto es de esperarse ya que en este caso los estados |ϕn i continúan siendo
estacionarios después de la introducción de la perturbación, produciendo solo un corrimiento del espectro. En
particular cuando W (t) = 0, las ecuaciones (22.5) se desacoplan generando la solución

cn (t) = bn e−iEn t/~ (22.6)


3
Recordemos que W es diagonal en la base de autovectores de H0 si y solo si H0 conmuta con W .
524 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

siendo bn constantes que dependen de las condiciones iniciales. Si asumimos que λW c (t) es muy pequeño, las
soluciones para cn (t) no deben diferir mucho de aquellas dadas por (22.6). En consecuencia, si parametrizamos
las soluciones de cn (t) en presencia de la perturbación en la forma

cn (t) = bn (t) e−iEn t/~ (22.7)

es de esperarse que la evolución temporal de bn (t) sea suave. Si sustituı́mos las Ecs. (22.7) en las ecuaciones (22.5)
obtenemos un conjunto de ecuaciones diferenciales acopladas para los bn (t)

d h i X
cnk (t) bk (t) e−iEk t/~
i~ bn (t) e−iEn t/~ = En bn (t) e−iEn t/~ + λ W
dt
k
dbn (t) X
i~e−iEn t/~ + En bn (t) e−iEn t/~ = En bn (t) e−iEn t/~ + λ cnk (t) bk (t) e−iEk t/~
W
dt
k
dbn (t) X
i~e−iEn t/~ = λ cnk (t) bk (t) e−iEk t/~
W (22.8)
dt
k

multiplicando a ambos lados de (22.8) por eiEn t/~ , y recordando la definición de la frecuencias de Bohr Ec. (5.74),
Pág. 228, usamos las frecuencias angulares de Bohr (aunque sin valor absoluto)

En − Ek
ωnk = (22.9)
~

y la Ec. (22.8) se convierte en


dbn (t) X
i~ =λ cnk (t) bk (t) eiωnk t
W (22.10)
dt
k

debemos enfatizar que hasta el momento no se han realizado aproximaciones. La Ec. (22.10) es totalmente equiva-
lente a la ecuación de Schrödinger, al igual que la ecuación (22.5). Sin embargo, la Ec. (22.10) tiene la ventaja con
respecto a (22.5) de que para los bn (t) esperamos un comportamiento suave. En consecuencia, se obtendrá una
mejor aproximación si tratamos los bn (t) perturbativamente (en lugar de los cn (t)). Por lo tanto, realizaremos
una expansión en potencias de λ de los bn (t)

X
bn (t) = b(0)
n (t) + λb(1)
n (t) + λ2 b(2)
n (t) + ... = λq b(q)
n (t) (22.11)
q=0

sustituyendo la expansión (22.11) en (22.10) tenemos


 
∞ ∞
d X q (q) X
cnk (t) 
X (p)
i~ λ bn (t) = λ W λp bk (t) eiωnk t
dt
q=0 k p=0

X (q) ∞
XX
dbn (t) cnk (t) λp+1 b(p) (t) eiωnk t
i~ λq = W k
dt
q=0 k p=0

donde hemos usado el hecho de que λ no depende del tiempo. Reasignando q ≡ p + 1 en el lado derecho de esta
ecuación se obtiene

X (q) XX ∞
q dbn (t) cnk (t) λq b(q−1) (t) eiωnk t
i~ λ = W k
dt
q=0 k q=1
22.1. SOLUCIÓN PERTURBATIVA DE LA ECUACIÓN DE SCHRÖDINGER DEPENDIENTE DEL TIEMPO525

e igualando potencias de λ encontramos


(0)
dbn (t)
i~ = 0 (22.12)
dt
(q) X
dbn (t) cnk (t) b (q−1)
i~ = eiωnk t W k (t) ; q≥1 (22.13)
dt
k

vemos entonces que a partir de la solución a orden cero Ec. (22.12) y las condiciones iniciales, la relación de
recurrencia (22.13) nos permite obtener la solución a primer orden, luego de lo cual la recurrencia (22.13) nos
permite obtener la solución de segundo orden con base en la solución de primer orden. En general, la recurrencia
(22.13) nos permite obtener la solución de orden q con base en la solución de orden q − 1.

22.1.1. Estado del sistema a primer orden en λ


Asumiremos que el estado es |ϕi i para todo t < 0. En tal caso, la solución (22.6) es válida para t < 0, por
tanto se tiene que
bn (t) = δni para t < 0
en t = 0 se “enciende” la perturbación λW c de modo que el potencial es discontı́nuo en t = 0. No obstante, puesto
c
que λW permanece acotado (y por tanto el potencial total), la solución de la ecuación de Schrödinger es contı́nua
en t = 0 (ver discusión en la sección 3.5.1, Pág. 167), de lo cual se sigue que
bn (t = 0) = δni
y puesto que esta relación es válida para todo λ, los coeficientes de la expansión (22.11) deben cumplir la relación
b(0)
n (t = 0) = δni , b(q)
n (t = 0) = 0 ; q≥1 (22.14)
(0)
La ecuación (22.12) nos dice que bn (t) es constante, por tanto
b(0)
n (t) = δni

que determina completamente la solución a orden cero. Como era de esperarse, esto nos indica que la solución a
orden cero coincide con |ϕi i. Ahora utilizamos la recurrencia (22.13) para evaluar la contribución a primer orden
(1) X
dbn (t) cnk (t) b (t) (0)
i~ = eiωnk t W k
dt
k
(1) X
dbn (t) cnk (t) δki
i~ = eiωnk t W (22.15)
dt
k
(1)
dbn (t) cni (t)
i~ = eiωni t W (22.16)
dt
que junto con las condiciones iniciales (22.14) nos da
Z
(1) 1 t iωni t′ c 
bn (t) = e Wni t′ dt′ (22.17)
i~ 0
y sustituyendo (22.17) en (22.7) obtenemos
Z t
e−iEn t/~ ′ 
cni t′ dt′
c(1)
n (t) = b(1)
n (t)
−iEn t/~
e = eiωni t W (22.18)
i~ 0
finalmente, sustituyendo (22.18) en (22.4) encontramos el estado |ψ (t)i a primer orden en λ
E X  Z t 
(1) (1) 1 X −iEn t/~ iωni t′ c ′
 ′
ψ (t) = cn (t) |ϕn i = e |ϕn i e Wni t dt (22.19)
n
i~ n 0
526 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

22.1.2. Probabilidad de transición a segundo orden en λ


De acuerdo con la expresión (22.3) y la definición (22.4) de los coeficientes de Fourier cn (t) tenemos que

Pif (t) = |cf (t)|2

por otro lado la Ec. (22.7) nos dice que bn (t) y cn (t) tienen el mismo módulo. En consecuencia
2
(0) (1) (2)
Pif (t) = |bf (t)|2 = bf (t) + λbf (t) + λ2 bf (t) + . . . (22.20)

donde hemos usado la expansión (22.11). De aquı́ en adelante asumiremos que los estados inicial |ϕi i y final
|ϕf i son diferentes. Por tanto nos enfocaremos solo en las transiciones inducidas por λW c (t) entre dos estados
(0)
estacionarios distintos de H0 . En este caso la Ec. (22.14) nos dice que bf (t) = 0, con lo cual la probabilidad de
transición (22.20) a segundo orden en λ nos da
2
(2) 2 (1)
Pif (t) = λ bf (t) ; i 6= f (22.21)

vemos que la primera contribución no trivial a Pif (t) es de segundo orden en λ dado que es un producto interno
al cuadrado4 . Sustituyendo (22.17) en (22.21) y reemplazando λW c (t) por W (t) resulta
Z
(2) 1 t iωf i t′  ′ 2
Pif (t) = 2 e Wf i t dt

(22.22)
~ 0

ya hemos dicho que para que la probabilidad de transición tenga sentido, debe ocurrir lo siguiente: (a) La per-
turbación debe “conectarse” en t = 0 y “desconectarse” en el tiempo t, y (b) En el tiempo t (justo después de
desconectar la perturbación) debemos realizar una medición de la energı́a para determinar si el sistema quedó
preparado en el estado |ϕf i. La Ec. (22.22) nos muestra que Pif (t) es proporcional al módulo al cuadrado de la
transformada de Fourier de la perturbación Wf i . La frecuencia angular con que se evalúa la transformada es la
frecuencia angular de Bohr Ec. (22.9) asociada a las energı́as Ei y Ef . Nótese que la probabilidad de transición a
segundo orden es cero si Wf i (t) es cero para todo t.
Si comparamos las Ecs. (22.10) con las Ecs. (22.15), vemos que la aproximación de primer orden en bn (t)
equivale a reemplazar en la sumatoria los bk (t) por sus valores iniciales bk (0) = δki . Por tanto, la aproximación
a primer orden para bn (t) será válida para tiempos suficientemente cortos de modo que bk (t) no haya variado
mucho con respecto a bk (0). Para valores suficientemente largos del tiempo esta condición puede violarse y en
general requeriremos tomar órdenes más altos en λ. De hecho tiempos muy largos podrı́an hacer que se pierda el
carácter perturbativo de W , en tal caso debemos recurrir a otros métodos.
Por otro lado, puede demostrarse que a primer orden en |ψ (t)i para tiempos t′′ mayores que t, la probabilidad
es la misma que para el tiempo t
(2)  (2)
Pif t′′ = Pif (t) si t′′ ≥ t (22.23)
para verlo observemos que si no se realiza una medición en el tiempo t, el estado evoluciona desde el estado inicial
|ψ (t)i hasta el estado final |ψ (t′′ )i bajo el Hamiltoniano H0 (ya que la perturbación ha sido desconectada). El
estado inicial (a primer orden en λ) viene dado por (22.19)
E X
(1)
ψ (t) = c(1)
n (t) |ϕn i
n

4
Nótese que si el estado inicial no es autoestado de H0 , o si consideramos el caso i = f , tendremos contribución a primer orden en
(0)
λ puesto que en tales casos bf (t) es diferente de cero y por tanto aparece contribución de primer orden en la Ec. (22.20) a través del
(0) (1)
producto cruzado entre bf (t) y λbf (t).
22.2. PERTURBACIONES SINUSOIDALES Y CONSTANTES 527

y como ahora el Hamiltoniano es independiente del tiempo podemos aplicar la ecuación (3.18) para la evolución
temporal del estado, donde t es el tiempo inicial y t′′ el tiempo final, de modo que
E X
(1) ′′  −iEn (t′′ −t)/~
ψ t = c(1)
n (t) |ϕn i e
n

de modo que la probabilidad de transición Pif (t′′ )


estará dada por
2
 E 2 X
(2) −iEn (t −t)/~
′′
Pif t′′ = hϕf ψ (1) t′′ = c(1)
n (t) hϕf |ϕn i e
n
2
X 2
(1) −iEn (t′′ −t)/~ (1) −iEf (t′′ −t)/~
= cn (t) δnf e = c
f (t) e

n

(2) (1) 2
Pif t′′ = cf (t) = Pif (t)

por tanto, esta probabilidad (a segundo orden en λ) solo es función del tiempo en el cual se desconecta la
perturbación, pero no es función del tiempo en el cual se mide la energı́a, siempre y cuando la medida sea
posterior a la desconexión de la perturbación.

22.2. Perturbaciones sinusoidales y constantes


Asumiremos que W (t) tiene la siguiente forma
c (t) = λW
W (t) = λW c sin ωt (22.24)
c (t) = λW
W (t) = λW c cos ωt (22.25)

donde Wc es un observable independiente del tiempo y ω una frecuencia angular constante. Este tipo de perturba-
ciones es frecuente en Fı́sica. Por ejemplo, puede describir un campo electromagnético monocromático externo de
frecuencia ω. Calcularemos la probabilidad de transición Pif (t) entre los estados |ϕi i y |ϕf i. Para una perturbación
de la forma (22.24) el elemento matricial Wf i (t) estarı́a dado por
c sin ωt |ϕi i = λ hϕf | W
Wf i (t) = λ hϕf | W c |ϕi i sin ωt
c 
cf i sin ωt = λWf i eiωt − e−iωt
Wf i (t) = λW (22.26)
2i
cf i un número complejo independiente del tiempo. Vamos a calcular la probabilidad de transición a orden
siendo W
2
λ . Sustituyendo (22.26) en (22.17) se obtiene
Z t Z t " #
1 ′  1 ′ cni 
W ′ ′

b(1)
n (t; ω) = eiωni t Wcni t′ dt′ = eiωni t eiωt − e−iωt dt′
i~ 0 i~ 0 2i
" #t
cni Z t h
W ′ ′
i cni ei(ωni +ω)t′
W ei(ωni −ω)t′
= − ei(ωni +ω)t − ei(ωni −ω)t dt′ = − −
2~ 0 2~ i (ωni + ω) i (ωni − ω)
0
" #
c
Wni 1 − e i(ω ni +ω)t 1−e i(ω ni −ω)t
b(1)
n (t; ω) = −
2i~ (ωni + ω) (ωni − ω)

y la probabilidad de transición se puede obtener de (22.21)



2 |W |2 1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t 2
(1) fi
Pif (t; ω) = λ2 bf (t; ω) = − (22.27)
4~2 (ωf i + ω) (ωf i − ω)
528 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

para una perturbación cosenoidal como la de la Ec. (22.25) se obtiene un resultado similar
2
|Wf i |2 1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t
P if (t; ω) = + (22.28)
4~2 (ωf i + ω) (ωf i − ω)
la perturbación cosenoidal (22.25) se vuelve constante cuando ω = 0. Por tanto, la probabilidad de transición para
perturbación constante se obtiene como caso especial de (22.28) cuando ω → 0
2   2
|Wf i |2 1 − eiωf i t 1 − eiωf i t |Wf i |2 1 − eiωf i t
P if (t; ω = 0) = + = 2
4~2 ωf i ωf i 4~2 ωf i
|Wf i |2
iωf i t 2 |Wf i |2 iωf i t
 
iωf i t ∗ |Wf i |2  
= 2 2 1 − e = 2 2 1 − e 1 − e = 2 2 1 − eiωf i t 1 − e−iωf i t
~ ωf i ~ ωf i ~ ωf i
2  2  
|Wf i | iωf i t −iωf i t
 |Wf i | |Wf i |2 (1 − cos ωf i t)
= 2− e +e = 2 2 [2 − 2 cos ωf i t] = 2 2 4
~2 ωf2 i ~ ωf i ~ ωf i 2
    
|Wf i |2 2 ωf i t |Wf i |2 sin (ωf i t/2) 2
= 4 sin =
~2 ωf2 i 2 ~2 ωf i /2
quedando finalmente para perturbación constante
 2
|Wf i |2 sin (ωf i t/2)
P if (t; ω = 0) = F (t, ωf i ) ; F (t, ωf i ) ≡ (22.29)
~2 ωf i /2
para interpretar las ecuaciones (22.27, 22.28, 22.29) vamos a considerar dos casos: (i) cuando |ϕi i y |ϕf i son
dos niveles discretos y (ii) cuando |ϕf i pertenece a un conjunto contı́nuo de estados. En el primer caso Pif (t; ω)
realmente representa una probabilidad de transición que se puede medir. En el segundo caso, Pif (t; ω) representa
una densidad de probabilidad y las cantidades que se pueden medir involucran una integración sobre cierto conjunto
de estados finales.

22.3. Perturbación senoidal entre dos estados discretos: resonancias


Para la probabilidad de transición Pif (t; ω) entre dos estados discretos |ϕi i y |ϕf i, consideraremos a t como
parámetro fijo y estudiaremos su comportamiento con la variable ω. Asumiremos que ω ≥ 0, y estudiaremos el
caso en el cual ωf i > 0, el caso de ωf i < 0 se puede realizar con un proceso análogo. La idea es encontrar el valor
de ω para el cual Pif (t; ω) es máximo, es decir buscaremos las resonancias en la probabilidad.
Para encontrar las resonancias observamos que las Ecs. (22.27, 22.28) constan del módulo al cuadrado de la
suma de dos números complejos

|Wf i |2 2 |Wf i |2
Pif (t; ω) = |A + − A− | ; P if (t; ω) = |A+ + A− |2 (22.30)
4~2 4~2
1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t
A+ ≡ ; A− ≡ (22.31)
(ωf i + ω) (ωf i − ω)
usando la identidad h i
1 − eix = eix/2 e−ix/2 − eix/2 = −2ieix/2 sin [x/2]
las cantidades A± dadas en (22.31), se pueden escribir en la forma
sin [(ωf i + ω) t/2]
A+ (ω) = −iei(ωf i +ω)t/2 (22.32)
(ωf i + ω) /2
sin [(ωf i − ω) t/2]
A− (ω) = −iei(ωf i −ω)t/2 (22.33)
(ωf i − ω) /2
22.3. PERTURBACIÓN SENOIDAL ENTRE DOS ESTADOS DISCRETOS: RESONANCIAS 529

El denominador de A− se anula para ω = ωf i , y el denominador de A+ se anula para ω = −ωf i , y dado que el


módulo del numerador de ambos está acotado, tendremos que para ω cercano a ωf i solo será importante el término
A− . Por esta razón llamamos a A− el término resonante y a A+ el término anti-resonante. Consideraremos
el caso en el cual
|ω − ωf i | ≪ |ωf i | (22.34)
despreciando el término anti-resonante A+ (discutiremos la validez de esta aproximación en la sección 22.3.2), las
Ecs. (22.30, 22.33) nos dan
2
|Wf i |2 2 |Wf i |2
i(ωf i −ω )t/2 sin [(ωf i − ω) t/2]
Pif (t; ω) = P if (t; ω) = |A− | = −ie
4~ 2 4~ 2 (ωf i − ω) /2

|Wf i |2 sin [(ω − ωf i ) t/2] 2

Pif (t; ω) = P if (t; ω) = F (t, ω − ωf i ) ; F (t, ω − ωf i ) ≡ (22.35)
4~2 (ω − ω ) /2 fi

de modo que en la aproximación (22.34), la probabilidad tiene el mismo comportamiento en el caso senoidal y
cosenoidal. La Fig. 22.1 muestra el comportamiento de Pif (t; ω) con ω para tiempo fijo. Esta figura muestra el
comportamiento resonante de la transición de probabilidad. La resonancia ocurre para ω = ωf i (i.e. en la frecuencia
angular de Bohr asociada a los estados final e inicial) en cuyo caso la probabilidad es5

|Wf i |2 2
Pifmax (t; ω) = Pif (t; ωf i ) = t (22.36)
4~2
a medida que nos alejamos de ωf i en cualquier dirección, la probabilidad decrece alcanzando el valor cero cuando
se cumple la condición

|ω − ωf i | =
t
h i
cuando continuamos aumentando |ω − ωf i |, la probabilidad oscila entre |Wf i |2 / ~2 (ω − ωf i )2 y cero mostrando
un “patrón de difracción”.
Dado que hemos asumido que ωf i > 0, la relación (22.9) nos indica que Ef > Ei . Por tanto, en presencia de
la perturbación el sistema parte de un estado Ei de menor energı́a y termina en un estado Ef de mayor energı́a
en virtud de la absorción resonante de un cuanto de energı́a ~ω.
El caso ωf i < 0, se puede resolver análogamente y corresponde al caso en el cual la perturbación resonante
genera el paso del sistema desde un nivel Ei más alto a un nivel Ef más bajo, acompañado por la emisión inducida
de un cuanto de energı́a ~ω. En este caso la resonancia se obtiene en ω → −ωf i .

22.3.1. Ancho de resonancia e incertidumbre energı́a tiempo


Ya hemos visto que el máximo absoluto de Pif (t) se obtiene cuando ω = ωf i y está dado por (22.36)

|Wf i |2 2
Pifmax (t; ω) = Pif (t; ωf i ) = t
4~2
es fácil ver que el primer máximo secundario se obtiene cuando
(ω − ωf i ) t 3π
=
2 2
y tiene el valor
|Wf i |2 2
Pifseg max
(t; ω) = t
9π 2 ~2
5
Nótese que la función F (t, ω − ωf i ) definida en (22.35) tiene una singularidad removible en ω = ωf i , de manera que la reemplazamos
por el lı́mite ω → ωf i , con lo cual obtenemos el comportamiento resonante (22.36).
530 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

Figura 22.1: Probabilidad de transición Pif (t; ω) a primer orden como función de ω para tiempo fijo. Aparece una
resonancia para ω ≃ ωf i proporcional a t2 . El ancho de la resonancia es inversamente proporcional a t.

de modo que al comparar los dos máximos se obtiene


Pifseg max
(t; ω) 4
= = 4. 5 %
Pifmax (t; ω) 9π 2

esto justifica el hecho de considerar que casi toda la probabilidad está en el intervalo comprendido entre los dos
primeros ceros de Pif (t) alrededor de ωf i . A su vez, esto hace razonable considerar ∆ω como la distancia entre
dichos ceros, por tanto

∆ω ≃ (22.37)
t
y vemos que el ancho disminuye al aumentar el tiempo de “encendido” de la perturbación. El resultado (22.37)
tiene cierta similaridad con la relación de incertidumbre entre tiempo y energı́a [ver sección 5.8.4, Ec. (5.77),
Pág. 230]. Supongamos que queremos medir la diferencia de energı́a Ef − Ei = ~ωf i aplicando una perturbación
senoidal cuya frecuencia angular ω podemos modular para encontrar la resonancia. De acuerdo con la Ec. (22.37),
si la perturbación actúa durante un tiempo t, la incertidumbre ∆E sobre la diferencia Ef − Ei será del orden de
4π~
∆E = ~ ∆ω ≃
t
de lo cual el producto de ∆E por el tiempo no puede ser menor que 4π~. Esta relación guarda cierta similitud con la
relación de incertidumbre energı́a-tiempo. No obstante, tal analogı́a debe tomarse con cuidado ya que en este caso,
el tiempo es una cantidad impuesta externamente por la perturbación y no corresponde a un tiempo caracterı́stico
de evolución del sistema libre [que es el caso de ∆t en la relación de incertidumbre (5.77)]. Adicionalmente, ∆E
es una incertidumbre asociada a una brecha de energı́a y no a un valor especı́fico de la energı́a.

22.3.2. Condiciones para la validez del método perturbativo


Para examinar la validez de los cálculos que nos llevaron a la Ec. (22.35) es necesario evaluar por un lado
la aproximación de resonancia que consistió en despreciar el término anti-resonante A+ , y por otro lado, la
aproximación perturbativa a primer orden en el estado (que corresponde a segundo orden en la probabilidad).
22.3. PERTURBACIÓN SENOIDAL ENTRE DOS ESTADOS DISCRETOS: RESONANCIAS 531

Aproximación de resonancia
Hemos despreciado A+ con respecto a A− bajo la hipótesis de que ω ≃ ωf i . Para justificarlo debemos comparar
los módulos de A± . El factor |A− (ω)|2 está relacionado con Pif (t) de la Ec. (22.35) por un factor constante [ya
que en la Ec. (22.35) se despreció A+ ], por tanto la forma de la curva que describe a |A− (ω)|2 es la mostrada en
la Fig. 22.1. Ahora bien, las Ecs. (22.32, 22.33) nos muestran que

|A+ (ω)|2 = |A− (−ω)|2 (22.38)

por lo tanto la curva de |A+ (ω)|2 es la “imagen especular” de la curva de |A− (ω)|2 con respecto al eje vertical
con ω = 0. Ambas curvas tienen el mismo ancho ∆ω. Para poder despreciar A+ en las vecindades de ω = ωf i ,
es claro que ambas curvas deben tener un traslapamiento despreciable. En otras palabras, la distancia entre los
centros ±ωf i de ambas curvas debe ser mucho mayor al ancho tı́pico ∆ω de éstas

2 |ωf i | ≫ ∆ω (22.39)

nótese que esta condición permite además despreciar el traslapamiento de modo que

|A+ (ω) ± A− (ω)|2 ≈ |A+ (ω)|2 + |A− (ω)|2

combinando (22.39) con (22.37) resulta


4π 2π 1
2 |ωf i | ≫ ⇒ t≫ =
t |ωf i | |νf i |
1 1
t ≫ ≃ =τ (22.40)
|νf i | ν

por tanto el resultado (22.35) es válido siempre y cuando la perturbación sinusoidal actúe un tiempo t largo
comparado con el periodo τ de la perturbación. Esto significa que la perturbación debe realizar muchas oscilaciones
para que la aproximación de resonancia sea válida. Si por ejemplo tomamos el otro extremo en el cual t ≪ 1/ν,
la perturbación dura un tiempo mucho menor que una oscilación y su comportamiento es prácticamente lineal en
el tiempo en el caso senoidal y prácticamente constante en el caso cosenoidal.
Nótese que para una perturbación constante nunca se satisface la condición (22.40) puesto que ω (y por
tanto ν) se hace nulo. Esto es de esperarse ya que las ecuaciones (22.32, 22.33) muestran que en este lı́mite
A+ = A− de modo que nunca podemos despreciar el término anti-resonante. En realidad en la expresión (22.29)
para perturbación constante, ambos términos fueron incluı́dos en el cálculo.
Si para una perturbación constante Ec. (22.29), hacemos una gráfica de Pif (t) versus la frecuencia de Bohr ωf i
con tiempo fijo (Fig. 22.2), vemos que esta probabilidad es máxima (resonante) cuando ωf i = 0, es decir cuando
los niveles están degenerados, y el valor de la probabilidad nos da

|Wf i |2 t2 4π
P if (t; ωf i = 0) = ; ∆ω ≃
~2 t
podemos decir también que la resonancia ocurre para el caso de conservación de la energı́a. Nótese que el ancho
de la curva es el mismo que en el caso senoidal pero el valor de la probabilidad es cuatro veces mayor. Esto se
debe a que para perturbación constante (ω = 0) tenemos que A+ = A− de modo que

|A+ + A− |2 = |2A− |2 = 4 |A− |2

en tanto que en el caso senoidal solo consideramos la contribución de |A− |2 . Puede verse sin embargo que los
perfiles de las figuras 22.1, 22.2 son muy similares y presentan los mismos rasgos generales. Debemos tener en
cuenta sin embargo que en la Fig. 22.1 se grafica con respecto a una variable externa ω, en tanto que en la Fig.
22.2 se grafica con respecto a una variable del sistema ωf i .
532 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

Figura 22.2: Probabilidad de transición Pif (t) versus la frecuencia angular de Bohr ωf i para tiempo fijo a pri-
mer orden con perturbación constante. Aparece una resonancia para ωf i = 0 proporcional a t2 . El ancho de la
resonancia es el mismo que en la Fig. 22.1, pero con una intensidad cuatro veces mayor.

Lı́mite al cálculo de primer orden para el estado


Ya habı́amos mencionado que el cálculo de primer orden falla cuando el tiempo que dura la perturbación se
hace muy largo (y de hecho podrı́a ser que el método perturbativo como tal no sea válido). Si tomamos la ecuación
(22.36) en la resonancia
|Wf i |2 2
Pif (t; ω = ωf i ) = t (22.41)
4~2
esta función tiende a infinito cuando t → ∞, lo cual es una contradicción puesto que una probabilidad debe ser
menor o igual que uno. En la práctica, para que el cálculo valga en la resonancia, es necesario que la probabilidad
en (22.41) sea mucho menor que uno, es decir
~
t≪ (22.42)
|Wf i |
En conclusión, para que nuestro cálculo a primer orden con la aproximación de resonancia sea válido, se necesita
un tiempo de conexión de la perturbación que sea “largo” en el sentido de la ecuación (22.40) y “corto” en el
sentido de la ecuación (22.42). Por tanto, la validez de este cálculo implica combinar ambas condiciones
~
τ ≪t≪ (22.43)
|Wf i |
la combinación entre las condiciones (22.40, 22.42) también conduce a la relación
1 ~
≪ ⇒ ~ |ωf i | ≫ |Wf i | (22.44)
|ωf i | |Wf i |
esta desigualdad implica que la diferencia de energı́as |Ef − Ei | = ~ |ωf i | es mucho mayor que el elemento de
matriz de W (t) entre los estados |ϕi i y |ϕf i. Condición similar a la que vimos para la teorı́a estacionaria de
perturbaciones (ver sección 20.3.2).
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONTÍNUO 533

Finalmente, el cálculo a órdenes superiores a partir de (22.13), muestra que la condición (22.42) es necesaria
pero no suficiente. Por ejemplo, la Ec. (22.13) muestra que a órdenes superiores aparecen elementos matriciales
Wkn diferentes a Wf i , sobre los cuales también hay que imponer condiciones para que la corrección se mantenga
pequeña.

22.4. Acoplamientos con estados del espectro contı́nuo


Puede ocurrir que el estado final pertenezca al espectro contı́nuo de H0 . En tal caso no podemos medir la
probabilidad de que el sistema quede en un estado bien definido |ϕf i con energı́a Ef . De acuerdo con el cuarto
postulado para el caso contı́nuo [ver Ec. 4.9, Pág. 198], la cantidad |hϕf |ψ (t)i|2 es una densidad de probabilidad.
Lo que se puede predecir y medir en este caso es la probabilidad de que al realizar la medición el sistema quede
dentro de cierto intervalo o “volumen” finito6 de estados finales. Por tanto, debemos realizar un proceso de
integración sobre el volumen dentro del cual se quiere evaluar la probabilidad.
Veremos primero un ejemplo concreto antes de abordar el caso general. Supongamos que una partı́cula de
masa m sin espı́n se dispersa en un potencial central W (R) (ver Capı́tulo 18). El estado |ψ (t)i de la partı́cula en
el tiempo t, se puede expandir en estados contı́nuos de momento bien definido {|pi} y energı́a
p2
E= (22.45)
2m
las funciones de onda asociadas son ondas planas [Ec. (1.182), Pág. 97]
 
1 3/2 ip·r/~
hr |pi = e (22.46)
2π~
la densidad de probabilidad asociada a la medida del momento para un sistema en el estado normalizado |ψ (t)i
está dada por |hp |ψ (t)i|2 . Un detector en un experimento de dispersión [por ejemplo el que se ilustra en la Fig.
18.5, Pág. 451], subtiende un ángulo sólido finito de apertura δΩf y emite una señal cuando el momento p de la
partı́cula está en una dirección dentro del ángulo sólido δΩf subtendido por el detector, y su energı́a está dentro de
un intervalo de energı́a δEf centrado en Ef = p2f /2m. Si denotamos por Df el dominio o “volumen en el espacio
de momentos” antes definido, la probabilidad de obtener una señal en el detector será
Z
δP (pf , t) = d3 p |hp |ψ (t)i|2 (22.47)
p∈Df

escribiremos el diferencial de volumen d3 p en el espacio de los momentos en coordenadas esféricas


d3 p = p2 dp dΩ (22.48)
es conveniente reemplazar las variables de momento por variables de energı́a, ya que las probabilidades de transición
que calcularemos solo tienen sentido si se mide el observable energı́a. Para ello sustituı́mos (22.45) en (22.48)
   r 
3 2 p2 dp d √ m
d p = p dp dΩ = 2m dE dΩ = 2mE 2mE dE dΩ = 2mE dE dΩ
2m dE dE 2E
h √ i
d3 p = m 2mE dE dΩ

de lo cual podemos definir una densidad de estados finales ρ (E), asociados a la energı́a E, en la forma

d3 p = ρ (E) dE dΩ ; ρ (E) = m 2mE (22.49)
y la probabilidad (22.47) queda en la forma
Z √
δP (pf , t) = dΩ dE ρ (E) |hp |ψ (t)i|2 ; ρ (E) = m 2mE
Ω∈δΩf , E∈δEf
6
Este es un intervalo o volumen generalizado, ya que la variable a medir puede no ser una variable de posición. Lo importante es
que la variable se defina con uno o mas rótulos contı́nuos que generen un conjunto continuo de estados.
534 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

22.4.1. El caso general


Supongamos que H0 posee ciertos autoestados rotulados con un conjunto de ı́ndices contı́nuos, y que el sistema
fı́sico está en el estado |ψ (t)i en el tiempo t. Queremos calcular la probabilidad δP (αf , t) de encontrar al sistema
en un cierto grupo de estados finales después de desconectar la perturbación y hacer una medición de la energı́a.
Caracterizaremos los autoestados contı́nuos de H0 con kets |αi ortonormales en el sentido generalizado

hα α′ = δ α − α′

donde α puede simbolizar varios ı́ndices contı́nuos. Al grupo de estados finales lo caracterizamos por un dominio
Df de valores de los parámetros α centrados en αf , y asumimos que sus energı́as forman un contı́nuo. Aplicando
los postulados de la mecánica cuántica obtenemos
Z
δP (αf , t) = dα |hα |ψ (t)i|2
α∈Df

en lugar de los ı́ndices α, usaremos un conjunto de ı́ndices que contengan a la energı́a como parte de sus variables

|αi → |β, Ei

donde los otros parámetros β son necesarios si H0 no forma por sı́ solo un C.S.C.O. Expresaremos entonces dα en
términos de dE y dβ, por medio de una función densidad ρ (β, E)

dα = ρ (β, E) dβ dE

si denotamos por δβf y δEf al rango de valores de los parámetros β y E definidos por Df , obtenemos
Z
δP (αf , t) = dβ dE ρ (β, E) |hβ, E |ψ (t)i|2 (22.50)
β∈δβf , E∈δEf

22.4.2. Regla de oro de Fermi


Al igual que en el estudio de transiciones entre dos estados discretos, asumiremos que el sistema está original-
mente en un autoestado de H0 bien definido |ϕi i. Por supuesto esto implica que |ϕi i debe pertenecer al espectro
discreto de H0 , pues de lo contrario, el sistema no podrı́a estar en ese estado bien definido.
Nótese que los cálculos de la sección 22.1, permanecen válidos para el caso de transición a un conjunto de
autoestados contı́nuos de H0 . La única diferencia es que la cantidad (22.3) que se calcula en dicha sección deja de
ser una probabilidad, para convertirse en una densidad de probabilidad. Si asumimos que la perturbación W es
constante, las Ecs. (22.29) nos dan la densidad de probabilidad que nos interesa
 
2 1 2 sin (ωi t/2) 2 E − Ei
|hβ, E |ψ (t)i| = 2 |hβ, E| W |ϕi i| F (t, ωi ) ; F (t, ωi ) ≡ , ωi ≡ (22.51)
~ ωi /2 ~

donde E y Ei son las energı́as en los estados |β, Ei y |ϕi i respectivamente. Sustituyendo (22.51) en la probabilidad
(22.50) tenemos
Z  
1 2 E − Ei
δP (ϕi , αf , t) = 2 dβ dE ρ (β, E) |hβ, E| W |ϕi i| F t, (22.52)
~ β∈δβf , E∈δEf ~

la notación δP (ϕi , αf , t) enfatiza el hecho de que esta probabilidad depende del estado inicial |ϕi i.
La figura 22.2, Pág. 532, muestra que la función F (t, ω) varı́a rápidamente alrededor de ωi = 0 i.e. alrededor de
E = Ei . Si t es suficientemente largo, esta función se puede aproximar dentro de factores constantes a δ (E − Ei ).
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONTÍNUO 535

Para verlo utilizamos el hecho de que una de las sucesiones que converge a la distribución delta de Dirac está dada
por
1 sin2 (nx)
lı́m = δ (x) (22.53)
n→∞ nπ x2
ası́ como la propiedad
1
δ (cx) = δ (x) (22.54)
|c|
aplicando las propiedades (22.53, 22.54) a la función F (t, ωi ) de la Ec. (22.51), obtenemos
ω   
1 sin2 [t (ωi /2)] i E − Ei
lı́m F (t, ωi ) = πt = πt δ = πt δ
t→∞ tπ (ωi /2)2 2 2~
 
E − Ei
lı́m F t, = 2π~t δ (E − Ei ) (22.55)
t→∞ ~

por otro lado, la función ρ (β, E) |hβ, E| W |ϕi i|2 generalmente varı́a de una manera mucho más suave que
F (t, ωi ) con respecto a E. Asumiremos que t es suficientemente grande para que la variación de esta función sobre
un intervalo de energı́a de ancho 4π~/t centrado en E = Ei , sea despreciable (es decir, sobre un intervalo de ancho
∆E asociado a ∆ω en una gráfica similar a la Fig. 22.2). La variación con la energı́a de ρ (β, E) |hβ, E| W |ϕi i|2
debe ser suficientemente pequeña para que existan valores de t que cumplan la anterior condición, pero además
la función como tal debe ser suficientemente pequeña para que el tratamiento perturbativo sobre W sea válido.
Asumiremos además que
4π~
δEf ≫ = ~ ∆ω
t
y que δβf es lo suficientemente pequeño para despreciar la variación del integrando con este parámetro. Bajo estas
aproximaciones podemos escribir
Z "Z #
2π~t
δP (ϕi , αf , t) ≃ dβ dE ρ (β, E) |hβ, E| W |ϕi i|2 δ (E − Ei )
~2 β∈δβf E∈δEf
Z h i
2πt
≃ dβ ρ (β, Ef = Ei ) |hβ, Ef = Ei | W |ϕi i|2
~ β∈δβf
2πt h i
≃ ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i|2 δβf (22.56)
~
debemos tener en cuenta sin embargo, que la delta de Dirac nos dice que esta integral se anula si la energı́a del
estado inicial Ei no pertenece al dominio de estados finales. El resultado final es entonces
( h i
2
δβf 2π
~ t ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i| si Ei ∈ δEf
δP (ϕi , αf , t) ≃ (22.57)
0 si Ei ∈
/ δEf
Lo cual concuerda con la discusión en la sección 22.3.2, según la cual, para una perturbación constante el com-
portamiento resonante (en el caso discreto) se obtiene cuando los niveles están degenerados Ei = Ef . En el caso
en que los estados finales están en el contı́nuo, una perturbación constante puede inducir transiciones solo entre
estados de la misma energı́a (dentro de una intervalo 2π~/t). Por esta razón la probabilidad de transición es cero
si Ei está fuera del dominio δEf .
La probabilidad (22.57), se incrementa linealmente con el tiempo7 , por tanto la probabilidad de transición
por unidad de tiempo definida por
d 2π h i
δW (ϕi , αf ) = δP (ϕi , αf , t) ≃ δβf ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i|2 (22.58)
dt ~
7
Naturalmente, esto no implica que la probabilidad pueda llegar a ser mayor que uno, ya que para estos rangos el cálculo perturbativo
ha perdido su validez.
536 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO

es independiente del tiempo. Introduciremos la densidad de probabilidad de transición por unidad de tiempo y
por unidad de “volumen” δβf , asociado a los parámetros remanentes

δW (ϕi , αf )
w (ϕi , αf ) = (22.59)
δβf

que de acuerdo con la Ec. (22.58) vienen dada por



w (ϕi , αf ) = |hβf , Ef = Ei | W |ϕi i|2 ρ (βf , Ef = Ei ) (22.60)
~
resultado conocido como regla de oro de Fermi.

22.4.3. Probabilidad de transición hacia el contı́nuo para perturbación senoidal


Sea W una perturbación senoidal de la forma (22.24) ó (22.25), que acopla un estado discreto |ϕi i con un
conjunto de estados contı́nuos |βf , Ef i con energı́as Ef cercanas a Ei + ~ω (siendo ω la frecuencia angular de la
perturbación). Comenzando con la Ec. (22.35) podemos realizar el mismo procedimiento de la sección 22.4.2, para
encontrar
π
w (ϕi , αf ) = |hβf , Ef = Ei + ~ω| W |ϕi i|2 ρ (βf , Ef = Ei + ~ω) (22.61)
2~

22.4.4. Dispersión y regla de oro de Fermi


Retomaremos el problema de la dispersión de una partı́cula por un potencial W (r). Asumamos que el estado
inicial del proyectil es un autoestado de momento

|ψ (t = 0)i = |pi i

y calcularemos la probabilidad de que la partı́cula incidente de momento pi se disperse dentro de un grupo de


estados de momento p definidos en un “volumen de momento” δpf centrado en pf , con la restricción |pi | = |pf |
(colisión elástica). En este caso la energı́a está determinada por el módulo del momento, de modo que los parámetros
β remanentes son los ángulos que determinan al vector p. En consecuencia, δβf ≡ δΩf es un ángulo sólido. La
regla de oro de Fermi (22.60) nos da la probabilidad w (pi , pf ) por unidad de tiempo por unidad de ángulo sólido
alrededor de p = pf


w (pi , pf ) = |hθf , ϕf ; |pf | = |pi || W |pi i|2 ρ (θf , ϕf ; |pf | = |pi |)
~
naturalmente el ket |θf , ϕf ; |pf |i es simplemente el ket |pf i, donde tendremos en cuenta la restricción |pi | = |pf |

w (pi , pf ) = |hpf | W |pi i|2 ρ (Ef = Ei ) (22.62)
~
Primero calculamos el elemento matricial hpf | W |pi i
Z

hpf | W (r) |pi i = d3 r d3 r′ hpf | ri hr| W r′ r′ |pi i


Z " 3/2 # " 3/2 #
1   1 ′
= d3 r d3 r′ e−ipf ·r/~ W (r) hr| r′ eipi ·r /~
2π~ 2π~
  Z
1 3 ′  
= d3 r d3 r′ eipi ·r /~ e−ipf ·r/~ W (r) δ r − r′
2π~
  Z
1 3 i
hpf | W (r) |pi i = d3 r W (r) e ~ (pi −pf )·r (22.63)
2π~
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONTÍNUO 537

utilizando la expresión (22.49) para ρ (E), ası́ como la Ec. (22.63), la expresión (22.62) queda en la forma
 6 Z 2
2π 1 i
( ) p
w (pi , pf ) = d r W (r) e ~ i f m 2mEi
3 p −p ·r
(22.64)
~ 2π~

nótese que la integral al lado derecho de esta ecuación es la transformada de Fourier del potencial W (r), evaluada
en p ≡ pi − pf .
Podemos observar que aquı́ se ha estudiado un proceso de transición entre un estado (bien definido) del contı́nuo
hacia un conjunto de estados en el contı́nuo. La regla de oro de Fermi se desarrolló para transiciones entre un
estado discreto hacia un conjunto de estados del contı́nuo. No obstante, a pesar de que el estado inicial (impropio)
|pi i no es normalizable (y por tanto no representa estrictamente un estado fı́sico) la expresión a la derecha de
(22.64) posee un valor finito. Es entonces de suponer que se puede obtener un resultado fı́sico razonablemente
acertado de este cálculo. Teniendo en cuenta la definición de sección eficaz diferencial de dispersión Ec. (18.3) Pág.
438, podemos obtener tal cantidad si dividimos la densidad de probabilidad w (pi , pf ) por la corriente incidente
de probabilidad Ji [asociada a |pi i, i.e. a una onda plana Ec. (18.33), Pág. 448]
      r
1 3 ~ki 1 3 |pi | 1 3 2Ei
Ji = = =
2π~ m 2π~ m 2π~ m

con lo cual la sección eficaz diferencial de dispersión queda


Z 2
w (pi , pf ) m2 3 i
(p −p ) ·r


D (Ω) = = 2 4 d r W (r) e ~ i f

Ji 4π ~

que es la expresión para dicha cantidad en la aproximación de Born, Ec. (18.68) Pág. 456.
Vemos entonces que la sección eficaz diferencial de dispersión se puede obtener de un formalismo dependiente
del tiempo como es la regla de oro de Fermi, a pesar de que el cálculo implica utilizar como estado inicial a un
estado impropio en lugar de un estado discreto.
Capı́tulo 23

Estructura fina e hiperfina del átomo de


Hidrógeno

Las interacciones más importantes en los átomos son las interacciones electrostáticas coulombianas. En el
capı́tulo 13, estudiamos al átomo de hidrógeno descrito por el Hamiltoniano

P2 q2 1 e2
H0 = + V (R) ; V (R) ≡ − =− (23.1)
2µ 4πε0 R R

donde el primer término representa la energı́a cinética del átomo en el sistema de referencia centro de masa siendo
µ la masa reducida del sistema. El potencial V (R) describe la energı́a de interacción electrostática entre el protón
y el electrón.
No obstante, en el Hamiltoniano (23.1) se han ignorado todos los efectos relativistas, esta aproximación está
bien justificada si tenemos en cuenta que en el modelo de Bohr la velocidad v asociada a la primera órbita n = 1
satisface la condición (2.18), Pág. 117
v e2 1
= ≡α= ≪1 (23.2)
c ~c 137
los efectos relativistas aparecen como acoples del espı́n del electrón y del protón con campos magnéticos y son
mucho menores que el efecto generado por la interacción electrostática. Sin embargo, dada la alta resolución
de los experimentos espectroscópicos estos efectos son observables. Por tanto, daremos cuenta de estos efectos
incluyéndolos en un término W en el Hamiltoniano

H = H0 + W

donde W es mucho más pequeño que H0 , razón por la cual podemos utilizar teorı́a estacionaria de perturbaciones
para el cálculo de estos efectos. Como resultado, surgirá la llamada “estructura fina” ası́ como la “estructura
hiperfina” de los niveles de energı́a. Estos desdoblamientos adicionales del átomo de Hidrógeno se han medido con
gran precisión. De hecho la estructura hiperfina del estado 1s del átomo de Hidrógeno es una de las cantidades
fı́sicas mejor medidas que existen. Los conceptos que se introducirán en este capı́tulo son fundamentales en Fı́sica
atómica.

23.1. El Hamiltoniano de estructura fina


El espı́n aparece de manera natural cuando establecemos una ecuación para el electrón que satisfaga los
postulados de la relatividad especial y de la mecánica cuántica. Esto nos conduce a la denominada ecuación de
Dirac, la cual genera los términos de la estructura fina y además predice la existencia del positrón (la antipartı́cula
del electrón).

538
23.1. EL HAMILTONIANO DE ESTRUCTURA FINA 539

En rigor, se debe plantear la ecuación de Dirac para un electrón sometido al potencial coulombiano V (r) creado
por el protón, considerando a este último como infinitamente pesado y por tanto fijo en un sistema coordenado
inercial. Después se analiza el lı́mite de bajas velocidades en el cual los efectos relativistas aparecen a primer orden
en v/c. Cuando se realiza este procedimiento, se encuentra que el estado electrónico se debe describir como un
espinor de dos componentes, con lo cual los operadores de espı́n S1 , S2 , S3 aparecen en forma natural.
En este contexto no estudiaremos la ecuación de Dirac, y nos limitaremos a escribir los primeros términos en
la serie de potencias en v/c de W junto con su interpretación

P2
H = me c2 + H0 + Wf ; Wf = Wmv + WSO + WD + . . . , H0 = + V (R) (23.3)
2me
P4 1 1 dV (R) ~2
Wmv = − ; WSO = L·S ; WD = ∇2 V (R) (23.4)
8m3e c2 2m2e c2 R dR 8m2e c2

los dos primeros términos corresponden a la autoenergı́a o energı́a en reposo del electrón me c2 y el Hamiltoniano
no-relativista H0 que se estudió en el capı́tulo 13. Los demás son términos relativistas que conducen a la estructura
fina del espectro.
Vale anotar que la ecuación de Dirac se puede resolver en forma exacta para un electrón inmerso en un
potencial coulombiano. Sin embargo, el uso de la teorı́a de perturbaciones (que es un método aproximado) permitirá
familiarizarnos con los procedimientos que se utilizan para átomos de muchos electrones, para los cuales no sabemos
como escribir la ecuación relativista asociada, ni tenemos soluciones exactas.

23.1.1. Orden de Magnitud de H0


Con el fin de comparar los términos perturbativos con el Hamiltoniano no perturbado H0 , es necesario calcular
el orden de magnitud de H0 numéricamente. Sin embargo, la comparación se facilita si escribimos dicho orden de
magnitud en términos de cantidades fı́sicas universales. Para el Hamiltoniano dado por (23.1)

P2 q2 1 e2
H0 = + V (R) ; V (R) ≡ − =−
2µ 4πε0 R R

el orden de magnitud de la energı́a cinética se puede extraer de (23.2)


2
P m2e v 2 me c2 2 me e4
≃ ≃ α = (23.5)
2µ 2me 2 2~2

el orden de magnitud de la energı́a potencial se puede obtener reemplazando R por el radio de Bohr, y utilizando
la Ec. (13.2), Pág. 357
e2 me e4
|V (R)| ≃ = (23.6)
a0 ~2

comparando (23.5) con (23.6) vemos que en orden de magnitud la energı́a cinética y potencial tienen valores
similares. Como nuestro propósito es solo comparar órdenes de magnitud, es razonable suponer que H0 tiene el
mismo orden de magnitud que la energı́a cinética y la potencial, escribiremos entonces
2
P 4 2
|H0 | ≈ ≈ |V (R)| ≈ me c2 α2 = me e = e ≈ 10eV (23.7)
2me ~2 a0

utilizaremos las aproximaciones (23.7) a nuestra conveniencia.


540 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

23.1.2. Término de corrección cinética Wmv


Si comenzamos con la expresión relativista de la energı́a de una partı́cula clásica de masa en reposo me y
momento p
s  2 "  2  4 #
p 2 p 2 1 p 1 p
E = c p2 + m2e c2 = me c 1 + = me c 1 + − + ...
me c 2 me c 8 me c
p2 p4
E = me c2 + − + ...
2me 8m3e c2
los dos primeros términos en la expansión de E en potencias de (p/me c)2 , corresponden a la energı́a en reposo y
el término cinético no relativista. El tercer término proporcional a p4 es la primera corrección relativista asociada
a la variación de la masa con la velocidad. Podemos evaluar el orden de magnitud relativo de esta contribución
tomando el cociente

Wmv p4 / 8m3e c2 p2 m2e v 2
≃ = =
H0 p2 / (2me ) 4m2e c2 4m2e c2
   2
Wmv 1 v 2 1 2 1 1
≃ ≃ α ≃ (23.8)
H0 4 c 4 4 137
donde hemos usado las aproximaciones (23.2, 23.7). En números se tiene que H0 ≃ 10eV de modo que Wmv ≃
10−3 eV .

23.1.3. Acoplamiento espı́n-órbita WSO


El electrón se mueve a una velocidad v = p/m, en el campo electrostático E creado por el protón. En el
sistema de referencia propio del electrón se observa movimiento del protón, lo cual genera (visto en el sistema
propio del electrón) un campo magnético B′ que a primer orden en v/c, está dado por
1
v×E B′ = − (23.9)
c2
y dado que el electrón posee un momento dipolar magnético intrı́nseco MS dado por
q
MS = S (23.10)
me
[ver Ec. (15.4), Pág. 389], éste interactúa con el campo magnético B′ . La energı́a de interacción asociada esta dada
por1
W ′ = −Ms · B′ (23.11)
de la Ec. (23.9) podemos escribir B′ en la forma
1 1 ∇V (r) 1 dV (r) r
B′ = − v × E = 2v × = me v ×
c2 c q me qc2 dr r
1 1 dV (r)
B′ = p×r
me qc2 r dr
cuantizando los observables en el campo y teniendo en cuenta que V (r) = −e2 /r, la energı́a de interacción queda
   
′ ′ q 1 1 dV (R) 1 1 dV (R)
W = −Ms · B = − S · 2
P×R = 2 2 S·L
me me qc R dR me c R dR
1 1 dV (R) e2 1
W′ = L · S = L·S
m2e c2 R dR m2e c2 R3
1
La energı́a potencial asociada a (23.11) es una extrapolación directa del análogo en electrodinámica clásica, según el cual la energı́a
de interacción de un sistema de cargas con momento magnético “orbital” M = qL/me está dado por W = −Ms ·B
23.1. EL HAMILTONIANO DE ESTRUCTURA FINA 541

vemos sin embargo de la Ec. (23.4), que el término WSO posee una corrección adicional con un factor de 1/2.
Este factor proviene del hecho de que el movimiento del electrón alrededor del protón no es rectilı́neo2 . El espı́n
del electrón rota con respecto a un sistema de referencia inercial, generando una precesión de Thomas. Tenemos
entonces el término de interacción espı́n-órbita dado por

1 1 dV (R) e2 1
WSO = 2 2
L · S = L·S (23.12)
2me c R dR 2me c R3
2 2

para estimar el orden de magnitud de este término, tenemos en cuenta que L y S son del orden de ~, y que R es
del orden del radio de Bohr a0 , de modo que

e2 ~2
WSO ≃ (23.13)
2m2e c2 a30

y al compararlo con |H0 | de la Ec. (23.7), se obtiene


  2
WSO ~2 e2 / 2m2e c2 a30 ~2 1 ~2 me e2
≃ = =
H0 e2 /a0 2m2e c2 a20 2m2e c2 ~2
 
WSO e4 α2 1 1 2
≃ = ≃ (23.14)
H0 2~2 c2 2 2 137

23.1.4. Término de Darwin


La ecuación de Dirac es local, puesto que la interacción entre el electrón y el campo de coulomb generado por
el núcleo depende de la posición del electrón r. Sin embargo, la aproximación no relativista en forma de expansión
en potencias de v/c, conduce a una ecuación no-local para el espinor de dos componentes que describe al estado
electrónico i.e. una ecuación en la cual la interacción entre el electrón y el campo es no-local. En esta ecuación el
electrón es afectado por todos los valores que toma el campo en un cierto dominio centrado en r, y cuyo tamaño
es del orden de magnitud
λC ~
λel ≃ = (23.15)
2π me c
siendo λC la longitud de onda de Compton del electrón [ver Ecs. (13.37, 13.38), Pág. 366].
Vamos a modelar en forma semi-cuantitativa esta interacción no-local. Asumamos que la energı́a potencial del
electrón en lugar de estar dada por V (r), está descrita por una expresión de la forma
Z
V = d3 ρ f (|ρ|) V (r + ρ) (23.16)

donde f (|ρ|) es una cantidad cuya integral es igual a la unidad, y que solo toma valores significativos dentro de
una esfera de radio λel ≃ ~/me c centrada en ρ = 0. Es decir, si integramos f (|ρ|) dentro de esta esfera el resultado
es casi la unidad3 .
Si asumimos que V (r) no posee una variación sensible en una distancia del orden de λel , podemos reemplazar
V (r + ρ) por V (r) dentro de la esfera en donde f (|ρ|) es significativa. Por tanto, podemos sacar el potencial
V (r) de la integral y la integral de f (|ρ|) es prácticamente la unidad. En este caso, la expresión (23.16) se reduce
a V (r).
2
La Ec. (23.9) es una transformación de la relatividad especial, de modo que solo es válida cuando el sistema de referencia S ′ se
mueve con velocidad constante con respecto a S.
3
El vector ρ es un vector posición definido tomando la posición r del electrón como el origen. Puede pensarse que dado el carácter
probabilı́stico de la mecánica cuántica, la interacción del protón no es con un electrón puntual sino con una nube electrónica centrada
en r, y con un radio caracterı́stico dentro del cual la probabilidad de encontrar al electrón es casi la unidad. En tal caso, es de esperarse
que la función de peso f (|ρ|) dada en la Ec. (23.16) corresponda a la densidad de probabilidad asociada a cada punto del espacio, y
esperamos que el máximo de esta función esté en ρ = 0.
542 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

Sin embargo, podemos obtener más información de (23.16) si expandimos V (r + ρ) en su serie de Taylor
alrededor de ρ = 0.
1
V (r + ρ) = V (r) + ρi ∂i V (r) + ρi ρj ∂i ∂j V (r) + . . .
2
con lo cual la expresión (23.16) queda
Z Z Z
1
V = V (r) d3 ρ f (|ρ|) + ∂i V (r) d3 ρ ρi f (|ρ|) + [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) + . . .
2
Z
1
V = V (r) + [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) + . . . (23.17)
2
donde hemos tenido en cuenta que ρi f (|ρ|) es una función impar que por tanto se anuları́a al integrar sobre una
esfera centrada en ρ = 0. Por tanto, el primer término no-local en la Ec. (23.17) es proporcional a las segundas
derivadas del potencial, y a la integral de f (|ρ|) por funciones cuadráticas en ρ integradas sobre el volumen. Como
la integración se hace desde |ρ| = 0 hasta |ρ| ≃ λel podemos asumir que el valor promedio de |ρ| es del orden de
λel /2, de modo que
Z   Z
1 1 2  λel 2 1 2 
[∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) ≃ ∇ V (r) d3 ρ f (|ρ|) ≃ ∇ V (r) λ2el
2 2 2 8
Z 2
1 ~
[∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) ≃ ∇2 V (r) (23.18)
2 8m2e c2
donde se ha usado la Ec. (23.15). Hemos llegado a la Ec. (23.18) por argumentos semi-cuantitativos, esta expresión
coincide sin embargo con la Ec. (23.4) que define al término de Darwin WD . Aplicando este término a V (r) = −e2 /r
tenemos que
2   2
2 ~ 2 1 2 ~
WD = −e ∇ = 4πe δ (R)
8m2e c2 R 8m2e c2
πe2 ~2
WD = δ (R) (23.19)
2m2e c2
donde hemos usado (18.50), Pág. 452. Tomando el promedio de este término en un estado atómico ψ (r) se obtiene
Z Z
πe2 ~2 πe2 ~2
hWD iψ = hψ| WD |ψi = ∗ 3
ψ (r) δ (r) ψ (r) d r = |ψ (r)|2 δ (r) d3 r
2m2e c2 2m2e c2
πe2 ~2
hWD iψ = 2 2
|ψ (0)|2 (23.20)
2me c
en consecuencia el término de Darwin solo afecta a electrones en el estado s (l = 0) que son los únicos para los
cuales ψ (0) 6= 0 (ver sección 13.6.1, Pág. 369). El orden de magnitud de |ψ (0)|2 se obtiene teniendo en cuenta
que la integral sobre la esfera de radio a0 centrada en r = 0, de la función de onda es aproximadamente la unidad
Z Z
2 2
|ψ (r)| dV ≃ |ψ (0)| dV ∼ |ψ (0)|2 a30 ∼ 1
V V
2 1
|ψ (0)| ∼ (23.21)
a30
sustituyendo (23.21) en (23.20) y usando la Ec. (2.21) Pág. 117 tenemos que
πe2 ~2 2 πe2 ~2 1 πe2 ~2 m3e e6 π 2 e
8
hWD iψ = |ψ (0)| ≃ = = m e c
2m2e c2 2m2e c2 a30 2m2e c2 ~6 2 ~4 c4
e8
hWD iψ ≃ me c2 = me c2 α4 (23.22)
~4 c4
23.2. ESTRUCTURA HIPERFINA 543

donde hemos usado (23.2). De la Ec. (23.7) tenemos que H0 ≃ me c2 α2 y por tanto
 2
WD 1
≃ α2 = (23.23)
H0 137

de las Ecs. (23.8, 23.14, 23.23) vemos que todos los términos de la estructura fina son unas 104 veces menores que
el Hamiltoniano no perturbado H0 que se trabajó en el capı́tulo 13.

23.2. Estructura hiperfina


Hasta el momento hemos considerado al protón como una partı́cula puntual de masa Mp y carga qp = −qe .
Sin embargo, el protón al igual que el electrón es una partı́cula de espı́n 1/2. Denotaremos como I al observable
de espı́n del protón. Tenemos entonces un momento magnético de espı́n del protón MI . No obstante, el factor
giromagnético es diferente al del electrón

gp µn qp ~
MI = I ; µn = , gp ≃ 5,585 (23.24)
~ 2Mp

debido a la presencia de la masa del protón en el denominador de (23.24), el magnetón nuclear de Bohr µn es
unas 2000 menor que el magnetón de Bohr electrónico µB . Aunque el momento angular del protón y el electrón
son iguales, el magnetismo nuclear es mucho menos importante que el electrónico debido a la gran diferencia de
masa. Por tanto, las interacciones magnéticas debidas al espı́n del protón I, son muy débiles y darán lugar a la
estructura hiperfina del átomo de Hidrógeno.
El electrón se mueve no solo en el campo electrostático del protón sino también en el campo magnético
generado por MI . Puesto que la estructura hiperfina es muy pequeña, podemos encontrarla usando la ecuación
(no-relativista) de Schrödinger. Cuando se introduce el potencial vectorial asociado al campo magnético generado
por MI , aparecen un conjunto adicional de términos dados por???
 
µ0 q 1 8π
Whf = − L · MI + 3 [3 (MS · n) (MI · n) − MS · MI ] + MS · MI δ (R) (23.25)
4π me R3 R 3

donde MS es el momento magnético de espı́n del electrón, y n el vector unitario que va desde el protón hacia
el electrón. Veremos que los términos Whf son mucho menores que los de Wf y de allı́ el término de estructura
hiperfina.

23.2.1. Interpretación de los términos en la estructura hiperfina


El primer término en (23.25) representa la interacción entre MI y el campo magnético

µ0 qL
Be =
4πme r 3
que actúa sobre el protón y que tiene como fuente a la carga electrónica en rotación.
El segundo término en (23.25) es la interacción dipolo-dipolo entre los momentos magnéticos nuclear y electróni-
co. Es decir, la interacción de MS con el campo magnético generado por MI , o vice versa.
El último término en (23.25) se conoce como término de contacto de Fermi, y surge de la singularidad
en r = 0 del campo creado por MI . En la realidad, el protón no es puntual y el campo magnético dentro del
protón no tiene la misma forma que el creado por MI (y que entra en la interacción dipolo-dipolo). El término
de contacto describe la interacción de MS con el campo magnético en el interior del protón. La función delta de
Dirac en este término revela que como su nombre lo indica, el término de contacto solo existe cuando las funciones
de onda del protón y del electrón se traslapan.
544 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

Considerando que todos los momentos angulares son del orden de ~, y usando las Ecs. (23.10, 23.24), el orden
de magnitud de los dos primeros términos en (23.25) viene dado por
  g µ
µ0 q µ0 q µ0 q p n
kWhf 1 k ≈ −
4π me R3 L · M
I . kLk kM I k = ~ I
4π me a30 4πme a30 ~
µ0 q µ0 q µ0 q q~
kWhf 1 k . 3 gp kµn k kIk = 3 gp ~ kµn k = 3 gp ~
4πme a0 4πme a0 4πme a0 2Mp
gp q ~ 2 2 µ0
kWhf 1 k . (23.26)
2 me Mp a30 4π

similarmente
µ0 1
kWhf 2 k ≈ {k3 (MS · n) (MI · n) − MS · MI k}
4π a30
µ0
. {3 (kMS k knk) (kMI k knk) + kMS k kMI k}
4πa30

µ0 µ0 µ0 q gp µn
≈ {3 kM k kM k + kM k kM k} = kM k kM k = S I
πa30 me
S I S I S I
4πa30 πa30 ~
µ0 q 2
gp µn µ0 q µ0 q q~ q 2 ~2 µ0
= ~ = ~g p kµ n k = ~g p = gp
πa30 me ~ πa30 me πa30 me 2Mp me Mp a30 2π
q 2 ~2 µ0
kWhf 2 k . 2gp (23.27)
me Mp a30 4π

de las ecuaciones (23.26, 23.27) tenemos entonces

5 q 2 ~2 µ0
kWhf 1 k + kWhf 2 k . gp
2 me Mp a30 4π

y usando las relaciones


1 2 q2
µ0 = ; e = (23.28)
ε0 c2 4πε0
junto con (23.59) obtenemos

5 ~2 q2 5 ~2 ~2  αm c 3
2 1 5 e
kWhf 1 k + kWhf 2 k . gp 3 2
= gp 2
e 3 = gp 2
α~c
2 me Mp a0 4πε0 c 2 me Mp c a0 2 me Mp c ~
5 me
kWhf 1 k + kWhf 2 k . gp me c2 α4
2 Mp

al compararlo con (23.13) vemos que estos términos son unas 2000 veces más pequeños que WSO . Similarmente,
el término de contacto de Fermi es unas 2000 veces menor que el término de Darwin Ec. (23.19) [ambos contienen
un factor δ (R)].

23.3. Estructura fina del nivel n = 2


En el capı́tulo 13, vimos que los niveles de energı́a del átomo de Hidrógeno solo dependen del número cuántico n,
cuando solo se considera la interacción electrostática. En particular, los estados 2s (n = 2, l = 0) y 2p (n = 2, l = 1)
poseen la misma energı́a dada por la Ec. (13.43), Pág. 367 con n = 2

EI 1
− = − µc2 α2 (23.29)
4 8
23.4. REPRESENTACIÓN MATRICIAL DE LA ESTRUCTURA FINA PARA EL NIVEL N = 2 545

cuando se ignora el espı́n, la subcapa 2s corresponde a un estado singlete (no degenerado), y la subcapa 2p
corresponde a un triplete asociado a los 3 valores propios diferentes de L3 , m = 1, 0, −1.
No obstante, la introducción del espı́n del electrón y del protón incrementa el grado de degeneración de los
niveles de energı́a. El nivel de degeneración de cada subcapa se multiplica por cuatro, puesto que S3 e I3 pueden
tomar cada uno dos valores diferentes mS = ±1/2, mI = ±1/2. En particular, una base posible para la subcapa
2s es  

n = 2; l = 0; mL = 0; mS = ± 1 ; mI = ± 1
2 2
de modo que la subcapa 2s es de dimensión cuatro. Para la subcapa 2p, una base posible es
 

n = 2; l = 1; mL = 1, 0, −1; mS = ± 1 ; mI = ± 1
2 2

de modo que la subcapa 2p es de dimensión doce. En consecuencia la dimensión del subespacio generado por n = 2
(grado de degeneración de E2 ) es 16.
De acuerdo con la discusión dada en la sección 20.4, debemos diagonalizar la matriz 16 × 16 que representa la
restricción de W al subespacio E2 , con el fin de calcular el efecto de tal perturbación. Asumiremos que el átomo
está aislado de modo que no intervienen campos eléctricos o magnéticos externos. En cuyo caso el Hamiltoniano
completo vendrá dado por
H = H0 + W = H0 + Wf + Whf

y puesto que Whf es unas 2000 veces menor que Wf , comenzaremos evaluando las correcciones de estructura fina
asociadas a Wf . Veremos que Wf remueve parcialmente la degeneración de grado 16 que posee el nivel n = 2,
generando la estructura fina. El Hamiltoniano Whf producirá una remoción adicional de la degeneración que
conduce a la estructura hiperfina. En las siguientes secciones realizaremos el cálculo de la estructura fina para
n = 2 y en la sección 23.9 se realizará el cálculo de la estructura hiperfina para n = 1. El procedimiento para
calcular la estructura fina e hiperfina de otros niveles es análogo.

23.4. Representación matricial de la estructura fina para el nivel n = 2


Veremos que las propiedades de los elementos matriciales de Wf (en la base de autoestados de H0 ), nos conduce
a una estructura diagonal por bloques de submatrices más pequeñas. Este hecho simplificará considerablemente
el cálculo de los valores y vectores propios en el subespacio E2 .
Comenzaremos caracterizando una serie de observables que conmutan con el Hamiltoniano Wf . En primer
lugar, las Ecs. (23.3, 23.4) muestran que Wf no depende del observable I (espı́n del protón). En consecuencia, Wf
conmuta con I. Por tanto, el teorema 1.68, Pág. 58, nos indica que los elementos matriciales que conectan a dos
estados diferentes de mI son nulos
 
′ ′ ′ 1
1
n; l ; mL ; mS ; mI = ± Wf n; l; mL ; mS ; mI = ∓ =0 (23.30)
2 2

de hecho, puesto que Wf no depende de I, podemos omitir este número cuántico en todos los cálculos que involucran
a la estructura fina Wf , multiplicando por 2 todo grado de degeneración que se obtenga. De esta forma la matriz
16 × 16 se desacopla en dos matrices 8 × 8 en la forma
 
(Wf )8×8 08×8
(Wf )16×16 = = (Wf )8×8 ⊗ I2×2 (23.31)
08×8 (Wf )8×8

donde hemos tenido en cuenta que además las submatrices 8 × 8 sobre la “diagonal” de (Wf )16×16 son idénticas.
546 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

Probaremos ahora que Wf conmuta con L2 . Para verlo, observemos que L2 conmuta con todas las componentes
de L, con R = |R| (ya que L2 solo actúa sobre variables angulares), con P2 4 , y con S (ya que L2 no depende de
variables de espı́n). En consecuencia, las Ecs. (23.3, 23.4) nos muestran que L2 conmuta con Wmv [el cual depende
2
de P2 ], con WSO (el cual depende de R, L y S) y con WD (que solo depende de R). De nuevo el teorema 1.68,
nos indica que elementos matriciales que involucran a valores propios diferentes de L2 se anulan5

′ ′
n; l ; mL ; m′S ; m′I Wf |n; l; mL ; mS ; mI i = 0 si l 6= l′ (23.32)
en particular estados asociados a las subcapas 2s y 2p corresponden a valores propios diferentes de L2 (0 y 2~2
respectivamente). Por tanto, los elementos matriciales de Wf que conectan a un estado 2s con un estado 2p
se anulan. En consecuencia, la matriz (Wf )8×8 representativa de Wf para el nivel n = 2, se desacopla en una
submatriz 2 × 2 asociada a la subcapa 2s y otra submatriz 6 × 6 asociada a la subcapa 2p.
   
Wf2s 02×6
(Wf )8×8 =  2×2    (23.33)
06×2 Wf2p
6×6

la matriz se ha diagonalizado en bloques de 2 × 2 y 6 × 6. La propiedad anterior también se puede ver del hecho de
que Wf es de paridad par. Para verlo, notemos que bajo paridad, ocurren los siguientes cambios en los observables
R → −R ; R → R, P → −P, P2 → P2 , L → L, S → S
y aplicando esta operación en las Ecs. (23.3, 23.4) vemos que Wf permanece invariante bajo paridad. Por tanto,
Wf no tiene elementos de matriz que conecten a un estado 2s con un estado 2p, puesto que estos estados tienen
paridades opuestas.

23.5. Cálculo de los términos cinético y de Darwin


Puede verificarse que los términos Wmv y WD conmutan con las componentes de L. Esto se puede ver teniendo
en cuenta que L actúa sobre variables angulares y conmuta con R y P2 . En consecuencia, los operadores Wmv y
WD son operadores escalares con respecto a las variables orbitales. Por tanto, los términos matriciales asociados
a los operadores Wmv y WD son nulos cuando dichos elementos de matriz están asociados a dos valores diferentes
de mL . Adicionalmente, la Ec. (23.4) muestra que Wmv y WD no dependen de S, por tanto las matrices que
representan a estos operadores son proporcionales a la identidad. Nótese que estas propiedades son válidas para
valores arbitrarios de n, l, m.
Por otro lado, puesto que ignoraremos el espı́n del protón, el subespacio asociado a 2s será de dimensión 2,
correspondiente a los valores posibles ms = ±1/2 de S3 . Ası́ mismo el subespacio asociado a 2p será de dimensión 6,
correspondiente a los valores posibles ms = ±1/2 de S3 , y m = 1, 0, −1 de L3 . Esto nos conduce a las submatrices
2 × 2 y 6 × 6 descritas en la Ec. (23.33).
En consecuencia, para las submatrices de dimensión 2 × 2 asociadas a los términos cinético y de Darwin en
(23.33) tenemos que
 
2s
 P4
Wmv 2×2 = hn = 2; l = 0; mL = 0| − 3 2 |n = 2; l = 0; mL = 0i · I2×2 (23.34)
8me c
 2 
2s
 ~ 2
WD 2×2 = hn = 2; l = 0; mL = 0| ∇ V (R) |n = 2; l = 0; mL = 0i · I2×2 (23.35)
8m2e c2
4
De la Ec. (12.29), Pág. 350, podemos ver que en la base {|ri} el operador P2 se escribe en la forma
 
~2 ~2 1 ∂ 2 L2
P2 = − ∇2 = − r −
2µ 2µ r ∂r 2 ~2 r 2
y teniendo en cuenta que L2 solo depende de variables angulares, se sigue que P2 conmuta con L2 .
5
Nótese que las Ecs. (23.30, 23.32) son válidas para cualquier valor de n y no solo para n = 2. Por tanto, es muy fácil extender los
argumentos anteriores para otros valores de n.
23.5. CÁLCULO DE LOS TÉRMINOS CINÉTICO Y DE DARWIN 547

donde la constante de proporcionalidad de la identidad para cada término está dada por elementos matriciales
puramente orbitales. Para el caso especı́fico de V (R) = −e2 /R, la Ec. (23.19) nos dice que (23.35) se convierte en

2s
 πe2 ~2
WD 2×2
= hn = 2; l = 0; mL = 0| δ (R) |n = 2; l = 0; mL = 0i · I2×2 (23.36)
2m2e c2

Similarmente, las submatrices de dimensión 6 × 6 asociadas a los términos cinético y de Darwin en (23.33)
vienen dadas por
 
2p
 P4
Wmv 6×6
= hn = 2; l = 1; mL | − 3 2 |n = 2; l = 1; mL i · I6×6 (23.37)
8m c
   2e 
2p ~ 2
WD = hn = 2; l = 1; mL | ∇ V (R) |n = 2; l = 1; mL i · I6×6
6×6 8m2e c2
  πe2 ~2
2p
WD = hn = 2; l = 1; mL | δ (R) |n = 2; l = 1; mL i · I6×6 (23.38)
6×6 2m2e c2

donde la identidad 6 × 6 se debe a que no hay acople entre los términos con mS 6= m′S o con mL 6= m′L . Las
Ecs. (23.34, 23.36) ası́ como las Ecs. (23.37, 23.38) nos indican que para calcular la contribución de los términos
cinético y de Darwin con V (R) = −e2 /R, bastará con calcular factores complejos de la forma

1
hWmv i = − hn, l, mL | P4 |n, l, mL i (23.39)
8m3e c2
πe2 ~2
hWD i = hn, l, mL | δ (R) |n, l, mL i (23.40)
2m2e c2

para calcular el término hWmv i escribimos


 2
P2 4 2 2 2 e2
H0 = + V (R) ⇒ P = 4me [H0 − V (R)] = 4me H0 +
2me R
 2 2 4

e e e
P4 = 4m2e H02 + H0 + H0 + 2
R R R

tomando el valor medio de P4 en un estado no perturbado |ϕn,l,m i del átomo de Hidrógeno se obtiene
 

4
e2 e2 e4
P = 4m2e hϕn,l,m | H02
+ H0 + H0 + 2 |ϕn,l,m i
R R R
 2 2 
e e e4
= 4m2e hϕn,l,m | En2 + En + En + 2 |ϕn,l,m i
R R R
"     #

4 1 1
P = 4m2e En2 + 2En e2 + e4 (23.41)
R n,l,m R2 n,l,m

sustituyendo (23.41) en (23.39) la cantidad hWmv i queda


"     #
1 1 1
hWmv in,l,m =− En2 + 2En e2 + e4 (23.42)
2me c2 R n,l,m R2 n,l,m

esta expresión es válida para todo n, l, m.


548 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

23.5.1. Cálculo de h1/Ri , h1/R2 i y h1/R3 i




2 . Para futuros propósitos también
De la Ec. (23.42)

vemos que debemos calcular las cantidades h1/Ri , 1/R
calcularemos 1/R3 [ver Ec. (23.69)]. Para ello debemos tener en cuenta que la función de onda del átomo de
Hidrógeno no perturbado, está dada por las Ecs. (13.41), Pág. 367
ϕn,l,m (r) = Rn,l (r) Ylm (θ, ϕ) (23.43)
las funciones radiales para las subcapas 1s, 2s y 2p están dadas por las Ecs. (13.48, 13.49), Pág. 367
 
r
R1,0 (r) = 2 (a0 )−3/2 e−r/a0 ; R2,0 (r) = 2 (2a0 )−3/2 1 − e−r/2a0 (23.44)
2a0
r
R2,1 (r) = (2a0 )−3/2 3−1/2 e−r/2a0 (23.45)
a0
puesto que los armónicos esféricos están debidamente normalizados, el valor medio hRq i para q entero (positivo o
negativo) se puede escribir como
Z Z
hRq in,l,m = ϕ∗n,l,m (r) r q ϕn,l,m (r) dV = Rn,l ∗ ∗
(r) Ylm (θ, ϕ) r q Rn,l (r) Ylm (θ, ϕ) r 2 dr dΩ
Z Z

= Rn,l (r) r q+2 Rn,l (r) dr ∗
Ylm (θ, ϕ) Ylm (θ, ϕ) dΩ

quedando finalmente Z ∞
hRq in,l,m = r q+2 |Rn,l (r)|2 dr (23.46)
0
válida para q positivo o negativo, siempre que la integral (23.46) sea convergente. Al sustituir (23.44, 23.45) en
(23.46) aparecen integrales de la forma
Z ∞
I (k, p) = r k e−pr/a0 dr (23.47)
0

donde p y k son enteros. Integrando por partes con u = r k y dv = e−pr/a0 dr, la integral (23.47) adquiere la forma
  Z
a0 −pr/a0 k ∞ ka0 ∞ k−1 −pr/a0
I (k, p) = − e r + r e dr
p 0 p 0
ka0
I (k, p) = I (k − 1, p) (23.48)
p
por recurrencia se obtiene
   2  
ka0 (k − 1) a0 a0 (k − 2) a0
I (k, p) = I (k − 2, p) = k (k − 1) I (k − 3, p)
p p p p
 3
a0
I (k, p) = k (k − 1) (k − 2) I (k − 3, p)
p
que para k entero positivo, claramente nos da
 k
a0
I (k, p) = k! I (0, p) (23.49)
p
a partir de la definición (23.47), la integral I (0, p) nos da
Z ∞  
−pr/a0 a0 −pr/a0 ∞
I (0, p) = e dr = − e
0 p 0
a0
I (0, p) = (23.50)
p
23.5. CÁLCULO DE LOS TÉRMINOS CINÉTICO Y DE DARWIN 549

y sustituyendo (23.50) en (23.49), la integral I (k, p) queda


 k+1
a0
I (k, p) = k! (23.51)
p
asignando q = −1 en (23.46), y utilizando (23.44), (23.47) y (23.51), se obtiene
  Z ∞ Z ∞
1 4 4 4  a0 2
= r |R1,0 (r)|2 dr = 3 re−2r/a0 dr = 3 I (1, 2) = 3
R 1s 0 a0 0 a0 a0 2
 
1 1
= (23.52)
R 1s a0
  Z ∞ Z ∞  
1 2 4 r 2 −r/a0
= r |R2,0 (r)| dr = 3 r 1− e dr
R 2s 0 8a0 0 2a0
Z ∞ 
1 −r/a0 r 2 −r/a0 r 3 −r/a0
= re − e + 2e dr
2a30 0 a0 4a0
 
1 1 1
= I (1, 1) − I (2, 1) + I (3, 1)
2a30 a0 4a20
 
1 2 1 3 1 4
= a − 2!a + 3!a
2a30 0 a0 0 4a20 0
 
1 1
= (23.53)
R 2s 4a0
  Z ∞ Z  2
1 1 1 ∞ r
= r |R2,1 (r)|2 dr = 3 r e−r/a0 dr
R 2p 0 8a0 3 0 a 0
Z ∞
1 1 1
= r 3 e−r/a0 dr = I (3, 1) = 3!a4
5
24a0 0 24a05 24a50 0
 
1 1
= (23.54)
R 2p 4a0
similarmente con q = −2 se obtiene
 
1 4 2
2
= 3 I (0, 2) = 2 (23.55)
R 1s a0 a0
   
1 1 1 1 1
2
= 3 I (0, 1) − I (1, 1) + 2 I (2, 1) = 2 (23.56)
R 2s 2a0 a0 4a0 4a0
 
1 1 1
= 5 I (2, 1) = (23.57)
R2 2p 24a0 12a20


es fácil ver que la expresión 1/R3 no tiene sentido para las subcapas 1s y 2s, puesto que la integral (23.46) serı́a
divergente. Para la subcapa 2p haciendo q = −3 en (23.46) y utilizando (23.45), tenemos
  Z ∞ Z ∞ 2
1 −1 2

−1

−3/2 −1/2 r −r/2a0
3
= r |R2,1 (r)| dr = r (2a0 ) 3 e dr
R 2p 0 0 a0
Z ∞
1
= r e−r/a0 dr
24a50 0
de lo cual se obtiene  
1 1 1
= 5 I (1, 1) = (23.58)
R3 2p 24a0 24a30
550 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

23.5.2. Cálculo de hWmv i


Es conveniente escribir las expresiones en términos de la constante de estructura fina α, usando las siguientes
relaciones
EI 1 ~
En = − 2 = − 2 α2 me c2 ; e2 = α~c ; a0 = (23.59)
n 2n αme c
Reemplazando (23.59) en (23.42) obtenemos
"       #
1 1 4 2 4 1 2 2 1 2 2 2 1
hWmv i = − α me c − 2 α me c (α~c) +α ~ c (23.60)
2me c2 4n4 2n2 R n,l,m R2 n,l,m

y usando (23.52, 23.55) en la Ec. (23.60) se obtiene hWmv i para la subcapa 1s (la cual requerimos para el cálculo
de estructura fina asociado a n = 1, de la sección 23.8)
   
1 1 4 2 4 1 2 2 1 2 2 2 2
hWmv i1s = − α me c − 2 α me c (α~c) +α ~ c 2
2me c2 4 2 a0 a0
    2 
1 1 4 2 4 1 2 2 αm e c 2 2 2 αme c
= − α me c − 2 α me c (α~c) + 2α ~ c
2me c2 4 2 ~ ~
5
hWmv i1s = − α4 me c2 (23.61)
8
similarmente, para las subcapas 2s y 2p se obtiene

13 4
hWmv i2s = − α me c2 (23.62)
128
7 4
hWmv i2p = − α me c2 (23.63)
384

23.5.3. El valor medio hWD i


De las Ecs. (23.36, 23.38) junto con la Ec. (23.20), este valor medio se puede escribir genéricamente en la forma

πe2 ~2 2 πe2 ~2 2
iEt/~
hWD in,l,m = hWD iψ = |ψ (0)| = ϕn,l,m (r = 0) e
2m2e c2 2m2e c2
~2
hWD in,l,m = 4πe2 |ϕn,l,m (r = 0)|2
8m2e c2

y recordando que la función de onda solo es no nula en el origen para l = 0 (ver sección 13.6.1, pág. 369), tenemos
que
~2
hWD in,l,m = 2 2
4πe2 |ϕn,0,0 (r = 0)|2 δl,0 (23.64)
8me c
con lo cual
hWD i2p = 0 (23.65)

para los niveles 1s y 2s, usando (23.43, 23.44, 23.59) y el hecho de que Y00 = 1/ 4π, la Ec. (23.64) nos da

~2 2 ~2 2 ~2 2
hWD i1s = 4πe2
|ϕn,0,0 (r = 0)| = 4πe2
|R1,0 (0) Y 00 | = e |R1,0 (0)|2
8m2e c2 8m2e c2 8m2e c2
~2 2 4 ~2 2 1 ~2  αm c 3 1
e
= 2 2
e 3 = 2 2
e 3 = 2 2
α~c = α4 me c2
8me c a0 2me c a0 2me c ~ 2
23.6. CÁLCULO DEL TÉRMINO DE ESPÍN-ÓRBITA WSO 551

de manera similar se calcula hWD i2s con lo cual obtenemos

~2 2 1
hWD i1s = 2 2
e |R1,0 (0)|2 = α4 me c2 (23.66)
8me c 2
~ 2 1
hWD i2s = e2 |R2,0 (0)|2 = α4 me c2 (23.67)
8m2e c2 16

23.6. Cálculo del término de espı́n-órbita WSO


El lector puede comprobar fácilmente que el término de espı́n-órbita (23.12) no conmuta con los operadores L3 ,
S3 . Por tanto, los elementos no-diagonales de las submatrices (23.33) son en general no nulos. En otras palabras,
el término espı́n-órbita puede inducir transiciones entre diferentes valores de los números cuánticos mL y mS . En
consecuencia, para el término de espı́n-órbita deben calcularse elementos matriciales de la forma


hWSO i = n, l, s, m′L , m′S (ξ (R) L · S) |n, l, s, mL , mS i (23.68)
e2 1
ξ (R) ≡ (23.69)
2me c R3
2 2

Utilizando la base {|r, εi} de posición y espı́n, podemos separar la parte radial de la parte angular y espinorial.
Se obtiene entonces


hWSO i = n, l, s, m′L , m′S (ξ (R) L · S) |n, l, s, mL , mS i


= hn, l| ⊗ l, s, m′L , m′S (ξ (R) L · S) [|n, li ⊗ |s, mL , mS i]


= hn, l| ξ (R) |n, li l, s, m′L , m′S ( L · S) |s, mL , mS i
 2 Z ∞ 
e 1 2 2



hWSO i = |R nl (r)| r dr l, s, m L , m S (L · S) |l, s, mL , mS i
2m2e c2 0 r 3
que se puede escribir en la forma


hWSO i = ξnl l, s, m′L , m′S (L · S) |l, s, mL , mS i (23.70)
Z ∞
e2 1
ξnl = 2 2
|Rnl (r)|2 dr (23.71)
2me c 0 r
Vemos entonces que el cálculo se separa en un término espı́n-angular y un término radial.

23.6.1. Cálculo del término espı́n-angular


Calcularemos primero los términos matriciales del operador L · S en la ecuación (23.70). La representación
matricial de este operador puede calcularse en diferentes bases. Una es la base de vectores propios comunes a L2 ,
S2 , L3 , S3
|l, s, mL , mS i (23.72)
o introduciendo el momento angular total
J=L+S (23.73)
podemos construir una base de vectores propios comunes a L2 , S2 , J2 y J3 , definida por6

|l, s, J, mJ i (23.74)

Por otro lado, se puede transformar de una base a la otra, utilizando los coeficientes de Clebsch-Gordan discutidos
en la sección 16.8.
6
Ambos conjuntos de operadores junto con H, forman un C.S.C.O.
552 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

Veremos que la base (23.74) es más apropiada para este problema debido a que el operador L · S es diagonal
en esta base. Por tanto, en lugar de los elementos matriciales (23.70) calcularemos elementos matriciales de la
forma



hWSO iJ = ξnl l, s, J ′ , m′J (L · S) |l, s, J, mJ i (23.75)

Para ver que L · S es diagonal en la base (23.74), elevamos al cuadrado la Ec. (23.73) teniendo en cuenta que
L y S conmutan

J2 = (L + S)2 = L2 + 2L · S + S2 ⇒
1 2 
L·S = J − L2 − S2 (23.76)
2

combinando (23.76) con el hecho de que los vectores (23.74) son autoestados propios de J2 , L2 , S2 se tiene que

1 2 
L · S |l, s, J, mJ i = J − L2 − S2 |l, s, J, mJ i
2
~2
L · S |l, s, J, mJ i = [J (J + 1) − l (l + 1) − s (s + 1)] |l, s, J, mJ i (23.77)
2

la ecuación (23.77) nos muestra que los autovalores de L · S (para l y s fijos) solo dependen de J pero no de mJ .
Usando (23.77) vemos que los términos matriciales en la base ortonormal (23.74) vienen dados por


~2

l, s, J ′ , m′J L · S |l, s, J, mJ i = [J (J + 1) − l (l + 1) − s (s + 1)] l, s, J ′ , m′J l, s, J, mJ i
2

~2
l, s, J ′ , m′J L · S |l, s, J, mJ i = [J (J + 1) − l (l + 1) − s (s + 1)] δJJ ′ δmJ ,m′J (23.78)
2

de modo que en la base acoplada este operador es diagonal. En el capı́tulo 16, sección 16.5.6, vimos las reglas de
adición del momento angular Ec. (16.56) Pág. 420, según la cual para dos momentos angulares caracterizados por
los números cuánticos l y s, el número cuántico J toma los posibles valores

J = l + s, l + s − 1, . . . , |l − s|

para l = 0, J solo toma el valor J = s. Por tanto, para l = 0, es claro que el término matricial (23.78) se anula7 .
En particular, para la subcapa 2s (en la cual l = 0) no hay contribución del término de espı́n-órbita

hWSO i2s = 02×2 (23.79)

en cuanto a la subcapa 2p (con s = 1/2, l = 1), los valores posibles de J son

1 3
J= ,
2 2

y el término matricial (23.78) nos da


   
1 ′ ′
1 ~2 11
l = 1; s = ; J ; mJ L · S l = 1, s = , J, mJ = J (J + 1) − δJJ ′ δmJ ,m′J (23.80)
2 2 2 4
7
Nótese que este resultado es válido para cualquier valor de n y s, solo depende de que l = 0.
23.6. CÁLCULO DEL TÉRMINO DE ESPÍN-ÓRBITA WSO 553

23.6.2. Cálculo del término radial


Puesto que el cambio de base antes mencionado solo involucra a las variables espı́n-ángulo, es claro que el
término puramente radial ξ2p no depende de la base usada. Como la contribución espı́n-angular se anula para la
subcapa 2s, calcularemos el término radial (23.71) solo para la subcapa 2p. Usando las expresiones (23.45, 23.47),
la ecuación (23.71) para n = 2, l = 1 queda
Z ∞ Z ∞ 2
e2 1 2 e2 1
−3/2 −1/2 r −r/2a0
ξ2p = |R21 (r)| dr = (2a0 ) 3 e dr
2m2e c2 0 r 2m2e c2 0 r a0
Z ∞ Z ∞
e2 1 1 r 2 −r/a0 e2
= e dr = re−r/a0 dr
2m2e c2 0 r 3 (2a0 )3 a20 48a50 m2e c2 0
e2
ξ2p = I (1, 1)
48a50 m2e c2
usando las relaciones (23.51, 23.59) nos queda
e2 e2 α~c
ξ2p = a2 = =  3
48a0 m2e c2 0
5 48a30 m2e c2 ~
48 αme c m2e c2
me c2 α4
ξ2p = (23.81)
48~2
con lo cual desaparecen las variables radiales.

23.6.3. Contribución espı́n-órbita completa para la subcapa 2p


Sustituyendo (23.80) y (23.81) en (23.70) con l = 1, s = 1/2 (para la subcapa 2p), y para los valores posibles
de J = 1/2, 3/2; las contribuciones no nulas en (23.70), es decir los términos diagonales vienen dados por
 
1 1 1 1 1
ξ2p l = 1; s = ; J = ; mJ L · S l = 1; s = ; J = ; mJ = −ξ2p ~2 = − me c2 α4
2 2 2 2 48
 
1 3 1 3 1 1
ξ2p l = 1; s = ; J = ; mJ L · S l = 1; s = ; J = ; mJ = ξ2p ~2 = me c2 α4
2 2 2 2 2 96
tenemos entonces que para l = 1, s = 12 se forman dos subespacios de E, asociados a J = 1/2 y a J = 3/2
respectivamente. Estos espacios son de dimensión 2J + 1 (número de valores posibles de mJ ) y por tanto son de
dimensión 2 para J = 1/2 y de dimensión 4 para J = 3/2. Denotaremos estos espacios por E (2p, J) con J = 1/2
y 3/2. Puesto que el operador L · S es diagonal en la base (23.74) y los elementos matriciales no dependen de mJ ,
vemos que dentro de cada subespacio E (2p, J) el operador L · S es proporcional a la identidad. Tenemos entonces
que la degeneración de orden 6 de la subcapa 2p es parcialmente removida por WSO , quedando una degeneración
de orden cuatro para J = 3/2 y una degeneración de orden 2 para J = 1/2. La textura matricial en la base
acoplada queda en la forma
  (1/2) 
 J W 2p
0  
2p  SO
2×2
2×4  1 2 4 −2I2×2 02×4
WSO =   (3/2)  = me c α (23.82)
6×6 2p 96 04×2 I4×4
04×2 WSO
4×4
   
1 3
E (2p) = E 2p, J = ⊕ E 2p, J =
2 2
la degeneración 2J +1 asociada a cada estado con J fijo, es una degeneración esencial relacionada con la invarianza
rotacional8 de Wf . Recordemos que para la subcapa 2s, J solo puede tomar el valor J = 1/2, y que no hay
contribución proveniente del término de espı́n-órbita.
8
Esta invarianza rotacional es en un sentido extendido ya que es con respecto al momento angular total J = L + S.
554 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

Puesto que hemos cambiado de base para calcular los elementos matriciales de la subcapa 2p, a priori parece
necesario cambiar de nuevo a la base (23.72) ya que fué en esta última en donde se calcularon los términos Wmv
y WD . Sin embargo, hemos visto que los operadores Wmv y WD son proporcionales a la identidad dentro del
subespacio E (2p)6×6 . La representación de todo operador proporcional a la identidad es la misma en todas las
bases. Por tanto, resulta más conveniente cambiar la representación matricial de WD y Wmv a la base (23.74), ya
que los elementos matriciales no cambian en lo absoluto.

23.7. Sı́ntesis de resultados sobre la estructura fina


Hemos visto que la base acoplada (23.74) es la más conveniente para describir la representación matricial de
Wf . En esta base, los números cuánticos de los cuales depende la energı́a son (n, l, J), el último número cuántico
lo introduce en el espectro la interacción espı́n-órbita. Para el nivel 2s, J = 1/2 en tanto que para 2p tenemos dos
valores J = 1/2, ó 3/2. El nivel asociado a un conjunto de valores (n, l, J) se denota agregando el sı́mbolo J a la
notación espectroscópica de la subcapa (n, l), en la forma:

nlJ

por ejemplo del nivel n = 2 del átomo de hidrógeno, surgen los siguientes niveles asociados a su estructura fina

2s1/2 , 2p1/2 , 2p3/2 (23.83)

la idea ahora es calcular las posiciones de los niveles (23.83) con respecto al nivel no perturbado. Puesto que todo
lo hemos escrito en términos de la constante de estructura fina α, es conveniente escribir los niveles no perturbados
en términos de tal parámetro, usando la Ec. (23.29)
1
En=2 ≡ E20 = − µc2 α2
8
Tomando las Ecs. (23.62, 23.67, 23.79) vemos que para la subcapa 2s la contribución de Wf nos da

13 4 1
hWf i2s = hWmv i2s + hWD i2s + hWSO i2s = − α me c2 + α4 me c2 + 0
128 16
y tomando las Ecs. (23.63, 23.65, 23.82), la contribución de Wf a los niveles 2p1/2 y 2p3/2 resultan

7 4 1
hWf i2p = hWmv i2p1/2 + hWD i2p1/2 + hWSO i2p1/2 = − α me c2 + 0 − me c2 α4
1/2 384 48
7 4 1
hWf i2p = hWmv i2p3/2 + hWD i2p3/2 + hWSO i2p3/2 =− α me c2 + 0 + me c2 α4
3/2 384 96
nótese que solo WSO es responsable de la separación entre 2p1/2 y 2p3/2 , ya que los términos cinético Wmv y de
Darwin WD no son sensibles al número cuántico J. Las correcciones de la estructura fina quedan finalmente
5 1
hWf i2s = hWf i2p1/2 = − me c2 α4 ; hWf i2p3/2 = − me c2 α4 (23.84)
128 128
las Ecs. (23.84) nos dicen que los niveles 2s1/2 , 2p1/2 , 2p3/2 se bajan en las cantidades dadas por

5
E2s1/2 − E20 = − me c2 α4
128
5
E2p1/2 − E20 = − me c2 α4
128
1
E2p3/2 − E20 = − me c2 α4
128
23.7. SÍNTESIS DE RESULTADOS SOBRE LA ESTRUCTURA FINA 555

Figura 23.1: Ilustración de la modificación del nivel n = 2 debido a la estructura fina en el átomo de Hidrógeno.
Se crean los subniveles 2s1/2 , 2p1/2 y 2p3/2 . Los dos primeros poseen la misma energı́a dentro del presente cálculo.
Sin embargo, estos dos niveles poseen una ligera diferencia conocida como corrimiento Lamb, cuya explicación
requiere el empleo de la electrodinámica cuántica.

vemos entonces que todos los niveles se bajan con respecto al nivel n = 2 no perturbado. La brecha entre el nivel
no perturbado y el nivel 2p3/2 es 5 veces menor que la brecha asociada a los otros niveles. Nótese que los niveles
2s1/2 y 2p1/2 poseen la misma energı́a. En el marco de la presente teorı́a esta es una degeneración accidental, en
contraste con la degeneración 2J + 1 de cada nivel J, la cual se considera esencial. Esta situación se describe en
la Figura 23.1
Una evidencia experimental interesante de la existencia de la estructura fina es la observación de que la lı́nea
espectral α de Lyman que da cuenta de la transición 2p → 1s, realmente contiene dos lı́neas cuya brecha es muy
similar 2p1/2 → 1s1/2 y 2p3/2 → 1s1/2 , tales lı́neas están separadas por una brecha de energı́a dada por
    4
∆E = E2p1/2 − E1s1/2 − E2p3/2 − E1s1/2 = E2p1/2 − E2p3/2 = me c2 α4
128
1
∆E = me c2 α4
32
por tanto se puede observar que se emiten fotones de dos energı́as diferentes (aunque muy cercanas) en la serie de
Lyman. Vale decir que la subcapa 1s solo admite el valor J = 1/2, y por tanto Wf no desdobla este nivel. Cuando
la transición se da entre niveles excitados hay que tener en cuenta el desdoblamiento tanto de la subcapa inicial
como de la subcapa final.
Ya hemos mencionado que la ecuación de Dirac para una partı́cula bajo potencial Coulombiano puede resolverse
en forma exacta. Dicha solución exacta nos da la energı́a de un nivel caracterizado por los números cuánticos
n, l, s, J, y se obtiene
  s −2 − 21
2
1 1
En,J = me c2 1 + α2 n − J − + J+ − α2   (23.85)
2 2

esto nos muestra que para n dado, dos niveles con el mismo J tienen la misma energı́a, como lo vimos con los
niveles 2s1/2 y 2p1/2 . Vemos por tanto, que este resultado no solo serı́a válido a primer orden en Wf sino a todos
los órdenes. Además se observa que la energı́a depende de n, J pero no de l. Una expansión en potencias de α de
556 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

la expresión exacta (23.85), nos da


 
1 1 me c2 n 3
En,J = me c2 − me c2 α2 2 − − α4 + . . .
2 n 2n4 J + 1/2 4

donde el primer término es la autoenergı́a del electrón, el segundo término es el nivel “no perturbado” de un
electrón en el átomo de Hidrógeno, y el tercer término es la contribución de primer orden en Wf .
Puede demostrarse que incluso en ausencia de un campo externo o de fotones incidentes, debe considerarse
la existencia de un campo electromagnético fluctuante cuyo origen está en la naturaleza cuántica del campo9 . El
acople del átomo con estas fluctuaciones del campo electromagnético remueve la degeneración entre los niveles 2s1/2
y 2p1/2 , elevando ligeramente al primero con respecto al segundo, por una cantidad conocida como corrimiento
Lamb, que es del orden de 1060M Hz. El estudio de este fenómeno permitió el desarrollo de la electrodinámica
cuántica.

23.8. La estructura fina para n = 1


Para la subcapa 1s no hay degeneración orbital ya que l = 0. Puesto que S3 e I3 pueden tomar cada uno los
valores ±1/2, la degeneración del nivel 1s es de orden 4. Una posible base para esta subcapa está dada por
 

n = 1; l = 0; mL = 0; mS = ± 1 ; mI = ± 1
2 2

veremos que a diferencia de lo que ocurre para el nivel n = 2, el término Wf no remueve la degeneración del
nivel n = 1, i.e. de la subcapa 1s. Los términos Wmv y WD no actúan sobre las variables de espı́n. Por tanto, su
representación matricial es proporcional a la identidad 4 × 4. Por otro lado, aplicando los argumentos de la sección
23.6.1, vemos que la contribución del término espı́n-órbita es cero debido a que l = 0. Puede verificarse que

5 1
hWmv i1s = − me c2 α4 I4x4 ; hWD i1s = me c2 α4 I4x4 ; hWSO i1s = 04×4
8 2
en conclusión, la corrección Wf no desdobla al nivel n = 1, solo se corre el nivel como un todo en una cantidad
dada por
1
hWf i1s = hWmv i1s + hWD i1s + hWSO i1s = − me c2 α4
8
esto también se puede ver teniendo en cuenta que con n = 1, solo es posible que l = 0 y que J = 1/2. Por tanto
Wf solo genera un nivel de estructura fina 1s1/2 .

23.9. Estructura hiperfina para n = 1


Aunque se puede calcular la estructura hiperfina para n = 2, es más fácil medir experimentalmente la estructura
hiperfina para n = 1, debido a que para este nivel no hay desdoblamiento asociado a la estructura fina, sino solo
un corrimiento global del nivel. Por tanto, para n = 1 el desdoblamiento del espectro se debe solo a la estructura
hiperfina.
Puesto que n, l y mL son fijos en el proceso, una base adecuada será
 
1 1
|n, l, mL , mS , mI i ; n = 1, l = mL = 0 ; mS = ± , mI = ±
2 2
9
Nosotros hemos usado una “aproximación semi-clásica” en la cual las partı́culas (electrones) se trabajan como entidades cuánticas
pero los campos se tratan como entidades clásicas. En general, tanto las partı́culas como los campos son de naturaleza cuántica.
23.9. ESTRUCTURA HIPERFINA PARA N = 1 557

Retomando entonces el Hamiltoniano (23.25) asociado a la estructura hiperfina


 
µ0 q 1 8π
Whf =− 3
L · MI + 3 [3 (MS · n) (MI · n) − MS · MI ] + MS · MI δ (R) (23.86)
4π me R R 3

el primer término incorpora productos internos de la forma




hL · MI i = n = 1, l = 0, mL = 0, m′S , m′I Lk MkI |n = 1, l = 0, mL = 0, mS , mI i


= hn = 1, l = 0, mL = 0| Lk |n = 1, l = 0, mL = 0i m′S , m′I MkI |mS , mI i

donde el producto interno orbital está dado por

1
hLk in,l,mL = hn, l, mL | (L+ ± L− ) |n, l, mL i = 0 ; k = 1, 2
2
hL3 in,l,mL = mL hn, l, mL | n, l, mL i = mL = 0

que se anulan en virtud de que l = mL = 0. Puede demostrarse además, que los términos asociados a la interacción
dipolo-dipolo son cero en virtud de la simetrı́a esférica del estado 1s ???.
Por tanto, la única contribución no nula es la debida al término de contacto. Para dicho término se debe
calcular el elemento matricial
2µ0

hWhf i1s = − n = 1; l = 0; mL = 0; m′S ; m′I MS · MI δ (R) |n = 1; l = 0; mL = 0; mS ; mI i (23.87)
3
esta base expande un subespacio de 4 dimensiones asociado a la degeneración del nivel 1s, que denotaremos por
E1s , la identidad en dicho subespacio está dada por

1/2 1/2
X X
11s = |n = 1; l = 0; mL = 0; mS ; mI i hn = 1; l = 0; mL = 0; mS ; mI |
mS =−1/2 mI =−1/2

para calcular el elemento matricial (23.87), observamos que MS · MI solo actúa sobre los grados de libertad de
espı́n, en tanto que δ (R) solo actúa sobre grados de libertad orbitales. Adicionalmente, los kets en (23.87) pueden
escribirse como el producto tensorial de un ket orbital y un ket de espı́n. La Ec. (23.87) queda entonces

2µ0 

hWhf i1s = − hn = 1; l = 0; mL = 0| ⊗ m′S ; m′I {MS · MI δ (R)} [|n = 1; l = 0; mL = 0i ⊗ |mS ; mI i]
3
2µ0

hWhf i1s = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I {MS · MI } |mS ; mI i
3
aplicando (23.10, 23.24) se obtiene
   
2µ0
q gp qp
hWhf i1s = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I S · I |mS ; mI i
3 me 2Mp
µ0 qqp gp

hWhf i1s = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I {S · I } |mS ; mI i
3me Mp

teniendo en cuenta que µ0 = 1/ ε0 c2 , y que qp = −q (el protón tiene la carga opuesta al electrón) nos queda
finalmente

q 2 gp
hWhf i1s = R m′S ; m′I S·I |mS ; mI i ; R ≡ hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i (23.88)
3ε0 c2 me Mp
558 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

23.9.1. Cálculo del factor orbital R para Whf


Calculamos primero el factor R definido en (23.88)
Z
q 2 gp q 2 gp q 2 gp
R ≡ 2
ϕ∗1,0,0 (r) δ (r) ϕ1,0,0 (r) dV = 2
|ϕ1,0,0 (0)|2 = |R1,0 (0)|2 |Y0,0 (0)|2
3ε0 c me Mp V 3ε0 c me Mp 3ε0 c2 me Mp
q 2 gp 1 q 2 gp   2 q 2 gp
2 −3/2 −r/a0
R = |R 1,0 (0)| = 2 (a0 ) e =
3ε0 c2 me Mp 4π 12πε0 c2 me Mp r=0 3πε0 c2 me Mp a30
 
q 2 gp 4 q 2 me cα3 3 4 2 me cα3 1 1 −3
R =  3 = gp µ = g p e +
~ 3 4πε0 Mp m2e ~3 3 Mp m2e ~3 me Mp
3πε0 c2 me Mp µcα
  
4 me cα3 1 me −3
R = gp (α~c) 1+
3 Mp m2e ~3 me Mp
 −3
4 me 1 me
R = gp 2
1+ me c2 α4 (23.89)
3 Mp ~ Mp

donde hemos usado (23.44).

23.9.2. Cálculo del factor de espı́n para Whf


Nos queda entonces calcular el elemento matricial asociado al espı́n en (23.88)


J ≡ m′S ; m′I S · I |mS ; mI i

El cálculo es muy similar al que se realiza para la corrección espı́n órbita L · S, ya que también se trata del
acoplamiento de dos momentos angulares (aunque en este caso, ambos momentos angulares son intrı́nsecos). Por
tanto podemos emular el razonamiento hecho en la sección 23.6. Al igual que en dicha sección, será conveniente
hacer un cambio de base. Los elementos matriciales para el operador S · I los hemos escrito en la base10


s = 1 ; I = 1 ; mS ; mI (23.90)
2 2

de estados propios comunes a S2 , I2 , S3 , I3 . Podemos introducir el momento angular intrı́nseco total11

F≡S+I (23.91)

para construir la base  



s = 1 ; I = 1 ; F ; mF ≡ {|F ; mF i} (23.92)
2 2
de autoestados comunes a S2 , I2 , F2 y F3 . Hemos abreviado la notación puesto que s, I no cambian en el proceso.
Dado que s = I = 1/2, el espı́n total F puede tomar dos valores

F = 0, 1

se puede pasar de una base a otra usando los coeficientes de Clebsch-Gordan discutidos en la sección 16.8. Como
en el caso de la sección 23.6 para el operador L · S, la base (23.92) es mejor que la base (23.90) para el cálculo de
10
Cuando consideramos el espı́n del protón y del electrón, el espacio de Hilbert de los estados será el producto tensorial del espacio
orbital Er con los estados espinoriales ES del electrón y EI del protón, i.e. E ≡ E r ⊗ ES ⊗ EI . Una base en tal espacio serı́a de la forma
{|r, εS , εI i}. En la Ec. (23.90) ya hemos desacoplado la parte orbital de modo que nos describe una base del espacio espinorial ES ⊗ EI .
11
El momento angular total es L + S + I. Sin embargo, en el estado base tenemos que l = 0 y el momento angular total es S + I.
23.9. ESTRUCTURA HIPERFINA PARA N = 1 559

los elementos matriciales de S · I, ya que en la base (23.92) la representación matricial es diagonal. Elevando al
cuadrado la expresión (23.91) y despejando S · I se tiene
F2 = S2 + I2 + 2S · I
1 2 
S·I = F − S2 − I2
2
al aplicar el operador S · I sobre un estado del tipo (23.92) tenemos
 
1 2 2 2
 ~2 3 3
S · I |F ; mF i = F − S − I |F ; mF i = F (F + 1) − − |F ; mF i
2 2 4 4
 
~2 3
S · I |F ; mF i = F (F + 1) − |F ; mF i
2 2
por tanto los estados |F ; mF i son vectores propios del operador S · I. Los valores propios de S · I solo dependen
de F y no de mF y están dados por
3
|F = 0; mF i → − ~2
4
~2
|F = 1; mF i →
4
los elementos matriciales son entonces
 

′ ′ ~2 3

F ; mF S · I |F ; mF i = δF ′ ,F δm′F ,mF F (F + 1) − ; F = 0, 1 (23.93)
2 2
por tanto, Whf remueve parcialmente la degeneración de orden 4 del estado 1s. Obteniéndose un nivel de degene-
ración de orden 3 para F = 1 y uno no degenerado para F = 0. La degeneración remanente de orden 2F + 1, es
de carácter esencial y está relacionada con la invarianza de Whf bajo una rotación del sistema total.
Ahora bien, el término R solo dependı́a de la parte orbital, de modo que su valor numérico no se altera por
el cambio de base (ya que este último solo involucra a la parte espinorial), y dado que las otras contribuciones
hiperfinas son nulas, no es necesario regresarnos a la base original.

23.9.3. Espectro hiperfino del nivel 1s


Como vimos en la Sec. 23.8, bajo el efecto del término Wf la energı́a del nivel 1s no se desdobla, pero si se
baja como un todo en una cantidad
f 0 me c2 α4
E1s = E1s −
8
si adicionamos el efecto de Whf , encontramos que el nivel 1s1/2 se desdobla en dos niveles hiperfinos. Para
caracterizarlos, sustituı́mos (23.93) en (23.88) para obtener
3
hWhf iF1s=0 = R hF = 0; mF | S · I |F = 0; mF i = − ~2 R
4
F =1 1 2
hWhf i1s = R hF = 1; mF | S · I |F = 1; mF i = ~ R
4
por tanto el nivel desdoblado con F = 0 está por debajo de 1s1/2 en una cantidad (3/4) ~2 R. El nivel desdoblado
con F = 1 está por encima de 1s1/2 en una cantidad (1/4) ~2 R. La brecha entre los niveles desdoblados de 1s1/2 es
~2 R. Estas caracterı́sticas se ilustran en la figura 23.2a.
Un análisis similar se puede realizar para la estructura hiperfina de los niveles 2s1/2 , 2p1/2 y 2p3/2 . Estos niveles
se desdoblan en niveles hiperfinos correspondientes a todos los valores permitidos de F
F = J + I, J + I − 1, . . . , |J − I|
para los niveles 2s1/2 y 2p1/2 , se tiene que J = 1/2, de modo que F = 0, 1. Para el nivel 2p3/2 tenemos que J = 3/2
y F toma los valores F = 2, 1. La figura 23.2b, muestra la estructura hiperfina asociada a n = 2.
560 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO

Figura 23.2: (a) Ilustración de la modificación del nivel 1s debido a la estructura fina e hiperfina en el átomo de
Hidrógeno. La estructura fina solo produce un corrimiento del nivel como un todo en una cantidad −me c2 α4 /8.
La estructura hiperfina desdobla el nivel corregido por la estructura fina en dos subniveles, por medio del número
cuántico F . (b) Estructura hiperfina asociada a n = 2.
Capı́tulo 24

Campos eléctricos y magnéticos externos


sobre el átomo de Hidrógeno: Efecto
Zeeman y efecto Stark

En el capı́tulo 23, estudiamos las correcciones al espectro del átomo de Hidrógeno debidas a los efectos relativis-
tas. Para este estudio el campo electrostático y los campos magnéticos considerados son internos. En este capı́tulo
estudiaremos el efecto de campos magnéticos y eléctricos externos sobre el espectro del átomo de Hidrógeno. El
efecto de un campo magnético uniforme externo sobre el espectro atómico se conoce como efecto Zeeman, en
tanto que el efecto debido a un campo eléctrico uniforme externo se conoce como efecto Stark.

24.1. Efecto Zeeman de la estructura hiperfina del estado base 1s


Asumiremos que el átomo está inmerso en un campo magnético externo estático y uniforme B0 = B0 u3 . Este
campo interactúa con los momentos magnéticos en el átomo debidos a los momentos angulares orbitales y de espı́n
q q qgp
ML = L ; MS = S ; MI = − I
2me me 2Mp

estas interacciones se incluyen en el Hamiltoniano como la energı́a de interacción entre el átomo y el campo B0
   
q q qgp q q qgp
WZ = −B0 · (ML + MS + MI ) = −B0 u3 · L+ S− I = −B0 L3 + S3 − I3
2me me 2Mp 2me me 2Mp
q q
= − B0 (L3 + 2S3 ) + gp B0 I3
2me 2Mp
q q
WZ = ω0 (L3 + 2S3 ) + ωn I3 ; ω0 ≡ − B0 , ω n ≡ gp B0 (24.1)
2me 2Mp

donde ω0 es la frecuencia de Larmor en el campo B0 . Al Hamiltoniano WZ se le conoce como Hamiltoniano de


Zeeman. Puesto que Mp ≫ me , se tiene que
|ω0 | ≫ |ωn | (24.2)
estrictamente, el Hamiltoniano de Zeeman contiene un término adicional (término diamagnético) cuadrático en
B0 . Sin embargo, este término no actúa sobre los espines y solamente corre el nivel 1s como un todo (ver sección
14.2.3, Pág. 378). Además el término es mucho menor en valor absoluto que los términos lineales en el campo.???
Estudiaremos el efecto de WZ sobre el estado base 1s del átomo de hidrógeno. Aún con campos muy intensos,
WZ es mucho menor que la distancia entre el nivel 1s y los otros niveles, de modo que su efecto se puede tratar
perturbativamente.

561
562 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO

El efecto de un campo magnético externo sobre los niveles de energı́a atómicos se conoce como efecto Zeeman.
Dependiendo de la intensidad del campo magnético, el Hamiltoniano WZ puede ser del orden de magnitud de la
estructura hiperfina o incluso mayor. En general, WZ puede ser mucho menor, del orden de, o mucho mayor que
Whf , con lo cual el Hamiltoniano completo WZ + Whf debe ser diagonalizado dentro del nivel n = 1.
En la sección 23.9, Ec. (23.88) Pág. 557 vimos que Whf para n = 1 queda en la forma RS · I. Para el término
de Zeeman (24.1) debemos calcular elementos matriciales de la forma


hWZ i1s = n = 1; l = 0; mL = 0; m′S ; m′I [ω0 (L3 + 2S3 ) + ωn I3 ] |n = 1; l = 0; mL = 0; mS ; mI i

dado que l = mL = 0, la contribución ω0 L3 es nula. Adicionalmente, teniendo en cuenta que 2ω0 S3 + ωn I3 solo
actúa sobre variables de espı́n tenemos que


hWZ i1s = hn = 1; l = 0; mL = 0| ⊗ m′S ; m′I [2ω0 S3 + ωn I3 ] {|n = 1; l = 0; mL = 0i ⊗ |mS ; mI i}


= hn = 1; l = 0; mL = 0| n = 1; l = 0; mL = 0i m′S ; m′I [2ω0 S3 + ωn I3 ] |mS ; mI i


hWZ i1s = m′S ; m′I [2ω0 S3 + ωn I3 ] |mS ; mI i

en general debemos calcular los elementos matriciales de Whf + WZ

hRI · S + 2ω0 S3 + ωn I3 i

los cuales solo actúan sobre grados de libertad de espı́n. Estos elementos matriciales deben calcularse en la
base {|mS , mI i} o en la base {|F, mF i}. Adicionalmente, la Ec. (24.2) nos dice que |ω0 | ≫ |ωn | de modo que
despreciaremos el término ωn I3 . En consecuencia, la perturbación sobre el nivel 1s será

W1s ≈ RI · S + 2ω0 S3 (24.3)

variando de manera contı́nua la intensidad del campo, podemos modificar la magnitud del efecto Zeeman. De
acuerdo con la intensidad del campo determinaremos tres casos

1. ~ω0 ≪ R~2 : campos débiles

2. ~ω0 ≫ R~2 : campos fuertes

3. ~ω0 ≈ R~2 : campos intermedios

Veremos que el operador completo se puede diagonalizar en forma exacta. Sin embargo, en los dos primeros
casos utilizaremos teorı́a de perturbaciones. En el primer caso, el término 2ω0 S3 se considerará una perturbación
con respecto a RI · S. En el segundo caso será al contrario. Además de permitirnos practicar la teorı́a degenerada
de perturbaciones, lo anterior también sirve para realizar análisis asintóticos.

24.1.1. Efecto Zeeman de campo débil


En el régimen de campo débil el Hamiltoniano no perturbado H0 es el término de contacto RI · S, y el
Hamiltoniano de perturbación W es el término 2ω0 S3 . Ya hemos determinado los autoestados del término de
contacto RI · S, y se obtuvieron dos niveles un triplete (nivel triplemente degenerado con F = 1) y un singlete
(nivel no degenerado con F = 0)

R~2
{|F = 1; mF = −1, 0, 1i} triplete de energı́a
4
3R~2
{|F = 0; mF = 0i} singlete de energı́a − (24.4)
4
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 563

por tanto, debemos utilizar teorı́a de perturbaciones para un nivel degenerado. De acuerdo con la formulación en la
sección 20.4, Pág. 504 [particularmente, en las Ecs. (20.47, 20.48)] al considerar a 2ω0 S3 como una perturbación con
respecto a RI · S, (aproximación de campo débil) debemos diagonalizar separadamente las dos matrices asociadas
a 2ω0 S3 en los dos niveles F = 1 y F = 0, i.e. correspondientes a valores propios no perturbados diferentes de
RI · S.
De las Ecs. (16.32, 16.33), Pág. 412, obtenemos la acción de S3 sobre los estados {|F, mF i}, en donde dichos
estados se ordenarán en la forma1
{|F, mF i} → |1, 1i , |1, 0i , |1, −1i , |0, 0i (24.5)
a fin de obtener la representación matricial. Aplicando (16.32, 16.33) sobre los estados (24.5) se obtiene
~ ~
S3 |F = 1; mF = 1i = S3 |+, +i = |+, +i = |F = 1; mF = 1i
2 2    
S3 1 ~ ~ ~ |+, −i − |−, +i
S3 |F = 1; mF = 0i = √ {|+, −i + |−, +i} = √ |+, −i − |−, +i = √
2 2 2 2 2 2
~
= |F = 0; mF = 0i
2
~ ~
S3 |F = 1; mF = −1i = S3 |−, −i = − |−, −i = − |F = 1; mF = −1i
2 2
  (~ ~
)  
|+, −i − |−, +i 2 |+, −i + 2 |−, +i ~ |+, −i + |−, +i
S3 |F = 0; mF = 0i = S3 √ = √ = √
2 2 2 2
~
= |F = 1; mF = 0i
2
en notación más abreviada escribimos
~ ~ ~ ~
S3 |1, 1i = |1, 1i , S3 |1, 0i = |0, 0i , S3 |1, −1i = − |1, −1i , S3 |0, 0i = |1, 0i (24.6)
2 2 2 2
la representación matricial de S3 para la base ordenada (24.5) queda entonces
 
1 0 0 0
~ 0 0 0 1 
(S3 )F,mF =  
 (24.7)
2 0 0 −1 0 
0 1 0 0
de acuerdo con la Ec. (20.47) Pág. 504, para realizar el cálculo perturbativo siendo 2ω0 S3 la perturbación, los
cálculos se realizan dentro de cada uno de los subespacios EF =1 y EF =0 asociados a valores propios no perturbados
distintos. Por tanto, para el cálculo perturbativo solo requerimos las submatrices 3 × 3 y 1 × 1 que se delinean en
la Ec. (24.7). Es decir no se requieren los elementos de matriz que conectan a un estado de F = 1 con un estado
de F = 0. Sin embargo, más adelante cuando diagonalicemos el operador completo (24.3) requeriremos la matriz
completa (24.7).
Es interesante comparar esta matriz con la matriz asociada a F3 = S3 + I3 en esta misma base. Tal matriz
viene dada por  
1 0 0 0
 0 0 0 0 
(F3 )F,mF = ~ 
 0 0 −1 0 
 (24.8)
0 0 0 0
1
En el capı́tulo 16, tenemos que J = J(1) + J(2) . Para nuestro contexto J → F, J(1) → S, J(2) → I. Los estados definidos en la Ec.
(16.17), Pág. 409, corresponden en este caso a
 
1 1 1 1
|±, ±i = mS = ± , mI = ± ; |±, ∓i = mS = ± , mI = ∓
2 2 2 2
564 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO

vemos que F3 es diagonal en tanto que S3 no lo es. Sin embargo, las submatrices demarcadas en las Ecs. (24.7,
24.8) son idénticas salvo por un factor multiplicativo constante. Esto implica que para el cálculo perturbativo
(en el cual trabajamos dentro de cada subespacio EF =1 y EF =0 ), ambas matrices son proporcionales. En otras
palabras, los operadores S3 y F3 definidos en el subespacio

EF = EF =1 ⊕ EF =0

son totalmente diferentes. Pero la restricción de S3 a los subespacios EF =1 y EF =0 , es proporcional a la restricción


del operador F3 en cada uno de estos subespacios. Recordando la manera en que se define la restricción de un
operador a un subespacio [sección 1.33, Ec. (1.129), Pág. 75], y definiendo P1 como el proyector sobre el subespacio
EF =1 , y a P0 como el proyector sobre EF =0 podemos escribir
1
Pi S3 Pi = Pi F3 Pi ; i = 0, 1 (24.9)
2
la misma relación existe por supuesto para las otras componentes Sk y Fk , como es de esperarse en virtud de la
isotropı́a del espacio.
Volviendo al cálculo perturbativo, la matriz que representa a la restricción del operador 2ω0 S3 sobre el subes-
pacio EF =1 , es la submatriz 3 × 3 delineada en (24.7) multiplicada por 2ω0
 
~ω0 0 0
2ω0 (S3 )F =1 =  0 0 0  (24.10)
0 0 −~ω0
y en el nivel F = 0 corresponde a la matriz 01×1 . Puesto que ambas matrices son diagonales, vemos que los
autoestados de campo débil a orden cero en ω0 coinciden con los estados |F, mF i. Además los autovalores a primer
orden en ω0 vienen dados por
R~2
|F = 1; mF = 1i ↔ + ~ω0
4
R~2
|F = 1; mF = 0i ↔ +0
4
R~2
|F = 1; mF = −1i ↔ − ~ω0
4
3R~2
|F = 0; mF = 0i ↔ − +0 (24.11)
4
La Fig. 24.1 muestra un tı́pico “diagrama de Zeeman”. Esto es, una gráfica de ~ω0 (medida del campo magnético)
en el eje X, y las energı́as de los 4 subniveles de Zeeman sobre el eje Y . Para campo cero (ω0 = 0) tenemos
dos niveles hiperfinos F = 0 y F = 1. Cuando se activa el campo B0 el subnivel no degenerado |F = 0; mF = 0i
genera una lı́nea horizontal (no hay cambio en la energı́a ni desdoblamiento). Para el nivel F = 1 se remueve
completamente su triple degeneración obteniéndose tres subniveles equidistantes que varı́an linealmente con ~ω0
con pendientes +1, 0 y −1.
Puesto que el cálculo anterior es perturbativo, su validez depende de que la diferencia entre dos subniveles
adyacentes (dada por ~ω0 ), sea mucho menor que la diferencia entre los niveles hiperfinos “no perturbados” con
F = 1 y F = 0 (asociados a campo magnético nulo).

Frecuencias de Bohr asociadas a hF i y hSi para efecto Zeeman con campo débil
En la sección 5.8.3, Página 228, vimos que el valor esperado de un observable dado B posee unas frecuencias
caracterı́sticas de evolución denominadas frecuencias de Bohr. Para dos estados de energı́as Ea y Eb la frecuencia
de Bohr asociada está dada por
Ea − Eb
νab =
h
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 565

Figura 24.1: Diagrama de Zeeman en la aproximación de campo débil para la estructura hiperfina del nivel 1s del
átomo de Hidrógeno.

además una frecuencia de Bohr νab contribuye al valor esperado del observable B, solo si el elemento de matriz
del tipo hEa | B |Eb i es no nulo. En nuestro contexto, los autoestados del Hamiltoniano de campo débil son estados
del tipo |F, mF i. Las matrices (24.7, 24.8) representan a S3 y F3 en esta base. Puesto que la matriz para F3 es
diagonal, no hay frecuencias de Bohr no nulas asociadas a hF3 i (t). Por tanto hF3 i es estático. Por otro lado, S3
tiene además de los elementos diagonales que se asocian a la componente estática de hS3 i, elementos no diagonales
entre los estados |F = 1; mF = 0i y |F = 0; mF = 0i, con diferencia de energı́a R~2 , como se vé en la figura 24.1
y en la Ec. (24.11). Por tanto en adición a la componente estática de hS3 i hay una componente modulada a una
frecuencia R~. Un análisis similar se puede hacer para cada componente de S, y el resultado final es una precesión
de S alrededor de F como se puede ver en la Fig. 24.2. Adicionalmente, en virtud de la ligadura F = I + S,
tendremos que I también precesa con la misma frecuencia como se ilustra en la Fig. 24.2. Puesto que todo este
análisis es para campo magnético cero, es claro que F = I + S es constante de movimiento, de modo que para
campo magnético cero el vector F de la Fig. 24.2 es constante.
Nótese que en la Fig. 24.2, F tiene en general componentes en todos los ejes. El plano de la base del cono
generado por S y por I, no es paralelo al plano XY , ya que el promedio de la componente S3 oscila con frecuencia
R~. Como todas las componentes (promedios) de S oscilan con la misma frecuencia, el resultado es un movimiento
circular con frecuencia R~.
Al introducir el campo magnético B0 el efecto es que F deja de ser constante de movimiento y comienza a
precesar alrededor del eje del campo (eje Z), con una frecuencia ω0 (frecuencia de Larmor), mucho menor que la
frecuencia de precesión de S e I (ya que en este régimen de campo débil ~ω0 ≪ R~2 ).
Debe aclararse sin embargo, que la teorı́a de perturbaciones aquı́ mostrada no predice ninguna de estas pre-
cesiones. La razón es que tales precesiones surgen de considerar elementos de matriz entre un estado con F = 1 y
otro con F = 0. Pero la teorı́a de perturbaciones precisamente se restringe a trabajar dentro de subespacios con
F constante. Efectivamente hemos obtenido que a orden cero nuestros autoestados incluso con B0 6= 0, siguen
siendo del tipo |F, mF i como se vé en las Ecs. (24.11). Por tanto, a orden cero en teorı́a de perturbaciones, F
sigue siendo constante de movimiento incluso con B0 6= 0.
566 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO

Figura 24.2: Precesión de S e I alrededor de F y precesión de F alrededor de la dirección del campo magnético,
en el lı́mite de campo débil.

24.1.2. El efecto Zeeman para campo fuerte


En este caso el término hiperfino será la perturbación y el término de Zeeman será el Hamiltoniano no pertur-
bado. Por tanto, en este caso tenemos que

H0 = 2ω0 S3 ; W = RI · S

Debemos empezar por diagonalizar el término de Zeeman, para lo cual emplearemos la base desacoplada {|mS , mI i},
ya que estos son autoestados del Hamiltoniano no perturbado (Hamiltoniano de Zeeman)2 .

WZ |mS , mI i = 2ω0 S3 |mS , mI i = 2mS ~ω0 |mS , mI i

puesto que mS = ±1/2, los valores propios de WZ son ±~ω0 . Cada uno de ellos es doblemente degenerado debido
a los dos valores posibles de mI . Utilizaremos la notación |mS , mI i → |εS , εI i con εS = ± y εI = ±. Tenemos
entonces que
2ω0 S3 |+, ±i = +~ω0 |+, ±i ; 2ω0 S3 |−, ±i = −~ω0 |−, ±i (24.12)

puesto que el Hamiltoniano hiperfino Whf es ahora la perturbación, consideraremos correcciones de primer orden en
R, diagonalizando la restricción del operador RI · S a los subespacios bidimensionales EmS =1/2,mI y EmS =−1/2,mI ,
asociados a los dos valores propios distintos de 2ω0 S3 .
Es fácil ver que los vectores de la forma |ε1 , ε2 i son también vectores propios de F3

F3 |mS , mI i = (S3 + I3 ) |mS , mI i = ~ (mS + mI ) |mS , mI i


2
Estrictamente la base desacoplada es solo la parte espinorial de los estados propios del Hamiltoniano de Zeeman. La componente
orbital de estos autoestados es arbitraria.
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 567

Claramente los únicos vectores propios con el mismo valor propio de F3 son |+, −i y |−+i que están en subespacios
diferentes. Por otro lado, teniendo en cuenta que

R 2 
RI · S = F − S2 − I2
2
conmuta con F3 , el teorema 1.68 Pág. 58, nos dice que no hay elementos matriciales de RI · S entre los estados
{|+, +i , |+, −i} ni entre los estados {|−, +i , |−, −i} ya que corresponden a valores propios diferentes de F3 . En
consecuencia, dentro de cada subespacio bidimensional, el operador RI · S es diagonal.


mS , m′I RI · S |mS , mI i = hmS , mI | RI · S |mS , mI i δmS ,m′S δmI ,m′I (24.13)

utilizando la Ec. (16.11) Pág. 408, tenemos que

1
I · S = I3 S 3 + (I+ S− + I− S+ ) (24.14)
2
La ecuación (24.13), nos muestra que solo los elementos diagonales sobreviven para el operador I · S. A conti-
nuación demostraremos que los elementos diagonales del operador I+ S− +I− S+ son nulos. Para verlo, examinamos
primero la acción de dicho operador sobre un elemento arbitrario de la base desacoplada

p
[I+ S− + I− S+ ] |mS , mI i = I+ s (s + 1) − mS (mS − 1) |mS − 1, mI i
p
+I s (s + 1) − mS (mS + 1) |mS + 1, mI i
p− p
[I+ S− + I− S+ ] |mS , mI i = I (I + 1) − mI (mI + 1) s (s + 1) − mS (mS − 1) |mS − 1, mI + 1i
p p
+ I (I + 1) − mI (mI − 1) s (s + 1) − mS (mS + 1) |mS + 1, mI − 1i

estos valores solo pueden ser no nulos para los kets |mS = +1/2, mI = −1/2i y |mS = −1/2, mI = 1/2i. Puesto
que s = I = 1/2, y para estos casos ms = −mI , las contribuciones no nulas son
p p
[I+ S− + I− S+ ] |mS , −mS i = s (s + 1) + mS (−mS + 1) s (s + 1) − mS (mS − 1) |mS − 1, −mS + 1i
p p
+ s (s + 1) + mS (−mS − 1) s (s + 1) − mS (mS + 1) |mS + 1, −mS − 1i
[I+ S− + I− S+ ] |mS , −mS i = [s (s + 1) − mS (mS − 1)] |mS − 1, −mS + 1i
+ [s (s + 1) − mS (mS + 1)] |mS + 1, −mS − 1i

para el caso s = mS = 1/2, la contribución no nula queda

[I+ S− + I− S+ ] |+, −i = [s (s + 1) − mS (mS − 1)] |−, +i

de modo que el término diagonal es claramente nulo

h+, −| [I+ S− + I− S+ ] |+, −i = [s (s + 1) − mS (mS − 1)] h+, − |−, +i = 0

similarmente ocurre para el caso s = −mS = 1/2. Por tanto, se tiene que

hmS , mI | [I+ S− + I− S+ ] |mS , mI i = 0 (24.15)

combinando las ecuaciones (24.13), (24.14) y (24.15), un elemento de matriz del operador RI · S en la base
desacoplada queda


R m′S , m′I I · S |mS , mI i = R hmS , mI | I3 S3 |mS , mI i δmS ,m′S δmI ,m′I = R~2 mS mI δmS ,m′S δmI ,m′I (24.16)
568 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO

De otra parte, combinando las Ecs. (24.12, 24.16), obtenemos los autovectores a orden cero en R y los auto-
valores a primer orden en R

R~2
|+, +i ↔ ~ω0 + (24.17)
4
R~2
|+, −i ↔ ~ω0 − (24.18)
4
R~2
|−, +i ↔ −~ω0 − (24.19)
4
R~2
|−, −i ↔ −~ω0 + (24.20)
4

en la Fig. 24.3, las lı́neas sólidas (para ~ω0 ≫ R~2 ) representan los niveles para el régimen de campo fuerte. Las
lı́neas punteadas indican la prolongación de las lı́neas sólidas, pero están en un régimen que no corresponde a
campo fuerte. Se obtienen dos lı́neas paralelas de pendiente +1 separadas por una energı́a R~2 /2 y dos lı́neas
paralelas de pendiente −1 separadas en R~2 /2.

Figura 24.3: (a) Diagrama de Zeeman en la aproximación de campo fuerte, tomando la estructura hiperfina del
nivel 1s del átomo de Hidrógeno como perturbación.

El desdoblamiento de campo fuerte R~2 /2 entre los estados |+, +i y |+, −i o entre los estados |−, +i y |−, −i
se puede interpretar de la siguiente manera: Vimos que en la expresión (24.14) solo el término I3 S3 contribuı́a en
el cálculo de los elementos matriciales en la aproximación de campo fuerte. Por tanto el Hamiltoniano total en
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 569

aproximación de campo fuerte se puede escribir de manera efectiva en la forma


 
R R
2ω0 S3 + RI3 S3 = 2 ω0 + I3 S3 = 2 (ω0 + ωI ) S3 ; ωI ≡ ~mI (24.21)
2 2

de modo que el espı́n electrónico se acopla a ω0 (i.e. al campo B0 ) pero adicionalmente se acopla a un “campo
efectivo” parametrizado por ωI que surge del acople hiperfino entre I y S tomando dos valores posibles ya que
mI = ±1/2, dependiendo de si el espı́n del núcleo está arriba o abajo. Puesto que este “campo interno efectivo”
se suma o resta a B0 dependiendo de mI , es este campo efectivo el que genera la brecha entre los estados |+, +i
y |+, −i o entre los estados |−, +i y |−, −i.

Las frecuencias de Bohr en la evolución de hS3 i para campo fuerte


En la aproximación de campo fuerte, el acople Zeeman de S con B0 es más importante que el acople hiperfino
de S con I. Si despreciamos el acople hiperfino, puede verse que S precesa muy rápidamente (en virtud de que
|B0 | es grande) alrededor del eje Z. Puesto que ωn es despreciable, se desprecia también el efecto Zeeman nuclear
(entre B0 e I), bajo estas aproximaciones I permanece estacionario.
De la Ec. (24.14) podemos ver que en el régimen de campo fuerte la rápida precesión de S, genera que los
términos S± oscilen muy rápido y cancelen su efecto en promedio, quedando entonces solo con la contribución
S3 I3 . Si incorporamos el término hiperfino, el efecto es adicionar un pequeño “campo efectivo” paralelo a u3 y
proporcional a I3 como se vé en la Ec. (24.21). Este campo efectivo acelera o retarda la precesión de S alrededor de
Z, dependiendo del signo de I3 . En un campo fuerte, los estados de energı́a bien definida son de la forma |mS , mI i.
En esta base, el operador S3 tiene solo elementos diagonales, de manera que no hay frecuencias de Bohr no nulas
asociadas a hS3 i. En consecuencia, hS3 i será estático en la aproximación de campo fuerte (en contraste con el
escenario de campo débil). La Fig. 24.4 muestra la precesión de S y el carácter estático de I cuando despreciamos
el acople hiperfino y el acople Zeeman entre B0 e I.
Para los observables hSi i con i = 1, 2 encontramos dos frecuencias angulares de Bohr ω0 ± R~/2, que corres-
ponden a las dos posibles orientaciones del “campo efectivo interno” producido por I3 , que se adiciona al campo
externo B0 . La introducción del término hiperfino también genera la precesión de I alrededor del “campo efectivo
interno” generado por S3 .

24.1.3. El efecto Zeeman para campo intermedio


Si asumimos que ~ω0 ≈ R~2 , no podemos considerar a ninguno de los dos Hamiltonianos Whf ó WZ como una
perturbación. En este caso tenemos que diagonalizar el Hamiltoniano completo. Utilizaremos los estados |F ; mF i
para encontrar la representación matricial del Hamiltoniano completo. Puesto que estos son autoestados de Whf ,
la matriz asociada a Whf será diagonal. De acuerdo con las Ecs. (24.4) los elementos diagonales de Whf asociados
a F = 1 tienen el valor R~2 /4 y los asociados a F = 0 dan −3R~2 /4. Por otra parte, las Ecs. (24.6) nos dan la
representación matricial de S3 en la base {|F ; , mF i}. Por tanto, ordenando los vectores base en la forma3

|1, 1i , |1, −1i , |1, 0i , |0, 0i (24.22)

la representación matricial de Whf + Wz queda


 
R~2
4 + ~ω0 0 0 0
 R~2 
 0 4 − ~ω0 0 0 
hWhf + WZ iF,mF = R~2  (24.23)
 0 0 4 ~ω0 
2
0 0 ~ω0 − 3R~
4
3
No podemos tomar directamente la representación matricial (24.7) ya que ésta se construyó sobre el ordenamiento (24.5), el cual
difiere del ordenamiento en (24.22).
570 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO

Figura 24.4: (a) Precesión de S alrededor de la dirección del campo magnético en la aproximación de campo fuerte.
En este caso S3 es estático. Adicionalmente, si despreciamos ωn , el vector I serı́a estático.

Nótese que S3 conmuta con F3 , de lo cual el término 2ω0 S3 solo tendrá elementos matriciales no nulos entre dos
estados con el mismo mF , lo cual explica los ceros de la matriz (24.23). Por esta misma razón se ordenó la base
en la forma (24.22) en lugar del orden seguido en la Ec. (24.5).
La matriz (24.23) es diagonal por bloques de modo que se puede escribir como suma directa de dos matrices
1 × 1 mas una matriz 2 × 2.
 2   2  !
R~ R~ R~2
~ω 0
hWhf + WZ iF,mF = + ~ω0 11×1 ⊕ − ~ω0 11×1 ⊕ 4
2 (24.24)
4 4 ~ω0 − 3R~4

Las dos matrices unidimensionales tienen los siguientes valores propios4


R~2
E1 = + ~ω0 ↔ |1, 1i = |+, +i (24.25)
4
R~2
E2 = − ~ω0 ↔ |1, −1i = |−, −i (24.26)
4
El diagrama de Zeeman correspondiente se muestra en la Fig. 24.5. Los niveles E1 y E2 están representados por
las dos lı́neas rectas contı́nuas de pendientes ±1, que toman el valor R~2 /4 para ω0 = 0 (i.e. para campo externo
cero). Vemos que estas gráficas reproducen el comportamiento para campo débil (ω0 pequeño) y para campo
fuerte (ω0 grande) al comparar ambos lı́mites con los obtenidos en las figuras 24.1, 24.3.
4
Nótese que con la base ordenada según la ecuación (24.5), la matriz no tendrı́a la textura por bloques descrita en (24.24). Esto
justifica el reordenamiento dado en (24.22).
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 571

Figura 24.5: (a) Diagrama de Zeeman para valores arbitrarios del campo magnético. Las lı́neas punteadas repre-
sentan las ası́ntotas de las hipérbolas.

Los autovalores asociados a la submatriz 2 × 2 de la Ec. (24.23) nos dan la ecuación de valores propios
 2  
R~ 3R~2
−E − − E − ~2 ω02 = 0
4 4
cuyas raı́ces nos dan los otros niveles de energı́a
s 2
R~2 R~2
E3 = − + + ~2 ω02 (24.27)
4 2
s 2
R~2 R~2
E4 = − − + ~2 ω02 (24.28)
4 2
La Fig. 24.5 muestra que cuando ~ω0 varı́a, los niveles E3 y E4 trazan las dos ramas de una hipérbola. Las ası́ntotas
de esta hipérbola son las lı́neas rectas definidas por las ecuaciones
R~2
E=−± ~ω0 (24.29)
4
que son las lı́neas rectas punteadas asociadas a la Fig 24.5 y las ecuaciones (24.18, 24.19) correspondientes a los
estados |+, −i y |−, +i. Los dos puntos de retorno de la hipérbola corresponden a ω0 = 0 y energı́as −R~2 /4 ±
R~2 /2, es decir están sobre el eje Y con energı́as R~2 /4 y −3R~2 /4. Las tangentes a ambos puntos de retorno
son horizontales en concordancia con lo encontrado en (24.11) para los estados |F = 0, 1; mF = 0i.
Nótese que en un campo débil los estados de energı́a bien definida son los estados |F, mF i y en un campo
fuerte son los estados de la base |mS , mI i. Para campos intermedios, son los vectores propios asociados a la matriz
(24.23)5 , que son estados intermedios entre los estados |F, mF i y los estados |mS , mI i. Esto se puede entender
5
Nótese que dos de los vectores propios de la matriz (24.23) son los estados
|ψ1 i = |1, 1i = |+, +i ; |ψ2 i = |1, −1i = |−, −i
572 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO

como si nos moviéramos contı́nuamente desde un acople fuerte entre I y S (base acoplada) para ω0 pequeño, hacia
un desacople total entre I y S (base desacoplada) para ω0 grande.

24.2. Efecto Stark para el átomo de Hidrógeno


Consideremos al átomo de Hidrógeno inmerso en un campo eléctrico uniforme y estático E ~ = Eu3 . La energı́a
de interacción del campo eléctrico con el momento dipolar eléctrico qR del átomo está descrita por el Hamiltoniano

~
WS = −q E·R = −qEX3

aún para los campos más intensos que se producen en el laboratorio, WS ≪ H0 , siendo H0 el Hamiltoniano
(13.4) de la Pág. 357, que describe la energı́a cinética más la energı́a potencial interna electrostática del átomo
de Hidrógeno. Por tanto, se puede tratar perturbativamente con respecto a H0 . Por otro lado, WS puede ser
mucho menor, del orden de, o mucho mayor que alguno de los Hamiltonianos Wf y Whf . En esta sección nos
restringiremos a asumir que el campo eléctrico externo es suficientemente intenso para ser dominante con respecto
a Wf y Whf . De hecho en el actual contexto despreciaremos la estructura fina e hiperfina. Puesto que H0 y WS
no dependen de variables de espı́n, ignoraremos los números cuánticos mS y mI , cuyo único papel será multiplicar
cualquier degeneración encontrada por cuatro.

24.2.1. El efecto Stark sobre el nivel n = 1


De acuerdo con la teorı́a de perturbaciones, el efecto del campo eléctrico a primer orden sobre el estado
1s, depende del elemento matricial

hn = 1, l = 0, mL = 0| WS |n = 1, l = 0, mL = 0i = −qE hn = 1, l = 0, mL = 0| X3 |n = 1, l = 0, mL = 0i
Z
hWS i1s = −qE dV ϕ∗1,0,0 (r) x3 ϕ1,0,0 (r)

puesto que x3 es impar y la función de onda del estado base es par, el integrando es impar y la integral se anula.
En consecuencia, no hay corrección lineal en E. Por tanto, debemos calcular el término (20.41), Pág. 502, asociado
al segundo orden en teorı́a de perturbaciones.

X X |h1, 0, 0| X3 |n, l, mi|2


ε2 = q 2 E2 (24.30)
E1 − En
n6=1 l,m

aquı́ aparecen integrales no nulas, ya que hay funciones de onda que tienen paridad opuesta a ϕ1,0,0 (r), de
manera que el integrando tendrı́a paridad par. Recordemos que la paridad de la función de onda está dictaminada
por el armónico esférico asociado cuya paridad es la asociada al número cuántico l [ver Ec. (11.34) Pág. 332].
Adicionalmente, puesto que E1 − En < 0, el estado base se baja.
De acuerdo con la expresión (20.39) Pág. 502, el estado base corregido a primer orden en E, nos da

XX hn, l, m| X3 |1, 0, 0i
|ψ0 i = |1, 0, 0i − qE |n, l, mi + ... (24.31)
E1 − En
n6=1 l,m

esto nos muestra que a primer orden en E, el valor medio del momento dipolar eléctrico qR, viene dado por

dado que estos dos estados coinciden en ambas bases. Sin embargo los otros dos vectores propios de la matriz (24.23) son combinaciones
lineales de |1, 0i y |0, 0i ó equivalentemente, combinaciones lineales de |+, −i y |−, +i. Tales estados se obtienen diagonalizando la
submatriz 2 × 2 de la matriz (24.23).
24.2. EFECTO STARK PARA EL ÁTOMO DE HIDRÓGENO 573

hψ0 | qR |ψ0 i. Utilizando (24.31) tenemos que


 
 X X h1, 0, 0| X3 |n′ , l′ , m′ i

hψ0 | qR |ψ0 i = q h1, 0, 0| − qE n′ , l′ , m′ R×
 E1 − En′ 
n′ 6=1 l′ ,m′
 
 XX hn, l, m| X3 |1, 0, 0i 
× |1, 0, 0i − qE |n, l, mi
 E1 − En 
n6=1 l,m
XX hn, l, m| X3 |1, 0, 0i
hψ0 | qR |ψ0 i = q h1, 0, 0| R |1, 0, 0i − q 2 E h1, 0, 0| R |n, l, mi
E1 − En
n6=1 l,m
X X h1, 0, 0| X3 |n′ , l′ , m′ i

−q 2 E n′ , l′ , m′ R |1, 0, 0i + O E2
′ ′ ′
E1 − En′
n 6=1 l ,m

una vez más el término h1, 0, 0| R |1, 0, 0i se anula por argumentos de paridad. El valor esperado del momento
dipolar eléctrico a primer orden en E, vendrá dado entonces por
X X h1, 0, 0| R |n, l, mi hn, l, m| X3 |1, 0, 0i + h1, 0, 0| X3 |n, l, mi hn, l, m| R |1, 0, 0i
hψ0 | qR |ψ0 i = −q 2 E (24.32)
E1 − En
n6=1 l,m

Por tanto, el campo eléctrico E genera un momento dipolar inducido. Ahora bien, de las identidades
r

x1 = r sin θ cos ϕ = r [Y1,−1 (θ, ϕ) − Y11 (θ, ϕ)]
3
r

x2 = r sin θ sin ϕ = ir [Y1,−1 (θ, ϕ) + Y11 (θ, ϕ)]
3
y usando las relaciones de ortogonalidad de los armónicos esféricos puede verse que

hψ0 | Xk |ψ0 i = 0 ; k = 1, 2 (24.33)

sustituyendo (24.33) en (24.32), el valor esperado del momento dipolar eléctrico queda
X X 2u3 h1, 0, 0| X3 |n, l, mi hn, l, m| X3 |1, 0, 0i
hψ0 | qR |ψ0 i = u3 q hψ0 | X3 |ψ0 i = −q 2 E
E1 − En
n6=1 l,m
X X |h1, 0, 0| X3 |n, l, mi|2
hψ0 | qR |ψ0 i = −2u3 q 2 E (24.34)
E1 − En
n6=1 l,m

de modo que el momento dipolar inducido es paralelo al campo eléctrico aplicado E ~ = Eu3 (como ocurre también
en el escenario clásico). Esto se debe a la simetrı́a esférica del estado 1s (ya que Y00 no depende de los ángulos) y al
hecho de que esta simetrı́a esférica es rota por el campo eléctrico y reducida a una simetrı́a axial con respecto al eje
X3 . El coeficiente de proporcionalidad χ entre el momento dipolar inducido y el campo se denomina susceptibilidad
eléctrica lineal. De acuerdo con la Ec. (24.34), para el estado 1s esta susceptibilidad eléctrica viene dada por
X X |h1, 0, 0| X3 |n, l, mi|2
χ1s = −2q 2 (24.35)
E1 − En
n6=1 l,m

ahora bien, para la componente X3 que sobrevive, tenemos en cuenta que


r r
4π 4π ∗
x3 = r cos θ = r Y1,0 (θ) = r Y (θ) (24.36)
3 3 1,0
574 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO

y las relaciones de ortonormalidad de los armónicos esféricos nos conducen a


Z
∗ ∗
h1, 0, 0| X3 |n, l, mi = R1,0 (r) Y00 x3 Rn,l (r) Ylm (θ, ϕ) r 2 dr dΩ
r Z
4π ∗ ∗
= R1,0 (r) Y00 rY1,0 (θ) Rn,l (r) Ylm (θ, ϕ) r 2 dr dΩ
3
r Z Z
4π ∗ 3 ∗
= Y00 R1,0 (r) Rn,l (r) r dr Y1,0 (θ) Ylm (θ, ϕ) dΩ
3
r Z Z
4π ∗
= δl,1 δm,0 Y00 R1,0 (r) Rn,l (r) r 3 dr ∗
Y1,0 (θ) Y1,0 (θ, ϕ) dΩ
3
Z "r #
∗ ∗ 4π ∗
= δl,1 δm,0 R1,0 (r) Y00 rY (θ) Rn,1 (r) Y1,0 (θ, ϕ) r 2 dr dΩ
3 1,0
Z
∗ ∗
h1, 0, 0| X3 |n, l, mi = δl,1 δm,0 R1,0 (r) Y00 x3 Rn,1 (r) Y1,0 (θ, ϕ) dV

quedando finalmente
h1, 0, 0| X3 |n, l, mi = h1, 0, 0| X3 |n, 1, 0i δl,1 δm,0

con lo cual las Ecs. (24.30, 24.31 ,24.34, 24.35) quedan en la forma

X |h1, 0, 0| X3 |n, 1, 0i|2
ε2 = q 2 E2
E1 − En
n=2

X hn, 1, 0| X3 |1, 0, 0i
|ψ0 i = |1, 0, 0i − qE |n, 1, 0i + ...
n=2
E1 − En

X |h1, 0, 0| X3 |n, 1, 0i|2
hψ0 | qR |ψ0 i = −2u3 q 2 E
E1 − En
n=2

X
2 |h1, 0, 0| X3 |n, 1, 0i|2
χ1s = −2q
n=2
E1 − En

24.2.2. Efecto Stark sobre el nivel n = 2


El efecto de WS sobre el nivel n = 2 se obtiene a primer orden diagonalizando la restricción de WS al subespacio
E2 expandido por los cuatro estados6

|2, 0, 0i , |2, 1, 1i , |2, 1, 0i , |2, 1, −1i (24.37)

la función de onda ϕ2,0,0 (r) es par, y las funciones de onda ϕ2,1,m (r) son impares. Puesto que WS es impar, se
concluye que se anulan los siguientes 10 elementos matriciales


h2, 0, 0| WS |2, 0, 0i = 2, 1, m′ WS |2, 1, mi = 0

y dado que los estados |2, 0, 0i y |2, 1, mi son de paridad opuesta, los elementos matriciales h2, 1, m| WS |2, 0, 0i
pueden ser no nulos. De hecho veremos que solo h2, 1, 0| WS |2, 0, 0i es no nulo. Para verlo utilizamos la Ec. (24.36)
6
Estrictamente el espacio de estados es de dimensión 16 debido a las variables de espı́n del electrón y el protón. Pero dado que no
hay dependencia de las variables de espı́n, las matrices se podrán escribir como M4×4 ⊗I4×4 , siendo M4×4 una matriz orbital construı́da
con la base (24.37). Por supuesto, toda degeneración obtenida se multiplica por 4.
24.2. EFECTO STARK PARA EL ÁTOMO DE HIDRÓGENO 575

con lo cual
Z
h2, 1, m| WS |2, 0, 0i = −qE ϕ∗2,1,m (r) x3 ϕ2,0,0 (r) dV
r Z
4π ∗
= − qE R2,1 (r) Y1,m (θ, ϕ) rY10 (θ) R2,0 (r) Y0,0 (θ, ϕ) r 2 dr dΩ
3
r r Z Z
1 4π 3 ∗
= − qE R2,1 (r) R2,0 (r) r dr Y1,m (θ, ϕ) Y10 (θ) dΩ
4π 3
Z ∞
qE
= − √ δm,0 R2,1 (r) R2,0 (r) r 3 dr
3 0
Z ∞
q
h2, 1, m| WS |2, 0, 0i = γEδm,0 ; γ ≡ − √ R2,1 (r) R2,0 (r) r 3 dr
3 0
puesto que R2,1 (r) y R2,0 (r) son reales, la cantidad γ es real. Los elementos matriciales de WS en la base ordenada

|2, 1, 1i , |2, 1, −1i , |2, 1, 0i , |2, 0, 0i

nos dan  
0 0 0 0
 0 0 0 0 
hWS i = 
 0
 (24.38)
0 0 γE 
0 0 γE 0
calculando los vectores y valores propios de la matriz (24.38), obtenemos la corrección a primer orden en E de la
energı́a y a orden cero de los autoestados.

|2, 1, 1i ↔ ε1 = 0
|2, 1, −1i ↔ ε1 = 0
1
√ (|2, 1, 0i + |2, 0, 0i) ↔ ε1 = γE
2
1
√ (|2, 1, 0i − |2, 0, 0i) ↔ ε1 = −γE
2
con lo cual la degeneración del nivel n = 2 se remueve parcialmente, y los corrimientos en la energı́a son lineales
y no cuadráticos en E, a diferencia de la corrección (24.30) para el nivel 1s. Este efecto Stark lineal se debe a
la existencia de dos niveles de paridad opuesta y con la misma energı́a no perturbada, i.e. los niveles 2s y 2p.
Los estados con n = 2 son inestables ya que tienden a caer en el estado base. Sin embargo, el estado 2s tiene
una vida media mucho mayor que el estado 2p. La transición entre los estados 2p y 1s se realiza por emisión
espontánea de un fotón de la serie de Lyman α, con una vida media de unos 10−9 seg. Por otro lado, la transición
del estado 2s al 1s se realiza por la emisión de dos fotones, con una vida media del orden de un segundo. Por lo
anterior, se dice que el estado 2p es inestable y el estado 2s se denomina metaestable.
Puesto que el Hamiltoniano de Stark WS tiene elementos de matriz no nulos que conectan al estado 2s con
el 2p, cualquier campo eléctrico externo (estático u oscilante) mezcla el estado metaestable 2s con el estado
inestable 2p, reduciendo fuertemente la vida media del estado 2s. Este fenómeno se conoce como extinción de
la metaestabilidad.
Capı́tulo 25

Moléculas diatómicas

Figura 25.1: Perfil tı́pico de la energı́a potencial de interacción entre los núcleos de una molécula diatómica como
función de la distancia r entre los núcleos. Los primeros estados vibracionales se representan por lı́neas horizontales
en el pozo de potencial.

La formación de una molécula diatómica requiere que la energı́a de interacción V (r) entre los átomos neutros
posea al menos un mı́nimo local que garantice la estabilidad del sistema, siendo r la distancia entre los átomos.
La forma tı́pica de este potencial se muestra en la Fig. 25.1. Para r muy grande, los átomos no interactúan, de
modo que V (r) debe tomar un valor constante que suele escogerse como el cero de la energı́a potencial. A medida
que r decrece V (r) varı́a aproximadamente como −1/r 6 , donde la interacción atractiva es del tipo de fuerza de
Van der Waals1 . Cuando r se vuelve suficientemente pequeño como para que las funciones de onda electrónicas
se traslapen, V (r) decrece aún más rápido y pasa por un mı́nimo local r = re , luego de lo cual decrece en valor
absoluto y se anula en algún punto rm . Para r < rm la fuerza se vuelve repulsiva y se incrementa en forma
indefinida a medida que decrece r (ya que en este caso domina la interaccción repulsiva entre los núcleos).
En una imagen clásica, r = re serı́a un punto de equilibrio estable. El valor V (re ) = −V0 nos da la energı́a de
disociación de la molécula. Esto es, V0 es la energı́a necesaria para que los dos átomos se separen indefinidamente.
A mayor V0 la molécula es más estable.
La descripción mecano-cuántica de la molécula es un problema muy complejo, ya que involucra encontrar
los estados estacionarios de un sistema de núcleos y electrones que interactúan todos entre sı́. De hecho, no se
puede resolver de manera exacta la ecuación de Schrödinger asociada. Una importante simplificación surge del
1
Es lógico que el potencial efectivo decaiga mucho más rápido que el potencial de Coulomb, ya que la interacción efectiva es el
resultado del apantallamiento de cargas en una molécula que es neutra.

576
577

hecho de que la masa del electrón es mucho menor que la del protón. Esto implica que en primera aproximación, el
movimiento de ambos se puede estudiar por separado (aproximación de Born-Oppenheimer). Para ello comenzamos
estudiando el movimiento de los electrones para un valor fijo de r entre los dos núcleos. De esta forma se obtiene
una serie de estados estacionarios para el sistema electrónico de energı́as E1 (r) , E2 (r) etc. Consideramos entonces
el estado base E1 (r) del sistema electrónico, cuando r varı́a debido al movimiento de los núcleos. Asumimos que
el sistema electrónico permanece siempre en el estado base para todo r. Esto implica que la función de onda del
sistema se adapta instantánemente a cualquier cambio en r. Se dice que los electrones (que son muy móviles)
siguen “adiabáticamente” el movimiento de los núcleos. En esta aproximación, la energı́a electrónica E1 (r) actúa
como una energı́a potencial de interacción entre los dos núcleos. Esta energı́a potencial de interacción depende
entonces de la distancia entre los núcleos r y debe añadirse a la repulsión electrostática. En consecuencia, bajo la
aproximación de Born-Oppenheimer la energı́a potencial de interacción total V (r) del sistema de los dos núcleos
que nos permite determinar su movimiento estará dada por

Z1 Z2 e2
V (r) = E1 (r) + (25.1)
r
siendo Z1 y Z2 los números atómicos de los dos núcleos. La energı́a potencial modelada en la Fig. 25.1, es la dada
por la Ec. (25.1).
Al tomar en cuenta todos los grados de libertad del problema aparecerán vibraciones de los dos núcleos
alrededor de su posición de equilibrio, y rotación del sistema con respecto al centro de masa.
Sean m1 y m2 las masas de los dos núcleos, puesto que el potencial V (r) es central, la sección 12.2 nos muestra
que también en el escenario cuántico es posible separar el problema en el movimiento del centro de masa (una
masa libre equivalente M = m1 + m2 , con el movimiento del centro de masa) y el movimiento de una partı́cula
equivalente de masa reducida
m1 m2
µ=
m1 + m2
sometida al potencial V (r) de la Ec. (25.1). El único movimiento no trivial es el de la masa reducida. A diferencia
del átomo de hidrógeno en el cual la masa reducida es aproximadamente la masa del electrón, la masa reducida
de un sistema de dos núcleos es en general muy diferente a la masa de cada núcleo, puesto que dichas masas
suelen ser del mismo orden de magnitud. En consecuencia, el movimiento real de cada núcleo es muy diferente al
movimiento de la partı́cula imaginaria con masa µ, las posiciones de los núcleos se obtienen a partir de la posición
del centro de masa y de la posición de la partı́cula imaginaria µ, usando las Ecs. (12.2) Pág. 344.
Retornando al problema equivalente de la partı́cula de masa reducida µ sometida al potencial V (r), los estados
estacionarios asociados vendrán dados por las Ecs. (12.33, 12.36) Pág. 351
1
ϕv,l,m (r, θ, ϕ) = uv,l (r) Yl,m (θ, ϕ) (25.2)
r
donde los niveles de energı́a y la función radial están dadas por la Ec. (12.37), Pág. 352
 2 2 
~ d l (l + 1) ~2
− + V (r) + uv,l (r) = Ev,l uv,l (r) (25.3)
2µ dr 2 2µr 2

asumiremos de aquı́ en adelante que la proyección del momento angular total orbital de los electrones sobre el eje
internuclear es nulo, al igual que su espı́n total. En consecuencia, el momento angular total de la molécula surge
solo de la rotación de los dos núcleos. Este es el caso en casi todas las moléculas diatómicas en su estado base.
En el caso más general surgen términos en la energı́a nuclear de interacción que no dependen exclusivamente de
la distancia r.
Podemos definir por supuesto un potencial efectivo como la suma del potencial real y el potencial centrı́fugo
en la forma
l (l + 1) ~2
Vef (r) = V (r) + Vcent (r) = V (r) + (25.4)
2µr 2
578 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS

de modo que la ecuación radial (25.3), tiene la forma de una ecuación de valores propios para un Hamiltoniano
unidimensional en el cual la partı́cula de masa µ se coloca en el potencial efectivo Vef (r).
Adicionalmente, expandiremos el potencial V (r) en la forma

V (r) = −V0 + f (r − re )2 − g (r − re )3 + . . . (25.5)

los coeficientes f y g son positivos, puesto que el potencial posee un mı́nimo local en re , y se incrementa más
rápido para r < re que para r > re . Comenzaremos despreciando el término cúbico de tal manera que asumiremos
potencial puramente parabólico.

25.1. Estados de momento angular cero (l = 0)


Para l = 0, se anula el potencial centrı́fugo en el potencial efectivo (25.4). Por tanto Vef (r) coincide con V (r).
En consecuencia, obtenemos los autoestados y autovalores propios del oscilador armónico cuántico unidimensional.
La variable unidimensional x del oscilador armónico se convierte en (r − re ), que serı́a la “elongación” del oscilador.
  s
1 2f
Ev,0 = −V0 + v + ~ω ; ω ≡ , v = 0, 1, 2, 3, . . . (25.6)
2 µ
 2 1/4 r
β 1 −β 2 (r−re )2 /2 µω
uv (r) = √ e Hv [β (r − re )] ; β ≡ (25.7)
π 2v v! ~

siendo Hv un polinomio de Hermite [ver Ecs. (8.50), Pág. 282]. En la Fig. 25.1, Pág. 576, hemos representado
los dos primeros niveles de energı́a con lı́neas horizontales, donde la longitud de las lı́neas nos da una idea de la
extensión caracterı́stica (∆r)v de la función de onda asociada a estos estados. De la Ec. (8.64), Pág. 284 tenemos
que s 
1 ~
(∆r)v ≃ v+ (25.8)
2 µω

Para que el cálculo anterior sea válido, es necesario que el término g (r − re )3 sea despreciable con respecto a
f (r − re )2 , dentro de una vecindad de ancho ∆r alrededor de r = re , es decir

2 3
f (r − r )
e ≫ g (r − r )
e para |r − re | . (∆r)v (25.9)

combinando (25.8, 25.9) se obtiene


r s
√ 1 ~
f ≫ g (∆r)v = g 2 (∆r)0 v+ ; (∆r)0 ≡ (25.10)
2 2µω

donde (∆r)0 es el ancho de la función de onda en el estado base. Se obtiene en particular

f ≫ g (∆r)0 (25.11)

en la práctica la condición (25.11) se satisface casi siempre. Debemos sin embargo tener en cuenta que los números
cuánticos v deben ser suficientemente pequeños para que también se satisfaga la condición (25.10).
Nótese que la expansión (25.5) no es válida en r = 0 donde V (r) diverge. El argumento anterior asume
implı́citamente la condición
(∆r)v ≪ re (25.12)
en cuyo caso las funciones de onda (25.7) son prácticamente cero en el origen, y casi idénticas a las soluciones
exactas de la ecuación radial (25.3) que rigurosamente se deben anular en el origen [condición (12.44) página 353].
25.2. ESTADOS DE MOMENTO ANGULAR NO NULO (L 6= 0) 579

25.2. Estados de momento angular no nulo (l 6= 0)


Si estamos en un régimen de pequeñas oscilaciones (como ocurre en la mayorı́a de los casos) entonces la
distancia entre los átomos será del orden de re . El valor tı́pico del potencial centrı́fugo será entonces su valor en
r = re
l (l + 1) ~2 ~
Vcent (re ) = = Bhl (l + 1) ; B ≡ (25.13)
2µre2 4πµre2
puesto que el momento angular está relacionado con los modos rotacionales, a la cantidad B la llamamos la
constante rotacional. Nótese que si l ∼ 1, el potencial centrı́fugo es del orden de 2Bh, lo cual a su vez nos indicarı́a
el orden de magnitud de la energı́a rotacional. En general esta energı́a rotacional es mucho menor que la energı́a
vibracional asociada a la molécula
2Bh ≪ ~ω (25.14)

Por otro lado, si ∆r ≪ re es el ancho de la función de onda alrededor de re , tenemos que la variación del potencial
centrı́fugo alrededor de r = re , es del orden de

∆Vcent (r) dVcent (r) l (l + 1) ~2
≈ =
∆r dr µre3
r=re r=re
l (l + 1) ~2 ∆r
|∆Vcent (r)|r=re ≈ 3
∆r = 2Bhl (l + 1) (25.15)
µre re

en tanto que la variación del potencial real V (r) es del orden de la “energı́a potencial elástica” con “elongación”
∆r y “constante elástica” k ≡ µω 2

1 1 2µω 1 (∆r)2
∆V (r) = µω 2 (∆r)2 = ~ω (∆r)2 = ~ω (25.16)
2 4 ~ 4 (∆r)20

donde hemos usado (25.10). Y puesto que ∆r ≪ re , utilizando (25.14) en (25.15) y asumiendo valores no muy
grandes de l, tenemos que

∆r
|∆Vcent (r)| ≃ 2Bhl (l + 1) ≪ 2Bhl (l + 1) ≃ 2Bh ≪ ~ω (25.17)
re

por otro lado, puesto que ∆r es del orden de (∆r)0 , la Ec. (25.16) nos indica que

∆V (r) ≈ ~ω (25.18)

combinando las Ecs. (25.18, 25.17) vemos que en la región del espacio en la cual la función de onda tiene amplitudes
significativas (esto es en un ancho ∆r alrededor de re ) la variación (25.15) del potencial centrı́fugo es mucho menor
que la variación (25.16) de V (r). Por tal razón, podemos reemplazar en primera aproximación el valor del potencial
centrı́fugo por su valor en r = re , Ec. (25.13). Combinando entonces las Ecs. (25.4, 25.13) el potencial efectivo
queda en la forma
Vef (r) ≃ V (r) + Bhl (l + 1) (25.19)

utilizando (25.19) y la expansión (25.5) hasta segundo orden, la ecuación radial (25.3) queda en la forma
 
~2 d2 2
− − V0 + f (r − re ) + Bhl (l + 1) uv,l (r) = Ev,l uv,l (r)
2µ dr 2
 2 2 
~ d 1 2 2
− + µω (r − re ) uv,l (r) = [Ev,l + V0 − Bhl (l + 1)] uv,l (r) (25.20)
2µ dr 2 2
580 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS

esta ecuación es totalmente análoga a la ecuación de valores propios de un oscilador armónico unidimensional. Por
tanto el miembro derecho de la Ec. (25.20) que está en paréntesis, debe ser igual a (v + 1/2) ~ω. En consecuencia,
el espectro asociado a la Ec. (25.20) está dado por
 
1
Ev,l = v + ~ω − V0 + Bhl (l + 1) ; v = 0, 1, 2, 3, . . . ; l = 0, 1, 2, 3, . . . (25.21)
2

nótese que el operador diferencial a la izquierda de la Ec. (25.20) no depende de l, ya que toda la dependencia
con este número cuántico quedó al lado derecho de tal ecuación y por tanto fué absorbida por el valor propio. En
consecuencia, la función radial que se genera en (25.20) es independiente de l

uv,l (r) = uv (r) (25.22)

Donde la función radial estarı́a dada por la Ec. (25.7). La expresión (25.2) para la función de onda completa
se puede escribir en esta aproximación de la forma

1
ϕv,l,m (r) = uv (r) Ylm (θ, ϕ) (25.23)
r
Obsérvese que la energı́a (25.21) consiste en la contribución de un modo vibracional de frecuencia ω y un
modo rotacional de momento angular l, el término constante −V0 puede removerse del espectro si se desea.
Adicionalmente, en la función de onda los modos vibracionales están asociados con la dependencia radial y los
rotacionales con la dependencia angular. Vemos entonces que la función de onda (25.23) es el producto de dos
funciones en donde solo uno de los factores se modifica con las vibraciones y solo uno de ellos se modifica con
las rotaciones. Nótese en particular que la independencia de la función radial con respecto al número cuántico l
expresada en la Ec. (25.22), es importante para que la función radial no dependa de las rotaciones.

Figura 25.2: Diagrama que ilustra los dos primeros niveles v = 0 y v = 1, con su estructura rotacional debida al
término Bhl (l + 1).

La figura 25.2 muestra los dos primeros modos vibracionales v = 0, 1 con su estructura rotacional debida al
factor Bhl (l + 1). En esta figura se muestra que solo transiciones con ∆l = 1 están permitidas, lo cual veremos a
continuación.
25.3. ESPECTRO DE MOLÉCULAS DIATÓMICAS HETEROPOLARES 581

25.3. Espectro de moléculas diatómicas heteropolares


Asumiremos moléculas heteropolares (átomos diferentes), y nos confinaremos a estudiar el espectro de emisión
o absorción infraroja. El momento dipolar eléctrico D (r) de la molécula está dirigido a lo largo de la lı́nea que
une los núcleos, y se puede expandir en potencias de r − re
D (r) = d0 + d1 (r − re ) + . . . (25.24)
si θ es el ángulo entre el eje de la molécula y el vector u3 tendremos que la proyección de D (r) a lo largo de u3
será D (r) cos θ. Puesto que la molécula está rotando, no es posible para todo tiempo alinear el momento dipolar
con el eje X3 .
Pretendemos determinar las frecuencias del espectro de ondas electromagnéticas a lo largo de u3 que la molécula
puede absorber o emitir como consecuencia de la variación de su dipolo eléctrico. De acuerdo con la discusión
de la sección 5.8.3 Pág. 228, debemos determinar para ello las frecuencias de Bohr que aparecen en la evolución
temporal del valor esperado de D (r) cos θ. Por lo tanto, precisamos encontrar los valores de v ′ , l′ , m′ y v, l, m para
los cuales los elementos matriciales
Z

′ ′ ′

v , l , m D (r) cos θ |v, l, mi = r 2 drdΩ ϕ∗v′ ,l′ ,m′ (r, θ, ϕ) D (r) cos θ ϕv,l,m (r, θ, ϕ)

son no nulos. De la expresión (25.23) esta relación se puede escribir en la forma


Z ∞  Z 

′ ′ ′
v , l , m D (r) cos θ |v, l, mi = dr u∗v′ (r) D (r) uv (r) × dΩ Yl∗′ ,m′ (θ, ϕ) cos θ Ylm (θ, ϕ) (25.25)
0
Para evaluar la integral angular tendremos en cuenta la siguiente identidad de los armónicos esféricos
r s
l 2 − m2 (l + 1)2 − m2
cos θ Ylm (θ, ϕ) = Y l−1,m (θ, ϕ) + Yl+1,m (θ, ϕ)
4l2 − 1 4 (l + 1)2 − 1
de modo que la integral angular en (25.25) queda
Z "r s #

′ ′ 2 − m2 2 2
l (l + 1) − m
l , m cos θ |l, mi = dΩ Yl∗′ ,m′ (θ, ϕ) Yl−1,m (θ, ϕ) + Yl+1,m (θ, ϕ)
4l2 − 1 4 (l + 1)2 − 1
r Z
l 2 − m2
= dΩ Yl∗′ ,m′ (θ, ϕ) Yl−1,m (θ, ϕ)
4l2 − 1
s Z
(l + 1)2 − m2
+ 2 dΩ Yl∗′ ,m′ (θ, ϕ) Yl+1,m (θ, ϕ)
4 (l + 1) − 1
" r s #

′ ′ 2 − m2 2 2
l (l + 1) − m
l , m cos θ |l, mi = δmm′ δl′ ,l−1 + δl′ ,l+1 (25.26)
4l2 − 1 4 (l + 1)2 − 1
en lo que respecta a la integral radial en (25.25), debemos tener en cuenta que la función uv (r) es idéntica a la
función de onda del oscilador armónico unidimensional si hacemos x ≡ r − re en la Ec. (25.7). Denotando estas
funciones como |vi y utilizando (25.24), la integral radial en (25.25) queda
s



~
′  † 
v D (r) |vi = v (d0 + d1 X) |vi = d0 hv ′ |vi + d1 v ′ X |vi = d0 δv′ v + d1 v a + a |vi
2µω
s
~ √


= d0 δv′ v + d1 v + 1 v ′ v + 1i + v v ′ v − 1i
2µω
s

′ ~ √ √
v D (r) |vi = d0 δv′ v + d1 v + 1 δv′ ,v+1 + v δv′ ,v−1 (25.27)
2µω
582 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS

donde hemos usado las Ecs. (8.9) Pág. 272 y las Ecs. (8.41) Pág. 280. Sustituyendo (25.26, 25.27) en (25.25)
tenemos que
" s #

′ ′ ′ ~ √ √
v , l , m D (r) cos θ |v, l, mi = d0 δv′ v + d1 v + 1 δv′ ,v+1 + v δv′ ,v−1
2µω
" r s #
l 2 − m2 (l + 1)2 − m2
× δl′ ,l−1 + δl′ ,l+1 δmm′ (25.28)
4l2 − 1 4 (l + 1)2 − 1

de la expresión (25.28) se obtienen reglas de selección asociadas al elemento de matriz de la proyección del
momento dipolar eléctrico a lo largo de u3 . Tal elemento de matriz es nulo a menos que se cumplan las condiciones

l′ − l = +1, −1 ; m = m′ (25.29)

v − v = 0, +1, −1 (25.30)

Nótese que la regla de selección (25.29) proviene de la dependencia angular (ortonormalidad de los armónicos
esféricos) y es por tanto independiente de las aproximaciones realizadas para resolver la ecuación radial (25.3)2 .
En contraste, la regla de selección (25.30) depende de realizar la aproximación armónica en la expansión (25.5)
del potencial V (r) y de conservar solo hasta el término lineal en la expansión (25.24) del dipolo D (r).

25.3.1. Espectro puramente rotacional


La Ec. (25.28) nos muestra que para v − v ′ = 0, el valor esperado del dipolo no depende de d1 , desde el punto
de vista de la Ec. (25.24) esto indica que en este caso el valor esperado es independiente de las “elongaciones” o
“vibraciones” r − re del dipolo, ası́ como del valor de los números cuánticos v, v ′ . Es decir el conjunto de lı́neas
asociadas a v = v ′ , constituyen el espectro puramente rotacional (solo depende de los números cuánticos angulares
l, m), cuya intensidad serı́a proporcional a d20 . Por otro lado, la parte puramente rotacional del espectro (25.21)
vendrá dada por
 
1
Ev,l = v + ~ω − V0 + Bhl (l + 1) ; v = fijo . . . ; l = 0, 1, 2, 3, . . .
2

para calcular las transiciones se pueden eliminar los términos constantes de modo que para el espectro puramente
rotacional se tiene
El = Bhl (l + 1) ; l = 0, 1, 2, 3, . . . (25.31)
Los niveles adyacentes nos dan

El − El−1 = Bh [l (l + 1) − l (l − 1)] = 2Bhl

de modo que la separación entre niveles adyacentes se incrementa linealmente con l, como se indica en la Fig.
25.3a. De otra parte, las reglas de selección (25.29) nos dicen que ∆l = ±1, de manera que las únicas frecuencias
de Bohr asociadas a la oscilación dipolar son las asociadas a niveles adyacentes ν̄l,l−1 (usamos la notación ν̄ para
distinguir estas frecuencias del número cuántico v)

El − El−1
ν̄l,l−1 = = 2Bl
h
formando una serie de frecuencias equidistantes separadas por un intervalo 2B como se muestra en la Fig. 25.3b.
La forma de las figuras 25.3 justifica el nombre de “constante rotacional” dado al parámetro B.
2
Sin embargo, tal regla de selección depende del carácter central de la interacción y por tanto de la validez de la aproximación de
Born-Oppenheimer.
25.3. ESPECTRO DE MOLÉCULAS DIATÓMICAS HETEROPOLARES 583

Figura 25.3: (a) Primeros niveles puramente rotacionales. La separación entre niveles adyacentes crece linealmente
con l. (b) Frecuencias de Bohr para el espectro puramente rotacional. Las frecuencias son equidistantes y separadas
por una distancia 2B.

25.3.2. Espectro vibracional-rotacional


Las lı́neas asociadas a las transiciones v − v ′ = ±1, l′ − l = ±1, corresponden al espectro vibracional-rotacional.
Aplicando la Ec. (25.21) obtenemos las frecuencias asociadas a este espectro
Eν ′ ,l′ − Eν,l ~   
ωvibrot = = v ′ − ν ω + B l′ l′ + 1 − l (l + 1)
h h
Sin pérdida de generalidad podemos asumir v ′ = v + 1, y puesto que l′ = l ± 1 tenemos dos tipos de frecuencias

(l′ =l±1) Eν+1,l±1 − Eν,l ω


ω ± ≡ ωvibrot = = + B {(l ± 1) [(l ± 1) + 1] − l (l + 1)}
h 2π
+ ω ω
ωvibrot = + B (l + 1) (l + 2) − Bl (l + 1) = + 2B (l + 1) ; l = 0, 1, 2, 3, . . .
2π 2π
− ω ω ω 
ωvibrot = + B (l − 1) l − Bl (l + 1) = − 2Bl = − 2B l′ + 1 ; l′ = 0, 1, 2, 3, . . .
2π 2π 2π
En sı́ntesis, utilizando la Ec. (25.21), podemos separar las lı́neas de este espectro en dos grupos

1. Las lı́neas v ′ = v + 1, l′ = l + 1 ↔ v, l de frecuencias


+ ω ω
ωvibrot = + B (l + 1) (l + 2) − Bl (l + 1) = + 2B (l + 1) ; l = 0, 1, 2, 3, . . . (25.32)
2π 2π

2. Las lı́neas v ′ = v + 1, l′ = l − 1 ↔ v, l de frecuencias


− ω    ω 
ωvibrot = + Bl′ l′ + 1 − B l′ + 1 l′ + 2 = − 2B l′ + 1 ; l′ = 0, 1, 2, 3, . . . (25.33)
2π 2π

Figura 25.4: Espectro vibracional-rotacional para una molécula heteropolar. Este espectro está divididos en dos
ramas: la rama P (izquierda) y la rama R (derecha).

El espectro vibracional-rotacional se ilustra en la figura 25.4, y contiene dos grupos de lı́neas equidistantes,
simétricas con respecto a la frecuencia vibracional ω/2π. Todas las lı́neas juntas constituyen una banda. Las
584 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS

lı́neas constituı́das por las frecuencias (25.32) se denominan la rama R, en tanto que las lı́neas asociadas a
las frecuencias (25.33) se denominan rama P. En cada rama, la distancia entre dos lı́neas adyacentes es 2B.
El intervalo central que separa a las dos ramas está a una distancia 4B, ya que NO hay una lı́nea asociada a
la frecuencia puramente vibracional ω/2π. Por esta razón es frecuente decir que hay una “lı́nea faltante” en el
espectro. Como consecuencia, no hay un espectro puramente vibracional. Sin embargo, puesto que ω/2π ≫ 2B,
un espectrómetro de baja resolución podrı́a ignorar la estructura rotacional y observar el espectro de la figura
25.4, como si hubiera una sola lı́nea centrada en ω/2π.
La ausencia de un espectro puramente vibracional también se puede ver de las reglas de selección (25.29,
25.30) que nos muestran que las transiciones con ∆l = 0 y ∆v 6= 0 están prohibidas. En contraste, tales reglas
de selección muestran que transiciones con ∆l 6= 0 y ∆v = 0 sı́ están permitidas, y por tanto hay un espectro
puramente rotacional.

25.4. Correcciones a la estructura espectral (opcional)


La estructura espectral de la molécula diatómica se ha calculado basados en la suposición de que la variación del
potencial centrı́fugo es despreciable. En tal caso se reemplaza la función Vcent (r) por su valor en r = re . Esto implica
que en esta aproximación, el potencial efectivo se obtiene a partir del potencial real más una traslación rı́gida
vertical de éste. Estudiaremos a continuación las correcciones que resultan de calcular las pequeñas variaciones de
Vcent alrededor de re . Para ello, hacemos la expansión del potencial centrı́fugo en potencias de r − re

l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
Vcent (r) = = − (r − re ) + (r − re )2 + . . . (25.34)
2µr 2 2µre2 µre3 2µre4

De modo que combinamos las expansiones (25.5, 25.34) para formar la expansión del potencial efectivo

Vef (r) = −V0 + f (r − re )2 − g (r − re )3 + . . .


l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
+ − (r − re ) + (r − re )2 + . . . (25.35)
2µre2 µre3 2µre4

veremos que la variación del potencial centrı́fugo alrededor de r = re (para l 6= 0) genera los siguientes efectos

1. La posición ree del mı́nimo de Vef es ligeramente mayor que la posición re del mı́nimo del potencial real.

re ) es ligeramente distinto de −V0 + Bhl (l + 1).


2. El valor de este mı́nimo Vef (e

3. La curvatura de Vef (r) en r = ree no está dada únicamente por el coeficiente f . Nótese que esta curvatura
es la que nos determinaba la frecuencia del oscilador armónico equivalente como se aprecia en la Ec. (25.6).

Tomando la expansión (25.35) hasta orden cuadrático en (r − re ), el valor del mı́nimo local evaluado hasta
este orden nos da

dVef (e
re ) l (l + 1) ~2 3l (l + 1) ~2
re − re ) −
= 0 = 2f (e + re − re )
(e (25.36)
dr µre3 µre4

para valores tı́picos de f y para l ∼ 1, se puede tomar f ≫ l (l + 1) ~2 / µre4 . En cuyo caso la relación (25.36) se
puede aproximar en la forma
l (l + 1) ~2
re − re ) ≃
2f (e (25.37)
µre3
de esta forma se obtiene
l (l + 1) ~2 Bhl (l + 1)
ree − re ≃ 3
= (25.38)
2µf re f re
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL) 585

con lo cual ree > re como se predijo. Utilizando (25.6) y (25.10) en (25.38) resulta

ree − re Bhl (l + 1) (∆r)0 Bhl (l + 1) (∆r)0 4Bhl (l + 1) (∆r)0


≃ 2 = 2 =
(∆r)0 f re [(∆r)0 ] (ω µ/2) re [~/ (2µω)] ~ω re
ree − re 2Bh (∆r)0
≃ 2l (l + 1) ≪1 (25.39)
(∆r)0 ~ω re

donde hemos usado además las aproximaciones (25.12, 25.14). Podemos decir que la desviación de ree con respecto
a re es “pequeña”, ya que es mucho menor que el ancho del paquete en el estado base. Combinando las Ecs. (25.11,
25.12) con la condición (25.39) queda
re − re ) ≪ g (∆r)0 ≪ f
g (e
 
re − re )
3 (e re − re )
3 (e re − re ) l (l + 1) ~2
3 (e l (l + 1) ~2
≪ ≪1 ⇒ ≪
2 re 2 (∆r)0 2 re µre3 µre3
obtenemos entonces las desigualdades

3l (l + 1) ~2 l (l + 1) ~2
re − re ) ≪ f
g (e ; (e
re − re ) ≪ (25.40)
2µre4 µre3

evaluando Vef (r) en el mı́nimo local ree , la expansión (25.35) queda

re − re )2 − g (e
re ) = −V0 + f (e
Vef (e re − re )3 + . . .
l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
+ − (e
re − re ) + re − re )2 + . . .
(e
2µre2 µre3 2µre4
re ) = −V0 + [f − g (e
Vef (e re − re )2 + . . .
re − re )] (e
 
l (l + 1) ~2 3l (l + 1) ~2 l (l + 1) ~2
+ + re − re ) −
(e re − re ) + . . .
(e (25.41)
2µre2 2µre4 µre3

sustituyendo las aproximaciones (25.40, 25.37, 25.38) en la expansión (25.41) tenemos que

l (l + 1) ~2 l (l + 1) ~2
Vef (e re − re )2 +
re ) ≃ −V0 + f (e − re − re )
(e
2µre2 µre3
l (l + 1) ~2 l (l + 1) ~2
= −V0 + [f (ere − re )] (e
re − re ) − (ere − r e ) +
µre3 2µre2
 
l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2
≃ −V0 + (e
r e − re ) − (e
re − r e ) +
2µre3 µre3 2µre2
2
 
l (l + 1) ~ ~
= −V0 − 3
(ere − re ) + hl (l + 1)
2µre 4πµre2
   
l (l + 1) ~2 Bhl (l + 1) ~
≃ −V0 − + hl (l + 1)
2µre3 f re 4πµre2
quedando finalmente

B~2
re ) ≃ −V0 −
Vef (e h [l (l + 1)]2 + Bhl (l + 1)
2µf re4
B~2 ~3
re ) ≃ −V0 + Bhl (l + 1) − Gh [l (l + 1)]2
Vef (e ; G≡ = (25.42)
2µf re4 8πµ2 re6 f

por tanto, para un momento angular no nulo la energı́a de disociación |Vef (e


re )| difiere de la energı́a de disociación
V0 para el estado base. Además el término proporcional a G proviene de tener en cuenta la variación del potencial
586 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS

centrı́fugo como se puede ver al comparar las ecuaciones (25.19, 25.42), donde la variación del potencial centrı́fugo
se despreció en (25.19). En la vecindad de r = ree , el potencial efectivo se puede escribir en la forma
re ) + f (r − ree )2 − g (r − ree )3 + . . .
Vef (r) = Vef (e (25.43)
a partir de la expansión (25.43), es claro que el coeficiente f viene dado por
 
1 d2
f= Vef (r) (25.44)
2 dr 2 r=e
re
con lo cual dicho coeficiente está relacionado con la curvatura de Vef (r) en r = ree . Para evaluar la diferencia
entre f y f , tendremos en cuenta el término en (r − re )3 de V (r) en la expansión (25.35) y consecuentemente, el
término en (r − re )2 del potencial centrı́fugo
  
1 d2 1 d2 h
f = Vef (r) ≃ −V0 + f (r − re )2 − g (r − re )3 +
2 dr 2 r=e
re 2 dr 2

l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2 2
+ − (r − re ) + (r − re )
2µre2 µre3 2µre4 r=ere
   
1 3l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
= 2f − 6g (ere − re ) + ≃ f − 3g +
2 µre4 2µf re3 2µre4
donde hemos usado la aproximación (25.38) en el último paso. Tenemos entonces que
3l (l + 1) ~2 3gl (l + 1) ~2
2f ≃ 2f + − (25.45)
µre4 µf re3
la frecuencia angular definida en (25.6) debe entonces reemplazarse por
s s s s  
2f 2f 3l (l + 1) ~2 3gl (l + 1) ~2 2f 3l (l + 1) ~2 3gl (l + 1) ~2
ω = ≃ + − = 1 + −
µ µ µ2 re4 µ2 f re3 µ 2f µre4 2f 2 µre3
      
1 3l (l + 1) ~2 3gl (l + 1) ~2 3~2 ω 1 g
≃ ω 1+ 4
− 2 3
= ω + 3
− l (l + 1)
2 2f µre 2f µre 4µf re re f
 
3~2 ω g 1
ω ≃ ω − 2παe l (l + 1) ; αe ≡ − (25.46)
8πµf re3 f re
estas ecuaciones muestran que la curvatura evaluada en el mı́nimo del potencial efectivo cambia cuando se considera
la variación del potencial centrı́fugo, traduciéndose en un cambio en la frecuencia natural de vibración.
De una forma similar se puede determinar g. A partir de la expansión (25.43) es claro que este término viene
dado por  
1 d3
g=− Vef (r) (25.47)
6 dr 3 r=e
re
sin embargo el término cúbico en (25.43) solo agrega una pequeña corrección a los resultados que se obtienen con
los dos primeros términos, por lo cual despreciaremos la variación de d3 Vef f /dr 3 cuando vamos desde re hasta ree .
Tomaremos entonces g ≃ g.
En resumen, una expansión del potencial efectivo alrededor del mı́nimo corregido queda en la forma
1
Vef (r) ≃ Vef (e re ) + µω 2 (r − ree )2 − g (r − ree )3 (25.48)
2
l (l + 1) ~2 Bhl (l + 1)
ree − re ≃ = (25.49)
2µf re3 f re
B~2 ~3
Vef (ere ) ≃ −V0 + Bhl (l + 1) − Gh [l (l + 1)]2 ; G ≡ = (25.50)
2µf re4 8πµ2 re6 f
 
3~2 ω g 1
ω ≃ ω − 2παe l (l + 1) ; αe ≡ − (25.51)
8πµf re3 f re
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL) 587

donde hemos usado las ecuaciones (25.38, 25.42, 25.46).

25.4.1. Corrección a las funciones de onda y los niveles de energı́a


De la expresión (25.48), podemos generar la correspondiente corrección a la ecuación radial (25.3)
 2 2 
~ d 1 2 2 3
− + µω (r − ree ) − g (r − ree ) uv,l (r) = [Ev,l − Vef f (e
re )] uv,l (r) (25.52)
2µ dr 2 2
si despreciamos el término proporcional a g, reconocemos de nuevo la ecuación de valores propios de un oscilador
armónico unidimensional de frecuencia angular ω, cuya posición de equilibrio es r = ree . Tenemos entonces que el
término entre paréntesis cuadrados a la derecha de (25.52) debe ser igual a (v + 1/2) ~ω
   
1 1
0
Ev,l = v + ~ω + Vef f (e
re ) = −V0 + v + ~ω + Bhl (l + 1) − Gh [l (l + 1)]2 (25.53)
2 2
donde hemos usado (25.50). Las funciones propias asociadas a estados estacionarios poseen la forma (25.2), con
la función radial uv (r) dada por la solución armónica (25.7), pero reemplazando β, re por β, ree
!
2 1/4 r
β 1 2
re )2 /2
−β (r−e
  µω
uv (r) = √ e Hv β (r − ree ) ; β≡
π 2v v! ~

dado que hemos tenido en cuenta el término g (r − re )3 para calcular la nueva frecuencia angular ω, la consistencia
del cálculo nos exige estimar la corrección de este término a los autovalores y autovectores de la ecuación radial
(25.52). Esto implica evaluar la primer corrección anarmónica tal como se hizo en la sección 20.6.4, Pág. 511
utilizando teorı́a de perturbaciones. Aplicando los resultados de la sección 20.6.4 ????, los niveles perturbados
vendrán dados por
 
0 1 2 7 15 g2 ~
Ev,l = Ev,l + ξ~ω v + + ξ~ω ; ξ ≡ − (25.54)
2 60 4 µ3 ω 5
puesto que ξ ≪ 1, ω puede reeemplazarse por ω en la corrección perturbativa.

25.4.2. Distorsión centrı́fuga de la molécula


La Ec. (25.49) muestra que ree > re , y que la distancia entre ambas se incrementa con l. En otras palabras, la
distancia entre los núcleos se incrementa cuando la molécula aumenta su rotación. En un sentido clásico podemos
decir que “el término centrı́fugo” tiende a separar los núcleos hasta que es balanceado por la fuerza restauradora
re − re ) debida al potencial V (r).
2f (e
La molécula no puede entonces considerarse como un “rotador rı́gido”. El incremento en la distancia entre
núcleos produce a su vez un incremento en el momento de inercia de la molécula, que a su vez genera un decre-
mento en la energı́a cinética rotacional (si el momento angular es constante). Este decremento solo se compensa
parcialmente con el incremento V (e re ) − V (re ), en la energı́a potencial. Este es el origen Fı́sico de la corrección
proporcional a G en el espectro descrito en (25.53). Esta corrección (que es de signo negativo) se incrementa mucho
más rápido con l que la energı́a rotacional proporcional a B en el espectro (25.53). Experimentalmente, esto se
traduce en que las frecuencias de Bohr del espectro puramente rotacional ya no serán estrictamente equidistantes,
sino que su separación disminuye con el incremento de l.

25.4.3. Acople vibracional-rotacional


Si agrupamos los términos segundo y tercero en (25.53) y reemplazamos ω por su expresión (25.51), se obtiene
     
1 1 1
v+ ~ω + Bhl (l + 1) = v + ~ω + Bhl (l + 1) − αe hl (l + 1) v + (25.55)
2 2 2
588 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS

los dos primeros términos a la derecha de la expresión (25.55) son claramente energı́as vibracionales y rotacionales
respectivamente. El tercer término depende de los números cuánticos v y l, y representa el acople entre los grados
de libertad vibracionales y rotacionales.
La Ec. (25.55) se puede reescribir en la forma
     
1 1 1
v+ ~ω + Bhl (l + 1) = v + ~ω + Bv hl (l + 1) ; Bv ≡ B − αe v + (25.56)
2 2 2
es como si cada nivel vibracional tuviera una constante rotacional efectiva Bv que depende del número cuántico
vibracional v.
De nuevo podemos hacer un análogo clásico. La Ec. (25.13) nos dice que B es proporcional a 1/r 2 . Cuando la
molécula vibra, r varı́a y por tanto también B. Puesto que las frecuencias vibracionales son mucho mayores que
las rotacionales, podemos definir una constante efectiva rotacional de la molécula en un estado vibracional dado:
para ello podemos usar el promedio de B sobre un intervalo de tiempo mucho mayor a un periodo vibracional
(y mucho menor que un periodo rotacional para que B pueda considerarse constante en el proceso de rotación).
Debemos tomar entonces el promedio temporal de 1/r 2 en el estado vibracional bajo consideración.
Ahora bien, los dos términos de signos opuestos en la expresión (25.51) para αe pueden interpretarse de
la siguiente forma. El término proporcional a g obviamente surge del término anarmónico de V (r), el cual se
incrementa con la amplitud de las oscilaciones puesto que nos alejamos del régimen de pequeñas oscilaciones (por
tanto se incrementa con v). El término cúbico (primer término anarmónico), introduce una asimetrı́a en la forma
de V (r) de manera que la molécula “pasa mas tiempo” en la región r > re que en la región r < re . De aquı́ se
sigue que el valor promedio de 1/r 2 es menor que 1/re2 , de modo que la anarmonicidad disminuye la constante
efectiva rotacional Bv . Esto se puede ver al combinar las Ecs. (25.56, 25.51). Por otro lado, incluso si el movimiento
vibracional es simétrico con respecto a re (es decir si g = 0) el valor promedio de 1/r 2 no es igual a 1/re2 puesto
que  
1 1 1
2
6= 2 = 2
r hri re
y este es el origen del segundo término en αe de la Ec. (25.51). Cuando se toma el promedio de 1/r 2 , se favorecen
los valores pequeños de r de modo que  
1 1 1
2
> 2 = 2
r hri re
lo cual explica el signo del segundo término en αe de la Ec. (25.51). El signo de αe depende por supuesto de la
competencia entre estos dos efectos opuestos en signo. En general, el término anarmónico es el que domina de
modo que αe es positivo y Bv < B.
Nótese que el acople vibracional-rotacional existe incluso cuando v = 0, en este caso
1
B0 = B − αe
2
lo cual constituye otra manifestación de la extensión de la función de onda (∆r)0 asociada al estado v = 0.
Si αe es positivo, la estructura rotacional es ligeramente más compacta en el estado vibracional más alto v ′ que
en el estado vibracional v = v ′ − 1. Puede verse que las ramas R y P ilustradas en la Figura 25.4, se afectan de
modo diferente. Las lı́neas adyacentes ya no serán equidistantes y en promedio estarán más cercanas en la rama
R que en la rama P .
Reuniendo las ecuaciones (25.53, 25.54, 25.55) podemos escribir el espectro completo vibracional-rotacional
rotulado con los números cuánticos v, l
      
1 1 2 2 1 2 7
Ev,l = −V0 + v + ~ω + B − αe v + hl (l + 1) − Ghl (l + 1) + ξ v + ~ω + ξ~ω (25.57)
2 2 2 60
recordemos que V0 es la energı́a de disociación de la molécula (para momento angular nulo), ω/2π es la frecuencia
vibracional, B la constante rotacional [Ec. (25.13)], y las cantidades G,αe , ξ son constantes adimensionales dadas
por las ecuaciones (25.50, 25.51, 25.54).
25.5. ESPECTRO DE MOLÉCULAS DIATÓMICAS HOMOPOLARES: EFECTO RAMAN 589

25.5. Espectro de moléculas diatómicas homopolares: efecto Raman


Cuando las moléculas son homopolares (átomos idénticos), la simetrı́a que emerge hace que el momento dipolar
eléctrico permanente se anule, volviendo a la molécula inactiva en el infrarojo. En tal caso, cuando una onda óptica
(en el rango del visible) golpea la molécula, ????
Capı́tulo 26

Sistemas cuánticos de partı́culas idénticas

Veremos que bajo los postulados de la mecánica cuántica que ya hemos establecido, se presentan ambigüedades
cuando tratamos sistemas de partı́culas idénticas, razón por la cual debemos introducir un nuevo postulado que
permita una descripción adecuada de un conjunto de partı́culas idénticas.
Diremos que dos partı́culas son idénticas si poseen las mismas propiedades intrı́nsecas tales como masa en
reposo, espı́n, carga etc. Es decir, tales propiedades intrı́nsecas no se pueden distinguir en un experimento1 . Por
ejemplo, todos los electrones en el universo son idénticos, todos los protones en el universo son idénticos, ası́ como
todos los átomos de hidrógeno (protios). Por otra parte el electrón y el positrón (su antipartı́cula) no son idénticos
ya que aunque tienen la misma masa y espı́n, difieren en el signo de su carga eléctrica.
Es claro que tanto en un contexto clásico como cuántico, un sistema fı́sico que contiene dos partı́culas idénticas
no cambia sus propiedades de evolución cuando se intercambian los roles de las dos partı́culas.
Es importante notar que la definición de partı́culas idénticas y todas las simetrı́as a las que conlleva son
independientes de las condiciones experimentales. A manera de ejemplo, incluso si no se miden las cargas en un
experimento dado, un electrón y un positrón no se pueden tratar como partı́culas idénticas.

26.1. Partı́culas idénticas en mecánica clásica


Dado que las partı́culas clásicas poseen trayectorias bien definidas, un sistema de partı́culas idénticas se puede
tratar prácticamente igual que un sistema general de partı́culas. Podemos distinguir cada partı́cula una vez que
determinamos su posición y velocidad iniciales, rastreando la curva que describe.
Por simplicidad estudiaremos un sistema de dos partı́culas idénticas y veremos que incluso en mecánica clásica
aparecen algunas simetrı́as asociadas al carácter idéntico de las partı́culas. En el tiempo inicial t0 , el estado del
sistema se especifica con los valores iniciales de posición y velocidad de cada partı́cula. Denotaremos estos datos
iniciales en la forma {r0 , v0 } y {r′0 , v′0 }. Para describir la evolución del estado del sistema rotulamos las dos
partı́culas: para la partı́cula (1) tendremos una posición r1 (t) y una velocidad v1 (t), y los valores asociados a la
partı́cula (2) serán r2 (t) , v2 (t). Esta numeración es arbitraria, a diferencia de lo que ocurrirı́a si las partı́culas
fueran no idénticas. El estado fı́sico inicial puede en teorı́a ser descrito por dos “estados matemáticos” diferentes
puesto que cualquiera de estas dos asignaciones es totalmente equivalente

r1 (t0 ) = r0 , v1 (t0 ) = v0 ; r2 (t0 ) = r′0 , v2 (t0 ) = v0′ (26.1)


r1 (t0 ) = r′0 , v1 (t0 ) = v0′ ; r2 (t0 ) = r0 , v2 (t0 ) = v0 (26.2)
1
Propiedades como posición, momento, velocidad etc, son propiedades cinemáticas y dinámicas y no son intrı́nsecas, ya que dependen
de las condiciones iniciales.

590
26.2. PARTÍCULAS IDÉNTICAS EN MECÁNICA CUÁNTICA 591

ahora, si solucionamos la evolución del sistema usando las condiciones iniciales (26.1), tales soluciones tendrán la
forma
r1 (t) = r (t) , r2 (t) = r′ (t)
donde r (t) y r′ (t) son dos funciones vectoriales del tiempo. El hecho de que las partı́culas sean idénticas implica
que el sistema no cambia si intercambiamos los roles de las partı́culas. Por tanto, el Lagrangiano o Hamiltoniano
clásicos
L (r1 , v1 ; r2 , v2 ) ; H (r1 , v1 ; r2 , v2 )
son invariantes bajo el intercambio de ı́ndices 1 ↔ 2. De esto se sigue que la solución para la evolución del sistema
partiendo de las condiciones iniciales (26.2) estará dada por

r1 (t) = r′ (t) , r2 (t) = r (t)

las dos descripciones matemáticas del estado fı́sico bajo estudio son totalmente equivalentes ya que conducen a las
mismas predicciones fı́sicas. Lo intrı́nseco o esencial en esta descripción es: la partı́cula con posición y velocidad
{r0 , v0 } en t0 , evolucionará de acuerdo con la función vectorial r (t) y la partı́cula con posición y velocidad {r′0 , v0′ }
en t0 , evolucionará de acuerdo con la función vectorial r′ (t). Lo único que tenemos que hacer es escoger en el
tiempo inicial uno de los “estados matemáticos” e ignorar la existencia del otro. En tal sentido tratamos a las
partı́culas como si fueran de diferente naturaleza. Una vez hecha una escogencia, los rótulos (1) y (2) con los
que “marcamos” cada partı́cula en t0 , actúan como propiedades intrı́nsecas para distinguir a las dos partı́culas.
Puesto que podemos rastrear la trayectoria de cada partı́cula, podemos determinar las posiciones y velocidades de
la partı́cula rotulada como (1) en cualquier tiempo. Por supuesto lo mismo vale para la partı́cula con rótulo (2).

26.2. Partı́culas idénticas en mecánica cuántica


En mecánica cuántica la situación es totalmente distinta. Incluso si en t0 los paquetes de onda asociados a
dos partı́culas idénticas no se traslapan (están separados espacialmente) la evolución temporal puede mezclarlos.
En tal sentido, cuánticamente se “pierde el rastro” de las partı́culas. Cuando una partı́cula es detectada en una
región del espacio, no hay manera de saber si la partı́cula detectada es la que originalmente se rotuló (1) o la que
originalmente se rotuló (2). La razón es que ambas partı́culas tienen en general una probabilidad diferente de cero
de ser detectadas en tal región del espacio. La numeración asignada en el tiempo inicial será entonces ambigüa
cuando se mide su posición, ya que como veremos a continuación, existen varios “caminos” que el sistema puede
seguir desde su estado inicial hasta el estado que se encuentra en la medida2 .
Tomemos como ejemplo la colisión de dos partı́culas idénticas en su sistema de referencia centro de masa.
Asumamos que en t0 sus paquetes están separados para facilitar la rotulación (ver Fig. 26.1a). Denotaremos por
(1) la partı́cula de la izquierda y por (2) la de la derecha. Los dos paquetes de onda se dirigen el uno al otro
y al aproximarse, comienzan a traslaparse las funciones de onda (Fig 26.1b). Después de la colisión, la región
del espacio en la cual la densidad de probabilidad de las dos partı́culas es significativa, tiene la forma de una
capa esférica cuyo radio se incrementa con el tiempo (Fig. 26.1c). Supongamos ahora que ubicamos un detector
D en la dirección que hace un ángulo θ con la velocidad inicial del paquete de onda (1). Si este detector detecta
una partı́cula, es claro que la otra partı́cula debe moverse en dirección opuesta por conservación del momento.
Sin embargo, no es posible determinar si la partı́cula detectada en D, es la inicialmente rotulada como (1) o la
inicialmente rotulada como (2). Para verlo, observamos que hay dos “caminos” diferentes que el sistema pudo
haber seguido desde la condición inicial establecida en la Fig. 26.1a, para llegar al estado final que se encuentra en
la medida. Estos dos caminos se presentan esquemáticamente en la Fig. 26.2. No podemos determinar cual camino
siguió el sistema.
2
La ambigüedad se puede remover solo si los paquetes de onda no se traslapan para ningún tiempo. En este caso las probabilidades
serı́an excluyentes. Sin embargo, esta situación nunca es exacta, y en pocos casos se puede despreciar el traslapamiento de las funciones
de onda para todo tiempo.
592 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

Figura 26.1: Colisión de dos partı́culas idénticas en su sistema de referencia del centro de masa. (a) En t0 los
paquetes de onda está bien separados. (b) A medida que se aproximan las dos partı́culas, sus paquetes de onda
comienzan a traslaparse. (c) Después de la colisión, la región de alta probabilidad de detección tiene la forma de
una capa esférica que se expande con el tiempo.

Figura 26.2: Representación de los dos “caminos” que un sistema de dos partı́culas idénticas puede seguir desde el
estado inicial hasta la medida (en el sistema de referencia del centro de masa). La indistinguibilidad no permite
determinar cuál de los dos caminos tomaron las partı́culas.

Se presenta entonces una dificultad fundamental para usar los postulados de la mecánica cuántica, ya que para
calcular una probabilidad asociada a alguna medida es necesario conocer perfectamente el estado final asociado a
dicha medición. En este caso hay dos estados diferentes (de hecho ortogonales) asociados a las figuras 26.2. Sin
embargo, ambos estados están asociados a un solo estado fı́sico ya que no podemos distinguir entre ellos a través
de alguna medida experimental. La pregunta natural es: bajo estas condiciones ¿el cálculo de probabilidad debe
emplear el camino de la Fig. 26.2a, el camino de la Fig. 26.2b, o los dos?. Si se deben tomar los dos, ¿debemos
sumar las probabilidades asociadas con cada camino, o debemos sumar sus amplitudes de probabilidad? (en el
último caso, ¿que signo debemos usar?). Cada una de estas alternativas nos llevará a diferentes predicciones. Antes
de responder a estas preguntas tomaremos otro ejemplo que nos ilustra el problema de la indistinguibilidad en
cuántica.

26.3. Degeneración de intercambio


En el anterior ejemplo, consideramos dos paquetes de onda que inicialmente no se traslapan, lo cual nos
permite rotular cada paquete sin ambigüedad al menos en t = t0 . Las ambigüedades aparecen cuando tratamos de
determinar el ket o estado matemático asociado con un resultado dado de una medida de posición. En esta sección
veremos que en ciertas circunstancias, surge la misma dificultad en la escogencia del ket matemático usado para
26.3. DEGENERACIÓN DE INTERCAMBIO 593

describir el estado fı́sico inicial. Esta dificultad asociada al estado inicial involucrará al concepto de degeneración
de intercambio.

26.3.1. Degeneración de intercambio para un sistema de dos partı́culas de espı́n 1/2


Como primer paso consideremos un sistema de dos partı́culas idénticas de espı́n 1/2, en el cual nos limitaremos
a mediciones de grados de libertad de espı́n. Al igual que en las secciones precedentes, distinguiremos entre el
estado fı́sico del sistema y su descripción matemática (un ket del espacio de estados).
Parece natural que si hacemos un conjunto completo de medidas de cada espı́n, conoceremos el estado fı́sico
completo de manera perfecta. Asumiremos que la tercera componente de espı́n de una de las partı́culas es +~/2
y la de la otra es −~/2. Esto es equivalente a la especificación de {r0 , v0 } y de {r′0 , v0′ } en el sistema clásico.
Para describir el sistema matemáticamente numeramos las partı́culas: S1 y S2 denota a los dos observables de
(1)
espı́n, y {|ε1 , ε2 i} es la base ortonormal del espacio de estados formado por vectores propios comunes a S3 (valor
(2)
propio ε1 ~/2) y S3 (valor propio ε2 ~/2).
Al igual que en el ejemplo clásico, hay dos “estados matemáticos” diferentes que se pueden asociar con el
mismo sistema fı́sico. En este caso uno de los estados definidos por

|ε1 = +, ε2 = −i (26.3)
|ε1 = −, ε2 = +i (26.4)

cualquiera de estos dos estados ortogonales puede en principio describir el estado fı́sico del sistema. Ahora bien,
estos dos kets expanden un subespacio bidimensional de vectores normalizados de la forma

|χi ≡ α |+ , −i + β |− , +i ; |α|2 + |β|2 = 1 (26.5)

en virtud del principio de superposición, todos los kets matemáticos (26.5) pueden representar al estado fı́sico
asociado a (26.3) o a (26.4). En otras palabras, una superposición de la forma (26.5) representa un estado fı́sico
con una partı́cula con espı́n arriba y otra con espı́n abajo. Lo intrı́nseco es tener una partı́cula con espı́n arriba y
otra con espı́n abajo. Esto se denomina degeneración de intercambio.
La degeneración de intercambio crea dificultades fundamentales, puesto que la aplicación de los postulados a
los kets del tipo (26.5) pueden conducir a predicciones diferentes de acuerdo con el ket escogido. Determinemos
por ejemplo, la probabilidad de encontrar las primeras componentes de los dos espines iguales a +~/2. Con esta
medida, el resultado está asociado a un solo ket del espacio de estados (ya que el intercambio me deja el ket
intacto). Recordemos que los autoestados de S1 con respecto a los autoestados de S3 se escriben en la forma
1
|±i1 = √ [|+i ± |−i] (26.6)
2
el estado (único) que describe a dos partı́culas con primera componente de espı́n arriba, se construye como el
producto tensorial de dos estados del tipo |+i1
E E 1 1

|+, +i1 = (+)(1) ⊗ (+)(2) = √ [|ε1 = +i + |ε1 = −i] ⊗ √ [|ε2 = +i + |ε2 = −i]
1 1 2 2
1
|+, +i1 = [|+, +i + |−, +i + |+, −i + |−, −i]
2
de modo que la probabilidad que queremos calcular para el vector (26.5) está dada por
  2
∗ 1
2 ∗
P = |hχ |+, +i1 | = {α h+ , −| + β h− , +|} [|+, +i + |−, +i + |+, −i + |−, −i]
2
2
1
P = (α + β)
2
594 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS


a manera de ejemplo, utilizando (α, β) = (1, 0) se obtiene P = 1/4, y usando α = β = 1/ 2 se obtiene P = 1/2.
Es claro entonces que esta probabilidad depende de los coeficientes α y β. Por tanto, no es consistente describir
el estado fı́sico bajo estudio por el conjunto de kets (26.5) o por alguno de ellos escogido en forma arbitraria. La
degeneración de intercambio debe removerse, y determinar cual ket del tipo (26.5) debe emplearse en el cálculo.
En este ejemplo aparece degeneración de intercambio solo en el estado inicial, debido a que hemos escogido
el mismo valor para las componentes de los dos espines en el estado final. En el caso general puede aparecer
degeneración de intercambio tanto en el estado inicial como en el final. Esto ocurre por ejemplo, si el resultado de
la medida corresponde a dos diferentes autovalores de S1 .

26.3.2. Degeneración de intercambio para un sistema arbitrario


Las dificultades inherentes a la degeneración de intercambio aparecen en cualquier sistema cuántico de N
partı́culas idénticas. Tomaremos por ejemplo, un sistema de tres partı́culas idénticas. Cada una de las tres partı́cu-
las tiene asociado un espacio de estados y observables que actúan en cada uno de estos espacios. Por ejemplo,
la partı́cula que rotulamos como (1) tiene asociado un espacio de estados E (1) y un observable que actúa en tal
espacio lo denotaremos por B (1). El espacio de estados correspondiente al sistema de tres partı́culas es el producto
tensorial de los estados de cada una
E = E (1) ⊗ E (2) ⊗ E (3)
vamos a asumir que el observable B (1) que actúa sobre E (1) constituye un C.S.C.O. en E (1), o que B (1) simboliza
varios observables que constituyen un C.S.C.O. El hecho de que las tres partı́culas sean idénticas implica que existen
los observables B (2), B (3) y que constituyen un C.S.C.O. en E (2) y E (3) respectivamente. Naturalmente, los
tres B (p) poseen el mismo espectro {bk }. Vamos a “distinguir” el espectro de cada B (p) utilizando el rótulo de
la partı́cula asociada n o
(p) (p) (p) (p)
B (p) → b1 , b2 , b3 , b4 , . . . ; p = 1, 2, 3
E
(p)
de modo que sus vectores propios asociados bk son una base para E (p) (por simplicidad asumiremos que no
hay degeneración). Por tanto, el producto tensorial de estas bases es una base para el espacio de estados E del
sistema completo n Eo
(1) (2) (3)
bi , bj , bk

los cuales son vectores propios comunes de las extensiones de B (1), B (2) y B (3) en E, con autovalores bi , bj , bk
respectivamente.
Ahora bien, puesto que las tres partı́culas son idénticas, no podemos medir B (1) , B (2) , B (3) puesto que la
numeración no tiene significado fı́sico. Lo que sı́ se puede, es medir el observable B para cada una de las tres
partı́culas. Supongamos que esta medida nos arrojó tres diferentes autovalores bn , bp , bq . En este caso aparece
degeneración de intercambio, ya que el estado del sistema después de esta medida puede apriori representarse por
cualquiera de los kets del subespacio de E expandido por los seis vectores base dados por
n E E E E E Eo
(1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3)
bn , bp , bq , b(1)
n , b(2) (3)
q , bp , bp , bn , bq , bq , bn , bp , bp , bq , bn , bq , bp , bn

es decir, por todas las permutaciones de los rótulos n, p, q. Por tanto, una medida completa sobre cada partı́cula
no permite determinar un único ket del espacio de estados del sistema. En nuestro caso vemos que si obtenemos
tres medidas diferentes, tendremos tantos estados linealmente independientes asociados con esta medida como
permutaciones de las tres diferentes medidas es decir 3! = 6.
Si algunas de las medidas de autovalores coinciden, disminuye la degeneración por intercambio. Por ejemplo,
la indeterminación debida a la degeneración de intercambio es menor si dos de los tres autovalores medidos en el
ejemplo anterior son iguales, en tal caso tenemos los siguientes kets asociados
n E E Eo
(1) (2) (3)
bn , bn , bq , b(1) (2) (3)
n , bq , bn , b(1) (2) (3)
q , bn , bn
26.4. OPERADORES DE PERMUTACIÓN 595

y la indeterminación desaparece por completo


si los tres Eautovalores medidos tienen el mismo valor. En tal caso
(1) (2) (3)
solo tendremos asociado un ket de la forma bn , bn , bn .

26.4. Operadores de permutación


Para establecer adecuadamente el postulado adicional que se necesita para remover la degeneración de inter-
cambio, será necesario emplear operadores que permiten la permutación de las partı́culas idénticas involucradas
en un problema. Comenzaremos por simplicidad, con sistemas de dos partı́culas

26.4.1. Permutaciones en sistemas de dos partı́culas


Consideraremos un sistema compuesto por dos partı́culas del mismo espı́n s. En el presente tratamiento no
será necesario que las partı́culas sean idénticas. Solo pediremos que los espacios de estados asociados a cada
partı́cula sean isomorfos. De hecho, por el momento asumiremos que las partı́culas son no-idénticas de manera
que la numeración (1) y (2) indica su naturaleza. Por ejemplo, (1) puede denotar un protón y (2) puede denotar
un electrón.
Escogeremos una base {|ui i} para el espacio de estados E (1) de la partı́cula (1). Puesto que ambas partı́culas
tienen el mismo espı́n, E (2) es isomorfo con E (1), y se puede expandir con la misma base3 . Podemos construir
una base para el espacio total E = E1 ⊗ E2 utilizando el producto tensorial de dos bases idénticas
n Eo
(1) (2)
E = E1 ⊗ E2 → u
i , uj (26.7)

y dado que el orden de los vectores es irrelevante en el producto tensorial, tenemos que
E E
(2) (1) (1) (2)
uj , ui = ui , uj

sin embargo, se tiene que E E


(1) (2) (1) (2)
uj , ui 6= ui , uj si i 6= j
definimos el operador permutación P21 como el operador lineal cuya acción sobre los vectores base está dada por
E E E
(1) (2) (2) (1) (1) (2)
P21 ui , uj = ui , uj = uj , ui

la acción de este operador sobre un ket arbitrario de E, se obtiene expandiendo este ket en la base (26.7). Puede
verse que el operador P21 ası́ definido no depende de la base {|ui i} escogida. Pero sı́ es muy importante que la
base de E se construya con el producto tensorial entre dos bases idénticas.
Vamos a escoger en particular, la base |r, εi, de vectores de posición y de espı́n. Una base para el espacio
completo es E
(1) (1) ′(2) ′(2)
r , ε ; r , ε (26.8)
la acción del operador de permutación será
E E E

P21 r(1) , ε(1) ; r′(2) , ε′(2) = r(2) , ε(2) ; r′(1) , ε′(1) = r′(1) , ε′(1) ; r(2) , ε(2) (26.9)

cualquier ket |ψi ∈ E, es una combinación lineal de la base contı́nua (26.8) y se puede representar con un conjunto
de (2s + 1)2 funciones de seis variables
XZ  E 
|ψi = d3 r d3 r′ ψε,ε′ r, r′ r(1) , ε(1) ; r′(2) , ε′(2) ; ψε,ε′ r, r′ = hr(1) , ε(1) ; r′(2) , ε′(2) |ψi (26.10)
ε,ε′
3
El espacio orbital de estados de cualquier partı́cula elemental es simplemente el espacio L2 de las funciones cuadráticamente
integrables. Por tanto, la única diferencia puede provenir del espacio espinorial, que solo es diferente si las dos partı́culas poseen
diferente espı́n.
596 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

la acción del operador permutación P21 sobre |ψi se obtiene combinando las ecuaciones (26.9, 26.10)
′ XZ  E
ψ = P21 |ψi = d3 r d3 r′ ψε,ε′ r, r′ r′(1) , ε′(1) ; r(2) , ε(2) (26.11)
ε,ε′

intercambiando los nombres de las variables mudas ε ↔ ε′ , r ↔ r′ , la Ec. (26.11) queda en la forma
′ XZ  (1) (1) ′(2) ′(2) E
ψ = P21 |ψi = 3 3 ′


d r d r ψε ,ε r , r r , ε ; r , ε (26.12)
ε,ε′

comparando (26.10) con (26.12) vemos que las funciones o coeficientes

′ ′
 D (1) (1) ′(2) ′(2) ′ D (1) (1) ′(2) ′(2)
ψε,ε ′ r, r = r , ε ; r , ε ψ = r , ε ; r , ε P21 |ψi (26.13)

que representan a |ψ ′ i = P21 |ψi se pueden obtener a partir de los coeficientes en (26.10) que representan al ket
|ψi, invirtiendo (r, ε) y (r′ , ε′ )  
′ ′
ψε,ε ′ r, r = ψε′ ,ε r′ , r (26.14)
A partir de la definición es fácil ver que
(P21 )2 = 1 (26.15)
n Eo
(1) (2)
de modo que P21 es su propia inversa. Los elementos matriciales de P21 en la base ui , uj están dados por
D E D E D E
(1) (1) (2) (1) (2) (2) (1) (1) (2) (1) (2)
uk , u(2)
m P21 ui , uj = uk , um ui , uj = uk , um uj , ui = δkj δmi (26.16)


y los elementos matriciales de P21 son por definición
D E D E D E∗
(1) † (1) (2) (1) (2) (1) (2) ∗ (1) (2) (1) (2)
uk , u(2)
m P21 ui , uj = ui , uj P21 uk , um = ui , uj um , uk = δim δjk (26.17)

comparando las Ecs. (26.16, 26.17) resulta



P21 = P21 (26.18)
es decir P21 es hermı́tico. Combinando las Ecs. (26.15, 26.18) se obtiene
† †
P21 P21 = P21 P21 =1 (26.19)

de modo que el operador P21 es unitario.

26.4.2. Simetrizadores y antisimetrizadores


Puesto que P21 es hermı́tico sus valores propios son reales, y puesto que (P21 )2 = 1, sus autovalores son ±1.
Podemos verlo también diciendo que P21 es unitario y por tanto sus valores propios yacen en el cı́rculo complejo
unitario, pero como también es hermı́tico los valores propios son reales de modo que solo pueden ser ±1. Los
autovectores |ψS i de P21 con valor propio +1, se denominan simétricos, y los autovectores |ψA i asociados al valor
propio −1 se denominan antisimétricos.

P21 |ψS i = |ψS i ; P21 |ψA i = − |ψA i


definimos ahora los operadores
1 1
S= (1 + P21 ) ; A= (1 − P21 )
2 2
26.4. OPERADORES DE PERMUTACIÓN 597

a partir de las Ecs. (26.15, 26.18, 26.19) es fácil ver las siguientes propiedades

S † = S ; A† = A ; S 2 = S ; A2 = A (26.20)
SP21 = P21 S = S ; AP21 = P21 A = −A (26.21)
S + A = 1 ; AS = SA = 0 (26.22)

de tal manera que S y A son proyectores hermı́ticos. Las Ecs. (26.22) nos dicen además que estos proyectores son
suplementarios y ortogonales. Veamos algunas de estas propiedades por ejemplo
1 1 †
 1
A† = (1 − P21 )† = 1 − P21 = (1 − P21 ) = A
2 2 2
1 1  1 1
S2 = (1 + P21 )2 = 1 + 2P21 + P212
= (2 + 2P21 ) = (1 + P21 ) = S
4 4 4 2
1 1 2
 1
AP21 = (1 − P21 ) P21 = P21 − P21 = (P21 − 1) = −A
2 2 2
Por otro lado, de las Ecs. (26.21) podemos ver que dado un ket arbitrario |ψi tenemos que

P21 S |ψi = S |ψi ; P21 A |ψi = −A |ψi (26.23)

es decir que dado un ket arbitrario no nulo |ψi , tenemos que S |ψi es vector propio de P21 con valor propio +1, en
tanto que A |ψi es vector propio de P21 con valor propio −1. Por esta razón S y A se conocen como simetrizador
y antisimetrizador, puesto que mapean a un vector arbitrario no nulo en su componente simétrica y antisimétrica
respectivamente.

26.4.3. Transformación de los observables por medio de las permutaciones


Consideremos un observable B (1) que actúa sobre el subespacio E (1) y cuya extensión se define sobre E.
Podemos construir una base de E (1) con los vectores propios {|ui i} de B (1), denotaremos los valores propios

correspondientes por bi . Calcularemos la acción del operador P21 B (1) P21 sobre un elemento arbitrario de la base
de E, construı́da con el producto tensorial de los {|ui i}
E E E
† (1) (2) (1) (2) (1) (2)
P21 B (1) P21 u
i , uj = P 21 B (1) u
j , ui = b P u
j 21 j , ui
E E
(1) (2) (1) (2)
= bj ui , uj = B (2) ui , uj

como esto es válido para todos los elementos de la base, lo será para cualquier combinación lineal de ésta, y por
tanto para un ket arbitrario de E

P21 B (1) P21 = B (2)
con un argumento similar podemos ver que

P21 B (2) P21 = B (1)

por supuesto, B (1) y B (2) se refiere realmente a sus extensiones sobre E. Hay otros operadores extendidos definidos
en E tales como B (1) + C (2) ó B (1) C (2). Es fácil ver la acción de la transformación de similaridad hecha con
P21 sobre estos operadores

P21 [B (1) + C (2)] P21 = B (2) + C (1)
† † †
P21 B (1) C (2) P21 = P21 B (1) P21 P21 C (2) P21 = B (2) C (1)

podemos generalizar las anteriores expresiones para observables en E que se puedan escribir en términos de
observables del tipo B (1) y C (2), que denotaremos genéricamente por O (1, 2)

P21 [O (1, 2)] P21 = O (2, 1) (26.24)
598 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

donde O (2, 1) se obtiene del observable O (1, 2) intercambiando los ı́ndices 1 y 2 en toda la expresión del observable.
Decimos que un observable OS (1, 2) es simétrico si se cumple

OS (1, 2) = OS (2, 1) (26.25)

al aplicar (26.25) y la condición de unitariedad de P21 Ec. (26.19), vemos que para un observable simétrico se
cumple

P21 [OS (1, 2)] P21 = OS (1, 2) ⇒ P21 [OS (1, 2)] = OS (1, 2) P21
[OS (1, 2) , P21 ] = 0

por tanto los observables simétricos conmutan con el operador permutación P21 .

26.4.4. Permutación de un conjunto arbitrario de partı́culas


Asumiremos un sistema de partı́culas del mismo espı́n, pero no necesariamente idénticas. Por simplicidad
ilustraremos la mayor parte de las propiedades con el caso N = 3, veremos que algunas propiedades de las
permutaciones generales difieren de las presentadas para el caso N = 2.
Una base para el espacio de estados de tres partı́culas con el mismo espı́n se puede escribir en la forma
n Eo
(1) (2) (3)
u
i , uj , uk (26.26)

en este caso existen 6 permutaciones (N ! en el caso general), que denotaremos en la forma

P123 , P312 , P231 , P132 , P213 , P321 (26.27)

donde por definición el operador Pnpq (siendo npq una permutación de los números 1,2,3) es un operador lineal
cuya acción sobre los vectores bases está dada por
E E
(1) (2) (3) (n) (p) (q)
Pnpq ui , uj , uk = ui , uj , uk

por ejemplo E E E
(1) (2) (3) (2) (3) (1) (1) (2) (3)
P231 ui , uj , uk = ui , uj , uk = uk , ui , uj
P123 es claramente el operador identidad. La acción de Pnpq sobre un ket arbitrario se puede obtener expandiendo
dicho ket en la base (26.26).
Es fácil ver que el conjunto de todas las N ! permutaciones asociadas a N elementos constituyen un grupo. Es
decir, cumplen con los siguientes axiomas

1. P123 es el operador identidad.

2. El producto de dos operadores de permutación es otro operador de permutación. Por ejemplo, tomemos la
acción de las siguientes permutaciones
E E E
(1) (2) (3) (3) (2) (1) (1) (2) (3)
P321 ui , uj , uk = ui , uj , uk = uk , uj , ui (26.28)

E E E E
(1) (2) (3) (1) (3) (2) (1) (2) (3) (3) (1) (2)
P312 P132 ui , uj , uk = P312 ui , uj , uk = P312 ui , uk , uj = ui , uk , uj
E E
(1) (2) (3) (1) (2) (3)
P312 P132 ui , uj , uk = uk , uj , ui (26.29)

comparando (26.28) con (26.29) podemos ver que

P312 P132 = P321


26.4. OPERADORES DE PERMUTACIÓN 599

3. Los operadores permutación son asociativos. Por ejemplo, el lector puede verificar que
(P312 P132 ) P231 = P312 (P132 P231 )

4. Cada operador permutación posee un operador inverso que también es de permutación. Con razonamientos
similares al anterior se puede probar que
−1 −1 −1
P123 = P123 ; P312 = P231 ; P231 = P312
−1 −1 −1
P132 = P132 ; P213 = P213 ; P321 = P321 (26.30)
En general los operadores permutación no conmutan. Por ejemplo
P312 P132 = P321 ; P132 P312 = P213 6= P321

Paridad de una permutación


Una transposición es una permutación que intercambia dos ı́ndices dejando los demás intactos. Los tres últimos
operadores en (26.27) son transposiciones4 . Como las transposiciones son permutaciones que solo involucran a dos
elementos, poseen las mismas propiedades que las permutaciones P21 que estudiamos en la sección 26.4.1. En
consecuencia, las transposiciones son hermı́ticas, unitarias y coinciden con su inverso.
Un operador permutación se puede escribir como el producto de transposiciones. Por ejemplo, es posible
verificar que
P312 = P132 P213 = P321 P132 = P213 P321 = P132 P213 (P132 )2 = . . . (26.31)
esta descomposición NO es única. Sin embargo, para una permutación dada, la paridad del número de transposi-
ciones es siempre la misma. Una permutación par (impar) es una permutación que se escribe como un número par
(impar) de transposiciones. Las tres primeras permutaciones en (26.27) son pares y las tres últimas son impares.
Para N ≥ 2, siempre hay N !/2 de permutaciones pares y N !/2 de permutaciones impares.
Puesto que las permutaciones son productos de operadores unitarios (transposiciones) entonces son unitarias.
Sin embargo, las permutaciones no son necesariamente hermı́ticas ya que el producto de operadores hermı́ticos
no-conmutantes, no es hermı́tico [ver teorema 1.34 Pág. 34].
No obstante, puede demostrarse que el inverso (i.e. el hermı́tico) de una permutación Pnpq tiene la misma
−1 se construye con las mismas
paridad que la permutación original. Esto se puede ver teniendo en cuenta que Pnpq
transposiciones pero tomadas en orden inverso. A manera de ejemplo, tenemos que
P312 = P132 P213 ⇒ −1
P312 = (P132 P213 )−1 = P213
−1 −1
P132 ⇒
−1
P312 = P213 P132

Kets completamente simétricos y antisimétricos


Puesto que los operadores de permutación no conmutan para N > 2, no es posible construir una base de
autovectores comunes a estos operadores. Sin embargo, veremos que existen algunos kets que son simultáneamente
autovectores de todos los operadores permutación. Denotaremos por Pα un operador de permutación arbitrario
de los primeros N enteros. Un ket |ψS i tal que
Pα |ψS i = |ψS i
para toda permutación Pα se dice que es un ket completamente simétrico. Similarmente un ket se denomina
completamente antisimétrico si se cumple la condición

+1 si Pα es una permutación par
Pα |ψA i = εα |ψA i ; εα =
−1 si Pα es una permutación impar
4
Es obvio que una transposición aplicada dos veces es la identidad. Por tanto, una transposición es su propio inverso. Por esta
razón, las tres últimas permutaciones en (26.27) coinciden con su propia inversa como se puede ver en las Ecs. (26.30).
600 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

alternativamente, puesto que Pα se compone de un producto de transposiciones, se puede definir un ket totalmente
simétrico como aquel que queda invariante bajo cualquier transposición, y un ket es completamente antisimétrico
si invierte su signo bajo cualquier transposición. El conjunto de los kets completamente simétricos constituye un
subespacio vectorial ES ⊂ E, y el de los kets completamente antisimétricos un subespacio EA ⊂ E. Consideremos
los operadores
N! N!
1 X 1 X
S= Pα ; A = εα Pα (26.32)
N ! α=1 N ! α=1

Veremos que S y A son los proyectores sobre los espacios ES y EA respectivamente. Por esta razón se denominan
el simetrizador y el antisimetrizador. Tomando el adjunto a ambos lados de (26.32) obtenemos

N! N! N!
† 1 X † 1 X −1 1 X
S = Pα = Pα = Pβ = S
N! N! N!
α=1 α=1 β=1
N!
X N!
X N!
† 1 1 1 X
A = εα Pα† = εα Pα−1 = εβ Pβ = A
N ! α=1 N ! α=1 N!
β=1

donde hemos usado el hecho de que al recorrer todos los inversos se recorren todos los operadores aunque en un
orden diferente. Además, el inverso tiene la misma paridad que la permutación directa.
Supongamos ahora que Pα0 es una permutación arbitraria, calcularemos Pα0 S y Pα0 A

N! N!
1 X 1 X
Pα0 S = Pα Pα = Pβ = S
N ! α=1 0 N!
β=1
N! N!
1 X 1 X
Pα0 A = εα Pα0 Pα = εα0 εβ Pβ = εα0 A
N! N!
α=1 β=1

donde hemos tenido en cuenta que al multiplicar la suma de todas las permutaciones por una permutación fija,
se vuelven a obtener todas las permutaciones aunque en un orden diferente. Además si Pα0 es par (impar) la
paridad de cada producto Pα0 Pα queda intacta (se invierte de signo). Para los productos SPα0 y APα0 se realiza
un procedimiento análogo y se obtiene

Pα0 S = SPα0 = S ; Pα0 A = APα0 = ε0 A (26.33)

aplicando las Ecs. (26.33) también se obtiene

N!
! N! N!
1 X 1 X 1 X 1
S2 = Pα S= Pα S = S= N !S = S
N! N! N! N!
α=1 α=1 α=1

1 X!
N N
1 X 2
!
1 X!
N
A2 = εα Pα A = εα A = A=A
N! N! N!
α=1 α=1 α=1
XN! N!
X N!
X
1 1 S
AS = εα Pα S = εα S = εα = 0
N! N! N!
α=1 α=1 α=1

en la última ecuación se tuvo en cuenta que para N ≥ 2, la mitad de las permutaciones es par y la otra mitad es
impar. Tenemos entonces que
S 2 = S ; A2 = A ; SA = AS = 0 (26.34)
26.5. POSTULADO DE SIMETRIZACIÓN 601

S y A son entonces proyectores sobre los subespacios ES y EA respectivamente. La Ec. (26.33) nos dice que la
acción de estos operadores sobre un ket arbitrario |ψi nos da un ket completamente simétrico y completamente
antisimétrico respectivamente

Pα0 S |ψi = S |ψi ⇒ Pα0 |ψS i = |ψS i ; |ψS i ≡ S |ψi


Pα0 A |ψi = εα0 A |ψi ⇒ Pα0 |ψA i = εα0 |ψA i ; |ψA i ≡ A |ψi

para N ≥ 3, los subespacios ES y EA no son suplementarios (su suma directa no es E). Por ejemplo, para N = 3
tenemos
1
S + A = (P123 + P231 + P312 ) 6= 1
3
es decir, la unión de todos los kets completamente simétricos con todos los completamente antisimétricos, no forman
una base. Hay kets “mixtos” que no tienen ninguna de las dos simetrı́as y que son linealmente independientes de
los anteriores. Esto es consistente con el hecho de que para N > 2, los autoestados comunes a todos los operadores
permutación no pueden formar una base, ya que tales operadores no conmutan entre sı́.
Para encontrar la transformación de los observables por medio de una permutación arbitraria, podemos escribir
la permutación como producto de transposiciones ya que éstas poseen las mismas propiedades que la permutación
P21 que se estudió en la sección 26.4.1. Con los argumentos de la sección 26.4.1 se puede encontrar la forma en
que una permutación arbitraria transforma a un observable. A manera de ejemplo, tomemos la permutación P312
y la escribimos en términos de transposiciones como en la Ec. (26.31)

P312 = P132 P213

la transformación de un observable O (1, 2, 3) a través de P312 se puede escribir como


† † †
P312 O (1, 2, 3) P312 = [P132 P213 ] O (1, 2, 3) [P132 P213 ]† = [P132 P213 ] O (1, 2, 3) P213 P132
h i
† † †
= P132 P213 O (1, 2, 3) P213 P132 = P132 [O (2, 1, 3)] P132

P312 O (1, 2, 3) P312 = O (3, 1, 2) (26.35)

donde hemos usado la Ec. (26.24), teniendo en cuenta que P132 y P213 son transposiciones de los ı́ndices 2, 3 y 1, 2
respectivamente. En particular, si un observable OS (1, 2, . . . , N ) es completamente simétrico bajo el intercambio
de los ı́ndices 1, 2, . . . , N , conmutará con todas las transposiciones, y puesto que una permutación arbitraria es un
producto de transposiciones, se concluye que el observable OS (1, 2, . . . , N ) conmutará con cualquier permutación
Pα de los N ı́ndices anteriores

[OS (1, 2, . . . , N ) , Pα ] = 0 si OS (1, 2, . . . , N ) es completamente simétrico (26.36)

26.5. Postulado de simetrización


El postulado de simetrización nace como una necesidad de describir sistemas de partı́culas idénticas y remover
la degeneración de intercambio, junto con las dificultades que esta conlleva. Cuando se discutió la degeneración de
intercambio, se observó que esta desaparecı́a cuando el ket era completamente simétrico bajo el intercambio de los
rótulos de partı́cula. Similarmente, es fácil demostrar que tal degeneración también desaparece cuando el ket es
completamente antisimétrico bajo dicho intercambio. Estos razonamientos junto con la experiencia fenomenológica,
condujeron al llamado postulado de simetrización, que se puede enunciar en la siguiente forma:
Cuando un sistema incluye varias partı́culas idénticas, solo ciertos kets del espacio de estados pueden describir
a los estados fı́sicos. Los estados fı́sicos son o bien totalmente simétricos o totalmente antisimétricos con respecto
a la permutación de estas partı́culas. La naturaleza simétrica o antisimétrica de los kets asociados con el estado
fı́sico, depende de la naturaleza de las partı́culas idénticas en cuestión. Aquellas partı́culas cuyos estados asociados
602 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

son simétricos se denominan Bosones, en tanto que aquellas asociadas a estados antisimétricos se denominan
Fermiones.
El postulado de simetrización limita entonces el espacio de estados para un sistema de partı́culas idénticas.
Para partı́culas de diferente naturaleza, el espacio de estados E, es el producto tensorial de los estados de cada
partı́cula del sistema. Cuando las partı́culas son idénticas, el espacio de estados es solo un subespacio de E, que
serı́a ES si las partı́culas son bosones ó EA si las partı́culas idénticas son fermiones.
De acuerdo con este postulado, las partı́culas que existen en la naturaleza se dividen en dos categorı́as. Todas
las partı́culas que conocemos hasta ahora obedecen a la siguiente regla empı́rica: Las partı́culas de espı́n semi-
entero (electrones, positrones, protones, neutrones, muones, tauones, etc.) son fermiones, y las partı́culas de espı́n
entero (fotones, mesones, bosones vectoriales, etc.), son bosones.

26.5.1. Aplicación del postulado a partı́culas compuestas


Una vez que la regla empı́rica antes mencionada se ha verificado para las partı́culas “elementales”, se verificará
para otras partı́culas también, ya que éstas están compuestas por partı́culas elementales. Consideremos un sistema
de partı́culas idénticas compuestas. Permutar dos de estas partı́culas compuestas es equivalente a permutar todas
las partı́culas que componen a la primera con todas las partı́culas que componen a la segunda (las cuales son
idénticas a las de la primera partı́cula, ya que las partı́culas compuestas son idénticas)5 .
Ahora bien, el ket que describe al sistema debe permanecer inalterado bajo la permutación de dos partı́culas
compuestas idénticas, si las partı́culas compuestas están formadas solo por bosones elementales (ya que toda
transposición de bosones deja el signo inalterado), o si cada una de ellas está compuesta por un número par de
fermiones (ya que cada transposición de fermiones cambia el signo, y habrı́a un número par de cambios de signo).
Esto indica que las partı́culas compuestas son bosones, lo cual es consistente con las reglas de adición del momento
angular (si asumimos que la regla empı́rica es válida), ya que la suma de un número par de espines semi-enteros
es entera, y la suma de cualquier número de espines enteros es entera.
Por otro lado, si cada partı́cula compuesta contiene un número impar de fermiones, el estado debe cambiar de
signo bajo la permutación de dos partı́culas compuestas, ya que esto implica un número impar de transposiciones
de las partı́culas elementales. Si asumimos la regla empı́rica como válida, esto es de nuevo consistente con las reglas
de adición del momento angular, ya que la suma de un número impar de espines semi-enteros es semi-entera, de
modo que cada partı́cula compuesta serı́a un fermión.
Por ejemplo, los núcleos atómicos están compuestos por protones y neutrones, y ambos tipos de partı́culas son
fermiones de espı́n 1/2. En consecuencia, núcleos con masa atómica par (número total de nucleones) son bosones,
y núcleos con masa atómica impar son fermiones. Por ejemplo, el isótopo 3 He del helio es un fermión, en tanto
que el isótopo del helio 4 He es un bosón.

26.5.2. Solución de la degeneración de intercambio


Sea |ui un ket que describe matemáticamente un estado fı́sico bien definido de N partı́culas idénticas. Para
cualquier operador permutación Pα , el ket matemático Pα |ui describe el mismo estado fı́sico que |ui. Lo mismo
ocurre con cualquier ket del subespacio Eu expandido por {Pα |ui}, donde Pα recorre todas las permutaciones
(incluyendo la identidad). Dependiendo del ket |ui escogido, este subespacio puede tener dimensión 1 o dimensión
N ! o una dimensión intermedia. Por ejemplo, para dos partı́culas idénticas de espı́n 1/2, el estado |++i genera
un solo ket linealmente independiente al barrer las permutaciones I, P21 . En tanto que el ket |+−i genera dos
kets linealmente independientes con las mismas permutaciones. Si la dimensión es mayor que uno, hay varios kets
matemáticos linealmente independientes que corresponden al mismo estado fı́sico, generando la degeneración de
intercambio.
5
No es necesario que las partı́culas elementales que componen a la partı́cula compuesta sean todas idénticas. Por ejemplo, dos
protones son partı́culas compuestas idénticas. Sin embargo, cada protón (en una visión simplificada) consiste de dos quarks tipo “up”
y un quark tipo “down”.
26.6. APLICACIÓN DEL POSTULADO DE SIMETRIZACIÓN PARA N = 2 603

El nuevo postulado de simetrización restringe al conjunto de estados matemáticos que pueden describir un
estado fı́sico de partı́culas idénticas, ya que estos kets deben pertenecer al subespacio ES para bosones y EA
para fermiones. Para encontrar los estados matemáticos adecuados debemos entonces proyectar los estados del
subespacio Eu sobre los subespacios ES para bosones y EA para fermiones, para lo cual debemos usar los proyectores
S y A respectivamente, sobre los estados {Pα |ui}, con lo cual obtenemos

SPα |ui = S |ui (26.37)


APα |ui = εα A |ui (26.38)

donde hemos usado la Ec. (26.33) Pág. 26.33. Estas ecuaciones nos muestran que todas las proyecciones de kets
de Eu sobre los subespacios ES para bosones y EA para fermiones, son colineales. Por tanto el postulado de
simetrización asigna un solo ket linealmente independiente de Eu , al estado fı́sico antes descrito. En consecuencia,
dicho postulado remueve la degeneración de intercambio, asignando el estado (único dentro de un factor constante)
S |ui a los bosones y el estado A |ui para los fermiones. De aquı́ en adelante estos se denominarán los kets fı́sicos.
En particular, es posible que todos los kets de Eu tengan proyección cero sobre ES o sobre EA , en cuyo caso
el postulado de simetrización está excluyendo al correspondiente estado fı́sico. Veremos un ejemplo en la sección
26.6.
Es claro ahora el algoritmo de construcción del único ket fı́sico asociado a un estado fı́sico dado de un sistema
de N partı́culas idénticas.

1. Comenzamos por numerar las partı́culas arbitrariamente, construyendo el ket |ui, que resulta de la nume-
ración particular elegida.

2. Se aplica el proyector S o el proyector A sobre |ui, dependiendo de si las partı́culas idénticas son bosones o
fermiones.

3. Se normaliza el ket obtenido.

26.6. Aplicación del postulado de simetrización para N = 2


Consideremos un sistema de dos partı́culas idénticas. Supongamos que sabemos que una de ellas está en el
estado individual caracterizado por el ket normalizado |ϕi, y la otra partı́cula está en el estado normalizado
descrito por |χi.
Primero estudiaremos el caso en el cual los dos estados son diferentes. En tal caso, el ket fı́sico asociado al
sistema de dos partı́culas se construye con la prescripción ya descrita

1. Numeremos con el (1) a la partı́cula asociada al estado |ϕi y con el número (2) a la partı́cula asociada al
estado |χi, el estado |ui queda en la forma
E

|ui = ϕ(1) , χ(2)

2. Si las partı́culas son bosones (fermiones) simetrizamos (antisimetrizamos) al estado |ui

1 h (1) (2) E (2) (1) Ei 1 h (1) (2) E (1) (2) Ei


|bosonesi = S |ui = ϕ , χ + ϕ , χ = ϕ , χ + χ , ϕ (26.39)
2 2
h
1 (1) (2) E Ei h
1 (1) (2) E Ei

|f ermionesi = A |ui = ϕ , χ − ϕ(2) , χ(1) = ϕ , χ − χ(1) , ϕ(2) (26.40)
2 2
604 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

3. Los kets (26.39, 26.40) no están en general normalizados. Si asumimos que los estados |ϕi y |χi son ortogonales
y están normalizados, los estados fı́sicos normalizados serán
1 h (1) (2) E (2) (1) Ei 1 h (1) (2) E (1) (2) Ei
|bosonesi = √ ϕ , χ + ϕ , χ = √ ϕ , χ + χ , ϕ
2 2
1 h E Ei 1 h E Ei

|f ermionesi = √ ϕ(1) , χ(2) − ϕ(2) , χ(1) = √ ϕ(1) , χ(2) − χ(1) , ϕ(2)
2 2

Asumamos ahora que los estados individuales son idénticos, el estado |ui será
E

|ui = ϕ(1) , ϕ(2) (26.41)

este estado ya es totalmente simétrico. Por tanto, si las dos partı́culas son bosones, el estado (26.41) es el ket fı́sico
asociado a un estado en el cual los dos bosones están en el mismo estado individual |ϕi. De hecho, el simetrizador
S deja intacto a este estado. Por otro lado, si las partı́culas son fermiones tenemos que
1 h (1) (2) E (2) (1) Ei
A |ui = ϕ , ϕ − ϕ , ϕ =0
2
de modo que no existe un ket no-nulo en EA que pueda describir el estado fı́sico en el cual dos fermiones están
en el mismo estado individual |ϕi. El postulado de simetrización excluye este tipo de estados fı́sicos. Hemos
establecido para un caso particular el denominado “principio de exclusión de Pauli” que nos dice que dos
fermiones idénticos no pueden estar en el mismo estado individual. Este principio establece una gran diferencia
en el comportamiento estadı́stico de un sistema de fermiones idénticos con respecto al de un sistema de bosones
idénticos.

26.7. Postulado de simetrización para N arbitrario


Ilustraremos el caso general para el escenario con N = 3. Consideremos el estado fı́sico que se define especifi-
cando los estados individuales normalizados |ϕi , |χi , |ωi. Escogeremos el estado |ui con la siguiente asignación
numérica E

|ui = ϕ(1) , χ(2) , ω (3)
estudiaremos a los bosones y fermiones por aparte

26.7.1. Postulado de simetrización para bosones


Al aplicar el simetrizador asociado a tres bosones idénticos tenemos

1 X
3! E 1 h E E E
(1) (2) (3) (1) (2) (3) (1) (3) (2)
S |ui = Pα ϕ , χ , ω = ϕ , χ , ω + ϕ , χ , ω + ϕ(2) , χ(1) , ω (3)
3! 6
α=1 E E Ei

+ ϕ(3) , χ(1) , ω (2) + ϕ(2) , χ(3) , ω (1) + ϕ(3) , χ(2) , ω (1)
1 h (1) (2) (3) E (1) (2) (3) E (1) (2) (3) E
S |ui = ϕ , χ , ω + ϕ , ω , χ + χ , ϕ , ω
6 E E Ei

+ χ(1) , ω (2) , ϕ(3) + ω (1) , ϕ(2) , χ(3) + ω (1) , χ(2) , ϕ(3) (26.42)

solo resta normalizar el vector (26.42). La constante de normalización depende de cuántos de estos estados son
distintos. Si todos los tres estados individuales son diferentes y ortogonales entre sı́, los seis kets que aparecen
en (26.42) también son ortogonales, y para normalizar el estado completo, basta reemplazar el factor 1/6 por el
26.7. POSTULADO DE SIMETRIZACIÓN PARA N ARBITRARIO 605


factor 1/ 6. Si en cambio, tenemos dos estados idénticos y uno diferente (ortogonal a√los estados idénticos), al
aplicar el simetrizador solo quedan tres kets diferentes y el factor normalizador serı́a 1/ 3
1 h E E Ei

|ϕ; ϕ; ωi = √ ϕ(1) , ϕ(2) , ω (3) + ϕ(1) , ω (2) , ϕ(3) + ω (1) , ϕ(2) , ϕ(3)
3
finalmente si los tres estados son idénticos, el estado |ui ya está automáticamente simetrizado y normalizado.
E

|ui = ϕ(1) , ϕ(2) , ϕ(3)

la aplicación del simetrizador dejarı́a intacto al ket.

26.7.2. Postulado de simetrización para fermiones


—————————————-
——————————————
La aplicación del antisimetrizador al estado |ui de tres fermiones idénticos nos da

1 X
3! E

A |ui = εα Pα ϕ(1) , χ(2) , ω (3)
3!
α=1

El antisimetrizador se escribe explı́citamente como


1
A= {P123 + P231 + P312 − P213 − P321 − P132 }
3!
donde P123 es la identidad. Aplicando el antisimetrizador sobre el ket |ui y ajustando una constante de normali-
zación, el ket fı́sico posee la forma
√ E
√ 3! (1) (2) (3)
|ϕ; χ; ωi ≡ 3!A |ui = {P123 + P231 + P312 − P213 − P321 − P132 } ϕ , χ , ω
3!
1 n E E E E E
(1) (2) (3)
= √ ϕ , χ , ω + ϕ(2) , χ(3) , ω (1) + ϕ(3) , χ(1) , ω (2) − ϕ(2) , χ(1) , ω (3) − ϕ(3) , χ(2) , ω (1) − ϕ(1) , χ
3!
1 n (1) (2) (3) E (1) (3) (2) E (2) (3) (1) E (2) (1) (3) E (3) (1) (2) E (3)
= √ ϕ , χ , ω − ϕ , χ , ω + ϕ , χ , ω − ϕ , χ , ω + ϕ , χ , ω − ϕ , χ
3!
1 n (1) E h (2) (3) E (3) (2) Ei (2) E h (3) (1) E (1) (3) Ei
= √ ϕ ⊗ χ , ω − χ , ω + ϕ ⊗ χ , ω − χ , ω
3!
E h E Eio

+ ϕ(3) ⊗ χ(1) , ω (2) − χ(2) , ω (1)

de lo cual se obtiene el determinante 3 × 3 dado por


(1) (1) (1)
χ ω
√ 1 ϕ(2) (2) (2)
|ϕ; χ; ωi ≡ 3!A |ui = √ ϕ χ ω (26.43)
3! (3) (3) (3)
ϕ χ ω

conocido como determinante de Slater. El estado 3!A |ui es cero si dos (o tres) estados individuales coinciden,
ya que el determinante tendrı́a dos (o tres) columnas idénticas. Este hecho nos lleva al principio de exclusión
de Pauli, ya mencionado anteriormente. El mismo estado cuántico no puede ser ocupado simultáneamente por
varios fermiones idénticos. Si los tres estados son ortogonales los seis kets asociados al determinante
√ (26.43) son
ortogonales. Por tanto, para normalizarlos√basta reemplazar el factor 1/3! por el factor 1/ 3!, lo cual se logra
multiplicando el estado A |ui por el factor 3! como ya se mencionó.
606 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

Para N arbitrario, se pueden generalizar fácilmente los resultados anteriores. Para N bosones idénticos, siem-
pre se puede construir el estado totalmente simétrico S |ui a partir de los N estados de partı́cula individual
|ϕ1 i , . . . , |ϕN i. En el caso de N fermiones idénticos, el estado fı́sico A |ui se puede escribir en la forma de un de-
terminante de Slater N × N , este determinante excluye el caso en el cual dos o más estados individuales coinciden,
ya que el estado antisimetrizado se anula. El hecho de que los bosones no sigan este “principio de exclusión” en
tanto que los fermiones sı́, marca una gran diferencia entre el comportamiento de estos dos tipos de partı́culas.
Nótese finalmente que es el principio de exclusión de Pauli (previamente establecido fenomenológicamente) el
que obliga a incluı́r kets completamente antisimétricos en el postulado de simetrización.

26.8. Construcción de una base de estados fı́sicos de partı́culas idénticas


Consideremos un sistema de N partı́culas idénticas. Comenzando por la base {|ui i} de partı́cula individual,
construı́mos en primer lugar la base en el producto tensorial E de los espacios de una partı́cula, asignando una
cierta numeración de partı́cula. n Eo
(1) (2) (N )
ui1 , ui2 , . . . , uiN (26.44)
donde el subı́ndice rotula estados y el supraı́ndice rotula partı́culas. La idea es determinar una base de los subes-
pacios ES ó EA es decir una base para los kets fı́sicos. Aplicando los proyectores S ó A a los kets (26.44), obtenemos
un conjunto de kets que expanden ES ó EA . Veamos el caso de ES ya que el caso de EA es análogo. Sea |ϕi ∈ ES ,
tal estado se puede expandir en la base (26.44) de E
n X
X n n
X E
(1) (2) (N )
|ϕi = ··· ai1 ,i2 ,...,iN ui1 , ui2 , . . . , uiN (26.45)
i1 =1 i2 =1 iN =1

donde n es la dimensión de cada subespacio de partı́cula individual (dimensión infinita numerable en el caso del
espacio de Hilbert L2 ). Es claro que S |ϕi = |ϕi ya que |ϕi ∈ ES . Si aplicamos S a ambos lados de (26.45), nos
queda X h Ei
(1) (2) (N )
|ϕi = ai1 ,i2 ,...,iN S ui1 , ui2 , . . . , uiN
i1 ,i2 ,...,iN

de modo que el estado arbitrario |ϕi ∈ ES , queda escrito en términos de kets de la forma
E
(1) (2) (N )
S ui1 , ui2 , . . . , uiN ∈ ES (26.46)

Sin embargo, en general no todos los kets de la forma (26.46) son linealmente independientes.
E Por ejemplo, podemos
(1) (2) (N )
permutar los roles de las varias partı́culas en uno de los kets del tipo ui1 , ui2 , . . . , uiN de la base inicial (antes
de la simetrización). Sobre este nuevo ket, la aplicación de S ó A conduce al mismo ket |ϕi (tal vez con signo
cambiado en el caso de A), de acuerdo con las Ecs. (26.37, 26.38).
La discusión anterior nos conduce a introducir el concepto de número de ocupación. En general no todos
los estados |ui1 i , |ui2 i , . . . , |uiN i son diferentes. Es conveniente reordenar los estados diferentes con un nuevo
ı́ndice. Si tenemos p estados diferentes de partı́cula individual, entonces escribimos

{|uk i} = |uk1 i , |uk2 i , . . . , ukp ; donde |ukm i =6 |ukn i si m 6= n
El estado inicial lo reorganizamos en la forma
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N −n +1) (N −n +2) (N )
uk1 , uk1 , . . . , uk1 1 ; uk21 , uk2 1 , . . . , uk2 1 2 ; . . . ; ukp p , ukp p , . . . , ukp

donde ni es el número de partı́culas en el estado |uki i con i = 1, 2, . . . , p. Es claro que se tiene que cumplir la
condición
X p
ni = N (26.47)
i=1
26.8. CONSTRUCCIÓN DE UNA BASE DE ESTADOS FÍSICOS DE PARTÍCULAS IDÉNTICAS 607

a los ni se les denomina número de ocupación, que es el número de partı́culas en el estado |uki i. Dos kets
diferentes del tipo (26.44) cuyos números de ocupación coincidan, se pueden obtener el uno a partir del otro con
una permutación. Por tanto, después de la aplicación del simetrizador o el antisimetrizador, se obtiene el mismo
ket fı́sico a partir de ambos kets de acuerdo con la Ec. (26.37, 26.38) (a lo más con un signo de diferencia).
Denotaremos a este único estado fı́sico simetrizado (o antisimetrizado) asociado a una configuración dada de
ocupación en la forma
|n1 , n2 , . . . , np i
para bosones, estos estados se obtienen de
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N −np +1) (N −np +2)
|n1 , n2 , . . . , np i = cS S u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N
p
)

(26.48)
y para fermiones de
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N −np +1) (N −np +2)
|n1 , n2 , . . . , np i = cA A u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N
p
)

(26.49)
donde los coeficientes de normalización cS y cA vienen dados por
s
N! √
cS = ; cA = N !
n1 !n2 ! . . . np !

ahora bien, puesto que el número de estados accesibles diferentes puede ser infinito, escribiremos un estado de
ocupación de aquı́ en adelante en la forma
|n1 , n2 , . . . , nk , . . .i

Example 26.1 Tomemos los siguientes kets asociados a cinco partı́culas idénticas
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 ; u7 , u1 , u5 , u5 , u1 (26.50)

(i)
donde uki indica que la i−ésima partı́cula está en el estado excitado ki del oscilador armónico unidimensional.
Ambos estados en (26.50) describen a dos partı́culas en el estado base u1 , dos partı́culas en el quinto estado
excitado y una partı́cula en el séptimo estado excitado. Podemos ver claramente que ambos kets están conectados
por medio de una permutación de los rótulos de partı́culas
E E E
(1) (2) (3) (4) (5) (4) (1) (5) (2) (3) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 = u7 , u1 , u5 , u5 , u1 = P41523 u7 , u1 , u5 , u5 , u1

nótese que la permutación que conecta a ambos estados no es única. Por ejemplo también se puede escribir
E E E
(1) (2) (3) (4) (5) (4) (1) (2) (5) (3) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 = u7 , u1 , u5 , u5 , u1 = P41253 u7 , u1 , u5 , u5 , u1

ahora bien, el orden más natural para este estado fı́sico es colocar los estados en orden ascendente de energı́a, en
tal caso serı́a el ket E
(1) (3) (2) (5) (4)
u1 , u1 , u5 , u5 , u7
como ya se mencionó, al simetrizar o antisimetrizar cualquiera de estos kets se obtiene un único ket fı́sico (a lo
más se obtiene un signo de diferencia cuando se antisimetriza, dependiendo del ket elegido). Nótese que también se
podrı́an intercambiar los estados en lugar de las partı́culas. Sin embargo se debe tener presente que los subı́ndices
en los kets (26.50) indican la excitación del estado individual y no son los rótulos de los estados. Por ejemplo si
elegimos el primer ket en (26.50) podemos escribir
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 ≡ uk1 , uk2 , uk3 , uk4 , uk5
608 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

de modo que
k1 = 1, k2 = 5, k3 = 1, k4 = 7, k5 = 5
y podemos aplicar el permutador sobre los ı́ndices de estados
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
P41253 u1 , u5 , u1 , u7 , u5 ≡ P41253 uk1 , uk2 , uk3 , uk4 , uk5
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
= uk4 , uk1 , uk2 , uk5 , uk3 = u7 , u1 , u5 , u5 , u1

mostrando una vez más que ambos estados en (26.50) están conectados por una permutación. Cuando cualquiera
de estos estados se simetriza (o antisimetriza) lo que se obtiene es un ket fı́sico con la información de que dos
partı́culas están en el estado base u1 , dos en el quinto estado excitado, y una en el séptimo estado excitado. En
la notación de número de ocupación cada casilla del ket denota un estado individual y en ella se coloca el número
de partı́culas que hay en cada estado. En este caso el ket fı́sico |ψi se escribe en la forma

|ψi = |2, 0, 0, 0, 2, 0, 1, 0, 0, 0, . . .i

donde solo hay números distintos de cero en la primera, quinta, y séptima casillas, ya que en los otros estados
no hay ninguna partı́cula. Los estados accesibles son infinitos ya que no hay cota para los estados excitados del
oscilador armónico, por eso se colocan puntos suspensivos indicando infinitas casillas. Por supuesto, ya no hay
rótulos de partı́culas en virtud de la indistinguibilidad. En ocasiones, es útil sintetizar la notación escribiendo solo
los números de los estados que están ocupados, escribiendo el estado como subı́ndice. Esto con el fin de evitar la
escritura de tantos ceros. Por ejemplo en nuestro caso se puede escribir

|ψi = 2(1) , 2(5) , 1(7)

26.8.1. Propiedades de los kets de ocupación


Las propiedades más sobresalientes de estos kets de ocupación son las siguientes

El producto interno entre dos estados de ocupación |n1 , n2 , . . . , nk , . . .i y |n′1 , n′2 , . . . , n′k , . . .i está dado por

′ ′
n1 , n2 , . . . , n′k , . . . |n1 , n2 , . . . , nk , . . .i = δn1 ,n′1 δn2 ,n′2 . . . δnk ,n′k . . .

de manera que solo es diferente de cero si los números de ocupación son los mismos para todo k. Para verlo,
podemos usar (26.48) ó (26.49) y las definicionesn (26.32) de S y A,Eopara obtener la expansión de los dos
(1) (2) (N )
kets bajo consideración en la base ortonormal u1 , u2 , . . . , uN . Al hacer el producto interno entre
los kets resultantes se puede ver que si los números de ocupación no son iguales, estos dos kets no pueden
tener componentes no-nulas simultáneas sobre el mismo vector base. La normalización está garantizada por
la introducción de las constantes de normalización cS y cA .

Si las partı́culas bajo estudio son bosones, los kets de ocupación |n1 , n2 , . . . , nk , . . .i son arbitrarios, y por
tanto, una base ortogonal la constituye un conjunto que barre todas las configuraciones de ocupación posibles,
sometida a la ligadura (26.47). Observemos que si reemplazamos S por su definición (26.32), en la Ec. (26.48), E
(1) (N )
aparece al lado derecho de esta ecuación, una superposición de estados ortogonales u1 , . . . , uN con
coeficientes positivos, ya que no hay cambio de signo bajo intercambios y cS se definió como positivo. Esto
indica que los kets |n1 , n2 , . . . , nk , . . .i definidos en (26.48) son no-nulos. Los kets |n1 , n2 , . . . , nk , . . .i expanden
a ES , y por tanto forman una base de este subespacio puesto que son no-nulos.

Si las partı́culas bajo estudio son fermiones, una base del espacio EA de estados fı́sicos se obtiene escogiendo
el conjunto de kets
{|n1 , n2 , . . . , nk , . . .i ; ni = 0, 1} (26.51)
26.9. CONSISTENCIA DEL POSTULADO DE SIMETRIZACIÓN CON LOS OTROS POSTULADOS 609

en el cual cada número de ocupación es cero o uno. Una vez más sujeto a la ligadura (26.47). A diferencia
del simetrizador, el antisimetrizador introduce signos positivos para permutaciones pares y negativos para
permutaciones impares. Como vimos en la sección 26.7.2, dos fermiones idénticos no pueden ocupar el mismo
estado individual simultáneamente. Esto implica que números de ocupación con ni > 1, anulan el ket (26.49)
corrrespondiente. Ahora bien, cuando todos los números E de ocupación son E cero o uno, el ket (26.51) es no
(1) (N ) (1) (N )
nulo ya que en tal caso, los kets Pα u1 , . . . , uN y Pβ u1 , . . . , uN con Pα 6= Pβ son diferentes y
ortogonales. La relación (26.49) nos da entonces vectores no nulos cuando tomamos kets del tipo (26.51).
Estos expanden a EA y puesto que son no-nulos, constituyen una base para EA .

26.9. Consistencia del postulado de simetrización con los otros postulados


Debemos verificar que el postulado de simetrización no entra en contradicción con los otros postulados. De-
mostraremos que (a) el proceso de medida se puede describir con kets que pertenecen únicamente al subespacio
ES ó EA . (b) Si el estado pertenece inicialmente a uno de los subespacios ES ó EA , su evolución temporal es tal que
continuará dentro de este subespacio para todo tiempo. En general podremos usar los postulados de la mecánica
cuántica totalmente dentro de uno de estos subespacios.

26.9.1. Postulado de simetrización y el proceso de medida


El ket |ψ (t)i que describe a un estado fı́sico de N partı́culas idénticas en el tiempo t, pertenece al subespacio
ES (EA ) si las partı́culas son bosones (fermiones). Cuando se mide un observable G, el sistema (de partı́culas
idénticas) queda preparado en un ket propio |ϕi del observable. Por otro lado, el postulado de simetrización me
dice que el estado |ϕi debe también pertenecer al subespacio ES (EA ) para el sistema de bosones (fermiones). Por
tanto, debemos asegurarnos que el proceso de medida no me deja al sistema preparado en un estado fuera de ES
ó EA .
De momento asumamos que |ϕi pertenece a ES ó EA , la amplitud de probabilidad hϕ| ψ (t)i involucra a dos
kets que pertenecen a ES ó EA , es decir ambos son estados totalmente simétricos o antisimétricos.
(i)
Si el conjunto de medidas es completo (por ejemplo, la medida de cada posición ri y de las componentes S3
de espı́n para todas las partı́culas), el estado fı́sico |ϕi es único dentro de factores constantes. Si el conjunto de
medidas es incompleto (por ejemplo, medir solo el espı́n de las partı́culas, o medir solo sobre un subconjunto de
partı́culas), se obtendrán varios kets ortogonales fı́sicos, y las probabilidades asociadas deben sumarse.
En algunos casos es posible especificar el conjunto de medidas sobre el sistema de partı́culas idénticas, escribien-
do el observable en términos de los observables básicos Ri , Pi , Si . Tomemos un ejemplo concreto. Los siguientes
observables se pueden medir en un sistema de tres partı́culas idénticas: La posición del centro de masa RG , el
momento total P, el momento angular total L, el espı́n total S y la energı́a electrostática de repulsión W

1
RG = (R1 + R2 + R3 ) ; P = P1 + P2 + P3 (26.52)
3
L = L1 + L2 + L3 ; S = S1 + S2 + S3 (26.53)
 
q2 1 1 1
W = + + (26.54)
4πε0 |R1 − R2 | |R2 − R3 | |R1 − R3 |

de estas expresiones, es claro que los observables asociados a cantidades fı́sicas que se miden sobre un sistema de
partı́culas idénticas, introducen los observables de partı́cula individual en forma simétrica. Este hecho proviene
directamente del carácter idéntico de las partı́culas. Por ejemplo, los coeficientes en la superposición (26.52)
asociada a RG son todos iguales, debido a que todas las partı́culas tienen la misma masa. Los coeficientes en la
superposición (26.54) son todos iguales debido a que todas las partı́culas poseen la misma carga. Vemos entonces
que ninguna propiedad fı́sica se modifica al permutar las N partı́culas. En consecuencia, para cualquier observable
fı́sico asociado a un sistema de partı́culas idénticas, las N partı́culas juegan un rol simétrico. Los anteriores
610 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

argumentos son válidos tanto para bosones como para fermiones. Matemáticamente, un observable fı́sico G asociado
a N partı́culas idénticas debe ser entonces invariante bajo cualquier permutación Pα de las N partı́culas. De acuerdo
con la discusión en la sección 26.4.4 [ver Ec. (26.36)], esto es equivalente a la condición de que G debe conmutar
con todas las permutaciones
[G, Pα ] = 0 para todo Pα (26.55)
Esto implica que algunos observables para un sistema de partı́culas distinguibles, no serán observables para
un sistema de partı́culas idénticas. Por ejemplo, si tenemos un sistema de dos partı́culas idénticas, el operador
R1 − R2 no será un observable, ya que no es invariante ante la permutación P21 puesto que cambia de signo bajo
esta operación, en realidad una medida de R1 − R2 asume que la partı́cula (1) se puede distinguir de la (2). Sin
embargo, este mismo operador sı́ serı́a un observable para un sistema de dos partı́culas no idénticas. Por otra
parte, la distancia entre las partı́culas |R1 − R2 | es claramente un observable válido para dos partı́culas idénticas
(la distancia es invariante ante un intercambio de las partı́culas).
La ecuación (26.55) implica que los subespacios ES y EA son ambos invariantes bajo la acción de un observable
fı́sico G de las partı́culas idénticas. Si |ψi ∈ EA tenemos que

Pα |ψi = εα |ψi

y teniendo en cuenta (26.55) resulta


Pα G |ψi = GPα |ψi = εα G |ψi
por tanto G |ψi también pertenece a EA , i.e. G |ψi también es completamente antisimétrico. Un argumento similar
se sigue si |ψi ∈ ES .
Todas las operaciones que se realizan sobre un observable fı́sico, tales como la determinación de sus valores
y vectores propios se pueden aplicar a G enteramente dentro del subespacio ES ó EA . Solo se conservan los
autovectores de G que pertenecen al subespacio fı́sico y sus correspondientes valores propios. Vale enfatizar, que
esta consistencia está relacionada con el hecho de que los observables fı́sicos asociados a partı́culas idénticas deben
ser totalmente simétricos (para bosones o fermiones) con respecto a la permutación de las partı́culas.
En general no encontraremos todos los autovalores de G asociados al espacio completo E, cuando nos restrin-
gimos al subespacio ES ó EA . El postulado de simetrización puede entonces excluı́r algunos valores propios de G,
del espectro fı́sico. Por otro lado, puesto que ES ó EA son invariantes bajo la acción de G, todo autovector de G
en ES ó EA , es también autovector de G en E con el mismo autovalor.
La restricción de que los observables deben ser simétricos puede llevarnos a la necesidad de reestructurar
a los observables asociados a ciertas mediciones. Por ejemplo, trataremos de escribir observables asociados a la
medición simultánea de la posición de tres partı́culas idénticas. Los observables usuales R1 , R2 y R3 no serán
observables fı́sicos en este caso, ya que cada uno de ellos no es simétrico bajo permutaciones de las partı́culas.
Podemos entonces tratar de escribir tres observables totalmente simétricos con base en los cuales se pueda estimar
las posiciones de las tres partı́culas. Por ejemplo, se pueden usar los observables

R1 + R2 + R3 ; R1 R2 + R2 R3 + R3 R1 ; R1 R2 R3

sin embargo, este método es más bien formal, ya que no es viable medir estos observables directamente en un
experimento. Es más sencillo restringirnos a usar los autoestados fı́sicos asociados a la medida como se describió
en esta sección.

26.9.2. Postulado de simetrización y evolución temporal


El Hamiltoniano de un sistema de partı́culas idénticas debe ser un observable fı́sico y por tanto debe ser
totalmente simétrico. Tomemos como ejemplo, el Hamiltoniano del átomo de Helio en donde por simplicidad, solo
tendremos en cuenta las interacciones electrostáticas
P21 P2 2e2 2e2 e2
H (1, 2) = + 2 − − +
2me 2me R1 R2 |R1 − R2 |
26.10. CONSECUENCIAS FENOMENOLÓGICAS DEL POSTULADO DE SIMETRIZACIÓN 611

los dos términos cinéticos son simétricos debido a que las masas son iguales. Los dos términos asociados a la
atracción del núcleo son iguales debido a que los dos electrones tienen cargas iguales. Es obvio que cada electrón
es afectado de la misma manera por tal atracción. Finalmente, el término de repulsión entre los dos electrones es
simétrico porque ninguno de los dos electrones está en una posición privilegiada.
Para un sistema de N partı́culas idénticas, el Hamiltoniano al igual que cualquier observable fı́sico asociado a
partı́culas idénticas, debe conmutar con todas las permutaciones de las N partı́culas

[H, Pα ] = 0 (26.56)

ahora bien, el ket inicial |ψ (t0 )i debe ser un ket fı́sico y por tanto debe pertenecer a ES ó EA . Es necesario que la
evolución temporal sea tal que |ψ (t)i sea un ket fı́sico para todo tiempo. Es decir, |ψ (t)i debe pertenecer a ES ó
EA para todo tiempo. Escribiremos la ecuación de Schrödinger en la forma
d |ψ (t + dt)i − |ψ (t)i 1
i~ |ψ (t)i = H (t) |ψ (t)i ⇒ = H (t) |ψ (t)i ⇒
dt   dt i~
dt
|ψ (t + dt)i = 1 + H (t) |ψ (t)i
i~

Aplicando Pα a ambos lados y usando (26.56) resulta


 
dt
Pα |ψ (t + dt)i = 1 + H (t) Pα |ψ (t)i (26.57)
i~

Si |ψ (t)i ∈ EA entonces Pα |ψ (t)i = εα |ψ (t)i, esto junto con la ecuación (26.57) nos muestran que Pα |ψ (t + dt)i =
εα |ψ (t + dt)i. Por tanto, si |ψ (t)i ∈ EA (i.e. es completamente antisimétrico), entonces |ψ (t + dt)i ∈ EA . Simi-
larmente se puede demostrar que la evolución temporal conserva la simetrı́a total. Por tanto, si el ket inicial es
completamente simétrico (antisimétrico) la evolución temporal via ecuación de Schrödinger hace que el estado sea
completamente simétrico (antisimétrico) para todo tiempo. La ecuación de Schrödinger es entonces consistente
con el postulado de simetrización.

26.10. Consecuencias fenomenológicas del postulado de simetrización


26.10.1. Diferencias entre fermiones y bosones
Hemos visto que el postulado de simetrización no restringe la distribución de los bosones entre los diversos
estados cuánticos. En contraste, para los fermiones este postulado prohibe que dos fermiones idénticos ocupen el
mismo estado cuántico. Este hecho se conoce como principio de exclusión de Pauli, y fué establecido para explicar
las propiedades de los átomos de varios electrones. Sin embargo, en el presente contexto no es estrictamente un
principio sino una consecuencia del postulado de simetrización, y es válido para cualquier sistema de fermiones
idénticos, no solo los electrones. Este principio de exclusión (o su ausencia para los bosones) tiene predicciones
espectaculares que han sido confirmadas experimentalmente. Veremos algunos ejemplos más adelante.

26.10.2. Estado base de un sistema de partı́culas idénticas independientes


Ya hemos visto que el Hamiltoniano asociado a partı́culas idénticas (bosones o fermiones) debe ser simétrico
con respecto a la permutación de las partı́culas. Asumiremos un sistema no interactuante de partı́culas idénticas.
En tal caso el Hamiltoniano total se escribirá como una suma de operadores de una partı́cula en la forma

H (1, 2, . . . , N ) = h (1) + h (2) + . . . + h (N )

h (i) es función solo de los observables asociados a la partı́cula rotulada como (i). La simetrı́a total del Hamiltoniano
requiere que cada función h (i) sea la misma para los N términos. Para calcular los autovalores y los autovectores
612 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

del Hamiltoniano total, basta con calcular los vectores y valores propios de los operadores individuales h (j) en
el espacio E (j) asociado a una partı́cula. Por simplicidad asumiremos que el espectro de h (j) es discreto y no
degenerado E E E
(j) (j) (j)
h (j) ϕ(j)
n = en ϕn ; ϕn ∈ E (j)
nótese que el ı́ndice (j) es de partı́cula y no de degeneración. Los vectores propios construı́dos a priori son
los productos tensoriales de los vectores de cada partı́cula, y el valor propio es la suma de los valores propios
individuales asociados
E E E E
(1) (2) (N ) (1) (2) (N )
ϕ ,
n1 n2ϕ . . . , ϕnN = ϕ
n1 ⊗ ϕ
n2 ⊗ . . . ⊗ ϕ
nN (26.58)
En1 ,n2 ,...,nN = e(1) (2) (N )
n1 + en2 + . . . + enN (26.59)
si consideramos un sistema de bosones idénticos, los kets anteriores deben ser simetrizados
S N!
X E
Φn ,n ,...,n = c (1) (2) (N )
1 2 N
Pα ϕn 1
, ϕn 2
. . . , ϕn N
(26.60)
α=1
puede verificarse que el ket descrito por (26.60) es ket propio de H con el mismo valor propio (26.59) del ket sin
simetrizar (26.58). En consecuencia, las energı́as (26.59) corresponden a valores reales de la energı́a del sistema.
En particular si e1 es el valor propio más pequeño de h (j) (obviamente igual para cada partı́cula y por tanto,
independiente de j) y si |ϕ1 i es su vector propio asociado, el estado base del sistema se obtendrá cuando los N
bosones idénticos estén todos en el estado |ϕ1 i. La energı́a y el vector en el estado base serán
E
(1) (2) (N )
E1,1,...,1 = N e1 ; ϕ1 , ϕ1 . . . , ϕ1
Sin embargo, si el sistema de N partı́culas idénticas es de fermiones, no es posible que las N partı́culas estén
todas en el mismo estado base |ϕ1 i. Para obtener el estado base del sistema, debe tenerse en cuenta el principio
de exclusión de Pauli. Si las energı́as se ordenan en forma ascendente
e1 < e2 < . . . < eN
la energı́a del estado base de un sistema de N fermiones idénticos será
E1,2,...,N = e1 + e2 + . . . + eN
y estará descrito por el ket normalizado dado por
E E E
(1) (1) (1)
ϕ1 ϕ2 ··· ϕN
E E E
(2) (2) (2)
A 1 ϕ1 ϕ2 ··· ϕN
Φn ,n ,...,n = √
1 2 N
N ! .. .. ..

. E . E . E
(N ) (N ) (N )
ϕ1 ϕ2 ··· ϕN
la energı́a individual más alta eN que se encuentra en el estado base se denomina la energı́a de fermi del sistema.
Si existe degeneración gk en los niveles de energı́a individuales ek , hay gk estados ortogonales asociados a cada
valor propio. Por tanto, pueden haber hasta gk fermiones idénticos con energı́a ek (ya que cada uno estarı́a en un
estado diferente). En tal caso, la energı́a de fermi ep es en general menor que eN , y la energı́a del sistema en el
estado base será
E1,2,...,p = g1 e1 + g2 e2 + . . . + gp−1 ep−1 + kp ep
sujeto a la ligadura
p−1
X
kp + gi = N ; kp ≤ gp
i=1
nótese que el nivel de fermi podrı́a no estar “lleno”: si con kp partı́culas (con kp < gp ), ya hemos completado las
N partı́culas, no todos los estados asociados a ep estarán ocupados por un fermión.
26.11. PREDICCIONES FÍSICAS DEL POSTULADO DE SIMETRIZACIÓN 613

26.11. Predicciones fı́sicas del postulado de simetrización


En mecánica cuántica, las predicciones fı́sicas están relacionadas con probabilidades que se calculan con pro-
ductos internos. Veremos que la simetrización y antisimetrización causa efectos de interferencia cuando tenemos
partı́culas idénticas. No obstante, también veremos que en ciertas situaciones, se puede ignorar el postulado de
simetrización, de modo que las predicciones hechas asumiendo las partı́culas como distinguibles no serán muy
diferentes de las que se obtienen cuando se tratan como idénticas.
Por simplicidad, trabajaremos un sistema de dos partı́culas idénticas. Asumamos que una de ellas está en el
estado |ϕ1 i y la otra en el estado |ϕ2 i ortogonal al anterior, de modo que el estado fı́sico, viene dado por el ket
normalizado
1 E
(1) (2)
|ϕ1 ; ϕ2 i ≡ √ [1 + εP21 ] ϕ1 , ϕ2
2
ε = +1 (para bosones), ε = −1 (para fermiones)

ahora queremos medir sobre cada partı́cula el mismo observable B, que los asociaremos a los observables B (1) y
B (2). Pensemos que el espectro de B es discreto y no degenerado

B |ui i = bi |ui i

queremos calcular la probabilidad de encontrar en el proceso de medida el valor bn para una de las partı́culas y
bm para la otra. Asumiremos primero que bn 6= bm , de manera que los estados propios asociados son ortogonales
entre sı́. Bajo estas condiciones, después de la medición de los observables, el sistema quedará preparado en el
estado fı́sico normalizado definido por
1 E

|un ; um i ≡ √ [1 + εP21 ] u(1)
n , u(2)
m
2
la amplitud de probabilidad para obtener las medidas bn y bm están dadas por
1 D (1) (2)  †

(1) (2)
E
hun ; um |ϕ1 ; ϕ2 i = un , um 1 + εP21 (1 + εP21 ) ϕ1 , ϕ2 (26.61)
2
usando la hermiticidad y nilpotencia de P21 tenemos que
 

1 + εP21 (1 + εP21 ) = (1 + εP21 )2 = 1 + 2εP21 + ε2 P21
2

 

1 + εP21 (1 + εP21 ) = 2 + 2εP21 (26.62)

sustituyendo (26.62) en (26.61) y poniendo a P21 a actuar sobre el bra, resulta


D E D E D E
(2) (1) (2) (2) (1) (2) (2) (1) (2)
hun ; um |ϕ1 ; ϕ2 i = u(1)
n , um (1 + εP21 ) ϕ1 , ϕ2 = u(1)n , um ϕ1 , ϕ2 + ε u(1)
n , um P21 ϕ1 , ϕ2
D E D E
(1) (2) (1) (2) (1) (2) (1) (2)
hun ; um |ϕ1 ; ϕ2 i = un , um ϕ1 , ϕ2 + ε um , un ϕ1 , ϕ2
D ED E D ED E
(1) (1) (2) (2) (1) (1) (2) (2)
= un ϕ1 um ϕ2 + ε um ϕ1 un ϕ2
hun ; um |ϕ1 ; ϕ2 i = hun | ϕ1 i hum | ϕ2 i + ε hum | ϕ1 i hun | ϕ2 i (26.63)

en el último paso se ha suprimido la numeración, ya que los espacios son isomorfos de modo que el valor del
número complejo que se obtiene no depende de la numeración. La amplitud de probabilidad es entonces una suma
(resta) para el caso de dos bosones (fermiones) idénticos. Los dos términos a la derecha de (26.63) pueden ser
asociados a los diagramas 26.3a y 26.3b.
El resultado (26.63) se puede interpretar en la siguiente forma: Los kets |ϕ1 i y |ϕ2 i asociados al estado inicial
se pueden conectar a los bras hun | y hum | asociados al estado final por dos “caminos” diferentes representados
614 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

Figura 26.3: Ilustración del término directo y el término de intercambio asociado a una medida sobre un sistema
de dos partı́culas idénticas.

esquemáticamente en las figuras 26.3a y 26.3b. A cada uno de estos “caminos” le podemos asociar una amplitud
de probabilidad hun | ϕ1 i hum | ϕ2 i y hum | ϕ1 i hun | ϕ2 i. Estas dos amplitudes interfieren con un signo positivo
(negativo) para bosones (fermiones). La probabilidad de encontrar el par de medidas bn y bm es el módulo al
cuadrado de esta amplitud

P (bn ; bm ) = |hun | ϕ1 i hum | ϕ2 i + ε hum | ϕ1 i hun | ϕ2 i|2


P (bn ; bm ) = |hun | ϕ1 i hum | ϕ2 i|2 + |hum | ϕ1 i hun | ϕ2 i|2
+2εRe {hun | ϕ1 i hum | ϕ2 i hϕ1 | um i hϕ2 | un i} (26.64)

es usual llamar a uno de los términos de la derecha en la Ec. (26.63) [por ejemplo el término asociado a la figura
26.3a], el término directo, y al otro se le denomina término de intercambio. Es en realidad una cuestión de
convención a cual llamamos término directo y a cual término de intercambio.
Vamos a considerar ahora el caso en el cual queremos examinar la probabilidad de que se obtenga el mismo
valor propio bn , para ambas partı́culas. Como no hay degeneración, los dos estados finales serán idénticos. En el
caso de fermiones la probabilidad es cero puesto que estos procesos estarı́an prohibidos por el principio de exclusión
de Pauli. Para el caso de bosones, el estado simetrizado y normalizado será
E

|un ; un i = u(1)
n , u(2)
n

la amplitud tendrá entonces la forma


1 D E 1 D E D E
(2) (1) (2) (2) (1) (2) (2) (1) (2)
hun ; un |ϕ1 ; ϕ2 i = √ u(1) n , un (1 + P21 ) ϕ1 , ϕ2 = √ u(1)
n , un ϕ1 , ϕ2 + u(1)
n , un P21 ϕ1 , ϕ2
2 2
1 nD (1) (2) (1) (2) E D (1) (2) (1) (2) Eo √ D (1) (2) (1) (2) E
hun ; un |ϕ1 ; ϕ2 i = √ un , un ϕ1 , ϕ2 + un , un ϕ1 , ϕ2 = 2 un , un ϕ1 , ϕ2
2

hun ; un |ϕ1 ; ϕ2 i = 2 hun | ϕ1 i hun | ϕ2 i

de modo que la probabilidad está dada por

P (bn , bn ) = 2 |hun | ϕ1 i|2 |hun | ϕ2 i|2 (26.65)

nótese que no hay término de interferencia en contraste con la ecuación (26.64). El factor de dos que aparece en
(26.65) está relacionado con el hecho de que el término directo coincide con el de intercambio en este caso.
Generalizando, para un sistema de N partı́culas, hay en general N !, términos de intercambio que se adicionan
o sustraen en la amplitud de probabilidad. En el caso de bosones, el número de intercambios es menor cuando
algunas partı́culas están en el mismo estado.
La figura 26.4, ilustra los términos de intercambio para tres partı́culas idénticas que están caracterizadas por
los estados individuales iniciales |ϕ1 i , |ϕ2 i , |ϕ3 i, y para las cuales asumimos que los valores propios individuales
bn1 , bn2 , bn3 que se obtienen en el proceso de medida son todos diferentes. Estos seis términos (N ! = 3!) ilustran
los posibles “caminos”, algunos de los cuales contribuyen con signo positivo (caminos que se obtienen a partir del
26.11. PREDICCIONES FÍSICAS DEL POSTULADO DE SIMETRIZACIÓN 615

Figura 26.4: Ilustración del término directo y los términos de intercambio asociados a una medida sobre un sistema
de tres partı́culas idénticas.

término directo con un número par de transposiciones de los estados iniciales o finales) otros contribuyen con signo
ε dependiendo de si son bosones o fermiones (cuando el número de transposiciones para obtener el intercambio
es impar). Si algunos de los estados finales coinciden, habrá algunos términos de intercambio iguales y tendremos
menos sumandos en la amplitud de probabilidad.

26.11.1. Predicciones sobre partı́culas aparentemente idénticas


Una manera de examinar que tan intrı́nseco es el postulado de simetrización, es realizando un experimento del
siguiente tipo: Supongamos que tenemos dos partı́culas de diferente naturaleza. Escogeremos un estado inicial del
sistema en el producto tensorial (el cual se supone que describe a un sistema fı́sico en este caso)
E

|ψi = ϕ(1) , χ(2)

consideremos un instrumento de medida que no puede distinguir a las dos partı́culas. Por ejemplo, podrı́amos
tener un instrumento que solo mide carga eléctrica y el sistema consiste en un electrón y un muón (que poseen la
misma carga). Otro ejemplo, serı́a un instrumento que solo mide masa y el sistema fı́sico consiste de un electrón
y un positrón (que tiene la misma masa pero carga opuesta al electrón).
Al obtener los resultados
E bn y E
bm no sabemos si bn está asociado a la partı́cula (1) o a la partı́cula (2). Los
(1) (2) (1) (2)
dos estados un , um y um , un representan en este caso a diferentes estados fı́sicos, pero corresponden a los
mismos resultados de la medida antes descrita. Puesto que son ortogonales, debemos adicionar las probabilidades
asociadas, las cuales dan
D E 2 D E
(2) (1) (2) (1) (2) (1) (2) 2
P ′ (bn ; bm ) = u(1)n , um ϕ , χ + um , un ϕ , χ
P ′ (bn ; bm ) = |hun |ϕi|2 |hum |χi|2 + |hum |ϕi|2 |hun |χi|2 (26.66)

comparando las probabilidades (26.66) y (26.64) podemos ver que hay una diferencia significativa en las predic-
ciones fı́sicas sobre partı́culas que son “idénticas para nuestro experimento” pero que no son “intrı́nsecamente
idénticas”, con respecto al caso de partı́culas que sı́ son intrı́nsecamente
E idénticas.E Nótese que esto tiene que ver
(1) (2) (1) (2)
con el hecho de que para partı́culas distinguibles los kets un , um y um , un representan diferentes estados
fı́sicos, en tanto que para partı́culas idénticas representan el mismo estado fı́sico. Por esta razón, las probabilidades
se suman en el caso de partı́culas distinguibles, en tanto que para partı́culas indistinguibles lo que se suman son
las amplitudes (razón por la cual surgen interferencias en el último caso). Ver discusión en la sección 5.11, pág.
240.
616 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

Veamos ahora el caso en el cual las dos partı́culas diferentes arrojan el mismo resultado de la medida bn , en
cuyo caso la amplitud de probabilidad y la probabilidad nos dan
D E
′ (1) (2) (1)
A (bn ; bn ) = un , un ϕ , χ(2) = hun |ϕi hun |χi
P ′ (bn ; bn ) = |hun |ϕi|2 |hun |χi|2 (26.67)

Comparando con la Ec. (26.65) asociada a partı́culas intrı́nsecamente idénticas, podemos notar la diferencia con
respecto a las predicciones para partı́culas aparentemente idénticas.

26.11.2. Colisión elástica de dos partı́culas idénticas


Examinaremos el problema de la colisión elástica de dos partı́culas idénticas en el sistema de referencia centro
de masa. Por simplicidad ignoraremos el efecto del espı́n. Sin embargo, el cálculo será válido siempre que la
interacción no dependa del espı́n, y si las dos partı́culas están inicialmente en el mismo estado de espı́n.
En este caso debemos tomar en cuenta la evolución temporal, pero veremos que el término de intercambio
entra de una manera muy similar al caso de medidas que no involucran evolución temporal.

Figura 26.5: Colisión elástica entre dos partı́culas idénticas vista desde el sistema de referencia del centro de masa.
(a) Momentos de las dos partı́culas en el estado inicial. (b) Momentos de las dos partı́culas en el estado final (justo
después de la medición).

La Fig. 26.5a, muestra el estado inicial en el cual las dos partı́culas se acercan la una a la otra con momentos
opuestos ±pu3 , donde hemos definido la dirección X3 a lo largo de los momentos. El ket fı́sico inicial |ψi i estará
descrito entonces por la expresión
1 E
(1) (2)
|ψi i = √ (1 + εP21 ) pu3 , −pu3 (26.68)
2
|ψi i es el estado del sistema en el tiempo inicial t0 antes de la colisión. Describiremos la evolución temporal a través
del operador lineal U (t, t′ ) conocido como operador evolución temporal (ver sección 7.1, Página 260). Si definimos
t1 como el tiempo en el cual se ejecutará la medida, tendremos que para este tiempo el estado del sistema justo
antes de la medida será
|ψ (t1 )i = U (t1 , t0 ) |ψi i (26.69)
puesto que el Hamiltoniano conmuta con P21 y el operador U (t, t′ ) solo depende del Hamiltoniano y del tiempo,
se tiene que este operador también conmuta con P21
  
U t, t′ , P21 = 0 (26.70)

este fenómeno ya fué descrito en la sección 26.2, Pág. 591. Calcularemos la amplitud de probabilidad de detectar
una partı́cula en la dirección n (recordemos que por conservación de momento, la otra irı́a en dirección −n).
Puesto que la colisión es elástica, los módulos de los momentos no cambian y las partı́culas en el estado cuya
26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACIÓN617

probabilidad queremos evaluar tendrán momentos ±pn. El ket final fı́sico |ψf i (justo después de la medida) estará
entonces dado por E
1
|ψf i = √ (1 + εP21 ) pn(1) , −pn(2) (26.71)
2
la amplitud de probabilidad deseada se obtiene aplicando las Ecs. (26.68, 26.69, 26.71)
1 E
(1) (2)
hψf |ψ (t1 )i = hψf | U (t1 , t0 ) |ψi i = √ hψf | U (t1 , t0 ) (1 + εP21 ) pu3 , −pu3
2
1 D (1)   E
† (1) (2)
hψf |ψ (t1 )i = pn , −pn(2) 1 + εP21 U (t1 , t0 ) (1 + εP21 ) pu3 , −pu3 (26.72)
2
utilizando las propiedades de P21 y la Ec. (26.70) resulta
 

1 + εP21 U (t1 , t0 ) (1 + εP21 ) = (1 + εP21 ) (1 + εP21 ) U (t1 , t0 )
2

= 1 + 2εP21 + P21 U (t1 , t0 ) = (1 + 2εP21 + 1) U (t1 , t0 )
   
† †
1 + εP21 U (t1 , t0 ) (1 + εP21 ) = 2 (1 + εP21 ) U (t1 , t0 ) = 2 1 + εP21 U (t1 , t0 ) (26.73)

sustituyendo (26.73) en (26.72) tenemos


D   E
† (1) (2)
hψf |ψ (t1 )i = pn(1) , −pn(2) 1 + εP21 U (t1 , t0 ) pu3 , −pu3
D E
(1) (2)
hψf |ψ (t1 )i = pn(1) , −pn(2) U (t1 , t0 ) pu3 , −pu3
D E
(1) (2)
+ε −pn(1) , pn(2) U (t1 , t0 ) pu3 , −pu3 (26.74)

En la Ec. (26.74) vemos de nuevo que hay un término directo y uno de intercambio en la amplitud. Diagramáti-
camente, estos corresponden a los procesos que se ilustraron en las figuras 26.2a y 26.2b, de la Página 592. De
nuevo, las amplitudes de probabilidad asociadas a estos dos términos se suman o restan dependiendo de si las
partı́culas son fermines o bosones. La presencia de los dos términos genera un término de interferencia cuando
realizamos el módulo al cuadrado de la expresión (26.74). Se puede notar que si cambiamos n por −n, la expresión
(26.74) se multiplica por ε, de modo que la probabilidad permanece invariante. Esto es de esperarse ya que la Fig.
26.5b nos muestra claramente que el cambio n → −n, serı́a indistinguible en el proceso.

26.12. Situaciones en las cuales se puede ignorar el postulado de simetriza-


ción
Si el postulado de simetrización fuera siempre esencial, serı́a imposible describir a un sistema de partı́culas
idénticas con un número restringido de partı́culas, ya que habrı́a que incluı́r todas las partı́culas idénticas a ellas
en el universo para simetrizar el sistema. Veremos que hay situaciones en las cuales el postulado de simetrización
se puede ignorar, considerando a las partı́culas como si fueran de distinta naturaleza, y obtener las mismas
predicciones. La discusión de la sección 26.11, nos muestra que esto ocurre cuando los términos de intercambio
introducidos por el postulado de simetrización son nulos o despreciables. Veremos algunos ejemplos

26.12.1. Partı́culas idénticas ubicadas en regiones espaciales distintas


Es común que las funciones de onda de dos o más partı́culas no se traslapen significativamente. Por ejemplo si
las funciones de onda de dos partı́culas (en una dimensión por simplicidad) son simétricas y tienen anchos ∆x1 y
∆x2 , tales funciones no se traslapan de manera significativa si los centros de las funciones están separados por una
distancia mucho mayor que ∆x1 + ∆x2 . En la práctica hay por supuesto un traslapamiento no nulo a todas las
618 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS

distancias, ya que las funciones de onda usualmente no se anulan exactamente en ninguna región del espacio. Sin
embargo, cuando se cumple la condición antes mencionada se pueden trazar dos (o mas) regiones disyuntas en las
cuales esta casi toda la probabilidad de ubicar a cada partı́cula. En tal caso las partı́culas se pueden asumir como
localizadas6 en cada región ∆1 y ∆2 . Por simplicidad ignoraremos los efectos de espı́n. Consideremos entonces
dos partı́culas idénticas una de ellas en el estado individual |ϕ1 i y la otra en el estado individual |ϕ2 i. Vamos a
suponer el caso ideal en el cual la función de onda ϕ1 (r) es exactamente nula por fuera de la región ∆1 y la función
de onda ϕ2 (r) es exactamente nula por fuera de ∆2 . En tal sentido podemos “rastrear” a las partı́culas y decir
categóricamente que la partı́cula rotulada como (1) (por convención) está dentro de la región ∆1 , y la rotulada
como (2) está dentro de la región ∆2 . La ausencia de traslapamiento de las funciones de onda nos lleva a una
situación similar a la de la mecánica clásica y es de esperarse que el postulado de simetrización sea innecesario en
estas circunstancias.
Pensemos ahora en medir un observable relacionado con una de las partı́culas. Debemos colocar el aparato
de medida de manera que no pueda registrar lo que ocurre digamos en el dominio ∆2 . La medida solo estará
relacionada entonces con la partı́cula dentro de la región ∆1 [rotulada como (1) por convención].
Ahora imaginemos una medida asociada a las dos partı́culas simultáneamente, pero realizadas por dos instru-
mentos de medida diferentes, uno que no es sensible a los fenómenos que ocurren dentro de ∆1 y otro que no es
sensible a lo que ocurre dentro de ∆2 . Por simplicidad asumamos que los autoestados asociados a la medida son
discretos y no-degenerados. Sean b1 y b2 las cantidades fı́sicas que se obtienen para cada partı́cula, y sean |u1 i y
|u2 i los estados individuales (vectores propios asociados a b1 y b2 ) en que queda preparada cada partı́cula luego
de las medidas dentro de ∆1 y ∆2 respectivamente. Ahora bien, la disposición espacial de los instrumentos de
medida implica que
ui (r) = hr |ui i = 0 si r ∈ ∆j ; i, j = 1, 2 , i 6= j
de modo que las funciones justo después de la medida están localizadas en los mismos dominios ∆1 y ∆2 que las
funciones justo antes de la medida. Esto implica que las funciones de onda u1 y ϕ2 no se traslapan, lo mismo
ocurre con las funciones u2 y ϕ1 . En consecuencia
Z Z Z Z
∗ ∗ ∗
hu1 |ϕ2 i = u1 (r) ϕ2 (r) dV = u1 (r) ϕ2 (r) dV + u1 (r) ϕ2 (r) dV + u∗1 (r) ϕ2 (r) dV
∆1 ∆2 ∆

donde ∆ es la región complementaria entre ∆1 y ∆2 . En la región ∆ ambas funciones de onda se anulan, en ∆1


se anula ϕ2 (r) y en ∆2 se anula u1 (r), de manera que cada integral es nula. De una forma similar podemos ver
que hu2 |ϕ1 i se anula. Tenemos entonces
hu1 |ϕ2 i = hu2 |ϕ1 i = 0 (26.75)
ahora bien, empleando el postulado de simetrización la amplitud de probabilidad de obtener los resultados b1 y
b2 viene dada por la Ec. (26.63)

A (b1 ; b2 ) = hu1 ; u2 |ϕ1 ; ϕ2 i = hu1 | ϕ1 i hu2 | ϕ2 i + ε hu2 | ϕ1 i hu1 | ϕ2 i

pero de acuerdo con (26.75) el término de intercambio es nulo de modo que

A (b1 ; b2 ) = hu1 | ϕ1 i hu2 | ϕ2 i

y recordando que el término de intercambio es el término que agrega el postulado de simetrización, vemos que
el resultado es el mismo que si hubiéramos ignorado dicho postulado. Por tanto, bajo ciertas circunstancias es
posible estudiar las partı́culas como si fuesen de diferente naturaleza. En particular, si tenemos un conjunto de
N partı́culas idénticas suficientemente alejadas de cualquier otra partı́cula idéntica adicional, podemos aplicar el
postulado de simetrización a este sistema restringido de N partı́culas idénticas, obteniendo resultados correctos.
6
Estamos asumiendo las partı́culas como localizadas en dos o más regiones disyuntas. Esto no implica que cada partı́cula esté en
un autoestado de posición |ri i (ni siquiera aproximadamente), ya que la localización es en regiones finitas (y no en puntos), cuya única
condición es que sean disyuntas.
26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACIÓN619

En el estado inicial hemos supuesto funciones de onda que no se traslapan, además hemos definido el estado
del sistema especificando dos estados de partı́cula individual. Podemos preguntarnos si después de que el sistema
evoluciona temporalmente aún es posible estudiar a una de las partı́culas e ignorar la otra. Para ello no solo
es necesario que las dos partı́culas permanezcan en regiones distintas del espacio, también se requiere que no
interactúen. Incluso para partı́culas de diferente naturaleza, la interacción introduce correlaciones y el vector de
estado del sistema completo ya no se puede escribir como el producto tensorial de dos estados asociados a cada
partı́cula individual (ver sección 6.1, Pág. 244).
Vale enfatizar que el hecho de que podamos ignorar el postulado de simetrización cuando apartamos suficien-
temente las partı́culas, es una condición esencial para poder definir un sistema aislado de partı́culas idénticas en
mecánica cuántica.

26.12.2. Identificación de partı́culas por su dirección de espı́n


Consideremos una colisión elástica de dos partı́culas con espı́n 1/2 (por ejemplo dos electrones), y asumamos
que la interacción no depende del espı́n, de modo que los estados de espı́n de las dos partı́culas se conservan en el
proceso. Si los estados de espı́n de las dos partı́culas son ortogonales entre sı́, tales estados servirán para distinguir
entre las dos partı́culas para todo tiempo, como si las partı́culas fueran de distinta naturaleza.
Para verlo, usaremos el cálculo realizado en la sección 26.11.2, agregando apropiadamente los estados de espı́n.
El ket fı́sico inicial (26.68) junto con las variables de espı́n se escribirá por ejemplo en la forma
1 E
(1) (2)
|ψi i = √ (1 − P21 ) pu3 , (+)(1) ; −pu3 , (−)(2) (26.76)
2
donde los sı́mbolos + y − indican espı́n arriba y abajo respectivamente. El estado final (26.71) con las variables
de espı́n se escribirá como E
1
|ψf i = √ (1 − P21 ) pn(1) , (+)(1) ; −pn(2) , (−)(2) (26.77)
2
ahora bien, si la interacción es independiente del espı́n, entonces el Hamiltoniano H y por tanto el operador
evolución temporal serán independientes de las variables de espı́n. En consecuencia el operador U (t1 , t0 ) no puede
cambiar las variables de espı́n de un ket o un bra. Esto implica que
D E
(1) (2)
−pn(1) , (−)(1) ; pn(2) , (+)(2) U (t1 , t0 ) pu3 , (+)(1) ; −pu3 , (−)(2) = 0 (26.78)

ya que U (t1 , t0 ) no cambia los estados de espı́n de modo que éstos continúan siendo ortogonales. La Ec. (26.78)
implica que el término de intercambio en la Ec. (26.74) se anula, quedando
D E
(1) (2)
hψf |ψ (t1 )i = pn(1) , (+)(1) ; −pn(2) , (−)(2) U (t1 , t0 ) pu3 , (+)(1) ; −pu3 , (−)(2) (26.79)

Se obtiene entonces el mismo resultado si tratamos a las dos partı́culas como diferentes, es decir si no antisimetri-
zamos los kets inicial y final, y si asociamos el ı́ndice (1) con el estado de espı́n |+i y el ı́ndice (2) con el estado
de espı́n |−i. Esta argumentación deja de ser válida si U (t1 , t0 ) [o equivalentemente el Hamiltoniano], dependen
de variables de espı́n.
Capı́tulo 27

Átomos de muchos electrones y


aproximación de campo central

El estudio del átomo de hidrógeno es relativamente simple debido a que es un átomo con un solo electrón. Por
un lado, esto permite reducir el problema a un problema de dos cuerpos desacoplados en donde solo la dinámica de
un cuerpo es no-trivial y éste último está sometido a una fuerza central. Adicionalmente, el principio de exclusión
de Pauli no es relevante. En este capı́tulo se estudiarán átomos de muchos electrones para los cuales el problema
es mucho más complejo debido a que incluso en el sistema de referencia del centro de masa, el problema continúa
siendo acoplado (no se puede reducir al problema de varias partı́culas imaginarias desacopladas), y el principio de
exclusión de Pauli juega un papel esencial ya que tenemos Z fermiones idénticos (electrones).
Consideremos un átomo de Z electrones. Puesto que el núcleo es mucho más masivo que los electrones, vamos
a despreciar la dinámica de los núcleos y asumiremos que la posición de éste coincide con la posición del centro
de masa del sistema. En lo que sigue no consideraremos los efectos relativistas y en particular no incluiremos los
términos de espı́n. El Hamiltoniano que describe el movimiento de los Z electrones vendrá dado por
Z
X Z
X Z−1 Z
P2i Ze2 X X e2 q2
H= − + ; e2 ≡ (27.1)
2me Ri |Ri − Rj | 4πε0
i=1 i=1 i=1 j=i+1

los electrones se han numerado arbitrariamente de 1 a Z. El primer término en el Hamiltoniano es la energı́a


cinética total del sistema de Z electrones, el segundo describe la atracción que el núcleo ejerce sobre cada electrón
del sistema. Finalmente, el tercer término se refiere a la repulsión de los electrones entre sı́. Nótese que la suma en
el tercer término contiene Z (Z − 1) /2 sumandos que corresponden a todos los pares posibles de electrones. Este
Hamiltoniano es simétrico bajo el intercambio i ↔ j como lo requiere el postulado de simetrización.
Nótese que en ausencia del tercer término en (27.1), el Hamiltoniano queda
Z
X Z
X
P2i Ze2
Ha = −
2me Ri
i=1 i=1

para este Hamiltoniano de partı́culas no interactuantes, pueden determinarse con facilidad sus kets y valores
propios. Como se discutió en el ejemplo
E 6.1, Pág. 246, en este caso el problema se desacopla. Calculando los
(i) (i)
valores propios Eni y kets propios ψni para el operador Hi asociado a cada valor de i

P2i Ze2
Hi = −
2me Ri
se puede construir un conjunto de kets y valores propios de H0 en la forma
Z
X E E E
(2) (Z)
En = En(i)i ; |ψn i = ψn(1)
1
⊗ ψn2 ⊗ ψnZ
i=1

620
27.1. APROXIMACIÓN DE CAMPO CENTRAL 621

y solo resta antisimetrizar el producto tensorial para cumplir con el postulado de simetrización. Sin embargo,
la introducción de la interacción hace que este desacople ya no sea posible. A priori podrı́a pensarse en tratar
al término de interacción como una perturbación. No obstante, es de esperarse que la distancia relativa entre
electrones esté en promedio en el mismo orden de magnitud que la distancia promedio entre cada electrón y el
núcleo. El cociente entre el término de interacción repulsiva y el de atracción hacia el núcleo tendrá el siguiente
orden de magnitud

Z
X Z
Ze2 1 X 2 Z 2 e2
kHnuc k = ≈ Ze ≈
Ri hRi hRi
i=1 i=1
Z−1
X Z
X Z−1
X X Z
e2 1 1 Z (Z − 1) e2
kHint k = ≈ e2 ≈
|Ri − Rj | h|Ri − Rj |i hRi 2
i=1 j=i+1 i=1 j=i+1

Hint (Z − 1)

Hnuc ≈ 2Z

este cociente varı́a entre 1/4 para Z = 2, y 1/2 para Z ≫ 1. Por tanto, ambos Hamiltonianos son del mismo orden
de magnitud, de modo que una tratamiento perturbativo escasamente funciona en forma muy aproximada (y poco
confiable) para el átomo de Helio con Z = 2. Para átomos de muchos electrones la aproximación perturbativa
serı́a aún peor. Por esta razón debemos recurrir a métodos alternativos. Uno de los más utilizados es la llamada
aproximación de campo central, que describiremos a continuación.

27.1. Aproximación de campo central

Para desarrollar el método recurriremos a una imagen semi-clásica. Un electrón dado (i), se mueve bajo la
influencia repulsiva de los otros Z − 1 electrones que compensan parcialmente la interacción atractiva del núcleo.
En esta aproximación, se considera que el electrón (i) se mueve bajo la influencia de un potencial que solo
depende de su posición ri que tiene en cuenta a la fuerza atractiva nuclear y al efecto promedio de los electrones
restantes. Podemos adicionalmente hacer la suposición de que dicho potencial solo depende de la magnitud de
ri . Denotando este potencial como Vc (ri ), esta suposición adicional implica que la fuerza resultante es central, al
menos en promedio. Por esta razón hablamos de una aproximación de campo central. Esta aproximación está
ignorando efectos tales como el hecho de que el movimiento del electrón (i) influye sobre la distribución electrónica
restante, cambiando a su vez al potencial en el cual está inmerso el electrón (i), es decir hay una correlación entre
el electrón en cuestión y los electrones restantes. Por otro lado, la interacción no es exactamente central. Por
ejemplo, un electrón muy cercano tendrá una interacción dominante con respecto a los otros, y la repulsión no
es en general colineal con la fuerza de atracción del núcleo, en cuyo caso la suma vectorial no corresponde a una
fuerza central. Sin embargo, en esta imagen clásica (ya que implı́citamente hemos supuesto los electrones como
localizados), es razonable una aproximación de campo central si tomamos un promedio sobre un tiempo mucho
mayor al periodo de revolución de los electrones.
En un escenario cuántico, los electrones ya no están localizados y la imagen de una nube electrónica distribuı́da
por todo el espacio hace que la aproximación de campo central funcione mejor que en el escenario clásico. Ya no
es necesario tomar un promedio en el tiempo para que la aproximación central sea razonable. El promedio sobre
la distribución espacial puede dar cuenta de esta aproximación.
622 CAPÍTULO 27. ÁTOMOS DE MUCHOS ELECTRONES Y APROXIMACIÓN DE CAMPO CENTRAL

Para tener en cuenta la anterior discusión escribiremos el Hamiltoniano (27.1) en la forma


Z
X Z
X Z
X Z
X Z−1 Z
P2i Ze2 X X e2
H = + Vc (Ri ) − Vc (Ri ) − +
2me Ri |Ri − Rj |
i=1 i=1 i=1 i=1 i=1 j=i+1
H = H0 + W (27.2)
Z
X Z
X Z
X Z
X Z−1
X Z
X
P2i Ze2 e2
H0 ≡ + Vc (Ri ) , W ≡ − Vc (Ri ) − + (27.3)
2me Ri |Ri − Rj |
i=1 i=1 i=1 i=1 i=1 j=i+1

las Ecs. (27.2, 27.3) son válidas para cualquier valor de Vc (Ri ), de modo que no determinan a dicho potencial.
Sin embargo, una escogencia adecuada de Vc (Ri ), será una en la cual |W | ≪ |H0 |, de manera que W se pueda
tratar como una perturbación. H0 serı́a el Hamiltoniano no perturbado, que se resuelve con facilidad dado que
es un Hamiltoniano de partı́culas independientes. Bastará con resolver el problema de valores propios de un
Hamiltoniano de un electrón
P2
Hb ≡ + Vc (R) (27.4)
2me
La determinación de un potencial Vc (Ri ) óptimo es un problema muy complejo, debido a la correlación entre
el electrón para el cual se evalúa el potencial y la nube electrónica restante. La idea es llegar a una solución
autoconsistente, es decir que las funciones de onda que se determinan con Vc (Ri ) deben predecir una distribución
de carga que reconstituya al mismo potencial (al menos aproximadamente).
Si bien la determinación del potencial Vc (r) es muy compleja, un análisis cualitativo nos muestra como debe
ser el comportamiento asintótico de Vc (r). Para valores muy pequeños de r, el electrón (i) está dentro de la nube
electrónica creada por los otros electrones de modo que solo “siente” el potencial atractivo debido al núcleo1 . Por
otro lado para r muy grande, el electrón (i) está esencialmente por fuera de la nube electrónica formada por la
contribución de los Z − 1 electrones restantes. En este caso el electrón “siente” el equivalente a una carga puntual
situada en el origen igual a la suma algebraica de la carga del núcleo más la de la nube de (Z − 1) electrones.
Podemos entonces resumir el comportamiento asintótico de la siguiente manera
e2
Vc (r) ≃ − para r grande (27.5)
r
Ze2
Vc (r) ≃ − para r pequeño (27.6)
r
Para valores intermedios de r se requiere la determinación completa del potencial. La Fig. 27.1, muestra un
potencial tı́pico de Vc (r) descrito por la lı́nea contı́nua junto con las lı́neas asintóticas (lı́neas punteadas) definidas
por las Ecs. (27.5, 27.6). Esta figura muestra efectivamente que el potencial tiende a la función (27.5) para r
grande y a la función (27.6) para r pequeño.
Ası́ mismo podemos extraer información cualitativa del espectro. Puesto que Vc (r) es central, es válida toda la
discusión realizada en el capı́tulo 12. En particular, este problema posee las degeneraciones esenciales propias de la
naturaleza central de la interacción [ver sección 12.6.1, Pág. 354], de manera que los autovalores del Hamiltoniano
(27.4) dependen de los números cuánticos n y l, pero no del número cuántico m. Puesto que Vc (r) no es en general
coulombiano, no estarán presentes las degeneraciones accidentales propias de este potencial [ver sección 13.6, Pág.
368]. l caracteriza al valor propio de L2 y n es la suma del número cuántico l mas el número cuántico radial k que
se introdujo al resolver la ecuación radial para un l dado [ver Ecs. (12.37), Pág. 352]. Los números cuánticos n y
l son enteros (recordemos que no hemos introducido el espı́n), y satisfacen la condición
0≤l ≤n−1 (27.7)
1
En una imagen semi-clásica, si pensamos que el electrón (i) (asumido como puntual) está inmerso en una nube electrónica esféri-
camente simétrica, los “cascarones externos” al electrón (i) no contribuyen al campo. Solo contribuye la “carga neta” de la nube
electrónica interna, es decir la nube localizada entre 0 ≤ r < ri , siendo ri la posición del electrón en cuestión. Si ri es mucho menor
que el radio de Bohr, podemos despreciar la fracción de carga electrónica que está en tal intervalo radial, comparada con la carga del
núcleo.
27.1. APROXIMACIÓN DE CAMPO CENTRAL 623

Figura 27.1: Perfil tı́pico del potencial Vc (r) como función de r. La lı́nea contı́nua representa el perfil comple-
to de este potencial, y las lı́neas punteadas son las funciones definidas en las Ecs. (27.5, 27.6) que definen el
comportamiento asintótico de dicho potencial.

Para un valor dado de l, las energı́as se incrementan con n

En,l > En′ ,l si n > n′ (27.8)

Por otro lado, para un valor fijo de n, la energı́a es más baja cuando el autoestado está asociado a una capa más
profunda. Es decir, cuando la densidad de probabilidad del electrón en la vecindad del núcleo es mayor, en este
caso el efecto de apantallamiento debido a la nube electrónica es muy pequeño como ya se discutió. Las energı́as
En,l asociadas con el mismo valor de n se pueden ordenar en el orden en el cual se aumenta el momento angular

En,0 < En,1 < En,2 < . . . < En,n−1 (27.9)

Podemos entender la jerarquı́a (27.9) teniendo en cuenta que en un análogo clásico un valor menor de l (para
el mismo n) significa menor parámetro de impacto, de modo que el electrón estarı́a en una capa más profunda.
Ocurre que en general la jerarquı́a de los estados es aproximadamente la misma para todos los átomos. Si bien
los valores especı́ficos de las energı́as dependen de Z. La Fig. 27.2 muestra esta jerarquı́a e ilustra la degeneración
esencial de orden 2 (2l + 1), donde el factor de 2 se debe al espı́n. Los estados dentro del mismo corchete está muy
cercanos el uno al otro y de hecho para algunos átomos prácticamente coinciden, dentro de estos estados muy
cercanos las posiciones relativas pueden variar de un átomo a otro. Es importante mencionar que esta figura solo
muestra posiciones relativas de los estados pero no brinda ninguna información sobre los valores especı́ficos de las
energı́as.
Hay diferencias notables con respecto al espectro del átomo de Hidrógeno. Esto se deriva del hecho de que en
el presente contexto la energı́a depende de los números cuánticos n y l. Esto hace que el orden de los estados sea
diferente. Por ejemplo, la Fig. 27.2 muestra que la capa 4s tiene una energı́a ligeramente menor que la de la capa
3d (en el átomo de Hidrógeno es al contrario puesto que la energı́a solo depende de n), esto tiene que ver con que
la función de onda 4s es “más penetrante” (i.e. pertenece a una capa más profunda) debido a que pertenece a
un menor momento angular. Inversiones similares se ven entre otras capas. Esto nos muestra la importancia del
efecto repulsivo entre los electrones.
624 CAPÍTULO 27. ÁTOMOS DE MUCHOS ELECTRONES Y APROXIMACIÓN DE CAMPO CENTRAL

Figura 27.2: Representación de la posición relativa de los niveles de energı́a electrónicos en un potencial central
del tipo Vc (r). La degeneración de cada nivel se indica en paréntesis. Los niveles dentro de un corchete están muy
cercanos entre sı́. Al lado derecho se escriben los sı́mbolos de los átomos para los cuales la capa electrónica que
aparece en la misma lı́nea corresponde a la capa más externa ocupada en el estado base.

27.2. Configuraciones electrónicas de los átomos


En la aproximación de campo central, despreciamos la contribución de la perturbación W en las Ecs. (27.2,
27.3) y calculamos los autoestados del Hamiltoniano H0 descrito por dichas ecuaciones. Puesto que los autoestados
surgen de la antisimetrización del producto tensorial de las soluciones de partı́cula individual, tales autoestados
están descritos por un determinante de Slater. El estado base del átomo se obtiene cuando los Z electrones
ocupan los estados de energı́a más bajos compatibles con el principio de exclusión de Pauli. El máximo número de
electrones que puede tener un nivel de energı́a dado En,l es la degeneración 2 (2l + 1) de dicho nivel. El conjunto
de estados individuales asociados a una energı́a dada En,l se denomina una capa. La configuración electrónica
describe cuales capas están ocupadas y cuántos electrones posee cada capa. La caracterización de las funciones de
onda y los niveles de energı́a asociados, permiten conocer el número de enlaces formados por los átomos, ası́ como
su geometrı́a y estabilidad.
Para determinar la configuración electrónica del estado base, se “llenan” las capas sucesivas desde el nivel 1s
en forma sucesiva en el orden indicado en la Fig. 27.2, hasta que se agoten los Z electrones.
Por ejemplo, en el estado base del átomo de Hidrógeno, el único electrón del átomo ocupa el nivel 1s. En el
átomo de Helio con Z = 2, la configuración electrónica consiste en los dos átomos ocupando el mismo nivel 1s,
uno con espı́n arriba y el otro con espı́n abajo para ser compatible con el principio de exclusión

He : 1s2

la notación espectroscópica indica entonces que los dos electrones ocupan estados ortogonales de la capa 1s, con
la misma función espacial pero espinores ortogonales. Para el Litio con Z = 3, la configuración electrónica viene
27.2. CONFIGURACIONES ELECTRÓNICAS DE LOS ÁTOMOS 625

dada por
Li : 1s2 , 2s
ya que la capa 1s solo puede aceptar dos electrones y el tercer electrón debe ir al nivel inmediatamente superior,
que de acuerdo con la Fig. 27.2 es el nivel 2s. Para el caso del Berilio (Z = 4), la configuración electrónica es

Be : 1s2 , 2s2

ya que la capa 2s puede aceptar otro electrón. Para Z > 4, se procede al llenado de las capas superiores hasta
agotar los Z electrones, llenando las capas 2p, 3s, 3p etc. En la figura 27.2, se muestra en el lado derecho los
sı́mbolos de los elementos para los cuales la capa en cuestión es la más externa, cuando los átomos están en el
estado base. Esta es la clasificación de la tabla periódica de Mendeleev. Debe tenerse en cuenta sin embargo, que
los niveles que aparecen dentro de los corchetes en la Fig. 27.2 están muy cercanos entre sı́, y su llenado puede
ocurrir en forma irregular. Por ejemplo, aunque en la figura 27.2 el nivel 4s aparece debajo del nivel 3d, para el
cromo (Z = 24) hay 5 electrones en la capa 3d a pesar de que la capa 4s está incompleta

Cr : 1s2 , 2s2 , 2p6 , 3s2 , 3p6 , 4s1 , 3d5

irregularidades similares ocurren para el cobre (Z = 29), Niobio (Z = 41), etc.


Cuando todas las capas están llenas, hay tantos estados individuales ortogonales como electrones. En otras
palabras, hay solo un determinante de Slater no-nulo asociado a configuraciones con todas las capas llenas (o
capas cerradas). En consecuencia, el estado base de los gases nobles (ns2 , np6 . . .) es no-degenerado al igual que
el de las tierras alcalinas (. . . , ns2 ).
Por otro lado, si el número de electrones externos es menor que el grado de degeneración de la capa más
externa, el estado base del átomo es degenerado. Para los alcalinos (. . . , ns), hay una degeneración de 2, para el
carbono (1s2 , 2s2 , 2p2 ) la degeneración es C62 = 15, puesto que los estados individuales se pueden escoger de los
seis estados ortogonales que constituyen la capa 2p.
Adicionalmente, puede demostrarse que para una capa completa todos los momentos angulares electrónicos
netos (orbital, de espı́n y total) son cero2 . Por tanto el momento angular electrónico de un átomo3 , es debido solo
a los electrones externos. Tal momento angular es entonces nulo para los gases nobles y las tierras alcalinas, en
tanto que para metales alcalinos el momento angular total electrónico será 1/2, puesto que poseen un solo electrón
externo, cuyo momento angular orbital es cero y cuyo espı́n es 1/2.
Ahora bien, los estados excitados de más baja energı́a del Hamiltoniano H0 en la aproximación de campo
central, se obtienen cuando se mueve uno de los electrones a una estado individual de energı́a más alto que la
última capa ocupada en el estado base. Hemos dicho los estados excitados de más baja energı́a, puesto que el
electrón que se mueve y los otros electrones de la capa más externa del estado base, no están en general llenando
capas, y por tanto hay varios estados ortogonales asociados a la energı́a del primer estado excitado. Por ejemplo,
el primer estado excitado del átomo de Helio posee la configuración electrónica

He∗ : 1s, 2s

2
Veremos esta caracterı́stica para el átomo de Helio en el estado base [ver Ec. (28.9) Pág. 628 y discusión posterior].
3
El momento angular del átomo debe adicionar al momento angular de la nube electrónica, el momento angular del núcleo.
Capı́tulo 28

El átomo de Helio

Estudiaremos el átomo de Helio en el marco de la aproximación de campo central. Teniendo en cuenta solo la
interacción electrostática, el Hamiltoniano del átomo de Helio se escribe como

P21 P2 2e2 2e2 e2


H= + 2 − − + (28.1)
2me 2me R1 R2 |R1 − R2 |
De acuerdo con la estrategia desarrollada en el capı́tulo 27, escribiremos el Hamiltoniano del átomo de Helio en
la forma

H = H0 + W (28.2)
P21 P2
H0 ≡ + 2 + Vc (R1 ) + Vc (R2 ) (28.3)
2me 2me
2e2 2e2 e2
W = − − + − Vc (R1 ) − Vc (R2 ) (28.4)
R1 R2 |R1 − R2 |
donde el potencial central Vc (Ri ) se elige adecuadamente para que W se pueda considerar una pequeña corrección
(perturbación)1 con respecto a H0 . Como primer paso, se desprecia la contribución de W (aproximación de
campo central) lo cual nos lleva a estudiar las configuraciones electrónicas del átomo bajo esta aproximación.
Posteriormente, se estudia la corrección de W via teorı́a estacionaria de perturbaciones.

28.1. Configuraciones del átomo de Helio


Cuando se desprecia W , los electrones se pueden considerar independientes. Sin embargo, parte de la contri-
bución de la repulsión estática promedio está implı́citamente incluı́da en el potencial central Vc .
De acuerdo con la discusión de la sección 27.1, las configuraciones del átomo de Helio en la aproximación de
campo central (en la cual los electrones están embebidos en un campo central Vc ), se especifican a través de los
números cuánticos n, l y n′ , l′ de los dos electrones. La energı́a electrónica total es entonces

Ec = En,l + En′ ,l′ (28.5)

De acuerdo con la Fig. 27.2, la configuración del estado base consiste en los dos electrones en la capa 1s, denotándose
entonces como la configuración 1s2 . El primer estado excitado se obtiene cuando uno de los electrones está en
la capa 1s y el otro en la capa 2s, la configuración electrónica es entonces 1s, 2s. El segundo estado excitado
corresponde a la configuración 1s, 2p.
Las configuraciones excitadas del átomo de Helio tienen la forma 1s, n′ l′ . Sin embargo, también existen
configuraciones nl, n′ l′ “doblemente excitadas” en las cuales ambos electrones están en estados excitados. No
1
Por supuesto, la simetrı́a nos indica que Vc (R1 ) y Vc (R2 ) deben tener la misma forma funcional.

626
28.1. CONFIGURACIONES DEL ÁTOMO DE HELIO 627

obstante, en el caso del Helio la energı́a total de estas configuraciones es mayor que la energı́a de ionización del
átomo, es decir la energı́a necesaria para pasar del estado 1s2 al estado 1s, n′ l′ con n′ → ∞. En consecuencia, los
estados doblemente excitados son muy inestables, ya que tienden a disociarse rápidamente en un electrón y un ión,
razón por la cual suelen denominarse “estados de autoionización”. Sin embargo, existen configuraciones doblemente
excitadas que no son autoionizantes, pero que decaen emitiendo fotones. Algunas de las correspondientes lı́neas
espectrales han sido observadas experimentalmente.

28.1.1. Degeneración de las configuraciones


Puesto que Vc es central, la energı́a de las configuraciones no depende de los números cuánticos m y m′ donde

−l ≤ m ≤ l ; −l′ ≤ m′ ≤ l′

adicionalmente, puesto que Vc no depende del espı́n, la energı́a tampoco depende de los números cuánticos ε y ε′
con ε = ±1/2 y ε′ = ±1/2. Por esta razón, la mayor parte de las configuraciones son degeneradas.
Para calcular la degeneración, tendremos en cuenta que un estado perteneciente a una configuración está
definida por 8 números cuánticos (cuatro para cada electrón) dados por (n, l, m, ε) y (n′ , l′ , m′ , ε′ ). Puesto que los
electrones son fermiones idénticos, debe tenerse en cuenta el postulado de simetrización y el consecuente principio
de exclusión de Pauli. El estado fı́sico (antisimetrizado) estarı́a dado por
E
n, l, m, ε; n′ , l′ , m′ , ε′ = √1 (1 − P21 ) n(1) , l(1) , m(1) , ε(1) ; n′(2) , l′(2) , m′(2) , ε′(2) (28.6)
2

el principio de exclusión de Pauli prohibe los estados con idénticos números cuánticos n = n′ , l = l′ , m = m′
y ε = ε′ . El conjunto de kets fı́sicos para n, l; n′ l′ fijos forma un subespacio E (n, l; n′ , l′ ) del espacio EA , donde
dicho subespacio está asociado con la configuración n, l; n′ l′ . Una base ortonormal del subespacio E (n, l; n′ , l′ ) nos
dará el grado de degeneración del correspondiente nivel de energı́a. Para evaluar el grado de degeneración de una
configuración nl; n′ l′ dada, debemos distinguir dos casos:

Electrones en diferentes capas


Cuando los dos electrones no están en la misma capa. Es decir no se cumple la condición n = n′ y l = l′ . En tal
caso, ya que al menos uno de los números cuánticos n, l de los dos electrones es diferente, los estados individuales
nunca coinciden y por tanto m, m′ y ε, ε′ pueden tomar de forma independiente cualquier valor. Por tanto, la
degeneración está dada por
  
gnl,n′ l′ = [2 (2l + 1)] × 2 2l′ + 1 = 4 (2l + 1) 2l′ + 1 ; si n 6= n′ ó l 6= l′ (28.7)

por ejemplo, la degeneración de la configuración 1s, 2s (primer estado excitado) es 4, y la degeneración de la


configuración 1s, 2p (segundo estado excitado) es 12.

Electrones en la misma capa


Cuando los dos electrones están en la misma capa se tiene que n = n′ y l = l′ . En tal caso deben excluirse los
estados con m = m′ y ε = ε′ . El número total de estados individuales es 2 (2l + 1). Para calcular el número total de
estados compatibles con el principio de exclusión de Pauli podemos proceder de la siguiente forma: consideremos
un estado de dos partı́culas de la forma 
(n, l, m, ε) n, l, m′ , ε′
podemos proceder a recorrer independientemente a los pares (m, ε) y (m′ , ε′ ) lo cual nos da un total de [2 (2l + 1)]×
[2 (2l + 1)] estados. Ahora contamos los estados que no son compatibles con el principio de exclusión, es decir tal
que m = m′ y ε = ε′ , para dichos estados el espı́n solo toma dos valores y la tercera componente de momento
628 CAPÍTULO 28. EL ÁTOMO DE HELIO

angular toma 2l + 1 valores, para un total de 2 (2l + 1) estados. Sustrayendo los estados que violan el principio de
exclusión de los anteriores tenemos

[2 (2l + 1)] × [2 (2l + 1)] − 2 (2l + 1) = 2 (2l + 1) (4l + 1)

sin embargo, al recorrer los números cuánticos de manera independiente hacemos un doble conteo de cada estado,
ya que el estado de dos partı́culas (n, l, m, ε) (n, l, m′ , ε′ ) es igual al estado (n, l, m′ , ε′ ) (n, l, m, ε). El presente
conteo está tomando los dos en cuenta como si fueran diferentes, por tanto debemos dividir el anterior resultado
por dos2 , con lo cual obtenemos
gnl2 = (2l + 1) (4l + 1) (28.8)
Otra forma de verlo es la siguiente: dado el conjunto fijo de números cuánticos (n, l, m, ε), hay [2 (2l + 1) − 1]
estados del tipo (n, l, m′ , ε′ ) compatibles con el principio de exclusión, ya que el número de estados de la forma
(n, l, m′ , ε′ ) es 2 (2l + 1) pero uno de ellos (cuando m = m′ y ε = ε′ ) viola dicho principio. Por otro lado, hay
2 (2l + 1) estados del tipo (n, l, m, ε), con lo cual el número de estados en el conteo será

[2 (2l + 1)] × [2 (2l + 1) − 1] = 2 (2l + 1) (4l + 1)

una vez más este conteo toma en cuenta dos veces al mismo estado y el resultado debe dividirse por dos, con lo
cual se reproduce de nuevo la Ec. (28.8).

Example 28.1 La configuración 1s2 (estado base) no es degenerada. En tal caso es útil realizar la expansión del
determinante de Slater correspondiente a la configuración. Si en la Ec. (28.6) hacemos

n = n′ = 1, l = l′ = m = m′ = 0, ε = (+) , ε′ = (−)

podemos escribir
1 E
1, 0, 0, ε; 1, 0, 0, ε′ =
√ (1 − P21 ) 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2)
2
1 h (1) (1) (1) E
= √ 1 , 0 , 0 , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2)
2
Ei

− 1(2) , 0(2) , 0(2) , (+)(2) ; 1(1) , 0(1) , 0(1) , (−)(1)
1 h E
= √ 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2)
2
Ei

− 1(1) , 0(1) , 0(1) , (−)(1) ; 1(2) , 0(2) , 0(2) , (+)(2)

podemos factorizar la parte espacial y escribir


h E Ei
E (1) (2) (1) (2)
(+) ; (−) − (−) ; (+)
1, 0, 0, ε; 1, 0, 0, ε′ = 1(1) , 0(1) , 0(1) ; 1(2) , 0(2) , 0(2) ⊗ √ (28.9)
2
en la componente espinorial de la Ec. (28.9) reconocemos el estado singlete |S = 0, MS = 0i que surge de las reglas
de adición para S = S(1) + S(2) , cuando s(1) = s(2) = 1/2 [ver Ec. (16.32) Pág. 412]. Concluı́mos que aunque el
Hamiltoniano H0 no depende de variables de espı́n, las ligaduras introducidas por el postulado de simetrización
requieren que el espı́n total del estado base sea S = 0. Nótese que de acuerdo con (28.8) ninguna configuración
con l = 0, será degenerada independientemente del valor de n.
2
Nótese que este problema de doble conteo no aparece cuando los dos electrones son de capas diferentes. Esto se debe a que en el
conteo, el intercambio es solo de los números cuánticos (m, ε) ↔ (m′ , ε′ ). Por tanto, los estados (n, l, m, ε) (n′ , l′ , m′ , ε′ ) son diferentes
a los estados (n, l, m′ , ε′ ) (n′ , l′ , m, ε) cuando (n, l) es diferente de (n′ , l′ ).
28.2. EFECTO DE LA REPULSIÓN ELECTROSTÁTICA 629

(2, 1, 1, +) (2, 1, 1, −) (2, 1, 1, −) (2, 1, 1, +)


(2, 1, 1, +) (2, 1, 0, +) (2, 1, 1, −) (2, 1, 0, +)
(2, 1, 1, +) (2, 1, 0, −) (2, 1, 1, −) (2, 1, 0, −)
(2, 1, 1, +) (2, 1, −1, +) (2, 1, 1, −) (2, 1, −1, +)
(2, 1, 1, +) (2, 1, −1, −) (2, 1, 1, −) (2, 1, −1, −)
(2, 1, 0, +) (2, 1, 1, +) (2, 1, 0, −) (2, 1, 1, +)
(2, 1, 0, +) (2, 1, 1, −) (2, 1, 0, −) (2, 1, 1, −)
(2, 1, 0, +) (2, 1, 0, −) (2, 1, 0, −) (2, 1, 0, +)
(2, 1, 0, +) (2, 1, −1, +) (2, 1, 0, −) (2, 1, −1, +)
(2, 1, 0, +) (2, 1, −1, −) (2, 1, 0, −) (2, 1, −1, −)
(2, 1, −1, +) (2, 1, 1, +) (2, 1, −1, −) (2, 1, 1, +)
(2, 1, −1, +) (2, 1, 1, −) (2, 1, −1, −) (2, 1, 1, −)
(2, 1, −1, +) (2, 1, 0, +) (2, 1, −1, −) (2, 1, 0, +)
(2, 1, −1, +) (2, 1, 0, −) (2, 1, −1, −) (2, 1, 0, −)
(2, 1, −1, +) (2, 1, −1, −) (2, 1, −1, −) (2, 1, −1, +)

Cuadro 28.1: Conteo de la degeneración asociada a dos electrones en el átomo de Helio que están en la misma
capa con n = n′ = 2 y l = l′ = 1. En este conteo aparecen 30 estados pero en virtud de la duplicación, solo 15 de
ellos son estados fı́scamente diferentes.

Example 28.2 Veamos el caso de dos electrones en la misma capa con n = n′ = 2 y l = l′ = 1. Para cada estado
con (2, 1, m, ε) fijo, hay 5 estados del tipo (2, 1, m′ , ε′ ) compatibles con el principio de exclusión de Pauli, además
hay 6 estados de la forma (2, 1, m, ε), con lo cual el conteo nos arroja 30 estados. El lector puede sin embargo
apreciar que cada estado aparece dos veces. Por ejemplo aparecen (2, 1, 1, +) (2, 1, 1, −) y (2, 1, 1, −) (2, 1, 1, +). Hay
entonces en total 15 estados fı́sicamente diferentes con la misma energı́a. El procedimiento de conteo se aprecia
en la tabla 28.1

28.2. Efecto de la repulsión electrostática


El siguiente paso es estudiar el efecto de W usando teorı́a estacionaria de perturbaciones. Para ello, debemos
diagonalizar la restricción de W dentro del subespacio E (n, l; n′ l′ ). Los autovalores de la correspondiente matriz
nos darán la corrección a primer orden en W de la energı́a Ec . Los autoestados asociados son de orden cero en
W . Veremos que para calcular la matriz representativa de la restricción de W , podemos escoger una base en la
cual dicha matriz ya es diagonal.

28.2.1. Base de E (n, l; n′ , l′ ) adaptada a las simetrı́as de W


Nuestro Hamiltoniano tiene la forma del Hamiltoniano (16.5) Pág. 405

H = H1 (P1 , R1 ) + H2 (P2 , R2 ) + W (|R2 − R1 |) (28.10)

En la sección 16.2.1, Pág. 404 vimos que un Hamiltoniano de la forma (28.10) no conmuta con L(1) ni con L(2)
pero sı́ conmuta con L(1) + L(2) . Las Ecs. (16.3, 16.8) nos dicen que para un Hamiltoniano de la forma (28.10)
tenemos que h i
Hi , L(k) = [H, L] = [W (|R2 − R1 |) , L] = 0 ; L ≡ L(1) + L(2) ; i, k = 1, 2 (28.11)

en particular  
e2
[W, L] = ,L = 0 (28.12)
R12
630 CAPÍTULO 28. EL ÁTOMO DE HELIO

de modo que el momento angular total es una constante de movimiento, en tanto que el momento angular de cada
electrón no lo es. Esto está asociado al hecho de que una rotación que involucre a los dos electrones no cambia la
distancia relativa R12 entre ellos. En contraste, una rotación que involucre a un solo electrón cambiará en general
a la cantidad R12 .
Adicionalmente, puesto que ni H ni W dependen de variables de espı́n, conmutarán con cualquier operador
de espı́n. En particular, tenemos que
[W, S] = 0 ; S ≡ S(1) + S(2) (28.13)
Por tanto, los operadores
L2 , S2 , L3 , S3 , W
forman un conjunto de observables conmutantes. Mostraremos que de hecho L2 , S2 , L3 , S3 forman un C.S.C.O.
en el subespacio E (n, l; n′ , l′ ) de EA . La tarea será entonces encontrar una base común de vectores propios de los
observables L2 , S2 , L3 , S3 y construı́r con ellos la representación matricial de la restricción de W al subespacio
E (n, l; n′ , l′ ) de EA .
Para ello recordamos que el espacio de Hilbert total E es el producto tensorial E (1) ⊗ E (2) relativo a una
numeración arbitraria de los electrones. El subespacio E (n, l; n′ , l′ ) de EA se puede obtener antisimetrizando los
kets del subespacio En,l (1) ⊗ En′ ,l′ (2) de E. Por tanto elegimos una base del subespacio En,l (1) ⊗ En′ ,l′ (2) en la
forma n E E  o
(1) (1) (1) (1) ′
n , l , m , ε ⊗ n′(2) , l (2) , m′(2) , ε′(2) ; con (n, l) , n′ , l′ fijos (28.14)

con los cuales obtenemos los kets fı́sicos (28.6) antisimetrizando. Nótese que en términos de momento angular
orbital y de espı́n, los vectores (28.14) forman una base desacoplada, en la cual los números cuánticos que están
bien definidos son momentos angulares parciales tanto en el sentido orbital y de espı́n, como en el sentido de que
están asociados a cada partı́cula.
Sin embargo, las reglas de adición del momento angular permiten definir otra base para el subespacio En,l (1) ⊗
En′ ,l′ (2) compuesta por vectores propios comunes a L2 , S2 , L3 , S3 definida completamente por la especificación de
los correspondientes valores propios3 . Esta base la denotaremos en la forma
n E o
(1) (1) ′(2) ′ (2)
n , l , n , l ; L, ML ⊗ |S, MS i (28.15)

donde las reglas de adición de momentos angulares nos dicen que



L = l + l′ , l + l′ − 1, . . . , l − l′ ; S = 1, 0 (28.16)

Ahora bien, de las expresiones


h i2 h i2
L2 = L(1) + L(2) , S2 = S(1) + S(2)
(1) (2) (1) (2)
L3 = L3 + L3 , S3 = S3 + S3

se observa que L2 , S2 , L3 , S3 son operadores simétricos ya que todos ellos son invariantes bajo la permutación P21
de las dos partı́culas4 . Por tanto, tales operadores conmutan con P21 . Esto a su vez implica que L2 , S2 , L3 , S3
conmutan con el operador antisimetrizador total. Por tanto, los vectores que resultan de la antisimetrización de
(28.15) continúan siendo autovectores de L2 , S2 , L3 , S3 con los mismos valores propios, aunque algunos de ellos
podrı́an aniquilarse al ser proyectados sobre EA , en cuyo caso el estado fı́sico queda descartado por el principio
de exclusión de Pauli, y no formarı́a parte de la base del subespacio E (n, l; n′ , l′ ) que estamos construyendo. Los
vectores no nulos que se obtienen al antisimetrizar a los vectores (28.15) son ortogonales puesto que corresponden
3
Esta es una base acoplada en el sentido de las partı́culas. Pero en la que permanecen desacoplados los momentos angulares orbital
y de espı́n.
4
Recordemos que esta condición garantiza que estos operadores son observables adecuados para partı́culas idénticas. Ver sección
26.9.1, Pág. 609.
28.2. EFECTO DE LA REPULSIÓN ELECTROSTÁTICA 631

a autovalores diferentes de al menos uno de los cuatro observables involucrados. Puesto que tales vectores anti-
simétricos expanden a E (n, l; n′ , l′ ), ellos constituyen una base ortonormal de dicho subespacio, que denotamos en
la forma n E o
′ 
n, l, n′ , l ; L, ML ; S, MS ; con (n, l) , n′ , l′ fijos (28.17)

con E n E o
′ ′
n, l, n′ , l ; L, ML ; S, MS = c (1 − P21 ) n(1) , l(1) , n′(2) , l (2) ; L, ML ⊗ |S, MS i (28.18)

siendo c una constante de normalización. Por tanto, L2 , S2 , L3 , S3 forman un C.S.C.O. en el subespacio E (n, l; n′ , l′ )
de EA .
(S)
Introduciremos ahora el operador permutación P21 que actúa solo sobre el espacio de espı́n
E E
(S)
P21 ε(1) ; ε′(2) ≡ ε′(1) ; ε(2) (28.19)

Ahora bien, en la sección 16.4.3 vimos que la base acoplada de espı́n |S, MS i para s1 = s2 = 1/2 consta de un
singlete con S = M = 0
1
|0, 0i = √ [|+, −i − |−, +i] (28.20)
2
y un triplete con S = 1 y tres valores distintos de MS

1
|1, 1i = |+, +i ; |1, 0i = √ [|+, −i + |−, +i] ; |1, −1i = |−−i (28.21)
2

además en dicha sección vimos que el estado singlete es antisimétrico bajo el intercambio de ε y ε′ en tanto que los
estados del triplete son simétricos bajo tal intercambio, como se vé claramente de las Ecs. (28.20, 28.21). Podemos
sintetizar estos resultados con la ecuación
(S)
P21 |S, MS i = (−1)S+1 |S, MS i (28.22)

(0)
si ahora definimos la permutación P21 como el operador permutación en el espacio de estados de las variables
orbitales, tenemos que
(0) (S)
P21 = P21 ⊗ P21 (28.23)

y aplicando las Ecs. (28.22, 28.23), la ecuación (28.18) queda en la forma


E n h i Eo
′ S+1 (0) (1) (1) ′(2) ′ (2)
n, l, n′ , l ; L, ML ; S, MS = c 1 − (−1) P21 n , l , n , l ; L, ML ⊗ |S, MS i (28.24)

28.2.2. Restricciones impuestas por el postulado de simetrización


La dimensión del espacio En,l (1) ⊗ En′ ,l′ (2) es obviamente 4 (2l + 1) (2l′ + 1). Sin embargo, esa no es necesa-
riamente la dimensión del espacio E (n, l; n′ , l′ ) ya que algunos kets de la base de En,l (1) ⊗ En′ ,l′ (2) pueden tener
proyección nula sobre E (n, l; n′ , l′ ). Veremos en que casos aparecen algunas proyecciones nulas.
Estudiaremos primero el caso en el cual los dos electrones no ocupan la misma capa de modo que n 6= n′ y/o
l 6= l′ . En este caso, la parte orbital de (28.24) es una suma o diferencia entre dos kets ortogonales y por tanto
nunca es cero. Lo mismo ocurre para la parte espinorial |S, MS i, de modo que todos los valores posibles de L y
S√ dados por la Ec. (28.16) generan vectores no nulos. En este caso la constante de normalización c en (28.24) es
1/ 2.
Por ejemplo, para la configuración 1s, 2s; tenemos que n 6= n′ y que l = l′ = 0. En este caso podemos tener
S = 0, L = 0 y S = 1, L = 0. Para la configuración 1s, 2p podemos tener S = 0, L = 1, y S = 1, L = 1.
632 CAPÍTULO 28. EL ÁTOMO DE HELIO


A continuación escribiremos el vector puramente orbital n(1) , l(1) ; n′(2) , l′(2) ; L, ML [donde (n, l) y (n′ , l′ ) son
fijos], utilizando la completez dentro del espacio En,l ⊗ En′ ,l′ en la forma
" #
E X X ED
(1) (1) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2)
n , l ; n , l ; L, ML = n , l , m ; n , l , m n ,l ,m ;n ,l ,m ×
m
m ′
E
(1) (1) ′(2) ′(2)
n , l ; n , l ; L, ML
X X E
= n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2)
m
m ′
D E

n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2) n(1) , l(1) ; n′(2) , l′(2) ; L, ML
X X E
= n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2)
m m ′
D E

× l(1) , m(1) ; l′(2) , m′(2) l(1) ; l′(2) ; L, ML
E X X E

(1) (1) ′(2) ′(2)
n , l ; n , l ; L, ML = n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2) l, l′ ; m, m′ l, l′ ; L, ML
m m′

En notación de coeficientes de Clebsch-Gordan escribimos


E XX E
(1) (1) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2)

n , l ; n , l ; L, ML = n , l , m ; n , l , m m, m′ l, l′ L, ML (28.25)
m m′

donde hm, m′ (l, l′ ) L, ML i es el coeficiente de Clebsch-Gordan que genera el cambio de base.


Ahora supondremos que n = n′ y l = l′ de modo que ambos electrones ocupan la misma capa. En tal caso
algunos de los kets en (28.24) pueden ser nulos. Haciendo n = n′ y l = l′ esta expresión se reduce a
E XX E
(1) (1) (2) (2) (1) (1) (1) (2) (2) ′(2)

n , l ; n , l ; L, M L = n , l , m ; n , l , m m, m′ (l, l) L, ML (28.26)
m m′

El coeficiente de Clebsch-Gordan asociado posee la siguiente propiedad





m, m′ (l, l) L, ML = (−1)L m′ , m (l, l) L, ML (28.27)

Combinando las Ecs. (28.26) y (28.27), se obtiene


E XX
(0) E
(0)
P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = m, m′ (l, l) L, ML P21 n(1) , l(1) , m(1) ; n(2) , l(2) , m′(2)
m m′
XX
(1) (1) ′(1) (2) (2) (2) E
= m, m′ (l, l) L, ML n , l , m ; n , l , m
m m′
XX L

(1) (1) ′(1) (2) (2) (2) E
= (−1) m , m (l, l) L, ML n , l , m ; n , l , m
m m′

intercambiando las variables mudas m y m′ , tenemos que


E XX
E
(0)
P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = (−1)L m, m′ (l, l) L, ML n(1) , l(1) , m(1) ; n(2) , l(2) , m′(2)
m m′

y utilizando nuevamente las ecuaciones (28.26) se obtiene finalmente


E E
(0)
P21 n(1) , l(1) ; n(2) , l(2) ; L, ML = (−1)L n(1) , l(1) ; n(2) , l(2) ; L, ML (28.28)
28.2. EFECTO DE LA REPULSIÓN ELECTROSTÁTICA 633

sustituyendo (28.28) en (28.24) para n = n′ y l = l′ , resulta


n h i Eo
(0)
|n, l, n, l; L, ML ; S, MS i = c 1 − (−1)S+1 P21 n(1) , l(1) , n(2) , l(2) ; L, ML ⊗ |S, MS i
n h i Eo

= c 1 − (−1)L+S+1 n(1) , l(1) , n(2) , l(2) ; L, ML ⊗ |S, MS i

de lo cual se obtiene (tomando la constante de normalización como c = 1/2)



|n, l, n, l; L, ML ; S, MS i = (1) (1) (2) (2)0 si L + S es impar
(28.29)
n , l , n , l ; L, ML ⊗ |S, MS i si L + S es par
En consecuencia, cuando los dos electrones están en la misma capa, L y S no pueden ser arbitrarios, ya que L + S
debe ser par. En particular, para la configuración 1s2 , tenemos que L = 0, por tanto es necesario que S = 0, y
el valor S = 1 está excluı́do, en concordancia con lo encontrado en la sección 28.1.1 [ver Ec. (28.9) Pág. 628 y
discusión posterior].
Adicionalmente, se observa que el postulado de simetrización introduce una correlación entre la simetrı́a de la
parte orbital y la simetrı́a de la parte espinorial del ket fı́sico (28.24). Dado que el ket total debe ser antisimétrico,
se tiene que la parte orbital asociada a S = 0 (singlete espinorial antisimétrico) debe corresponder a un ket orbital
simétrico, en tanto que S = 1 (triplete espinorial simétrico) debe corresponder a un ket orbital antisimétrico.
Veremos que esto tiene consecuencias fenomenológicas importantes.

28.2.3. Términos espectrales generados por la repulsión electrostática


El término W conmuta con los cuatro observables L2 , L3 , S2 , S3 , los cuales forman un C.S.C.O. dentro de
E (n, l; n′ , l′ ). Se sigue entonces que la restricción de W dentro de dicho subespacio es diagonal en la base

n, l; n′ , l′ ; L, ML ; S, MS

y sus autovalores vienen dados por




δ (L, S) = n, l; n′ , l′ ; L, ML ; S, MS W n, l; n′ , l′ ; L, ML ; S, MS (28.30)
Esta energı́a no depende de ML ni de MS ya que las ecuaciones (28.11, 28.13) nos dicen que W conmuta con L
y S, o equivalentemente con L3 , L± y con S3 , S± . Por tanto W es un operador escalar tanto en el espacio de
estados orbitales como en el espacio de estados espinoriales.
Dentro de cada configuración nl, n′ l′ obtenemos niveles de energı́a del tipo

Ec n, l; n′ , l′ + δ (L, S) (28.31)
que denotamos por sus valores de L y S, siendo Ec (n, l; n′ , l′ ) los niveles obtenidos con la aproximación de campo
central. Cada nivel tiene una degeneración de orden (2L + 1) (2S + 1). Estos niveles se denominan términos
espectrales, y se denotan de la siguiente forma: Para cada valor de L asociamos en notación espectroscópica una
letra del alfabeto, escribimos la correspondiente letra en mayúscula y le añadimos en la parte superior izquierda
un número igual a 2S + 1. Veamos los siguientes ejemplos
La configuración 1s2 conduce a un solo término espectral que escribimos en la forma 1 S, ya que como hemos
visto el término 3 S (asociado a espı́n uno) está prohibido por el principio de exclusión de Pauli.
La configuración 1s, 2s genera dos términos 1 S (no degenerado) y 3 S (triplemente degenerado).
La configuración 1s, 2p genera dos términos 1 P (degeneración 3) y 3 P (degeneración 9).
Para la configuración más compleja 2p2 obtenemos los términos espectrales 1 S, 1 D y 3 P (recordemos que
L + S tiene que ser par, ya que los dos electrones están en la misma capa).
En conclusión, bajo el efecto de la repulsión electrostática, la degeneración de cada configuración se remueve
parcialmente. La configuración 1s2 que no es degenerada simplemente sufre un corrimiento.
634 CAPÍTULO 28. EL ÁTOMO DE HELIO

28.3. Términos espectrales que surgen de la configuración 1s, 2s


Veremos que los dos términos 1 S y 3 S que surgen de la configuración 1s, 2s y cuyos valores de espı́n total son
diferentes, tienen energı́as diferentes a pesar de que el Hamiltoniano original es puramente electrostático. Vamos
a discutir el origen de dicha diferencia.
En la configuración 1s, 2s tenemos que n = 1, n′ = 2 y l = l′ = L = 0. Aplicando esto en la Ec. (28.25) se
obtiene
E XX E
(1) (1) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2)

n , l ; n , l ; L, ML = n , l , m ; n , l , m m, m′ l, l′ L, ML ⇒
m m′
E
(1)
n = 1, l(1) = 0; n′(2) = 2, l′(2) = 0; L = 0, ML = 0
E

= n(1) = 1, l(1) = 0, m(1) = 0; n′(2) = 2, l′(2) = 0, m′(2) = 0 h0, 0 (0, 0) 0, 0i

donde hemos tenido en cuenta que para l = l′ = 0, solo es posible que m = m′ = 0. El coeficiente de Clebsch
Gordan es la unidad en este caso. Obtenemos entonces
E E
(1)
n = 1, l(1) = 0; n′(2) = 2, l′(2) = 0; L = ML = 0 = n(1) = 1, l(1) = m(1) = 0; n′(2) = 2, l′(2) = m′(2) = 0
(28.32)
este vector lo podemos escribir en notación simplificada como 1s(1) ; 2s(2) . Ya vimos que la configuración 1s, 2s
produce dos términos espectrales 1 S (no degenerado) y 3 S (triplemente degenerado). Los estados asociados a los
dos términos espectrales los denotaremos por
1
S, 0 , 3 S, MS ; MS = 1, 0, −1 (28.33)

debe tenerse cuidado de no confundir la letra S cuando denota espı́n total, i.e. el valor propio asociado al operador
 2  2
S2 ≡ S(1) + S(2) , o cuando denota que el momento angular orbital total es cero. En notación espectroscópica
el estado 3 S se refiere a que el espı́n total es S = 1 (2S + 1 = 3), y el momento angular es L = 0 (que en notación
espectroscópica es la letra S).
Por ahora estos vectores tienen una asignación especı́fica a una partı́cula de modo que deben ser antisimetri-
zados. Para ello se utiliza la Ec. (28.24)
E n h i Eo
′ ′ S+1 (0) (1) (1) ′(2) ′ (2)
n, l, n , l ; L, ML ; S, MS = c 1 − (−1) P21 n , l , n , l ; L, ML ⊗ |S, MS i (28.34)

con n = 1, n′ = 2 y l = l′ = 0, el estado singlete en (28.33) con S = MS = 0 (término espectral 1 S), viene dado
por

1 E
S, 0 ≡ ′
n = 1, l = 0, n′ = 2, l = 0; L = ML = 0; S = MS = 0
1 n h i Eo
S, 0 = (0) ′
c 1 − (−1)1 P21 n(1) = 1, l(1) = 0, n′(2) = 2, l (2) = 0; L = ML = 0 ⊗ |S = 0, MS = 0i

Y utilizando el vector (28.32) en notación simplificada como 1s(1) ; 2s(2) , esta ecuación se puede reescribir como
1 nh i Eo
S, 0 = √1 (0)
1 + P21 1s(1) ; 2s(2) ⊗ |S = 0, MS = 0i
2
√ 
donde hemos usado c = 1/ 2 2 . Para el triplete en (28.33) con S = 1 y MS = 1, 0, −1, la Ec. (28.34) nos da
3 E
S, MS ≡ n = 1, l = 0, n′ = 2, l′ = 0; L = ML = 0; S = 1, MS
3 n h i Eo
S, MS = (0) ′
c 1 − (−1)2 P21 n(1) = 1, l(1) = 0, n′(2) = 2, l (2) = 0; L = ML = 0 ⊗ |S = 1, MS i
28.3. TÉRMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACIÓN 1S, 2S 635

una vez más en notación simplificada


3 nh i Eo
S, MS = √1 (0)
1 − P21 1s(1) ; 2s(2) ⊗ |S = 1, MS i ; MS = 1, 0, −1
2
en sı́ntesis, los estados fı́sicos (antisimetrizados) en notación espectroscópica están dados por
3 nh i Eo
S, MS = √1 (0)
1 − P21 1s(1) ; 2s(2) ⊗ |S = 1, MS i ; MS = 1, 0, −1 (28.35)
2
1 nh i Eo
S, 0 = √1 (0)
1 + P21 1s(1) ; 2s(2) ⊗ |S = 0, MS = 0i (28.36)
2
los autovalores de W de la Ec. (28.30) quedan


δ 3 S = 3 S, MS W 3 S, MS
3
 1 hnD (1) (2) h (0)†
io i hnh i
(0) (1)
Eo i
δ S = 1s ; 2s 1 − P21 ⊗ hS = 1, MS | W 1 − P21 1s ; 2s(2) ⊗ |S = 1, MS i
2
(0)
teniendo en cuenta que W no actúa sobre variables de espı́n y que P21 es hermı́tico, resulta

1 D (1) (2) h (0)
i h i
(0)
E
δ 3 S = 3 S, MS W 3 S, MS = 1s ; 2s 1 − P21 W 1 − P21 1s(1) ; 2s(2) hS = 1, MS |S = 1, MS i
2
1

similarmente se calcula δ S . Obtenemos entonces
 1 D (1) (2) h (0)
i h i
(0)
E
δ 3S = 1s ; 2s 1 − P21 W 1 − P21 1s(1) ; 2s(2) (28.37)
2
 1 D (1) (2) h (0)
i h i
(0)
E
δ 1S = 1s ; 2s 1 + P21 W 1 + P21 1s(1) ; 2s(2) (28.38)
2
(0)
Y teniendo en cuenta que P21 es nilpotente y conmuta con W , tenemos
           h i
(0) (0) (0) (0) (0) 2 (0) (0)
1 ± P21 W 1 ± P21 = 1 ± P21 1 ± P21 W = 1 + P21 ± 2P21 W = 2 ± 2P21 W
     
(0) (0) (0)
1 ± P21 W 1 ± P21 = 2 1 ± P21 W (28.39)

aplicando (28.39) en las Ecs. (28.37, 28.38) obtenemos


 D   E
(0)
δ 3S = 1s(1) ; 2s(2) 1 − P21 W 1s(1) ; 2s(2)
D E D E
(1) (2) (1) (2) (1) (2) (1) (2)
= 1s ; 2s W 1s ; 2s − 2s ; 1s W 1s ; 2s
 D   E
(0)
δ 1S = 1s(1) ; 2s(2) 1 + P21 W 1s(1) ; 2s(2)
D E D E
(1) (2)
= 1s(1) ; 2s(2) W 1s(1) ; 2s(2) + 2s(1) ; 1s(2) W 1s ; 2s

que se puede escribir en la forma


 
δ 3S = K − J ; δ 1S = K + J (28.40)
D E D E

K ≡ 1s(1) ; 2s(2) W 1s(1) ; 2s(2) ; J ≡ 2s(1) ; 1s(2) W 1s(1) ; 2s(2) (28.41)

al sustituir (28.40) en (28.31), se observa que K representa un corrimiento de la energı́a como un todo, y no
genera un desdoblamiento. En contraste, se observa que el término J sı́ introduce una diferencia de energı́a entre
los términos 1 S y 3 S. Nótese que con respecto a K, el término J es un término de intercambio. El cálculo numérico
muestra que K − J es positivo de modo que el nivel 3 S (perturbado) está por encima del nivel (no perturbado)
1s, 2s. Ası́ mismo J es positivo de modo que el nivel 1 S está por encima del nivel 3 S y el desdoblamiento está
dado por 2J ≈ 0,8eV. Estos hechos se ilustran en la Fig. 28.1
636 CAPÍTULO 28. EL ÁTOMO DE HELIO

Figura 28.1: Ilustración de la posición relativa de los términos espectrales que surgen de la configuración 1s, 2s del
átomo de helio. El término directo Krepresenta un corrimiento del nivel como un todo, en tanto que J genera un
desdoblamiento, y por tanto una remoción parcial de la degeneración.

28.3.1. La integral de intercambio


Puesto que el término J (conocido como integral de intercambio) es el que genera el desdoblamiento, y por
tanto la remoción parcial de la degeneración, vamos a estudiarlo en mayor detalle. Recordando la forma de la
perturbación para la aproximación de campo central Ec. (28.4)
e2
W = F (R1 ) + F (R2 ) + (28.42)
|R1 − R2 |
2e2
F (R) ≡ − − Vc (R) (28.43)
R
la integral de intercambio J de la Ec. (28.41) queda
D  e2
 E
(1) (2) (1) (2)
J ≡ 2s ; 1s F (R1 ) + F (R2 ) + 1s ; 2s
|R1 − R2 |
D E D E
(1) (2) (1) (2) (2)
J = 2s ; 1s F (R1 ) 1s ; 2s + 2s ; 1s F (R2 ) 1s(1) ; 2s(2)
(1)

D e2 E
(1) (2)
+ 2s(1) ; 1s(2) 1s ; 2s
|R − R |
D 1 ED 2 E D ED E

J = 2s(1) F (R1 ) 1s(1) 1s(2) 2s(2) + 1s(2) F (R2 ) 2s(2) 2s(1) 1s(1)
D e2 E
(1) (2)
+ 2s(1) ; 1s(2) 1s ; 2s
|R1 − R2 |

(2) (2)
(1) (1)
pero es claro que 1s 2s = 2s 1s = 0, ya que son productos internos de estados ortogonales (estados
con diferente valor de n). Por tanto, solo el término repulsivo contribuye a la integral de intercambio5
D e2 E
(1) (2)
J = 2s(1) ; 1s(2) 1s ; 2s (28.44)
|R1 − R2 |
Denotaremos por ϕn,l,m (r) a las funciones de onda asociadas al estado estacionario |n, l, mi de un electrón en
el potencial Vc  2 
P
+ Vc (R) |n, l, mi = En,l |n, l, mi ; ϕn,l,m (r) ≡ hr |n, l, mi (28.45)
2m
5
Nótese que para la integral K contribuyen en general todos los términos, esto permite entender al menos cualitativamente porque
K es mayor que J.
28.3. TÉRMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACIÓN 1S, 2S 637

en la base {|ri} el cálculo de J de la Ec. (28.44) involucra a la integral

Z Z
3 e2
J= d r1 d3 r2 ϕ∗2,0,0 (r1 ) ϕ∗1,0,0 (r2 ) ϕ1,0,0 (r1 ) ϕ2,0,0 (r2 ) (28.46)
|r1 − r2 |

no realizaremos el cálculo explı́cito de esta integral6 . Sin embargo, es importante observar que el valor numérico
de esta integración es positivo y J ≈ 0,4 eV.
Las ecuaciones (28.35, 28.36) junto con las expresiones (28.37, 28.38) nos muestran el origen de la separación
de los niveles de energı́a entre los términos 3 S y 1 S. El origen de este desdoblamiento yace en las diferencias
entre las propiedades de simetrı́a de las partes orbitales de dichos términos. Puesto que el triplete espinorial (S =
1, MS = 1, 0, −1) es simétrico, el postulado de simetrización exige que la parte orbital asociada sea antisimétrica,
(0)
originando el signo (−) para P21 en las Ecs. (28.35, 28.37). Análogamente, el singlete espinorial (S = 0, MS = 0)
(0)
es antisimétrico y por tanto la parte orbital debe ser simétrica, originando el signo (+) para P21 en las Ecs. (28.36,
28.38).
Lo anterior permite explicar porqué la energı́a del término 1 S es mayor que la del término 3 S. Para el término
singlete, la función de onda orbital es simétrica con respecto al intercambio de los dos electrones, lo cual implica
una probabilidad diferente de cero de que ambos electrones estén en el mismo punto del espacio. Por esta razón,
la energı́a electrostática repulsiva e2 / |r1 − r2 | , que es grande para valores pequeños de la distancia relativa entre
los electrones, se vé significativamente incrementada para el estado singlete. De otra parte, para el estado triplete,
la función de onda orbital es antisimétrica con respecto al intercambio de los dos electrones, implicando una
probabilidad nula de que los electrones estén en el mismo punto del espacio. Por tanto, el valor medio de la
distancia relativa entre los electrones es mayor, y por tanto es menor el valor medio de la repulsión electrostática.
Es interesante observar de la anterior discusión que a pesar de que W no depende del espı́n, el desdoblamiento
que este operador produce tiene su origen en el valor total del espı́n, ya que dependiendo de dicho valor tendremos
una simetrı́a diferente para el término orbital, en virtud del postulado de simetrización.

28.3.2. Análisis del papel del postulado de simetrización

A priori, podrı́a pensarse que el postulado de simetrización es el responsable del desdoblamiento entre los
niveles 1 S y 3 S. Veremos sin embargo que no es ası́. Encontraremos que este postulado simplemente fija el valor
del espı́n total de los términos que surgen de una configuración dada en virtud de la repulsión electrostática entre
los electrones.
Para verlo, supongamos que uno de los electrones es reemplazado por una partı́cula (imaginaria hasta donde
sabemos) que tenga la misma carga, masa y espı́n del electrón, pero que posea algún número cuántico intrı́nseco
adicional que lo diferencie de los electrones. Nótese que el Hamiltoniano (28.2) tendrá exactamente la misma
forma7 . Por otro lado, puesto que H no depende del espı́n, podemos ignorar el espı́n en los cálculos y simplemente
multiplicar por 4 las degeneraciones asociadas. El nivel de energı́a asociado a H0 en (28.3) correspondiente a
la configuración
(1)1s, 2s es
doblemente
(1) (2)degenerado
desde el punto de vista orbital, debido a que los dos estados

ortogonales 1s , 2s (2)
y 2s , 1s son dos estados fı́sicamente diferentes (cuando las partı́culas eran
idénticas se consideraban iguales) asociados a dicha configuración. Para estudiar el efecto de W perturbativamente,
diagonalizamos la restricción de W en el espacio dos dimensional expandido por estos dos kets. La matriz asociada

6
Es importante observar que aunque la integral de intercambio no depende explı́citamente de Vc (R), sı́ depende implı́citamente de
dicho potencial. Para verlo, basta con observar que las funciones de onda que aparecen en (28.46) son soluciones de la ecuación (28.45)
que depende de Vc (R).
7
Por supuesto que si una partı́cula ası́ existiera, tendrı́a que existir alguna contribución en el Hamiltoniano debida a la propiedad
intrı́nseca adicional, que estarı́amos despreciando.
638 CAPÍTULO 28. EL ÁTOMO DE HELIO

es entonces

(1) (2) (1) (2)
(1) (2) (1) (2) 
1s ; 2s 2s ; 1s
W1s,2s =
1s(1) ; 2s(2) W (1) (2)
1s(1) ; 2s(2) W (1) (2)
2s ; 1s W 1s ; 2s 2s ; 1s W 2s ; 1s

(1) (2) (1) (2)
(1) (2) (1) (2) 
1s ; 2s 1s ; 2s
W1s,2s =
1s(1) ; 2s(2) W (1) (2)
2s(1) ; 1s(2) W (1) (2)
2s ; 1s W 1s ; 2s 1s ; 2s W 1s ; 2s

donde la última igualdad es debida a que W es invariante bajo el intercambio de las dos partı́culas (incluso
cuando son distinguibles), de modo que las integrales J y K también son invariantes bajo dicho intercambio [ver
por ejemplo la Ec. (28.46)]. Por tanto, esta matriz se puede escribir exclusivamente en términos de J y K
 
K J
W1s,2s =
J K

esta matriz se diagonaliza de inmediato y se obtienen los valores propios


− J, asociados
K + J y K respectivamente
con la combinación lineal simétrica y antisimétrica de los dos kets 1s(1) , 2s(2) y 2s(1) , 1s(2) . Nótese sin embargo
que no hemos antisimetrizado y de hecho hemos tratado a los dos kets anteriores como fı́sicamente distintos. Por
tanto, el hecho de que estos autoestados orbitales tengan una simetrı́a bien definida relativa al intercambio de
las partı́culas, no tiene nada que ver con el postulado de simetrización ni con el principio de exclusión de Pauli.
(0)
Este hecho solo surge de que W conmuta con P21 de modo que podemos encontrar autoestados comunes a W y
(0)
P21 .
Nótese en consecuencia que al ignorar el postulado de simetrización, es posible acoplar el estado orbital
simétrico con el estado espinorial simétrico (triplete), ası́ como acoplar el estado orbital antisimétrico con el
estado espinorial antisimétrico (singlete). En sı́ntesis, cuando las dos partı́culas no son idénticas obtenemos el
mismo arreglo de niveles y la misma simetrı́a orbital anterior. Sin embargo, la degeneración de los niveles es
diferente ya que no hay estados linealmente independientes que sean aniquilados por el antisimetrizador. En el
caso distinguible, el nivel más bajo puede tener espı́n total S = 0 ó S = 1, lo mismo ocurre con el nivel más alto
K + J.
Volviendo de nuevo al átomo de Helio real vemos que el principio de exclusión de Pauli no es el responsable
del desdoblamiento del nivel 1s, 2s en dos niveles K ± J, pues hemos visto que este desdoblamiento también
aparece cuando se consideran distinguibles las partı́culas en cuestión. Esto se debe a que el carácter simétrico o
antisimétrico de la parte orbital de la función de onda, se relaciona con la invarianza de la interacción electrostática
bajo la permutación de dos electrones. Lo que hace el principio de exclusión de Pauli es prohibir que el estado más
bajo tenga espı́n total S = 0, y que el nivel más alto tenga espı́n S = 1, dado que en estos dos casos el estado serı́a
globalmente simétrico lo cual está prohibido para fermiones por el postulado de simetrización, y por tanto por el
principio de exclusión de Pauli. En otras palabras, con o sin distinguibilidad obtenemos funciones de onda con
simetrı́a de permutación global bien definida, y al aplicar el antisimetrizador se anulan los estados globalmente
simétricos, dejando intactos los estados globalmente antisimétricos.

28.3.3. Hamiltoniano efectivo dependiente del espı́n


Si reemplazamos a W por el operador
f = α + βS(1) · S(2)
W (28.47)
donde S(1) y S(2) denotan el espı́n de cada electrón, tenemos que
h i2  2  2
S2 = S(1) + S(2) = S(1) + S(2) + 2S(1) · S(2) ⇒ (28.48)
2 2
S2 − S(1) − S(2)
S(1) · S(2) = (28.49)
2
28.3. TÉRMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACIÓN 1S, 2S 639

sin embargo debemos tener en cuenta que el espı́n de los electrones es intrı́nseco, de modo que para todo ket de
estado que describa a este sistema de dos electrones y que incluya a los espinores, se tiene que s(1) = s(2) ≡ s = 1/2.
Por tanto
 2  2  h    i
(1) (2) 3
S + S |. . .i = ~2 s(1) s(1) + 1 + s(2) s(2) + 1 |. . .i = 2~2 [s (s + 1)] |. . .i = ~2 |. . .i
2
como esto es válido para todos los kets que describen nuestro sistema, tenemos que para nuestros propósitos se
puede escribir8
 2  2 3
S(1) + S(2) ≡ ~2 1 (28.50)
2
sustituyendo (28.50) en (28.49) se tiene que

S2 3 2
S(1) · S(2) = − ~
2 4
f definido por (28.47) queda
por tanto el operador W
 
f 3β~2 β β 3β~2
W = α− + S2 ≡ κ + S2 ; κ ≡ α −
4 2 2 4

este operador claramente actúa de manera no trivial solo sobre los espinores. Puesto que (β/2) S2 es proporcional
a S2 , posee los mismos vectores propios |S, MS i de S2 con valores propios dados por (β/2) ~2 S (S + 1)
   
2 2 β 2 β 2
S |S, MS i = ~ S (S + 1) |S, MS i ⇔ S |S, MS i = ~ S (S + 1) |S, MS i
2 2

Adicionalmente, puesto que Wf solo difiere de (β/2) S2 por un operador proporcional a la identidad κ1, se tiene
que posee los mismos vectores propios con valores propios dados por
       
β 2 β 2 β 2 β 2
S |S, MS i = ~ S (S + 1) |S, MS i ⇔ κ + S |S, MS i = κ + ~ S (S + 1) |S, MS i
2 2 2 2
y teniendo en cuenta la definición de κ
   
3β~2 β 3β~2 β 2
α− + S2 |S, MS i = α − + ~ S (S + 1) |S, MS i
4 2 4 2
de manera que los vectores propios son el triplete |S = 1, MS i y el singlete |S = 1, MS = 0i con valores propios

3β~2 β~2
|S = 1, MS = 1, 0, −1i → α − + β~2 = α + (28.51)
4 4
3β~2
|S = 0, MS = 0i → α − (28.52)
4
finalmente si redefinimos
J 2J
α≡K−
; β≡− (28.53)
2 ~2
los valores propios asociados al triplete y singlete quedan
J 2J ~2
|1, MS i → K − − 2 =K −J
2 ~ 4
J 2J 3~2
|0, 0i → K − + 2 =K +J
2 ~ 4
8
Para una discusión similar asociada al espı́n de una sola partı́cula, ver Eq. (15.9), Pág. 391, y la discusión alrededor.
640 CAPÍTULO 28. EL ÁTOMO DE HELIO

por tanto, al diagonalizar W f obtenemos los mismos autoestados y autovalores que encontramos con el operador
W definido en (28.4), como se puede ver de la Ec. (28.40). En un sentido efectivo, el potencial W f (Hamiltoniano
efectivo) actúa de manera análoga al potencial real W . Ahora bien, el Hamiltoniano efectivo (28.47) tiene la forma
de la interacción magnética entre dos espines. Sin embargo, no es correcto decir que la energı́a de acople entre los
electrones que son responsables de la aparición de los dos términos K ± J, sea de origen magnético. Un análisis de
órdenes de magnitud muestra que dos momentos magnéticos iguales a los del electrón y colocados a una distancia
del orden de 1 Armstrong entre ellos, tendrı́an una energı́a de interacción mucho menor que J.
A pesar de lo anterior, la simplicidad de la estructura de W f , hace que este Hamiltoniano efectivo se utilice
con frecuencia en lugar de W . Debe tenerse presente sin embargo, que es un término efectivo que no nos describe
a priori el verdadero origen de la interacción. Por ejemplo, una construcción similar se hace para la descripción
de materiales ferromagnéticos, en los cuales los espines tienen la tendencia a alinearse paralelamente entre ellos.
Puesto que el estado de espı́n serı́a completamente simétrico (espines todos arriba o abajo), el principio de exclusión
de Pauli requiere que el estado orbital sea completamente antisimétrico. Por las mismas razones que en el átomo
de Helio, la energı́a de repulsión electrónica es entonces mı́nima. Para estudiar este fenómeno se suele utilizar
Hamiltonianos efectivos de la forma (28.47). Sin embargo, una vez más debe notarse que el origen de la interacción
es también electrostático y no magnético.

28.4. Términos espectrales que surgen de otras configuraciones excitadas


El segundo nivel excitado corresponde a la configuración 1s, 2p. Para esta configuración podemos hacer un
tratamiento análogo. En este caso tenemos L = 1 de modo que ML = 1, 0, ó −1. Ahora bien, puesto que para la
configuración 1s, 2p las capas ocupadas por los dos electrones son diferentes (n 6= n′ y l 6= l′ ), los dos términos 3 P
y 1 P existen simultáneamente, donde 3 P es nueve veces degenerado y 1 P tiene degeneración triple.
Un análisis similar al realizado para la configuración 1s, 2s muestra que para la configuración 1s, 2p el término
3 P posee una energı́a más baja que la del término 1 P , y que la diferencia de energı́as es proporcional a la integral de

intercambio análoga a la obtenida en (28.46). Un estudio similar se puede realizar para las demás configuraciones
del tipo 1s, n′ l′ .

28.5. Validez del tratamiento perturbativo


A priori, para que W pueda tratarse coherentemente en forma perturbativa con respecto a H0 , es necesario que
los corrimientos de energı́a asociados con W [por ejemplo la integral de intercambio (28.46)] sean mucho menores
que las diferencias de energı́a entre configuraciones (no perturbadas). Sin embargo, este no es el caso. Por ejemplo,
para la configuración 1s, 2s, los términos (perturbados) 1 S y 3 S tienen una diferencia de energı́a dada por
   
E (1s, 2s) 1
S − E (1s, 2s) 3
S ≃ 0,8eV

en tanto que la mı́nima distancia entre los niveles (no perturbados) 1s, 2s y 1s, 2p, está dada por
   
E (1s, 2p) 3
P − E (1s, 2s) 1
S ≃ 0,35eV

Es notable que a pesar de lo anterior, el tratamiento hecho anteriormente es adecuado. Esto se debe a que para
configuraciones del tipo 1s, n′ l′ tenemos que L = l′ (puesto que l = 0). En consecuencia, dado que W conmuta con
L, posee elementos matriciales nulos entre estados con diferentes valores de L. En particular, W tiene elementos
matriciales nulos entre estados de la configuración 1s, 2s y 1s, 2p.
Vemos por tanto que W acopla una configuración 1s, n′ l′ solo a una configuración del tipo 1s, n′′ l′ (dos capas
distintas que solo difieren en el valor de n), o del tipo nl, n′′ l′′ con n y n′′ diferentes de uno. Este último caso solo
ocurre cuando l y l′′ se adicionan para dar l′ , y corresponderı́a a estados doblemente excitados.
28.6. ESTRUCTURA FINA DEL ÁTOMO DE HELIO Y MULTIPLETES 641

28.6. Estructura fina del átomo de helio y multipletes


En el átomo de helio hemos tenido en cuenta hasta ahora solo interacciones de naturaleza electrostática. Sin
embargo, también existen las interacciones de ı́ndole relativista como las estudiadas para el átomo de hidrógeno,
esto es correcciones a la energı́a cinética, acoplamiento espı́n-órbita, y término de Darwin. No obstante, en el
caso del átomo de helio la presencia simultánea de dos electrones da origen por ejemplo a un término de acople
magnético espı́n-espı́n y órbita-órbita en el Hamiltoniano, que actúa tanto en el espacio espinorial como en el
orbital de estados de los dos electrones. Por fortuna, las diferencias de energı́a que surgen de estos acoples de
origen relativista y magnético son mucho menores que las existentes entre dos términos espectrales diferentes. Por
tanto, el correspondiente Hamiltoniano de estructura fina se puede tratar perturbativamente.
En la presente sección no pretendemos realizar un estudio detallado de la estructura fina asociada al átomo de
Helio. Solo discutiremos las simetrı́as del problema, y la notación espectroscópica que surge para distinguir entre
los diferentes niveles de energı́a.
Si despreciamos la contribución espı́n-espı́n y órbita-órbita, la forma genérica del Hamiltoniano de estructura
fina tanto para el átomo de helio como para átomos de muchos electrones es de la forma
N
X
HSF ≃ ξ (Ri ) Li · Si (28.54)
i=1

donde Ri , Li y Si son los observables de posición, momento angular y de espı́n asociados a cada electrón. Si
calculamos el conmutador de este Hamiltoniano con los momentos angulares orbital y de espı́n tenemos
" #
XN N X
X N h i
(m) (m)
[HSF , Lk ] = HSF , Lk = ξ (Rn ) L(n)
p S (n)
p , L k
m=1 m=1 n=1
N
XXN h i
(m)
[HSF , Sk ] = ξ (Rn ) L(n) (n)
p Sp , Sk
m=1 n=1

donde el superı́ndice denota partı́culas y el subı́ndice denota componentes. Estos conmutadores quedan entonces
en la forma
N X
X N n h i h i o XN X
N h i
(m) (m) (m)
[HSF , Lk ] = ξ (Rn ) L(n)
p S (n)
p , L k + L (n)
p , L k S (n)
p = ξ (Rn ) L (n)
p , L k Sp(n)
m=1 n=1 m=1 n=1
XN X N N
X
= ξ (Rn ) δnm i~εpkr L(n) (n)
r Sp = i~ ξ (Rn ) εrpk L(n)
r Sp
(n)

m=1 n=1 n=1


N
X h i
[HSF , Lk ] = i~ ξ (Rn ) L(n) × S(n)
k
n=1

X N
N X h i X N
N X h i
(m) (m)
[HSF , Sk ] = ξ (Rn ) L(n)
p S (n)
p , S k = ξ (Rn ) L (n)
p S (n)
p , S k
m=1 n=1 m=1 n=1
XN X N N
X
= i~ ξ (Rn ) L(n) (n)
p δnm εpkr Sr = −i~ ξ (Rn ) εprk L(n)
p Sr
(n)

m=1 n=1 n=1


XN h i
[HSF , Sk ] = −i~ ξ (Rn ) L(n) × S(n)
k
n=1

tenemos entonces que


[HSF , L] = − [HSF , S] 6= 0 ⇒ [HSF , J] = 0 , J ≡ L + S (28.55)
642 CAPÍTULO 28. EL ÁTOMO DE HELIO

la Ec. (28.55) implica que el Hamiltoniano de estructura fina no es invariante si rotamos solo las variables orbitales
o solo las variables de espı́n, pero sı́ es invariante bajo la rotación simultánea de todas las variables orbitales y de
espı́n. Por tanto, el momento angular total de los electrones es una constante de movimiento.
El espacio de estados asociado con un término es expandido por los estados del tipo |n, l; n′ , l′ ; L, ML ; S, MS i
escritos en la Ec. (28.24), donde L y S son fijos, y tal que

−L ≤ ML ≤ L ; −S ≤ MS ≤ S

se puede demostrar que en este espacio los observables J2 y J3 forman un C.S.C.O. que de acuerdo con la Ec. (28.55)
conmuta con HSF . En consecuencia los vectores propios |J, MJ i comunes a J2 [con valores propios J (J + 1) ~2 ] y
a J3 [con valor propio MJ ~] son necesariamente autovectores de HSF con autovalor que depende de J pero no de
MJ , debido a que HSF conmuta con J+ y J− . Las reglas de adición del momento angular nos dicen que

J = L + S, L + S − 1, L + S − 2, . . . , |L − S| (28.56)

De modo que HSF remueve parcialmente la degeneración. Para cada “término” aparecen tantos niveles distintos
como valores de J, de acuerdo con la Ec. (28.56). Cada uno de estos niveles tiene una degeneración 2J + 1 en
virtud de su independencia con MJ y se denomina un “multiplete”. Estos multipletes poseen también una notación
espectroscópica: es la notación espectroscópica del término, a la que le añadimos un subı́ndice a la derecha igual
al valor de J. Veamos algunos ejemplos:

El estado base del átomo de helio nos da un solo multiplete 1 S0 .

Para la configuración 1s, 2s, cada uno de los dos términos 1 S y 3 S nos llevan a un solo multiplete: 1 S0 y 3 S1
respectivamente.

Para la configuración 1s, 2p, el término 1 P conduce a un solo multiplete 1 P1 , en tanto que el término 3 P
posee tres multipletes, 3 P2 ,3 P1 y 3 P0 . La posición relativa de estos multipletes se ilustra en la Fig. 28.2.

La medida experimental y el cálculo teórico de los multipletes que surgen de la configuración 1s, 2p son de
gran importancia, debido a que conducen a un conocimiento bastante preciso de la constante de estructura fina
α = e2 /~c.
A partir de la estructura (28.54) del Hamiltoniano de estructura fina y utilizando el teorema de Wigner-Eckart
se puede demostrar que la energı́a del multiplete J es proporcional a J (J + 1) − L (L + 1) − S (S + 1). Esto es
válido no solo para el átomo de helio sino para átomos de muchos electrones y se conoce como la “regla del intervalo
de Landé”. Para el helio los niveles 3 P1 y 3 P2 que surgen de la configuración 1s, 2p son mucho más cercanos de
lo que predice esta regla, debido a la importancia del acople magnético dipolo-dipolo de los espines de los dos
electrones, efecto que ha sido ignorado en el Hamiltoniano (28.54).
Por supuesto también surgen efectos debidos a la existencia del espı́n del núcleo. Sin embargo la estructura
hiperfina que emerge existe solo para el isótopo 3 He cuyo núcleo posee espı́n I = 1/2. El isótopo 4 He tiene espı́n
nuclear cero y por tanto no hay efectos hiperfinos.
Para el 3 He cada multiplete de momento angular total electrónico J se desdobla en dos niveles hiperfinos de
momento angular total F = J ± 1/2, que serı́a (2F + 1) veces degenerado, a menos que J = 0, en cuyo caso F solo
puede tomar el valor 1/2.
28.6. ESTRUCTURA FINA DEL ÁTOMO DE HELIO Y MULTIPLETES 643

Figura 28.2: Ilustración de la posición relativa de los términos espectrales y multipletes que surgen de la configura-
ción 1s, 2p del átomo de helio. La distancia entre los tres multipletes 3 P0 , 3 P1 y 3 P2 se ha reescalado con respecto
a la distancia entre los término 1 P y 3 P , para que se pueda apreciar el desdoblamiento del término 3 P .
Capı́tulo 29

Método de Hartree-Fock

La idea es estudiar la estructura electrónica para átomos de N electrones (de hecho, el método es fácilmente
extendible para el estudio de sistemas fı́sicos de N fermiones idénticos). Como ya se ha discutido, una posibilidad
es dividir el Hamiltoniano total (27.1)1

N 
X  XN X
N
P2i Ze2 e2 q2
H= − + ; e2 ≡ (29.1)
2me Ri |Ri − Rj | 4πε0
i=1 i=1 j>i

en un Hamiltoniano desacoplado H0 y un Hamiltoniano acoplado W en la forma

H = H0 + W (29.2)
N 
X  N 
X  X N
N X
P2i Ze2 e2
H0 ≡ + Vc (Ri ) , W ≡ − Vc (Ri ) + + (29.3)
2me Ri |Ri − Rj |
i=1 i=1 i=1 j>i

donde el potencial efectivo Vc (Ri ) se introduce con el fin de que W se pueda considerar una perturbación con
respecto a H0 . Podemos definir también

Ze2
Vc (Ri ) ≡ − + U (Ri ) (29.4)
Ri

donde U (Ri ) contendrı́a la información del potencial efectivo promedio debida únicamente a los otros electrones.
La idea es encontrar una solución aproximada al problema de valores propios

Hψ (T) = Eψ (T) (29.5)

combinando un modelo de partı́cula independiente (descrito por el Hamiltoniano H0 ) con el método variacional.
Donde
T ≡ (T1 , T2 , . . . , TN ) ; Tk ≡ (rk , εk ) (29.6)

es una abreviación de las variables de posición rk y de espı́n εk de cada partı́cula. El método de Hartree-Fock
busca determinar la función ψHF (T) que nos proporcione la mejor aproximación variacional a la solución del
problema de valores propios (29.5) utilizando el modelo de partı́cula independiente.
El punto de partida será entonces una función de onda Φ (T) basada en un modelo de partı́cula independiente
para N electrones. Por tanto la función de prueba debe ser una combinación lineal de uno o más determinantes
1
Hay una ligera diferencia entre el Hamiltoniano (27.1) y el Hamiltoniano (29.1), ya que para el primero asumimos que el número
de electrones es Z (átomo neutro), en tanto que en el segundo asumimos un números N de electrones que puede ser distinto de Z.

644
645

de Slater

ψa1 (T1 ) ψa1 (T2 ) · · · ψa1 (TN )

1 ψa2 (T1 ) ψa2 (T2 ) · · · ψa2 (TN )

D (T1 , . . . , TN ) = √ .. .. .. ..
N ! . . . .

ψa (T1 ) ψa (T2 ) · · · ψaN (TN )
N N

D (T1 , . . . , TN ) = N ! AΦH (T1 , . . . , TN )
ΦH (T1 , . . . , TN ) = ψa1 (T1 ) ψa2 (T2 ) . . . ψaN (TN )

donde A es el antisimetrizador definido en (26.32) Pág. 600 y ΦH es un producto de orbitales que denominamos
función de Hartree. ak representa los cuatro números cuánticos que identifican completamente cada orbital.
La función de Hartree representa un sistema de N electrones independientes pero distinguibles. Ya sabemos que
la antisimetrización hace que se introduzcan correlaciones entre espines y que surja el principio de exclusión de
Pauli, haciendo que los electrones no sean del todo independientes. Los orbitales pueden escribirse a su vez como
el producto de un orbital espacial y uno espinorial

ψak (Tk ) = ϕak (rk ) χ (εk ) (29.7)

los espinores que describen un electrón con espı́n arriba y abajo los denotaremos como α y β respectivamente
   
1 1
χ + ≡α ; χ − ≡β (29.8)
2 2

la notación α (k) implica que el k−ésimo electrón tiene espı́n arriba. Puesto que nuestro Hamiltoniano no contiene
correcciones de espı́n, la ecuación de valores propios (29.5) se convierte en una ecuación puramente orbital
 
~2 2 Ze2
− ∇ − + U (rk ) ϕak (rk ) = εak ϕak (rk ) (29.9)
2m k rk
Ze2
Vc (rk ) = − + U (rk ) (29.10)
rk
por el momento los orbitales ψak (Tk ) son desconocidos. Sin embargo, podemos suponer su existencia para escribir
la energı́a de interacción efectiva U (rk ) que experimenta el k−ésimo electrón debido a los otros electrones. Puesto
que |ϕak (rk )|2 d3 rk es la probabilidad de encontrar el k−ésimo electrón dentro del elemento de volumen d3 rk
centrado en rk , se tiene entonces que la carga efectiva dQ dentro de dicho volumen viene dada por

dQ = −e |ϕak (rk )|2 d3 rk

y la energı́a de interacción entre las cargas dQ y −e ubicadas en las posiciones rk y rj viene dada por

e dQ e2
dU (|rk − rj |) = − = |ϕak (rk )|2 d3 rk
|rk − rj | |rk − rj |

de modo que la energı́a potencial U (rk ) se obtiene integrando sobre todo el volumen (para incluı́r toda la carga
efectiva Q) y sumando sobre todos los demás electrones (j 6= k)
X Z |ϕa (rk )|2
2
U (rk ) = e k
d3 rk (29.11)
|rk − rj |
j6=k

Si conociéramos los N orbitales ϕak (rk ) del problema de N electrones, podemos conocer el potencial efectivo
completo que experimenta cada uno de los electrones usando (29.11) junto con (29.10). Recı́procamente, si cono-
ciéramos el potencial efectivo Vc (rk ) podrı́amos determinar los orbitales usando las ecuaciones (29.9, 29.10) de
646 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

valores propios. Sin embargo, en la práctica no conocemos ni los orbitales ni los potenciales efectivos. El objetivo
del método de Hartree-Fock es encontrar ambas cantidades de tal manera que resulten autoconsistentes. Es decir,
que dadas las soluciones de los orbitales podamos determinar los potenciales efectivos por medio de (29.11) y que
una vez determinados dichos potenciales podamos insertarlos en las Ecs. (29.9) de manera que las soluciones de
(29.9) reproduzcan los mismos orbitales, al menos en forma aproximada.
Estrictamente hablando, el método descrito hasta aquı́ no requiere asumir que el potencial efectivo Vc (rk )
sea central. Cuando asumimos que dicho potencial es de carácter central hablamos del método restringido
de Hartree-Fock. La aproximación de campo central es particularmente acertada en el caso de capas cerradas,
debido a que todos los momentos angulares son cero y esto le da simetrı́a esférica al problema. En el caso de capas
abiertas la aproximación de campo central es menos acertada pero suele producir aún muy buenos resultados al
considerar la aproximación de llenado que consiste en promediar V (rk ) [que no se considera central] sobre todos
los ángulos en la forma Z
1
Vc (rk ) ≡ V (rk ) dΩ

cuando se considera que Vc (rk ) es central, exigimos que ψΓ (T) sea función propia de los operadores H, L2 , L3 , S2 , S3 ,
ya que todos ellos conmutan entre sı́. Tenemos entonces que

HψΓ (T) = EΓ ψΓ (T) ; L2 ψΓ (T) = l (l + 1) ~2 ψΓ (T) ; L3 ψΓ (T) = m~ψΓ (T)


S2 ψΓ (T) = s (s + 1) ~2 ψΓ (T) ; S3 ψΓ (T) = ε~ψΓ (T) (29.12)

Sin embargo, es posible que estos operadores no formen un C.S.C.O por lo cual el conjunto de todos los números
cuánticos Γ podrı́a contener números cuánticos adicionales a los de estos operadores

Γ ≡ (γ, l, m, s, ε) (29.13)

donde γ se refiere a los números cuánticos necesarios para definir la energı́a, y tal vez otros números cuánticos
adicionales requeridos para determinar al estado ψΓ .
Cada determinante de Slater es función propia de L3 y de S3 . En consecuencia, las funciones ψΓ que satisfacen
las ecuaciones de valores propios (29.12) deben ser combinaciones lineales de determinantes de Slater asociados a
una misma configuración electrónica y con los mismos valores de m y ε
X
ψγLS (T) = Cλ Dγ(λ)LS (T) (29.14)
λ

Donde los coeficientes Cλ son parámetros variacionales que se escogen de manera que la función de onda (29.14)
sea también función propia de L2 y S2 . Si la capa es abierta tendremos en general varios coeficientes Cλ . En
contraste, si la capa es cerrada solo se requiere un determinante de Slater para describir la estructura electrónica
ya que en este caso L = S = J = 0.

29.1. Producto interno entre determinantes de Slater y un operador simétri-


co
Denotamos el determinante de Slater en la forma
N! N
√ 1 X Y
D (a |T ) ≡ N !A ψa (T) = √ εk Pk ψai (Ti ) (29.15)
N ! k=1 i=1

ψa1 (T1 ) ψa1 (T2 ) · · · ψa1 (TN )

1 ψa2 (T1 ) ψa2 (T2 ) · · · ψa2 (TN )

D (a |T ) = √ .. .. .. .. (29.16)
N ! . . . .

ψa (T1 ) ψa (T2 ) · · · ψa (TN )
N N N
29.1. PRODUCTO INTERNO ENTRE DETERMINANTES DE SLATER Y UN OPERADOR SIMÉTRICO647

en algunas ocasiones se describe el determinante de Slater escribiendo solo la diagonal principal entre barras o
corchetes
1
D (a |T ) ≡ √ |ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )|
N!
1
= √ |ψ (a1 |1 ) ψ (a2 |2 ) · · · ψ (aN |N )| (29.17)
N!

sea O un observable simétrico de manera que conmuta con todas las N ! permutaciones

[Pk , O] = 0 ; k = 1, 2, . . . , N !

para propósitos futuros, expresaremos los elementos matriciales del operador simétrico O en la base de un conjunto
de determinantes de Slater (normalizados a uno)
Z
hD (b)| O |D (a)i ≡ D ∗ (b |T ) O D (a |T ) dT (29.18)

para calcular este elemento matricial, sustituı́mos (29.15) en (29.18)


Z N! Z N
∗ 1 X Y
hD (b)| O |D (a)i ≡ D (b |T ) O D (a |T ) dT = √ εk D ∗ (b |T ) O Pk ψai (Ti ) dT
N ! k=1 i=1

por construcción cada determinante de Slater es antisimétrico con respecto al grupo de permutaciones de las N
partı́culas. Por tanto
Pk D ∗ (b |T ) = εk D ∗ (b |T ) (29.19)
siendo εk la paridad de la permutación Pk . Teniendo en cuenta (29.19) y el hecho de que Pk conmuta con O se
tiene " #
N! Z N
1 X ∗
Y
hD (b)| O |D (a)i = √ [Pk D (b |T )] Pk O ψai (Ti ) dT
N ! k=1 i=1

ahora bien, es claro que la aplicación del operador permutación sobre un producto de funciones ψA y ψB es
equivalente al producto de la aplicación del permutador sobre cada función2

Pk [ψA ψB ] = [Pk ψA ] [Pk ψB ] (29.20)

con lo cual tenemos


N! Z
" N
#
1 X ∗
Y
hD (b)| O |D (a)i = √ Pk D (b |T ) O ψai (Ti ) dT
N ! k=1 i=1

finalmente, el permutador solo cambia los rótulos de los argumentos de las funciones. Puesto que las variables de
integración son mudas, el resultado no depende del rótulo asignado a cada variable. Por tanto, cada una de las
N ! permutaciones contribuye con el mismo valor al integrar. Con lo cual se obtiene finalmente
Z "N #
√ Y
hD (b)| O |D (a)i = N! D ∗ (b |T ) O ψai (Ti ) dT
i=1

2
La identidad (29.20) está relacionada con el hecho de que la permutación intercambia los ı́ndices Ti en la función ψA (T1 , . . . , TN )
ası́ como en la función ψB (T1 , . . . , TN ), pero no intercambia un argumento de ψA con un argumento de ψB .
648 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

sustituyendo la Ec. (29.15) en esta expresión tenemos que el elemento matricial se puede escribir alternativamente
en la forma  "
N! Z N N
#
X Y Y
hD (b)| O |D (a)i = εk dT Pk ψb∗j (Tj ) O ψai (Ti )
k=1 j=1 i=1

en sı́ntesis, la representación matricial de un operador simétrico O en la base de los determinantes de Slater D (a)
viene dada por
Z
hD (b)| O |D (a)i ≡ D ∗ (b |T ) O D (a |T ) dT (29.21)
√ Z ∗
= N ! D (b |T ) O [ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )] dT (29.22)
N!
X Z
  ∗ 
= εk dT Pk ψb1 (T1 ) · · · ψb∗N (TN ) {O [ψa1 (T1 ) · · · ψaN (TN )]} (29.23)
k=1

recordemos que el signo de integración significa integración sobre las variables espaciales de todos los electrones y
suma sobre las variables de espı́n, y que a ≡ {a1 , . . . , aN } es una abreviación que denota el conjunto de números
cuánticos que definen a los N orbitales con los cuales se construye el determinante de Slater. En particular, tomando
O = 1, se puede verificar la ortonormalidad de los determinantes de Slater con base en la ortonormalidad de los
orbitales.
Podemos escribir estos elementos matriciales de una forma más condensada definiendo la función de Hartree

ΦH (T) ≡ ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN ) (29.24)

y la función auxiliar3
φk (T) ≡ Pk [ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )] = Pk ΦH (T) (29.25)

de modo que la Ec. (29.23) se puede reeescribir como

N!
X Z
hD (b)| O |D (a)i = εk dT {φ∗k (T)} {OΦH }
k=1
XN!
hD (b)| O |D (a)i = εk hφk (T)| O |ΦH (T)i (29.26)
k=1

29.1.1. Ejemplo de aplicación para N = 3


Vamos a calcular explı́citamente el determinante de Slater para N = 3 i.e. un sistema de tres electrones. El
antisimetrizador se escribirá como
1
A= {P123 + P231 + P312 − P213 − P321 − P132 }
3!

donde P123 es la identidad. Una función de Hartree tiene la forma

ΦH (T1 , T2 , T3 ) = ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )


3
Recordemos que el permutador puede actuar sobre el conjunto {T1 , . . . , TN }, o sobre el conjunto {a1 , . . . , aN }, pero no sobre los
dos al tiempo, ya que en este último caso el producto quedarı́a invariante, pues solo se reordenarı́an los orbitales en el producto.
29.2. VALOR ESPERADO DE LA ENERGÍA 649

un determinante de Slater se escribe en la forma



D (T1 , T2 , T3 ) = 3!AΦH (T1 , T2 , T3 )

3!
= {P123 + P231 + P312 − P213 − P321 − P132 } [ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )]
3!
1
= √ {ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 ) + ψa1 (T2 ) ψa2 (T3 ) ψa3 (T1 ) + ψa1 (T3 ) ψa2 (T1 ) ψa3 (T2 )
3!
−ψa1 (T2 ) ψa2 (T1 ) ψa3 (T3 ) − ψa1 (T3 ) ψa2 (T2 ) ψa3 (T1 ) − ψa1 (T1 ) ψa2 (T3 ) ψa3 (T2 )}

1
D (T1 , T2 , T3 ) = √ {ψa1 (T1 ) [ψa2 (T2 ) ψa3 (T3 ) − ψa2 (T3 ) ψa3 (T2 )]
3!
+ψa1 (T2 ) [ψa2 (T3 ) ψa3 (T1 ) − ψa2 (T1 ) ψa3 (T3 )]
+ψa1 (T3 ) [ψa2 (T1 ) ψa3 (T2 ) − ψa2 (T2 ) ψa3 (T1 )]}

ψa1 (T1 ) ψa1 (T2 ) ψa1 (T3 )
1
D (T1 , T2 , T3 ) = √ ψa2 (T1 ) ψa2 (T2 ) ψa2 (T3 )
3! ψ (T ) ψ (T ) ψ (T )
a3 1 a3 2 a3 3

si rotulamos las permutaciones en la forma

P1 ≡ P123 ; P2 ≡ P231 ; P3 ≡ P312


P4 ≡ P213 ; P5 ≡ P321 ; P6 ≡ P132 (29.27)

el determinante de Slater también se puede escribir como


1
D (T1 , T2 , T3 ) = √ {P1 + P2 + P3 − P4 − P5 − P6 } ΦH (T)
3!
1
= √ {φ1 (T) + φ2 (T) + φ3 (T) − φ4 (T) − φ5 (T) − φ6 (T)}
3!

29.2. Valor esperado de la energı́a


Dado que la función de onda que describe al sistema de N electrones es una combinación lineal de determinantes
de Slater, es de gran utilidad calcular el valor esperado de la energı́a con base en un determinante de Slater. En
particular, cuando una capa es cerrada, la función de onda fı́sica estará dada por un solo determinante de Slater
de tal manera que este valor esperado de la energı́a coincide con el valor promedio fı́sico de esta cantidad. En lo
que sigue a continuación, nos limitaremos a cálculos sobre capas cerradas.
Supongamos que tenemos una función de prueba Φ (T1 , . . . , TN ) que por simplicidad asumiremos normalizada.
El teorema 21.1 Pág. 515 nos dice que la energı́a del estado base E0 cumple con la desigualdad

E0 ≤ hΦ| H |Φi

Puesto que la capa es cerrada, suponemos que la función de prueba es un determinante de Slater

Φ = D (T1 , T2 , . . . , TN )

Descompondremos el Hamiltoniano H de la Ec. (29.1) en la forma


N 
X  N
X −1 X
N
P2i Ze2 e2
H = H (0) + H (1) ; H (0) ≡ − ; H (1) ≡ (29.28)
2me Ri |Ri − Rj |
i=1 i=1 j=i+1
650 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

Que es una descomposición diferente a la realizada en las Ecs. (29.2, 29.3). Esto se debe a que utilizaremos un
método variacional y no teorı́a de perturbaciones, por lo cual no es esencial que H (1) sea mucho menor que H (0) .
El valor esperado con respecto a la función de prueba (determinante de Slater) estará dado por

E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di (29.29)

puesto que el Hamiltoniano es un observable asociado a partı́culas idénticas, debe ser un operador simétrico como
efectivamente se observa de (29.28). Ası́ mismo, cada operador H (0) y H (1) es simétrico. Por tanto podremos
aplicar las relaciones de la sección 29.1.

29.2.1. Valor esperado de H (0)


El hamiltoniano H (0) es la suma de N operadores de una partı́cula. El producto interno viene dado en este
caso por
N
X  2  XN
(0) Pi Ze2
hD| H |Di = hD| − |Di = hD| h (i) |Di (29.30)
2me ri
i=1 i=1
donde
P2i Ze2
h (i) ≡ − (29.31)
2me ri
donde i constituye un rótulo para el i−ésimo electrón. La condición de ortonormalidad de los orbitales se escribe
como
hψak (Ti )| ψap (Ti ) = δak ap = δkp
en la última igualdad hemos tenido en cuenta el principio de exclusión de Pauli de modo que para k 6= p (es decir
para dos electrones diferentes) tenemos que ak 6= ap (es decir no todos los números cuánticos pueden coincidir).
Para calcular (29.30) utilizamos (29.26) para lo cual debemos calcular términos de la forma hφk | h (i) |ΦH i.
Tomemos el caso particular N = 3, y calculemos con k = i = 1

hφ1 | h (i = 1) |ΦH i = hP1 ΦH | h (i = 1) |ΦH i = hΦH | h (i = 1) |ΦH i


= hψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )| h (i = 1) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= [hψa1 (T1 )| ⊗ hψa2 (T2 )| ⊗ hψa3 (T3 )|] h (i = 1) [|ψa1 (T1 )i ⊗ |ψa2 (T2 )i ⊗ |ψa3 (T3 )i]
= hψa1 (T1 )| h (i = 1) |ψa1 (T1 )i hψa2 (T2 )| ψa2 (T2 )i hψa3 (T3 )| ψa3 (T3 )i

y usando la condición de ortonormalidad de los orbitales resulta

hφ1 | h (i = 1) |ΦH i = hψa1 (T1 )| h (i = 1) |ψa1 (T1 )i

tomemos ahora i = 1 y k = 2, utilizando (29.27) y la condición de ortonormalidad de los orbitales, se tiene


entonces

hφ2 | h (i = 1) |ΦH i = hP2 ΦH | h (i = 1) |ΦH i


= hP231 [ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )]| h (i = 1) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T3 ) ψa3 (T1 )| h (i = 1) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa3 (T1 )| h (i = 1) |ψa1 (T1 )i hψa1 (T2 )| ψa2 (T2 )i hψa2 (T3 )| ψa3 (T3 )i
hφ2 | h (i = 1) |ΦH i = 0

de una forma similar se puede demostrar que para cada electrón (i = 1, 2, 3) solo contribuye la función auxiliar
φ1 = ΦH . Tenemos entonces que

hφk | h (i) |ΦH i = δk,1 hφk | h (i) |ΦH i = δk,1 hΦH | h (i) |ΦH i (29.32)
29.2. VALOR ESPERADO DE LA ENERGÍA 651

sustituyendo (29.26) y (29.32) en (29.30), el valor esperado de H (0) queda entonces


(N ) N!
(N ) N X N!
X X X X
(0)
hD| H |Di = hD| h (i) |Di = εk hφk (T)| h (i) |ΦH (T)i = δk,1 εk hφk (T)| h (i) |ΦH (T)i
i=1 k=1 i=1 i=1 k=1
N
X
hD| H (0) |Di = hΦH (T)| h (i) |ΦH (T)i
i=1
por otro lado se tiene que
N
X
hΦH (T)| h (i) |ΦH (T)i = hψa1 (T1 ) · · · ψai (Ti ) · · · ψaN (TN )| h (i) |ψa1 (T1 ) · · · ψai (Ti ) · · · ψaN (TN )i
i=1
XN
= hψa1 (T1 )| ψa1 (T1 )i · · · hψai (Ti )| h (i) |ψai (Ti )i · · · hψaN (TN )| ψaN (TN )i
i=1
XN
hΦH (T)| h (i) |ΦH (T)i = hψai (Ti )| h (i) |ψai (Ti )i
i=1
con lo cual
N
X
hD| H (0) |Di = I (ai ) (29.33)
i=1
Z  
~2 2 Ze2
I (ai ) ≡ hψai (Ti )| h (i) |ψai (Ti )i = ϕ∗ai (ri ) − ∇ − ϕai (ri ) d3 ri (29.34)
2m i ri
donde hemos recordado la definición (29.31) de h (i). Nótese sin embargo, que ri es una variable muda que puede
sustituı́rse por r.

29.2.2. Valor esperado de H (1)


Dado que este término acopla pares de partı́culas, solo se podrá reducir a productos internos donde cada bra
y cada ket estará asociado a dos funciones de onda de electrón individual. Tomando la expresión (29.28) podemos
escribir
N
X −1 XN
e2
hD| H (1) |Di = hD| |Di (29.35)
rij
i=1 j=i+1

utilizando (29.26) el valor esperado de e2 /rij nos da


X N!
e2
hD| |Di ≡ hD| W (i, j) |Di = εk hφk (T)| W (i, j) |ΦH (T)i ; j > i (29.36)
rij
k=1
e2
W (i, j) ≡
rij
una vez más ilustraremos el caso N = 3. En tal caso hay tres valores esperados asociados a todos los posibles
pares (i, j) con j > i, que son (1, 2) , (1, 3) y (2, 3). En virtud de (29.36) cada valor esperado es la suma de 3! = 6
contribuciones. Bastará con detallar el cálculo de la contribución para (i, j) = (1, 2). Como se vé de (29.36), el
primero de los 6 términos para este par lo origina el producto
hφ1 (T)| W (1, 2) |ΦH (T)i = hΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T1 ) ψa2 (T2 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa3 (T3 )| ψa3 (T3 )i
hφ1 (T)| W (1, 2) |ΦH (T)i = hψa1 (T1 ) ψa2 (T2 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i ≡ J (a1 , a2 )
652 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

usando (29.27), la contribución debida a la función auxiliar φ4 (T) está dada por

hφ4 (T)| W (1, 2) |ΦH (T)i = hP4 ΦH (T)| W (1, 2) |ΦH (T)i = hP213 ΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T2 ) ψa2 (T1 ) ψa3 (T3 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa3 (T3 )| ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i ≡ K (a1 , a2 )

es decir se obtiene por una permutación de los electrones 1 y 2 con respecto a la contribución de φ1 . Ahora
consideramos la contribución de φ2 (T)

hφ2 (T)| W (1, 2) |ΦH (T)i = hP2 ΦH (T)| W (1, 2) |ΦH (T)i = hP231 ΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T2 ) ψa2 (T3 ) ψa3 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa3 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa2 (T3 )| ψa3 (T3 )i
= 0

dado que los orbitales son ortogonales. Similarmente la contribución de φk es nula para k = 2, 3, 5, 6. Por tanto,
para (i, j) = (1, 2) y para N = 3, solo dos de los seis términos en (29.36) son no nulos

X 3!
e2
hD| |Di ≡ hD| W (1, 2) |Di = εk hφk (T)| W (1, 2) |ΦH (T)i
r12
k=1
= ε1 hφ1 (T)| W (1, 2) |ΦH (T)i + ε4 hφ4 (T)| W (1, 2) |ΦH (T)i
e2
hD| |Di = J (a1 , a2 ) − K (a1 , a2 ) (29.37)
r12
J (a1 , a2 ) ≡ hψa1 (T1 ) ψa2 (T2 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i
K (a1 , a2 ) ≡ hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i (29.38)

realizando el mismo procedimiento para los otros pares de electrones (i, j) resulta

e2
hD| |Di ≡ hD| W (1, 3) |Di = J (a1 , a3 ) − K (a1 , a3 ) (29.39)
r13
e2
hD| |Di ≡ hD| W (2, 3) |Di = J (a2 , a3 ) − K (a2 , a3 ) (29.40)
r23

sustituyendo (29.37, 29.39) y (29.40) en (29.35) con N = 3, se obtiene

2 X
X 3
(1) e2 e2 e2 e2
hD| H |Di = hD| |Di = hD| |Di + hD| |Di + hD| |Di
rij r12 r13 r23
i=1 j=i+1
(1)
hD| H |Di = [J (a1 , a2 ) − K (a1 , a2 )] + [J (a1 , a3 ) − K (a1 , a3 )] + [J (a2 , a3 ) − K (a2 , a3 )] (29.41)

a los productos internos J (ak , ap ) y K (ak , ap ) se les denomina término directo y término de intercambio, por las
mismas razones descritas en la sección 28.3. Teniendo en cuenta que estos términos tienen la propiedad4

J (ak , ap ) = J (ap , ak ) ; K (ak , ap ) = K (ap , ak ) ; K (ak , ak ) − J (ak , ak ) = 0 (29.42)

4
La propiedad (29.42) se debe a que las integrales definidas en (29.38) son invariantes ante el intercambio de T1 y T2 .
29.2. VALOR ESPERADO DE LA ENERGÍA 653

podemos reescribir (29.41) en la forma


1
hD| H (1) |Di = {[J (a1 , a2 ) − K (a1 , a2 )] + [J (a2 , a1 ) − K (a2 , a1 )]}
2
1
+ {[J (a1 , a3 ) − K (a1 , a3 )] + [J (a3 , a1 ) − K (a3 , a1 )]}
2
1
+ {[J (a2 , a3 ) − K (a2 , a3 )] + [J (a3 , a2 ) − K (a3 , a2 )]}
2
1
+ {[J (a1 , a1 ) − K (a1 , a1 )] + [J (a2 , a2 ) − K (a2 , a2 )] + [J (a3 , a3 ) − K (a3 , a3 )]}
2
nótese que los términos de la última lı́nea son ceros. Por tanto aparecen todos los pares de la forma

J (ai , aj ) − K (ai , aj )

sin la restricción j > i. Podemos escribir la generalización de la expresión anterior para N arbitrario en la forma
N
X −1 N
X N N
e2 1 XX
hD| H (1) |Di = hD|
|Di = [J (ak , ap ) − K (ak , ap )] (29.43)
rij 2
i=1 j=i+1 k=1 p=1


J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )


K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )

la doble suma corre sobre todos los pares de orbitales de manera independiente, con lo cual la expresión (29.43)
recupera una total simetrı́a entre dichos pares.

29.2.3. Valor esperado de H = H (0) + H (1)


Tomando los resultados (29.33) y (29.43) el valor esperado (29.29) de la energı́a vendrá dado por

E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di (29.44)
N
X N X
X N
1
E [D] = I (ak ) + [J (ak , ap ) − K (ak , ap )] (29.45)
2
k=1 k=1 p=1
Z 

~2 2 Ze2
I (ak ) ≡ hψak (Tk )| h (k) |ψak (Tk )i = (rk ) − ψa∗k∇ − ψak (rk ) d3 rk (29.46)
2m k rk


J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) (29.47)


K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp ) (29.48)

La notación E [D] indica que la energı́a es un funcional del determinante de Slater, por lo cual la expresión (29.45)
es adecuada para un tratamiento variacional.

29.2.4. Interpretación fı́sica de los términos directo y de intercambio


Hemos definido el término directo (también conocido como energı́a de Coulomb) en la Ec. (29.47) de la forma

e2
J (ak , ap ) = ψak (Tk ) ψap (Tp ) ψa (Tk ) ψap (Tp )
k
rkp
Z Z
e2
= ϕ∗ak (rk ) ϕ∗ap (rp ) ϕa (rk ) ϕap (rp ) d3 rk d3 rp
rkp k
Z Z
2 e2 3
= |ϕak (rk )|2 ϕap (rp ) d rk d3 rp
rkp
654 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

de la expresión integral vemos que este término corresponde al valor promedio de 1/rkp entre un par de electrones
(k, p) relativo al estado ϕak (rk ) ϕap (rp ) del par en cuestión. En este estado el electrón k se encuentra en el
orbital ϕak y el electrón p se encuentra en el orbital ϕap . Nótese que en las integrales no aparece la suma sobre
las variables de espı́n ya que se escribió cada orbital como el producto de una función espacial y un espinor [ver
Ec. (29.7)], y se utilizó la normalización de los espinores.
A este término se le suele llamar energı́a de Coulomb debido a que tiene un análogo en la electrostática clásica.
Para un orbital dado ak podemos definir una densidad de carga
ρak (rk ) ≡ −e |ϕak (rk )|2
que al ser integrada sobre todo el espacio nos da la carga total −e del electrón dado que el orbital está normalizado.
El potencial electrostático generado por esta densidad de carga viene dado por
Z
ρak (rn ) 3
Φak (rk ) = d rn (29.49)
rkn
con lo cual la energı́a de Coulomb se escribe como
Z
J (ak , ap ) = ρak (rp ) Φap (rp ) d3 rp

que en el análogo electrostático representa la energı́a potencial de interacción entre las distribuciones de carga
asociadas con los orbitales ak y ap .
Ahora examinemos el término de intercambio (29.48)


K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )
Z Z
e2
= δ (χk , χp ) ϕ∗ak (rp ) ϕ∗ap (rk ) ϕa (rk ) ϕap (rp ) d3 rk d3 rp
rkp k
que corresponde al elemento de matriz de la interacción coulombiana entre el par de electrones (k, p) relativo a
los estados ϕak (rp ) ϕap (rk ) y ϕak (rk ) ϕap (rp ). Estos estados difieren entre sı́ por el intercambio del par (k, p)
de electrones. La delta de Kronecker proviene de la ortonormalidad de la parte espinorial.
Ya habı́amos visto que para el término directo el electrón k se encontraba en el orbital ϕak y el electrón p
en el orbital ϕap . Si solo contribuyera el término directo, esto implicarı́a que las partı́culas son distinguibles. De
hecho la presencia del término de intercambio surge del carácter antisimétrico de la función de onda y por tanto
del postulado de simetrización. En consecuencia, dicho término no posee un análogo clásico.

29.3. Método de Hartree-Fock para una capa cerrada


Nos limitaremos al caso de un átomo en una capa cerrada. En este caso, solo requerimos un determinante de
Slater D para describir la estructura electrónica del átomo. Tenemos entonces un determinante de Slater
D = D [a1 , a2 , . . . , aN ]
formado por N orbitales ortonormalizados

S (ak , ap ) ≡ hψak (Tk ) ψap (Tp ) = δkp (29.50)
como ya se mencionó, la energı́a E [D] dada por (29.45) es un funcional del determinante de Slater y por tanto, de
los N orbitales ψak (Ti ). De acuerdo con el principio variacional, el conjunto óptimo de orbitales {ψa1 , . . . , ψaN }
está formado por aquellos orbitales que minimizan la energı́a E [D], sujetos a la ligadura (29.50) de ortonormalidad.
En el procedimiento variacional, se fija un cierto conjunto de números cuánticos a = {a1 , . . . , aN } y se varı́a la
forma de los orbitales hasta lograr que la energı́a E [D] sea un mı́nimo. En consecuencia, el método de Hartree-
Fock es un método para calcular los orbitales óptimos con el método variacional dentro del modelo de partı́cula
independiente.
29.3. MÉTODO DE HARTREE-FOCK PARA UNA CAPA CERRADA 655

29.3.1. Minimización de E [D] con ligaduras


Es bien sabido que cuando se quiere minimizar un funcional manteniendo un conjunto de ecuaciones de
ligadura, debemos introducir unas variables auxiliares (multiplicadores de Lagrange), una por cada ecuación de
ligadura. Tendremos que introducir entonces un conjunto N 2 de multiplicadores de Lagrange λkp , uno por cada
ecuación de ligadura (29.50). Al introducir estas variables auxiliares podemos trabajar los orbitales como si fueran
independientes introduciendo el funcional auxiliar

N X
X N
  
F {ψa1 , ψa2 , . . . , ψaN } , ψa∗1 , ψa∗2 , . . . , ψa∗N ≡ E [D] − λkp S (ak , ap )
k=1 p=1

N
X N N N N
1 XX XX
F [ψ, ψ ∗ ] = I (ak ) + [J (ak , ap ) − K (ak , ap )] − λkp S (ak , ap ) (29.51)
2
k=1 k=1 p=1 k=1 p=1
ψ ≡ {ψa1 , ψa2 , . . . , ψaN }

de modo que este es un funcional con 2N variables independientes puesto que cada orbital es complejo y por tanto
posee dos grados de libertad: su parte real y su parte imaginaria. Es más conveniente sin embargo tomar a ψak y
a ψa∗k como las variables independientes, en lugar de la parte real e imaginaria de ψak . Ahora debemos escribir el
funcional F [ψ, ψ ∗ ] de manera que queden explı́citas las 2N variables (orbitales) de las cuales depende. Para ello
se sustituyen (29.46, 29.47, 29.48) y (29.50) en (29.51) y se obtiene

N
X
F [ψ, ψ ∗ ] ≡ hψak (Tk )| h (k) |ψak (Tk )i
k=1
N N
1 X X 

+ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
2
k=1 p=1


− ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )
N X
X N

− λkp hψak (Tk )| ψap (Tp ) (29.52)
k=1 p=1

aplicando el principio variacional, buscamos el conjunto de 2N orbitales ψ,ψ ∗ que dejen a F [ψ, ψ ∗ ] estacionario
con respecto a variaciones arbitrarias de las variables independientes
  
δF {ψa1 , ψa2 , . . . , ψaN } , ψa∗1 , ψa∗2 , . . . , ψa∗N = 0

la estructura de la Ec. (29.52) permite escribir

N
X    
δF = δk F ; δk F ≡ F ψa∗k + δψa∗k − F ψa∗k
k=1

δk F es la variación del funcional F cuando se modifica la variable independiente ψa∗k dejando fijas las demás
variables independientes (variación parcial)5 . Vale añadir que la variación de un orbital se realiza solo en su parte
espacial dejando inmodificadas las variables de espı́n, ya que las variables de espı́n no permiten una variación
contı́nua.
5
Incluso se deja fijo el orbital ψak
656 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

29.3.2. Cálculo de δF [ψ, ψ ∗ ]


Realizaremos la variación de los términos asociados a pares de electrones. Comenzamos con el término directo
o energı́a de Coulomb
N N
1 XX

J≡ J (ak , ap ) ; J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
2 p=1
k=1

dado que solo se realizará una variación sobre los orbitales conjugados ψa∗n , esto implica que solo se hará variación
sobre el bra (sin variación sobre el ket). Tendremos por tanto


δJ (ak , ap ) = δ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )


= {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )


+ ψak (Tk ) δ ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )

de modo que
N N
1 XX

δJ ≡ {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
2
k=1 p=1
N N
1 XX

+ ψak (Tk ) δ ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
2
k=1 p=1

puesto que las variables Tk , y Tp de integración son mudas podemos asignar Tk → Ti , y Tp → Tj , para escribir
N N
1 XX

δJ ≡ {δψak (Ti )} ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj )
2
k=1 p=1
N N
1 XX

+ ψak (Ti ) δ ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj )
2
k=1 p=1

adicionalmente, las variables de suma también son mudas de modo que podemos intercambiar los ı́ndices k ↔ p
en la segunda sumatoria para obtener
N N
1 XX

δJ ≡ {δψak (Ti )} ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj )
2
k=1 p=1
N N
1 XX

+ ψap (Ti ) δ {ψak (Tj )} W (i, j) ψap (Ti ) ψak (Tj )
2
k=1 p=1

puesto que el operador de repulsión W (i, j) es simétrico y las variables de integración i, j son mudas, podemos
intercambiar los ı́ndices (i, j) en el segundo término, con lo cual vemos que las dos sumas son iguales. Retornando
a las antiguas variables de integración se tiene
N X
X N


δJ = {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) (29.53)
k=1 p=1

para el término de intercambio podemos hacer un proceso similar


N N
1 XX

K≡ K (ak , ap ) ; K (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
2
k=1 p=1
29.3. MÉTODO DE HARTREE-FOCK PARA UNA CAPA CERRADA 657

la variación de este término se puede obtener intercambiando Tk ↔ Tp en el ket (también se debe invertir en
W (k, p) pero este es simétrico) en la expresión (29.53) para obtener
N X
X N


δK = {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
k=1 p=1

la variación del término asociado a H (0) y de la ligadura son mucho más simples. La variación del funcional (29.52)
estará dada por
N
X
δF = hδψak (Tk )| h (k) |ψak (Tk )i
k=1
XN X
N


+ {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
k=1 p=1
N X
X N


− {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
k=1 p=1
N X
X N

− λkp hδψak (Tk )| ψap (Tp ) (29.54)
k=1 p=1

puesto que los bras y kets de pares de partı́culas son productos tensoriales de bras y kets de partı́cula individual,
los sumandos en el segundo y tercer término en esta variación se escriben como


δJ (ak , ap ) = {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )


= hδψak (Tk )| ⊗ ψap (Tp ) W (k, p) |ψak (Tk )i ⊗ ψap (Tp )


= hδψak (Tk )| ⊗ ψap (Tp ) W (k, p) |ψak (Tk )i ⊗ ψap (Tp )

ahora bien, el principio variacional exige que δF = 0 para una variación arbitraria del bra (o del orbital conjugado)
hδψak |. Dado que las variaciones de cada ψa∗k son independientes, esto se cumple si y solo si δk F = 0 para cada
orbital. Por tanto, la Ec. (29.54) nos da
N
X

h (k) |ψak (Tk )i + ψap (Tp ) W (k, p) ψap (Tp ) |ψak (Tk )i
p=1
N
X N

X
− ψap (Tp ) W (k, p) |ψak (Tp )i ψap (Tk ) − λkp ψap (Tp )
p=1 p=1
= 0 (29.55)

este es un conjunto de N ecuaciones acopladas cuya solución nos lleva a determinar los orbitales óptimos ψak (Ti )
requeridos por el principio variacional.
Los multiplicadores de Lagrange λkp forman un arreglo matricial N × N que se puede diagonalizar gracias a
que los orbitales se escriben como el producto de un orbital espacial y otro espinorial Ec. (29.7). En notación de
Dirac escribimos 
1

|ψak (Tp )i = |ϕak (rp )i ⊗ sp = , (ms )p ≡ |ϕak (rp )i ⊗ |εk (p)i
2
donde se omite la información sobre sp ya que el espı́n solo puede tomar el valor 1/2. Puesto que los espinores son
ortonormales
hεm (p) |εk (p)i = δ (εm , εk ) (29.56)
658 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

podemos diagonalizar la matriz de los multiplicadores de Lagrange multiplicando la ecuación (29.55) por el bra
espinorial hεk (p)|, teniendo en cuenta la descomposición (29.7) para cada orbital en (29.55), ası́ como las relaciones
de ortonormalidad (29.56) y el hecho de que los operadores involucrados en (29.55) son independientes del espı́n.
Con todas estas consideraciones se obtiene

N
X

h (k) |ϕak (rk )i + ϕap (rp ) W (k, p) ϕap (rp ) |ϕak (rk )i
p=1
N
X

− δ (εp , εk ) ϕap (rp ) W (k, p) |ϕak (rp )i ϕap (rk ) − λak |ϕak (rk )i
p=1
= 0 (29.57)
λak ≡ λkp δpk (29.58)

finalmente, puesto que las variables rk y rp son variables mudas de integración pueden sustituı́rse por r y r′ .

29.4. Operadores de Hartree-Fock


La Ec. (29.57) es claramente una ecuación de valores propios para el ket |ϕak (rk )i, o en la base de las |ri para
la función de onda ϕak (rk )

Fϕak (r) = λak ϕak (r) ; k = 1, 2, . . . , N (29.59)


 2

~ 2 Ze2
F ≡ − ∇ − + V (r) ; V (r) ≡ J (r) − K (r) (29.60)
2m r
N
X N

X
 e2 
J (r) ≡ ϕap (rp ) W (k, p) ϕap (rp ) = ϕap r′ ′
ϕap r′ (29.61)
p=1 p=1
|r − r |
N N Z 2
X X ϕap (r′ ) 3 ′
2
J (r) ≡ −e Φap (r) = e d r (29.62)
p=1 p=1
|r − r′ |
N
X

K (r) ϕak (r) ≡ δ (εp , εk ) ϕap (rp ) W (k, p) |ϕak (rp )i (29.63)
p=1
N
X
e2
 
= δ (εp , εk ) ϕap r′ ′
ϕak r′ ϕap (r)
|r − r |
p=1
N
"Z ∗ #
X ϕ (r ′ ) ϕ (r′ )
a ak
K (r) ϕak (r) = e2 δ (εp , εk ) p
′|
d3 r′ ϕap (r) (29.64)
p=1
|r − r

recordemos que de acuerdo con la Ec. (29.58) λak son los multiplicadores “diagonales”de Lagrange λkk . La Ec.
(29.59) nos dice que los λak son valores propios del operador de Hartree-Fock F, de manera que podemos
escribir
λak = hϕak (r)| F |ϕak (r)i ; k = 1, 2, . . . , N
A los términos J (r) y K (r) se les denomina términos directo y de intercambio, ya que son similares a los términos
directo y de intercambio definidos en la sección 29.2.4, donde Φap (r) es el potencial (29.49) generado por el orbital
ap de acuerdo con la discusión en la sección 29.2.4. Nótese que la suma sobre p en estas expresiones, se recorre
sobre los orbitales que definen a la función de Hartree.
29.5. INTERPRETACIÓN DE LA ECUACIÓN DE HARTREE-FOCK 659

Por otro lado, el operador K (r) (operador de intercambio) se define como un operador integral de acuerdo
con la expresión (29.64). El delta de Kronecker indica que solo sobreviven los pares de orbitales que tienen el
mismo número cuántico magnético de espı́n, es decir cuando ambos tienen espı́n arriba o ambos espı́n abajo. La
ecuación (29.59) de valores propios que surge de los multiplicadores de Lagrange diagonalizados, con las definiciones
(29.60-29.64) se conoce como Ecuación de Hartree-Fock.

29.5. Interpretación de la ecuación de Hartree-Fock


La ecuación (29.59) de Hartree-Fock, nos muestra que el operador de Hartree-Fock F puede interpretarse
como un Hamiltoniano efectivo de partı́cula individual, y los valores propios λak son energı́as efectivas de partı́cula
individual. Recordemos que nuestro objetivo es caracterizar la estructura electrónica de un átomo formado por
N electrones. Para ello hemos partido de un Hamiltoniano H de N partı́culas [ver Ec. (29.1)], y lo reducimos al
problema de una partı́cula descrita por un Hamiltoniano efectivo F.
De otra parte, la expresión (29.60) nos muestra que la determinación del potencial V (r) requiere la determi-
nación de los términos de Coulomb J (r) y de intercambio K (r). A su vez, las expresiones (29.62, 29.64) muestran
que la determinación de J (r) y K (r) requiere del conocimiento de los N orbitales ϕak (r) [los cuales de entrada son
desconocidos]. Adicionalmente, la Ec. (29.64) nos muestra que la evaluación del término de intercambio requiere
conocer el número cuántico magnético de espı́n de cada orbital. En sı́ntesis se necesitan los N orbitales comple-
tos ψak (Ti ) para determinar el potencial V (r) [o equivalentemente, para determinar el operador de Hartree-Fock
(29.60)]. F es un operador hermı́tico y por tanto sus valores propios (energı́as efectivas) son reales. Los orbitales
de Hartree-Fock incluyen entonces la información del espı́n.
Un átomo de N electrones tiene en principio infinito número de orbitales. Los orbitales de Hartree-Fock se
dividen en dos grupos: (a) Orbitales ocupados que se llenan en concordancia con el principio de exclusión de Pauli
y (b) Orbitales desocupados o virtuales que pueden ser ocupados si se introduce una perturbación.
Por ejemplo, el neón (gas noble con capa cerrada) tiene la configuración electrónica

N e : 1s2 , 2s2 , 2p6

los orbitales 1s, 2s, 2p son los orbitales ocupados (para el Neón en el estado base). Para estos orbitales un cálculo
de Hartree-Fock conduce aproximadamente a los siguientes valores [11]

ε1s = −32,772ε0 , ε2s = −1,930ε0 , ε2p = −0,850ε0

por supuesto hay infinitos orbitales desocupados o virtuales tales como 3s, 3p, 3d, 4s, . . . y que pueden ser ocupados
si se introduce alguna perturbación que excite al átomo.

29.6. Solución por iteración de la ecuación de HF


Ya vimos que la ecuación de Hartree-Fock (29.59) tiene la estructura de un problema de valores propios en
donde el operador de Hartree-Fock F hace las veces de un Hamiltoniano efectivo de una partı́cula y sus valores
propios son energı́as efectivas de partı́cula individual. No obstante, a diferencia de un Hamiltoniano normal, el
operador F no se conoce a priori ya que el potencial V depende de los operadores directo y de intercambio, que a
su vez dependen de los orbitales que hasta este punto son desconocidos.
Por tanto, debemos determinar tanto los orbitales como al operador de Hartree-Fock. Para ello partimos de
un conjunto de orbitales de prueba
n o n o
ψ (1)
a ≡ ψ (1)
a1 (T 1 ) , ψ (1)
a2 (T 2 ) , . . . , ψ (1)
aN (T N )

que se postulan con base en algún argumento fı́sico (por ejemplo orbitales hidrogenoides). Con estos orbitales de
prueba se calculan los términos directo y de intercambio por medio de las Ecs. (29.62, 29.64). Posteriormente, se
660 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

calcula el operador de Hartree-Fock F(1) a través de las Ecs. (29.60). Denotamos


n o a este operador con el supraı́ndice
(1)
(1) para indicar que se construyó con base en las funciones de prueba ψ a . Procedemos entonces a resolver la
ecuación (1)
n o de valores propios de Hartree-Fock con el operador F , los orbitales obtenidos que denotaremos como
(2)
ψa se utilizan a su vez para construı́r un nuevo operador de Hartree-Fock F(2) , con base en el cual volvemos
n o
(3)
a resolver la ecuación de Hartree-Fock para obtener un nuevo conjunto de orbitales ψ a y luego un nuevo
operador de Hartree-Fock F(3) . El proceso se puede continuar iterativamente digamos hasta realizar M iteraciones
que esquemáticamente ilustramos de la siguiente forma

n o n o n o
ψ (1)
a → F (1)
→ ψ (2)
a → F (2)
→ · · · → ψ (M )
a → F(M )
| {z } | {z } | {z }

hasta lograr la autoconsistencia, es decir cuando la siguiente iteración no produzca un cambio significativo ni en
los orbitales ni en el operador F. Es decir, logramos la autoconsistencia si

n o n o n o
ψ (M
a
)
≃ ψ (M +1)
a ≃ ψ (N )
a y F(M ) ≃ F(M +1) ≃ F(N ) ; N >M

El potencial V de Hartree-Fock que se calcula de esta forma se denomina potencial de campo autoconsistente.

29.7. Determinación del valor Fı́sico de la energı́a

La ecuación de Hartree-Fock es una ecuación efectiva que no nos da en forma directa el valor Fı́sico de las
energı́as. Sin embargo, las energı́as efectivas de partı́cula individual λak se pueden conectar con la energı́a fı́sica
si escribimos el Hamiltoniano fı́sico H en términos del operador F. Para ello tenemos en cuenta las expresiones
(29.1, 29.28) y (29.60) para H y F

H = H (0) + H (1)
XN   XZ X Z
(0) ~2 2 Ze2 (1) e2
H ≡ − ∇i − ; H ≡
2m ri |ri − rj |
i=1 i=1 j>i
 
~2 2 Ze2
F (ri ) ≡ − ∇ − + J (ri ) − K (ri )
2m i ri

con lo cual

N
X
(0)
H ≡ [F (ri ) − J (ri ) + K (ri )] (29.65)
i=1
29.7. DETERMINACIÓN DEL VALOR FÍSICO DE LA ENERGÍA 661

con el método antes descrito podemos calcular el determinante de Slater D, con el cual podemos calcular el valor
esperado de la energı́a. Combinando las Ecs. (29.33, 29.34) y (29.65) podemos determinar el valor esperado de H (0)

N Z
X  
(0) ~2 2 Ze2
hD| H |Di = ψa∗k (rk ) − ∇ − ψak (rk ) d3 rk
2m k rk
k=1
XN Z
= ψa∗k (rk ) [F (rk ) − J (rk ) + K (rk )] ψak (rk ) d3 rk
k=1
N Z
X
hD| H (0) |Di = ψa∗k (rk ) [λak − J (rk ) + K (rk )] ψak (rk ) d3 rk
k=1
XN Z N Z
X
= λak ψa∗k (rk ) ψak (rk ) d3 rk − ψa∗k (rk ) J (rk ) ψak (rk ) d3 rk
k=1 k=1
XN Z
+ ψa∗k (rk ) K (rk ) ψak (rk ) d3 rk
k=1
N
X N
X N
X
(0)
hD| H |Di = λak − hψak (r)| J (r) |ψak (r)i + hψak (r)| K (r) |ψak (r)i
k=1 k=1 k=1

donde hemos usado la ortonormalidad de los orbitales y el hecho de que tales orbitales son funciones propias de
F. Y teniendo en cuenta las relaciones
Z N
X
hψak (r)| J (r) |ψak (r)i ≡ ψa∗k (rk ) J (rk ) ψak (rk ) d3 rk = J (ak , ap )
p=1
Z N
X
hψak (r)| K (r) |ψak (r)i ≡ ψa∗k (rk ) K (rk ) ψak (rk ) d3 rk = K (ak , ap )
p=1

Este valor esperado se puede escribir como


N
X N X
X N
(0)
hD| H |Di = λak − [J (ak , ap ) − K (ak , ap )]
k=1 k=1 p=1

por otro lado, el valor esperado de H (1) viene dado por (29.43)

N N
1 XX
hD| H (1) |Di = [J (ak , ap ) − K (ak , ap )]
2
k=1 p=1

con lo cual el valor esperado del Hamiltoniano completo es


N
X N N
1 XX
E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di = λak − [J (ak , ap ) − K (ak , ap )] (29.66)
2 p=1
k=1 k=1

esta energı́a posee entonces tres contribuciones, la energı́a efectiva asociada a los electrones independientes donde
cada energı́a está asociada a uno de los orbitales ocupados, la energı́a de Coulomb (originada en la interaccción
de Coulomb clásica), y la energı́a de intercambio que tiene su origen en la combinación entre la interacción de
Coulomb entre los electrones y la naturaleza indistinguible de éstos.
662 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK

Nótese que a pesar de que el determinante de Slater surge de un modelo de partı́culas independientes, el
Hamiltoniano F equivalente de partı́cula independiente depende de la interacción repulsiva entre electrones por
medio de los términos J (r) y K (r). Adicionalmente, las dos últimas contribuciones en la Ec. (29.66) también
surgen de la repulsión electrostática entre pares de electrones del sistema. En consecuencia, tanto el determinante
de Slater como el valor esperado E [D] contienen la información sobre la interacción, a pesar de provenir de un
modelo de partı́cual independiente. La Ec. (29.66) es equivalente a (29.45), pero la Ec. (29.66) tiene la ventaja de
estar escrita en términos de las soluciones λak de la ecuación de Hartree-Fock.
—————————————————
—————————————————–
Bibliografı́a

[1] Robert M. Eisberg. Fundamentals of Modern Physics. John-Wiley & Sons, Inc.

[2] Arthur Beiser. Perspectives of Modern Physics. McGraw-Hill International Editions, Physics Series (1969).

[3] Frank J. Blatt. Modern Physics. McGraw-Hill International Editions, Physics Series (1992).

[4] Claude Cohen-Tannoudji, Bernard Diu, Franck Lalöe. Quantum Mechanics Vols. I, II English version pu-
blished by Hermann and by John Wiley & Sons. Inc. Second Ed. (1977).

[5] Diógenes Campos Romero. Fundamentos de Fı́sica Atómica y Molecular. Editorial Universidad Nacional.
Bogotá, Colombia (1997).

[6] Jerry B. Marion, Stephen Thornton. Classical Dynamics of Particles and Systems. 5th Ed., Thomson
Brooks/Cole (2004).

[7] Leonard I. Schiff. Quantum Mechanics. 3rd Ed., McGraw-Hill International Editions, Physics Series (1968).

[8] John S. Townsend. A modern Approach to Quantum Mechanics. McGraw-Hill International Editions, Physics
Series (1992).

[9] David J. Griffiths. Introduction to Quantum Mechanics. 2nd Ed., Pearson Prentice Hall (2005).

[10] Fujia Yang, Joseph H. Hamilton. Modern Atomic and Nuclear Physics. McGraw-Hill International Editions,
Physics & Astronomy Series (1996).

[11] E. Kryachko, E. V. Ludeña. Energy Density Functional Theory of Many-Electron systems, Dordrecht, Kluwer
Academic Publishers, (1990).

[12] G. Esposito, G. Marmo and G. Sudarshan. From Classical to Quantum Mechanics, Cambridge University
Press, (2004).

663

You might also like