Professional Documents
Culture Documents
23 de agosto de 2015
Índice general
2
ÍNDICE GENERAL 3
We shall describe the most important properties of linear or vector spaces. This treatment is not rigorous at all,
and only some simple proofs are shown. Our aim limits to provide a framework for our subsequent developments.
2. If xi , xj ∈ V , then xi + xj ∈ V
3. xi + xj = xj + xi , ∀xi , xj ∈ V
8. 1xi = xi ; ∀xi ∈ V
The element 0 is usually called the null vector or the origin. The element −x is called the additive inverse of x.
We should distinguish the symbols 0 (scalar) and 0 (vector). The two operations defined here (sum and product
by scalars) are called linear operations. A linear space is real (complex) if we consider the scalars as the set of real
(complex) numbers.
Let us see some simple examples
Example 1.1 The set of all real (complex) numbers with ordinary addition and multiplication taken as the linear
operations. This is a real (complex) linear space.
14
1.2. ALGEBRAIC PROPERTIES 15
Example 1.2 The set Rn (C n ) of all n-tuples of real (complex) numbers is a real (complex) linear space under
the following linear operations
x ≡ (x1 , x2 , . . . , xn ) ; y ≡ (y1 , y2 , . . . , yn )
αx ≡ (αx1 , αx2 , , αxn ) ; x + y ≡ (x1 + y1 , x2 + y2 , . . . , xn + yn )
Example 1.3 The set of all bounded continuous real functions defined on a given interval [a, b] of the real line,
with the linear operations defined pointwise as
(f + g) (x) = f (x) + g (x) ; (αf ) (x) = αf (x) ; x ∈ [a, b]
We can see that a linear or vector space forms an abelian group whose elements are the vectors, and with
addition as the law of combination. However, the vector space introduce an additional structure by considering
multiplication by scalars which is not a group property.
Some very important kinds of vector spaces are the ones containing certain sets of functions with some specific
properties. We can consider for example, the set of functions defined on certain interval with some condition of
continuity integrability etc. For instance, in quantum mechanics we use a vector space of functions.
finding a contradiction. This is inmediate from the above procedure that shows that starting with α 6= 0 we arrive
to x = 0.
It is customary to simplify the notation in x + (−y) and write it as x − y. The operation is called substraction.
This is equivalent to the condition that M contains all sums, negatives and scalar multiples. The other pro-
perties are derived directly from the superset V . Further, since −x = (−1) x it reduces to say that M must be
closed under addition and scalar multiplication.
When M is a proper subset of V it is called a proper subspace of V . The zero space {0} and the full space V
itself are trivial subspaces of V .
The following concept is useful to study the structure of vector subspaces of a given vector space,
16 CAPÍTULO 1. LINEAR OR VECTOR SPACES
Definition 1.2 Let S = {x1 , .., xn } be a non-empty finite subset of V , then the vector
x = α1 x1 + α2 x2 + . . . + αn xn (1.1)
is called a linear combination of the vectors in S.
We can redefine a vector subspace by saying that a non-empty subset M of V is a linear subspace if it is closed
under the formation of linear combinations. If S is a subset of V we can see that the set of all linear combinations
of vectors in S is a vector subspace of V , we denote this subspace as [S] and call it the vector subspace spanned by
S. It is clear that [S] is the smallest subspace of V that contains S. Similarly, for a given subspace M a non-empty
subset S of M is said to span M if [S] = M . Note that the closure of a vector space under an arbitrary linear
combination can be proved by induction from the closure property of vector spaces under linear operations. Notice
additionally, that the proof of induction only guarantees the closure under any finite sum of terms, if we have an
infinite sum of terms (e.g. a series) we cannot ensure that the result is an element of the space, this is the reason
to define linear combinations as finite sums. If we want a property of closure under some infinite sums additional
structure should be added as we shall see later.
Suppose now that M and N are subspaces of V . Consider the set M + N of all sums of the form x + y with
x ∈ M and y ∈ N . Since M and N are subspaces, this sum is the subspace spanned by the union of both subspaces
M + N = [M ∪ N ]. It could happen that M + N = V in this case we say that V is the sum of M and N . In turn
it means that every vector in V is expressible as a sum of a vector in M plus a vector in N . Further, in some cases
any element z of V is expressible in a unique way as such a sum, in this case we say that V is the direct sum of
M and N and it is denoted by
V =M ⊕N
we shall establish the conditions for a sum to become a direct sum
Theorem 1.1 Let a vector space V be the sum of two of its subspaces V = M + N . Then V = M ⊕ N ⇔ M ∩ N =
{0}
Proof: Assume first that V = M ⊕ N , we shall suppose that ∃ z 6= 0 with z ∈ M ∩ N , and deduce a
contradiction from it. We can express z in two different ways z = z + 0 with z ∈ M and 0 ∈ N or z = 0 + z with
0 ∈ M and z ∈ N . This contradicts the definition of a direct sum.
Now assume M ∩ N = {0}, by hypothesis V = M + N so that any z ∈ V can be expressed by z = x1 + y1
with x1 ∈ M and y1 ∈ N . Suppose that there is another decomposition z = x2 + y2 with x2 ∈ M and y2 ∈ N .
Hence x1 + y1 = x2 + y2 ⇒ x1 − x2 = y1 − y2 ; but x1 − x2 ∈ M and y1 − y2 ∈ N . Since they are equal, then both
belong to the intersection so x1 − x2 = y1 − y2 = 0 then x1 = x2 and y1 = y2 showing that the decomposition
must be unique. QED.
When two vector subspaces of a given space have only the zero vector in common, it is customary to call them
disjoint subspaces. It is understood that it does not correspond to disjointness in the set-theoretical sense, after all
two subspaces of a given space cannot be disjoint as sets, since any subspace must contain 0. Thus no confusion
arises from this practice.
The concept of direct sum can be generalized when more subspaces are involved. We say that V is the direct
sum of a collection of subspaces {M1 , .., Mn } and denote it as
V = M1 ⊕ M2 ⊕ . . . ⊕ Mn
when each z ∈ V can be expressed uniquely in the form
z = x1 + x2 + . . . + xn ; xi ∈ Mi
In this case if V = M1 + .. + Mn , this sum becomes a direct sum if and only if each Mi is disjoint from the subspace
spanned by the others. To see it, it is enough to realize that
V = M1 + M2 + .. + Mn = M1 + [M2 + .. + Mn ] = M1 + [∪ni=2 Mi ]
1.4. DIMENSION AND BASES IN VECTOR SPACES 17
then V = M1 ⊕ [M2 + .. + Mn ] if and only if M1 ∩ [∪ni=2 Mi ] = {0}, proceeding similarly for the other Mi′ s we
arrive at the condition above. Note that this condition is stronger than the condition that any given Mi is disjoint
from each of the others.
The previous facts can be illustrated by a simple example. The most general non-zero proper subspaces of R3
are lines or planes that passes through the origin. Thus let us define
M1 , M2 , M3 are the coordinate axes of R3 and M4 , M5 , M6 are its coordinate planes. R3 can be expressed by direct
sums of these spaces in several ways
R3 = M1 ⊕ M2 ⊕ M3 = M1 ⊕ M4 = M2 ⊕ M5 = M3 ⊕ M6
for the case of R3 = M1 ⊕M2 ⊕M3 we see that the subspace spanned by M2 and M3 i.e. M2 +M3 = [M2 ∪ M3 ] = M4
is disjoint from M1 . Similarly M2 ∩ [M1 ∪ M3 ] = {0} = M3 ∩ [M1 ∪ M2 ]. It is because of this, that we have a direct
sum.
Now let us take M3 , M6 and M ′ defined as a line on the plane M4 that passes through the origin making an
angle θ with the axis x3 such that 0 < θ < π/2, since R3 = M3 + M6 it is clear that
R3 = M3 + M6 + M ′ ; M3 ∩ M6 = M3 ∩ M ′ = M6 ∩ M ′ = {0} (1.2)
however this is not a direct sum because M3 + M6 = R3 so that M ′ ∩ (M3 + M6 ) 6= {0}. Despite each subspace
is disjoint from each other, there is at least one subspace that is not disjoint from the subspace spanned by the
others. Let us show that there are many decompositions for a given vector z ∈ R3 when we use the sum in (1.2).
Since R3 = M3 + M6 a possible decomposition is z = x + y + 0 with x ∈ M3 , y ∈ M6 , 0 ∈ M ′ . Now let us take an
arbitrary non-zero element w of M ′ ; clearly M3 +M6 = R3 contains M ′ so that w = x′ +y′ with x′ ∈ M3 , y′ ∈ M6 .
Now we write z = x + y = (x − x′ ) + (y − y′ ) + x′ + y′ then z = (x − x′ ) + (y − y′ ) + w. We see that (x − x′ ) is
in M3 and (y − y′ ) is in M6 . Now, since w ∈ M ′ and w 6= 0 this is clearly a different decomposition with respect
to the original one. An infinite number of different decompositions are possible since w is arbitrary.
Finally, it can be proved that for any given subspace M in V it is always possible to find another subspace N in
V such that V = M ⊕ N . Nevertheless, for a given M the subspace N is not neccesarily unique. A simple example
is the following, in R2 any line crossing the origin is a subspace M and we can define N as any line crossing the
origin as long as it is not collinear with M ; for any N accomplishing this condition we have V = M ⊕ N .
α1 x1 + α2 x2 + .. + αn xn = 0 (1.3)
if S is not linearly dependent we say that it is linearly independent, this means that in Eq. (1.3) all coefficients αi
must be zero. Thus linear independence of S means that the only solution for Eq. (1.3) is the trivial one. When
non-trivial solutions exists the set is linearly dependent.
¿What is the utility of the concept of linear independence of a given set S? to see it, let us examine a given
vector x in [S], each of these vectors arise from linear combinations of vectors in S
x = α1 x1 + α2 x2 + .. + αn xn ; xi ∈ S (1.4)
18 CAPÍTULO 1. LINEAR OR VECTOR SPACES
we shall see that for the ordered set S = {x1 , .., xn } the corresponding ordered set {α1 , .., αn } associated with x
by Eq. (1.4) is unique. Suppose there is another decomposition of x as a linear combination of elements of S
x = β1 x1 + β2 x2 + .. + βn xn ; xi ∈ S (1.5)
but linear independence require that only the trivial solution exists, thus αi = βi and the ordered set of coefficients
is unique. This is very important for the theory of representations of vector spaces. The discussion above permits
to define linearly independence for an arbitrary (not necessarily finite) non-empty set S
Definition 1.4 An arbitrary non-empty subset S ⊆ V is linearly independent if every finite non-empty subset of
S is linearly independent in the sense previously established.
As before, an arbitrary non-empty set S is linearly independent if and only if any vector x ∈ [S] can be written
in a unique way as a linear combination of vectors in S.
The most important linearly independent sets are those that span the whole space i.e. [S] = V this linearly
independent sets are called bases. It can be checked that S is a basis if and only if it is a maximal linearly
independent set, in the sense that any proper superset of S must be linearly dependent. We shall establish
without proof a very important theorem concerning bases of vector spaces
Theorem 1.2 If S is a linearly independent set of vectors in a vector space V , there exists a basis B in V such
that S ⊆ B.
In words, given a linearly independent set, it is always possible to add some elements to S for it to become
a basis. A linearly independent set is non-empty by definition and cannot contain the null vector. Hence, we see
that if V = {0} it does not contain any basis, but if V 6= {0} and we can take a non-zero element x of V , the set
{x} is linearly independent and the previous theorem guarantees that V has a basis that contains {x}, it means
that
Now, since any set consisting of a single non-zero vector can be enlarged to become a basis it is clear that any
non-zero vector space contains an infinite number of bases. It worths looking for general features shared by all
bases of a given linear space. Tne first theorem in such a direction is the following
Theorem 1.4 Let S = {x1 , x2 , .., xn } be a finite, odered, non-empty subset of the linear space V . If n = 1 then
S is linearly dependent⇔ x1 = 0. If n > 1 and x1 6= 0 then S is linearly dependent if and only if some one of the
vectors x2 , ..., xn is a linear combination of the vectors in the ordered set S that precede it.
Proof: The first assertion is trivial. Then we settle n > 1 and x1 6= 0. Assuming that one of the vectors xi in
the set x2 , ..., xn is a linear combination of the preceding ones we have
since the coefficient of xi is 1, this is a non-trivial linear combination of elements of S that equals zero. Thus S is
linearly dependent. We now assume that S is linearly dependent hence the equation
α1 x1 + ... + αn xn = 0
1.4. DIMENSION AND BASES IN VECTOR SPACES 19
has a solution with at least one non-zero coefficcient. Let us define αi as the last non zero coefficient, since x1 6= 0
then i > 1 then we have
α1 αi−1
α1 x1 + ... + αi xi + 0 · xi+1 + ... + 0 · xn = 0 ⇒ xi = − x1 + ... + − xi−1
αi αi
and xi is written as a linear combination of the vectors that precede it in the ordered set S. QED
The next theorem provides an important structural feature of the set of bases in certain linear spaces
Theorem 1.5 If a given non-zero linear space V has a finite basis B1 = {e1 , ..., en } with n elements, then any
other basis B2 = {fi } of V must be finite and also with n elements.
The following theorem (that we give without proof) gives a complete structure to this part of the theory of
vector spaces
Theorem 1.6 Let V be a non-zero vector space. If B1 = {ei } and B2 = {uj } are two bases of the vector space,
then B1 and B2 are sets with the same cardinality.
These theorem is valid even for sets with infinite cardinality. This result says that the cardinality of a basis is
a universal attribute of the vector space since it does not depend on the particular basis used. Hence the following
are natural definitions
Definition 1.5 The dimension of a non-zero vector space is the cadinality of any of its basis. If V = {0} the
dimension is defined to be zero.
Definition 1.6 A vector space is finite-dimensional if its dimension is a non negative integer. Otherwise, it is
infinite-dimensional.
As any abstract algebraic system, vector spaces requires a theory of representations in which the most abstract
set is replaced by another set with more tangible objects. However, for the representation to preserve the abstract
properties of the vector space, set equivalence and linear operations must be preserved. This induces the following
definition
Definition 1.7 Let V and V ′ two vector spaces with the same system of scalars. An isomorphism of V onto V ′
is a one-to-one mapping f of V onto V ′ such that f (x + y) = f (x) + f (y) and f (αx) = αf (x)
Definition 1.8 Two vector spaces with the same system of scalars are called isomorphic if there exists an iso-
morphism of one onto the other.
To say that two vector spaces are isomorphic means that they are abstractly identical with respect to their
structure as vector spaces.
Now let V be a non zero finite dimensional space. If n is its dimension, there exists a basis B = {e1 , .., en }
whose elements are written in a definite order. Each vector x in V can be written uniquely in the form
x = α1 e1 + .. + αn en
so the n−tuple (α1 , .., αn ) is uniquely determined by x. If we define a mapping f by f (x) = (α1 , .., αn ) we see
that this is an isomorphism of V onto Rn or C n depending on the system of scalars defined for V .
Theorem 1.7 Any real (complex) non-zero finite dimensional vector space of dimension n is isomorphic to Rn
(C n ).
20 CAPÍTULO 1. LINEAR OR VECTOR SPACES
Indeed, this theorem can be extended to vector spaces of arbitrary dimensions, we shall not discuss this topic
here. By now, it suffices to realize that the isomorphism establishes here is not unique for it depends on the basis
chosen and even on the order of vectors in a given basis. It can be shown also that two vector spaces V and V ′
are isomorphic if and only if they have the same scalars and the same dimension.
From the results above, we could then be tempted to say that the abstract concept of vector space is no
useful anymore. However, this is not true because on one hand the isomorphism depends on the basis chosen and
most results are desirable to be written in a basis independent way. But even more important, almost all vector
spaces studied in Mathematics and Physics posses some additional structure (topological or algebraic) that are
not neccesarily preserve by the previous isomorphisms.
we shall see later that the states of our physical systems are vectors of a given vector space. Hence, the transfor-
mations of these vectors are also important in Physics because they will represent transformations in the states
of our system. We shall see later that the set of all linear transformations are in turn vector spaces with their own
internal organization.
Let us now define some basic operations with linear transformations, a natural definition of the sum of two
linear transformations is of the form
(T + U ) (x) ≡ T (x) + U (x) (1.6)
and a natural definition of multiplication by scalars is
Theorem 1.8 Let V and V ′ be two vector spaces with the same system of scalars. The set of all linear transfor-
mations of V into V ′ with the linear operations defined by Eqs. (1.6, 1.7, 1.8) is itself a vector space.
The most interesting cases are the linear transformations of V into itself and the linear transformations of V
into the vector space of scalars (real or complex). We shall study now the first case.
T (U V ) = (T U ) V ; T (U + V ) = T U + T V
(T + U ) V = T V + U V ; α (T U ) = (αT ) U = T (αU )
commutativity does not hold in general. It is also possible for the product of two non-zero linear transformations
to be zero. An example of non commutativity is the following: we define on the space P of polynomials p (x) the
linear operators M and D
dp dp
M (p) ≡ xp ; D (p) = ⇒ (M D) (p) = M (D (p)) = xD (p) = x
dx dx
dp
(DM ) (p) = D (M (p)) = D (xp) = x +p
dx
I (x) ≡ x
for every linear operator T on V . For any scalar α the operator αI is called scalar multiplication since
it is well known that for a mapping of V into V ′ to admit an inverse of V ′ into V requires to be one-to-one and
onto. In this context this induces the definition
Definition 1.9 A linear transformation T on V is non-singular if it is one-to-one and onto, and singular other-
wise.
T T −1 = T −1 T = I
Theorem 1.9 If T is a linear transformation on V , then T is non-singular⇔ T (B) is a basis for V whenever B
is.
22 CAPÍTULO 1. LINEAR OR VECTOR SPACES
P (z) = x
it is easy to show that this transformation is linear and is called the projection on M along N . The most important
property of these transformations is that they are idempotent i.e. P 2 = P we can see it taking into account that
the unique decomposition of x is x = x + 0 so that
The opposite is also true i.e. a given linear idempotent linear transformation induces a decomposition of the space
V in a direct sum of two subspaces
Proof : We already showed that decomposition in a direct sum induces a projection, to prove the opposite let
define M and N in the form
M ≡ {P (z) : z ∈ V } ; N = {z : P (z) = 0}
M and N are vector subspaces and correspond to the range and the null space (or kernel) of the transformation
P respectively. We show first that M + N = V , this follows from the identity
thus (I − P ) (z) belongs to the null space N so M + N = V . To prove that this is a direct sum we must show that
M and N are disjoint (theorem 1.1). For this, assume that we have a given element P (z) in M that is also in N
then
P (P (z)) = 0 ⇒ P 2 (z) = P (z) = 0
thus the common element P (z) must be the zero element. Hence, M and N are disjoint and V = M ⊕ N . Further,
from (1.10) P is the projection on M along N .
Of course in z = x + y with x ∈ M , y ∈ N we can define a projection P ′ (z) = y on N along M . In this case
V = M ⊕ N = N ⊕ M but now M is the null space and N is the range. It is easy to see that P ′ = I − P .
On the other hand, we have seen that for a given subspace M in V we can always find another subspace N
such that V = M ⊕ N so for a given M we can find a projector with range M and null space N . However, N is
not unique so that different projections can be defined on M .
Finally, it is easy to see that the range of a projector P corresponds to the set of points fixed under P i.e.
M = {P (z) : z ∈ V } = {z : P (z) = z}.
Definition 1.10 A normed vector space N is a vector space in which to each vector x there corresponds a real
number denoted by kxk with the following properties: (1) kxk ≥ 0 and kxk = 0 ⇔ x = 0.(2) kx + yk ≤ kxk + kyk
(3) kαxk = |α| kxk
As well as allowing to define a length for vectors, the norm permits to define a distance between two vectors
x and y in the following way
d (x, y) ≡ kx − yk
it is easy to verify that this definition accomplishes the properties of a metric
in turn, the introduction of a metric permits to define two crucial concepts: (a) convergence of sequences, (b)
continuity of functions of N into itself (or into any metric space).
We shall examine both concepts briefly
is convergent if there exists a point x in X such that for each ε > 0, there exists a positive integer n0 such that
d (xn , x) < ε for all n ≥ n0 . x is called the limit of the sequence. A very important fact in metric spaces is that
any convergent sequence has a unique limit.
Further, assume that x is the limit of a convergent sequence, it is clear that for each ε > 0 there exists n0 such
that m, n ≥ n0 ⇒ d (x, xm ) < ε/2 and d (x, xn ) < ε/2 using the properties of the metric we have
ε ε
m, n ≥ n0 ⇒ d (xm , xn ) ≤ d (xm , x) + d (x, xn ) < + =ε
2 2
a sequence with this property is called a cauchy sequence. Thus, any convergent sequence is a cauchy sequence.
The opposite is not necessarily true. As an example let X be the interval (0, 1] the sequence xn = 1/n is a cauchy
sequence but is not convergent since the point 0 (which it wants to converge to) is not in X. Then, convergence
depends not only on the sequence itself, but also on the space in which it lies. Some authors call cauchy sequences
“intrinsically convergent” sequences.
A complete metric space is a metric space in which any cauchy sequence is convergent. The space (0, 1] is not
complete but it can be made complete by adding the point 0 to form [0, 1]. In fact, any non complete metric space
can be completed by adjoining some appropiate points. It is a fundamental fact that the real line, the complex
plane and Rn , C n are complete metric spaces.
We define an open sphere of radius r centered at x0 as the set of points such that
and an open set is a subset A of the metric space such that for any x ∈ A there exists an open sphere Sr (x) such
that Sr (x) ⊆ A.
For a given subset A of X a point x in X is a limit point of A if each open sphere centered on x contains at
least one point of A different from x.
A subset A is a closed set if it contains all its limit points. There is an important theorem concerning closed
metric subspaces of a complete metric space
Theorem 1.11 Let X be a complete metric space and Y a metric subspace of X. Then Y is complete⇔it is
closed.
24 CAPÍTULO 1. LINEAR OR VECTOR SPACES
it would then be desirable that an intrinsically convergent series given by a superposition of physical states ψn
be another physical state ψ. In other words, the limit of the partial sums should be within the vector space that
describe our physical states. To ensure this property we should demand completeness of the vector space that
describe the physical states of the system.
On the other hand, it would be usual to work with subspaces of the general physical space. If we want to
guarantee for a series in a given subspace to be also convergent, we should require for the subspace to be complete
by itself, and according to theorem 1.11 it is equivalent to require the subspace to be closed with respect to the
total space. Therefore, closed subspaces of the general space of states would be particularly important in quantum
mechanics.
As in any vector space, linear transformations are crucial in the characterization of Banach spaces. Since a
notion of continuity is present in these spaces and continuity is associated with well behavior in Physics, it is
natural to concentrate our attention in continuous linear transformations of a banach space B into itself or into
the set of scalars. Transformations of B into itself will be useful when we want to study posible modifications of
the vectors (for instance the time evolution of the vectors describing the state of the system). On the other hand,
transformations of B into the scalars will be useful when we are interested in connecting the state of a system
(represented by a vector) with a measurement (which is a number).
Before considering each specific type of continuous linear transformation, we should clarify what the meaning
of continuity of a linear transformation is. Since continuity depends on the metric induced on the space, we should
define for a given space of linear transformations on a Banach space B, a given metric. We shall do it by first
defining a norm, specifically we shall define the following norm
We shall refer to the metric induce by this norm when we talk about the continuity of any linear transformation
of a Banach space into itself or into the scalars. It can be shown that for this norm continuity is equivalent to
boundedness.
Definition 1.13 A real (or complex) functional is a continuous linear transformation of a real (or complex)
normed linear space into R (or C).
Definition 1.14 The set of all functionals on a normed linear space N is called the conjugate space of N and is
denoted by N ∗ .
For the case of general normed spaces (and even for Banach spaces), the structure of their conjugate spaces
is in general very intrincate. However we shall see that conjugate spaces are much simpler when an additional
structure (inner product) is added to Banach spaces.
Definition 1.15 An operator is a continuous linear transformation of a normed space into itself.
Theorem 1.12 If a one-to-one linear transformation T of a Banach space onto itself is continuous, then its
inverse is automatically continuous
26 CAPÍTULO 1. LINEAR OR VECTOR SPACES
Though we do not provide a proof, it is important to note that this result requires the explicit use of com-
pleteness (it is not valid for a general normed space). We see then that completeness gives us another desirable
property in Physics: if a given transformation is continuous and its inverse exist, this inverse transformation is
also continuous.
Let us now turn to projectors on Banach spaces. For general vector spaces projectors are defined as idempotent
linear transformations. For Banach spaces we will required an additional structure which is continuity
The consequences of the additional structure of continuity for projectors in Banach spaces are of particular
interest in quantum mechanics
Theorem 1.13 If P is a projection on a Banach space B, and if M and N are its range and null space. Then
M and N are closed subspaces of B such that B = M ⊕ N
Theorem 1.14 Let B be a banach space and let M and N be closed subspaces of B such that B = M ⊕ N . If
z = x + y is the unique representation of a vector z in B with x in M and y in N . Then the mapping P defined
by P (z) = x is a projection on B whose range and null space are M and N respectively.
These properties are interesting in the sense that the subspaces generated by projectors are closed subspaces
of a complete space, and then they are complete by themselves. We have already said that dealing with complete
subspaces is particularly important in quantum mechanics.
There is an important limitation with Banach spaces. If a closed subspace M is given, though we can always
find many subspaces N such that B = M ⊕ N there is not guarantee that any of them be closed. So there is not
guarantee that M alone generates a projection in our present sense. The solution of this inconvenience is another
motivation to endow B with an additional structure (inner product).
Finally, the definition of the conjugate N ∗ of a normed linear space N , induces to associate to each operator
in the normed linear space N and operator on N ∗ in the following way. Let us form a complex number c0 with
three objects, an operator T on N , a functional f on N and an element x ∈ N , we take this procedure: we map
x in T (x) and then map this new element of N into the scalar c0 through the functional f
x → T (x) → f (T (x)) = c0
Now we get the same number with other set of three objects an operator T ∗ on N ∗ , a functional f on N (the
same functional of the previous procedure) and an element x ∈ N (the same element stated before), the steps are
now the following, we start with the functional f in N ∗ and map it into another functional through T ∗ , then we
apply this new functional to the element x and produce the number c0 . Schematically it is
f → T ∗ (f ) → [T ∗ (f )] (x) = c0
with this we are defining an apropiate mapping f ′ such that f ′ (x) gives our number. In turn it induces an operator
on N ∗ that maps f in f ′ and this is the newly defined operator T ∗ on N ∗ . In summary this definition reads
kT ∗ k = sup {kT ∗ (f )k : kf k ≤ 1}
since linear operations are preserved the mapping T → T ∗ is an isometric isomorphism. However, the product
is reversed under the mappping, this shows that the spaces ß(T ) and ß(T ∗ ) are equivalent as metric and vector
spaces but they are not equivalent as algebras (the spaces are not isomorphic as algebras).
the dot product is a good mathematical tool for many purposes in solid analytic geometry. If we accept the
statement that the zero vector is orthogonal to every vector we can say that the dot product is null if and only if
both vectors are orthogonal. Let {vi } be a given basis (not necessarily orthonormal) of R3 ; any two vectors in R3
are expressed in the form
x = αi vi ; y = βj vj (1.16)
the dot product and the norm of these two vectors can be written
These expressions can be in general complicated. Notice that these and other algebraic operations with dot
products become much easier when an orthonormal basis is used since in this case we have mij = δij so that
x · y = αi βi and x · x = αi αi . These facts put orthonormal basis in a privileged position among other bases.
Further, an attempt of extension of these ideas to C 3 permits to define the inner product in this space in the
following way, given the vectors (1.16) where α and β are complex we define
the conjugate on α appears to obtain the norm of a complex vectors with the inner product of such a vector with
itself, as can be seen by using an orthonormal basis in which mij = δij
the simplification above comes from the extension of the concept of orthogonality to complex vectors, they are
orthogonal if and only if (x, y) = 0.
In both the real and complex cases, the concept of orthogonality was very important not only because of the
geometry but also because of the algebra. We observe for instance, that no angle like the one in (1.15) can be
defined in the complex case, but the algebra of inner products continues being simple and useful. On the same
ground, we were able to talk about orthogonality in the complex case via the inner product and exploit the
advantages of orthonormal sets, although two vectors of the complex plane are not “perpendicular”.
28 CAPÍTULO 1. LINEAR OR VECTOR SPACES
In the same way, in abstract vector spaces is not so clear how to use the concept of orthogonality in a
geometrical way, but from the discussion above it is clear that the extension of the concept would represent great
simplifications from the algebraic sense. Notwithstanding, we shall see that the extension of the concept of inner
product will also provide some geometrical interpretations.
As always in mathematics, a natural extension should come from the extrapolation of the essential properties
of the concept in the restricted way, the inner product in the complex and real spaces has the following properties
Definition 1.17 A Hilbert space is a real or complex Banach space whose norm arises from an inner product,
which in turn is defined as a complex function (x, y) of the vectors x and y with the following properties
Definition 1.18 Two vectors x, y in a Hilbert space are said to be orthogonal if (x, y) = 0, we denote it as x ⊥ y.
A vector is said to be normal or unitary if (x, x) = 1.
Eq. (1.17) is known as the Schwarz inequality. Eq. (1.18) is known as the paralelogram law because in plane
geometry it reduces to the theorem which says that the sum of the squares of the sides of a paralelogram equals
the sum of the squares of its diagonals. As well as its geometrical interpretation, this law says that only certain
Banach spaces can be converted into Hilbert spaces, only those normed complete spaces in which the norm obeys
the paralelogram law can become a Hilbert space. Further, if for a given norm, the paralelogram law is satisfied,
then Eq. (1.19), gives us the recipe to define an inner product from such a norm. Finally, for reasons easy to
visualize Eq. (1.20) is called the pithagorean theorem.
As a matter of illustration let us prove the paralelogram law Eq. (1.18)
A vector x is said to be orthogonal to a non empty set S, if x ⊥ y for all y ∈ S. The orthogonal complement
of S is the set of all vectors orthogonal to S, it is denoted as S ⊥ . Two non empty sets M and N are orthogonal
if x ⊥ y for all x ∈ M and for all y ∈ N ; this is denoted as M ⊥ N . If M is a closed vector subspace of H then
M ⊥ is also closed. The following theorems are important for physical purposes
Theorem 1.15 If M and N are closed vector subspaces of a Hilbert space H such that M ⊥ N , then the linear
subspace M + N is also closed
Thus we see that the expansion of the union of closed subspaces preserves the closure property and so the
completeness property too. In addition, theorem 1.16 says that given a closed subspace of H we can always find
a closed subspace to generate H by direct sum. Besides, the closed space that makes the work is the orthogonal
complement. It means that for any given closed subspace M we can define a projection with range M and null
space M ⊥ . Contrast this with the problem arising in Banach spaces in which we cannot guarantee the closure of
the complementary space.
Theorem 1.17 Let {e1 , .., en } be a finite orthonormal set in H. If x is a vector in H we have
n
X
|(ei , x)|2 ≤ kxk2 (1.21)
i=1
n
X
x− (ei , x) ei ⊥ ej ; j = 1, .., n (1.22)
i=1
We can give the following interpretation of this theorem: Eq. (1.21) says that the sum of the components of a
vector in the various orthogonal directions defined by the ortonormal set, cannot exceed the length of the vector.
Similarly, Eq. (1.22) says that if we substract from a vector its components in several perpendicular directions the
resultant has no components left in those directions.
The following theorem shows that the coefficients obtained for a given vector from an orthonormal set are not
arbitrary
Theorem
n 1.18 Ifo {ei } is an orthonormal set in a Hilbert space H, and if x is any vector in H, the set S =
ei : |(ei , x)|2 6= 0 is either empty or countable.
These results permit to extend theorem 1.17 for arbitrary orthonormal sets
Definition 1.19 An orthonormal set in H is said to be complete if it is maximal, that is, if it is impossible to
add an element e to the set while preserving the orthonormality in the new set.
Theorem 1.20 Every orthonormal set in a Hilbert space is contained in a complete orthonormal set
Theorem 1.21 Every non-zero Hilbert space contains a complete orthonormal set
30 CAPÍTULO 1. LINEAR OR VECTOR SPACES
Theorem 1.23 Let H be a Hilbert space and {ei } an orthonormal set in H. The following conditions are equi-
valent to one another
This is perhaps the most important theorem in terms of applications in Physics, and in particular quantum
mechanics. It is convenient to discuss some terminology related with it. The numbers (x, ei ) are called the Fourier
coeeficients of x and Eq. (1.27) is its Fourier expansion. Eq. (1.28) is called Parseval’s equation. All these equations
refer to a given complete orthonormal set.
This sequence of theorems are similar to the ones explained in the general theory of vector spaces in which
complete orthonormal sets replaced the concept of bases, and fourier expansions replaced linear combinations.
It is clear that for finite dimensional spaces Fourier expansions become linear combinations. On the other
hand, since orthonormal sets are linearly independent (Theorem 1.22), it is easy to see that in the case of finite
dimensional spaces complete orthonormal sets are linearly independent sets that generate any vector by linear
combinations. Hence, complete orthonormal sets are bases.
For infinite dimensional spaces there is a different story. If we remember that linear combinations are finite by
definition, we see that in this case Fourier expansions are not linear combinations. For a given linearly independent
set to be a basis, it is necessary for any vector of the space to be written as a linear combination of such a set,
basis certainly exists for Hilbert spaces according to theorem 1.3 but complete orthonormal sets are NOT bases
in the sense defined for the general theory of vector spaces.
Moreover theorem 1.18 shows that the Fourier expansion given in Eq. (1.27) is always countable, this is a
remarkable result because it means that the fourier expansion for a given complete orthonormal set is always a
series, even if the cardinality of the complete orthonormal set is higher than the aleph (cardinality of the integers).
The informal discussion above can be formally proved to produce the following statement
Theorem 1.24 A Hilbert space is finite dimensional if and only if every complete orthonormal set is a basis.
However, owing to the analogy between bases and complete orthonormal sets the following theorem is quite
expected
Theorem 1.25 Any two complete orthonormal sets of a given Hilbert space have the same cardinality.
Definition 1.20 The orthogonal dimension of a Hilbert space H is the cardinality of any complete orthonormal
set in H.
It is important to keep in mind the difference between the dimension and the orthogonal dimension of a Hilbert
space of infinite dimension.
1.9. HILBERT SPACES 31
then fy is bounded and so continuous. Indeed it can be shown that |fy (x)| = kyk. We then have found an
algorithm to generate some functionals from the mapping
y → fy (1.30)
described above, this is a norm preserving mapping of H into H ∗ . However, it can be shown that indeed this is a
mapping of H onto H ∗ as stated in this
Theorem 1.26 Let H be a Hilbert space, and f an arbitrary functional in H ∗ . Then there exists a unique vector
y ∈ H such that
f (x) = (y, x) ∀x ∈ H
since the mapping (1.30) is norm preserving, we wonder whether it is linear, this is not the case because
fy1 +y2 (x) = (y1 + y2 , x) = (y1 , x) + (y2 , x) = fy1 (x) + fy2 (x)
fαy (x) = (αy, x) = α∗ (y, x) = α∗ fy (x)
such that
fy1 +y2 = fy1 + fy2 ; fαy = α∗ fy (1.31)
kfx − fy k = kfx−y k = kx − yk
Theorem 1.27 H ∗ is a Hilbert space with respect to the inner product defined by (fx , fy ) = (y, x).
32 CAPÍTULO 1. LINEAR OR VECTOR SPACES
and Eqs. (1.13, 1.14) says that T → T ∗ is an isometric isomorphism (as vector spaces) between the spaces of linear
operators on H and H ∗ . We shall see that the natural correspondence between H and H ∗ permits to induce in
turn an operator T † in H from the operator T ∗ in H ∗ . The procedure is the following: starting from a vector y in
H we map it into its corresponding functional fy , then we map fy by the operator T ∗ to get another functional
fz then we map this functional into its (unique) corresponding vector z in H the scheme reads
y → fy → T ∗ fy = fz → z (1.33)
the whole process is a mapping of y to z i.e. of H into itself. We shall write it as a single mapping of H into itself
in the form
y → z ≡ T †y
the operator T † induced in this way from T ∗ is called the adjoint operator. Its action can be understood in the
context of H only as we shall see. For every vector x ∈ H we use the definition of T ∗ Eq. (1.32) to write
we can see that Eq. (1.34) defines T † uniquely and we can take it as an alternative definition of the adjoint operator
associated with T . It can also be verified that T † is indeed an operator, i.e. that it is continuous and linear. We
can also prove the following
Theorem 1.28 The adjoint operation T → T † is a one-to-one onto mapping with these properties
†
(T1 + T2 )† = T1† + T2† , (αT )† = α∗ T † , T † = T
(T1 T2 )† = T2† T1† ;
T †
= kT k ;
T † T
=
T T †
= kT k2
0∗ = 0 , I ∗ = I (1.35)
†
Notice for instance that T † = T implies that
(T y, x) = y, T † x ∀x, y ∈ H (1.36)
[T1 , T2 ] ≡ T1 T2 − T2 T1
There are two reasons to study normal operators (a) From the mathematical point of view they are the most
general type of operators for which a simple structure theory is possible. (b) they contain as special cases the most
important operators in Physics: self-adjoint and unitary operators.
It is clear that if N is normal then αN is. Further, the limit N of any convergent sequence of normal operators
{Nk } is also normal
†
† †
†
N N † − N † N
≤
N N † − Nk Nk
+
Nk Nk − Nk Nk
+
Nk Nk − N † N
=
N N † − Nk Nk†
+
Nk† Nk − N † N
→ 0
Theorem 1.29 The set of all normal operators on H is a closed subset of ß(H) that is closed under scalar
multiplication
It is natural to wonder whether the sum and product of normal operators is normal. They are not, but we can
establish some conditions for these closure relations to occur
Theorem 1.30 If N1 and N2 are normal operators on H with the property that either commutes with the adjoint
of the other, then N1 + N2 and N1 N2 are normal.
34 CAPÍTULO 1. LINEAR OR VECTOR SPACES
The following are useful properties for the sake of calculations in quantum mechanics
Theorem 1.31 An operator N on H is normal ⇔ kN xk =
N † x
∀x ∈ H
Theorem 1.32 If N is a normal operator on H then
N 2
= kN k2
Theorem 1.33 The self-adjoint operators in ß(H) are a closed real linear subspace of ß(H) and therefore a real
Banach space which contains the identity transformation
Unfortunately, the product of self-adjoint operators is not necessarily self-adjoint hence they do not form an
algebra. The only statement in that sense is the following
Theorem 1.34 If T1 , T2 are self-adjoint operators on H, their product is self-adjoint if and only if [T1 , T2 ] = 0
It can be easily proved that T = 0 ⇔ (x, T y) = 0 ∀x, y ∈ H. It can be seen also that
It should be emphasized that the proof makes explicit use of the fact that the scalars are complex numbers
and not merely the real system.
The following theorem shows that the analogy between self-adjoint operators and real numbers goes beyond
the simple analogy from which the former arise
Theorem 1.37 A positive operator on H is a self-adjoint operator such that (x, T x) ≥ 0, ∀x ∈ H. Further, if
(x, T x) ≥ 0, and (x, T x) = 0 ⇔ x = 0 we say that the operator is positive-definite.
1.12. UNITARY OPERATORS 35
It is clear that the following operators are positive: 0, I, T T † , T † T note also that all the analoguous elements
in the complex plane are non-negative numbers 0, 1, zz ∗ = z ∗ z = |z|2 .
Continuing the analogy between ß(H) and the algebra of complex numbers, we can see that a complex number
can be written as its real and imaginary parts in the form
z + z∗ z − z∗
z = a1 + ia2 ; a1 ≡ , a2 ≡
2 2i
in a similar way we can decompose an arbitrary operator T on H in the form
T + T† T − T†
T = A1 + iA2 ; A1 ≡ ; A2 ≡ (1.43)
2 2i
it is clear that A1 and A2 are self-adjoint so they can be called the “real” and “imaginary” components of the
T operator. If T is self-adjoint its imaginary part is zero as expected. We can see that it is precisely because of
the non commutativity of the self-adjoint operators that non-normal operators exist
Theorem 1.39 If T is an operator on H it is normal ⇔ its real and imaginary parts commute
Unitary operators are thus the analogues of complex numbers of unitary absolute value. In words, unitary
operators are those non-singular operators whose inverses equal their adjoints, they are thus mappings of H onto
itself. The geometric significance of these operators can be clarified with the following theorem
Theorem 1.40 If T is an operator on H, the following conditions are equivalent to one another
T †T = I (1.44)
(T x, T y) = (x, y) ∀x, y ∈ H (1.45)
kT (x)k = kxk ∀x ∈ H (1.46)
In general an operator T with any of the properties (1.44-1.46), is an isometric isomorphism of H into itself,
since T preserves linear operations, as well as the inner product and the norm (and thus the metric). For finite-
dimensional spaces any of them are necessary and sufficient conditions for T to be unitary. Nevertheless, this is
not the case when we treat with infinite-dimensional spaces, let us see an example: consider the operator T in C ∞
given by
T {x1 , x2 , ...} = {0, x1 , x2 , ...}
which preserves norms but has no inverse. The point is that this is an isometric isomorphism into H but not onto
H (the image does not contain any element of C ∞ with a non-null first component). So in the case of infinite
dimension, the condition to be onto must be added to the conditions (1.44-1.45) for an operator to be unitary.
In words, unitary operators are those one-to-one and onto operators that preserve all structure relevant for a
Hilbert space: linear operations, inner products, norm and metric.
In practice, unitary operators usually appear in Physics as operations that keep the norm of the vectors
unaltered (like rotations in ordinary space), even this is usually the definition utilized in Physics books.
There is another theorem useful in the theory of representations for Hilbert spaces which is also used sometimes
as the definition
Theorem 1.42 An operator T on H is unitary ⇔ T {ei } is a complete orthonormal set whenever {ei } is.
Theorem 1.44 If P is a projection (with the definition given for Banach spaces) on H with range M and null
space N then M ⊥ N ⇔ P = P † and in this case N = M ⊥ .
A projection in which its range and null space are perpendicular is called an orthogonal projection. Indeed,
orthogonal projections are the only ones that are relevant in the theory of operators on Hilbert spaces, then we
shall redefine the concept of projection once again
Definition 1.23 A projection on a Hilbert space will be defined as an idempotent, continuous, and self-adjoint
linear transformation. If idempotent, continuous, non-self adjoint linear transformations are of some use, we call
them non-orthogonal projections.
The following facts are easy to show, 0 and I are projections and they are distinct if and only if H 6= {0}. P
is the projection on M ⇔ I − P is the projection on M ⊥ .
We can also see that
x ∈ M ⇔ P x = x ⇔ kP xk = kxk
it can also be seen that P is a positive operator and kP k ≤ 1.
Sometimes occur in Physics that a given operator T on H maps a proper subspace M of H into itself. The
following chain of definitions permits to study this kind of operators
Definition 1.24 Let T be an operator on H, and M a closed vector subspace of H. M is said to be invariant
under T if T (M ) ⊆ M .
In this case the restriction of T to M can be regarded as an operator of M into itself. A more interesting
situation occurs when M and M ⊥ are invariant under T
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 37
Definition 1.25 If both M and M ⊥ are invariant under T , we say that M reduces T or that T is reduced by M .
This situation invites us to study T by restricting its domain to M and M ⊥ . The projections provide the most
relevant information for these scenarios
Theorem 1.45 A closed vector subspace M is invariant under an operator T ⇔ M ⊥ is invariant under T †
Theorem 1.46 A closed vector subspace M reduces an operator T ⇔ M is invariant under both T and T †
Theorem 1.47 If P is the projection on a closed vector subspace M of H, M is invariant under an operator
T ⇔ TP = PTP
Theorem 1.49 If P and Q are projections on closed linear subspaces M and N then M ⊥ N ⇔ P Q = 0 ⇔
QP = 0
We wonder whether the sum of projections in our present sense is also a projection. This is the case only
under certain conditions
Theorem 1.50 If P1 , .., Pn are projections on closed subspaces M1 , .., Mn of a Hilbert space H, then the sum
P = P1 + .. + Pn is a projection ⇔the Pi′ s are pairwise orthogonal i.e. Pi Pj = δij Pi , in that case P is the projection
on M = M1 + .. + Mn .
x = xi ui (1.47)
The coefficients xi are called the coordinates of the vector x, relative to the ordered basis {ui }. Linear inde-
pendence ensures that the set of coordinates (x1 , .., xn ) is unique when the basis is ordered in a well-defined way.
Therefore, this set of coordinates provides a representation of the vector x with respect to the ordered basis {ui }.
A mapping T of V into itself, associates each vector x with another vector y in V
y = Tx
x = T −1 y
1
If the mapping is only one-to-one but not onto, the inverse still exist but restricted to the vector subspace in which all the vectors
x ∈ V are mapped.
38 CAPÍTULO 1. LINEAR OR VECTOR SPACES
T (αx+βy) = αT x + βT y ∀x, y ∈ V
where α and β are complex numbers. The definition of T is intrinsic and does not depend on the particular basis
chosen for the vector space. Notwithstanding, for many practical purposes we define a representation of both
the vectors and operators in a basis {ui }. In that case, we can describe the action of T by a transformation of
coordinates (in the same basis)
yi = Ti (x1 , x2 , . . . , xn ) i = 1, . . . , n
if Ti admits an inverse we get
xi = Ti−1 (y1 , y2 , . . . , yn ) i = 1, . . . , n
the necessary and sufficient condition for the existence of the inverse is that the jacobian J ≡ ∂Ti /∂xj be different
from zero.
On the other hand, if we assume that T is a linear transformation we can write
y = T x = T (xi ui ) = xi T ui (1.48)
Eq. (1.48) says that y is a linear combination of the vectors T ui , and the coefficients of the combination
(coordinates) coincide with the coordinates of x in the basis ui . The vectors T ui must be linear combinations of
{uj } and we denote the coefficients of these linear combinations as Tji
vi ≡ T ui = uj Tji (1.49)
the real or complex coefficients Tji can be organized in a square arrangement of the form
T11 T12 · · · T1n
T21 T22 · · · T2n
T≡ . .. ..
.. . ··· .
Tn1 Tn2 · · · Tnn
this square arrangement symbolized as T is called the matrix representative of the linear transformation T relative
to the ordered basis {ui }. Substituting in Eq. (1.48)
yj uj = uj Tji xi
the last equality appears in matrix notation where T is the matrix representative of the linear operator T in the
ordered basis ui . Similarly, x and y are the coordinate representatives of the intrinsic vectors in the same ordered
basis. Eq. (1.49) shows clearly how to construct the matrix T, i.e. applying the operator to each vector in the
basis, and writing the new vectors as linear combinations of the basis. The coefficient of the i − th new vector
associated to the j − th element of the basis gives the element Tji in the associated matrix. Observe that for a
matrix representative to be possible, the linearity was fundamental in the procedure.
On the other hand, since we are looking for an isomorphism among linear transformations on V and the set
of matrices (as an algebra), we should define linear operations and product of matrices in such a way that these
operations are preserved in the algebra of linear transformations. In other words, if we denote by [T ] the matrix
representative of T in a given ordered basis we should find operations with matrices such that
we examine first the product by a scalar, according to the definition (1.7) we have
T T −1 = T −1 T = I
since the representation of the identity is always [I]ij = δij , the corresponding matrix representation of this
equation is
[T ]ik T −1 kj = T −1 ik [T ]kj = δij (1.51)
this equation can be considered as the definition of the inverse of a matrix if it exists. A natural definition is then
40 CAPÍTULO 1. LINEAR OR VECTOR SPACES
Definition 1.26 A matrix which does not admit an inverse is called a singular matrix. Otherwise, we call it a
non-singular matrix.
Since T −1 is unique, the corresponding matrix is also unique, so the inverse of a matrix is unique when it exists.
A necessary and sufficient condition for a matrix to have an inverse is that its determinant must be non-zero.
The algebra of matrices of dimension n × n is called the total matrix algebra An , the preceding discussion can
be summarized in the following
Theorem 1.51 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, the mapping T → [T ]
which assigns to every linear transformation on V its matrix relative to B, is an isomorphism of the algebra of
the set of all linear transformations on V onto the total matrix algebra An .
Theorem 1.52 if B = {u1 , .., un } is an ordered basis of a vector space V of dimension n, and T a linear
−1 whose matrix relative to B is [aij ]. Then T is non-singular ⇔ [aij ] is non-singular and in this case
transformation
−1
[aij ] = T .
u′ = Au (1.54)
the new set {u′i } is a basis if and only if the matrix A is non-singular. Any vector x can be written in both bases
where ãij ≡ aji indicates the transpose of the matrix A. In matrix form we have
′
u′ = Au , x = Ãx (1.56)
x′ = Ã−1 x (1.57)
1.14. THEORY OF REPRESENTATIONS IN FINITE-DIMENSIONAL VECTOR SPACES 41
observe that if the original basis transform to the new one by a non-singular matrix A (Eq. 1.54), the original
coordinates transform to the new ones by the matrix Ã−1 (Eq. 1.57). It is easy to show that Ã−1 = Ag e
−1 then A
is non-singular if and only if A is non-singular. Hence Eq. (1.57) makes sense whenever A is non-singular.
Defining the transpose of a column matrix as
x̃ = (x1 , x2 , . . . , xn )
y = Tx (1.58)
y and x denote here intrinsic vectors while y, x are their representation in coordinates under a given ordered basis.
Starting with the ordered basis {ui } we write equation (1.58) in matrix form
y = Tx (1.59)
for any other ordered basis {u′i } the matrix and coordinate representatives are different and we write them as
y′ = T′ x′ (1.60)
we remark that Eqs. (1.59) and (1.60) represents the same intrinsic Equation (1.58).
Since we know the relation between the coordinate representatives given by Eq. (1.57), our goal here is to
know the relation between the matrix representatives of T . Using Eq. (1.57) we find
−1 −1 −1
y′ = Ã−1 y = Ã Tx = Ã TÃÃ x = Ã−1 TÃ Ã−1 x
y′ = T′ x′ (1.61)
Definition 1.27 The transform of a matrix A (also called a similarity transformation) by a non singular matrix
S, is defined as A′ = SAS−1 . The matrices A′ and A are said to be equivalent.
Eq. (1.62) shows that the new matrix representation of T (i.e. T′ ), is equivalent2 to the old matrix represen-
tation T, and the transform of T by Ã−1 is T′ .
2
Similarity transformations provides an equivalence relation between two matrices. Thus, the expression equivalent matrices becomes
logical. In addition, we see that T and T′ describe the same mathematical object (though in different bases), so that the term equivalence
acquires more sense in this context.
42 CAPÍTULO 1. LINEAR OR VECTOR SPACES
x′ = Sx, x = S −1 x′
For S −1 to be linear, it is necessary that V and V ′ be of the same dimensionality. If a linear operator T is defined
in V , then T and S induce a linear operator in V ′ in the following way let map x′ of V ′ into y′ of V ′ in the
following way
x′ → x = S −1 x′ → y = T x = T S −1 x′ → y′ = Sy = S T S −1 x′
or course, we can define a mapping T ′ of V ′ into itself that makes the work in a single step, thus
T ′ ≡ ST S −1 ; y′ = T ′ x′ (1.63)
The transformation given by (1.63) is also a similarity transformation. Although the transformations shown in
(1.62) and (1.63) resembles, they have fundamental differences. In (1.62) we are representing the same mathemati-
cal object by taking different bases, and is a matrix equation. By contrast, Eq. (1.63) expresses a relation between
two different mathematical transformations acting on different spaces3 , and the equation is intrinsic, independent
of the basis.
the definition of the inner product is intrinsic (basis independent). The norm of a vector is defined as kxk2 ≡ (x, x).
This in turn allows us to normalized the vectors, i.e. construct vectors with norm or “length” equal to one by the
rule
xi xi
ui = p = (1.64)
(x, x) kxik
such that (ui , ui ) = 1. Different inner products defined into the same vector space, lead to different Hilbert spaces.
Another important concept that arises from the inner product is that of orthogonality. An orthonormal set is a
set {xi } with xi ∈ H such that
(xi , xj ) = δij
The theory of representations of a finite dimensional Hilbert space is particularly simple if we realize that in finite
dimension, the Fourier expansion given by Eq. (1.27) becomes a linear combination, the series in (1.28) to calculate
the norm becomes a finite sum, and finally complete orthonormal sets become bases. These are the main ideas
that lead to the theory of representations in a Hilbert space
Our first goal is to find the way in which the coordinates of a given vector are obtained from the inner product.
We first see the form of the coordinates when the basis consists of a complete orthonormal basis. Rewriting the
Fourier expansion (1.27) in finite dimension and using sum over repeated indices we have
x = (ui , x) ui = xi ui
xi = (ui , x)
Let us now see how an arbitrary inner product can be calculated using an orthonormal basis
if the basis {vi } is not an orthonormal set, we can express the scalar product by determining the numbers
the properties of the inner product lead to mij = m∗ji . This numbers form a matrix that we shall call the metric
matrix. Defining (Aij )† ≡ A∗ji (the adjoint or hermitian conjugate of the matrix A) we find that m = m† , from
the definition of the adjoint matrix we see that (AB)† = B† A† . A matrix that coincides with its adjoint is called
self-adjoint or hermitian. The metric matrix is hermitian. We shall see now that knowing the metric matrix in a
certain basis, we can find any possible inner product
now we substract from x2 its component along u1 to obtain x2 − (u1 , x2 ) u1 and normalized it
x2 − (u1 , x2 ) u1
u2 =
kx2 − (u1 , x2 ) u1 k
it should be emphasized that x2 is not a scalar multiple of x1 so that the denominator above is non-zero. It is
clear that u2 is a linear combination of x1 , x2 and that x2 is a linear combination of u1 , u2 . Therefore, {u1 , u2 }
spans the same subspace as {x1 , x2 }. The next step is to substract from x3 its components in the directions u1
and u2 to get a vector orthogonal to u1 and u2 according with Eq. (1.24). Then we normalize the result and find
x3 − (u1 , x3 ) u1 − (u2 , x3 ) u2
u3 =
kx3 − (u1 , x3 ) u1 − (u2 , x3 ) u2 k
once again {u1 , u2 , u3 } spans the same subspace as {x1 , x2 , x3 }. Continuing this way we clearly obtain an ortho-
normal set {u1 , u2 , .., un , ...} with the stated properties.
Many important orthonormal sets arise from sequences of simple functions over which we apply the Gram-
Schmidt process
In the space L2 of square integrable functions associated with the interval [−1, 1], the functions xn (n =
0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the orthonormal
set of the Legendre Polynomials.
2
In the space L2 of square integrable functions associated with the entire real line, the functions xn e−x /2
(n = 0, 1, 2, ..) are linearly independent. Applying the Gram Schmidt procedure to this set we obtain the normalized
Hermite functions.
In the space L2 associated with the interval [0, +∞), the functions xn e−x (n = 0, 1, 2, ..) are linearly indepen-
dent. Orthonormalizing it we obtain the normalized Laguerre functions.
Each of these orthonormal sets described above can be shown to be complete in their corresponding Hilbert
spaces.
Eq. (1.69) gives the way to construct an element of the matrix representative of an operator T on H through the
inner product and using an orthonormal basis.
Now we turn to the problem of finding a relation between the matrix representative of an operator and the
matrix representative of its adjoint. If we have a linear operator T on a Hilbert space, another operator called its
adjoint and denoted as T † exists such that
(T x, y) = x, T † y ∀x, y ∈ V
the matrix representative of T † has a rather simple relation with the matrix representative of T when an ortho-
normal basis is used
(T (xi ui ) , yk uk ) = (xi T (ui ) , yk uk ) = x∗i yk (T ui , uk )
and using (1.49) we find
x∗i yk (uj Tji , uk ) = x∗i yk Tji∗ δjk = x∗i yk Tki
∗
= x∗i Teik
∗
yk
on the other hand we have
x, T † y = x∗i T † yk
ik
and taking into account that x and y are arbitrary, we have
T† = Teik
∗ e∗
⇒ T† = T (1.70)
ik
and so the matrix representative of T † is the conjugate transposed of the matrix representative of T . Once again,
it is important to emphasize that it is only valid in an orthonormal basis, it can easily be proved that for an
arbitrary basis described by the metric matrix m, the matrix representation of T † is m−1 T e ∗ m. Remembering
that an operator is hermitian or self-adjoint if it coincides with its adjoint operator (T = T † ) i.e. (T x, y) =
(x, T y) , ∀x, y ∈ V, we conclude that in an orthonormal basis, hermitian operators are represented by hermitian
matrices.
In particular, the form to calculate the norm described in (1.66), is usually taken for granted and it is easy to
forget that it only applies in orthonormal bases as we can see from (1.68). This is because the coordinates of a
vector with respect to {vi } are not given by Fourier coefficients of the form described in Eq. (1.27)
Now assume that we go from an orthonormal basis ui into another orthonormal basis u′i . We know from
theorem 1.42 that a linear operator is unitary if and only if it transforms a complete orthonormal set into another
complete orthonormal set, then if A is a unitary operator we have
δij = (Aui , Auj ) = u′i , u′j = (uk aki , um amj ) = a∗ki amj (uk , um ) = a∗ki amj δkm
δij = a∗ki akj = e
a∗ik akj
A† A = 1
now, if we demand for the matrix to be non-singular it must have a unique inverse such that
A† A = AA† = 1
therefore a matrix that transform an orthonormal basis into another orthonormal basis must satisfy
A† = A−1
by theorem 1.51 these matrices are associated with unitary operators as long as we use an orthonormal basis, thus
it is natural to call them unitary matrices.
46 CAPÍTULO 1. LINEAR OR VECTOR SPACES
a for the conjugate matrix (in which we conjugate each of its elements) we get
Additionally it can be demostrated that the determinant of the product is the product of the determinants
so that −1
A = |A|−1 (1.74)
if any row or column is multiplied by a scalar α, the determinant is also multiplied by the scalar. For example in
three dimensions
α a11 α a12 α a13 a11 α a12 a13 a11 a12 a13
a21 a22 a23 = a21 α a22 a23 = α a21 a22 a23 (1.75)
a31 a32 a33 a31 α a32 a33 a31 a32 a33
in particular
|−A| = (−1)n |A| (1.77)
another important property is the trace of the matrix defined as the sum of its diagonal elements
T rA = aii (1.78)
in this way
T r [AB] = (AB)ii = aik bki = bki aik = (BA)kk = T r [BA]
it is important to see that the trace is cyclic invariant, i.e.
h i h i
T r A(1) A(2) . . . A(n−2) A(n−1) A(n) = T r A(n) A(1) A(2) . . . A(n−2) A(n−1)
h i
= T r A(n−1) A(n) A(1) A(2) . . . A(n−2) (1.80)
1.18. RECTANGULAR MATRICES 47
and taking into account that the indices (1) , (2) , ... are dummy, any cyclic change is posible. It worths saying that
property (1.79) does not mean that the matrices can be commuted to calculate the trace, for instance for three
or more matrices the trace is not the same for any order of the matrices, only cyclic changes are possible. In that
sense, we should interpret (1.79) as a cyclic change and not as a commutation.
But the most important properties of the traces and determinants is that they are invariant under a similarity
transformation
′
A = BAB−1 = |B| · |A| · B−1 = |B| · |A| · |B|−1
⇒ A′ = |A|
where we have used (1.73) and (1.74). Now for the invariance of the trace
n
′
−1
X X X X X
T rA = T r BAB = BAB−1 ii = bik akl b̄li = b̄li bik akl = δkl akl = akk = T rA
i=1 ikl ikl kl k
alternatively we can see it by using the cyclic invariance of the trace (see Eq. 1.80), such that
T r A′ = T r BAB−1 = T r B−1 BA = T rA
the invariance of determinants and traces under similarity transformations are facts of major importance because
all representations of a given linear transformation are related each other by similarity transformations. It means
that determinants and traces are intrinsic quantities that can be attributed to the linear transformations thus
Definition 1.28 We define the trace and the determinant of a given linear transformation of V into itself by
calculating the trace and determinant of the matrix representative of the linear transformation in any basis.
(A)ik = aik ; i = 1, . . . , m ; k = 1, . . . , n
the transpose of this matrix would have dimensions n × m. A column vector arrangement (from now on, we shall
call it simply a “vector”, though it is not neccesarily a vector in all the sense of the word) is a rectangular matrix
of dimension m × 1, its transpose (a row “vector”) is a rectangular matrix of dimensions 1 × m.
Now, it would be desirable to extrapolate the algorithm of square matrices composition to calculate products
of rectangular matrices
cij ≡ aik bkj
It is observed that this extrapolation of the matrix product to the case of rectangular matrices C = AB, can be
defined consistently only if the number of columns of A coincides with the number of rows of B.
In particular, the product of a column vector (m × 1 matrix) with a m × m matrix in the form xA cannot be
eA
defined. Nevertheless, the product of the transpose of the vector (row vector) and the matrix A in the form x
can be defined. In a similar fashion, the product Aex cannot be defined but Ax can. From these considerations
the quantities Ax and x eA correspond to a new column vector and a new row vector respectively.
From the dimensions of the rectangular matrices we see that
and the product AB is defined. However, their transposes can only be multiplied in the opposite order, i.e. in the
e A.
order B e Indeed, it is easy to prove that, as in the case of square matrices, the transpose of a product is the
product of the transpose of each matrix in the product, but with the product in the opposite order. Applying this
property it can be seen that
] =x
(Ax) eAe ; ]
(e
xA) = Axe
where we have taken into account that the transpose of the transpose is the original matrix.
T x = λx (1.81)
a non-zero vector x such that Eq. (1.81) holds, is called an eigenvector of T , and the corresponding scalar λ is
called an eigenvalue of T . Each eigenvalue has one or more eigenvectors associated with it and to each eigenvector
corresponds a unique eigenvalue.
Let us assume for a moment that the set of eigenvalues for a given T is non-empty. For a given λ consider the
set M of all its eigenvectors together with the vector 0 (which is not an eigenvector), we denote this vectors as
(λ)
xi . M is a linear subspace of H, we see it by taking an arbitrary linear combination of vectors in M
(λ) (λ) (λ) (λ)
T αi xi = αi T xi = αi λxi = λ αi xi ⇒
(λ) (λ)
T αi xi = λ αi xi
such that a linear combination is also an eigenvector with the same eigenvalue. Indeed, for Hilbert spaces it can
be shown that M is a closed vector subspace of H. As any vector space, M has many basis and if H is finite
dimensional, complete orthonormal sets are basis. The dimension of M is thus the maximum number of linearly
independent eigenvectors associated with λ. M is called the vector eigenspace generated by the eigenvalue λ. This
discussion induces the following
Definition 1.29 A given eigenvalue λ in Eq. (1.81) is called n−fold degenerate if n is the dimension of the
eigenspace M of H generated by λ. In other words, n is the maximum number of linearly independent eigenvectors
of λ. If n = 1 we say that λ is non-degenerate.
Even for non-degenerate eigenvalues we always have an infinite number of eigenvectors, for if x(λ) is an eigen-
vector, then αx(λ) is also an eigenvector for any scalar α. Eq. (1.81) can be written equivalently as
(T − λI) x = 0 (1.82)
1.19. THE EIGENVALUE PROBLEM 49
is an operator on a Hilbert space that has no eigenvalues. We confront then the problem of characterizing the type
of operators that admit eigenvalues. In the finite dimensional case, we shall see that the theory of representations
and the fundamental theorem of algebra ensures the existence of eigenvalues for an arbitrary operator.
Tx = λx (1.83)
which is the eigenvalue equation associated with the matrix. The idea is trying to solve for the eigenvalues and
eigenvectors in a given representation. The values λ are in general complex. According with our previous discussion
the eigenvalue is the “dilatation”or “contraction” factor, if it is a negative real number it “inverts the sense of the
arrow”. Let us rewrite the eigenvalue equation as
(T − λ1) x = 0 (1.84)
for simplicity we shall use n = 3 but the arguments are valid for arbitrary finite dimensions. In three dimensions
the explicit form of (1.84) becomes
This set of homogeneous equations for X1 , X2 , X3 has non trivial solution only if the determinant of the system
is null, therefore
T11 − λ T12 T13
|T − λ1| = T21 T22 − λ T23 = 0 (1.86)
T31 T32 T33 − λ
this condition is known as the secular or characteristic equation of the matrix. The variables to be found are
the eigenvalues λ associated with the matrix. It worths saying that even if non-trivial solutions exist, the set of
homogeneous equations (1.85) do not give us definite values for all the components of the eigenvectors but only
for the quotient among these components. This can be understood either from algebraic or geometric arguments.
From the algebraic point of view, it is related with the fact that the product of the eigenvector x with any
scalar is also an eigenvector, this can be seen inmediately from (1.84)5 . Geometrically, this implies that only the
“direction” of the eigenvector is determined but not its “length” neither its “sense”. This is particularly apparent
in three dimensions. Since T represents a linear transformation, it is clear that if T preserves the direction of x
i.e. Tx = λx it also preserves the “direction” of the vector αx for α arbitrary.
When the determinant (1.86) is expanded, we observe that the solution of the secular equation reduces to
finding the roots of a polynomial of n degree. Appealing to the fundamental theorem of algebra we always have
exactly n complex roots, some of them could be repeated so that we could have fewer than n distinct roots. In
5
Alternatively, this can be seen form the fact that the secular equation only has non-trivial solution when one or more of the
equations is linearly dependent with the others. In such a case there are more variables than equations and hence an infinite number
of solutions.
50 CAPÍTULO 1. LINEAR OR VECTOR SPACES
general we can construct no more than n linearly independent vectors xk each one associated with an eigenvalue
λk . By now, the set of eigenvalues are associated to a matrix, but in order to associate it to its corresponding
operator, we should be sure that the set of eigenvalues is the same for any representation of the operator i.e. that
all equivalent matrices have the same set of eigenvalues
Theorem 1.53 If two n × n matrices are equivalent i.e. T ′ = ST S −1 then both have the same set of eigenvalues.
In summary, the fundamental theorem of Algebra together with the intrinsic meaning of the set of eigenvalues,
solves the problem of the existence of eigenvalues for linear transformations on finite-dimensional vector spaces.
Definition 1.30 The set of eigenvalues of T is called its spectrum and is denoted by σ (T ).
Theorem 1.54 If T is an arbitrary linear transformation on a finite dimensional complex vector space, the
spectrum of T constitute a non-empty finite subset of the complex plane. The number of elements in this subset
does not exceed the dimension n of the space.
Some other important theorems related with the set of eigenvalues are the following
More information about the spectral resolution of some types of operators in a Hilbert space will be given by
means of the spectral theorem. By now, we turn to the problem of the sets of eigenvectors and its relation with
the canonical problem of matrices.
Eqs. (1.84) are written for each eigenvalue λk and its corresponding eigenvector Xk in the form
writing Eqs. (1.89) in components with respect to the basis {ui } we get (for n dimensions)
n
X
Tij Xjk = λk Xik ⇒
j=1
Xn n
X
Tij Xjk = Xij δjk λk (1.90)
j=1 j=1
in the two previous equations there is no sum over the repeated index k. The Xjk element is the j−th component
of the Xk vector. Now, the quantity δjk λk can be associated with a diagonal matrix, in three dimensions this
matrix is written as
λ1 0 0
λ ≡ 0 λ2 0 (1.91)
0 0 λ3
in matrix form Eq. (1.90) reads
TX = Xλ
multiplying on left by X−1 we find
X−1 TX = λ (1.92)
it corresponds to a similarity transformation acting on T. Note that the matrix X built from the eigenvectors is
the transformation matrix (comparing with 1.87 we have X ≡ A). e We see then that matrix T is diagonalized by
X by means of a similarity transformation and the elements of the diagonal correspond to the eigenvalues (λk
associated with the column vector Xk of the matrix X in Eq. 1.88). When there are some degenerate eigenvalues
i.e. some of them acquire the same value, it is not always possible to diagonalize the matrix T. It is because in
that case, the eigenvectors that form the matrix X are not necessarily linearly independent. If any given column
vector of the matrix is linearly dependent with the others, the determinant of X is zero and X−1 does not exist.
On the other hand, when diagonalization is possible, the determinant and the trace of T can be calculated
taking into account that such quantities are invariant under a similarity transformation, therefore
det T = det X−1 TX = det λ = λ1 λ2 . . . λn (1.93)
T rT = T r X−1 TX = T rλ = λ1 + λ2 + . . . + λn (1.94)
so that the determinant and the trace of a diagonalizable matrix are simply the product and sum of its eigenvalues
respectively.
In summary, a canonical form of a given matrix can be obtained as long as the eigenvectors of the matrix form
a basis, the question is now open for the conditions for the eigenvectors to form a basis, and this is part of the
program of the spectral theorem.
The assertion I) means that any vector x ∈ H can be expressed uniquely in the form
x = x1 + .. + xm ; xi ∈ Mi ; (xi , xj ) = 0 f or i 6= j (1.95)
applying T on both sides and using linearity
T x = T x1 + .. + T xm = λ1 x1 + .. + λm xm (1.96)
this shows the action of T on each element of H in an apparent pattern from the geometrical point of view. It is
convenient to write it in terms of projections on each Mi . Taking into account that Mj ⊆ Mi⊥ for each i and for
every j 6= i we obtain from Eq. (1.95) that
Pi x = xi
from which it follows
Ix = x = x1 + .. + xm = P1 x + .. + Pm x
Ix = (P1 + .. + Pm ) x ; ∀x ∈ H
therefore
m
X
I= Pi (1.97)
i=1
and relation (1.96) gives
T x = λ1 x1 + .. + λm xm = λ1 P1 x + .. + λm Pm x
T x = (λ1 P1 + .. + λm Pm ) x ; ∀x ∈ H
hence
m
X
T = λi Pi (1.98)
i=1
Eq. (1.98) is called the spectral resolution of the operator T . In this resolution it is to be understood that all the
λ′i s are distinct and that the Pi′ s are non-zero projections which are pairwise orthogonal and satisfy condition
(1.97). It can be shown that the spectral resolution is unique when it exists.
Now, we look for the conditions that the operator must satisfies to be decomposed as Eq. (1.98). From Eq.
(1.98) we see that
T † = λ∗1 P1 + . . . + λ∗m Pm (1.99)
and multiplying (1.98) with (1.99) and using the fact that the Pi′ s are pairwise orthogonal we have
m
! m ! m X m m X m
X X X X
† ∗
TT = λi Pi λk Pk = λi λ∗k Pi Pk = λi λ∗k Pi2 δik
i=1 k=1 i=1 k=1 i=1 k=1
m
X
TT† = |λk |2 Pk (1.100)
k=1
Theorem 1.61 If T is normal, two eigenvectors of T corresponding to different eigenvalues are orthogonal. In
particular this is valid for self-adjoint and unitary operators.
Assume that T = T † , since for a given eigenvector x there is a unique eigenvalue λ we see from theorem 1.57
that λ = λ∗ so the corresponding eigenvalues are real. Now assume for a normal operator T that σ (T ) is a subset
of the real line, using the spectral resolution of T † Eq. (1.99) we find
T † = λ∗1 P1 + . . . + λ∗m Pm = λ1 P1 + . . . + λm Pm = T
Theorem 1.62 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{λ1 , .., λm }, then T is self-adjoint ⇔each λi is real.
It is important to emphasize that the hypothesis of real eigenvalues leads to the self-adjointness of the operator
only if normality is part of the hypothesis (because of the use of the spectral thoerem). It does not discard the
possibility of having non-normal operators with real spectrum, in that case such operators would not be self-
adjoint. In addition, it worths remembering that self-adjoint operators where constructed as the analogous of “the
real line subset” in the algebra of operators. So the fact that its eigenvalues are all real is a quite expected result.
An special type of self-adjoint operators are the positive operators for which
(x, T x) ≥ 0 ∀x ∈ H (1.102)
on the other hand, by assuming that a normal operator T has a real non-negative spectrum we obtain
n
! n n
! n X n n X
n
X X X X X
(x, T x) = x, λi Pi x = xk , λi xi = λi (xk , xi ) = λi δki kxk k2
i=1 k=1 i=1 k=1 i=1 k=1 i=1
n
X
(x, T x) = λk kxk k2 ≥ 0
k=1
Theorem 1.63 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{λ1 , .., λm }, then T is positive ⇔ λi ≥ 0.
Now, for a normal operator T , a necessary and sufficient condition for T to be unitary is that T † T = I (in
finite dimension it is not necessary to show that T T † = I) using Eqs. (1.97, 1.100) the condition for unitarity is
m
X m
X m
X
T †T = I ⇒ |λk |2 Pk = I ⇒ |λk |2 Pk = Pk
k=1 k=1 k=1
m
X m
X
|λk |2 Pk Pi = Pk Pi ⇒ |λi |2 Pi2 = Pi2 ⇒ |λi |2 Pi = Pi
k=1 k=1
so that |λi | = 1. This procedure also shows that if T is a normal operator in which |λi | = 1 for each i, then
T T † = I and T is unitary, then we have
Theorem 1.64 Let T be a normal operator on a Hilbert space of finite dimension H with distinct eigenvalues
{λ1 , .., λm }, then T is unitary ⇔ |λi | = 1 for each i.
Now, remembering that unitary operators where constructed as the analogous of “the unitary circle subset”
in the algebra of operators, the fact that its eigenvalues lie in the unitary circle of the complex plane is pretty
natural.
Now we are prepared to discuss the canonical problem for normal matrices. We denote ni the dimension of
each eigenspace Mi it is clear that
n1 + n2 + ... + nm = n
Mi contains
i ni ilinearly
independent vectors xi1 , .., xini that can be orthonormalized by a Gram Schmidt process
to say u1 , .., uni . If we do this for each Mi the set form by the union of these orthonormal sets
i
{u} ≡ ∪m i
i=1 u1 , .., uni
is clearly an orthonormal set because all vectors corresponding with different Mi′ s are orthogonal according to
theorem 1.58. In addition, since the Mi′ s span H according to theorem 1.60 this orthonormal set is complete and
hence a basis. Therefore, for any normal operator T of H we can always form an orthonormal complete set of
eigenvectors. If we use this orthonormal complete eigenvectors to form the matrix of diagonalization Eq. (1.88) we
see that the matrix obtained is a unitary matrix, it is clear that for this matrices the inverse always exists since
λi 6= 0 for each i and therefore the diagonalization can be carried out. Then we have the following
Theorem 1.65 The diagonalization of a normal matrix T can be performed by a similarity transformation of the
form T′ = U TU−1 where U is a unitary matrix.
This is of particular interest because it means that given a matrix representative of T in a basis consisting of
a complete orthonormal set, there exists another complete orthonormal set for which the matrix representative
1.20. NORMAL OPERATORS AND THE SPECTRAL THEOREM 55
acquires its canonical form. Further, it is easy to see that the canonical form of a normal matrix is given by
λ1
..
.
λ
1
λ2
..
.
λ2
. ..
λm
. .
.
λm
where the elements out of the diagonal are zero and each λi is repeated ni times (λi is ni −fold degenerate). It is
easily seen that the matrix representation of Pi in this orthonormal basis is
0n1 ×n1 0 0
1n1 ×n1 0 0 0
P1 = ; P2 = 0 1n2 ×n2 0 ; Pm =
0 0 0 1nm ×nm
0 0 0
and the matrix representation of the spectral decomposition becomes clear.
since the eigenvalues are real we can order them in a natural way in the form λ1 < λ2 < .. < λm and we use the
Pi′ s to define new projections
Pλ0 = 0
Pλ1 = P1
Pλ2 = P1 + P2
....
Pλm = P1 + ... + Pm = I
A = λ1 P1 + λ2 P2 + ... + λm Pm
= λ1 (Pλ1 − Pλ0 ) + λ2 (Pλ2 − Pλ1 ) + ... + λm Pλm − Pλm−1
Xm
A = λi Pλi − Pλi−1
i=1
if we define
∆Pλi ≡ Pλi − Pλi−1
56 CAPÍTULO 1. LINEAR OR VECTOR SPACES
in this form, the spectral decomposition of a self-adjoint operator is valid for infinite dimensional Hilbert spaces.
For normal operators we have a similar pattern
Z
N= λ dPλ (1.104)
The first problem to carry out this generalization is that an operator on H need not have eigenvalues at all.
In this general case the spectrum of T is defined as
σ (T ) = {λ : T − λI is singular}
when H is finite dimensional, σ (T ) consists entirely of eigenvalues. In the infinite dimensional case we only can
say that σ (T ) is non-empty, closed and bounded. Once this difficulty is overcome we should give a precise meaning
to the integrals (1.103, 1.104) and prove the validity of those relations. We shall see later that an extension of the
spectral theorem in its present form to infinite dimensions is obtained by using the concept of observable.
It worths emphasizing that the existence of eigenvalues in the finite dimensional case came from the fundamen-
tal theorem of algebra, which in turn came from the fact that the characteristic equation of a finite dimensional
matrix is a polynomial equation. An extension to infinite dimension clearly does not lead to a polynomial equation.
1 1 1
u1 ≡ √ (1, 1, 1) ; u2 ≡ √ (4, −1, −3) ; u3 = √ (−2, 7, −5)
3 26 78
to generate all vector of the XY plane. The coordinates of ui are written with respect to the ordinary cartesian
coordinates. Since these vectors generate R3 it is clear that they generate the XY plane which is a proper subset
of R3 . Notwithstanding, none of the vectors ui lies in the XY plane, all the elements of this “hyperbasis” are
outside of the vector space we pretend to expand. Further, any basis of XY has two elements while our hyperbasis
has three elements. Therefore, the cardinality of the hyperbasis is higher than the dimension of the space that
we shall study. For our purposes however, what really matters is that any vector in XY can be generated as a
linear combination of {u1 , u2 , u3 }. For instance, the vector x of the XY plane represented by (3, −2, 0) in ordinary
1.22. DEFINITION OF AN OBSERVABLE 57
note that in this case an element of the plane is given by a triple with respect to the hyperbasis, in this case
1 14 20
x= √ ,√ , − √
3 26 78
in quantum mechanics we shall use a similar strategy but for orthogonal dimensions instead of dimensions. The
Hilbert space L2 that concerns us is of infinite countable orthogonal dimension, but we shall use frequently
orthogonal basis of a bigger space with infinite continuous orthogonal dimension. Therefore, we shall expand the
vectors of L2 in terms of orthogonal hyperbases {vx } with continuous cardinality. In general, the elements vx of
the bigger space will be outside of L2 . However, as before a fourier expansion (instead of a linear combination)
will be possible with this hyperbasis.
Notice that for any cardinality of the orthogonal dimension of a Hilbert space, we see that the Fourier expansion
Eq. (1.27) is always a series. This is by virtue of theorem 1.18 that says that the non-zero fourier coefficients of
any vector are always countable, even if the complete orthonormal set belongs to a higher cardinality. However,
such a theorem is valid for complete orthonormal sets in which all the elements of the set lies in the space under
consideration. If we use a hyper orthonormal complete set the elements of this hyper orthogonal basis do not lie
on the space that we are expanding, thus theorem 1.18 does not necessarily hold. Consequently, when continuous
hyper orthonormal basis are used, we shall obtain integrals instead of series in our Fourier expansions. Does it
make any sense to replace series by integrals? it suffices to observe that it is in general easier to solve integrals in
a closed form than series in a closed form.
Definition 1.31 A given self-adjoint operator A on H is called an observable, if there exists a complete ortho-
normal set of eigenvectors of A.
Theorem 1.66 If two operators A and B commute and if x is an eigenvector of A, then Bx is also an eigenvector
of A with the same eigenvalue. If λ is non-degenerate x is also an eigenvector of B. If λ is n−fold degenerate, the
eigensubspace Mλ is invariant under B.
58 CAPÍTULO 1. LINEAR OR VECTOR SPACES
A (Bx) = λ (Bx)
which proves that Bx is an eigenvector of A with eigenvalue λ. Observe that if λ is non-degenerate all its eigen-
vectors are “colinear” hence Bx must be colinear with x i.e. Bx = cx and x is also an eigenvector of B.
On the other hand, if λ is n−fold degenerate, we can only say that Bx lies in the n dimensional eigensubspace
Mλ of A. In other words, if x ∈ Mλ then Bx ∈ Mλ
Another way to express the previous theorem is
Theorem 1.67 If two operators A and B commute, every eigensubspace of A is invariant under B.
Theorem 1.68 If two normal operators A and B commute, and if x1 , x2 are two eigenvectors of A with different
eigenvalues, then (x1 , Bx2 ) = 0.
By hypothesis we have
Ax1 = λ1 x1 ; Ax2 = λ2 x2
but from theorem 1.66 Bx2 is an eigenvector of A with eigenvalue λ2 . Now from theorem 1.61 since λ1 6= λ2 then
Bx2 is orthogonal to x1 and the theorem is proved.
The previous theorems do not use the concept of observable6 , but the following one does
Theorem 1.69 Let A and B be two observables in a Hilbert space H. Then A and B commute⇔one can construct
a complete orthonormal set in H with eigenvectors common to A and B.
Assume that A and B commute, we shall define the normalized eigenvectors of A as uin
where gn is the degree of degeneration of λn . For n 6= n′ the eigenvectors are orthogonal and for n = n′ and i 6= i′
we can always orthonormalized the vectors in each eigensubspace of A, so that
uin , ujk = δnk δij
let us write H as a decomposition of the eigenspaces of A (taking into account that A is an observable)
H = M1 ⊕ M2 ⊕ M3 ⊕ ...
there are two cases. For each one dimensional Mk (each non-degenerate λk ) all vectors in Mk are “colinear” and
they are also eigenvectors of B.
In the other case, gp > 1 then Mp is gp dimensional. We can only say that Mp is invariant under B. Consider
the restriction of A and B to the subspace Mp . Since the vectors uip in Mp are eigenvectors of A, the restriction
(p)
of A to Mp has a matrix representative Aij of the form
(p)
Aij = vpi , Avpj = vpi , λp vpj = λp vpi , vpj = λp δij
6
However, we assumed that the operators involved posses eigenvalues, and this fact cannot taken for granted in infinite dimensions.
1.23. COMPLETE SETS OF COMMUTING OBSERVABLES (C.S.C.O.) 59
thus the matrix representation of A(p) is λp I for any orthonormal set complete in Mp (not neccesarily the original).
Now let us see the matrix representative of the restriction B (p) of B on Mp , writing this representation in our
original orthonormal set
(p)
Bij = uip , Bujp
since B is a self-adjoint operator this matrix is self-adjoint, and according to theorem 1.65 they can always
be
diagonalized by a unitary transformation, which in turn means that there exists an orthonormal set vpi in Mp
for which the matrix representative of B (p) is diagonal, hence
(p) (p)
Bij = vpi , Bvpj = Bi δij
which means that the new orthonormal set complete in Mp consists of eigenvectors of B
(p)
Bvpi = Bi vpi
and since Mp contains only eigenvectors of A, it is clear that vpi is an orthonormal set complete in Mp that
are common eigenvectors of A and B. Proceeding in this way with all eigensubspaces of A with more than one
dimension, we obtain a complete orthonormal set in H in which the elements of the set are common eigenvectors
of A and B.
It is important to emphasize that for a given Mp the orthonormal set chosen a priori does not in general consist
of eigenvectors of B, but it is always possible to obtain another orthonormal set that are eigenvectors of B and
by definition they are also eigenvectors of A.
Now let us prove that if A and B are observables with a complete orthonormal set of common eigenvectors
then they commute. Let us denote the complete orthonormal set of common eigenvectors as uin,p then
therefore
[A, B] uin,p = 0
since uin,p form a complete orthonormal set, then [A, B] = 0.
It is also very simple to show that if A and B are commuting observables with eigenvalues an and bp and with
common eigenvectors uin,p then
C =A+B
is also an observable with eigenvectors uin,p and eigenvalues cn,p = an + bp .
Now we add a second observable B that commutes with A, and construct a complete orthonormal set common
to A and B. By definition, A and B constitutes a C.S.C.O. if the complete orthonormal set common to both is
unique (within constant phase factors for each of the vectors in the complete set). In other words, it means that
any pair of eigenvalues an , bp determines the associated common normalized eigenvector uniquely, except for a
phase factor.
In theorem 1.69 we constructed the complete orthonormal set common to A and B by solving the eigenvalue
equation of B within each eigensubspace defined by A. For A and B to constitute a C.S.C.O. it is necessary and
sufficient that within each Mn the gn eigenvalues of B be distinct7 . In this case, since all eigenvectors vni in each
(n)
Mn have the same eigenvalue an of A, they will be distinguished by the gn distinct eigenvalues bi associated with
these eigenvectors of B. Note that it is not necessary that the eigenvalues of B be non-degenerate, we can have
two (or more) equal eigenvalues of B associated with two (or more) distinct eigensubspaces Mn and Mk of A. We
only require not to have degeneration of the eigenvalues of B within a given eigensubspace Mn of A. Indeed, if B
were non-degenerate it would be a C.S.C.O. by itself.
On the other hand, if for at least one pair {an , bp } there exist two or more linearly independent eigenvectors
common to A and B they are not a C.S.C.O.. Let us add a third observable C that commutes with both A and
B, and proceeds as above. When to the pair {an , bp } corresponds only one eigenvector common to A and B, then
it is automatically an eigenvector of C as well. On the contrary, if the eigensubspace Mn,p is gn,p dimensional,
we can construct within it, an orthonormal set of eigenvectors of C. Proceeding in this way with each Mn,p we
can construct a complete orthonormal set with eigenvectors common to A, B, C. These three observables are a
C.S.C.O. if this complete orthonormal set is unique (except for multiplicative phase factors). Once again, if Mn,p
(n,p)
has the eigenvectors uin,p common to A and B this occurs if and only if all gn,p eigenvalues of C denoted as ck are
distinct. As before, C can be degenerate, but as long as degenerate eigenvalues are not repeated within a single
eigenspace Mn,p of A and B. Therefore, a given triple of eigenvalues {an , bp , ck } of A, B, C has a unique common
eigenvector within a multiplicative factor. If two or more linearly independent eigenvectors common to A, B, C
can be constructed for a given set {an , bp , ck }, we can add a fourth observable D that commute with those three
operators and so on.
Definition 1.32 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.)
if (i) All observables commute pairwise, (ii) specifying the set of eigenvalues {an , bp , ck , ..} of the observables
determines a unique (within phase factors) complete orthonormal set of eigenvectors common to all the observables.
Definition 1.33 A set of observables {A, B, C, ..} is called a complete set of commuting observables (C.S.C.O.)
if there is a unique complete orthonormal set (within phase factors) of common eigenvectors.
It is obvious that if a given set is a C.S.C.O. we can add any observable that commutes with the observables
of the set and the new set is also a C.S.C.O. However, for most of our purposes we shall be interested in “minimal
C.S.C.O.” in the sense that by removing any observable of the set, the new set is not complete.
If a given set {A1 , .., An } of observables is a C.S.C.O., an eigenvector associated with a set {ak1 , .., akn } determines
a unique common normal eigenvector (within a phase factor) so it is natural to denote the vector as uak1 ,ak2 ,akn .
We shall see later that in quantum mechanics a global phase has no Physical information. Therefore, all normal
vectors associated with {ak1 , .., akn } have the same Physical information, this fact enhance the qualification of
“unique” for these vectors, although they are not unique from the mathematical point of view.
7
If Mn is one dimensional then an eigenvector of A in Mn is automatically an eigenvector of B and it is clearly uniquely determined,
except for multiplicative factors. Only the case in which Mn has more than one dimension is non-trivial.
1.24. SOME TERMINOLOGY CONCERNING QUANTUM MECHANICS 61
the integration extends over all space. However, in certain cases we could assume that the particle is in a given
confined volume and the integral will be restricted to such a volume.
The discussion above leads to the fact that the space of Physical states of one particle should be described by
a square-integrable wave function. The state space is then the Hilbert space L2 of the square-integrable functions
in a given volume. For a system of several particles we will have a space with similar features, but by now we will
concentrate on the space that describes a single particle.
For several reasons we cannot specified in general the state space of a particle. First of all, several physical
considerations can lead us to the fact that the particl is confined to a certain bounded volume. For instance,
in one dimension it is not the same the space of functions that are square integrable in the whole real line, as
(say) the space of functions that are square integrable in a bounded interval. In other words, different regions of
square integrability leads us to different L2 spaces. On the other hand, it is usual to demand as well as square
integrability, that the functions accomplish additional features of regularity. For example, to be defined all along
the interval, or to be continuous, derivable, etc. The specific conditions depend on the particular context, and
they are required to define the state space completely.
For example, it has no physical meaning to have a function that is discontinuous at a given point since no
experiment can measure a real phenomenon at scales below certain threshold. We could then be tempted to say
that we must demand the functions to be continuous. However, this is not necessarily the case since some non-
physical functions could help us to figure out what is happening. Let us take some familiar examples in classical
mechanics, it is usual in electrostatics to assume the presence of a surface charge, which leads to a discontinuity
62 CAPÍTULO 1. LINEAR OR VECTOR SPACES
in the electric field, in the real world a charge is distributed in a very thin but finite layer and the discontinuity
is replaced by a very slopy curve. Indeed, a surface charge is equivalent to an infinite volume density, but we
have seen that this assumption provides a simple picture of many electrostatic phenomena though it is not a real
physical state. Classical waves represented by a single plane wave in optics are other good examples, since it is
not possible to have a real wave being totally monochromatic (a physical state is always a superposition of several
plane waves), but many of the wave phenomena are easier to study with these non physical states, and indeed
many real physical phenomena such as the laws of geometric optics are predicted by using them.
In summary, depending on our purposes (and attitudes) we could demand to have only physical states or
to decide to study some non-physical ones that are obtain when some physical parameters are settle at extreme
values. Quantum mechanics is not the exception for this strategy, and our assumptions on the functions to work
with, affects the definition of the Hilbert space of states that we should use as a framework.
Hence, given the volume V in which the particle can stay, we say that our space of states is a subspace of the
Hilbert space L2 of the square integrable functions in the volume V . We denote by ̥ the subspace of states in
which ̥ ⊆ L2 . For this subspace to be a Hilbert space, it must be closed (for completeness to be maintained).
|ψ (r)|2 = |λ1 |2 |ψ1 (r)|2 + |λ2 |2 |ψ2 (r)|2 + λ∗1 λ2 ψ1∗ (r) ψ2 (r) + λ1 λ∗2 ψ1 (r) ψ2∗ (r)
hence h i
|ψ (r)|2 ≤ |λ1 |2 |ψ1 (r)|2 + |λ2 |2 |ψ2 (r)|2 + 2 |λ1 | |λ2 | |ψ1 (r)|2 + |ψ2 (r)|2
and the integral of each of the functions on the right-hand side converges. Then the integral
Z
|ψ (r)|2 dV
it can be shown that this integral always converges if ϕ and ψ belong to L2 . We should check that this definition
accomplishes the properties of an inner product, the properties arise directly from the definition
∂ψ (x, y, z)
Dx ψ (x, y, z) =
∂x
it is important to notice that the operators X and Dx acting on a function ψ (r) ∈ ̥, can transform it into a
function that is not square integrable. Thus it is not an operator of ̥ into ̥ nor onto ̥. However, the non-physical
states obtained are frequently useful for practical calculations.
The commutator of the product and differentiation operator is of central importance in quantum mechanics
∂ ∂ ∂ ∂
[X, Dx ] ψ (r) = x − x ψ (r) = x ψ (r) − [xψ (r)]
∂x ∂x ∂x ∂x
∂ ∂
= x ψ (r) − x ψ (r) − ψ (r)
∂x ∂x
[X, Dx ] ψ (r) = −ψ (r) ∀ψ (r) ∈ ̥
therefore
[X, Dx ] = −I (1.105)
the expansion of any wave function (vector) of this space is given by the Fourier expansion described by Eq. (1.27)
X Z
ψ (r) = ci ui (r) ; ci = (ui , ψ) = d3 r u∗i (r) ψ (r) (1.106)
i
using the terminology for finite dimensional spaces we call the series a linear combination and ci are the components
or coordinates, which correspond to the Fourier coefficients. Such coordinates provide the representation of ψ (r)
in the basis {ui (r)}. It is very important to emphasize that the expansion of a given ψ (r) must be unique for
{ui } to be a basis, in this case this is guranteen by the form of the Fourier coefficients.
Now if the Fourier expansion of two wave functions are
X X
ϕ (r) = bj uj (r) ; ψ (r) = ci ui (r)
j i
The scalar product and the norm can be expressed in terms of the components or coordinates of the vectors
according with Eqs. (1.65, 1.66) X X 2
(ϕ, ψ) = b∗i ci ; (ψ, ψ) = |ci | (1.107)
i i
and the matrix representation of an operator T in a given orthonormal basis {ui } is obtained from Eq. (1.69)
Tij ≡ (ui , T uj )
64 CAPÍTULO 1. LINEAR OR VECTOR SPACES
mencionaremos incidentalmente que con esta distribución es posible escribir una densidad de carga (o masa)
puntual (ubicada en r0 ) como una densidad volumétrica equivalente
ρ (r) = qδ r′ − r0 (1.108)
esta densidad reproduce adecuadamente tanto la carga total como el potencial y el campo que genera, una vez
que se hagan las integrales apropiadas.
Hay varias sucesiones de distribuciones que convergen a la función Delta de Dirac, una de las mas utilizadas
es la sucesión definida por
n 2 2
fn (x − a) = √ e−n (x−a) (1.109)
π
se puede demostrar que al tomar el lı́mite cuando n → ∞ se reproduce la definición y todas las propiedades básicas
de la distribución delta de Dirac. Nótese que todas las distribuciones gaussianas contenidas en esta sucesión tienen
área unidad y están centradas en a. De otra parte, a medida que aumenta n las campanas gaussianas se vuelven
más agudas y más altas a fin de conservar el área, para valores n suficientemente altos, el área se concentra en
una vecindad cada vez más pequeña alrededor de a. En el lı́mite cuando n → ∞, toda el área se concentra en un
intervalo arbitrariamente pequeño alrededor de a.
Algunas propiedades básicas son las siguientes:
R∞
1. −∞ δ (x − a) dx = 1
R∞
2. −∞ f (x) ∇δ (r − r0 ) dV = − ∇f |r=r0
1
3. δ (ax) = |a| δ (x)
4. δ (r − r0 ) = δ (r0 − r)
5. xδ (x) = 0
1
6. δ x2 − e2 = 2|e| [δ (x + e) + δ (x − e)]
Vale enfatizar que debido a su naturaleza de distribución, la función delta de Dirac no tiene sentido por sı́ sola,
1
sino únicamente dentro de una integral. Por ejemplo cuando decimos que δ (ax) = |a| δ (x), no estamos hablando
8 ∞ si r = 0 R
Es usual definir la “función” delta de Dirac como δ (r) = y δ (x) dx = 1. Esta definición se basa en una
0 si r = 6 0
concepción errónea de la distribución delta de Dirac como una función. A pesar de ello, hablaremos de ahora en adelante de la función
delta de Dirac para estar acorde con la literatura.
1.27. CLOSURE RELATIONS 65
de una coincidencia numérica entre ambos miembros, sino de una identidad que se debe aplicar al espacio vectorial
de funciones en que estemos trabajando, es decir
Z c Z c
1
f (x) δ (ax) dx = f (x) δ (x) dx ∀ f (x) ∈ V y ∀ a ∈ R
b b |a|
Estrictamente, el mapeo también se puede hacer sobre los números complejos con propiedades análogas. En este
mismo espı́ritu, es necesario aclarar que la densidad volumétrica equivalente de una carga puntual (y todas las
densidades equivalentes que se pueden formar con la delta) es realmente una distribución. Por ejemplo, la densidad
descrita por (1.108), solo tiene realmente sentido dentro de integrales que generan la carga total, el potencial o el
campo. Las densidades ordinarias son funciones, pero las densidades equivalentes son distribuciones. En sı́ntesis, lo
que se construye con la densidad volumétrica equivalente es una distribución que me produzca el mapeo adecuado
para reproducir la carga total, el potencial y el campo.
En másR de una dimensión la delta se convierte simplemente en productos de deltas unidimensionales, la
propiedad δ(n) (x) dn x = 1, aplicada a n dimensiones, nos dice que la delta no es adimensional, sus dimensiones
son de x−n .
De momento, el uso que le daremos a la delta estará relacionado con la completez del sistema orthonormal
que usemos. Nótese que en dimension finita la completez se comprueba simplemente asegurándonos de tener igual
número de vectores linealmente independientes que la dimensión del espacio. En espacios de dimension infinita
en cambio podrı́amos tener un conjunto infinito contable que no fuera completo y que se vuelve completo al
agregarle otro conjunto finito o infinito contable, pues en tal caso la cardinalidad no cambia. En dimensión infinita
un conjunto ortonormal puede tener la cardinalidad de la dimensión ortogonal del espacio y sin embargo no ser
completo. Es por esto que la prueba de completez es particularmente importante.
donde la integral con lı́mites A y B significa una integral triple de volumen. Por otro lado
Z B
ψ (r) = ψ r′ δ r − r′ d3 r′
A
Igualando las dos últimas expresiones, y teniendo en cuenta que ψ (r′ ) es arbitraria se obtiene
X
u∗n r′ un (r) = δ r − r′ (1.110)
n
retrocediendo en nuestros pasos vemos que la relación anterior nos garantiza que cualquier función arbitraria
dentro del espacio se puede expandir en términos del conjunto {un (r)}. A su vez vemos que la expansion para
una base ordenada dada {un (r)} es única, lo cual se obtiene gracias a la independencia lineal del conjunto. Por
tanto a la Ec. (1.110), se le conoce como relación de completez.
We shall study several complete sets that consequently accomplish property (1.110). The proof of completeness
of these sets is however out of the scope of this manuscript.
66 CAPÍTULO 1. LINEAR OR VECTOR SPACES
we show it by reproducing the results obtained with discrete bases. Expanding an arbitrary function ψ (r) of our
Hilbert space as a continuous linear combination of the basis gives
Z d
ψ (r) = c (k) u (k, r) dk
c
then we have
Z d Z d
(uk′ , ψ) = uk′ , c (k) u (k, r) dk = c (k) (uk′ , uk ) dk
c c
Z d
= c (k) δ k − k′ dk = c k′
c
from which the fourier coefficients of the continuous expansion are evaluated as
c k′ = (uk′ , ψ) (1.112)
when the Fourier coefficients are associated with continuous linear combinations (integrals) they are usually called
Fourier transforms. In this case, a vector is represented as a continuous set of coordinates or components, where
the components or coordinates are precisely the Fourier transforms.
Therefore, in terms of the inner product, the calculation of the Fourier coefficients in a continuous basis
(Fourier transforms) given by Eq. (1.112) coincides with the calculation of them with discrete bases Eq. (1.106).
Eq. (1.112) in turn guarantees that the expansion for a given ordered continuous bases is unique10 . Those facts
in turn depends strongly on our definition of orthonormality in the continuous regime Eq. (1.111) showing the
consistency of such a definition. After all, we should remember that hyperbases are constructed as useful tools
and not as physical states, in that sense we should not expect a “truly orthonormality relation” between them11 .
9
From now on we shall say continuous bases, on the understanding that they are indeed hyperbases.
10
Remember that for a given set of vectors to constitute a basis, it is important not only to be able to expand any vector with
the elements of the set, it is also necessary for the expansion of each vector to be unique. In normal basis (not hyperbasis) this is
guaranteed by the linear independence, in our continuous set it is guranteed by our definition of orthonormality in such a set.
11
It is clear for example that with r = r′ the “orthonormality” relation diverge, so it is not a normalization in the mathematical
sense.
1.30. INNER PRODUCT AND NORM IN TERMS OF A HYPERBASIS 67
however, if the function ψ (r) does not belong to V1 but it belongs to V2 then δ1 (r − r′ ) is not an adequate
distribution to represent this function. This is a general property of the distributions, since they are defined solely
by means of the way in which they map the functions of a specific vector space into the scalars. A representation
of the Dirac delta (and in general of any distribution) is linked to a very specific vector space of functions.
Eqs. (1.114, 1.115) are clearly the continuous analogs of Eq. (1.107) for discrete basis.
In summary, the basic relations obtained in discrete bases (inner products, norms, fourier coefficients, ortho-
normality, completeness etc.) possses the same structure in continuous bases but with the following replacements
X Z
i(discrete) ↔ k(continuous) , ↔ dk , δij ↔ δ k − k′
i
by comparing it with Eq. (1.113), we see that (1.118) expresses the completeness relation for the continuous basis
{vp } in the space of functions that are square-integrable in the whole physical space. The orthonormality relation
can also be obtained from the property (1.117) but with the assignments k → zr and u → p − p′
Z ∞
1 r ′
vp , vp′ = 3 d3 r e−i ~ (p−p ) = δ3 p′ − p = δ3 p − p′ (1.119)
(2π~) −∞
by using p = p′ in Eq. (1.119) it is clear that kvp k2 = (vp , vp ) is divergent. Thus, the plane waves are not square-
integrable in the whole space. Therefore, the elements of this continuous basis do not belong to the Hilbert space
under study.
Eq. (1.121) gives ψ (r) ∈ ̥ as a continuous linear combination of the set {ξr0 }, where ψ (r0 ) are the fourier
transforms. On the other hand, (1.122) indicates that the fourier transforms are evaluated as usual.
By using the properties of the Dirac delta function, it is possible to prove that the set {ξr0 } accomplishes
orthonormality and completeness relations
Z
ξr0 , ξr′0 = d3 r δ (r − r0 ) δ r − r′0 = δ r0 − r′0
and Z Z
3
d r0 ξr∗0 r′
ξr0 (r) = d3 r0 δ r′ − r0 δ (r − r0 ) = δ r − r′
note that the non-physical functions that constitute a continuous basis can usually be seen as limits in which one
or more parameters of a physically realizable state are taken at extreme (non-physical) values.
As an example the Dirac function can be taken as the limit of gaussians given by Eq. (1.109)
n 2 2
fn (x − a) = √ e−n (x−a)
π
for each value of n these functions are square integrable, continuous, and derivable, they could describe a physical
system. Notwithstanding, by taking n → ∞, the functions are no longer square-integrable and lose all properties
of well-behavior.
Concerning plane waves, physical states (in both classical and quantum mechanics) consists of a superposition of
plane waves with a finite width spectrum of frecuencies ∆ν, by taking the limit ∆ν → 0 we obtain a monochromatic
(non-physical) wave, corresponding to a single plane wave.
70 CAPÍTULO 1. LINEAR OR VECTOR SPACES
Definition 1.34 The vector space V is called the tensor product of V1 and V2
V ≡ V1 ⊗ V2
if there is associated with each pair of vectors x (1) ∈ V1 and y (2) ∈ V2 a vector in V denoted by x (1) ⊗ y (2) and
called the tensor product of x (1) and y (2), and in which this correspondence satisfies the following conditions:
(a) It is linear with respect to multiplication by a scalar
[αx (1)] ⊗ y (2) = α [x (1) ⊗ y (2)] ; x (1) ⊗ [βy (2)] = β [x (1) ⊗ y (2)] (1.123)
(c) When a basis is chosen in each space, say {ui (1)} in V1 and {vj (2)} in V2 , the set of vectors ui (1) ⊗ vj (2)
constitutes a basis in V . If n1 and n2 are finite, the dimension of the tensor product space V is n1 n2 .
An arbitrary couple of vectors x (1), y (2) can be written in terms of the bases {ui (1)} and {vj (2)} respectively,
in the form X X
x (1) = ai ui (1) ; y (2) = bj vj (2)
i j
Using Eqs. (1.123, 1.124) we see that the expansion of the tensor product is given by
XX
x (1) ⊗ y (2) = ai bj ui (1) ⊗ vj (2)
i j
so that the components of the tensor product of two vectors are the products of the components of the two vectors of
the product. It is clear that the tensor product is commutative i.e. V1 ⊗V2 = V2 ⊗V1 and x (1)⊗y (2) = y (2)⊗x (1)
On the other hand, it is important to emphasize that there exist in V some vectors that cannot be written
as tensor products of a vector in V1 with a vector in V2 . Nevertheless, since {ui (1) ⊗ vj (2)} is a basis in V any
vector in V can be expanded in it
XX
ψ= cij ui (1) ⊗ vj (2) (1.125)
i j
in other words, given a set of n1 n2 coefficients of the form cij it is not always possible to write them as products
of the form ai bj of n1 numbers ai and n2 numbers bj , we cannot find always a couple of vectors in V1 and V2 such
that ψ = x (1) ⊗ y (2).
where the symbols (, )(1) and (, )(2) denote the inner product of each of the spaces of the product. From this, we can
see that if the bases {ui (1)} and {vj (2)} are orthonormal in V1 and V2 respectively, then the basis {ui (1) ⊗ vj (2)}
also is
(ui (1) ⊗ vj (2) , uk (1) ⊗ vm (2)) = (ui (1) , uk (1))(1) (vj (2) , vm (2))(2) = δik δjm
Now, for an arbitrary vector in V , we use the expansion (1.125) and the basic properties of the inner product
XX XX
(ψ, φ) = cij ui (1) ⊗ vj (2) , bkm uk (1) ⊗ vm (2)
i j k m
X X X X
= c∗ij bkm (ui (1) ⊗ vj (2) , uk (1) ⊗ vm (2)) = c∗ij bkm δik δjm
i,j k,m i,j k,m
X
(ψ, φ) = c∗ij bij
i,j
it is easy to show that with these definitions the new product accomplishes the axioms of an inner product.
when the operator is applied to an arbitrary vector in V , this definition is easily extended because of the linearity
of the transformation
XX XX
Ae (1) ψ = A e (1) cij ui (1) ⊗ vj (2) = e (1) [ui (1) ⊗ vj (2)]
cij A
i j i j
XX
e (1) ψ =
A cij [A (1) ui (1)] ⊗ vj (2) (1.126)
i j
finally, if we consider two operators A (1) , B (2) defined in V1 and V2 respectively, we can define their tensor
product A (1) ⊗ B (2) as
XX
[A (1) ⊗ B (2)] ψ = cij [A (1) ui (1)] ⊗ [B (2) vj (2)] (1.127)
i j
it is easy to show that A (1) ⊗ B (2) is also a linear operator. From Eqs. (1.126, 1.127) we can realize that the
extension of the operator A (1) on V1 to an operator A e (1) on V can be seen as the tensor product of A (1) with
the identity operator I (2) on V2 . A similar situation occurs with the extension Be (2)
e (1) and B
therefore, the tensor product A (1) ⊗ B (2) coincides with the ordinary product of two operators A e (2)
on V
e (1) B
A (1) ⊗ B (2) = A e (2)
additionally, it can be shown that operators of the form A e (1) and Be (2) commute in V . To see it, we put their
products in both orders to act on an arbitrary vector of a basis {ui (1) ⊗ vj (2)} of V
h i
e (1) B
A e (2) ui (1) ⊗ vj (2) = A
e (1) {ui (1) ⊗ [B (2) vj (2)]} = [A (1) ui (1)] ⊗ [B (2) vj (2)]
h i
e (2) A
B e (1) ui (1) ⊗ vj (2) = B
e (2) {[A (1) ui (1)] ⊗ vj (2)} = [A (1) ui (1)] ⊗ [B (2) vj (2)]
therefore we have h i
e (1) , B
A e (2) = 0 or A (1) ⊗ B (2) = B (2) ⊗ A (1)
an important special case of linear operators are the projectors, as any other linear operator, the projector in V is
the tensor product of the projectors in V1 and V2 . Let M1 and N1 be the range and null space of a projector in
V1 and M2 , N2 the range and null space of a projector in V2
finally, as in the case of vectors, there exists some operators on V that cannot be written as tensor products of
the form A (1) ⊗ B (2).
where gn is the degeneration associated with an . We want to solve the eigenvalue problem for the extension of
this operator in V = V1 ⊗ V2
e (1) ψ = λψ ; ψ ∈ V1 ⊗ V2
A
from the definition of such an extension, we see that a vector of the form xin (1) ⊗ y (2) for any y (2) ∈ V2 is an
e (1) with eigenvalue an
eigenvector of A
e (1) xi (1) ⊗ y (2) = A (1) xi (1) ⊗ y (2) = an xi (1) ⊗ y (2) ⇒
A n n n
i i
e
A (1) xn (1) ⊗ y (2) = an xn (1) ⊗ y (2)
1.32. TENSOR PRODUCTS OF VECTOR SPACES, DEFINITION AND PROPERTIES 73
it is natural to ask whether any eigenvector of A e (1) can be generated in this way. We shall see that it is true if
A (1) is an observable in V1 . Assuming it, the set of orthonormal eigenvectors xin (1) forms a basis in V1 . If we
now take an orthonormal basis {ym (2)} in V2 , then the set of vectors
i,m i
ψn ≡ xn (1) ⊗ ym (2)
n o
forms an orthonormal basis in V . It is clear that the set ψni,m consists of eigenvectors of A e (1) with eigenvalues
an , and since they are a basis, a complete orthonormal set of eigenvectors of A e (1) have been generated with the
procedure explained above. This in turn means that if A (1) is an observable in V1 , its extension A e (1) is also an
e
observable in V . Further, the spectrum of A (1) coincides with the spectrum of A (1). Notwithstanding, it worths
to say that if N2 is the dimension of V2 , if an is gn −fold degenerate in V1 , it will be gn ·N2 −degenerate in V . This is
because for a given eigenvector xin (1) in V1 , there are N2 eigenvectors ψni,m ≡ xin (1) ⊗ ym (2) since m = 1, . . . , N2 .
We know that each eigenvalue an of A (1) in V1 defines an eigensubspace V1,an in V1 with gn dimension. The
corresponding eigensubspace generated by an in V is a N2 · gn subspace Van . The projector onto V1,an is written
by
⊥
V1 = V1,an ⊕ V1,an
; x (1) = xan (1) + x⊥ ⊥ ⊥
an (1) ; xan (1) ∈ V1,an , xan (1) ∈ V1,an
P1an (x (1)) = xan (1)
where A (1) and B (2) are observables in their corresponding spaces, with the following eigenvalues and eigenvectors
e (1) + B
So that if C = A e (2) the eigenvalues of C are the sums of the eigenvalues of A
e (1) and B
e (2). Besides, we
can form a basis of eigenvectors of C by taking the tensor product of the basis of A (1) and B (2).
It is important to emphasize that even if an and bm are non-degenerate, it is posible that cnm be dege-
nerate. Assume that an and bm are non-degenerate, and for a given cnm let us define all the sets of pairs
74 CAPÍTULO 1. LINEAR OR VECTOR SPACES
{(nj , mj ) : j = 1, . . . , q} such that anj + bmj = cnm . In that case, the eigenvalue cnm is q−fold degenerate, and
every eigenvector corresponding to this eigenvalue can be written as
q
X
cj xnj (1) ⊗ ymj (2)
j=1
in this case there are eigenvectors of C that are not tensor products.
the ket x (1) is then unique within a constant factor. In V2 the set of two operators {B (2) , C (2)} defines commom
eigenvectors {ymp (2)} that are unique in V2 within constant factors
B (2) ymp (2) = bm ymp (2) ; C (2) ymp (2) = cp ymp (2)
In V , the eigenvalues are N2 −fold degenerate. Similarly, there are N1 linearly independent eigenvectors of B (2)
and C (2) associated with two given eigenvalues of the form (bm , cp ). However, the eigenvectors that are common
to the three commuting observables A e (1) , B
e (2) , C
e (2) are unique within constant factors
since {xn (1)} and {ymp (2)} were bases in V1 and V2 , we see n
that {xn (1) ⊗ ymp (2)}
o is a basis in V constituted
e e e
by commom eigenvectors of the three operators. Thus the set A (1) , B (2) , C (2) is a C.S.C.O. in V .
V = V1 ⊕ . . . ⊕ Vq ⊕ . . .
x = x1 + . . . + xq + . . . ; xi ∈ Vi
Projectors, which are the natural operators to “restrict” a vector by extracting the components that are ortho-
normal to a given subspace, will be also the natural operators to rectrict operators. Let Pq be the projector onto
a subspace Vq . A priori, we could think in defining a restriction by “restricting the vector” in which the operator
will act on. This is done by substracting all components orthogonal to the subspace Vq by applying a projection,
and then let the operator A act on this projection so we have
in this case we have restricted the domain of A appropriately, but once the operator A is applied, the image could
be outside of the subspace too. Hence, the projector must be applied again after the application of A in order to
b of the operator A to the subspace Vq as
restrict the image appropriately. We then define the restriction A
bq ≡ Pq A = Pq APq
A (1.129)
so that both the domain and the range are restricted to Vq . It can be easily checked that the matrix representation
of Abq is reduced to a submatrix in the Vq space. Let qk be the dimension of Vq . Let us use an ordered basis such
that the first qk terms expand Vq . Using such a basis we have
bq
A = bq uj = (ui , Pq APq uj ) = (Pq ui , APq uj )
ui , A
ij
(ui , Auj ) if i, j ≤ qk
(Pq ui , APq uj ) =
0 if i > qk and/or j > qk
observe that the submatrix associated with i, j ≤ qk (i.e. associated with the Vq subspace), remains the same with
respect to the non-restricted matrix. But the elements outside of such a submatrix are zeros, showing that the
new operator only acts in Vq .
It is important to emphasize that the restriction A bq of an operator A differs from A itself, because we are
changing the mapping. In the special case in which the subspace Vq is invariant under A, the range of A is
automatically restricted into Vq when the domain is restricted to Vq . Thus in that case the restriction can be
defined with only one projector operator
Abq ≡ APq
bq is identical to the mapping described by A when
so when Vq is invariant under A the mapping described by A
such mappings are restricted to the domain Vq .
A0 ≡ I , An = AA · · · A (n times)
it is useful to define functions of operators. Assume that a function F can be expanded in certain domain in the
following way
∞
X
F (z) = fn z n (1.130)
n=0
by definition, the function F (A) of the operator A corresponds to an expansion of the form (1.130) with the same
coefficients fn
∞
X
F (A) = fn An (1.131)
n=0
the convergence of series of the type (1.131) depends on the eigenvalues of A and the radius of convergence of the
function (1.130). We shall not treat this topic in detail.
If F (z) is a real function the coefficients fn are real. On the other hand, if A is hermitian then F (A) also is,
as can be seen from (1.131). Owing to the analogy between real numbers and hermitian operators this relation is
quite expected. Now, assume that xi,k is an eigenvector of A with eigenvalue ai we then have
so that if xi,k is an eigenvector of A with eigenvalue ai , then xi,k is also eigenvector of F (A) with eigenvalue
F (ai ).
On the other hand, if the operator is diagonalizable (this is the case for observables), we can find a basis in
which the matrix representative of A is diagonal with the eigenvalues ai in the diagonal. In such a basis, the
operator F (A) has also a diagonal representation with elements F (ai ) in the diagonal. For example let σz be an
operator that in certain basis has the matrix representation
1 0
σz =
0 −1
these three expressions are in general different from each other unless [A, B] = 0. We see by direct inspection
of Eqs. (1.132, 1.133, 1.134) that if A and B commute, then F (A) and F (B) also do. Notice that when A, B
commute they can be diagonalized simultaneously and so F (A) and F (B), which is another way to see that if
[A, B] = 0 then [F (A) , F (B)] = 0.
which shows the validity of Eq. (1.139). Replacing Eq. (1.139) in Eq. (1.138), we find
∞
X
[A, F (B)] = [A, B] fn nB n−1 = [A, B] F ′ (B)
n=0
Corollary 1.71 It is straightforward to show that if both operators commute with their commutator we see that
equations
[A, F (B)] = [A, B] F ′ (B) ; [G (A) , B] = [A, B] G′ (B) (1.140)
are satisfied simultaneously. A very important case in Physics occurs when [A, B] = αI. In that case, we have
Applying the derivative on both extremes of Eq. (1.143), and taking into account that the basis {ui } is independent
of z, we have
d dAji (z)
A (z) x = xi uj (1.145)
dz dz
78 CAPÍTULO 1. LINEAR OR VECTOR SPACES
so the matrix representative of the derivative of A is obtained by taking the derivative of each of its elements12 .
The differentiation rules are similar to the ones in ordinary calculus
d dF dG d dF dG
(F + G) = + ; (F G) = G+F (1.146)
dz dz dz dz dt dt
except that care must be taken with the order of appearance for the operators involved. Let us examine the second
of this equations, applying F G to an arbitrary vector x and using a basis {ui } we have
(F G) x = xi uj (F G)ji
X∞ X∞ X∞
d At An An (At)n−1
e = ntn−1 =0+ ntn−1 =A
dt n! n! (n − 1)!
n=0 n=1 n=1
"∞ # "∞ #
d At X (At)k X (At)k
e = A = A
dt k! k!
k=0 k=0
where we have used the assignment k = n − 1. The series in the brackets is eAt once again, so we have
d At
e = AeAt = eAt A (1.147)
dt
12
Care must be taken to distinguish between the derivative in Eq. (1.137) and the derivative in Eq. (1.142). In Eq. (1.137) the
derivative is taken with respect to B as the “variable of derivation”. On the other hand, in Eq. (1.142) the variable to derive with, is
a parameter z from which our matrix depend on.
1.36. STATE SPACE AND DIRAC NOTATION 79
in this case eAt and A commutes because only one operator is involved. Suppose that we want to differentiate
eAt eBt . Applying Eqs. (1.146, 1.147) we have
d At Bt d eAt Bt d eBt
e e = e + eAt = AeAt eBt + eAt BeBt
dt dt dt
the operator A can pass over eAt if desired but not over eBt unless that A and B commute. Similarly, B can pass
over eBt but not over eAt .
However, even if a single operator appears we should be careful with the order sometimes. For instance, if A (t)
is an arbitrary function of time then
d A(t) dA A(t)
e 6= e (1.148)
dt dt
it could be checked that A (t) and dA (t) /dt must commute with each other for the equality to be valid.
Consider again two operators that commute with their commutator, we shall show that
1
[A, [A, B]] = [B, [A, B]] = 0 ⇒ eA eB = eA+B e 2 [A,B] (Glauber ′ s f ormula) (1.149)
dF (t)
F (t) ≡ eAt eBt ; = AeAt eBt + eAt BeBt = A eAt eBt + eAt Be−At eAt eBt
dt
dF (t) At −At
= A + e Be F (t) (1.150)
dt
since A, B commute with their commutator, we can apply Eq. (1.140), so that
At
e , B = t [A, B] eAt ⇒ eAt B = BeAt + t [A, B] eAt
⇒ eAt Be−At = B + t [A, B]
dF (t)
= {A + B + t [A, B]} F (t) (1.151)
dt
by hypothesis, A + B commutes with [A, B], so that the differential equation (1.151) can be integrated as if A + B
and [A, B] were numbers
1 2
F (t) = F (0) e(A+B)t+ 2 [A,B]t
setting t = 0 we see that F (0) = I, thus we obtain
1 2
F (t) = e(A+B)t+ 2 [A,B]t
setting t = 1 and taking into account again that A + B commutes with [A, B], we obtain (1.149). It is necessary
to emphasize that this equation is valid only if A and B commutes with [A, B].
is discrete we have a numerable set of coordinates (Fourier coefficients) while in the case of continuous bases,
the set of coordinates is continuous as well (Fourier transforms). In particular, the continuous basis denoted as
ξr0 (r) shows that the function ψ (r) can be considered as a coordiante system as well, because in this basis, each
coordinate is defined as ψ (r0 ) i.e. the value of ψ at each fixed point r0 of the volume13 .
We have now a situation similar to the one obtained in R3 , we can define a vector by a triple of coordinates in
any basis defined by a set of coordinate axes. However, vectors in R3 can be defined geometrically (intrinsically),
and its algebra can be performed in a coordinate-free form.
In the same way, we wish to define our state vector in a coordinate free (or intrinsic) way. The abstract space
of state vectors of a particle is denoted as Er which should be isometrically isomorphic with ̥. We should also
define the notation and algebra on the Er space.
Though we initially start with Er as identical to ̥, we shall see that it permits a generalization of the formalism
when the states in ̥do not contain all the Physical information of the system, as is the case when spin degrees of
freedom are introduced in the formalism. Hence, the algebra that we shall develop now will be valid when these
generalizations are carried out. In developing this algebra we are going to present the Dirac notation which is
useful in practical calculations
Dirac notation designates f|ψi as hψ| which is called a bra. The correspondence above and the inner product will
be written as
|ψi ∈ Er ↔ hψ| ∈ Er∗ ; hψ| (|ϕi) ≡ (|ψi , |ϕi)
it induces a natural notation for the inner product
this is also called a bracket (i.e. the union of a bra with a ket). Let us now write the properties developed in
section 1.9.2 Eq. (1.31), with this new notation
since the functionals (bras) are linear by definition, a linear combination of kets gives
now since
lı́m ξx(ε)
0
/ ̥x
∈
ε→0
then the bra hξx0 | ∈ Ex∗ exists but there is not a ket associated with it in the hyperbasis.
82 CAPÍTULO 1. LINEAR OR VECTOR SPACES
This dissymetry is associated with the use of a hyperbasis. The elements of the hyperbasis do not belong
to ̥x and so has no elements associated in Ex either. However, the inner product of it with any element of ̥x
is well-defined and it permits to associate a bra belonging to Ex∗ . Indeed, by the theory of Hilbert spaces the
corresponding ket must exists, what really happens is that we cannot construct it as an element of our hyperbasis,
this is perfectly undestandable since such elements are out of our Hilbert space.
Notice that we have indeed extended the concept of inner product and we have applied it to elements out of
our Hilbert space. For practical reasons it is usual to associate the bras hξx0 | ∈ Ex∗ to the “generalized ket” |ξx0 i
that are not physical states but are advantageous from the practical point of view.
Another example is the continuous basis consisting of plane waves truncated outside an interval of width L
1 L L
vp(L)
0
(x) = √ eip0 x/~ ; − ≤x≤
2π~ 2 2
(L)
with the function vp0 (x) going rapidly
Eto zero outside of that interval, but keeping continuity and differentiability.
(L)
The ket associated is denoted as vp0
E
(L)
vp(L)
0
(x) ∈ ̥ x ↔ vp0 ∈ Ex
D Z L/2
(L) (L) 1
vp0 ψi = vp0 , ψ ≃ √ dx e−ip0 x/~
2π~ −L/2
in the limit L → ∞ we find ψ̄ (p0 ) i.e. the Fourier transform of ψ (x) evaluated at p = p0 . From which we see that
the inner product converges and is well-defined
D
lı́m vp(L)
0
≡ hvp0 | ∈ Ex∗
L→∞
E
(L)
but it does not correspond to the ket associated with the limit of kets of the form vp0 .
E
(ε)
We could take the results above with the following point of view, the ket |ξx0 i means the ket given by ξx0
with ε much smaller than any other length involved in the problem, so we are really working in Ex . The results
obtained at theEend depends very little on ε as long as it is much smaller than any other length in the problem.
(ε)
Certainly, ξx0 does not form an orthonormal basis, and do not satisfy a closure realtion with ε 6= 0, but it
aproaches the orthonormality and closure conditions as ε becomes very small.
The introduction of generalized kets, will ensure that we balance bras and kets in the limits concerned
above. Generalized kets do not have finite norm, but they can acquire a finite inner product with kets of our space
of states.
1.38.1. Projectors
The simplest of all projectors are the ones in which the range are one dimensional subspaces of the Hilbert
space. Let {|ψi} be the one dimensional space spanned by the single non-zero ket |ψi. The projector P|ψi takes
an arbitrary ket |ϕi ∈ Ex and maps it into {|ψi} i.e.
P|ψi ≡ |ψi hψ| ; P|ψi |ϕi = (|ψi hψ|) |ϕi = |ψi hψ| ϕi = α |ψi (1.154)
so the definition of P|ψi Eq. (1.154) as a projector is consistent only if |ψi is normalized.
Now we can write the projector onto a subspace of more than one dimension. If nj is the dimension of the
(n )
subspace Mj j ⊆ Ex we can define the projector from a complete orthonormal set
i
uj ; i = 1, .., nj (1.155)
(n1 ) (nj )
Ex = M1 ⊕ . . . ⊕ Mj ⊕ ...
x = x1 + . . . + xj + . . .
n1 nj
X (1) i
X (j)
x = αi u1 + . . . + αi uij + . . .
i=1 i=1
(n)
αk ≡ ukn , x
nj
X (j)
PMj x = xj = αi uij
i=1
nj
X
PMj x = uij , x uij
i=1
in Dirac notation it is
nj nj
X i X i
i
PMj |xi = i
huj |xi uj = uj uj |xi
i=1 i=1
84 CAPÍTULO 1. LINEAR OR VECTOR SPACES
(nj )
it is clear that this is a projector as long as Eq. (1.155) defines an orthonormal set that spans Mj of dimension
nj .
! nj !
nj
X i
i X E D nj nj
X X ED
2
PM = uj uj k
uj k
uj = uij huij ukj
ukj
j
i=1 k=1 i=1 k=1
nj nj D X nj
XX i
i
2
PM = uij δik ukj = uj uj = PM
j j
i=1 k=1 i=1
If we have an observable A, its spectrum of eigenvectors forms a basis and we can construct a complete orthonormal
set. In that case, the spectral theorem (assuming it can be extended to infinite dimension for observables) says that
the identity and the observable A itself can be decomposed by means of the projectors built on each eigensubspace
of the observable, if Mi is the eigensubspace generated by the eigenvalue λi of A we have that
Ex = M1 ⊕ . . . ⊕ Mi ⊕ . . .
x = x1 + . . . + xi + . . .
Pi x = xi
n o
these forms will be applied frequently in quantum mechanics. Notice that Eq. (1.157) is valid if and only if uji
is a complete orthonormal set. Thus the decomposition of the identity in projectors is usually taken as the closure
relation for the basis (or hyperbasis) in which we are working.
It is also usual to work with a more general type of projector of the form
this is a projector on the one dimensional subspace {|ψi}. This operator is idempotent only if hϕ| is normal,
however it defines a non-orthogonal projection, since we shall see later that this operator is not self-adjoint or
hermitian.
1.39. HERMITIAN CONJUGATION 85
A
f|ϕi ≡ hϕ| → gA|ϕi ≡ hϕ| A (1.161)
Further, the association (1.161) is linear, to see it, we write a linear combination of bras
to elucidate the answer we apply an arbitrary vector |ϕi to the functional we want to find
where we have applied property (1.36). Now we apply property (1.162) to get
E
f|ψ′ i (|ϕi) = hψ| A† ϕ = hψ| A† (|ϕi)
notice that as before, the mapping of the dual space into itself is denoted with the operator defined on the right-
hand side and not on the left15 . Further by assigning A = λI and taking into account that A† = λ∗ I we have
that
′
ψ = hλψ| = hλIψ| = hψ| (λI)† = hψ| λ∗ I ⇒
hλψ| = λ∗ hψ|
we see that
hψ| A† |ϕi = hϕ| A |ψi∗ (1.163)
and we remember the most important properties of the adjoint operators (see Eqs. (1.35))
†
A† = A , (αA + βB)† = α∗ A† + β ∗ B † (1.164)
(AB)† = B † A† (1.165)
are all distinct each other, the first and second are complex numbers, while the last two are operators, as can be
verified by applying an arbitrary vector on the right-hand side of these objects. However, expressions like
are all equal, indeed we could think about the multiplication by a scalar as equivalent to the operator λI which
commutes with everything.
15
Stricktly speaking, a mapping of the dual (or conjugate) space into itself is carried out by the conjugate operator instead of the
adjoint operator since the latter maps the Hilbert space into itself and not the dual. Notwithstanding, from the practical point of view
this subtlety is irrelevant.
1.39. HERMITIAN CONJUGATION 87
We shall now define a useful operation that we call hermitian conjugation. Our basic objects are kets, bras,
operators and scalars. In general words, hermitian conjugations are mappings induced by the existence of the dual
E ∗ of our Hilbert space E.
A ket |ψi ∈ E is naturally mapped into a bra hψ| ∈ E ∗ .
A bra hψ| ∈ E ∗ is naturally mapped into an element of the conjugate space of E ∗ , i.e on E ∗∗ . However, for
Hilbert spaces it can be shown that E ∗∗ = E hence the bra is mapped into its corresponding ket16 .
An operator A in ß(E) is mapped naturally into the conjugate vector A∗ in ß(E ∗ ) but the inner product
structure permits in turn to define another operator A† in ß(E) from A∗ and from the practical point of view we
regard A∗ and A† as identical. Thus the hermitian conjugation in this case will be the mapping A → A† .
Now finally for scalars. Taking into account that for all practical uses scalars λ can be considered as operators
in ß(E) of the form λI we see that the natural hermitian conjugation gives λI → (λI)† = λ∗ . Therefore, the
natural conjugation operation is λ → λ∗ .
We notice now that the hermitian conjugation reverses the order of the objects to which it is applied. We have
seen that (A |ψi)† = hψ| A† , Eq. (1.165) shows that the order of a product of operators is reversed when we apply
the “adjointness” (or hermitian conjugation) on that product, when scalars are involved the place in which scalars
are located is irrelevant.
By the same token, let us see what is the conjugate of the non orthogonal projection defined in (1.159)
hχ| (|ψi hϕ|)† |ηi = [hη| (|ψi hϕ|) |χi]∗ = hη| ψi∗ hϕ| χi∗ = hχ| ϕi hψ| ηi
hχ| (|ψi hϕ|)† |ηi = hχ| (|ϕi hψ|) |ηi ; ∀ |ηi , |χi ∈ E
then we have
(|ψi hϕ|)† = |ϕi hψ| (1.167)
once again, the hermitian conjugation converts each object in its hermitian conjugate and reverse the order of
such objects.
These observations permit to give a rule to obtain the hermitian conjugate of a mathematical object composed
by a juxtaposition of bras, kets, operators and scalars. The rule is (a) replace each object by its hermitian conjugate
and (b) reverse the order of the factors, taking into account that the position of the scalars are not relevant.
The hermitian conjugate of the objects defined in (1.166) are given by
in the first two expressions the original mathematical objects are scalars and hence the hermitian conjugates
are also scalars (the complex conjugates of the original scalars). In the third expression the original object is
an operator and its hermitian conjugate is also an operator (the adjoint of the original operator). In the fourth
expression, the original object is a product of two operators and a scalar (a scalar times a projection times the
operator B) and the adjoint is the product of the scalar and adjoint of each of the operators in reverse order. In
16
In Banach spaces, the property B ∗∗ = B is called reflexibity and is not in general satisfied. For Hilbert spaces, reflexibity is
automatic from which we can assign the dual element of a dual element to the original vector. This is another satisfying property of
Hilbert spaces, not accomplished by general Banach spaces.
88 CAPÍTULO 1. LINEAR OR VECTOR SPACES
each case, the scalars are located in the most convenient place since their positions are unimportant. Indeed, we
can put the conjugate of the scalars in any place, for instance in the case
[λ |χi hψ| B |ϕi]† = [λ hψ| B |ϕi |χi]† = λ∗ hψ| B |ϕi∗ hχ|
that coincides with the rules when we take into account Eq. (1.163).
It is important to see that according to (1.167) the projectors given by (1.154) are hermitian, thus according
to theorem 1.44, they are orthogonal projectors (i.e. projectors in the sense of a Hilbert space), this in turn says
that the sums in (1.156) are also orthogonal projectors (see theorem 1.50). On the other hand, the projectors
described by (1.159) with |ϕi =6 |ψi are non-hermitian and consequently they are non-orthogonal projections.
the problem is considerably simplified if we asume that the bases are orthonormal, because in that case we can
extract the coefficients by applying a bra huk | or hwα′ | on both sides of these equations
X Z
huk |ψi = huk | ci |ui i ; hwα′ |ψi = hwα′ | dα c (α) |wα i
i
X X
huk |ψi = ci huk | ui i = ci δki = ck
Zi i
Z
hw |ψi =
α′ dα c (α) hw | wα i =
α′ dα c (α) δ α − α′ = c α′
since this is valid for any ket |ψi ∈ E the operators in parenthesis must be the identity operator on E
X Z
P{ui } ≡ |ui i hui | = I ; P{wα } ≡ dα |wα i hwα | = 1 (1.170)
i
we can reverse the steps and show that applying the identity in the form given by Eqs. (1.170) we obtain that any
|ψi ∈ E must be a unique linear combination of {|ui i} or {|wα i}
!
X X
|ψi = I |ψi = P{ui } |ψi = |ui i hui | |ψi = |ui i hui | ψi
i i
X
|ψi = ci |ui i ; ci ≡ hui | ψi (1.171)
i
Z Z
|ψi = I |ψi = P{wα } |ψi = dα |wα i hwα | |ψi = dα |wα i hwα | ψi
Z
|ψi = dα c (α) |wα i ; c (α) ≡ hwα | ψi
these facts show that Eqs. (1.170) manifest a closure relation in Dirac notation. This is consistent with our
discussion in Sec. 1.38.1 that led to Eq. (1.157), in which we saw that each element of the form |ui i hui | is
a projector operator and Eqs. (1.170) are decompositions of the identity in projectors17 . In other words, the
projector given by the sums in (1.170) has the whole space as its range. In the case of the continuous basis, they
are “hyperprojectors” but we shall call them projectors from now on.
Hence the representation of a ket |ψi in a discrete basis is given by the set of its fourier coefficients {hui | ψi}
it is usually written in matrix form as a column matrix
hu1 | ψi c1
hu2 | ψi c2
.
. ..
|ψi =
. = .
hui | ψi ci
.. ..
. .
the representation of a ket |ψi in a continuous basis is given by the set of its fourier transforms {hui | ψi} it is
usually written in continuous matrix form as a column matrix
.. ..
. .
|ψi =
hw α | ψi = c (α)
.. ..
. .
the representation of a bra can be obtain by the same insertion of the identity as follows
X
hψ| = hψ| I = hψ| P{ui } = hψ| ui i hui |
i
X
hψ| = c∗i hui | ; ci = hui | ψi
i
17
In Eq. (1.157) the lower index labels the eigenvalue and the upper index indicates the degree of degeneracy of the given eigenvalue.
In Eq. (1.170) the single index runs over all different eigenvectors.
90 CAPÍTULO 1. LINEAR OR VECTOR SPACES
which can also be obtained by taking the hermitian conjugation of Eq. (1.171) and applying (1.152). For continuous
basis the process is similar
Z
hψ| = hψ| I = hψ| P{wα } = dα hψ| wα i hwα |
Z
hψ| = dα c∗ (α) hwα | ; c (α) = hwα | ψi
in matrix notation the bra is represented as a one row matrix of the coefficients, in both the discrete and continuous
cases
hψ| = hψ| u1 i hψ| u2 i · · · hψ| ui i · · ·
hψ| = c∗1 c∗2 · · · c∗3 · · ·
hψ| = ··· c∗ (α) · · ·
by comparing the representation of the corresponding ket |ψi we see that the representation of the bra is obtained
by transposing the matrix representative of the ket (i.e. converting the column in a row) and taking the conjugate
of each element.
Let us reproduce the inner product expressions (1.107) and (1.114) by insertion of the identity with projectors
X
hϕ| ψi = hϕ| I |ψi = hϕ| P{ui } |ψi = hϕ| ui ihui |ψi
i
X
hϕ| ψi = b∗i ci ; bi = hui | ϕi ; ci = hui |ψi
i
Z
hϕ| ψi = hϕ| I |ψi = hϕ| P{wα } |ψi = dα hϕ| wα ihwα |ψi
Z
hϕ| ψi = dα b∗ (α) c (α) ; b (α) = hwα | ϕi ; c (α) = hwα |ψi
in matrix form we can see the inner product as the product of a row vector times a column vector
c1
c2
.. X ∗
hϕ| ψi = b1 b2 · · · b3 · · ·
∗ ∗ ∗
. =
bi ci
ci i
..
.
2
X 2 Z
hψ| ψi = kψk = |ci | = dα |c (α)|2
i
1.40. THEORY OF REPRESENTATIONS OF E IN DIRAC NOTATION 91
they are arranged in a square matrix with infinite countable or continuous numbers of columns and rows
A11 A12 · · · A1j ···
A21 A22 · · · A2j ···
.. .. ..
A=
. . .
Ai1 Ai2 · · · Aij ···
.. .. ..
. . .
..
.
A=
··· A (α, α′ ) · · ·
..
.
it is interesting to see the matrix representative of a product of operators by insertion of the identity
X
(AB)ij = hui | AB |uj i = hui | AIB |uj i = hui | AP{ui } B |uj i = hui | A |uk i huk | B |uj i
k
X
(AB)ij = Aik Bkj
k
which coincides with the algorithm for matrix multiplication developed in Sec. 1.14.1, Eq. (1.50). We can develop
easily the matrix multiplication algorithm with continuum matrices
(AB) (α, β) = hwα | AB |wβ i = hwα | AIB |wβ i = hwα | AP{ui } B |wβ i
Z
(AB) (α, β) = dγ hwα | A |wγ i hwγ | B |wβ i
Z
(AB) (α, β) = dγ A (α, γ) B (γ, β) (1.172)
from the knowledge of the components of |ψi and A, in a given representation {ui }. The coordinates of |ψ ′ i in
this basis is
X
c′i = hui ψ ′ = hui | A |ψi = hui | AI |ψi = hui | AP{ui } |ψi = hui | A |uk i huk | ψi
k
X
c′i = Aik ck
k
92 CAPÍTULO 1. LINEAR OR VECTOR SPACES
Therefore, the bra hψ| A is represented by the product of the row matrix that represents hψ| times the square
matrix representing A respecting the order
A11 A12 · · · A1j ···
A21 A22 · · · A2j ···
.. .. ..
hψ| A = c1 c2 · · · c3 · · ·
∗ ∗ ∗
. . .
Ai1 Ai2 ··· Aij ···
.. .. ..
. . .
observe that the matrix product is not defined in the opposite order, thus we cannot give meaning to A hψ|.
In many cases, it is also interesting to calculate the element hϕ| A |ψi in terms of the coordinates of the bra
and the ket and in terms of the components of A. To do it, we insert an expansion of the identity twice
XX
hϕ| A |ψi = hϕ| IAI |ψi = hϕ| P{ui } AP{ui } |ψi = hϕ| ui i hui | A |uj i huj |ψi
i j
XX
hϕ| A |ψi = b∗i Aij cj ; bi = hui | ϕi, Aij = hui | A |uj i , cj = huj |ψi
i j
this is the natural way of superposing the representations of hϕ|, A, and |ψi respecting the order. The result is of
course a number. The extension for continuous bases is
Z Z
hϕ| A |ψi = hϕ| P{wα } AP{wβ } |ψi = dα dβ hϕ| wα i hwα | A |wβ i hwβ |ψi
and we obtain
Z Z
hϕ| A |ψi = dα dβ b∗ (α) A (α, β) c (β)
b (α) = hwα | ϕi ; A (α, β) = hwα | A |wβ i ; c (β) = hwβ |ψi
notice that Eq. (1.162) expresses the associativity of the matrix expressions given by Eq. (1.173).
Finally, the projection operator P = |ψi hψ| has matrix representative given by
this representation is particularly simple when P = |uk i huk | i.e. when the ket that forms the projector is part of
the basis.
The matrix representation of the adjoint operator is obtained by using property (1.163)
A† = hui | A† |uj i = huj | A |ui i∗ = A∗ji
ij
A† (α, β) = hwα | A† |wβ i = hwβ | A |wα i∗ = A∗ (β, α)
these results coincide with the one obtained in Eq. (1.70). If A is hermitian then A = A† and
in particular applying these conditions for i = j or α = β we see that the diagonal elements of an hermitian matrix
are real. These facts are valid only if the basis is orthonormal, otherwise the matrix representative of the adjoint
of the matrix takes another form.
(k)
To give a geometrical meaning to S, let define Vi ≡ Sik and V(k) the k−th column vector with components Sik .
Then, it is clear that V(k) is the matrix representative (column matrix) of the element |tk i in the basis {|ui i}. We
then construct a square matrix by putting these column vectors side by side
S11 S12 S11 S12 · · ·
S = V(1) V(2) · · · = S21 S22 · · · = S21 S22 · · ·
.. .. .. ..
. . . .
We can also see that S is a unitary matrix
X † X
S †S = Ski Sim = htk | ui i hui | tm i = htk | P{ui } |tm i = htk | tm i = δkm
km
i i
X X
†
SS † = Sik Skj = hui | tk i htk | uj i = hui | P{tk } |uj i = hui | uj i = δij
ij
k k
consequently
S † S = SS † = I
On the other hand, we will also require the closure and orthonormalization relations with both bases
X
P{ui } = |ui i hui | = I ; hui | uj i = δij
i
X
P{tk } = |tk i htk | = I ; htk | tm i = δkm
k
with ci and Aij the matrix elements of |ψi and A in the basis {ui }. This expression can be rewritten as
X
[Aij − λδij ] cj = 0
j
which is the well known expression for the eigenvalue problem in matrix form.
Er will describe the state space of a spinless particle. We have discussed before that ψ (r) can also be interpreted
as a representation of the abstract ket |ψi in the continuous basis {ξr (r′ )} defined in Eq. (1.120). We also saw that
ξr (r′ ) are not elements of ̥, but they can be used to expand any element of ̥ in a unique way. We call ξr (r′ )
“generalized wave functions” and it is natural to associate with them some “generalized kets” denoted as |ri that
do not belong to Er but can expand any element of Er in such a way that if ψ (r) ↔ |ψi then the expansion of
ψ (r) under ξr (r′ ) has the same coefficients as the expansion of |ψi under |ri
Z Z
ψ (r) = dr′ c r′ ξr′ (r) ; |ψi = dr′ c r′ r′
We denote this association as ξr ↔ |ri. Similarly, for the continuous basis defined in Eq. (1.116) by {vp (r)} which
has plane waves as “generalized wave functions”, we shall have a continuous basis of Er denoted as |p0 i
ξr r′ ↔ |ri ; vp (r) ↔ |pi
therefore, using the bases {ξr (r′ )} and {vp (r)} of ̥ we have defined two continuous basis in Er denoted as
{|ri} and {|pi}. Consequently, all bras, kets and operators in Er will have a continuous matrix representation
in these bases. The basis {|ri} is labeled by three continuous indices x, y, z which are the coordinates of a point
in three dimensional space. Similarly, the basis {|pi} is labeled by three continuous indices px , py , pz which are
components of a cartesian vector.
hr r′ = δ r − r′ (1.177)
similarly
Z Z Z
′
3 ∗ 1 3 3 −ip·r/~ ip′ ·r 1 3 ′
hp p = d r vp (r) vp′ (r) = d re e = d3 r e−i(p−p )·r/~
2π~ 2π~
′
hp p = δ p−p ′
where we have used property (1.117). The closure relations for {|ri} and {|pi} are written according with the
second of Eqs. (1.170) integrating over three indices instead of one. The orthonormality and closure relations for
these bases are then
hr r′ = δ r − r′ ; hp p′ = δ p − p′ (1.178)
Z Z
d3 r |ri hr| = I ; d3 p |pi hp| = I (1.179)
1.43. THE CONTINUOUS BASES |Ri AND |Pi 97
the coefficients c (r) = hr| ψi and c̄ (p) = hp| ψi are calculated as follows
Z Z
hr| ψi = d r ξr r ψ r = d3 r′ δ r′ − r ψ r′ = ψ (r)
3 ′ ∗ ′ ′
Z 3/2 Z
3 1
hp| ψi = d r vp∗ (r) ψ (r) = d3 r e−ip·r/~ ψ (r) = ψ̄ (p)
2π~
hence
c (r) = hr| ψi = ψ (r) ; c̄ (p) = hp| ψi = ψ̄ (p) (1.181)
the coefficients c (r) of the expansion of |ψi under {|ri} are the wave functions evaluated at the point r, this fact
reinforces the interpretation of the wave function as the representation of |ψi under the basis |ri. The coefficients
c̄ (p) are the fourier transforms of the wave function, this coefficients ψ̄ (p) are usually called “wave functions in
momentum space”, since they represent the same abstract vector |ψi it is clear that ψ (r) and ψ̄ (p) contain the
same physical information, this can also be seen by taking into account that given ψ (r) then ψ̄ (p) is uniquely
determined and vice versa. On the other hand, by comparing Eqs. (1.180, 1.181) with Eqs. (1.121, 1.122) we see
that if ψ (r) ↔ |ψi then the expansion of ψ (r) under ξr (r′ ) has the same coefficients as the expansion of |ψi under
|ri as we demanded. Similar situation occurs with the basis {vp } in ̥ and the basis |pi in Er .
An important particular case arises when |ψi = |pi which is indeed a generalized ket. Assuming that all the
relations above are also valid for generalized kets, and taking into account that |pi ↔ vp (r), then Eq. (1.181)
gives
1 3/2 ip·r/~
hr| pi = vp (r) = e (1.182)
2π~
the same result is obtained by taking into account the equality of the inner product of vectors in ̥ and vectors
in Er when this equality is extended to generalized vectors
Z Z
hr| pi = (|ri , |pi) = (ξr , vp ) = d3 r′ ξr∗ r′ vp r′ = d3 r′ δ r′ − r vp r′ = vp (r)
applying Eq. (1.181) for |ψi = |r′ i ↔ ψ (r) = ξr′ (r) we find
hr| r′ i = ξr′ (r) = δ r − r′
Assume that we have an orthonormal basis {ui (r)} in ̥ and an orthonormal basis {|ui i} in Er such that
ui (r) ↔ |ui i. Starting with the closure relation for {|ui i} in Er
X
|ui i hui | = I
i
98 CAPÍTULO 1. LINEAR OR VECTOR SPACES
and evaluating the matrix element of it between |ri and |r′ i we have
X
hr |ui i hui | r′ i = hr| I r′ = hr| r′ i
i
1.43.3. Changing from the {|ri} representation to {|pi} representation and vice versa
The procedure is similar to the one in section 1.41 but for continuous basis. If we consider the change from
{|ri} to {|pi}, the unitary matrix S of changing the basis is
1 3/2 ip·r/~
S (r, p) = hr |pi = e (1.183)
2π~
a ket |ψi is represented as ψ (r) in {|ri} and we know well that in {|pi} it is given by ψ̄ (p). Here we see that it
is consistent with the formalism developed in Sec. 1.41
Z Z
3
hp |ψi = d r hp |ri hr |ψi = d3 r S† (r, p) hr |ψi
3/2 Z
1
ψ̄ (p) = d3 r e−ip·r/~ ψ (r) (1.184)
2π~
similarly
Z Z
3
hr |ψi = d p hr |pi hp |ψi = d3 p S (r, p) hp |ψi
3/2 Z
1
ψ (r) = d3 p eip·r/~ ψ̄ (p) (1.185)
2π~
19
Notice that I (r, r′ ) = hr′ | I |ri = hr′ | ri = δ (r − r′ ) shows that the Dirac delta can be seen as the representation of the identity
under the continuous hyperbasis {|ri}.
1.43. THE CONTINUOUS BASES |Ri AND |Pi 99
the representation of bras can be obtained by hermitian conjugation of the relations with kets.
Now for a given operator, the matrix elements in {|pi} read A (p′ , p) = hp′ | A |pi inserting two identities we
get
Z Z
′
p A |pi = 3 ′
d r d3 r p′ r′ i r′ A |ri hr |pi
Z Z
′
p A |pi = 3 ′
d r d3 r S † r′ , p′ A r′ , r S (r, p)
such that in the {|ri} representation the associated wave function ψ ′ (r) = ψ (x, y, z) is given by
so in the {|ri} representation, it corresponds to the operator that multiplies the wave function by x. We should
emphasize however, that the operator X is defined on the Er state space. Eq. (1.186) can be expressed by
hr| X |ψi = xhr |ψi , hr| Y |ψi = yhr |ψi , hr| Z |ψi = zhr |ψi ; |ri = |x, y, zi (1.187)
we can consider X, Y, Z as the “components” of a “vector operator” R, by now it only means a condensed notation
inspired in the fact that x, y, z are the components of the ordinary vector r.
20
The operator X does not belong to ß(Er ), because for some square integrable functions ψ (r), the function ψ ′ (r) defined in Eq.
(1.186) is not square integrable.
100 CAPÍTULO 1. LINEAR OR VECTOR SPACES
These operators can be easily manipulated in the {|ri} representation. For instance, the element hϕ| X |ψi can
be calculated as Z Z
hϕ| X |ψi = d r hϕ| ri hr| X |ψi = d3 r ϕ∗ (r) x ψ (r)
3
similarly, we define the operators Px , Py , Pz that forms the “vector operator” P, such that their action in the {|pi}
representation is given by
hp| Px |ψi = px hp |ψi , hp| Py |ψi = py hp |ψi , hp| Pz |ψi = pz hp |ψi ; |pi = |px , py , pz i (1.188)
however, when we require to work with both operators simultaneously, we should choose only one basis. Hence,
it is important to know how the operator P acts in the {|ri} representation, and how the operator R acts in the
{|pi} representation.
Let us first look for the way in which the operator P acts in the {|ri} representation. For this, we use Eqs.
(1.181, 1.182, 1.188) to evaluate
Z Z 3/2 Z
3 3 1
hr| Px |ψi = d p hr| pi hp| Px |ψi = d p hr| pipx hp| ψi = d3 p eip·r/~ px ψ̄ (p) (1.189)
2π~
to evaluate this term we start with the expression of the Fourier transform Eq. (1.185)
3/2 Z ∞
1
ψ (r) = d3 p eip·r/~ ψ̄ (p)
2π~ −∞
3/2 Z ∞
∂ψ (r) 1 ∂ ip·r/~ 3
= d p e ψ̄ (p)
∂x 2π~
−∞ ∂x
Z
∂ψ (r) 1 3/2 ∞ 3 i
= d p px eip·r/~ ψ̄ (p)
∂x 2π~ −∞ ~
we have that
3/2 Z ∞
~ ∂ψ (r) 1
= d3 p px eip·r/~ ψ̄ (p) (1.190)
i ∂x 2π~ −∞
~
hr| P |ψi = ∇hr |ψi (1.191)
i
in the {|ri} representation, the operator P coincides with the differential operator acting on the wave functions.
Let us calculate hϕ| Px |ψi in the {|ri} representation
Z Z
3 3 ~ ∂
∗
hϕ| Px |ψi = d r hϕ |ri hr| Px |ψi = d r ϕ (r) ψ (r) (1.192)
i ∂x
1.43. THE CONTINUOUS BASES |Ri AND |Pi 101
of great importance are the commutators among the components Pi , Ri . We shall calculate them in the {|ri}
representation, for instance
hr| [X, Px ] |ψi = hr| (XPx − Px X) |ψi = hr| (XPx ) |ψi − hr| (Px X) |ψi
~ ∂
= hr| X |Px ψi − hr| Px |Xψi = x hr| Px ψi − hr| Xψi
i ∂x
~ ∂ ~ ∂ ~ ∂
= x hr| Px |ψi − hr| X |ψi = x hr| ψi − [x hr| ψi]
i ∂x i ∂x i ∂x
~ ∂ ~ ∂ ~
= x hr| ψi − x [hr| ψi] − hr| ψi
i ∂x i ∂x i
so that
hr| [X, Px ] |ψi = i~ hr| ψi
since this is valid for any ket |ψi and any generalized ket |ri of the basis, we conclude that
[X, Px ] = i~I
it is usual to omit the identity operator since it is not important for practical calculations. In a similar way, we
can calculate the other commutators, to condense notation it is convenient to define
R1 ≡ X, R2 ≡ Y, R3 ≡ Z, P1 ≡ Px , P2 ≡ Py , P3 ≡ Pz
to write
[Ri , Rj ] = [Pi , Pj ] = 0 ; [Ri , Pj ] = i~δij (1.193)
they are called canonical commutation relations. These relations are intrinsic and should not depend on the basis
in which we derive them.
We can show that R and P are hermitian operators. For example let us show that X is hermitian
Z Z Z ∗
3 3 ∗ 3 ∗
hϕ| X |ψi = d r hϕ |ri hr| X |ψi = d r ϕ (r) x ψ (r) = d r ψ (r) x ϕ (r)
since this is valid for arbitrary kets |ψi and |ϕi, and taking into account Eq. (1.163) we conclude that X = X † .
For Px we see that
Z Z Z ∗
3 3 ∗ 3 ∗
hϕ| Px |ψi = d p hϕ |pi hp| Px |ψi = d p ϕ̄ (p) px ψ̄ (p) = d p ψ̄ (p) px ϕ̄ (p)
and Px = Px† . The procedure is the same for the other components of R and P
R = R† , P = P†
There is an alternative proof of the hermiticity of P by using its action in the {|ri} representation given by
Eq. (1.191). Integrating Eq. (1.192) by parts we have
Z Z ∞
~ ∗ ∂
hϕ| Px |ψi = dy dz dx ϕ (r) ψ (r)
i −∞ ∂x
Z Z ∞
~ ∗ x=∞ ∂ ∗
= dy dz [ϕ (r) ψ (r)]x=−∞ − dx ψ (r) ϕ (r)
i −∞ ∂x
102 CAPÍTULO 1. LINEAR OR VECTOR SPACES
since the scalar product hϕ| ψi is convergent, ϕ∗ (r) ψ (r) approaches zero when x → ±∞. Hence the first term
on the right-hand side vanishes and we find
Z Z ∗
~ 3 ∂ ∗ ~ 3 ∗ ∂
hϕ| Px |ψi = − d r ψ (r) ϕ (r) = d r ψ (r) ϕ (r)
i ∂x i ∂x
hϕ| Px |ψi = hψ| Px |ϕi∗
two things deserve attention, first the presence of the i factor is essential because i∂/∂x is hermitian but ∂/∂x is
not. Second, we have used explicitly the fact that |ψi and |ϕi belong to Er by assuming that the scalar product
hϕ| ψi is convergent, so this proof is not valid for generalized kets.
so the components of the ket X |ri in the {|r′ i} representation are equal to the ones of the ket |ri = |x, y, zi
multiplied by x
X |ri = x |ri
the kets |ri are eigenkets common to X, Y, Z. The set {|ri} of common eigenvectors of X, Y, Z forms a basis
showing that {X, Y, Z} is a complete set of commuting observables. On the other hand, the specification of the
three eigenvalues x0 , y0 , z0 determines uniquely the “normalized” eigenvector |r0 i except for a phase eiθ . In the {|ri}
representation the coordinates of |r0 i are δ (x − x0 ) δ (y − y0 ) δ (z − z0 ). Therefore, the set {X, Y, Z} constitutes a
C.S.C.O. in Er .
Analogous reasoning shows that for the commuting observables {Px , Py , Pz } the eigenvalues and eigenvectors
are
Px |pi = px |pi , Py |pi = py |pi , Pz |pi = pz |pi ; |pi = |px , py , pz i
since {|pi} is a basis the operators Px , Py , Pz are observables. Because the set of eigenvalues (p0x , p0y , p0z ) deter-
mines uniquely the vector |p0 i the set {Px , Py , Pz } constitutes as C.S.C.O. in Er .
It worths pointing out that X is not a C.S.C.O. by itself in the Er state space because when x0 is specified y0
and z0 can take any real values. Therefore, x0 is an infinitely degenerate eigenvalue. Notwithstanding in the state
space Ex of a particle in one dimension, X constitutes a C.S.C.O. since the eigenvalue x0 determines uniquely the
eigenvector |x0 i, and its coordinates in the {|xi} representation are given by δ (x − x0 ).
It can also be shown that the set {X, Py , Pz } constitutes a C.S.C.O. since they commute with each other, and
for a set of eigenvalues {x0 , p0y , p0z } there is a unique eigenvector whose associated wave function is
{Y, Px , Pz } , {Z, Px , Py }
1.43. THE CONTINUOUS BASES |Ri AND |Pi 103
since the rotation is arbitrary, it means that ψ only depends on |p| and not on its direction. Therefore, we can
evaluate ψ (p) with Eq. (1.194), by choicing p = puz
Z Z Z π Z 2π
1 3/2 3 −ipz/~ 1 3/2 ∞ 2
ψ (p) = d re ψ (r) = r dr ψ (r) dθ sin θ e−ipr cos θ/~ dϕ
2π~ 2π~ 0 0 0
Z Z π
1 3/2 ∞ 2
ψ (p) = 2π r dr ψ (r) dθ sin θ e−ipr cos θ/~ (1.198)
2π~ 0 0
[Q, P ] = i~ (1.201)
such couples of observables are frequently encountered in quantum mechanics. The position and momentum
observables are good examples. However, in what follows all properties are derived from the commutation rule
(1.201) regardless the specific form of the operators. Let us define the operator S (λ) that depends on a real
parameter λ as
S (λ) = e−iλP/~ (1.202)
since P is observable and so hermitian this operator is unitary
now we calculate the commutator [Q, S (λ)]. To do it, we take into account that [Q, P ] = i~ clearly commutes
with Q and P , therefore we can apply theorem 1.70, Eq. (1.136) to obtain
′ iλ −iλP/~
[Q, S (P )] = [Q, P ] S (P ) = i~ − e = λS (P )
~
where we have written S (P ) instead of S (λ) to emphasize that when applying Eq. (1.136) we are considering S
as a function of the operator P (so the derivative is with respect to P ). Rewriting it in the old notation we have
therefore, S (λ) |qi is also an eigenvector of Q with eigenvalue q + λ. Note that S (λ) |qi is non-zero because S (λ)
is unitary so the norm of |qi is preserved. On the other hand, since λ can take any real value, we conclude that by
1.44. GENERAL PROPERTIES OF TWO CONJUGATE OBSERVABLES 105
starting with an eigenvector of Q, we can construct another eigenvector of Q with any real eigenvalue by applying
the appropiate S (λ). Consequently, the spectrum of Q is continuous and consists of all real values.
Note that this result shows in particular that conjugate operators Q, P cannot exist in finite dimensional vector
spaces since for the latter the spectrum must be finite. Even they do not exist strictly in spaces of denumerable
dimension such as L2 , (for which the spectrum must be at most denumerable), so the eigenvectors |qi will form
hyperbasis in L2 .
Let us now show that if any given q is non-degenerate, then all the other eigenvalues of Q are also non-
degenerate. For this we assume that the eigenvalue q+λ is at least two-fold degenerate and arrive to a contradiction.
From this hypothesis, there are at least two orthogonal eigenvectors |q + λ, αi and |q + λ, βi associated with the
eigenvalue q + λ
hq + λ, β |q + λ, αi = 0 (1.208)
now consider the two vectors S (−λ) |q + λ, αi and S (−λ) |q + λ, βi from Eq. (1.207) we see that
so S (−λ) |q + λ, αi and S (−λ) |q + λ, βi are two eigenvectors associated with the eigenvalue q. Calculating the
inner product of them
hq + λ, β| S † (−λ) S (−λ) |q + λ, αi = hq + λ, β |q + λ, αi = 0
where we have used Eq. (1.208) and the fact that S (λ) is unitary. Thus, we arrive to the fact that S (−λ) |q + λ, αi
and S (−λ) |q + λ, βi are two orthogonal (and so linearly independent) eigenvectors associated with q, contradicting
the hypothesis that q is non-degenerate. This result can be extended to find that the eigenvalues of Q must all
have the same degree of degeneracy.
We now look for the eigenvectors. We fix the relative phses of the diffrent eigenvectors of Q with respect to
the eigenvector |0i associated with the eigenvalue 0, by setting
where we have replaced λ → −λ in the last step. In summary the action of S (λ) on the eigenvectors |qi of Q are
given by
S (λ) |qi = |q + λi ; hq| S (λ) = hq − λ| (1.210)
now we can characterize the action of the operators P, Q and S (λ) in either the {|qi} basis or the {|pi} basis.
where we have used (1.206) and the hermiticity of Q. The action of Q on |ψi reduces to a simple multiplication
with its associated eigenvalue. The action of S (λ) on |ψi in this basis is also simple
where we have used (1.210). Note that a function f (x − a) is the function that at the point x = x0 + a, takes on
the value f (x0 ), so that it is the function obtained from f (x)by a translation of +a. Therefore, Eq. (1.211, shows
that the action of S (λ) on |ψi in the basis {|qi} , can be described as a translation of the wave function over a
distance +λ parallel to the q−axis. So S (λ) is usually called the translation operator.
The action of P on |ψi in the {|qi} basis is a bit longer to obtain. Let ε be an infinitesimal quantity such that
ε
S (−ε) = eiεP/~ = I + i P + O ε2
~
therefore
h ε i ε
hq| S (−ε) |ψi = hq| I + i P + O ε2 |ψi = hq |ψi + i hq| P |ψi + O ε2
~ ~
ε 2
hq| S (−ε) |ψi = ψ (q) + i hq| P |ψi + O ε (1.212)
~
on the other hand, from Eq. (1.211) we have
~ ψ (q + ε) − ψ (q)
hq| P |ψi = lı́m
i ε→0 ε
~ d
hq| P |ψi = ψ (q) (1.214)
i dq
~ d
so the action of P on a ket in the {|qi} basis is that of i dq .
1.44.3. Representation in the {|pi} basis and the symmetrical role of P and Q
From Eq. (1.214), we can obtain the wave function vp (q) associated in the {|qi} basis, with the eigenvector
|pi of P with eigenvalue p
1
vp (q) = hq |pi = √ eipq/~
2π~
we can then write Z ∞
1
|pi = √ dqeipq/~ |qi
2π~ −∞
1.45. DIAGONALIZATION OF A 2 × 2 HERMITIAN MATRIX 107
an hermitian operator is described by an hermitian matrix when the basis used is orthonormal. Therefore,
∗ ∗ ∗
H11 = H11 ; H22 = H22 ; H12 = H21
so that diagonal elements are real. Let us express the matrix in Eq. (1.215) in the equivalent form
1
1
(H11 + H22 )
2 0 2 (H11 − H22 ) H12
H = 1 +
0 2 (H11 + H22 ) H21 − 12 (H11 − H22 )
∗
2H21
!
1 1 0 1 1 (H11 −H22 )
H = (H11 + H22 ) + (H11 − H22 ) 2H21
2 0 1 2 (H11 −H22 ) −1
∗
2H21
!
1 1 1 (H11 −H22 )
H = (H11 + H22 ) I + (H11 − H22 ) K ; K ≡ 2H21 (1.216)
2 2 (H11 −H22 ) −1
108 CAPÍTULO 1. LINEAR OR VECTOR SPACES
and I is the identity matrix. Let |ψ± i be two linearly independent eigenvectors of K
1 1
H |ψ± i = (H11 + H22 ) I |ψ± i + (H11 − H22 ) K |ψ± i
2 2
1
H |ψ± i = [(H11 + H22 ) + (H11 − H22 ) κ± ] |ψ± i
2
therefore |ψ± i are also eigenvectors of H with eigenvalues
1
H |ψ± i = E± |ψ± i ; E± ≡ [(H11 + H22 ) + (H11 − H22 ) κ± ] (1.218)
2
note that the problem reduces to find the eigenvectors of K (which coincide with the ones of H) and also its
eigenvalues (which are related with the eigenvalues of H through Eq. 1.218). Solving the problem for K is equivalent
to choose the origin of the eigenvalues in (H11 + H22 ) /2 = (T rH)/2. Note that this shift is independent of the
basis chosen to write H.
2 |H21 |
tan θ = , 0≤θ<π (1.219)
H11 − H22
H21 = |H21 | eiϕ , 0 ≤ ϕ < 2π (1.220)
so ϕ is the argument of the term H21 . Matrix K in Eq. (1.216) can be written as
2|H21 |e−iϕ
!
1 (H11 −H22 ) 1 tan θ e−iϕ
K= 2|H21 |eiϕ
= (1.221)
−1 tan θ eiϕ −1
(H11 −H22 )
let us find the eigenvectors of K. We denote as a and b the components of |ψ+ i in the basis {|ϕ1 i , |ϕ2 i}. From
Eqs. (1.221, 1.222) this eigenvector must satisfy
1 tan θ e−iϕ a 1 a
iϕ =
tan θ e −1 b cos θ b
of course only one of the two equations is linearly independent since only quotients between the coefficients can
be determined, therefore
−iϕ a −iϕ 1
a + b tan θ e = ⇒ b tan θ e =a −1
cos θ cos θ
in terms of θ we get
θ −iϕ/2 θ
e = a sin eiϕ/2
b cos (1.224)
2 2
we demand normalization with the additional requirement of positivity for the coefficient a, so we have
a sin θ eiϕ/2 2
|a|2 + |b|2 = 1 ⇒ |a|2 + θ
2
=1
cos 2 e −iϕ/2
2
θ θ
|a|2 + a tan eiϕ = 1 ⇒ |a|2 + |a|2 tan2 = 1
2 2
θ θ
|a|2 1 + tan2 = 1 ⇒ |a|2 = cos2
2 2
so that
θ
a = cos ≥0 since 0 ≤ θ < π (1.225)
2
replacing (1.225) in (1.224) we get
θ −iϕ/2 θ θ θ
b cos e = cos sin eiϕ/2 ⇒ b = sin eiϕ
2 2 2 2
so that the eigenvector |ψ+ i′ associated with the eigenvalue κ+ reads
θ θ
|ψ+ i′ = a |ϕ1 i + b |ϕ2 i = cos |ϕ1 i + sin eiϕ |ϕ2 i
2 2
it is clear that |ψ+ i ≡ e−iϕ/2 |ψ+ i′ is also an eigenvector of K with the same eigenvalue κ+ and this vector looks
more symmetrical. Thus, we define the eigenvector |ψ+ i as21
θ −iϕ/2 θ
|ψ+ i = cos e |ϕ1 i + sin eiϕ/2 |ϕ2 i (1.226)
2 2
21
This is equivalent to define the phase of the coefficient a as −ϕ/2 instead of zero, in the process of normalization.
110 CAPÍTULO 1. LINEAR OR VECTOR SPACES
θ −iϕ/2 θ
|ψ− i = − sin e |ϕ1 i + cos eiϕ/2 |ϕ2 i (1.227)
2 2
the eigenvalues of H are obtained by combining Eqs. (1.218, 1.223)
1
E± ≡ [(H11 + H22 ) + (H11 − H22 ) κ± ]
2 s
" #
1 (H11 − H22 )2 + 4 |H21 |2
= (H11 + H22 ) ± (H11 − H22 )
2 (H11 − H22 )2
q
1 2 2
E± ≡ (H11 + H22 ) ± (H11 − H22 ) + 4 |H21 |
2
it worths saying that the eigenvalue problem can be solved directly without resorting to the angles θ and ϕ defined
in Eq. (1.219, 1.220). This procedure is advantageous only if we have to calculate the eigenvectors as well.
in agreement with Eq. (1.93, 1.94). From Eq. (1.229), the spectrum becomes degenerate i.e. E+ = E− when
(H11 − H22 )2 + 4 |H21 |2 = 0. That is when H11 = H22 and H12 = H21 = 0. So a 2 × 2 hermitian matrix has a
degenerate spectrum if and only if it is proportional to the identity.
It worths remarking that although functions of θ are expressed simply in terms of the Hij elements by means of
Eqs. (1.232), it is not the case when functions of θ/2 appears. Thus, when we do calculations with the eigenvectors
(1.230, 1.231), it is convenient to keep the results in terms of θ/2 up to the end of the calculation instead of
replacing it in terms of the Hij quantities.
Capı́tulo 2
Nuestro presente entendimiento de la naturaleza requiere reevaluar las leyes de la mecánica clásica, especial-
mente en lo referente a los fenómenos atómicos y subatómicos. No obstante, existen manifestaciones macroscópicas
de los procesos cuánticos. A manera de ejemplo, la existencia misma de los sólidos solo se puede explicar en un
contexto cuántico, y los modelos sobre calor especı́fico de los sólidos no se pueden explicar con un modelo clásico.
A finales del siglo diecinueve, se identificaban en la fı́sica dos tipos de entidades bien diferenciadas: la materia y
la radiación. Las leyes de Newton permitı́an explicar los fenómenos relativos a la materia en la escala macroscópica
y las ecuaciones de Maxwell proporcionaban una excelente descripción de la dinámica de la radiación1 . Finalmente,
la interacción de la materia con la radiación la proporcionaba la ley de fuerza de Lorentz. Es notable el hecho
de que la teorı́a de Maxwell habia logrado la unificación de fenómenos que antes se consideraban separados: la
electricidad, el magnetismo y la óptica.
No obstante, a finales del siglo diecinueve y principios del veinte una serie de experimentos condujeron a
reevaluar la estructura fundamental de la materia y además a replantear las leyes que rigen a estas estructuras
fundamentales. La mecánica cuántica es entonces el resultado de estos replanteamientos. Vale decir por supuesto
que al menos en principio, el mundo macroscópico también se rige por la leyes de la cuántica, si bien para la
mayorı́a de fenómenos a escala humana, la Fı́sica clásica representa una descripción mucho más simple y al mismo
tiempo bastante adecuada.
A continuación se realizará una breve descripción de los experimentos que dieron lugar a las nuevas ideas sobre
el mundo microscópico, con el fin de dejar claros los puntos que es necesario reevaluar en la mecánica clásica. La
descripción de estos experimentos no pretende ser completa ni exhaustiva, solo pretende mostrar las ideas que
éstos nos arrojan sobre el comportamiento de la naturaleza a nivel microscópico (atómico y subatómico). Para un
estudio más detallado de estos experimentos el lector puede recurrir a los textos estándar sobre Fı́sica Moderna
(ver por ejemplo Ref. [1]).
111
112 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
de la partı́cula oscilante asumiendo que cada una de estas partı́culas solo puede tener una energı́a εn que sea
múltiplo entero de una energı́a fundamental ε0 = hν siendo ν la frecuencia de oscilación y siendo h una constante
universal que se ajusta experimentalmente, por lo tanto
εn = nhν , n = 0, 1, 2, 3, 4, . . . (2.1)
recalculando el espectro con este postulado, Planck pudo reproducir el espectro del cuerpo negro para todas
las longitudes de onda. Posteriormente, Planck observó que esto era equivalente a cuantizar directamente las
ondas electromagnéticas estacionarias asociadas a cada frecuencia y que oscilan sinusoidalmente. De hecho, Planck
generaliza su postulado diciendo que la Ec. (2.1) describe la energı́a total asociada a cualquier entidad fı́sica cuya
única coordenada generalizada efectúa oscilaciones armónicas simples (variaciones sinusoidales en el tiempo).
Por otro lado, definamos ∆E como la energı́a necesaria para que un electrón pueda llegar al otro electrodo,
esta será igual a la energı́a necesaria para llegar a la superficie, mas la energı́a W necesaria para salir del material
venciendo la fuerzas superficiales atractivas. El mecanismo fotoeléctrico imparte una energı́a hν al fotoelectrón y
si esta energı́a es mayor que ∆E el electrón puede escapar de la superfice del fotocátodo. Es claro que para los
electrones de la superficie ∆E = W de modo que la máxima energı́a cinética con la que llegan los fotoelectrones
al otro electrodo es
Emáx = hν − W
mostrando claramente que tal energı́a máxima es función lineal de la frecuencia de la radiación incidente, pero es
independiente de su intensidad. Estas predicciones fueron corroboradas por Millikan en 1916.
E hν h
p= = = (2.5)
c c λ
Ahora bien, puesto que la frecuencia ν1 donde se obtiene un pico de intensidad (ν1 < ν0 ) de la radiación
dispersada, es independiente del material de la hoja metálica, es razonable suponer que en la dispersión no participa
el átomo completo. En consecuencia, otra de las suposiciones fundamentales de Compton, fué que los fotones se
dispersaban en virtud de las colisiones entre éstos y los electrones libres en la lámina, que están inicialmente en
reposo. Esta suposición es razonable si tenemos en cuenta que un cuanto de rayos X tiene una energı́a mayor
114 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
en varios órdenes de magnitud a la energı́a de un cuanto de luz ultravioleta, y teniendo en cuenta que a su vez
el efecto fotoeléctrico sugiere que la energı́a de un cuanto de luz ultravioleta, es comparable con la energı́a de
ligadura del electrón en el metal.
Consideraremos entonces una colisión entre un fotón y un electrón libre en reposo. Por simplicidad elegimos el
eje X a lo largo del momento lineal incidente p0 del fotón localizado. Denotaremos como (E0 , p0 ) a la energı́a y la
magnitud del momento lineal del fotón incidente, (E1 , p1 ) serán la energı́a y el momento lineal del fotón dispersado
en un ángulo θ (con respecto a X). Finalmente, (T, p) son la energı́a cinética y el momento lineal del electrón
dispersado en un ángulo φ con respecto al eje X. La conservación del momento lineal en X nos dice que
por otro lado, aplicando la conservación de la energı́a total relativista antes y después de la dispersión, se tiene
que
E0 + m0 c2 = E1 + T + m0 c2 ⇒
E0 − E1 = T
donde m0 es la masa en reposo del electrón. Aplicando la relación (2.5), que es válida solo para el fotón, se
encuentra que
c (p0 − p1 ) = T (2.9)
Adicionalmente, aplicando la relación (2.4), al electrón dispersado tenemos que
2 2
T + m0 c2 = p2 c2 + m0 c2 ⇒ T 2 + 2T m0 c2 = p2 c2
T2
+ 2T m0 = p2 (2.10)
c2
sustituyendo p2 y T de las Ecs. (2.8, 2.9) en la Ec. (2.10) resulta
c2 (p0 − p1 )2
+ 2c (p0 − p1 ) m0 = p20 + p21 − 2p0 p1 cos θ ⇒ −2p0 p1 + 2m0 c (p0 − p1 ) = −2p0 p1 cos θ ⇒
c2
(p0 − p1 ) 1
m0 c (p0 − p1 ) = p0 p1 (1 − cos θ) ⇒ = (1 − cos θ) ⇒
p0 p1 m0 c
1 1 1
− = (1 − cos θ)
p1 p0 m0 c
h
(λ1 − λ0 ) = λC (1 − cos θ) ; λC ≡ ≃ 0,02426 × 10−8 cm (2.11)
m0 c
2.4. ESPECTROSCOPÍA, ESTABILIDAD DEL ÁTOMO Y TEORÍA DE BOHR 115
donde λC se denomina la longitud de onda de Compton. La Ec. (2.11) se conoce como ecuación de Compton.
Esta ecuación predice que el aumento en la longitud de onda asociada al segundo pico de resonancia con respecto a
la longitud de onda incidente, depende solamente del ángulo de dispersión y de la constante universal λC , pero es
independiente del material de la hoja metálica y de la longitud de onda incidente. La corroboración experimental
fué realizada por diversos autores tales como Bothe, Wilson, Geiger, y Bless entre los años 1923 y 1927.
Este experimento además de dar una prueba convincente de la existencia del cuanto de radiación (fotón),
muestra que éste puede comportarse como partı́cula en un experimento de dispersión. Vimos anteriormente que
el efecto fotoeléctrico también proporciona evidencia de la existencia de los cuantos, que además se suponen
localizados como las partı́culas. A priori pareciera darse un retroceso a una imagen corpuscular de la radiación. No
obstante, la radiación electromagnética tiene ciertas propiedades como la difracción, que solo puede ser explicada
en términos de movimiento ondulatorio. Esto nos conduce a considerar que en la radiación electromagnética
el comportamiento ondulatorio y corpuscular coexisten, fenómeno que se conoce como dualidad onda-partı́cula.
Experimentos posteriores nos permitirán profundizar sobre esta naturaleza dual en el mundo microscópico.
describı́a muy bien la distribución de lı́neas espectrales de los átomos alcalinos, donde R, a y b son constantes
propias del elemento, en tanto que m y n son enteros positivos. La constante R es conocida como constante de
2
Esto contrasta por ejemplo, con el espectro contı́nuo de la radiación electromagnética emitida por la superficie de los sólidos a alta
temperatura.
116 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
las series de números de onda fueron clasificadas de acuerdo a valores fijos de m. Hablamos entonces de la serie
de Lyman (m = 1), serie de Balmer (m = 2), Paschen (m = 3), Brackett (m = 4) y Pfund (m = 5).
Hemos descrito el espectro de emisión. No obstante, también existe el espectro de absorción, para el cual
se usa una fuente que emite un espectro contı́nuo cuya radiación se hace incidir sobre un recipiente de vidrio que
contiene el gas monoatómico que se desea investigar. Al medir el espectro que emite el gas monoatómico después
de haber absorbido la radiación contı́nua, se observa que el espectro es contı́nuo pero faltan algunas lı́neas muy
especı́ficas, y que corresponden a las lı́neas del espectro que han sido suprimidas del espectro contı́nuo emitido
por la fuente, y que debieron ser absorbidas por los átomos del gas. Se observó que para cada elemento, a cada
lı́nea del espectro de absorción le corresponde una lı́nea en el espectro de emisión, pero lo recı́proco no es cierto:
solo ciertas lı́neas de emisión se manifiestan en el espectro de absorción. En el espectro de absorción del átomo de
Hidrógeno, normalmente solo aparecen las lı́neas correspondientes a la serie de Lyman; pero cuando el gas está a
muy alta temperatura (por ejemplo en la superficie de una estrella), se observan las lı́neas de la serie de Balmer
en el espectro de absorción.
1. En el átomo, un electrón se mueve en una órbita circular alrededor del núcleo, bajo la influencia de la
interacción coulombiana entre el núcleo y el electrón, y obedeciendo a las leyes de la mecánica clásica.
2. De la infinidad de órbitas clásicamente permitidas, el electrón solo puede moverse en aquellas para las cuales
el momento angular orbital L es un multiplo entero de la cantidad ~ ≡ h/2π. Esto es
L = n~ = nh/2π , n = 1, 2, 3, . . . (2.13)
3. A pesar de que el electrón está en permanente aceleración, se mueve en una órbita permitida sin radiar
energı́a electromagnética, de modo que su energı́a total E, permanece constante.
4. Un electrón emite energı́a electromagnética, solo cuando se mueve de una órbita permitida (con energı́a Ei )
a otra órbita permitida (con energı́a Ef ), de manera discontı́nua. La frecuencia de la radiación permitida
está dada por
Ei − Ef
ν= (2.14)
h
Con estos postulados, Bohr da cuenta de la estabilidad del átomo e introduce la cuantización del momento
angular, en contraste con los postulados de cuantización antes descritos, los cuales involucran la cuantización de
la energı́a.
Nótese que el cuarto postulado Ec. (2.14) está ı́ntimamente relacionado con el postulado de Einstein, ya que
E = Ei − Ef es la energı́a del cuanto (fotón) que se emite, y por tanto E = hν.
2.4. ESPECTROSCOPÍA, ESTABILIDAD DEL ÁTOMO Y TEORÍA DE BOHR 117
L = mvr
es claro de la Ec. (2.17) que este es el menor radio posible. Adicionalmente, este valor concuerda de forma
razonable con las predicciones para el modelo atómico de Rutherford. Ası́ mismo, la Ec. (2.20) nos dice que
cuando n = 1 obtenemos el estado de menor energı́a, de modo que n = 1 corresponde al estado base o estado
normal del átomo de Hidrógeno. El valor del radio para este estado de menor energı́a se denomina radio de
Bohr. Finalmente, la velocidad del electrón es máxima cuando n = 1 como se aprecia en la Ec. (2.18). Tomando
Z = n = 1 y los valores numéricos apropiados en la Ec. (2.18) esta velocidad está dada por
como esta velocidad es menos del uno por ciento de la velocidad de la luz, se espera que una descripción no-
relativista sea adecuada, esto es además consistente con la suposición no-relativista dada en la Ec. (2.19). Sin
embargo, la descripción no-relativista deja de ser adecuada para valores grandes de Z.
Por otra parte, se observa que al incrementarse el número cuántico a partir del estado base n = 1, la energı́a
se hace menos negativa, y por tanto se incrementa. Claramente, E = 0 es una energı́a lı́mite (asociada a n → ∞),
y los estados de energı́a se aproximan arbitrariamente a E = 0 cuando n crece. En consecuencia, los estados
permitidos son todos de energı́a negativa. Esto se debe a que energı́as mayores que cero, corresponden a electrones
libres que ya no están ligados al átomo, y en estado libre la energı́a de los electrones corresponde a un espectro
contı́nuo. Es de enfatizar sin embargo, que la teorı́a de Bohr solo nos habla de electrones ligados a un átomo.
Queda entonces por calcular las frecuencias permitidas para la radiación emitida, para lo cual apelamos al
cuarto postulado Ec. (2.14) que combinado con la Ec. (2.20) conduce a
" #
Ei − Ef mZ 2 e4 1 1
ν= = − 2 (2.22)
h 4π~3 n2f ni
expresión que coincide con la fórmula empı́rica (2.12), en donde una evaluación numérica de la constante RH
en la Ec. (2.23), coincidia razonablemente con el valor numérico que se habı́a obtenido empı́ricamente RH ≃
109677,576 cm−1 . La teorı́a de Bohr nos dice entonces que existe una energı́a asociada al estado base o de mı́nima
energı́a para el electrón, que corresponde a n = 1. En una descarga eléctrica el átomo puede absorber energı́a y
generar una transición a un estado de energı́a mayor o estado excitado con n > 1. Una vez excitado, el átomo
emitirá este exceso de energı́a para regresar al estado base. En general, esta desexcitación se logra mediante una
serie de transiciones en las que el electrón pasa sucesivamente por estados de energı́a cada vez más baja hasta llegar
al estado base. En cada transición se emitirá radiación electromagnética con frecuencias dadas por la Ec. (2.22).
Por ejemplo, un electrón puede ser excitado al estado con n = 6, y pasar sucesivamente por los estados n = 4, 2, 1
emitiendo tres lı́neas del espectro atómico, con frecuencias dadas por (2.22). En la infinidad de excitaciones y
desexcitaciones de todos los átomos que se efectúan en la medida del espectro de emisión, se presentan todas las
transiciones posibles y por tanto se exhibe el espectro completo.
Estas predicciones fueron corroboradas experimentalmente para el hidrógeno (Z = 1) y para el He+ (Z = 2).
Ası́ mismo, la teorı́a puede explicar el espectro de absorción para átomos con un electrón. Ya que solo ciertas
transiciones son posibles, el átomo solo absorberá cantidades discretas de energı́a de la radiación incidente. La
radiación incidente consiste de haces de cuantos de todas las frecuencias, en donde solo los fotones con frecuencias
dadas por (2.22) pueden ser absorbidos. No obstante, los átomos en general están inicialmente en el estado base
n = 1, de manera que solo pueden presentarse procesos de absorción de n = 1 a n > 1, razón por la cual se
observarán normalmente solo las lı́neas asociadas a la serie de Lymann en el caso del Hidrógeno. Cuando el gas
está a una temperatura elevada, es posible que algunos átomos estén inicialmente en el primer estado excitado
n = 2 de modo que también serán observables las lı́neas de la serie de Balmer. La temperatura necesaria para
2.5. LAS REGLAS DE CUANTIZACIÓN DE WILSON Y SOMMERFELD 119
que exista una población razonable de átomos en el estado n = 2 se puede calcular utilizando la estadı́stica de
Boltzmann, vemos que una fracción 1/e de los átomos estará en el estado n = 2 para temperaturas del orden
de 105 K, temperatura tı́pica de algunas superficies estelares. En consecuencia, la teorı́a de Bohr puede también
explicar la diferencia entre el espectro de absorción y el de emisión.
Todas las predicciones de la teorı́a de Bohr, se ajustan aún mejor cuando se tiene en cuenta la corrección de
que la masa nuclear es finita y se realiza la reducción del problema de dos cuerpos al problema de un cuerpo con
masa igual a la masa reducida del sistema (ver sección 12.1). Posteriormente, la cuantización de los estados de
energı́a de los electrones en el átomo fué corroborada por los experimentos de Franck y Hertz.
siendo nq un número cuántico entero y la integral cerrada se efectúa sobre un periodo de movimiento. Nótese
que el producto de una coordenada generalizada por su momento conjugado siempre tiene unidades de momento
angular, y por eso la cuantización está directamente relacionada con la constante de Planck, la cual tiene unidades
de momento angular. Veremos que la cuantización de Bohr y de Planck surgen como casos especiales de esta regla
de cuantización, y que además permite ampliar el dominio de la mecánica cuántica.
Sin embargo, es necesario aclarar que la regla de Wilson y Sommerfeld no puede explicar la cuantización de
Einstein o Compton, puesto que en estos casos los cuantos son esencialmente libres y no poseen un movimiento
periódico.
la primera condición nos provee de la regla de cuantización ya conocida del momento angular
L = nθ ~ , nθ = 1, 2, 3, . . .
nθi − nθf = ±1
esta regla de selección debe ser postulada por aparte en la teorı́a relativista de Sommerfeld.
nótese que la derivación de la Ec. (2.32) provino de hacer w = c en la Ec. (2.30), lo cual no es válido para partı́culas
con masa diferente de cero, al menos si suponemos que la velocidad de la onda está relacionada con la velocidad
de la partı́cula. Sin embargo, la relación (2.32) es independiente de la velocidad de la onda y fué la relación que
De Broglie extrapoló para partı́culas.
observamos que w es mayor que c. No obstante, esto no supone una contradicción ya que w está asociado a
Figura 2.1: Apariencia de una onda piloto, asociada a una partı́cula. Puesto que suponemos que una partı́cula está
localizada, su paquete de onda asociado debe estar también localizado. El perfil ψ (x, t) del paquete, se dibuja aquı́
para una configuración instantánea evaluada en t = t0 .
la velocidad de fase de las ondas piloto. Es de esperarse que el perfil instantáneo de una onda piloto tenga una
apariencia similar a la mostrada en la Fig. 2.1. Es decir, la onda piloto debe tener un valor distinto de cero solo
en cierta vecindad espacial, ya que es lógico que la localización de la onda piloto esté asociada a la localización
de la partı́cula. Para formar un pulso de ondas como el de la Fig. 2.1 es necesario superponer un número infinito
de ondas monocromáticas, constituyendo un paquete de ondas. Para dicho paquete, debe distinguirse entre la
velocidad de fase w y la velocidad de grupo wg , del paquete4 . Es posible demostrar que estas velocidades vienen
4
Las caracterı́sticas de un paquete de ondas, su velocidad de fase y de grupo, serán consideradas en detalle en las secciones 2.11 y
2.13.
124 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
dadas por
ν dν
w= ; wg =
k dk
además, es la velocidad de grupo la que no debe superar a la velocidad de la luz, es decir la que está asociada a
los fenómenos de transporte. Calculemos entonces la velocidad de grupo de las ondas piloto de una partı́cula en
movimiento. Partimos de las Ecs. (2.33)
E 1 p
ν= ; k≡ =
h λ h
por tanto
dE dp
dν = ; dk =
h h
dν dE
wg = = (2.36)
dk dp
1
E = m0 γc2 , p = m0 γvp ; γ≡q (2.39)
vp2
1− c2
de modo que la velocidad de grupo, que es la que contiene las propiedades de propagación de la onda, es igual a la
velocidad de la partı́cula, mostrando la consistencia de los postulados de De Broglie. Por otro lado, las Ecs. (2.34,
2.38) nos dicen la relación que hay entre la velocidad de fase y la velocidad de grupo (o velocidad de la partı́cula)
c2 c2
w= =
wg vp
nótese que si usáramos las Ecs. (2.31, 2.29), en lugar de las Ecs. (2.32, 2.29) obtendrı́amos
ν E hc dν dE/h
w= = νλ = =c ; wg = = =c
k h E dk dE/hc
relación que solo es válida para cuantos que se mueven a la velocidad de la luz. Ya habı́amos enfatizado que la
Ec. (2.32) se obtenı́a usando w = c en la Ec. (2.30), lo cual solo era válido para la radiación. Sin embargo, la Ec.
(2.32) era independiente de la velocidad, y por esa razón se podı́a extrapolar a partı́culas materiales. En contraste,
la Ec. (2.31) depende explı́citamente de la velocidad c, y no puede ser extrapolada directamente.
2.6. LOS POSTULADOS DE DE BROGLIE 125
de modo que
4 3
p = mv = πr ρv ≃ 4 × 10−11 gr − cm − seg−1
3
h 6,62 × 10−27 gr − cm2 − seg−2 − seg
λ = = ≃ 1,6 × 10−16 cm
p 4 × 10−11 gr − cm − seg−1
esta longitud es ¡108 veces menor que un radio atómico!. Por tanto, no es viable para una exploración experimental.
Consideremos ahora un electrón cuya energı́a sea del orden de 10eV = 1,6 × 10−11 ergs, esta es aproximada-
mente, la energı́a cinética de un electrón en el átomo de Hidrógeno. Para esta energı́a cinética la velocidad es
mucho menor que c y se puede considerar no relativista. Por tanto, si asumimos un electrón libre no relativista
con esta energı́a, su impulso viene dado por la expresión no-relativista
√
p= 2mT ≃ 3,9 × 10−8 cm
esta longitud es casi un orden de magnitud mayor que un radio atómico tı́pico, y aproximadamente del orden de
magnitud de la distancia interatómica en un cristal5 . Esto sugiere que un electrón incidiendo en un cristal puede
presentar fenómenos de difracción, en donde las “rendijas” son los intersticios interatómicos. No describiremos
aquı́ los montajes experimentales que condujeron a la detección del patrón de difracción de los electrones. Basta
con decir que los experimentos de Davidson y Germer en 1927 tomaron el patrón de difracción de los electrones
que inciden en un cristal. El patrón anular de difracción de los electrones por cristales, no se puede atribuir a la
interferencia entre dos o más electrones distintos, sino a las ondas asociadas a un solo electrón y que provienen de
distintas partes del cristal. Esto se debe a que en el montaje experimental se empleó un haz de tan baja intensidad,
que los electrones son emitidos uno por uno, eliminando ası́ las posibles interferencias entre electrones distintos.
Veremos que la combinación de la regla de cuantización de Bohr junto con los postulados de De Broglie, nos
conducen a ondas piloto estacionarias. La regla de cuantización de Bohr Ec. (2.16) se escribe como
nh
mvr = pr = ; n = 1, 2, 3, . . .
2π
siendo p el momento lineal del electrón en la órbita permitida de radio r. Al sustituir el momento lineal por el
primer postulado de De Broglie de la Ec. (2.33) tenemos
hr nh
= ; n = 1, 2, 3, . . .
λ 2π
2πr = nλ ; n = 1, 2, 3, . . . (2.41)
de manera que el perı́metro de las órbitas permitidas es un múltiplo entero de longitudes de onda de De Broglie.
La Ec. (2.41) es precisamente la condición para que las ondas piloto del electrón que se mueve repetidamente sobre
su órbita, se combinen coherentemente con las ondas piloto de recorridos anteriores, de modo que la superposición
forme una onda estacionaria. De hecho, si se violara la condición (2.41), entonces cuando se superpongan las ondas
asociadas a un gran número de recorridos, su interferencia será destructiva y se cancelará su intensidad promedio.
Puesto que la intensidad de la onda piloto es una medida de la ubicación de la partı́cula, lo anterior implica que el
electrón no podrı́a estar en esa órbita. La Fig. 2.2 ilustra el patrón de intensidad ψ (x, t0 ) de la onda estacionaria
asociada a las tres primeras órbitas de Bohr, para un tiempo fijo t = t0 . Cuando el tiempo evoluciona cambia la
magnitud y el signo de los patrones oscilantes, pero la ubicación de los nodos es la misma en todo tiempo, ya que
éstos son fijos en una onda estacionaria.
Por otra parte, es posible demostrar que la exigencia de ondas piloto estacionarias para partı́culas en movimien-
to periódico, conduce a que dicha partı́cula deba satisfacer las reglas de cuantización de Wilson y Sommerfeld, Ec.
(2.24). Finalmente, las caracterı́sticas independientes del tiempo de la onda estacionaria permiten explicar porqué
el electrón en movimiento periódico orbital no emite radiación electromagnética.
Figura 2.2: Patrones de onda estacionaria (lineas punteadas) asociados a las tres primeras órbitas de Bohr (lineas
continuas). El perfil se dibuja para una configuración instantánea evaluada en t = t0 .
la cuantización como la colisión de fotones con electrones libres pudo explicarse satisfactoriamente relacionando
los parámetros de partı́cula (energı́a E y momento p del fotón) con los parámetros de onda (frecuencia ν y número
128 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
Figura 2.3: (a) Montaje del experimento de Young con doble rendija. (b) Patrón de intensidades asociado a la
exposición por una sola rendija. La lı́nea punteada indica la suma de los dos patrones de intensidad. (c) Patrón
de intensidades obtenido con la apertura simultánea de las dos rendijas. El contraste con la gráfica punteada nos
muestra que la intensidad resultante no es la suma de las intensidades obtenidas con la apertura de una sola
rendija, revelando la existencia de un patrón de interferencia.
interferencia que se observa, es generado por la interacción de tipo corpuscular entre los fotones que pasan por
la rendija F1 con aquellos que pasan por la rendija F2 . De ser ası́, tendrı́amos que si regulamos la potencia de la
fuente de tal manera que los fotones salgan prácticamente uno por uno, se eliminarı́an estas interacciones y por
tanto deberı́a desaparecer este patrón de interferencia, incluso si se espera mucho tiempo para que se depositen
mucho fotones sobre O.
Veamos ahora cual serı́a la predicción de una teorı́a puramente ondulatoria. La teorı́a ondulatoria predice que
la intensidad en un punto dado I (x) es proporcional a la amplitud al cuadrado del campo eléctrico evaluado
en tal punto. Cuando las dos rendijas están abiertas es claro que el campo total resultante en tal punto es la
superposición de los dos campos generados por la onda que pasa por cada rendija
inherente al experimento con dos rendijas. Una vez más el proceso de medición (determinación de la rendija de
paso) ha alterado la evolución posterior del sistema.
En lo referente al carácter probabilı́stico cuántico, es necesario distinguirlo de los aspectos probabilı́sticos que
se emplean usualmente en mecánica clásica. En la termodinámica y especialmente en la mecánica estadı́stica
clásica, se utilizan conceptos de probabilidad y estadı́stica debido a que en la práctica (experimental) no es posible
determinar o controlar las condiciones iniciales de muchas partı́culas, aunado con la dificultad práctica (teórica)
de resolver un gran número de ecuaciones diferenciales acopladas. Se asume sin embargo en las teorı́as clásicas
que si conozco todas las condiciones iniciales puedo al menos en principio predecir las trayectorias exactas de
las partı́culas y por tanto de mi sistema como un todo. En cuántica nos vemos avocados a usar la probabilidad
incluso con el conocimiento y/o control de las condiciones iniciales del sistema, estamos hablando entonces de
un comportamiento probabilı́stico esencial e inherente a las leyes de la naturaleza, al menos en nuestra presente
interpretación de los fenómenos.
las cuales vale el principio de superposición, si E1 y E2 son soluciones de las Ecs. de Maxwell sin fuentes, una
combinación lineal de ellas también lo es.
Los anteriores hechos se pueden entonces postular en la siguiente forma:
Los aspectos corpusculares y ondulatorios de la luz son inseparables. De modo que la luz se comporta si-
multáneamente como onda y como flujo de partı́culas. Las predicciones sobre el comportamiento del fotón son solo
de carácter probabilı́stico. El comportamiento ondulatorio nos dictamina la distribución de probabilidad de su
manifestación como partı́cula (fotón). La información fı́sica sobre el fotón en un momento dado está determinada
por la componente E (r, t) de la onda electromagnética que es solución de las ecuaciones de Maxwell. El campo
E (r, t) caracteriza al estado de los fotones en el tiempo t. Dicho campo se interpreta como la amplitud de proba-
bilidad de que un fotón aparezca en el punto r en el tiempo t. Esto implica que la correspondiente probabilidad
de que un fotón esté en el volumen d3 r centrado en r es proporcional a |E (r, t)|2 d3 r.
Más adelante veremos que la amplitud de probabilidad E (r, t) tendrá su análogo para la materia en la deno-
minada función de onda ψ (r, t). Si bien existen muchas analogı́as entre E (r, t) y ψ (r, t) también existen algunas
diferencias importantes, por ejemplo E (r, t) no caracteriza completamente al estado de un fotón, en tanto que la
función de onda caracteriza completamente el estado de una partı́cula sin espı́n. La función de onda es esencialmen-
te compleja en tanto que E se hace complejo solo por conveniencia. La teorı́a cuántica completa para los fotones
(electrodinámica cuántica) debe tener en cuenta el carácter eminentemente relativista de las ecuaciones de Maxwell
y además corresponde a la cuantización de un medio que es clásicamente contı́nuo (campos electromagnéticos).
En contraste, la mecánica cuántica para partı́culas corresponde a la cuantización de un medio que clásicamente
se considera discreto (partı́culas puntuales) y que en muchos casos se puede tratar como no-relativista. Aquı́ solo
trabajaremos la mecánica cuántica no relativista de medios clásicamente discretos y por tanto no trabajaremos el
problema concerniente al proceso matemático de cuantización del fotón.
I ′ = I cos2 θ
2.9. MEDICIÓN Y PREPARACIÓN DE UN SISTEMA: DESCOMPOSICIÓN ESPECTRAL 133
Figura 2.4: (a) Montaje experimental para medidas de polarización. En z < 0 tenemos luz no polarizada que en
z = 0 se polariza en la dirección up . El analizador A suprimirá la componente uy del campo eléctrico polarizado.
probabilı́stica para fotones con estas polarizaciones. Adicionalmente, se observa que estos son los únicos estados
de polarización que conducen a una total certeza en la medida. Por esta razón llamaremos a estos estados de
polarización estados propios o autoestados. Vemos además que a cada resultado propio le corresponde un
estado propio, el resultado propio “fotón que cruza” está asociado con el estado propio de polarización a lo largo
de ux . El resultado propio “fotón que se absorbe” está asociado a fotones con polarización uy . En otras palabras,
para un estado propio tenemos total certeza de obtener su correspondiente resultado propio. Matemáticamente
podemos describir nuestros dos estados propios como
u(1) (2)
p = ux ; up = uy
La siguiente pregunta obvia es ¿cuál es la probabilidad de obtener un resultado propio dado, cuando el estado
es una superposición de los estados propios? es decir cuando el estado de polarización del fotón es arbitrario i.e.
para obtener la distribución de probabilidad es necesario tener una gran cantidad de eventos para cada estado de
polarización. Esto se logra midiendo muchos fotones que poseen las mismas condiciones iniciales7 y se encuentra
experimentalmente que para un número N (grande) de fotones con polarización dada por un ángulo θ en (2.45) un
número N cos2 θ de ellos pasará, y N sin2 θ de ellos será absorbido. Por tanto, un fotón especı́fico con polarización
definida por θ tiene una probabilidad P (1) = cos2 θ de ser transmitido y una posibilidad P (2) = sin2 θ de ser
absorbido. Esto coincide con la ley clásica de Malus como esperábamos cuando el número de fotones es grande.
Lo anterior junto con la Ec. (2.45), nos indica que la probabilidad de obtener un cierto resultado propio es
proporcional al cuadrado del valor absoluto del coeficiente del estado propio asociado, al coeficiente lo llamamos
la amplitud de probabilidad, las amplitudes de probabilidad A (i) y las probabilidades P (i) para cada resultado
propio son en este caso
D D 2
(1)
A (1) = cos θ = u(1) u
p p i ; P (1) = cos 2
θ = u u
p p i
D D 2
(2)
A (2) = sin θ = u(2) 2
p up i ; P (2) = sin θ = up up i
en algunos casos será necesario colocar una constante de proporcionalidad para garantizar que la suma de las
probabilidades de todos los resultados propios sea uno.
Esto nos induce a postular que si tenemos un conjunto de autoresultados {Ri } asociados a autoestados {ψi }
un estado arbitrario se escribirá como superposición de los autoestados
X
ψ= ci ψi (2.46)
i
|ck |2
P (Rk ) = P 2 (2.47)
i |ci |
o equivalentemente
|hψk | ψi|2
P (Rk ) = (2.48)
hψ| ψi
donde el denominador me asegura la conservación de la probabilidad
X
P (Ri ) = 1
i
7
Nótese que el polarizador tiene el papel de reproducir las mismas condiciones iniciales en cada conjunto de experimentos.
2.10. DUALIDAD ONDA PARTÍCULA PARA LA MATERIA 135
puesto que el conjunto de todos los autoresultados es por definición el conjunto de todos los resultados experimen-
tales que podemos obtener al medir el sistema. Esta afirmación se denomina el principio de descomposición
espectral.
El ejemplo de los fotones polarizados nos indica además que la descomposición espectral especı́fica depende del
tipo de instrumento de medición dado que hay que utilizar los autoestados que corresponden a este aparato. Por
ejemplo, si el analizador (aparato de medición) tiene una orientación diferente, los autoestados estarán definidos
según esta nueva dirección. Si en vez de un analizador tenemos un medidor de otra variable fı́sica (por ejemplo el
espı́n) los autoresultados deben definirse correspondientemente y por lo tanto los autoestados.
Supongamos que dos fotones poseen la misma polarización pero se diferencian en otros observables fı́sicos (mo-
mento, espı́n, etc.), un aparato que mide polarización solo puede dicernir los diferentes valores de este observable,
por tanto si existen otros observables que caracterizan a mi partı́cula, al autovalor de polarización {a}, le corres-
ponde mas de un autoestado ya que todos los autoestados con polarización {a} están asociados a este autovalor
sin importar cuales sean los valores de los otros observables. Decimos que los autoestados están degenerados con
respecto al observable o autovalor {a} lo cual según la presente discusión indica que solo tenemos una información
parcial sobre el sistema. Volveremos sobre el tema de la degeneración más adelante.
La consistencia de estos resultados se puede examinar poniendo un segundo analizador A′ después de A y que
permita el paso de fotones con polarización en ux . Dado que todos los fotones que pasaron por A quedaron “prepa-
rados” en el estado de polarización ux , todos estos fotones están en un solo autoestado del nuevo analizador A′ con
autoresultado “el fotón pasa”. Por tanto, todos los fotones que pasaron por A deben pasar por A′ . Similarmente,
si A′ está orientado según uy , todos los fotones que vienen de A deben ser absorbidos en A′ . Estas predicciones
están confirmadas por los experimentos.
Analicemos ahora un aspecto de la medición directamente asociado con la naturaleza cuántica de la radiación.
Al ser el fotón un cuanto indivisible solo existe la posibilidad de transmisión o absorción, esto desembocó en el
hecho de que a partir de un estado arbitrario de polarización, hay un cambio abrupto luego de la medición para
los fotones que pasan, pues estos pasan de la polarización up a la polarización ux que corresponde a un autoestado
de mi aparato. Existe entonces una perturbación fundamental que altera el estado del sistema y que no puede ser
disminuı́da. Nótese que después de la medición (preparación del fotón en un autoestado) tenemos una información
adicional “el fotón ha pasado el analizador”.
Lo anterior es entonces una confirmación de que el proceso de medición perturba de manera fundamental
el estado del sistema. Podrı́amos en este punto postular que luego del proceso de medición, el sistema queda
preparado en un estado propio definido por el sistema mismo y por el aparato de medición.
E = hν = ~ω ; p = ~k (2.49)
donde C es una constante de normalización. Puesto que los experimentos muestran que esta distribución de
probabilidad presenta las propiedades ondulatorias, es necesario que la ecuación de movimiento que la genera
sea lineal y homogénea para que se cumpla el principio de superposición que se requiere para los fenómenos de
interferencia. Es claro que estos fenómenos de interferencia se verán reflejados en la probabilidad (al igual que en
la intensidad en los fenómenos ópticos), al elevar al cuadrado la cantidad ψ (r) (el análogo a E (r, t) en óptica).
Dado que la partı́cula debe estar siempre en algún lugar, es claro que la probabilidad total debe ser igual a la
unidad Z
C |ψ (r, t)|2 d3 r = 1 (2.51)
esto nos indica entonces que los estados fı́sicos ψ (r, t) deben ser funciones de cuadrado integrable en todas las
regiones accesibles a la partı́cula (es posible que ciertas condiciones fı́sicas hagan que algunas regiones no sean
accesibles). En otras palabras, la integral sobre el volumen accesible de la partı́cula debe ser convergente.
Asumiremos además que se cumple el principio de descomposición espectral aplicado a la medida de una
cantidad fı́sica arbitraria. Esto significa que (a) El resultado de la medida debe pertenecer a un conjunto de
autoresultados {a}. (b) Con cada autovalor a se asocia un autoestado, es decir una autofunción ψa (r). Esta
autofunción cumple la condición de que si ψ (r, t0 ) = ψa (r) siendo t0 el instante en el cual se realiza la medida, el
resultado de tal medida nos dará con toda certeza el autovalor a. (c) Para todo estado ψ (r, t) la probabilidad Pa
de obtener el autovalor a cuando se realiza una medida en el tiempo t0 , se encuentra descomponiendo ψ (r, t) en
los autoestados ψa (r, t)
en virtud de la arbitrariedad del estado inicial ψ (r, t0 ), lo anterior implica que los autoestados ψa (r) deben ser
completos, es decir deben formar una base para el conjunto de todos los estados fı́sicos posibles, esto nos llevará
de manera natural al concepto de observable. (d) Si la medida nos arroja un autovalor a, la partı́cula quedará
2.11. ASPECTOS ONDULATORIOS DE UNA PARTÍCULA MATERIAL 137
en su autoestado asociado ψa (r). (e) La ecuación que describe la evolución del sistema (evolución temporal de
la amplitud de probabilidad) debe ser lineal y homogénea en ψ. Debe tener soluciones de naturaleza ondulatoria
compatibles con las relaciones de De Broglie, en la siguiente sección estudiaremos con más detalle estas propiedades.
Es importante observar que cuando realizamos el paso de suplantar la trayectoria de una partı́cula (clásicamente
puntual), por una distribución dinámica de probabilidad (un campo) estamos reemplazando un estado clásico de
partı́cula puntual de seis parámetros en cada tiempo (tres coordenadas de posición y tres de velocidad), por un
estado cuántico determinado por un número infinito de parámetros: el valor de la función de onda en cada punto
del espacio (y en el tiempo dado). El hecho de que la distribución de probabilidad dependa del tiempo nos llevará
al concepto de propagación de la onda asociada con la partı́cula. A manera de ejemplo, en el experimento de la
doble rendija de Young cuando se observa el patrón de interferencia no poseemos información sobre la rendija por
la cual pasó cada fotón (también vale para electrones u otras partı́culas materiales), en realidad la onda asociada
cruza por ambas rendijas y solo podemos calcular la probabilidad de que pase por una de ellas.
Es importante mencionar sin embargo, que la simetrı́a materia radiación exhibida hasta el momento posee
una excepción importante: los fotones son en general emitidos (creados) o absorbidos (destruı́dos) durante un
experimento. En contraste, las partı́culas materiales no se crean ni se destruyen en los experimentos tı́picos. Por
ejemplo, un electrón emitido por un filamento caliente ya existı́a previamente en el filamento. De la misma forma
un electrón absorbido en un detector no desaparece, simplemente se vuelve parte de un átomo del detector o de
una corriente en éste. En realidad la teorı́a de la relatividad predice que es posible la creación y aniquilación de
partı́culas materiales: por ejemplo un fotón de alta energı́a que pasa cerca a un átomo puede crear un par electrón
positrón (partı́cula antipartı́cula). Recı́procamente, una colisión electrón positrón aniquila a ambas partı́culas
emitiendo un fotón, esta conversión radiación materia o viceversa es posible gracias a la equivalencia energética
de la masa. Sin embargo, en el lı́mite no relativista la materia no se puede crear ni destruı́r, lo cual nos lleva
a una ley importante de conservación del número de partı́culas. En particular, para sistemas de una partı́cula
podemos hacer la afirmación de que la partı́cula está en alguna parte para todo tiempo, lo cual nos indica una
conservación de la probabilidad (la integral de volumen 2.51 debe ser la unidad para todo tiempo).
Resumamos entonces las diferencias importantes entre materia y radiación que nos conducen a que la teorı́a
cuántica para la materia es más sencilla. (a) Los fotones son irremediablemente relativistas, la materia en cambio
puede estar en un régimen no relativista y de hecho para sólidos a temperaturas normales los electrones y núcleos
tienen velocidades mucho menores que la de la luz. Por tanto, para la materia tiene sentido una teorı́a cuántica no
relativista pero no para la radiación. (b) La naturaleza relativista de los fotones (y de la materia a altas energı́as)
conduce a que el número de fotones no se conserva en el tiempo, por tanto la distribución de probabilidad debe
colapsar para tiempos anteriores a la emisión y posteriores a la absorción, la Ec. (2.51) no es válida para todo
tiempo y debe incorporarse una ecuación o ecuaciones que me den cuenta de la dinámica en el número de partı́culas
(dinámica de creación y destrucción). (c) Desde el punto de vista clásico las partı́culas suelen modelarse como
medios discretos (partı́culas puntuales), en tanto que el escenario clásico del fotón corresponde a medios contı́nuos
(campos electromagnéticos). La cuantización de la materia se asocia entonces a menudo con la cuantización de
un medio clásicamente discreto (teorı́a cuántica “ordinaria”), en tanto que la cuantización de la radiación está
necesariamente asociada a la cuantización de un medio clásicamente contı́nuo (teorı́a cuántica de campos).
Hemos visto que la distribución de probabilidad está asociada con las propiedades ondulatorias de la materia
(o la radiación). Por tanto, la generación de la ecuación dinámica para esta distribución de la probabilidad
requerirá de estudiar las propiedades ondulatorias que dicha ecuación debe generar. En general, la mayor parte de
la discusión que se desarrollará en esta sección es también válida para ondas clásicas, los desarrollos matemáticos
son básicamente idénticos pero la interpretación difiere en ambos casos. Si seguimos los postulados de De Broglie,
el punto de partida natural será el estudio de las ondas viajeras libres. Dentro de la ecuación de onda clásica libre
138 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
(i.e. homogénea) la solución más simple (monocromática) es la solución tipo onda plana
ψ (r, t) = Aei(k·r−ωt) (2.52)
es inmediato ver que la onda plana es tal que
|ψ (r, t)|2 = |A|2
de modo que si efectivamente representa a la onda asociada a una partı́cula libre, nos predice que la distribución
de probabilidad de una partı́cula libre es uniforme en el espacio, lo cual es compatible con la homogeneidad e
isotropı́a del espacio. Podrı́a argumentarse que las ondas planas no son de cuadrado integrable de modo que no
representan estrictamente un estado fı́sico. Sin embargo, nuestra experiencia con la óptica en la cual las ondas
planas tampoco son estados fı́sicos nos muestra que el estudio de sus propiedades es muy provechoso, por un lado
porque se puede considerar como el lı́mite de un estado fı́sico y por otro lado porque los estados fı́sicos se podrán
escribir como superposición de tales funciones en virtud de su completez (ver sección 1.31.1).
Tomaremos entonces la solución (2.52) como el prototipo de una onda piloto. Nuestro objetivo será realizar
una teorı́a no relativista que sea compatible con los postulados de De Broglie. Partiremos entonces de la relación
no relativista entre E y p para una partı́cula
p2
E= (2.53)
2m
y utilizando las relaciones de De Broglie (2.49) llegamos a
~k2
ω= (2.54)
2m
la relación de dispersión (2.54) nos dice que la ecuación de onda NO es la ecuación dinámica que gobierna a la
teorı́a cuántica no relativista de una partı́cula, ya que es fácil demostrar que insertando (2.52) en la ecuación de
onda clásica se obtiene la relación de dispersión
ω 2 = k2 v 2 (2.55)
siendo v la velocidad de la onda. Volveremos sobre este problema más adelante, de momento asumiremos que la
onda viajera libre (2.52) es solución de la ecuación de movimiento para el estado cuántico ψ de una partı́cula libre
con relación de dispersión dada por (2.54). Puesto que las ondas piloto deben generar los fenómenos ondulatorios,
es necesario que la combinación lineal de soluciones sea solución de la ecuación dinámica para generar los fenómenos
de interferencia.
La Fig. 2.5 muestra la forma de cada una de estas tres ondas (sus partes reales) y de la superposición. La Ec.
(2.61) muestra que |ψ (x)| es máximo cuando x = 0, lo cual se aprecia en la Fig. 2.5 en virtud de que en x = 0
140 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
las tres ondas están en fase y por lo tanto interfieren constructivamente. A medida que nos movemos desde x = 0
(hacia la izquierda o la derecha) las ondas están cada vez más en desfase de modo que |ψ (x)| va disminuyendo,
hasta que la interferencia se vuelve totalmente destructiva en ciertos puntos xn (posiciones de los nodos), cuando
la diferencia de fase entre eik0 x y ei(k0 ±∆k/2)x es igual a (2n + 1) π, siendo n un entero no negativo. Los nodos
xn más cercanos a x = 0 están asociados a una diferencia de fase π
∆k ∆k
k0 xn − k0 xn ± xn = π ⇒ ∓ xn = π
2 2
∆k 2π
xn = ∓π ⇒ xn = ∓
2 ∆k
Dado que el paquete es simétrico y está centrado en x = 0, el ancho del paquete es ∆x = 2 |xn |
4π
∆x = ⇒ (∆x) (∆k) = 4π (2.62)
∆k
esto nos muestra que a medida que el ancho ∆k de la función ψ̄ (k) decrece, el ancho ∆x de la función |ψ (x)|
aumenta, siendo ∆x la distancia entre dos ceros de |ψ (x)|. Similarmente, si el ancho del paquete ∆x disminuye
(paquete más localizado), el ancho ∆k de ψ̄ (k) debe aumentar a fin de mantener la relación (2.62).
ik0 x es mucho mayor a la frecuencia del término
que k0 ≫ ∆k entonces la frecuencia del término e
Si asumimos
∆k
1 + cos 2 x . Por lo tanto, la parte oscilante en x para la Ec. (2.61) está dada por la función eik0 x y la envolvente
(modulación de la amplitud de oscilación) está dada por
g (k0 ) ∆k
|ψ (x)| = √ 1 + cos x
2π 2
esta amplitud de la envolvente o función moduladora de la amplitud se ilustra como lı́nea punteada en la Fig. 2.5.
En este caso, vemos que la envolvente dada por |ψ (x)| es periódica en x de modo que tenemos un tren infinito
de paquetes de onda con una serie de nodos y máximos. Este hecho se debe a que la superposición es de un
número finito de ondas planas. Para una superposición contı́nua de un número infinito de ondas como el dado en
(2.58), este fenómeno no ocurre y tendremos en general un solo máximo para el perfil |ψ (x, 0)|. En realidad, lo que
esperamos de una onda piloto asociada a una partı́cula es un solo paquete relativamente “localizado” alrededor
del máximo del paquete (región de mayor probabilidad de localizar a la partı́cula).
Retornemos ahora al caso general de una superposición contı́nua de la forma (2.58), aquı́ el fenómeno de
interferencia es más complejo pero de nuevo tendremos un máximo en |ψ (x, 0)| cuando las diferentes ondas
viajeras interfieran constructivamente. Imaginemos que ψ̄ (k, 0) está dada por una curva cuyo perfil es similar
a una campana de Gauss simétrica centrada en k = k0 con un pico bien pronunciado en k0 y un ancho ∆k.
En realidad, no hay una sola forma de parametrizar este ancho, pero tomaremos por convención que el ancho lo
definimos a la mitad de la altura
del pico. Bajo esta suposición, escribamos ψ̄ (k, 0) en notación polar siendo α (k)
el argumento y siendo ψ̄ (k, 0) la longitud del fasor
ψ̄ (k, 0) = ψ̄ (k, 0) eiα(k) (2.63)
ahora asumamos
que α (k) varı́a lentamente en el intervalo [k0 − ∆k/2, k0 + ∆k/2] donde la longitud del fasor
ψ̄ (k, 0) es apreciable. Cuando ∆k es suficientemente pequeño, podemos expandir a α (k) en las vecindades de
k = k0
dα
α (k) ≃ α (k0 ) + (k − k0 ) (2.64)
dk k=k0
2.11. ASPECTOS ONDULATORIOS DE UNA PARTÍCULA MATERIAL 141
quedando finalmente
Z k0 + ∆k
ei[k0 x+α(k0 )] 2
ψ (x, 0) ≃ √ ψ̄ (k) ei(k−k0 )(x−x0 ) dk (2.67)
2π k0 − ∆k
2
dα
x0 ≡ − (2.68)
dk k=k0
La expresión (2.67) es útil para un análisis cualitativo de las variaciones de |ψ (x, 0)| con x. Partiendo de k = k0
Figura 2.6: Variaciones con respecto a k, de la parte real del integrando en la Ec. (2.67) (a) cuando x es fijo en
un valor tal que |x − x0 | > 1/∆k, en tal caso la función oscila varias veces en el intervalo ∆k. (b) Cuando x
es fijo en un valor tal que |x − x0 | < 1/∆k, en tal caso la función oscila muy poco en tal intervalo y la función
ψ (x, 0) toma valores grandes. Por tanto, el centro del paquete
de ondas (punto donde |ψ (x, 0)| es máximo) se
ubica en x=x0 . En todo el análisis se ha supuesto que ψ (k) es una función simétrica centrada en k 0 , con un
perfil similar a una campana de Gauss.
De modo que el valor de |x − x0 | nos dice si |kb − k0 | es mayor o menor que ∆k/2 o en otras palabras, si en el
intervalo de integración definido en (2.67) el integrando ha logrado o no completar una oscilación. Cuando |x − x0 |
es grande i.e. cuando |x − x0 | ≫ 2π/∆k, se tiene que
2π
(kb − k0 ) = ≪ ∆k
(x − x0 )
de modo que una oscilación en el integrando de (2.67) se realiza en un intervalo mucho menor que el ancho de
integración. En consecuencia, la función de k que se integra en (2.67) oscila muchas veces dentro del intervalo ∆k
y las contribuciones de las sucesivas oscilaciones se cancelan entre sı́ (Fig. 2.6a); por tanto, la integral sobre k se
vuelve muy pequeña. Es decir que cuando x está fijo en un valor lejano a x0 las fases de las diversas ondas que
constituyen a ψ (x, 0) varı́an muy rápidamente en el dominio ∆k, y forman entre ellas una interferencia destructiva.
Por otra parte, cuando x ≃ x0 , o en otras palabras cuando
|x − x0 | ≪ 1/∆k
se tiene que
|kb − k0 | ≫ 2π∆k > ∆k
la función que se integra sobre k solo realiza una pequeña fracción de la oscilación a partir de k0 y dado que
|k − k0 | < ∆k para un k que esté en el intervalo de integración, se tiene que
1 ∆k ∆k
|k − k0 | |x − x0 | ≪ ∆k = 1 , k ∈ k0 − , k0 +
∆k 2 2
ψ̄ (k) ei(k−k0 )(x−x0 ) ≃ ψ̄ (k) (2.69)
de modo que la exponencial apenas modifica un poco el perfil de ψ̄ (k) (Fig. 2.6b), y en el proceso de integración
la fase se mantiene casi constante, por tanto la interferencia es constructiva y |ψ (x, 0)| es máximo.
De otra parte, la Ec. (2.69) se convierte en una igualdad para la posición xM tal que xM = x0 , en cuyo caso no
hay oscilación y la interferencia es completamente constructiva. Por tanto, la posición xM (0) = x0 corresponde al
centro del paquete de onda (máximo del módulo del paquete) que de acuerdo con la Ec. (2.68) viene dada por:
dα
xM (0) = x0 = − (2.70)
dk k=k0
alternativamente, se puede ver que (2.70) nos da la posición del centro del paquete teniendo en cuenta que la Ec.
(2.58) adquiere su máximo en valor absoluto cuando las ondas de mayor amplitud (aquellas con k cercano a k0 )
interfieren constructivamente. Esto ocurre cuando las fases que dependen de k de estas ondas varı́an lentamente
alrededor de k0 . Para obtener el centro del paquete se impone que la derivada con respecto a k de la fase sea cero
para k = k0 , esta fase se puede ver en la segunda igualdad de la Ec. (2.65) y se obtiene
d dα
[kx + α (k)]k=k0 = 0 ⇒ x + =0 (2.71)
dk dk k=k0
∆k · |x − x0 | & 2π
donde hemos definido el “umbral” para |x − x0 | como el valor para el cual se ejecuta una oscilación. Si definimos
∆x ≡ |x − x0 | /2π como el ancho tı́pico del paquete, tenemos
∆k ∆x & 1 (2.72)
2.11. ASPECTOS ONDULATORIOS DE UNA PARTÍCULA MATERIAL 143
lo cual nos da una relación entre los anchos de dos funciones que son transformadas de Fourier una de otra.
Observemos de nuevo que no hay una única manera de definir el ancho ∆x, por ejemplo podemos definir este
ancho con dos oscilaciones, con tres etc, entre mayor sea el número de oscilaciones mayor es el efecto de cancelación,
el ancho será mayor y estaremos tomando una mayor porción del área bajo la curva. De la misma forma, puedo
tomar el ancho ∆k cuando la altura ψ̄ (k) es 1/2, 1/e, 1/3 etc, es decir puedo ensanchar ∆k para tomar una porción
más grande del área bajo la curva y tener mejores aproximaciones. En vista de lo anterior, el hecho importante
es que este producto tiene una cota inferior, ya que el valor preciso de esta cota depende de la definición de los
anchos ∆k y ∆x. Esta es la razón para utilizar el sı́mbolo & en la Ec. (2.72) en lugar de ≥.
La relación (2.72) nos dice además que no es posible construı́r paquetes cuyo producto de anchos sea mucho
menor que uno, pero en cambio sı́ es posible construı́r paquetes cuyo producto de anchos sea mucho mayor que
uno.
Nótese que este análisis ha sido completamente matemático, k y x pueden ser variables arbitrarias siempre
que ψ (x, 0) y ψ̄ (k) sean transformadas de Fourier la una de la otra. No existe ninguna suposición fı́sica en estos
argumentos.
El presente análisis se utiliza en ondas clásicas asignando a k el número de onda y a x la variable espacial en
una dimensión. La Ec. (2.72) demuestra que a medida que un paquete de ondas se hace más monocromático (a
medida que se reduce ∆k) el ancho ∆x del paquete de onda espacial se hace mayor. En un paquete estrictamente
monocromático ∆k → 0 y por tanto ∆x → ∞, por lo cual las ondas monocromáticas no corresponden a estados
fı́sicos. Este mismo principio nos muestra que no existe un tren de ondas electromagnéticas para el cual se pueda
definir la posición y la longitud de onda con infinita precisión al mismo tiempo.
ψ̄ (k) = δ (k − k0 ) ; ∆k → 0
donde el hecho de que ∆k → 0 se vé claramente si vemos a la delta de Dirac como el lı́mite de Gaussianas cada
vez más altas y agudas. La relación ∆k → 0 junto con la Ec. (2.72) nos lleva a que ∆x → ∞ como ya se dijo.
A la luz del principio de descomposición espectral este resultado se puede ver de la siguiente forma: A la
partı́cula en t = 0 le hemos asignado una función de onda ψ (x, 0) = Aeikx y hemos visto que posee un momento
bien determinado. Es decir que una medida del momento en t = 0 dará definitivamente el valor p = ~k 8 . De
esto se deduce que Aeikx caracteriza al autoestado correspondiente al autovalor p = ~k. Puesto que existen ondas
planas para todos los valores de k, los autovalores de p que se pueden obtener en una medición del momento sobre
un estado arbitrario son todos los valores reales. En este caso no hay cuantización de los autoresultados, todos los
8
Este punto es quizás el más adecuado para decir que siempre hemos tratado con medidas ideales. Decir que la medida del momento
está completamente definida no es experimentalmente cierto. Lo que en realidad se quiere decir es que en este caso no hay una
perturbación fundamental que cambie drásticamente el sistema y por tanto las demás perturbaciones se puede hacer cada vez más
pequeñas.
144 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
valores del momento son permitidos como en la mecánica clásica. Ahora bien, la total determinación de p viene
acompañada por una completa incertidumbre en x.
Volvamos ahora al caso de un paquete como el dado por (2.58). Como ψ (x, 0) es una superposición lineal de
autofunciones del momento eikx con coeficientes ψ̄ (k, 0), el principio de descomposición espectral nos conduce a
2
interpretar a ψ̄ (k, 0) dk (con un posible factor de normalización) como la probabilidad de encontrar un valor
de momento entre p = ~k y p + dp = ~ (k + dk), cuando hacemos una medida en t = 0 del momento de una
partı́cula cuyo estado es descrito por ψ (x, 0) en (2.58). Esta interpretación es necesaria cuando el autovalor tiene
un espectro contı́nuo ya que en este caso la probabilidad de estar en un punto matemático 2 especı́fico serı́a cero
y solo es finita la probabilidad de estar en un intervalo dado. En este caso ψ̄ (k, 0) serı́a una densidad de
probabilidad (probabilidad por unidad de volumen unidimensional), y no una probabilidad como ocurre en el caso
discreto.
Ahora bien, dado que para una partı́cula es más usual hacer medidas de momento y energı́a que de frecuencia
angular y número de onda, es más adecuado escribir las expresiones en términos de E y p usando las relaciones
de De Broglie Ecs. (2.49)9 . En particular, la Ec. (2.58) se reescribe como
Z
1
ψ (x, 0) = √ ψ̄ (p, 0) eipx/~ dp
2π~
dado que las transformadas de Fourier satisfacen la relación de Bessel parseval (invarianza de la norma)
Z ∞ Z ∞
hψ| ψi (0) = 2
|ψ (x, 0)| dx = ψ̄ (p, 0)2 dp ≡ C
−∞ −∞
tendremos entonces que
1 1 2
|ψ (x, 0)|2 dx ; dP̄ (p, 0) = ψ̄ (p, 0) dp
dP (x, 0) =
C C
dP (x, 0) representa la probabilidad de encontrar a la partı́cula en t = 0 en el intervalo [x, x + dx]. Similarmente,
dP̄ (p, 0) es la probabilidad de obtener una medida del momento de la partı́cula en t = 0 que esté dentro del
intervalo [p, p + dp].
Ahora escribamos la desigualdad (2.72) en términos de E y p usando la relaciones de De Broglie (2.49)
∆x ∆p & ~ (2.73)
para dar una interpretación fı́sica a (2.73), supongamos que el estado de una partı́cula está definido por el paquete
de onda (2.57). En tal caso, la probabilidad de encontrar la partı́cula en t = 0 dentro del intervalo [x0 − ∆x/2,
x0 + ∆x/2] es prácticamente uno. Decimos entonces que ∆x es la incertidumbre en la medida de la posición de
la partı́cula. Similarmente, si medimos el momento de la partı́cula en el mismo tiempo (t = 0) tal probabilidad es
casi uno dentro del intervalo [p0 − ∆p/2, p0 + ∆p/2]. Es decir que ∆p mide la incertidumbre en la determinación
del momento de la partı́cula.
A la luz de lo anterior la Ec. (2.73) expresa que es imposible medir al mismo tiempo la posición y el momento
de la partı́cula con grado arbitrario de exactitud. Cuando alcanzamos el lı́mite inferior en (2.73) una disminución
en ∆x (es decir un aumento en la exactitud de la medición de la posición) conduce a un aumento en ∆p (es decir
un aumento en la incertidumbre de la medida del momento, o equivalentemente una disminución en la exactitud
de tal medida) y viceversa. Este enunciado se conoce como el principio de incertidumbre de Heisenberg.
Notemos que el valor del término de la derecha en (2.73) nos expresa más bien un orden de magnitud que un
lı́mite inferior preciso.
Es de anotar que si bien hay un análogo clásico del principio de incertidumbre para las ondas, no hay un análogo
clásico para las partı́culas. En realidad hemos visto que el principio de incertidumbre está asociado inicialmente a
los parámetros de onda, que se conectan a los parámetros de partı́cula por medio de las relaciones de De Broglie,
estas a su vez están asociadas a la dualidad onda partı́cula que es una caracterı́stica cuántica. La pequeñez de ~
hace que este principio de incertidumbre no se manifieste en los sistemas macroscópicos.
9
En otras palabras, es más usual medir parámetros de materia que parámetros de onda.
2.12. EL PRINCIPIO DE COMPLEMENTARIEDAD PARA LA DUALIDAD ONDA PARTÍCULA Y SU RELACIÓN CO
Figura 2.7: Variante del experimento de Young de la doble rendija, para el cual la placa opaca P, puede desplazarse
verticalmente.
La discusión sobre el experimento de la doble rendija nos ha mostrado que si bien la dualidad onda partı́cula
es necesaria para explicar los resultados, ambas manifestaciones parecen ser mutuamente excluyentes. La perfecta
determinación de las propiedades ondulatorias (patrón de interferencia con doble rendija) nos conduce a una total
ignorancia sobre la rendija por la cual pasa cada fotón (propiedad de “trayectoria” asociada a una partı́cula). Por
otro lado, la perfecta determinación de la rendija por la cual pasa cada fotón (determinación de sus propiedades
de partı́cula) conduce a la completa destrucción del patrón de interferencia (i.e. de sus propiedades ondulatorias).
Se dice entonces que los aspectos ondulatorio y material de la partı́cula son complementarios.
Vamos ahora a reconsiderar el experimento de la doble rendija para demostrar la profunda relación entre el
principio de complementariedad y el principio de incertidumbre de Heisenberg. Para ello analizaremos una variante
del experimento de la doble rendija ilustrada en la Fig. 2.7.
Asumamos que la placa opaca P sobre la cual se perforan las rendijas está montada sobre cojinetes que permiten
su desplazamiento vertical. Asumiremos que el foco de los fotones está muy lejos, de modo que podemos suponer
que todos los fotones inciden perpendicularmente sobre la placa P. Un fotón que golpea la placa de observación O
en el punto M (de coordenada x respecto al origen O), tuvo que sufrir un cambio de momento que fué absorbido
por P a fin de mantener el momento conservado. Nótese que si el fotón de momento p = hν/c pasa por la rendija
F1 , el momento transferido a P es
hν
p1 = − sin θ1 (2.74)
c
146 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
∆p ≪ |p2 − p1 |
aplicando las relaciones de incertidumbre, la posición de la placa P se puede conocer a lo más dentro de un intervalo
de incertidumbre dado por
~ h
∆x & ≫ (2.76)
∆p |p2 − p1 |
si denotamos a la distancia entre las rendijas y d la distancia entre la placa P y la pantalla O, y si asumimos que
θ1 y θ2 son pequeños (i.e. a/d ≪ 1 y x/d ≪ 1) obtenemos
x − a/2 x + a/2
θ1 ≃ tan θ1 = ; θ2 ≃ tan θ2 =
d d
a
|θ2 − θ1 | ≃
d
los momentos p1 y p2 dados en las Ecs. (2.74, 2.75) nos dan
hν hν hν a ha
|p2 − p1 | = |sin θ2 − sin θ1 | ≃ |θ2 − θ1 | ≃ =
c c c d λd
siendo λ la longitud de onda asociada al fotón. Sustituyendo esta relación en (2.76) se obtiene
λd
∆x ≫ (2.77)
a
pero (λd) /a es precisamente la separación entre franjas que se espera encontrar en el patrón de difracción sobre
la pantalla O. Ahora bien, si la posición vertical de las rendijas solo se puede determinar en un intervalo de
incertidumbre mayor a la separación de las franjas, es imposible observar el patrón de interferencia.
La discusión anterior nos muestra que la construcción de una teorı́a cuántica de la radiación requiere de la
construcción de una teorı́a cuántica de la materia para evitar contradicciones. En el ejemplo anterior, si trabajamos
la placa P como un sistema clásico material, invalidamos el principio de complementariedad de los dos aspectos
corpuscular y ondulatorio de la luz y por tanto, la teorı́a cuántica de la radiación. Se puede demostrar que dificulta-
des análogas surgen cuando se considera que solo la materia posee carácter cuántico. Por tanto, la consistencia del
principio de complementariedad requiere que tanto la materia como la radiación tengan caracterı́sticas cuánticas.
Otro aspecto que vale la pena discutir, es que en este ejemplo la naturaleza cuántica de P es esencial para un
adecuado entendimiento del fenómeno, a pesar de ser un sistema macroscópico. La razón estriba en que si bien el
sistema es macroscópico, las incertidumbres combinadas para el momento y la posición que se requieren en dicho
2.13. EVOLUCIÓN TEMPORAL DE PAQUETES DE ONDAS LIBRE 147
sistema para soslayar el principio de complementariedad, están en un umbral no permitido por las relaciones de
incertidumbre.
Podemos entonces precisar el principio de complementariedad enunciado por Niels Bohr diciendo que la
naturaleza ondulatoria y corpuscular de la radiación o de las partı́culas no pueden exhibirse al mismo tiempo
en la misma medida. Los conceptos clásicos de onda y partı́cula son mutuamente excluyentes cuando se utilizan
para describir fenómenos cuánticos. Puesto que la existencia de las dos caracterı́sticas de onda y partı́cula no
puede ser observada simultáneamente, éstas no generan conflicto la una con la otra en un mismo experimento. No
obstante, ambas son necesarias para la descripción de los fenómenos cuánticos. Las dos descripciones dan visiones
complemetarias de la realidad, no visiones contradictorias. Bohr ilustraba este principio con el ejemplo simple
de una moneda que tiene dos caras pero no podemos ver las dos caras simultáneamente, el ver una de las caras
excluye la posibilidad de ver la otra.
siendo n (k) el ı́ndice de refracción relativo entre el vacı́o y el medio. En este caso cada onda componente viaja a
distinta velocidad, lo cual produce un cambio de forma del paquete con el tiempo. A medida que se propaga el
paquete se ensancha, fenómeno conocido como dispersión. Fı́sicamente, esto se debe a que el material responde de
forma distinta para cada longitud de onda componente.
148 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
Volviendo a nuestro caso de onda monocromática cuántica, si usamos las Ecs. (2.78, 2.54) vemos que la
velocidad de fase está dada por
ω ~k2 ~k
Vf (k) = = = (2.79)
k 2mk 2m
de modo que Vf es función explı́cita de k. Nótese que si usáramos la relación de dispersión dada por la ecuación
de onda, Ec. (2.55) entonces Vf no presentarı́a dispersión (Vf no depende de k) como ocurre efectivamente con
las ondas clásicas libres (como las ondas electromagnéticas libres).
Ahora analizaremos el caso de ondas que son superposición de ondas planas. Veremos a continuación que
cuando las diferentes ondas tienen diferentes velocidades de fase, la velocidad del máximo xM del paquete de onda
no es la velocidad de fase promedio dada por
ω0 ~k0
=
k0 2m
como antes, comencemos con el ejemplo simple de la superposición de tres ondas planas similares a las descritas
en (2.60) pero ahora con variación temporal
g (k0 ) i(k0 x−ω0 t) 1 i[(k0 − ∆k )x−(ω0 − ∆ω )t] 1 i[(k0 + ∆k )x−(ω0 + ∆ω )t]
ψ (x, t) = √ e + e 2 2 + e 2 2 (2.80)
2π 2 2
g (k0 ) ∆k ∆ω
= √ ei(k0 x−ω0 t) 1 + cos x− t
2π 2 2
g (k0 ) ik0 x− ωk 0 t ∆k ∆ω
ψ (x, t) = √ e 0 1 + cos x− t (2.81)
2π 2 ∆k
puesto que las tres ondas tiene números de onda k0 y k0 ± ∆k, es claro que k0 es el número de onda promedio.
Similarmente, ω0 es la frecuencia angular promedio.
De la Ec. (2.81) se vé claramente que el máximo de |ψ (x, t)| que estaba en x = 0 cuando t = 0 está ahora en
el punto
∆ω
xM (t) = t (2.82)
∆k
y no en el punto x = ω0 t/k0 . El origen de este resultado se puede apreciar en la Fig. 2.8, en (a) se representa la
Figura 2.8: Posición de tres máximos consecutivos (1) (2) (3) para cada una de las tres ondas planas de la super-
posición en la Ec. (2.81). (a) Configuración de los máximos en t = 0, para el cual hay interferencia constructiva
en x = 0, que se da con los máximos rotulados por (2). (b) Configuración en un instante posterior en el cual la
interferencia totalmente constructiva se da a la derecha de x con los máximos (3).
posición en t = 0 de tres máximos consecutivos de cada una de las partes reales de las tres ondas. Puesto que los
2.13. EVOLUCIÓN TEMPORAL DE PAQUETES DE ONDAS LIBRE 149
máximos denotados con (2) coinciden en x = 0, hay una interferencia constructiva en este punto lo cual nos da
el máximo de |ψ (x, t = 0)|. Puesto que la velocidad de fase aumenta con k según (2.79), tenemos que el máximo
(3) de la onda k0 + ∆k 2 termina alcanzando al máximo de la onda k0 también denotado por tres. Similarmente
el máximo (3) de k0 alcanzará al máximo de k0 − ∆k 2 denotado por (3). Un análisis detallado muestra que todos
coinciden en cierto tiempo t, determinando entonces el máximo xM (t) de |ψ (x, t)| por interferencia constructiva.
El cálculo detallado del punto donde esto ocurre reproduce la Ec. (2.82).
Analicemos finalmente el caso en el cual el paquete de ondas es arbitrario y consta de una superposición
contı́nua de ondas planas como en la Ec. (2.57). El corrimiento del centro del paquete se encuentra aplicando de
nuevo el método de fase estacionaria. Comparando la forma de ψ (x, t) con la de ψ (x, 0) Ecs. (2.57, 2.58) vemos
que si la transformada de Fourier en (2.57) no depende explı́citamente del tiempo, entonces ψ (x, t) se obtiene
a partir de ψ (x, 0) con la asignación ψ̄ (k) → ψ̄ (k) e−iω(k)t . Por tanto, el razonamiento dado en la pág. 142 se
mantiene válido reemplazando el argumento α (k) de ψ̄ (k) en la Ec. (2.63), por el argumento
que nos reproduce una vez más el resultado (2.82) solo que en este caso ∆ω y ∆k tienden a cero ya que hay un
barrido contı́nuo en estas variables. La velocidad del máximo del paquete de ondas es
dxM (t) dω
Vg (k0 ) = =
dt dk k=k0
conocida como velocidad de grupo del paquete. Con la relación de dispersión (2.54) para partı́cula libre y teniendo
en cuenta (2.79) tenemos que
~k0
Vg (k0 ) = = 2Vf (k0 ) (2.84)
m
Notamos entonces dos diferencias importantes entre la onda asociada a la partı́cula libre cuántica y la solución
libre ondulatoria proveniente de la ecuación de onda. (a) Las ondas electromagnéticas clásicas libres no presentan
dispersión en tanto que la solución cuántica (ondulatoria) de partı́cula libre si presenta dispersión y (b) para
las ondas electromagnéticas libres la velocidad de grupo es menor que la de fase, mientras que para la solución
ondulatoria de partı́cla libre cuántica, la velocidad de grupo es mayor que la velocidad de fase10 .
Nótese que el resultado (2.84) reproduce adecuadamente el lı́mite clásico ya que si ∆x y ∆p son ambos
despreciables, podemos hablar de la posición xM (t) y del momento p0 de la partı́cula. Pero entonces su velocidad
debe ser p0 /m según la mecánica clásica, esto es compatible con la Ec. (2.84) obtenida en el marco cuántico con
p0 = ~k0 , siempre que ∆x y ∆p sean ambos despreciables Vg se puede asociar a la velocidad de la partı́cula, que
es la velocidad del máximo del paquete.
Es posible también estudiar la forma en que evoluciona la forma del paquete. Si por ejemplo ∆p es una
constante de movimiento entonces ∆x se incrementa con el tiempo, (dipersión del paquete).
10
Nótese que el hecho de que la velocidad de grupo sea mayor a la de fase en la Ec. (2.84), no entra en contradicción con la relatividad,
puesto que nuestros resultados solo son válidos en un régimen no relativista, ya que la relación de dispersión (2.54) proviene de la
ecuación (2.53), la cual es no relativista.
150 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
1
I (α, 0) = I (1, 0)
α
y solo resta calcular I (1, 0), lo cual se puede hacer como una integral doble en el plano XY usando coordenadas
polares Z ∞
2 √
I (1, 0) = e−ξ dξ = π
−∞
de lo cual se obtiene Z √
∞
−α2 (ξ+β)2 π
I (α, β) = e dξ = (2.85)
−∞ α
el cual resulta de superponer ondas planas eikx con coeficientes de Fourier de la forma
√
1 a − a2 (k−k0 )2
√ ψ̄ (k, 0) = e 4 (2.87)
2π (2π)3/4
para calcular ψ (x, 0) es conveniente reescribir la exponencial en (2.86) de modo que los términos en k queden
como un cuadrado perfecto a fin de compararlos con (2.85)
a2 2 a2 2ix 2 x2
− (k − k0 ) + ikx = − k − k0 − 2 + ik0 x − 2
4 4 a a
vemos entonces que la transformada de Fourier de un paquete gaussiano es también gaussiana. El módulo al
cuadrado del paquete y de su transformada en t = 0 (que estarán relacionados con las densidades de probabilidad
asociadas a la posición y momento respectivamente, para una partı́cula en t = 0) se obtienen de (2.87, 2.88), y
son
( 2 )
k−k0
r r 2 2 a exp − √
2 2x2 2 − x√ a e− a2 (k−k0 )2 ( 2/a)
|ψ (x, 0)|2 = e− 2
a = e a/ 2 ; ψ̄ (k, 0)2 = √ = √ (2.89)
πa2 πa2 2π 2π
y la curva asociada a este módulo es una tı́pica campana de Gauss. El centro del paquete de onda corresponde al
máximo de |ψ (x, 0)|2 y se sitúa en x = 0. Esto resultado también se puede obtener por aplicación de la Ec. (2.70).
a 1 ~
∆x = ; ∆k = ⇒ ∆p = (2.91)
2 a a
con lo cual se obtiene
~
(∆x) · (∆p) = (2.92)
2
relación que es compatible con el principio de incertidumbre. Nótese además que el principio de incertidumbre
se escribe en general en la forma (∆x) · (∆p) & ~/2. Esto implica que el principio de incertidumbre permite en
general, que el producto del ancho de la función con el ancho de su transformada de Fourier adquiera un valor
mayor al lı́mite inferior. Si aceptamos a ~/2 como el lı́mite inferior, vemos que los paquetes de onda gaussianos
predicen una igualdad, es decir que los productos de las incertidumbres siempre tienen el menor valor posible. En
tal sentido decimos que los paquetes de onda gaussianos son paquetes de “mı́nima incertidumbre”.
especı́fico en que el paquete inicial posee el perfil gaussiano dado por la Ec. (2.87), se tiene que
√ Z ∞
a 2
− a4 (k−k0 )2 i[kx−ω(k)t] ~k2
ψ (x, t) = e e dk ; ω (k) = (2.93)
(2π)3/4 −∞ 2m
veremos que el paquete permanece gaussiano para todo tiempo t. Se puede agrupar la parte dependiente de k de
los exponentes para formar un cuadrado perfecto, con el fin de comparar (2.93) con (2.85) y obtener
h i2
2 1/4 iϕ x − ~k0
t
2a e m
ψ (x, t) = 1/4
eik0 x exp − 2 2i~t
π 2 2 a + m
a4 + 4~m2t
~k02 2~
ϕ ≡ −θ − t ; tan 2θ = t
2m ma2
el módulo al cuadrado del paquete (densidad de probabilidad) en el tiempo t está dado por
2
r
2 1 2a x − m t
2 ~k0
2
|ψ (x, t)| = q exp − 2 2 (2.94)
πa2 1 + 4~2 t2
a4 + 4~m2t
2
m a4
una forma serı́a empleando (2.85) para integrar (2.94). No obstante, es más simple observar de la expresión (2.93)
que la transformada de Fourier de ψ (x, t) viene dada por
por tanto, la norma del paquete es independiente del tiempo y por tanto también la integral (2.95). Este resultado es
importante para la conservación de la probabilidad y de hecho para la consistencia de la interpretación de |ψ (x, t)|2
como una densidad de probabilidad. Veremos más adelante que esto resulta del hecho de que el Hamiltoniano de
la partı́cula libre es hermı́tico.
Ahora bien, la Ec. (2.94) nos dice que la densidad de probabilidad es gaussiana centrada en
~k0
xM = V0 t ; V0 ≡
m
donde V0 es la velocidad del paquete. Esta expresión es consistente con la velocidad de grupo dada por la Ec.
(2.84).
Figura 2.9: Dispersión de un paquete de onda Gaussiano libre. El ancho del paquete se reduce a medida que se
propaga desde t = −∞ hasta t=0. Posteriormente, el paquete comienza a ensancharce indefinidamente a medida
que se propaga.
esta ecuación nos muestra que la evolución del paquete no consiste simplemente en una propagación con velocidad
V0 . El paquete también sufre deformación. Cuando t se incrementa desde −∞ hasta cero, el ancho del paquete
decrece y alcanza su valor mı́nimo en t = 0, a partir de entonces el paquete se ensancha indefinidamente (dispersión
del paquete de onda). Esta situación se ilustra en la Fig. 2.9.
Adicionalmente, la Ec. (2.94) para el perfil del paquete nos muestra que la altura también varı́a, pero de forma
opuesta al ancho, de tal manera que la norma de ψ (x, t) permanece constante.
Es natural ahora preguntarse por el comportamiento de la forma del “paquete de ondas en el espacio de
los momentos (o espacio recı́proco)” con el tiempo. Las propiedades de la transformada de Fourier ψ̄ (k, t) son
totalmente distintas, vemos por ejemplo que de acuerdo a la Ec. (2.96) se tiene que
ψ̄ (k, t) = ψ̄ (k, 0)
de modo que el momento promedio del paquete ~k0 y la dispersión del momento ∆p = ~∆k son constantes en
el tiempo. Veremos más adelante que esto es una consecuencia de que el momento lineal es una constante de
movimiento para la partı́cula libre. En virtud de la ausencia de interacción, la distribución de momentos de una
partı́cula libre no cambia. Adicionalmente, dado que ∆p es constante y que ∆x crece con el valor absoluto del
tiempo, es claro que estos ya no son paquetes de mı́nima incertidumbre excepto para t = 0, esto se debe a que
el paquete en el espacio recı́proco (i.e. la transformada de Fourier del paquete de ondas en el espacio) ya no es
puramente gaussiano en t 6= 0, como se puede ver en la Ec. (2.96).
Cuánticamente, la existencia de una dispersión del momento ∆p = ~∆k significa que la velocidad de la partı́cula
solo se conoce en un intervalo ∆v = ∆p/m y usando la última de las Ecs. (2.91), vemos que ∆v = ~/ma. Este
hecho posee un interesante análogo clásico: imaginemos un conjunto de partı́culas clásicas que en t = 0 están
localizadas en x = 0 y que tienen una dispersión ∆v = ~/ma de sus velocidades. Es claro que en el tiempo t la
dispersión de sus posiciones será
~ |t|
∆xcl = |t| ∆v = (2.98)
ma
donde estamos asumiendo que se calcula su dispersión también para tiempos negativos anteriores a t = 0. La
dispersión decrece linealmente para la evolución temporal desde un t < 0 y crece linealmente con t a partir de
t = 0. La Fig. 2.10, muestra una comparación entre el comportamiento temporal de los anchos clásico ∆xcl y
cuántico ∆x dados por las Ecs. (2.97, 2.98). Vemos que cuando |t| → ∞ las dos gráficas coinciden, dado que las
rectas correspondientes al ancho clásico son las ası́ntotas de la hipérbola cuántica. Por tanto, para |t| muy grande
podemos decir que hay un comportamiento cuasi-clásico del ancho cuántico ∆x. Sin embargo, cuando |t| → 0, el
comportamiento cuántico difiere cada vez más del clásico. Esto se debe a que la partı́cula cuántica debe siempre
satisfacer el principio de incertidumbre de Heisenberg ∆x ∆p ≥ ~/2 y dado que ∆p es fijo, éste impone un lı́mite
inferior para ∆x que el sistema clásico no tiene que obedecer (efectivamente nuestro sistema clásico no poseı́a
154 CAPÍTULO 2. CONSTRUCCIÓN FENOMENOLÓGICA DE LOS POSTULADOS
Figura 2.10: Comparación entre el comportamiento con el tiempo de un ∆x cuántico (hipérbola) y su análogo
clásico ∆xcl (rectas).
dispersión en la posición para t = 0 ya que todas las partı́culas estaban en x = 0). No obstante, este análogo
clásico debe tomarse con cuidado. Por ejemplo, en nuestro sistema clásico la dispersión se generó con un conjunto
de partı́culas, en tanto que la dispersión cuántica esta asociada a un conjunto de ondas asociadas a UNA SOLA
partı́cula.
Vale la pena anotar que aunque hemos analizado la dispersión de un paquete de ondas libres cuya condición
inicial consta de componentes gaussianas, la dispersión se presenta para un paquete libre bajo cualquier forma
inicial del paquete, y la variación del ancho del paquete con el tiempo tiene la forma mostrada en la Fig. 2.10.
Combinando las Ecs. (2.91, 2.97) vemos que
r r
~ 4~2 t2 1 4~2 t2
∆x · ∆p = 1 + 2 4 ⇒ ∆x · ∆k = 1+ 2 4 (2.99)
2 m a 2 m a
para t = 0 el lı́mite inferior está en el mismo orden de magnitud que el dado en la Ec. (2.72)12 Pág. 142. Sin
embargo, para tiempos grandes en valor absoluto, el lı́mite inferior de (2.99) se aleja mucho de aquél que se
estimó en (2.72). Para entender esta discrepancia, recordemos que de acuerdo con la Ec. (2.64) Pág. 140, nuestro
tratamiento general asumió que la fase α (k) de la transformada de Fourier se podı́a aproximar a una función
lineal dentro del rango ∆k. Despreciar los términos no lineales en la expansión (2.64) equivale a decir que
2
2 d α (k)
(∆k) ≪ 2π (2.100)
dk2 k=k0
de no ser ası́ la contribución de segundo orden a α (k) no será mucho menor a 2π dentro del
2
dominio k0 ± ∆k. En
nuestro contexto, puesto que ∆k ≃ 1/a y de la Ec. (2.93) se tiene que α (k) = − ~k /2m t, la condición (2.100)
se escribe como
~t
≪ 2π (2.101)
a2 m
esta condición se cumple en t = 0 y tiempos t ≪ 2πa2 m/~. En contraste, falla para tiempos suficientemente
grandes para los cuales el lı́mite inferior en (2.99) difiere sustancialmente de aquél en la Ec. (2.72).
12
Recordemos que para encontrar la Ec. (2.72), se asumió que la transformada de Fourier tenı́a una forma similar (en perfil genérico)
a una campana de Gauss. Esto naturalmente coincide con nuestro actual tratamiento. Observemos además que la Ec. (2.72) expresa
una desigualdad que muestra la vaguedad del lı́mite inferior.
Capı́tulo 3
Hemos estudiado la dualidad onda partı́cula partiendo de los postulados de De Broglie y hemos analizado el
comportamiento de la onda asociada a una partı́cula libre. Sin embargo, si consideramos un sistema de una o más
partı́culas interactuantes será necesario generar una ecuación de movimiento que gobierne la dinámica de la onda
asociada. Si bien esta ecuación de movimiento se postulará, existen ciertos argumentos de plausibilidad para su
construcción.
ahora bien, a pesar de que las relaciones de De Broglie son consistentes con la teorı́a de la relatividad (de hecho,
fueron inspiradas por las relaciones análogas en los fotones), vamos a plantear una formulación no relativista, esto
con el fin de evitar el problema del manejo de la probabilidad que surge de la posibilidad de creación y aniquilación
de partı́culas materiales. Tomaremos entonces la relación no relativista (corpuscular) entre energı́a y momento
p2
E= +V (3.2)
2m
siendo m = m0 la masa en reposo de la partı́cula. La Ec. (3.1) nos muestra que un cambio en la definición de
energı́a (por ejemplo si tomáramos la relación relativista) nos cambiarı́a el valor de ν. Los experimentos descritos
hasta ahora no han explorado la validez de la relación (3.2), de modo que las predicciones que la ecuación dinámica
haga sobre una partı́cula interactuante deben ser corroboradas por los experimentos.
Es claro que para una partı́cula libre, los resultados deben poder obtenerse con cualquier potencial constante
(no necesariamente cero) aplicado a la Ec. (3.2). Es fácil verificar que un potencial constante predice que la
velocidad de grupo de la onda piloto corresponde a p/m y por tanto a la velocidad de la partı́cula, combinando
(3.1) con (3.2) se tiene que
E p2 V 1 p
ν= = + ; K≡ =
h 2mh h λ h
teniendo en cuenta que V es constante, tenemos
2p dp dp
dν = , dK =
2mh h
155
156 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
p = ~k ; E = ~ω (3.3)
~2 k2
+ V (x, t) = ~ω (3.4)
2m
tomaremos como prototipo la ecuación para la partı́cula libre con potencial constante. Las consideraciones ante-
riores nos dicen que la ecuación de movimiento que genere la función de onda ψ (x, t) (i.e. la dinámica de las ondas
piloto), debe cumplir las siguientes propiedades
1. Debe ser consistente con las Ecs. (3.1, 3.2). Es decir debe cumplir los postulados de De Broglie y la relación
no relativista entre E y p.
2. Debe ser lineal y homogénea en ψ (x, t) con el fin de que sea válido el principio de superposición que a su vez
nos genera los fenómenos ondulatorios de interferencia. Esto implica que si ψ1 (x, t) y ψ2 (x, t) son soluciones
de la ecuación una combinación lineal de ellas también es solución.
3. En general, consideraremos potenciales que solo dependen de la posición y el tiempo V = V (x, t). Cuando
el potencial es constante la partı́cula es libre y por tanto se deben conservar E y p, lo cual a su vez implica
que se conservan λ = 2π/k y ν de acuerdo con las relaciones (3.1).
4. Las soluciones para partı́cula libre son funcionalmente idénticas a las soluciones de la ecuación de onda
homogénea, pero deben cumplir con una relación de dispersión que sea consistente con la Ec. (3.4) con
V constante, en vez de la relación de dispersión para ondas libres dada por (2.55), lo cual nos dice que
la ecuación de onda no es la ecuación dinámica para la función de onda ψ (r, t). Entonces la ecuación de
movimiento para partı́cula libre debe tener soluciones en forma de ondas viajeras con número de onda y
frecuencia constantes.
5. Lo anterior nos lleva a postular que funciones de onda de la forma Aei(kx−ωt) son soluciones para partı́cula
libre (i.e. con potencial constante), ya que estas funciones son soluciones de la ecuación de onda homogénea
que corresponden a ondas viajeras con número de onda y frecuencia constantes, y que gracias a las relaciones
de De Broglie, también corresponden a momento y energı́a conservados.
La linealidad y homogeneidad prohibe términos del tipo [ψ (x, t)]2 (no lineales) o términos independientes de
ψ (x, t) (términos inhomogéneos o fuentes). Puesto que la mayorı́a de ecuaciones dinámicas de la Fı́sica son a lo
más de segundo orden, postularemos que los términos lineales son a lo más de segundo orden en el espacio y el
tiempo, y posiblemente un término lineal en ψ (x, t). Parametrizaremos a la ecuación en la forma siguiente
asumamos que la solución de partı́cula libre es ψ (x, t) = Aei(kx−ωt) , además se debe cumplir la relación de
dispersión (3.4) con V constante. Esta relación de dispersión contiene un término proporcional a k2 que se obtendrı́a
de una segunda derivada espacial de la onda plana, y un término lineal en ω que se puede extraer de una primera
3.1. PLAUSIBILIDAD DE LA ECUACIÓN DE SCHRÖDINGER 157
tenemos entonces √
γ = ± −1 = ±i
sustituyendo en la primera de las Ecs. (3.8)
~2
−a2 = ; ∓ib1 = ~
2m
tenemos entonces dos soluciones que dependen de la elección del signo de γ, la elección más usual es
~2
γ = i ; a2 = − ; b1 = i~
2m
que al reemplazarlo en (3.5) nos da
~2 ∂ 2 ψ ∂ψ
− 2
+ V ψ = i~
2m ∂x ∂t
que se ha derivado para un potencial constante V . Ahora postularemos que la relación se mantiene válida para
un potencial arbitrario de la forma V (x, t). Se obtiene entonces
~2 ∂ 2 ψ ∂ψ
− 2
+ V (x, t) ψ = i~ (3.9)
2m ∂x ∂t
expresión conocida como la ecuación de Schrödinger. Por supuesto podemos postular su extensión a tres dimen-
siones como
~2 2 ∂ψ (r, t)
− ∇ ψ (r, t) + V (r, t) ψ (r, t) = i~ (3.10)
2m ∂t
Nótese que γ = ±i, lo cual indica que la pretendida solución real (3.7) nos proporciona inevitablemente
una solución compleja tipo onda plana. Vemos que hay una diferencia con las soluciones de onda clásica que se
toman complejas solo por conveniencia. En contraste, para la ecuación de Schrödinger no pudimos encontrar una
solución real consistente con las relaciones de dispersión para partı́cula libre, el carácter de la solución es en esencia
complejo. Esto se refleja en el factor imaginario que aparece a la derecha de la ecuación (3.9) de Schrödinger.
~2 ∂χ (t)
− χ (t) ∇2 ϕ (r) + V (r) χ (t) ϕ (r) = i~ϕ (r)
2m ∂t
3.2. ECUACIÓN DE SCHRÖDINGER CON POTENCIAL ESCALAR INDEPENDIENTE DEL TIEMPO 159
~2 ∇2 ϕ (r) 1 ∂χ (t)
− + V (r) = i~
2m ϕ (r) χ (t) ∂t
el miembro izquierdo solo depende de la posición en tanto que el derecho depende solo del tiempo. Por tanto
ambos miembros deben ser iguales a una constante que por comodidad la tomaremos como ~ω, de momento ω es
solo una constante a ajustar, aunque es claro que debe tener dimensiones de frecuencia angular. Tenemos entonces
que
1 ∂χ (t) ∂χ (t)
i~ = ~ω ⇒ = −iωχ (t)
χ (t) ∂t ∂t
χ (t) = Ae−iωt (3.13)
~2 ∇2 ϕ (r)
− + V (r) = ~ω ⇒
2m ϕ (r)
~2 2
− ∇ ϕ (r) + V (r) ϕ (r) = ~ωϕ (r) (3.14)
2m
combinando las Ecs. (3.12, 3.13), la solución para la ecuación de Schrödinger (3.11) es
y vemos que (3.17) es una ecuación de valores propios para el operador H en la cual ϕ (r) son las funciones propias
(vectores propios) y las energı́as E son los valores propios. Las energı́as permitidas para la partı́cula son entonces
los valores propios del operador H. Nótese que no cualquier solución ϕ (r) de la ecuación de Schrödinger es una
solución fı́sica, debemos imponer que sea de cuadrado integrable, esta imposición restringirá los valores permitidos
de energı́a y nos llevará a una cuantización de esta cantidad.
160 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
A la Ec. (3.17) se le llama usualmente ecuación de Schrödinger independiente del tiempo, en tanto que a (3.11)
se le denomina ecuación de Schrödinger dependiente del tiempo. La Ec. (3.11) nos da la evolución de la función
de onda para un estado arbitrario de la partı́cula, en tanto que la Ec. (3.17) solo nos da los estados estacionarios
de ésta.
Dado que tenemos un conjunto de valores permitidos de la energı́a (autoresultados o autovalores), vamos a
rotular las energı́as y las autofunciones de la forma
donde tanto n como m pueden simbolizar un ı́ndice contı́nuo o discreto o incluso varios ı́ndices. El ı́ndice m me
indica la posibilidad de degeneración, es decir de varias autofunciones linealmente independientes que pertenecen
al mismo valor propio En . Los estados estacionarios de la partı́cula son de la forma
ψn,m (r, t) es una solución de la ecuación de Schrödinger Ec. (3.11), y en virtud de la linealidad de esta ecuación,
una superposición de las soluciones estacionarias es también solución
XX
ψ (r, t) = cnm ϕn,m (r) e−iEn t/~ (3.18)
n m
en realidad es usual que se requiera la superposición puesto que soluciones arbitrarias no satisfacen en general
las condiciones iniciales y de frontera que pide un problema especı́fico. La superposición garantiza que podemos
obtener cualquier estado siempre que las funciones ϕnm (r) sean completas como funciones espaciales (las funciones
temporales son ondas planas y por tanto completas), esto requiere a su vez que el operador H tenga el carácter
de observable.
Para t = 0 la Ec. (3.18) nos da XX
ψ (r, 0) = cnm ϕn,m (r) (3.19)
n m
de modo que si conocemos el estado inicial del sistema (el cual es en principio arbitrario) podemos descomponerlo
en la base de las autofunciones ϕn,m de H (siempre que H sea un observable). Para obtener la evolución temporal
basta con multiplicar cada término en (3.19) por e−iEn t/~ , debe aclararse que cada término corresponde a una fase
diferente y por tanto la superposición ya no corresponde en general a un estado estacionario.
Es esencial tener presente que toda esta discusión solo es válida cuando V (r) no es función explı́cita del tiempo,
de otro modo no es posible en general tener soluciones con separación de variables.
siendo P el operador definido por las Ecs. (1.188), que en representación de la base {|ri} está dado por la Ec.
(1.191). Ya vimos en la sección 1.43.4 que este operador es Hermı́tico, y como V (r, t) es una función real, también
es hermı́tica1 . En consecuencia H también es hermı́tico. Nótese que esto es indispensable para que el espectro de
este operador (la energı́a) sea real (ver teorema 1.62).
Ahora bien, recordemos que a cada función de onda en el espacio ̥ le asociamos un ket en el espacio E en la
forma ψ (r, t) ↔ |ψ (t)i es conveniente escribir la ecuación de Schrödinger como una ecuación dinámica de los kets
(en lugar de la función de onda), debido a que una ecuación planteada para el vector abstracto se puede tomar
de manera muy sencilla en cualquier representación. Es fácil ver que la Ec. de Schrödinger para kets de la forma
d
i~ |ψ (t)i = H (t) |ψ (t)i (3.22)
dt
conduce a la Ec. de Schrödinger (3.20) cuando usamos la representación de la base {|ri}, siempre que H (t) sea el
operador (abstracto) que en representación de la base {|ri} esté dado por (3.21). Para verlo aplicamos el bra hr|
a ambos lados de (3.22)
d
i~ hr| |ψ (t)i = hr| H (t) |ψ (t)i
dt
dado que |ψ (t)i no depende de r, la derivada total o parcial en el tiempo coinciden para el ket. Adicionalmente,
cuando el ket se transforma en función de onda la cual es un campo, debe tenerse en cuenta que las coordenadas r
en ψ (r, t) son lugares geométricos y no variables dinámicas, por tanto las variables r y t son todas independientes,
de modo que2
d ∂ ∂
i~ hr| |ψ (t)i = i~ hr| |ψ (t)i = hr |ψ (t)i
dt ∂t ∂t
d ∂ψ (r, t)
i~ hr| |ψ (t)i =
dt ∂t
y de la condición establecida para H (t) se tiene que
con lo cual se reproduce la Ec. de Schrödinger (3.20) en representación de coordenadas. Veamos las principales
propiedades de la ecuación de Schrödinger.
λ2 |ψ2 (t0 )i entonces el estado en un tiempo t posterior será |ψ (t)i = λ1 |ψ1 (t)i + λ2 |ψ2 (t)i con lo cual tenemos
una correspondencia lineal entre |ψ (t0 )i y |ψ (t)i. Por tanto, hay un operador lineal conocido como operador
evolución temporal que conecta a estas dos funciones
para todo tiempo, i.e. en cualquier instante la partı́cula debe encontrarse en algún lugar del espacio (excepto
cuando hay procesos de creación y destrucción de partı́culas que no incluı́mos en el presente formalismo). Esto
significa que la norma de un ket |ψ (t)i debe ser constante en el tiempo. Es necesario por tanto que la ecuación
de Schrödinger mantenga invariante en el tiempo la norma de los vectores, con el fin de dar una interpretación
probabilı́stica coherente.
Para mirar la conservación de la probabilidad debemos evaluar la derivada total de la norma en el tiempo
d d d
hψ (t)| ψ (t)i = hψ (t)| |ψ (t)i + hψ (t)| |ψ (t)i (3.24)
dt dt dt
la derivada temporal del ket se obtiene directamente de la ecuación de Schrödinger Ec. (3.22)
d 1
|ψ (t)i = H (t) |ψ (t)i (3.25)
dt i~
para obtener la derivada temporal del bra, sacamos el hermı́tico conjugado de dicha ecuación
d 1 1
hψ (t)| = − hψ (t)| H † (t) = − hψ (t)| H (t) (3.26)
dt i~ i~
donde hemos usado la hermiticidad de H. Reemplazando (3.25) y (3.26) en (3.24) se obtiene
d 1 1
hψ (t)| ψ (t)i = − hψ (t)| H (t) |ψ (t)i + hψ (t)| H (t) |ψ (t)i = 0
dt i~ i~
esto implica entonces que si normalizamos el estado inicial, el estado en cualquier tiempo continuará normaliza-
do. Nótese la importancia de la hermiticidad de H para lograr la conservación de la norma y por tanto, de la
probabilidad.
para todo tiempo, de modo que PT representa una “carga generalizada” que se conserva. Por supuesto esto no
significa que la distribución de esta “carga” (distribución de probabilidad), permanezca igual en el tiempo para
cada punto r, las variaciones de ρ (r, t) con el tiempo generan una propagación de la distribución de carga. En
general tanto las variaciones espaciales como temporales de ρ (r, t) generan una corriente de probabilidad, si ρ
no es función del tiempo se genera una corriente estacionaria. Recordemos que el volumen no es necesariamente
todo el espacio si existen regiones con probabilidad cero. Lo importante es que no cruce corriente de probabilidad
en la superficie que delimita al volumen de integración, ya que si esto ocurre, habrá probabilidad diferente de cero
en regiones que en tiempos anteriores eran inaccesibles. Esta situación es análoga al caso en que ρ (r, t) simbolizaba
una densidad de carga eléctrica a la cual le podemos asociar una densidad de corriente J (r, t).
Es bien conocido que la conservación global de la carga generalizada proviene de una ley de conservación local
que prohibe la creación espontánea de carga generalizada neta. Esto implica que si tomamos un volumen por cuya
superficie limitadora cruza corriente de carga generalizada, el flujo neto de carga por la superficie hacia afuera
(adentro) debe estar compensado por una disminución (aumento) en la carga interior al volumen, el enunciado
preciso de esta ley local de conservación es
∂
ρ (r, t) + ∇ · J (r, t) = 0 (3.28)
∂t
siendo ρ la densidad de carga generalizada y J la densidad de corriente generalizada, esta expresión es conocida
como ecuación de continuidad. Puesto que hemos encontrado la carga conservada (probabilidad total) y definido
ya la densidad de probabilidad, debemos encontrar una densidad de corriente de probabilidad que nos dé una
ecuación de la forma (3.28), en este caso estamos tratando a la probabilidad como un fluı́do o medio contı́nuo.
Volveremos a la ecuación de Schrödinger en representación de coordenadas dado por (3.10)
~2 2 ∂ψ (r, t)
− ∇ ψ (r, t) + V (r, t) ψ (r, t) = i~ (3.29)
2m ∂t
el potencial V (r, t) debe ser real para que H sea hermı́tico (lo cual es esencial para la conservación de la proba-
bilidad como ya vimos). La ecuación compleja conjugada de la Ec. de Schrödinger es
~2 2 ∗ ∂ψ ∗ (r, t)
− ∇ ψ (r, t) + V (r, t) ψ ∗ (r, t) = −i~ (3.30)
2m ∂t
multiplicamos (3.29) por ψ ∗ (r, t) y (3.30) por −ψ (r, t) y sumamos
~2 ∗ ∂ψ (r, t)
− ψ (r, t) ∇2 ψ (r, t) + V (r, t) ψ ∗ (r, t) ψ (r, t) = i~ψ ∗ (r, t)
2m ∂t
~2 ∗
∂ψ (r, t)
ψ (r, t) ∇2 ψ ∗ (r, t) − V (r, t) ψ (r, t) ψ ∗ (r, t) = i~ψ (r, t)
2m ∂t
quedando
~2 ∗ 2 2 ∗
∗ ∂ψ ∂ψ ∗
− ψ ∇ ψ − ψ∇ ψ = i~ ψ +ψ
2m ∂t ∂t
~ ∂ ∗
− ψ ∗ ∇2 ψ − ψ∇2 ψ ∗ = [ψ ψ]
2mi ∂t
sumando y restando un término a la izquierda
~ ∗ 2 ∂ ∗
− ψ ∇ ψ + (∇ψ ∗ ) · (∇ψ) − (∇ψ ∗ ) · (∇ψ) − ψ∇2 ψ ∗ = [ψ ψ]
2mi ∂t
~ ∂ρ
− ∇ · [ψ ∗ ∇ψ − ψ∇ψ ∗ ] =
2mi ∂t
164 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
quedando finalmente
∂ρ ~ ∗ ∗
+∇· [ψ ∇ψ − ψ∇ψ ] = 0 (3.31)
∂t 2mi
y comparando (3.31) con la ecuación (3.28) de continuidad se tiene que
~
J= [ψ ∗ ∇ψ − ψ∇ψ ∗ ]
2mi
esta ecuación se puede reescribir definiendo
~ 1
J = [Z − Z ∗ ] ; Z ≡ ψ ∗ ∇ψ
m 2i
1 1 ~Z ~Z ∗ 1 ~Z
J = + = Re
m 2 i i m i
de modo que
~ ∗ ∗ 1 ∗ ~
J (r, t) = [ψ ∇ψ − ψ∇ψ ] = Re ψ ∇ψ (3.32)
2mi m i
hemos probado entonces la conservación local de la probabilidad y encontramos la forma explı́cita de la densidad
de corriente, la cual es real como era de esperarse.
Vale la pena calcular la corriente de probabilidad para el caso especial de estados estacionarios de la forma
(3.15), en tal caso al reemplazar (3.15) en (3.32) resulta
~ ~ n ∗ ∗ o
J = [ψ ∗ ∇ψ − ψ∇ψ ∗ ] = ϕ (r) e−iωt ∇ ϕ (r) e−iωt − ϕ (r) e−iωt ∇ ϕ (r) e−iωt
2mi 2mi
~ ∗ iωt −iωt
J = ϕ (r) e e ∇ϕ (r) − ϕ (r) e−iωt eiωt ∇ϕ∗ (r)
2mi
quedando finalmente
~ ∗ ∗ 1 ∗ ~
J (r) = {ϕ (r) ∇ϕ (r) − ϕ (r) ∇ϕ (r)} = Re ϕ (r) ∇ϕ (r) estados estacionarios (3.33)
2mi m i
comparando, (3.32) con (3.33), vemos que para estados estacionarios, la corriente se puede calcular reemplazando
ψ (r, t) por ϕ (r), es decir omitiendo la componente temporal de ψ. Efectivamente, (3.33) corresponde a una
corriente estacionaria tal como se usa en mecánica clásica, i.e. una corriente que depende de la posición pero que
no depende explı́citamente del tiempo.
si sustituı́mos esta expresión polar en la Ec. (3.32) para la densidad de corriente de probabilidad encontramos
que3
~ n h i h io
J (r) = α (r) e−iξ(r) ∇ α (r) eiξ(r) − α (r) eiξ(r) ∇ α (r) e−iξ(r)
2mi
~ n o
= α (r) e−iξ(r) eiξ(r) [∇α (r) + iα (r) ∇ξ (r)] − α (r) eiξ(r) e−iξ(r) [∇α (r) − iα (r) ∇ξ (r)]
2mi
~ 2
J (r, t) = α (r, t) ∇ξ (r, t) (3.34)
m
3
Por simplicidad hemos omitido la posible dependencia explı́cita del tiempo pero esto no altera los resultados.
3.4. APLICACIÓN DE LA ECUACIÓN DE SCHRÖDINGER A POTENCIALES DISCONTÍNUOS 165
vemos que ρ (r, t) solo depende del módulo del complejo ψ (r, t), en tanto que J (r, t) depende del módulo y del
gradiente de la fase. Por ejemplo, si la fase es constante en el espacio, J (r, t) es cero, aunque la densidad no lo
sea4 . Las Ecs. (3.34, 3.35) nos dan a J (r, t) y ρ (r, t) cuando conocemos ψ (r, t), vale preguntarse si inversamente
podemos determinar unı́vocamente a ψ (r, t) con base en el conocimiento de J (r, t) y ρ (r, t). La Ec. (3.35) nos da
a ρ (r, t) en función del módulo de ψ (r, t). Por otro lado, dividiendo las Ecs. (3.34, 3.35) resulta
m J (r, t)
∇ξ (r, t) =
~ ρ (r, t)
V0 si −∞ < x < x0
V (x) = V1 si x0 < x < x1 ; V1 < V2 < V0 (3.37)
V2 si x1 < x < ∞
la fuerza F (x) = −dV (x) /dx serı́a del tipo
F (x) = F0 δ (x − x0 ) − F1 δ (x − x1 )
En primer lugar las predicciones de la mecánica clásica son inmediatas, por ejemplo si V (x) es una energı́a
potencial gravitacional, el perfil del potencial representa el perfil de la superficie sobre la cual se mueve la partı́cula,
los valores de x para los cuales E < V estarán prohibidos. En las regiones de potencial constante la velocidad
de la partı́cula es constante ya que es libre, solo en las discontinuidades experimenta una fuerza y si pasa a la
otra región (si E > V ) su energı́a cinética se verá aumentada (disminuı́da) si pasa a una zona de menor (mayor)
potencial.
Como el potencial no depende del tiempo podemos encontrar soluciones estacionarias para la ecuación de
Schrödinger. En la región de potencial constante V , la ecuación de Schrödinger independiente del tiempo nos da
~2 d2
− + V ϕ (x) = Eϕ (x)
2m dx2
2
d 2m
+ 2 (E − V ) ϕ (x) = 0 (3.38)
dx2 ~
escrita en esta forma la ecuación tiene un interesante análogo óptico. Consideremos un medio transparente de
ı́ndice de refracción n independiente de la posición y el tiempo. En tal medio puede haber ondas electromagnéticas
con campo eléctrico independiente de y y z
siendo u un vector unitario perpendicular al eje x, teniendo en cuenta que E satisface la ecuación de onda y las
ecuaciones de Maxwell, resulta 2
d n2 Ω2
+ E (x) = 0 (3.40)
dx2 c2
las Ecs. (3.38) y (3.40) son idénticas si hacemos la asignación
2m n2 Ω2
2
(E − V ) = 2 (3.41)
~ c
adicionalmente, en los lugares en donde V (y por tanto n) son discontı́nuos las condiciones de frontera para ϕ (x)
y E (x) son las mismas: las soluciones y sus primeras derivadas deben permanecer contı́nuas (lo veremos más
adelante para las ϕ (x)). Esta analogı́a permite asociar al problema de una partı́cula en un potencial del tipo
(3.37) un problema óptico asociado a la propagación de una onda electromagnética de frecuencia angular Ω en un
medio cuyo ı́ndice de refracción n tiene discontinuidades del mismo tipo. En la Ec. (3.41) podemos despejar para
n (Ω) y obtener
1 p
n (Ω) = 2mc2 (E − V ) (3.42)
~Ω
nótese que para la onda electromagnética, la región con E > V corresponde a un medio transparente con ı́ndice
de refracción real y la onda es de la forma eikx . Por otro lado, cuando E < V corresponde a un medio con un
ı́ndice de refracción imaginario de modo que n2 < 0 y al reemplazar esto en (3.40) se obtiene una solución de la
forma e−ρx que es del tipo de onda evanescente.
Debe tenerse en cuenta que si bien obtendremos un comportamiento funcional análogo al óptico, la interpre-
tación probabilı́stica es muy diferente a la interpretación clásica para onda electromagnética.
3.5. POTENCIALES RECTANGULARES, ANÁLOGO ÓPTICO 167
~2 k2
E−V ≡ (3.44)
2m
al reemplazar en (3.43) queda
d2 2
+ k ϕ (x) = 0 (3.45)
dx2
que es la ecuación de un oscilador armónico y la solución de la Ec. (3.45) se puede escribir como
~2 ρ2
V −E ≡ (3.47)
2m
y la Ec. (3.43) queda
d2 2
− ρ ϕ (x) = 0 (3.48)
dx2
con solución
ϕ (x) = Beρx + B ′ e−ρx (3.49)
siendo B y B ′ constantes complejas.
(c) E = V , en este caso
d2 ϕ (x)
= 0 ⇒ ϕ (x) = Cx + C ′
dx2
Ahora veamos el comportamiento de las soluciones en la discontinuidad. La primera tentación es pensar que
la función de onda debe ser discontı́nua en un punto donde el potencial lo sea, veremos sin embargo que tanto
ϕ (x) como dϕ (x) /dx deben ser contı́nuas y solo es la segunda derivada d2 ϕ (x) /dx2 la que es discontı́nua en el
punto. Para ver esto, recordemos que un potencial con una discontinuidad de salto en x1 representa en fı́sica el
lı́mite cuando ε → 0 de un potencial Vε (x) que es igual a V (x) fuera del intervalo [x1 − ε, x1 + ε], pero que varı́a
de forma contı́nua en dicho intervalo. Consideremos la ecuación
d2 2m
2
ϕε (x) + 2 [E − Vε (x)] ϕε (x) = 0 (3.50)
dx ~
asumimos que Vε (x) está acotado en el intervalo [x1 − ε, x1 + ε], y que esta cota no depende del parámetro ε.
Esto se cumple en la mayorı́a de los casos, ya que usualmente Vε estará definido dentro de los valores [V0 , V1 ] que
se tienen en la discontinuidad de salto a la izquierda y la derecha de x1 . Escogemos una solución ϕε (x) que para
x < x1 − ε y para x > x1 + ε coincida con una solución dada de la Ec. (3.43). La idea es demostrar que cuando
ε → 0 entonces ϕε (x) tiende a una función ϕ (x) contı́nua y diferenciable a primer orden en x1 . Es posible probar
168 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
a través de las propiedades de la ecuación diferencial (3.43) que ϕε (x) permanece acotada para cualquier valor
de ε con una cota independiente de ε, en la vecindad de x = x1 . Esto fı́sicamente implica que la densidad de
probabilidad permanece finita. Integrando la Ec. (3.50) en el intervalo [x1 − η, x1 + η] resulta
Z x1 +η Z
d d 2m x1 +η
ϕε (x) dx + 2 [E − Vε (x)] ϕε (x) dx = 0
x1 −η dx dx ~ x1 −η
Z x1 +η
dϕε (x1 + η) dϕε (x1 − η) 2m
− = 2 [Vε (x) − E] ϕε (x) dx (3.51)
dx dx ~ x1 −η
y dado que Vε (x) y ϕε (x) permanecen acotados con cotas independientes de ε, la integral a la derecha de la Ec.
(3.51) tiende a cero cuando η tiende a cero. Por lo tanto
dϕε (x1 + η) dϕε (x1 − η)
lı́m − =0
η→0 dx dx
por tanto, en este lı́mite, dϕ/dx es contı́nua en x = x1 y por tanto también ϕ (x) ya que derivabilidad implica
continuidad. Por otro lado, d2 ϕ/dx2 es discontı́nua en x = x1 puesto que en la Ec. (3.43) vemos que
2
d ϕ (x1 + η) 2m
lı́m + [E − V (x 1 + η)] ϕ (x 1 + η) = 0
η→0+ dx2 ~2
2
d ϕ (x1 + η) 2m
lı́m 2
= lı́m 2 {[V (x1 + η) − E] ϕ (x1 + η)}
η→0+ dx η→0+ ~
2
d ϕ (x1 + η) 2m
lı́m 2
= 2 {[V1 − E] ϕ (x1 )}
η→0 + dx ~
siendo V0 el valor del potencial a la izquierda de x1 . Tenemos entonces que en x1 la segunda derivada presenta un
salto dado por 2 2
d ϕ (x1 + η) d ϕ (x1 + η) 2m
lı́m 2
− lı́m 2
= 2 (V1 − V0 ) ϕ (x1 )
η→0 + dx η→0 − dx ~
esto es una discontinuidad de salto para la segunda derivada ya que V1 6= V0 . Nótese sin embargo, que la segunda
derivada permanece acotada. Es importante resaltar la importancia de que Vε (x) permanezca acotado. Por ejem-
plo, si V (x) = aδ (x) tenemos una función cuya integral permanece finita pero que no es acotada. En tal caso,
ϕ (x) permanece contı́nua pero no la primera derivada.
Por tanto, para encontrar la solución de los estados estacionarios cuando el potencial es contı́nuo a trozos
con discontinuidades de salto finito, calculamos primero las soluciones para las regiones en donde el potencial es
constante (con E > V ó E < V según el caso), y hacemos el “empalme” en los puntos donde hay discontinuidades
exigiendo la continuidad de la solución y de su primera derivada.
(a) E > V0 , en tal caso la solución estacionaria viene dada por la Ec. (3.46)
~
Jx = [ϕ∗ ∂x ϕ − ϕ∂x ϕ∗ ]
2mi
~ h ∗ −ikx i
Jx = A e + A′∗ eikx ∂x Aeikx + A′ e−ikx − Aeikx + A′ e−ikx ∂x A∗ e−ikx + A′∗ eikx
2mi
~ h ∗ −ikx i
Jx = A e + A′∗ eikx ikAeikx − ikA′ e−ikx − Aeikx + A′ e−ikx −ikA∗ e−ikx + ikA′∗ eikx
2mi
~k h ∗ −ikx
Jx = A e + A′∗ eikx Aeikx − A∗ e−ikx + A′∗ eikx A′ e−ikx
2m i
+ Aeikx + A′ e−ikx A∗ e−ikx − Aeikx + A′ e−ikx A′∗ eikx
~k h ∗ i
Jx = A A + A′∗ Ae2ikx − A∗ A′ e−2ikx − A′∗ A′ + AA∗ + A′ A∗ e−2ikx − AA′∗ e2ikx − A′ A′∗
2m
~k h 2 i
Jx = 2 |A|2 + A′∗ Ae2ikx − AA′∗ e2ikx − A∗ A′ e−2ikx + A′ A∗ e−2ikx − 2 A′
2m
~k h 2 ′ 2 i
Jx = |A| − A (3.53)
m
el signo relativo se puede entender teniendo en cuenta que la función de onda (3.52) representa dos ondas con
momentos opuestos p = ±~k con densidades de probabilidad |A|2 y |A′ |2 , además ~k p
m = m = vg nos dice que Jx es
de la forma ρvg como era de esperarse.
(b) Cuando E < V0 la solución está dada por las Ecs. (3.47, 3.49)
~ρ ~ρ
Jx = BB ′∗ − B ∗ B ′ = Im BB ′∗ (3.56)
2mi m
vemos que es necesario que en la función de onda (3.54) ambos coeficientes sean no nulos para que la corriente de
probabilidad sea diferente de cero.
cuyo perfil se ilustra en la Fig. 3.1. Asumiremos que la partı́cula viene desde x = −∞ en t = −∞ de modo que
inicialmente solo hay una onda viajera que se propaga hacia la derecha. Distinguiremos dos casos
ϕI (x) = A1 eik1 x + A′1 e−ik1 x ; ϕII (x) = A2 eik2 x + A′2 e−ik2 x (3.59)
dϕI (x) dϕII (x)
= ik1 A1 eik1 x − A′1 e−ik1 x ; = ik2 A2 eik2 x − A′2 e−ik2 x (3.60)
dx dx
y puesto que la ecuación (3.43) es homogénea, si ϕ es solución también lo será ϕ/A, siendo A una constante. Esto
implica que solo podemos determinar los cocientes entre las amplitudes pero no todas las amplitudes. Ahora bien,
3.6. EL POTENCIAL ESCALÓN 171
puesto que la amplitud de entrada es la de la onda incidente, es decir la de la onda que viaja hacia la derecha
en la región I, tenemos que A1 es el parámetro de entrada y todos los demás deben compararse con él. Por tanto
determinaremos los cocientes
A′1 A2 A′2
, , .
A1 A1 A1
Veamos la información que nos dan las condiciones de empalme, la continuidad de la función en x = 0 nos da
como solo tenemos dos ecuaciones (3.61) y (3.62) para los tres cocientes, debemos fijar una amplitud para poder
determinar los cocientes. Para ello tengamos en cuenta que cuando la función de onda penetra la región II vuelve
a ser una función de onda libre (potencial constante) y ya hemos visto que la función de onda libre es una onda
viajera en una sola dirección, de modo que no es de esperarse que surja una onda reflejada en el interior de la
región II (solo en el lı́mite entre I y II donde sı́ hay interacción). En consecuencia, no habrá onda reflejada en la
región II, por lo cual según la Ec. (3.59) vemos que
A′2 = 0 (3.63)
nótese que esto está relacionado con el hecho de que hayamos tomado el caso de una partı́cula incidente que
proviene de x = −∞ (condiciones iniciales)5 . Las Ecs. (3.61, 3.62) se simplifican a
A1 + A′1 = A2 ; k1 A1 − A′1 = k2 A2 (3.64)
A1 + A1′ A2 ′
k1 (A1 − A1 ) A2
= ; = k2
A1 A1 A A1
1 ′
A′1 A2 k1 A1 A2
1+ = ; 1− = (3.65)
A1 A1 k2 A1 A1
donde el hecho de que el primer cociente es positivo proviene de las expresiones para k1 y k2 Ecs. (3.57, 3.58).
Ahora bien, para E > V0 , la función ϕI (x) en la Ec. (3.59) representa dos ondas con momentos opuestos, es decir
propagándose en direcciones opuestas. La onda proporcional a A1 se propaga de izquierda a derecha de modo que
representa una partı́cula incidente (p = ~k1 ), la onda proporcional a A′1 tiene momento p = −~k1 por lo cual
representa una partı́cula reflejada. Puesto que A′2 = 0 tenemos que ϕII (x) en la Ec. (3.59) representa solo una
onda que corresponde a una partı́cula transmitida. Es natural entonces preguntarse por la probabilidad de que
una partı́cula que incide desde x = −∞ pase el escalón de potencial o rebote en él (que en términos cuánticos es la
probabilidad de detectar a la partı́cula en las regiones II y I respectivamente). A tales cantidades las llamaremos
coeficientes de transmisión T y de reflexión R respectivamente. Para calcular estas cantidades debemos calcular
primero la corriente asociada a cada región de potencial constante. Para el caso E > V0 esta corriente viene dada
por las Ecs. (3.52, 3.53), que aplicadas a las soluciones (3.59) y con la condición A′2 = 0 Ec. (3.63) nos da
~k1 h 2 i
JI (x) = |A1 |2 − A′1 (3.67)
m
~k2
JII (x) = |A2 |2 (3.68)
m
JI es la superposición entre la corriente incidente y la corriente reflejada, en tanto que JII es la corriente trans-
mitida, por lo tanto
~k1 ~k1 ′ 2
JI (x) = Jinc + Jref l ; Jinc = |A1 |2 ; Jref l = − A1
m m
~k2
JII (x) = Jtr = |A2 |2
m
Ahora bien, la corriente incidente Jinc se divide en dos términos cuando incide sobre la discontinuidad: la corriente
reflejada y la transmitida
Jinc = Jtr + Jref l
El coeficiente de reflexión del escalón es entonces el cociente entre la corriente reflejada sobre la corriente incidente
Jref l A′1 2
R= = (3.69)
Jinc A1
y el coeficiente de transmisión es el cociente entre la corriente transmitida sobre la corriente incidente
Jtr k2 A2 2
T = = (3.70)
Jinc k1 A1
podemos escribir R y T en términos de k1 y k2 . Para hacerlo con R reemplazamos (3.66) en (3.69)
′ 2
A1 k1 − k2 2 (k1 − k2 )2 (k1 + k2 )2 − 4k1 k2
R = = = =
A1 k1 + k2 (k1 + k2 )2 (k1 + k2 )2
4k1 k2
R = 1−
(k1 + k2 )2
para el caso de T , reemplazamos (3.66) en (3.70)
k2 A2 2 k2 2k1 2 k2 4k12 4k1 k2
T = = = 2 =
k1 A1 k1 k1 + k2 k1 (k1 + k2 ) (k1 + k2 )2
los coeficientes R y T quedan finalmente
4k1 k2 4k1 k2
R =1− 2 , T = (3.71)
(k1 + k2 ) (k1 + k2 )2
3.6. EL POTENCIAL ESCALÓN 173
ahora bien, en un experimento concreto es claro que la partı́cula debe reflejarse o transmitirse, y esto se traduce
en que necesariamente
R+T =1
lo cual es consistente con las Ecs. (3.71). Es de enfatizar que contrario a las predicciones de la mecánica clásica,
tenemos una probabilidad diferente de cero de que la partı́cula se devuelva.
Ahora estamos preparados para la analogı́a óptica: De las Ecs. (3.42) vemos que un escalón de potencial con
V = 0 para x < x1 (región I) y V = V0 < E para x > x1 (región II), corresponde a una onda electromagnética
que se propaga de izquierda a derecha desde una región I de ı́ndice real n1 dado por
c √
n1 = 2mE
~Ω
hacia una región II (separada de la región I por el punto x = x1 ) de ı́ndice de refracción real n2
c p
n2 = 2m (E − V0 )
~Ω
de modo que tenemos una interfase plana en x = x1 con n1 > n2 (la región I podrı́a ser vidrio y la región II podria
ser aire o el vacı́o). Ambos medios son transparentes. En este caso la onda incidente (con dirección de propagación
normal a la interfase) se parte en una onda transmitida (o refractada) y una onda reflejada. Ahora bien, las Ecs.
(3.66) muestran que los cocientes A′1 /A1 y A2 /A1 son reales positivos, i.e. A′1 y A2 tienen la misma fase que A1 6 .
Fı́sicamente, esto significa que no hay corrimiento de fase en la onda reflejada ni en la transmitida, con respecto
a la onda incidente. Por tanto, la partı́cula cuántica no es retardada por su reflexión o transmisión.
Es interesante ver lo que ocurre en el lı́mite cuando E ≫ V0 . De las definiciones de k1 y k2 en las Ecs. (3.57,
3.58), junto con las Ecs. (3.71) es fácil ver que
q q
√ p
2mE 2m(E−V0 )
4 ~ 2 ~ 2 8m E (E − V0 )
4k1 k2
T = = q q 2 = √ p 2
(k1 + k2 )2 2mE 2m(E−V0 ) 2mE + 2m (E − V )
~2
+ ~2
0
hp i hp i h√ i
4 E(E−V0 )
8m E (E − V0 ) 4 E (E − V0 )
T = h√ √ √ i 2 = h √ √ i2 = √ √E 2
2m E + E − V0 E + E − V0 [( E+ E−V0 )]
E
q q
4 1 − VE0 4 1 − VE0
4
T = √ √ 2 = q 2 ≈ =1
( E+√ E−V0 ) V0 [1 + 1]2
E
1+ 1− E
por tanto si E ≫ V0 entonces R ∼ =0yT ∼ = 1, de modo que para energı́as suficientemente grandes comparadas con
la altura del potencial, la partı́cula saltará el escalón prácticamente con toda certeza.
La diferencia en la interpretación en óptica y en cuántica se puede apreciar con el proceso de medición. Si
justo después de que la onda incidente se parte en dos, colocamos dos detectores en la regiones I y II, en un
experimento óptico los dos aparatos detectarán una onda cada una con intensidad menor a la incidente (siendo
la suma de las dos intensidades la intensidad incidente). En un experimento cuántico solo uno de los detectores
detectará una partı́cula, pero si repetimos el experimento muchas veces, la partı́cula será detectada en uno u otro
detector en cada experimento, en una proporción dada por el patrón de probabilidad.
6
Para el cociente de dos amplitudes complejas podemos escribir tales cocientes en forma polar i.e A1 /A2 = |A1 | eiδ1 / |A2 | eiδ2 . De
modo que si el cociente es positivo entonces δ1 = δ2 , si el cociente es negativo hay una diferencia de fase π y si el cociente es complejo
hay una diferencia de fase arbitraria diferente a cero y π.
174 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
B2 = 0 (3.76)
dϕ (x) dϕ (x)
lı́m ϕ (x) = lı́m ϕ (x) ; lı́m
= lı́m ⇒
x→0− x→0+ dx x→0−x→0 + dx
dϕI dϕII
ϕI (x = 0) = ϕII (x = 0) ; (x = 0) = (x = 0) (3.77)
dx dx
y reemplazando (3.74, 3.75, 3.76) en (3.77) resulta
A1 + A′1 = B2′ ; ik1 A1 − A′1 = −ρ2 B2′ (3.78)
Debido a la nulidad de B2 , podremos encontrar todos los cocientes de la forma A′1 /A1 y B2′ /A1 sin ninguna
suposición adicional. Dividiendo las Ecs. (3.78) por A1 queda
A′ B2′ A′ B′
1+ 1 = ; ik1 1 − 1 = −ρ2 2
A1 A1 A1 A1
′ ′ ′
A B2 ik1 A B′
1+ 1 = ; − 1− 1 = 2 (3.79)
A1 A1 ρ2 A1 A1
igualando estas ecuaciones
A′ ik1 A′1 A′ ik1 A′1 ik1
1+ 1 = − 1− ⇒ 1− =− −1
A1 ρ2 A1 A1 ρ2 A1 ρ2
ik1 A′1 ik1 A′
1− = − + 1 ⇒ (ρ2 − ik1 ) 1 = −ik1 − ρ2
ρ2 A1 ρ2 A1
A′ A1′ k1 − iρ2
(iρ2 + k1 ) 1 = k1 − iρ2 ; =
A1 A1 k1 + iρ2
y reemplazando este cociente en la primera de las Ecs. (3.79)
k1 − iρ2 B′ B′ 2k1
1+ = 2 ⇒ 2 =
k1 + iρ2 A1 A1 k1 + iρ2
7
En x → −∞ la solución es oscilante ya que estamos en la región I. Por lo tanto, no hay problemas de divergencia.
3.6. EL POTENCIAL ESCALÓN 175
Las expresiones finales para ϕI (x) y ϕII (x) están dadas por las Ecs. (3.74, 3.75, 3.76)
~k h 2 i
JI = |A1 |2 − A′1
m
Por otro lado, usando la segunda de las Ecs. (3.81) en la Ec. (3.56) y teniendo en cuenta que en la Ec. (3.56)
los dos coeficientes deben ser no nulos para que exista corriente, se tiene que
JII = 0
y la segunda de las Ecs. (3.81) muestra que en la región II la función de onda tiende a cero, ası́ como el rango de
penetración 1/ρ2 de ésta10 . Aplicando los lı́mites (3.83) a las Ecs. (3.81)
lı́m ϕ (x) = ϕI (0) = A1 + A′1 → 0 , lı́m ϕ (x) = ϕII (0) = B2′ → 0 (3.84)
x→0− x→0+
la función de onda ϕ (x) se va para cero en x = x1 de manera que se mantiene contı́nua en el punto de discontinuidad
del potencial. Veamos ahora los lı́mites laterales en la derivadas, Ecs. (3.82)
el valor de este lı́mite dependerá del crecimiento comparativo entre ρ2 y x. Por ejemplo si suponemos que el
potencial V0 crece como x−3 tenemos que
r r
2m 2m −3/2
ρ2 → V0 → x ≡ kx−3/2
~2 ~2
dϕ (x) −1/2
lı́m = 2ik1 A1 lı́m e−ρ2 x = 2ik1 A1 lı́m e−kx =0
x→0+ dx x→0 + x→0 +
Vemos entonces que la derivada puede cambiar abruptamente del valor 2ikA1 a cero, en cuyo caso no serı́a
contı́nua. Esto se debe a que el potencial no es acotado (requisito para la validez del desarrollo en la sección 3.5.1)
de modo que la integral en la Ec. (3.51) no necesariamente tiende a cero cuando η → 0.
una vez más podemos determinar los cocientes A′1 /A1 , A2 /A1 , A′2 /A1 , A3 /A1 . Es decir, normalizados con respecto
a la amplitud de la onda incidente. Con respecto a estos cocientes las ecuaciones quedan
A′1 A2 A′2 A2 ik2 L A′2 −ik2 L A3 ik1 L
1+ = + ; e + e = e (3.92)
A1 A1 A1 A1 A1 A1
A′ k2 A2 A′2 k2 A2 ik2 L A′2 −ik2 L A3 ik1 L
1− 1 = − ; e − e = e (3.93)
A1 k1 A1 A1 k1 A1 A1 A1
despejando A′1 /A1 en la primera de las Ecs. (3.92) y en la primera de las Ecs. (3.93) e igualando resulta
A2 A′2 k2 A2 A′2 A2 k2 A′2 k2
+ −1 = 1− − ⇒ 1+ + 1− =2
A1 A1 k1 A1 A1 A1 k1 A1 k1
A2 A′ A′2 2k1 A2 (k1 + k2 )
(k1 + k2 ) + 2 (k1 − k2 ) = 2k1 ⇒ = − (3.94)
A1 A1 A1 (k1 − k2 ) A1 (k1 − k2 )
igualando la segunda de las Ecs. (3.92) con la segunda de las Ecs. (3.93), resulta
A2 ik2 L A′2 −ik2 L k2 A2 ik2 L A′2 −ik2 L A′2 −ik2 L k2 A2 ik2 L k2
e + e = e − e ⇒ e 1+ = e −1 (3.95)
A1 A1 k1 A1 A1 A1 k1 A1 k1
reemplazando (3.94) en (3.95) queda
2k1 A2 (k1 + k2 ) −ik2 L k1 + k2 A2 ik2 L k2 − k1
− e = e
(k1 − k2 ) A1 (k1 − k2 ) k1 A1 k1
A2 A2
2k1 (k1 + k2 ) − (k1 + k2 )2 e−ik2 L = − eik2 L (k1 − k2 )2
A1 A1
A2 h i
(k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = 2k1 (k1 + k2 ) e−ik2 L (3.96)
A1
reescribamos el término en paréntesis cuadrados en la Ec. (3.96)
(k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = k12 + 2k1 k2 + k22 e−ik2 L − k12 − 2k1 k2 + k22 eik2 L
= −k12 eik2 L − e−ik2 L + 2k1 k2 eik2 L + e−ik2 L − k22 eik2 L − e−ik2 L
= −2ik12 sin k2 L + 4k1 k2 cos k2 L − 2ik22 sin k2 L
(k1 + k2 )2 e−ik2 L − (k1 − k2 )2 eik2 L = −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L
con lo cual la Ec. (3.96) queda
A2
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L = k1 (k1 + k2 ) e−ik2 L
A1
A2 k1 (k1 + k2 ) e−ik2 L
= (3.97)
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
reemplazando (3.97) en la Ec. (3.94) resulta
A′2 2k1 A2 (k1 + k2 ) 2k1 k1 (k1 + k2 ) e−ik2 L (k + k2 )
= − = − 2 2
1
A1 (k1 − k2 ) A1 (k1 − k2 ) (k1 − k2 ) −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
2k1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L − k1 (k1 + k2 )2 e−ik2 L
2 2
=
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
A′2 −2i k12 + k22 sin k2 L + 4k1 k2 cos k2 L − k12 + k22 + 2k1 k2 e−ik2 L
= k1
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
Z k1
≡
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L (k1 − k2 )
3.7. BARRERA DE POTENCIAL 179
despejando A′1 /A1 en la primera de las Ecs. (3.92) y reemplazando las Ecs. (3.97, 3.98) en la ecuación resultante
se obtiene
A′1 A2 A′2 k1 (k1 + k2 ) e−ik2 L k1 (k1 − k2 ) eik2 L
= + −1= − −1
A1 A1 A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
−k12 eik2 L − e−ik2 L + k1 k2 eik2 L + e−ik2 L −2ik12 sin k2 L + 2k1 k2 cos k2 L
= − 1 = −1
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
−2ik12 sin k2 L + 2k1 k2 cos k2 L − −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
=
−i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
A′1 −2ik12 sin k2 L + 2k1 k2 cos k2 L + i k12 + k22 sin k2 L − 2k1 k2 cos k2 L
=
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
A′1 i k22 − k12 sin k2 L M
= 2 2
≡ (3.99)
A1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L N
reemplazando las Ecs. (3.97, 3.98) en la segunda de las Ecs. (3.92) resulta
A3 ik1 L A2 ik2 L A′2 −ik2 L
e = e + e
A1 A1 A1
A3 ik1 L k1 (k1 + k2 ) e−ik2 L ik2 L k1 (k1 − k2 ) eik2 L
e = e − e−ik2 L
A1 −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L −i k12 + k22 sin k2 L + 2k1 k2 cos k2 L
A3 ik1 L k1 (k1 + k2 ) − k1 (k1 − k2 ) 2k1 k2
e = 2 2
= 2 2
A1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L
A3 2k1 k2 e−ik1 L P
= 2 2
≡ (3.100)
A1 −i k1 + k2 sin k2 L + 2k1 k2 cos k2 L N
ahora calculamos los coeficientes de reflexión y transmisión por medio de las Ecs. (3.99)
2
Jref l A′1 2 M M ∗ |M |2 k22 − k12 sin2 k2 L
R = = = = = (3.101)
Jinc A1 N N∗ |N |2 |N |2
Jtrans A3 2 2 2 2
T = = = |P | = 4k1 k2 (3.102)
Jinc A1 |N | 2
|N |2
180 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
reemplazando (3.103) en las Ecs.(3.101, 3.102), los coeficientes de reflexión y transmisión quedan
′ 2
2 − k 2 2 sin2 k L
A1 k2 1 2
R = = 2 2 (3.104)
A1 2 2 2 2
4k1 k2 + k2 − k1 sin k2 L
2
A3 4k12 k22
T = = 2 (3.105)
A1 4k12 k22 + k22 − k12 sin2 k2 L
se vé inmediatamente que R + T = 1. Es más útil escribir a R y T en términos de cantidades Fı́sicas más directas
como E y V0 . Para ello reemplazamos las expresiones (3.86, 3.87) en la Ec. (3.105)
2mE
h 2m(E−V0 ) i
2 2
4k1 k2 4 ~ 2 ~2
T = = h i h i √
2
4k12 k22 + k22 − k12 sin2 k2 L 2mE
2m(E−V0 ) 2mE 2m(E−V0 ) 2 2 2m(E−V0 )
4 ~2 ~2
+ ~2 − ~2
sin ~ L
4E (E − V0 )
= √
2 2 2m(E−V0 )
4E (E − V0 ) + [E − (E − V0 )] sin ~ L
4E (E − V0 )
T = √ (3.106)
2 2 2m(E−V0 )
4E (E − V0 ) + V0 sin ~ L
si hacemos una gráfica de T contra L con valores fijos de E, V0 y m (ver Fig 3.3), y tenemos en cuenta que sin2 x
es periódica en x con periodo π, entonces T es periódica en L con periodo
π π~
∆L = =p (3.107)
k2 2m (E − V0 )
El mı́nimo de T se obtiene cuando el seno al cuadrado adquiere el valor 1 y el máximo se obtiene cuando el seno
al cuadrado adquiere el valor cero. Es claro entonces que
4E (E − V0 )
Tmı́n = > 0 ; Tmáx = 1 (3.108)
4E (E − V0 ) + V02
vemos que se obtienen valores de L para los cuales la transmisión es total (T = 1), lo cual ocurre cuando
Ln = n∆L = nπ/k2 o equivalentemente
nπ nπ~
Ln = =p (3.109)
k2 2m (E − V0 )
decimos entonces que se obtienen resonancias en la transmisión para estos valores de Ln , los cuales corresponden
a múltiplos enteros de la semilongitud de onda de la partı́cula en la región II11 . Estos hechos se ilustran en la Fig.
11
El hecho de que sean múltiplos enteros de semilongitudes de onda (y no de las longitudes de onda) proviene del hecho de que la
Ec. (3.106), depende de sin2 x cuyo periodo π es la mitad del periodo de la función sin x.
3.7. BARRERA DE POTENCIAL 181
Figura 3.3: Gráfica de T vs L, con E, V0 y m fijos, para una barrera de potencial como la indicada en la Fig. 3.2
con la condición E > V0 .
3.3. Este es el análogo cuántico de la transmisión en un interferómetro de Fabry-Perot en óptica, en el cual también
se observan estas resonancias en la transmisión. Cuando E > V0 , se tiene que la reflexión de la partı́cula en cada
discontinuidad del potencial (i.e. en x = 0, L) ocurre sin corrimiento de fase de la función de onda cuando L = Ln .
Por esta razón, la condición de resonancia k2 L = nπ coincide con los valores de L para los cuales pueden existir
ondas estacionarias en la región II. Por otro lado, cuando L 6= Ln surge un corrimiento de fase en las reflexiones
que genera interferencia destructiva, la cual se maximiza lejos de la resonancia, es decir cuando L = (n + 1/2) π,
como se aprecia en la Fig. 3.3 esto genera el valor mı́nimo de T . Nótese que en L = (n + 1/2) π tendrı́amos una
resonancia en la reflexión, pero la reflexión no es total ya que la transmisión nunca es nula12 .
Un estudio del comportamiento del paquete de onda en una barrera de potencial con E > V0 muestra que
cuando se cumple la condición de resonancia, el paquete de onda pasa un tiempo relativamente grande en la región
II. En mecánica cuántica esto se denomina resonancia en el scattering, ya que en un problema de dispersión
por este tipo de potencial el paquete de onda estarı́a pasando un tiempo relativamente largo en la región de colisión
(que serı́a la región II).
En el análogo óptico, tenemos una capa de ancho L con ı́ndice de refracción imaginario (región II) rodeado de
un medio transparente (regiones I y III). En este caso las regiones I y III poseen ondas oscilantes en tanto que la
12
Naturalmente, la condición de resonancia en la transmisión Ec. (3.109) puede interpretarse para L fijo como los valores k2n de
número de onda que producen dicha resonancia. Si asumimos por ejemplo que L, V0 y m son fijos, lo que estamos obteniendo son las
energı́as de resonancia En , que implicarán unas frecuencias de resonancia En = hνn .
182 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
para una partı́cula clásica que en t → −∞ está en x → −∞, es decir en la región I, las regiones II y III están
prohibidas. Contrario a las predicciones para una partı́cula clásica, vemos que en el caso cuántico las probabilidades
en las regiones II y III son distintas de cero. En particular esto implica una probabilidad diferente de cero de que la
partı́cula cruce la barrera de potencial, fenómeno conocido como efecto túnel. En la región II el comportamiento
es de onda evanescente de rango 1/ρ2 . Cuando L . 1/ρ2 la partı́cula tiene una probabilidad considerable de
cruzar la barrera por efecto túnel. Este efecto tiene muchas aplicaciones en Fı́sica tales como el efecto Josephson,
la inversión de la molécula de amonio, el diodo túnel etc.
Es natural entonces comparar la longitud o rango de penetración 1/ρ2 de la onda evanescente, con el ancho
L de la barrera. Si el ancho de la barrera es mucho mayor que el rango de la onda evanescente tenemos que
L ≫ 1/ρ2 de modo que ρ2 L ≫ 1, usando la Ec. (3.111) esta condición queda
r
2m (V0 − E) ex
ρ2 L = L ≫ 1 ; sinh x ≃ ; x≫1
~2 2
con estas aproximaciones, la Ec. (3.113) queda
2
A3 4E (V0 − E) 4E (V0 − E) 16E (V0 − E) −2ρ2 L
T = ≃ ρ L 2 ≃ = e
A1 2
V0 4e 2ρ2 L
V02
4E (V0 − E) + V02 e 22
E E
T ≃ 16 1− e−2ρ2 L ≪ 1 (3.114)
V0 V0
en tal caso la atenuación es muy fuerte y la probabilidad de transmisión muy baja.
Para tener una idea de los órdenes de magnitud del efecto, pensemos en un electrón con energı́a E =
o
1eV (electrón-voltio) que cruzará una barrera de potencial V0 = 2eV, de ancho L = 1A. Usando V0 = 2E = 2eV ası́
como los valores de la masa del electrón y de la constante de Planck en la Ec. (3.111), vemos que el rango
o
1/ρ2 ≃ 1,96A, es decir del orden de magnitud de la ancho de la barrera, por lo cual se espera una probabilidad
considerable de que el electrón cruce la barrera, evaluando esta probabilidad con la Ec. (3.113) se obtiene T ≃ 0,78
un resultado muy diferente al clásico ya que en este caso es de hecho más probable la transmisión que la reflexión.
Si reemplazamos al electrón por un protón solo hay que cambiar la masa asociada (unas 1840 veces la del
o
electrón), permaneciendo iguales los demás datos. En tal caso el rango es 1/ρ2 ≃ 4,6 × 10−2 A de modo que la
barrera es mucho más ancha que el rango de la onda evanescente. Usando la Ec. (3.113) o la Ec. (3.114) tenemos
que T ≃ 4×10−19 . Esta tremenda diferencia con respecto al electrón se debe a la gran sensibilidad de la exponencial
decreciente en la Ec. (3.114) con la masa, o del seno hiperbólico en (3.113) con la masa. Esto también explica
porqué el efecto túnel no es observable en sistemas macroscópicos.
3.8. POZO DE POTENCIAL 183
Figura 3.4: Perfil de un pozo de potencial de profundidad V0 , con discontinuidades en x = −a/2 y x = a/2.
Para esta situación, definiremos el pozo de potencial en la forma (ver Fig. 3.4)
0 si x < − a2 (región I)
V (x) = −V0 < 0 si − a2 < x < a2 (región II)
0 si a2 < x (región III)
donde hemos elegido colocar el origen de tal modo que V (x) = V (−x).
Una partı́cula clásica en un pozo de potencial como éste, y con energı́a E negativa (pero mayor que −V0 )
solo puede oscilar entre −a/2 y a/2 con energı́a cinética Ek = E + V0 . En el análogo óptico, para la situación
184 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
−V0 < E < 0 los ı́ndices de refracción n1 y n3 en las regiones I y III son imaginarios, en tanto que n2 es real.
Esto es equivalente a una capa de aire de ancho “a” entre dos medios reflectivos. Las diferentes ondas que se
reflejan sucesivamente en x = −a/2 y x = a/2 se destruyen unas a otras excepto para ciertas frecuencias muy
especı́ficas (modos normales) que permiten la formación de ondas estacionarias. Desde el punto de vista cuántico,
esto significa que las energı́as negativas de la partı́cula están cuantizadas. En contraste, para la partı́cula clásica
todos los valores de energı́a entre −V0 y cero son posibles. Vale la pena mencionar que los valores permitidos de
la longitud de onda (y por tanto de la energı́a) no están dados por la bien conocida condición a = kλ2 /2, ya que
existen ondas evanescentes que generan un corrimiento de fase en los puntos de reflexión x = −a/2 y x = a/2.
En las regiones I, II y III las soluciones de la ecuación de Schrödinger independiente del tiempo son
r
2mE
ϕI (x) = B1 eρx + B1′ e−ρx ; ρ = − 2 > 0 (3.115)
~
r
2m (E + V0 )
ϕII (x) = A2 eikx + A′2 e−ikx ; k = 2
>0 (3.116)
r ~
ρx ′ −ρx 2mE
ϕIII (x) = B3 e + B3 e ; ρ= − 2 >0 (3.117)
~
asumiremos de nuevo la condición inicial de que la onda viaja inicialmente desde la región I. A fin de que estas
funciones sean acotadas en la región I (x → −∞) y en la región III (x → ∞) se requiere que
B1′ = B3 = 0 (3.118)
ϕI (x) = B1 eρx ; ϕII (x) = A2 eikx + A′2 e−ikx ; ϕIII (x) = B3′ e−ρx (3.119)
en este caso la amplitud incidente es B1 (aunque de una onda evanescente) y por tanto los cocientes se normalizan
con esta cantidad. Las Ecs. (3.120) quedan
A2 (ρ−ik) a A′2 (ρ+ik) a ik A2 (ρ−ik) a A′2 (ρ+ik) a
1 = e 2 + e 2 ; 1= e 2 − e 2 (3.121)
B1 B1 ρ B1 B1
B3′ A2 (ρ+ik) a A′2 (ρ−ik) a B3′ ik A′2 (ρ−ik) a A2 (ρ+ik) a
= e 2 + e 2 ; = e 2 − e 2 (3.122)
B1 B1 B1 B1 ρ B1 B1
vale la pena discutir la estrategia de solución antes de seguir adelante. A priori podrı́a pensarse que las Ecs. (3.120)
nos pueden dar solución para todas las amplitudes B1 , A2 , A′2 y B3 , puesto que tenemos cuatro ecuaciones. Sin
embargo, no es lógico fı́sicamente que la amplitud de entrada B1 pueda ser determinada por las condiciones de
empalme ya que esta amplitud tiene relación con las condiciones iniciales, las cuales puedo acomodar en principio
arbitrariamente. Por esta razón la estrategia de solución se interpreta diciendo que las cuatro ecuaciones (3.120)
nos brindan soluciones para los tres cocientes A2 /B1 , A′2 /B1 , B3′ /B1 mas una ligadura entre las cantidades ρ y k
dada por la Ec. (3.127).
Por otro lado, las Ecs. (3.115, 3.116) nos muestran que ρ y k están relacionadas con la energı́a E de la partı́cula.
Esto implica que la ligadura (3.127) solo se satisface para ciertos valores de la energı́a. Por tanto, al imponer el
acotamiento de ϕ (x) hemos llegado a una cuantización de la energı́a. Esto se puede ver teniendo en cuenta que
la ligadura (3.127) provino del hecho de que el sistema de cuatro ecuaciones (3.121, 3.122) está sobredeterminado
para el conjunto de tres cocientes A2 /B1 , A′2 /B1 , B3′ /B1 ; pero esto a su vez ocurre debido a la eliminación de las
amplitudes Ec. (3.118) que se realizó para mantener acotada la solución.
En resumen, para un pozo de potencial como el de la Fig. 3.4 de profundidad V0 y de ancho a, la función de
onda (acotada) en las tres regiones en que el potencial divide al espacio vienen dadas por
ϕI (x) = B1 eρx ; ϕII (x) = A2 eikx + A′2 e−ikx ; ϕIII (x) = B3′ e−ρx (3.128)
r r
2mE 2m (E + V0 )
ρ = − 2 >0 ; k= 2
>0 (3.129)
~ ~
A2 ρ + ik a A′2 ρ − ik a B3′ ρ
= e(−ρ+ik) 2 ; =− e−(ρ+ik) 2 ; = sin ka + cos ka (3.130)
B1 2ik B1 2ik B1 k
(ρ − ik)2
e2ika = (3.131)
(ρ + ik)2
(ρ/k) − i ρ ρ ρh i h i
= −eika ⇒ −i=− + i eika ⇒ 1 + eika = i 1 − eika
(ρ/k) + i k k k
(e −1) e−ika/2
ika
ρ eika − 1 i 2 eika/2 − e−ika/2 /2i sin ka
2
= = = −ika/2 =
k i (1 + eika ) (1 + eika ) e
−ika/2
e + eika/2 /2 cos ka
2
2
quedando finalmente
ρ ka
= tan (3.133)
k 2
definimos la magnitud del complejo ρ + ik en la forma
r
p 2mV0
k0 ≡ k2 + ρ2 = (3.134)
~2
3.8. POZO DE POTENCIAL 187
donde hemos tenido en cuenta las Ecs. (3.129). Usando identidades trigonométricas y las Ecs. (3.133, 3.134),
tenemos que
1 ka ρ2 k2 + ρ2
ka
= 1 + tan2 =1+ 2 =
cos2 2
2 k k2
2
1 k0
ka
= (3.135)
cos2 2
k
de modo que la Ec. (3.132) es equivalente a las Ecs. (3.133, 3.135) que se pueden sintentizar en las ecuaciones
cos ka = k ; tan
ka
>0 (3.136)
2 k0 2
Donde hemos tenido en cuenta que la Ec. (3.135) proviene de la Ec. (3.133), pero sustituyendo una tangente al
Figura 3.5: Solución gráfica de las Ecs. (3.136, 3.142). La intersección de la lı́nea recta con las lı́neas punteadas
cosenoidales nos dan los puntos denotados por P , correspondientes a soluciones de las Ecs. (3.136) y asociados a
funciones de onda pares. La intersección de la recta con las lı́neas punteadas del arco senoidal nos dan los puntos
denotados por I, correspondientes a soluciones de las Ecs. (3.142) y asociados a funciones de onda impares.
cuadrado con lo cual se pierde la información del signo de esta tangente al llegar a la Ec. (3.135).
La primera de las Ecs. (3.136) se puede solucionar graficando la parte izquierda y = cos ka 2
y la parte derecha
y = k/k0 y encontrando la intersección entre las dos gráficas. Es decir graficamos los arcos cosenoidales (arcos del
coseno con nodos en (2q + 1) π/a de la Fig. 3.5 con q entero no negativo) y la lı́nea recta de pendiente 1/k0 para
obtener tal intersección. Ahora bien, las franjas ascendentes del coseno (lı́neas contı́nuas del arco cosenoidal en la
Fig. 3.5) violan la condición dada por la segunda ecuación (3.136), en tanto que las franjas descendentes (lı́neas
punteadas del arco cosenoidal en la Fig. 3.5) satisfacen tal condición13 . Los puntos de intersección de la recta con
las lı́neas punteadas del coseno se denotan en la Fig. 3.5 con la letra P , y sus componentes x nos dan los valores
kn que cuantizan al número de onda y por tanto a la energı́a, la cual viene dada por la ecuación (3.129)
r
2m (En + V0 )
kn = (3.137)
~2
13
Por ejemplo en la franja 0 ≤ k ≤ π/a es claro que tan (ka/2) > 0, en tanto que en la franja π/a < k < 2π/a se tiene que
tan (ka/2) ≤ 0, y ası́ sucesivamente.
188 CAPÍTULO 3. ECUACIÓN DE SCHRÖDINGER Y SUS PROPIEDADES
Por otro lado, dividiendo las dos primeras Ecs. (3.130) se obtiene
a
ρ−ik
A2 ′ − 2ik e−(ρ+ik) 2 (ρ − ik) e−ik 2
a
(ρ − ik) −ika
= =− ik a2
=− e
A2 ρ+ik (−ρ+ik) a2 (ρ + ik) e (ρ + ik)
2ik e
π 2π
≤ k0 ≤
a a
aparecen solo dos estados uno par y otro impar. Generalizando, si se cumple la condición
2pπ (2p + 1) π 1 3 5
≤ k0 ≤ ; p = 0, , 1, , 2, , . . . (3.144)
a a 2 2 2
aparecen [p + 1] estados pares y p + 12 estados impares, siendo [p] la función parte entera de p que se define como
Para el ejemplo de la figura 3.5 tenemos que 4π/a < k0 < 5π/a, de modo que p = 2. El número de estados pares
es [2 + 1] = 3, el número de estados impares es 2 + 12 = 2.
Es útil escribir la condición (3.144), en términos de parámetros más fı́sicos. De la definición (3.134) podemos
escribir la condición (3.144) en la forma
r
2pπ 2mV0 (2p + 1) π 2pπ 2 2mV0 (2p + 1) π 2
≤ ≤ ⇒ ≤ ≤
a ~2 a a ~2 a
2
π ~ 2 2
π ~ 2
(2p)2 2
≤ V0 ≤ (2p + 1)2
2ma 2ma2
π 2 ~2 1 3 5
(2p)2 V1 ≤ V0 ≤ (2p + 1)2 V1 ; V1 ≡ 2
; p = 0, , 1, , 2, , . . . (3.145)
2ma 2 2 2
La Ec. (3.145), nos sugiere definir a V1 como un potencial umbral. Por ejemplo si p = 0 tenemos que 0 ≤ V0 ≤ V1
conduce a un estado par y ningún estado impar. Si p = 1/2, la condición queda V1 ≤ V0 ≤ 4V1 que conduce a una
función par y otra impar y ası́ sucesivamente.
Si V0 ≫ V1 (de modo que p ≫ 1) entonces la pendiente de la recta 1/k0 es muy pequeña y los primeros números
de onda prácticamente coinciden con los nodos de los arcos senoidal y cosenoidal. Es decir, para los números de
onda más bajos tenemos que
nπ
k≃ ; para n entero y n ≪ p
a
y aplicando la Ec. (3.137), la energı́a queda
n2 π 2 ~2
E≃ − V0 ; para n entero y n ≪ p (3.146)
2ma2
escalón de potencial infinito. Según esta discusión, al penetrar en la barrera la onda es evanescente con longitud de
penetración que tiende a cero, en el lı́mite podemos entonces considerar que la función decae a cero inmediatamente,
es decir la función de onda se anula en las discontinuidades de salto infinito. Esto es consistente con las ecuaciones
que se obtienen en este lı́mite para el empalme, como se aprecia en las Ecs. (3.83, 3.84). Adicionalmente, la Ec.
(3.84) también nos muestra que la función de onda debe seguir siendo continua en los empalmes, con lo cual la
función de onda en nuestro caso debe ser nula fuera del intervalo [0, a]. No obstante, vimos que en general la
primera derivada ya no es contı́nua, debido a que tenemos un potencial no acotado.
Como E + V0 ≡ ∆E es positivo y finito, la solución de la ecuación de onda está dada por
r
ikx ′ −ikx 2m ∆E
ϕ (x) = Ae + A e para 0 ≤ x ≤ a ; k ≡ (3.147)
~2
poniendo la condición de nulidad de la función de onda en el extremo x = 0 tenemos que
ϕ (0) = 0 = A + A′ ⇒ A = −A′ ⇒
ϕ (x) = A eikx − e−ikx = 2iA sin kx (3.148)
con el fin de poder comparar con los resultados de la sección 3.7.1. Cuando la partı́cula clásica tiene energı́a
positiva y viene desde −∞, viaja con energı́a cinética constante Ek = E hasta x = 0, donde experimenta un
aumento abrupto en su energı́a cinética a Ek = E + V0 , y luego una desaceleración similar en x = L, continuando
hacia la derecha con energı́a cinética constante Ek = E.
Para E > 0, en el análogo óptico todos los ı́ndices de refracción son reales
c 1√ c 1p
n1 = n3 = 2mE ; n2 = 2m (E + V0 )
Ω~ Ω~
y los resultados se pueden extraer de la Sec. 3.7.1, con la asignación V0 → −V0 . Puesto que n2 es mayor que n1 y
n3 la situación óptica es análoga a tener una capa de vidrio en medio del aire15 . Para obtener la onda reflejada
para x < 0, o la onda transmitida para x > L, es necesario superponer un número infinito de ondas que surgen de
la reflexión sucesiva entre x = 0 y x = L (interferómetro múltiple análogo a un Fabry-Pérot). Se encuentra que
para ciertas frecuencias incidentes la onda es completamente transmitida (asumiendo que L, V0 y m son fijos).
En el caso cuántico, la partı́cula tiene cierta probabilidad de ser reflejada, pero existen ciertos valores llamados
energı́as resonantes para los cuales la probabilidad de transmisión es 1 y por tanto la probabilidad de reflexión
es cero.
15
En la Sec. 3.7.1, la situación óptica era la de una capa de aire rodeada de vidrio.
Capı́tulo 4
a esta cantidad cuando se escribe enteramente en términos del conjunto {qi , pi }, la llamamos el Hamiltoniano del
sistema y actúa como generador de ecuaciones de movimiento para el sistema {qi , pi }, a través de las llamadas
ecuaciones de Hamilton
∂H ∂H
q̇i = ; ṗi = − (4.1)
∂pi ∂qi
La resolución de estas ecuaciones nos genera el comportamiento de qi y pi como función del tiempo y por tanto
toda la información fı́sica del sistema. El Hamiltoniano es una función que puede variar tanto funcional como
numéricamente cuando se hace un cambio en el sistema coordenado. El uso directo de las ecuaciones de Hamilton
permite demostrar que
dH ∂H
= (4.2)
dt ∂t
192
4.1. LOS FENÓMENOS CLÁSICOS 193
En consecuencia, si para un sistema coordenado dado el Hamiltoniano no es función explı́cita del tiempo, esta
cantidad será una constante de movimiento. Adicionalmente, la Ec. (4.1) nos dice que si una cierta coordenada
generalizada qi no aparece en el Hamiltoniano, pero sı́ aparece su momento conjugado pi , se tiene que este
momento conjugado será una constante de movimiento. Por otro lado, para muchos casos de interés el Hamiltoniano
corresponde a la energı́a total del sistema, para que el Hamiltoniano sea la energı́a del sistema se deben cumplir
los siguientes requisitos (como condiciones de suficiencia): (a) El lagrangiano asociado debe poder descomponerse
en la forma
L (q, q̇, t) = L0 (q, t) + L1 (q, q̇, t) + L2 (q, q̇, t)
siendo Li con i = 0, 1, 2 una función homogénea de grados 0, 1 y 2 en las variables q̇i . (b) La transformación que
lleva de las coordenadas cartesianas a las coordenadas generalizadas
ri = ri (q1 , ..., qn )
no debe depender explı́citamente del tiempo, y (c) el potencial asociado solo debe ser función de las coordenadas y
el tiempo. Para los sistemas microscópicos estas condiciones se cumplen en casi todos los casos de interés. Vale decir
que la condición (c) es violada por los potenciales asociados a las interacciones electromagnéticas para las cuales el
potencial depende también de las q̇i . No obstante, se puede demostrar que aún con la violación de esta condición,
el Hamiltoniano sigue siendo la energı́a del sistema para el caso especial de interacciones electromagnéticas. Nótese
que esto tiene que ver con el hecho de que estas son condiciones de suficiencia pero no de necesidad.
En virtud de la discusión anterior, asumiremos para nuestros propósitos que el Hamiltoniano corresponde
numéricamente a la energı́a total del sistema. De particular importancia será el Hamiltoniano asociado a una
partı́cula no relativista, no ligada y sometida a un potencial que no depende de las velocidades generalizadas. En
este caso el Hamiltoniano corresponde a la energı́a total de la partı́cula y se podrá escribir en la forma
p2
H= + V (r, t)
2m
si usamos como coordenadas generalizadas las coordenadas cartesianas de la partı́cula, se tendrá que el momento
lineal pi será el momento canónicamente conjugado a la variable xi con i = 1, 2, 3. Si aplicamos las ecuaciones de
Hamilton a este Hamiltoniano, las ecuaciones de movimiento quedan
pi ∂V
ẋi = ; ṗi = −
m ∂xi
que coinciden con las leyes Newtonianas básicas.
Por otro lado, existen en la mecánica clásica los fenómenos ondulatorios, estos aparecen de manera natural
como excitaciones o perturbaciones colectivas de un sistema de partı́culas, como es el caso de las cuerdas vibrantes
o las olas en el agua, estos fenómenos colectivos se pueden entender a la luz de las leyes de Newton pero no se
presentan fenómenos ondulatorios clásicos para una sola partı́cula. Más bien se trata de una perturbación que
se transmite de una partı́cula a otra generando propiedades de propagación. Por otro lado, existen fenómenos
ondulatorios (electromagnéticos) que no están asociados clásicamente a partı́culas y que no están regidos por
las leyes de Newton sino por las denominadas ecuaciones de Maxwell. Podemos entonces por un lado hablar de
materia (regida por la mecánica Newtoniana) que genera los fenómenos corpusculares y las ondas mecánicas, y
la radiación (regida por las ecuaciones de Maxwell, que genera fenómenos ondulatorios que clásicamente no están
asociados a la materia). De otra parte, podemos hablar de fenómenos corpusculares generados por las partı́culas
individuales y fenómenos ondulatorios generados por los campos electromagnéticos o por perturbaciones colectivas
en la materia. En todo caso, salvo por la ley de Lorentz que nos da la interacción de la radiación con la materia,
estos dos tipos de entes fı́sicos radiación y materia son completamente distintos en mecánica clásica y se rigen por
leyes muy distintas. Por otro lado, una partı́cula individual no puede generar fenómenos ondulatorios de modo
que el comportamiento corpuscular está bien diferenciado del comportamiento ondulatorio.
De la anterior discusión podemos inferir las principales caracterı́sticas de los sistemas clásicos
194 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS
(1) El estado de un sistema en un tiempo t queda totalmente especificado por el valor de sus coordenadas y
momentos conjugados en tal tiempo. Esto equivale a conocer sus posiciones, masas y velocidades en dicho instante.
(2) Al especificar el estado del sistema en cierto tiempo, cualquier cantidad fı́sica tiene un valor único que se
reflejará en el proceso de medida (con ciertas incertidumbres de ı́ndole experimental).
(3) Las ecuaciones de Hamilton son un posible conjunto de ecuaciones de movimiento. De ellas se observa que
dados los valores de qi (t0 ) , pi (t0 ) para un tiempo inicial t0 , la evolución de qi , pi es única de modo que los valores
qi (t) , pi (t), están completamtne determinados para todo tiempo. En consecuencia el estado del sistema se conoce
completamente para cualquier tiempo t ≥ t0 si lo conocemos para t0 . Esto a su vez implica que cualquier cantidad
fı́sica evoluciona de manera única y su valor al ser medido será único en cualquier instante.
(4) En principio todos valores reales de qi , pi son posibles de obtener en un sistema mecánico (al menos dentro
de ciertos intervalos). Por tanto un observable F (qi , pi ) también posee valores en un espectro contı́nuo al menos
dentro de cierto intervalo. Además en el proceso de medición estos serán también los valores accesibles de las
cantidades fı́sicas.
(5) Las ecuaciones de Maxwell nos dan cuenta de la radiación a través de grados de libertad contı́nuos ca-
racterizados por los campos eléctricos y magnéticos. La evolución de estas ecuaciones es única para condiciones
iniciales y de frontera adecuadas, junto con el conocimiento de la distribución de cargas y corrientes. Al igual que
en la mecánica clásica del discreto la evolución temporal de los observables es determinista ası́ como el valor de
las medidas que se efectúen. Similarmente, el espectro posible de valores para los observables es contı́nuo.
(10) Como corolario se obtiene que si vuelvo a hacer una medida del mismo observable justo después de la
primera medición, el autovalor se reproduce con total certeza. Lo anterior es confirmado por los hechos experi-
mentales.
(11) La distribución de probabilidad para la materia evoluciona de manera determinista, siendo la ecuación de
Schrödinger un buen prospecto como generador de esta evolución, al menos en el régimen no relativista.
(12) La función de onda (solución de la ecuación de Schrödinger) que describe la distribución de probabilidad
debe ser de cuadrado integrable para poder mantener la conservación de la probabilidad.
(13) Para una partı́cula el estado clásico en un tiempo t se caracteriza por seis cantidades (3 posiciones y tres
momentos) en tanto que para una partı́cula cuántica está caracterizada por un número infinito de cantidades: los
valores de ψ (r, t) para cada posición r.
En sı́ntesis, los postulados deben dar cuenta de las caracterı́sticas arriba citadas.
y postularemos siguiendo el principio de descomposición espectral (sección 2.9 Ecs. 2.46, 2.47, 2.48), que la
probabilidad de obtener el valor propio ak está dada por
¿Que ocurre si el autovalor es degenerado?, en este caso varios vectores ortonormales corresponden a este valor
propio
A uin = an uin ; i = 1, ..., gn
dado que A es observable, el conjunto uin forma una base de modo que podemos expandir el estado |ψi en
dicha base
XX gn
|ψi = cin uin (4.3)
n i=1
en este caso la probabilidad P (ak ) debe involucrar a todos los coeficientes asociados a los estados propios con
valor propio ak
gk
X gk
i 2 X i
P (ak ) =
ck = hu |ψi2
k
i=1 i=1
y es claro que
gm
X
|ψm i ≡ cim uim ∈ Em (4.6)
i=1
de modo que
|ψi = |ψ1 i + |ψ2 i + . . . + |ψk i + . . . ; |ψm i ∈ Em (4.7)
Por otro lado, en virtud de la descomposición (4.5), existe una única expansión de |ψi en vectores de cada
autoespacio. En otras palabras, cada |ψm i en la expansión es único. En términos de proyectores tenemos que
la probabilidad es
gk
X gk gk
i 2 X i 2 X
P (ak ) =
ck =
huk |ψi = hψ uik huik |ψi
i=1 i=1 i=1
P (ak ) = hψ| Pk |ψi (4.8)
pero dado que |ψk i es único y su norma es independiente de la base en que se calcule, vemos que esta probabilidad
es independiente de la base como se esperaba. La Ec. (4.8) es una forma alternativa de calcular esta probabilidad.
Veamos el caso de un espectro contı́nuo no degenerado. La ecuación de valores propios de A es
A |vα i = α |vα i
198 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS
siendo α un ı́ndice contı́nuo y siendo |vα i ortonormal en el sentido extendido. Siendo A un observable (también
en el sentido extendido), podemos expandir el ket |ψi en términos de los autoestados de A
Z
|ψi = dα c (α) |vα i
puesto que el conjunto de medidas accesibles de A es contı́nuo, debemos definir una densidad de probabilidad, tal
como lo hicimos con la función de onda ψ (r, t) y su transformada de Fourier ψ̄ (p, t). En el caso de estas funciones
la probabilidad de encontrar a la partı́cula en un volumen d3 r o dentro de un intervalo tridimensional de momento
d3 p están dados por
siendo dP (α) la probabilidad de obtener un valor dentro del intervalo entre α y α + dα. Naturalmente, α puede
estar indicando varios ı́ndices contı́nuos.
Cuarto postulado (caso contı́nuo no degenerado): Cuando se mide la cantidad fı́sica A sobre un sistema
que está en el estado normalizado |ψi, la probabilidad de obtener un valor dentro del intervalo entre α y α + dα
está dada por
dP (α) = |hvα |ψi|2 dα ≡ ρ (α) dα (4.9)
siendo |vα i el autovector correspondiente al autovalor α del observable A asociado a la cantidad Fı́sica A. A la
cantidad ρ (α) la llamamos la densidad de probabilidad asociada al autovalor α.
Nótese que tanto en el contı́nuo como en el discreto, la probabilidad de obtener cualquier valor accesible es
igual a la unidad como debe ser
!
X X X
P (ak ) = hψ| Pk |ψi = hψ| Pk |ψi = hψ| I |ψi = hψ |ψi = 1
k k k
o alternativamente
X gk
XX i 2
P (ak ) = c = hψ |ψi = 1
k
k k i=1
en el caso contı́nuo
Z b Z b Z b Z b
2
dP (α) = |hvα |ψi| dα = hψ |vα i hvα |ψi dα = hψ| |vα i hvα | dα |ψi = hψ| I |ψi = 1
a a a a
siendo [a, b] el intervalo en donde se define la variable contı́nua α. Por supuesto, si la función es de cuadrado
integrable pero no está normalizada, estas probabilidades se pueden calcular normalizando a |ψi
′
ψ = p 1 |ψi
hψ |ψi
y para el discreto y el contı́nuo se obtiene
gk
X g
i ′ 2
hu ψ = 1 X k
i
hu |ψi2
P (ak ) = k k
hψ |ψi
i=1 i=1
1
dP (α) = ρ (α) dα = |c (α)|2 dα
hψ |ψi
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 199
es importante enfatizar que el carácter de observable de A es vital para la construcción del cuarto postulado, ya
que éste depende de que un estado (arbitrario) pueda expandirse en términos de los autovectores de A.
Si el espectro contı́nuo es degenerado podemos escribir
E E
A vαβ = α vαβ β ∈ [c, d]
y la densidad de probabilidad asociada a α se obtiene sumando sobre todos los vectores propios con valor propio
α Z d
Z d 2 2
β β
ρ (α) = hvα |ψi dβ ; dP (α) = hvα |ψi dβ dα
c c
la extensión a casos en donde parte del espectro es contı́nuo y parte discreto es relativamente simple y será ilustrada
posteriormente con ejemplos.
siendo θ un número real. Es fácil ver que los dos vectores poseen la misma norma y que la probabilidad predicha
para una medición arbitraria es la misma para ambos kets.
hψ ′ ψ ′ = hψ| e−iθ eiθ |ψi = hψ |ψi
i ′ 2 iθ i i
hu |ψ i e hu |ψi2 hu |ψi2
k k k
= =
hψ ′ |ψ ′ i hψ |ψi hψ |ψi
también contienen la misma información fı́sica, ya que estrictamente los observables solo se calculan con kets
normalizados. En consecuencia, dos kets linealmente dependientes representan el mismo estado del sistema fı́sico.
Este resultado debe interpretarse con cuidado. Por ejemplo, sea el estado
donde λ1 y λ2 son complejos. De lo anterior, sabemos que eiθ1 |ψ1 i representa al mismo estado que |ψ1 i y que
eiθ2 |ψ2 i representa al mismo estado que |ψ2 i, no obstante el estado
no representa el mismo estado fı́sico que |ψi, ya que la diferencia de fase θ2 − θ1 dará lugar a fenómenos de
interferencia, volveremos sobre esto más adelante. Por el momento mencionaremos que los dos estados describirán
la misma fı́sica solo si θ1 = θ2 + 2nπ, siendo n un entero. Pues en tal caso eiθ1 = eiθ2 y resulta
de modo que un factor de fase global no afecta las predicciones fı́sicas, pero las fases relativas de los coeficientes
de una expansión son significativas.
200 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS
(a )
k 1 Pk |ψi
|ψi −→ p |ψk i = p
hψk |ψk i hψ| Pk |ψi
Es importante decir que la normalización es necesaria ya después de la medición |ψk i describe todo el estado del
sistema y no solo una componente de tal estado como antes de la medición. Recordando las expansiones (4.3, 4.7)
y la expresión (4.6) para la componente |ψk i de |ψi sobre el autoespacio Ek , se tiene
gn
XX
|ψi = cin uin
n i=1
gk
X
(ak ) 1
|ψi −→ qP 2 cik uik
gk cm
m=1 k i=1
Quinto postulado: Si la medida de la cantidad fı́sica A sobre el sistema en el estado |ψi, nos da el valor
propio ak , el estado del sistema inmediatamente después de la medida está dado por la proyección normalizada
de |ψi sobre el autoespacio Ek asociado con ak
Xgk
(ak ) Pk |ψi 1 1
|ψi −→ p =p |ψk i = qP cik uik (4.10)
hψ| Pk |ψi hψk |ψk i gk m 2 i=1
m=1 ck
el estado del sistema inmediatamente después de la medición es entonces un autovector de A con autovalor ak .
Pero no un autovector cualquiera de Ek , sino la componente sobre este autoespacio del estado |ψi que se tenı́a
antes de la medición. Cuando hay ausencia de degeneración gk = 1 y se tiene que el estado después de la medición
es
(ak ) 1 1
|ψi −→ q ck |uk i = |ck | eiα |uk i
|ck |
|ck |2
(ak )
|ψi −→ eiα |uk i
el cual es fı́sicamente idéntico a |uk i. Efectivamente en este caso salvo por una constante de proporcionalidad,
el autovector asociado a ak es único. Este postulado nos da cuenta de los cambios abruptos en el estado, o
perturbaciones fundamentales que se aprecian en diversos experimentos.
4.3. ESTABLECIMIENTO DE LOS POSTULADOS 201
Por otra parte, la combinación del cuarto y el quinto postulado nos dice que si el estado de un sistema fı́sico
coincide con un autovector |ψk i de un observable A asociado a un autovalor ak , entonces la medición del observable
A nos dará con toda certeza el valor propio ak y el estado permanecerá intacto. Estas son las caracterı́sticas con
las cuales hemos definido a los autoresultados y a los autoestados del sistema con respecto al observable A, de
modo que los autoresultados y autoestados del sistema asociados con un observable A corresponden a sus valores
propios y kets propios1 .
p2 P2 ~2 2
+ V (r) → + V (R) = − ∇ + V (r)
2m 2m 2m
H (r, p, t) → H (R, P, t)
siendo P y R los operadores de momento y posición definidos en la sección 1.43.4. En lo anterior hemos usado
el hecho de que en la representación de la base {|ri}, el operador P está representado por el operador diferencial
−i~∇, y el operador R está representado por la multiplicación por el valor de posición R → r (ver Ecs. 1.186,
1.191).
1
Nótese que si cambiamos de observable los autoestados y autoresultados (kets y valores propios), se redefinen completamente ya
que estos conceptos están ligados al sistema fı́sico junto con el aparato de medida.
202 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS
Nuevamente, extenderemos este algoritmo a la construcción de un operador A asociado a una cantidad fı́sica
A que está definida en la mecánica clásica. Consideremos una partı́cula sin espı́n sujeta a un potencial escalar,
estableceremos la siguiente regla de cuantización
A la posición r (x, y, z) de la partı́cula se le asocia el observable R (x, y, z). Al momento p (px , py , pz ) de la
partı́cula se le asocia el observable P (px , py , pz ).
Recordemos que las componentes de los operadores R y P satisfacen las relaciones canónicas de commutación
por tanto, dado que una cantidad fı́sica clásica A se puede escribir en términos de r, p, t i.e. A (r, p, t), el corres-
pondiente observable A se obtendrá reemplazando las variables dinámicas r, p en la expresión A (r, p, t) por los
observables R y P
A (t) = A (R, P, t)
sin embargo, este algoritmo puede generar algunas ambigüedades e inconsistencias. Asumamos por ejemplo que
en la cantidad fı́sica A (r, p, t) aparece un término de la forma
en mecánica clásica, el producto r · p es conmutativo, de modo que también podemos escribirlo como
p · r = px x + py y + pz z
pero en el proceso de cuantización, ambos términos conducen a operadores diferentes ya que R y P no conmutan
R · P 6= P · R
la segunda de las Ecs. (1.43) nos sugiere la forma de generar un operador hermı́tico con este producto
(a) El caso más simple es el de una partı́cula de masa m, bajo una interacción que se puede describir por un
potencial que solo depende de la posición y el tiempo, el Hamiltoniano clásico en coordenadas cartesianas vendrá
dado por
p2 dr
H (r, p) = + V (r) ; p = m = mv
2m dt
la regla de cuantización no presenta dificultades ya que no es necesaria ninguna simetrización puesto que R y P
nunca se acoplan, de modo que no aparecen productos de operadores que no conmutan. El Hamiltoniano como
observable queda
P2
H (R, P) = + V (R)
2m
en este caso particular en virtud del sexto postulado la ecuación de Schrödinger queda
2
d P
i~ |ψ (t)i = + V (R) |ψ (t)i
dt 2m
(b) Veamos ahora el Hamiltoniano de una partı́cula sometida a una interacción electromagnética, en tal caso
el Hamiltoniano clásico se escribe en la forma
1
H (r, p) = [p − qA (r, t)]2 + qφ (r, t) (4.12)
2m
siendo A (r, t) , φ (r, t) los potenciales vectorial y escalar, p es el momento canónicamente conjugado a r y está
dado por
dr
p = m + qA (R, t) = mv + qA (R, t)
dt
nótese que el momento p canónicamente conjugado a r, no es el momento lineal de la partı́cula, esto se debe a
que para una partı́cula en un campo electromagnético, el potencial generalizado asociado depende de la velocidad
generalizada y no solo de la posición. De nuevo la cuantización es sencilla puesto que no hay operadores para
simetrizar, el Hamiltoniano como observable queda
1
H (R, P) = [P − qA (R, t)]2 + V (R, t) ; V (R, t) ≡ qφ (R, t)
2m
y la ecuación de Schrödinger resulta
d 1
i~ |ψ (t)i = [P − qA (R, t)]2 + V (R, t) |ψ (t)i
dt 2m
habiamos mencionado antes que a pesar de que el potencial generalizado depende de la velocidad, el Hamiltoniano
continúa siendo la energı́a del sistema, esto se puede ver teniendo en cuenta que el momento lineal de la partı́cula
que denotaremos por p~ está relacionado con el momento conjugado a la variable r en la forma
p~ = p − qA
~2
p
H= + V (r, t)
2m
el primer término es la energı́a cinética y el segundo es la componente del potencial que genera trabajo. La clave
está en el hecho de que el campo magnético (que es el que introduce el potencial dependiente de la velocidad) no
realiza trabajo.
Este ejemplo también nos sirve para realizar una aclaración importante, en la regla de cuantización es el
momento p canónicamente conjugado a r, y no el momento lineal ~ p el que debe reemplazarse por el operador
204 CAPÍTULO 4. ENUNCIADO MATEMÁTICO DE LOS POSTULADOS
P. Si recordamos que dos variables xi , pi canónicamente conjugadas clásicamente son tales que sus corchetes de
Poisson cumplen la relación
[xi , xj ]pois = [pi , pj ]pois = 0 ; [xi , pj ]pois = − [pj , xi ]pois = δij (4.13)
diremos que las cantidades que clásicamente cumplen las relaciones canónicas (4.13) con corchetes de Poisson,
pasarán en el proceso de cuantización a cumplir las relaciones canónicas (4.11) con conmutadores. Nótese además
que las propiedades fundamentales de los conmutadores (1.37-1.42) también las cumplen los corchetes de Poisson
y con ambas se podrá generar un álgebra de Lie.
Capı́tulo 5
Ya hemos estudiado los kets de posición |ri y los kets de momento |pi ası́ como los operadores de posición y
momento R y P. Por simplicidad usaremos el caso unidimensional, las ecuaciones de valores propios para X, Px son
X |xi = x |xi ; Px |px i = px |px i
estos operadores tienen un espectro contı́nuo lo cual coincide con el hecho experimental de que todos los valores
reales son posibles para las posiciones y momentos de la partı́cula. Si utilizamos el cuarto postulado podemos
calcular la probabilidad de obtener una posición dentro del intervalo entre x y x + dx o la probabilidad de obtener
un momento en el intervalo entre px y px + dpx .
2
dP (x) = |hx |ψi|2 dx = |ψ (x)|2 dx ; dP̄ (p) = |hp |ψi|2 dp = ψ̄ (p) dp
de hecho estas expresiones fueron usadas para establecer el cuarto postulado. No obstante, es de particular interés
la interpretación a la luz de este postulado del caso en el que el estado del sistema está descrito justamente por
|x′ i o |p′ i, en tal caso estas probabilidades quedan
2 2 2 2
dP (x) = hx x′ dx = δ x − x′ dx ; dP̄ (p) = hp p′ dp = δ p − p′ dp
si integramos estas probabilidades entre x′ − ε y x′ + ε o entre p′ − ε y p′ + ε respectivamente, tenemos que la
probabilidad da la unidad sin importar el tamaño de ε, si por el contrario calculamos la integral en cualquier
volumen que excluya al punto x′ o p′ esta integral da cero. Por tanto |x′ i describe un estado en donde la partı́cula
está en un punto bien definido del espacio y |p′ i describe una partı́cula con momento especı́fico p′ . Para el estado
|x′ i la medida de posición es totalmente predecible y para el estado |p′ i es totalmente predecible la medida del
momento. Nótese que para el estado |x′ i la densidad de probabilidad asociada a la posición diverge en el punto
x′ y se anula en los demás, esto está relacionado con el hecho de que este no es un estado fı́sicamente realizable,
ya que no es de cuadrado integrable1 . Similar discusión ocurre para el estado |p′ i para el cual la densidad de
probabilidad asociada al momento diverge en el punto p′ y se anula en los demás.
El estado |x′ i se puede calcular en las bases {|xi} y {|pi}
′ ′ e−ipx′ /~
′
x (x) = hx x = δ x − x ′
; x̄ (p) = hp x = √
′
2π~
si calculamos la probabilidad de que al medir el momento lineal de la partı́cula en el estado |x′ i se encuentre un
valor entre p y p + dp, obtenemos
2 dp
dP (p) = x̄′ (p) dp =
2π~
1
En mecánica clásica el fenómeno es similar. Una partı́cula puntual (localizada en r′ ) corresponde a un sistema fı́sico de densidad
infinita de masa ρ (r) = mδ (r − r′ ). Por tanto, este es un estado clásico impropio.
205
206 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
es decir, una probabilidad uniforme. Nuevamente, la probabilidad diverge por ser un estado impropio. Sin embargo,
es interesante ver que el colapso de la función de onda en un punto del espacio (es decir la certeza total de tener
una posición descrita por el estado |x′ i) lleva a la incertidumbre total en el momento, como ya se discutió para el
principio de incertidumbre de Heisenberg. Un análisis similar se puede hacer para el estado impropio |p′ i. Como
X, P tienen como valores propios las posiciones y momentos de estos estados colapsados, tiene sentido que la
regla de cuantización reemplace x por X y p por P .
Vale la pena mencionar que para interpretar adecuadamente una función de onda, es esencial conocer la base
en la que está escrita. A manera de ejemplo, obsérvese que el ket |xi corresponde a una partı́cula perfectamente
localizada en x y con incertidumbre total del momento, en tanto que el ket |−pi corresponde a una partı́cula con
momento perfectamente definido −p y con total incertidumbre en la posición. Ahora veamos como se escribe |xi
en la base {|pi} y como se escribe |−pi en la base {|xi}
e−ipx/~ e−ipx/~
x̄ (p) = hp |xi = √ ; −p (x) = hx |−pi = √
2π~ 2π~
nótese que dos estados totalmente distintos pueden ser descritos con la misma forma funcional si ambos están
escritos en bases diferentes. Una onda plana en la base {|pi} corresponde a una partı́cula bien localizada, en tanto
que la misma onda plana en la base {|xi} está asociada a una partı́cula con momento bien definido.
Como ya se mencionó, en algunos casos la ecuación de valores propios (establecida en el tercer postulado)
conduce a un espectro discreto y en otros casos a un espectro contı́nuo, lo cual nos generará la discretización de
ciertas cantidades fı́sicas. Lo interesante es que tanto para los casos discretos como para los contı́nuos hay una
excelente concordancia con los experimentos.
Los postulados cuatro y cinco plantean ciertos problemas fundamentales inherentes al proceso de medida. Por
ejemplo, la existencia de una perturbación fundamental implica que el sistema no se puede considerar indepen-
dientemente al aparato de medida, en realidad el conjunto sistema fı́sico-aparato de medida deben considerarse
como un todo. El punto es que el proceso de observación requiere de una interacción entre el sistema y el aparato.
Además el aparato de medida (para un sistema fı́sico dado) define tanto los autoresultados como los autoestados
que se pueden obtener en el proceso de medición, como se discutió en la sección 2.9, página 135 sobre la medición
de fotones polarizados. Esto conlleva a preguntas delicadas sobre el proceso de medida que no discutiremos aquı́.
Nótese que de acuerdo con los postulados cuarto y quinto, la indeterminación en el proceso de medida indica
por un lado la existencia de la perturbación fundamental pero también la no determinación de su comportamiento
especı́fico, ya que a partir del estado antes de la medida (que se puede obtener en forma totalmente determinista),
la medida nos lleva a un cambio abrupto que no se puede determinar con certeza. Puesto que la ecuación de
Schrödinger es totalmente determinista, la generación de la perturbación fundamental y de la indeterminación son
inherentes al proceso de medida.
En lo que sigue consideraremos solo medidas ideales. Esto significa que se asume que el aparato de medida es
perfecto, de modo que solo se generan las perturbaciones e incertidumbres inherentes a las leyes cuánticas. En la
realidad, los aparatos son imperfectos y por tanto presentan una incertidumbre experimental que afecta de manera
adicional a la medida. Por ejemplo, un analizador deja pasar ondas polarizadas no solo en una dirección fija sino
en cierto intervalo alrededor de esta dirección. Sin embargo, a diferencia de las incertidumbres y perturbaciones
cuánticas, estas incertidumbres y perturbaciones experimentales pueden disminuı́rse indefinidamente (al menos en
principio) para acercarse cada vez más al lı́mite ideal.
experimento o número de eventos) tiende a infinito. En la práctica N es finito y por tanto deben usarse técnicas
estadı́sticas para interpretar los resultados.
De aquı́ en adelante denominaremos observable tanto a la cantidad fı́sica como al operador cuántico asociado.
Definiremos el valor esperado (o valor medio) de un observable, como el promedio de los resultados obtenidos
cuando se realiza un gran número de mediciones N de dicho observable, para sistemas idénticos que se preparan
en un estado especı́fico |ψi. Denotaremos al valor esperado del observable A para el sistema en el estado |ψi en la
forma hAi|ψi o cuando se sobreentienda cual es el estado, la notación se simplificará en la forma hAi.
La idea es poder predecir el valor esperado con base en los postulados. Comencemos primero con el caso de
espectro discreto. Si se realizan N experimentos para idénticos sistemas cada uno en el estado |ψi y se obtiene
el autovalor an para el observable A un número N (an ) de veces, la probabilidad de obtener dicho autovalor se
define como
N (an )
P (an ) ≡ lı́m (5.1)
N →∞ N
y es claro que
X
N (an ) = N
n
el valor medio es simplemente la suma de todas las medidas obtenidas dividida por el número N de medidas. Por
supuesto, cuando un número N (an ) de medidas han dado el mismo resultado an , la suma con que contribuyen
estos eventos se escribe simplemente como an N (an ) y se suma sobre los resultados diferentes obtenidos
1 X
hAi|ψi = an N (an )
N n
a N (an ) se le conoce como la frecuencia del evento. Si tomamos el lı́mite cuando N → ∞ y usamos la definición
(5.1) de probabilidad se tiene que
X
hAi|ψi = an P (an )
n
X gn
X gn
i 2 X X
hAi|ψi = an
hψ un = an hψ uin huin |ψi
n i=1 n i=1
donde uin son los vectores propios (ortonormalizados) de A asociados al valor propio an
A uin = an uin
de modo que
gn
XX gn
XX
i i
hAi|ψi =
hψ| an un hun |ψi = hψ| A uin huin |ψi
n i=1 n i=1
" gn
# " #
XX i
i X
hAi|ψi = hψ| A un un |ψi = hψ| A Pn |ψi = hψ| AI |ψi
n i=1 n
donde hemos usado la relación de completez para el discreto Ec. (1.170), nótese que el uso de la completez requiere
una vez más que A sea un observable. Finalmente, la expresión para el valor esperado queda
para el caso del espectro contı́nuo no degenerado, el argumento es similar. Consideremos N experimentos idénticos
y denominemos dN (α) el número de experimentos cuyo resultado esté incluı́do entre α y α + dα, la probabilidad
la definimos similarmente como
dN (α)
dP (α) = lı́m
N →∞ N
el valor medio o esperado se escribe como
Z Z
1
hAi|ψi = lı́m α dN (α) = α dP (α)
N →∞ N
usando de nuevo el cuarto postulado (para espectro contı́nuo), sustituı́mos dP (α) por su valor en la Ec. (4.9)
Z Z
2
hAi|ψi = α |hψ |vα i| dα = α hψ |vα i hvα |ψi dα
y dado que
A |vα i = α |vα i
se obtiene
Z Z
hAi|ψi = hψ| α |vα i hvα |ψi dα = hψ| A |vα i hvα |ψi dα
Z
hAi|ψi = hψ| A |vα i hvα | dα |ψi = hψ| AI |ψi = hψ| A |ψi
donde hemos usado la relación de completez para el contı́nuo Ec. (1.170). Por tanto, se obtiene de nuevo la Ec.
(5.2). Es importante aclarar que hAi|ψi es un promedio realizado sobre un conjunto de mediciones idénticas, y no
debe confundirse con los promedios temporales que se utilizan con frecuencia en fı́sica para estados que dependen
del tiempo.
Si el ket no está normalizado, la Ec. (5.2) se debe convertir en
hψ| A |ψi
hAi|ψi =
hψ |ψi
Z
hXi|ψi = d3 r ψ ∗ (r) x ψ (r) (5.3)
esto significa que podemos escribir el commutador entre dos operadores hermı́ticos como
[A, B] = iC ; C = C †
siendo C un operador hermı́tico, los valores propios de iC son puramente imaginarios al igual que su valor esperado
con respecto a cualquier estado |ψi. Podemos escribir entonces
h[A, B]i = iM
siendo M un número real. Vemos que si A y B son observables, su commutador no es un observable ya que no es
hermı́tico.
donde el promedio de A se reescribió multiplicando αk por su frecuencia nk (número de datos con el mismo
resultado) y sumando sobre los datos diferentes (k = 1, .., n). Similarmente en el contı́nuo
Z α1
1
hD (A)i = hhAi − αi = hAi − ρ (α) α dα
α1 − α0 α0
hD (A)i = hAi − hAi = 0
donde el ρ (α) dα es la frecuencia diferencial en el contı́nuo (densidad multiplicada por el diferencial de volumen).
La anulación de la desviación promedio tiene que ver con la definición misma de valor promedio o esperado, en el
210 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
cual las desviaciones negativas se compensan con las positivas. Para evitar este fenómeno de cancelación, podemos
definir las desviaciones cuadráticas en la forma
D E
(∆A)2 ≡ (A − hAi)2
y usando la expresión para el valor medio o esperado dada por la Ec. (5.2) obtenemos
q
∆A = hψ| (A − hAi)2 |ψi
[A, B] = 0
asumiremos por simplicidad que ambos espectros son discretos. El teorema 1.69 nos dice que existe un conjunto
completo de vectores propios comunes a ambos observables, es usual denotar esta base como {|an , bp , ii}, o aún
más simple como {|n, p, ii}
A |n, p, ii = an |n, p, ii ; B |n, p, ii = bp |n, p, ii
donde el ı́ndice i indica que a cada par de autovalores (an , bp ) le pueden corresponder varios autovectores lineal-
mente independientes. Por tanto, para cada posible valor del par (an , bp ) existe por lo menos un vector |n, p, ii
para el cual la medida de A siempre será an y la medida de B siempre será bp . Veamos las implicaciones fı́sicas
sobre los observables asociados a operadores que conmutan.
Partamos de un estado inicial normalizado dado |ψi (que en principio es arbitrario). Este estado se puede
escribir como una combinación lineal de la base {|n, p, ii} común a A y B:
X
|ψi = cn′ ,u,v n′ , u, v (5.8)
n′ ,u,v
5.2. OBSERVABLES COMPATIBLES 211
asumamos que primero hacemos una medida del observable A y se obtiene an y que inmediatamente después (de
modo que en el tiempo transcurrido se pueda despreciar la evolución temporal del estado) realizamos una medida
de B de la cual obtenemos el valor bp . Calculemos la probabilidad P (an , bp ) de obtener an en la primera medida y
bp en la segunda. Usando el cuarto postulado Ec. (4.4) y la Ec. (5.8), la probabilidad P (an ) de obtener la primera
medida es
2
X
X X
2
P (an ) = n, p , i ψi =
′ ′ n, p , i
′ ′
cn′ ,u,v n , u, v
′
p′ ,i′ p′ ,i′ n′ ,u,v
2 2
X X
X X
= c ′ ′ ′
′ ,u,v n, p , i n , u, vi = c ′ ,u,v δn,n′ δp′ u δi′ v
n n
p′ ,i′ n′ ,u,v p′ ,i′ n′ ,u,v
X
P (an ) = cn,p′ ,i′ 2 (5.9)
p′ ,i′
pero según el quinto postulado Ec. (4.10), el sistema luego de esta primera medición queda preparado en el estado
normalizado |ψn i definido por
1 X
|ψn i = qP cn,p′ ,i′ n, p′ , i′ (5.10)
2 ′ ′
k,m |cn,k,m | p ,i
este será entonces el estado en el que estará el sistema justo antes de la medición de B. Recurriendo de nuevo al
cuarto postulado Ec. (4.4) la probabilidad de que habiendo obtenido en la primera medición el valor an se obtenga
en la segunda medición el valor bp estará dada por
2
X
2
X
1 X
′ ′ cn,p′ ,i′ n, p , i
′ ′
Pan (bp ) = n , p, i ψn i = n , p, i qP 2 ′ ′
n′ ,i n′ ,i k,m |cn,k,m | p ,i
P P 2 P P
′ ′ ′ 2
n′ ,i p′ ,i′ cn,p′ ,i′ hn , p, i |n, p , i i n′ ,i p′ ,i′ cn,p′ ,i′ δn′ n δpp′ δii′
= P 2 = P 2
k,m |cn,k,m | k,m |cn,k,m |
P
|cn,p,i |2
Pan (bp ) = P i 2 (5.11)
k,m |cn,k,m |
ahora bien, la probabilidad P (an , bp ) que buscamos corresponde a una composición de eventos: para que estos
dos eventos de hecho ocurran, debemos primero encontrar an para lo cual hay una probabilidad P (an ) y entonces
habiendo cumplido la primera condición, debemos encontrar bp para lo cual hay una probabilidad Pan (bp ) por lo
tanto
P (an , bp ) = P (an ) × Pan (bp ) (5.12)
sustituyendo (5.9) y (5.11) en (5.12) se obtiene
" #
X P 2
2 |c |
P (an , bp ) = cn,p′ ,i′ P i n,p,i
2
p′ ,i′ k,m |cn,k,m |
X
P (an , bp ) = |cn,p,i |2 (5.13)
i
y el estado del sistema después de la segunda medición de acuerdo con el quinto postulado Ec. (4.10), será
Pp |ψn i
|ψn,p i = p (5.14)
hψn | Pp |ψn i
212 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
P P ∗
X P ′ ′
′
′ cn,p,i′ |n, p, i i p′ ,r i′ cn,p′ ,r cn,p,i′ hn, p , r| n, p, i i
hψn | Pp |ψn i = cn,p′ ,r n, p , r P
∗ ′ i
2 = P
2
p′ ,r k ′ ,m′ cn,k ′ ,m′ k ′ ,m′ cn,k ′ ,m′
P P ∗ P ∗ P 2
i′ cn,p′ ,r cn,p,i′ δnn δp′ p δri′ i′ cn,p,i′ cn,p,i′
p′ ,r i′ cn,p,i′
hψn | Pp |ψn i = P 2 =P 2 = P ⇒
′ ′
cn,k′ ,m′ ′ ′
cn,k′ ,m′ ′ ′
cn,k′ ,m′ 2
k ,m k ,m k ,m
qP 2
q
i′ cn,p,i′
hψn | Pp |ψn i = qP 2 (5.16)
′
′ cn,k ′ ,m′
k ,m
Reemplazando (5.15, 5.16) en (5.14), el estado justo después de la segunda medida queda finalmente
1 X
|ψn,p i = qP cn,p,i |n, p, ii (5.17)
2
|c
k n,p,k | i
y la probabilidad de que partiendo del estado |ϕp i se obtenga el valor an del observable A en la segunda medida
es X
1
Pbp (an ) = P 2 |cn,p,i |2
uv |cu,p,v | i
adicionalmente la probabilidad de que ocurran ambos eventos en este orden será
P (bp , an ) = P (bp ) × Pbp (an )
X
P (bp , an ) = |cn,p,i |2 (5.18)
i
si de hecho encontramos bp en la primera medida y an en la segunda, el estado del sistema después de la segunda
medida será X
1
|ϕp,n i = qP cn,p,i |n, p, ii (5.19)
2
k |cn,p,k | i
comparando la Ec. (5.13) con la Ec. (5.18) vemos que la probabilidad de obtener un par especı́fico de valores
(an , bp ) de los observables A y B respectivamente, es igual sin importar el orden en que se midan (siempre teniendo
en cuenta que la distancia temporal entre dos medidas debe ser pequeña para evitar la evolución del sistema).
Adicionalmente, al comparar (5.17) con (5.19) vemos que el estado después de la segunda medida también es el
mismo en ambos casos. Finalmente, una medida posterior de A ó B nos dará con certeza los valores an ó bp .
Nótese que estos hechos dependen de que podamos encontrar un conjunto completo común de vectores propios
para ambos observables, para lo cual es necesario y suficiente que ambos observables conmuten (teorema 1.69).
Por esta razón a los observables conmutantes también se les denomina observables compatibles.
Podemos resumir las propiedades de los observables compatibles de la siguiente manera: Cuando dos observables
A y B son compatibles, si medimos primero A entonces la medida posterior de B no causa ninguna pérdida de
información previamente obtenida en la medida de A y viceversa. Por el contrario, la medida de B se “adiciona”
como información a lo que se obtiene en la primera medida. Además la realización de las dos medidas ejecutadas
en cualquier orden arroja la misma distribución de probabilidad para cada par accesible de valores propios. Ahora
supongamos que se realizan dos experimentos ambos con el mismo estado inicial, midiendo en el primero la
secuencia A ⇒ B y en el segundo la secuencia B ⇒ A, si en ambos experimentos se obtienen los mismos valores
propios, entonces obtendremos el mismo estado final.
Vale decir que si en un experimento particular en el orden A ⇒ B se obtuvo (an , bp ), no quiere decir que
en otro experimento especı́fico con las mismas condiciones iniciales y en el orden B ⇒ A se obtenga (bp , an ), ya
que lo que se igualan son las probabilidades2 . Adicionalmente, tampoco tenemos que llegar al mismo estado final
en ambos experimentos, solo tenemos garantizado que si en ambos experimentos obtenemos los mismos valores
propios, el estado final será el mismo.
Ahora bien, puesto que no es relevante el orden en que se ejecutan las medidas de A y B podemos considerar
la medición simultánea de ambos observables. Nótese que para observables compatibles se puede hacer una especie
de “extensión” de los postulados cuarto y quinto como se puede apreciar de las Ecs. (5.13, 5.18) y de las Ecs.
(5.17, 5.19). De estas ecuaciones se observa que podemos considerar a la dupla (an , bp ) como un solo resultado
que corresponde a la superposición de vectores ortonormales |n, p, ii donde i indica la degeneración asociada al
“único valor propio” cnp ≡ (an , bp ).
Un aspecto importante cuando se realizan medidas sucesivas de observables compatibles es que la adición de
información que se obtiene luego de cada medida, conduce a una reducción “acumulativa” del paquete de ondas
cuando este paquete se define con respecto a kets propios comunes a todos los observables3 . Esto se puede observar
2
Es decir el patrón de distribución de valores propios en ambos casos debe ser el mismo cuando se hace una gran cantidad de
experimentos de cada tipo.
3
Es esencial comprender que la definición de paquete de ondas en el presente contexto, depende de una base especı́fica. Por ejemplo, si
el estado de un sistema en un instante dado es |ψk i donde éste es un ket propio de A, entonces el paquete asociado será “monocromático”
si lo referimos a una base de kets propios de A en donde |ψk i hace parte de la base. No obstante, si el paquete lo definimos eligiendo
una base asociada a kets propios de otro observable B, entonces |ψk i será una superposición “policromática” con respecto a dicha base.
214 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
si comparamos al estado |ψi en la Ec. (5.8) (antes de la medida de A) con el estado |ψn i en la Ec. (5.10) (posterior
a la medida de A) y luego con el estado |ψn,p i en la Ec. (5.17) (después de la medida de A y B). Es decir, que al
medir sucesivamente observables compatibles A1 , A2 , . . . , Am el paquete de onda después de medir el observable
Ai es un subconjunto propio del paquete justo antes de dicha medición. En principio, la reducción del paquete
será máxima cuando el conjunto de observables compatibles forme un C.S.C.O. volveremos sobre este punto en la
sección 5.5.
|v1 i = cos θ |u1 i + sin θ |u2 i ; |v2 i = − sin θ |u1 i + cos θ |u2 i
|u1 i = cos θ |v1 i − sin θ |v2 i ; |u2 i = sin θ |v1 i + cos θ |v2 i
ahora pensemos que la condición inicial está dada por un vector unitario |ψi en dirección arbitraria que hace un
ángulo ϕ con |u1 i. En ambas bases este vector se escribe
|ψi = cos ϕ |u1 i + sin ϕ |u2 i ; |ψi = cos (ϕ − θ) |v1 i + sin (ϕ − θ) |v2 i
Primero mediremos A y asumamos que encontramos el valor a1 , el sistema quedará preparado en el estado |u1 i.
Si luego medimos B y encontramos por ejemplo b2 el estado final del sistema será |v2 i.
(a1 ) (b2 )
|ψi =⇒ |u1 i =⇒ |v2 i (5.20)
si por otro lado, realizamos las medidas en el orden opuesto y encontramos los mismos valores propios anteriores
pero en la secuencia b2 ⇒ a1 el esquema será
(b2 ) (a1 )
|ψi =⇒ |v2 i =⇒ |u1 i (5.21)
el estado final del sistema no es el mismo en ambos casos. Ahora, las probabilidades en ambos casos serı́an
por lo tanto
P (a1 , b2 ) = cos2 ϕ sin2 θ ; P (b2 , a1 ) = sin2 (ϕ − θ) sin2 θ
con lo cual se observa que
P (b2 , a1 ) 6= P (a1 , b2 )
esto significa entonces que dos observables no compatibles no se pueden medir simultáneamente5 . Se puede ver
de las Ecs. (5.20, 5.21) que la segunda medida genera la pérdida de la información suministrada por la primera.
Si por ejemplo después de la secuencia A ⇒ B representada por (5.20) medimos de nuevo A, no podemos tener
certeza del resultado ya que |v2 i no es autovector de A. Toda la información que se ganó en la primera medida
de A se ha perdido al ejecutar la posterior medición de B.
Es claro de los postulados que si definimos un paquete de ondas con respecto a una base generada por A
entonces la medida de A conduce a una reducción de este paquete, algo similar ocurre con el observable B. Sin
embargo, no podemos construı́r una base fija en donde el paquete se reduzca acumulativamente con respecto a dicha
base cuando se miden sucesivamente A y B. Esto se debe a la ausencia de una base común, que en términos más
fı́sicos implicarı́a la posibilidad de adicionar información en cada medida con respecto a la información obtenida
en la medida anterior.
donde M es un número real. Asumamos que el sistema fı́sico está en el estado |ψi. Con base en dicho estado,
construiremos un ket |ϕi y su bra asociado hϕ| en la forma
siendo λ una variable real arbitraria. Estudiaremos las predicciones para el producto de las incertidumbres ∆A, ∆B
donde las incertidumbres se definirán a través de la raı́z de la desviación media cuadrática de cada observable.
La norma al cuadrado de |ϕi se escribe como
hϕ| ϕi = hψ| (A − iλB) (A + iλB) |ψi = hψ| A2 + iλAB − iλBA + λ2 B 2 |ψi
hϕ| ϕi = A2 + iλ hAB − BAi + λ2 B 2 = λ2 B 2 + iλ h[A, B]i + A2
hϕ| ϕi = λ2 B 2 − λM + A2 ≥ 0 (5.24)
donde hemos usado la Ec. (5.22). Ahora bien, por definición la norma al cuadrado de |ϕi es no negativa para todo
valor de λ. Por tanto, el polinomio cuadrático en λ definido por la ecuación (5.24) debe ser no negativo para todo
λ, esto solo es posible si tal polinomio no posee raı́ces reales en λ o a lo más las raı́ces reales deben ser degeneradas
y corresponder a un mı́nimo local (en cuyo caso la norma de |ϕi es cero para un valor dado de λ, y positiva para
los otros valores). Esto implica que como ecuación cuadrática para λ, el discriminante deber ser negativo o cero
M 2 − 4 A2 B 2 ≤ 0 ⇒ (5.25)
2
2 M 2
A B ≥ (5.26)
4
5
Supongamos que medimos un observable A en el tiempo t y otro observable B en el tiempo t + ∆t. La medición simultánea se
puede definir consistentemente solo si los “lı́mites laterales” ∆t → 0+ (donde se mide en el orden A ⇒ B) y ∆t → 0− (donde se mide
en el orden B ⇒ A) conducen a las mismas predicciones en términos de distribución de probabilidad, y estados. Por esta razón solo se
puede definir adecuadamente la medición simultánea de observables compatibles.
216 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
recordando que |ψi describe el estado del sistema, introducimos dos nuevos observables A′ , B ′ definidos por
donde hAi y hBi son números reales e I es el operador identidad. Es claro que las relaciones de conmutación de
A′ , B ′ coinciden con las de A y B
′ ′
A , B = [A, B] = iM (5.29)
con lo cual el resultado (5.26) también es válido para A′ y B ′
M2
A′2
B ′2 ≥ ⇒
4
D ED E M2
(A − hAi)2 (B − hBi)2 ≥
4
y teniendo en cuenta la definición de la raı́z de la deviación media cuadrática Ec. (5.6), tenemos que
M2
(∆A)2 (∆B)2 ≥ ⇒
4
|M |
(∆A) · (∆B) ≥
2
y recordando la definición (5.22) resulta
|h[A, B]i|
(∆A) · (∆B) ≥ (5.30)
2
Si definimos la incertidumbre en los observables como la raı́z de la desviación media cuadrática de su distri-
bución, esto se puede considerar como una extensión del principio de incertidumbre. Nótese que en este caso el
lı́mite inferior está muy bien definido, precisamente porque hemos definido de manera muy clara el ancho de la
distribución por medio de la raı́z de la desviación media cuadrática.
Vale decir además que solo tendremos un lı́mite inferior no nulo, cuando los observables NO son compatibles
(no conmutantes). Para los observables compatibles no hay un principio de incertidumbre, lo que permite sin
ambigüedad su medición simultánea y la no destrucción de la información por efecto de mediciones adicionales.
Un caso especial muy importante es el de dos variable conjugadas. Se dice que dos observables Q, P son
conjugados si
[Q, P ] = i~
esta es una extrapolación natural del concepto de variables canónicamente conjugadas en mecánica clásica, que
cumplen propiedades similares pero con los corchetes de Poisson en lugar de los conmutadores. Para observables
conjugados, la expresión (5.30) queda en la forma
∆Q · ∆P ≥ ~/2
A su vez, un caso especial de variables conjugadas son los pares de posición y momento (X, Px ), (Y, Py ) y
(Z, Pz ). Se obtiene entonces
que son las relaciones de incertidumbre de Heisenberg (2.73), pero con lı́mites inferiores precisos, lo cual surge de
haber definido de manera precisa las incertidumbres.
5.4. DESVIACIÓN MEDIA CUADRÁTICA Y PRINCIPIO DE INCERTIDUMBRE 217
2
2 M 2
M2
A B = ⇒ A2 = (5.31)
4 4 hB 2 i
usando la Ec. (5.31), llegamos a una solución única λ ≡ λ0 para la cuadrática (5.24)
M 2 A2
λ0 = = (5.32)
2 hB 2 i M
Redefiniendo los observables a través de las Ecs. (5.27, 5.28) y teniendo en cuenta la invarianza del conmutador
Ec. (5.29) vemos que los resultados obtenidos para A y B son también válidos para A′ y B ′ (ya que todos ellos
dependen solo de la relación de conmutación Ec. 5.22). Por tanto para el ket
′
′
ϕ = A′ + iλB ′ |ψi ; ϕ = hψ| A′ − iλB ′
podemos hacer el mismo procedimiento que se realizó para el ket |ϕi de la Ec. (5.23), y llegar a que la norma de
|ϕ′ i es nula cuando λ = λ0 . Pero la norma es cero si y solo si el ket es nulo, por lo tanto
′
ϕ ≡ A′ + iλB ′ |ψi = 0 ⇒
[A − hAi + iλ0 (B − hBi)] |ψi = 0 (5.33)
ası́ mismo las Ecs. (5.31, 5.32) son aplicables también para A′ , B ′ con lo cual
′2
M2 M 2 A′2
A = ; λ0 = = (5.34)
4 hB ′2 i 2 hB ′2 i M
M2 M 2 (∆A)2
(∆A)2 = ; λ0 = = (5.35)
4 (∆B)2 2 (∆B)2 M
la Ec. (5.33) junto con las ligaduras (5.35) nos dictaminan la condición para obtener paquetes de mı́nima incerti-
dumbre. Su solución explı́cita debe realizarse en una base especı́fica y depende de la naturaleza de los operadores
A y B.
Un caso particular de interés surge para variables conjugadas para lo cual definimos A ≡ Q, B ≡ P y M ≡ ~.
La Ec. (5.33) y las ligaduras (5.35) quedan en la forma
~2 ~ 2 (∆Q)2
[Q − hQi + iλ0 (P − hP i)] |ψi = 0 ; (∆Q)2 = ; λ0 = = (5.36)
4 (∆P )2 2 (∆P )2 ~
218 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
usando la representación {|qi} y el hecho de que en esta representación P actúa como (~/i)d/dq (ver Ec. 1.214,
Pág. 106) se obtiene6
~ d
hq| [Q − hQi + iλ0 (P − hP i)] |ψi = 0 ⇒ q − hQi + iλ0 − hP i hq |ψi = 0 ⇒
i dq
d
q + ~λ0 − hQi − iλ0 hP i ψ (q) = 0 (5.37)
dq
para resolver la ecuación diferencial (5.37) es conveniente introducir la función h (q) definida por
ψ (q) = eihP iq/~ h (q − hQi) (5.38)
insertando la Ec. (5.38) en la Ec. (5.37) resulta
h i
d
q + ~λ0 − hQi − iλ0 hP i eihP iq/~ h (q − hQi) = 0
dq
d h ihP iq/~ i
[q − hQi − iλ0 hP i] eihP iq/~ h (q − hQi) + ~λ0 e h (q − hQi) = 0
dq
i hP i d
[q − hQi − iλ0 hP i] eihP iq/~ h (q − hQi) + ~λ0 h (q − hQi) eihP iq/~ + ~λ0 eihP iq/~ h (q − hQi) = 0
~ dq
d
[q − hQi] h (q − hQi) + ~λ0 h (q − hQi) = 0
dq
sustituyendo
q ′ = q − hQi (5.39)
queda
d
q + ~λ0 ′ h q ′ = 0
′
(5.40)
dq
cuya solución es
− q
′2
h q ′ = Ce 2λ0 ~ (5.41)
siendo C una constante de normalización que elegiremos como positiva. Reemplazando las Ecs. (5.36, 5.39) en la
solución (5.41), tenemos
h i
(q−hQi)2 (q−hQi) 2
− −
h (q − hQi) = Ce 4(∆Q)2 = Ce 2(∆Q)
(5.42)
finalmente reemplazando (5.42) en (5.38) y normalizando (con constante positiva) resulta
h i
(q−hQi) 2
1 −
ψ (q) = q eihP iq/~ e 2(∆Q)
(5.43)
4 2
2π (∆Q)
para encontrar el paquete de onda recı́proco, es decir en la base {|pi}, podemos proceder de manera análoga al
desarrollo anterior, o haciendo la transformada de Fourier de la Ec. (5.43). En tal caso se encuentra la función de
onda recı́proca ψ̄ (p) definida por
h i
(q−hP i) 2
1 − ~i hQip −
ψ̄ (p) = q e e 2(∆P )
(5.44)
4
2π (∆P )2
En la Sec. 2.14.3, pág. 151, habı́amos demostrado que los paquetes gaussianos son de mı́nima incertidumbre
para un par de observables conjugados. En la presente sección hemos demostrado el recı́proco: para dos observables
conjugados Q y P , hemos demostrado que si ∆Q · ∆P es exactamente ~/2, la función de onda asociada con este
estado en la representación |qi es un paquete gaussiano ası́ como la representación de la función de onda en la
base |pi.
6
Debe tenerse en cuenta que la Ec. (1.214) fué demostrada para cualquier par de observables conjugados y no solo para posiciones
y momentos.
5.5. PREPARACIÓN DE UN ESTADO 219
tanto los valores absolutos de los coeficientes cin como sus fases son relevantes. Y puesto que este estado es
la proyección |ψn′ i (normalizada) del vector |ψi sobre el autosubespacio En tendremos que el autoestado final
depende de |ψi y por lo tanto también los coeficientes cin siempre que En sea de más de una dimensión (si En es
de una sola dimensión, solo hay un vector normalizado fı́sicamente relevante).
Ahora bien, dado que vimos que la medición de otro observable B compatible con A adiciona información
sobre el estado, y se puede medir simultáneamente con A, vemos que si el resultado (an , bp ) de las dos medidas
corresponde a un único autovector |an , bp i ≡ |n, pi común a A y B no tendremos suma sobre i en (5.17) y resulta
cnp
|ψnp i = |n, pi = eiθ |n, pi
|cnp |
que es fı́sicamente equivalente a |n, pi. En otras palabras, el autoespacio Enp de autovectores comunes a A y B
con valores propios an y bp es de una dimensión y por tanto define fı́sicamente un único vector normalizado. Por
tanto, la especificación de estos dos valores determina el estado final de manera única e independiente de |ψi.
Podrı́a ocurrir sin embargo que existan varios vectores |n, p, ii linealmente independientes que conduzcan al
mismo par (an , bp ) de valores propios de A y B, es decir el espacio Enp no es unidimensional y para determinar la
proyección de |ψi sobre Enp se requiere conocer a |ψi. En este caso podemos ganar más información introduciendo
un tercer observable C compatible con los otros dos y medir su valor propio cq . El proceso debe continuar hasta
que se remueva completamente la degeneración es decir cuando el autoespacio Enpq... sea unidimensional, en cuyo
caso el estado |npq . . .i es fı́sicamente único.
Por otro lado, es posible que la medición de cierto conjunto de autovalores especı́ficos sea suficiente para
determinar el estado de manera única, pero cuando el mismo sistema me arroja otros valores propios las medidas
podrı́an resultar insuficientes. Por ejemplo, si medimos el observable A y se obtiene el valor no degenerado a1 , el
estado estará totalmente determinado. Pero si la medida nos arroja el valor a2 (degenerado), necesitaremos medir
otro observable compatible para determinar el estado.
La idea por supuesto es determinar un conjunto de observables A1 , A2 , . . . , Am ; que determine de manera
única el estado después de la medida (independiente de |ψi) sin importar los valores experimentales obtenidos.
Para ello es necesario que todos los autoespacios de la forma En1 ,n2 ,...,nm sean unidimensionales. En otras pala-
bras, el conjunto completo de autovectores {|n1 , n2 , . . . , nm i} común a los observables A1 , A2 , . . . , Am no debe
presentar degeneración para ningún conjunto posible de medidas (an1 , . . . , anm ). Esto indica entonces que el con-
junto {A1 , A2 , . . . , Am } forma un C.S.C.O. (ver sección 1.23). Adicionalmente, es natural pensar que el conjunto
{A1 , A2 , . . . , Am } sea minimal en el sentido de que al remover un observable del conjunto el sistema ya no sea un
C.S.C.O. Usualmente se asume que un C.S.C.O. dado es minimal a menos que se indique lo contrario.
220 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
Los métodos para preparar un sistema cuántico en un estado bien definido son similares en principio a los que
se usan para polarizar luz. Cuando se coloca un polarizador en el camino de un haz de luz, la luz que sale está
polarizada en una dirección especı́fica caracterı́stica del polarizador, e independiente del estado de polarización de
la luz incidente. Similarmente se pueden construı́r dispositivos para preparar un sistema cuántico de manera que
solo permitan el paso de un estado correspondiente a un autovalor especı́fico. Si queremos preparar completamente
el estado, será necesario usar m dispositivos que midan a los observables A1 , .., Am que solo permitan el paso de
un conjunto especı́fico de autovalores (an1 , ..., anm ).
Es claro que puede haber infinidad de C.S.C.O, si cambiamos el conjunto completo de observables compatibles,
obtendremos otros estados del sistema. Para entender mejor esto, recordemos que los autoestados están definidos
no solo por el sistema a estudiar sino también por los aparatos de medición (ver sección 2.9, pág 135).
P2
H= + V (R, t)
2m
podemos encontrar una ecuación de continuidad que nos expresa la conservación local de la probabilidad en la
forma
∂ρ
+ ∇ · J = 0 ; ρ ≡ ψψ ∗ = |ψ (r, t)|2 (5.45)
∂t
~ ∗ ∗ 1 ∗ ~
J ≡ [ψ ∇ψ − ψ∇ψ ] = Re ψ ∇ψ (5.46)
2mi m i
siendo ρ, J la densidad y corriente de probabilidad respectivamente. Escribamos J en la forma
∗
1 ∗ ~ ~ ∗ 1 ∗ ~ ~
J ≡ ψ ∇ ψ−ψ ∇ ψ = ψ ∇ ψ − ψ − ∇ψ
2m i i 2m i i
∗
1 ~ ~
= hψ| ri ∇ hr| ψi + hr| ψi ∇ hr| ψi
2m i i
1 1
J = [hψ| ri hr| P |ψi + hr| ψi hr| P |ψi∗ ] = [hψ| ri hr| P |ψi + hψ| P |ri hr| ψi]
2m 2m
1
J = {hψ| [|ri hr| P + P |ri hr|] |ψi}
2m
donde hemos usado la Ec. (1.191). Finalmente
1 P P
J = [hψ| K (r) |ψi] ; K (r) ≡ |ri hr| + |ri hr| (5.47)
2 m m
para la densidad de corriente es más fácil ver que
ρ = [hψ| [|ri hr|] |ψi] = hψ| ̺ (r) |ψi ; ̺ (r) ≡ |ri hr| (5.48)
5.7. EVOLUCIÓN TEMPORAL DEL VALOR ESPERADO DE UN OBSERVABLE 221
si comparamos las Ecs. (5.47, 5.48) con la Ec. (5.2), vemos que la densidad de probabilidad ρ y la densidad de
corriente de probabilidad J, se pueden ver como el valor esperado de los operadores K (r) y ̺ (r) respectivamente.
Ahora bien, en coordenadas cartesianas los momentos canónicos son los momentos lineales (cuando el potencial
no depende de la velocidad). Por tanto, P/m se puede considerar el “operador velocidad” V. En consecuencia, el
“operador densidad de corriente” K (r) está relacionado con el operador densidad ̺ (r) en la forma
1
K (r) ≡ {̺V + V̺}
2
que corresponde a la cuantización de la relación J =ρv, pero adecuadamente simetrizada.
Si la partı́cula se coloca en un campo electromagnético descrito por los potenciales φ (r, t) y A (r, t) , el Ha-
miltoniano asociado es (ver Ec. 4.12)
[P − qA (R, t)]2
H= + V̄ (R, t) ; V̄ (R, t) ≡ qφ (R, t) + V (R) (5.49)
2m
donde V (R) es un potencial escalar que describe una interacción adicional a la del campo electromagnético sobre
la partı́cula. Con un procedimiento similar al de la sección 3.3.4, la densidad de corriente resultante es
1 ∗ ~
JEM = Re ψ ∇ − qA ψ (5.50)
m i
que también se puede obtener de la corriente (5.46) simplemente reemplazando P → P − qA, o equivalentemente
~ ~
i ∇ → i ∇ − qA (R, t).
Un ejemplo sencillo para el cálculo de ρ y J es la onda plana. Sea un estado (no estrictamente fı́sico) descrito
por una onda plana
ψ (r, t) = Aei(k·r−ωt)
la densidad de probabilidad es claramente
ρ = ψψ ∗ = |A|2
que es uniforme y constante. El cálculo de J (r, t) es inmediato
1 ∗ ~ 1 ∗ −i(k·r−ωt) ~A i(k·r−ωt)
J = Re ψ ∇ψ = Re A e ∇e
m i m i
n o
1 ∗ −i(k·r−ωt) ~A 1
J = Re A e ikei(k·r−ωt)
= Re ~ |A|2 k
m i m
~k
J = |A|2 (5.51)
m
y recordando que vg = ~k/m es la velocidad de grupo asociada al momento ~k (sección 2.13 Ec. 2.84). Vemos
que esta corriente también es análoga a la relación clásica J = ρv. La corriente generada por una onda plana es
estacionaria (independiente del tiempo) y además es uniforme y homogénea.
Vale decir que el valor medio o esperado solo depende de t ya que por ejemplo si usamos la representación de
{|ri} este valor esperado corresponde a una integral sobre todo el espacio para un tiempo fijo. En contraste, el
222 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
observable clásico A (r, p, t) asume un valor para ciertas posiciones y momentos especı́ficos en un tiempo dado (ya
que las partı́culas están localizadas y sus momentos se pueden medir simultáneamente junto con las posiciones).
Para estos observables clásicos, la dependencia con el tiempo puede ser tanto explı́cita como implı́cita, es decir a
través de r (t) y p (t).
Cuando cuantizamos el observable asignamos a la cantidad clásica A (r, p, t) el operador hermı́tico A ≡
A (R, P, t). Obsérvese que ni los autoestados ni los autovalores de los operadores R y P dependen del tiem-
po, por tanto los observables cuánticos R y P no pueden dar cuenta de una dependencia implı́cita con el tiempo.
En conclusión, los observables cuánticos solo dependen del tiempo de manera explı́cita. En cuanto al valor esperado
del observable, la variación temporal de hAi se debe tanto a la variación temporal del estado |ψ (t)i (dictaminada
por la ecuación de Schrödinger), como a la variación temporal del observable mismo A (t). Si usamos por ejemplo
la representación de coordenadas, el valor esperado de A queda
Z Z
3 3 ∗ ~
hAi = hψ (t)| A (R, P, t) |ψ (t)i = d r hψ (t)| ri hr| A (R, P, t) |ψ (t)i = d r ψ (r, t) A r, ∇, t ψ (r, t)
i
de lo cual es claro que esta cantidad solo depende del tiempo, ya que está integrada sobre las variables espaciales.
Vamos a estudiar la variación temporal del valor esperado de un observable arbitrario y a relacionarla con la
variación temporal clásica. Derivando el valor esperado con respecto al tiempo resulta
d d ∂A d
hψ (t)| A |ψ (t)i = hψ (t)| A |ψ (t)i + hψ (t)| |ψ (t)i + hψ (t)| A |ψ (t)i
dt dt ∂t dt
donde hemos usado que dA/dt = ∂A/∂t ya que un observable cuántico solo puede depender del tiempo de manera
explı́cita. Usando las Ecs. (3.25, 3.26) tenemos
d 1 ∂A 1
hψ (t)| A |ψ (t)i = hψ (t)| − H (t) A |ψ (t)i + hψ (t)| |ψ (t)i + hψ (t)| A H (t) |ψ (t)i
dt i~ ∂t i~
d 1 ∂A
hψ (t)| A |ψ (t)i = hψ (t)| [AH − HA] |ψ (t)i + hψ (t)| |ψ (t)i
dt i~ ∂t
quedando finalmente
d 1 ∂A
hAi = h[A, H]i + (5.52)
dt i~ ∂t
vale recordar que en el formalismo clásico Hamiltoniano, un observable Acl que es función de las variables del
espacio de fase y del tiempo es decir Acl = Acl (q, p, t), posee una evolución temporal dada por
dAcl ∂Acl
= [Acl , H]pois + (5.53)
dt ∂t
donde en lugar del conmutador, está el corchete de Poisson entre el observable y el Hamiltoniano. Volviendo al
problema cuántico, veremos que el valor esperado (y no el operador A r, ~i ∇, t ) es el que debe ser comparado
con el correspondiente observable clásico.
debemos observar sin embargo que − h∇V (R)i es en realidad el valor promedio de la fuerza sobre el paquete
completo, que no necesariamente debe coincidir con su valor en el centro del paquete
h∇V (R)i =
6 [∇V (r)]r=hRi (5.56)
lo cual se puede expresar diciendo que el valor medio de una función no es en general igual al valor que toma
cuando se evalúa en el valor medio de la variable. Esto se puede ver con facilidad tomando un ejemplo especı́fico,
sea un potencial de la forma
V (x) = λxn (5.57)
siendo λ una constante real y n un entero positivo. La cuantización de este potencial nos lleva a
V (X) = λX n (5.58)
asumir el paquete muy localizado equivale a decir que |ψ (r, t)|2 es una distribución que toma valores no desprecia-
bles solo en cierto dominio cuyas dimensiones son mucho mas pequeñas que las distancias sobre las cuales ∇V (r)
varı́a apreciablemente. Por tanto, en este dominio centrado alrededor de hRi, la cantidad ∇V (r) es prácticamente
constante. En tal caso se puede reemplazar ∇V (r) en (5.59) por su valor en r = hRi y se puede sacar de la in-
tegral en (5.59), y teniendo en cuenta que ψ (r, t) está normalizada, se obtiene que para paquetes suficientemente
localizados tenemos que
h∇V (R)i ∼ = [∇V (r)]r=hRi (5.60)
es claro en particular que en el lı́mite macroscópico en el cual las longitudes de onda de De Broglie son mucho
menores que las distancias sobre las cuales los potenciales y sus gradientes varı́an, los paquetes de onda pueden
ser lo suficientemente localizados para satisfacer la Ec. (5.60) y al mismo tiempo mantener un momento bien
definido. Este último punto es muy importante, ya que no basta con que hRi se comporte de manera semejante
al valor clásico de posición para llegar a un escenario clásico, pues un paquete muy localizado en hRi implica que
el paquete de onda en el espacio de los momentos puede ser muy disperso, y tendrı́amos que aunque hPi pueda
tener un comportamiento similar al valor clásico, la dispersión de hPi significará una incertidumbre enorme en
su medida lo cual nos aleja del escenario clásico. Por tanto, es necesario que los valores de ∆r y ∆p compatibles
5.8. ECUACIÓN DE SCHRÖDINGER PARA SISTEMAS CONSERVATIVOS 225
con el principio de incertidumbre sean mucho menores que todas las distancias y momentos involucrados en el
problema, situación que en general se cumple en los sistemas macroscópicos.
Bajo las condiciones anteriores, el movimiento del paquete de onda es prácticamente el de una partı́cula clásica
de masa m sometida al potencial V (r). Vemos como era de esperarse que la ecuación de Schrödinger genera las
soluciones clásicas con ciertas condiciones lı́mite apropiadas que en particular son satisfechas por los sistemas
macroscópicos.
asumiremos por simplicidad un espectro discreto. El ı́ndice τ denota la degeneración de los valores propios que
puede corresponder a varios ı́ndices. Tales ı́ndices nos fijarán los autovalores de observables que constituyen un
C.S.C.O. junto con H. Puesto que H no depende explı́citamente del tiempo, los autovalores En y autovectores
|ϕn,τ i tampoco dependerán del tiempo.
Hemos visto para un caso especı́fico de sistema conservativo (ver sección 3.2) que la Ec. de Schrödinger se
puede solucionar a partir de este problema de valores propios. En este caso veremos que la Ec. (5.61) también
se puede utilizar para resolver la ecuación de Schrödinger. Teniendo en cuenta que H es observable, podemos
expandir la solución de la Ec. de Schrödinger en términos de la base {|ϕn,τ i}
X
|ψ (t)i = cn,τ (t) |ϕn,τ i ; cn,τ (t) ≡ hϕn,τ |ψ (t)i (5.62)
n,τ
nótese que toda la dependencia temporal de |ψ (t)i está contenida en los cn,τ (t). Aplicando el bra hϕn,τ | sobre la
ecuación de Schrödinger y teniendo en cuenta que este bra no depende del tiempo
d
i~ hϕn,τ |ψ (t)i = hϕn,τ | H |ψ (t)i (5.63)
dt
y dada la hermiticidad de H el hermı́tico conjugado de (5.61) es
d
i~ cn,τ (t) = En cn,τ (t)
dt
la cual se puede integrar directamente para obtener
por tanto, si H no depende del tiempo podemos encontrar a |ψ (t)i a partir de su valor inicial |ψ (t0 )i en la
siguiente forma
226 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
(b) En virtud de las Ecs. (5.62) y (5.65), multiplicamos cada sumando en la expansión (5.66) por la fase
e−iEn (t−t0 )/~ , siendo En el autovalor asociado a los autoestados |ϕn,τ i
XX
|ψ (t)i = cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i (5.67)
n τ
nótese finalmente que los sumandos en (5.67) poseen fases diferentes para diferentes valores de n. Por tanto, dichas
fases son fı́sicamente relevantes y producen fenómenos de interferencia.
y dado que no hay suma sobre n, la Ec. (5.67) para el estado |ψ (t)i queda
X
|ψ (t)i = e−iEn (t−t0 )/~ cn,τ (t0 ) |ϕn,τ i = e−iEn (t−t0 )/~ |ψ (t0 )i
τ
de modo que el estado inicial y el estado en cualquier tiempo solo difieren en una fase global fı́sicamente irrelevante.
Por tanto, todas las propiedades fı́sicas de sistemas que están inicialmente preparados en un autoestado de H,
permanecen inalteradas en el tiempo. Por esta razón a los estados propios del Hamiltoniano se les denomina
estados estacionarios.
De aquı́ surge además la manifestación cuántica de la conservación de la energı́a para sistemas conservativos.
Si en el tiempo t0 medimos la energı́a de un sistema conservativo y encontramos el valor En , el sistema queda
preparado luego de la medición en un autoestado de H dado por (5.69) con valor propio En . A partir de este
momento se puede aplicar la ecuación de Schrödinger tomando este autoestado de H como estado inicial, pero
dado que dicho estado es estacionario, no se genera fı́sicamente evolución temporal y para todo tiempo el estado
continúa siendo autoestado de H con energı́a En . En consecuencia, una segunda medida de la energı́a del sistema
en cualquier tiempo posterior nos dará el mismo valor de energı́a En obtenido en la primera medición.
Finalmente, vale la pena señalar que lo anterior nos conduce a que solo hay evolución cuando la energı́a en
el estado inicial no está bien definida (de manera que hay varias fases de la forma e−iEk (t−t0 )/~ ). Esto nos llevará
más adelante a una relación de incertidumbre entre el tiempo de evolución y la energı́a.
5.8. ECUACIÓN DE SCHRÖDINGER PARA SISTEMAS CONSERVATIVOS 227
∂A
= 0 ; [A, H] = 0 (5.70)
∂t
d hAi d
= hψ (t)| A |ψ (t)i = 0 (5.71)
dt dt
para cualquier estado |ψ (t)i del sistema. Es claro que si se cumplen las condiciones (5.70) el valor medio de A
será constante de movimiento8 . En consecuencia, definiremos por extensión que un observable A es constante
de movimiento si cumplen las condiciones (5.70). En palabras, un observable es constante de movimiento si no
depende explı́citamente del tiempo y conmuta con el Hamiltoniano. En particular si H no depende del tiempo
(sistemas conservativos), H como tal es constante de movimiento.
Veremos que si A es constante de movimiento hay algunas consecuencias fı́sicas adicionales. En primer lugar,
puesto que A y H son observables que conmutan, poseen un conjunto común completo de kets propios
de nuevo asumimos espectros discretos por simplicidad9 . El ı́ndice τ fija los valores propios de observables que
forman un C.S.C.O. con H y A. Ahora bien, los kets |ϕn,p,τ i son autoestados de H y por tanto son estados
estacionarios (siempre que H no dependa del tiempo). En consecuencia, si |ϕn,p,τ i define el estado inicial del
sistema, permanecerá en este estado indefinidamente (excepto por una fase global irrelevante). No obstante, |ϕn,p,τ i
también es ket propio de A. En consecuencia, cuando A es una constante de movimiento y H no depende del tiempo,
existen estados estacionarios |ϕn,p,τ i del sistema fı́sico que permanecen para todo tiempo como autoestados de A
con el mismo autovalor ap . Por esta razón a los autovalores de A se les denomina números cuánticos buenos.
Es claro que si |ϕn,p,τ i es el estado inicial, el valor de la energı́a y de ap serán siempre el mismo sin importar
el tiempo en que se midan, el orden en que se midan (son observables compatibles), o cuantas veces se midan,
además hay una certeza total en sus valores (ambas cantidades están bien definidas y se conservan).
Ahora supongamos que el estado inicial no es del tipo |ϕn,p,τ i, sino un ket arbitrario |ψ (t0 )i. Veremos que si
el sistema es conservativo, la probabilidad de encontrar un cierto valor ap es independiente del tiempo cuando se
mide la constante de movimiento A. Expandiendo |ψ (t0 )i en la base {|ϕn,p,τ i} se tiene
XXX
|ψ (t0 )i = cn,p,τ (t0 ) |ϕn,p,τ i
n p τ
y usando el postulado de descomposición espectral, la probabilidad P (ap , t) de obtener ap cuando A se mide sobre
8
Si se pide ∂A
∂t
= h[A, H]i = 0, entonces la Ec. (5.71) solo será válida para un estado o estados especı́ficos |ψ (t)i. La idea aquı́ es
estudiar constantes de movimiento inherentes al sistema y no a condiciones iniciales especı́ficas.
9
Si en lugar de la Ec. (5.70) asumimos la condición más débil ∂A
∂t
+ [A, H] = 0, tenemos que A no conmuta en general con H. Por
tanto, aunque tal condición conduce a la conservación de hAi Ec. (5.71), no conduce a la existencia de una base común para A y H de
modo que las consecuencias fı́sicas adicionales que discutiremos aquı́, no son válidas para esta condición más débil.
228 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
asumiremos
de aquı́ en adelante que B no depende explı́citamente del tiempo, en tal caso los elementos matriciales
′ ′
ϕn ,τ B |ϕn,τ i son constantes. De esto y de la Ec. (5.73) se vé que la evolución temporal de hBi (t) se debe
exclusivamente a las fases, es decir a términos oscilantes con frecuencias dadas por
1 |En′ − En | |En′ − En |
νn′ ,n ≡ = (5.74)
2π ~ h
tales frecuencias son caracterı́sticas del sistema bajo estudio pero son independientes del observable B considerado
y de las condiciones iniciales del sistema (descritas por los coeficientes c∗n′ ,τ ′ (t0 ) cn,τ (t0 ) ), ya que solo dependen
de los valores propios de H.
5.8. ECUACIÓN DE SCHRÖDINGER PARA SISTEMAS CONSERVATIVOS 229
Las frecuencias νn′ ,n se denominan las frecuencias de Bohr del sistema. Por ejemplo, para un átomo los valores
esperados de todos los parámetros atómicos (tales como momentos dipolares eléctricos y magnéticos), oscilan
a las varias frecuencias de Bohr del átomo. Es razonable imaginar que estas frecuencias pueden ser absorbidas
o emitidas por el átomo, lo cual nos permite entender intuitivamente la relación de Bohr entre las diferentes
frecuencias absorbidas o emitidas y las diferencias en las energı́as atómicas.
Puede verse de (5.73) que aunque las frecuencias involucradas en la evolución temporal de
hBi no dependen
de B, los pesos de cada frecuencia
sı́ dependen de B a través de los elementos matriciales ϕn′ ,τ ′ B |ϕn,τ i. En
particular si hay elementos ϕn′ ,τ ′ B |ϕn,τ i que sean nulos, las correspondientes frecuencias vn′ ,n estarán ausentes
de la expansión de hBi (t) sin importar cual sea el estado inicial del sistema. Este es el origen de las reglas de
selección que nos indican
las frecuencias que pueden ser emitidas o absorbidas bajo las condiciones dadas. Los
elementos de matriz ϕn′ ,τ ′ B |ϕn,τ i nos dicen la importancia de cada frecuencia de Bohr.
Delo anterior vemos que el estudio de las reglas de selección proviene del cálculo de los elementos no diagonales
ϕn′ ,τ ′ B |ϕn,τ i de los diversos observables atómicos (o de cualquier otro sistema cuántico) tales como los dipolos
eléctricos y magnéticos.
Por otro lado, la Ec. (5.73) muestra que el peso completo de cada frecuencia está dado por el producto
XX ∗
W n, n′ = cn′ ,τ ′ (t0 ) cn,τ (t0 ) ϕn′ ,τ ′ B |ϕn,τ i
τ τ′
y por tanto también depende de las condiciones iniciales por medio de c∗n′ ,τ ′ (t0 ) cn,τ (t0 ). Vale la pena anotar
que si bien la nulidad de los elementos ϕn′ ,τ ′ B |ϕn,τ i conduce a la ausencia de una frecuencia de Bohr para
cualquier estado inicial del sistema, también se puede dar la ausencia de una frecuencia por la nulidad del producto
c∗n′ ,τ ′ (t0 ) cn,τ (t0 ), es decir por ciertas condiciones iniciales especı́ficas. En particular, si el estado inicial es un
estado estacionario de energı́a Ek la expansión de |ψ (t0 )i solo contiene un valor de n (n = k) y el producto
c∗n′ ,τ ′ (t0 ) cn,τ (t0 ) solo es no nulo para n = n′ = k, en este caso hBi no depende del tiempo y no hay frecuencias
de Bohr no triviales, nótese que esta regla de selección se da por condiciones iniciales y se da para cualquier
observable B.
Es interesante ver que de la Ec. (5.73) también podemos verificar que el valor esperado de una constante de
movimiento no depende del tiempo. Al ser B constante de movimiento, no depende explı́citamente del tiempo con
lo cual la dependencia temporal de hBi recae exclusivamente en las fases que contienen la energı́a en la Ec. (5.73).
Ahora bien el teorema 1.68 (pág. 58) nos dice que dado que B conmuta con H (por ser constante
de movimiento),
si |ϕn,τ i y ϕn′ ,τ ′ corresponden a autovalores diferentes (En′ 6= En ) entonces el producto ϕn′ ,τ ′ B |ϕn,τ i es cero.
Por tanto para una constante de movimiento solo sobreviven los términos con n = n′ para los cuales las fases
ei(En′ −En )(t−t0 )/~ serán iguales a la unidad y no habrá dependencia temporal.
∆E ∼
= |E2 − E1 |
ahora consideremos un observable arbitrario B que no conmuta con H. La probabilidad de encontrar en una
medida de B en el tiempo t el valor propio bm (que asumimos no degenerado por simplicidad) asociado con el
autovector |um i nos da
n o
P (bm , t) = c1 e−E1 (t−t0 )/~ hum | ϕ1 i + c2 e−E2 (t−t0 )/~ hum | ϕ2 i
n o
× c∗1 eE1 (t−t0 )/~ hϕ1 | um i + c∗2 eE2 (t−t0 )/~ hϕ2 | um i
= c1 c∗1 hum | ϕ1 i hϕ1 | um i + c2 c∗2 hum | ϕ2 i hϕ2 | um i
+c1 c∗2 e−E1 (t−t0 )/~ eE2 (t−t0 )/~ hum | ϕ1 i hϕ2 | um i + c2 c∗1 e−E2 (t−t0 )/~ eE1 (t−t0 )/~ hum | ϕ2 i hϕ1 | um i
P (bm , t) = |c1 |2 |hum | ϕ1 i|2 + |c2 |2 |hum | ϕ2 i|2 + c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i
h i∗
+ c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i
n o
P (bm , t) = |c1 |2 |hum | ϕ1 i|2 + |c2 |2 |hum | ϕ2 i|2 + 2Re c1 c∗2 e(E2 −E1 )(t−t0 )/~ hum | ϕ1 i hϕ2 | um i (5.76)
nótese que la interferencia está dada por la diferencia entre las dos fases. Esta ecuación muestra que la probabilidad
oscila entre dos valores extremos, con una frecuencia de Bohr dada por
|E2 − E1 |
v21 =
h
vale la pena mencionar que el valor de esta frecuencia de Bohr no dependió del observable, sino de los valores
propios del Hamiltoniano. Sin embargo, la Ec. (5.76) nos muestra que el peso con el cual contribuye tal frecuencia
depende de las condiciones iniciales descritas por la Ec. (5.75), y del observable mismo a través de |um i que es el
vector propio de B asociado al valor propio bm , al cual se le está calculado la probabilidad. El tiempo caracterı́stico
de evolución será entonces un periodo de oscilación de la probabilidad
1 h h
∆t ∼
= = ∼
=
ν21 |E2 − E1 | ∆E
siendo |ϕE i el ket propio de H con autovalor E. Asumamos que en una gráfica de |c (E)|2 (densidad de probabilidad
para E) vs. E, la densidad de probabilidad solo es apreciable en un intervalo [E0 − ∆E/2, E0 + ∆E/2]. La
cantidad ∆E representa entonces la incertidumbre en la energı́a del sistema (que depende del algoritmo para
elegir el ancho). El estado en un tiempo t se obtiene de (5.68)
Z
|ψ (t)i = dE c (E) e−iE(t−t0 )/~ |ϕE i
la probabilidad de obtener bm cuando se mide el observable B (de espectro discreto) en el estado |ψ (t)i es
Z 2
2
P (bm , t) = |hum |ψ (t)i| = dE c (E) e −iE(t−t0 )/~
hum |ϕE i
Z 2
E0 +∆E/2
∼ −iE(t−t )/~
P (bm , t) = dE c (E) e 0
hum |ϕE i (5.78)
E0 −∆E/2
en general hum |ϕE i no varı́a en forma rápida con E cuando E varı́a alrededor de E0 . Si ∆E es lo suficientemente
pequeño, la variación de hum |ϕE i en la integral (5.78) se puede despreciar con respecto a la variación de c (E).
Con lo cual la integral (5.78) se puede aproximar a
Z 2
E0 +∆E/2
P (bm , t) ∼ 2
= |hum |ϕE0 i| dE c (E) e−iE(t−t0 )/~
E0 −∆E/2
cuando esta aproximación es válida vemos que P (bm , t) es proporcional al cuadrado del módulo de la transformada
de Fourier de c (E). Aplicando la propiedad de incertidumbre para la transformada de Fourier, vemos que el ancho
en t de P (bm , t), es decir ∆t está relacionado con el ancho ∆E de |c (E)|2 por medio de la relación
∆E · ∆t & h
usualmente conocida como la cuarta relación de incertidumbre de Heisenberg. Sin embargo, esta relación es
diferente a la mostrada por las componentes de R y P ya que el tiempo es un parámetro para el cual no existe
un operador cuántico asociado, y las variables H y t no son canónicamente conjugadas. Adicionalmente, ∆t no es
en realidad una incertidumbre en la medida del tiempo, sino un tiempo que caracteriza la “rapidez” con que el
sistema fı́sico evoluciona.
A priori podrı́a pensarse que la presencia de incertidumbre en la energı́a para un sistema conservativo, entra
en conflicto con la conservación de la energı́a. Debemos observar sin embargo, que el concepto de conservación
(o no conservación) de una cantidad fı́sica involucra la comparación entre dos o más medidas de dicha cantidad.
Si el estado inicial no es estacionario, entonces hay una incertidumbre en la energı́a, tal incertidumbre persiste y
puede evolucionar en el tiempo mientras no se realice una medida. No obstante, cuando se realiza una medida de
la energı́a, el sistema queda preparado en un estado estacionario con energı́a bien definida En , y ya se discutió que
toda medida posterior de la energı́a dará el mismo valor En con toda certeza. Lo mismo ocurrirá con cualquier
cantidad posterior de medidas de este observable. Tenemos entonces un principio de conservación puesto que el
experimento revela que para un sistema conservativo, las medidas de esta cantidad fı́sica en diferentes tiempos
coinciden siempre. Similar discusión se puede dar para la conservación del momento u otra cantidad fı́sica.
por otra parte, es razonable definir el tiempo caracterı́stico de evolución ∆t de un paquete de ondas viajeras
unidimensional como el tiempo que le toma a este paquete de onda viajando a la velocidad vg para “pasar” un
punto fijo en el espacio, es decir para que haya recorrido una longitud igual a su extensión espacial ∆x. Por tanto
∆x
∆t ∼
= (5.80)
vg
∆E · ∆t ∼
= ∆x · ∆p & ~
estos estados podrı́an ser por ejemplo estados propios de un observable B asociados a valores propios diferentes
b1 y b2 . Si el sistema está en el estado |ψ1 i podemos calcular todas las probabilidades concernientes a resultados
de medidas de un cierto observable A. Si asumimos por ejemplo que el autovalor an de A es no degenerado y
denotamos |un i a su autovector asociado normalizado, la probabilidad de encontrar el valor an cuando se mide A
sobre el sistema estando éste en el estado |ψ1 i está dado por
análogamente podemos medir esta probabilidad cuando el sistema está en el estado |ψ2 i
ahora consideremos un estado normalizado |ψi que se construye como superposición de los estados |ψ1 i y |ψ2 i
este vector estará normalizado si |ψ1 i y |ψ2 i lo están. Puesto que |ψ1 i y |ψ2 i son autovectores del observable
B correspondientes a valores propios diferentes b1 y b2 , la probabilidad de medir b1 es |c1 |2 y la de medir b2 es
|c2 |2 . Con frecuencia se dice que cuando el sistema está en el estado |ψi descrito por (5.83), entonces |c1 |2 es la
probabilidad de encontrar al sistema en el estado |ψ1 i y |c2 |2 es la probabilidad de encontrarlo en el estado |ψ2 i,
debe decirse sin embargo que esto solo es cierto si se ejecuta una medida del observable B, ya que si se mide
cualquier otro observable C en general |ψ1 i y |ψ2 i no serán autoestados de C y por tanto luego de la medida el
sistema no quedará en ninguno de estos estados. En este caso se tendrá que expandir a |ψi en autoestados de C
(esto es posible dado que es un observable), y obtener los respectivos coeficientes. Esto nos muestra una vez más
que el aparato de medida y la medida misma juegan un papel muy importante en los postulados.
5.9. CONSECUENCIAS FÍSICAS DEL PRINCIPIO DE SUPERPOSICIÓN 233
la probabilidad es el módulo al cuadrado de la amplitud de probabilidad hun | ψi. Tal amplitud es la suma de
dos términos
hun | ψi = hun | {c1 |ψ1 i + c2 |ψ2 i} = c1 hun | ψ1 i + c2 hun | ψ2 i
el módulo al cuadrado se calcula con un procedimiento idéntico al que nos llevó a la Ec. (5.76) (excepto por la
ausencia de las exponenciales de la energı́a)
P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2Re {c1 c∗2 hun | ψ1 i hψ2 | un i}
puesto que las cantidades c1 , c2 , hun | ψ1 i y hψ2 | un i son complejas podemos escribirlas en notación polar
quedando finalmente
P (an , t) = |c1 |2 |hun | ψ1 i|2 + |c2 |2 |hun | ψ2 i|2 + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| cos (θ1 + δ1 − θ2 − δ2 )
usando las Ecs. (5.81, 5.82) esta expresión se puede reescribir como
P (an , t) = |c1 |2 P1 (an ) + |c2 |2 P2 (an ) + 2 |c1 | |c2 | |hun | ψ1 i| |hun | ψ2 i| cos (θ1 + δ1 − θ2 − δ2 )
este resultado difiere del mostrado en (5.84) en donde se consideró a |ψi como una mezcla estadı́stica. El punto es
que la mezcla estadı́stica no considera los efectos de interferencia contenidos en el producto cruzado que se obtiene
cuando se eleva al cuadrado una suma de amplitudes. El resultado muestra que la probabilidad no depende solo
de los módulos de los pesos |c1 | y |c2 | y de las amplitudes |hun | ψ1 i| y |hun | ψ2 i| sino también de sus fases relativas
θ1 , θ2 , δ1 y δ2 . Nótese sin embargo, que una fase global eiθ multiplicando al estado |ψi no afecta esta probabilidad
puesto que se elimina con su conjugado en el término de interferencia.
10
Puesto que P1 (an ) es la probabilidad de obtener el valor an cuando el sistema está en el estado |ψ1 i, es claro 2 que en una mezcla
estadı́stica con N muy grande, el número de estados |ψ 1 i que arrojará a n cuando se mide A sobre los N c1 estados |ψ1 i, viene
2 2
dada por N c1 P1 (an ). Similarmente, N c2 P2 (an ) es el número de estados |ψ2 i de la mezcla estadı́stica que arrojarán el valor an
en la medición de A. Es claro entonces que la probabilidad de obtener an cuando se mide sobre la mezcla estadı́stica completa es
N | c2
1 |P1 (an )+N |c2 |P2 (an )
2
lı́mN→∞ N
que coincide con la Ec. (5.84).
234 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
es decir Pa (b, c) es la probabilidad Pa (b) de que habiendo obtenido el valor a del observable A en la primera
medida, obtengamos b en la segunda, multiplicada por la probabilidad de que habiendo obtenido un valor b del
5.9. CONSECUENCIAS FÍSICAS DEL PRINCIPIO DE SUPERPOSICIÓN 235
observable B en la segunda medida obtengamos un valor c de C en la tercera. Si denotamos |wb i al ket propio de
B asociado con el valor propio b, la cantidad Pa (b, c) estará dada por
Veamos ahora las semejanzas y diferencias entre ambos experimentos. Asumiremos que en ambos experimentos
se han obtenido los mismos valores especı́ficos de A y C. En ambos experimentos el estado después de la medición
de A es |ua i, de hecho el papel de esta medición es el de fijar a |ua i como el estado inicial (o “preparar” el sistema
en el estado inicial |ua i). Después de la medición de C en ambos experimentos, el estado será |vc i que lo tomaremos
como el estado final. Los dos experimentos coinciden entonces en el estado inicial y en el final.
Para ambos experimentos es posible descomponer el estado justo antes de la medida de C en términos de
autovectores |wb i de B, y decir que entre los estados |ua i y |vc i el sistema puede “pasar” a través de diferentes
“estados intermedios” |wbi i. Cada uno de estos estados intermedios define un posible “camino” entre el estado
inicial |ua i y el estado final |vc i.
De aquı́ surge la diferencia fundamental entre los dos experimentos. En el primero el camino que el sistema
ha tomado para ir desde |ua i hasta |vc i no ha sido determinado experimentalmente, ya que solo hemos medido la
probabilidad Pc (a) de que comenzando en el estado |ua i terminemos en el estado |vc i. En el segundo experimento
el camino para ir desde |ua i hasta |vc i ha sido determinado experimentalmente midiendo el observable B, ya que
esta medida nos permite obtener la probabilidad Pa (b, c) de que el sistema comenzando en |ua i, pase a través de
un estado intermedio dado |wb i y termine en el estado |vc i.
La idea ahora es relacionar a Pa (c) con Pa (b, c). Resulta tentador pensar que en el primer experimento el
sistema es “libre de pasar” a través de todos los estados intermedios |wb i, pareciera entonces que la probabilidad
global Pa (c) es la suma de todas las probabilidades Pa (b, c) asociadas con cada uno de los posibles “caminos”,
esto conducirı́a a X
?
Pa (c) = Pa (b, c) (5.88)
b
veremos que este resultado es incorrecto a la luz de los postulados de la mecánica cuántica. La manera más simple
para relacionar Pa (c) con Pa (b, c) consiste en tomar la fórmula de probabilidad Pa (c) Ec. (5.86) y aplicarle la
relación de completez para la base {|wb i}
2
X
Pa (c) = |hvc |ua i|2 = hvc |wb i hwb |ua i (5.89)
b
" #" #∗
X X
Pa (c) = hvc |wb i hwb |ua i hvc |wb′ i hwb′ |ua i
b b′
XX
Pa (c) = hvc |wb i hwb |ua i hvc |wb′ i∗ hwb′ |ua i∗
b b′
comparando (5.90) con (5.88) vemos nuevamente que los términos cruzados que aparecen en el cuadrado del
módulo de la suma en (5.89) están ausentes en (5.88), y por tanto todos los efectos de interferencia entre los
diferentes posibles caminos.
Los argumentos anteriores nos muestran que es necesario razonar en términos de amplitudes de probabilidad
para aplicar adecuadamente el principio de superposición. Cuando los estados intermedios del sistema no están
determinados experimentalmente son las amplitudes de probabilidad y no las probabilidades las que se deben
sumar.
Para comprender mejor el error en el razonamiento que nos llevó a la Ec. (5.88), recurrimos al quinto pos-
tulado de reducción del paquete de onda. En el segundo experimento, la medida del observable B involucra una
perturbación del sistema bajo estudio y durante la medida su ket de estado experimenta un cambio abrupto que
se manifiesta como la proyección sobre uno de los estados |wb i, esta perturbación inevitable y fundamental es la
responsable de la desaparición de los efectos de interferencia. En el primer experimento no podemos decir que el
sistema fı́sico “pasa” a través de uno u otro de los estados |wb i, es más acertado decir que el sistema pasa a través
de todos los estados |wb i en forma ponderada. Esto se puede ver teniendo en cuenta que el estado antes de la
medida de B del segundo experimento es |ua i y este también es el estado del sistema en el primer experimento
antes de la medida de C, en el primer experimento el estado antes de la medida de C es
X
|ua i = cb |wb i
b
vemos entonces que cuando no se realiza la medida de B el sistema “está en todos los estados posibles |wb i”
aunque en forma ponderada por los coeficientes cb .
De otra parte si las medidas sucesivas no se hacen en tiempos cortos, es posible realizar razonamientos similares
teniendo en cuenta la evolución del sistema con la ecuación de Schrödinger, y en todo caso la diferencia fundamental
entre superposiciones lineales de estados y mezcla estadı́stica de estados continúa existiendo (ver sección 7.1.2 Pág.
262).
Nótese que estos razonamientos son muy similares a los que se describieron en la sección 2.8 sobre el experimento
de Young de la doble rendija. En él, la densidad de probabilidad de que un fotón emitido por la fuente llegue a
un punto dado M en la pantalla se obtiene primero superponiendo linealmente los campos eléctricos radiados por
cada rendija para luego elevar al cuadrado y obtener la intensidad en M (y por tanto la densidad de probabilidad
deseada). El campo eléctrico hace las veces de la amplitud de probabilidad y la intensidad hace las veces de la
densidad de probabilidad como tal. Cuando no intentamos determinar por cual rendija pasa el fotón (es decir
no determinamos experimentalmente el “estado intermedio”), son los campos eléctricos radiados por cada rendija
los que se deben superponer linealmente y no sus intensidades, con el fin de obtener la intensidad (densidad
de probabilidad) resultante. Podemos decir entonces que el campo radiado por una rendija sobre el punto M
representa la amplitud para un fotón emitido desde la fuente (estado inicial) de pasar a través de tal rendija
(estado intermedio) antes de arrivar al punto M sobre la pantalla (estado final), pero sin la medición del estado
intermedio se considera que el fotón pasa por ambas rendijas (todos los estados intermedios accesibles).
De lo anterior podemos obtener las siguientes conclusiones
(a) Las predicciones probabilı́sticas de la teorı́a cuántica se obtienen siempre elevando al cuadrado el módulo
de una amplitud de probabilidad
(b) Cuando en un experimento particular no se mide un estado intermedio, no se debe razonar en términos de
las probabilidades de los diversos resultados accesibles que se hubieran obtenido en tales medidas. Se debe razonar
en términos de las amplitudes de probabilidad. Esto tiene que ver con que las medidas destruyen la interferencia,
dado que se obtienen valores bien definidos de un observable y un estado intermedio dado. En contraste cuando
una medida no se efectúa, el sistema está simultáneamente en todos los estados intermedios posibles y es esta
simultaneidad la que permite la interferencia.
(c) El hecho de que los estados de un sistema fı́sico se pueden superponer linealmente significa que las am-
plitudes de probabilidad con frecuencia tienen la forma de una suma de amplitudes parciales. La correspondiente
5.10. PRINCIPIO DE SUPERPOSICIÓN CON VARIOS ESTADOS ASOCIADOS A UNA MEDIDA 237
probabilidad es entonces igual al módulo al cuadrado de esta suma de términos con lo cual las amplitudes parciales
interfieren entre sı́.
gn
X
i 2
P (an ) = u ψi (5.91)
n
i=1
para calcular esta probabilidad escogemos una base ortonormal uin del autosubespacio En y calculamos los
2
pesos uin ψi asociados a cada uno de los estados de esta base, la probabilidad P (an ) será entonces la suma
2
de estos gn pesos. Debemos tener en cuenta que cada probabilidad uin ψi puede ser el cuadrado del módulo
de una suma de amplitudes que nos generará interferencias. Por ejemplo si el estado inicial normalizado es de la
forma
|ψi = c1 |ψ1 i + c2 |ψ2 i
donde hemos tenido en cuenta que las autovalores an pueden ser degenerados. Nótese que E∆ está compuesto
por todos los estados accesibles del sistema después de que la medida de A ha dado el valor “si”. En términos
más matemáticos, podemos decir que la respuesta del dispositivo es definitivamente “si” cuando el estado inicial
pertenece a E∆ , es decir para cualquier estado propio de P∆ con valor propio +1. Adicionalmente, la respuesta es
definitivamente “no” cuando el estado inicial pertenece al complemento ortogonal de E∆ es decir cuando el estado
es autoestado de P∆ con valor propio 0. Si denotamos Ee∆ al complemento ortogonal de E∆ podemos escribir
E ]
= E∆ ⊕ Ee∆ ; |ψi = |ψ∆ i ⊕ |ψ ] e
∆ i ; |ψi ∈ E ; |ψ∆ i ∈ E∆ ; |ψ∆ i ∈ E∆ (5.94)
]
P∆ |ψi = |ψ∆ i ; P∆ |ψ∆ i = (+1) |ψ∆ i ; P∆ |ψ ]
∆ i = (0) |ψ∆ i (5.95)
donde |ψi es un estado arbitrario. Vemos entonces que las respuestas “si” y “no” que nos da nuestro dispositivo
equivalen a los autovalores +1 y 0 respectivamente del observable P∆ . Podemos decir entonces que el dispositivo
está realmente midiendo los valores propios de P∆ en lugar de los de A.
Con tal interpretación podemos calcular las distribuciones de probabilidad P (si) y P (no) aplicando los pos-
tulados al observable P∆ que es el que realmente se está midiendo. La probabilidad P (si) es la probabilidad de
obtener el valor propio +1 para el observable P∆ . Si el estado inicial normalizado es |ψi tal probabilidad se puede
escribir aplicando el cuarto postulado (pag. 196) y la Ec. (4.4)
X
P (si) = P (+1) = |hvm | ψi|2 ; P (no) = 1 − P (si)
m
donde {|vm i} es una base ortonormal asociada al subespacio E(+1) generado por el valor propio +1 de P∆ . De
es claro que E(+1) es justamente E∆ ; por tanto una base ortonormal {|vm i} posible es precisamente la base
(5.95)
uin con an ∈ ∆, que se construyó para E∆ . Por tanto, las probabilidades quedan en la forma
gn
X X
i 2
P (si) = P (+1) = un ψi ; P (no) = 1 − P (si) (5.96)
an ∈∆ i=1
otra forma es usar las Ecs. (4.8, 5.94) donde en este caso el proyector sobre el autoespacio E(+1) = E∆ del observable
P∆ es justamente P∆
P (si) = hψ| P∆ |ψi = hψ∆ |ψ∆ i (5.97)
gn
" gn
#
X X i
i X X i
i
|ψ∆ i = P∆ |ψi = un un ψi ; hψ| P∆ |ψi = hψ| un un ψi (5.98)
an ∈∆ i=1 an ∈∆ i=1
gn
X X gn
X X
i 2
hψ| P∆ |ψi = hψ uin uin ψi = un ψi (5.99)
an ∈∆ i=1 an ∈∆ i=1
Similarmente, puesto que el dispositivo no perturba los estados que pertenecen a E∆ y bloquea aquellos que
pertenecen a Ee∆ , vemos que el estado del sistema después de la medición cuando ha dado un resultado “si”, es
240 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
decir cuando el autovalor obtenido para P∆ es +1 está dado por |ψ∆ i pero normalizado, de las Ecs. (5.98, 5.99)
se tiene
′ |ψ∆ i P∆ |ψi
ψ = = (5.100)
si hψ∆ |ψ∆ i hψ| P∆ |ψi
P Pgn i
i
′ an ∈∆ i=1 un un ψi
ψ = qP (5.101)
si Pg m k 2
am ∈∆ k=1 |hum | ψi|
similarmente, la probabilidad de obtener el resultado “no” y el estado del sistema luego de que una medida nos
arroje este resultado es
E
f
P (no) = P (0) = hψf ∆ ψ∆ = 1 − P (si)
E
f P Pgn i
i
′ ψ∆ f
ψ P∆ |ψi (I − P∆ ) |ψi an ∈∆
/ i=1 un un ψi
= E= = = qP
no hψ| Pf hψ| (I − P∆ ) |ψi P
hψf ψf
∆ ∆ ∆ |ψi gm
am ∈∆
/ |huk | ψi|
k=1 m
2
es decir es una suma de cuadrados (suma de densidades de probabilidad). No obstante, la intensidad en un punto
de la pantalla x ∈ [x1 , x2 ] es el cuadrado del campo eléctrico E (x) el cual es la superposición lineal de los campos
eléctricos EA (x) y EB (x) radiados por las dos rendijas A y B sobre el punto x en la pantalla. I (x) es entonces
|EA (x) + EB (x)|2 es decir el cuadrado de una suma. EA (x) y EB (x) son las amplitudes asociadas a los dos
caminos posibles (paso por cada rendija) que terminan en el mismo punto x. Estas amplitudes se adicionan para
obtener la amplitud en x ya que no estamos tratando de determinar por cual rendija pasa el fotón. Luego, para
calcular la intensidad total se suman estos módulos al cuadrado (suma de intensidades), es decir se suman las
intensidades sobre los diferentes puntos x, para obtener la intensidad total en el intervalo [x1 , x2 ] (equivalente a
suma de probabilidades para obtener probabilidad total).
La anterior discusión nos muestra que la suma de amplitudes se realiza cuando partiendo desde un estado
inicial dado llegamos por diferentes caminos al mismo estado final (en este caso un punto fijo x en la pantalla).
Tendremos tantas amplitudes como caminos intermedios considerados. Una vez calculado el módulo al cuadrado
5.12. MEDICIÓN INSUFICIENTE DE ESPECTROS CONTÍNUOS 241
de la suma de estas amplitudes se suman estos cuadrados sobre estados finales diferentes (en este ejemplo
corresponde a sumar las intensidades sobre los diferentes puntos x del intervalo).
Resumimos el algoritmo en la siguiente forma: Se suman las amplitudes correspondientes al mismo estado final,
luego se suman las probabilidades correspondientes a estados finales ortogonales.
El hecho de que se sume sobre estados ortogonales tiene que ver con que usualmente los diferentes estados
que se usan para construı́r una base son todos ortogonales entre sı́. En general, debemos decir que se suma sobre
estados linealmente independientes.
vemos que la Ec. (5.97) conduce al mismo resultado ya que P∆ viene dado en este caso por
Z x2 Z ∞ Z ∞
P∆ = dx dy dz |x, y, zi hx, y, z|
x1 −∞ −∞
de modo que
Z x2 Z ∞ Z ∞
P (x1 ≤ x ≤ x2 ) = hψ| P∆ |ψi = hψ| dx dy dz |x, y, zi hx, y, z| |ψi
x1 −∞ −∞
Z x2 Z ∞ Z ∞
P (x1 ≤ x ≤ x2 ) = dx dy dz hψ |x, y, zi hx, y, z| ψi (5.103)
Zx1x2 Z−∞
∞ Z −∞
∞
P (x1 ≤ x ≤ x2 ) = dx dy dz |ψ (r)|2 (5.104)
x1 −∞ −∞
ahora debemos encontrar el estado |ψ ′ i después de que la medición arroje un valor “si”, es decir cuando la posición
de la partı́cula esté dentro de ∆ después de la medición. Para ello aplicamos la Ec. (5.100)
Z x2 Z ∞ Z ∞
′ P∆ |ψi 1
ψ = = dx ′
dy ′
dz ′ x′ , y ′ , z ′ x′ , y ′ , z ′ ψi
hψ| P∆ |ψi hψ| P∆ |ψi x1 −∞ −∞
Z Z Z
′ 1 x2 ′ ∞ ′ ∞ ′ ′
ψ = dx dy dz r ψ r′ ; N ≡ hψ| P∆ |ψi
N x1 −∞ −∞
donde el factor de normalización N ≡ hψ| P∆ |ψi = P (x1 ≤ x ≤ x2 ), está dado por la Ec. (5.104). Es inmediato
242 CAPÍTULO 5. CONSECUENCIAS FENOMENOLÓGICAS DE LOS POSTULADOS
el proceso de reducción aparece con claridad en la Ec. (5.105), si la generalizamos a cualquier observable A de
espectro contı́nuo {α} con función de onda hνα |ψi que representa a |ψi en la base {|να i}. Según la Ec. (5.105)
adecuadamente generalizada, el sistema queda preparado en un estado cuya función de onda es cero fuera del
intervalo de selección y dentro de dicho intervalo conserva la forma de la función de onda original (excepto por
un factor de normalización). Sin importar que tan pequeño sea ∆α nunca obtenemos el autoestado |να0 i después
de la medida, el cual en la base {|να i} estarı́a representado por hνα |να0 i = δ (α − α0 ). Pues la función de onda
truncada siempre tiene un ancho finito ∆α. Finalmente, es claro que el factor de normalización debe ser mayor
que la unidad.
Capı́tulo 6
Hemos estudiado hasta el momento la aplicación de los postulados cuando el estado del sistema se conoce
perfectamente. Veremos dos casos en los cuales manejamos información parcial del sistema (a) cuando el sistema
está compuesto de dos o más subsistemas, y solo realizamos medidas de un subsistema especı́fico. (b) cuando
desconocemos las condiciones iniciales detalladas y solo poseemos información en forma de probabilidad, como
ocurre en la mecánica estadı́stica. Estudiaremos primero el caso (a).
E ≡ E (1) ⊗ E (2)
por ejemplo un sistema de dos electrones (sin espı́n), está descrito por una función de onda de la forma
Estudiaremos el caso en el cual se mide un observable asociado a solo uno de los subsistemas. Asumiremos de
aquı́ en adelante que las medidas se realizarán sobre el subsistema (1) ya que el análisis del caso en que se hace
una medida sobre el subsistema (2) es totalmente análogo. El observable A e (1) asociado a una medida sobre el
subsistema (1) es la extensión tensorial del observable A (1) (ver Ec. 1.128)
e (1) ≡ A (1) ⊗ I (2)
A (6.1)
ya vimos en la sección 1.32.3 que el espectro de Ae (1) en E (1) ⊗ E (2) es idéntico al espectro de A (1) en E (1).
Vimos adicionalmente que la degeneración de cada valor propio en E (1) ⊗ E (2) es el producto de su degeneración
en E (1) por la dimensión de E (2). Esto implica que (si E (2) es de dos o más dimensiones) todo valor propio de
Ae (1) es degenerado. En consecuencia, cuando se realiza una medida sobre el subsistema (1), el estado del sistema
global después de la medida dependerá tanto del resultado de la medida como del estado justo antes de ésta.
Fı́sicamente, esto se debe a que el resultado no da ninguna información sobre el subsistema (2), y por tanto el
observable asociado no constituye un C.S.C.O.
244
6.1. APLICACIÓN DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 245
e (1). Para
Vamos a calcular la probabilidad de obtener un valor propio dado an en una medida del observable A
ello apelamos a la Ec. (4.8) pág 197
P (1) (an ) = hψ| Pen (1) |ψi (6.2)
siendo |ψi el estado (normalizado) en el que se encuentra el sistema global antes de la medición. El proyector
extendido Pen (1) se escribe en términos del proyector Pn (1) en E (1) en la forma
gn
X i
Pen (1) ≡ Pn (1) ⊗ I (2) ; Pn (1) = un (1) uin (1) (6.3)
i=1
siendo uin (1) una base ortonormal en E (1) y gn la degeneración de an en E (1). Pen (1) es entonces el proyector
(1)
en E (1) ⊗ E (2) sobre el autosubespacio generado por an en E (1) ⊗ E (2), el cual es claramente Ean ⊗ E (2).
Adicionalmente podemos expresar la identidad de (2) usando una base ortonormal {|vk (2)i} de E (2) con lo cual
Pen (1) queda
" gn # " #
X
i X
Pen (1) ≡ Pn (1) ⊗ I (2) = un (1) un (1) ⊗
i
|vk (2)i hvk (2)|
i=1 k
gn X
X i
= u (1) ⊗ |vk (2)i ui (1) ⊗ hvk (2)|
n n
i=1 k
gn X
X i
e
Pn (1) = un (1) vk (2) uin (1) vk (2) (6.4)
i=1 k
adicionalmente, el estado |ψ ′ i justo después de la medición se puede calcular empleando la Ec. (4.10) pág. 200, y
teniendo en cuenta las Ecs. (6.5, 6.4)
Pgn P i
i
ψi
′ en (1) |ψi
P un (1) vk (2) un (1) vk (2)
ψ = q = i=1
qP k
(6.6)
gn P 2
hψ| Pen (1) |ψi m=1
m
p |hun (1) vp (2)| ψi|
Nótese que las Ecs. (6.2, 6.3, 6.6), nos dicen que la base ortonormal {|vk (2)i} en E (2) se puede elegir arbitraria-
mente, en el sentido de que ninguna base ortonormal especı́fica de E (2) presenta ventajas operativas especiales,
cuando se miden solo observables del subsistema (1). Esto es de esperarse, ya que al no realizarse ninguna medida
en el sistema (2), ningún conjunto de estados en E (2) es preferencial.
′ ′
ψ = ϕ (1) ⊗ |χ (2)i ; ϕ′ (1) ≡ p Pn (1) |ϕ (1)i
hϕ (1)| Pn (1) |ϕ (1)i
vemos que el estado posterior a la medición también es un producto tensorial tal que el estado del subsistema (1)
ha cambiado pero no el estado asociado al subsistema (2). La probabilidad P (an ) queda en la forma
P (1) (an ) = hψ| Pen (1) |ψi = hϕ (1) χ (2)| [Pn (1) ⊗ I (2)] |ϕ (1) χ (2)i
= hϕ (1)| Pn (1) |ϕ (1)i hχ (2)| I (2) |χ (2)i
(1)
P (an ) = hϕ (1)| Pn (1) |ϕ (1)i
de lo cual se vé que P (1) (an ) no depende de |χ (2)i solo del estado |ϕ (1)i del subsistema (1). Por tanto, cuando el
estado del sistema está descrito por un producto tensorial como en la Ec. (6.7), las predicciones fı́sicas asociadas
a solo uno de los dos subsistemas, no dependen del estado del otro subsistema y se obtienen únicamente a partir
del estado del subsistema sobre el que se mide.
En consecuencia, un estado producto |ϕ (1)i⊗|χ (2)i describe una simple yuxtaposición de los subsistemas (1) y
(2) cada uno de ellos en los estados |ϕ (1)i y |χ (2)i respectivamente. En tal estado, se dice que los dos subsistemas
NO están correlacionados, esto implica que la medición de observables que pertenecen a uno u otro subsistema
corresponden a variable aleatorias independientes. Esto ocurre cuando los subsistemas han sido preparados en los
estados |ϕ (1)i y |χ (2)i para luego unirlos sin interacción.
Example 6.1 Sea H1 el Hamiltoniano que describe al sistema (1) y H2 el Hamiltoniano que describe al sistema
(2). Si la ecuación de Schrödinger independiente y dependiente del tiempo vienen dadas por
d
H1 |ϕ1 i = E1 |ϕ1 i ; i~ |ψ1 i = H1 |ψ1 i
dt
d
H2 |ϕ2 i = E2 |ϕ2 i ; i~ |ψ2 i = H2 |ψ2 i
dt
y si el hamiltoniano del sistema (1) + (2) está dado por H = H1 + H2 , es fácil verificar que
d
H |ϕi = E |ϕi ; i~ |ψi = H |ψi
dt
H = H1 + H2 ; E = E1 + E2 ; |ϕi = |ϕ1 i ⊗ |ϕ2 i ; |ψi = |ψ1 i ⊗ |ψ2 i
dado que en el sistema completo H1 y H2 son operadores sobre E = E (1) ⊗ E (2) entonces cada Hi se refiere a
su extensión sobre E. Efectivamente, esta es la forma del Hamiltoniano cuando simplemente se agregan los dos
sistemas sin interacción entre ellos, en cuyo caso la energı́a total es simplemente la suma de las energı́as asociadas
a cada subsistema.
6.1. APLICACIÓN DE LOS POSTULADOS AL MEDIR SOBRE UN SUBSISTEMA 247
donde hay por lo menos dos sumandos diferentes de cero. Veamos las predicciones sobre la medición de un
observable A e (1) asociado solo al subsistema (1). En tal caso, es fácil probar que las predicciones fı́sicas no se
pueden escribir solo en términos de un estado del subsistema (1). Esto se puede ver aplicando las fórmulas (6.5,
6.6) en el contexto más general. Esta situación corresponde entonces a la existencia de correlaciones entre los dos
subsistemas, los resultados de medidas sobre cada subsistema corresponden a variables aleatorias dependientes y
que pueden ser correlacionadas. Puede demostrarse por ejemplo que si dos subsistemas descritos por un producto
tensorial se “conectan” entre sı́ por medio de una interacción, el nuevo estado ya no será un producto tensorial.
Esto se puede ilustrar re-examinando el ejemplo 6.1, en el caso en el cual el Hamiltoniano del sistema se escriba
como
H = H1 + H2 + Hint
donde Hint es un Hamiltoniano que modela la interacción entre los dos subsistemas. En este caso las soluciones
de la ecuación de Schrödinger dependiente e independiente del tiempo para el sistema completo, ya no son los
productos tensoriales de las soluciones para cada subsistema.
Estudiemos primero el caso más sencillo, asumiendo que el valor propio an obtenido en la medida, es no
degenerado en el subsistema (1). En tal caso desaparece la sumatoria sobre i en la Ec. (6.3) y en todas las demás
ecuaciones. El estado después de la medida se obtiene de (6.6) suprimiendo la suma sobre i
P P
′ k |u (1) v (2)i hun (1) vk (2)| ψi |un (1)i ⊗ k |vk (2)i hun (1) vk (2)| ψi
ψ = qnP k = qP
2 2
p |hun (1) vp (2)| ψi| p |hun (1) vp (2)| ψi|
P
′ ′ ′ k |vk (2)i hun (1) vk (2)| ψi
ψ
= |un (1)i ⊗ χ (2) ; χ (2) = q (6.8)
P 2
p |hun (1) vp (2)| ψi|
en conclusión, sin importar el estado |ψi previo a la medición del subsistema (1), el estado global posterior a
la medición de un observable que no es degenerado en el subsistema (1), es siempre un producto tensorial. Este
resultado se puede extender al caso en que se realiza un conjunto de mediciones asociadas a un C.S.C.O. de E (1),
es decir cuando la medición es completa con respecto a un subsistema (estas mediciones son naturalmente parciales
con respecto al sistema global).
Cuando el estado del sistema global no es un producto tensorial del tipo |ϕ (1)i ⊗ |χ (2)i, no podemos asociar
un ket |ϕ (1)i , |χ (2)i a cada subsistema (1) y (2) 1 . Surge entonces la pregunta de como caracterizar cada
sistema parcial en un sistema correlacionado. Esta pregunta es de gran interés si tenemos en cuenta que en general
todo sistema fı́sico ha interactuado en el pasado con otros sistemas incluso si está aislado en el momento en que
estudiamos tal sistema. Esto implica que el sistema total (sistema bajo estudio más el sistema con el que interactuó
en el pasado) no es en general un estado producto y no es posible asociar un vector de estado |ϕ (1)i con el sistema
bajo estudio. Este problema se resuelve asociando al subsistema (1) (sistema bajo estudio) un operador (operador
densidad) en lugar de un vector, volveremos sobre este punto en la sección 6.2.
Por el momento, tomaremos un caso en el cual se puede asociar un vector de estado para el sistema (1). Esto
ocurre cuando se realiza un conjunto completo de medidas del subsistema (1). Hemos visto que en tal situación,
para cualquier estado del sistema global (1) + (2) antes de la medida, un conjunto completo de medidas en E (1)
1
Por ejemplo, la energı́a de un sistema compuesto no es en general la suma de las energı́as individuales ya que la interacción aporta
a dicha energı́a, además no hay una manera no ambigüa de “repartir” la energı́a total del sistema asignándole una porción a cada
sistema.
248 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL
coloca al sistema global en un estado que es producto tensorial como se vé en la Ec. (6.8). El vector asociado
con (1) es el que se obtiene de manera única (salvo por un factor multiplicativo), por medio de los valores del
conjunto completo de medidas sobre (1). En consecuencia, el conjunto completo de medidas sobre (1) borra todas
las correlaciones que surgen de interacciones previas entre los dos sistemas. En particular, si en el momento de la
medida el sistema (2) está muy lejos y ya no interactúa con el sistema (1), el sistema (2) puede ser totalmente
omitido para efectos de estudiar al sistema (1).
Hemos visto que cuando el estado |ψi es un producto tensorial, el vector de estado asociado al subsistema
(2), no depende de medidas hechas sobre el sistema (1). Ahora bien, cuando el estado del sistema global es |ψi
antes de las medidas, y realizamos un conjunto completo de medidas sobre (1), la Ec. (6.8) nos muestra el estado
|ψ ′ i en el cual queda preparado el sistema global. Dicha ecuación nos muestra que cuando |ψi no es un producto
tensorial, el vector de estado |χ′ (2)i asociado al sistema (2) posterior a las medidas, depende del resultado del
conjunto completo de medidas en (1). Esto es a priori sorprendente ya que el estado del sistema (2) después de
ejecutar un conjunto completo de medidas en (1), dependerá del resultado de dichas medidas incluso si el sistema
(2) está muy lejos del sistema (1) en el momento de realizar las medidas. En otras palabras un conjunto completo
de medidas sobre (1) influirı́a sobre el sistema (2) incluso cuando éstos no interactúan. Esta paradoja ha sido
ampliamente estudiada por cientı́ficos como Einstein, Podolsky, Rosen y Bell.
decimos entonces que el sistema está en una mezcla estadı́stica de estados accesibles {|ψn i} con probabilidades {pn }.
Queremos ahora hacer predicciones sobre los resultados cuando se realiza un conjunto de medidas sobre el sistema.
Si el sistema estuviera en un estado |ψk i podrı́amos aplicar los postulados para realizar las correspondientes
predicciones. Sin embargo, dado que no tenemos certeza sobre el estado inicial sino solo una probabilidad pk de
6.2. OPERADOR DENSIDAD 249
que se encuentre en ese estado, los resultados obtenidos deben ser ponderados por el factor pk y luego sumados
sobre todos los estados accesibles en la mezcla estadı́stica.
Los estados accesibles {|ψk i} se pueden normalizar y de hecho asumiremos de aquı́ en adelante que están
normalizados. Sin embargo, estos estados no son necesariamente ortogonales.
Por otra parte será necesario distinguir en nuestro estudio dos tipos diferentes de probabilidad: (a) Probabilidad
de obtener un estado |ψk i en el tiempo inicial. En otras palabras, probabilidad de encontrar al sistema en t0 en
unas condiciones iniciales dadas. Este tipo de probabilidad se utiliza también en mecánica estadı́stica clásica y es
inherente a la información incompleta sobre las condiciones iniciales. (b) Probabilidad de obtener ciertos resultados
cuando se realizan medidas en el sistema, esta probabilidad es eminentemente cuántica y proviene de los postulados
de la mecánica cuántica, además no desaparece incluso si determinamos perfectamente las condiciones iniciales
(estado {|ψk i}) del sistema.
Adicionalmente, es necesario diferenciar entre una mezcla estadı́stica y una superposición lineal de estados
(ver secciones 5.9.1, 5.9.3). Para una superposición lineal de estados
X
|ψi = ck |ψk i (6.9)
k
es frecuente decir que cuando el vector de estado es |ψi, el sistema tiene probabilidad |ck |2 de estar en el estado
|ψk i. Esto en realidad significa que cuando se realiza un conjunto de medidas que corresponden a un C.S.C.O. y
que tienen a |ψk i como autovector, la probabilidad de encontrar el conjunto de autovalores asociados con |ψk i es
|ck |2 . Vimos en la sección 5.9.3 que un estado |ψi dado por la Ec. (6.9) no equivale simplemente a un sistema que
tiene la probabilidad |ck |2 de estar en el estado |ψk i para cada estado accesible. Esto se debe a que una combinación
lineal del conjunto {|ψk i} genera interferencias entre los estados accesibles debidas a términos cruzados de la forma
ck c∗p que surgen cuando los módulos de la amplitud de probabilidad se suman y luego se elevan al cuadrado. En
una mezcla estadı́stica el sistema está en un estado especı́fico |ψm i de los estados accesibles {|ψk i}, aunque no
sepamos en cual de ellos está (esta falta de información se parametriza con la distribución de probabilidad). En
contraste, en una superposición lineal de los estados {|ψk i}, el sistema está simultáneamente en todos los estados
aunque ponderados por los coeficientes ck .
Lo anterior implica que no podemos en general describir una mezcla estadı́stica a través de un “vector de estado
promedio” que sea una superposición de los estados {|ψk i}. Como ya mencionamos, cuando tomamos una suma
ponderada de probabilidades no se obtienen términos de interferencia entre los estados accesibles de la mezcla
estadı́stica.
Ya hemos sugerido una estrategia para estudiar los estados que son una mezcla estadı́stica que es calcular
las predicciones fı́sicas asociadas a cada estado |ψk i ponderando cada estado con su probabilidad para entonces
sumar sobre los estados accesibles. Aunque este método es correcto resulta engorroso en muchos casos. Por otro
lado ante la imposibilidad de describir los estados mezclados por medio de un “vector promedio”, recurriremos
a utilizar un “operador promedio” que denominaremos operador densidad. Comenzaremos el tratamiento con el
caso más sencillo en el cual el estado del sistema es completamente conocido
si A es un observable, sus elementos de matriz en la base {|un i} y su valor esperado cuando el sistema está en el
estado |ψ (t)i están dados por
d
i~ |ψ (t)i = H (t) |ψ (t)i (6.14)
dt
siendo H (t) el Hamiltoniano del sistema. Nótese que el valor esperado de A depende cuadráticamente de los
coeficientes de Fourier como se aprecia en la Ec. (6.13). El producto de coeficientes c∗n (t) cp (t) que aparece en
dicha ecuación se puede escribir en la forma
c∗n (t) cp (t) = hup |ψ (t)i hψ (t)| un i = hup | [|ψ (t)i hψ (t)|] |un i
de modo que este producto es claramente un elemento de la representación matricial del proyector |ψ (t)i hψ (t)|
en la base {|uk i}. Es natural entonces definir un operador ρ (t) en la forma
mostraremos a continuación que el operador densidad ρ (t), posee la misma información fı́sica que el vector de
estado |ψ (t)i. Para verlo reescribiremos las fórmulas (6.10, 6.13, 6.14) en términos de ρ (t). Sustituyendo (6.16)
en (6.10) tenemos X X X
|cn |2 = c∗n cn = 1 ⇒ ρnn = 1
n n n
de modo que en virtud de la normalización del estado |ψ (t)i en (6.15), la traza del operador densidad es igual a
la unidad
T rρ (t) = 1 (6.17)
teniendo en cuenta las relaciones (6.11, 6.16), la Ec. (6.13) queda
X X X
hAi (t) = c∗n (t) cp (t) Anp = hup | ρ (t) |un i hun | A |up i = hup | ρ (t) A |up i
n,p n,p p
hAi (t) = T r {ρ (t) A} (6.18)
veamos ahora como se escribe la probabilidad P (an ) de obtener el valor an cuando se mide el observable A, en
términos del operador densidad. La Ec. (4.8) nos muestra que P (an ) es el valor esperado del proyector Pn sobre
el autoespacio generado por an
P (an ) = hψ (t)| Pn |ψ (t)i = hPn i (6.19)
y usando (6.18) en (6.19) se obtiene
P (an ) = hPn i = T r {Pn ρ (t)} (6.20)
otras propiedades del operador densidad se siguen directamente de su definición Ec. (6.15)
ρ† (t) = ρ (t) ; ρ2 (t) = ρ (t) ; T rρ2 (t) = 1
En resumen, hemos encontrado las siguientes expresiones para el operador densidad y su relación con los
observables fı́sicos
la segunda de las Ecs. (6.21) nos expresa la conservación de la probabilidad en el lenguaje del operador densidad.
Veremos que estas ecuaciones serán también válidas en el caso de estados mezclados, excepto las Ecs. (6.24), las
cuales provienen del hecho de que para estados puros, el operador densidad es un proyector.
Para el caso de estados puros, el formalismo de operador densidad es totalmente equivalente al de vectores
de estado. No obstante, el formalismo de operador densidad posee algunas ventajas incluso para estudiar estados
puros. Por ejemplo, los estados fı́sicamente equivalentes |ψ (t)i y eiθ |ψ (t)i están asociados a un solo operador
densidad ρ (t) = |ψ (t)i hψ (t)| de modo que el operador densidad remueve la arbitrariedad introducida por la
fase en el vector de estado. Por otra parte, las Ecs. (6.21, 6.22, 6.23) muestran que las fórmulas básicas para los
observables son lineales con respecto al operador densidad ρ (t). En contraste, las Ecs. (6.12, 6.19) son cuadráticas
en el vector de estado |ψ (t)i. Veremos que la linealidad simplificará el tratamiento considerablemente.
veamos como calcular la probabilidad P (an ) de que al medir el observable A se obtenga el valor an . Comenzaremos
por evaluar la probabilidad Pk (an ) de obtener el valor an del observable A, cuando el sistema se encuentra en el
estado |ψk i, puesto que tal probabilidad sale directamente de los postulados
Pk (an ) es una probabilidad asociada a un estado puro (con vector de estado |ψk i) de modo que podemos evaluarla
aplicando la Ec. (6.20)
Pk (an ) = T r {ρk Pn } (6.27)
siendo ρk = |ψk i hψk | el operador densidad asociado al vector de estado |ψk i. Para obtener P (an ) en términos de
los operadores densidad ρk sustituı́mos (6.27) en (6.26)
( )
X X
P (an ) = pk T r {ρk Pn } = T r pk ρk Pn (6.28)
k k
donde hemos usado las Ecs. (6.29, 6.17, 6.25). La expresión para la probabilidad Ec. (6.30) coincide con la expresión
para estados puros, con la extensión apropiada del operador densidad Ec. (6.29). Veamos lo que ocurre con el
valor esperado de un observable
(" # )
X X X
hAi = pk hAk i = pk T r {ρk A} = T r pk ρk A
k k k
hAi = T r {ρA}
esto también se puede ver usando la Ec. (6.30) en la forma
( )
X X X
hAi = an P (an ) = an T r {ρPn } = T r ρ an Pn = T r {ρA}
n n n
donde hemos usado el teorema espectral Ec. (1.98), Pág. 52. Calculemos ahora la evolución temporal del operador
densidad para estados mezclados. Para ello asumiremos que a diferencia del estado del sistema, su Hamiltoniano
está bien definido. En otras palabras, el sistema como tal está perfectamente definido aunque no lo esté su estado.
Puede verse fácilmente que si en el tiempo t0 el sistema tiene una probabilidad pk de estar en el estado |ψk i
entonces en un tiempo posterior t, tiene la misma probabilidad de estar en el estado |ψk (t)i 3 . Si el sistema está
3
Esto se puede ver teniendo en cuenta que la probabilidad de que en el tiempo t el sistema esté en el estado |ψk (t)i es la composición
de dos probabilidades: (i) La probabilidad pk de que en t0 el sistema esté en el estado |ψk (t0 )i y (ii) la probabilidad pt de que estando
el sistema en el estado |ψk (t0 )i en t0 , quede en el estado |ψk (t)i en el tiempo posterior t. La probabilidad total es el producto de las
dos probabilidades. Sin embargo, la probabilidad del segundo evento es pt = 1 debido a la naturaleza determinista de la ecuación de
Schrödinger. Nótese que para que el segundo evento sea determinista, es necesario que el Hamiltoniano del sistema esté bien definido
(y por tanto la Ec. de Schrödinger), aunque el estado inicial no esté bien definido.
6.2. OPERADOR DENSIDAD 253
en el estado |ψk i (puro) en t0 , la evolución temporal está dada por la ecuación de Schrödinger
d
i~ |ψk (t)i = H (t) |ψk (t)i ; |ψk (t0 )i = |ψk i
dt
el operador densidad en el tiempo t está dado por
X
ρ (t) = pk ρk (t) (6.31)
k
donde hemos usado el hecho ya mencionado de que pk no evoluciona en el tiempo. Usando (6.22, 6.31) encontramos
que
" #
dρ (t) X dρk (t) X 1 1 X 1
= pk = pk [H (t) , ρk (t)] = H (t) , pk ρk (t) = [H (t) , ρ]
dt dt i~ i~ i~
k k k
dρ (t)
i~ = [H (t) , ρ]
dt
nótese que hemos usado la linealidad de las Ecs. (6.22, 6.31) con respecto a ρk (t) para obtener la evolución
temporal de ρ. Vemos entonces que la ecuación de evolución temporal es totalmente análoga a la obtenida para
estados puros Ec. (6.22).
Nótese sin embargo, que ρ definido por (6.31) no es un proyector (a menos que pk = δkm , en cuyo caso tenemos
un estado puro). Se puede verificar que cuando el estado es mezclado i.e. pk 6= δkm tenemos que
y que verificando una sola de las ecuaciones (6.24) nos dice que el sistema está en un estado puro. En conclusión,
utilizando la definición (6.31) del operador densidad ρ para estados mezclados, se obtienen las Ecs. (6.21-6.23),
pero las Ecs. (6.24) para estados puros son reemplazadas por las Ecs. (6.32) para estados mezclados.
Demostraremos adicionalmente que ρ es un operador positivo, en primer lugar es claro que ρ es hermı́tico puesto
que pk son números reales no negativos y cada ρk es hermı́tico. Adicionalmente, si tomamos un ket arbitrario |ui
podemos escribir
X X X
hu| ρ |ui = pk hu| ρk |ui = pk hu| ψk ihψk |ui = pk |hu| ψk i|2
k k k
hu| ρ |ui ≥ 0 (6.33)
donde hemos usado el hecho de que las probabilidades pk son no negativas. Esto demuestra que ρ es un operador
positivo.
Resumimos estos resultados en la siguiente forma: sea un sistema que está en una mezcla estadı́stica de estados
con estados accesibles {|ψk i}, cada uno de ellos asociado a una probabilidad {pk }, definimos el operador densidad
ρ con las siguientes propiedades
X
ρ (t) ≡ pk ρk (t) ; ρk (t) ≡ |ψk i hψk | (6.34)
k
ρ = ρ† ; T rρ = 1 ; ρ es un operador positivo (6.35)
2 2
ρ (t) = ρ (t) ; T rρ (t) = 1 para estados puros (i.e. pk = δkm ) (6.36)
ρ2 (t) 6= ρ (t) ; T rρ2 (t) < 1 para estados mezclados (i.e. pk 6= δkm ) (6.37)
hAi (t) = T r {ρ (t) A} ; P (an ) = T r {Pn ρ (t)} (6.38)
d
i~ ρ (t) = [H (t) , ρ (t)] (6.39)
dt
254 CAPÍTULO 6. APLICACIÓN DE LOS POSTULADOS CON INFORMACIÓN PARCIAL
(k) (k)∗
los términos cruzados cn cp son del mismo tipo que los estudiados en la sección 5.9.1. Por tanto, ellos expresan
los efectos de interferencia entre los estados |un i y |up i que pueden surgir cuando el estado |ψk i es una superposición
lineal coherente de éstos estados. La Ec. (6.41) nos dice que ρnp es el promedio de éstos términos cruzados tomados
sobre todos los estados accesibles de la mezcla estadı́stica. A diferencia de las populaciones, ρnp se puede anular
incluso si los términos cruzados no son nulos, esto se debe a que estos términos cruzados son números complejos
(y no números reales no negativos como ocurre con los ρnn ). Si un ρnp es cero, significa que hay una cancelación
estadı́stica de los efectos de interferencia entre los estados |un i y |up i. Por otro lado, si ρnp no es cero, decimos
que existe cierta coherencia entre éstos estados. Por esta razón, a los elementos no diagonales ρnp suele llamárseles
coherencias.
Es importante mencionar que la distinción entre populaciones y coherencias depende de la base {|un i} escogida
en el espacio de estados, o en otras palabras del observable A para el cual construı́mos la base {|un i} de vectores
propios. Puesto que ρ es hermı́tico, es posible encontrar una base ortonormal {|χl i} donde ρ sea diagonal, ρ se
puede escribir entonces en la forma X
ρ= πl |χl i hχl |
l
P n (k) 2
4
Si existe degeneración, de modo que A uin = an uin , solo podremos decir que gi=1 cn,i es la probabilidad de que al medir el
observable A el sistema quede en un estado que pertenece al subespacio Ean . En otras palabras, es la probabilidad de que al medir A
el sistema quede en algún estado asociado al valor propio an . Sin embargo, el estado especı́fico no es único, ya que depende del estado
del sistema antes de la medida cuando hay degeneración.
5
En este caso, las mismas condiciones iniciales no significan que el sistema parta siempre del mismo estado |ψk i. Lo que significa es
que en el momento inicial para cada experimento, el sistema posee los mismo estados accesibles {|ψk i} con las mismas ponderaciones
{pk } para éstos. Podemos decir que el sistema está en la misma condición mezclada inicial, ya que para cada experimento, el operador
densidad es el mismo en el tiempo inicial.
6.3. APLICACIONES DEL OPERADOR DENSIDAD 255
siendo πl los valores propios de ρ yP|χl i sus vectores propios. Dado que ρ es positivo, sus valores propios son reales
no-negativos y puesto que T rρ = l πl = 1 tenemos que
X
0 ≤ πl ≤ 1 ; πl = 1
l
por tanto se puede considerar que ρ describe una mezcla estadı́stica de sus propios autoestados |χl i con probabi-
lidades πl . Claramente, no hay coherencias entre los estados {|χl i}.
Usando la Ec. (6.33) se puede demostrar que
de esto se obtiene en particular, que ρ solo puede tener coherencias entre estados cuya populación es no nula.
Esto es razonable ya que implica que un estado puede generar una coherencia con otro, solo si forma parte de los
estados accesibles del sistema.
Un caso interesante ocurre cuando la base elegida {|un i} son autovectores del Hamiltoniano, y éste último no
depende explı́citamente del tiempo. Por simplicidad, asumiremos que el Hamiltoniano es no degenerado. Tenemos
entonces que
H |un i = En |un i
usando la Ec. (6.39) y teniendo en cuenta que |un i y En no dependen del tiempo (ya que el Hamiltoniano no
depende del tiempo) se encuentra que
d d
hun | i~ ρ |up i = hun | [H, ρ] |up i ⇒ i~ hun | ρ |up i = hun | [Hρ − ρH] |up i
dt dt
dρnp dρnp
⇒ i~ = hun | [En ρ − ρEp ] |up i ⇒ i~ = (En − Ep ) hun | ρ |up i
dt dt
dρnp
i~ = (En − Ep ) ρnp
dt
conviene colocar los términos diagonales y no diagonales por aparte
dρnn dρnp
i~ = 0 ; i~ = (En − Ep ) ρnp
dt dt
de lo cual se deduce
i
ρnn (t) = constante ; ρnp = e ~ (Ep −En )t ρnp (0)
de modo que las populaciones relativas a estados propios del Hamiltoniano son constantes, y sus coherencias
oscilan a las frecuencias de Bohr del sistema.
Vamos a calcular las populaciones y coherencias para la base ortonormal {|un i} asociada a los autoestados del
Hamiltoniano. Los elementos matriciales de ρ estarán dados por
ρnp = Z −1 hun | e−H/kT |up i = Z −1 hun | e−Ep /kT |up i = Z −1 e−Ep /kT hun | up i
ρnp = Z −1 e−Ep /kT δnp
vemos entonces que en el equilibrio termodinámico, las populaciones de los estados estacionarios |un i son funciones
exponencialmente decrecientes de la energı́a, además el decrecimiento es más rápido a medida que disminuye la
temperatura. Por otro lado, las coherencias entre los estados estacionarios son nulas.
E = E (1) ⊗ E (2) ; {|un (1)i ⊗ |vp (2)i} ≡ {|un (1)i |vp (2)i} ≡ {|un (1) vp (2)i}
Sea un observable A que actúa en el espacio E. Ya hemos estudiado como extender un operador que proviene
de uno de los espacios factores. Ahora estudiaremos un proceso inverso: con base en el operador A que actúa en
el espacio producto, encontraremos un operador A (1) que actúa en el espacio E (1), y que nos permitirá hacer
predicciones fı́sicas sobre el sistema (1). Esta operación se denominará la traza parcial con respecto al sistema (2).
Naturalmente, se puede inducir análogamente el operador A (2) sobre el sistema (2) usando la traza parcial con
respecto al sistema (1).
Introduciremos el operador A (1) por medio del operador A, definiendo los elementos matriciales de A (1) en
la base {|un (1)i} de E (1)
( )
X X
hun (1)| A (1) |un′ (1)i ≡ hun (1) vp (2)| A |un′ (1) vp (2)i = hun (1)| [hvp (2)| A |vp (2)i] |un′ (1)i (6.42)
p p
como esta definición es válida para cualquier base {|un (1)i} de E (1) tenemos
X
A (1) ≡ [hvp (2)| A |vp (2)i] (6.43)
p
si definimos la traza parcial con respecto al sistema (2) de un operador A sobre E en la forma
X
T r2 A ≡ hvp (2)| A |vp (2)i (6.44)
p
A (1) ≡ T r2 A (6.45)
para comprender el concepto de traza parcial, escribamos la traza “normal” de un operador A en términos de la
base {|un (1)i |vp (2)i} de E XX
T rA = hun (1) vp (2)| A |un (1) vp (2)i (6.46)
n p
comparando (6.46) con (6.44) vemos que la apariencia de las dos ecuaciones es similar, excepto que en (6.44) solo
se suma sobre la base del sistema (2). Por esta razón, hablamos de la traza parcial de A con respecto al sistema
6.3. APLICACIONES DEL OPERADOR DENSIDAD 257
(2). Nótese además que la traza parcial con respecto al sistema (2) de un operador A sobre E, es un operador
en E (1). Esta es una gran diferencia con respecto a la traza normal, la cual es un número complejo. Para ver que
dicha traza parcial es un operador sobre E (1), aplicaremos esta traza parcial sobre un ket |ψ (1)i ∈ E (1)
X X
A (1) |ψ (1)i ≡ (T r2 A) |ψ (1)i ≡ hvm (2)| A |vm (2)i |ψ (1)i = hvm (2)| {A |vm (2) ψ (1)i}
m m
y dado que A |vm (2) ψ (1)i es un ket en el espacio E = E (1) ⊗ E (2), se puede escribir como una superposición de
la base {|un (1)i |vp (2)i} de E, por tanto
( ) ( )
X X X X
A (1) |ψ (1)i = hvm (2)| cnp |un (1)i |vp (2)i = hvm (2)| vp (2)i cnp |un (1)i
m n,p m n,p
X
⇒ A (1) |ψ (1)i = cnp |un (1)i ≡ |χ (1)i ∈ E (1)
n,p
como se querı́a demostrar. Veamos ahora como se escribe la traza normal de A en términos de las trazas parciales
sobre los sistemas (1) y (2).
( )
XX X X
T rA = hun (1)| {hvp (2)| A |vp (2)i} |un (1)i = hun (1)| hvp (2)| A |vp (2)i |un (1)i
n p n p
X
= hun (1)| {T r2 A} |un (1)i = T r1 (T r2 A)
n
T rA = T r1 (T r2 A) = T r2 (T r1 A) (6.47)
Es fácil ver que la traza parcial con respecto al sistema (1) de un operador sobre E (1) es un número complejo, e
igualmente cuando tomamos el sistema (2). Por esta razón, si tomamos la traza parcial con respecto a (1) y luego
la traza parcial con respecto a (2) (o viceversa) de un observable A sobre E, el resultado es un número complejo
como se vé en la Ec. (6.47).
Obtendremos ahora la traza (normal) de A (1) (calculada sobre E (1)). Para ello usamos la Ec. (6.43), con lo
cual se obtiene
" #
X X X XX
T rA (1) = hun | A (1) |un i = hun | hvp (2)| A |vp (2)i |un i = hun vp (2)| A |un vp (2)i
n n p n p
T rA (1) = T rA (6.48)
En conclusión la traza de A (calculada sobre E) coincide con la traza de A (1) (calculada sobre E (1)) y obviamente
también coincide con la traza de A (2) (calculada sobre E (2)).
Adicionalmente, es fácil ver a partir de la Ec. (6.43), que si A es hermı́tico entonces A (1) y A (2) también lo
son.
Sea además A (1) un observable definido sobre E (1). La Ec. (6.38) nos dice que el valor esperado del observable
e
A (1) ≡ A (1) ⊗ I2 sobre E está dado por
D E n o X h i
Ae (1) = T r ρA e (1) = e (1) |un (1) vp (2)i
hun (1) vp (2)| ρA
n,p
X X
= hun (1) vp (2)| ρ un′ (1) vp′ (2) un′ (1) vp′ (2) (A (1) ⊗ I2 ) |un (1) vp (2)i
n,p
′ ′
n ,p
XX
= hun (1) vp (2)| ρ un′ (1) vp′ (2) hun′ (1)| A (1) |un (1)i vp′ (2) I2 |vp (2)i
n,p n′ ,p′
XX
= hun (1) vp (2)| ρ un′ (1) vp′ (2) hun′ (1)| A (1) |un (1)i δpp′
n,p n′ ,p′
e (1) queda
con lo cual es valor esperado de A
" #
D E X X
e (1)
A = hun (1) vp (2)| ρ |un′ (1) vp (2)i hun′ (1)| A (1) |un (1)i
n,n′ p
" #
D E X X
e (1)
A = hun (1)| hvp (2)| ρ |vp (2)i |un′ (1)i hun′ (1)| A (1) |un (1)i
n,n′ p
pero el factor dentro de paréntesis cuadrados es el elemento matricial de ρ (1), como se observa en la definición
(6.43). Con lo cual tenemos
D E X XX X
Ae (1) = [hun (1)| ρ (1) |un′ (1)i] hun′ (1)| A (1) |un (1)i = [ρ (1)]nn′ [A (1)]n′ n = [ρ (1) A (1)]nn
n,n′ n n′ n
D E
Ae (1) = T r [ρ (1) A (1)] (6.49)
puesto que esto implica un estado puro, el operador densidad viene dado por la Ec. (6.15)
ρ = |ϕ (1) χ (2)i hϕ (1) χ (2)| = [|ϕ (1)i hϕ (1)|] ⊗ [|χ (2)i hχ (2)|]
por tanto si el operador densidad está descrito por (6.51), tal operador representa una simple yuxtaposición de un
sistema (1) descrito por el operador densidad σ(1), y un sistema (2) descrito por τ (2). No hay correlación entre
estos dos subsistemas.
Nótese que los resultados arriba mencionados dependen de la Ec. (6.51), pero no de las Ecs. (6.50, 6.52). Esto
implica que la validez de (6.53) se extiende a un contexto más general, ya que es posible encontrar estados del
sistema en los cuales ρ se puede factorizar en la forma (6.51), pero en donde los operadores factor no necesariamente
son de la forma descrita por (6.52), es decir σ (1) y τ (2) pueden corresponder a estados puros y/o mezclados. Si
al menos uno de los operadores σ (1) , τ (2) corresponde a un estado mezclado, el estado del sistema no estará
descrito por un vector de la forma (6.50). Lo anterior implica la simple yuxtaposición de dos sistemas cada uno
en un estado mezclado, pero que no están correlacionados entre sı́, y el sistema global será en general mezclado.
Capı́tulo 7
por otro lado, vimos en la sección 3.3.3, que los kets |ψ (t)i poseen la misma norma para todo tiempo, propiedad
fundamental para obtener conservación de la probabilidad. Esto implica entonces que el operador U (t, t0 ) debe
ser unitario (debe conservar la norma). Caracterizar este operador conocido como operador evolución temporal,
es en todo sentido equivalente fı́sicamente a resolver la ecuación de Schrödinger. Una primera propiedad que se
desprende directamente de la definición Eq. (7.1) es que
U (t0 , t0 ) = I (7.2)
escribiendo la Ec. de Schrödinger en el lenguaje de los kets y usando la Eq. (7.1) se tiene
d
i~ |ψ (t)i = H (t) |ψ (t)i (7.3)
dt
∂
i~ U (t, t0 ) |ψ (t0 )i = H (t) U (t, t0 ) |ψ (t0 )i
∂t
y teniendo en cuenta que el estado inicial es en principio arbitrario, podemos escribir
∂
i~ U (t, t0 ) = H (t) U (t, t0 ) (7.4)
∂t
vemos que (7.4) es una ecuación diferencial de primer orden para U (t, t0 ) que debe cumplir la condición inicial
(7.2). Las Ecs. (7.2, 7.4) se pueden sintetizar en una sola ecuación integral
Z
i t
U (t, t0 ) = I − H t′ U t′ , t0 dt′
~ t0
La Ec. (7.1) es válida para todos los valores de t y t0 (de momento no hemos introducido causalidad), por tanto
podemos escribir
260
7.1. OPERADOR EVOLUCIÓN TEMPORAL: DEFINICIÓN Y PROPIEDADES 261
una transformación unitaria finita se obtiene con sucesivas transformaciones infinitesimales, este proceso de inte-
gración solo requiere términos de primer orden ya que los de segundo orden continúan yendo a cero cuando se
toma el lı́mite. Por tanto, el operador finito de evolución temporal será también unitario como tenı́a que ser
U † (t1 , t2 ) = U −1 (t1 , t2 ) = U (t2 , t1 )
262 CAPÍTULO 7. FORMULACIONES ALTERNATIVAS DE LA MECÁNICA CUÁNTICA
X∞ k X∞ k
1 i 1 i
U (t, t0 ) |ϕn,τ i = e−iH(t−t0 )/~ |ϕn,τ i = − H (t − t0 ) |ϕn,τ i = − (t − t0 ) H k |ϕn,τ i
k! ~ k! ~
k=0 k=0
∞
X k X∞ k
1 i k 1 i
= − (t − t0 ) En |ϕn,τ i = − En (t − t0 ) |ϕn,τ i
k! ~ k! ~
k=0 k=0
−iEn (t−t0 )/~
U (t, t0 ) |ϕn,τ i = e |ϕn,τ i (7.16)
aplicando U (t, t0 ) a ambos lados de la Ec. (7.15) y teniendo en cuenta que este operador es lineal tenemos
XX
U (t, t0 ) |ψ (t0 )i = cn,τ (t0 ) U (t, t0 ) |ϕn,τ i
n τ
XX
|ψ (t)i = cn,τ (t0 ) e−iEn (t−t0 )/~ |ϕn,τ i (7.17)
n τ
sin embargo, esto no es correcto en general, dado que la derivada de un operador de la forma eF (t) no es en general
igual a F ′ (t) eF (t) (ver Eq. 1.148, pag. 79) de modo que en este caso
∂V (t, t0 )
i~ 6= H (t) V (t, t0 )
∂t
Consideremos ahora los experimentos descritos en la sección 5.9.3 en los cuales se llegaba desde el mismo
estado inicial |ua i hasta el mismo estado final |vc i de dos maneras: (1) Efectuando medidas de los observables A
y C obteniendo dichos estados y (2) Efectuando sucesivamente medidas de los observables A, B y C donde para
el estado intermedio se obtiene |wb i. En la discusión de la sección 5.9.3 se asumió que las medidas se hacı́an en
intervalos muy cortos de modo que el sistema no tenı́a tiempo de evolucionar. Ahora asumiremos que las medidas
1
Aplicando la Ec. (1.147) Pág. 78, al operador en (7.14), podemos verificar que se cumple la Ec. (7.4).
7.2. BRAS, KETS Y OBSERVABLES EQUIVALENTES 263
se hacen en intervalos en los cuales la evolución temporal es apreciable. Para el primer caso asumimos que el
sistema está en el estado |ua i en t0 , y |vc i en t2 . Para el segundo caso asumimos que el sistema está en el estado
|ua i en t0 , en el estado |wb i en t1 y finalmente en el estado |vc i en t2 . Es decir t0 , t1 y t2 definen los tiempos en
que se realizan las medidas.
En tal situación, la Ec. (5.86) se convierte en
2
Pa (c) = hvc | ψ t−
2 i = |hvc | U (t2 , t0 ) |ua i|
2
(7.18)
donde ψ t− 2 es el estado del sistema que evoluciona
desde |ua i en t0 hasta el instante justo antes de la medida
− +
de C, por eso la notación t2 , es claro que ψ t2 = |vc i (estado justo después de la medida de C). La Ec. (5.87)
queda 2
Pa (b, c) = hvc | φ t− hwb | ψ t− i2 = |hvc | U (t2 , t1 ) |wb i|2 |hwb | U (t1 , t0 ) |ua i|2
2 i 1 (7.19)
siendo φ t− 2 el estado del sistema justo antes de la medida de C, cuando el sistema evoluciona a partir del
estado |wb i en t1 . El estado ψ t− 1 describe al sistema justo antes de la medida de B cuando evoluciona desde
|ua i en t0 .
Ahora usando la Ec. (7.9) se tiene
sustituyendo (7.20) en la Ec. (7.18), y comparando el resultado con la Ec. (7.19), se puede verificar que al igual
que en la ecuación (5.90) se tiene que X
Pa (c) 6= Pa (b, c)
b
adicionalmente puede verificarse que el espectro de valores propios de A′ coincide con el de A, y los vectores
propios de A′ están dados por |η ′ i ≡ O |ηi , siendo |ηi los kets propios de A
A |ηi = a |ηi ⇒ OA |ηi = aO |ηi ⇒ OA O† O |ηi = aO |ηi
⇒ OAO† [O |ηi] = a [O |ηi]
En conclusion, los nuevos bras, kets y operadores mantienen intactos los valores propios y productos internos
asociados con los observables fı́sicos y por tanto describen la misma Fı́sica que los bras, kets y operadores originales.
y usando la definición para una función F (A) del operador A, Ec. (1.131) se obtiene
F ′ (A) = F A′ (7.25)
donde en este caso F ′ (A) significa la transformada de la función F (A) con respecto al operador O, y no la
derivada de F (A) “con respecto a A” (ver notación en la sección 1.34.1 Eq. 1.137). Para los conmutadores de las
transformadas de dos operadores A y B tenemos
′ ′ h i
A ,B = OAO† , OBO† = OAO† OBO† − OBO† OAO†
= OA O† O BO† − OB O† O AO† = OABO† − OBAO† = O (AB − BA) O†
′ ′
A ,B = O [A, B] O† = [A, B]′ (7.26)
7.3. LA IMAGEN DE SCHRÖDINGER Y LA IMAGEN DE HEISENBERG 265
de modo que el conmutador de las transformadas es la transformada del conmutador. Si el conmutador es propor-
cional a la identidad (observables conjugados) tenemos
[Q, P ] = αI ⇒ Q′ , P ′ = O [Q, P ] O† = αOIO† = αI
[Q, P ] = αI ⇒ Q′ , P ′ = [Q, P ] (7.27)
el caso más importante son los observables X, P para los cuales vemos que el conmutador de sus transformadas
X ′ , P ′ , es idéntico al de los operadores originales.
Denotaremos a los kets, bras y observables originalmente utilizados en la mecánica cuántica como |ψS i , hψS | ,
AS ; indicando que están en la “imagen de Schrödinger”. En esta imagen, los observables básicos X, P no dependen
del tiempo y los observables que se construyen con ellos solo pueden tener dependencia explı́cita con el tiempo
(excluiremos el espı́n por ahora) de modo que AS = AS (X, P, t), simplificaremos la notación a AS = AS (t). La
evolución temporal del estado en la imagen de Schrödinger se obtiene a través de la ecuación de Schrödinger (de
allı́ el nombre de la imagen) o equivalentemente, a través del operador evolución temporal Ec. (7.1)
|ψS (t)i = U (t, t0 ) |ψS (t0 )i ⇒ |ψS (t0 )i = U † (t, t0 ) |ψS (t)i (7.28)
donde hemos tenido en cuenta que U (t, t0 ) es unitario, y por tanto también lo es U † (t, t0 ). Nótese que definiendo
a O ≡ U † (t, t0 ) como el operador unitario para transformar bras, kets y observables, según la Ec. (7.23), vemos
que la Ec. (7.28) nos conduce a que los nuevos bras y kets serán independientes del tiempo. Denotaremos a los
nuevos bras, kets y operadores con el subı́ndice H para indicar “la imagen de Heisenberg”. Usando O ≡ U † (t, t0 )
en las Ecs. (7.23) y aplicando la Ec. (7.28) se obtiene
|ψH i ≡ U † (t, t0 ) |ψS (t)i = |ψS (t0 )i ; hψH | ≡ hψS (t)| U (t, t0 ) = hψS (t0 )| (7.29)
†
AH ≡ U (t, t0 ) AS (t) U (t, t0 ) (7.30)
la Ec. (7.29) nos muestra que en la imagen de Heisenberg, los kets y bras no poseen evolución temporal y su
valor coincide con el del estado en la imagen de Schrödinger en t0 . Por otro lado, incluso los observables A que en
la imagen de Schrödinger no dependen del tiempo, adquieren dependencia temporal en la imagen de Heisenberg
como se aprecia en la Ec. (7.30). Se tiene entonces que la evolución temporal en la imagen de Heisenberg recae
completamente en los operadores.
Calculemos la evolución temporal del operador AH (t) para un operador arbitrario AS (t). Derivando la Ec.
(7.30) y usando la Ec. (7.4) ası́ como su adjunta, se tiene que
hAi (t) = hψS (t)| AS (t) |ψS (t)i = hψH | AH (t) |ψH i
teniendo en cuenta la Ec. (7.31) y el hecho de que en la imagen de Heisenberg los estados no dependen del tiempo
se tiene
d hAi (t) dAH (t) 1 dAS (t)
= hψH | |ψH i = hψH | [AH (t) , HH (t)] + |ψH i
dt dt i~ dt H
d hAi (t) 1 dAS (t)
= h[AH (t) , HH (t)]iH + (7.32)
dt i~ dt H H
una vez más, por construcción estas cantidades son iguales al caso en que todo lo evaluamos en la imagen de
Schrödinger, de modo que sustituyendo el subı́ndice H por S en la Ec. (7.32), se reproduce la Ec. (5.52). Nótese
sin embargo, que la expresión (7.31) es más general que la Ec. (5.52) ya que la última es válida solo para valores
esperados en tanto que (7.31) es válida para los operadores como tal.
PS2 P2
HS (t) = + V (XS , t) ; HH (t) = H + V (XH , t) (7.33)
2m 2m
la Ec. (7.27) nos dice que
[XH , PH ] = [XS , PS ] = i~ (7.34)
sustituyendo (7.33, 7.34) en (7.31) se obtiene la evolución temporal de los operadores XH , PH
dXH (t) dXS PH2
i~ = [XH (t) , HH (t)] + i~ = XH (t) , + V (XH , t)
dt dt H 2m
PH2 PH PH PH
= XH (t) , = [XH (t) , PH ] + [XH (t) , PH ] = i~
2m 2m 2m m
dXH (t) PH
=
dt m
7.4. LA IMAGEN DE INTERACCIÓN 267
dPH (t) dPS PH2
i~ = [PH (t) , HH (t)] + i~ = PH (t) , + V (XH , t)
dt dt H 2m
= [PH (t) , V (XH , t)] = −i~∂XH V (XH , t)
dPH (t) ∂V (XH , t)
= −
dt ∂XH
donde se ha usado la Ec. (1.141) pág. 77. Hemos obtenido entonces la evolución temporal de los observables básicos
en la imagen de Heisenberg
dXH (t) PH dPH (t) ∂V (XH , t)
= ; =− (7.35)
dt m dt ∂XH
estas ecuaciones son una generalización del teorema de Ehrenfest Ec. (5.55) Pág. 223, ya que estas ecuaciones son
válidas para los operadores como tal y no solo para sus valores esperados.
Vemos que la analogı́a con las ecuaciones clásicas es más fuerte en la imagen de Heisenberg. En la imagen de
Schrödinger, la analogı́a aparece solo cuando se toman los valores esperados de los observables. En contraste, en
la imagen de Heisenberg la analogı́a aparece directamente en la ecuaciones de movimiento para los observables.
Un sistema simple de amplio interés ocurre cuando el sistema es conservativo (HS es independiente del tiempo),
y el observable AS conmuta con el Hamiltoniano HS . Para sistemas conservativos, el operador evolución temporal
está dado por (7.14)
i
U (t, t0 ) = e− ~ HS (t−t0 )
si AS conmuta con HS también conmuta con eαHS de modo que conmuta con U (t, t0 ). El observable asociado en
la imagen de Heisenberg queda entonces
En conclusión, si el sistema es conservativo y AS conmuta con HS , los observables en las imágenes de Schrödinger y
de Heisenberg coinciden. Como caso particular, HS = HH para sistemas conservativos. Nótese que no es necesario
que AS sea constante de movimiento, ya que en general hemos permitido que AS (t) sea función explı́cita del
tiempo.
∂U0 (t, t0 )
i~ = H0S (t) U0 (t, t0 ) ; U0 (t0 , t0 ) = I (7.36)
∂t
asumimos ahora que el sistema es “perturbado” por cierta interacción adicional, de modo que el Hamiltoniano se
modifica en la forma
HS (t) = H0S (t) + WS (t) (7.37)
definiremos una transformación unitaria para kets, bras y observables a través del operador evolución temporal
del “Hamiltoniano no perturbado” H0S . Por tanto, los nuevos kets, bras y observables se definirán como
|ψI (t)i ≡ U0† (t, t0 ) |ψS (t)i ; hψI (t)| ≡ hψS (t)| U0 (t, t0 ) ; AI ≡ U0† (t, t0 ) AS U0 (t, t0 ) (7.38)
nótese que en ausencia de perturbación i.e. cuando WS (t) = 0, el ket |ψI (t)i es independiente del tiempo (y
todo coincide con la imagen de Heisenberg). No obstante, la presencia de WS (t) hace que |ψI (t)i tenga aún
dependencia temporal. Coloquialmente, podemos decir que el operador unitario elegido, “absorbe” la dependencia
temporal del ket debida a H0S dejándonos solo con la dependencia temporal causada por WS (t). Ya veremos que
268 CAPÍTULO 7. FORMULACIONES ALTERNATIVAS DE LA MECÁNICA CUÁNTICA
las ecuaciones de movimiento apoyan esta visión cualitativa de la situación. Las Ecs. (7.36, 7.37, 7.38), describen
lo que se denomina la “imagen de interacción”.
Primero describiremos la dinámica de los kets |ψI (t)i en la imagen de interacción. Derivando la primera de
las Ecs. (7.38) resulta
d |ψI (t)i dU † (t, t0 ) d |ψS (t)i
i~ ≡ i~ 0 |ψS (t)i + i~U0† (t, t0 )
dt dt dt
y usando las Ecs. (7.36, 7.3) tenemos
d |ψI (t)i
i~ ≡ −U0† (t, t0 ) H0S (t) |ψS (t)i + U0† (t, t0 ) HS (t) |ψS (t)i
dt h i
= −U0† (t, t0 ) H0S (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
h i
+U0† (t, t0 ) HS (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
d |ψI (t)i h ih i
† †
i~ = − U0 (t, t0 ) H0S (t) U0 (t, t0 ) U0 (t, t0 ) |ψS (t)i
dt h ih i
† †
+ U0 (t, t0 ) HS (t) U0 (t, t0 ) U0 (t, t0 ) |ψS (t)i
d |ψI (t)i n oh i
i~ = U0† (t, t0 ) [HS (t) − H0S (t)] U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
dt h ih i
= U0† (t, t0 ) WS (t) U0 (t, t0 ) U0† (t, t0 ) |ψS (t)i
quedando finalmente
d |ψI (t)i
i~ = WI (t) |ψI (t)i (7.39)
dt
de modo que la evolución temporal del ket |ψI (t)i en la imagen de interacción está regida solo por el término de
perturbación como se habı́a anticipado. Es fácil demostrar que la ecuación diferencial (7.39) es equivalente a la
ecuación integral dada por Z
1 t ′
|ψI (t)i = |ψI (t0 )i + dt WI t′ ψI t′ (7.40)
i~ t0
Teniendo en cuenta la Ec. (7.38) y el hecho de que U0 (t0 , t0 ) = I, obtenemos la condición
la ecuación integral (7.40) se puede resolver por iteración de manera que |ψI (t)i queda escrita como una expansión
en series de potencias integrales de WI (t)
( Z 2 Z t Z t1 )
1 t 1
|ψI (t)i = I + dt1 WI (t1 ) + dt1 WI (t1 ) dt2 WI (t2 ) + . . . |ψI (t0 )i (7.41)
i~ t0 i~ t0 t0
Estudiemos ahora la evolución temporal de los observables en esta imagen. Para esto se deriva en el tiempo la
tercera de las ecuaciones (7.38), el procedimiento es muy similar al realizado para obtener la Ec. (7.31), el único
detalle a tener en cuenta es que aquı́ se usa U0 (t, t0 ) que está asociado a H0S , de modo que el análogo a la Ec.
(7.31) queda
dAI (t) dAS (t)
i~ = [AI (t) , H0I (t)] + i~ (7.42)
dt dt I
las ecuaciones de evolución (7.39) y (7.42) muestran que los kets de estado tienen solo a WI (t) como fuente
de cambio, en tanto que los operadores tiene solo a H0I como fuente de cambio. Cada parte del Hamiltoniano
7.4. LA IMAGEN DE INTERACCIÓN 269
contribuye a uno u otro cambio, a diferencia de la imágen de Schrödinger en donde la dinámica de los kets está
regida por el Hamiltoniano completo, o la de Heisenberg en la cual la dinámica de los operadores se rige por el
Hamiltoniano completo.
Es notable que la Ec. (7.39) para los kets, se asemeja a la ecuación de Schrödinger en la imagen del mismo
nombre, aunque en la Ec. (7.39) solo aparece la perturbación. Análogamente, la Ec. (7.42) para los operadores se
asemeja a la Ec. (7.31) en la imagen de Heisenberg, aunque en (7.42) solo aparece el Hamiltoniano no perturbado.
Si por ejemplo, WS (t) es mucho menor2 que H0S (t), la dinámica del vector |ψI (t)i es mucho mas “suave”
que la dinámica de |ψS (t)i. Este hecho facilita el uso de diversos métodos de aproximación. En la práctica, esta
imagen resulta útil cuando H0S es un Hamiltoniano suficientemente simple para conocer su solución analı́tica,
de modo que WS (t) se considera una perturbación que se puede evaluar por diferentes métodos. Dado que los
operadores toman sus valores no perturbados (que en principio se asumen conocidos), podemos concentrarnos
solo en la evolución de los kets |ψI i que en general tienen una evolución suave. Por ejemplo H0S puede ser la
energı́a cinética (solución de partı́cula libre como caso no perturbado) y WS (t) puede ser la energı́a potencial, o
H0S puede ser la energı́a cinética más una parte de la energı́a potencial que sea suficientemente simple, y WS (t)
contiene interacciones externas adicionales más complejas.
2
Naturalmente, la comparación entre dos observables se refiere en realidad a la comparación entre sus valores propios.
Capı́tulo 8
El oscilador armónico es un sistema de gran importancia en la fı́sica clásica. Tal importancia radica en el
hecho de que todo movimiento acotado alrededor de un punto de equilibrio estable puede ser aproximado a
un movimiento armónico simple, siempre que las oscilaciones sean suficientemente pequeñas. La cuantización
del oscilador armónico aparece en el nacimiento mismo de la mecánica cuántica, ya que la hipótesis de Planck
consistió en cuantizar los modos normales que están asociados a osciladores armónicos en el interior de un cuerpo
negro. Adicionalmente, las pequeñas oscilaciones alrededor del equilibrio también están presentes en el mundo
microscópico, como es el caso de las vibraciones de moléculas diatómicas o de los átomos alrededor del punto
de equilibrio en un red cristalina, etc. Puesto que en estos casos las “elongaciones” alrededor del equilibrio son
comparables a la longitud de onda de De Broglie de los objetos que vibran, es claro que las correcciones cuánticas
serán importantes para estos sistemas que se comportan como osciladores armónicos.
H |ϕi = E |ϕi
antes de resolver en detalle la ecuación de valores propios vale la pena mencionar que la forma del potencial
1 1
V (x) = kx2 = mω 2 x2
2 2
nos permite obtener algunas propiedades generales de las soluciones. En primer lugar, los autovalores del Hamil-
toniano son positivos, ya que se puede mostrar que en general si la función potencial tiene una cota inferior, los
autovalores E de un Hamiltoniano de la forma
P2
H= + V (X)
2m
270
8.2. EL PROBLEMA DE VALORES PROPIOS DEL HAMILTONIANO 271
son mayores que el mı́nimo de V (x) de modo que si V (x) ≥ Vm ⇒ E > Vm . Para nuestro caso Vm = 0 y por
tanto E > 0.
Por otro lado, debido a que el potencial es una función par en el argumento x
V (−x) = V (x)
existen autofunciones ψ (x) de H en la base {|xi} con paridad definida (pares o impares en x). Veremos que esto
combinado con el hecho de que el espectro no es degenerado, nos conduce a que las funciones de onda asociadas
con los estados estacionarios son necesariamente pares o impares.
Adicionalmente, es bien sabido que el movimiento clásico está limitado a un intervalo acotado para cualquier
valor de la energı́a total del oscilador. Con base en este hecho, se puede demostrar que todos los autovalores de
energı́a son discretos.
Veremos ahora el problema de valores propios en detalle.
H |ϕi = E |ϕi
[X, P ] = i~
donde tanto el operador H b como los valores propios εν son adimensionales. Los ı́ndices ν, i pueden ser (por el
momento) contı́nuos o discretos y el ı́ndice i nos indica el grado de degeneración.
b y Pb fueran números, podrı́amos escribir Hb en (8.5) de la forma H b Pb
b = X+i b Pb
X−i
Nótese que si X √
2
√
2
, es decir
como el producto de dos funciones lineales. Sin embargo, dado que X b y Pb son operadores no conmutantes, esta
factorización no es correcta. Sin embargo, veremos que la redefinición de estos operadores lineales nos simplifica
considerablemente el problema de valores propios, definiremos entonces
1 b 1 b
a ≡ √ X + iPb ; a† ≡ √ X − iPb (8.6)
2 2
r r
mω P † mω P
a = X + i√ ; a = X − i√ (8.7)
2~ 2m~ω 2~ 2m~ω
272 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO
b = 1 i
X √ a† + a ; Pb = √ a† − a (8.8)
2 2
r r
~ † m~ω †
X = a +a ; P =i a −a (8.9)
2mω 2
esta relación es entonces equivalente a las reglas canónicas de conmutación. Ahora queremos escribir el Hamilto-
niano en términos de los operadores a, a† , para ello calculamos primero el producto a† a 1
1b
b + iPb = 1 X
a† a = X − iPb X b 2 + Pb 2 + iX
b Pb − iPbX
b
2 2
† 1 b 2 b2 h
b Pb
i
aa = X + P + i X,
2
1 b 2 b2
a† a = X +P −I (8.11)
2
de aquı́ en adelante reemplazamos la identidad I por el número 1 lo cual no es causa de ambigüedad. Nótese que
la presencia del término adicional I/2 es debido a la no conmutatividad de Xb y Pb. Comparando (8.5) con (8.11)
vemos que el Hamiltoniano adimensional será
b =N+1
H ; N ≡ a† a (8.12)
2
es claro que el nuevo operador N es Hermı́tico
† †
N † = a† a = (a)† a† = a† a = N
b = aa† − 1
H
2
b y N solo difieren en un operador que es múltiplo de la identidad. En
ahora bien, de acuerdo con la Ec. (8.12), H
consecuencia, los autovectores de Hb son autovectores de N y viceversa.
Ahora calcularemos los conmutadores de N con a y a† por medio de la Ec. (8.10)
h i h i
[N, a] = a† a, a = a† [a, a] + a† , a a = −a
h i h i h i h i
N, a† = a† a, a† = a† a, a† + a† , a† a = a†
1
De acuerdo con la discusión anterior este producto serı́a el Hamiltoniano si los operadores Pb , X
b fueran conmutantes.
8.3. DETERMINACIÓN DEL ESPECTRO 273
donde también hemos tenido en cuenta la Ec. (8.10). Veremos que la ecuación de valores propios se resolverá en
términos de las propiedades de los operadores a, a† y N . De momento, hemos reducido el problema a encontrar
los vectores y valores propios del operador N
N ϕiν = ν ϕiν
i
y teniendo en cuenta las Ecs. (8.5, 8.12) los autovectores ϕν serán también autovectores del Hamiltoniano H
1
con autovalores E = ν + 2 ~ω
i 1
H ϕν = ν + ~ω ϕiν (8.14)
2
donde hemos usado la Ec. (8.10). Puesto que ν ≥ 0 el vector a† ϕiν es siempre no nulo. Ahora usando la Ec.
(8.13) calculemos
h i
N, a† ϕiν = a† ϕiν ⇒ N a† ϕiν = a† N ϕiν + a† ϕiν = νa† ϕiν + a† ϕiν
h i h i
N a† ϕiν = (ν + 1) a† ϕiν
vemos que a† ϕiν es un autovector de N con autovalor ν + 1. Lo anterior podemos resumirlo en la forma
Lemma 3 Sea ϕiν un autovector no nulo de N con autovalor ν. Tenemos que (a) a† ϕiν es siempre no nulo.
(b) a† ϕiν es un autovector de N con autovalor ν + 1.
Por ahora sabemos que el espectro de N es no negativo. Asumamos que ν no es entero y mostraremos que
esta hipótesis contradice al lema 1 y por tanto debe ser rechazada. Si ν no es entero podemos encontrar un entero
n tal que
n < ν < n+1 (8.16)
consideremos la sucesión de kets
i
ϕν , a ϕiν , a2 ϕiν , . . . , ap ϕiν , . . . , an ϕiν (8.17)
aplicaremos iterativamente el lema 2. ϕiν = a0 ϕiν es por hipótesis un autovector no nulo de N con valor
propio ν0 = ν − 0. Ahora a ϕiν de acuerdo con el lema i es un autovector
no nulo (ya que ν > 0) de N con
valor propio ν1 = ν − 1, podemos i
entonces a ϕν ≡ ϕν−1 . Otra aplicación del lema lleva a que si
denotar
2 ϕi = a ϕi
v − 1 > 0 entonces a
p−1 i ν i ν−1 es un autovector no nulo de N con valor propio ν2 = ν − 2. En general
p i
a ϕν = a a
ϕν = a ϕν−p+1 es autovector no nulo de N con valor propio ν − p, siempre y cuando se
cumpla que ν − p + 1 > 0. Adicionalmente, puesto que ν no es entero, ν − p es no nulo, con lo cual el lema 1, nos
dice que ν − p > 0. A su vez, de la Ec. (8.16) vemos que la condición ν − p > 0 solo se cumple en el intervalo
0 ≤ p ≤ n.
En sı́ntesis, de acuerdo con el lema 2, un vector ap ϕiν de la sucesión (8.17) con 0 ≤ p ≤ n, es un autovector
no nulo de N con valor propio ν − p > 0.
Veamos ahora que pasa con un vector fuera de la sucesión para lo cual calculamos
an+1 ϕiν = a an ϕiν
an ϕiν es un autovector no nulo de N con valor propio v − n > 0 (de acuerdo con la Ec. 8.16). Por tanto podemos
aplicar el lema 2 para decir que an+1 ϕiν es autovector de N con autovalor ν − n − 1 pero este valor propio es
estrictamente negativo de acuerdo con la Ec. (8.16). Esto contradice el lema 1 por lo cual debemos rechazar la
hipótesis de que ν es no entero.
Lo anterior se puede describir de otra forma diciendo que ap ϕiν con 0 ≤ p ≤ n es autovector de N donde los
valores propios νp tienen la siguiente caracterı́stica: ν0 = ν ∈ (n, n + 1); ν1 ∈ (n − 1, n); v2 ∈ (n − 2, n − 1) ; . . . ;
νn−1 ∈ (1, 2); νn ∈ (0, 1). Al aplicar de nuevo el operador a, el valor propio correspondiente quedarı́a en el intervalo
(−1, 0) que está prohibido por el lema 1.
Veremos ahora que la hipótesis de que ν es entero es perfectamente consistente con los lemas anteriores, en tal
caso la Ec. (8.16) se cambia por
n = ν < n+1
y el ket an ϕiν es un autovector no nulo de N con valor propio v − n = 0. Como su valor propio es cero, el lema
2 nos dice que2
an+1 ϕin = 0 (8.18)
2
Estrictamente, debemos escribir |0i a la derecha de la Ec. (8.18), ya que este es un elemento del espacio de Hilbert (vector nulo).
Sin embargo, no se presenta confusión al usar el sı́mbolo 0.
8.3. DETERMINACIÓN DEL ESPECTRO 275
por tanto el conjunto de vectores diferentes obtenida por aplicación reiterada de a sobre ϕiν está
limitada cuando
m i
ν = n es entero, ya que el lema 2 predice que para todo entero m ≥ n + 1 tenemos que a ϕν = 0, y se obtiene
el vector cero para cualquier aplicación adicional del operador a. De esta manera se evita la contradicción con el
lema 1 evitando valores propios negativos.
Veremos ahora que el espectro de N consta
de todos los enteros no negativos. Ya hemos construı́do un auto-
vector de N con valor propio nulo: an ϕin ≡ ϕi0 . Ahora bien, el lema 3 nos dice que la aplicación sucesiva de a†
k
sobre ϕi0 nos genera autoestados a† ϕi0 , con valor propio k, barriendo claramente todos los valores enteros
no negativos.
Utilizando la Ec. (8.14) decimos que los autovalores de H tienen la forma
1
En = n + ~ω ; n = 0, 1, 2, . . . (8.19)
2
vemos entonces que la energı́a del oscilador armónico cuántico está cuantizada, ya que no puede adquirir cualquier
valor. El espaciamiento entre los valores accesibles es además uniforme, es decir cada estado excitado consiste
en agregar un cuanto ~ω al estado anterior. Adicionalmente, el estado base (estado de menor energı́a) no posee
energı́a cero sino ~ω/2. Nótese que el espaciamiento uniforme de los niveles de energı́a del oscilador armónico
cuántico con valor de espaciamiento ~ω, coincide con la hipótesis de Planck para el estudio de la radiación del
cuerpo negro.
energı́a En . Su acción sobre un autovector de N (o de H) consiste en hacer aparecer un cuanto de energı́a. Por
esta razón se denomina operador de construcción o creación.
Finalmente, vemos que el operador N aplicado sobre ϕin nos da el valor n de cuantos que están asociados
con el nivel de energı́a (hay n cuantos agregados al valor del mı́nimo de la energı́a). Por esta razón N se conoce
como operador número.
debemos ver entonces cuantos kets linealmente independientes satisfacen esta condición. Usando las Ecs. (8.7), la
Ec. (8.20) queda en la forma
276 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO
r r r r
1 mω i i mω mω mω i
√ X+ √
P ϕ0 = 0 ⇒ X+ √ P ϕi0 = 0 ⇒
2 ~ m~ω ~ ~ ~ m~ω
mω i i
X + P ϕ0 = 0
~ ~
debemos entonces resolver la ecuación diferencial de primer orden (8.21). Su solución más general es de la forma
1 mω 2
ϕi0 (x) = ce− 2 ~
x
(8.22)
siendo c una constante de integración (solo hay una en virtud de que la ecuación es de primer orden). Por tanto
todas las soluciones no nulas posibles de (8.21) son linealmente dependientes. Existe por tanto un único ket dentro
de factores multiplicativos asociado a E0 = ~ω/2. Por tanto, el estado base es no degenerado3 .
La demostración de que los demás estados no son degenerados la haremos por inducción para lo cual ya tenemos
el primer paso al demostrar que el estado base no es degenerado.
El segundo paso en la inducción es probar que si En = (n + 1/2) ~ω no es degenerado entonces el nivel
En+1 = (n + 1 + 1/2) ~ω tampoco lo es. Nuestra hipótesis es entonces que dentro de factores multiplicativos, solo
hay un vector |ϕn i tal que
N |ϕn i = n |ϕn i (8.23)
i
ahora consideramos un autovector ϕn+1 correspondiente al autovalor n + 1, donde el ı́ndice i indica una posible
degeneración
N ϕin+1 = (n + 1) ϕin+1 (8.24)
i
el lema 2 nos dice que a ϕn+1 es un
autovector no nulo de N con autovalor n. Dado que este ket no es degenerado
i
por hipótesis, tenemos que a ϕn+1 es linealmente dependiente con |ϕn i
a ϕin+1 = ci |ϕn i
donde hemos usado la definición de N Ec. (8.12). Combinando (8.24) con (8.25) se tiene
(n + 1) ϕin+1 = ci a† |ϕn i
i ci h i
ϕn+1 = a† |ϕn i (8.26)
(n + 1)
†
a |ϕn i es autovector de N con autovalor (n + 1). La expresión †(8.26) nos muestra que
el lema 3 nos dice que
todos los kets ϕn+1 asociados al valor propio (n + 1) son linealmente dependientes con a |ϕn i. Por tanto el valor
i
propio n + 1 es no degenerado y la demostración está completa. Todos los valores propios del Hamiltoniano son
no degenerados.
3
Aunque aquı́ usamos la base {|xi}, es claro que el grado de degeneración es independiente de la base utilizada.
8.4. ESTADOS PROPIOS DEL HAMILTONIANO 277
la completez será probada más adelante utilizando la representación {|xi}, es decir calculando las funciones de onda
ϕn (x) y mostrando que estas funciones son completas en el espacio de las funciones cuadráticamente integrables
en x.
Por otro lado N y H tienen un espectro no degenerado. Por tanto cada uno de estos observables constituye
por sı́ solo un C.S.C.O. en Ex .
8.4.1. Construcción de los kets propios con base en el ket del estado base
El ket |ϕ0 i asociado al estado base i.e. a n = 0 en N y a E0 = ~ω/2 en H, es el vector en Ex que satisface la
condición
a |ϕ0 i = 0
y es único salvo constantes de proporcionalidad. Si lo asumimos normalizado, la ambigüedad se reduce a solo un
factor de fase global arbitraria eiθ , con θ real. Aplicando el lema 3 pág 274, el vector |ϕ1 i asociado a n = 1 es
proporcional a a† |ϕ0 i
|ϕ1 i = c1 a† |ϕ0 i (8.27)
determinaremos c1 requiriendo que |ϕ1 i esté normalizado y que tal coeficiente sea real y positivo (es decir c1 se
fija con fase cero). Para esto se calcula la norma de |ϕ1 i
† n o
hϕ1 |ϕ1 i = hϕ0 | a† c∗1 c1 a† |ϕ0 i = |c1 |2 hϕ0 | aa† |ϕ0 i
nuevamente requeriremos que c2 sea una constante real positiva que normalice a |ϕ2 i. De aquı́ en adelante este
será el requerimiento para todas las constantes con que se construyen los siguientes estados.
hϕ2 |ϕ2 i = |c2 |2 hϕ1 | aa† |ϕ1 i = |c2 |2 hϕ1 | (N + 1) |ϕ1 i = |c2 |2 hϕ1 | (1 + 1) |ϕ1 i
1
hϕ2 |ϕ2 i = 2 |c2 |2 = 1 ⇒ c2 = √
2
4
La ortonormalidad está garantizada automáticamente, debido a la ausencia de degeneración.
278 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO
hϕn |ϕn i = |cn |2 hϕn−1 | aa† |ϕn−1 i = |cn |2 hϕn−1 | (N + 1) |ϕn−1 i = |cn |2 hϕn−1 | [(n − 1) + 1] |ϕn−1 i
1
hϕn |ϕn i = n |cn |2 ⇒ cn = √
n
1 1 1 2 1 1 1 3
|ϕn i = √ a† |ϕn−1 i = √ √ a† |ϕn−2 i = √ √ √ a† |ϕn−3 i
n n n−1 n n−1 n−2
1 1 1 1 1 n
|ϕn i = √ √ √ . . . √ √ a† |ϕ0 i
n n−1 n−2 2 1
quedando finalmente
1 † n
|ϕn i = √ a |ϕ0 i ; n = 0, 1, 2, 3, . . . (8.31)
n!
En sı́ntesis, todos los autoestados de N y H se √ pueden construı́r con base en el autoestado base |ϕ0 i por
aplicación sucesiva del operador creación. El factor 1/ n! garantiza la normalización de cada nuevo estado creado,
bajo la convención de que los coeficientes de normalización tengan fase cero, es decir que sean reales y positivos.
1 ′
n
hϕn′ |ϕn i = √ hϕ0 | an a† |ϕ0 i (8.32)
n! n′ !
′
n ′
n−1
an a† |ϕ0 i = nan −1 a† |ϕ0 i (8.33)
donde hemos usado la Ec. (8.31). Utilizaremos el resultado (8.33) iterativamente, para ello analizamos tres casos
8.4. ESTADOS PROPIOS DEL HAMILTONIANO 279
finalmente n
′ ′
an a† |ϕ0 i = n!a|n −n| |ϕ0 i (8.36)
′
pero por hipótesis |n′ − n| es un entero mayor o igual que 1, por tanto a|n −n| |ϕ0 i = 0 ya que a |ϕ0 i = 0. Usando
(8.32) y (8.36) resulta que
1 ′
n 1 n ′
o
hϕn′ |ϕn i = √ hϕ0 | an a† |ϕ0 i = √ hϕ0 | n!a|n −n| |ϕ0 i = 0
n! n′ ! n! n′ !
1 n 1
hϕn |ϕn i = √ hϕ0 | an a† |ϕ0 i = hϕ0 | {n! |ϕ0 i} = 1
n! n! n!
3) n > n′ . En este caso podemos conjugar el producto interno hϕn′ |ϕn i = hϕn |ϕn′ i∗ y probar la ortogonalidad
del miembro derecho con lo cual quedamos nuevamente en el primer caso. Alternativamente, podemos usar la
propiedad (8.33) n′ −veces de forma iterativa, aplicando la Ec. (8.31). En tal caso el análogo de la Ec. (8.34) es
n
n′ †
′
n′ −n′ † n−n′
a a |ϕ0 i = n [n − 1] [n − 2] . . . n − n − 1 a a |ϕ0 i (8.38)
n
′ |n−n′ |
an a† |ϕ0 i = n [n − 1] [n − 2] . . . n − n′ + 1 × a0 a† |ϕ0 i (8.39)
′
n hp i
an a† |ϕ0 i = n [n − 1] [n − 2] . . . n − n′ + 1 × (n − n′ )! |ϕn−n′ i (8.40)
1 ′
n
hϕn′ |ϕn i = √ hϕ0 | an a† |ϕ0 i
n! n′ !
p
n [n − 1] [n − 2] . . . [n − n′ + 1] (n − n′ )!
= √ hϕ0 |ϕn−n′ i = 0
n! n′ !
donde hemos usado el hecho de que n − n′ es un entero mayor o igual que uno, de modo que hϕ0 |ϕn−n′ i = 0.
280 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO
8.4.3. Acción de los operadores creación y destrucción sobre los autoestados del Hamilto-
niano
Las Ecs. (8.9) nos muestran que los observables X, P se pueden escribir en términos de a y a† , por lo tanto
cualquier observable fı́sico (sin espı́n) se puede escribir en términos de a y a† . Por otro lado, como los autoestados
{|ϕn i} del Hamiltoniano del oscilador armónico, constituyen una base en Ex , recurriremos con frecuencia a esta
base para construı́r representaciones matriciales. Por lo anterior, resulta de especial importancia estudiar la acción
de los operadores a y a† sobre los estados {|ϕn i}.
La acción de a† sobre |ϕn i se puede obtener reemplazando n por n + 1 en la Ec. (8.30)
√
a† |ϕn i = n + 1 |ϕn+1 i ; n = 0, 1, 2, . . .
1 1 1
a |ϕn i = √ aa† |ϕn−1 i = √ (N + 1) |ϕn−1 i = √ [(n − 1) + 1] |ϕn−1 i
n n n
√
a |ϕn i = n |ϕn−1 i ; n = 0, 1, 2, . . .
tenemos entonces que la acción de los operadores más relevantes sobre los autoestados |ϕn i son
√ √
a† |ϕn i = n + 1 |ϕn+1 i ; a |ϕn i = n |ϕn−1 i ; n = 0, 1, 2, . . . (8.41)
1
N |ϕn i = n |ϕn i ; H |ϕn i = n + ~ω |ϕn i ; n = 0, 1, 2, . . . (8.42)
2
Se puede ver que la segunda de las Ecs. (8.41) contiene automáticamente el hecho de que a |ϕ0 i = 0. Nótese que
el adjunto de las Ecs. (8.41) es
√ √
hϕn | a = n + 1 hϕn+1 | ; hϕn | a† = n hϕn−1 | (8.43)
podemos expresar el significado de las Ecs. (8.41, 8.43) en palabras diciendo que a es un operador destrucción
(construcción) para kets (bras), en tanto que a† es un operador construcción (destrucción) para kets (bras).
La acción de los observables básicos X y P sobre los autoestados |ϕn i se obtiene usando las Ecs. (8.9)
r r
~ † ~ √ √
X |ϕn i = a + a |ϕn i = n + 1 |ϕn+1 i + n |ϕn−1 i
2mω 2mω
r r
mω~ † mω~ √ √
P |ϕn i = i a − a |ϕn i = i n + 1 |ϕn+1 i − n |ϕn−1 i
2 2
con estas relaciones es fácil encontrar la representación matricial de los operadores a, a† , X y P en la base {|ϕn i}
√ √
hϕm | a |ϕn i = nhϕm |ϕn−1 i = nδm,n−1 (8.44)
√ √
hϕm | a† |ϕn i = n + 1hϕm |ϕn+1 i = n + 1δm,n+1 (8.45)
r
~ √ √
hϕm | X |ϕn i = n + 1δm,n+1 + nδm,n−1 (8.46)
2mω
r
mω~ √ √
hϕm | P |ϕn i = i n + 1δm,n+1 − nδm,n−1 (8.47)
2
se puede ver que las matrices representativas de a y a† son hermı́ticas conjugadas una de otra como era de
esperarse, pues en este caso las matrices son reales y la una es la traspuesta de la otra. En forma explı́cita estas
matrices vienen dadas por
8.5. FUNCIONES PROPIAS ASOCIADAS A LOS ESTADOS ESTACIONARIOS EN LA BASE {|Xi} 281
√
0 1 √0 0 ··· √0 0 0 0 ···
0 0 2 √0 · · · 1 √0 0 0 ···
3 ··· 0 2 √0 0 ···
a= 0 0 0 ; a† =
0 0 0 0 ··· 0 0 3 0 ···
.. .. .. .. . . .. .. .. .. ..
. . . . . . . . . .
nótese que las matrices de X y P son proporcionales a la suma y la diferencia de las matrices anteriores. Finalmente,
las matrices asociadas a X y P son hermı́ticas como se esperaba.
donde (mω/π~)1/4 es un factor de normalización. Dado que los demás estados se obtienen de la Ec. (8.31)
1 † n
|ϕn i = √ a |ϕ0 i (8.49)
n!
debemos obtener la representación del vector |ϕn i en la base {|xi} para ello multiplicamos la Ec. (8.49) por el bra
hx|
n n
1 † 1 1 b b
hx |ϕn i = √ hx| a |ϕ0 i = √ hx| √ X − iP |ϕ0 i
n! n! 2
r n
1 1 mω i
ϕn (x) = √ hx| √ X− √ P |ϕ0 i
n! 2 ~ mω~
r n
1 1 mω i ~ d
ϕn (x) = √ √ x− √ hx| ϕ0 i
n! 2n ~ mω~ i dx
"r r #n
1mω ~ d
ϕn (x) = √ x− hx| ϕ0 i
~
2n n! mω dx
"r #n
1 ~ mω d
ϕn (x) = √ x− hx| ϕ0 i
2n n! mω ~ dx
n 1 n
1 ~ 2 mω d
ϕn (x) = x− ϕ0 (x)
n! 2mω ~ dx
5
La ausencia de degeneración del estado base se demostró utilizando la base especı́fica {|xi}, pero el resultado debe ser independiente
de la base.
282 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO
ahora usando en forma explı́cita la función de onda del estado base Ec. (8.48) se tiene que
n 1 n
1 ~ 2 mω 14 mω d 1 mω 2
ϕn (x) = x− e− 2 ~ x (8.50)
n! 2mω π~ ~ dx
1 mω 2
de lo anterior se puede ver fácilmente que ϕn (x) es el producto de e− 2 ~ x por un polinomio de grado n y paridad
(−1)n . Los polinomios que surgen se denominan polinomios de Hermite.
Las dos primeras funciones asociadas a estados excitados (con energı́a mayor al estado base) son
4 mω 3 1/4 − 1 mω x2
ϕ1 (x) = xe 2 ~ (8.51)
π ~
mω 1/4 h mω i 1 mω 2
ϕ2 (x) = 2 x2 − 1 e− 2 ~ x (8.52)
4π~ ~
si se grafica la función de onda y la densidad de probabilidad para n = 0, 1, 2 (ver Figs. 8.1, 8.2) y para valores
grandes de n (Figs. 8.3), se pueden observar las siguientes caracterı́sticas: cuando n aumenta, la región en x
en la cual la densidad de probabilidad toma valores no despreciables se vuelve mayor. Esto corresponde a la
caracterı́stica clásica de que la amplitud de movimiento (y por tanto la región accesible) aumenta con la energı́a.
También veremos que el valor promedio o esperado de la energı́a potencial se incrementa con la energı́a (y por
tanto con n). Aunque esto se puede ver de un cálculo directo, se puede explicar cualitativamente teniendo en
cuenta que para n grandes, ϕn (x) toma valores no despreciables en regiones donde x es grande y por tanto donde
V (x) es grande. Las gráficas también muestran que el número de ceros de ϕn (x) es igual a n, lo cual se puede
demostrar formalmente con las propiedades de los polinomios de Hermite. Un análisis de estos polinomios muestra
8.6. VALORES ESPERADOS Y DISPERSIÓN EN UN ESTADO ESTACIONARIO DEL OSCILADOR 283
Figura 8.3: Función de onda (izquierda) y densidad de probabilidad (derecha) asociadas a n = 10, para el oscilador
armónico.
también que el valor promedio de la energı́a cinética se incrementa con n, puesto que tal valor promedio viene
dado por Z ∞
1
2 ~2 d2 ϕn
P =− ϕ∗n (x) dx (8.53)
2m 2m −∞ dx2
y cuando el número de ceros de ϕn (x) aumenta, también se incrementa la curvatura de la función de onda y en
la Ec. (8.53) la segunda derivada de ϕn se incrementa a su vez.
Otra caracterı́stica sobresaliente para grandes valores de n es que la densidad de probabilidad es grande
para x ∼= ±xM siendo xM la amplitud clásica de movimiento cuando la energı́a es En . Esto se relaciona con la
caracterı́stica clásica de que en xM la partı́cula está en reposo instantáneo y por tanto, en promedio se mantiene
más tiempo en las vecindades de ±xM que por ejemplo en las vecindades de x = 0 donde la rapidez es máxima.
2 m~ω † † m~ω † 2 † † 2
P = − a −a a −a =− a − aa − a a + a
2 2
m~ω 2
P2 = − a† + a2 − 2N − 1 (8.58)
2
Z 2π
1 x2
x2cl = xM cos2 (ωt − ϕ) dϕ = M
2π 0 2
Z 2π 2
1 p
p2cl = pM sin2 (ωt − ϕ) dϕ = M
2π 0 2
la desviación media cuadrática clásica de x y p queda
q q
xM pM
∆xcl = x2cl − (xcl )2 = √ ; ∆pcl = p2cl − (pcl )2 = √
2 2
y vemos que coincide con sus valores cuánticos Ecs. (8.65, 8.66). Este promedio clásico se está realizando sobre
los posible valores de la fase y no sobre un periodo de movimiento. Es decir, al igual que el promedio cuántico, no
involucra evolución temporal.
para valores pequeños de ξ, T domina sobre V y para valores grandes de ξ ocurre lo contrario. El estado base se
calcula de manera aproximada con el mı́nimo de la función E en la Ec. (8.70)
dE ~2
= 0 ⇒ − 3 + mω 2 ξm = 0
dξ ξ=ξm mξm
~2 ~2
− + mω 2 ξm
4 4
= 0 ⇒ ξm = 2 2
m m ω
8.8. EVOLUCIÓN TEMPORAL DE LOS OBSERVABLES DEL OSCILADOR ARMÓNICO 287
nótese que la Ec. (8.69) implica tomar un principio de “mı́nima incertidumbre” ya que implica que el producto de
las incertidumbres se acerca al lı́mite inferior. Vemos entonces que la combinación de mı́nima incertidumbre con
la minimización del promedio de la suma de las energı́as cinética y potencial, nos predice correctamente el orden
de magnitud de la energı́a del estado base.
Finalmente, podrı́a argumentarse que el aumento en la energı́a base con respecto al caso clásico es irrelevante
ya que es una cantidad constante ~ω/2. Al fin y al cabo, el verdadero observable fı́sico está en las transiciones
o diferencias de energı́a y no en la energı́a misma. Sin embargo, esto no es en general cierto, puesto que hay
procesos en los cuales interviene más de una frecuencia caracterı́stica ω, en los cuales pueden haber diferencias en
la energı́a base de varios osciladores. Adicionalmente, la diferencia entre la energı́a clásica y cuántica del oscilador
es intrı́nseca y no depende de la calibración que se defina en el caso clásico. Por ejemplo, si defino la energı́a
mı́nima clásica como E0 = −~ω/2, entonces el estado de menor energı́a cuántica será E0 = 0. Una vez más esta
redefinición de la energı́a base debe tomarse con cuidado, puesto que si hay más de una frecuencia involucrada,
solo puedo redefinir E0 = −~ωi /2 para ωi fijo, y solo ese oscilador quedará con energı́a cuántica cero.
como el sistema es conservativo, el estado en cualquier tiempo se obtiene empleando las Ecs. (5.66, 5.67).
∞
X 1
|ψ (t)i = cn (0) e−i(n+ 2 )ωt |ϕn i
n=0
puesto que m y n son enteros, la evolución temporal de los valores esperados solo involucra frecuencias de la forma
kω/2π con k entero. Por tanto las frecuencias de Bohr están constituı́das por “armónicos” que son múltiplos enteros
del “armónico fundamental” ω/2π. Para el caso particular de los observables X y P estos valores esperados se
288 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO
r ( ∞ ∞
)
~ X √ X √
hXi = n + 1c∗n+1 (0) cn (0) eiωt + n + 1c∗n (0) cn+1 (0) e−iωt
2mω
n=0 n=0
Vemos entonces que solo se incluyen ondas sinusoidales de frecuencia angular ω. Esto está relacionado con la
solución clásica del oscilador armónico la cual es monocromática para la variable x. Para hP i se obtiene un
resultado similar.
Por otro lado, en la discusión del teorema de Ehrenfest de la sección 5.7.1 vimos que la condición de igualdad
de los dos miembros en la Ec. (5.56) necesaria para obtener el lı́mite clásico adecuado, se cumple para todo estado
|ψi, cuando se usa el potencial del oscilador armónico que corresponde a n = 2 en la Ec. (5.58). Por tanto, de
acuerdo con las Ecs. (5.55, 5.52) se tiene que
d hXi 1 hP i
= h[X, H]i =
dt i~ m
d hP i 1
= h[P, H]i = −mω 2 hXi
dt i~
integrando estas ecuaciones se obtiene
1
hXi (t) = hXi (0) cos ωt + hP i (0) sin ωt (8.74)
mω
hP i (t) = hP i (0) cos ωt − mω hXi (0) sin ωt (8.75)
que es la forma sinusoidal que se obtuvo en (8.73), aunque escrita en términos de otras condiciones iniciales, puesto
que (8.73) está escrita en términos de los pesos iniciales del paquete de onda Ec. (8.71). En contraste, las Ecs.
(8.74, 8.75) están escritas en términos de condiciones iniciales concernientes al valor esperado del momento y la
posición.
Es importante mencionar que este análogo clásico solo es válido si el estado |ψ (0)i descrito por (8.71) es una
superposición con al menos dos coeficientes no nulos, ya que si solo uno de ellos es no nulo el sistema estará
inicialmente en un estado estacionario y los valores esperados no evolucionarán en el tiempo7 . En consecuencia,
cuando el oscilador está en un estado estacionario el comportamiento cuántico será muy diferente al clásico incluso
si n es muy grande. Si queremos un paquete de onda cuya posición promedio oscile en el tiempo, deben superponerse
varios estados estacionarios.
7
Cuando solo uno de los coeficientes en (8.71) es no nulo, entonces al menos uno de los coeficientes cn (0) ó cn+1 (0) es nulo para
cada n en la Ec. (8.73), con lo cual hXi = 0. Similarmente hP i = 0. Como en particular hXi (0) = hP i (0) = 0, también se obtiene que
hXi (t) = hP i (t) = 0 de las Ecs. (8.74, 8.75).
8.9. OSCILADOR ARMÓNICO CARGADO EN UN CAMPO ELÉCTRICO UNIFORME (OPCIONAL) 289
Asumamos que un oscilador armónico unidimensional posee carga q y está inmerso en un campo eléctrico
uniforme E en la dirección ux . Veremos como cambian los valores y vectores propios del oscilador armónico cuántico
cuando se le añade al Hamiltoniano la energı́a potencial asociada a esta nueva interacción, la cual clásicamente
viene descrita por
w (E) = −qEx (8.76)
con lo cual el Hamiltoniano cuántico completo será
P2 1
H ′ (E) = + mω 2 X 2 − qEX (8.77)
2m 2
la ecuación de valores propios será
H ′ (E) ϕ′ = E ′ ϕ′
~2 d2 1
− + mω x − qEx ϕ′ (x) = E ′ ϕ′ (x)
2 2
(8.78)
2m dx2 2
completando el cuadrado con respecto a x al lado izquierdo de la ecuación (8.78) queda
" 2 #
~2 d2 1 qE q 2 E2
− + mω 2 x − − ϕ′ (x) = E ′ ϕ′ (x) (8.79)
2m dx2 2 mω 2 2mω 2
Las ecuaciones (8.82) muestran que el efecto del campo eléctrico uniforme E sobre el espectro del oscilador
armónico consiste en un corrimiento constante del espectro por un cantidad q 2 E2 / 2mω 2 . Por otro lado, la Ec.
(8.83) muestra que el efecto sobre el estado, es una traslación de la función de onda estacionaria del oscilador
armónico simple en una cantidad qE/ mω 2 . Esta traslación se debe a que el campo eléctrico ejerce una fuerza
constante sobre la partı́cula, cuyo efecto neto es redefinir el punto de equilibrio del oscilador. Ya que usualmente
definimos el origen en el punto de equilibrio, podemos decir que el único efecto del campo eléctrico uniforme es el
de cambiar el origen de x y de la energı́a. Por ejemplo, si qE > 0, la traslación en la función de onda se realiza en
la dirección positiva de las x, que es la dirección de la fuerza ejercida por E. El caso qE < 0, es análogo.
Otra forma de ver el fenómeno es analizando la estructura del potencial con y sin campo eléctrico. El potencial
clásico del oscilador armónico con campo eléctrico uniforme viene dado por
′ 1 2 2 1 2 qE 2 q 2 E2
V = mω x − qEx = mω x − −
2 2 mω 2 2mω 2
1 q 2 E2 qE
V′ = −V0 + mω 2 (x − x0 )2 ; V0 = 2
, x0 = (8.84)
2 2mω mω 2
el potencial V sin campo eléctrico es una parábola centrada en cero y con mı́nimo V = 0 en x = 0. La Ec. (8.84)
muestra que el potencial con la contribución del campo es también una parábola asociada al mismo valor de ω,
pero centrada en x0 y con mı́nimo en V = −V0 . La Ec. (8.82) con n = 0, muestra que el proceso de cuantización
incrementa el mı́nimo de la energı́a en una cantidad ~ω/2, en virtud del principio de incertidumbre como ya se
discutió en la sección 8.7.
desarrollaremos algunas expresiones algebráicas relativas a S (λ), a y a† para propósitos futuros. Dado que P es
hermı́tico es claro de (8.85) que S (λ) es unitario
de la Ec. (8.10) es claro que tanto a como a† conmutan con el conmutador entre ambos. Por tanto, es aplicable la
fórmula de Glauber (1.149) Pág. 79
1 † 1 2 † 1 2
S (λ) = e−λ(a−a ) = e−λa+λa = e−λa eλa e− 2 [−λa,λa ] = e−λa eλa e 2 λ [a,a ] = e−λa eλa e 2 λ
† † † † †
la misma condición de que a y a† conmutan con su conmutador nos permite utilizar la primera de las Ecs. (1.140)
Pág. 77, con a† = A y a = B, para calcular
h i h i h i ′ h i
e−λa , a† = − a† , e−λa = − a† , a e−λa = a, a† −λe−λa = −λe−λa
†
de manera similar se obtiene el conmutador entre eλa y a, obteniéndose
h i h † i †
e−λa , a† = −λe−λa ; eλa , a = −λeλa (8.88)
quedando entonces
† †
e−λa a† eλa = a† − λ ; eλa ae−λa = a − λ (8.89)
Partiremos de la ecuación de valores propios sin campo eléctrico
y haremos una transformación pasiva8 asociada al operador unitario S (λ). Para ello multiplicamos la ecuación
por S (λ) e insertamos un operador identidad en la forma
h i h i
S (λ) H S † (λ) S (λ) |ϕi = ES (λ) |ϕi ⇒ S (λ) HS † (λ) [S (λ) |ϕi] = E [S (λ) |ϕi]
e |ϕi
H e = E |ϕi
e ; e ≡ S (λ) HS † (λ)
H , |ϕi
e ≡ S (λ) |ϕi (8.91)
calcularemos la transformación pasiva del Hamiltoniano del oscilador armónico sin campo Ec. (8.12)
e † 1 † † 1 † †
H ≡ S (λ) HS (λ) = ~ω S (λ) + a a S (λ) = + S (λ) a aS (λ) ~ω
2 2
h i h ih i
e = ~ω + ~ω S (λ) a† S † (λ) S (λ) aS † (λ) = ~ω + ~ω S (λ) a† S † (λ) S (λ) aS † (λ)
H
2 2
e = 1
H a†e
+e a ~ω ; e a ≡ S (λ) aS † (λ) ; e
a† ≡ S (λ) a† S † (λ) (8.92)
2
utilizando las Ecs. (8.87) y (8.89), podemos calcular los operadores transformados e a† en términos de los
a y e
operadores originales
h 1 2 †
i h 1 2 †
i † †
a ≡ S (λ) aS † (λ) = e 2 λ e−λa eλa a e− 2 λ e−λa eλa = e−λa eλa ae−λa eλa
e
a = e−λa (a − λ) eλa = a − λ
e
a† , se obtiene entonces
y similarmente para e
a =a−λ
e a† = a† − λ
; e (8.93)
8
Sin embargo, esta transformación no serı́a un cambio de base, ya que el operador unitario en cuestión produce una traslación (y
no una rotación) que conserva norma. Desde el punto de vista pasivo, serı́a más bien un cambio de origen.
292 CAPÍTULO 8. EL OSCILADOR ARMÓNICO CUÁNTICO
teniendo en cuenta que H es el Hamiltoniano del oscilador armónico (sin trasladar) y comparando los Hamilto-
e y H ′ (E) Ecs. (8.77, 8.94), vemos que H
nianos H e coincide con H ′ (E) (excepto por una constante) si definimos el
parámetro λ en la forma r
qE 1
λE = (8.95)
ω 2m~ω
en cuyo caso obtenemos
2 2 2 2
e (λE ) = H − qEX + q E = H ′ (E) + q E
H
2mω 2 2mω 2
2 2
e (λE ) = H ′ (E) + κ1 ; κ ≡ q E
H (8.96)
2mω 2
puesto que He (λE ) y H ′ (E) solo difieren en un operador proporcional a la identidad, tendrán los mismos auto-
vectores y sus valores propios difieren por la constante de proporcionalidad κ. Adicionalmente, de las Ecs. (8.90,
e están dados por
8.91) vemos que si los autovectores de H son los kets |ϕn i, los autovectores de H
|ϕ
en i = S (λ) |ϕn i (8.97)
y que los autovalores de H y H e coinciden. Los estados estacionarios |ϕ′ i del oscilador armónico en presencia del
n
campo uniforme E, estarán dados entonces por los estados |ϕ en i dados por la Ec. (8.97). De acuerdo con la Ec.
(8.96) los autovalores de H ′ (E) están dados por
′ 1 q 2 E2
En (E) = n + ~ω −
2 2mω 2
que coincide con la Ec. (8.82) obtenida por métodos directos. La expresión (8.97) para el autovector, viene dada
por
" r #
′ i i 2~
ϕ (E) = |ϕ en (λE )i = S (λE ) |ϕn i = exp − ΛE P |ϕn i = exp − λE P |ϕn i
n
~ ~ mω
" r !r #
i qE 1 2~
= exp − P |ϕn i
~ ω 2m~ω mω
′
ϕn (E) = exp − i qE P |ϕn i (8.98)
~ mω 2
donde hemos usado (8.86, 8.95). La ecuación (8.85), nos dice que S (Λ) ≡ exp [−iΛP/~] es precisamente el operador
traslación sobre una distancia Λ a lo largo de x, vemos de la Ec. (8.98) que |ϕ′n (E)i se obtiene por una traslación
de |ϕn i en la cantidad qE/ mω 2 , en consistencia con la función de onda (8.83) calculada con los métodos
tradicionales.
Capı́tulo 9
Ya hemos estudiado las propiedades de los estados estacionarios del oscilador armónico y hemos observado que
su comportamiento difiere significativamente del oscilador armónico clásico. Por ejemplo, los valores esperados de
X y P son cero y no oscilantes como ocurre en el caso clásico (excepto en el caso en que la energı́a clásica es
cero). Vimos también que para emular razonablemente el caso clásico, se necesita la superposición de al menos dos
estados estacionarios. Por otro lado, es de esperarse que en el lı́mite de energı́as mucho mayores que ~ω (números
cuánticos n muy grandes), las predicciones clásicas y cuánticas sean casi idénticas, ya que al tener una enorme
cantidad de cuantos se enmascara su carácter discreto.
Hemos visto que muchos sistemas clásicos y cuánticos se pueden describir con el oscilador armónico al menos
en primera aproximación. Por esta razón es importante saber como pasar gradualmente de una descripción clásica
a una descripción cuántica o vice versa. En otras palabras es importante caracterizar ciertos parámetros que nos
indiquen como dicernir cuando los resultados clásicos o cuánticos sean adecuados para describir cierto sistema fı́sico.
Un caso importante es la radiación electromagnética, hemos visto que para altas intensidades la descripción clásica
es adecuada, en tanto que para bajas intensidades el carácter discreto de la radiación se manifiesta claramente.
Lo anterior nos induce a indagar por la existencia de estados cuánticos que conduzcan a predicciones fı́sicas muy
similares a las clásicas, al menos para el oscilador armónico macroscópico. Veremos que los estados que cumplen
esta condición son superposiciones coherentes de los estados estacionarios |ϕn i del oscilador armónico. Por tal
razón a dichos estados se les denomina como estados coherentes del oscilador armónico o también estados
cuasi-clásicos. Los estados coherentes de la radiación electromagnética permiten dicernir cuantitativamente la
importancia de los efectos cuánticos en la radiación para cada sistema radiativo.
La idea es entonces encontrar estados para los cuales los valores de hXi , hP i , y hHi sean semejantes a los
valores clásicos para todo tiempo. Adicionalmente, puesto que estos observables no son compatibles (no conmutan
entre sı́) no es posible construı́r un estado cuántico en donde las tres cantidades estén bien definidas. Los estados
coherentes deben entonces lidiar inevitablemente con el principio de incertidumbre, de modo que también deben
lograr que las desviaciones medias cuadráticas ∆X, ∆P, ∆H sean despreciables en el lı́mite macroscópico.
293
294 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO
db
x (t) db
p (t)
= ωb
p (t) ; = −ωb
x (t) (9.3)
dt dt
nótese que la “normalización” de las variables x y p se realizó con constantes que dependen de ~, de modo que
facilite la comparación del oscilador clásico con el oscilador cuántico. El estado clásico está determinado para todo
tiempo por las variables x (t) , p (t) o equivalentemente, por las variables x b (t) y pb (t). Estas a su vez se pueden
sintetizar en un número complejo adimensional α (t) en la forma
1
α (t) = √ [bx (t) + ib
p (t)] (9.4)
2
y las ecuaciones (9.3) se pueden escribir como una única ecuación compleja en la forma
dα (t)
= −iω α (t) (9.5)
dt
cuya solución es
1
α (t) = α0 e−iωt ; α0 = α (0) = √ [b p (0)] ≡ |α0 | eiδ
x (0) + ib (9.6)
2
siendo α0 un número complejo que se puede escribir como α0 = |α0 | eiδ , claramente la solución representa un fasor
de magnitud |α0 | y cuya fase está dada por δ − ωt. Es decir, el fasor rota con velocidad angular −ω (de modo que
si ω > 0 el giro es en dirección horaria alrededor de O). √
Es claro
√ además que las componentes cartesianas del fasor α (t) en cualquier instante, corresponden a x b (t) / 2
y pb (t) / 2. Vemos entonces que la descripción completa del movimiento se obtiene a través de la condición inicial
descrita por α0 , en la Ec. (9.6). Esta condición inicial se expresa bien sea como posición y momento inicial
(componentes cartesianas adimensionales) o bien sea como |α0 | y δ (parámetros polares correspondientes a la
amplitud adimensional de la oscilación y fase inicial respectivamente). De las Ecs. (9.4, 9.6) se obtiene
1 √ i √
b (t) = √ α0 e−iωt + α∗0 eiωt = 2Re α0 e−iωt ; pb (t) = − √ α0 e−iωt − α∗0 eiωt = 2Im α0 e−iωt
x (9.7)
2 2
ahora escribiremos la energı́a del sistema clásico H la cual es una constante de movimiento y por tanto coincide
con su valor inicial para todo tiempo
1 1
H = [p (0)]2 + mω 2 [x (0)]2
2m 2
~ω n o
H = x (0)]2 + [b
[b p (0)]2 (9.8)
2
teniendo en cuenta la segunda de las Ecs. (9.6), la energı́a queda en la forma
H = ~ω |α0 |2 (9.9)
para un oscilador macroscópico es claro que la energı́a es mucho mayor a la energı́a del cuanto fundamental de
modo que
|α0 | ≫ 1 (9.10)
cual definiremos los correspondientes observables adimensionales. Adicionalmente, escribiremos los observables en
términos de los operadores creación y destrucción. De las Ecs. (8.8, 8.12) se obtiene
1
b = βX = √ a + a 1 i 1
X †
; Pb = P = −√ a − a † †
; H = ~ω a a + (9.11)
2 ~β 2 2
si comparamos las Ecs. (9.11) con las Ecs. (9.7, 9.6) vemos que el operador a es el análogo de la cantidad clásica
α (t) y a† posee el papel de α∗ (t). Clásicamente hemos visto que la cantidad compleja α0 (condiciones iniciales)
nos dictamina la evolución temporal de los observables clásicos que se describen con α (t) en la Ec. (9.6), y dado
que a es el análogo cuántico de α, es natural continuar la analogı́a calculando la evolución temporal de hai para
el sistema en un estado arbitrario |ψ (t)i. Tal evolución se obtiene de la Ec. (5.52)
d
i~ hai (t) = h[a, H]i (t) (9.12)
dt
donde hemos tenido en cuenta que a es solo función de X y P y por tanto no depende explı́citamente del tiempo.
El miembro derecho de (9.12) se escribe como
Dh iE Dh i E
† I
h[a, H]i (t) = ~ω a, a a + (t) = ~ω a, a† a (t) = ~ω a, a† a (t)
2
h[a, H]i (t) = ~ω hai (t)
donde hemos usado la Ec. (8.10) Pág. 272. Con lo anterior, la Ec. (9.12) queda
d
i hai (t) = ω hai (t) (9.13)
dt
cuya solución es
hai (t) = hai (0) e−iωt (9.14)
la solución para a† (t) es la compleja conjugada de (9.14)
D E D E
a† (t) = a† (0) eiωt = hai∗ (0) eiωt (9.15)
nótese que las soluciones cuánticas (9.14, 9.15) son los análogos de la solución clásica (9.6), como era de esperarse
en virtud de la analogı́a a, a† ↔ α, α∗ . Sustituyendo (9.14) y (9.15) en (9.11) se obtiene
D E 1
b (t) =
X √ hai (0) e−iωt + hai∗ (0) eiωt
2
D E i
Pb (t) = − √ hai (0) e−iωt − hai∗ (0) eiωt (9.16)
2
el lı́mite clásico se obtiene igualando los valores esperados con las variables clásicas
D E D E
Xb (t) = xb (t) ; Pb (t) = pb (t) (9.17)
esta igualación se realiza comparando las Ecs. (9.16) con las Ecs. (9.7). De esto se ve que la condición necesaria y
suficiente para obtener el lı́mite clásico (9.17) es que en t = 0 se cumpla la condición
siendo α0 el parámetro complejo que caracteriza al movimiento clásico que pretendemos emular cuánticamente, y
viene dado por la segunda de las Ecs. (9.6). Debemos ahora obtener la condición para la igualación de las energı́as
296 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO
clásica y cuántica, para ello calculamos el valor esperado del Hamiltoniano cuántico, como éste es constante de
movimiento, se puede evaluar en cero
D E ~ω
hHi = ~ω a† a (0) +
2
debemos igualar esta energı́a con su valor clásico H y obtener la condición que se genera con tal igualación. Para
ello podemos despreciar el término ~ω/2, ya que el lı́mite clásico corresponde a energı́as mucho mayores
que ~ω.
Recordemos que el término ~ω/2 es puramente cuántico en su origen. La igualación de hHi ≃ ~ω a† a (0) con el
valor clásico dado por la Ec. (9.9) nos lleva a la condición
D E
a† a (0) = |α0 |2 (9.19)
recordando que hemos asumido un estado |ψ (t)i para el sistema, las condiciones (9.18, 9.19) se escriben como
veremos que las condiciones (9.20) son suficientes para determinar el estado normalizado |ψ (0)i excepto por un
factor de fase constante. Para verlo introducimos el operador b (α0 ) definido por
b (α0 ) ≡ a − α0
nótese que este operador mide la “desviación” entre el comportamiento del operador cuántico a y el de su análogo
clásico α0 en el tiempo inicial, tenemos que
b† (α0 ) b (α0 ) = a† − α∗0 (a − α0 ) = a† a − a† α0 − α∗0 a + |α0 |2
con lo cual
n o
kb (α0 ) |ψ (0)ik2 = hψ (0)| b† (α0 ) b (α0 ) |ψ (0)i = hψ (0)| a† a − a† α0 − α∗0 a + |α0 |2 |ψ (0)i
kb (α0 ) |ψ (0)ik2 = hψ (0)| a† a |ψ (0)i − α0 hψ (0)| a† |ψ (0)i − α∗0 hψ (0)| a |ψ (0)i + |α0 |2
como la norma del ket b (α) |ψ (0)i es nula entonces el ket como tal es nulo, por tanto
recı́procamente, si el ket normalizado |ψ (0)i satisface esta relación, podemos devolvernos en los pasos y ver que
las condiciones (9.20) se satisfacen. Nótese que el resultado b (α) |ψ (0)i = 0 es el esperado, ya que cuando el estado
|ψ (0)i es cuasi-clásico, es razonable que la “desviación” entre el comportamiento clásico y el cuántico se anule.
Lo anterior nos lleva a la conclusión de que el estado cuasi-clásico asociado con un movimiento clásico ca-
racterizado por el parámetro α0 , es tal que el vector de estado |ψ (0)i en t = 0 es un autovector del operador
destrucción a con autovalor α0 . Escribiremos los autovectores de a y su autovalores en la forma
aplicando el operador destrucción a ambos lados de la expansión y usando la Ec. (8.41), se obtiene
∞
X ∞
X √
a |αi = cn (α) [a |ϕn i] ⇒ a |αi = cn (α) n |ϕn−1 i (9.24)
n=0 n=0
nótese que aunque la suma de la izquierda debe ir desde k = −1, este primer término es nulo. Apelando a la
independencia lineal de los |ϕk i se obtiene
α
ck+1 (α) = √ ck (α) (9.25)
k+1
utilizando esta relación iterativamente tenemos
α α α α2
ck (α) = √ ck−1 (α) = √ √ ck−2 (α) = p ck−2 (α)
k k k−1 k (k − 1)
α2 α α3
ck (α) = p √ ck−3 (α) = p ck−3 (α)
k (k − 1) k−2 k (k − 1) (k − 2)
αk
ck (α) = p ck−k (α)
k (k − 1) (k − 2) . . . × 2 × 1
de modo que todos los coeficientes de la expansión de |αi se pueden generar a partir de c0 (α)
αk
ck (α) = √ c0 (α) (9.26)
k!
Escogeremos a c0 (α) como real y positivo (fase cero). Adicionalmente, escogeremos c0 (α) de modo que |αi quede
adecuadamente normalizado. De acuerdo con (9.23), la normalización de |αi nos lleva a
∞
X ∞
X ∞ X
X ∞
1 = hα |αi = c∗k (α) cn (α) hϕk |ϕn i = c∗k (α) cn (α) δkn
k=0 n=0 k=0 n=0
∞
X
⇒ |ck (α)|2 = 1 (9.27)
k=0
298 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO
con lo cual
1 †
hHiα = ~ω hα| a a + |αi
2
1
hHiα = ~ω |α|2 + (9.32)
2
9.3. PROPIEDADES DE LOS ESTADOS |αi 299
teniendo en cuenta el resultado (9.30), vemos que si |α| ≫ 1 (como corresponde al lı́mite clásico), la cantidad
hHiα es muy similar en valor
relativo
a la energı́a En que corresponde al máximo de Pn (α). Con el fin de calcular
el ancho ∆H calcularemos H 2 α
2 2 2 † 1 2 2 2 † † † 1
H α = ~ ω hα| a a + |αi = ~ ω hα| a a a a + a a + |αi
2 4
2 2 2 2 † 1 2 2 2 2 2 1
= ~ ω hα| N N |αi + ~ ω hα| a a + |αi = ~ ω hN α |N αi + ~ ω |α| +
4 4
2 1
H α = ~2 ω 2 k|N αik2 + ~2 ω 2 |α|2 + (9.33)
4
donde hemos usado la Ec. (9.31) y el hecho de que N = a† a es hermı́tico. Multiplicando (9.22) por a† se tiene que
2
a† a |αi = αa† |αi ⇒ N |αi = αa† |αi ⇒ kN |αik2 = |α|2
a† |αi
⇒ kN |αik2 = |α|2 hα| aa† |αi ⇒ kN |αik2 = |α|2 hα| a† a + 1 |αi
kN |αik2 = |α|2 |α|2 + 1 (9.34)
2 ~ 2 ~ 2 ~ 2
X α = hα| a† + a |αi = hα| a† + a2 + a† a + aa† |αi = hα| a† + a2 + 2N + 1 |αi
2mω 2mω 2mω
~ h i ~ h i
= α∗2 + α2 + 2 |α|2 + 1 = (α∗ + α)2 + 1
2mω 2mω
~ h ∗ i ~ ~
(∆Xα )2 = X2 α
(α + α)2 + 1 −
− hXi2α = (α∗ + α)2 =
2mω 2mω 2mω
"r #2
2 m~ω h i m~ω
(∆Pα )2 2
= P α − hP iα = 2
− (α − α∗ ) + 1 − i (α∗ − α)
2 2
m~ω h i m~ω m~ω
= − (α − α∗ )2 + 1 + (α∗ − α)2 =
2 2 2
resumiendo los anteriores resultados tenemos que
r
2~ √
hXiα = hα| X |αi = Re (α) ; hP iα = hα| P |αi = 2m~ωIm (α) (9.39)
mω
2 ~ h i
m~ω h i
X α = (α + α∗ )2 + 1 ; P 2 α = 1 − (α − α∗ )2 (9.40)
2mω
r r 2
~ m~ω
∆Xα = ; ∆Pα = (9.41)
2mω 2
se observa que los anchos ∆Xα y ∆Pα no dependen de α y el producto de los anchos toma su valor mı́nimo
~
∆Xα · ∆Pα = (9.42)
2
lo cual es muy deseable para un lı́mite cuasi-clásico.
podemos generar a |αi a partir de |ϕ0 i con un operador más simétrico, para ello tenemos en cuenta que el operador
destrucción a aniquila el estado base, con lo cual tenemos que
−α∗ a ∗ α∗2 2
e |ϕ0 i = 1 − α a + a + . . . |ϕ0 i = |ϕ0 i (9.44)
2!
de la Ec. (9.44) podemos reescribir la Ec. (9.43) en la forma
|α|2
− 2 αa† −α∗ a
|αi = e e e |ϕ0 i
La Ec. (9.47) nos muestra que podemos ver al operador unitario D (α) como un operador “creación” del estado
coherente |αi a partir del estado base del oscilador armónico. La Ec. (9.47) nos permite encontrar la función de
onda asociada a los estados coherentes
para calcular la función de onda, primero escribimos el operador αa† − α∗ a en términos de X y P usando las Ecs.
(8.7) r
† ∗ mω α − α∗ i α + α∗
αa − α a = √ X−√ √ P
~ 2 m~ω 2
teniendo en cuenta que
r r
mω α − α∗ i α + α∗ i mω
√ X, − √ √ P = − √ (α − α∗ ) (α + α∗ ) [X, P ]
~ 2 m~ω 2 2 m~ω ~
1 2
= α − α∗2
2
y usando de nuevo la relación (1.149), el operador D (α) queda
r ∗2
αa† −α∗ a mω α − α∗ i α + α∗ α − α2
D (α) = e = exp √ X exp − √ √ P exp
~ 2 m~ω 2 4
sustituyendo este resultado en (9.48) se obtiene
∗2 r
α − α2 mω α − α∗ i α + α∗
ψα (x) = exp hx| exp √ X exp − √ √ P |ϕ0 i
4 ~ 2 m~ω 2
∗2 r ( "r # )
α −α 2 mω α − α ∗ i ~
ψα (x) = exp exp √ x hx| exp − (α + α∗ ) P |ϕ0 i (9.49)
4 ~ 2 ~ 2mω
302 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO
ahora bien, el operador e−iλP/~ es el operador traslación de λ a lo largo de x (siendo P la componente x del
momento) ver sección 1.44.2 Ec. (1.211), pág 106, de modo que
( "r # ) * r
i ~ ~
hx| exp − (α + α∗ ) P = x − (α + α∗ )
~ 2mω 2mω
reemplazando las Ecs. (9.51, 9.52) en la función de onda (9.50) tenemos que
r r r !
hXiα hP iα mω 2i hP iα ~ mω
ψα (x) = exp −i exp √ √ x ϕ0 x− 2 hXiα
2~ ~ 2 2m~ω 2mω 2~
hXiα hP iα
ψα (x) = eiθα eihP iα x/~ ϕ0 (x − hXiα ) ; θα ≡ − (9.53)
2~
la ecuación (9.53) nos muestra que ψα (x) se puede obtener a partir de la función de onda ϕ0 (x) del estado base
del oscilador armónico en la siguiente forma: Se traslada esta función a lo largo de x en una cantidad hXiα y
se multiplica por la exponencial oscilante eihP iα x/~ . El factor eiθa es irrelevante y puede ser omitido, nótese sin
embargo que el término eihP iα x no es una fase global sino local ya que depende de x, y por tanto es relevante. Esta
exponencial nos asegura que el valor promedio de P en el estado ψα (x) sea hP iα .
Si reemplazamos la forma explı́cita de ϕ0 (x) (Ec. 8.48, Pág. 281), en la Ec. (9.53) obtenemos
mω 1
4 1 mω
iθα ihP iα x/~ 2
ψα (x) = e e exp − (x − hXiα )
π~ 2 ~
" r #2
mω 1 1 2mω
4 iθα ihP i x/~
ψα (x) = e e α exp − (x − hXiα )
π~ 2 ~
( )
1 x − hXiα 2
iθα mω 4 x
ψα (x) = e exp − + i hP iα (9.54)
π~ 2∆Xα ~
donde hemos usado también la Ec. (9.41). La forma del paquete de onda asociada con el estado |αi está dada por
r ( )
2 mω 1 x − hXiα 2
|ψα (x)| = exp − (9.55)
π~ 2 ∆Xα
con lo cual para cualquier estado coherente |αi obtenemos un paquete Gaussiano. Esto a su vez está relacionado
con la propiedad de mı́nima incertidumbre que obtuvimos en la Ec. (9.42).
9.5. LOS ESTADOS COHERENTES SON COMPLETOS PERO NO ORTOGONALES 303
donde hemos tenido en cuenta la expresión del diferencial de área en coordenadas polares2 . Sustituyendo la
parametrización polar de la Ec. (9.59) en la integral (9.58), ésta última queda como
Z Z "∞ ∞ #
1 2 X X ρeiϕ n ρe−iϕ m
e−|ρe |
iϕ
I = √ √ |ϕn i hϕm | ρ dρ dϕ
π n=0 m=0 n! m!
Z Z "∞ ∞ #
1 2 X X ρn+m ei(n−m)ϕ
I = e−|ρ| √ |ϕn i hϕm | ρ dρ dϕ
π n!m!
n=0 m=0
∞ ∞ Z Z 2π
1 X X ∞ −ρ2 n+m 1
I = e ρ ρ dρ √ |ϕn i hϕm | dϕ ei(n−m)ϕ (9.60)
π n!m!
n=0 m=0 0 0
1
De hecho el operador destrucción “a” no es ni siquiera normal, de modo que no es válido en general el teorema espectral para este
operador.
2
Combinando las Ecs. (9.39, 9.59), podemos ver que d2 α = d {Re (α)} d {Im (α)} = 2~ 1
d hXiα d hP iα , con lo cual la Ec. (9.57) que
expresa la completez de los estados coherentes, se puede interpretar como una integral sobre el espacio de fase clásico.
304 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO
In = nIn−1
cuya solución es
Como el Hamiltoniano del oscilador armónico es independiente del tiempo, la evolución temporal del estado
se puede calcular con la Ec. (5.67)
X |α0 |2 X αn 1
|ψ (t)i = cn (0) e−iEn t/~ |ϕn i = e− 2 √ 0 e−i(n+ 2 )ωt |ϕn i
n n n!
2 n
|α0 |2 X αn |α0 e−iωt | X α0 e−iωt
−i ωt − ωt
|ψ (t)i = e 2 e 2 √ 0 e−inωt |ϕn i = e−i 2 e− 2 √ |ϕn i (9.63)
n n! n n!
comparando (9.63) con (9.62), vemos que el ket |ψ (t)i se obtiene del ket inicial |ψ (0)i = |α0 i cambiando α0 por
ωt
α0 e−iωt y multiplicando el ket resultante por la fase global (irrelevante) e−i 2 , con lo cual |ψ (t)i se puede reescribir
como
|ψ (t)i = e−iωt/2 α = α0 e−iωt ; |ψ (0)i = |α0 i (9.64)
por tanto el estado cuasi-clásico continúa siendo autovector del operador a, para todo tiempo t. Su autovalor es
α0 e−iωt que es el parámetro α (t) descrito por las ecuaciones (9.4, 9.6) y que geométricamente es un fasor que rota
en el plano complejo con velocidad angular −ω. Recordemos que este fasor caracteriza en todo tiempo al oscilador
armónico clásico cuya evolución pretendemos reproducir a través del estado |ψ (t)i. Los valores esperados de hXi
y hP i para todo tiempo se obtienen a partir de (9.64) y (9.39)
r
2~ √
hXiα(t) (t) = Re α0 e−iωt ; hP iα(t) (t) = 2m~ωIm α0 e−iωt (9.65)
mω
y tal como se predijo, estas ecuaciones son similares a la evolución clásica Ecs. (9.7).
Por otro lado, la energı́a promedio es independiente del tiempo
2 1 1
hHiα(t) (t) = ~ω α0 e−iωt + = ~ω |α0 |2 + (9.66)
2 2
finalmente, las raı́ces de las desviaciones medias cuadráticas ∆Hα(t) , ∆Xα(t) y ∆Pα(t) calculadas con las Ecs. (9.36,
9.41) nos dan r r
~ m~ω
∆H = ~ω |α0 | ; ∆X = ; ∆P = (9.67)
2mω 2
vemos que los anchos no dependen del tiempo. En particular ∆X y ∆P permanecen siendo paquetes de mı́nima
incertidumbre para todo tiempo. No hay dispersión de los paquetes de onda. Veamos un poco más en detalle la
evolución del paquete de onda, la función de onda ψ (x, t) para todo tiempo se puede calcular con las Ecs. (9.54,
9.64)
mω 1/4 h i2
xhP i(t) − x−hXi(t)
ψ (x, t) = eiθα e−iωt/2 ei ~ e 2∆X
π~
vemos que la forma del paquete es Gaussiana para todo tiempo t. Su forma no varı́a en el tiempo puesto que
vemos que los estados cuasi-clásicos son tales que los anchos ∆X y ∆P permanecen como paquetes de mı́nima
incertidumbre y la forma del paquete permanece intacta cuando éste se propaga. Esta ausencia de dispersión y
de cambio del perfil del paquete es la que le da el nombre de “estados coherentes” a los estados cuasi-clásicos del
oscilador armónico.
La Fig. 9.1 muestra el movimiento de un paquete de onda de un estado coherente. De acuerdo con la Ec.
(9.65), el valor esperado de X oscila alrededor de x = 0 con periodo T = 2π/ω, y dado que el paquete de onda
no se distorsiona, este será también el movimiento del paquete como un todo. En contraste, vimos en la sección
2.15.1 que un paquete Gaussiano libre se distorsiona cuando se propaga, ya que su ancho aumenta a medida que se
306 CAPÍTULO 9. ESTADOS CUASI-CLÁSICOS DEL OSCILADOR ARMÓNICO
Figura 9.1: Propagación de un paquete de onda Gaussiano sometido a un potencial parabólico y asociado a un estado
cuasi-clásico. El paquete oscila alrededor del punto de equilibrio. La forma y el ancho del paquete Permanecen
intactos en el tiempo.
propaga (dispersión del paquete de onda). Vemos en contraste que un paquete Gaussiano sometido a un potencial
parabólico (oscilador armónico) no posee dispersión. Esto se debe a que la tendencia del paquete a dispersarse
es compensada por el potencial, cuyo efecto es empujar al paquete hacia el origen desde regiones donde x (y por
tanto V (x)) es grande.
Adicionalmente, ya hemos visto en las secciones (9.3.1, 9.3.2) que cuando |α| ≫ 1, las raı́ces de las desviaciones
medias cuadráticas de X, P y H son mucho menores que sus valores esperados asociados, y además dichos valores
esperados emulan en todo tiempo la evolución clásica. De modo que escogiendo un valor de |α| lo suficientemente
alto, obtenemos una evolución temporal cuántica para la cual la posición y momento de los osciladores son en valor
relativo, tan definidos como es posible, ya que los paquetes son de mı́nima incertidumbre, y su valor caracterı́stico
tiene un comportamiento similar al clásico. Por tanto, en este lı́mite el estado |αi emula muy bien las propiedades
de un oscilador macroscópico (clásico) para el cual la posición, momento y energı́a están bien definidos.
9.7. TRATAMIENTO MECANO-CUÁNTICO DE UN OSCILADOR ARMÓNICO MACROSCÓPICO 307
asumamos que este oscilador realiza movimiento periódico de amplitud xM = 1cm. Nos preguntamos ahora por
el estado mecano-cuántico que mejor representa esta oscilación.
De acuerdo con la discusión anterior, dicho estado es del tipo |αi. Combinando la relación clásica entre energı́a
y amplitud con la Ec. (9.32) (despreciando el factor 1/2 en esta última) se obtiene
1
E = mω 2 x2M = ~ω |α|2 ⇒
2
r
mω
|α| = xM
2~
en donde el argumento de α depende de la fase inicial de movimiento. Para nuestro caso tenemos las siguientes
estimaciones numéricas
√
|α| ≃ 5 × 1015 ≫ 1
r
~
∆X = ≃ 2,2 × 10−18 m ≪ xM
2mω
r
m~ω
∆P = ≃ 2,2 × 10−17 kg m/s
2
la raı́z de la desviación media cuadrática para la velocidad está dada por
el valor máximo de la velocidad del oscilador es 0,1m/s y la raı́z del valor medio cuadrático es de este mismo
orden de magnitud. Por tanto, las incertidumbres en la posición y velocidad son completamente despreciables con
respecto a las cantidades involucradas en el problema. Por ejemplo ∆X es menor que un fermi (10−15 m) que
es el tamaño aproximado de un núcleo atómico. Es claro que esta cantidad es despreciable para una longitud
macroscópica.
Finalmente, la energı́a del oscilador se conoce con una excelente precisión relativa, usando la Ec. (9.38) resulta
∆H 1
≃ ≃ 0,4 × 10−15 ≪ 1
hHi |α|
todo esto nos muestra porqué la mecánica clásica provee una adecuada descripción del oscilador armónico ma-
croscópico.
Capı́tulo 10
Es bien conocida la gran importancia que tiene el momento angular en mecánica clásica. En primer lugar es
una constante de movimiento cuando el sistema es aislado constituyendo uno de los principios de conservación
más fundamentales en la teorı́a clásica. Además, también es una cantidad conservada para una partı́cula sometida
a una fuerza central, y trae como consecuencia el hecho de que el movimiento sea en un plano y que se conserve
la velocidad aerolar (segunda ley de Kepler).
Veremos que estas propiedades tienen su contrapartida cuántica. Por ejemplo, veremos más adelante que para
una partı́cula sometida a una interacción central, los operadores L1 , L2 , L3 que surgen de cuantizar las cantidades
clásicas, son constantes de movimiento en el sentido cuántico, es decir no dependen explı́citamente del tiempo
y conmutan con el Hamiltoniano. Veremos además que existe otro tipo de momento angular que no depende
de R ni P ni de ninguna otra variable geométrica clásica. Estos momentos angulares que surgen directamente
como observables cuánticos y no como la cuantización de observables clásicos se denominan momentos angulares
intrı́nsecos. Este momento angular intrı́nseco (también conocido como espı́n), está cuantizado desde el principio
y es esencial para entender el mundo microscópico como veremos más adelante.
De aquı́ en adelante denotaremos como momento angular orbital L a cualquier momento angular que provenga
de la cuantización de un momento angular clásico. Llamaremos momento angular de espı́n S o simplemente espı́n, a
cualquier momento angular intrı́nseco de una partı́cula. Finalmente, en sistemas complejos como núcleos, átomos,
moléculas, etc. los momentos angulares orbitales de sus constituyentes se combinan y también se combinan con
los espines de sus constituyentes para formar el momento angular total J. La notación J representará entonces la
resultante entre la suma de momentos orbitales e intrı́nsecos, pero también se usará para denotar un momento
angular genérico cuando no hagamos distinción entre el momento angular intrı́nseco y orbital. Las reglas de adición
de los momentos angulares se estudiarán en capı́tulos subsecuentes.
Existen una serie de propiedades de los momentos angulares que solo dependen de sus relaciones de conmutación
y que serán válidas para cualquier momento angular sin importar su naturaleza. Veremos en particular, que toda
componente de un momento angular posee un espectro discreto, propiedad denominada “cuantización espacial”.
Desarrollaremos en capı́tulos posteriores, las aplicaciones concernientes tanto al momento angular orbital como al
intrı́nseco.
308
10.1. DEFINICIÓN DE MOMENTO ANGULAR POR SUS PROPIEDADES DE CONMUTACIÓN 309
este operador es Hermı́tico ya que cada componente es hermı́tica. Vale la pena enfatizar que el carácter de
observable de los Ji forma parte esencial de la definición de momento angular1 . Calculemos primero el conmutador
de J2 con J, para lo cual calculamos para cada componente
2
J2 , J1 = J1 + J22 + J32 , J1 = J22 , J1 + J32 , J1
= J2 [J2 , J1 ] + [J2 , J1 ] J2 + J3 [J3 , J1 ] + [J3 , J1 ] J3
= −i~J2 J3 − i~J3 J2 + i~J3 J2 + i~J2 J3
2
J , J1 = 0
toda la teorı́a del momento angular en cuántica se basará completamente en las reglas de conmutación (10.6,
10.7). En particular, estas relaciones muestran que no es posible medir simultáneamente las tres componentes
del momento angular, pero sı́ es posible medir simultáneamente una sola componente y la cantidad J2 . Es decir
cualquier componente de J es una variable compatible con J2 . Esto implicará que si asumimos que J2 y Ji son
observables, podemos encontrar una base común de vectores propios para J2 y uno de los Ji . Es usual elegir la
componente de J3 , y decimos que tomamos a X3 como “eje de cuantización” de modo que construı́mos una base
que diagonalice simultáneamente a J2 y a J3 .
y al igual que los operadores a y a† , los operadores J± no son hermı́ticos y son conjugados el uno del otro. En todo
el estudio del momento angular trabajaremos con los operadores J2 , J3 , J+ , J− por lo cual será necesario encontrar
todas las relaciones de conmutación entre ellos
1
Para un conjunto concreto de tres operadores, el carácter de observable solo podrá verificarse cuando se sepa sobre que espacio
actúan los operadores momento angular. Las reglas de conmutación no especifican sobre qué espacio actúan los momentos angulares.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 311
J2 , J± = J2 , J1 ± iJ2 = J2 , J1 ± i J2 , J2
J2 , J± = 0
hψ| J2 |ψi = hψ| J12 |ψi + hψ| J22 |ψi + hψ| J32 |ψi = hψ| J1† J1 |ψi + hψ| J2† J2 |ψi + hψ| J3† J3 |ψi
= kJ1 |ψik2 + kJ2 |ψik2 + kJ3 |ψik2 ≥ 0
este resultado era de esperarse ya que la variable clásica es el módulo al cuadrado de un vector el cual es no
negativo. En particular eligiendo a |ψi como un autovector de J2 vemos que
los autovalores deben ser no negativos (en analogı́a con los autovectores de N en el oscilador armónico). Dado
que J tiene dimensiones de momento angular, el valor propio de J2 se puede parametrizar como a = µ~2 siendo
µ una cantidad adimensional no negativa. Adicionalmente, se puede demostrar que para todo µ ≥ 0 la ecuación
j (j + 1) = µ (10.18)
tiene una y solo una raı́z no negativa2 . Por tanto la especificación de µ determina completamente a j y viceversa.
Por tanto, sin pérdida de generalidad podemos denotar a los valores propios de J2 en la forma
J2 |ψi = j (j + 1) ~2 |ψi ; j ≥ 0
si consideramos que {|ψi} es la base de vectores propios comunes a J2 y J3 denotaremos a los valores propios de
J3 en la forma
J3 |ψi = m~ |ψi
siendo m una cantidad adimensional.
Puesto que J2 y J3 son observables conmutantes, ellos hacen parte de un C.S.C.O pero no necesariamente
lo constituyen por sı́ solos. Por esa razón denotaremos a los kets propios comunes a los dos con tres números
cuánticos: j para rotular los valores propios de J2 , m para rotular los valores propios de J3 y k asociado a la
degeneración. Naturalmente, estos ı́ndices pueden ser de momento contı́nuos o discretos y k podrı́a simbolizar
varios ı́ndices (los necesarios para completar un C.S.C.O.).
En sı́ntesis escribiremos la ecuación de valores propios en la forma
j (j + 1) − m (m + 1) = (j − m) (j + m + 1) ≥ 0 (10.23)
j (j + 1) − m (m − 1) = (j − m + 1) (j + m) ≥ 0 (10.24)
asumamos que j − m < 0, dado que j ≥ 0 entonces m > 0 y j + m + 1 > 0. Por tanto, (j − m) (j + m + 1) < 0,
contradiciendo la Ec. (10.23). Debemos rechazar la hipótesis de que j − m < 0.
Es necesario entonces que j − m ≥ 0, de esta hipótesis se obtiene que j − m + 1 > 0, y para satisfacer la Ec.
(10.24) se requiere que (j + m) ≥ 0, tenemos entonces que las condiciones
por construcción satisfacen (10.24). Solo falta ver que estas condiciones también cumplen con la desigualdad
(10.23). Usando la segunda condición j + m ≥ 0 vemos que implica j + m + 1 > 0, y esto junto con la primera
condición en (10.25) nos satisface la Ec. (10.23). Vemos entonces que las condiciones (10.25) son necesarias y
suficientes para que se cumplan las desigualdades (10.23) y (10.24). Finalmente, y teniendo en cuenta que j es no
negativo, estas condiciones se pueden reescribir como
j−m ≥ 0 y j+m≥0 ⇔ j ≥m y j ≥ −m
⇔ j ≥ |m| ⇔ −j ≤ m ≤ j
Lemma 4 Si j (j + 1) ~2 y m~ son valores propios de J2 y J3 asociados al ket propio común |j, m, ki entonces j
y m satisfacen la desigualdad
−j ≤ m ≤ j (10.26)
Ahora veremos con base en la Ec. (10.26), las caracterı́sticas de los kets J− |j, m, ki y J+ |j, m, ki, siendo
|j, m, ki autovector común de J2 y J3 .
En primer lugar, veremos las condiciones necesarias y suficientes para la nulidad del vector J− |j, m, ki. Esto
se puede hacer con base en la Ec. (10.22)
cuyas soluciones son m = −j (su mı́nimo valor posible) y m = j + 1. Pero la segunda solución contradice al lema
4 Ec. (10.26). Por tanto
m = −j ⇔ J− |j, m, ki = 0 (10.27)
por tanto si m > −j el vector J− |j, m, ki será no nulo siempre que se cumpla la Ec. (10.26). Esto se puede
corroborar reemplazando m > −j en la Ec. (10.22) verificando que la norma de J− |j, m, ki no es nula. Ahora
demostraremos que J− |j, m, ki es un ket propio de J2 y J3 . Puesto que J2 y J− conmutan según la Ec. (10.16),
podemos escribir
J2 , J− |j, m, ki = 0 ⇒ J2 J− |j, m, ki = J− J2 |j, m, ki ⇒ J2 J− |j, m, ki = J− j (j + 1) ~2 |j, m, ki
⇒ J2 [J− |j, m, ki] = j (j + 1) ~2 [J− |j, m, ki]
por tanto J− |j, m, ki es ket propio de J2 con valor propio j (j + 1) ~2 . Este resultado está relacionado con el hecho
de que J2 y J− conmutan, como se aprecia en el teorema 1.66, pág. 57. Ahora veremos que J− |j, m, ki es también
ket propio de J3 , para lo cual empleamos la Ec. (10.15)
de modo que J− |j, m, ki es autovector de J3 con autovalor (m − 1) ~. Los anteriores resultados se pueden resumir
en el siguiente lema
Lemma 5 Sea |j, m, ki un vector propio común a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a)
6 0 y es autovector de J2 y J3 con
m = −j si y solo si J− |j, m, ki = 0. (b) Si m > −j entonces J− |j, m, ki =
2
valores propios j (j + 1) ~ y (m − 1) ~.
314 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA
El siguiente paso natural es estudiar al vector J+ |j, m, ki. De la Ec. (10.22) podemos ver las condiciones
necesarias y suficientes para que J+ |j, m, ki sea nulo.
las soluciones son m = j y m = − (j + 1) pero la segunda solución es incompatible con el lema 4 Ec. (10.26). Por
tanto
m = j ⇔ J+ |j, m, ki = 0 (10.28)
si m < j, y usando (10.16, 10.15) obtenemos
2
J , J+ |j, m, ki = 0 ⇒ J2 J+ |j, m, ki = J+ J2 |j, m, ki ⇒
J2 [J+ |j, m, ki] = j (j + 1) ~2 [J+ |j, m, ki]
por tanto J+ |j, m, ki es vector propio de J2 y de J3 con valores propios j (j + 1) ~2 y (m + 1) ~. Tenemos entonces
el siguiente lema
Lemma 6 Sea |j, m, ki un vector propio común a J2 y J3 con valores propios j (j + 1) ~2 y m~. Se tiene que (a)
6 0 y es autovector de J2 y J3 con valores
m = j si y solo si J+ |j, m, ki = 0. (b) Si m < j entonces J+ |j, m, ki =
2
propios j (j + 1) ~ y (m + 1) ~.
−j ≤ m − p < −j + 1 (10.29)
demostraremos que estos son vectores propios no nulos de J2 y J3 y que para potencias más altas de J− , se
obtienen vectores nulos. Esto se realiza aplicando iterativamente el lema 5
Comenzamos aplicando el lema 5 a |j, m, ki. Por hipótesis |j, m, ki es vector propio no nulo de J2 y J3 con valores
propios j (j + 1) ~2 y m~. Si m > −j podemos aplicar el lema 5 con lo cual J− |j, m, ki ≡ |j, m − 1, ki es vector
propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m − 1) ~. Si m − 1 > −j podemos aplicar de nuevo
el lema y J− |j, m − 1, ki = (J− )2 |j, m, ki ≡ |j, m − 2, ki es vector propio
h no nulo de iJ2 y J3 con valores propios
n−1
j (j + 1) ~2 y (m − 2) ~. En general si m − (n − 1) > −j entonces J− (J− ) |j, m, ki = J− |j, m − (n − 1) , ki =
(J− )n |j, m, ki ≡ |j, m − n, ki es vector propio no nulo de J2 y J3 con valores propios j (j + 1) ~2 y (m − n) ~.
10.3. ESTRUCTURA DE VALORES Y VECTORES PROPIOS 315
Veremos que estas condiciones se satisfacen solo para n = 0, 1, . . . , p. Si asumimos que 0 ≤ n ≤ p entonces
m − (n − 1) = m − n + 1 ≥ m − p + 1 ≥ −j + 1
donde hemos usado la primera de las desigualdades (10.29) en el último paso. Por tanto
m − (n − 1) ≥ −j + 1 > −j
de modo que la condición m − (n − 1) > −j necesaria para aplicar el lema 5 se cumple cuando n = 0, 1, . . . , p.
Ahora veamos lo que ocurre con el vector (J− )p+1 |j, m, ki = J− [(J− )p |j, m, ki]. Puesto que (J− )p |j, m, ki es
autovector de J2 y J3 con valores propios j (j + 1) ~2 y (m − p) ~, el lema 4 Ec. (10.26) nos dice que (m − p) ≥ −j.
Asumamos de momento que
(m − p) > −j
una aplicación adicional del lema 5 nos dice que J− [(J− )p |j, m, ki] es autovector no nulo de J2 y J3 con valores
propios j (j + 1) ~2 y (m − p − 1) ~. Ahora aplicando la segunda de las desigualdades en la expresión (10.29), se
tiene que
m − p − 1 < −j
lo cual contradice al lema 4 Ec. (10.26). Por tanto debemos rechazar la hipótesis m − p > −j. Solo nos queda
entonces que m − p = −j y al aplicar el lema 5 se obtiene
y todas las potencias mayores también se anulan. Esta anulación evita el conflicto con el lema 4.
De lo anterior se deduce que existe un entero no negativo p tal que
m − p = −j (10.31)
j−1<m+q ≤j
consiste de vectores no nulos, pero potencias mayores de J+ producen vectores nulos con lo cual se evita una
contradicción con el lema 4. Esto implica a su vez que existe un entero no negativo q tal que
m+q =j (10.33)
aquı́ aparece una diferencia con respecto al oscilador armónico, ya que ambos operadores J+ y J− tienen una
sucesión limitada de potencias que generan vectores no nulos. En el oscilador armónico, la sucesión de a† no está
limitada. Esto tiene que ver con el hecho de que J+ ( J− ) es un operador que incrementa (decrementa) el valor
de m dejando j sin cambiar. Pero para un j dado, m tiene lı́mite superior e inferior, por tanto hay lı́mites tanto
para el decremento como para el incremento. Otra diferencia importante es la degeneración y el hecho de que el
conjunto J2 , J3 no forma en general un C.S.C.O.3
3
La cuestión es que la teorı́a del momento angular no parte de un Hamiltoniano definido ni tampoco de un espacio de Hilbert
definido, a diferencia de la teorı́a del oscilador armónico en donde el espacio de estados y el Hamiltoniano son bien especı́ficos. Por esta
razón, la teorı́a general del momento angular no nos puede decir a priori cual es el grado de degeneración de los estados propios de J2
y J3 .
316 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA
p+q
p + q = 2j ⇒ j =
2
pero p + q es un entero no negativo. Por tanto, j solo puede adquirir valores enteros o semienteros no negativo
1 3 5
j = 0, , 1, , 2, , . . .
2 2 2
Estos son los valores posibles pero no hemos demostrado que tenga que tomarlos todos (de hecho no es ası́ en
general4 ). Adicionalmente, si existe un autovector no nulo |j, m, ki de J2 y J3 , las sucesiones (10.30, 10.32) constan
de autovectores no nulos de J2 con valores propios j (j + 1) ~2 y también de J3 con autovalores dados por
es decir tenemos 2j + 1 valores posibles de m para un j dado. Puesto que estos valores se obtienen de las sucesiones
ya mencionadas, todos los 2j + 1 valores de m posibles bajo la restricción (10.26) son valores propios accesibles
para un valor dado de j. Adicionalmente, puesto que p y q son enteros no negativos, las Ecs. (10.31, 10.33) nos
dicen que m es entero (semi-entero) si y solo si j es entero (semi-entero). Lo anterior nos dice que para un j dado,
todos los valores de m expresados en la Ec. (10.34) están asociados a un vector |j, m, ki y son además los únicos
valores accesibles de m para dicho valor de j.
Podemos sintetizar estos resultados en la siguiente forma: Sea J un momento angular arbitrario que obedece
las reglas de conmutación (10.6). Si j (j + 1) ~2 y m~ denotan los autovalores de J2 y J3 asociados al ket común
|j, m, ki. Tenemos que
4
Esto también está relacionado con el hecho de que el Hamiltoniano y el espacio vectorial sobre el cual operan los Ji no están
definidos.
10.4. PROPIEDADES DE LOS VECTORES PROPIOS DE J2 Y J3 317
y puesto que los vectores {|j, m, ki i} asociados a E (j, m) son ortonormales por hipótesis, se tiene
Theorem 10.1 Sean |j, m, k1 i y |j, m, k2 i dos autovectores ortogonales de J2 y J3 con valores propios j (j + 1) ~2 ,
m~, y k1 6= k2 . Entonces J± |j, m, k2 i es ortogonal a J± |j, m, k1 i.
Si k1 = k2 ≡ k, la Ec. (10.35) nos permite calcular la norma de J± |j, m, ki. Asumiendo que |j, m, ki está
normalizado se tiene
kJ± |j, m, kik2 = [j (j + 1) − m (m ± 1)] ~2
por tanto podemos construı́r vectores ortonormales asociados a |j, m ± 1, ki para lo cual simplemente debemos
normalizar los vectores J± |j, m, ki.
Comencemos con J+ |j, m, ki, normalizando los vectores J+ |j, m, ki obtenemos un conjunto ortonormal en
E (j, m + 1) dado por
J+ |j, m, ki
|j, m + 1, ki ≡ p (10.36)
~ j (j + 1) − m (m + 1)
multipliquemos (10.36) por J− usando (10.17)
J− J+ |j, m, ki J2 − J32 − ~J3 |j, m, ki
J− |j, m + 1, ki = p = p
~ j (j + 1) − m (m + 1) ~ j (j + 1) − m (m + 1)
[j (j + 1) − m (m + 1)] ~ |j, m, ki
= p
j (j + 1) − m (m + 1)
p
J− |j, m + 1, ki = ~ j (j + 1) − m (m + 1) |j, m, ki (10.37)
Vamos a demostrar que el conjunto ortonormal {|j, m + 1, ki} en E (j, m + 1) generado por todos los elementos
de la base {|j, m, ki} de E (j, m) a través de (10.36), constituye una base para E (j, m + 1). La demostración se
hará por contradicción, es decir asumiendo que {|j, m + 1, ki} no es una base, según el teorema 1.23, Pág. 30, esta
negación equivale a decir que existe un vector no nulo |j, m + 1, αi en E (j, m + 1) ortogonal a todos los vectores
del conjunto.
318 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA
Asumamos que existe un vector no nulo |j, m + 1, αi en E (j, m + 1) ortogonal a todos los elementos del conjunto
ortonormal {|j, m + 1, ki}. Por tanto, α 6= k para todos los k′ s del conjunto anterior. Dado que m + 1 6= −j, el
vector J− |j, m + 1, αi es no nulo en virtud del lema 5, y dicho vector yace en E (j, m). Ahora bien, puesto que
α 6= k, el teorema 10.1 dice que J− |j, m + 1, αi será ortogonal a todos los vectores J− |j, m + 1, ki. Por otro
lado, la Ec. (10.37) nos dice que J− |j, m + 1, ki es colineal con |j, m, ki. En consecuencia, al barrer toda la
base {|j, m, ki} obtenemos que el conjunto {J− |j, m + 1, ki} generado de esta manera también es una base para
E (j, m). De lo anterior vemos que J− |j, m + 1, αi es un vector no nulo de E (j, m), ortogonal a todos los vectores
de la base {|j, m, ki}, pero esto es imposible en virtud del teorema 1.23. Por tanto, el conjunto de vectores
{|j, m + 1, ki} generado por la base {|j, m, ki} de E (j, m) por medio de (10.36) es completo.
De una forma similar se puede demostrar que cuando m 6= −j podemos definir vectores |j, m − 1i en la forma
J− |j, m, ki
|j, m − 1, ki ≡ p (10.38)
~ j (j + 1) − m (m − 1)
para formar una base ortonormal en E (j, m − 1). Nótese que (10.38) se obtiene de (10.37) reemplazando m → m−1.
Las Ecs. (10.36, 10.38) implican una escogencia de fase cero entre |j, m ± 1, ki y el vector J± |j, m, ki, de modo que
la constante de proporcionalidad entre ambos es real y positiva. Esta convención de fase cero es conocida como
convención de Cordon-Shortley.
En particular vemos que las Ecs. (10.36) establecen relaciones uno a uno y sobreyectivas entre las bases de
E (j, m) y E (j, m + 1). Igualmente las Ecs. (10.38) nos dan una relación uno a uno y sobreyectiva entre las bases
de E (j, m) y E (j, m − 1). En consecuencia, los espacios E (j, m) y E (j, m ± 1) son de la misma dimensionalidad.
Por inducción se obtiene entonces que la dimensionalidad de cualquier E (j, m) solo depende de j
g (j, m) = g (j)
describamos un procedimiento sistemático para generar una base ortonormal para el espacio completo E. Para
un valor accesible de j encontramos un subespacio de la forma E (j, m) digamos E (j, j), y encontramos una base
ortonormal de dicho espacio {|j, j, ki ; k = 1, . . . , g (j)}. Ahora usando (10.38) contruı́mos iterativamente las bases
para E (j, j − 1) , E (j, j − 2) , . . . , E (j, −j). La unión de las bases de los 2j + 1 subespacios asociados a j nos da
una base ortonormal para el subespacio E (j) dado por
E (j) = E (j, j) ⊕ E (j, j − 1) ⊕ E (j, j − 2) ⊕ . . . ⊕ E (j, −j) (10.39)
es claro que el espacio E (j) es de dimensionalidad (2j + 1) g (j). Una vez generada la base para un E (j), cambiamos
a otro valor accesible de j y repetimos el procedimiento, barriendo todos los valores accesibles de j. La base
ortonormal para E se obtiene de la unión de las bases asociadas a cada valor de j puesto que
E = E (j1 ) ⊕ E (j2 ) ⊕ E (j3 ) ⊕ . . . (10.40)
siendo {j1 , j2 , j3 , . . .} los valores accesibles de j en el sistema fı́sico considerado5 . Insistimos que este debe ser un
subconjunto del conjunto de todos los enteros y semienteros no negativos. La tabla 10.1 describe esquemáticamente
el algoritmo para generar una base para E (j) a partir de la base para E (j, j).
La base generada con este algoritmo se conoce como la base estándar del espacio de estados E, para la cual
existen relaciones de completez y ortonormalidad
g(j)
+j X
′ ′ ′ X X
hj, m, k j , m , k = δjj ′ δmm′ δkk′ ; |j, m, ki hj, m, k| = I (10.41)
j m=−j k=1
Por supuesto podemos empezar por E (j, −j) y construı́r con base en J+ . Finalmente, podemos empezar por
un E (j, m) con −j < m < j, en tal caso habrá que generar con J+ “hacia arriba” hasta j y con J− “hacia abajo”
hasta −j.
5
Nótese que la Ec. (10.40) es cierta bajo la hipótesis de que los operadores Ji sean observables. Es decir, que los valores permitidos
de j nos den una base para E .
10.5. CONSTRUCCIÓN DE UNA BASE ESTÁNDAR CON BASE EN UN C.S.C.O 319
{A1 , A2 , . . . , An }
que junto con J2 y J3 formen un C.S.C.O. y que además conmuten con todas las componentes de J
[Ai , J] = 0 ; i = 1, . . . , n
un observable que conmute con las componentes de J se denomina un escalar. Por simplicidad asumiremos que un
solo escalar A es suficiente para formar un C.S.C.O con J2 y J3 . Veamos la acción de A sobre un estado arbitrario
|j, m, ki de E (j, m), definiendo |ψi ≡ A |j, m, ki tenemos que
donde hemos usado el hecho de que A conmuta con J2 y J3 . Tenemos entonces que |ψi ≡ A |j, m, ki es autovector
de J2 y J3 con autovalores j (j + 1) ~2 y m~, y por lo tanto pertenece a E (j, m). En consecuencia, cada subespacio
E (j, m) es globalmente invariante bajo la acción de un operador A que conmute con J2 y J3 . Si ahora escogemos
un valor de j, el subespacio E (j, j) será en particular invariante bajo A y podemos diagonalizar la restricción de
A sobre E (j, j), con cierta base ortonormal {|j, j, ki} de E (j, j),6 de modo que
el conjunto {|j, j, ki ; j f ijo; k = 1, . . . , g (j)} es una base ortonormal de E (j, j), a partir de la cual se puede
construı́r la base ortonormal para E (j). Aplicando este procedimiento para cada valor accesible de j obtenemos
la base ortonormal {|j, m, ki} para el espacio completo E.
Los resultados anteriores no requieren que A sea escalar, solo requieren que conmute con J2 y J3 . Sea {|j, m, ki}
la base de vectores de E (j, m) obtenida por la aplicación sucesiva de J− sobre la base {|j, j, ki}. Veremos que si
6
Recordemos que A es hermı́tico y por tanto normal. Para todo operador normal existe una representación ortonormal que lo
diagonaliza.
320 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA
A es escalar y los elementos de la base {|j, j, ki} son autovectores de A, entonces los kets {|j, m, ki} (obtenidos
por aplicación sucesiva de J− ) además de ser vectores propios de J2 y J3 también serán automáticamente vectores
propios de A. Para ver esto observemos que para un escalar A se tiene
al asumir que los elementos de la base {|j, j, ki} son autovectores de A, podemos usar la Ec. (10.42), la cual
combinada con la Ec. (10.43) nos da
de modo que J− |j, j, ki es autovector de A con el mismo autovalor que |j, j, ki (teorema 1.66). Equivalentemente,
|j, j − 1, ki es autovector de A con el mismo autovalor que |j, j, ki. Aplicando sucesivamente este proceso vemos
que los kets dados por
|j, j, ki , |j, j − 1, ki , . . . , |j, −j, ki
son vectores propios de A con valor propio ajk por tanto podemos escribir
el espectro de A es entonces el mismo para todos los subespacios E (j, m) con j fijo, pero depende en general tanto
de j como de k, de modo que un conjunto de números cuánticos (j, m, k) define unı́vocamente a un vector |j, m, ki
de E, como corresponde a un C.S.C.O.
Nótese que un observable que conmute con J2 y J3 no necesariamente conmuta con J1 y J2 . En particular, el
conjunto (J2 , J3 , A) podrı́a formar un C.S.C.O. sin que A conmute con J1 y/o J2 . En tal caso sin embargo, J±
no conmuta con A y por tanto J± |j, m, ki no necesariamente es autovector de A con el mismo valor propio de
|j, m, ki, incluso si |j, j, ki es autovector de A. Por tanto, cuando A conmuta con J2 y J3 pero no es escalar, la
base {|j, m, ki} obtenida por aplicación sucesiva de J− sobre {|j, j, ki} debe ser rotada a otra base {|j, m, αi} cada
vez que se aplica J− , con el fin de diagonalizar a la restricción de A sobre cada E (j, m). En cambio, cuando A
es escalar solo es necesaria la rotación de los elementos |j, j, k′ i para obtener autovectores de A como en la Ec.
(10.42), y la aplicación sucesiva de J− genera automáticamente autovectores de A.
siendo j1 , j2 , j3 , . . . los valores permitidos de j para el sistema en estudio. Esta es una descomposición en subespacios
del tipo E (j, m). Sin embargo los subespacios E (j, m) tienen ciertas desventajas, por un lado su dimensión g (j)
depende del sistema fı́sico especı́fico ya que esta dimensión nos da cuenta de la degeneración asociada al par (j, m),
por tanto g (j) es desconocido al menos en el caso general. Adicionalmente un subespacio del tipo E (j, m) no es
invariante ante J, por ejemplo
1 1 1
J1 |j, m, ki = (J+ + J− ) |j, m, ki = c+ |j, m + 1, ki + c− |j, m − 1, ki (10.45)
2 2 2
de acuerdo con (10.41) este estado es ortonormal a |j, m, ki y no es nulo ya que por lo menos uno de los estados
|j, m + 1, ki , |j, m − 1, ki tiene que ser no nulo y ambos son ortogonales entre sı́.
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 321
Examinando la tabla (10.1) vemos que cada subespacio del tipo E (j, m) es generado por la expansión de los
g (j) vectores de la m−ésima fila de la tabla (los g (j) valores posibles de k). Vemos sin embargo que hay otra
manera de agrupar los vectores: podemos generar un subespacio con los (2j + 1) vectores de una columna fija
de la tabla, con lo cual obtenemos un subespacio del tipo E (j, k) puesto que en este caso es el par (j, k) el que
permanece fijo en la expansión.
La descomposición de E quedarı́a en la forma
los subespacios E (j, k) poseen las propiedades siguientes: (a) la dimensión de E (j, k) es 2j + 1 de modo que para
un j dado su dimensión se conoce sin importar el sistema fı́sico que se esté trabajando. (b) E (j, k) es globalmente
invariante bajo J. Incluso se puede demostrar que E (j, k) es irreducible como subespacio invariante de J, es decir
no hay un subespacio propio no nulo de E (j, k) que sea invariante bajo J.
Nos limitaremos a demostrar la invarianza de E (j, k) bajo J. Una base para este espacio es de la forma
{|j, m, ki ; m = −j, −j + 1, . . . , j − 1, j}. Para J3 es inmediato, para J1 tomamos el resultado de la Ec. (10.45)
notando que los dos kets son estados con el mismo valor de j, k y solo difieren en m. Por tanto J1 |j, m, ki pertenece
a E (j, k). Para J2 el argumento es similar. En general E (j, k) será invariante bajo cualquier función del tipo F (J),
lo cual se puede ver simplemente de la expansión de Taylor de F (J) y de que E (j, k) es invariante ante cualquier
potencia de J.
combinando las Ecs. (10.9, 10.47) encontramos la acción de J1 y J2 sobre los kets de la base
1 ~ hp
J1 j ′ , m′ , k′ = (J+ + J− ) j ′ , m′ , k′ = j ′ (j ′ + 1) − m′ (m′ + 1) j ′ , m′ + 1, k′
2 2
p i
+ j (j + 1) − m (m − 1) j ′ , m′ − 1, k′
′ ′ ′ ′ (10.48)
1 ~ hp ′ ′
J2 j ′ , m′ , k′ = (J+ − J− ) j ′ , m′ , k′ = j (j + 1) − m′ (m′ + 1) j ′ , m′ + 1, k′
2i 2i
p i
− j (j + 1) − m (m − 1) j ′ , m′ − 1, k′
′ ′ ′ ′ (10.49)
de las Ecs. (10.47, 10.48, 10.49) y la ortonormalidad de la base, los elementos matriciales de Ji y J± quedan
hj, m, k| J3 j ′ , m′ , k′ = m~δkk′ δjj ′ δmm′ (10.50)
′ ′ ′ p
hj, m, k| J± j , m , k = ~ j (j + 1) − m′ (m′ ± 1)δkk′ δjj ′ δm,m′ ±1 (10.51)
1 ~ hp
hj, m, k| J1 j ′ , m′ , k′ = hj, m, k| (J+ + J− ) j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2 2i
p
+ j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.52)
322 CAPÍTULO 10. TEORÍA GENERAL DEL MOMENTO ANGULAR EN MECÁNICA CUÁNTICA
1 ~ hp
hj, m, k| J2 j ′ , m′ , k′ = hj, m, k| (J+ − J− ) j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2i 2i
i
p
− j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.53)
lo cual muestra que los elementos matriciales de J solo dependen de j y m pero no de k. Este hecho implica que la
representación matricial de las componentes de J en la base estándar {|j, m, ki} tiene una forma particularmente
simple cuando descomponemos E en subespacios del tipo E (j, k). Las Ecs. (10.50, 10.51, 10.52, 10.53) muestran
que un operador Ji (o una función de la forma F (J)) tiene elementos matriciales nulos cuando el elemento enlaza
dos kets base asociados a espacios E (j1 , k1 ) y E (j2 , k2 ) con j1 6= j2 y/o con k1 6= k2 . Por tanto la matriz será
diagonal por bloques donde los bloques son todos de dimensión 2j + 1 (que es la dimensión de un espacio E (j, k))
en la forma
comenzando por el valor de j1 más bajo permitido construı́mos las matrices asociadas a E (j1 , k1 ) para el k = k1 más
bajo permitido, luego manteniendo j1 fijo recorremos los posibles valores de k, una vez terminado este recorrido,
continuamos con el siguiente valor permitido j2 de j, recorriendo el ı́ndice k nuevamente y ası́ sucesivamente. Las
matrices asociadas a estos subespacios son de dimensión 2ji + 1.
Por tanto, lo que debemos hacer es calcular las matrices de dimensión finita (2j + 1)× (2j + 1) que representan
a cada operador en cada subespacio E (j, k). Adicionalmente, estas matrices no dependen de k y por tanto no
dependen del sistema fı́sico bajo estudio. Solo dependen de j y del operador que se quiere representar.
En sı́ntesis, la representación matricial de una componente Ji del momento angular en la base estándar, se puede
calcular dentro de un subespacio de la forma E (j, k) sin alusión alguna al sistema fı́sico que se está trabajando.
La matrices del tipo (Ji )(j) son en consecuencia de carácter universal y representan al operador Ji dentro del
subespacio E (j, k) para todos los posibles valores de j es decir j = 0, 12 , 1, . . .. Cuando tenemos un sistema fı́sico
especı́fico, debemos determinar cuales de estos valores de j son permitidos y el número de subespacios E (j, k)
asociados con cada j, es decir el grado de degeneración (2j + 1) g (j). La matriz representativa de Ji será entonces
diagonal por bloques con la estructura descrita en la Ec. (10.54), y se puede construı́r a partir de las matrices
universales definidas para cada subespacio E (j, k). Para cada valor de j, tendremos g (j) bloques idénticos de
(Ji )(j) , es decir todos los valores posibles de k, una vez que para un j dado se barren los valores posibles de k, se
′
cambia al siguiente valor accesible j ′ y se construyen g (j ′ ) bloques idénticos de (Ji )(j ) y ası́ sucesivamente.
10.6.1. Representaciones matriciales del tipo (Ji )(j) en la base estándar para j arbitrario
De lo anterior, los elementos matriciales para j arbitrario de un operador (Ji )(j) dentro de un subespacio
E (j, k) están dados por
hj, m, k| J3 j ′ , m′ , k′ = m~δkk′ δjj ′ δmm′ (10.55)
2 ′ ′ ′
2
hj, m, k| J j , m , k = j (j + 1) ~ δkk′ δjj ′ δmm′ (10.56)
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 323
p
hj, m, k| J± j ′ , m′ , k′ = ~ j (j + 1) − m′ (m′ ± 1)δkk′ δjj ′ δm,m′ ±1 (10.57)
~ hp
hj, m, k| J1 j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2 i
p
+ j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.58)
~ hp
hj, m, k| J2 j ′ , m′ , k′ = δkk′ δjj ′ j (j + 1) − m′ (m′ + 1)δm,m′ +1
2i i
p
− j (j + 1) − m′ (m′ − 1)δm,m′ −1 (10.59)
vemos que la matriz de (J3 )(j) es diagonal, esto se debe a que se eligió a X3 como el eje de cuantización (la
base estándar consta de vectores propios de J2 y J3 ), sus elementos son los 2j + 1 valores de m~. Para las
matrices (J1,2 )(j) los únicos elementos no nulos son los que están por encima y por debajo de la diagonal. (J1 )(j)
(j)
es una matriz simétrica y real en tanto que (J2 )(j) es antisimétrica y puramente imaginaria. La matriz J2 es
naturalmente diagonal ya que esta es una base de vectores propios de J2 , y adémas sus elementos diagonales son
(j)
idénticos, de modo que J2 es j (j + 1) ~2 I, siendo I la matriz identidad de dimensión (2j + 1) × (2j + 1). La
matriz (J+ )(j) solo tiene elementos no nulos por encima de la diagonal, en tanto que la matriz (J− )(j) solo tiene
elementos no nulos por debajo de la diagonal.
Puesto que todas las direcciones del espacio son equivalentes, es claro que la elección del eje de cuantización
es arbitraria. De esto se desprende que todos los Ji deben tener los mismos valores propios. Los vectores propios
serán sin embargo diferentes ya que los Ji no conmutan entre sı́. En consecuencia, dentro de un subespacio dado
E (j, k) los autovalores de J1 , J2 , J3 son j~, (j − 1) ~, . . . , (−j + 1) ~, −j~. Estos también serán los valores propios de
cualquier componente de la forma Jn = J · n siendo n un vector unitario de dirección arbitraria. Los autovectores
comunes de J2 y J1 son combinaciones lineales de los |j, m, ki con j y k fijos. Lo mismo ocurre con los vectores
propios comunes a J2 y J2 .
En conclusión una base ortonormal {|j, m, ki} del espacio de estados compuesta por vectores comunes a J2 y
J3
J2 |j, m, ki = j (j + 1) ~2 |j, m, ki ; J3 |j, m, ki = m~ |j, m, ki
se denomina un base estándar si la acción de J± sobre estos vectores está dada por
p
J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki
de aquı́ en adelante se omite el ı́ndice k ya que las representaciones matriciales no dependen de tal ı́ndice. Estas
expresiones muestran que los elementos diagonales son cero, por tanto
(1/2) 1 1 1 1
(J1 )11 ≡ , J1 , =0
2 2 2 2
(1/2) 1 1 1 1
(J1 )22 ≡ , − J1 , − =0
2 2 2 2
s #
3 1 1
+ − − − − 1 δ 1 ,− 1 −1
4 2 2 2 2
r
(1/2) ~ 3 1 ~
(J1 )12 = + δ1,1 =
2 4 4 2 2 2
"s
(1/2) 1 1 1 1 ~ 3 1 1
(J1 )21 ≡ , − J1 , = − + 1 δ− 1 , 1 +1
2 2 2 2 2 4 2 2 2 2
s #
3 1 1
+ − − 1 δ− 1 , 1 −1
4 2 2 2 2
(1/2) ~
(J1 )21 =
2
este elemento se podı́a también calcular teniendo en cuenta que la matriz de J1 es simétrica real. La matriz
representativa queda entonces
(1/2) ~ 0 1
(J1 ) =
2 1 0
de manera similar se calculan los elementos matriciales de los otros operadores, el resultado es
(1/2) ~ 0 1 (1/2) ~ 0 −i (1/2) ~ 1 0
(J1 ) = ; (J2 ) = ; (J3 ) = (10.60)
2 1 0 2 i 0 2 0 −1
(1/2) 3 2 1 0 0 1 0 0
J2 = ~ ; (J+ )(1/2) =~ ; (J− )(1/2) = ~ (10.61)
4 0 1 0 0 1 0
10.6. REPRESENTACIONES MATRICIALES DE LOS OPERADORES MOMENTO ANGULAR 325
(1) ~ hp
(J2 )23 = h1, m2 | J2 |1, m3 i = h1, 0| J2 |1, −1i = 2 − (−1) [(−1) + 1] δ0,−1+1
p 2i
− 2 − (−1) [(−1) − 1] δ0,−1−1
(1) ~√
(J2 )23 = 2⇒
2i
(1) i~ (1)
(J2 )23 = − √ = − (J2 )23 ⇒
2
la matriz queda entonces
0 −i 0
~
(J2 )(1) = √ i 0 −i
2 0 i 0
de manera similar se obtienen las otras matrices resultando
0 1 0 0 −i 0
~ ~
(J1 )(1) = √ 1 0 1 ; (J2 )(1) = √ i 0 −i
2 0 1 0 2 0 i 0
1 0 0 1 0 0
(1)
(J3 )(1) = ~ 0 0 0 ; J2 = 2~2 0 1 0
0 0 −1 0 0 1
√
0 2 √0 √0 0 0
(J+ )(1) = ~ 0 0 2 ; (J− )(1) = ~ 2 √0 0
0 0 0 0 2 0
se puede verificar que las representaciones matriciales construı́das obedecen las reglas de conmutación (10.6).
Se puede verificar que los autovalores de las matrices (Ji )(1/2) son todos iguales y están dados por ±~/2. Si-
milarmente, los valores propios de las matrices (Ji )(1) son todos iguales y corresponden a +~, 0, −~. En sı́ntesis
todas las caracterı́sticas generales discutidas al final de la sección 10.6.1 se cumplen para las matrices calculadas
explı́citamente.
Capı́tulo 11
Aplicaremos la teorı́a general desarrollada en el capı́tulo 10 al caso del momento angular orbital que sirvió
originalmente para encontrar el álgebra con la cual se definió un momento angular generalizado. Utilizaremos
la base {|ri} para mostrar que los valores propios de L2 son de la forma l (l + 1) ~2 con l entero no negativo.
Es decir las consideraciones fı́sicas excluirán a los valores semienteros en tanto que todos los valores enteros no
negativos aparecen en el espectro. Encontraremos también las funciones propias en la base {|ri} y sus principales
propiedades.
En la representación {|ri} los observables R y P corresponden a multiplicación por r y al operador diferencial
−i~∇ respectivamente. La cuantización de las tres componentes del momento angular en la base {|ri} se representa
como
L = R× P = −i~r × ∇
~ ∂ ∂ ~ ∂ ∂ ~ ∂ ∂
L1 = x2 − x3 ; L2 = x3 − x1 ; L3 = x1 − x2 (11.1)
i ∂x3 ∂x2 i ∂x1 ∂x3 i ∂x2 ∂x1
L± ≡ L1 ± iL2 (11.2)
será más conveniente trabajar en coordenadas polares esféricas, ya que más adelante veremos que el operador
momento angular solo operará sobre los ángulos θ, ϕ y no sobre la variable r.
d3 r = r 2 dr dΩ ; dΩ = sin θ dθ dϕ (11.4)
326
327
en forma matricial
∂r sin θ cos ϕ sin θ sin ϕ cos θ ∂1
∂θ = r cos θ cos ϕ r cos θ sin ϕ −r sin θ ∂2
∂ϕ −r sin θ sin ϕ r sin θ cos ϕ 0 ∂3
i cos θ sin ϕ cos ϕ
L3 = x1 ∂2 − x2 ∂1 = r sin θ cos ϕ sin θ sin ϕ ∂r + ∂θ + ∂ϕ
~ r r sin θ
cos θ cos ϕ sin ϕ
−r sin θ sin ϕ cos ϕ sin θ ∂r + ∂θ − ∂ϕ
r r sin θ
= sin θ cos θ cos ϕ sin ϕ∂θ + cos2 ϕ ∂ϕ − sin θ cos θ sin ϕ cos ϕ ∂θ + sin2 ϕ ∂ϕ
i
L3 = ∂ϕ (11.8)
~
con las Ecs. (11.6, 11.7, 11.8), se puede evaluar L2 = L21 + L22 + L23 , lo cual es más sencillo si lo ponemos actuar
sobre una función arbitraria ψ (r, θ, ϕ)
328 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
2 2
2 ∂ cos ϕ ∂ ∂ sin ϕ ∂ ∂ 2
L ψ = i~ sin ϕ + ψ + i~ − cos ϕ + ψ + −i~ ψ
∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ
∂ cos ϕ ∂ ∂ cos ϕ ∂
= −~2 sin ϕ + sin ϕ + ψ
∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ
2 ∂ sin ϕ ∂ ∂ sin ϕ ∂ ∂2ψ
−~ − cos ϕ + − cos ϕ + ψ − ~2 2
∂θ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ
∂ ∂ψ cos ϕ ∂ψ cos ϕ ∂ ∂ψ cos ϕ ∂ψ
= −~2 sin ϕ sin ϕ + − ~2 sin ϕ +
∂θ ∂θ tan θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ
2 ∂ ∂ψ sin ϕ ∂ψ 2 sin ϕ ∂ ∂ψ sin ϕ ∂ψ ∂2ψ
+~ cos ϕ − cos ϕ + −~ − cos ϕ + − ~2 2
∂θ ∂θ tan θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ
∂ ∂ψ ∂ψ ∂ 1 cos ϕ ∂ ∂ψ
= −~2 sin ϕ sin ϕ + cos ϕ +
∂θ ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
2 cos ϕ ∂ψ ∂ ∂ ∂ψ 1 ∂ψ ∂ cos ϕ ∂ ∂ψ
−~ sin ϕ + sin ϕ + cos ϕ +
tan θ ∂θ ∂ϕ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ tan θ ∂ϕ ∂ϕ
∂ ∂ψ ∂ψ ∂ 1 sin ϕ ∂ ∂ψ
+~2 cos ϕ − cos ϕ + sin ϕ +
∂θ ∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
2 sin ϕ ∂ψ ∂ ∂ ∂ψ 1 ∂ψ ∂ sin ϕ ∂ ∂ψ ∂2ψ
−~ − cos ϕ − cos ϕ + sin ϕ + − ~2 2
tan θ ∂θ ∂ϕ ∂ϕ ∂θ tan θ ∂ϕ ∂ϕ tan θ ∂ϕ ∂ϕ ∂ϕ
2 2 ∂2ψ 2 ∂ψ ∂ 1 sin ϕ cos ϕ ∂ ∂ψ
L ψ = −~ sin ϕ 2 + sin ϕ cos ϕ +
∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
2
2 cos ϕ ∂ψ cos ϕ sin ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ψ cos2 ϕ ∂ 2 ψ
−~ + − +
tan θ ∂θ tan θ ∂ϕ ∂θ tan2 θ ∂ϕ tan2 θ ∂ϕ2
2
2 2 ∂ ψ ∂ψ ∂ 1 cos ϕ sin ϕ ∂ ∂ψ
+~ − cos ϕ 2 + cos ϕ sin ϕ +
∂θ ∂ϕ ∂θ tan θ tan θ ∂θ ∂ϕ
2
2 sin ϕ ∂ψ sin ϕ cos ϕ ∂ ∂ψ sin ϕ cos ϕ ∂ψ sin2 ϕ ∂ 2 ψ 2
2∂ ψ
−~ − + + − ~
tan θ ∂θ tan θ ∂ϕ ∂θ tan2 θ ∂ϕ tan2 θ ∂ϕ2 ∂ϕ2
agrupando derivadas se tiene
L2 ψ ∂2ψ 2
2 ∂ ψ cos2 ϕ ∂ 2 ψ sin2 ϕ ∂ 2 ψ ∂ 2 ψ
= sin2 ϕ + cos ϕ + + +
−~2 ∂θ 2 ∂θ 2 tan2 θ ∂ϕ2 tan2 θ ∂ϕ2 ∂ϕ2
sin ϕ cos ϕ ∂ ∂ψ sin ϕ cos ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ ∂ψ cos ϕ sin ϕ ∂ ∂ψ
+ − + −
tan θ ∂θ ∂ϕ tan θ ∂ϕ ∂θ tan θ ∂ϕ ∂θ tan θ ∂θ ∂ϕ
∂ψ ∂ 1 ∂ψ ∂ 1 cos ϕ ∂ψ sin2 ϕ ∂ψ
2
+ sin ϕ cos ϕ − cos ϕ sin ϕ + +
∂ϕ ∂θ tan θ ∂ϕ ∂θ tan θ tan θ ∂θ tan θ ∂θ
cos ϕ sin ϕ ∂ψ sin ϕ cos ϕ ∂ψ
− +
tan2 θ ∂ϕ tan2 θ ∂ϕ
∂ cos ϕ ∂
L1 = i~ sin ϕ + (11.10)
∂θ tan θ ∂ϕ
∂ sin ϕ ∂
L2 = i~ − cos ϕ + (11.11)
∂θ tan θ ∂ϕ
~ ∂
L3 = (11.12)
i ∂ϕ
y las Ecs. (11.9, 11.2) nos dicen que los operadores L2 , L± quedan
2
2 2 ∂ 1 ∂ 1 ∂2
L = −~ + + (11.13)
∂θ 2 tan θ ∂θ sin2 θ ∂ϕ2
iϕ ∂ ∂
L+ = ~e + i cot θ (11.14)
∂θ ∂ϕ
−iϕ ∂ ∂
L− = ~e − + i cot θ (11.15)
∂θ ∂ϕ
donde l es en general entero o semientero no negativo y m toma solo los valores −l, −l + 1, . . . , l − 1, l.
Nótese que en las ecuaciones (11.17, 11.18) no hay operador derivada asociado a r. Por tanto r se puede
considerar un parámetro y asumir una separación de variables de la forma
f (r) es una función de r que aparece como constante de integración para las ecuaciones diferenciales (11.17,
11.18). Es importante tener en cuenta que f (r) debe ser tal que ψl,m,k (r, θ, ϕ) = f (r) Ylm (θ, ϕ) sea de cuadrado
integrable. El hecho de que f (r) sea arbitrario nos indica que L2 y L3 no forman un C.S.C.O. en el espacio Er
de funciones de r es decir de funciones en r, θ, ϕ. En virtud de esto deberı́amos introducir un ı́ndice adicional en
las Ecs. (11.20, 11.21) para las soluciones indicando la posible degeneración de éstas. Sin embargo, veremos que
estas soluciones serán únicas para l y m dados salvo por un factor constante. Esto indica que toda la degeneración
estará en el factor f (r) en la Ec. (11.19).
Para normalizar la función completa ψlmk (r, θ, ϕ) es conveniente normalizar la parte angular Ylm (θ, ϕ) y la
parte radial f (r) separadamente. Estas relaciones de normalización se manifestarán en ecuaciones de la forma
Z 2π Z
dϕ sin θ |Ylm (θ, ϕ)|2 dθ = 1
0
Z ∞
r 2 |f (r)|2 dr = 1
0
podemos cubrir todo el espacio barriendo ϕ entre 0 y 2π. Nótese que si Ylm (θ, ϕ) no fuera contı́nua en algún valor
de θ, ϕ, no serı́a diferenciable y no podrı́a ser función propia de los operadores diferenciales L3 y L2 . En particular
la continuidad en ϕ = 0 nos lleva a
Ylm (θ, ϕ = 0) = Ylm (θ, ϕ = 2π)
que implica además
e2imπ = 1 (11.23)
m solo puede ser entero o semientero. Si m es semientero se puede parametrizar como m = (n + 1/2) con n =
0, 1, 2, . . ., en este caso se tiene
1
e2imπ = e2(n+ 2 )iπ = e2niπ eiπ = −1
de modo que si m es semientero viola la condición (11.23). Por otro lado, sabemos que l y m son ambos enteros o
ambos semienteros. En consecuencia, tanto m como l solo pueden tomar valores enteros.
La siguiente pregunta natural es si l puede tomar todos los valores enteros no negativos. Para ello tendremos
en cuenta que según la teorı́a general (lema 6, Pág. 314) se debe satisfacer
~ ∂ h i il~
L3 Yll (θ, ϕ) = Fll (θ) eilϕ = Fll (θ) eilϕ
i ∂ϕ i
L2 Yll (θ, ϕ) = (L3 + ~) (l~) Yll (θ, ϕ) = (l~ + ~) (l~) Yll (θ, ϕ)
L2 Yll (θ, ϕ) = l (l + 1) ~2 Yll (θ, ϕ)
por tanto para cada valor entero no negativo de l, existe una función Yll única dentro de factores constantes de la
forma
Yll (θ, ϕ) = cl (sin θ)l eilϕ
adicionalmente, el factor cl se determina por normalización. Es usual además elegir una fase 0 para l par y π para
l impar, de modo que r
1 (2l + 1)!
|cl | = l ; cl = (−1)l |cl |
2 l! 4π
quedando finalmente r
l 1 (2l + 1)!
Yll (θ, ϕ) = (−1) l (sin θ)l eilϕ (11.29)
2 l! 4π
y a través de la acción iterativa de L− podemos construı́r Yl,l−1 , . . . , Yl,m , . . . , Yl,−l . En sı́ntesis, para cada par (l, m)
con l entero no negativo y m entero con la condición −l ≤ m ≤ l; existe una y solo una función Ylm (θ, ϕ) (dentro
de factores constantes), que se puede calcular de (11.29) y que es función propia de L2 y L3 con valores propios
l (l + 1) ~2 y m~. A estas autofunciones se les denomina armónicos esféricos. La forma general de estas funciones
viene dada por
s
2l + 1 (l − m)! m
Ylm (θ, ϕ) = P (cos θ) eimϕ (11.30)
4π (l + m)! l
(−1)m
2 m/2 d
l+m l
Plm (x) = l
1 − x l+m
x2 − 1 (11.31)
2 · l! dx
donde las funciones Plm (x) se conocen como polinomios asociados de Legendre.
utilizando las expresiones diferenciales de L± Ecs. (11.14, 11.15) junto con (11.22), expresamos esta propiedad en
forma diferencial
iϕ ∂ p
e − m cot θ Ylm (θ, ϕ) = l (l + 1) − m (m + 1)Yl,m+1 (θ, ϕ)
∂θ
∂ p
e−iϕ − − m cot θ Ylm (θ, ϕ) = l (l + 1) − m (m − 1)Yl,m−1 (θ, ϕ)
∂θ
teniendo en cuenta la expresión del ángulo sólido (11.4) esta se escribe como
Z 2π Z π
dϕ sin θ dθ Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) = δll′ δmm′ (11.33)
0 0
es un hecho además que cualquier función de θ y ϕ que sea de cuadrado integrable, se puede expandir en términos
de los armónicos esféricos
∞ X
X +l Z 2π Z π
∗
f (θ, ϕ) = clm Ylm (θ, ϕ) ; clm = hlm| f i = dϕ sin θ dθ Ylm (θ, ϕ) f (θ, ϕ)
l=0 m=−l 0 0
por tanto los armónicos esféricos son una base ortonormal en el espacio EΩ de funciones de θ y ϕ. Esto se expresa
con relaciones de completez que aplican en este espacio
∞ X
X +l
∗
δ (θ − θ ′ ) δ (ϕ − ϕ′ )
Ylm (θ, ϕ) Ylm θ ′ , ϕ′ = δ cos θ − cos θ ′ δ ϕ − ϕ′ =
sin θ
l=0 m=−l
la inclusión de δ (cos θ − cos θ ′ ) en la relación de completez se debe a que el elemento diferencial de ángulo sólido
se escribe como dΩ = sin θ dθ dϕ = −d (cos θ) dϕ. Nótese que la completez no está garantizada por la teorı́a
general cuando el espacio vectorial es de dimensión infinita, es de hecho una hipótesis de trabajo que debe ser
demostrada explı́citamente.
r →r , θ →π−θ , ϕ→π+ϕ
de modo que los armónicos esféricos tienen paridad definida, la cual es independiente de m. Si l es par (impar) todos
sus 2l + 1 armónicos esféricos asociados son pares (impares). También se puede demostrar que bajo conjugación
los armónicos esféricos tienen la propiedad
∗
Ylm (θ, ϕ) = (−1)m Yl,−m (θ, ϕ) (11.35)
por tanto, cuando el problema tiene simetrı́a azimutal i.e. es independiente de ϕ, es usual utilizar polinomios de
Legendre o armónicos esféricos del tipo Yl,0 (θ). De hecho, en una expansión de una función f (θ) en armónicos
esféricos Yl,m (θ, ϕ), solo contribuirán los armónicos con m = 0. Otras propiedades de los polinomios de Legendre
son
Pl (1) = 1 ; Pl (−u) = (−1)l Pl (u) (11.40)
nótese que la paridad está definida con respecto a la variable u. Al hacer u = cos θ esta propiedad de paridad se
manifiesta en la variable espacial θ en la forma
que es un caso especial de (11.34). La Ec. (11.38) nos muestra que los polinomios de Legendre son ortogonales
pero no están normalizados. En contraste, las funciones Yl,0 (θ) son ortonormales.
donde hemos utilizado también la propiedad (11.35). Esta relación se conoce como teorema de adición de los
armónicos esféricos.
334 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
Todos los elementos de estas bases cumplen con las Ecs. (10.19, 10.47), que en este contexto se escriben como
pero ya hemos visto que todas las funciones propias de L2 y L3 correspondientes a un par especı́fico (l, m) poseen
la misma dependencia angular denotada por Ylm (θ, ϕ). Es decir la variación de k para l, m fijos, solo hace que varı́e
la dependencia radial de ψl,m,k (r). De las Ecuaciones (11.19) ya dedujimos que las funciones propias ψl,m,k (r)
tienen la forma
ψl,m,k (r) = Rl,m,k (r) Ylm (θ, ϕ) (11.44)
apliquemos el operador L± sobre la Ec. (11.44) teniendo en cuenta que tales operadores solo actúan sobre la
componente angular
p
L± ψl,m,k (r) = Rl,m,k (r) L± Ylm (θ, ϕ) = ~ l (l + 1) − m (m ± 1)Rl,m,k (r) Yl,m±1 (r)
comparando con la Ec. (11.43) vemos que la función radial debe satisfacer para todo r la condición
la aplicación sucesiva de L± nos lleva a que R (r) no puede depender de m. Este resultado se puede enunciar de la
siguiente manera: Si {ψl,m,k (r)} constituye una base estándar de Er , su función radial asociada no puede depender
de m de modo que estas funciones se escriben como
Podrı́amos estar tentados a pensar que la función radial solo depende de la degeneración k. Sin embargo, la
función radial también depende en general de l por la siguiente razón: una función de la forma f (r) g (θ, ϕ) solo
puede ser contı́nua en el origen (r = 0, θ y ϕ arbitrarios) si g (θ, ϕ) se reduce a una constante o si f (r) tiende
a cero cuando r → 0 con f (0) = 0. Para ver esto, basta con observar que si g (θ, ϕ) es no trivial, entonces el
lı́mite de f (r) g (θ, ϕ) cuando r → 0 dependerá de la dirección por la cual nos aproximemos al origen si f (r) no
tiende a cero cuando r → 0. De lo anterior vemos que si requerimos que ψl,m,k (r) sea contı́nuo, entonces solo las
funciones radiales con l = 0 pueden ser no nulas en el origen (puesto que Y00 es constante). Si además requerimos
diferenciabilidad hasta cierto orden en el origen obtendremos condiciones sobre Rl,k (r) que dependen de l.
Las relaciones de ortonormalidad de estas funciones se escriben en la forma
Z Z ∞
d3 r ψl,m,k
∗
(r) ψl′ ,m′ ,k′ (r) = r 2 dr Rl,k
∗
(r) Rl′ ,k′ (r)
0
Z 2π Z π
∗
× dϕ sin θ dθ Ylm (θ, ϕ) Yl′ m′ (θ, ϕ) = δkk′ δll′ δmm′
0 0
11.5. VALORES ESPERADOS Y DISPERSIÓN PARA SISTEMAS EN UN ESTADO |L, M, Ki 335
y dado que los armónicos esféricos son ortonormales Ec. (11.33) tenemos que
Z ∞ Z 2π Z π
2 ∗ ∗
r dr Rl,k (r) Rl′ ,k′ (r) dϕ sin θ dθ Ylm (θ, ϕ) Yl′ m′ (θ, ϕ) = δkk′ δll′ δmm′
0 0 0
Z ∞
δll′ δmm′ r 2 dr Rl,k
∗
(r) Rl′ ,k′ (r) = δkk′ δll′ δmm′ (11.46)
0
Z ∞
r 2 dr Rl,k
∗
(r) Rl,k′ (r) = δkk′ (11.47)
0
de modo que las funciones radiales Rl,k (r) están normalizadas con respecto a r y dos funciones radiales asociadas
al mismo valor de l pero con diferente valor de k son ortogonales.
Nótese que la relación (11.47) proviene del hecho de que las funciones ψl,l,k (r) = Rl,k (r) Yll (θ, ϕ) que se
escogieron como base en el subespacio Er (l, l) son ortonormales. Por tal razón, es esencial que el ı́ndice l sea
el mismo en ambas funciones radiales de la ecuación (11.47). Si l 6= l′ entonces ψl,m,k y ψl′ ,m′ ,k′ deben ser
ortogonales puesto que corresponden a funciones propias de L2 con diferente valor propio, pero la ortogonalidad
de los armónicos esféricos ya garantiza la ortogonalidad de las ψ ′ s cuando l 6= l′ , de modo que en general la integral
a la izquierda de (11.47) toma cualquier valor, esto se puede apreciar haciendo l 6= l′ en (11.46).
1 1
L1 = (L+ + L− ) ; L2 = (L+ − L− )
2 2i
por tanto L1 |l, m, ki es una combinación lineal de los estados |l, m + 1, ki y |l, m − 1, ki, similarmente ocurre con
L2 |l, m, ki, esto nos lleva por tanto a que
para calcular las desviaciones medias cuadráticas debemos calcular los valores esperados de L21 , L22
1
hl, m, k| L21 |l, m, ki = hl, m, k| (L+ + L− ) (L+ + L− ) |l, m, ki
4
1
= hl, m, k| L2+ + L2− + L+ L− + L− L+ |l, m, ki
4
1
hl, m, k| L22 |l, m, ki = − hl, m, k| (L+ − L− ) (L+ − L− ) |l, m, ki
4
1
= − hl, m, k| L2+ + L2− − L+ L− − L− L+ |l, m, ki
4
336 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
los términos con L2± no contribuyen puesto que L2+ |l, m, ki = c± |l, m ± 2, ki. Por tanto ambos valores esperados
son idénticos. Usando la Ec. (10.17) se obtiene
1
hl, m, k| L21 |l, m, ki = hl, m, k| L22 |l, m, ki = hl, m, k| [L+ L− + L− L+ ] |l, m, ki
4
1 ~2
= hl, m, k| 2L2 − 2L23 |l, m, ki = l (l + 1) − m2 (11.49)
4 2
las desviaciones medias cuadráticas son
~2
(∆L1 )2 = (∆L2 )2 = hl, m, k| L21 |l, m, ki − [hl, m, k| L1 |l, m, ki]2 = l (l + 1) − m2
2
en resumen cuando la partı́cula está en el estado |l, m, ki, los valores esperados y raı́ces de las desviaciones medias
cuadráticas de L1 y L2 son
p resultado posee el siguiente análogo clásico: asumamos un momento angular clásico de módulo |L| = L =
Este
~ l (l + 1) y cuya tercera componente L3 es igual a m~. Si graficamos a L en un espacio de configuración con ejes
L1 , L2 , L3 colocando el vector L con la cola en el origen, podemos describir tal vector en coordenadas esféricas
con ángulo polar θ y ángulo azimutal ϕ
asumamos ahora que los valores de L y θ son conocidos y que el ángulo azimutal ϕ es una variable aleatoria que
puede tomar cualquier valor en el intervalo [0, 2π) con igual probabilidad en todo el rango. Si promediamos sobre
ϕ tenemos
Z 2π
~p
L1 = [l (l + 1) − m2 ] cos ϕ dϕ = 0
2π 0
Z 2π
~p 2
L2 = [l (l + 1) − m ] sin ϕ dϕ = 0
2π 0
L1 = L2 = 0 (11.52)
11.6. PROBABILIDADES ASOCIADAS A LA MEDIDA DE L2 Y L3 EN UN ESTADO ARBITRARIO 337
adicionalmente
Z 2π
~2 ~2
L21 = l (l + 1) − m2 cos2 ϕ dϕ =
l (l + 1) − m2
2π 0 2
Z 2π
~2 ~2
L22 = l (l + 1) − m2 sin2 ϕ dϕ = l (l + 1) − m2
2π 0 2
~
2
L21 = L22 = l (l + 1) − m2 (11.53)
2
vemos que los promedios clásicos de L1 , L2 , L21 , L22 dados por las Ecs. (11.52, 11.53) son idénticos a los valores
esperados cuánticos dados en las Ecs. (11.50,
para una partı́cula en el estado |l, m, ki. Por tanto, en lo
11.51)
que concierne a los valores de hL1 i, hL2 i , L21 , L22 , una partı́cula cuántica en el estado |l, m, ki se comporta
p
de manera similar a una particula clásica con momento angular de magnitud L = ~ l (l + 1) y con tercera
componente L3 = m~ para el cual ϕ es una variable aleatoria con distribución uniforme de probabilidad sobre el
intervalo [0, 2π).
No obstante, este análogo clásico también tiene sus limitaciones. Por ejemplo en este modelo clásico puesto
que ϕ es aleatoria
p y puede tomar cualquier
p valor en el contı́nuo nos lleva a que L1 y L2 puede tomar cualquier
valor entre −~ [l (l + 1) − m2 ] y ~ [l (l + 1) − m2 ]. En contraste, para el caso cuántico los valores accesibles
de todas las componentes para una medida individual de la partı́cula en el estado |l, m, ki están cuantizados.
Especı́ficamente, hemos visto que los valores accesibles de L1 y L2 coinciden con los de L3 , puesto que l es fijo
hay 2l + 1 valores accesibles que son l~, (l − 1) ~, . . . , (−l + 1) ~, −l~.
de acuerdo con los postulados, la probabilidad PL2 ,L3 (l, m) está dada por
X
PL2 ,L3 (l, m) = |cl,m,k |2 (11.56)
k
338 CAPÍTULO 11. PROPIEDADES DE LOS MOMENTOS ANGULARES ORBITALES
estrictamente la condición l ≥ |m| se satisface automáticamente ya que no hay coeficientes cl,k,m con l < |m|.
Adicionalmente, si tenemos en cuenta que L2 , Li , L± son operadores diferenciales que solo actúan sobre las
variables angulares, solo la dependencia angular en ψ (r) será relevante para calcular estas probabilidades. En
consecuencia, r se puede ver como un parámetro para estos cálculos (cantidad arbitraria pero fija). Si consideramos
que ψ (r, θ, ϕ) es función de las variables θ, ϕ y que r es un parámetro, entonces puesto que toda función de θ y ϕ
se podrá expandir en armónicos esféricos con coeficientes que dependen del parámetro r, tendremos
XX
ψ (r, θ, ϕ) = al,m (r) Ylm (θ, ϕ) (11.59)
l m
Z 2π Z π
∗
alm (r) = hlm| ψi = dϕ sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ) (11.60)
0 0
si comparamos las expansiones (11.54, 11.59) vemos que los cl,m,k son los coeficientes de la expansión de al,m (r)
en las funciones Rl,k (r) X
al,m (r) = cl,m,k Rl,k (r) (11.61)
k
usando (11.55) y (11.60) se obtiene
Z ∞ Z 2π Z π
cl,m,k = r 2 dr Rl,k
∗
(r) dϕ ∗
sin θ dθ Ylm (θ, ϕ) ψ (r, θ, ϕ)
Z0 ∞ 0 0
cl,m,k = r 2 dr Rl,k
∗
(r) al,m (r) (11.62)
0
la Ec. (11.62) es la inversa de (11.61). De hecho la Ec. (11.62) se puede obtener multiplicando (11.61) por r 2 Rl,k
∗ (r),
integrando en r y utilizando la relación de ortonormalidad (11.47). Usando las Ecs. (11.47, 11.61) se obtiene
Z ∞ Z ∞ " #" #
2
X X
r 2 dr |al,m (r)| = r 2 dr c∗l,m,k Rl,k
∗
(r) cl,m,k′ Rl,k′ (r)
0 0 k k′
Z ∞ XX Z ∞ X
r 2 dr |al,m (r)|2 = c∗l,m,k cl,m,k′ r 2 dr Rl,k
∗
(r) Rl,k′ (r) = c∗l,m,k cl,m,k′ δkk′
0 k k′ 0 k,k ′
Z ∞ X
r 2 dr |al,m (r)|2 = |cl,m,k |2
0 k
por lo tanto, la probabilidad PL2 ,L3 (l, m) descrita por la Ec. (11.56) se puede reescribir como
Z ∞
PL2 ,L3 (l, m) = r 2 dr |al,m (r)|2 (11.63)
0
en sı́ntesis, para calcular las probabilidades asociadas a las medidas de los observables L2 y L3 podemos considerar
a la función de onda solo como función de las variables θ, ϕ y expandir dicha función en armónicos esféricos como
se vé en la Ec. (11.59). Los coeficientes de esta expansión se usan entonces para calcular las probabilidades como
se vé en las Ecs. (11.63, 11.64).
Ahora bien, la Ec. (11.12) nos muestra que el operador L3 solo depende del ángulo azimutal ϕ. Por tanto,
para el cálculo de PL3 (m) podemos considerar a ϕ como la única variable en ψ (r) siendo r y θ parámetros en la
función de onda. Para ver esto basta con observar que los armónicos esféricos son el producto de una función de
solo θ por una función de solo ϕ
eimϕ
Ylm (θ, ϕ) = Zlm (θ) √ (11.65)
2π
con esta parametrización cada una de las funciones del producto está normalizada, esto se vé teniendo en cuenta
que
Z 2π ′
e−imϕ eim ϕ
dϕ √ √ = δmm′
0 2π 2π
si sustituı́mos esto en la relación de ortonormalidad para los armónicos esféricos Ec. (11.33) encontramos que
Z 2π Z π
dϕ sin θ dθ Yl∗′ m′ (θ, ϕ) Ylm (θ, ϕ) = δll′ δmm′
0
Z 2π Z π " 0 #
e −im′ ϕ eimϕ
∗
dϕ sin θ dθ Zl′ m′ (θ) √ Zlm (θ) √ = δll′ δmm′
0 0 2π 2π
"Z #Z
2π −im′ ϕ imϕ π
e e
√ √ dϕ sin θ dθ Zl∗′ m′ (θ) Zlm (θ) = δll′ δmm′
0 2π 2π 0
Z π
δmm′ sin θ dθ Zl∗′ m′ (θ) Zlm (θ) = δll′ δmm′ (11.66)
0
Z π
∗
sin θ dθ Zl,m (θ) Zl′ ,m (θ) = δll′ (11.67)
0
nótese que en esta relación solo aparece un número cuántico m ya que si m 6= m′ ambos miembros en (11.66) se
anulan para cualquier valor de la integral que aparece a la izquierda de (11.66), de modo que a priori esta integral
puede tomar cualquier valor.
Tomaremos entonces para el cálculo de PL3 a la función de onda ψ (r) como una función que solo depende de
ϕ como variable y que depende solo paramétricamente de θ y r. Su expansión de Fourier será
X Z 2π
eimϕ 1
ψ (r, θ, ϕ) = bm (r, θ) √ ; bm (r, θ) = √ dϕ e−imϕ ψ (r, θ, ϕ) (11.68)
m 2π 2π 0
multiplicando a ambos lados de (11.71) por sin θ dθ y por el conjugado de cada miembro e integrando resulta
" #" #
X X
∗ ∗ ∗
bm (r, θ) bm (r, θ) sin θ dθ = al,m (r) Zlm (θ) al′ ,m (r) Zl′ m (θ) sin θ dθ
l l′
Z π XX Z π
2
|bm (r, θ)| sin θ dθ = al,m (r) a∗l′ ,m (r) Zlm (θ) Zl∗′ m (θ) sin θ dθ
0 l l′ 0
y sustituyendo (11.72) en la segunda de las ecuaciones (11.64), la probabilidad PL3 (m) queda en la forma
Z ∞ Z π
PL3 (m) = 2
r dr sin θ dθ |bm (r, θ)|2 (11.73)
0 0
Por lo tanto, en lo que respecta al cálculo de PL3 (m) se puede considerar que para la función de onda, las
cantidades r y θ son parámetros y la única variable es ϕ. Con esta consideración, la expansión de Fourier se hace
en la forma indicada en (11.68) y los coeficientes de la expansión se utilizan para calcular PL3 (m) como se observa
en la Ec. (11.73).
Por otro lado, vemos que para calcular PL2 los dos ángulos θ y ϕ son relevantes ya que el operador diferencial
asociado (11.13) depende de ambos ángulos. Por tanto la única cantidad que se puede considerar como parámetro
para este cálculo es r y debemos emplear la fórmula (11.64).
quedando entonces
XX Z 2π Z π
∗
g (θ, ϕ) = dl,m Ylm (θ, ϕ) ; dlm ≡ dϕ sin θ dθ Ylm (θ, ϕ) g (θ, ϕ)
l m 0 0
11.7. EJEMPLOS DE CÁLCULOS DE PROBABILIDAD PARA L2 Y L3 341
usando la segunda Ec. (11.76), la probabilidad PL2 ,L3 dada en (11.63) queda en la forma
Z ∞ Z ∞
2 2
PL2 ,L3 (l, m) = 2
r dr |al,m (r)| = |dl,m | r 2 dr |f (r)|2
0 0
Z 2π Z π
PL2 ,L3 (l, m) = |dl,m |2 ; dlm ≡ dϕ sin θ dθ Ylm∗
(θ, ϕ) g (θ, ϕ) (11.77)
0 0
donde hemos usado la condición de normalización radial (11.75). Esta probabilidad es totalmente independiente
de la parte radial de la función de onda f (r).
Por supuesto la Ec. (11.78) es un caso especial de (11.74) de modo que los resultados precedentes son válidos aquı́.
Pero la separación adicional nos permite simplificar el cálculo de PL3 , pues la expansión (11.68) queda en este
caso en la forma
X Z 2π
eimϕ 1
f (r) h (θ) k (ϕ) = bm (r, θ) √ ; bm (r, θ) = √ f (r) h (θ) dϕ e−imϕ k (ϕ)
m 2π 2π 0
X eimϕ
f (r) h (θ) k (ϕ) = f (r) h (θ) cm √ ; bm (r, θ) ≡ cm f (r) h (θ) (11.80)
m 2π
quedando finalmente Z
X eimϕ 1 2π
k (ϕ) = cm √ ; cm ≡ √ dϕ e−imϕ k (ϕ) (11.81)
m 2π 2π 0
ahora aplicando (11.80 y 11.81) a la Ec. (11.73) para el cálculo de PL3 se obtiene
Z ∞ Z π Z ∞ Z π
2
PL3 (m) = 2
r dr sin θ dθ |bm (r, θ)| = 2
r dr sin θ dθ |cm f (r) h (θ)|2
0
Z ∞ 0 Z π 0 0
de modo que una medida de L2 y/o L3 da el valor cero con total certeza.
Ahora modifiquemos solo la dependencia con θ
r
3 1
h (θ) = cos θ ; k (ϕ) = √
2 2π
r
3
ψ (r) = f (r) cos θ = Y10 (θ, ϕ)
4π
de nuevo tenemos certeza total sobre los valores de L2 y L3 en una medida (l = 1, m = 0). Para L2 obtenemos
2~2 y para L3 tendremos cero. Vemos que la modificación de la dependencia de θ no modifica las predicciones
concernientes a L3 puesto que tales predicciones solo dependen del ángulo ϕ.
Ahora modificamos la dependencia de ϕ (con respecto al primer problema) de modo que
1 eiϕ
h (θ) = √ ; k (ϕ) = √
2 2π
eiϕ
ψ (r) = f (r) √ (11.84)
4π
la dependencia angular ya no está dada por un solo armónico esférico. Aplicando (11.82) vemos que PL3 (m) nos
da
Z 2π Z 2π
2 1 −imϕ 1
PL3 (m) = |cm | ; cm ≡ √ dϕ e k (ϕ) = dϕ e−imϕ eiϕ = δm1
2π 0 2π 0
PL3 (m) = δm1
por tanto m solo puede tomar el valor m = 1, vemos entonces que las predicciones sobre L3 han cambiado por
la introducción de la dependencia azimutal. Las predicciones
√ sobre L2 cambian también con respecto a las dadas
por (11.83). Para calcular PL2 es necesario expandir eiϕ / 4π en armónicos esféricos. Se puede verificar que todos
los armónicos con l impar y m = 1 aparecen en dicha expansión. Por tanto, ya no hay certeza en la medida de L2
sino una distribución de probabilidad. Tal como ya se discutió, la dependencia de ϕ entra en las predicciones sobre
L2 . Nótese que la Ec. (11.84) nos describe una autofunción de L3 que no es autofunción de L2 . Esto no supone
ninguna contradicción, ya que está garantizado que existe una base común para ambos, pero esto no significa que
no pueda existir una base (o en particular un vector) que consista de autovectores de solo uno de los operadores.
Capı́tulo 12
En mecánica cuántica es frecuente encontrarse con el problema de dos partı́culas interactuantes como es el
caso de la interacción electrón núcleo en un átomo hidrogenoide (sistema consistente en un núcleo y un electrón).
Cuando la interacción entre las dos partı́culas se puede describir por un potencial que solo depende de la posición
relativa entre ambas, es posible demostrar al igual que en mecánica clásica, que el problema se puede reducir
al estudio de una sola partı́cula ficticia. Además cuando la interacción entre las partı́culas depende solo de la
distancia entre ellas, el sistema equivalente es la partı́cula ficticia sujeta a un potencial central.
Una vez que el problema se reduce al problema equivalente de una partı́cula, se considerarán las propiedades
mecano cuánticas de una partı́cula sujeta a un potencial central V (r). Este problema está ı́ntimamente relacionado
con el problema del momento angular, ya que el hecho de que V (r) sea invariante ante rotaciones alrededor del
origen significará que el Hamiltoniano H conmuta con todas las componentes del momento angular orbital L,
es decir es un escalar. Esto simplificará considerablemente el problema de valores propios ya que será posible
construı́r una base común de funciones propias de H, L2 y L3 . Esto a su vez permitirá que la dependencia angular
de la ecuación de valores propios se convierta en el problema de valores propios del momento angular orbital que
ya se ha estudiado en detalle. Por tanto, el problema se reducirá a encontrar la dependencia radial.
m1 r1 + m2 r2
r ≡ r2 − r1 ; R ≡ (12.1)
m1 + m2
1
Esto adicionalmente es compatible con la homogeneidad del espacio ya que un cambio de origen no debe cambiar la naturaleza de
la interacción. Efectivamente, el vector r = r2 − r1 es invariante ante un cambio de origen.
343
344 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA
con lo cual
m2
r′1 = − r
m1 + m2
m1
r′2 = r (12.4)
m1 + m2
En esta sección consideraremos una situación algo más general en donde el potencial puede depender también de
las derivadas temporales del vector relativo r. El Lagrangiano del sistema se puede escribir como
L = T Ṙ, ṙ − U (r, ṙ, ..)
es bien sabido que la energı́a cinética de un sistema clásico de partı́culas se puede escribir como la energı́a cinética
del centro de masa mas la energı́a cinética con respecto al centro de masa
1 1 1 1 1
T Ṙ, ṙ = m1 ṙ21 + m2 ṙ22 = m1 ṙ′2 ′2
1 + m2 ṙ2 + M Ṙ
2
(12.5)
2 2 2 2 2
donde M ≡ m1 + m2 . Usando (12.4) se puede escribir la energı́a cinética en términos de las coordenadas genera-
lizadas elegidas i.e. las componentes de Ṙ y ṙ
1 m1 m2 2 1
T = ṙ + M Ṙ2
2 M 2
el Lagrangiano queda de la forma
1 1 m1 m2 2
L= M Ṙ2 + ṙ − U (r, ṙ, ..) (12.6)
2 2 M
12.1. EL PROBLEMA DE DOS CUERPOS EN MECÁNICA CLÁSICA 345
se puede ver que las coordenadas de R son todas cı́clicas, es decir no aparecen en el Lagrangiano pero sı́ aparecen
las coordenadas Ṙ. Si elegimos como coordenadas generalizadas las tres componentes cartesianas de R, vemos
que los tres momentos lineales (que serı́an los momentos canónicos) son constantes y por tanto, Ṙ = cte, de modo
que el centro de masa está en reposo o movimiento rectilı́neo uniforme2
R = R0 + Ṙt (12.7)
si nuestro sistema original de referencia es inercial, entonces el sistema con origen en el centro de masa también
lo es. Podemos entonces ver el movimiento a partir del centro de masa en cuyo caso el Lagrangiano queda
1 2
L= µṙ − U (r, ṙ, ..) (12.8)
2
donde hemos definido
m1 m2
µ≡ (12.9)
M
como la masa reducida del sistema. El Lagrangiano (12.8) es el equivalente al Lagrangiano que se obtendrı́a
si tuviéramos una partı́cula de masa µ sometida a una fuerza que apunta siempre hacia un punto fijo (fuerza
central), y a una distancia r del centro de fuerza. Por lo tanto el problema de dos cuerpos sometidos a fuerzas
centrales mutuas, se puede reducir a un problema de una sola partı́cula que interactúa con un centro de fuerzas.
No debemos olvidar sin embargo, que la partı́cula equivalente a la cual está asociada el Lagrangiano (12.8),
NO existe, no hay ninguna partı́cula de masa µ y las trayectorias que se encuentran son para esta partı́cula
imaginaria. Para encontrar la trayectoria de las partı́culas originales con respecto al sistema inercial original, es
necesario devolverse tomando las Ecs. (12.2, 12.7) junto con las soluciones que encontremos para r. No obstante,
si ocurre que m1 ≪ m2 entonces tanto la trayectoria como la masa imaginarias van a ser muy semejantes a la
trayectoria y masa real de m1 .
Ahora queremos construı́r un Hamiltoniano equivalente para cuantizar más adelante. Usando (12.6) suponiendo
que U solo depende de r, podemos calcular los momentos conjugados asociados a las componentes de R y de r,
los cuales están dados por
∂L ∂ 1 1 1 1
Pi = = M Ẋk Ẋk + µẋk ẋk − V (r) = M δik Ẋk + M Ẋk δik = M Ẋi
∂ Ẋi ∂ Ẋi 2 2 2 2
∂L ∂ 1 1
pi = = M Ẋk Ẋk + µẋk ẋk − V (r) = µẋi
∂ ẋi ∂ ẋi 2 2
tenemos entonces que
la primera ecuación nos dice que el centro de masa tiene movimiento rectilı́neo uniforme como ya se habia obser-
vado. La segunda ecuación es la segunda ley de Newton aplicada a la partı́cula imaginaria de masa µ. Puesto que
el centro de masa es también inercial, podemos ubicarnos allı́ para ver las ecuaciones de movimiento, en cuyo caso
el Hamiltoniano queda
p2
H (r, p) = + V (r) (12.15)
2µ
que es el equivalente al Lagrangiano (12.8) para la partı́cula µ con posición r y momento p (excepto que ya
asumimos que el potencial solo depende de r). Nótese que el primer término a la derecha de las Ecs. (12.6, 12.13)
junto con la primera de las Ecs. (12.14) nos permite interpretar al par R, P como variables conjugadas a una
segunda partı́cula imaginaria de masa M y que viaja a la velocidad constante del centro de masa ocupando para
todo tiempo la posición del centro de masa3 .
También se observa que la Ec. (12.12) nos dice que la velocidad p/µ de la partı́cula imaginaria es igual a la
diferencia entre la velocidades de las dos partı́culas es decir su velocidad relativa, lo cual es consistente con derivar
la primera de las Ecs. (12.1) con respecto al tiempo.
donde i, k rotulan partı́culas en tanto que j, m rotulan componentes. Definimos ahora los observables RC y Rr en
forma análoga a las Ecs. (12.1)
m1 R1 + m2 R2
RC = ; Rr = R2 − R1 (12.17)
m1 + m2
y los momentos tienen expresiones de la forma (12.10, 12.11)
m1 P2 − m2 P1
PC = P1 + P2 ; Pr = (12.18)
m1 + m2
los conmutadores entre las componentes de RC , Rr , PC , Pr se pueden calcular con base en las definiciones (12.17,
12.18) y las reglas de conmutación (12.16) y se obtiene
h i h i h i
e (i) , X
X em(k)
= e(i) , Pem
P (k)
= 0 ; e (i) , Pem
X (k)
= δjm δik i~ ; i, k = 1, 2 ; j, m = 1, 2, 3
j j j
e (1) ≡ (RC ) ; X
X e (2) ≡ (Rr ) ; Pe(1) ≡ (PC ) ; Pe(2) ≡ (Pr )
j j j j j j j j
3
En sı́ntesis hemos cambiado el problema de dos cuerpos (reales) acoplados por el problema de dos cuerpos (imaginarios) totalmente
desacoplados.
12.2. REDUCCIÓN DEL PROBLEMA DE DOS CUERPOS EN MECÁNICA CUÁNTICA 347
es decir tanto el par RC , PC , como el par Rr , Pr obedecen reglas canónicas de conmutación. Además todo
observable del conjunto {RC , PC } conmuta con todo observable del conjunto {Rr , Pr }.
Lo anterior nos permite interpretar al par RC , PC , y al par Rr , Pr como los observables posición y momento
de dos partı́culas ficticias distintas y desacopladas, al igual que en el caso clásico.
Asumiendo que H, HC , Hr son observables, tal conjunto tendrá entonces una base común de kets propios.
consideremos la base {|rC , rr i}, donde los elementos de esta base son vectores propios comunes a los observables
RC y Rr . En esta base, un estado se representa por la función de onda ϕ (rC , rr ) que es función de seis variables.
Los operadores RC y Rr se representan por multiplicación de las funciones de onda por las variables rC y rr
respectivamente, en tanto que PC y Pr se representan por los gradientes
∂ ∂ ∂
PC → −i~∇C ≡ −i~ , ,
∂xC,1 ∂xC,2 ∂xC,3
∂ ∂ ∂
Pr → −i~∇r ≡ −i~ , ,
∂xr,1 ∂xr,2 ∂xr,3
el espacio de estados E puede ser considerado como el producto tensorial
E = Er C ⊗ Er r
donde los espacios ErC , Err están asociados a RC y Rr respectivamente. HC y Hr son entonces extensiones a E
de Hamiltonianos originalmente definidos en ErC y Err respectivamente. Podemos entonces encontrar una base |ϕi
que cumple las Ecs. (12.19) en la forma siguiente4
las dos primeras ecuaciones se pueden escribir en la base {|rC i} y {|rr i} respectivamente y se obtiene
~2 2
− ∇ ϕC (rC ) = EC ϕC (rC ) (12.22)
2M C
~2 2
− ∇ + V (rr ) ϕr (rr ) = Er ϕr (rr ) (12.23)
2µ r
la Ec. (12.22) muestra que la partı́cula equivalente para la descripción del centro de masa es libre como en la
mecánica clásica. Sus soluciones son del tipo onda plana
1 i p2C
ϕC (rC ) = 3/2
e ~ pC ·rC ; EC = ≥0
(2π~) 2M
el espectro de energı́a es no negativo y contı́nuo y corresponde a la energı́a cinética del movimiento del sistema
como un todo.
La Ec. (12.23) describe la dinámica de la partı́cula imaginaria de masa µ con posición equivalente a la posición
relativa entre las dos partı́culas. Describe entonces el comportamiento del sistema de dos partı́culas en el sistema
de referencia del centro de masa. Si el potencial solo depende de |r2 − r1 | y no de la dirección de este vector
relativo, la partı́cula µ estará sujeta a un potencial central V (r). El problema se reduce entonces a resolver la
dinámica de la partı́cula µ.
El momento angular del sistema es
J = L1 + L2 ; L1 = R1 × P1 ; L2 = R2 × P2
se puede demostrar que este momento angular total también se puede escribir como
J = LC + Lr ; LC = RC × PC ; Lr = Rr × Pr
Adicionalmente, se puede demostrar que LC y Lr satisfacen las reglas de conmutación de un momento angular.
Naturalmente, las componentes de LC conmutan con las de Lr . Una vez más, estas propiedades nos permiten
interpretar consistentemente a LC y a Lr como momentos angulares de dos partı́culas cuánticas imaginarias
desacopladas.
dr pr dpr L2 dV
= ; = 3−
dt µ dt µr dr
d2 r 1 dpr 2
d r L 2 dV
= ; µ 2 = 3− (12.26)
dt2 µ dt dt µr dr
si definimos el potencial efectivo
L2
Vef f (r) = V (r) +
2µr 2
el Hamiltoniano (12.25) y las ecuaciones de movimiento (12.26) quedan
p2r d2 r dVef f
H= + Vef f (r) ; µ 2 = −
2µ dt dr
que es equivalente a un problema unidimensional sujeto a la interacción descrita por el potencial efectivo (teniendo
en cuenta que r va entre 0 e ∞). Veremos como se traducen estas caracterı́sticas en la mecánica cuántica.
350 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA
1 ∂2 L2
∇2 = r − (12.29)
r ∂r 2 ~2 r 2
de modo que el Hamiltoniano cuántico se puede escribir
~2 2 ~2 1 ∂ 2 L2
H = − ∇ + V (r) = − r − 2 2 + V (r)
2µ 2µ r ∂r 2 ~ r
2
~ ∂ 2 L 2
H = − 2
r+ + V (r) (12.30)
2µr ∂r 2µr 2
que es el análogo del Hamiltoniano clásico (12.25). El operador diferencial L2 contiene toda la dependencia angular.
El problema de valores propios del Hamiltoniano queda escrito en la forma
~2 ∂ 2 L2
− r+ + V (r) ϕ (r, θ, ϕ) = E ϕ (r, θ, ϕ) (12.31)
2µr ∂r 2 2µr 2
∂L d hLi
[H, L] = 0 ; = =0
∂t dt
por tanto H es un operador escalar con respecto a las rotaciones alrededor del origen, lo cual proviene de la
invarianza del potencial bajo rotaciones alrededor del origen. Por supuesto H también conmuta con L2 . Sin
embargo, aunque tenemos a nuestra disposición cinco constantes de movimiento (L, L2 , H), no podemos usarlas
todas para solucionar el problema de valores propios (12.31) ya que no todos estos operadores conmutan entre
sı́. Solo podremos usar L2 , L3 (u otra componente) y H. Si asumimos que H, L2 , L3 son observables, existirá
una base común de funciones propias en el espacio Er de una partı́cula. Por lo tanto podemos sin retringir la
generalidad del problema requerir que la funciones de onda en (12.31) también sean funciones de onda de L2 y L3
pero ya conocemos la forma de la parte angular de las autofunciones comunes de L2 y L3 (sección 11.4). La Ec.
(11.45) nos indica que estas funciones son de la forma
donde este ϕ (r) es solución de las dos últimas ecuaciones (12.32) sin importar la forma de la parte radial. Por
tanto, solo queda resolver el problema de determinar R (r) a fin de que ϕ (r) sea autofunción del Hamiltoniano.
y teniendo en cuenta que los armónicos esféricos son autofunciones de L2 con valor propio l (l + 1) ~2 se tiene
~2 ∂ 2 l (l + 1) ~2 Ylm (θ, ϕ)
Ylm (θ, ϕ) − r + V (r) R lk (r) + Rlk (r) = E Rlk (r) Ylm (θ, ϕ)
2µr ∂r 2 2µr 2
la ecuación radial toma finalmente la forma
~2 d2 l (l + 1) ~2
− r+ + V (r) Rlk (r) = El,k Rlk (r) (12.34)
2µr dr 2 2µr 2
en realidad una solución de (12.34), sustituı́da en (12.33) no necesariamente representa una solución de la ecuación
de valores propios (12.27) del Hamiltoniano. Esto se debe a que la expresión (12.28) para el Laplaciano no es nece-
sariamente válida en r = 0. Debemos por tanto asegurarnos que la solución R (r) de (12.34) sea lo suficientemente
regular en el origen para que (12.33) sea en realidad solución de (12.27). Nótese además que aunque la Ec. (12.34)
no depende de los ángulos, sı́ depende de l, en realidad para cada valor de l tenemos un operador diferente en
(12.34).
De las Ecs. (12.32), podemos decir que el problema de valores propios de L2 , L3 , H lo resolvemos para cada par
de valores fijos de l y m. Esto implica que en el espacio de estados Er resolvemos el problema para cada subespacio
E (l, m) asociado a valores fijos de l y m. La Ec. (12.34) nos muestra que cuando estudiamos la parte radial (que es
la única desconocida) de las funciones propias del Hamiltoniano, la ecuación asociada depende de l pero no de m,
es decir la ecuación (12.34) es idéntica para todos los 2l + 1 subespacios E (l, m) con l fijo. Denotaremos por El,k
los autovalores del operador Hl definido por (12.34) y que corresponderá a los autovalores del Hamiltoniano dentro
de un subespacio dado E (l, m). El ı́ndice k (discreto o contı́nuo) indica los diferentes valores propios asociados
al mismo número cuántico l, los valores posibles de k indican la dimensionalidad de cada subespacio E (l, m). En
(12.34) hemos denotado las funciones propias de Hl con los ı́ndices Rl,k (r). Debe notarse sin embargo que los
ı́ndices de la función radial no tienen que ser los mismos de los valores propios El,k puesto que podrı́amos tener
varias funciones radiales propias de Hl para un valor propio dado El,k en cuyo caso la función radial requerirı́a
un ı́ndice adicional. Sin embargo, demostraremos más adelante que para cada l, k solo existe una función radial
linealmente independiente.
Por otra parte, para la Ec. (12.34)
~2 d2 l (l + 1) ~2
− r+ + V (r) Rlk (r) = El,k Rlk (r) (12.35)
2µr dr 2 2µr 2
Definimos el cambio de variable
1
Rl,k (r) = ul,k (r) (12.36)
r
352 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA
es decir, permanece finito o diverge menos rápido que 1/r 2 . Esta hipótesis es válida en la mayorı́a de los casos
y en particular para el potencial de Coulomb. Consideremos una solución de la Ec. (12.34) asumamos que en el
origen se comporta en la forma
lı́m Rl,k (r) ∼ Cr s (12.40)
r→0
−s (s + 1) + l (l + 1) = 0
(l − s) (s + l + 1) = 0 (12.41)
s=l ó s = − (l + 1) (12.42)
es decir que para un valor propio dado El,k hay dos soluciones linealmente independientes de la ecuación de
segundo orden (12.34), que se comportan como r l y como 1/r l+1 en la vecindad del origen respectivamente. La
solución 1/r l+1 claramente diverge en el origen para todos los valores de l. Adicionalmente, se puede demostrar
que la función Ylm (θ, ϕ) /r l+1 no es una solución de la ecuación de valores propios (12.27) para r = 0, esto se debe
a que el laplaciano de Ylm (θ, ϕ) /r l+1 involucra la l−ésima derivada de δ (r). Por tales razones, la solución 1/r l+1
debe ser descartada.
De lo anterior las soluciones aceptables para (12.37) deben ir a cero en el origen para todo l ya que
en la Ec. (12.37) r va entre 0 e infinito. Sin embargo, es posible asumir el problema como un problema unidi-
mensional equivalente en donde r tome todos los valores reales pero con potencial efectivo infinito para valores
negativos de r. En tal caso, la función de onda toma valores idénticamente ceros en la parte negativa de r y la
condición (12.44) asegura la continuidad de la función de onda en r = 0.
la estructura de la función de onda Ec. (12.45) permite separar la parte radial y la angular
Z Z ∞ Z
2 2 2
|ϕl,m,k (r, θ, ϕ)| r dr dΩ = 2
r dr |Rl,m,k (r)| |Ylm (θ, ϕ)|2 dΩ = 1
0
354 CAPÍTULO 12. INTERACCIONES CENTRALES EN MECÁNICA CUÁNTICA
y puesto que los armónicos esféricos están normalizados entonces la función radial está normalizada por aparte
Z ∞ Z ∞
r 2 dr |Rl,m,k (r)|2 = dr |ul,m,k (r)|2 = 1 (12.46)
0 0
en realidad es conveniente aceptar en algunos casos autofunciones que no sean de cuadrado integrable. Esto ocurre
cuando al menos parte del espectro de H es contı́nuo, en cuyo caso requerimos que las funciones de onda sean
ortonormales en el sentido extendido es decir
Z ∞ Z ∞
2 ∗
r dr Rl,k′ (r) Rl,k (r) = dr u∗l,k′ (r) ul,k (r) = δ k − k′ (12.47)
0 0
El,k , l (l + 1) ~2 , m~ existe una única función normalizada (dentro de factores de fase) del tipo ϕl,m,k (r). El
autovalor de L2 dictamina la forma especı́fica de la ecuación radial, el autovalor de H nos determina la función
radial Rl,k (r) de forma única y m determina junto con l el armónico esférico (solución angular).
Capı́tulo 13
Átomos hidrogenoides
El problema de mayor interés de la interacción central entre dos cuerpos microscópicos lo constituyen los átomos
Hidrogenoides consistentes en un núcleo y un electrón. Tal es el caso del átomo de Hidrógeno y sus isótopos el
deuterio y el tritio. Ası́ mismo también son átomos hidrogenoides los iones con un solo electrón como el He+ , Li++
etc. Veremos más adelante que los átomos alcalinos (con un solo electrón en el último nivel de energı́a) se pueden
tratar también como Hidrogenoides si consideramos que los electrones internos actúan como un apantallamiento
del núcleo y que el sistema núcleo-electrones internos actúa como un “núcleo efectivo” para el electrón externo.
De momento trabajaremos con el caso más simple.
q2 e2 q2
V (r) = − =− ; ≡ e2
4πε0 r r 4πε0
siendo r la distancia entre el protón y el electrón, q corresponde a la carga electrónica en unidades SI en tanto
que e es el valor en unidades cgs. Numéricamente tenemos los siguientes valores aproximados para la masa mp del
protón, me del electrón y la carga q del protón
puesto que se trata de dos partı́culas sujetas a una interacción central, podemos reducirlo al problema de una
partı́cula libre con masa mp + me y con la dinámica del centro de masa, junto con una partı́cula de masa µ
sometida a una fuerza central y donde el vector posición de la partı́cula µ, es el vector posición relativo entre las
dos partı́culas reales (las partı́culas imaginarias están desacopladas). Usaremos un Hamiltoniano del tipo (12.15)
p2 e2
H (r, p) = − (13.1)
2µ r
puesto que mp ≫ me la masa reducida del sistema será prácticamente la masa del electrón
me mp me ∼ me ∼
µ≡ = me = me 1 − = me
mp + me 1+ m p
mp
y el centro de masa del sistema está prácticamente en la posición del protón. Por tanto la partı́cula imaginaria
asociada al centro de masa, tiene prácticamente las caracterı́sticas del protón (la masa del protón es casi la masa
total del sistema y el centro de masa está prácticamente en la posición del protón). La partı́cula imaginaria de
356
13.2. PROBLEMA DE VALORES PROPIOS DEL ÁTOMO DE HIDRÓGENO 357
masa reducida tiene prácticamente las caracterı́sticas del electrón, ya que la masa reducida del sistema es casi
la masa del electrón y la posición del electrón con respecto al centro de masa es prácticamente su posición con
respecto al protón. Adoptaremos la posición de que el protón está en el centro de masa y que el electrón es la
partı́cula relativa.
Con el fin de fijar el valor de ciertos parámetros, usaremos el modelo semi-clásico de Bohr que si bien no es
compatible con nuestros postulados, permitirá definir conceptos y parámetros útiles para el estudio de los espectros
atómicos. Dentro de este modelo el electrón viaja en una órbita circular de radio r alrededor del protón, la energı́a
total es la energı́a cinética más la potencial electrostática y obedece la segunda ley de Newton. Adicionalmente,
el momento angular del electrón está cuantizado en unidades de ~, estas suposiciones se condensan en
1 2 v2 e2
E = µv + V (r) ; µ = −∇V (r) ; l = n~ ; V (r) = −
2 r r
1 2 e2 v2 e2
E = µv − ; µ = 2 ; µvr = n~ ; n entero positivo
2 r r r
las órbitas posibles son solo aquellas que cumplen la regla de cuantización del momento angular. Con este postulado
Bohr explicó la existencia de niveles discretos de energı́a. Calculemos los valores cuantizados de En , rn y vn . Para
ello primero se calcula la energı́a de ionización EI que es la energı́a que se le debe dar al átomo de Hidrógeno en
su estado base para remover su electrón. También se pueden estimar con base en el modelo, el radio del átomo
para el estado base (radio de Bohr a0 ) y la velocidad del electrón v0 en el estado base, tales cantidades dan
µe4 ~2 e2
EI = ; a0 = ; v0 = (13.2)
2~2 µe2 ~
con estos parámetros de entrada los valores cuantizados de En , rn y vn son
1 1
En = − 2
EI ; rn = n2 a0 ; vn = v0 (13.3)
n n
los valores experimentales de EI y de los niveles de energı́a En estuvieron en concordancia con la teorı́a de Bohr.
Un estimativo de la energı́a de ionización y del radio que caracteriza las dimensiones atómicas es
EI ∼
= 13,6eV , a0 ∼
= 0,52 A
puede verse que el principio de incertidumbre explica la existencia de un estado base estable y permite además la
estimación del orden de magnitud de la energı́a base y de la extensión espacial de su función de onda.
~2 2 e2
H =− ∇ − (13.4)
2m r
y la ecuación de valores propios del Hamiltoniano es
~2 2 e2
− ∇ − ϕ (r) = Eϕ (r)
2m r
El espectro de H posee una parte discreta (energı́as negativas) y una parte contı́nua (energı́as positivas). El
espectro contı́nuo está asociado con el hecho de que para E > 0 la región accesible clásica no está acotada, en
este caso las autofunciones asociadas no serán de cuadrado integrable. En contraste, para E < 0, la naturaleza
discreta del espectro está asociada con el hecho de que la región accesible clásicamente es acotada, en tal caso las
funciones propias son de cuadrado integrable.
Es cómodo trabajar de modo que a0 y EI sean las unidades de longitud y energı́a, lo cual se logra introduciendo
los parámetros adimensionales s
r El,k
ρ= ; λl,k = − (13.7)
a0 EI
Vamos a examinar los estados acotados de energı́a negativa por lo cual el signo negativo dentro del radical es de
hecho necesario. Usando la primera de las Ecs. (13.7) en la ecuación radial (13.5), ésta se escribe como
2
~ d2 l (l + 1) ~2 e2
− + − ul,k (ρ) = El,k ul,k (ρ)
2µ d (a0 ρ)2 2µ (a0 ρ)2 a0 ρ
~2 d2 l (l + 1) ~2 1 e2
− + − − E l,k ul,k (ρ) = 0
2µa20 dρ2 2µa20 ρ2 a0 ρ
Un análisis asintótico cualitativo del comportamiento de ul,k (ρ) nos permitirá simplificar la forma de la Ec.
(13.8). Cuando ρ → ∞, los términos proporcionales a 1/ρ y 1/ρ2 se vuelven despreciables y la Ec. (13.8) se
convierte en 2
d 2
− λl,k ul,k (ρ) = 0
dρ2
13.3. SOLUCIÓN DE LA ECUACIÓN RADIAL POR SERIES DE POTENCIAS 359
cuyas soluciones son e±ρλl,k . Sin embargo, más adelante veremos que incluso en este lı́mite no se puede despreciar
completamente a los términos 1/ρ y 1/ρ2 lo cual nos llevará a soluciones del tipo ρn e±ρλl,k .
No obstante, este análisis asintótico cualitativo permite encontrar una forma aproximada de la solución espe-
rada en la ası́ntota. Nótese que la solución eρλl,k es divergente en ρ → ∞ lo cual nos permite predecir que este
tipo de solución será descartada. Todo lo anterior nos induce a realizar el siguiente cambio de variable
naturalmente este cambio de variable no significa ninguna pérdida de generalidad, ni descarta ningún tipo de
solución. Simplemente, parece simplificar a priori la forma funcional de la solución que de antemano consideramos
como aceptable. Realizando el cambio de variable (13.9) en la Ec. (13.8) nos queda
d2 h −ρλl,k i l (l + 1) 2
e yl,k (ρ) + − + − λl,k e−ρλl,k yl,k (ρ) = 0
2
(13.10)
dρ2 ρ2 ρ
calculamos la derivada
d2 h −ρλl,k i d −ρλl,k −ρλl,k dyl,k (ρ)
e y l,k (ρ) = −λl,k e yl,k (ρ) + e
dρ2 dρ dρ
dyl,k (ρ)
= (−λl,k )2 e−ρλl,k yl,k (ρ) − λl,k e−ρλl,k
dρ
2
−ρλl,k dyl,k (ρ) −ρλl,k d yl,k (ρ)
−λl,k e +e
dρ dρ2
d d2
= e−ρλl,k λ2l,k − 2λl,k + 2 yl,k (ρ)
dρ dρ
c0 6= 0
360 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES
La condición (13.12) implica que s es estrictamente positivo. De modo que s es la mı́mima potencia de ρ que
aparece en la expansión (13.13). Calculemos la primera y segunda derivada de la expansión (13.13)
∞ ∞
dyl,k (ρ) d X X
= cq ρq+s = (q + s) cq ρq+s−1 (13.14)
dρ dρ
q=0 q=0
2 X∞ X∞
d yl,k (ρ) d q+s−1
= (q + s) cq ρ = (q + s) (q + s − 1) cq ρq+s−2 (13.15)
dρ2 dρ q=0 q=0
∞
X ∞
X ∞
X ∞
X
(q + s) (q + s − 1) cq ρq+s−2 − 2λl,k (q + s) cq ρq+s−1 + 2cq ρq+s−1 − l (l + 1) cq ρq+s−2 = 0
q=0 q=0 q=0 q=0
∞
X ∞
X
[(q + s) (q + s − 1) − l (l + 1)] cq ρq+s−2 + [2 − 2λl,k (q + s)] cq ρq+s−1 = 0
q=0 q=0
reemplazando (13.17) en (13.16) y teniendo en cuenta que los ı́ndices son mudos resulta
∞
X
0 = [s (s − 1) − l (l + 1)] c0 ρs−2 + [(q + s + 1) (q + s) − l (l + 1)] cq+1 ρq+s−1
q=0
∞
X
+ 2 [1 − λl,k (q + s)] cq ρq+s−1
q=0
∞
X
[s (s − 1) − l (l + 1)] c0 ρs−2 + {[(q + s + 1) (q + s) − l (l + 1)] cq+1 + 2 [1 − λl,k (q + s)] cq } ρq+s−1 = 0
q=0
para que la serie sea cero para todo ρ, es necesario y suficiente que cada coeficiente de la expansión sea cero lo
cual nos conduce a
[s (s − 1) − l (l + 1)] c0 = 0
[(q + s + 1) (q + s) − l (l + 1)] cq+1 + 2 [1 − λl,k (q + s)] cq = 0 ; q = 0, 1, . . . , ∞
13.3. SOLUCIÓN DE LA ECUACIÓN RADIAL POR SERIES DE POTENCIAS 361
(s − l − 1) (s + l) c0 = 0 (13.18)
[(q + s + 1) (q + s) − l (l + 1)] cq+1 = 2 [λl,k (q + s) − 1] cq ; q = 0, 1, . . . , ∞ (13.19)
y teniendo en cuenta que c0 6= 0 por definición, la Ec. (13.18) nos dice que s solo puede tomar dos valores
s = l + 1 ó s = −l
pero recordando que s debe ser estrictamente positivo para garantizar un comportamiento aceptable en el origen
(condición 13.12), el único valor aceptable como solución es
s=l+1 (13.20)
Esto es consistente con la discusión de la sección 12.5.2, Eq. (12.43). Reemplazando s = l + 1 en (13.19) se obtiene
la Ec. (13.21) define una relación de recurrencia para los coeficientes de la expansión (13.13). Si fijamos c0 podemos
calcular todos los demás coeficientes con esta recurrencia. Por otro lado, de la Ec. (13.21) se obtiene
cq 2 [(q + l) λl,k − 1]
= (13.22)
cq−1 q (q + 2l + 1)
que claramente tiende a cero cuando q → 0, por tanto la serie converge para todo ρ (criterio del cociente para
series). En consecuencia, hemos determinado para todo λl,k una solución de (13.11) que satisface la condición
(13.12).
cq 2qλl,k 2λl,k
lı́m = 2
→ (13.23)
q→∞ cq−1 q q
comparando (13.23) con (13.24) se puede demostrar que para valores grandes de ρ, la serie se comporta en la
forma e2ρλl,k . De la Ec. (13.9), la función radial ul,k (r) se comporta como
la cual no es fı́sicamente aceptable1 . Por tanto, no es aceptable una solución en serie (cantidad infinita de términos
no nulos). En consecuencia, es necesario que la expansión (13.13) sea truncada y se convierta en una sumatoria
(polinomio). En tal caso la Ec. (13.9) nos dice que el comportamiento asintótico de ul,k (r) es el producto de un
polinomio por una función e−ρλl,k el cual es aceptable.
Definiremos ck como el primer coeficiente nulo de la expansión. Esto equivale a decir que existe un valor
entero positivo k tal que ck−1 6= 0, pero el término entre paréntesis a la derecha de (13.21) es cero para q = k. En
tal caso, la relación de recurrencia (13.21), nos indica que el coeficiente ck será nulo y que los términos subsecuentes
también serán nulos. La expansión (13.13) será un polinomio ya que la relación de recurrencia generará un número
finito de coeficientes cq . Para un valor fijo de l, rotulamos el correspondiente valor de λl,k con este entero k. Es
claro que k ≥ 1, puesto que c0 6= 0. Igualando a cero el término entre paréntesis a la derecha de (13.21) cuando
q = k se obtiene
1
λl,k = ; k = 1, 2, 3, . . . (13.25)
l+k
reemplazando estos valores permitidos de λl,k en la Ec. (13.7) para la energı́a se obtiene
s
1 El,k
= −
l+k EI
EI
El,k = − ; k = 1, 2, 3, . . . (13.26)
(l + k)2
Tomando en cuenta (13.13, 13.20), y el hecho de que cq = 0 para q ≥ k, la función yl,k (ρ) queda en la forma
k−1
X
l+1
yl,k (ρ) = ρ cq ρq (13.27)
q=0
tenemos entonces que yl,k (ρ) es un polinomio donde la menor potencia es ρl+1 y la máxima potencia es ρl+k .
comparando (13.30) con (13.29) vemos que (13.29) se cumple para q = 1. Ahora asumimos que se cumple para q
y demostraremos que se cumple para q + 1. Usando (13.28) con q → q + 1 se obtiene
2 (k − q − 1)
cq+1 = − cq
(q + 1) (q + 2l + 2) (l + k)
(q + 1) (q + 2l + 2) (l + k)
cq = − cq+1 (13.31)
2 (k − q − 1)
q
q 2 (k − 1)! (2l + 1)!
cq = (−1) c0
l+k (k − q − 1)! q! (q + 2l + 1)!
q
(q + 1) (q + 2l + 2) (l + k) 2 (k − 1)! (2l + 1)!
− cq+1 = (−1)q c0
2 (k − q − 1) l+k (k − q − 1)! q! (q + 2l + 1)!
q
2 2 (k − 1)! (k − q − 1) (2l + 1)!
cq+1 = (−1) (−1)q c0
(l + k) l + k (k − q − 1)! q! (q + 1) (q + 2l + 1)! (q + 2l + 2)
q+1
2 (k − 1)! (2l + 1)!
cq+1 = (−1)q+1 c0
l+k (k − q − 2)! (q + 1)! (q + 2l + 2)!
q+1
2 (k − 1)! (2l + 1)!
cq+1 = (−1)q+1 c0 (13.32)
l+k [k − (q + 1) − 1]! (q + 1)! [(q + 1) + 2l + 1]!
comparando (13.32) con (13.29) vemos que si la relación (13.29) se cumple para q entonces se cumple para q + 1,
lo cual demuestra la validez de (13.29).
2 (k − q) 2 (1 − 1)
cq = − cq−1 ⇒ c1 = − c0 = 0
q (q + 2l + 1) (l + k) 1 × [1 + 2 (0) + 1] (0 + 1)
2
También podemos ver que para q = 0, la Ec. (13.29) conduce a c0 = c0 . Por tanto podemos comenzar la inducción con q = 0.
364 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES
donde hemos tenido en cuenta que c0 en general depende de los valores de l y k. Finalmente la función radial
Rl,k (r) está dada por (12.36), para el caso de l = 0, k = 1 se tiene que
(0,1)
1 1 c0 2 1 −r/a0
R0,1 (r) = u0,1 (r) = re−r/a0 = √ e
r r a0 a0 a0
2 −r/a0
R0,1 (r) = 3/2
e
a0
2 (k − q) 2 (2 − 1) 1
cq = − cq−1 ⇒ c1 = − c0 = − c0 ⇒
q (q + 2l + 1) (l + k) (1 + 1) (0 + 2) 2
2 (2 − 2)
c2 = − c1 = 0
2 (2 + 1) (0 + 2)
verificando una vez más que ck = c2 = 0. Con estos coeficientes y0,2 (ρ) queda
1 1
y0,2 (ρ) = ρ c0 − c0 ρ = c0 ρ 1 − ρ
2 2
ahora debemos calcular el c0 que normaliza a u0,2 (r) de acuerdo con las Ecs. (13.34, 12.46) eligiendo fase cero
para c0
Z ∞ Z ∞ 2
2 2 r r 2 − ar
|u0,2 (r)| dr = 1 ⇒ c0 1− e 0 dr = 1
0 0 a0 2a0
evaluando la integral
Z ∞ 2 2
r r − ar 1 − a1 r ∞
1− e 0 dr = − 3 e 0 8a0 + 8a0 r + 4a0 r + r = 2a0
4 3 2 2 4
0 a0 2a0 4a0 0
por tanto
(0,2) 1
c20 (2a0 ) = 1 ⇒ c0 =√
2a0
reemplazando en (13.34) queda
1 r r − 2ar 2r r − 2ar
u0,2 (r) = √ 1− e 0 = 1− e 0
2a0 a0 2a0 (2a0 )3/2 2a0
2 r − 2ar
R0,2 (r) = 1− e 0
(2a0 )3/2 2a0
k−1
X 0
X
l+1 q 1+1
yl,k (ρ) = ρ cq ρ ; y1,1 (ρ) = ρ cq ρq
q=0 q=0
2
y1,1 (ρ) = c0 ρ
n≡l+k (13.36)
de modo que n determina unı́vocamente el valor de la energı́a según se observa en (13.26) ya que en tal caso
tenemos
EI
En = − 2 ; n = 1, 2, 3, . . .
n
Puesto que determinar n y l es equivalente a determinar k y l, será más conveniente reemplazar a k por n. En
consecuencia, utilizaremos los números cuánticos n, l, m en lugar de k, l, m de aquı́ en adelante. En virtud de que
n define la energı́a, se denomina el número cuántico principal, de aquı́ en adelante citaremos los números
cuánticos usando primero el número cuántico principal, luego el número cuántico azimutal y finalmente el número
cuántico magnético i.e. n, l, m.
1 1 e2 q2 ~
EI = α2 µc2 , a0 = λel ; α ≡ = ; λel ≡ (13.37)
2 α ~c 4πε0 ~c µc
la constante adimensional α se conoce como constante de estructura fina. Por otro lado puesto que µ ≃ me se
tiene que λel está relacionada con la longitud de onda de compton del electrón λC [ver Ec. (2.11) Pág. 114].
Numéricamente
1 λC ~
α≃ ; λel ≡ ≃ ≃ 3,8 × 10−3 A (13.38)
137 2π me c
la segunda de las Ecs. (13.37) nos dice que el radio de Bohr (radio atómico tı́pico) es unas dos órdenes de magnitud
mayor que la longitud de onda de Compton del electrón. La primera de las Ecs. (13.37) se escribe numéricamente
como
1 2 2 1 1 2
EI ≃ α me c ≃ me c2 ⇒ EI ≃ 2. 7 × 10−5 me c2
2 2 137
me c2 ≃ 0,5 × 106 eV
de modo que la energı́a de enlace tı́pica de un átomo es unas 10−5 veces menor que la energı́a en reposo del
electrón me c2 .
EI ≪ me c2
esta relación es indispensable para poder justificar una aproximación no relativista al problema. Los efectos
relativistas son pequeños pero observables. Debido a que los efectos relativistas son pequeños pueden calcularse a
través de la teorı́a de perturbaciones.
13.5. RESUMEN DE RESULTADOS 367
donde los coeficientes cq se pueden encontrar a partir de c0 , con la siguiente fórmula de recurrencia
2 (n − l − q)
cq = − cq−1 (13.45)
q (q + 2l + 1) n
q
q 2 (n − l − 1)! (2l + 1)!
cq = (−1) c0 (13.46)
n (n − l − q − 1)! q! (q + 2l + 1)!
finalmente la constante c0 (que en general depende de los valores de n y l) se determina como constante de
normalización para la función radial un,l (r)
Z ∞
|un,l (r)|2 dr = 1 (13.47)
0
EI
El,k = − ; k = 1, 2, 3, ... (13.50)
(l + k)2
y nos muestra que para un l fijo existen infinitos valores de energı́a asociados a k = 1, 2, 3, .... Adicionalmente,
para cada par l, k la energı́a posee al menos una degeneración de orden 2l + 1 debido a los diferentes valores
de m asociados a l fijo, esta degeneración debida a la ausencia del número cuántico m en la ecuación radial, se
denomina degeneración esencial puesto que es propia de cualquier interacción central. No obstante, también están
presentes degeneraciones accidentales propias de la interacción especı́fica, ya que la Ec. (13.50) nos dice que dos
autovalores El,k y El′ ,k′ asociados a ecuaciones radiales distintas (l 6= l′ ) serán iguales si l′ + k′ = l + k.
Usando ahora los números cuánticos n, l, m, la Ec. (13.50) queda
EI
En = − ; n = 1, 2, 3, . . . (13.51)
n2
l = 0, 1, 2, ..., n − 1 ; n = 1, 2, 3, ...
Cada combinación especı́fica n, l se denomina una subcapa o subnivel electrónico. Puesto que hay n valores de l
para un n dado se dice que cada capa o nivel n contiene n subcapas o subniveles. Ahora bien, puesto que L2 , L3 y
H forman un C.S.C.O. se tiene que un estado está definido unı́vocamente por una tripla (n, l, m). En consecuencia,
cada subnivel (n, l) contiene 2l + 1 estados diferentes asociados a los diferentes valores de m para l fijo.
Dado que n especifica unı́vocamente a la energı́a y (n, l, m) especifica completamente al estado, la degeneración
de la energı́a para un n dado es el número total de valores de l, m para dicho valor de n
n−1 n−1
!
X X 2n (n − 1)
gn = (2l + 1) = 2 l +n= +n
2
l=0 l=0
gn = n2
veremos más adelante que la presencia del momento angular intrı́nseco del electrón nos duplica este valor. Si
tenemos en cuenta adicionalmente el espı́n del protón, tendrı́amos un factor de dos adicional.
Usando una vez más la notación espectroscópica, los valores de l se denotan con una letra del alfabeto en la
siguiente forma
l=0↔s , l=1↔p , l=2↔d , l=3↔f , l=4↔g
la notación espectroscópica rotula un subnivel por el número n seguido por la letra que caracteriza al valor de l.
Por ejemplo, para el nivel base n = 1 (que no es degenerado según la Ec. (13.51) y que se conoce como “nivel
K”) solo l = 0 es posible, de modo que solo tiene el subnivel 1s. El primer estado excitado n = 2 (conocido como
“nivel L”) permite l = 0, 1 de modo que contiene los subniveles 2s y 2p. El segundo estado excitado (“nivel M ”)
posee los subniveles 3s, 3p, 3d.
Hemos visto que un estado se especifica con los números cuánticos n, l, m. Donde n, l especifica la dependencia
radial y l, m la dependencia angular. Veamos ahora las caracterı́sticas de la dependencia angular.
13.6. DISCUSIÓN DE LOS RESULTADOS 369
vemos entonces que este módulo al cuadrado tiene simetrı́a azimutal. Por tanto se obtiene una superficie de
revolución alrededor del eje X3 de cuantización. En particular, |Y00 |2 es constante y por tanto esféricamente
2
simétrico. |Y1m (θ, ϕ)|2 es proporcional a cos2 θ; |Y2m (θ, ϕ)|2 es proporcional a 3 cos2 θ − 1 etc.
La función radial Rn,l (r) caracteriza a cada subnivel y se puede calcular con los resultados de la sección 13.5
introduciendo nuestro cambio de notación de Rl,m,k (r) a Rn,l,m (r) .
El comportamiento de Rn,l (r) en la vecindad del origen es del tipo r l , de modo que solo los estados que
pertenecen a un subnivel s (l = 0) tienen una densidad de probabilidad diferente de cero en el origen. A medida
que l aumenta, es mayor la región alrededor del protón para la cual la probabilidad de encontrar el electrón es
despreciable, es de esperarse que esto aumente el valor esperado del radio atómico3 . Esto tiene consecuencias en
procesos fı́sicos tales como la captura de electrones por núcleos y la estructura hiperfina de las lı́neas espectrales.
Vale la pena recordar que el concepto de subnivel aparece en el modelo semiclásico de Sommerfeld que asigna
a cada valor de n (número cuántico de Bohr) un número n de órbitas elı́pticas de la misma energı́a y diferente
momento angular. La órbita asociada al máximo momento angular para un n dado es circular. Puesto que el
modelo semiclásico de Sommerfeld fué exitoso para predecir la degeneración de los niveles de energı́a, es lógico
pensar que el modelo de Bohr se reproduce para los estados con l = n − 1 (máximo valor del momento angular
para n dado). En particular vamos a mostrar que para l = n − 1 se obtiene la segunda expresión (13.3) para
los radios de Bohr. La probabilidad de encontrar al electrón en un volumen dV que en coordenadas esféricas se
caracteriza por
dV = r 2 dr sin θ dθ dϕ = r 2 dr dΩ
estará dada por
dPn,l,m (r, θ, ϕ) = |ϕn,l,m (r, θ, ϕ)|2 r 2 dr dΩ = |Rn,l (r)|2 r 2 dr × |Yl,m (θ, ϕ)|2 dΩ
si queremos calcular la probabilidad de encontrar al electrón entre r y r + dr dentro de un cierto ángulo sólido,
tenemos que esta probabilidad se obtiene usando (13.52)
Z ϕ2 Z θ2
1
2 2
dPn,l,m (r) = |Rn,l (r)| r dr × dϕ |Zl,m (θ)|2 sin θ dθ
2 ϕ1 θ1
Z θ2
2 2 ϕ2 − ϕ1
dPn,l,m (r) = Ml,m |Rn,l (r)| r dr ; Ml,m ≡ |Zl,m (θ)|2 sin θ dθ (13.53)
2 θ1
donde [ϕ1 , ϕ2 ] y [θ1 , θ2 ] definen el intervalo de los ángulos que generan el ángulo sólido dentro del cual se quiere
evaluar la probabilidad.
3
Esto se asemeja al comportamiento clásico en el cual el aumento de la magnitud del momento angular produce un aumento en el
radio promedio de una órbita cerrada. En particular, clásicamente un momento angular nulo significa que la velocidad inicial “apunta”
hacia el centro de interacción, lo cual indica que la trayectoria de la partı́cula es una lı́nea recta que pasa en principio por este punto
(el origen), pero si el momento angular es no nulo, la trayectoria no pasa por el origen o centro de fuerzas. La contrapartida cuántica
es el hecho de que solo para l = 0 tenemos una probabilidad no nula de que el electrón se encuentre en el origen.
370 CAPÍTULO 13. ÁTOMOS HIDROGENOIDES
Con esto y usando la primera y la tercera de las Ecs. (13.42) se calcula la función radial
1
un,n−1 (ρ) = e−ρλn c0 ρn ; λn =
n n
ρ − r r
un,n−1 (ρ) = c0 e− n ρn = c0 e a0 n
a0
n
−a nr 1 r c0 − a rn a0 r n
Rn,n−1 (r) = c0 e 0 = e 0
r a0 a0 r a0
n−1
c0 r − r
Rn,n−1 (r) = e a0 n (13.54)
a0 a0
r = rn = n2 a0
n=2 2s 2p
n = 1 (E = EI ) 1s
l = 0 (s) l = 1 (p) l = 2 (d) l = 3 (f )
Cuadro 13.1: Niveles de energı́a (negativos) para estados acotados del átomo de hidrógeno. Los niveles sobre una
fila poseen la misma energı́a (mismo número cuántico principal n). En n = 1 la energı́a corresponde en valor
absoluto a la energı́a de ionización, y para n muy grande la energı́a tiende a cero por la izquierda. A medida que
se incrementa n disminuye la brecha entre los valores de energı́a permitidos.
de modo que la densidad de probabilidad ρ (r) y la densidad de corriente de probabilidad J (r) están dadas por
las Ecs. (3.34, 3.35)
~
ρ (r) = α2 (r) ; J (r) = α2 (r) ∇ξ (r) (14.2)
µ
Teniendo en cuenta la estructura de las soluciones estacionarias Ecs. (13.41, 13.42) el módulo α (r) y la fase ξ (r)
para las soluciones hidrogenoides estacionarias están dadas por
1
αn,l,m (r) = |Rn,l (r)| |Ylm (θ, ϕ)| = √ |Rn,l (r)| |Zlm (θ)| ; ξ (r) = mϕ (14.3)
2
es importante tener en cuenta que µ denota la masa y m denota el autovalor m~ de L3 . Aplicando las Ecs. (14.2)
y usando la expresión para el gradiente en coordenadas esféricas tenemos que:
~ 2 ~ ∂ 1 ∂ 1 ∂
Jn,l,m (r) = α (r) ∇ξ (r) = ρn,l,m (r) ur + uθ + uϕ (mϕ)
µ µ ∂r r ∂θ r sin θ ∂ϕ
~ m
Jn,l,m (r) = ρn,l,m (r) uϕ (14.4)
µ r sin θ
donde uϕ es el vector unitario ortogonal al plano formado por r y u3 en el sentido en el cual se incrementa el
ángulo azimutal ϕ. La Ec. (14.4) nos dice que el sentido de rotación de la corriente está dictaminado por el signo
de m y de sin θ ya que las demás cantidades son todas positivas. La Ec. (14.4) nos dice que la corriente en cada
punto M definida por el vector posición r, es perpendicular al plano definido por r y u3 . El fluı́do de probabilidad
rota alrededor del eje X3 . Puesto que |J| no es proporcional a r sin θ ρ (r) el sistema no rota como un todo. Es
decir, la velocidad angular de la corriente es diferente en cada punto. Si queremos ver la estructura de la corriente
asociada a un estado estacionario para un plano perpendicular a u3 (es decir para θ fijo) vemos que si sin θ > 0,
372
14.1. CORRIENTES DE PROBABILIDAD PARA EL ÁTOMO DE HIDRÓGENO 373
tenemos rotación del fluı́do de probabilidad alrededor de u3 en el sentido antihorario (horario) si m > 0, (m < 0).
Si m = 0 no hay corriente de probabilidad en ningún punto del espacio.
Tomemos un elemento de volumen d3 r situado en el punto r, su contribución al momento angular con respecto
al origen (en el centro del núcleo) es:
dL = r × dP = r × (dµ) v
donde dµ es la “fracción de masa equivalente” que ocuparı́a el volumen dV si la distribución de probabilidad fuese
una distribución de masa1 . En consecuencia, dµ = µ ρ dV con lo cual
dL = µr × ρn,l,mv dV = µr × Jn,l,m (r) d3 r (14.5)
el momento angular total se obtiene por integración de la Ec. (14.5). Por simetrı́a todas las componentes en X1 y
X2 se anulan y solo sobrevive la componente sobre X3 la cual vendrá dada por
Z Z Z
ρn,l,m (r) ρn,l,m (r)
L3 = µ d3 r u3 · [r × Jn,l,m (r)] = m~ d3 r u3 · [r × uϕ ] = m~ d3 r uϕ · [u3 × r]
r sin θ r sin θ
Z Z Z
3 ρn,l,m (r)
= m~ d r uϕ · [r sin θ uϕ ] = m~ d r ρn,l,m (r) = m~ d3 r |ψ (r)|2
3
r sin θ
L3 = m~
donde hemos usado la Ec. (14.4), la identidad a · (b × c) = c · (a × b), y la Ec. (3.27) para la densidad de
probabilidad. De lo anterior se concluye que el autovalor m~ de L3 puede interpretarse como el momento angular
clásico asociado al movimiento rotacional del fluı́do de probabilidad.
y teniendo en cuenta que α (r) , ξ (r) y A (r) son cantidades reales, se obtiene que
α2 (r)
Jn,l,m = {~ ∇ξ (r) − qA (r)}
µ
ρn,l,m
Jn,l,m = [~ ∇ξn,l,m (r) − qA (r)] (14.7)
µ
sustituyendo (14.6) en la Ec. (14.7) con B = Bu3 , el estado base tendrá una corriente dada por
ρ1,0,0 qB ρ1,0,0 ∂ (mϕ) 1 ∂ (mϕ) 1 ∂ (mϕ)
J1,0,0 = ~ ∇ξ1,0,0 (r) + r × u3 = ~ ur + uθ + uϕ
µ 2 µ ∂r r ∂θ r sin θ ∂ϕ m=0
qB
+ r × u3
2
~ [m]m=0 qB ρ1,0,0 qB
= ρ1,0,0 +r× u3 = − u3 × r
µ 2µ 2 µ
ρ1,0,0 qB
J1,0,0 = ωc × r) ; ~
(~ ωc ≡ − u3 (14.8)
2 µ
donde hemos usado la Ec. (14.3). El vector ~ ωc es la frecuencia angular de ciclotrón2 . La velocidad equivalente del
fluı́do está dada por J1,0,0 = ρ1,0,0 v1,0,0 con lo cual la velocidad equivalente nos da
~c
ω
v1,0,0 = ×r≡ω
~f × r (14.9)
2
La Ec. (14.8) nos muestra que la corriente de probabilidad en el estado base no es cero en presencia de un campo
magnético, es claro que esta corriente se anula al hacer B = 0. Las Ecs. (14.8, 14.9) nos muestran que el fluı́do de
probabilidad, gira como un todo3 alrededor de B (o de u3 ) con un frecuencia angular4 ~ ωf = ~ωc /2. Fı́sicamente,
este resultado se debe a la presencia del campo eléctrico E (r) transiente que se induce cuando se “enciende” el
campo magnético. Bajo la influencia de este campo eléctrico transitorio el electrón permanece aproximadamente
en su estado base y comienza a rotar alrededor del protón, con una velocidad angular que depende solo del valor
de B y no de la forma precisa en que se enciende el campo magnético. Por supuesto, una vez que la corriente se
genera (y desaparece el campo eléctrico transitorio), el campo magnético permanente puede sostenerla via fuerza
de Lorentz, ya que la carga ahora está en movimiento.
Es importante mencionar que si usamos un gauge diferente al dado por la Ec. (14.6) las funciones de onda
serı́an diferentes, y en la Ec. (14.7) existirı́an otras contribuciones a primer orden en B. Sin embargo, en cualquier
gauge se debe reproducir la Ec. (14.8) a primer orden en B, puesto que los resultados fı́sicos no pueden depender
del gauge.
La Ec. (14.8), también se puede escribir en términos de los parámetros atómicos usando la función de onda
explı́cita del estado base del átomo de Hidrógeno que aparace en la tabla 13.2 página 371
|ϕ1,0,0 |2 e−2r/a0 qB qB e−2r/a0
J1,0,0 = ωc × r) =
(~ − u3 × r = − (r sin θ uϕ )
2 2πa30 µ µ 2πa30
qBe−2r/a0
J1,0,0 = − r sin θ uϕ (14.10)
2πµa30
aquı́ vemos además que la densidad de corriente es proporcional a ρ (r) r sin θ, lo cual nos ratifica que el fluı́do de
probabilidad gira como un todo.
2
La frecuencia angular de ciclotrón es la que tendrı́a una carga q clásica que se mueve en una trayectoria circular debido a su
interacción con un campo magnético constante, cuando la velocidad inicial de dicha carga es perpendicular al campo magnético.
3
Es claro de las Ecs. (14.8, 14.9), que la velocidad angular ~
ωf del fluı́do no depende de la posición en este caso.
4
El hecho de que la corriente de la nube electrónica tenga la mitad de la frecuencia de ciclotrón, se debe al efecto adicional del
campo eléctrico generado por el núcleo.
14.2. ÁTOMO DE HIDRÓGENO EN UN CAMPO MAGNÉTICO UNIFORME 375
1
H= [P − qA (R)]2 + V (R) (14.11)
2me
si el campo magnético B es uniforme, el potencial vectorial se puede escribir como
1
A (r) = − r × B (14.12)
2
para introducir esta cantidad en el Hamiltoniano (14.11) calcularemos el siguiente factor
h q i2 q2 q
[P − qA (R)]2 = P + R × B = P2 + (R × B)2 + [P · (R × B) + (R × B) · P] (14.13)
2 4 2
ahora bien, B es un vector constante y no un operador, por tanto conmuta con todos los operadores. Adicional-
mente, tenemos que
suma sobre ı́ndices repetidos. Los únicos términos no nulos de esta sumatoria corresponden a aquellos en donde
todos los ı́ndices son diferentes, por tanto Rj conmuta con Pi para los términos no nulos, de modo que
P · (R × B) = (R × B) · P ; R × P = −R × P
5
Debe tenerse en cuenta que la reducción del problema de dos cuerpos acoplados al de dos cuerpos desacoplados, solo es en general
posible cuando la interacción neta es central. Cuando superponemos el potencial Coulombiano debido al núcleo con la fuerza de Lorentz
generada por el campo magnético, la interacción resultante deja de ser central.
376 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS
En consecuencia, a las expresiones anteriores se les puede aplicar las identidades vectoriales usuales. Utilizando
a · (b × c) = c · (a × b)
(a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c)
q2 q
[P − qA (R)]2 = P2 + (R × B) · (R × B) + [2P · (R × B)]
4 2
q 2
= P2 + [(R · R) (B · B) − (R · B) (B · R)] + q [B · (P × R)]
4
q 2 h i
[P − qA (R)]2 = P2 + R2 B2 − (R · B)2 − qB · (R × P) (14.14)
4
r2 B2 cos2 θ
|r⊥ | = |r| sin θ ⇒ r2⊥ = r2 sin2 θ = r2 1 − cos2 θ = r2 − ⇒
B2
(r · B)2
r2⊥ = r2 −
B2
donde θ es el ángulo entre r y B. Con base en esto definimos el operador vectorial R⊥ como la proyección de R
sobre un plano perpendicular a B
(R · B)2
R2⊥ ≡ R2 − (14.15)
B2
en particular si B = Bu3 tenemos que
R2⊥ = X12 + X22
reemplazando (14.15) en (14.14) y recordando que R × P es el momento angular orbital cuántico, tenemos
q2B 2 2
[P − qA (R)]2 = P2 + R⊥ − qL · B (14.16)
4
donde H0 es el Hamiltoniano “no perturbado” asociado al átomo de Hidrógeno libre. Nótese que cuando B 6= 0 el
momento mecánico ya no es P sino [P − qA (R)], por tanto la energı́a cinética será [P − qA (R)]2 /2me . Aún más,
el término P2 /2me depende del gauge escogido. Puede demostrarse que en el gauge definido por la Ec. (14.12)
~ R es el momento mecánico de la partı́cula con respecto
P2 /2me es la energı́a cinética “relativa” Π2R /2me donde Π
a un sistema rotante de Larmor que rota alrededor de B con velocidad angular ωL = −qB/2me . Ası́ mismo, se
puede demostrar que el término H2 corresponde a la energı́a cinética Π2E /2me relativa a la velocidad de arrastre
de este marco de referencia, en tanto que el término H1 está asociado al término cruzado Π~R ·Π
~ E /me .
14.2. ÁTOMO DE HIDRÓGENO EN UN CAMPO MAGNÉTICO UNIFORME 377
ahora usando las Ecs. (14.17) para H1 y teniendo en cuenta que los momentos angulares son del orden de la
constante de Planck, se obtiene
∆E1 µB [~B] B q~ B qB 1 qB
≃ = µB = = =
h ~ h h 2me h 4πme 2π 2me
∆E1 ωL qB
≃ ; ωL ≡
h 2π 2me
donde hemos tenido en cuenta (14.18). La cantidad ωL se refiere a la velocidad angular de Larmor. Podemos ver
que ωL /2π es la mitad de la frecuencia de ciclotrón. Para campos tı́picos de laboratorio asumiremos B . 105 gauss,
con lo cual se obtiene
∆E1 ωL
≃ . 1011 Hz ⇒
h 2π
∆E1 ≪ ∆E0
ahora evaluaremos el orden de magnitud de ∆E2 asociado a H2 . Los elementos matriciales del operador R2⊥ =
X12 + X22 son de dimensiones atómicas y por tanto del orden de magnitud de a0 (radio de Bohr). Por tanto, de la
Ec. (14.17) se obtiene
los efectos del campo magnético son en la práctica mucho menores que los del campo eléctrico interno, además
será en general suficiente tener en cuenta solo el término H1 y el término H2 solo se tendrá en cuenta cuando H1
se anule.
Aunque el término H1 es más importante, analizaremos primero el término H2 ya que esto permitirá justificar
algunas aproximaciones que se usan cuando solo se considera H1
378 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS
la superficie definida por el circuito es S = πr 2 de modo que el momento magnético está dado por
qrv
|M| = |i × S| = (14.19)
2
~λ = r × me v = r × (P − qA (r)) = L
~ − qr × A (r)
~ es el momento angular canónico. Puesto que la velocidad es tangencial, la magnitud de ~λ está dada por
donde L
~
|λ| = L − qr × A (r) = me rv
~ = q ~ q h~ i
M λ= L − qr × A (r) (14.20)
2me 2me
puesto que estamos estudiando el caso L = 0, usando el gauge (14.12) el momento magnético queda6
2 2 2
~ 2 = − q r × A (r) = q r × (r × B) = q
M (r · B) r − r2 B
2me 4me 4me
vemos que M ~ 2 es proporcional a B. Por otro lado, si bien M ~ 2 no es colineal con B, es fácil ver que en el estado
~
base del átomo de hidrógeno (en el cual L = 0), el valor esperado de M2 (donde M2 es la cuantización de M ~ 2 ) es
antiparalelo a B. En consecuencia, M ~ 2 representa el momento magnético inducido por B en el átomo . Su energı́a
7
q ~ 2
~ =M
M ~2
~ 1 +M ; ~1≡
M L , ~ 2 ≡ − q r × A (r)
M
2me 2me
pero el análisis numérico indica que para el átomo de hidrógeno, la contribución del Hamiltoniano H1 domina
sobre la contribución de H2 siempre que la primera sea no nula (i.e. L ~ 6= 0). Por lo tanto, si L
~ =
6 0 podemos
aproximar el momento magnético en la forma
~ ≃M
~1= q ~
M L (14.21)
2me
de modo que µB es el “cuanto fundamental” de momento magnético como lo es ~ del momento angular. Es este
hecho lo que le da relevancia al magnetón de Bohr µB . Más adelante veremos que además del momento angular
orbital L, el electrón posee un momento angular intrı́nseco o espı́n S, que también posee un momento magnético
asociado MS proporcional a S en la forma
µB
MS = 2 S
~
de hecho la necesidad de introducir este momento magnético adicional para explicar la estructura fina del átomo
de Hidrógeno, es una de las evidencias experimentales de la existencia del espı́n del electrón (ver sección 15.4.2).
8
En realidad se opone al cambio de flujo, pero cuando el campo se conecta aumenta desde cero hacia B de modo que el aumento
de flujo va en la dirección del campo.
380 CAPÍTULO 14. CORRIENTES DE PROBABILIDAD Y ACOPLES MAGNÉTICOS EN ÁTOMOS
Finalmente, es importante mencionar que el dominio de los efectos paramagnéticos sobre los diamagnéticos
(cuando los primeros son no nulos) se debe al pequeño tamaño del radio atómico, que a su vez genera una superficie
y un flujo muy pequeños. Por ejemplo, para un electrón libre sometido a un campo magnético, las contribuciones
paramagnética y diamagnética tienen la misma importancia relativa.
se concluye que si el sistema está en un estado estacionario, la cantidad hDi es cero ya que los elementos diagonales
se anulan. Supondremos entonces que el sistema está inicialmente en una superposición del estado base 1s y uno
de los estados 2p.
ψ (0) = cos α |ϕ1,0,0 i + sin α |ϕ2,1,m i
donde m asume uno de sus valores permitidos 1, 0, −1. Consideraremos a α como un parámetro real, aplicando la
evolución temporal de un sistema conservativo calculamos la evolución temporal de este estado
donde hemos omitido la fase global irrelevante en el último paso. Calcularemos hDi cuando el sistema está en el
estado |ψm (t)i en el tiempo t. Usando las Ecs. (14.25, 14.30, 14.31, 14.32, 14.33), obtendremos el valor esperado
de D para los casos m = 1, 0, −1. Para m = 1 obtenemos
h i
hψm=1 (t)| Dx1 |ψm=1 (t)i = cos α hϕ1,0,0 | + ei(Ω+ωL ) t sin α hϕ2,1,1 | Dx1
h i
× cos α |ϕ1,0,0 i + e−i(Ω+ωL ) t sin α |ϕ2,1,1 i
= cos2 α hϕ1,0,0 | Dx1 |ϕ1,0,0 i + e−i(Ω+ωL ) t cos α sin α hϕ1,0,0 | Dx1 |ϕ2,1,1 i
+ei(Ω+ωL ) t sin α cos α hϕ2,1,1 | Dx1 |ϕ1,0,0 i + sin2 α hϕ2,1,1 | Dx1 |ϕ2,1,1 i
qχ qχ
= − √ e−i(Ω+ωL ) t sin 2α − √ ei(Ω+ωL ) t sin 2α
2 6 2 6
" #
qχ e−i(Ω+ω L ) t + ei(Ω+ωL ) t
= − √ sin 2α
6 2
qχ
hψm=1 (t)| Dx1 |ψm=1 (t)i = − √ sin 2α cos [(Ω + ωL ) t]
6
y se procede de manera similar com m = 0, −1. Los resultados son:
qχ qχ
hDx1 im=1 = − √ sin 2α cos [(Ω + ωL ) t] ; hDx2 im=1 = − √ sin 2α sin [(Ω + ωL ) t] ; hDx3 i1 = 0 (14.34)
6 6
qχ
hDx1 im=0 = hDx2 im=0 = 0 ; hDx3 im=0 = √ sin 2α cos Ωt (14.35)
3
qχ qχ
hDx1 im=−1 = √ sin 2α cos [(Ω − ωL ) t] ; hDx2 im=−1 = − √ sin 2α sin [(Ω − ωL ) t] ; hDx3 im=−1 = (14.36)
0
6 6
estas ecuaciones muestran que: (a) El vector hDim=1 (t) rota en el plano X1 X2 alrededor de X3 , en dirección
antihoraria con velocidad angular Ω + ωL .(b) El vector hDim=0 (t) oscila a lo largo de X3 con frecuencia angular
Ω. (c) El vector hDim=−1 (t) rota en el plano X1 X2 alrededor de X3 pero en dirección horaria con velocidad
angular Ω − ωL .
correctamente utilizando la teorı́a clásica de la radiación. Un tratamiento riguroso del problema requiere la cuan-
tización del campo electromagnético (electrodinámica cuántica), que predice el comportamiento de los fotones y
la forma en que estos se emiten en la radiación. Sin embargo, los resultados obtenidos por el método semi-clásico
que abordaremos (en donde la materia se trata cuánticamente y la radiación se trata clásicamente), predicen la
distribución de la radiación en muy buena aproximación.
Supondremos que tenemos una muestra que contiene un gran número de átomos de hidrógeno y que los
excitamos de alguna manera10 al estado 2p. En la mayorı́a de experimentos la excitación de los átomos es isotrópica
y los tres estados |ϕ2,1,m i ocurren con la misma probabilidad. En primer lugar, estudiaremos la distribución angular
de la radiación y de la polarización para cada m fijo, y posteriormente se superponen los resultados para encontrar
el espectro que se observa.
Cuando m = 1, la frecuencia angular de la radiación emitida es Ω + ωL según la Ec. (14.34). De modo que
el campo magnético corre ligeramente la frecuencia de la lı́nea óptica (recordemos que Ω es la frecuencia de la
lı́nea óptica en ausencia de B). De acuerdo con la teorı́a electromagnética clásica, un dipolo rotante como hDi1 (t)
emite radiación en la dirección u3 con polarización circular de helicidad positiva σ+ . Por otro lado, la radiación
emitida en el plano X1 X2 está linealmente polarizada (paralela a este plano) en otras direcciones la polarización
es elı́ptica.
Para m = 0, el dipolo oscila linealmente en la dirección u3 . Las Ecs. (14.35) muestran que la frecuencia angular
es Ω, es decir igual a la asociada a la ausencia de B, esto se debe a que el corrimiento de la frecuencia debida
al campo es proporcional a m. En este caso la electrodinámica clásica predice que su polarización es lineal en
todas las direcciones. En particular, para una dirección de propagación sobre el plano X1 X2 , esta polarización
es paralela a u3 (polarización π). Además no se emite radiación en la dirección u3 , ya que un dipolo que oscila
linealmente no radı́a en la dirección de su eje de oscilación.
En el caso m = −1, las Ecs. (14.36) muestran que la frecuencia angular de la radiación emitida es Ω − ωL . La
distribución angular de la radiación es similar al caso m = 1. Sin embargo, puesto que el dipolo hDim=−1 gira en
la dirección opuesta a hDim=1 , la polarización elı́ptica y circular tiene helicidad opuesta a la correspondiente a
m = 1.
Si ahora asumimos que hay un número igual de átomos con m = 1, 0, −1, tenemos que se emiten tres frecuencias
bien definidas en todas direcciones (Ω+mωL con m = 1, 0, −1). La polarización asociada a m = 0 es lineal y la de las
otras dos es en general elı́ptica. Nótese que en la dirección de propagación perpendicular a B las tres polarizaciones
son lineales, la de m = 0 está polarizada en la dirección de B y las otras dos en dirección perpendicular a B.
Las Ecs. (14.34, 14.35, 14.36) nos muestran además que la intensidad de la lı́nea central m = 0 es dos veces la de
cada una de las lı́neas corridas. En la dirección paralela a B solo hay radiación debida a m = ±1 con frecuencias
(Ω ± ωL ) /2π, ambas asociadas a polarización circular pero de helicidad opuesta σ± .
Hemos visto que un campo magnético constante remueve parcialmente la degeneración asociada a la energı́a
de un átomo de hidrógeno, ya que la energı́a ahora depende de los números cuánticos n y m. Es este efecto el que
le da el nombre de número cuántico magnético al valor propio de L3 (y de cualquier momento angular J3 ).
10
Por ejemplo, haciendo incidir un haz de luz muy monocromática cuyos fotones tengan una energı́a igual a la necesaria para realizar
la transición 1s → 2p.
Capı́tulo 15
384
15.2. EXPERIMENTO DE STERN-GERLACH 385
de los átomos a alinear su momento magnético con el campo magnético, si bien existen componentes “laterales”
M1 y M2 estas tienden a cancelarse cuando se toma un promedio temporal que comprenda muchos periodos de
precesión y dado que las frecuencias de precesión son tan altas, solo estos promedios temporales de M1 y M2
juegan un papel en W y estos promedios son cero, ya que todas las direcciones ocurren en la precesión con igual
magnitud. Adicionalmente, cuando se tiene en cuenta el efecto sobre muchas partı́culas, la cancelación estadı́stica
funciona aún mejor. La fuerza será entonces aproximadamente
F = ∇ (M3 B3 ) = M3 ∇B3
nótese que la fuerza resultante serı́a cero si el campo es uniforme independientemente de su intensidad. Por tanto,
una fuerza significativa requiere un alto gradiente del campo. Si asumimos por simplicidad que B3 solo varı́a a lo
largo de X3 , es decir si ∂B3 /∂x1 = ∂B3 /∂x2 = 0 la fuerza sobre el átomo será paralela al eje X3 y proporcional
a M3 . Si asumimos que tenemos una gran cantidad de átomos, se espera que los momentos magnéticos de éstos
estén orientados aleatoriamente antes de la aplicación del campo, pues tales orientaciones estarán dictaminadas
por fluctuaciones térmicas que son de naturaleza aleatoria3 . Por tanto, antes de la aplicación del campo todos
los valores de M3 entre − |M| y |M| están presentes, en otras palabras, el ángulo θ entre B y M ~ puede tomar
cualquier valor entre 0 y π.
Figura 15.1: (a) En el experimento de Stern-Gerlach, los átomos de plata que se emiten a alta temperatura del horno
E son colimados en F para luego ser deflectados por el gradiente de campo magnético creado por el electroimán A.
Finalmente, el átomo es registrado en el punto N de la pantalla P. (b) Vista frontal del electroimán. El haz incide
sobre el eje X2 perpendicular al papel.
3
Esto implica despreciar posibles correlaciones entre los diferentes momentos magnéticos de los átomos.
386 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO
Stern y Gerlach realizaron un experimento en 1922 para estudiar la deflexión de un haz de átomos neutros
paramagnéticos en un campo magnético de alto gradiente.
El montaje se muestra en la Fig. 15.1a. En un horno E se colocan átomos neutros de plata (que son para-
magnéticos) y se calientan a alta temperatura, luego se dejan escapar por un pequeño agujero y se propagan en
lı́nea recta en el alto vacı́o del montaje. El agujero colimador permite solo el paso de átomos en cierta dirección
que elegimos como eje X2 . El haz colimado en esta forma entra entonces a un electroimán A para ser deflectado
antes de impactar la pantalla P .
De acuerdo con la teorı́a clásica, si queremos producir una deflexión apreciable, el electroimán debe producir
un campo B de alto gradiente. Una forma de lograrlo es a través de un imán configurado como se ilustra en la
Fig. 15.1b. El campo magnético generado tiene un plano de simetrı́a (el plano X2 X3 ) que contiene la dirección
inicial del haz colimado. Si despreciamos efectos de borde el campo magnético no tiene componente en la dirección
X2 , por tanto el efecto sobre el haz es el mismo en cualquier punto sobre el eje X2 dentro del electroimán. La
componente más grande de B es en la dirección de X3 , además la variación del campo a lo largo de X3 es muy
fuerte, esto ocurre gracias a la configuración angulosa del polo norte que produce una gran acumulación de lı́neas
de campo en la vecindad del ángulo, en tanto que en el polo sur la densidad de lı́neas es mucho menor. Puesto que
el campo magnético es solenoidal (∇ · B = 0), este debe adquirir una componente en la dirección X1 que varı́a
con la distancia x1 al plano de simetrı́a X2 X3 .
La simetrı́a del electroimán muestra claramente que ∂B3 /∂x2 = 0 ya que el campo magnético no depende de
x2 . Además ∂B3 /∂x1 = 0 en todos los puntos del plano de simetrı́a X2 X3 .
En virtud de que el experimento reúne todas las condiciones descritas en la sección 15.1, concluı́mos que la
deflexión HN de un átomo que golpea la pantalla es proporcional a M3 y por tanto a L3 . En consecuencia,
medir HN es equivalente a medir M3 ó L3 . Puesto que los momentos magnéticos de los átomos de plata estaban
distribuı́dos isotrópicamente antes de entrar en el electroimán, los valores de M3 toman todos los valores posibles
(para una gran cantidad de átomos) entre − |M| y |M|. Por tanto, esperamos que se forme sobre la pantalla
un patrón contı́nuo simétrico con respecto a H, sobre la pantalla P . En otras palabras, se espera que haya
impactos sobre todos los puntos en el intervalo N1 , N2 de manera mas o menos uniforme, donde N1 (cota máxima)
corresponde al caso en que M3 toma el valor máximo M3 = |M| y N2 corresponde al caso en el cual M3 toma el
valor mı́nimo M3 = − |M|. Desde el punto de vista experimental efectos tales como la dispersión de las velocidades
y el tamaño finito del colimador ocasionarán que átomos con el mismo valor de M3 no golpeen en el mismo punto,
sino en una vecindad de un punto que corresponde a la velocidad promedio de una partı́cula que pasa por el centro
del colimador. Por tanto el resultado clásico predice una distribución como la lı́nea punteada de la Fig. 15.2, que
va un poco más allá de N1 y N2 por aspectos experimentales.
Figura 15.2: La lı́nea contı́nua nos muestra las dos manchas bien localizadas alrededor de los puntos N1 y N2 , que
se obtuvieron en el experimento de Stern-Gerlach. La lı́nea punteada nos muestra la predicción clásica.
despreciables con respecto a la escala de longitudes y momentos que se manejan en el experimento. Estos anchos
deben cumplir el principio de incertidumbre
∆x3 ∆p3 & ~
la masa M de un átomo de plata es de 1,8 × 10−25 kg. Los anchos ∆x3 y ∆v3 = ∆p3 /M deben ser tales que
~
∆x3 ∆v3 & ≃ 10−9 M.K.S.A. (15.2)
M
ahora veamos cuales son las longitudes y velocidades tı́picas en el experimento. El ancho del colimador F es de
unos 10−4 m, la separación entre N1 y N2 entre las manchas es de varios milı́metros. La distancia sobre la cual
el campo magnético varı́a apreciablemente se puede deducir de los valores del campo en medio del electroimán
(B ≃ 104 gauss) y su gradiente (∂B/∂x3 ≃ 105 gauss/cm), que nos da
B
≃ 10−3 mt
∂B/∂x3
ahora la velocidad de un átomo de plata que abandona el horno a una temperatura de 103 K es del orden de
500m/s. Para haces bien colimados, la dispersión de las velocidades a lo largo de X3 no es mucho menor a varios
metros por segundo. De lo anterior, es posible encontrar valores de ∆x3 y ∆v3 que satisfagan la relación (15.2)
388 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO
que proviene de la relación de incertidumbre, y que al mismo tiempo sean mucho menores que todas las escalas de
longitud y velocidad del experimento. Por tanto, los observables r y p se pueden tratar como clásicos y podemos
pensar en paquetes casi puntuales que se mueven sobre trayectorias clásicas. La cuantización de estos observables
(o de otros que dependan de éstos como el momento angular) darı́a una enorme cantidad de valores propios que
simuları́an un contı́nuo, esto estarı́a muy lejos de explicar una cuantización tan drástica en tan solo dos estados.
Una segunda razón es que los momentos angulares orbitales cuánticos l (l + 1) ~2 solo pueden tener valores de
l enteros. Esto implica que el número de proyecciones posibles a lo largo de X3 para un l dado, es siempre un
número impar (2l + 1) como se observa en la Ec. (14.24) Pág. 379. Lo anterior entrarı́a en conflicto con la idea de
tener un número par de “auto resultados” que en este caso son dos.
Si asumimos que la deflexión aún se da por el acople del campo con un momento angular (es decir que aún
hay un momento angular que cumpla la Ec. 15.1) este momento angular debe tener solo dos proyecciones posibles
a lo largo de X3 , es decir
2j + 1 = 2
lo cual nos lleva a j = 1/2. De esto se concluye que si el observable asociado a la deflexión observada es aún
un momento angular, no puede ser un momento angular orbital, ya que para éstos los valores semienteros están
excluı́dos por razones de periodicidad. El observable asociado no proviene entonces de la cuantización de un
momento angular clásico y se conoce como momento angular intrı́nseco o espı́n.
ahora descrito. La explicación teórica se basa en la relación del momento dipolar magnético M con el momento
angular orbital del electrón
µB q~
M= L ; µB = (15.3)
~ 2me
donde µB se conoce como el “magnetón de Bohr”. Sin embargo, la teorı́a presentada en el capı́tulo 14 solo está
en concordancia con el experimento en algunos casos que llamaremos “efecto Zeeman” normal. En otros casos,
sin embargo aparece un “efecto Zeeman anómalo” que resulta particularmente sustancial en átomos con número
atómico impar (en particular, el átomo de Hidrógeno), ya que sus niveles se dividen en un número par de subniveles
en tanto que la teorı́a predice que el número de subniveles debe ser impar ya que es igual a 2l + 1 con l entero. Si
asumimos que en el efecto Zeeman anómalo el desdoblamiento continúa siendo generado por un momento angular
J2 , es necesario que el valor propio j (j + 1) ~2 de este momento angular corresponda a j semi-entero para poder
explicar que el número de subniveles 2j + 1 sea par.
Nótese que un experimento del tipo Stern-Gerlach no serı́a práctico para la medición del momento angular
electrónico debido a que el electrón tiene carga neta (monopolo eléctrico), y la interacción del momento dipolar
magnético del electrón con el campo es mucho más débil que la interacción de Lorentz descrita por qv × B.
(II) Estos operadores de espı́n actúan en un espacio de estados de espı́n Es , en el cual los observables S2
y S3 constituyen un C.S.C.O. Por tanto, Es es expandido por los estados propios comunes de S2 y S3
de acuerdo con la teorı́a general del momento angular, sabemos que s debe ser entero o semientero y que ms toma
todos los valores incluı́dos entre −s y s en saltos de unidad. Sabemos también que ms es entero (semi-entero) si
y solo si s es entero (semi-entero).
III) Una partı́cula dada está caracterizada por un valor único de espı́n s y diremos que esta partı́cula tiene
espı́n s.
Puesto que {|s, ms i} con s fijo es una base para el espacio de estados de espı́n Es , dicho espacio es de dimensión
finita 2s + 1. Nótese además que todos los elementos de Es son estados propios de S2 con el mismo valor propio
s (s + 1) ~2 .
IV) El espacio de estados E de una partı́cula es el producto tensorial4 de Er con Es
E = Er ⊗ Es
consecuentemente, todos los observables de espı́n conmutan con todos los observables orbitales. Además excepto
para s = 0, esto implica que para la caracterización del estado de una partı́cula no será suficiente especificar un
ket de Er . Por ejemplo, los observables X1 , X2 , X3 constituyen un C.S.C.O. en Er pero no en E, para formar un
C.S.C.O. en E debemos agregar un C.S.C.O. del espacio Es , por ejemplo S2 y algún Si (usualmente S3 ).
Adicionalmente, de las propiedades del producto tensorial, el producto tensorial de los elementos de una base
{|ϕn i} en Er con los elementos de una base {χi } en Es será una base de E = Er ⊗ Es
Esto implica que todo estado de una partı́cula es una combinación lineal de estos productos tensoriales
XX XX
|ψi = cn,i |ϕn , χi i = cn,i |ϕn i ⊗ |χi i ; cn,i = hϕn , χi |ψi
n i n i
debemos recordar sin embargo, que no todo estado |ψi ∈ E proviene del producto tensorial de un estado |ϕi ∈ Er
con un estado |χi ∈ Es . Es decir que la relación
no es válida en general. Sin embargo, cuando la relación (15.5) es válida para un cierto |ψi es claro que
XX
|ψi = cn,i |ϕn , χi i ; cn,i = hϕn |ϕi hχi |χi
n i
Estos postulados conciernen a una teorı́a general de espı́n. El siguiente postulado está dirigido más especifica-
mente al espı́n del electrón
(V) El electrón es una partı́cula de espı́n 1/2 (s = 1/2) y su momento dipolar magnético intrı́nseco está dado
por
µB µB
MS = (2s + 1) S=2 S
~ ~
que coincide con (15.4).
Adicionalmente, los constituyentes nucleares (protones y neutrones) también son partı́culas de espı́n 1/2 aunque
su factor giromagnético es diferente al del electrón. También existen partı́culas de espı́n 0, 1/2, 1, 3/2, 2, ...
A priori podrı́amos estar tentados a pensar que el espı́n es un efecto del tamaño del electrón que genera la
posibilidad de que esta partı́cula produzca rotaciones. En tal caso, además de los observables de posición (del
4
Para detalles sobre productos tensoriales ver sección 1.32, page 70.
15.6. PROPIEDADES DE UN MOMENTO ANGULAR 1/2 391
centro de masa del electrón), será necesario añadir tres observables asociados a la rotación (por ejemplo una
cuantización adecuada de los ángulos de Euler). Sin embargo, las rotaciones espaciales deben cumplir relaciones
de periodicidad similares a las que se imponen para los armónicos esféricos, lo cual nos exige que s sea entero.
La presencia de espı́n semientero indica que este observable no tiene un origen rotacional, ni puede provenir de la
cuantización de un momento angular clásico que sea función exclusiva de R y P. En el presente tratamiento, el
electrón continúa siendo una partı́cula puntual y el espı́n no tiene análogo clásico.
es común referirse a los autoestados |±i, como estado con espı́n “arriba” y “abajo” respectivamente5 . Es claro que
1 1 1
S2 |±i = + 1 ~2 |±i ; S3 |±i = ± ~ |±i
2 2 2
3 2 1
S2 |±i = ~ |±i ; S3 |±i = ± ~ |±i (15.6)
4 2
con relaciones de ortonormalidad y completez
el estado más general de espı́n es entonces una combinación lineal de esta base
siendo c± números complejos. Dado que ambos estados |±i son autoestados de S2 con el mismo autovalor, cualquier
combinación lineal de ellos también lo es. Por tanto, todos los estados de Es son autoestados de S2 con el mismo
valor propio (3/4) ~2 , esto implica que S2 es proporcional al operador identidad de Es
3
S2 = ~2 Is (15.9)
4
definiendo los operadores escalera Ec. (10.13), tenemos
S± = S1 ± iS2 (15.10)
La acción de los operadores S± sobre los vectores base está dada por las Ecs. (10.47) con j = s = 1/2
Los operadores Si , S2 , S± poseen el álgebra de cualquier momento angular Ecs. (10.14-10.17). Sin embargo,
hay algunas propiedades algebráicas adicionales propias de j = s = 1/2. En lo que sigue tomaremos j = s = 1/2.
Las expresiones (15.11) junto con (15.12) nos permiten demostrar ciertas propiedades de los Si y de S± .
Calculemos primero S12 , S22 , S1 S2 , S2 S1
1 2 1 2
S12 = S+ + S− 2
+ S+ S− + S− S+ ; S22 = − S+ + S− 2
− S+ S− − S− S+ (15.13)
4 4
1 2 2
1 2 2
S1 S2 = S+ − S+ S− + S− S+ − S− ; S2 S1 = S+ + S+ S− − S− S+ − S−
4i 4i
S+2 − [S , S ] − S 2 S 2 + [S , S ] − S 2
+ − − + −
S1 S2 = ; S2 S1 = + −
4i 4i
S+2 − 2~S − S 2 S 2 + 2~S3 − S− 2
3 −
S1 S2 = ; S2 S1 = + (15.14)
4i 4i
donde hemos usado (10.16). Similarmente podemos calcular los otros productos
1 1
S1 S3 = (S+ S3 + S− S3 ) ; S3 S1 = (S3 S+ + S3 S− ) (15.15)
2 2
1 1
S2 S3 = (S+ S3 − S− S3 ) ; S3 S1 = (S3 S+ − S3 S− ) (15.16)
2i 2i
un estado arbitrario de Es está dado por (15.8). Por tanto la acción de los operadores S± sobre un estado arbitrario
de Es se obtiene combinando (15.12) con (15.8)
2 2 2
S+ |χi = S+ [c+ |+i + c− |−i] = c− S+ |−i = ~c− S+ |+i = 0
2 2 2
S− |χi = S− [c+ |+i + c− |−i] = c+ S− |+i = ~c+ S− |−i = 0
S+ S− |χi = S+ S− [c+ |+i + c− |−i] = c+ S+ S− |+i = ~c+ S+ |−i = ~2 c+ |+i = ~2 P+ |χi
S− S+ |χi = S− S+ [c+ |+i + c− |−i] = c− S− S+ |−i = ~c− S− |+i = ~2 c− |−i = ~2 P− |χi
(S+ S− + S− S+ ) |χi = ~2 [P+ + P− ] |χi = ~2 |χi
puesto que las matrices (~/2) σi y las matrices ~σ± son representaciones de los operadores Si y S± deben cumplir
el álgebra de éstos operadores Ecs. (15.25, 15.26)
estas relaciones se pueden verificar explı́citamente. También se puede verificar explı́citamente que
Las Ecs. (15.28) son independientes de la base ya que la traza y el determinante son invariantes ante transforma-
ciones de similaridad. Podemos verificar también la siguiente identidad
donde A y B son vectores arbitrarios u operadores vectoriales cuyas tres componentes conmutan con las compo-
nentes de S. No es necesario que A y B conmuten, pero si no conmutan, el orden de aparición de los operadores
en (15.29) debe ser estricto. La Ec. (15.29) se puede demostrar usando las propiedades (15.27) y la hipótesis de
que las componentes de A y B conmutan con las σi . Usaremos sı́mbolos explı́citos de sumatoria para efectos de
claridad
XX X XX
(~σ ·A) (~σ ·B) = (σm Am ) (σn Bn ) = (σm Am ) (σm Bm ) + (σm Am ) (σn Bn )
m n m m n6=m
" #
X XX X XX X
2
= σm Am Bm + σm σn Am Bn = 12×2 Am Bm + iεmnk σk Am Bn
m m n6=m m m n6=m k
X X XX X
= 12×2 Am Bm + i σk εmnk Am Bn = 12×2 (A · B) + i σk (A × B)k
m k m n6=m k
(~σ ·A) (~σ ·B) = 12×2 (A · B) + i~σ · (A × B)
cualquier matriz compleja 2 × 2 se puede escribir como una combinación lineal compleja de estas cuatro matrices
M2×2 = cµ σµ ; µ = 0, 1, 2, 3
sumando sobre ı́ndices repetidos. Esto se debe a que las cuatro matrices σµ son linealmente independientes y
se necesitan cuatro elementos (complejos) para determinar una matriz compleja 2 × 2. Por lo tanto, las cuatro
15.7. DESCRIPCIÓN NO-RELATIVISTA DE PARTÍCULAS CON ESPÍN 1/2 395
matrices σµ forman una base para el espacio vectorial complejo de todas las matrices complejas 2 × 2. Para ver
la independencia lineal de las matrices, basta con escribir cada matriz compleja 2 × 2 como si fuera un vector
complejo de cuatro componentes
1 0
1 0 0 0 1 1
σ0 = ↔
0 ; σ1 = 1 0 ↔ 1
0 1
1 0
0 1
0 −i −i 0
σ2 = ↔ ; σ3 = 1 0 ↔
i 0 i 0 −1 0
0 −1
y calculando el determinante de la matriz compleja 4 × 4 que se forma con los vectores comlumna
1 0 0 1
0 1 −i 0
det
0 1
= −4i 6= 0
i 0
1 0 0 −1
de modo que los vectores columna (y por tanto las matrices complejas equivalentes) son linealmente independientes,
de hecho son ortogonales, aunque no están normalizados.
E = Er ⊗ Es
B ′ = Ir ⊗ B
Sin embargo, no cambiaremos la notación para estas extensiones y las seguiremos llamando A y B. En particular,
podemos obtener un C.S.C.O. en E como la yuxtaposición de un C.S.C.O. en Er con un C.S.C.O. en Es . Por
ejemplo, en Es el conjunto S2 , S3 forma un C.S.C.O. a esto le podemos añadir un C.S.C.O. de Er para obtener un
C.S.C.O. de E. Como ejemplos tenemos
X1 , X2 , X3 , S2 , S3 ; P1 , P2 , P3 , S2 , S3 ; L2 , L3 , H, S2 , S3 (15.31)
puesto que todos los kets de E son kets propios de S2 , este operador podrı́a ser omitido y aún tendrı́amos un
C.S.C.O. en E. Esto se debe a que estrictamente S3 por sı́ solo ya forma un C.S.C.O. en Es . Sin embargo, es usual
396 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO
dejar S2 dentro del C.S.C.O. ya que si bien es deseable que éste contenga el mı́nimo de operadores posible, no es
obligatorio que ası́ sea.
Vamos a escribir las relaciones con el primero de los C.S.C.O. en la Ec. (15.31). Una base en E se obtiene como
el producto tensorial de las bases en cada espacio
3 ~
Xi |r, εi = xi |r, εi ; S2 |r, εi = ~2 |r, εi ; S3 |r, εi = ε |r, εi ; ε ≡ ±1
4 2
puesto que esto es un C.S.C.O. cada |r, εi es único salvo factores constantes. Dado que {|ri} es ortonormal en
Er en el sentido extendido, y {|εi} es ortonormal en Es (ver Ecs. 15.7) entonces {|r, εi} es ortonormal en E en el
sentido extendido
′
′
hr′ ε′ |r, εi = r ⊗ ε (|ri ⊗ |εi) = hr′ |ri hε′ |εi
hr′ ε′ |r, εi = δ r − r′ δεε′
la relación de completez que nos dice que {|r, εi} es una base en E es
XZ Z Z
d3 r |r, εi hr, ε| = d3 r |r, +i hr, +| + d3 r |r, −i hr, −| = IE
ε
donde ψε (r) son las coordenadas o componentes (transformadas de Fourier) en la base {|r, εi}. Estas coordenadas
o componentes, dependen de tres ı́ndices contı́nuos r y del ı́ndice discreto ε. Por tanto, una función de onda en E
se especifica a través de dos funciones de onda espaciales correspondientes a los dos estados de espı́n
como ψ+ (r) y ψ− (r) son estados ortogonales, es usual escribirlos en forma de un arreglo de dos componentes
conocido como espinor
ψ+ (r)
[ψ] (r) = (15.35)
ψ− (r)
el bra hψ| asociado al espacio dual E ∗ se obtiene con el hermı́tico conjugado de la Ec. (15.32)
XZ
hψ| = d3 r ψε∗ (r) hr, ε|
ε
ψ ∗ (r) = ψ+
∗ ∗
(r) + ψ− (r) ∗
; ψ± (r) ≡ hψ |r, ±i
15.7. DESCRIPCIÓN NO-RELATIVISTA DE PARTÍCULAS CON ESPÍN 1/2 397
donde hemos usado (15.35, 15.36). Esta expresión se asemeja a la que se obtiene para el producto interno de dos kets
en Er , pero teniendo en cuenta que en vez de funciones de onda escalares tenemos espinores de dos componentes, de
modo que se debe realizar la multiplicación matricial antes de integrar en el espacio. En particular la normalización
queda en la forma
Z Z h i
hψ |ψi = |ψ|2 = d3 r [ψ]† (r) [ψ] (r) = d3 r |ψ+ (r)|2 + |ψ− (r)|2 = 1 (15.37)
hemos visto que un vector de E no necesariamente es el producto tensorial de un vector en Er por otro en Es . Sin
embargo, esto es válido para algunos vectores (en particular los vectores base |r, εi), si el vector |ψi en cuestión
es de este tipo
|ψi = |ϕi ⊗ |χi ; |ϕi ∈ Er , |χi ∈ Es
el espinor asociado tendrá una forma simple ya que
Z
|ϕi = d3 r ϕ (r) |ri ; |χi = c+ |+i + c− |−i
Operadores espinoriales
Asumamos que el operador As está definido originalmente solo por su acción sobre Es
As |εi = ε′ ; |εi , ε′ ∈ Es
Su extensión como operador sobre E se escribe
A′s ≡ As ⊗ Ir
definimos la acción del operador extendido en la forma
A′s |ψi = ψ ′ ; |ψi , ψ ′ ∈ E
expandiendo |ψi en la base |r, εi
XZ
|ψi = d3 r ψε (r) |r, εi
ε
XZ
A′s |ψi = d3 r ψε (r) A′s |r, εi
ε
la extensión del operador solo afectará a la parte espinorial de |r, εi y la transformará de la misma forma que lo
hace el operador original, en tanto que la parte espacial permanece intacta. Estos operadores se pueden representar
como matrices 2×2 y de aquı́ en adelante usamos A para denotar al operador extendido6 . Tomemos como ejemplo
a S+ , este operador actuando sobre un estado arbitrario |ψi de E nos da
XZ Z
S+ |ψi = d r ψε (r) [S+ |r,εi] = d3 r {ψ+ (r) [S+ |r,+i] + ψ− (r) [S+ |r,−i]}
3
Zε
S+ |ψi = d3 r ψ− (r) [S+ |r,−i]
donde hemos usado que S+ |+i = 0 y por tanto S+ |r,+i = 0. Y como S+ |−i = ~ |+i se tiene finalmente
Z
′
ψ ≡ S+ |ψi = ~ d3 r ψ− (r) |r,+i
6
Por supuesto la representación matricial de A′s es estrictamente de dimensión infinita, pero dado que A′s = As ⊗ 1r , se tiene que
la parte no trivial de la matriz es de dimensión finita.
15.7. DESCRIPCIÓN NO-RELATIVISTA DE PARTÍCULAS CON ESPÍN 1/2 399
Operadores orbitales
El procedimiento es similar. Asumamos Ax que actúa sobre Er , definiendo su extensión y su acción sobre un
ket |ψi de E obtenemos
Ax |ri = r′ ; |ri , r′ ∈ Er
A′x ≡ Ax ⊗ Is ; A′x |r, εi = r′ , ε
XZ
|ψi = d3 r ψε (r) |r, εi
ε
X Z XZ
′
ψ ≡ A′x |ψi = 3
d r ψε (r) A′x |r, εi = d3 r ψε (r) r′ , ε
Zε ε
′
ψ ≡ A′x |ψi = d3 r ψ+ (r) A′x |r, +i + ψ− (r) A′x |r, −i
como A′x |r, +i actúa sobre un espacio idéntico a |ri (ya que actúa sobre un subespacio unidimensional de Es ),
podemos escribir Ax |r, +i. Igual ocurre para Ax |r, −i
XZ XZ
′
ψ+ (r) ≡ hr, + ψ ′ = hr, +| Ax |ψi = hr, +| Ax d3 x ψε (x) |x, εi = d3 x hr, +| Ax ψε (x) |x, εi
ε ε
XZ Z
= 3bx (r) {ψε (x) hr, +| x, εi} =
d xA bx (r) {ψ+ (x) hr, +| x, +i + ψ− (x) hr, +| x, −i}
d xA 3
Zε
= bx (r) ψ+ (x) δ (r − x) = A
d3 x A bx (r) ψ+ (r)
bx (r) denota la forma del operador Ax en la base {|ri}, con un procedimiento similar se obtiene ψ−
donde A ′ (r) de
modo que
′
ψ+ (r) ≡ hr, + ψ ′ = A bx (r) ψ+ (r)
′
ψ− (r) ≡ hr, − ψ ′ = A bx (r) ψ− (r)
400 CAPÍTULO 15. MOMENTO ANGULAR INTRÍNSECO
!
′ bx (r)
A 0 ψ+ (r) h i
ψ (r) = = Abx (r) ⊗ Is [ψ] (r)
0 bx (r)
A ψ− (r)
que nos muestra la forma correcta para la extensión del operador Ax
Por tanto, la representación matricial 2 × 2 del operador es proporcional a la identidad, puesto que no hay
cambio en los estados espinoriales. Los operadores actúan sobre la parte espacial tal como lo hace el operador
original. Tomemos como ejemplo a los operadores X1 , P1
de nuevo cada elemento de la matriz es un operador sobre Er aunque esta vez es un operador no trivial. En este
caso el operador trivial es sobre los espinores y por eso la matriz es proporcional a la identidad7 .
Operadores mixtos
Si un operador es de carácter mixto, será una matriz 2 × 2 no trivial que actúa sobre Es y en donde cada
elemento matricial es un operador no trivial sobre Er . Algunos ejemplos de operadores mixtos que aparecen en
cuántica son L3 S3 , S · P. De acuerdo con la teorı́a de representaciones, las representaciones matriciales deben
manifestar la preservación del producto
~ ∂ ~
[L3 S3 ] = [L3 ] [S3 ] = Is Ir σ3
i ∂ϕ 2
" !#
∂
~ ∂ϕ 0 ~ 1 0
= ∂
i 0 ∂ϕ 2 0 −1
!
∂
~2 ∂ϕ 0
[L3 S3 ] = ∂
2i 0 − ∂ϕ
~2 0 1 ∂ 0 −i ∂ 1 0 ∂
[S · P] = + +
2i 1 0 ∂x1 i 0 ∂x2 0 −1 ∂x3
" ! ! !#
∂
~2 0 ∂x1 0 −i ∂x∂ 2 ∂
∂x 0
[S · P] = ∂ + + 3
2i ∂x1 0 i ∂x∂ 2 0 0 − ∂x∂ 3
!
∂ ∂
~2 ∂x3 ∂x1 − i ∂x∂ 2
[S · P] = ∂
2i ∂x1 + i ∂x∂ 2 − ∂x∂ 3
7
Para los operadores espinoriales, son los elementos de la matriz 2 × 2 los que son proporcionales a la identidad.
15.8. REPRESENTACIÓN EN LA BASE |P, εi 401
donde la estructura de la matriz representa la transformación sobre el espacio de espines y cada elemento de la
matriz representa un operador en el espacio de coordenadas. Un elemento matricial hψ| A |ϕi estará dado por
Z
hψ| A |ϕi = d3 r [ψ]† (r) [A] [ϕ] (r)
expresión similar a la que se encuentra para el espacio de coordenadas, pero teniendo en cuenta que en vez de
funciones de onda escalares aquı́ tenemos espinores de dos componentes. Los productos matriciales deben hacerse
para entonces evaluar la integral. Esta representación solo se usará cuando sea particularmente simple. En general
al igual que en Er suele ser mejor trabajar con los operadores y estados en abstracto hasta donde sea posible.
los operadores también se representan por matrices 2×2. Cuando el operador original es espinorial la representación
matricial es idéntica a la que se encontró para la base {|r, εi}.
donde hemos asumido que la función de onda está normalizada en la forma (15.37). Similarmente la probabilidad de
que la partı́cula se encuentre dentro de un volumen d3 r centrado en r con su espı́n “abajo” (es decir con la
componente del espı́n a lo largo de X3 igual a −~/2), está dada por
Si lo que queremos es medir la componente del espı́n a lo largo de X1 , debemos tener en cuenta que los autoestados
(normalizados) de S1 vienen dados por
1
|±iS1 = √ [|r, +i ± |r, −i] (15.39)
2
siendo |±i los autoestados de S3 . Podemos verificar que estos son autoestados de S1 en la siguiente forma
1 1 1
S1 |±iS1 = √ S1 [|r, +i ± |r, −i] = √ (S+ + S− ) [|r, +i ± |r, −i] = √ [S− |r, +i ± S+ |r, −i]
2 2 2 2 2
~ ~ ~
S1 |±iS1 = √ [|r, −i ± |r, +i] = ± √ [|r, +i ± |r, −i] = ± |±iS1
2 2 2 2 2
Por otro lado, podemos estar interesados en hacer mediciones incompletas en el sentido de que los observables
asociados a las medidas no formen un C.S.C.O. es decir que las medidas no conducen a determinar el estado de
manera única. Cuando las medidas son incompletas hay varios estados ortogonales asociados al mismo resultado
y debe sumarse los cuadrados de los módulos de las amplitudes correspondientes.
Como ejemplo, si no nos interesa conocer el espı́n, la probabilidad dP (r) de encontrar a la partı́cula en el
volumen d3 r centrado en r es igual a
n o n o
dP (r) = |hr, +| ψi|2 + |hr, −| ψi|2 d3 r = |ψ+ (r)|2 + |ψ− (r)|2 d3 r
dado que los dos estados ortogonales |r, +i y |r, −i están asociados al mismo resultado r donde sus amplitudes de
probabilidad son ψ+ (r) y ψ− (r).
15.9. CÁLCULOS DE PROBABILIDAD PARA ESTADOS DE ESPÍN 1/2 403
Ahora supongamos que queremos saber la probabilidad de que la partı́cula tenga componente S3 igual a +~/2,
pero sin importar su ubicación ni el valor de las demás variables orbitales. Hay un conjunto infinito de estados
ortogonales {|r, +i} asociados a este resultado, cuyas probabilidades deben ser sumadas
Z Z
P+ = d3 r |hr, +| ψi|2 = d3 r |ψ+ (r)|2
si por ejemplo queremos encontrar la probabilidad de obtener un espı́n +~/2 a lo largo de X1 , debemos integrar
la Ec. (15.40) en todo el espacio.
Capı́tulo 16
H0 = H1 + H2
~2 2 ~2 2
H1 = − ∇1 + V (r1 ) ; H2 = − ∇ + V (r2 ) (16.2)
2µ1 2µ2 2
404
16.2. MOMENTO ANGULAR TOTAL EN MECÁNICA CUÁNTICA 405
donde µi son las masas, V (r) el potencial central al cual están sometidas, y ∇2i indica el Laplaciano tomado con
las coordenadas de la partı́cula i. Del capı́tulo 12 sabemos que L(1) conmuta con H1 , y teniendo en cuenta que
todos los observables relacionados con una partı́cula conmutan con todos los observables relacionados con la otra,
se obtiene h i h i
L(1) , H1 = L(1) , H2 = 0 (16.3)
y como L(α) no depende explı́citamente del tiempo, se tiene que cada momento angular es constante de movimiento
por aparte, tal como en el caso clásico. Ahora asumimos que las dos partı́culas interactúan por medio de un
potencial W (|r2 − r1 |) que solo depende de la distancia entre las partı́culas, esto implica por supuesto asumir la
validez de la ley de acción y reacción. La distancia |r2 − r1 | se escribe
r
(1) (2) (1) (2)
|r2 − r1 | = xi − xi xi − xi (16.4)
H = H1 + H2 + W (|r2 − r1 |) (16.5)
(1)
analicemos por ejemplo la componente L3 , para calcular el conmutador con W debemos aplicar el conmutador
a una función de onda arbitraria ψ (r)
! !
h i ~ ~
(1) (1) ∂ (1) ∂ (1) ∂ (1) ∂
L3 , W ψ (r) = x1 (1)
− x2 (1)
(W ψ) − W x1 (1)
− x2 (1)
ψ
i ∂x2 ∂x1 i ∂x2 ∂x1
! !
~ (1) ∂W (1) ∂W ~ (1) ∂ψ (1) ∂ψ
= x1 (1)
− x2 (1)
ψ+ x1 (1)
− x2 W
i ∂x2 ∂x1 i ∂x2 ∂x1
!
~ (1) ∂ψ (1) ∂ψ
−W x1 (1)
− x2 (1)
i ∂x2 ∂x1
!
~ (1) ∂W (1) ∂W
= x1 (1)
− x2 (1)
ψ (r)
i ∂x ∂x
2 1
esta expresión no es necesariamente cero, de modo que L(1) no es en general constante de movimiento. Ahora bien,
si definimos el momento angular total L con una expresión análoga al caso clásico Ec. (16.1) tenemos
L = L(1) + L(2)
406 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
obtenemos un operador cuyas tres componentes son constantes de movimiento. Por ejemplo, se vé que
h i
(1) (2)
[L3 , H] = L3 + L3 , H
!
~ (1) ∂W (1) ∂W (2) ∂W (2) ∂W
[L3 , H] = x1 (1)
− x2 (1)
+ x1 (2)
− x2 (2)
(16.6)
i ∂x ∂x ∂x ∂x
2 1 2 1
y puesto que W solo depende de |r2 − r1 | dada por (16.4) tenemos que
r
(1) (2) (1) (2)
∂ xk − xk xk − xk
∂W ∂W ∂ |r2 − r1 | ∂W
(1)
= =
∂xi ∂ |r2 − r1 | ∂x(1) ∂ |r2 − r1 | ∂xi
(1)
i
(1) (2) ∂ (1) (2) (1) (2)
2 xk − xk (1) x k − x k x − x δik
∂W ∂xi ∂W k k
= r = r
∂ |r2 − r1 | (1) (2) (1) (2) ∂ |r2 − r1 | (1) (2)
(1) (2)
2 xm − xm xm − xm xm − xm xm − xm
(1) (2)
∂W ∂W xi − xi
(1)
=
∂xi ∂ |r2 − r1 | |r2 − r1 |
(2)
similarmente se calcula ∂W/∂xi se obtiene entonces
(1) (2)
∂W ∂W ∂ |r2 − r1 | ∂W xi − xi
(1)
= =
∂xi ∂ |r2 − r1 | ∂x(1) ∂ |r2 − r1 | |r2 − r1 |
i
(2) (1)
∂W ∂W ∂ |r2 − r1 | ∂W xi − xi
(2)
= (2)
= (16.7)
∂xi ∂ |r2 − r1 | ∂x ∂ |r2 − r1 | |r2 − r1 |
i
~ 1 ∂W h
(1) (1) (2) (1) (1) (2)
[L3 , H] = x1 x2 − x2 − x2 x1 − x1
i |r2 − r1 | ∂ |r2 − r1 |
i
(2) (2) (1) (2) (2) (1)
+x1 x2 − x2 − x2 x1 − x1
De modo que aunque L(1) y L(2) no son individualmente constantes de movimiento, sı́ lo es su suma L(1) + L(2)
definida como el momento total del sistema, al igual que en el caso clásico.
central es puramente orbital. Sin embargo, puede demostrarse que las correcciones relativistas introducen en el
Hamiltoniano un acoplamiento espı́n-órbita que es un término de la forma
HSO = ξ (r) L · S
siendo ξ (r) una función conocida de la variable r. Por el momento no analizaremos la procedencia fı́sica de este
término, pero sı́ sus consecuencias. El Hamiltoniano ahora es
H ′ = H + ξ (r) L · S
similarmente
S3 , H ′ = [S3 , HSO ] = ξ (r) [S3 , L1 S1 + L2 S2 + L3 S3 ]
′
S3 , H = ξ (r) [S3 , L1 S1 + L2 S2 ] = ξ (r) L1 [S3 , S1 ] + ξ (r) L2 [S3 , S2 ]
′
S3 , H = i~ξ (r) {L1 S2 − L2 S1 } = − L3 , H ′
J≡L+S
es una constante de movimiento a pesar de que L y S no lo son. Llamaremos a J el momento angular total del
sistema.
16.2.3. Análisis general de dos momentos angulares asociados a una fuerza central
Hay varias semejanzas entre los dos ejemplos realizados. En ambos tenemos dos momentos angulares parciales
J(1) y J(2) que conmutan entre sı́. En ambos casos conocemos una base {|j1 , j2 ; m1 , m2 i} de autovectores de
(1) (2)
J2(1) , J3 , J2(2) , J3 . También ocurre en los dos ejemplos que cada momento angular no es constante de movimiento
(cuando los subsistemas uno y dos se acoplan) pero su suma sı́ lo es, definiendo
J ≡ J(1) + J(2)
(1) (2)
J conmuta con el Hamiltoniano del sistema. Nótese que la base de autovectores (conocida) de J2(1) , J3 , J2(2) , J3
(1) (2)
no diagonaliza al Hamiltoniano puesto que éste no conmuta con J3 ni con J3 . En contraste J2 y J3 sı́ conmutan
con el Hamiltoniano, por tanto una base común de J2 y J3 hará que la matriz del Hamiltoniano sea diagonal por
bloques1 , tantos bloques como autosubespacios asociados a los conjuntos de autovalores de J2 y J3 . Por tanto,
la estructura de la matriz será más simple en la base de vectores propios comunes a J2 y J3 que en la base de
(1) (2)
vectores comunes a J2(1) , J3 , J2(2) , J3 .
(1) (2)
Puesto que el punto de partida es la base conocida de vectores propios comunes de J2(1) , J3 , J2(2) , J3 nuestra
tarea será entonces construı́r a partir de ésta, una nueva base de vectores comunes a J2 y J3 , esto nos enfrentará
con el problema de las reglas de adición o composición de los momentos angulares J(1) y J(2) . Comenzaremos por
analizar algunas propiedades generales de la adición de dos momentos angulares.
1
De hecho existirá una base que diagonaliza a los tres operadores simultáneamente.
408 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
dado que los momentos angulares J(1) y J(2) conmutan por ser de espacios diferentes, se tiene que
h i h i h i
(1) (1) (2) (2) (1) (2) (1) (2)
[Ji , Jj ] = Ji , Jj + Ji , Jj = iεijk Jk + iεijk Jk = iεijk Jk + Jk
[Ji , Jj ] = iεijk Jk
lo cual muestra que si J(1) y J(2) son dos momentos angulares arbitrarios que conmutan entre sı́, entonces el
operador
J ≡ J(1) + J(2)
también es un momento angular. Todas las propiedades generales de un momento angular serán válidas entonces
para J. Tendremos además otras propiedades para conmutadores mixtos (que involucren por ejemplo un momento
angular total y un momento angular parcial). En particular, veamos las propiedades de conmutación de J2
2
J2 = J(1) + J(2) = J2(1) + J2(2) + 2J(1) · J(2) (16.9)
donde hemos tenido en cuenta que J(1) y J(2) conmutan. El producto escalar se puede expresar en términos de los
(1) (2) (1) (2)
operadores escalera J± , J± y los operadores J3 y J3 .
(1) (2) (1) (2) (1) (2)
J(1) · J(2) = J1 J1 + J2 J2 + J3 J3 (16.10)
1 (1) (1)
(2) (2)
1 (1) (1)
(2) (2)
(1) (2)
= J+ + J− J+ + J− + 2 J+ − J− J+ − J− + J3 J3
4 4i
1 h (1) (2) (1) (2) (1) (2) (1) (2) (1) (2) (1) (2)
= J J + J+ J− + J− J+ + J− J− − J+ J+ + J+ J−
4 + + i
(1) (2) (1) (2) (1) (2)
+J− J+ − J− J− + J3 J3
1 (1) (2) (1) (2)
(1) (2)
J(1) · J(2) = J+ J− + J− J+ + J3 J3 (16.11)
2
La idea ahora es comparar los conjuntos conmutantes
n o
(1) (2)
J2(1) , J3 , J2(2) , J3 ; J2 , J3 (16.12)
con el fin de averiguar si al conjunto J2 , J3 de variables conmutantes, le podemos agregar algunos momentos
angulares parciales de modo que aún formen un conjunto conmutante. Es claro que el primer conjunto de operadores
en (16.12) consiste de momentos angulares parciales y el segundo de momentos angulares totales. Puesto que J(1)
y J(2) conmutan con J2(1) y J2(2) , también conmuta J
h i h i
J, J2(1) = J, J2(2) = 0
16.4. ADICIÓN DE DOS MOMENTOS ANGULARES CON J(1) = J(2) = 1/2 409
(1) (2)
por otro lado, es obvio que J3 conmuta con J3 y J3
h i h i
(1) (2)
J3 , J3 = J3 , J3 =0 (16.15)
(1) (2)
pero J2 no conmuta ni con J3 ni con J3 , lo cual vemos usando (16.9, 16.10)
h i h i h i
(1) (1) (1)
J2 , J3 = J2(1) + J2(2) + 2J(1) · J(2) , J3 = 2 J(1) · J(2) , J3
h i h i h i h i
(1) (1) (2) (1) (2) (1) (1) (2) (1) (1) (2) (1)
J2 , J3 = 2 J1 J1 + J2 J2 , J3 = 2 J1 J1 , J3 + 2 J2 J2 , J3
h i h i h i h i
(1) (2) (1) (1) (1) (2) (1) (2) (1) (1) (1) (2)
= 2J1 J1 , J3 + 2 J1 , J3 J1 + 2J2 J2 , J3 + 2 J2 , J3 J2
h i
(1) (1) (2) (1) (2)
J2 , J3 = −2i~J2 J1 + 2i~J1 J2
quedando finalmente h i h i
(1) (1) (2) (1) (2)
J2 , J3 = 2i~ J1 J2 − J2 J1 (16.16)
y puesto que J es un momento angular, se cumple que
2
J ,J = 0
y por tanto h i h i h i
(1) (2) (1) (2)
J2 , J3 + J3 =0 ⇒ J2 , J3 = − J2 , J3
el análisis anterior nos muestra que el siguiente conjunto de operadores conmuta entre sı́
n o
J2 , J3 , J2(1) , J2(2)
Abordaremos inicialmente el problema de la adición de dos momentos angulares con j(1) = j(2) = 1/2.
el conjunto
(1) (2)
J2(1) , J3 , J2(2) , J3 (16.20)
(1) (2)
forma para el espacio E = E 1/2 ⊗ E1/2 , un C.S.C.O. “natural”, en el sentido de que este es el C.S.C.O. que
n “natural” de E. oEn otras palabras, la base (16.17) está compuesta por vectores propios
se desprende de la base
(1) (2)
comunes al C.S.C.O. J2(1) , J3 , J2(2) , J3 . Estrictamente J2(1) , J2(2) pueden ser excluı́dos ya que son proporcionales
a la identidad2 .
También hemos visto que los 4 observables
(1) (2)
conmutan entre sı́. Veremos ahora que este conjunto también es un C.S.C.O. en E = E 1/2 ⊗ E1/2 . Adicionar dos
momentos angulares implica construı́r el sistema ortonormal de autovectores comunes al conjunto (16.21). Este
(1) (2)
conjunto diferirá de (16.17) ya que J2 no conmuta con J3 , J3 . Denotaremos los vectores de la nueva base en
la forma |J, M i donde los autovalores de J2(1) , J2(2) (que permanecen iguales) están implı́citos3 . Estos vectores
satisfacen las relaciones
3
J2(1) |J, M i = J2(2) |J, M i = ~2 |J, M i (16.22)
4
J2 |J, M i = J (J + 1) ~2 |J, M i (16.23)
J3 |J, M i = M ~ |J, M i (16.24)
ya que J es un momento angular, entonces J debe ser entero o semientero no negativo, M debe estar entre −J y
J variando en saltos unidad. El problema es entonces encontrar los valores que J y M pueden tomar con base en
los valores de j1 , j2 y m1 , m2 , ası́ como expresar la base {|J, M i} en términos de la base conocida (16.17).
A continuación resolveremos el problema diagonalizando las matrices 4×4 que representan a J2 y a J3 en la
base {|ε1 , ε2 i}. Más adelante se empleará un método más general que se puede usar en espacios vectoriales de
dimensión arbitraria.
Los valores M = ±1 son no degenerados. Solo un autovector corresponde a cada uno de ellos: |+, +i corresponde
a +1 y |−, −i corresponde a −1. En otras palabras para que M = +1 solo hay una posibilidad ε1 = ε2 = +1, el
caso M = −1 solo es posible si ε1 = ε2 = −1. En contraste, M = 0 tiene degeneración dos, a él corresponden los
estados |+, −i y |−, +i. Esto se traduce en que hay dos soluciones para M = 0, ε1 = −ε2 = 1 y ε1 = −ε2 = −1.
Cualquier combinación lineal de los vectores |+, −i y |−, +i es un autoestado de J3 con autovalor M = 0.
Estos resultados se ven claramente en la representación matricial de J3 en la base {|ε1 , ε2 i}. Ordenando los
vectores en la forma de la Ec. (16.17) esta matriz es
1 0 0 0
0 0 0 0
(J3 ) = ~
0
0 0 0
0 0 0 −1
16.4.2. Diagonalización de J2
Aplicaremos J2 a los vectores de la base (16.17), para lo cual usaremos las Ecs. (16.9, 16.11)
2
(1) (2) (1) (2) (1) (2)
J2 = J(1) + J(2) = J2(1) + J2(2) + J+ J− + J− J+ + 2J3 J3
(1) (2)
los 4 vectores |ε1 , ε2 i son autovectores de J2(1) , J2(2) , J3 y J3 como se vé en la Ecs. (16.18, 16.19), y la acción
de los operadores escalera viene dada por la Ecs. (15.12), por tanto podemos evaluar J2 |ε1 , ε2 i para todos los
elementos de la base {|ε1 , ε2 i}
2 3 2 3 2 1
J |+, +i = ~ + ~ |+, +i + ~2 |+, +i
4 4 2
= 2~2 |+, +i (16.26)
2 3 2 3 2 1
J |+, −i = ~ + ~ |+, −i − ~2 |+, −i + ~2 |−, +i
4 4 2
= ~2 [|+, −i + |−, +i] (16.27)
2 3 2 3 2 1
J |−, +i = ~ + ~ |−, +i − ~2 |−, +i + ~2 |+, −i
4 4 2
= ~2 [|+, −i + |−, +i] (16.28)
3 2 3 2 1
J2 |−, −i = ~ + ~ |−, −i + ~2 |−, −i
4 4 2
= 2~2 |−, −i (16.29)
la matriz representativa de J2 en la base {|ε1 , ε2 i} en el orden dado por (16.17) está dada por
2 0 0 0
0 1 1 0
J2 = ~2
0
1 1 0
0 0 0 2
puesto que J2 conmuta con J3 , la matriz tendrá elementos no cero solo entre autovectores de J3 asociados con
el mismo autovalor, lo cual explica los ceros de la matriz. De acuerdo con los resultados de la sección 16.4.1,
los únicos elementos no diagonales de J2 que son diferentes de cero, son aquellos que relacionan a los vectores
{|+, −i , |−, +i}, los cuales están asociados al mismo valor de M (M = 0).
412 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
Ahora para diagonalizar esta matriz podemos tener en cuenta que es diagonal por bloques partiéndose en tres
submatrices
A1×1 0 0
0 B2×2 0
0 0 C1×1
La matrices unidimensionales son las asociadas a los vectores |±, ±i que son autovectores de J2 , como se vé en
las Ecs. (16.26, 16.29). Los autovalores asociados son 2~2 . Ahora debemos diagonalizar la submatriz
1 1
B2×2 = ~2
1 1
que representa a J2 dentro del subespacio dos dimensional generado por {|+, −i , |−, +i}, es decir el autosubespacio
de J3 que corresponde a M = 0. Los autovalores λ~2 = J (J + 1) ~2 de esta matriz se encuentran con la ecuación
caracterı́stica
(1 − λ)2 − 1 = 0
cuyas raı́ces son λ = 0 y λ = 2. Esto nos da los últimos autovalores de J2 : 0 y 2~2 , es decir J = 0 y 1. Los
autovectores nos dan
1
|J = 1, M = 0i = √ [|+, −i + |−, +i] (16.30)
2
1
|J = 0, M = 0i = √ [|+, −i − |−, +i] (16.31)
2
como siempre, se puede colocar una fase global si se desea.
Vemos entonces que J2 tiene dos autovalores diferentes: 0 y 2~2 . El autovalor nulo es no degenerado y tiene
como único vector asociado a (16.31). Por otro lado, el valor propio 2~2 tiene degeneración triple, ya que está
asociado a los vectores |+, +i , |−−i y a la combinación lineal (16.30).
A la familia (16.33) de tres vectores asociados a J = 1 se le denomina un triplete. Al vector |0, 0i asociado
a J = 0 se le denomina un singlete. La Ec. (16.33) nos muestra que los estados del triplete son simétricos
con respecto al intercambio de dos momentos angulares (por ejemplo espı́nes), en tanto que el estado singlete Ec.
(16.32) es antisimétrico. Es decir si cada vector |ε1 , ε2 i se reemplaza por |ε2 , ε1 i, las expresiones (16.33) permanecen
invariantes en tanto que (16.32) cambia de signo. Esto tendrá gran importancia cuando las partı́culas cuyos espines
se adicionan sean idénticas. Además esto nos indica la combinación lineal de |+, −i con |−, +i que se requiere
para completar el triplete (debe ser simétrica). La parte singlete serı́a entonces la combinación lineal antisimétrica
de |+, −i con |−, +i la cual es ortogonal a la parte simétrica y por supuesto a los demás estados del triplete.
de modo que la acción de los operadores escalera sobre esta base estándar está dada por las Ecs. (10.47)
p
J± |j, m, ki = ~ j (j + 1) − m (m ± 1) |j, m ± 1, ki (16.35)
denotamos como E (j, k) al autosubespacio expandido por vectores de la base estándar con j, k fijos. Este espacio
es de dimensión 2j + 1 correspondiente a los valores de m para un j dado. La dimensión no depende de k. Las
Ecs. (16.34, 16.35) nos dicen que los 2j + 1 vectores de la base para E (j, k) se transforman entre sı́ por medio
de los operadores J2 , J3 , J+ , J− . Es decir, el autosubespacio E (j, k) es globalmente invariante bajo estos cuatro
operadores y más en general es globalmente invariante bajo la acción de una función F (J). El espacio completo
E se puede escribir como una suma directa de subespacios ortogonales E (j, k) como se vé en la Ec. (10.46)
debido a la invariancia de estos subespacios bajo los operadores J2 , J3 , J+ , J− , F (J) estos operadores tendrán
una representación matricial en la base estándar donde los elementos matriciales no nulos están dentro de cada
subespacio E (j, k). Además dentro de cada subespacio E (j, k) los elementos de matriz de una función del tipo
F (J) son independientes de k.
Recordemos además que si a J2 y J3 le agregamos los operadores necesarios para formar un C.S.C.O. podemos
dar un significado fı́sico a k construyendo los vectores propios comunes a todo el C.S.C.O. si por ejemplo solo se
requiere un operador A para formar el C.S.C.O. y asumimos que A conmuta con J (escalar), podemos requerir
que los autovectores |j, m, ki también sean autovectores de A
de modo que la base estándar {|j, m, ki} estará determinada por las Ecs. (16.34, 16.35, 16.37). Cada E (j, k) es
también autosubespacio de A y el ı́ndice k discrimina entre los diferentes autovalores aj,k asociados a cada valor
de k. Cuando se requiere más de un operador para formar el C.S.C.O. el ı́ndice k corresponde realmente a varios
ı́ndices.
414 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
y similarmente para la base estándar {|j2 , m2 , k2 i} del espacio E2 asociado al subsistema (2)
(2)
J2(2) |j2 , m2 , k2 i = j2 (j2 + 1) ~2 |j2 , m2 , k2 i ; J3 |j2 , m2 , k2 i = m2 ~ |j2 , m2 , k2 i
(2)
p
J± |j2 , m2 , k2 i = ~ j2 (j2 + 1) − m2 (m2 ± 1) |j2 , m2 ± 1, k2 i
E = E1 ⊗ E2
y sabemos que el producto tensorial de las bases de E1 y E2 formará una base en E. Denotamos esta base como
los espacios E1 y E2 son sumas directas de subespacios del tipo E1 (j1 , k1 ) y E2 (j2 , k2 ) respectivamente. Estas sumas
están descritas por la Ec. (16.36)
(1) (1) (1) (1)
E1 = E1 j1 , k(1) = 1 ⊕ E1 j1 , k(1) = 2 ⊕ . . . ⊕ E1 j1 , k(1) = g j1 ⊕
(1) (1) (1) (1)
E1 j2 , k(1) = 1 ⊕ E1 j2 , k(1) = 2 ⊕ . . . ⊕ E1 j2 , k(1) = g j2 ⊕
(1) (1) (1) (1)
E1 j3 , k(1) = 1 ⊕ E1 j3 , k(1) = 2 ⊕ . . . ⊕ E1 j3 , k(1) = g j3 ⊕ ... (16.39)
(m)
y similarmente para el sistema (2). En este caso la notación ji representa diversos valores de j para el subsistema
m. No obstante, esta notación no será necesaria de aquı́ en adelante y usaremos jm para denotar el valor de j
asociado al subsistema m. Estas sumas las resumimos en la forma
X X
E1 = E1 (j1 , k1 ) ; E2 = E2 (j2 , k2 )
⊕ ⊕
por lo tanto E será la suma directa de subespacios E (j1 , j2 ; k1 , k2 ) obtenido por el producto tensorial de los
subespacios E1 (j1 , k1 ) y E2 (j2 , k2 )
X
E= E (j1 , j2 ; k1 , k2 ) ; E (j1 , j2 ; k1 , k2 ) = E1 (j1 , k1 ) ⊗ E2 (j2 , k2 ) (16.40)
⊕
la dimensión del subespacio E (j1 , j2 ; k1 , k2 ) es (2j1 + 1) (2j2 + 1). Este subespacio será globalmente invariante ante
cualquier función de F (J1 ) y F (J2 ), donde naturalmente J1 y J2 son las extensiones de los operadores definidos
originalmente en cada subsistema.
16.5. MÉTODO GENERAL DE ADICIÓN DE DOS MOMENTOS ANGULARES ARBITRARIOS 415
J = J(1) + J(2)
es también un momento angular siendo J(1) y J(2) las extensiones adecuadas. Por tanto J al igual que J(1) y J(2)
satisface las propiedades algebráicas de un momento angular. No obstante, también hay algunas relaciones de
conmutación entre momentos angulares totales y parciales que son de importancia en nuestra discusión (ver
sección 16.3). Vimos que J(1) y J(2) conmutan con J2(1) y J2(2) y por tanto también con J. En particular J2 y J3
(1) (2)
conmutan con J2(1) y J2(2) . Además es inmediato que J3 y J3 conmutan con J3 , por tanto
h i h i h i h i h i h i
(1) (2)
J3 , J2(1) = J3 , J2(2) = J2 , J2(1) = J2 , J2(2) = J3 , J3 = J3 , J3 = 0 (16.41)
(1) (2)
sin embargo, J3 y J3 no conmutan con J2 lo cual se pudo ver partiendo de las Ecs. (16.9, 16.11)
con autovalores j1 (j1 + 1) ~2 , j2 (j2 + 1) ~2 , m1 ~, m2 ~. Se observa entonces que la base (16.45) es adecuada para
el estudio de los momentos angulares individuales J(1) y J(2) de cada subsistema. Ahora bien, las Ecs. (16.41) nos
dicen que el conjunto de observables
J2(1) , J2(2) , J2 , J3
también conmutan entre sı́. Obsérvese que si construı́mos una base común a estos observables, serı́a más adecuada
para el estudio del momento angular total del sistema ya que un vector de esta base permitirı́a extraer los valores
propios de J2 y J3 . Esta base debe ser diferente a la anterior puesto que según la Ec. (16.44), J2 no conmuta con
(1) (2)
J3 ni con J3 . Una motivación adicional para encontrar una base común a J2 y J3 , es el hecho de que para
un sistema sujeto a una interacción central que posee dos momentos angulares acoplados, se tiene que J total es
constante de movimiento aunque los momentos angulares parciales no lo son (ver secciones 16.2.1, 16.2.2, 16.2.3).
Además los nı́ndices k1 y ko2 tienen un significado fı́sico que es extensión natural del procedimiento para cada
(1)
subsistema. Si A1 , J2(1) , J3 forma un C.S.C.O. en E1 donde A1 conmuta con J(1) entonces podemos escoger
una base estándar {|j1 , m1 , k1 i} consistente en los vectores
n ortonormales
o completos comunes a estos observables.
2 (2)
Si algo similar ocurre con un conjunto de observables A2 , J(2) , J3 en E2 entonces el conjunto
(1) (2)
A1 , A2 ; J2(1) , J2(2) ; J3 , J3
416 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
forma un C.S.C.O. en E cuyos autovectores están dados por la Ec. (16.45). Por otro lado, puesto que A1 conmuta
con J(1) y con J(2) entonces conmutará con J. Esto a su vez implica que A1 conmuta con J2 y J3 . Lo mismo ocurre
para el observable A2 , por tanto los observables en el conjunto
A1 , A2 ; J2(1) , J2(2) ; J2 , J3
conmutan entre ellos. Puede demostrarse que además forman un C.S.C.O. y la nueva base que buscaremos es un
sistema ortonormal de vectores propios comunes de este C.S.C.O.
Ahora bien, el subespacio E (j1 , j2 ; k1 , k2 ) definido en (16.40) es globalmente invariante bajo la acción de un
operador que sea función de J(1) o que sea función de J(2) . Por tanto, es globalmente invariante ante la acción
de un F (J). Esto implica que los observables J2 y J3 que pretendemos diagonalizar, tienen elementos matriciales
no nulos solo dentro de cada espacio E (j1 , j2 ; k1 , k2 ). Las matrices de dimensión infinita que representan a J2 y
J3 en la base (16.45) son diagonales por bloques y se pueden escribir como suma directa de submatrices cada
una asociado a un subespacio de la forma E (j1 , j2 ; k1 , k2 ). Por tanto, el problema se reduce a diagonalizar las
submatrices asociadas a cada subespacio E (j1 , j2 ; k1 , k2 ) cuya dimensión es (2j1 + 1) (2j2 + 1).
Por otro lado, los elementos matriciales en la base (16.45) para cualquier función F J(1) ó F J(2) son
independientes de k1 y k2 (solo los elementos matriciales de A1 dependen de k1 y los de A2 dependen de k2 ).
Por tanto, esto también vale para J2 y J3 . En consecuencia, la diagonalización de estos dos operadores dentro de
todos los subespacios E (j1 , j2 ; k1 , k2 ) con el mismo valor de j1 y j2 , se realiza de forma idéntica. Por esta razón
hablamos de adición de los momentos angulares sin hacer referencia a los otros números cuánticos. Simplificaremos
la notación omitiendo los ı́ndices k1 y k2 escribiendo entonces
E (j1 , j2 ) ≡ E (j1 , j2 ; k1 , k2 ) ; |j1 , j2 ; m1 , m2 i ≡ |j1 , j2 ; m1 , m2 ; k1 , k2 i
puesto que J es un momento angular y E (j1 , j2 ) es invariante ante F (J) entonces E (j1 , j2 ) es una suma directa
de subespacios ortogonales E (J, k) cada uno de los cuales es invariante ante la acción de J2 , J3 , J±
X
E (j1 , j2 ) = E (J, k) (16.46)
⊕
de aquı́ surgen las siguientes preguntas, dado un par j1 y j2 ¿Cuáles son los valores de J que contribuyen en la
suma directa (16.46)? y ¿Cuántos subespacios E (J, k) están asociados con un J dado?.
Dado que tenemos una base conocida (16.45) esta será nuestro punto de partida para llegar a la base asociada
a J2 y J3 . Surge entonces el problema de expandir los autovectores de la base buscada asociados a E (j1 , j2 ) en
términos de los autovectores de la base conocida (16.45).
Es importante mencionar que si tenemos más momentos angulares podemos adicionar los dos primeros y al
resultado le adicionamos un tercero y ası́ sucesivamente. Esto solo es posible puesto que el algoritmo de suma es
conmutativo y asociativo como veremos más adelante.
1. Valores de J > 1 están excluı́dos. Por ejemplo para que J = 2 fuera posible tendrı́a que existir al menos un
autovector de J3 con M = 2. Esto se debe a que la teorı́a del momento angular nos dice que para un j dado
los valores permitidos de m consisten en todos los valores enteros o semienteros que cubren el intervalo
−j ≤ m ≤ j en saltos unidad.
16.5. MÉTODO GENERAL DE ADICIÓN DE DOS MOMENTOS ANGULARES ARBITRARIOS 417
2. E (J = 1, k) aparece solo una vez (es decir k es único), puesto que M = ±1 solo aparece una vez, es decir
M = ±1 es no degenerado.
3. E (J = 0, k) aparece una sola vez. Esto se debe a que M = 0 es dos veces degenerado pero uno de los
autovectores con M = 0 está en el subespacio con J = 1, de modo que solo un autovector con M = 0 está
asociado a un subespacio con J = 0.
Por tanto, el espacio 4-dimensional E (1/2, 1/2) se descompone en subespacios del tipo E (J, k) según la Ec.
(16.46) en la forma
1 1
E , = E (J = 1) ⊕ E (J = 0)
2 2
que son de dimensión 3 y 1 respectivamente. Veremos ahora como extender estas conclusiones al caso general.
Figura 16.1: (a) Ilustración de las reglas de adición para momentos angulares en el caso general. (b) Pares de
posibles valores de (m, m′ ) = (m1 , m2 ) para el caso especı́fico j = j1 = 2, j ′ = j2 = 1. En ambos casos, los puntos
asociados con un valor dado de M = m + m′ = m1 + m2 están localizados sobre una lı́nea recta de pendiente −1
pintada como lı́nea punteada. Hemos supuesto que j = j1 ≥ j ′ = j2 , con lo cual el ancho del rectángulo es mayor
o igual a su altura.
Consideremos un subespacio de la forma E (j1 , j2 ) de dimensión (2j1 + 1) (2j2 + 1). Asumiremos que j1 y j2
están rotulados de modo que
j1 ≥ j2 (16.47)
los vectores base {|j1 , j2 ; m1 , m2 i} de este subespacio (que se construyen con el producto tensorial de las bases de
los espacios factor) ya son autovectores de J3
(1) (2)
J3 |j1 , j2 ; m1 , m2 i = J3 + J3 |j1 , j2 ; m1 , m2 i = (m1 + m2 ) ~ |j1 , j2 ; m1 , m2 i
≡ M ~ |j1 , j2 ; m1 , m2 i
M = m1 + m2 (16.48)
M = j1 + j2 , j1 + j2 − 1, j1 + j2 − 2, . . . , − (j1 + j2 ) (16.49)
418 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
Denotaremos el grado de degeneración de cada M en el subespacio E (j1 , j2 ), en la forma gj1 ,j2 (M ). Para encontrar
esta degeneración usaremos el siguiente procedimiento geométrico: realizamos un diagrama en dos dimensiones
asociando a cada vector |j1 , j2 ; m1 , m2 i un par ordenado donde el eje de abcisas se asocia con m1 y el eje de
ordenadas con m2
|j1 , j2 ; m1 , m2 i ≡ (m1 , m2 )
todos los puntos asociados a estos vectores están ubicados en el borde o interior de un rectángulo cuyos vértices
están en (j1 , j2 ) , (j1 , −j2 ) , (−j1 , −j2 ) y (−j1 , j2 ). La Fig. 16.1 representa los puntos asociados a una configuración
arbitraria (izquierda) y una configuración con j1 = 2, j2 = 1 (derecha). Si partimos de un punto dado (vector)
del tipo P = (m1 , m2 ) es claro que estados “vecinos” del tipo P± ≡ (m1 ± 1, m2 ∓ 1) poseen el mismo valor de
M = m1 + m2 siempre y cuando existan los valores incrementados y decrementados de m1 y m2 . Cuando alguno
de los valores incrementados o decrementados no exista, es por que el estado (m1 , m2 ) se encuentra en alguno de
los bordes del rectángulo (o en una esquina). Para estados P en el interior del rectángulo, existe tanto P+ como
P− . Dos puntos vecinos definidos con esta relación están unidos por una recta de pendiente −1
(m2 ∓ 1) − m2
pendiente = = −1
(m1 ± 1) − m1
En conclusión, los puntos situados a lo largo de las lı́neas punteadas de las Figs. 16.1a, y 16.1b, de pendiente −1,
corresponden a los vectores con el mismo valor de M = m1 + m2 . El número de puntos (vectores) unidos por una
lı́nea define el grado de degeneración gj1 ,j2 (M ) del valor de M asociado.
Consideremos ahora los diferentes valores de M en orden descendente Ec. (16.49). Observaremos el patrón de
las lı́neas punteadas a medida que disminuye M . Empezando por el máximo M = j1 + j2 vemos que este valor es
no-degenerado, ya que la lı́nea que lo cruza pasa solo por la esquina superior derecha (es en realidad un punto),
cuyas coordenadas son (j1 , j2 ). Vemos entonces que
para el siguiente M = j1 + j2 − 1 la degeneración es doble (a menos que j1 y/o j2 sean nulos), ya que la lı́nea
correspondiente contiene los puntos (j1 , j2 − 1) y (j1 − 1, j2 ). Entonces
La degeneración aumenta una unidad por cada decremento de M en una unidad, hasta que se alcanza la esquina
inferior derecha (j1 , −j2 ) del rectángulo4 , que corresponde al valor M = j1 − j2 ≥ 0 ya que suponemos siempre
que j1 ≥ j2 . El número de puntos llega entonces a su máximo (que es el número de puntos que miden “la altura”
del rectángulo) y es igual a
gj1 ,j2 (j1 − j2 ) = 2j2 + 1 (16.52)
si continuamos decrementando M , el número de puntos permanece constante en 2j2 + 1 siempre que la lı́nea
asociada a M cruce al rectángulo tocando sus lados superior (m2 = j2 ) e inferior (m2 = −j2 ). Esto ocurre hasta
que la lı́nea asociada alcanza la esquina superior izquierda (−j1 , j2 ) del rectángulo, para el cual M = −j1 + j2 ≤ 0.
Por tanto, el número máximo de puntos 2j2 + 1 se mantiene en un intervalo para M dado por
finalmente, para valores de M menores que − (j1 − j2 ), la lı́nea asociada a cada M ya no intersecta la lı́nea superior
del rectángulo (m2 = j2 ) y gj1 ,j2 (M ) decrece monótonamente en la unidad por cada decremento unidad de M ,
4
Como estamos asumiendo que j1 ≥ j2 , siempre se alcanza la esquina inferior derecha (j1 , −j2 ) antes que la esquina superior
izquierda (−j1 , j2 ) en esta secuencia. A lo más ocurre que las dos esquinas se alcanzan al mismo tiempo cuando j1 = j2 , en cuyo caso
tenemos un cuadrado.
16.5. MÉTODO GENERAL DE ADICIÓN DE DOS MOMENTOS ANGULARES ARBITRARIOS 419
alcanzando el valor 1 nuevamente cuando M = − (j1 + j2 ), correspondiente a la esquina inferior izquierda del
rectángulo. Por lo tanto
gj1 ,j2 (−M ) = gj1 ,j2 (M ) (16.54)
estos resultados se resumen en la figura 16.2 para el caso j1 = 2 y j2 = 1, esta figura muestra g2,1 (M ) como
función de M .
Figura 16.2: Gráfica del grado de degeneración gj1 ,j2 (M ) versus M , para el caso j1 = 2, j2 = 1 ilustrado en
la Fig. 16.1b. El grado de degeneración se obtiene por simple conteo del número de puntos que toca cada lı́nea
punteada en la Fig. 16.1b. Adicionalmente, esta figura muestra la simetrı́a expresada por la Ec. (16.54).
Invirtiendo esta relación, se obtiene a pj1 ,j2 (J) en términos de gj1 ,j2 (M )
es de resaltar que en la Ec. (16.55), J es fijo y los valores de M no están asociados al valor fijo de J, sino a todos
los valores permitidos de M en E (j1 , j2 ). Por esta razón, los valores de gj1 ,j2 (M = J + 1) y gj1 ,j2 (M = −J − 1)
pueden ser no nulos.
Teniendo en cuenta la degeneración de los valores de M estudiada en la sección 16.5.5, podemos determinar los
valores del número cuántico J que ocurren en E (j1 , j2 ) y el número de subespacios invariantes E (J, k) asociados
con cada uno de ellos. En primer lugar tenemos que
ya que gj1 ,j2 (M ) = 0 para |M | > j1 + j2 . Si ahora aplicamos las Ecs. (16.50, 16.51) tenemos que
por tanto todos los valores de pj1 ,j2 (J) se pueden encontrar por iteración
la última igualdad se obtiene recordando que hemos mantenido la suposición j1 ≥ j2 en todo el tratamiento. Para
el caso j2 ≥ j1 solo hay que invertir los ı́ndices 1 y 2.
En conclusión, para valores fijos de j1 y j2 , es decir dentro de un subespacio E (j1 , j2 ) de dimension (2j1 + 1) (2j2 + 1),
los autovalores de J2 son tales que
J = j1 + j2 , j1 + j2 − 1, j1 + j2 − 2, . . . , |j1 − j2 | (16.56)
y cada valor de J está asociado a un único subespacio invariante E (J, k) en la suma directa dada por la Ec.
(16.46), la cual se reduce a
jX
1 +j2
de modo que el ı́ndice k es realmente innecesario. Esto implica en particular que si tomamos un valor fijo de J y un
valor fijo de M compatible con J (|M | ≤ J), existe un único vector |J, M i (salvo constantes) en E (j1 , j2 ) asociado
a estos números cuánticos. La especificación de J es suficiente para determinar el subespacio invariante, y la
especificación de M me lleva a un único vector (excepto por una constante) en dicho subespacio. En consecuencia
J2 y J3 forman un C.S.C.O. en E (j1 , j2 ).
A manera de consistencia, podemos mostrar que el número N de pares (J, M ) encontrados para E (j1 , j2 )
coincide con la dimensión (2j1 + 1) (2j2 + 1) de E (j1 , j2 ), puesto que el conjunto {|J, M i} constituye una base
16.6. AUTOVECTORES COMUNES DE J2 Y J3 421
para E (j1 , j2 ). Asumiremos por simplicidad que j1 ≥ j2 . Puesto que cada subespacio E (J) es de dimensión 2J + 1
(es decir tiene 2J + 1 valores diferentes de M ), la suma directa (16.57) nos dice que
jX
1 +j2
N= (2J + 1) (16.58)
J=j1 −j2
si reemplazamos
J = j1 − j2 + i
podemos calcular (16.58)
jX
1 +j2 2j2
X 2j2
X 2j2
X
N = (2J + 1) = [2 (j1 − j2 + i) + 1] = [2 (j1 − j2 ) + 1] 1+2 i
J=j1 −j2 i=0 i=0 i=0
2j2 (2j2 + 1)
= [2 (j1 − j2 ) + 1] (2j2 + 1) + 2 = (2j1 − 2j2 + 1) (2j2 + 1) + 2j2 (2j2 + 1)
2
= [(2j1 − 2j2 + 1) + 2j2 ] (2j2 + 1) = (2j1 + 1) (2j2 + 1)
los otros estados del triplete J = 1 se obtienen por aplicación sucesiva del operador J− tal como se describió en
la sección 10.4.1. Usando la Ec. (10.47), tenemos entonces
p √
J− |1, 1i = ~ 1 (1 + 1) − 1 (1 − 1) |1, 0i = ~ 2 |1, 0i
422 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
(1) (2)
J− = J− + J−
con lo cual
1 (1) (2)
1
|1, 0i = √ J− + J− |++i = √ (~ |−+i + ~ |+−i)
~ 2 ~ 2
1
|1, 0i = √ (|−+i + |+−i) (16.60)
2
ahora aplicamos J− a |1, 0i para obtener el último elemento |1, −1i del triplete.
√
J− |1, 0i = ~ 2 |1, −1i (16.61)
1 1 (1) 1
(2)
|1, −1i = √ J− |1, 0i = √ J− + J− √ (|−+i + |+−i)
~ 2 ~ 2 2
1 h i 1 h (2) i
(1) (2) (1) (2) (1)
= J− + J− |−+i + J− + J− |+−i = J− |−+i + J− |+−i
2~ 2~
1
= [~ |−−i + ~ |−−i]
2~
|1, −1i = |−−i
nótese que el estado |−−i se pudo haber extraı́do con un argumento similar al usado para encontrar |++i, ya que
el estado con M = −1 al igual que el asociado a M = 1 es no degenerado. El procedimiento anterior tiene sin
embargo la ventaja de mostrar el algoritmo general y además nos permite ajustar las convenciones de fases que
podrı́an aparecer en |1, 0i y |1, −1i. Existen dos lugares en el procedimiento en donde se fijan las fases, en la Ec.
(16.59) se puede colocar una fase arbitraria, y en las Ecs. (10.47) para J± se pueden colocar fases que dependan
de m.
Finalmente, encontraremos el estado singlete |J = 0, M = 0i , que es el único vector del subespacio unidi-
mensional E (J = 0). Este se puede encontrar dentro de fases constantes, con la condición de ser ortonormal al
triplete.
Al ser ortonormal a |1, 1i = |++i y a |1, −1i = |−−i, se tiene que |0, 0i debe ser una combinación lineal de
|+−i y |−+i
en donde hemos agregado la condición de normalización. Teniendo en cuenta que |0, 0i también debe ser ortogonal
a |1, 0i, las Ecs. (16.60, 16.62) nos dan
1
h1, 0 |0, 0i = √ [h−+| + h+−|] [α |+−i + β |−+i] = 0
2
⇒ α h−+| + −i + β h−+| − +i + α h+−| + −i + β h+−| − +i = 0
β+α = 0 (16.64)
16.7. AUTOVECTORES DE J2 Y J3 : CASO GENERAL 423
1
α = −β ⇒ |α|2 = |β|2 ⇒ 2 |α|2 = 1 ⇒ |α| = √
2
con lo cual
1
α = −β = √ eiχ
2
siendo χ cualquier número real. Eligiendo χ = 0, tenemos
1
|0, 0i = √ [|+−i − |−+i] (16.65)
2
es importante observar que con este método no fué necesario recurrir a las representaciones matriciales de los
operadores, en particular de J2 (que fué la que se tuvo que diagonalizar).
|J = j1 + j2 , M = j1 + j2 i = |m1 = j1 , m2 = j2 i
para escribir el vector |j1 + j2 , j1 + j2 − 1iJ en términos de la base original |m1 , m2 ij , debemos escribir el término
(1) (2)
de la derecha en la Ec. (16.68) en la base original, para lo cual tenemos en cuenta que J− = J− + J− y que
|j1 + j2 , j1 + j2 iJ = |j1 , j2 ij ; con lo cual la Ec. (16.68) queda
(1) (2) √ √
J− + J− |j1 , j2 ij ~ 2j1 |j1 − 1, j2 ij + ~ 2j2 |j1 , j2 − 1ij
|j1 + j2 , j1 + j2 − 1iJ = p = p
~ 2 (j1 + j2 ) ~ 2 (j1 + j2 )
424 CAPÍTULO 16. ADICIÓN DE MOMENTOS ANGULARES
obteniendo finalmente
s s
j1 j2
|j1 + j2 , j1 + j2 − 1iJ = |j1 − 1, j2 ij + |j1 , j2 − 1ij (16.69)
j1 + j2 j1 + j2
nótese además que la combinación lineal de vectores originales que me forma a |j1 + j2 , j1 + j2 − 1iJ está au-
tomáticamente normalizada.
Para obtener |j1 + j2 , j1 + j2 − 2iJ , aplicamos J− a ambos lados de la Ec. (16.69) escribiendo tal operador
(1) (2)
como J− = J− + J− a la derecha de dicha ecuación. Podemos repetir este procedimiento sistemáticamente, hasta
llegar al estado |j1 + j2 , − (j1 + j2 )iJ , el cual se puede ver que es igual a |−j1 , −j2 ij por un argumento similar
al que nos llevó a la Ec. (16.67), puesto que M = −j1 − j2 también es no-degenerado.
Al finalizar este proceso hemos encontrado todos los 2 (j1 + j2 ) + 1 vectores de la forma |J = j1 + j2 , M i, los
cuales expanden el subespacio E (J = j1 + j2 ) de E (j1 , j2 ).
esto se debe a que E (j1 + j2 ) posee uno, y solo un vector asociado a cada valor accesible de M en E (j1 , j2 ). Es
decir, para cada M en el intervalo − (j1 + j2 ) ≤ M ≤ j1 + j2 hay uno y solo un vector en E (j1 + j2 ). En particular,
M = j1 + j2 ya no existe en G (j1 + j2 ), y por tanto el valor máximo de M en G (j1 + j2 ) es M = j1 + j2 − 1,
como este era doblemente degenerado en E (j1 , j2 ), será no-degenerado en G (j1 + j2 ). Por argumentos similares
a los de la sección 16.7.1, el vector asociado a M = j1 + j2 − 1 en este subespacio, debe ser proporcional a
|J = j1 + j2 − 1, M = j1 + j2 − 1i. Queremos ahora encontrar su expansión en términos de la base {|m1 , m2 i}. En
virtud del valor de M = j1 + j2 − 1, la expansión debe ser de la forma
donde además requerimos la normalización. Adicionalmente, este estado debe ser ortogonal a |j1 + j2 , j1 + j2 − 1iJ ∈
E (j1 + j2 ), i.e. al estado del complemento ortogonal de G (j1 + j2 ) con el mismo valor de M = j1 + j2 − 1. Usando
las expresiones (16.69, 16.71) para este vector, dicha ortogonalidad se escribe como
la condición de normalización (16.71) junto con la Ec. (16.72) nos permiten encontrar α y β dentro de un factor
de fase. Escogiendo α real y positivo, la Ec. (16.72) nos dice que β es real y toma el valor
s
j2 j2 j1 + j2
β = −α ⇒ α2 + β 2 = α2 1 + = 1 ⇒ α2 =1
j1 j1 j1
s s s
j1 j2 j2
α = ; β = −α =−
j1 + j2 j1 j1 + j2
este es el primer vector de una nueva familia caracterizada por J = j1 +j2 −1, de forma similar al vector asociado a
J = j1 + j2 en la sección 16.7.1. Los otros vectores de esta nueva familia se pueden generar por aplicación sucesiva
del operador J− . De esta forma, obtenemos [2 (j1 + j2 − 1) + 1] vectores del tipo |J = j1 + j2 − 1, M i donde J y
M toman los valores
J = j1 + j2 − 1 ; M = j1 + j2 − 1, j1 + j2 − 2, . . . , − (j1 + j2 − 1)
en el suplemento G (j1 + j2 , j1 + j2 − 1), la degeneración de cada valor de M decrece en una unidad con respecto a
la degeneración en el suplemento anterior G (j1 + j2 ). En particular, el máximo valor de M es ahora M = j1 +j2 −2
y es no-degenerado. El vector asociado en G (j1 + j2 , j1 + j2 − 1) será |J = j1 + j2 − 2, M = j1 + j2 − 2i.
Para calcular al vector |j1 + j2 − 2, j1 + j2 − 2iJ en términos de la base |m1 , m2 i, basta notar que éste debe
ser una combinación lineal de tres vectores
los tres coeficientes se fijan dentro de un factor de fase por la condición de normalización y de ortogonalidad con
los vectores (ya conocidos) dados por: |j1 + j2 , j1 + j2 − 2i , |j1 + j2 − 1, j1 + j2 − 2i. Es decir, los vectores en el
complemento ortogonal de G (j1 + j2 , j1 + j2 − 1), con el mismo valor de M = j1 + j2 − 2. Una vez determinados
los coeficientes en (16.74), podemos encontrar los demás vectores de esta tercera familia, por aplicación sucesiva
de J− . Estos vectores nos permiten expandir a E (j1 + j2 − 2).
El procedimiento se puede repetir hasta abarcar todos los valores de M mayores o iguales a |j1 − j2 |, y en
virtud de la Ec. (16.54) también todos los valores correspondientes a M menores o iguales a − |j1 − j2 |. De esta
forma determinamos todos los vectores {|J, M i} en términos de la base original {|m1 , m2 i}.
libertad). Por otra parte, los autovectores comunes a J2 , J3 , J2(1) , J2(2) , y que denotamos (en notación completa)
por {|j1 , j2 ; J, M i} forman una base ortonormal conocida como la base “acoplada” ya que esta base nos da
información directa de los números cuánticos asociados al sistema como un todo.
La transformación que nos lleva desde la base desacoplada hasta la base acoplada es unitaria puesto que es una
transformación de una base ortonormal a otra base también ortonormal. Esta transformación unitaria se escribe
fácilmente usando la completez en E (j1 , j2 ) de la base desacoplada
j1
X j2
X
|j1 , j2 ; J, M i = |j1 , j2 ; m1 , m2 i hj1 , j2 ; m1 , m2 | J, M i (16.75)
m1 =−j1 m=−j2
los coeficientes hm1 , m2 (j1 , j2 ) J, M i de la expansión, que son elementos de la matriz unitaria de transformación,
se conocen como coeficientes de Clebsch-Gordan. Los números cuánticos de la izquierda indican un ket de la
base desacoplada, los de la derecha indica un ket de la base acoplada y los números cuánticos (j1 , j2 ) del centro,
indican los momentos angulares j1 y j2 que se están acoplando. Un aspecto importante es que la notación original
|j1 , j2 ; m1 , m2 ; k1 , k2 i , |j1 , j2 ; J, M ; k1 , k2 i para las bases no es necesaria dado que los productos internos son
independientes de k1 y k2 , y dentro del espacio E (j1 , j2 ) los k′ s toman un solo valor, de modo que dentro de este
subespacio este número cuántico no discrimina diferentes estados.
No es posible dar expresiones generales para los coeficientes de Clebsch-Gordan. Estos coeficientes se pueden
generar con el algoritmo explicado en las secciones anteriores. Adicionalmente, existen tablas numéricas de estos
coeficientes. Por ejemplo, las Ecs. (16.67, 16.69, 16.73) nos permiten encontrar algunos coeficientes de Clebsch-
Gordan
hj1 , j2 (j1 , j2 ) j1 + j2 , j1 + j2 i = 1
s
j1
hj1 − 1, j2 (j1 , j2 ) j1 + j2 , j1 + j2 − 1i =
j1 + j2
s
j2
hj1 , j2 − 1 (j1 , j2 ) j1 + j2 , j1 + j2 − 1i =
j1 + j2
s
j1
hj1 , j2 − 1 (j1 , j2 ) j1 + j2 − 1, j1 + j2 − 1i =
j1 + j2
s
j2
hj1 − 1, j2 (j1 , j2 ) j1 + j2 − 1, j1 + j2 − 1i = −
j1 + j2
Es importante mencionar que para determinar estos coeficientes en forma única, deben escogerse ciertas con-
venciones de fases. Lo usual es definir estos coeficientes como reales. Sin embargo, la escogencia de ciertas fases
dictamina el signo de algunos coeficientes. Por supuesto, los signos relativos de los coeficientes que aparecen en la
expansión del mismo vector |J, M i están fijos, solo se puede escoger en forma arbitraria el signo global.
Adicionalmente, la reglas de adición que hemos obtenido muestran que estos coeficientes tienen unas reglas de
selección: el coeficiente hj1 , j2 ; m1 , m2 | J, M i ≡ hm1 , m2 (j1 , j2 ) J, M i es diferente de cero solo si
M = m1 + m2 ; |j1 − j2 | ≤ J ≤ j1 + j2 (16.78)
16.8. TRANSFORMACIÓN DE LA BASE DESACOPLADA A LA BASE ACOPLADA 427
donde J debe ser del mismo tipo (entero o semi-entero) que los valores j1 + j2 y |j1 − j2 |. La segunda condición en
(16.78) se conoce usualmente como “regla del triángulo” ya que expresa el hecho de que si la condición se satisface,
debe poderse formar un triángulo con tres segmentos de longitud j1 , j2 y J. En otras palabras, la segunda ecuación
(16.78) expresa el conocido teorema que nos dice que un lado J de un triángulo es menor que la suma de los otros
dos lados y mayor que su diferencia.
Naturalmente la relación inversa de la expresada en (16.77) se puede obtener usando la completez de la base
acoplada
jX
1 +j2 J
X jX
1 +j2 J
X
|j1 , j2 ; m1 , m2 i = |J, M i hJ, M |j1 , j2 ; m1 , m2 i ≡ |J, M i hJ, M (j1 , j2 ) m1 , m2 i
J=j1 −j2 M =−J J=j1 −j2 M =−J
(16.79)
dado que los coeficientes de C-G son elementos de una matriz unitaria y se eligen como reales, la matriz será
ortogonal real, por tanto se cumple la condición
Si por ejemplo consideramos los estados propios de los operadores de espı́n S2 y S3 para una partı́cula de espı́n
s = 1/2, tenemos que hay solo dos autoestados de S2 y S3 que usualmente denotamos |±i. Si estamos interesados
en información concerniente solo a variables de espı́n, por ejemplo la probabilidad de que el momento magnético
de espı́n sea +1/2 en una medida de espı́n (sin importar los valores que tomen las variables espaciales), entonces
podemos por simplicidad considerar un espacio vectorial (espinorial) de solo dos dimensiones para realizar los
cálculos, tal que los dos estados |±i formarán una base para dicho espacio.
Existen otros escenarios en los cuales los sistemas de dos estados resultan relevantes en mecánica cuántica.
Consideremos un sistema para el cual existen dos estados con energı́as muy cercanas entre sı́, y que son muy
diferentes a las energı́as de los otros autoestados de energı́a del sistema. Asumamos que queremos evaluar el
efecto de una perturbación externa o de una perturbación interna previamente ignorada. Si la intensidad de la
perturbación es suficientemente pequeña, se puede demostrar que su efecto sobre los dos estados “cercanos”, se
puede calcular en primera aproximación ignorando los otros niveles de energı́a. De modo que todos los cálculos
involucran un espacio de dos dimensiones.
428
17.2. EFECTO DEL ACOPLE SOBRE LA ENERGÍA Y LOS ESTADOS ESTACIONARIOS 429
de modo que W11 y W22 son reales y W12 = W21 ∗ . En ausencia del acople o perturbación W , las energı́as accesibles
del sistema son E1 y E2 , siendo |ϕ1 i , |ϕ2 i los estados estacionarios del sistema, de modo que si en t = 0 el sistema
está en uno de estos dos estados, permanecerá en el indefinidamente. Veremos entonces como se modifican las
energı́as y estados estacionarios cuando se introduce el acople W .
17.2.1. Efecto del acople sobre los estados estacionarios del sistema
La representación matricial del Hamiltoniano perturbado en la base |ϕ1 i, |ϕ2 i será
∗
E1 + W11 W21
H=
W21 E2 + W22
los valores y vectores propios de esta matriz se realizaron en detalle en la sección 1.45.3. Las Ecs. (1.229, 1.230,
1.231) nos muestran tales autovalores y autovectores
q
1 1
E± = (E1 + W11 + E2 + W22 ) ± (E1 + W11 − E2 − W22 )2 + 4 |W12 |2 (17.5)
2 2
θ θ
|ψ+ i = cos e−iϕ/2 |ϕ1 i + sin eiϕ/2 |ϕ2 i (17.6)
2 2
θ −iϕ/2 θ
|ψ− i = − sin e |ϕ1 i + cos eiϕ/2 |ϕ2 i (17.7)
2 2
2 |W21 |
tan θ = , W21 = |W21 | eiϕ ; 0 ≤ θ < π , 0 ≤ ϕ < 2π (17.8)
E1 + W11 − E2 − W22
Es fácil ver que si W12 = 0, los autoestados de H son los autoestados de H0 y los nuevos niveles de energı́a
son simplemente E1 + W11 y E2 + W22 . Por tanto, los efectos interesantes surgen cuando W posee elementos
no-diagonales W12 = W21 ∗ . Para simplificar la discusión asumimos que la matriz de W en la base {|ϕ i , |ϕ i} es
1 2
430 CAPÍTULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS
puramente no-diagonal1 . Haciendo W11 = W22 = 0 en las Ecs. (17.5, 17.8) obtenemos
q
1 1
E± = (E1 + E2 ) ± (E1 − E2 )2 + 4 |W12 |2 (17.9)
2 2
2 |W21 |
tan θ = , 0 ≤ θ < π ; W21 = |W21 | eiϕ (17.10)
E1 − E2
es conveniente definir las siguientes variables
1 1
Em ≡ (E1 + E2 ) ; ∆≡ (E1 − E2 ) (17.11)
2 2
que corresponden al promedio y el desdoblamiento de los niveles no perturbados. Sustituyendo (17.11) en las Ecs.
(17.9, 17.10) tenemos que
q q
|W21 |
E+ = Em + ∆ + |W21 | ; E− = Em − ∆2 + |W21 |2 ; tan θ =
2 2
(17.12)
∆
Las Ecs. (17.12) muestran que cuando Em cambia, la variación de E± es equivalente a correr el origen a lo
Figura 17.1: Variación de las energı́as E± con respecto al desdoblamiento ∆ ≡ (E1 − E2 ) /2. Hemos definido el
cero del eje de energı́a en Em . En ausencia de acoplamiento los niveles se cruzan en el origen como lo muestran
las lı́neas rectas punteadas. Al introducir el acople W no-diagonal, los dos niveles perturbados se “repelen uno a
otro” y se obtienen curvas de E+ y E− que no se cruzan. Tales curvas son ramas hiperbólicas (lı́neas sólidas en la
figura) cuyas ası́ntotas son los niveles no perturbados.
largo del eje de energı́a. Adicionalmente, las Ecs. (17.6, 17.7, 17.10, 17.12) muestran que los autovectores |ψ± i no
dependen de Em sino solo del desdoblamiento ∆. Es interesante mostrar el comportamiento de las energı́as E1,2 y
1
Si W11 y W22 son no nulos, podemos definir E e1 = E1 + W11 y E
e2 = E2 + W22 . Todos los resultados que se obtendrán en esta
e1 y E2 → E
sección serán válidos en este caso, haciendo los reemplazos E1 → E e2 .
17.2. EFECTO DEL ACOPLE SOBRE LA ENERGÍA Y LOS ESTADOS ESTACIONARIOS 431
E± en un diagrama de ∆ versus energı́a. La Fig. 17.1 muestra que tal diagrama para las energı́as E± corresponde
a ramas hiperbólicas simétricas con respecto a los ejes coordenados (en donde el zero del eje vertical se ubicó
en Em ), y cuyas ası́ntotas son las lı́neas rectas punteadas que describen el comportamiento de las energı́as E1 y
E2 . La Fig. 17.1 también muestra que la separación mı́nima entre las ramas hiperbólicas es 2 |W21 |. Puede verse
entonces que en ausencia de acople, los niveles de energı́a E1 y E2 se cruzan en ∆ = 0 (como se vé también en
las Ecs. 17.11). Con la introducción del acople, los niveles de energı́a “se repelen” es decir tienden a alejarse. Por
esta razón se suele hablar de diagramas anti-cruzantes, para curvas del tipo mostrado por E± . Se observa además
que cuando W → 0 tenemos que E± → E1,2 si E1 > E2 en tanto que E± → E2,1 si E2 > E1 . De las Ecs. (17.11,
17.12) vemos que
q
|E+ − E− | = 2 ∆2 + |W21 |2 > 2∆ ; |E1 − E2 | ≡ 2∆ ⇒ (17.13)
|E+ − E− | > |E1 − E2 | (17.14)
donde el aumento en el desdoblamiento es mayor a medida que crece el acople. Vemos entonces que el acople
separa la frecuencias normales, situación que aparece en muchos escenarios fı́sicos.
Es necesario poder discriminar cuando podemos hablar de un acople “fuerte” o “débil”. Para ello vemos que
las Ecs. (17.12) se pueden reescribir como
p
W21
E± = Em ± ∆ 1 + K 2 ; K≡ , ∆ 6= 0 (17.15)
∆
17.2.2. Efecto de un acople débil sobre los niveles de energı́a y estados estacionarios
El acople débil está caracterizado por |∆| ≫ |W21 |. La Fig. 17.1 nos muestra que en este lı́mite todas las energı́as
se comportan aproximadamente como las ası́ntotas. Puesto que K ≪ 1, las Ecs. (17.15) se pueden expandir en
series de potencias de K !
1 W21 2
E± = Em ± ∆ 1 + + ... (17.16)
2 ∆
adicionalmente, la Ec. (17.12) nos dice que θ ≃ 0 en este lı́mite. Por tanto tan θ ≃ θ ≃ sin θ, de modo que a primer
orden obtenemos
θ θ θ tan θ |W21 |
cos ≃ 1 ; sin ≃ ≃ =
2 2 2 2 2∆
reemplazando estas aproximaciones en las Ecs. (17.6, 17.7), los autoestados en el lı́mite de acople débil quedan
puesto que las fases globales son irrelevantes, vemos que un acople débil genera estados perturbados muy similares
a los estados no perturbados como era de esperarse. Por ejemplo, el estado |ψ+ i se puede ver como el estado |ϕ1 i
ligeramente “contaminado” por una pequeña contribución del estado |ϕ2 i. Similarmente, |ψ− i es casi el estado
|ϕ2 i con una pequeña contribución de |ϕ1 i.
432 CAPÍTULO 17. PROPIEDADES GENERALES DE LOS SISTEMAS DE DOS ESTADOS
17.2.3. Efecto de un acople fuerte sobre los niveles de energı́a y estados estacionarios
El acople fuerte se caracteriza por |∆| ≪ |W21 |. La Fig. 17.1 nos muestra que este lı́mite corresponde al
comportamiento de las energı́as alrededor de ∆ = 0. En particular, si tomamos ∆ = 0 el acople se considera fuerte
para cualquier valor no nulo de W21 . En el lı́mite E1 = E2 i.e. ∆ = 0, las Ecs. (17.12) quedan en la forma
E± = Em ± |W21 | (17.19)
y vemos entonces que el efecto del acople es más mucho más importante cuando los dos niveles no perturbados
tienen la misma energı́a (por ejemplo por degeneración). Las Ecs. (17.19) muestran que este efecto es de primer
orden, en tanto que en el lı́mite de acople débil el efecto es de segundo orden como se aprecia en la Ec. (17.16).
Cuando ∆ = 0 vemos de (17.12) que θ = π/2 y los autoestados (17.6, 17.7) quedan
π −iϕ/2 π π π
|ψ+ i = cos e |ϕ1 i + sin eiϕ/2 |ϕ2 i ; |ψ− i = − sin e−iϕ/2 |ϕ1 i + cos eiϕ/2 |ϕ2 i (17.20)
4 4 4 4
1 h −iϕ/2 i 1 h i
|ψ+ i = √ e |ϕ1 i + eiϕ/2 |ϕ2 i ; |ψ− i = √ −e−iϕ/2 |ϕ1 i + eiϕ/2 |ϕ2 i (17.21)
2 2
de modo que en el lı́mite de acople fuerte, los estados |ψ± i difieren radicalmente de |ϕ1,2 i como se esperaba. Vemos
que |ψ± i son superposiciones de |ϕ1 i y |ϕ2 i con coeficientes del mismo módulo. Podemos decir que |ψ± i son estados
de “máxima mezcla” de los estados |ϕ1 i y |ϕ2 i.
17.3. Evolución temporal del vector de estado: oscilación del sistema entre
dos estados sin perturbar
La evolución del estado |ψ (t)i del sistema de dos estados está governada por la ecuación de Schrödinger
d
i~ |ψ (t)i = (H0 + W ) |ψ (t)i (17.22)
dt
y dado que |ψ (t)i es una superposición de los estados |ϕ1 i y |ϕ2 i para todo tiempo tenemos que
insertando la expansión (17.23) en la ecuación de Schrödinger (17.22), aplicando el bra hϕ1 | y usando la Ec. (17.4)
con W11 = W22 = 0, resulta
d
i~ hϕ1 | [a1 (t) |ϕ1 i + a2 (t) |ϕ2 i] = hϕ1 | (H0 + W ) [a1 (t) |ϕ1 i + a2 (t) |ϕ2 i]
dt
d
i~ [a1 (t) hϕ1 |ϕ1 i + a2 (t) hϕ1 |ϕ2 i] = a1 (t) hϕ1 | (H0 + W ) |ϕ1 i + a2 (t) hϕ1 | (H0 + W ) |ϕ2 i
dt
d
i~ a1 (t) = a1 (t) (E1 + W11 ) + a2 (t) [E2 hϕ1 |ϕ2 i + W12 ]
dt
d
i~ a1 (t) = E1 a1 (t) + W12 a2 (t)
dt
donde hemos asumido que H0 es conservativo y por tanto |ϕ1 i es independiente del tiempo. Un procedimiento
similar aplicando el bra hϕ2 | nos lleva a las ecuaciones
d
i~ a1 (t) = E1 a1 (t) + W12 a2 (t) (17.24)
dt
d
i~ a2 (t) = W21 a1 (t) + E2 a2 (t) (17.25)
dt
17.3. EVOLUCIÓN DEL VECTOR DE ESTADO: OSCILACIÓN ENTRE DOS ESTADOS 433
θ θ θ θ
hϕ2 |ψ+ i = cos e−iϕ/2 hϕ2 |ϕ1 i + sin eiϕ/2 hϕ2 |ϕ2 i ; hϕ2 |ψ− i = − sin e−iϕ/2 hϕ2 |ϕ1 i + cos eiϕ/2 hϕ2 |ϕ2 i
2 2 2 2
θ iϕ/2 θ iϕ/2
hϕ2 |ψ+ i = sin e ; hϕ2 |ψ− i = cos e (17.32)
2 2
reemplazando (17.32) en (17.31), la probabilidad de encontrar al sistema en el tiempo t en |ϕ2 i queda
2
iϕ/2
θ −iE+ t/~ θ iϕ/2 θ −iE− t/~ θ iϕ/2 2
P12 (t) = |hϕ2 |ψ (t)i| = e cos e sin e − sin e cos e
2 2 2 2
iϕ h
i2 1 2
e 2 −iE+ t/~ −iE− t/~
= sin θ e−iE+ t/~
− sin θ e−iE− t/~
= sin θ e − e
2 4
1 1 h i
P12 (t) = sin2 θ e−iE+ t/~ − e−iE− t/~ eiE+ t/~ − eiE− t/~ = sin2 θ 1 − e−i(E+ −E− )t/~ − ei(E+ −E− )t/~ + 1
4 4
1 n h io 1 (E+ − E− ) t
2 −i(E+ −E− )t/~ i(E+ −E− )t/~ 2
= sin θ 2 − e +e = sin θ 2 − 2 cos
4 4 ~
reemplazando las Ecs. (17.34, 17.9) en la Ec. (17.33) podemos escribir P12 en términos de los elementos matriciales
Wij y de las energı́as no perturbadas E1 y E2
q
4 |W21 | 2 4 |W12 |2 + (E1 − E2 )2
P12 (t) = sin2 t (17.35)
(E1 − E2 )2 + 4 |W21 |2 2~
E+ − E− 2 |W21 |
∆=0 ⇒ = , sin2 θ = 1
h h
17.3. EVOLUCIÓN DEL VECTOR DE ESTADO: OSCILACIÓN ENTRE DOS ESTADOS 435
de modo que en un tiempo tk = (2k+1)π~ 2|W21 | el sistema (cuyo estado inicial es |ϕ1 i) estará en el estado |ϕ2 i . En
consecuencia, todo acople entre dos estados de igual energı́a hace que el sistema oscile completamente de un
estado a otro con una frecuencia proporcional al acople.
Nótese que este fenómeno es análogo al que ocurre con dos péndulos acoplados de la misma frecuencia natural.
Si el péndulo 1 se desplaza dejando fijo al péndulo 2, el primero comienza a oscilar pero su oscilación disminuye
en tanto que va aumentando la del péndulo 2 hasta que se llega a la condición opuesta para un cierto tiempo, en
el cual el péndulo 2 oscila y el péndulo 1 está instantáneamente en reposo. Luego comienza la transferencia de
energı́a al péndulo 1 de nuevo y ası́ sucesivamente. Similarmente, cuando aumenta el acople (constante del resorte
que acopla a los péndulos), disminuye el tiempo de transferencia.
Por otro lado, cuando ∆ ≡ E1 − E2 aumenta, la frecuencia (E+ − E− ) /h también aumenta (ver Ecs. 17.13,
17.14) en tanto que sin2 θ disminuye como se aprecia en la Ec. (17.34). Para un acople débil |∆| = |E1 − E2 | ≫
|W21 |, se observa de las Ecs. (17.13, 17.14) que el desdoblamiento E+ − E− de los niveles perturbados solo difiere
ligeramente del desdoblamiento ∆ de los estados no perturbados. Se puede ver también de la Ec. (17.34) que la
cantidad sin2 θ es muy pequeña en tal lı́mite. Esto es de esperarse ya que en el lı́mite de acople débil |ψ+ i es muy
similar a |ϕ1 i, con lo cual el sistema estarı́a en t = 0 en un estado cuasi-estacionario.
Capı́tulo 18
Un experimento tı́pico de dispersión (scattering) consiste en un haz de partı́culas que se utilizan como proyecti-
les (usualmente en un acelerador) y se proyectan sobre un blanco (otro conjunto de partı́culas) que con frecuencia
está en reposo en el sistema de referencia de laboratorio1 . Este tipo de experimentos se realizan usualmente con
alguno de estos objetivos: (a) Caracterizar la interacción que hay entre los proyectiles y el blanco, ó (b) Conociendo
el tipo de interacción entre el proyectil y el blanco, obtener información sobre la distribución de masa del blan-
co. Cualquiera de estos objetivos se realiza midiendo la desviación del haz de proyectiles después de interactuar
con el blanco. Primero describiremos brevemente el escenario clásico de la teorı́a de la dispersión, puesto que los
conceptos básicos son más fáciles de construı́r y asimilar en un escenario clásico. Para posteriormente mostrar la
imagen cuántica del fenómeno.
En un experimento real no utilizamos un solo proyectil ni un solo blanco, sino un haz de partı́culas incidentes
sobre una serie de blancos. A manera de ejemplo, en el experimento de Rutherford se utilizaron como proyectiles
1
En muchos experimentos reales con aceleradores de partı́culas, no hay un blanco fijo con respecto al laboratorio, sino que se ponen
a colisionar dos haces que se aproximan frontalmente. Esto se hace con el fin de aumentar la energı́a cinética total de la colisión. Sin
embargo, si los haces no presentan mucha dispersión en sus velocidades, siempre es posible pasar a un sistema de referencia en el cual
las partı́culas de uno de los haces están en reposo.
436
18.1. TEORÍA CLÁSICA DE LA DISPERSIÓN 437
Figura 18.1: Ilustración del parámetro de impacto b y del ángulo de dispersión θ, en el problema clásico de la
dispersión.
un haz de partı́culas α (núcleos de He4 ) emitidos en un decaimiento radiactivo. Por otro lado, los blancos eran
átomos de oro en forma de una delgada lámina de dicho elemento. La distribución angular de las partı́culas
α, dió una evidencia clara de que la carga positiva del átomo de oro estaba concentrada en un núcleo donde
se encontraba casi toda la masa de dicho átomo. En el caso del experimento de Rutherford, el objetivo era
caracterizar la distribución de masa de los blancos asumiendo conocida la interacción entre los proyectiles y los
blancos (interacción de Coulomb).
Es claro que la deflexión de la partı́cula va a depender tanto de la energı́a E como del parámetro de impacto
b. Adicionalmente, puesto que no tenemos un solo proyectil, es importante caracterizar la intensidad (también
denominada luminosidad o flujo) del haz incidente i.e. la cantidad de partı́culas por unidad de área por unidad de
tiempo que cruzan un área perpendicular a la dirección de propagación del haz. Recordemos que por convención,
la dirección de propagación incidente es uz . Puesto que el haz posee un tamaño o ancho, tendremos proyectiles con
diferentes parámetros de impacto (incluso si todos se preparan con la misma energı́a) y por tanto no tendremos
un ángulo especı́fico de dispersión, sino más bien una distribución angular que se debe medir con algún detector.
El detector de las partı́culas salientes debe estar ubicado a una distancia suficientemente lejana para que se pueda
considerar que está en la región asintótica saliente (lejos de la región de colisión).
Nótese que un haz muy intenso producirı́a dispersión debida a la interacción entre los proyectiles, incluso en
las “regiones asintóticas” incidente y saliente. Esto es indeseable para la mayoria de experimentos en donde se
pretende caracterizar solo la interacción proyectil-blanco. Por otro lado, haces de muy baja intensidad producirán
una estadı́stica muy pobre debido al bajo número de eventos detectados. Esto puede compensarse usando haces
de baja intensidad enviando una serie de haces en tiempos prolongados, a fin de mantener baja la interacción
entre los proyectiles y al mismo tiempo acumular la estadı́stica suficiente. Esto implica retos experimentales que
no trataremos aquı́.
La Fig. 18.2, muestra que las partı́culas incidentes dentro de un “parche” infinitesimal de área transversal dσ,
se dispersarán en un ángulo sólido infinitesimal asociado dΩ centrado alrededor de cierta dirección Ω ≡ (θ, ϕ).
438 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
Figura 18.2: Las partı́culas que inciden en el área dσ, se dispersan dentro del ángulo sólido dΩ centrado en la
dirección (θ, ϕ).
A mayor dσ le corresponderá un mayor ángulo sólido dΩ, al factor de proporcionalidad entre ambos D (Ω) se le
conoce como la sección eficaz diferencial2 en la dirección Ω ≡ (θ, ϕ)
dσ
dσ ≡ D (Ω) dΩ ; D (Ω) ≡ (18.1)
dΩ
Adicionalmente, si dn es el número de partı́culas que cruza el área dσ por unidad de tiempo, por definición de
intensidad se tiene que
dn
I≡ ⇒ dn = I dσ
dσ
por lo tanto, la sección eficaz diferencial se puede definir como el factor de proporcionalidad que conecta a dn con
la intensidad del haz y el ángulo sólido dΩ (centrado en la dirección Ω ≡ (θ, ϕ)) asociado a dn y dσ
dn
dn = I dσ = I D (Ω) dΩ ⇒ D (Ω) dΩ ≡ (18.2)
I
en palabras decimos que
La definición (18.3) implica que se tiene en cuenta solo las partı́culas que se deflectan. El flujo de estas partı́culas
al alcanzar el detector D es inversamente proporcional al cuadrado de la distancia entre el detector y el centro
dispersor, ya que el detector (centrado en una dirección dada (θ, ϕ)) tiene una superficie fija y por tanto el ángulo
sólido ∆Ω que subtendiende con respecto a O, disminuye con la distancia al blanco como r −2 . En la práctica, el
ancho del haz está acotado lateralmente, pero este ancho suele extenderse más allá de la región de influencia de
2
El término sección eficaz diferencial no es muy apropiado, puesto que D (Ω) definido en (18.3) no es una cantidad diferencial
(infinitesimal) sino finita. Es una derivada mas no un diferencial.
18.2. DIFERENTES TIPOS DE COLISIONES 439
la interacción, es decir que en los “bordes exteriores” del haz, no hay una interacción considerable con el blanco y
no hay deflexión de los proyectiles. Sin embargo, el detector suele estar fuera de la trayectoria de estas partı́culas
que no se deflectan, de modo que solo recibe partı́culas deflectadas. Con este arreglo experimental, no es posible
medir la sección eficaz en la dirección frontal (θ = 0) ya que a ella contribuyen las partı́culas con parámetro de
impacto cero o muy grande (al menos para potenciales con simetrı́a esférica). Usualmente la sección eficaz frontal,
se obtiene por extrapolación de los valores de D (θ, ϕ) para valores pequeños de θ.
Por otro lado, de la Fig. 18.2 vemos que el diferencial de área dσ viene dado por
dσ = b |db| dϕ
siendo ϕ el ángulo azimutal (ya explicaremos la razón para introducir el valor absoluto de db), y puesto que el
diferencial del ángulo sólido es dΩ = sin θ dθ dϕ, la Ec. (18.1) nos da3
b db
D (Ω) = (18.4)
sin θ dθ
nótese que D (Ω) puede depender de θ y ϕ si el parámetro de impacto es función de θ y ϕ. En la expresión (18.4) se
ha colocado un valor absoluto debido a que b es tı́picamente una función decreciente de θ y por tanto, la derivada
es tı́picamente negativa.
Definiremos además la sección eficaz total en la forma
Z
σ≡ D (Ω) dΩ
Ω
dicho en términos muy generales, σ corresponde al área total del haz incidente que es dispersada por el blanco.
e− e+ → µ− µ+ (18.5)
en esta colisión cambia la naturaleza de las partı́culas salientes. Nótese que el producto final es de partı́culas mucho
más masivas, que se pueden crear a expensas de la energı́a cinética de las partı́culas incidentes. También existen
en Fı́sica de partı́culas los decaimientos, en los cuales una partı́cula se fragmenta en dos o más. Por ejemplo, un
muón µ− puede decaer en dos electrones y un positrón
µ− → e− e− e+ (18.6)
en particular es posible que se dé el proceso (18.5) y el muón resultante decaiga como en (18.6) resultando
e− e+ → µ− µ+ → e− e− e+ µ+
3
Para construı́r dΩ, los diferenciales dϕ y dθ se definen positivos.
440 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
en esta colisión cambió tanto el número de partı́culas como su naturaleza. Este tipo de colisiones las llamamos
genéricamente reacciones. En la dispersión o scattering el estado final y el inicial están compuestos de las mismas
partı́culas en número y en identidad. Nos limitaremos a este tipo de reacciones. Sin embargo, el concepto de
sección eficaz puede extrapolarse a reacciones generales.
Normalmente denominamos dispersión o scattering a aquellas colisiones en las cuales el número y la identidad
de las partı́culas se conserva. Si además se conserva la energı́a cinética total, es decir si no hay cambios en la
energı́a interna de las partı́culas, decimos que la dispersión es elástica. En el presente contexto nos limitaremos a
estudiar el fenómeno de la dispersión elástica.
Figura 18.3: Dispersión de una masa puntual por una esfera rı́gida. El ángulo de incidencia α, coincide con el
ángulo de reflexión.
Esta dispersión puede simular la colisión elástica de una esfera rı́gida de masa m y radio r como proyectil,
que choca con otra esfera rı́gida en reposo de masa M ≫ m y de radio R ≫ r. Podemos por simplicidad tratar
el proyectil como puntual, y considerar que el blanco no recula en el choque. Si la colisión es elástica el ángulo
de incidencia α es igual al ángulo de reflexión (medidos con respecto a la normal a la superficie del blanco) como
se vé en la Fig. 18.3. Siendo θ el ángulo de dispersión y b el parámetro de impacto, de la Fig. 18.3 son claras las
relaciones
nótese que para definir b como función de θ asignamos únicamente el valor b = R para θ = 0. Tenemos entonces
que
db 1 θ
= − R sin (18.8)
dθ 2 2
puesto que θ está entre cero y π, la derivada (18.8) es negativa como se anticipó. Sustituyendo (18.7) y (18.8) en
la Ec. (18.4) nos queda
θ θ
R cos θ2 1 2
− R sin θ = R cos 2 sin 2 R2 sin2 θ
D (θ) = 2 =
sin θ 2 2 sin θ 2 sin θ
R2
D (θ) =
4
en este caso la sección eficaz diferencial es independiente de θ. La sección eficaz total estará dada por
Z Z
R2
σ= D (Ω) dΩ = dΩ = πR2 (18.9)
Ω 4 Ω
habı́amos dicho que en términos muy generales, σ corresponde al área total del haz incidente que es dispersada
por el blanco. Efectivamente, en este caso σ es el área transversal del blanco y solo proyectiles que incidan dentro
de este área golpearán el blanco y se dispersarán, los que vengan fuera de este área (b > R) no se dispersan en lo
absoluto.
El lector puede verificar que si consideramos el tamaño del proyectil, definiendo R1 y R2 como los radios del
blanco y el proyectil respectivamente, la sección eficaz diferencial toma la forma
(R1 + R2 )2
D (θ) = ; σ = π (R1 + R2 )2
4
donde vemos que la expresión para D (θ) es simétrica con respecto a los radios del proyectil y el blanco (ver por
ejemplo la Ref. [6], Sec. 9.9).
q1 q2 θ
b= cot (18.10)
8πǫ0 E 2
al integrar sobre el ángulo sólido, puede verse que la sección eficaz total es infinita. Esto se debe a que la interacción
coulombiana es de alcance infinito, de modo que para un haz de cualquier área transversal todas sus partı́culas
son dispersadas.
El cálculo de las ecuaciones (18.10, 18.11) es extenso y el lector lo puede consultar en cualquier texto de
mecánica clásica (ver por ejemplo la Ref. [6], Sec. 9.10).
4
Esta es la situación por ejemplo, cuando los proyectiles son electrones y los blancos son núcleos.
442 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
1. Supondremos que las partı́culas (1) y (2) no poseen espı́n. Esto simplificará considerablemente el problema.
Sin embargo, en un escenario cuántico realista el espı́n juega un papel muy importante en la dispersión.
2. Asumiremos que el blanco es lo suficientemente delgado para que no ocurra dispersión múltiple. Es decir
procesos en los que una partı́cula incidente se dispersa varias veces antes de abandonar la región de colisión.
Por ejemplo, en el experimento de Rutherford (estrictamente, de Geiger y Marsden 1909), la lámina de oro
poseı́a un espesor de unos 10−4 cm. El número promedio de átomos atravesados por la partı́cula α, está
aproximadamente dado por el espesor de la lámina dividido por el diámetro de un átomo (∼ 10−8 cm). Es
decir que el proyectil atraviesa unos 104 átomos de oro, de modo que es de esperarse que existan dispersiones
múltiples. Estas dispersiones múltiples requieren un tratamiento estadı́stico que no estudiaremos aquı́.
3. Ignoraremos la posibilidad de coherencia entre las ondas dispersadas por las diferentes partı́culas que cons-
tituyen el blanco. Esta aproximación se justifica si el ancho del paquete asociado a las partı́culas (1) es
pequeño comparado con la distancia promedio entre las partı́culas (2). De modo que solo tendremos en
cuenta procesos de dispersión de una partı́cula (1) del haz por una partı́cula (2) del blanco. Cuando estas
coherencias son despreciadas, el flujo de partı́culas detectadas es la suma de los flujos dispersados por cada
una de las N partı́culas del blanco. Es decir N veces el flujo dispersado por cualquiera de las partı́culas del
blanco. Nótese que la posición del proyectil dentro del blanco no es relevante siempre y cuando las dimensio-
nes del blanco y de la región de colisión sean mucho menores que la distancia entre el blanco y el detector.
Esta condición asintótica de hecho es fundamental en los experimentos de dispersión. Esta aproximación
excluye por ejemplo el scattering coherente de electrones en un cristal (que forma los patrones de difracción
de Bragg)5 .
4. Supondremos que la interacción entre proyectiles (1) y blancos (2) se describe mediante un potencial
V (r) ≡ V (r1 − r2 ) que depende solo de la posición relativa r entre las partı́culas proyectil y blanco. No
consideraremos la interacción entre proyectiles o entre blancos. Como se vió en las secciones 12.1, 12.2, en
el sistema de referencia centro de masa, este problema se reduce al estudio de la dispersión de una partı́cula
sometida a un potencial V (r) de masa
m1 m2
µ=
(m1 + m2 )
si asumimos que el blanco no recula, podemos asumir que el sistema de referencia del laboratorio y el del
centro de masa son aproximadamente iguales.
5
En la difracción de Bragg, las dimensiones tı́picas de la onda (longitud de onda), son comparables a la distancia promedio entre
los blancos (distancias interatómicas en el cristal), de lo cual surge el fenómeno de la difracción.
18.5. ESTADOS ESTACIONARIOS DE DISPERSIÓN 443
P2
H = H0 + V (r) = + V (r)
2µ
estrictamente, basaremos nuestros razonamientos en el comportamiento de las soluciones estacionarias en lugar de
los paquetes de ondas. Esta forma de razonamiento fué la que se utilizó en las secciones 3.4-3.8, para potenciales
“rectangulares” en una dimensión, y consistió en considerar el flujo estacionario de probabilidad asociado al estado
estacionario, para estudiar las corrientes de probabilidad que genera. Aunque este tratamiento no es riguroso,
es posible probar que se obtienen los mismo resultados que en el caso más realista en el cual se estudia el
comportamiento del paquete de onda completo6 .
Puesto que el potencial V (r) no depende explı́citamente del tiempo, existe un conjunto de soluciones ψ (r, t)
de la ecuación de Schrödinger, que admite separación de variables [ver sección 3.2, Ecs. (3.15, 3.16) Pág. 159], en
la forma
ψ (r, t) = η (r) e−iEt/~ (18.12)
donde η (r) es la solución de la ecuación de valores propios
~ 2
− ∇ + V (r) η (r) = Eη (r) (18.13)
2µ
además los estados estacionarios (18.12) describen un autoestado de energı́a E. Asumiremos que el potencial
decrece más rápido que 1/r. Por tanto, la interacción tipo Coulomb debe tratarse por aparte. Puesto que la colisión
es elástica y los estados que consideraremos son de energı́a bien definida, tenemos que la energı́a se conserva y es
igual a la energı́a de la partı́cula incidente, la cual es puramente cinética. En consecuencia, estaremos interesados
solo en las soluciones de energı́a positiva de (18.13), asociadas a partı́cula libre
~2 k2
E= (18.14)
2µ
redefiniendo el potencial en la forma
~2
V (r) = U (r) (18.15)
2µ
podemos reescribir la Ec. (18.13) en términos del número de onda k
2
∇ + k2 − U (r) η (r) = 0 (18.16)
Para un valor fijo de k (i.e. de la energı́a), hay infinitas soluciones linealmente independientes para la Ec. (18.16), es
decir cada valor positivo de la energı́a está infinitamente degenerado7 . Debemos entonces seleccionar las soluciones
que satisfagan las condiciones fı́sicas del problema en cuestión. Este fué el procedimiento que se siguió en las
secciones 3.4-3.8. A manera de ejemplo, en la sección 3.6 se supone que la onda reflejada solo surge en la interfase
6
Una demostración de este hecho para el scattering de una partı́cula en un potencial unidimensional particular, se puede encontrar
en el complemento JI del Volumen 1 de la Ref. [4].
7
Adicionalmente, puesto que el problema es no acotado, el espectro es a priori contı́nuo.
444 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
entre las dos regiones y por tanto, la solución estacionaria en la región II consta solo de una onda transmitida,
esto nos lleva a su vez a la condición descrita por la Ec. (3.63), Pág. 171. En el presente contexto la determinación
de las soluciones fı́sicas será más compleja debido a que es un problema tridimensional y además el potencial
es en principio arbitrario. A pesar de que usaremos soluciones estacionarias, utilizaremos algunas condiciones
asociadas a las propiedades de los paquetes de onda. Los estados estacionarios que surjan cuando se impongan
estas condiciones en las soluciones de la Ec. (18.16) se denominarán estados estacionarios de dispersión, y su
función de onda espacial se denotará por ηk (r).
Para valores negativos grandes de t, el paquete de onda está en sus condiciones iniciales. Lo usual es preparar
el proyectil en un estado bien definido de momento, es decir una onda plana. Por tanto, en t → −∞, el estado
estacionario η (r) que buscamos debe contener una onda incidente con momento bien definido que se propaga en
dirección Z, i.e. eikz . Cuando el paquete se aproxima a la región de dispersión, se deforma de una manera en
general compleja y que depende de la forma especı́fica del potencial. Sin embargo, para t → ∞, el paquete se ha
alejado bastante de la región de dispersión y por tanto su perfil se simplifica de nuevo. El paquete saliente debe
poseer una onda eikz que continúa propagándose en la dirección positiva de Z (como si no existiera potencial), y un
paquete dispersado por el potencial. Por tanto, el paquete de onda completo (al menos en las regiones asintóticas)
que representa a la solución estacionaria de dispersión para una energı́a dada E = ~2 k2 /2µ, será la superposición
de una onda plana y una onda dispersada
(k) (k)
lı́m ηk (r) → ηinc (r) + ηsc (r) = Ceikz + ηsc
(k)
(r) (18.17)
r→∞
(k) (k)
donde ηinc (r), ηsc (r) representan la onda incidente y dispersada respectivamente. Puesto que esta solución es
(k)
válida solo en las regiones asintóticas en donde el proyectil es libre, entonces ηsc (r) es solución de la ecuación
(18.13)8 pero con V (r) = 0. Realizaremos un ansatz de separación de variables similar al de las Ecs. (12.33, 12.36),
Pág. 351
(k) uk (r)
ηsc (r) = fk (θ, ϕ) Rk (r) ≡ fk (θ, ϕ) (18.18)
r
la Ec. (18.13) en coordenadas esféricas está dada por la Ec. (12.31) Pág. 350
~2 ∂ 2 L2
− r+ + V (r) η (r, θ, ϕ) = E η (r, θ, ϕ) (18.19)
2µr ∂r 2 2µr 2
insertando el ansatz (18.18) en (18.19), se obtiene
~2 ∂ 2 L2
− r+ + V (r) fk (θ, ϕ) Rk (r) = E fk (θ, ϕ) Rk (r)
2µr ∂r 2 2µr 2
~2 ∂ 2 L2 fk (θ, ϕ)
fk (θ, ϕ) − r + V (r) R k (r) + Rk (r) = E fk (θ, ϕ) Rk (r)
2µr ∂r 2 2µr 2
~2 ∂ 2 Rk (r) L2 fk (θ, ϕ)
− r + V (r) Rk (r) + = E Rk (r) (18.20)
2µr ∂r 2 2µr 2 fk (θ, ϕ)
y teniendo en cuenta que L2 es un operador diferencial que solo involucra a los ángulos, podemos definir una
función angular
L2 fk (θ, ϕ)
Hk (θ, ϕ) ≡ (18.21)
fk (θ, ϕ)
con lo cual la Ec. (18.20) queda
~2 ∂ 2 Hk (θ, ϕ)
− r + V (r) + Rk (r) = E Rk (r)
2µr ∂r 2 2µr 2
8
Naturalmente, la solución completa de la ecuación (18.13) con V (r) = 0, debe ser (18.17). Pero dado que Ceikz ya es solución y
puesto que esta ecuación es lineal, se deduce que cada sumando en (18.17) es solución de la Ec. (18.13) con V (r) = 0.
18.5. ESTADOS ESTACIONARIOS DE DISPERSIÓN 445
haciendo V (r) = 0 (ya que estamos buscando la solución en la región asintótica), y escribiendo Rk (r) = uk (r) /r,
con un procedimiento similar al usado para llegar de la Ec. (12.35) a la Ec. (12.37) obtenemos9
2 2
~ d Hk (θ, ϕ)
− + uk (r) = Ek uk (r) (18.22)
2µ dr 2 2µr 2
ahora, puesto que las soluciones que buscamos son para r → ∞, despreciaremos el término proporcional a 1/r 2 ,
de modo que buscaremos la solución de la ecuación
~2 d2 uk (r)
− = Ek uk (r) (18.23)
2µ dr 2
de la Ec. (18.14) vemos que esta k corresponde efectivamente al número de onda asociado a partı́cula libre. Teniendo
en cuenta que la solución completa debe tener el término temporal e−iEt/~ , dicha solución es una superposición
Et
de los dos términos ei(±kr− ~ ) . Ahora bien, el estado asintótico saliente debe mantener fase constante, por tanto
el término ±kr − Et/~ debe permanecer acotado para r → +∞ y t → +∞ (es claro que cuando el tiempo crece la
distancia r al origen también crece), pero esto solo es posible eligiendo el término con signo positivo (el término
con signo negativo claramente tiende a −∞ cuando el tiempo crece). En consecuencia, solo la parte con eikr
corresponde a la onda dispersada. Las condiciones fı́sicas nos llevan entonces a
r
2µE
uk (r) = Aeikr ; k≡ (18.25)
~2
donde el factor A de la Ec. (18.25) se absorbió en la función angular fk (θ, ϕ). Nótese que a pesar de la simetrı́a
esférica del potencial puede aparecer una dependencia angular en la función de onda estacionaria de dispersión,
debido a que la dirección del haz rompe la simetrı́a esférica del potencial, reduciéndola a una simetrı́a cilı́ndrica.
No obstante, de la simetrı́a cilı́ndrica remanente se espera que la dependencia angular sea solo en θ, pero no en el
ángulo azimutal ϕ. Si adicionalmente el potencial no es central, también se rompe la simetrı́a cilı́ndrica y esperamos
que haya dependencia con el ángulo azimutal ϕ. De hecho la función fk (θ, ϕ) conocida como la amplitud de
dispersión es la única en la Ec. (18.26) que depende de la forma especı́fica del potencial. La Fig. 18.4 muestra
las ondas planas incidentes, ası́ como las ondas esféricas salientes o dispersadas.
Figura 18.4: Dispersión elástica de ondas planas incidentes por un potencial central. La figura ilustra las ondas
planas incidentes y las ondas esféricas dispersadas o salientes.
ψ (r, t) escrito en términos de las soluciones estacionarias fı́sicas ψk (r, t) (autoestados del Hamiltoniano total H)10
Z ∞ Z ∞
lı́m ψ (r, t) → dk g (k) ψk (r, t) = dk g (k) ηk (r) e−iEk t/~ (18.27)
r→∞ 0 0
Z ∞ Z ∞
eikr −iEk t/~ ~2 k2
lı́m ψ (r, t) → dk g (k) eikz e−iEk t/~
+ dk g (k) fk (θ, ϕ) e ; Ek = (18.28)
r→∞ 0 0 r 2µ
para que estas sean soluciones válidas en ambos regı́menes asintóticos (t → ∞ y t → −∞) es necesario probar que
la onda dispersada tiende a cero para valores grandes de −t, ya que en el régimen incidente la onda todavı́a no se ha
dispersado con el potencial11 . Tomaremos como hipótesis que la función g (k) es real, con un pico muy pronunciado
alrededor de k = k0 y simétrica alrededor de este punto. Es decir que la mayor parte de la contribución está en una
región muy cercana a k = k0 . La posición del máximo de cada paquete se puede calcular utilizando la condición
de fase estacionaria discutida en las secciones 2.11.2, 2.1312 . Para el paquete de ondas planas la condición de fase
estacionaria nos dice que el máximo del paquete está ubicado en
~k0
zM (t) = vG t ; vG = (18.29)
µ
10
Nótese que en este caso, hemos escrito el paquete en términos de autoestados de H en lugar de ondas planas. Con respecto a tales
estados, incluso la onda plana pura incidente es “policromática”.
11
Aquı́ hemos despreciado una posible dispersión en la orientación del vector de onda k. Es decir, hemos supuesto que la onda
incidente va en dirección uz perfectamente definida, y toda la dispersión se la endilgamos al módulo de k, o equivalentemente a la
energı́a incidente.
12
Ver en particular las discusiones alrededor de las Ecs. (2.64, 2.83) Págs. 140, 149 respectivamente.
18.5. ESTADOS ESTACIONARIOS DE DISPERSIÓN 447
en tanto que para el paquete de ondas dispersadas, dicho máximo en la dirección (θ, ϕ) se ubica a una distancia
del origen dada por
dαk (θ, ϕ)
rM (θ, ϕ, t) = − + vG t ; fk (θ, ϕ) = |fk (θ, ϕ)| eiαk (θ,ϕ) (18.30)
dk k=k0
es importante tener presente que las Ecs. (18.29, 18.30) solo son válidas para valores grandes de |t|. De la Ec.
(18.30) se observa que para valores grandes de −t, necesariamente estamos muy lejos de la condición de máximo
para r, ya que tal ecuación muestra que para lograr una interferencia constructiva que nos conduzca a un máximo
del paquete de ondas dispersadas en t → −∞, requerirı́amos valores negativos de r los cuales están fuera del
dominio de la coordenada r. Por tanto, el paquete de onda (18.28) es tal que para t → −∞ solo contribuyen las
ondas planas incidentes, y de acuerdo con la Ec. (18.29), el máximo del paquete está ubicado en zM → −∞ como
debe ser. En cambio, para valores grandes positivos de t podemos encontrar máximos tanto en el paquete de ondas
planas como en el paquete de ondas dispersadas (naturalmente, ambos máximos no necesariamente coinciden en
el tiempo, y por tanto el máximo de la suma podrı́a estar a su vez en otro tiempo), mostrando que en el régimen
asintótico saliente ambas ondas son relevantes como esperábamos.
Asumiendo que g (k) es aproximadamente gaussiano, podemos suponer (aproximadamente) paquetes de mı́nima
incertidumbre. Por tanto, la extensión espacial ∆z del paquete de ondas (18.27) está relacionada con la dispersión
del momento p = ~k en la forma
1
∆z ∆p ≃ ~ ⇒ ∆z ≃
∆k
hemos hecho la hipótesis de que g (k) es una distribución muy “aguda” i.e. ∆k muy pequeño. De hecho asumiremos
que ∆k es lo suficientemente pequeño13 para que ∆z sea mucho mayor que las dimensiones lineales de la región de
dispersión14 . Bajo estas condiciones, el paquete de onda que se mueve a una velocidad vG hacia el origen, cruzará
la región de dispersión en un tiempo
∆z 1
∆T ≃ ≃ (18.31)
vG vG ∆k
es razonable tomar este como un “tiempo caracterı́stico de dispersión”15 . Si definimos t = 0 cuando el paquete
de ondas cruza el origen, podemos decir que existe onda dispersada para t & −∆T /2 que es cuando el extremo
frontal del paquete incidente ha llegado a la región de influencia del potencial. Para t = 0, la parte más distante
al origen del paquete dispersado está a una distancia del orden de ∆z/2.
Cualitativamente, este problema se asemeja al siguiente: supongamos un potencial de la forma V (r) f (t), en
el cual f (t) se incrementa lentamente desde 0 hasta 1 en el intervalo [−∆T /2, 0], y el potencial es cero para
t < −∆T /2. Supongamos que la partı́cula está descrita por una onda plana en todo el espacio. La onda plana se
empieza a modificar para t & ∆T /2, y se puede demostrar que la dispersión en t = 0 se asemeja a la de nuestro
problema.
En nuestro problema tenemos dispersión por un potencial constante en el tiempo y la amplitud del paquete se
incrementa gradualmente entre −∆T /2 y cero. En el problema análogo, la onda plana es de amplitud constante
y lo que se aumenta gradualmente en el intervalo [−∆T /2, 0] es el módulo del potencial.
Esta analogı́a es particularmente interesante cuando examinamos el lı́mite con ∆k → 0, de manera que g (k) →
δ (k − k0 ). En este lı́mite, la descripción de nuestro problema por estados estacionarios se vuelve exacta. Por otro
lado, la Ec. (18.31) nos dice que en este lı́mite ∆T → ∞, y el comportamiento análogo del potencial dependiente
del tiempo corresponderá a que el “encendido” del potencial sea infinitamente lento i.e. “adiabático”. Por esta
13
Puesto que las condiciones iniciales experimentales suelen ser preparar casi un autoestado de momento, esta suposición es muy
razonable si los coeficientes g (k) no cambian mucho en el tiempo.
14
Esto no necesariamente entra en contradicción con nuestra suposición de que el ancho del paquete incidente es pequeño comparado
con la separación promedio entre las partı́culas del blanco (ver Pág. 442). Es plausible que la distancia promedio d entre partı́culas
del blanco sea mucho mayor que la mayor longitud L asociada a la región de dispersión. El ancho ∆z del paquete debe ser tal que
L << ∆z << d, para que nuestros argumentos sean válidos.
15
Esto nos permite definir tiempo grandes y pequeños, el comportamiento asintótico se da entonces para |t| >> ∆T .
448 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
razón, podemos decir que la descripción de la dispersión por medio de estados estacionarios es muy semejante a
la que se obtiene imponiendo un potencial que se modula adiabáticamente sobre una onda plana libre.
puesto que |C|2 es la densidad de probabilidad de la onda incidente y p = ~k, esta corriente tiene la forma ρv, en
(k)
la dirección uz de propagación. Para la onda dispersada tenemos ηsc (r) = fk (θ, ϕ) eikr /r, de modo que debemos
expresar el gradiente en (18.32) en coordenadas esféricas
1 e−ikr ~ eikr
Jsc = Re fk∗ (θ, ϕ) ∇ fk (θ, ϕ)
µ r i r
1 ∗ −ikr ~ eikr
Jsc = Re fk (θ, ϕ) e ∇ fk (θ, ϕ) (18.34)
µr i r
1 ∗ −ikr ~ 1 ∂ eikr 1 ∗ −ikr ~ e
ikr ∂f (θ, ϕ)
k
(Jsc )θ = Re fk (θ, ϕ) e fk (θ, ϕ) = Re fk (θ, ϕ) e
µr i r ∂θ r µr i r2 ∂θ
~ 1 1 ∗ ∂fk (θ, ϕ)
(Jsc )θ = Re f (θ, ϕ) (18.36)
µ r3 i k ∂θ
1 ∗ −ikr ~ 1 ∂ eikr 1 ∗ ~ 1 ∂fk (θ, ϕ)
(Jsc )ϕ = Re fk (θ, ϕ) e fk (θ, ϕ) = Re fk (θ, ϕ)
µr i r sin θ ∂ϕ r µr i r 2 sin θ ∂ϕ
~ 1 1 ∗ ∂fk (θ, ϕ)
(Jsc )ϕ = Re f (θ, ϕ) (18.37)
µ r 3 sin θ i k ∂ϕ
A partir de las Ecs. (18.35, 18.36, 18.37), la densidad de corriente dispersada queda
~k 1
Jsc = (Jsc )r ur + (Jsc )θ uθ + (Jsc )ϕ uϕ ; (Jsc )r = |fk (θ, ϕ)|2 (18.38)
µ r2
~ 1 1 ∗ ∂fk (θ, ϕ) ~ 1 1 ∗ ∂fk (θ, ϕ)
(Jsc )θ = Re f (θ, ϕ) ; (Jsc )ϕ = Re f (θ, ϕ) (18.39)
µ r3 i k ∂θ µ r 3 sin θ i k ∂ϕ
para valores muy grandes de r las componentes angulares son mucho menores que la radial ya que las primeras van
como r −3 y la radial como r −2 . Por tanto en el régimen asintótico saliente, la corriente dispersada es prácticamente
radial
~k 1
lı́m J ≃
r→∞ sc 2
|fk (θ, ϕ)|2 ur (18.40)
t→∞
µ r
Ahora bien, el haz incidente consta de partı́culas independientes ya que hemos despreciado la interacción entre
proyectiles. Puesto que asumimos que todos los proyectiles se preparan en el mismo estado inicial, enviar si-
multáneamente un gran número de estos proyectiles es equivalente a repetir el mismo experimento con una sola
partı́cula un gran número de veces bajo las mismas condiciones iniciales. Si el estado estacionario en el que se
preparan las partı́culas es ηk (r), el flujo de partı́culas incidente kFinc k (número de partı́culas del haz incidente que
cruzan una superficie unidad perpendicular a uz por unidad de tiempo) debe ser proporcional al flujo de probabi-
lidad incidente kJinc k (probabilidad por unidad de área por unidad de tiempo que se propaga en la dirección uz ).
Por supuesto ambos vectores son paralelos (en la dirección de propagación uz de las partı́culas y la probabilidad).
Usando la Ec. (18.33) tenemos
~k
kFinc k = K kJinc k = K |C|2
µ
~k
⇒ Finc = K |C|2 uz (18.41)
µ
ahora bien, si tenemos un detector ubicado a una distancia r del origen, un parche de superficie dS del detector
normal a la dirección ur , subtiende un ángulo sólido dΩ dado por
dS
dΩ =
r2
por otro lado, el número de partı́culas dn que golpeará la superficie dS del detector por unidad de tiempo, es igual
al flujo de partı́culas que atravieza dicha superficie
dn = Fsc · dS = K Jsc · dS
donde hemos usado el hecho de que la constante de proporcionalidad entre flujo de probabilidad y flujo de partı́culas
es universal e independiente del valor de tales flujos. Si suponemos que el detector tiene superficie esférica con
centro en el origen entonces
dS = dS ur = r 2 dΩ ur (18.42)
450 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
y por tanto
~k 1 ~k
dn = K (Jsc )r dS = K |fk (θ, ϕ)|2 r 2 dΩ = K |fk (θ, ϕ)|2 dΩ (18.43)
µ r2 µ
donde hemos usado (18.38, 18.42). Vale decir que incluso si el parche no es un sector esférico, para valores
suficientemente grandes de r podemos usar la aproximación (18.40) y dn serı́a independiente de r. Esta condición
de hecho se debe cumplir en los experimentos. Insertando las Ecs. (18.41, 18.43) en la definición de la sección
eficaz diferencial Ec. (18.2) resulta
~k ~k
dn = kFinc k D (Ω) dΩ ⇒ K |fk (θ, ϕ)|2 dΩ = K |C|2 D (Ω) dΩ
µ µ
de lo cual resulta 2
1
D (Ω) = fk (θ, ϕ) (18.44)
C
de modo que la sección eficaz diferencial es esencialmente el cuadrado del módulo de la amplitud de dispersión.
Nótese que hemos omitido la contribución a la corriente asociada al estado estacionario ηk (r) que proviene
de la interferencia entre la onda plana y la onda dispersada. De hecho la expresión correcta para la densidad de
corriente (18.32) involucra al término estacionario completo y debe escribirse en la forma
1 ∗ ~ 1 ∗ ∗ ~
J (r) = Re η (r) ∇η (r) = Re [ηinc (r) + ηsc (r)] ∇ [ηinc (r) + ηsc (r)] (18.45)
µ i µ i
de modo que en los cálculos hemos omitido los términos de interferencia de la forma
1 ∗ ~ ∗ ~
J (r) = Re ηinc (r) ∇ηsc (r) + ηsc (r) ∇ηinc (r)
µ i i
sin embargo, veremos que esta interferencia solo contribuye en la dirección frontal de dispersión (θ = 0). La
Fig. 18.5 muestra la colisión en términos de paquetes de onda. En esta figura se observa que en la práctica, el
paquete incidente tiene un ancho lateral finito. Inicialmente, el paquete se mueve hacia la región de dispersión (Fig.
18.5.a), después de la colisión tenemos dos paquetes: el paquete de ondas planas que resulta de la propagación
de la onda incidente como si no hubiese potencial dispersor, y el dispersado que se propaga desde el origen en
todas direcciones. En consecuencia, la onda transmitida se forma con la interferencia entre el paquete plano y el
dispersado. Sin embargo como ya se discutió, el detector se coloca fuera de la sección transversal del haz incidente
de modo que no es golpeado por partı́culas transmitidas, por tanto el detector solo observa el paquete de onda
dispersado, por lo cual no se requiere considerar los términos de interferencia entre la onda plana y la dispersada.
La Fig. 18.5b. nos muestra que en la dirección frontal debe tenerse en cuenta tal interferencia, ya que en este caso
ambos paquetes ocupan la misma región del espacio, y la onda transmitida es el resultado de esta interferencia.
Adicionalmente, la amplitud de la onda transmitida debe ser menor que la de la onda incidente por conservación
de la probabilidad total (que se manifiesta en conservación del número de partı́culas). Esto se puede ver teniendo
en cuenta que las partı́culas dispersadas abandonan el haz y por tanto el haz transmitido debe atenuarse con
respecto al incidente. También puede verse como que el flujo de probabilidad incidente se debe repartir en un
flujo transmitido y otro dispersado, de modo que el flujo transmitido debe ser menor al incidente. Debe existir
entonces una interferencia destructiva entre los paquetes plano y dispersado frontalmente, para dar cuenta de la
conservación de la probabilidad i.e. del número total de partı́culas.
Figura 18.5: (a) El frente de onda plano incidente se acerca a la región de dispersión. Se observa que el ancho
lateral del paquete es en la práctica finito. (b) La onda transmitida se forma con la interferencia entre la onda
plana que no se dispersa y la onda dispersada en la dirección frontal. Se observa que tı́picamente el detector se
coloca fuera de la región de la onda transmitida, en una región en la cual solo contribuye la onda dispersada.
se puede resolver alternativamente utilizando la función de Green G (r) asociada a dicha ecuación
∇2 + k2 G (r) = δ (r) (18.47)
en términos eurı́sticos la función de Green asociada al operador ∇2 +k2 , puede verse como una especie de “inverso”
de dicho operador, puesto que la función delta de Dirac actúa como una identidad en el contı́nuo. Sea η0 (r) una
solución de la ecuación homogénea asociada a (18.46)
∇2 + k2 η0 (r) = 0 (18.48)
entonces esta función es solución de la Ec. (18.46). Recı́procamente, puede demostrarse que toda solución de la
Ec. (18.46) debe satisfacer (18.49).
Para ver que la función definida en (18.49) es solución de la Ec. (18.46) aplicaremos el operador ∇2 + k2 a
ambos lados de (18.49) asumiendo que dicho operador puede entrar en la integral. Debe tenerse en cuenta que ∇2
es una derivada con respecto a r pero no con respecto a r′
Z
∇ + k η (r) = ∇ + k η0 (r) + d3 r′ ∇2 + k2 G r − r′ U r′ η r′
2 2 2 2
Z Z
2
= d r U r η r ∇ + k G r − r = d3 r′ U r′ η r′ δ r − r′
3 ′ ′ ′ 2 ′
∇2 + k2 η (r) = U (r) η (r)
donde hemos usado (18.47, 18.48). No probaremos rigurosamente que toda solución de (18.46) es de la forma
(18.49). Sin embargo, vale la pena observar que la solución (18.49) consiste en la suma de la solución de la
452 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
ecuación homogénea asociada (18.48), más una solución particular de la ecuación inhomogénea (18.46), como
corresponde en la teorı́a de ecuaciones diferenciales. Por tanto la ecuación diferencial (18.46) es equivalente a la
ecuación integral (18.49).
Por supuesto, ni la solución de η0 (r) de la ecuación homogénea, ni la función de Green son únicas, ya que no
hemos fijado condiciones de frontera. En realidad, no determinaremos nuestra solución por condiciones de frontera
sino por condiciones asintóticas. De hecho, la ventaja del uso de la formulación integral consiste en la facilidad
de escoger valores adecuados de η0 (r) y de G (r) para que la solución η (r) posea el comportamiento asintótico
deseado. Adicionalmente, la función de Green no depende de la parte inhomogénea de la Ec. (18.46) como se vé
de su definición Ec. (18.47).
y la forma del laplaciano en coordenadas esféricas para una función que solo depende de r
2 1 ∂ 2 ∂f (r)
∇ f (r) = 2 r (18.51)
r ∂r ∂r
obsérvese que la ecuación de Green (18.47) nos dice que ∇2 + k2 G (r) debe ser cero en toda región que no
incluya al origen. Por otro lado, el hecho de que f (θ, ϕ) eikr /r, se encontró como solución de la Ec. (18.16) con
U (r) = 0 16 , nos muestra que
eikr
∇2 + k 2 =0 ; para r 6= 0
r
y nos sugiere que dicha función puede ser la función de Green adecuada. Utilizando las identidades (18.50, 18.51),
vemos que
±ikr ±ikr
2 e 1 ∂ 2 ∂ e 1 ∂ 2 ±ikr ∂ 1 1 ∂ ±ikr
∇ = r = 2 r e + e
r r 2 ∂r ∂r r r ∂r ∂r r r ∂r
1 ∂ 2 ±ikr ∂ 1 ∂ ±ikr 1 ∂ ±ikr 2 ∂ 1 ∂ ±ikr
= r e +r e = 2 e r ± ikre
r 2 ∂r ∂r r ∂r r ∂r ∂r r ∂r
i
1 ±ikr ∂ 2 ∂ 1 2 ∂ 1 ∂ h ±ikr i h ±ikr 2 ±ikr
= e r +r e ± ike ± (ik) re
r2 ∂r ∂r r ∂r r ∂r
h i e±ikr
±ikr 1 ∂ 2 ∂ 1 ∂ 1 ±ikr 2
= e r + ±ike ± ik ∓ k r
r 2 ∂r ∂r r ∂r r r2
Por tanto17
e±ikr
2 e±ikr
∇ = −4πδ (r) − k2
r r
2 e±ikr
∇ + k2 = −4πδ (r) (18.53)
r
Las Ecs. (18.47, 18.53) nos sugieren dos funciones de Green dadas por
1 e±ikr
∇2 + k2 G± (r) = δ (r) ; G± (r) ≡ − (18.54)
4π r
Por razones que veremos más adelante, G+ y G− se denominan función de Green saliente y función de
Green entrante respectivamente.
veremos que esta solución nos reproduce el comportamiento asintótico esperado Ec. (18.26).
Por construcción esta ya es una solución de la ecuación diferencial (18.46). Probaremos ahora que cumple con
el comportamiento asintótico requerido Ecs. (18.26). Para verlo definamos un punto M de posición r en la región
asintótica, de modo que su distancia al origen O, es mucho mayor que todas las dimensiones lineales de la región
de dispersión (ver Fig. 18.6). Sea P un punto de posición r′ dentro de la región de dispersión. Si definimos a L
como el orden de magnitud de la longitud lineal máxima de la región de dispersión, tendremos que se cumplen las
relaciones
r ≫ L, r ′ . L, r ≫ r ′
ahora bien si δ es el ángulo entre OP y OQ (i.e. entre r y r′ ), tenemos por otro lado
|M Q| = |M O| − |QO| = r − r′ cos δ = r − ur · r′
Figura 18.6: M define un punto en la región asintótica, en tanto que P define un punto dentro de la región de dis-
persión. Con respecto al origen O, la posición de los puntos M y P se define por los vectores r y r′ respectivamente.
por tanto para un punto de posición r en la región asintótica y un punto r′ dentro de la región de dispersión, se
puede hacer la siguiente aproximación para la función de Green saliente:
′ ′
1 eik|r−r | 1 eik[r−ur ·r ] 1 eikr ′
G+ r − r′ = − ∼ − = − e−ik(ur ·r )
4π |r − r′ | r→∞ 4π |r − ur · r′ | 4π r 1 − rr′ cos δ
1 eik|r−r′ | 1 eikr −ik(ur ·r′ )
G+ r − r′ = − ∼ − e (18.56)
4π |r − r′ | r→∞ 4π r
insertando la aproximación (18.56) en la solución integral (18.55) resulta
Z
1 eikr ′
ηk (r) ∼ Ceikz − d3 r′ e−ik(ur ·r ) U r′ ηk r′ (18.57)
r→∞ 4π r
nótese que la integral solo es función de r a través del vector unitario ur . Precisamente el carácter unitario de ur
me dice que este vector solo depende de la orientación de r i.e. ur = ur (θ, ϕ). Es claro entonces que la integral
solo depende de θ y ϕ por tanto podemos escribir la Ec. (18.57) en la forma
Z
ikz eikr 1 ′
ηk (r) ∼ Ce + fk (θ, ϕ) ; fk (θ, ϕ) ≡ − d3 r′ e−ik(ur ·r ) U r′ ηk r′ (18.58)
r→∞ r 4π
18.8. APROXIMACIÓN DE BORN 455
puesto que la colisión es elástica, el vector de onda dispersado ks posee el mismo módulo, pero su dirección
ur está caracterizada por los ángulos θ, ϕ, siendo θ el ángulo de dispersión y ϕ el ángulo azimuthal
finalmente, se puede definir el vector de onda de dispersión o vector de onda transferido en la dirección
(θ, ϕ) como el vector diferencia entre los anteriores
K = ks − ki (18.61)
a partir de la Ec. (18.59), podemos escribir la ecuación integral de dispersión (18.55) en la forma
Z
ηk (r) = Ceiki ·r + d3 r1 G+ (r − r1 ) U (r1 ) ηk (r1 ) (18.62)
la idea es resolver la ecuación por iteración. Para ello hacemos el cambio de variables r → r1 , r1 → r2 en la Ec.
(18.62) para escribir Z
iki ·r1
ηk (r1 ) = Ce + d3 r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 ) (18.63)
nótese que los dos primeros términos a la derecha de (18.64) son conocidos, y solo el tercero contiene a la cantidad
desconocida ηk (r2 ). Por supuesto, la iteración puede continuar hasta el orden deseado. Usando el cambio de
variables r1 → r2 , r2 → r3 en la Ec. (18.63) y reemplazando en (18.64) obtenemos
Z
iki ·r
ηk (r) = Ce + C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1 +
Z Z Z
3 3 iki ·r2 3
+ d r1 d r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) Ce + d r3 G+ (r2 − r3 ) U (r3 ) ηk (r3 )
Z
iki ·r
ηk (r) = Ce + C d3 r1 G+ (r − r1 ) U (r1 ) eiki ·r1 +
Z Z
3
+C d r1 d3 r2 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) eiki ·r2
Z Z Z
3 3
+ d r1 d r2 d3 r3 G+ (r − r1 ) U (r1 ) G+ (r1 − r2 ) U (r2 ) G+ (r2 − r3 ) U (r3 ) ηk (r3 ) (18.65)
456 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
en esta expresión los tres primeros términos de la derecha son conocidos y el término desconocido ηk (r3 ) solo
aparece en el cuarto término de la derecha. Estas iteraciones constituyen la expansión de Born del estado
estacionario de dispersión. Comparando las Ecs. (18.62, 18.64, 18.65), vemos que el término que posee la cantidad
desconocida ηk , es proporcional a una potencia de U (r) más alta en cada iteración19 . Si el potencial es débil, cada
potencia más alta será menor que la anterior, de modo que para un número suficientemente grande de iteraciones,
podemos despreciar el último término que contiene la cantidad desconocida, y calcular ηk (r) en términos de
cantidades conocidas.
Ahora bien, si sustituı́mos la expansión de ηk (r) (hasta cierto orden de iteración), en la expresión (18.58)
para fk (θ, ϕ), obtendremos la expansión de Born de la amplitud de dispersión. En particular, si reemplazamos la
iteración a orden cero Ec. (18.62) al lado derecho de (18.58) tenemos que
Z Z
1 3 −ik(ur ·r1 ) iki ·r1 3
fk (θ, ϕ) ≡ − d r1 e U (r1 ) Ce + d r2 G+ (r1 − r2 ) U (r2 ) ηk (r2 )
4π
donde hemos usado la Ec. (18.15), para escribir D (Ω) en términos del potencial V (r). Vemos que en aproximación
de Born, la sección eficaz diferencial es directamente proporcional a la norma al cuadrado de la transformada de
Fourier del potencial. Las Ecs. (18.59, 18.60, 18.61) muestran que el vector de onda transferido K es función del
módulo k de los vectores ki y ks , ası́ como de la dirección (θ, ϕ) de ks . Por tanto, para un valor fijo de k (y por
(B)
tanto, de la energı́a) Dk (Ω) varı́a con la orientación Ω ≡ (θ, ϕ). Similarmente, para una orientación fija (θ, ϕ), la
sección eficaz diferencial cambia con k y por tanto con la energı́a. En consecuencia, la Ec. (18.68) nos dice que en
(B)
la aproximación de Born, el estudio de la dependencia de Dk (Ω) con la orientación y con la energı́a, nos puede
dar información sobre el potencial V (r).
A la fórmula (18.64), podemos darle una interpretación fı́sica que nos brinda una vez más una fuerte analogı́a
entre la mecánica cuántica y la óptica ondulatoria. Vamos a considerar a la región de influencia del potencial
como un medio dispersivo cuya densidad es proporcional a U (r). La función de Green G+ (r − r1 ) dada por la
Ec. (18.54), representa la amplitud en el punto r de la onda radiada desde el punto fuente en la posición r1 .
De esta forma, los dos primeros términos a la derecha de (18.64) describen la onda total en el punto r que
resulta de superponer la onda incidente eiki ·r con una infinidad de ondas provenientes de fuentes secundarias
19
Si definimos las Ecs. (18.62, 18.64) como las iteraciones de orden cero y uno respectivamente, entonces el término desconocido en
la n−ésima iteración contiene U (r) a la potencia n + 1.
18.8. APROXIMACIÓN DE BORN 457
inducidas en el medio dispersivo por la onda incidente. Esto se vé del hecho de que hay una integral sobre r1 , de
modo que contribuyen las ondas secundarias que provienen de cada punto en la región de dispersión. Sin embargo,
en esta integral cada onda secundaria tiene un peso diferente, de hecho la amplitud de la onda secundaria generada
en cada punto r1 es proporcional a la onda incidente en ese punto eiki ·r1 y la densidad del material dispersor U (r1 )
en dicho punto. Esta interpretación está ilustrada en la Fig. 18.7a y nos evoca el principio de Huygens.
Figura 18.7: Interpretación Fı́sica de la Ec. (18.64). (a) Los dos primeros términos a la derecha en (18.64)
corresponden a la onda incidente llegando directamente al punto r, más la contribución de las ondas dispersadas
desde algún punto r1 interior a la región de dispersión. En el segundo término de la Ec. (18.64) se integra sobre
r1 de modo que se toman todas las fuentes secundarias en la región de dispersión. (b) Representación esquemática
del tercer término en la Ec. (18.64) y que es de segundo orden en U (r) en la expansión de Born. En tal término
se consideran ondas que se dispersan dos veces en la región de dispersión. Se integra sobre r1 y r2 es decir sobre
todas las fuentes secundarias posibles que contribuyen a la doble dispersión.
Adicionalmente, hay un tercer término en (18.64). Puesto que el medio de dispersión se extiende sobre cierta
región, en la superposición de la ondas sobre el punto r pueden contribuir ondas secundarias que han sido dis-
persadas dos veces por el potencial: la onda incidente es dispersada en el punto r2 y luego en el punto r1 (ambos
dentro de la región de dispersión) para finalmente llegar a r, como se ilustra en la Fig. 18.7b. Cada fuente r1 y r2
contribuye con su peso proporcional a eiki ·r y U (r) evaluados en cada punto. Si realizamos más iteraciones, los
términos sucesivos de la expansión de Born implicarán más dispersiones dentro de la región del potencial. Si la
densidad del medio dispersivo es baja [U (r) pequeño] entonces podemos despreciar la contribución de las ondas
secundarias, o considerarlas solo en sus primeros órdenes.
Es importante no confundir esta interpretación de los términos de alto orden en la expansión de Born, con los
procesos de dispersión múltiple que ocurren cuando el blanco es grueso. En nuestro contexto estamos considerando
procesos de dispersión de una partı́cula del haz con una sola partı́cula del blanco. La dispersión múltiple implica
interacciones sucesivas de la misma partı́cula incidente con varias (diferentes) partı́culas del blanco.
dentro de la región de dispersión, ya que la integral sobre r1 en (18.67) solo es significativa dentro de dicha región.
Por definición, la región de dispersión está alrededor de r = 0. Esta condición será entonces aproximadamente
equivalente a
η (k) (0)
sc
(k) ≪1 (18.69)
η (0)
inc
si asumimos que el potencial es central, en el régimen de altas energı́as (k → ∞), la Ec. (18.69) nos lleva a la
condición
V0
≪1 (18.70)
E
es decir que la energı́a del haz incidente debe ser mucho mayor a la magnitud del potencial. Ası́ mismo, para bajas
energı́as (k → 0), la Ec. (18.69) conduce a
µV0 L2
≪1 (18.71)
~2
donde L es el rango o alcance del potencial. Sin embargo, en la práctica la condición (18.71) es mucho más
restrictiva que (18.70), razón por la cual la aproximación de Born se utiliza principalmente en el régimen de altas
energı́as. Para detalles sobre este análisis el lector puede consultar la Ref. [8], sección 13.2
donde K es el número de onda transferido en la dirección (θ, ϕ). La expresión (18.74) es básicamente la transfor-
mada de Fourier del potencial de Yukawa. Como este potencial solo depende de |r| = r, podemos aplicar la Ec.
(1.196), Pág. 103. Para ello escribimos la Ec. (18.74) con P = ~K
Z 1/2 " Z #
(B) µCV0 3 −i P ·r e−αr 2π 1 3/2 3 −i P
·r e−αr
fk (θ, ϕ) = − d re ~ = −µCV0 d re ~
2π~2 r ~ 2π~ r
1/2 Z
2π 1 2 ∞ e−αr Pr
= −µCV0 √ r dr sin
~ 2π~ P 0 r ~
Z ∞ −αr
12 e
= −µCV0 r dr sin Kr
~P 0 r
Z −rα ∞
(B) 2µCV0 ∞ −αr 2µCV0 e
fk (θ, ϕ) = − 2 dr e sin Kr = 2 (K cos Kr + α sin Kr)
~ K 0 ~ K K 2 + α2
−rα
0
(B) 2µCV 0 e 2µCV 0 K
fk (θ, ϕ) = − 2 (K cos Kr + α sin Kr) =− 2
~2 K K + α2 r=0 ~ K K 2 + α2
obteniéndose finalmente
(B) 2µCV0
fk (θ, ϕ) = − (18.75)
~2 (K 2 + α2 )
ahora bien teniendo en cuenta que K + ki = ks , y que kki k = kks k = k, los vectores K, ki , ks forman un triángulo
isósceles, donde el ángulo de dispersión θ, es el ángulo entre los dos lados iguales. La Fig 18.8 nos muestra que
Figura 18.8: Los vectores K, ki y ks forman un triángulo isósceles en donde el ángulo de dispersión θ, es el ángulo
entre los dos lados de igual longitud. Esta figura ilustra la validez geométrica de (18.76).
θ K/2 θ
sin = ⇒ K = 2k sin (18.76)
2 k 2
(B)
por tanto, podemos escribir fk (θ, ϕ) de la Ec. (18.75) en términos de k y θ que son los parámetros que se miden
en un experimento.
(B) 2µCV0
fk (θ) = −
~2 α2 + 4k2 sin2 θ2
y la sección eficaz diferencial Ec. (18.44), Pág. 450, en aproximación de Born queda
4µ2 V02
D (B) (θ) = (18.77)
θ 2
~4 α2 + 4k2 sin2 2
460 CAPÍTULO 18. TEORÍA CUÁNTICA DE LA DISPERSIÓN
esta sección eficaz tiene simetrı́a azimutal como se previó para potenciales esféricamente simétricos. Ahora bien,
para una energı́a dada (valor fijo de k), la sección eficaz depende de θ. En particular la sección eficaz frontal
(θ = 0) es mayor que la sección eficaz de retroceso (θ = π). Por otro lado, para un valor fijo de θ, la sección eficaz
es una función decreciente de la energı́a. Finalmente, puede verse que D (θ) no es sensible al signo de V0 i.e. no es
sensible al carácter repulsivo o atractivo de la interacción, al menos en la aproximación de Born.
Podemos calcular la sección eficaz total
Z Z 2π Z π Z
4µ2 V02 π sin θ dθ
σ (B) = D (B) (θ) dΩ = dϕ dθ sin θ D (B) (θ) = 2π 4 2
Ω 0 0 ~ 0 α + 4k2 sin2 θ2
2
Z
(B) 8πµ2 V02 π sin θ dθ 8πµ2 V02 2
σ = 4 h i 2 = 4
~ 0 α4 1 + 4k 2 sin2 θ ~ α (α + 4k2 )
2 2
α2 2
16πµ2 V02
σ (B) = (18.78)
~4 α2 (α2 + 4k2 )
vemos que en este caso la sección eficaz total no diverge (en contraste con el caso de la interacción coulombiana),
debido a que este potencial decae mucho más rápido que el coulombiano. En virtud de la convergencia de la sección
eficaz total, se suele decir que este potencial es de alcance finito, si bien estrictamente hablando no es exactamente
cero para ningún valor de r.
la expresión (18.79) coincide con la fórmula de Rutherford Ec. (18.11) Pág. 441, que nos da la sección eficaz
asociada al potencial de Coulomb. Este es un resultado un tanto sorprendente ya que por un lado, la formulación
aquı́ presentada solo vale para potenciales que decrecen más rápido que r −1 , de modo que la interacción de
Coulomb queda excluı́da de la formulación, y por otro lado el resultado para la interacción de Yukawa está en un
contexto aproximado (aproximación de Born).
La sección eficaz total diverge cuando α = 0, como ocurre con el caso clásico, también debido al alcance infinito
de la interacción. Sin embargo, en la realidad nunca se observa el potencial de Coulomb puro, ya que el potencial
creado por una carga está siempre modificado por la presencia de otras cargas alrededor, que usualmente son
de carga opuesta de modo que generan un apantallamiento. En consecuencia, aún para una interacción de tipo
eléctrico esperamos que para el potencial resultante (potencial efectivo), el apantallamiento decaiga más rápido
que 1/r y/o presente una carga efectiva menor que la del blanco.
Capı́tulo 19
Hemos visto que la aproximación de Born funciona primordialmente a altas energı́as (ver sección 18.8.1). La
expansión por ondas parciales es un acercamiento alternativo que funciona mejor a bajas energı́as, por lo cual en
cierto modo es complementario a la aproximación de Born.
En la sección 12.5 vimos que en el caso de un potencial central, el momento angular orbital es constante de
movimiento ya que conmuta con el Hamiltoniano y no depende explı́citamente del tiempo. Esto indica que existen
autoestados comunes para los observables H, L2 y L3 . Fı́sicamente, indica que existen estados estacionarios (de
energı́a bien definida) en los cuales el momento angular también está bien definido. Las funciones de onda asociadas
a los estados estacionarios de momento angular bien definido, se denominan ondas parciales y las denotaremos
por ϕk,l,m (r). Recordando que los resultados de la sección 12.5 solo dependı́an del carácter central del potencial,
vemos que la dependencia angular de las ondas parciales estará dada siempre por los armónicos esféricos Ylm (θ, ϕ),
y el potencial V (r) solo modifica la componente radial de tales estados.
Es de esperarse que para valores grandes de r, el comportamiento de las ondas parciales sea similar al de
los autoestados comunes a H0 , L2 y L3 , siendo H0 el hamiltoniano de partı́cula libre. Comenzaremos entonces
(0)
estudiando las ondas parciales asociadas a partı́cula libre ϕk,l,m (r), que denominaremos ondas libres esféricas.
Su dependencia angular continúa siendo descrita por los armónicos esféricos ya que el potencial no afecta la
dependencia angular. En cuanto a su dependencia radial, veremos que para valores grandes de r las ondas esféricas
estarán constituı́das por la superposición de una onda entrante e−ikr /r y una onda saliente eikr /r con una diferencia
de fase bien definida entre ambas.
Por otro lado, las ondas parciales ϕk,l,m (r) asociadas al potencial V (r), también serán la superposición de una
onda entrante y una saliente, pero la diferencia de fase entre estas dos ondas es diferente de la que se obtiene para
las ondas esféricas libres. El potencial V (r) introduce un corrimiento de fase adicional δl . Veremos además que
(0)
este corrimiento extra δl es la única diferencia entre los estados asintóticos obtenidos con ϕk,l,m (r) y con ϕk,l,m (r).
Ahora bien, con el fin de calcular la sección eficaz expresaremos los estados estacionarios de dispersión ηk (r),
como una combinación lineal de ondas parciales con la misma energı́a pero diferentes momentos angulares. Veremos
por argumentos fı́sicos y con un cálculo explı́cito que tales coeficientes coinciden con los de la expansión de la
onda plana eikz en términos de ondas esféricas libres. El uso de ondas parciales permitirá escribir la amplitud de
dispersión y la sección eficaz en términos de los corrimientos de fase δl . Veremos que el método es particularmente
útil cuando el rango del potencial no es mucho mayor a la longitud de onda de la partı́cula en movimiento, ya que
en estos casos la sección eficaz dependerá de unos pocos corrimientos de fase δl .
461
462 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
H0 , P1 , P2 , P3 (19.1)
forman un C.S.C.O. y los estados estacionarios comunes a estos observables poseen momento bien definido. Por
otro lado, si aplicamos los resultados de la sección 12.5 para potencial cero, deducimos que para una partı́cula
libre los observables
H 0 , L2 , L3 (19.2)
también forman un C.S.C.O. En este caso los estados estacionarios poseerán momento angular bien definido.
Vale decir que momento angular bien definido significa que los valores de L2 y de una de las componentes de L
(usualmente L3 ) estarán bien definidos. Recordemos que las componentes del momento angular son incompatibles
(ver Ec. 10.5, Pág. 309) y por tanto no pueden estar simultáneamente bien definidas.
Es claro sin embargo que los estados estacionarios definidos por los C.S.C.O de las Ecs. (19.1) y (19.2) serán
diferentes puesto que los observables P y L son incompatibles2 . Vamos a estudiar estas bases y la manera de pasar
de la una a la otra.
P |pi = p |pi
y puesto que H0 conmuta con estos observables, se puede agregar al C.S.C.O. y los estados |pi también son
autoestados de H0
P2 p2
H0 |pi = |pi = |pi (19.3)
2µ 2µ
el espectro de H0 es entonces contı́nuo e incluye todos los valores no-negativos de energı́a. Cada autovalor es
infinitamente degenerado, puesto que a un valor dado de energı́a le corresponden infinitos kets |pi linealmente
independientes. Esto puede verse teniendo en cuenta que un valor dado de energı́a E solo impone la ligadura
2µE = p21 + p22 + p23 lo cual deja
√ aún un número infinito contı́nuo de grados de libertad, i.e. todos los puntos de
una superficie esférica de radio 2µE. Por tanto un valor dado de la energı́a nos deja con el conjunto de todos los
kets |pi cuyo módulo es p
|p| = 2µE
1
En este capı́tulo, cuando hablemos de un C.S.C.O. será con respecto al espacio orbital Er , puesto que no hemos incluı́do al espı́n
en la formulación.
2
Desde el punto de vista experimental, es importante saber como se preparó el sistema (cuales son las condiciones iniciales).
Cuánticamente, podemos preparar un estado de partı́cula libre con momento lineal bien definido, o con momento angular bien definido,
pero no ambos al tiempo.
19.3. ESTADOS ESTACIONARIOS DE PARTÍCULA LIBRE CON MOMENTO ANGULAR BIEN DEFINIDO: ONDAS
las funciones de onda asociadas a estos estados |pi son las ondas planas (ver Ec. 1.182, Pág. 97)
1 3/2 ip·r/~
hr| pi = e
2π~
también podemos caracterizar estos estados estacionarios a través del vector de onda k
p
k= ; |ki = ~3/2 |pi
~
estos estados poseen el mismo contenido fı́sico que los estados |pi, ya que para partı́cula libre un vector de onda
bien definido es equivalente a un momento bien definido
~2 k2
H0 |ki = |ki ; P |ki = ~k |ki
2µ
los estados {|ki} son ortonormales y completos en el sentido extendido
Z
′ ′
hk| k i = δ k − k ; d3 k |ki hk| = I
donde la función radial es una solución de la Ec. (12.35), Pág. 351 con V (r) = 0
2
~ 1 d2 l (l + 1) ~2 (0) (0)
− r + Rk,l (r) = Ek,l Rk,l (r) (19.5)
2µ r dr 2 2µr 2
(0)
siendo Ek,l el valor propio de H0 asociado a ϕk,l,m (r). Si hacemos un cambio de variable similar a la Ec. (12.36),
Pág. 351
(0) 1 (0)
Rk,l (r) = uk,l (r) (19.6)
r
(0)
la función uk,l (r) está dada por la Ec. (12.37) Pág. 352 con V (r) = 0
2
d l (l + 1) 2µEk,l (0)
− + uk,l (r) = 0 (19.7)
dr 2 r2 ~2
y se debe cumplir la relación asintótica en el origen dada por la Ec. (12.44), Pág. 353
(0)
uk,l (0) = 0 (19.8)
La combinación de las Ecs. (19.7, 19.8) nos permite encontrar el espectro de H0 que como veremos coincide con
el que se obtiene con las ondas planas Ec. (19.3). Dado que el mı́nimo de nuestro potencial es cero (de hecho el
potencial es nulo), entonces no habrá estados estacionarios de energı́a negativa. Consideraremos entonces valores
no-negativos de Ek,l en la Ec. (19.7), e introducimos el parámetro real k en la forma
1p
k= 2µEk,l (19.9)
~
464 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
en la región asintótica con r muy grande, el término centrı́fugo l (l + 1) /r 2 se puede despreciar en la Ec. (19.7)
para obtener 2
d 2 (0)
+ k uk,l (r) ≃ 0 (19.10)
dr 2 r→∞
donde hemos tenido en cuenta la definición (19.9). Ya examinamos la solución general de esta ecuación [Ver Ecs.
(18.23, 18.24), Pág. 445] obteniéndose
(0)
uk,l (r) ≃ Aeikr + Be−ikr (19.11)
r→∞
en la sección 12.6 también se concluyó que la ecuación (19.7) junto con la condición asintótica en el origen (19.8)
nos lleva a una única solución. Por tanto, las Ecs. (19.7, 19.8) nos llevarán a una única solución del tipo (19.11).
Vemos por otro lado, que la energı́a no depende de l, y por tanto omitiremos este ı́ndice en los valores de la
energı́a. Ahora bien, las soluciones aceptables del tipo (19.11) incluyen todos los valores positivos de k y por tanto
de acuerdo con la Ec. (19.9), la energı́a toma todos los valores no negativos.
~2 k2
Ek = ; k≥0
2µ
cada energı́a dada es infinitamente degenerada. Para un valor fijo de k, existen soluciones fı́sicamente aceptables
(0)
uk,l (r) de la ecuación radial para todos los valores permitidos (enteros no-negativos) de l. Adicionalmente, la
solución completa ϕk,l,m (r) en la Ec. (19.4) añade una degeneración (2l + 1) veces mayor, para una función
(0)
radial uk,l (r) dada. Al igual que en la sección 12.6, vemos que en este caso los observables H0 , L2 y L3 forman un
C.S.C.O. en Er , de modo que la especificación de los ı́ndices k, l, m nos da la información suficiente para determinar
de manera única el estado estacionario normalizado asociado (excepto por una fase irrelevante).
también necesitaremos el conmutador de L+ con P3 para lo cual usamos las Ecs. (19.14)
sumando y restando términos adecuadamente y aplicando las Ecs. (19.15, 19.16), se obtiene
2
L , P+ = −~L+ P3 + (~P3 L+ − ~P3 L+ ) − ~P3 L+ + ~L3 P+ + (−~P+ L3 + ~P+ L3 ) + ~P+ L3
= −~L+ P3 + ~P3 L+ − 2~P3 L+ + ~L3 P+ − ~P+ L3 + 2~P+ L3
= −~ [L+ , P3 ] − 2~P3 L+ + ~ [L3 , P+ ] + 2~P+ L3
= ~2 P+ − 2~P3 L+ + ~2 P+ + 2~P+ L3
L2 , P+ = 2~ (P+ L3 − P3 L+ ) + 2~2 P+ (19.17)
donde hemos usado la forma en que L+ actúa sobre los autoestados de L2 y L3 Ec. (10.47), Pág. 321. Esta
(0) (0)
ecuación muestra que L+ ϕk,l,m = 0 si m = l. Para m 6= l, tenemos que L+ ϕk,l,m (r) es también autoestado de H0
466 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
y L2 con el mismo valor de energı́a Ek y de l (esto también se puede ver del hecho de que L+ conmuta con H0
(0)
y con L2 usando el teorema 1.66, Pág. 57). Ası́ mismo, L+ ϕk,l,m (r) es autoestado de L3 con autovalor (m + 1) ~.
(0)
Similarmente es fácil ver la acción de L− , L3 y L2 sobre ϕk,l,m (r)
(0) (0) (0) (0)
L3 ϕk,l,m (r) = m~ϕk,l,m (r) ; L2 ϕk,l,m (r) = l (l + 1) ~2 ϕk,l,m (r) (19.21)
(0)
p (0)
L± ϕk,l,m (r) = ~ l (l + 1) − m (m ± 1)ϕk,l,m±1 (r) (19.22)
(0)
Ahora aplicamos el operador P+ sobre ϕk,l,m (r). Teniendo en cuenta que P+ conmuta con H0 , tenemos que
(0)
P+ ϕk,l,m (r) es función propia de H0 con la misma energı́a Ek . Con respecto al operador L3 , el comportamiento
de este estado, se obtiene aplicando la Ec. (19.19)
(0) (0) (0) (0) (0)
[L3 , P+ ] ϕk,l,m (r) = ~P+ ϕk,l,m (r) ⇒ L3 P+ ϕk,l,m (r) = P+ L3 ϕk,l,m (r) + ~P+ ϕk,l,m (r)
(0) (0) (0)
L3 P+ ϕk,l,m (r) = m~P+ ϕk,l,m (r) + ~P+ ϕk,l,m (r)
h i h i
(0) (0)
L3 P+ ϕk,l,m (r) = (m + 1) ~ P+ ϕk,l,m (r)
(0)
de modo que P+ ϕk,l,m (r) es autofunción de L3 con valor propio (m + 1) ~. El siguiente paso natural es caracterizar
(0)
al estado P+ ϕk,l,m (r) con respecto a L2 . La presencia del término P3 L+ en el conmutador de L2 con P+ Ec. (19.20),
(0) (0)
nos dice que P+ ϕk,l,m (r) no es en general función propia de L2 . Sin embargo, debido a que L+ ϕk,l,l (r) = 0, el
término P3 L+ se anula cuando m = l
2 (0) (0) (0)
L , P+ ϕk,l,l (r) = 2~ (P+ L3 − P3 L+ ) ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r)
h i h i h i
(0) (0) (0) (0) (0)
L2 P+ ϕk,l,l (r) = P+ L2 ϕk,l,l (r) + 2~P+ L3 ϕk,l,l (r) − 2~P3 L+ ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r)
(0) (0) (0) (0) (0)
L2 P+ ϕk,l,l (r) = l (l + 1) ~2 P+ ϕk,l,l (r) + 2l~2 P+ ϕk,l,l (r) + 2~2 P+ ϕk,l,l (r) = [l (l + 1) + 2l + 2] ~2 P+ ϕk,l,l (r)
(0) (0)
L2 P+ ϕk,l,l (r) = (l + 1) (l + 2) ~2 P+ ϕk,l,l (r)
(0)
por tanto, P+ ϕk,l,l (r) es función propia común de H0 , L3 y L2 con valores propios Ek , (l + 1) ~ y (l + 1) (l + 2) ~2
respectivamente. Puesto que estos tres observables forman un C.S.C.O. en el espacio orbital, existe una única
autofunción espacial normalizada (excepto por una fase) asociada a estos tres valores propios
(0) (0)
P+ ϕk,l,l (r) = Mk,l ϕk,l+1,l+1 (r) (19.23)
n o
(0)
usaremos las relaciones de recurrencia (19.22, 19.23) para construir la base ϕk,l,m (r) de ondas esféricas a partir
(0)
de las funciones ϕk,0,0 (r), ya que el operador P+ permite incrementar el número cuántico l, en tanto que los
operadores L± permiten generar las funciones para todos los valores posibles de m con k y l fijos. Para ello
(0)
primero tenemos que encontrar las funciones ϕk,0,0 (r) .
Un comentario final, a priori podrı́a pensarse que el operador P− ≡ P1 − iP2 , permite bajar el número cuántico
l hasta cero. Sin embargo, este no es el caso, puede mostrarse con un procedimiento similar al aquı́ mostrado que
la acción de P− está dada por
(0) ′ (0)
P− ϕk,l,−l (r) = Mkl ϕk,l+1,−(l+1) (r) (19.24)
(0)
por tanto, debemos determinar la función radial uk,0 (r). Usando las Ecs. (19.7, 19.8) y (19.9) con l = 0 tenemos
que 2
d 2 (0) (0)
+ k uk,0 (r) = 0 ; uk,0 (0) = 0 (19.25)
dr 2
la solución del tipo (19.11) que se anula en el origen está dada por
(0)
uk,0 (r) = ak sin kr (19.26)
(0)
de modo que la función de onda ϕk,0,0 (r) viene dada por
la constante ak se escoge real positiva y de modo que la función de onda completa sea ortonormal en el sentido
extendido, puesto que k es un ı́ndice contı́nuo
Z
(0)∗ (0)
hk, 0, 0| k , 0, 0i = d3 r ϕk,0,0 (r) ϕk′ ,0,0 (r) = δ k − k′
′
(19.28)
donde hemos omitido las constantes de proporcionalidad, debido a que estas se pueden absorber en la constante
de normalización. Aplicando sucesivamente P+ con este procedimiento, es fácil ver que
l
(0) l 1 ∂ sin kr
ϕk,l,l (r) ∝ (x1 + ix2 ) (19.34)
r ∂r kr
(0)
la dependencia angular de ϕk,l,l (r) está contenida en el factor cartesiano
(x1 + ix2 )l = (r sin θ cos ϕ + ir sin θ sin ϕ)l = r l (sin θ)l (cos ϕ + i sin ϕ)l
r
l l l Y ll (θ, ϕ) 1 (2l + 1)!
(x1 + ix2 ) = r l (sin θ) eilϕ = (−1) r l ; |cl | = l (19.35)
|cl | 2 l! 4π
donde hemos usado la Ec. (11.29) Pág. 331. Vemos que el factor angular es proporcional a Yl,l (θ, ϕ) como es-
perábamos. Sustituyendo (19.35) en (19.34) tendremos entonces que
l
(0) Yl,l (θ, ϕ) l1 ∂ l sin kr kl 1 ∂ sin kr
ϕk,l,l (r) ∝ (−1)l r = (−1)l Yl,l (θ, ϕ) (kr)l
|cl | r ∂r kr |cl | kr ∂ (kr) kr
l
(0) 1 ∂ sin kr
ϕk,l,l (r) ∝ (−1)l Yl,l (θ, ϕ) (kr)l (19.36)
kr ∂ (kr) kr
Donde el factor kl / |cl | lo hemos absorbido en el factor de normalización. Definiremos la función esférica de
Bessel de orden l, en la forma
l
l l 1 d sin ρ
jl (ρ) ≡ (−1) ρ (19.37)
ρ dρ ρ
es claro que para k, l dados, se pueden generar todas las autofunciones asociadas a todos los valores permitidos
de m por medio de los operadores L± . Sin embargo, estos valores solo generan la dependencia angular que ya
conocemos previamente (armónicos esféricos). Por tanto, combinando las ecuaciones (19.36, 19.37), vemos que las
ondas esféricas libres se escriben en la forma
(0)
ϕk,l,m (r) = Ck,l jl (kr) Ylm (θ, ϕ) (19.38)
donde la constante de normalización no depende de m, puesto que los armónicos esféricos ya están adecuadamente
normalizados. Solo queda encontrar la constante de normalización en términos de k y l asociada a las funciones
de Bessel esféricas.
y la relación de completez
Z ∞ ∞ X
X l
(0) (0)∗
dk ϕk,l,m (r) ϕk,l,m r′ = δ r − r′ (19.40)
0 l=0 m=−l
La constante de normalización da cuenta de la normalización de las funciones esféricas de Bessel, puesto que los
armónicos esféricos ya están normalizados. Para encontrar esta constante de normalización, comenzaremos por
calcular el factor exacto en la Ec. (19.23), para ello necesitaremos calcular las derivadas de jl (kr) y de Yl,l (θ, ϕ),
y algunas de sus propiedades
470 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
" l # " #
d d d h i 1 d l sin ρ
1 d l sin ρ
l l 1 d sin ρ l l l l d
jl (ρ) = (−1) ρ = (−1) ρ + (−1) ρ
dρ dρ ρ dρ ρ dρ ρ dρ ρ dρ ρ dρ ρ
"
#
1 d l sin ρ 1 d 1 d l sin ρ
= (−1)l lρl−1 − (−1)l+1 ρl+1
ρ dρ ρ ρ dρ ρ dρ ρ
l 1 d l sin ρ 1 d l+1 sin ρ l
= (−1)l ρl − (−1)l+1 ρl+1 = jl (ρ) − jl+1 (ρ)
ρ ρ dρ ρ ρ dρ ρ ρ
r r
∂Yll (θ, ϕ) (−1)l (2l + 1)! ilϕ ∂ h l
i l (−1)l (2l + 1)!
= e (sin θ) = cos θ eilϕ (sin θ)l−1
∂θ 2l l! r 4π ∂θ 2l l! 4π
∂Yll (θ, ϕ) l (−1)l (2l + 1)! cos θ ilϕ cos θ
= l
e (sin θ)l = l Yl,l (θ, ϕ)
∂θ 2 l! 4π sin θ sin θ
r r
∂Yll (θ, ϕ) (−1)l (2l + 1)! ∂ ilϕ (−1)l (2l + 1)!
= (sin θ)l e = il l (sin θ)l eilϕ
∂ϕ 2l l! 4π ∂ϕ 2 l! 4π
∂Yll (θ, ϕ)
= ilYl,l (θ, ϕ)
∂ϕ
r
(−1)l+1 [2 (l + 1) + 1]!
Yl+1,l+1 (θ, ϕ) = (sin θ)l+1 ei(l+1)ϕ
2l+1 (l + 1)! 4π
p " r #
(−1) sin θ eiϕ (2l + 2) (2l + 3) (−1)l [2l + 1]! l ilϕ
= (sin θ) e
2 (l + 1) 2l l! 4π
p s
(−1) sin θ eiϕ (2l + 2) (2l + 3) (2l + 3)
Yl+1,l+1 (θ, ϕ) = Yl,l (θ, ϕ) = (−1) sin θ eiϕ Yl,l (θ, ϕ)
(2l + 2) (2l + 2)
s
d l iϕ (2l + 3)
jl (ρ) = jl (ρ) − jl+1 (ρ) ; Yl+1,l+1 (θ, ϕ) = (−1) sin θ e Yl,l (θ, ϕ) (19.41)
dρ ρ (2l + 2)
∂Yll (θ, ϕ) cos θ ∂Yll (θ, ϕ)
= l Yl,l (θ, ϕ) ; = ilYl,l (θ, ϕ) (19.42)
∂θ sin θ ∂ϕ
Tomaremos como hipótesis que la constante de normalización Ck,l en la Ec. (19.38) solo depende de k, i.e. Ck,l ≡ Ck ,
y demostraremos por inducción que si ϕk,l,l (r) está normalizado con este Ck , entonces ϕk,l+1,l+1 (r) también
(0)
lo estará y puesto que para ϕk,0,0 (r) la constante de normalización solo dependı́a de k, esta misma constante
(0)
normaliza a todos los ϕk,l,l (r). Usando la forma explı́cita de P+ y de ϕk,l,l (r), Ecs. (19.31, 19.38) junto con las
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 471
quedando finalmente r
(0) 2l + 2 (0)
P+ ϕk,l,l (r) = −i~k ϕ (r) (19.43)
2l + 3 k,l+1,l+1
con lo cual hemos encontrado el factor de proporcionalidad Mk,l de la Ec. (19.23).
La Ec. (19.44) nos muestra que este producto interno no depende de m. Como caso particular, se tiene que
D E D E Z
(0) (0) (0) (0) 2 2 ∗ ′
ϕk,l,l ϕk′ ,l,l = ϕk,l,m ϕk′ ,l,m = Ck r dr jl (kr) jl k r (19.45)
y puesto que los armónicos esféricos ya garantizan la ortogonalidad en los números cuánticos l, m, será suficiente
(0)
mostrar la ortonormalización en el sentido extendido sobre la variable k, para las funciones del tipo ϕk,l,l
Z D E
′
(0)∗ (0) (0) (0)
Il k, k ≡ d3 r ϕk,l,l (r) ϕk′ ,l,l (r) = ϕk,l,l ϕk′ ,l,l (19.46)
472 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
demostraremos que si Il (k, k′ ) está ortonormalizada entonces Il+1 (k, k′ ) también lo está. Partimos entonces de la
hipótesis
D (0) (0) E
Il k, k = ϕk,l,l ϕk′ ,l,l = δ k − k′
′
(19.47)
ahora debemos calcular la acción de P3 sobre las funciones esféricas libres, para lo cual usamos las ecuaciones
(19.30, 19.41, 19.42)
(0)
(0) ∂ϕk,l,l (r) ∂ sin θ ∂ (0)
P3 ϕk,l,l (r) = −i~ = −i~ cos θ − ϕk,l,l (r)
∂x3 ∂r r ∂θ
∂jl (kr) sin θ ∂Yl,l (θ, ϕ)
= −i~Ck k cos θ Yl,l (θ, ϕ) − jl (kr)
∂ (kr) r ∂θ
l sin θ cos θ
= −i~Ck k cos θ Yl,l (θ, ϕ) jl (kr) − jl+1 (kr) − jl (kr) l Yl,l (θ, ϕ)
kr r sin θ
l l
= −i~Ck cos θ Yl,l (θ, ϕ) jl (kr) − k cos θ Yl,l (θ, ϕ) jl+1 (kr) − cos θ Yl,l (θ, ϕ) jl (kr)
r r
(0)
P3 ϕk,l,l (r) = i~k cos θ Ck Yl,l (θ, ϕ) jl+1 (kr) (19.51)
(0)
Para propósitos de la demostración es conveniente escribir el miembro derecho de (19.51) en términos de ϕk,l+1,l (r).
Para hacerlo debemos escribir el miembro derecho de (19.51) en términos de Yl+1,l (θ, ϕ). De la Ec. (11.32), Pág.
331 con m = l se tiene
p √
L− Yl,l (θ, ϕ) = ~ l (l + 1) − l (l − 1) Yl,l−1 (θ, ϕ) = ~ 2l Yl,l−1 (θ, ϕ)
usando la forma explı́cita de L− en la base de las {|ri}, Ec. (11.15) Pág. 329, nos queda
1 1 ∂Y (θ, ϕ) cos θ ∂Yl,l (θ, ϕ)
Yl,l−1 (θ, ϕ) = √ L− Yl,l (θ, ϕ) = √ ~e−iϕ − l,l +i
~ 2l ~ 2l ∂θ sin θ ∂ϕ
−iϕ
−iϕ
e cos θ cos θ e cos θ
= √ −l Yl,l (θ, ϕ) + i (ilYl,l (θ, ϕ)) = −2l √ Yl,l (θ, ϕ)
2l sin θ sin θ 2l sin θ
√ cos θ
Yl,l−1 (θ, ϕ) = − 2l e−iϕ Yl,l (θ, ϕ) (19.52)
sin θ
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 473
usando la forma explı́cita de Al,k,k′ , ecuación (19.48), ası́ como la Ec. (19.45) tenemos que
2 ′ D E
′
2l + 3 2 ′2 ′
2l + 3 ~ kk (0) (0)
Il+1 k, k = ~ k I l k, k − ϕk,l+1,l+1 ϕk ′ ,l+1,l+1
~2 kk′ (2l + 2) ~2 kk′ (2l + 2) (2l + 3)
′
k (2l + 3) 1
Il+1 k, k′ = Il k, k′ − Il+1 k, k′
k (2l + 2) (2l + 2)
aplicando la hipótesis (19.47) resulta
k′ (2l + 3) 1
Il+1 k, k′ = δ k − k′ − Il+1 k, k′
k (2l + 2) (2l + 2)
′
1 k (2l + 3)
1+ Il+1 k, k′ = δ k − k′
(2l + 2) k (2l + 2)
(2l + 2) + 1 k′ (2l + 3)
Il+1 k, k′ = δ k − k′
(2l + 2) k (2l + 2)
la anterior expresión muestra que Il+1 (k, k′ ) es cero si k 6= k′ por tanto
2l + 3 k (2l + 3)
Il+1 k, k′ = δ k − k′
(2l + 2) k (2l + 2)
′
Il+1 k, k = δ k − k′
por tanto hemos demostrado que si Il (k, k′ ) está ortonormalizado con el factor Ck , entonces Il+1 (k, k′ ) también lo
(0)
está. Por último, hallamos el factor Ck por medio de la función esférica libre más simple ϕk,0,0 (r). Comenzamos
reescribiendo la Ec. (19.29) (que ya está debidamente normalizada) en la forma
r r
(0) k sin kr 2 sin kr 1 2
ϕk,0,0 (r) = √ =k √ =k j0 (kr) Y00 (θ, ϕ)
π 2 kr π kr 4π π
r
(0) 2
ϕk,0,0 (r) = Ck j0 (kr) Y00 (θ, ϕ) ; Ck ≡ k
π
474 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
la expresión final para las ondas esféricas libres Ec. (19.38), será entonces
r
(0) 2
ϕk,l,m (r) = k jl (kr) Ylm (θ, ϕ) (19.55)
π
en el lı́mite cuando ρ → 0, podemos quedarnos solo con el primer término de la expansión (19.60)
2l (2l − 2) (2l − 4) · · · × 4 × 2 2l (2l − 2) (2l − 4) · · · × 4 × 2
jl (ρ) ∼ (−1)l ρl (−1)l = ρl
ρ→0 (2l + 1)! (2l + 1) (2l) (2l − 1) (2l − 2) · · · 3 × 2 × 1
ρl
=
(2l + 1) (2l − 1) (2l − 3) · · · × 3 × 1
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 475
ρl
jl (ρ) ∼ (19.61)
ρ→0 (2l + 1)!!
con lo cual ϕk,l,m (r) es proporcional a r l en el lı́mite de ρ = kr muy pequeño. Sustituyendo (19.61) en (19.55)
resulta r
(0) 2 (kr)l
ϕk,l,m (r) ∼ k Ylm (θ, ϕ) (19.62)
r→0 π (2l + 1)!!
veamos ahora el lı́mite para ρ muy grande. De la definición de jl (ρ) se tiene
l l−1 l−1
l 1 d sin ρ 1 d 1 d sin ρ l l 1 d cos ρ sin ρ
jl (ρ) = (−1) ρ l
= (−1)l ρl = (−1) ρ − 3
ρ dρ ρ ρ dρ ρ dρ ρ ρ dρ ρ2 ρ
el segundo término en paréntesis cuadrados es mucho menor que el primero cuando ρ → ∞. Tenemos entonces
que
l−1 l−1
l l 1 d cos ρ l l 1 d 1 d
jl (ρ) ∼ (−1) ρ = (−1) ρ sin ρ
ρ→∞ ρ dρ ρ2 ρ dρ ρ2 dρ
el término dominante continúa siendo el término proveniente de la derivada de la función sin ρ. Por tanto, jl (ρ)
se comporta en la forma
l
l l 1 d
jl (ρ) ∼ (−1) ρ sin ρ
ρ→∞ ρl+1 dρ
l
1 d
jl (ρ) ∼ (−1)l sin ρ
ρ→∞ ρ dρ
en el último paso hemos suprimido la dependencia de k como número cuántico en Rk,l (ρ), puesto que dicho
número cuántico se factorizó por completo del operador (por supuesto Rl (ρ) depende de k a través del factor de
normalización Ck y de la relación ρ ≡ kr). Por otro lado
1 d2 h (0) i 1 d (0) d (0) 1 d (0) d (0) d2 (0)
ρRl (ρ) = Rl (ρ) + ρ Rl (ρ) = R (ρ) + Rl (ρ) + ρ 2 Rl (ρ)
ρ dρ2 ρ dρ dρ ρ dρ l dρ dρ
2 h i 2
1 d (0) 2 d (0) d (0)
2
ρRl (ρ) = Rl (ρ) + 2 Rl (ρ) (19.65)
ρ dρ ρ dρ dρ
sustituyendo (19.65) en (19.64) queda finalmente
2
d 2 d l (l + 1) (0)
2
+ + 1− 2
Rl (ρ) = 0 (19.66)
dρ ρ dρ ρ
esta es la ecuación de Bessel esférica de orden l. Dicha ecuación posee dos soluciones linealmente independientes,
que se pueden distinguir en particular por su comportamiento en el origen. Una de ellas es la función de Bessel
esférica jl (ρ) que satisface las condiciones asintóticas (19.61, 19.63). Para la otra solución linealmente indepen-
diente se pueden elegir las funciones esféricas de Neumann de orden l, denotadas por ηl (ρ), que poseen el
siguiente comportamiento asintótico
(2l − 1)!! 1 π
ηl (ρ) ∼ ; ηl (ρ) ∼ cos ρ − l (19.67)
ρ→0 ρl+1 ρ→∞ ρ 2
para ver si la solución es fı́sicamente aceptable, examinamos el lı́mite de r pequeño para uk,l (ρ) para el cual
tendrı́amos
(0) (0) ρ (0) (2l − 1)!!
lı́m uk,l (ρ) = lı́m rRk,l (ρ) = lı́m ηl (ρ) =
ρ→0 ρ→0 ρ→0 k kρl
este lı́mite no es nulo para ningún l, y de hecho diverge para l 6= 0. Por tanto, no se cumple la condición (19.8)
con lo cual la solución es fı́sicamente descartable.
comenzaremos por simplicidad con el caso en el cual k = ku3 . Definiendo θ como el ángulo entre r y el eje Z,
vamos a expandir la función
eikz = eikr cos θ (19.69)
puesto que esta función es independiente de ϕ, solo contribuyen los armónicos esféricos con m = 0. Por tanto la
Ec. (19.68) quedará en la forma
∞
X ∞
X
ikz ikr cos θ (0)
e =e = cl,0 (k) ϕk,l,0 (r) = cl (k) jl (kr) Yl,0 (θ) (19.70)
l=0 l=0
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 477
si consideramos a eikr cos θ como función de θ, asumiendo a r como un parámetro, podemos considerar a cl (k) jl (kr)
como un coeficiente y expandirlo en la base ortonormal de los armónicos esféricos3 . Multiplicando la Ec. (19.70)
∗ (θ) dΩ, integrando en el ángulo sólido y utilizando la ortonormalidad de los armónicos esféricos, tenemos
por Yl,0
Z ∞
X Z ∞
X
eikr cos θ Yl,0
∗
(θ) dΩ = cl′ (k) jl′ (kr) ∗
Yl′ ,0 (θ) Yl,0 (θ) dΩ = cl′ (k) jl′ (kr) δll′ = cl (k) jl (kr)
l′ =0 l′ =0
Z
cl (k) jl (kr) = eikr cos θ Yl,0
∗
(θ) dΩ (19.71)
por otro lado, Yl,0 (θ) se puede escribir en términos de Yl,l (θ, ϕ) aplicando l−veces el operador escalera L−. . De la
Ec. (11.32), Pág. 331 vemos que
p
L− Yl,m (θ, ϕ) = ~ l (l + 1) − m (m − 1)Yl,m−1 (θ, ϕ)
si aplicamos l veces el operador L− al armónico Yl,l (θ, ϕ) entonces k pasará por los valores
k = 0, 1, 2, . . . , (l − 3) , (l − 2) , (l − 1) (19.73)
donde hemos usado el hecho de que L+ es el adjunto de L− . Por otro lado, de la forma explı́cita de L± Ecs. (11.14,
11.15), Pág. 329 se puede probar que
d
L± einϕ F (θ) = ∓~ei(n±1)ϕ (sin θ)1±n (sin θ)∓n F (θ) (19.77)
d (cos θ)
a partir de lo cual se puede demostrar por recurrencia que
dp
(L± )p einϕ F (θ) = (∓~)p ei(n±p)ϕ (sin θ)p±n p (sin θ)
∓n
F (θ) (19.78)
d (cos θ)
3
De hecho, los armónicos esféricos de la forma Yl,0 (θ) son una base ortonormal para funciones de la variable θ.
478 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
donde Pl (cos θ) es el polinomio de Legendre de grado l. Es bien sabido que los polinomios de Legendre son una
base para cualquier función del ángulo polar θ. Por otro lado, podemos escribir la expansión (19.83) en términos
de las ondas esféricas libres (19.55)
r ∞ " r #
1 π X p 2
eikz = il 4π (2l + 1) k jl (kr) Yl,0 (θ)
k 2 π
l=0
r ∞
ikz 1 π X lp (0)
e = i 4π (2l + 1) ϕk,l,0 (r) (19.84)
k 2
l=0
19.4. CARACTERIZACIÓN DE LAS ONDAS ESFÉRICAS LIBRES 479
Ahora bien, podemos sin pérdida de generalidad definir al vector k en la dirección u3 . Por otro lado, θ es el
ángulo entre u3 y r o equivalentemente el ángulo entre k y r. Adicionalmente, la expresión (19.83) depende única-
mente del ángulo entre k y r sin importar la dirección de los vectores individuales. Por conveniencia, redefinimos
como α al ángulo entre k y r, de modo que la expresión (19.83) para direcciones arbitrarias de k y r se escribe en
la forma
∞
X
eik·r = il (2l + 1) jl (kr) Pl (cos α) (19.85)
l=0
La dirección (arbitraria) de k la definimos con los ángulos (θk , ϕk ), y la dirección arbitraria de r con los ángulos
(θ, ϕ). Ahora bien, puesto que α es el ángulo entre k y r, podemos utilizar el teorema de adición de los armónicos
esféricos Ec. (11.41), Pág. 333 para obtener
∞ X
l r ∞ l
X 4π πX X l ∗ (0)
ik·r l ∗
e = 4π i jl (kr) Ylm (θk , ϕk ) Yl,m (θ, ϕ) = i Ylm (θk , ϕk ) ϕk,l,m (r) (19.86)
k 2
l=0 m=−l l=0 m=−l
donde hemos utilizado la expresión (19.55) para las ondas esféricas libres. Por supuesto, es posible invertir la Ec.
(19.86), con el fin de obtener las ondas esféricas libres ϕk,l,m (r) en términos de ondas planas. Multiplicando la Ec.
(19.86) por Ylm (θk , ϕk ) dΩk , integrando y usando la ortonormalidad de los armónicos esféricos, se tiene que
Z ∞
X l
X
′ Z
ik·r l′
e Ylm (θk , ϕk ) dΩk = 4π i j (kr) Y
l′ l′ ,m′ (θ, ϕ) Yl∗′ m′ (θk , ϕk ) Ylm (θk , ϕk ) dΩk
l′ =0 m′ =−l′
∞ l ′
X X ′
= 4π il jl′ (kr) Yl′ ,m′ (θ, ϕ) δll′ δmm′ = 4πil jl (kr) Ylm (θ, ϕ)
l′ =0 m′ =−l′
Z r " r # r
ik·r 4πil π 2 4π π (0)
e Ylm (θk , ϕk ) dΩk = k jl (kr) Ylm (θ, ϕ) = l
ϕk,l,m (r)
k 2 π (−i) k 2
quedando finalmente r Z
(0) (−1)l il k 2
ϕk,l,m (r) = eik·r Ylm (θk , ϕk ) dΩk (19.87)
4π π
La Ec. (19.86) nos dice que un estado con momento lineal bien definido, involucra todos los valores posibles del
momento angular orbital. Recı́procamente, la Ec. (19.87) nos dice que un estado con momento angular orbital
bien definido,
√ involucra todas las ondas planas con la misma energı́a. Esto es, todas las ondas planas tales que
~ |k| = 2µE, incluyendo todas las direcciones posibles (θk , ϕk ).
De la forma explı́cita de los armónicos esféricos Eq. (11.30) pág. 331, vemos que esta probabilidad es independiente
de ϕ, de modo que tiene simetrı́a azimutal. Adicionalmente, en virtud del comportamiento asintótico de jl (ρ) cerca
al origen Ec. (19.61), vemos que la probabilidad (19.88) en la vecindad del origen se comporta en la forma
2 ρ2 ρ2l
dP ∼ |Yl,m (θ0 , ϕ0 )|2 dρ dΩ0
r→0 π k [(2l + 1)!!]2
21 ρ2l+2
dP ∼ dρ |Yl,m (θ0 , ϕ0 )|2 dΩ0
r→0 π k [(2l + 1)!!]2
por tanto al incrementar l, disminuye más rápidamente la probabilidad a medida que nos acercamos al origen. De
la Ec. (19.88), es claro que el comportamiento radial de la probabilidad está regulado por la función ρ2 jl2 (ρ). El
comportamiento de esta función se grafica en la Fig. 19.1. Tal figura muestra que esta función permanece pequeña
en el intervalo p
ρ < l (l + 1)
podemos entonces asumir que la probabilidad es prácticamente cero para
Figura 19.1: Comportamiento de ρ2 jl2 (ρ) con respecto a ρ. Aquı́ se grafica para l = 4.
1p
r< l (l + 1) (19.89)
k
lo anterior implica que una partı́cula en el estado ϕk,l,m (r) prácticamente no se afecta por lo que ocurra en el
interior de la esfera centrada en el origen O y de radio
1p
bl (k) = l (l + 1) (19.90)
k
lo anterior posee un interesante análogo semi-clásico. En mecánica clásica una partı́cula libre de momento p y
momento angular L, se mueve en lı́nea recta con parámetro de impacto
|L|
b= (19.91)
|p|
y el parámetro de impactopcrece con el módulo de L y decrece con el módulo de p (y por tanto con la energı́a).
Si reemplazamos |L| por ~ l (l + 1) y |p| por ~k, la Ec. (19.91) se convierte en (19.90). Puesto que clásicamente
el parámetro de impacto es la distancia de máximo acercamiento al origen, vemos que también clásicamente, la
“esfera de exclusión” de la partı́cula aumenta con el aumento del módulo del momento angular y disminuye con
el aumento de la energı́a (i.e. del módulo de p).
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 481
A priori parece extraño que exista una esfera de exclusión alrededor del origen. Después de todo, si las partı́culas
son libres el origen no es un punto privilegiado, ya que no hay un centro dispersor. Sin embargo, debe tenerse en
cuenta que el momento angular es una cantidad que se mide con respecto a cierto origen. En el análogo clásico,
un alto valor del momento angular (con respecto a un origen dado) significa un alto parámetro de impacto, es
decir la distancia de mayor aproximación al origen es grande. Cuánticamente, esto se manifiesta en el crecimiento
de la esfera de exclusión cuando aumenta el momento angular.
Como en cualquier experimento de dispersión, el lı́mite más importante es el lı́mite asintótico con r → ∞.
(0)
Usando tal lı́mite en la función esférica de Bessel Ec. (19.63), vemos que el comportamiento de ϕk,l,m (r) en este
régimen asintótico, vendrá dado por
r r π
(0) 2 21
ϕk,l,m (r) = k jl (kr) Ylm (θ, ϕ) ∼ −k sin l − ρ Ylm (θ, ϕ)
π r→∞ πρ 2
r π π r π π
2 1 ei( 2 l−ρ) − e−i( 2 l−ρ) 2 ei( 2 l−kr) − e−i( 2 l−kr)
= −k Ylm (θ, ϕ) = −k Ylm (θ, ϕ)
πρ 2i π 2ikr
quedando finalmente
r π π
(0) 2 e−ikr eil 2 − eikr e−il 2
ϕk,l,m (r) ∼ −k Ylm (θ, ϕ)
r→∞ π 2ikr
r −ikr ilπ
(0) 2 e e − eikr −il π
ϕk,l,m (r) ∼ −k Ylm (θ, ϕ) e 2 (19.92)
r→∞ π 2ikr
con lo cual en el infinito vemos que la función de onda esférica libre puede verse como la superposición de una
onda entrante r −1 e−ikr y una onda saliente r −1 eikr , cuyas amplitudes difieren por una diferencia de fase de lπ.
Si se construye un paquete de ondas esféricas libres, todas correspondientes al mismo valor de l y m (es decir
barriendo valores de k), podemos realizar una análisis similar al de la sección 18.5.1, y se concluye que para
t → −∞, solo existe un paquete de ondas entrante y para t → ∞ solo existe un paquete de ondas saliente.
De esta manera podemos pensar en la evolución temporal de una onda esférica libre en la siguiente forma: En
t → −∞ tenemos una onda entrante que converje hacia el origen O. A medida que se aproxima al origen comienza
a distorsionarse4 y vuelve sobre sus pasos cuando está a una distancia del orden de bl (k) dada por (19.90), de lo
cual surge una onda saliente con corrimiento de fase lπ con respecto a la onda entrante.
este problema es análogo al de un problema unidimensional de una partı́cula de masa µ, bajo la influencia de un
potencial efectivo. Es claro que la variable r es no negativa en coordenadas esféricas. Sin embargo, en el problema
4
Debemos tener en cuenta que esta distorsión se debe a una barrera centrı́fuga y no a un potencial real.
482 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
unidimensional equivalente, es conveniente ver a r como una variable que puede tomar valores negativos pero
tal que hay una barrera de potencial de altura infinita para r < 0, que excluye esta región (tanto clásica como
cuánticamente). El potencial efectivo se escribirá entonces en la forma
( 2
V (r) + l(l+1)~
2 para r > 0
Vef f (r) = 2µr
∞ para r < 0
π π
e−ikr ei(l 2 −δl ) − eikr e−i(l 2 −δl )
ϕk,l,m (r) ≃ −kC0 Ylm (θ, ϕ) (19.102)
r→∞ 2ikr
la onda parcial al igual que la onda esférica libre está constituı́da por la superposición de una onda entrante y una
saliente. Para facilitar la comparación entre las ondas parciales y las ondas esféricas libres, podemos modificar la
onda entrante de (19.102) para que quede casi idéntica a la dada por la Ec. (19.92). Para ello definimos una nueva
onda parcial ϕek,l,m (r) multiplicando ϕk,l,m (r) por una fase global eiδl que claramente no altera el contenido fı́sico
del estado, y redefiniendo la constante C0 de modo que
π
e−ikr eil 2 − eikr e−i(l 2 −2δl )
π
iδl
ek,l,m (r) ≡ e ϕk,l,m (r) ≃ −kC0 Ylm (θ, ϕ)
ϕ
"r #
r→∞ 2ikr
−ikr il π2 ikr −i(l π2 −2δl )
2 e e −e e
= −k C̄0 Ylm (θ, ϕ)
π 2ikr
p
ahora bien, el factor k 2/π garantiza la normalización de la función [ya que la función (19.55) está debidamente
normalizada]. En consecuencia, C̄0 tiene módulo unidad y por tanto es una fase global constante que se puede
remover. Tenemos finalmente
r −ikr ilπ
2 e e − eikr e2iδl −il π
ek,l,m (r) ≃ −k
ϕ Ylm (θ, ϕ) e 2 (19.103)
r→∞ π 2ikr
comparando las Ecs. (19.92, 19.103), podemos entonces interpretar esta expresión en la siguiente forma: Comen-
zamos con la misma onda entrante que en el caso de las ondas esféricas libres. A medida que se acerca al origen
(región de dispersión) esta onda entrante es cada vez más perturbada por el potencial. Después de reflejarse trans-
formada en una onda saliente, ha acumulado un corrimiento de fase de 2δl , con respecto a la onda saliente libre
que hubiera resultado en ausencia del potencial. Por tanto, el factor e2iδl (que varı́a con l y k) sintetiza el efecto
total del potencial sobre la partı́cula de momento angular l y energı́a ~2 k2 /2µ.
La anterior discusión es válida cuando tenemos un paquete de ondas compuesto por la superposición de ondas
parciales ϕk,l,m (r) todas con los mimos valores de l,m en las cuales la distribución de las k está muy concentrada
alrededor de cierto valor k0 . El análisis de este tipo de paquete muestra que para t → −∞, solo tenemos un paquete
de onda entrante que posteriormente interactúa con el potencial para dar paso al paquete saliente. También se
puede hacer una analogı́a semejante a la realizada en la sección 18.5.1. El fenómeno antes descrito es similar al
que se obtendrı́a si ponemos a interactuar a las ondas esféricas libres con un potencial dependiente del tiempo que
se “enciende” lentamente (adiabáticamente), tal potencial generarı́a las ondas parciales ϕk,l,m (r).
para un potencial dado, lM decrece a medida que decrece la energı́a incidente. Por tanto, puede ocurrir que los
corrimientos de fase significativos sean solo aquellos que estén asociados a las primeras ondas parciales. Para muy
bajas energı́as puede ser razonable incluı́r solo la onda s (i.e. l = 0), para energı́as un poco mayores se incluirı́an
las ondas parciales s y p (l = 0, 1) etc. Por esta razón, el método de ondas parciales adquiere su importancia
práctica en un régimen de bajas energı́as, que conduzca a un valor de lM no mucho mayor a la unidad. Cuando
esta condición se cumple, pueden tomarse pocas ondas parciales en buena aproximación, y el método es manejable.
Por otro lado, puesto que lM ∼ kr0 = 2πr0 /λ, vemos que lM es del orden del cociente entre el rango r0 del
potencial y la longitud de onda de la partı́cula incidente.
Finalmente, el argumento aquı́ presentado se puede extender al caso de potenciales de rango infinito si existe
alguna longitud caracterı́stica luego de la cual el potencial se pueda considerar despreciable. Tal longitud carac-
terı́stica harı́a las veces del rango r0 , y la discusión anterior serı́a válida aunque solo en forma aproximada. Este
es el caso de la longitud r0 definida en la Ec. (18.73) Pág. 458, para el potencial de Yukawa.
ahora debemos encontrar los coeficientes cl . Comencemos considerando el caso en que V (r) = 0, de modo que
(0)
ηk (r) se reduce a la onda plana eikz , y las ondas parciales se reducen a ondas esféricas libres ϕk,l,m (r), en tal caso
la expansión (19.107) se convierte en la expansión (19.84)
r ∞
(0) C π X lp (0)
ηk (r) = Ceikz = i 4π (2l + 1) ϕk,l,0 (r) (19.108)
k 2
l=0
para el potencial no nulo V (r), se debe incluir la onda esférica dispersada además de la onda plana. Por otro
lado, hemos visto que en su comportamiento asintótico, la onda parcial ϕ ek,l,0 (r) descrita por (19.103), difiere de
(0)
la onda esférica libre ϕk,l,m (r) descrita por (19.92) solo por la presencia de una onda esférica saliente, que tiene
la misma dependencia radial que la onda dispersada. En consecuencia, es de esperarse que los coeficientes cl de la
expansión (19.107) sean idénticos a los de la expansión (19.108) esto es
r ∞
C π X lp
ηk (r) = i 4π (2l + 1) ϕ ek,l,0 (r) (19.109)
k 2
l=0
6
En tal sentido las ondas parciales no son una base de Er .
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 485
esto también se puede ver con un argumento similar a los de las secciones 19.5, 18.5.1. Si tenemos una onda
plana cuya expansión viene dada por (19.108) y “encendemos” el potencial V (r) adiabáticamente, la onda plana
(0)
se transforma en la onda estacionaria de dispersión ηk (r). Similarmente, cada onda esférica libre ϕk,l,0 (r) se
transforma en la onda parcial ϕ ek,l,0 (r) cuando el potencial se activa, y teniendo en cuenta la linealidad de la
ecuación de Schrödinger, se tiene que cuando el potencial se activa la expresión (19.108) se mantiene en la misma
(0) (0)
forma reemplazando ηk (r) ≡ Aeikz por ηk (r) y cada onda esférica libre ϕk,l,m (r) por la onda parcial ϕ ek,l,0 (r).
De esta forma obtenemos la expresión (19.109).
Ahora debemos verificar que (19.109) cumpla con los requisitos de un estado estacionario de dispersión. En
primer lugar, puesto que cada onda parcial en la suma corresponde a un estado de energı́a bien definida y
todos corresponden a la misma energı́a ~2 k2 /2µ, tenemos que la superposición continúa siendo un autoestado del
Hamiltoniano i.e. un estado estacionario. Adicionalmente, debemos verificar que la expansión (19.109) cumple con
las condiciones asintóticas (18.26) Pág. 445, para estados estacionarios de dispersión. Para verlo, utilizaremos la
Ec. (19.103)
r ∞ ∞ π π
C π X lp X
l
p e−ikr eil 2 − eikr e−il 2 e2iδl
ηk (r) = ek,l,0 (r) ≃ −C
i 4π (2l + 1) ϕ i 4π (2l + 1) Yl,0 (θ) (19.110)
k 2 r→∞ 2ikr
l=0 l=0
quedando finalmente
∞
eikr C Xp
ηk (r) ≃ Ceikz + fk (θ) ; fk (θ) ≡ 4π (2l + 1) Yl,0 (θ) eiδl sin δl (19.113)
r→∞ r k
l=0
con lo cual demostramos que la expansión (19.109) cumple con la condición asintótica (18.26). Adicionalmente, la
Ec. (19.113) nos brinda la forma explı́cita de la amplitud de dispersión fk (θ) en términos de los corrimientos de
486 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
fase δl . Con la amplitud de dispersión podemos proceder a calcular la sección eficaz diferencial a través de la Ec.
(18.44), Pág. 450
2 ∞ 2
1 1 X p
D (θ) = fk (θ) = 2 iδ
4π (2l + 1) Yl,0 (θ) e l sin δl
C k
l=0
∞ ∞
1 XX p
D (θ) = 4π (2l + 1) (2l′ + 1) Yl∗′ ,0 (θ) Yl,0 (θ) ei(δl −δl′ ) sin δl sin δl′ (19.114)
k2 ′
l=0 l =0
y la sección eficaz total la obtenemos integrando D (θ) sobre todo el ángulo sólido
Z ∞ ∞ Z
1 XX p ′ + 1) ei(δl −δl′ ) sin δ sin δ ′
σ = dΩ D (θ) = 4π (2l + 1) (2l l l dΩ Yl∗′ ,0 (θ) Yl,0 (θ)
k2 ′
l=0 l =0
∞ ∞
1 XX p
σ = 4π (2l + 1) (2l′ + 1) ei(δl −δl′ ) sin δl sin δl′ δll′
k2 ′
l=0 l =0
X∞
4π
σ = (2l + 1) sin2 δl (19.115)
k2
l=0
nótese que en virtud de la ortonormalidad de los armónicos esféricos, los términos de interferencia asociados a
diferentes momentos angulares y que están presentes en la sección eficaz diferencial (19.114), están ausentes en la
sección eficaz total (19.115). Vemos además que para cualquier potencial central V (r), la contribución asociada a
cada l a la sección eficaz total es positiva
4π
(2l + 1) sin2 δl ≥ 0
k2
y tiene una cota superior para una energı́a dada (k dado):
4π 4π
2
(2l + 1) sin2 δl ≤ 2 (2l + 1) (19.116)
k k
Vemos que las expresiones (19.114, 19.115) requieren conocer en principio todos los corrimientos de fase δl . En la
sección 19.5 vimos que si el potencial V (r) es conocido, estos corrimientos de fase se calculan de la ecuación radial
asociada (19.94). La ecuación radial (19.94) debe ser solucionada para cada l por aparte. Por lo anterior, el método
de ondas parciales es atractivo en la práctica cuando hay un número suficientemente pequeño de corrimientos de
fase δl que adquieren un valor considerable y los demás son despreciables. En la sección 19.5.1, vimos que para
el caso de potenciales de rango finito, los corrimientos de fase δl son despreciables cuando l > lM , siendo lM un
momento angular crı́tico dado por la fórmula (19.106), y que los argumentos allı́ discutidos se pueden extender
para potenciales de rango infinito, siempre y cuando podamos definir un rango o alcance caracterı́stico para la
interacción.
Sin embargo, en muchos experimentos de dispersión, el potencial es desconocido y de hecho muchos experimen-
tos se diseñan para modelarlo. En tal caso, usualmente se procura reproducir las curvas experimentales de sección
eficaz diferencial a una energı́a fija introduciendo un pequeño número de corrimientos de fase δl . Con frecuencia
la dependencia con θ de D (θ) sugiere el mı́nimo número de fases a utilizar. Por ejemplo, si la sección eficaz es
aproximadamente isotrópica, esto sugiere que solo la onda s (l = 0) contribuye significativamente, ya que Y00 es
constante. Una vez que determinamos las fases δl que contribuyen a diferentes valores de energı́a, podemos buscar
modelos de potenciales que reproduzcan las fases para cada energı́a dada. Es decir, las fases y su dependencia con
la energı́a.
La dependencia de la sección eficaz con la energı́a es tan importante como su dependencia angular. En algunos
casos se observa una rápida variación de la sección eficaz total cuando nos movemos en cierta vecindad del rango
19.5. ONDAS PARCIALES EN EL POTENCIAL V (R) 487
de energı́a. Por ejemplo, si una de las fases δl toma el valor π/2 para E = E0 , la contribución asociada a σ adquiere
su cota superior (ver Ec. 19.116), y la sección eficaz puede mostrar un pico agudo en E = E0 . Este fenómeno
se conoce como resonancia en la dispersión. Este fenómeno es similar a la resonancia en la transmisión que
ocurre en una barrera de potencial unidimensional, como se discutió en la sección 3.7.1, Pág. 177.
este es un caso tı́pico de potencial de rango finito (con rango r0 ) como se discutió en la sección 19.5.1. Asumiremos
que la energı́a de la partı́cula incidente es suficientemente pequeña de modo que se cumple la condición
kr0 ≪ 1 (19.117)
Combinando la condición (19.117) con (19.106) vemos que lM ≪ 1, y debido al carácter discreto de l, se concluye
que lM = 0. Como consecuencia, podemos despreciar todos los corrimientos de fase δl , excepto el asociado a la
onda s con l = 0. En tal caso, la amplitud de dispersión (19.113) viene dada por
C√
fk (θ) = 4π Y0,0 (θ) eiδ0 sin δ0
k
C iδ0 (k)
fk (θ) = e sin δ0 (k)
k
y la sección eficaz diferencial resulta isotrópica
2
1 1
D (θ) = fk (θ) = 2 sin2 δ0 (k)
C k
por definición, el corrimiento de fase δ0 está dado por la forma asintótica de uk,0 (r), Ec. (19.101), Pág. 482
insertando (19.123) en (19.118) y teniendo en cuenta que kr0 ≪ 1, la sección eficaz total queda
4π 4π
σ = 2
sin2 kr0 ≃ 2 (kr0 )2
k k
σ ≃ 4πr02 (19.124)
vemos que σ es independiente de la energı́a, aunque debe mantenerse la condición (19.117). Y es igual a cuatro
veces la sección transversal que ven las partı́culas del haz (i.e. cuatro veces el resultado clásico Ec. 18.9). La
desviación con respecto al resultado clásico se debe a que en el caso cuántico estudiamos la evolución de la onda
asociada a las partı́culas incidentes, y el cambio abrupto de V (r) en r = r0 , produce un fenómeno análogo a la
difracción de una onda de luz. De hecho, el lı́mite (19.117) nos dice que la longitud de onda de las partı́culas
incidentes es mucho mayor que r0 de modo que en tal lı́mite el fenómeno es notoriamente ondulatorio, por lo cual
es de esperarse una fuerte desviación con respecto al resultado de partı́cula clásica.
Se puede demostrar que en el lı́mite
kr0 ≫ 1 (19.125)
la sección eficaz total toma el valor
σ ∼ 2πr02 (19.126)
k→∞
puesto que este lı́mite corresponde al caso en el cual la longitud de onda de las partı́culas incidentes es despreciable
con respecto a r0 , podrı́a pensarse a priori que debe emularse el comportamiento corpuscular clásico. Sin embargo,
la comparación entre los resultados clásico (18.9) y cuántico (19.126) muestra que no es ası́. Esto se debe al hecho
de que el potencial es discontı́nuo en r = r0 y por tanto varı́a apreciablemente dentro de un intervalo más pequeño
que la longitud de onda de las partı́culas (ver discusión en la sección 3.4, Pág. 165), de modo que también se
manifiesta fuertemente el carácter cuántico de la interacción.
multiplicar la onda saliente libre por e2iδl (que es como se obtiene la onda saliente con potencial), no se altera
la amplitud de ésta y por tanto la onda saliente tiene la amplitud de la entrante, ya que tal factor tiene módulo
unidad (ver Ec. 19.98, Pág. 482). Esto implica que el flujo total de la onda entrante es igual al de la onda saliente,
con lo cual la probabilidad se conserva durante la dispersión y por tanto el número de partı́culas es constante.
La discusión anterior sugiere que los procesos de absorción se pueden incluı́r introduciendo un factor de la forma
e2iδl de módulo menor que la unidad, para lo cual serı́a necesario que δl ya no sea una fase real sino compleja
donde la condición sobre el módulo nos dará cuenta del fenómeno absortivo. En el lı́mite elástico este módulo será
igual a la unidad. Tomando la forma asintótica del estado estacionario de dispersión ηk (r), bajo el potencial V (r)
ecuación (19.110) Pág. 485, en términos de ξl tenemos
∞
X p π π
e−ikr eil 2 − ξl eikr e−il 2
ηk (r) ∼ −C il 4π (2l + 1) Yl,0 (θ) (19.128)
r→∞ 2ikr
l=0
la identidad (19.111) continúa siendo válida para δl complejo, y por tanto la amplitud de dispersión fk (θ) continúa
siendo la indicada en (19.113) que en términos de ξl se escribe
∞ ∞
C Xp C Xp e2iδl − 1
fk (θ) ≡ 4π (2l + 1) Yl,0 (θ) eiδl sin δl = 4π (2l + 1) Yl,0 (θ)
k k 2i
l=0 l=0
∞
C Xp ξl − 1
fk (θ) = 4π (2l + 1) Yl,0 (θ) (19.129)
k 2i
l=0
con lo cual se obtiene la sección eficaz diferencial para la parte elástica del proceso, la cual viene dada por
2
fk (θ) 2 X∞ p
Del (θ) = = 1
4π (2l + 1) Yl,0 (θ) (ξl − 1) (19.130)
C 4k2
l=0
490 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
Z ∞ ∞ Z
1 XXp p ∗
σel = Del (θ) dΩ = 2 ′
4π (2l + 1) 4π (2l + 1) (ξl − 1) (ξl′ − 1) Yl,0 (θ) Yl∗′ ,0 (θ) dΩ
Ω 4k ′ Ω
l=0 l =0
∞ ∞
π XXp
= (2l + 1) (2l′ + 1) (ξl − 1) (ξl∗′ − 1) δll′
k2 ′l=0 l =0
quedando finalmente
∞
π X
σel = (2l + 1) |1 − ξl |2 (19.131)
k2
l=0
de acuerdo con nuestra discusión, la absorción de la onda l, alcanza su máximo cuando ξl = 0. Sin embargo, la
Ec. (19.131) nos indica que aún en este lı́mite, la onda l contribuye a la sección eficaz elástica. Es decir, incluso
si la región de interacción es perfectamente absorbente, produce dispersión elástica. Este fenómeno es análogo al
comportamiento de una onda luminosa que incide en un medio absorbente. Incluso si la absorción es total (por
ejemplo una esfera o disco perfectamente negros) se observa una onda difractada concentrada en un ángulo sólido
que disminuye a medida que la superficie del disco aumenta. Este fenómeno no tiene análogo en la dispersión
clásica de partı́culas ya que depende del comportamiento ondulatorio de éstas. La dispersión elástica producida
por una interacción totalmente absorbente se denomina dispersión de sombra.
Ahora bien, ası́ como se definió la sección eficaz de dispersión como un cociente entre número de partı́culas
dispersadas por unidad de tiempo y flujo incidente, definiremos la sección eficaz de absorción como el cociente
entre el número de partı́culas absorbidas por unidad de tiempo y el flujo incidente.
Para calcular esta sección eficaz calcularemos la cantidad total de probabilidad ∆P que “desaparece” por
unidad de tiempo, la cual es proporcional a la cantidad total de partı́culas incidentes que “desaparecen” por
unidad de tiempo. Esta probabilidad se puede obtener a través de la densidad de corriente J asociada con la
función de onda (19.128). La cantidad ∆P corresponde a la diferencia entre el flujo de la onda entrante através
de una esfera S de radio muy grande R0 y la de la onda saliente sobre la misma superficie. Por tanto, ∆P es igual
a menos el flujo neto del vector J que sale de la esfera8
Z
~
∆P = − J · dS ; J = Re ηk∗ (r) ∇ηk (r)
iµ
puesto que para la esfera de radio muy grande R0 se tiene que dS = R02 dΩ ur , entonces solo la componente radial
de la corriente Jr contribuye a la integral. Tendremos entonces que
Z
2 ~ ∂
∆P = − Jr r dΩ ; Jr = Re ηk∗ (r) ηk (r)
r=R0 iµ ∂r
teniendo en cuenta que R0 corresponde a radio muy grande, podemos usar el lı́mite asintótico (19.128) y tenemos
8
El signo menos se debe a que el diferencial de superficie se define hacia afuera de la esfera y nos interesa medir el flujo neto hacia
adentro.
19.6. COLISIONES CON ABSORCIÓN 491
que
∞ p
X p
Jr = 4π |C|2 (2l + 1) ∗
(2l′ + 1) Yl,0 (θ) Yl′ ,0 (θ)
l,l′ =0
π π
!
eikr e−il 2 − ξl∗ e−ikr eil 2 ~ ∂ e−ikr eil
′π
2 − ξl′ eikr e−il
′π
2
×Re
(−2ikr) iµ ∂r 2ikr
∞
π~ |C|2 X p ∗
Jr = (2l + 1) (2l′ + 1)Yl,0 (θ) Yl′ ,0 (θ) Ml,l′ (r)
k2 µ
l,l′ =0
" !#
1 ikr −il π ∗ −ikr il π
∂ e−ikr eil′ π2 − ξ ′ eikr e−il′ π2
l
Ml,l′ (r) ≡ Re e e 2 − ξl e e 2 (19.132)
r ∂r ir
al realizar la integral sobre el ángulo sólido y usar la ortonormalidad de los armónicos esféricos queda
Z ∞ Z
π~ |C|2 X p
∆P = − Jr r 2 dΩ = − 2 (2l + 1) (2l′ + 1) R02 Ml,l′ (R0 ) Yl,0
∗
(θ) Yl′ ,0 (θ) dΩ
r=R0 k µ ′ Ω
l,l =0
∞
2 X
π~ |C|
∆P = − (2l + 1) R02 Ml,l (R0 ) (19.133)
k2 µ
l=0
de modo que solo tenemos que calcular Ml,l (r) de la Ec. (19.132)
Ml,l (r) = Re Hl,l (r)
!
1 ikr −il π ∂ π π
π e−ikr eil 2 − ξl eikr e−il 2
Hl,l (r) = e e 2 − ξl∗ e−ikr eil 2
r ∂r ir
!
1 ikr −il π π
e−ikr eil π2 + ξ eikr e−il π2
l e−ikr eil π2 − ξ eikr e−il π2
l
= e e 2 − ξl∗ e−ikr eil 2 −ik −
r ir ir 2
e −ikr eil π2 − ξ eikr e−il π2
1 π π π π l
= 2 eikr e−il 2 − ξl∗ e−ikr eil 2 −k e−ikr eil 2 + ξl eikr e−il 2 + i
r r
k π π
π π
= 2 ξl∗ e−ikr eil 2 − eikr e−il 2 e−ikr eil 2 + ξl eikr e−il 2
r
i π π
π π
+ 3 eikr e−il 2 − ξl∗ e−ikr eil 2 e−ikr eil 2 − ξl eikr e−il 2
r
k h ∗ −2ikr ilπ i i h i
= 2 ξl e e + |ξl |2 − 1 − ξl e2ikr e−ilπ + 3 1 − ξl e2ikr e−ilπ − ξl∗ e−2ikr eilπ + |ξl |2
r r
k h i i h i
Hl,l (r) = 2 −2i Im ξl e2ikr e−ilπ + |ξl |2 − 1 + 3 1 + |ξl |2 − 2Re ξl e2ikr e−ilπ
r r
tomando la parte real de Hl,l (r) queda
k h i
Ml,l (r) = Re Hl,l (r) = 2 |ξl |2 − 1 (19.134)
r
sustituyendo (19.134) en (19.133) resulta
k h i
∞
π~ |C|2 X
∆P = − 2 (2l + 1) R02 2 |ξl |2 − 1
k µ R0
l=0
2
~k |C| π X∞ h i
∆P = (2l + 1) 1 − |ξl |2 (19.135)
µ k2
l=0
492 CAPÍTULO 19. TEORÍA CUÁNTICA DE LA DISPERSIÓN II: ONDAS PARCIALES
la sección eficaz total de absorción σabs es por tanto la probabilidad por unidad de tiempo ∆P, dividida por la
corriente incidente ~k |C|2 /µ
π X
∞ h i
σabs = 2 (2l + 1) 1 − |ξl |2 (19.136)
k
l=0
vemos que si |ξl | = 1 para cada l, la sección eficaz total de absorción es cero. De acuerdo con (19.127), esto
corresponde al caso en el cual todos los corrimientos de fase δl son reales y por tanto la dispersión es completamente
elástica, en cuyo caso el flujo neto de probabilidad que sale de la esfera de radio R0 es cero. La probabilidad total
transportada por la onda entrante es totalmente transferida a la onda saliente (no hay “pérdida” de probabilidad,
y por tanto la probabilidad se conserva).
Nótese que si ξl = 0, la contribución de la onda parcial (l) a la sección eficaz de absorción es máxima. En este
caso, el cálculo de (19.135) nos muestra que la expresión
~k |C|2 π
∆Pl ≡ (2l + 1)
µ k2
es la cantidad de probabilidad entrante por unidad de tiempo, que surge de la onda parcial (l). Si dividimos esta
cantidad por la corriente incidente ~k |C|2 /µ, obtenemos una superficie denominada sección eficaz entrante
para la onda parcial (l).
π
σl = 2 (2l + 1) (19.137)
k
la expresión (19.137) posee un análogo semi-clásico interesante. Podemos considerar que la onda incidente plana
describe un haz de partı́culas de densidad uniformep 9 , con momento ~ku . ¿Que proporción de estas partı́culas al-
3
canzan el potencial dispersor con momento angular l (l + 1)~?. Para verlo usaremos la relación entre el momento
angular y el parámetro de impacto en mecánica clásica Ec. (19.91)
si pintamos un anillo circular centrado en O y perpendicular al eje OZ,pde radio interior bl − ∆bl /2 y radio exterior
bl + ∆bl /2, podemos ver que una partı́cula con momento angular ~ l (l + 1) tendrı́a parámetro de impacto bl
dado por p
~ l (l + 1) = ~kbl (19.138)
el anillo tiene radio promedio bl y ancho ∆bl correspondiente a ∆l = 1 (debido a la cuantización del número
cuántico l) en la expresión (19.138). Todas
p las partı́culas que cruzan esta superficie alcanzan el potencial dispersor
con un momento angular dado por ~ l (l + 1) dentro de ~ [es decir dentro del intervalo (l − 1, l + 1)]. De la Ec.
(19.138) podemos ver que10
1p 1 1
bl = l (l + 1) ≃ l+ si l ≫ 1 (19.139)
k k 2
y por tanto
bl+1 − bl−1 1 1 1 1 1
∆bl = = (l + 1) + − (l − 1) +
2 2 k 2 k 2
1
∆bl =
k
9
Sin embargo debe tenerse cuidado con la analogı́a, ya que cuánticamente la onda plana representa una sola partı́cula, cuyo estado
se describe como la superposición de muchas ondas parciales.
10
Si hacemos x = l−1 y usamos la expansión
s
1 1 1 1 1 1 2
+1 = + − x+ x + ...
x x x 2 8 16
se obtiene
∞ ∞
2π X 2π X
σtot = (2l + 1) (1 − Re ξ l ) = (2l + 1) Re (1 − ξl ) (19.140)
k2 k2
l=0 l=0
Por otro lado, teniendo en cuenta que r
2l + 1
Yl,0 (0) = (19.141)
4π
podemos calcular la amplitud de dispersión elástica Ec. (19.129), en la dirección frontal (θ = 0).
∞ ∞ r
C Xp ξl − 1 C Xp 2l + 1 Reξl + i Imξl − 1
fk (0) = 4π (2l + 1) Yl,0 (0) = 4π (2l + 1)
k 2i k 4π 2i
l=0 l=0
∞ ∞
CX −iRe ξl + Imξl + i CX Imξl + i (1 − Re ξl )
fk (0) = (2l + 1) = (2l + 1)
k 2 k 2
l=0 l=0
la parte imaginaria de la amplitud de dispersión elástica en la dirección frontal, estará dada por
∞
CX 1 − Re ξl
Imfk (0) = (2l + 1) (19.142)
k 2
l=0
esta relación entre la sección eficaz total y la parte imaginaria de la amplitud de dispersión elástica en la dirección
frontal es válida en un contexto muy general y se conoce como teorema óptico.
Es claro que el teorema óptico es válido en el caso especial de dispersión puramente elástica en el cual σabs = 0
y σtot = σel . En este caso el hecho de que fk (0) (y por tanto la onda dispersada en la dirección frontal) esté
relacionada con la sección eficaz total se puede deducir de los argumentos de la sección 18.6. En la dirección
frontal, tenemos una interferencia entre la onda plana incidente y la onda dispersada, tal interferencia nos da
cuenta de la atenuación del haz transmitido, debido a la dispersión de partı́culas en todas las direcciones del
espacio.
Capı́tulo 20
La ecuación de Schrödinger para sistemas conservativos se resuelve por medio de la ecuación de valores propios
del Hamiltoniano. Existen algunos problemas que involucran Hamiltonianos independientes del tiempo que se
pueden resolver analı́ticamente en forma exacta, como ocurre con el oscilador armónico y el átomo de Hidrógeno.
Sin embargo, son pocos los problemas que en la práctica se pueden resolver analı́ticamente en forma exacta. Por
ejemplo, el átomo de Helio que consta de dos electrones no tiene solución analı́tica exacta, y menos aún los átomos
de más electrones. Cuando al átomo de Hidrógeno se le agregan las correcciones relativistas, tampoco se puede
resolver el problema en forma exacta.
Por esta razón, suele recurrirse a los métodos numéricos computacionales. No obstante, existen algunos métodos
analı́ticos para resolver el problema de valores propios. En este capı́tulo estudiaremos uno de estos métodos
conocido como teorı́a estacionaria de perturbaciones.
Este método se basa en una estrategia según la cual comenzamos estudiando los efectos principales o dominantes
sobre el sistema fı́sico. Una vez que entendemos estos efectos, procedemos a enfocarnos en efectos más pequeños
que fueron despreciados en la primera aproximación. Es en el tratamiento de estos efectos secundarios en el
que la teorı́a de perturbaciones entra en acción. En capı́tulos subsecuentes veremos aplicaciones de la teorı́a de
perturbaciones en fı́sica atómica y molecular.
H = H0 + W (20.1)
en donde H0 es el Hamiltoniano “no perturbado” que da cuenta de los efectos principales y cuyos valores y vectores
propios son conocidos. El término W conocido como la “perturbación” se asume mucho más pequeño que H0 ,
lo cual significa que en la base de autoestados de H0 , los elementos matriciales de W son mucho más pequeños
que los de H0 . De hecho, veremos más adelante que se requiere una condición más fuerte, y es que los elementos
de matriz de W deben ser mucho menores que las diferencias entre los autovalores de H0 correspondientes. Para
hacer más explı́cita esta “pequeñez” escribiremos
c
W = λW ; λ ≪ 1. (20.2)
siendo λ un parámetro adimensional mucho menor que 1, y el operador W c tiene elementos matriciales comparables
a los de H0 . En nuestra presente formulación asumiremos que tanto H0 como W son independientes del tiempo,
razón por la cual hablamos de teorı́a estacionaria de perturbaciones. La idea es encontrar la forma en que W
cambia los niveles de energı́a y los estados estacionarios del sistema. La teorı́a de perturbaciones consistirá en
expandir estas cantidades en potencias de λ, conservando solo las primeras potencias. Consideraremos que los
495
496 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES
niveles de energı́a Ep0 asociados a H0 son conocidos y discretos, ası́ como los estados estacionarios ϕip
H0 ϕip = Ep0 ϕip
sustituyendo (20.2) en (20.1) podemos considerar al Hamiltoniano H “de perturbación” como una función contı́nua
del parámetro λ, el cual regula la intensidad de la perturbación
c
H (λ) = H0 + λW (20.3)
es obvio que H (λ = 0) = H0 . Los autovalores perturbados E dependen de λ, y es claro que para λ = 0, el valor
propio E (λ) debe coincidir con algún valor propio de H0 , digamos En0 . El valor propio perturbado E (λ) puede
comportarse de diversas formas con respecto 0
i a λ. Por ejemplo, supongamos que un valor propio En de H0 es
degenerado, y está asociado a los estados ϕn . Si “prendemos” de forma contı́nua la perturbación aumentando
contı́nuamente el parámetro λ desde cero, es posible que la degeneración se levante total o parcialmente, de manera
que varios niveles distintos de energı́a E (λ) surgen a partir de En0 cuando se incrementa λ desde cero (ver Fig.
20.1). En la Fig. 20.1 se muestra que también es posible que la degeneración se mantenga de modo que no se
separan varias curvas a partir de En0 cuando se incrementa λ. Adicionalmente, la Fig. 20.1 muestra que puede
ocurrir que las curvas que parten desde distintos niveles de energı́a no perturbados En0 y Ep0 se corten en algún
punto fijo λ1 , en cuyo caso es la perturbación la que está generando una degeneración.
Figura 20.1: Comportamiento de E (λ) con respecto a λ para diferentes valores del nivel no perturbado. Las curvas
que parten de los niveles E10 y E20 corresponden a estados no degenerados. La curva de E30 , corresponde a un nivel
no perturbado doblemente degenerado, cuya degeneración se levanta para λ 6= 0 por efecto de la perturbación. El
nivel asociado a E40 es doblemente degenerado y la perturbación conserva la degeneración. Vemos además que dos
curvas asociadas a E20 y E30 se cruzan en λ = λ1 produciendo una degeneración accidental.
Dado que H (λ) es un observable, el conjunto de todos sus kets propios linealmente independientes será una
base para el espacio de estados. Cuando λ → 0 todas las cantidades tienden a sus valores no perturbados.
20.2. SOLUCIÓN APROXIMADA PARA LOS VALORES PROPIOS DE H (λ) 497
por supuesto es necesario garantizar la convergencia de estas series. En la práctica, estas series convergen rápida-
mente para una gran cantidad de problemas fı́sicos siempre que λ ≪ 1. Si sustituı́mos estas expansiones al igual
que la definición (20.3) en la ecuación de valores propios perturbada (20.4) tenemos que
" # ∞
X ∞ X∞ X
H0 + λW c λq |qi = λm εm λq |qi (20.7)
q=0 m=0 q=0
ahora bien, esta ecuación debe ser válida para λ pequeño pero por lo demás arbitrario. Por tanto, debemos igualar
coeficientes asociados a la misma potencia en la Ec. (20.7). En la práctica, nos interesa simplificar el problema
tomando solo algunos términos en las series dadas en la Ec. (20.7). Puesto que se deben igualar coeficientes
asociados a potencias iguales de λ en ambos miembros de la Ec. (20.7), es necesario asegurarse de incluir todas
las contribuciones que se generan para cada potencia de λ. Si nos interesa incluir los términos hasta un potencia
λp , entonces debemos convertir cada serie de (20.7) en una sumatoria desde q = 0 hasta q = p, y al realizar las
multiplicaciones no se considerarán los términos con potencias mayores a p.
De las anteriores consideraciones, si queremos calcular las contribuciones a orden cero (para potencias hasta
λ ) debemos reemplazar las series en (20.7) por las sumatorias1
0
" 0 # 0
X0 X X
H0 λq |qi = λm εm λq |qi
q=0 m=0 q=0
H0 |0i − ε0 |0i + λH0 |1i − λε0 |1i + λWc |0i − λε1 |0i = 0 , a primer orden en λ
λH0 |1i − λε0 |1i + λWc |0i − λε1 |0i = 0 , a primer orden en λ
(H0 − ε0 ) |1i + Wc − ε1 |0i = 0 , a primer orden en λ (20.9)
donde hemos usado la expresión (20.8) a orden cero. En el método perturbativo, es importante que las condiciones
que impongamos sean válidas en cada orden, por esta razón asumimos que la condición (20.8) obtenida a orden
cero, sigue siendo válida a primer orden. Para la aproximación de segundo orden la Ec. (20.7) queda
" 2 # 2
X 2 X X
H0 + λWc λq |qi = λm εm λq |qi
q=0 m=0 q=0
c
|0i + λ |1i + λ2 |2i = ε0 + λε1 + λ2 ε2 |0i + λ |1i + λ2 |2i
H0 + λW
c |0i + λ2 W
H0 |0i + λH0 |1i + λ2 H0 |2i + λW c |1i + O λ3 = ε0 |0i + λε1 |0i + λ2 ε2 |0i + λε0 |1i
+λ2 ε1 |1i + λ2 ε0 |2i + O λ3
una vez más tenemos en cuenta que las expresiones obtenidas a orden cero y uno, también deben ser válidas a
segundo orden2 . Por tanto, los términos entre paréntesis cuadrados se anulan en virtud de las ecuaciones (20.8,
20.9), quedando
(H0 − ε0 ) |2i + W c − ε1 |1i − ε2 |0i = 0 ; a segundo orden en λ (20.11)
el lector puede comprobar que a un orden arbitrario q en λ se obtiene la ecuación
(H0 − ε0 ) |qi + Wc − ε1 |q − 1i − ε2 |q − 2i . . . − εq |0i = 0 ; q − ésimo orden en λ (20.12)
En este contexto estudiaremos las contribuciones hasta de segundo orden en λ. Puesto que la ecuación (20.4)
solo define a los kets |ψ (λ)i dentro de un factor constante, fijaremos su valor exigiendo que todos los |ψ (λ)i estén
normalizados. Adicionalmente, escogeremos su fase de tal modo que se cumpla la condición
h0 |ψ (λ)i ∈ R (20.13)
es decir elegimos que |ψ (λ)i esté en fase con |0i para todo λ. De nuevo la relación (20.13) ası́ como la condición
de normalización, deben ser válidas a todos los órdenes en teorı́a de perturbaciones. En particular, a orden cero la
Ec. (20.6) implica que |ψ (λ)i ≃ |0i, de modo que la condición de normalización de |ψ (λ)i a orden cero requiere
que el ket |0i esté normalizado
k|0ik2 = h0 |0i = 1 (20.14)
sin embargo, la fase de |0i aún permanece arbitraria. Más adelante veremos como fijar la fase de este ket. De
acuerdo con la Ec. (20.6), a primer orden la norma al cuadrado de |ψ (λ)i está dada por
k|ψ (λ)ik2 = hψ (λ) |ψ (λ)i = [h0| + λ h1|] [|0i + λ |1i] + O λ2
= h0 |0i + λ [h0 |1i + h1 |0i] + O λ2
y puesto que λ es real, h0 |1i es real de modo que h0 |1i = h1 |0i. Este hecho junto con la Ec. (20.15) nos da
aplicando las Ecs. (20.14, 20.16) (que son producto de la exigencia de normalización de |ψ (λ)i y convención de
fase a orden cero y uno) nos da
k|ψ (λ)ik2 = 1 + λ2 [h2 |0i + h0 |2i + h1 |1i] + O λ3
la convención de fase (20.13) a segundo orden junto con la Ec. (20.16) nos llevan a
h0| |0i + λ |1i + λ2 |2i = h0 |0i + λ h0| 1i + λ2 h0| 2i = 1 + λ2 h0| 2i ∈ R
y puesto que λ es real, se tiene que h0| 2i es real. Esto junto con la exigencia de normalización para |ψ (λ)i a
segundo orden, nos da
y si asumimos que el espectro E (λ) y los kets propios |ψ (λ)i de H se pueden expandir como una serie de potencias
en λ
∞
X
E (λ) = ε0 + λε1 + λ2 ε2 + . . . + λq εq + . . . = λq εq (20.21)
q=0
∞
X
2 q
|ψ (λ)i = |0i + λ |1i + λ |2i + . . . + λ |qi + . . . = λq |qi (20.22)
q=0
ası́ mismo se exige que |ψ (λ)i esté normalizado y que cumpla la convención de fase
h0 |ψ (λ)i ∈ R (20.27)
la exigencia de que tanto la normalización como la convención de fase deben cumplirse a cada orden en teorı́a de
perturbaciones, nos lleva a las siguientes condiciones
ε0 = En0 (20.32)
esta ecuación junto con (20.23) implican que |0i debe ser proporcional a |ϕn i 3 . Puesto que ambos vectores están
normalizados es natural escoger
|0i = |ϕn i (20.33)
de modo que cuando λ → 0 encontraremos el autoestado sin perturbar |ϕn i (con la misma norma y la misma
fase)4 .
Denominamos E (λ) al valor propio de H (λ) que toma el valor de En0 cuando λ → 0. Asumiremos que λ es
suficientemente pequeño para que permanezca no degenerado para todo λ, recordemos que es posible que las curvas
de E (λ) vs λ asociadas a dos estados no perturbados distintos En0 y Ep0 se crucen en algún punto λ1 produciendo
una degeneración accidental (ver Fig. 20.1, Pág 496). En tal caso debemos imponer que λ < λ1 . Comenzaremos
con la corrección de la energı́a a primer orden.
3
Nótese que esta afirmación depende del carácter no degenerado de En0 , ya que de lo contrario el ket asociado a tal valor propio no
es único.
4
Recordemos que la fase del ket |0i estaba aún sin determinar. La Ec. (20.33), nos determina dicha fase.
20.3. PERTURBACIÓN DE UN NIVEL NO DEGENERADO 501
donde hemos usado las Ecs. (20.32, 20.33), ası́ como el hecho de que H0 puede actuar sobre el bra debido a su
carácter hermı́tico. Esta ecuación se puede reescribir como
c |ϕn i
ε1 = hϕn | W (20.34)
con lo cual cuando el estado no perturbado En0 es no degenerado, el autovalor E (λ) de H asociado a En0 puede
escribirse a primer orden en la perturbación W = λWc en la forma (20.35). Vemos que la corrección a primer
0
orden de un nivel no degenerado En es igual al valor esperado del término de perturbación W en el estado no
perturbado |ϕn i.
donde hemos usado las Ecs. (20.32, 20.33). El ı́ndice i indica que otros valores propios pueden
ser degenerados.
Puesto que vectores propios asociados a valores propios distintos son ortogonales, se tiene que ϕip ϕn i = 0. Por
tanto, la Ec. (20.36) queda
Ep0 − En0 ϕip 1i + ϕip W
c |ϕn i = 0 ; (p 6= n)
esto nos da los coeficientes de Fourier de la expansión de |1i sobre toda la base no perturbada excepto |ϕn i
ϕip W
c |ϕn i
ϕip 1i = ; (p 6= n)
En0 − Ep0
y aplicando (20.22) vemos que el autovector |ψn (λ)i de H asociado a el estado no perturbado |ϕn i, se escribe a
c en la forma
primer orden en la perturbación W = λW
X X ϕip Wc |ϕn i
|ψn (λ)i = |ϕn i + λ i
ϕp + O λ2 (20.39)
0
En − Ep0
p6=n i
la corrección a primer orden del vector de estado es una superposición de todos los estados no perturbados
excepto su autoestado no perturbado asociado. Se dice entonces que la perturbación
W produce una “mezcla” del
estado |ϕn i con los otros autoestados de H0 . La contribución de un estado ϕip será nula si el elemento matricial
i
c |ϕn i es cero. En general la mezcla con el estado ϕi aumenta con el aumento del acople ϕi W
ϕp W c |ϕn i entre
i p p
0 0
los estados |ϕn i y ϕp , y también aumenta al disminuir el desdoblamiento En − Ep entre los niveles asociados.
De la discusión anterior y la Ec. (20.39) se desprende que no es suficiente que los elementos matriciales de W
sean mucho menores que los de H0 , para que la contribución de W sea pequeña. Para que la corrección de primer
orden al vector de estado sea pequeña, es necesario además que los elementos no diagonales de la matriz W sean
mucho más pequeños que el desdoblamiento de los niveles de energı́a asociados.
al
insertar
E un operador identidad y teniendo en cuenta que |0i debe ser ortogonal a cualquier vector de la forma
j
ϕp con p 6= n (ya que |0i ∈ En0 y por tanto es ortogonal a Ep0 con p 6= n), nos queda
gp
XX
j j
ϕin W
c ϕ hϕ |0i = ε1 ϕi 0i
p p n
p j=1
gn
X
j j
ϕin W
c ϕn hϕn |0i = ε1 ϕin 0i (20.47)
j=1
j E
c ϕn como elementos de una matriz gn ×gn con ı́ndice de fila “i” e ı́ndice
ahora consideramos las cantidades ϕin W
j E
de columna “j”. Las cantidades ϕin W
c ϕp son los elementos de la representación matricial del operador W c en
j E
la base ϕip del espacio Er . Por tanto, los elementos ϕin Wc ϕn corresponden a la restricción (o submatriz)
correspondiente al subespacio En0 de Er . Denotaremos esta submatriz como W c (n) . Nótese entonces que la Ec.
(n)
k
(20.47) nos dice que el vector columna definido por ϕk = ϕn 0i que pertenece a En0 , es autovector de W
c (n) con
(n)
autovalor ε1 . Por supuesto ϕk es la representación del vector |0i en la base ϕip 5 . La Ec. (20.47) se puede
escribir entonces
c (n) ϕ(n) = ε1 ϕ(n)
W (20.48)
ij j i
debe enfatizarse sin embargo, que la restricción W c (n) del operador Wc al subespacio E 0 es diferente del operador
n
0
en sı́, y que la ecuación (20.49) está definida en En y no en el espacio orbital completo Er .
5
Nótese que el vector |0i pertenece a En0 de modo que las componentes asociadas a cada ϕip con p 6= n, son nulas. En este sentido,
la restricción del vector |0i al subespacio En0 , coincide con el vector en sı́.
20.4. PERTURBACIÓN DE UN NIVEL DEGENERADO 505
Por tanto, para calcular los autovalores a primer orden y los autoestados a orden cero del Hamiltoniano asociado
a un estado no perturbado degenerado En0 , debemos diagonalizar la matriz W c (n) que representa la restricción del
operador de perturbación W c al subespacio En de dimensión gn generado por el autovalor En0 . La Ec.(20.49) o
0
equivalentemente la Ec. (20.48) nos generan un polinomio caracterı́stico de grado gn , con gn raı́ces reales (ya que
(1)
la restricción de un operador hermı́tico también es un operador hermı́tico6 ). Definamos εj1 con j = 1, 2, . . . , fn
(1) c (n) . De acuerdo con el teorema fundamental
como las fn raı́ces distintas de la ecuación caracterı́stica para W
del álgebra, la suma de las degeneraciones de estas raı́ces debe ser gn . En otras palabras, si el valor propio εj1 tiene
degeneración bj tenemos que
(1)
fn
X
bj = gn ; fn(1) ≤ gn (20.50)
j=1
cada autovalor εj1 para j dado introduce una corrección diferente al nivel de energı́a. Usando la Ec. (20.21) vemos
que
En,j (λ) = En0 + λεj1 ; j = 1, 2, . . . , fn(1) ≤ gn (20.51)
que nos muestra que bajo la influencia de la perturbación W = λW c , el nivel degenerado se desdobla a primer orden
(1)
en fn subniveles distintos dados por la Ec. (20.51). Cada subnivel En,j (λ) tendrá una degeneración bj y se debe
(1)
cumplir la relación (20.50). En particular, si fn = gn , se dice que a primer orden, la perturbación W remueve
por completo la degeneración de En0 , ya que en este caso bj = 1 para todo j y los subniveles serán no degenerados.
(1)
Si fn < gn , habrá por lo menos un bj tal que bj > 1, de modo que la degeneración solo se remueve parcialmente.
(1)
Finalmente, sin fn = 1, el grado de degeneración no cambia en lo absoluto, y solo aparece corrección a En0 pero
no hay subniveles distintos asociados a él.
Ahora nos ocuparemos de la determinación del vector |0i. Para ello, nos enfocamos en un εj1 fijo. Si este
autovalor es no degenerado, el autovector |0i asociado por medio de (20.49) es único salvo un factor constante.
Existe entonces un único autovalor E (λ) de H (λ) dado por (20.51), de modo que En,j (λ) es no degenerado. Por
otro lado, si el autovalor εj1 es bj −degenerado (con bj > 1), entonces la Ec. (20.49) solo nos dice que el autovector
(1)
asociado |0i, pertenece al subespacio En,j ⊆ En0 , de dimensión bj ≤ gn .
Es notable la simplificación del problema de calcular las energı́as degeneradas por método perturbativo es-
tacionario a primer orden. Para verlo, nótese que para una energı́a no perturbada dada En0 , hemos cambiado
el problema de diagonalizar el Hamiltoniano de perturbación W en un espacio de dimensión infinita Er , por el
problema de diagonalizar la restricción de este operador en el autoespacio En0 de dimensión finita gn , generado por
En0 . En particular, si el nivel no es degenerado el autosubespacio asociado es de dimensión 1, y no es necesaria
ninguna diagonalización.
1. Supongamos que hay una sola energı́a exacta E (λ), que es igual a primer orden a En0 + λεj1 y que esta
energı́a es bj −degenerada (en la Fig. 20.1 corresponderı́a a la energı́a E (λ) que parte desde E40 , la cual tiene
degeneración doble para todo λ). Por tanto, para todo valor de λ tenemos un autosubespacio de dimensión
bj generado por E (λ), de modo que la degeneración que aparece a primer orden no se removerá a ningún
orden en λ y es una degeneración esencial. En tal caso, el vector a orden cero |0i no puede especificarse
completamente, puesto que la única condición impuesta sobre tal vector es que pertenezca a un subespacio
que es el lı́mite cuando λ → 0, del autoespacio bj −dimensional de H (λ) asociado a E (λ). Este serı́a el
6
Esto se puede ver de la definición (1.129) Pág. 75, y del carácter hermı́tico de los operadores proyección.
506 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES
(1) c (n) asociado al autovalor εj escogido. Este caso surge usualmente cuando H0 y W
autoespacio En,j de W 1
poseen propiedades de simetrı́a comunes, que implican una degeneración esencial en H (λ), que por tanto
debe prevalecer a todos los órdenes de perturbación en λ.
2. Para un valor fijo de n y j, puede ocurrir que varias energı́as distintas En,j,k (λ) coincidan entre sı́, en una
aproximación de primer orden. Por tanto, la diferencia entre estas energı́as solo aparece en un cálculo a
(1)
segundo orden o más alto. En tal caso, el subespacio En,j obtenido a primer orden es solo la suma directa
de los lı́mites cuando λ → 0 de varios autosubespacios asociados a estas energı́as distintas En,j,k (λ)
Donde knj denota el número de energı́as distintas que surgen a más alto orden en teorı́a de perturbaciones
(1)
para valores dados de n y j. Por supuesto, es posible que uno o más de los autoespacios En,j,p sea de más de
(1)
una dimensión (es decir que knj sea menor que la dimensión del subespacio En,j ), en cuyo caso la degeneración
se ha reducido pero no se ha removido completamente a ningún orden en teorı́a de perturbaciones. En vista
de lo anterior, todos los autovectores de H (λ) asociados a estas energı́as En,j,k (λ) (con n y j fijos) serán
(1) (1)
kets de En,j , pero no necesariamente un ket de En,j corresponderá a el lı́mite |0i de un autoestado de H (λ).
Cuando este es el caso, las correcciones de segundo o más orden no solo aumentan la precisión con que se
calculan las energı́as, sino que permiten determinar los kets de orden cero7 |0i. En la práctica sin embargo,
se suele utilizar solo la información parcial contenida en (20.49) a primer orden.
7 (1)
Por supuesto la determinación unı́voca de estos kets |0i solo es posible para los autosubespacios En,j,p que son unidimensionales.
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMÓNICO 507
esta aproximación es consistente con la obtenida en la Ec. (20.53) si tenemos en cuenta que solo es una estimación
del orden de magnitud. Tomaremos entonces la aproximación8
rD E
b b2 ≈ 1 ; O b ≡ X,
b Pb, H b0
O ≈ O
esta forma de parametrizar la perturbación es muy lógica ya que el operador X b es del orden de uno y ~ω es del
orden de H0 , de modo que W c ≡ ~ω X b es del orden de H0 , que es lo que se busca para el operador W
c . Por tanto,
c
la expansión perturbativa con W = λW funciona solo si λ ≪ 1 para asegurar que W ≪ H0 . El Hamiltoniano
completo es entonces
2
H = H0 + W = H0 + λW c = P + 1 mω 2 X 2 + λ~ω X b
2m 2
sin embargo, debemos tener presente que las estimaciones en orden de magnitud que se hicieron solo son válidas
si el número cuántico n no es mucho mayor que uno. Por tanto, para estados altamente excitados es posible que
las predicciones de la expansión perturbativa fallen.
Por otro lado, la Ec. (8.98), Pág. 292, se puede reescribir en términos de operadores creación y destrucción
usando las Ecs. (8.9), Pág. 272
( "r #)
i qE i qE m~ω † qE h i
†
|ϕn (λ)i = exp − P |ϕn i = exp − i a −a |ϕn i = exp √ √ a − a |ϕn i
~ mω 2 ~ mω 2 2 2 ω m~ω
Expandiendo la Ec. (20.58) a primer orden en λ, y utilizando las Ecs. (8.41) Pág. 280, tenemos
λ †
2
λ λ
|ϕn (λ)i = 1 − √ a − a + O λ |ϕn i = |ϕn i − √ a† |ϕn i + √ a |ϕn i + O λ2
2 2 2
r r
n+1 n
|ϕn (λ)i = |ϕn i − λ |ϕn+1 i + λ |ϕn−1 i + O λ2 (20.59)
2 2
~ω
b = λ√
W = λ~ω X a + a†
2
Por tanto W mezcla al estado |ϕn i solo con los estados |ϕn±1 i, de modo que los únicos elements de matriz no
nulos son
√ √
~ω † ~ω † ~ω n + 1 ~ω n + 1
hϕn+1 | W |ϕn i = λ √ hϕn+1 | a + a |ϕn i = λ √ hϕn+1 | a |ϕn i = λ √ hϕn+1 | ϕn+1 i = λ √
2 2 2 2
√ √
~ω ~ω ~ω n ~ω n
hϕn−1 | W |ϕn i = λ √ hϕn−1 | a + a† |ϕn i = λ √ hϕn−1 | a |ϕn i = λ √ hϕn−1 | ϕn−1 i = λ √
2 2 2 2
quedando finalmente
r r
n+1 n
hϕn+1 | W |ϕn i = λ ~ω ; hϕn−1 | W |ϕn i = λ ~ω (20.60)
2 2
quedando finalmente
1 ~ω
En (λ) = n+ ~ω − λ2 + O λ3
2 2
vemos que la expansión perturbativa del autovalor a segundo orden en λ, coincide con el resultado exacto Ec.
(20.57). De hecho, puede demostrarse que todos los términos de orden superior a dos se anulan en la expansión
perturbativa. Adicionalmente, se observa que no hay contribución de primer orden, en virtud de que los elementos
diagonales hϕn | W |ϕn i son nulos.
510 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES
Por otra parte, la expansión del autoestado a primer orden lo da la Ec. (20.39)
X hϕm | W |ϕn i
|ϕn (λ)i = |ϕn i + 0 0
|ϕm i + O λ2
En − Em
m6=n
hϕn+1 | W |ϕn i hϕn−1 | W |ϕn i
= |ϕn i + 0 0 |ϕn+1 i + 0 0 |ϕn−1 i + O λ2
En − En+1 En − En−1
q
p
λ n+12 ~ω λ n2 ~ω
= |ϕn i + |ϕn+1 i + |ϕn−1 i + O λ2
−~ω ~ω
r r
n+1 n
|ϕn (λ)i = |ϕn i − λ |ϕn+1 i + λ |ϕn−1 i + O λ2
2 2
que coincide con la expansión a primer orden de la solución exacta Ec. (20.59).
1 b 2 = 1 λmω 2 X 2
W = λ~ω X (20.61)
2 2
siendo λ el parámetro perturbativo que debe ser mucho menor que 1. El Hamiltoniano perturbado queda
P2 1
H = H0 + W = + mω 2 (1 + λ) X 2
2m 2
P2 1
H = + mω ′2 X 2 ; ω ′2 = ω 2 (1 + λ) (20.62)
2m 2
por tanto, el Hamiltoniano sigue estando asociado a un oscilador armónico simple, y el efecto de la perturbación
es simplemente un cambio en la frecuencia angular al valor ω ′ definido en (20.62). Estudiaremos solo el cambio en
los autovalores. El espectro del Hamiltoniano perturbado es claramente
1 ′ 1 √
En = n + ~ω = n + ~ω 1 + λ
2 2
independiente de la energı́a (y por tanto no es independiente de la amplitud), decimos entonces que el oscilador
anarmónico ya no es isócrono.
Expansión perturbativa
3 2
a + a† = a + a† a + a† = a†2 + a2 + 2a† a + 1 a + a† = a†2 + a2 + 2N + 1 a + a†
= a†2a + a3 + 2N a + a + a†3 + a2 a† +2N a† + a†
= a† a† a + a3 + 2N a + a + a†3 + a aa† + 2N a† + a†
h i
= a† N + a3 + 2N a + a + a†3 + a a, a† + a† a + 2N a† + a†
= a† N + a3 + 2N a + a + a†3 + a (1 + N ) + 2N a† + a†
= a†3 + a3 + a† †
h N +i2N a + aN + 2N a + 2a + a
†
= a†3 + a3 + a† , N + N a† + 2N a† + [a, N ] + N a + 2N a + 2a + a†
= a†3 + a3 − a† + N a† + 2N a† + a + N a + 2N a + 2a + a†
3
a + a† = a†3 + a3 + 3N a† + 3N a + 3a
donde hemos usado las Ecs. (8.13). Pág. 273. Con esto el potencial de perturbación queda
3
b 3 = λ~ω a + a†
W = λ~ω X √
2
λ~ω h †3 3 †
i
W = a + a + 3N a + 3 (N + 1) a
23/2
λ~ω h i λ~ω
†3 3 †
hϕn+3 | W |ϕn i = 3/2
hϕ n+3 | a + a + 3N a + 3 (N + 1) a |ϕn i = 3/2 hϕn+3 | a†3 |ϕn i
2 2
λ~ω √ λ~ω √ √
= n + 1 hϕn+3 | a |ϕn+1 i = 3/2 n + 1 n + 2 hϕn+3 | a† |ϕn+2 i
†2
23/2 2
λ~ω p
hϕn+3 | W |ϕn i = (n + 1) (n + 2) (n + 3)
23/2
λ~ω 3 λ~ω √ 2 λ~ω p
hϕn−3 | W |ϕn i = hϕ n−3 | a |ϕ n i = n hϕn−3 | a |ϕ n−1 i = n (n − 1) hϕn−3 | a |ϕn−2 i
23/2 23/2 23/2
λ~ω p
hϕn−3 | W |ϕn i = n (n − 1) (n − 2)
23/2
20.6. PERTURBACIONES ESTACIONARIAS SOBRE EL OSCILADOR ARMÓNICO 513
λ~ω h i λ~ω h i
†3 3 † †
hϕn+1 | W |ϕn i = hϕ n+1 | a + a + 3N a + 3 (N + 1) a |ϕn i = hϕn+1 | 3N a |ϕn i
23/2 23/2
λ~ω √ λ~ω √
= 3 3/2 n + 1 hϕn+1 | N |ϕn+1 i = 3 3/2 n + 1 (n + 1) hϕn+1 | ϕn+1 i
2 2
3λ~ω 3/2
hϕn+1 | W |ϕn i = (n + 1)
23/2
λ~ω h i λ~ω
†3 3 †
hϕn−1 | W |ϕn i = hϕ n−1 | a + a + 3N a + 3 (N + 1) a |ϕn i = 3/2 hϕn−1 | [3 (N + 1) a] |ϕn i
23/2 2
3λ~ω √ λ~ω √
= 3/2
n hϕn−1 | [(N + 1)] |ϕn−1 i = 3 3/2 [(n − 1) + 1] n hϕn−1 | ϕn−1 i
2 2
3λ~ω 3/2
hϕn−1 | W |ϕn i = n
23/2
quedando finalmente
r r
(n + 1) (n + 2) (n + 3) n (n − 1) (n − 2)
hϕn+3 | W |ϕn i = λ~ω ; hϕn−3 | W |ϕn i = λ~ω
8 8
3/2
n+1 n 3/2
hϕn+1 | W |ϕn i = 3λ~ω ; hϕn−1 | W |ϕn i = 3λ~ω (20.65)
2 2
la energı́a se calcula por medio de (20.42)
X |hϕp | W |ϕn i|2
En = En0 + hϕn | W |ϕn i + 0 0
+ O λ3
En − Ep
p6=n
2
|hϕn+3 | W |ϕn i| |hϕn−3 | W |ϕn i|2 |hϕn+1 | W |ϕn i|2 |hϕn−1 | W |ϕn i|2
En = En0 + 0 + 0 + 0 + 0 + O λ 3
En0 − En+3 En0 − En−3 En0 − En+1 En0 − En−1
1 λ2 ~2 ω 2 (n+1)(n+2)(n+3)
8 λ2 ~2 ω 2 n(n−1)(n−2)
8
En = n+ ~ω + +
2 −3~ω 3~ω
3 2 ~2 ω 2 n 3
9λ2 ~2 ω 2 n+1 9λ
+ 2
+ 2
+ O λ3
−~ω ~ω
1 (n + 1) (n + 2) (n + 3) 2 n (n − 1) (n − 2) 2
En = n+ ~ω − λ ~ω + λ ~ω
2 24 24
9 (n + 1)3 2 9n3 2
− λ ~ω + λ ~ω + O λ3
8 " 8 #
1 n (n − 1) (n − 2) (n + 1) (n + 2) (n + 3) 9n3 9 (n + 1)3 2
En = n+ ~ω + − + − λ ~ω
2 24 24 8 8
+O λ3
calcularemos la cantidad entre paréntesis cuadrados
1 h i 1
kn = −9n2 − 9n − 6 + 27n3 − 27 (n + 1)3 = −9n2 − 9n − 6 − 81n2 − 81n − 27
24 24
1 2
90 2 33 15 2 11
= − 90n + 90n + 33 = − n +n+ =− n +n+
24 24 90 4 30
" 2 # " 2 #
15 1 1 11 15 1 7
= − n+ − + =− n+ +
4 2 4 30 4 2 60
2
15 1 7
kn = − n+ −
4 2 16
514 CAPÍTULO 20. TEORÍA ESTACIONARIA DE PERTURBACIONES
nótese que no hay contribución de primer orden de modo que la corrección debida a W requiere como mı́nimo
calcular el espectro a segundo orden. Por efecto de W , los niveles decrecen sin importar el signo de λ. Además el
corrimiento se incrementa con n. La diferencia entre dos niveles adyacentes a segundo orden es
15 2
En − En−1 = ~ω 1 − λ n
2
de nuevo valores de n muy grandes (tales que 15λ2 n/2 & 1), invalidarı́an este cálculo perturbativo. Nótese que la
distancia entre niveles adyacentes depende ahora de n. Los niveles de energı́a consecutivos ya no son equidistantes,
y están más cerca a medida que crece n.
De las Ecs. (20.39, 20.65), el estado perturbado a primer orden nos da
X X ϕip W |ϕn i
|ψn (λ)i = |ϕn i + i
ϕp + O λ2
0
En − Ep0
p6=n i
hϕn+1 | W |ϕn i hϕ | W |ϕ i
= |ϕn i + |ϕn+1 i 0
+ |ϕn−1 i n−1 0 n
0
En − En+1 0
En − En−1
hϕn+3 | W |ϕn i hϕ | W |ϕ i
+ |ϕn+3 i 0
+ |ϕn−3 i n−3 0 n + O λ2
0
En − En+3 0
En − En−3
3/2 n 3/2
n+1
|ψn (λ)i = |ϕn i − 3λ |ϕn+1 i + 3λ |ϕn−1 i
2 2
r r
λ (n + 1) (n + 2) (n + 3) λ n (n − 1) (n − 2)
− |ϕn+3 i + |ϕn−3 i + O λ2
3 8 3 8
Capı́tulo 21
Método variacional
H |ϕpn i = En |ϕpn i
Si el Hamiltoniano no puede resolverse analı́ticamente en forma exacta, el método variacional es otra alternativa de
solución aproximada. El método consiste en escoger una familia de kets, asociados con un conjunto de parámetros
α
|ψ (α)i = |ψ (α1 , α2 , . . . , αn )i
conocidas como funciones de prueba. Aunque estas funciones se pueden elegir en forma arbitraria, una aproxima-
ción razonablemente buena solo se obtendrá si las funciones de prueba se eligen con algún criterio Fı́sico. La idea
es entonces calcular el valor esperado del Hamiltoniano hHi (α) en estos estados y minimizar tal valor esperado
con respecto a los parámetros α. El valor mı́nimo obtenido de esta forma constituye una aproximación para el
valor del estado base E0 del sistema. Este método de minimización es una variante del cálculo funcional cono-
cida como método de variación de parámetros. De allı́ que el método de aproximación se conozca como método
variacional. Veremos que además es posible obtener con el método variacional una aproximación a los estados
excitados, aunque en la práctica solo es viable para los primeros estados excitados.
Theorem 21.1 Dado un ket arbitrario |ψi del espacio de estados del sistema, el valor medio del Hamiltoniano
con respecto a dicho estado cumple la condición
hψ| H |ψi
hHi = ≥ E0 (21.1)
hψ| ψi
siendo E0 el autovalor más pequeño de H (estado base de H)1 . La igualdad se obtiene si y solo si el ket |ψi es un
autoestado de H con autovalor E0 .
Por simplicidad asumiremos que la base {|ϕpn i} de vectores propios de H es ortonormal, es decir que también
es ortonormal la base de cada subespacio En generado por cada valor propio En . Puesto que los resultados finales
1
La expresión (21.1) tiene en cuenta que en general el estado |ψi no está normalizado.
515
516 CAPÍTULO 21. MÉTODO VARIACIONAL
son independientes de la base, esto no le quita generalidad al teorema. Para probarlo expandimos al estado |ψi en
la base de los estados propios {|ϕpn i} de H
gn
∞ X
X
|ψi = cpn |ϕpn i (21.2)
n=0 p=1
con lo cual
X gm X
∞ X gn
∞ X XX
hψ| H |ψi = cq∗ p q p
m cn hϕm | H |ϕn i = En cq∗ p
m cn δmn δqp
m=0 q=1 n=0 p=1 m,n q,p
X∞ X gn gn
∞ X
X
hψ| H |ψi = |cpn |2 En ≥ E0 |cpn |2 (21.3)
n=0 p=1 n=0 p=1
y la combinación de las Ecs. (21.3, 21.4) nos da la Ec. (21.1). De la expresión (21.2) vemos que el estado |ψi
pertenece al subespacio E0 generado por el estado base E0 , si y solo si cpn = δn0 cp0 , y al utilizar esta condición en
(21.3) se obtiene la igualdad en dicha expresión. Recı́procamente, si asumimos la igualdad en la expresión (21.3),
dicha igualdad se puede escribir como
X gn
∞ X gn
∞ X
X
|cpn |2 (En − E0 ) = 0 ⇒ |cpn |2 |En − E0 | = 0
n=0 p=1 n=1 p=1
donde hemos tenido en cuenta que En − E0 > 0 para n ≥ 1. Por tanto, la igualdad es posible si y solo si cpn = δn0 cp0
o equivalentemente si el estado |ψi pertenece a E0 . En conclusión, la igualdad en (21.3) ocurre si y solo si |ψi es
autoestado de H con autovalor E0 .
Por simplicidad escribiremos los gn vectores linealmente independientes asociados a un valor propio En en una
notación condensada de la siguiente manera
{|ϕgnn i} ≡ ϕ1n , ϕ2n , . . . , |ϕgnn i
De los resultados anteriores se deriva un teorema que permite acotar los estados excitados
Theorem 21.2 Sea ϕg0 0 , ϕg1 1 , ϕg2 2 , . . . la secuencia ordenada de los estados propios (discretos) del Ha-
miltoniano H, asociados a valores g1 {E0, Eg1k ,
g0 propios E2 , . . .} colocados en orden ascendente En < En+1 . Si |ψi es
un ket ortogonal a los kets ϕ0 , ϕ1 , . . . , ϕk , el valor esperado de H asociado a dicho estado cumple la
condición
hψ| H |ψi
hHi = ≥ Ek+1 (21.5)
hψ| ψi
y la igualdad se obtiene si y solo si |ψi es autoestado de H con valor propio Ek+1 .
Para probarlo, basta observar que la ortogonalidad de |ψi con los estados asociados a los primeros k valores
propios Ei , nos lleva a que los términos de la expansión asociados a los k primeros valores propios en (21.2) deben
ser nulos
X∞ X gn
|ψi = cpn |ϕpn i (21.6)
n=k+1 p=1
21.2. IMPLEMENTACIÓN DEL MÉTODO VARIACIONAL 517
con el mismo procedimiento que nos lleva a las Ecs. (21.3, 21.4), obtenemos
X gn
∞ X gn
∞ X
X gn
∞ X
X
hψ| H |ψi = |cpn |2 En ≥ Ek+1 |cpn |2 ; hψ| ψi = |cpn |2
n=k+1 p=1 n=k+1 p=1 n=k+1 p=1
combinando estas dos ecuaciones obtenemos (21.5). De nuevo la igualdad se obtiene si y solo si cpn = δn,k+1 cpk+1 ,
con lo cual la Ec. (21.6) nos dice que |ψi ∈ Ek+1 , o equivalentemente que |ψi es autoestado de H con valor propio
Ek+1 .
Otro resultado fundamental es el siguiente
Theorem 21.3 (Ritz) El valor medio del Hamiltoniano hHi|ψi es estacionario si y solo si el vector de estado |ψi
en el cual se evalúa, es autovector de H. Además los valores estacionarios de hHi son los valores propios de H,
esto es
H |ψi = hHi |ψi (21.7)
se dice también que el valor esperado de H solo es estacionario en la vecindad de sus estados propios discretos.
es claro entonces que este valor esperado es un funcional del estado |ψi. Vamos a calcular el incremento δhHi
cuando el estado |ψi sufre el cambio infinitesimal al estado |ψi + |δψi. Para calcular el variacional de hHi debido
al cambio infinitesimal en el estado, escribimos la Ec. (21.8) en la forma
hψ| ψiδhHi + hHi [hδψ| ψi + hψ| δψi] = hδψ| H |ψi + hψ| H |δψi
buscaremos las condiciones para que δ hHi se anule, es decir las condiciones para que se anule el lado derecho de
la ecuación (21.9)
hδψ| [H − hHi] |ψi + hψ| [H − hHi] |δψi = 0 (21.10)
definiendo
|ϕi ≡ [H − hHi] |ψi (21.11)
la relación (21.10) se escribe como
hδψ| ϕi + hϕ| δψi = 0 (21.12)
la condición (21.12) se debe cumplir para cualquier ket infinitesimal |δψi, ya que la condición de estacionaridad
requiere que δ hHi = 0, sin importar la forma de la variación de |ψi, con la única condición de que esta variación
sea infinitesimal. En particular, la expresión (21.12) se debe cumplir para la variación infinitesimal dada por
siendo δλ un número real infinitesimal, para este ket la Ec. (21.12) queda en la forma
2 hϕ| ϕi δλ = 0
518 CAPÍTULO 21. MÉTODO VARIACIONAL
de modo que la norma del ket (y por lo tanto el ket) debe ser nulo i.e. |ϕi = 0. Aplicando esta condición en la
definición (21.11) resulta
H |ψi = hHi |ψi (21.13)
mostrando que la Ec. (21.13) es una condición de necesidad para la anulación de δ hHi. La demostración de la
suficiencia se obtiene simplemente reemplazando la condición (21.13) en la Ec. (21.9).
El anterior teorema implica que el método variacional se puede generalizar para aplicarlo a la determinación
aproximada de algunos valores propios de H. Si la función hHi (α) obtenida por medio de los kets de prueba
|ψ (α)i tiene varios extremos, éstos nos darán un valor aproximado de algunos de los autovalores En .
Nótese que en los anteriores teoremas no es estrictamente necesario que el observable sea el Hamiltoniano.
Un repaso cuidadoso le muestra al lector que las demostraciones anteriores quedan intactas si en lugar del Ha-
miltoniano utilizamos cualquier observable (operador hermı́tico completo) cuyo espectro sea discreto y acotado
inferiormente (es decir que exista un valor propio que sea menor que todos los demás valores propios del espectro).
En consecuencia, los teoremas anteriores se pueden generalizar para cualquier observable con espectro discreto
acotado inferiormente.
los valores posibles del conjunto de n parámetros (compatibles con las ligaduras) se generan un conjunto de
funciones linealmente independientes que usualmente no forman una base del espacio de Hilbert completo sino de
un subespacio propio de éste2 . Por esta razón aún la solución exacta del problema variacional no es una solución
exacta del problema de valores propios en el espacio de Hilbert completo. De hecho en la práctica es muy difı́cil
determinar cual subespacio es el más pequeño que contiene a esta familia de soluciones.
Z ∞
~2 d2
−αx2 1 2
I ≡ hψα | H |ψα i = dx e − 2
+ mω x e−αx
2 2
−∞ 2m dx 2
Z ∞ 2 h i
−αx2 ~ d −αx2 1 2 2 −αx2
= dx e 2αxe + mω x e
−∞ 2m dx 2
Z ∞ 2 2 Z ∞ 2
~ 2 2 ~ 1 2 2 −2αx2 ~ 1 2 2α2 ~2 2 −2αx2
= dx α − 4α x + mω x e = dx α + mω − x e
−∞ m 2m 2 −∞ m 2 m
Z Z ∞
~2 ∞ −2αx2 1 2 2α2 ~2 2
I = α dx e + mω − dx x2 e−2αx (21.16)
m −∞ 2 m −∞
2
por otro lado, integrando x2 e−2αx por partes resulta
2 1 2
u = x , dv = xe−2αx dx ; du = dx , v = − e−2αx
Z Z 4α
2 x −2αx2 1 −2αx2
x2 e−2αx dx = − e + e dx
4α 4α
Z ∞ Z ∞
2 1 2
x2 e−2αx dx = e−2αx dx (21.17)
−∞ 4α −∞
sustituyendo (21.17) en (21.16), la integral I queda
2 Z ∞
α~ mω 2 α~2 2
I= + − e−2αx dx
m 8α 2m −∞
2
De hecho el conjunto de todas las funciones que se obtienen al barrer los parámetros, no necesariamente forma un espacio vec-
torial. Podrı́a ser solo un subconjunto propio del espacio vectorial generado por todas las funciones linealmente independientes antes
mencionadas.
520 CAPÍTULO 21. MÉTODO VARIACIONAL
∂ hHi (α) ~2 mω 2
= − =0
∂α 2m 8α2
~2 2 mω 2
⇒ α − =0
2m 8
las soluciones son α1,2 = ±mω/2~, pero recordemos que α debe ser positivo para que la función de prueba (21.14)
sea de cuadrado integrable. Por tanto, el valor de α ≡ α0 para el cual hHi (α) es estacionario está dado por
mω
α0 = (21.19)
2~
sustituyendo (21.19) en (21.18) obtenemos el valor estacionario de hHi (α0 )
~2 mω 2 ~2 mω 2~mω 2 ~ω ~ω
hHi (α0 ) = α0 + = + = +
2m 8α0 2m 2~ 8mω 4 4
~ω
hHi (α0 ) =
2
en este caso, el valor mı́nimo de hHi (α) coincide exactamente con la energı́a base del problema ya conocido
del oscilador armónico unidimensional. Esto se debe a que la función de onda exacta (sin normalizar) coincide
exactamente con la función de onda de prueba para un valor especı́fico del parámetro α, como se puede ver al
comparar la Ec. (8.48), Pág. 281 con la Ec. (21.14). El hecho de que la condición de estacionaridad de hHi (α)
nos lleve al valor de α que iguala las ecuaciones (8.48, 21.14) se debe precisamente al teorema 21.1.
Al igual que en la teorı́a de perturbaciones estacionaria, vamos a suponer que tenemos un Hamiltoniano H0
no perturbado cuya solución conocemos. Por simplicidad asumiremos que el espectro de H0 es discreto y no
degenerado
H0 |ϕn i = En |ϕn i
será fácil generalizar las fórmulas obtenidas para el caso degenerado. Asumiremos que el Hamiltoniano no pertur-
bado es independiente del tiempo, con lo cual los autoestados |ϕn i tampoco dependen del tiempo. En consecuencia,
los estados |ϕn i son estacionarios1 . En el tiempo t = 0, se aplica una perturbación al sistema parametrizada en la
forma
H = H0 + W (t) ≡ H0 + λW c (t)
donde λ es un parámetro adimensional mucho menor que la unidad y W c (t) es un observable que puede depender
explı́citamente del tiempo y que es del mismo orden de magnitud de H0 en el intervalo de tiempo involucrado. Se
asume que W c (t) = 0 para t < 0.
Se asume además que el sistema está inicialmente en el estado estacionario |ϕk i de H0 asociado a la energı́a
Ek . Si no existiera la perturbación este estado no evolucionarı́a en el tiempo, pero al introducir la perturbación
en t = 0, el estado |ϕk i no será en general autoestado de H de modo que deja de ser un estado estacionario,
y comenzará a evolucionar en el tiempo. Nuestro objetivo será calcular la probabilidad de transición Pif (t) de
encontrar al sistema en otro autoestado |ϕf i de H0 en el tiempo t. Es decir queremos estudiar las transiciones
que se inducen a través de W (t) entre los estados estacionarios de H0 . Debemos recordar que la probabilidad de
transición entre |ϕk i y |ϕf i realmente significa la probabilidad de obtener la medida Ef de la energı́a cuando la
perturbación W (t) se activa en t = 0 y se desactiva en t (es decir en el tiempo en el cual se ejecuta la medición
de la energı́a), teniendo a |ϕk i como estado inicial [ver discusión en la sección 17.3, particularmente después de la
Ec. (17.30), Pág. 4332 ].
Entre los tiempos 0 y t, el sistema evoluciona de acuerdo con la ecuación de Schrödinger
d h i
i~ c (t) |ψ (t)i
|ψ (t)i = H0 + λW (22.1)
dt
con la condición inicial
|ψ (t = 0)i = |ϕi i (22.2)
1
Cuando el Hamiltoniano es dependiente del tiempo sus autoestados ya no son estacionarios. Esto es una manifestación de la no
conservación de la energı́a, cuando el Hamiltoniano depende explı́citamente del tiempo (ver sección 3.2 Pág. 158 y sección 5.8 Pág.
225).
2
De hecho la discusión en el presente capı́tulo constituye una generalización de los resultados obtenidos para sistemas de dos estados,
en el capı́tulo 17.
522
22.1. SOLUCIÓN PERTURBATIVA DE LA ECUACIÓN DE SCHRÖDINGER DEPENDIENTE DEL TIEMPO523
la solución de la ecuación de Schrödinger (22.1) con la condición inicial (22.2) es única de modo que la evolución
del estado es determinista en tanto no se realice una medida. La probabilidad Pif (t) que buscamos está dada por
por tanto el problema se reduce a encontrar la solución |ψ (t)i de la ecuación de Schrödinger (22.1) con la condición
inicial (22.1). No obstante, para la mayorı́a de problemas reales esta solución no se puede encontrar en forma
exacta, por lo cual recurriremos a una solución aproximada utilizando series de potencias en λ de forma similar
a la teorı́a de perturbaciones estacionaria. Como antes, la solución es aproximadamente correcta cuando λ ≪ 1.
Encontraremos |ψ (t)i y Pif (t) a primer orden en λ. Estudiaremos un caso de particular importancia en el cual la
perturbación es una función sinusoidal del tiempo, del cual surgirán fenómenos de resonancia. Se estudiará el caso
en el cual el espectro de H0 es discreto y aquél en el cual el estado inicial está acoplado a un contı́nuo de estados
finales. En el último caso probaremos una importante relación conocida como la regla de oro de Fermi.
para escribir la ecuación de Schrödinger en la base {|ϕn i}, multiplicamos la ecuación (22.1) por el bra hϕn |,
insertando una identidad asociada a la completez de los estados estacionarios
!
d X
i~ hϕn |ψ (t)i = hϕn | H0 |ψ (t)i + λ hϕn | Wc (t) |ϕk i hϕk | |ψ (t)i
dt
k
d X
i~ hϕn |ψ (t)i = En hϕn |ψ (t)i + λ c (t) |ϕk i hϕk |ψ (t)i
hϕn | W
dt
k
nótese que hemos usado el hecho de que hϕn | no depende del tiempo (lo cual a su vez proviene de que H0 no
dependa del tiempo). Utilizando la Ec. (22.4), la ecuación queda finalmente
d X
i~ cn (t) = En cn (t) + λ cnk (t) ck (t)
W ; cnk (t) ≡ hϕn | W
W c (t) |ϕk i (22.5)
dt
k
el conjunto de ecuaciones (22.5) para todo n es un conjunto de ecuaciones diferenciales lineales acopladas de primer
orden en t, que nos determinan las componentes cn (t) de la expansión (22.4) del estado que buscamos. Nótese
que el acople surge debido a la presencia de los elementos matriciales no diagonales W cnk (t) de la perturbación
c c
W (t) en la base de los estados estacionarios. El elemento Wnk (t) acopla la evolución de la componente cn (t) con
c es nulo, o si solo son no nulos los elementos diagonales W
la evolución de ck (t). Vemos entonces que si W cnn (t),
3
las ecuaciones (22.5) se desacoplan . Esto es de esperarse ya que en este caso los estados |ϕn i continúan siendo
estacionarios después de la introducción de la perturbación, produciendo solo un corrimiento del espectro. En
particular cuando W (t) = 0, las ecuaciones (22.5) se desacoplan generando la solución
siendo bn constantes que dependen de las condiciones iniciales. Si asumimos que λW c (t) es muy pequeño, las
soluciones para cn (t) no deben diferir mucho de aquellas dadas por (22.6). En consecuencia, si parametrizamos
las soluciones de cn (t) en presencia de la perturbación en la forma
es de esperarse que la evolución temporal de bn (t) sea suave. Si sustituı́mos las Ecs. (22.7) en las ecuaciones (22.5)
obtenemos un conjunto de ecuaciones diferenciales acopladas para los bn (t)
d h i X
cnk (t) bk (t) e−iEk t/~
i~ bn (t) e−iEn t/~ = En bn (t) e−iEn t/~ + λ W
dt
k
dbn (t) X
i~e−iEn t/~ + En bn (t) e−iEn t/~ = En bn (t) e−iEn t/~ + λ cnk (t) bk (t) e−iEk t/~
W
dt
k
dbn (t) X
i~e−iEn t/~ = λ cnk (t) bk (t) e−iEk t/~
W (22.8)
dt
k
multiplicando a ambos lados de (22.8) por eiEn t/~ , y recordando la definición de la frecuencias de Bohr Ec. (5.74),
Pág. 228, usamos las frecuencias angulares de Bohr (aunque sin valor absoluto)
En − Ek
ωnk = (22.9)
~
debemos enfatizar que hasta el momento no se han realizado aproximaciones. La Ec. (22.10) es totalmente equiva-
lente a la ecuación de Schrödinger, al igual que la ecuación (22.5). Sin embargo, la Ec. (22.10) tiene la ventaja con
respecto a (22.5) de que para los bn (t) esperamos un comportamiento suave. En consecuencia, se obtendrá una
mejor aproximación si tratamos los bn (t) perturbativamente (en lugar de los cn (t)). Por lo tanto, realizaremos
una expansión en potencias de λ de los bn (t)
∞
X
bn (t) = b(0)
n (t) + λb(1)
n (t) + λ2 b(2)
n (t) + ... = λq b(q)
n (t) (22.11)
q=0
donde hemos usado el hecho de que λ no depende del tiempo. Reasignando q ≡ p + 1 en el lado derecho de esta
ecuación se obtiene
∞
X (q) XX ∞
q dbn (t) cnk (t) λq b(q−1) (t) eiωnk t
i~ λ = W k
dt
q=0 k q=1
22.1. SOLUCIÓN PERTURBATIVA DE LA ECUACIÓN DE SCHRÖDINGER DEPENDIENTE DEL TIEMPO525
vemos entonces que a partir de la solución a orden cero Ec. (22.12) y las condiciones iniciales, la relación de
recurrencia (22.13) nos permite obtener la solución a primer orden, luego de lo cual la recurrencia (22.13) nos
permite obtener la solución de segundo orden con base en la solución de primer orden. En general, la recurrencia
(22.13) nos permite obtener la solución de orden q con base en la solución de orden q − 1.
que determina completamente la solución a orden cero. Como era de esperarse, esto nos indica que la solución a
orden cero coincide con |ϕi i. Ahora utilizamos la recurrencia (22.13) para evaluar la contribución a primer orden
(1) X
dbn (t) cnk (t) b (t) (0)
i~ = eiωnk t W k
dt
k
(1) X
dbn (t) cnk (t) δki
i~ = eiωnk t W (22.15)
dt
k
(1)
dbn (t) cni (t)
i~ = eiωni t W (22.16)
dt
que junto con las condiciones iniciales (22.14) nos da
Z
(1) 1 t iωni t′ c
bn (t) = e Wni t′ dt′ (22.17)
i~ 0
y sustituyendo (22.17) en (22.7) obtenemos
Z t
e−iEn t/~ ′
cni t′ dt′
c(1)
n (t) = b(1)
n (t)
−iEn t/~
e = eiωni t W (22.18)
i~ 0
finalmente, sustituyendo (22.18) en (22.4) encontramos el estado |ψ (t)i a primer orden en λ
E X Z t
(1) (1) 1 X −iEn t/~ iωni t′ c ′
′
ψ (t) = cn (t) |ϕn i = e |ϕn i e Wni t dt (22.19)
n
i~ n 0
526 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
por otro lado la Ec. (22.7) nos dice que bn (t) y cn (t) tienen el mismo módulo. En consecuencia
2
(0) (1) (2)
Pif (t) = |bf (t)|2 = bf (t) + λbf (t) + λ2 bf (t) + . . . (22.20)
donde hemos usado la expansión (22.11). De aquı́ en adelante asumiremos que los estados inicial |ϕi i y final
|ϕf i son diferentes. Por tanto nos enfocaremos solo en las transiciones inducidas por λW c (t) entre dos estados
(0)
estacionarios distintos de H0 . En este caso la Ec. (22.14) nos dice que bf (t) = 0, con lo cual la probabilidad de
transición (22.20) a segundo orden en λ nos da
2
(2) 2 (1)
Pif (t) = λ bf (t) ; i 6= f (22.21)
vemos que la primera contribución no trivial a Pif (t) es de segundo orden en λ dado que es un producto interno
al cuadrado4 . Sustituyendo (22.17) en (22.21) y reemplazando λW c (t) por W (t) resulta
Z
(2) 1 t iωf i t′ ′ 2
Pif (t) = 2 e Wf i t dt
′
(22.22)
~ 0
ya hemos dicho que para que la probabilidad de transición tenga sentido, debe ocurrir lo siguiente: (a) La per-
turbación debe “conectarse” en t = 0 y “desconectarse” en el tiempo t, y (b) En el tiempo t (justo después de
desconectar la perturbación) debemos realizar una medición de la energı́a para determinar si el sistema quedó
preparado en el estado |ϕf i. La Ec. (22.22) nos muestra que Pif (t) es proporcional al módulo al cuadrado de la
transformada de Fourier de la perturbación Wf i . La frecuencia angular con que se evalúa la transformada es la
frecuencia angular de Bohr Ec. (22.9) asociada a las energı́as Ei y Ef . Nótese que la probabilidad de transición a
segundo orden es cero si Wf i (t) es cero para todo t.
Si comparamos las Ecs. (22.10) con las Ecs. (22.15), vemos que la aproximación de primer orden en bn (t)
equivale a reemplazar en la sumatoria los bk (t) por sus valores iniciales bk (0) = δki . Por tanto, la aproximación
a primer orden para bn (t) será válida para tiempos suficientemente cortos de modo que bk (t) no haya variado
mucho con respecto a bk (0). Para valores suficientemente largos del tiempo esta condición puede violarse y en
general requeriremos tomar órdenes más altos en λ. De hecho tiempos muy largos podrı́an hacer que se pierda el
carácter perturbativo de W , en tal caso debemos recurrir a otros métodos.
Por otro lado, puede demostrarse que a primer orden en |ψ (t)i para tiempos t′′ mayores que t, la probabilidad
es la misma que para el tiempo t
(2) (2)
Pif t′′ = Pif (t) si t′′ ≥ t (22.23)
para verlo observemos que si no se realiza una medición en el tiempo t, el estado evoluciona desde el estado inicial
|ψ (t)i hasta el estado final |ψ (t′′ )i bajo el Hamiltoniano H0 (ya que la perturbación ha sido desconectada). El
estado inicial (a primer orden en λ) viene dado por (22.19)
E X
(1)
ψ (t) = c(1)
n (t) |ϕn i
n
4
Nótese que si el estado inicial no es autoestado de H0 , o si consideramos el caso i = f , tendremos contribución a primer orden en
(0)
λ puesto que en tales casos bf (t) es diferente de cero y por tanto aparece contribución de primer orden en la Ec. (22.20) a través del
(0) (1)
producto cruzado entre bf (t) y λbf (t).
22.2. PERTURBACIONES SINUSOIDALES Y CONSTANTES 527
y como ahora el Hamiltoniano es independiente del tiempo podemos aplicar la ecuación (3.18) para la evolución
temporal del estado, donde t es el tiempo inicial y t′′ el tiempo final, de modo que
E X
(1) ′′ −iEn (t′′ −t)/~
ψ t = c(1)
n (t) |ϕn i e
n
por tanto, esta probabilidad (a segundo orden en λ) solo es función del tiempo en el cual se desconecta la
perturbación, pero no es función del tiempo en el cual se mide la energı́a, siempre y cuando la medida sea
posterior a la desconexión de la perturbación.
donde Wc es un observable independiente del tiempo y ω una frecuencia angular constante. Este tipo de perturba-
ciones es frecuente en Fı́sica. Por ejemplo, puede describir un campo electromagnético monocromático externo de
frecuencia ω. Calcularemos la probabilidad de transición Pif (t) entre los estados |ϕi i y |ϕf i. Para una perturbación
de la forma (22.24) el elemento matricial Wf i (t) estarı́a dado por
c sin ωt |ϕi i = λ hϕf | W
Wf i (t) = λ hϕf | W c |ϕi i sin ωt
c
cf i sin ωt = λWf i eiωt − e−iωt
Wf i (t) = λW (22.26)
2i
cf i un número complejo independiente del tiempo. Vamos a calcular la probabilidad de transición a orden
siendo W
2
λ . Sustituyendo (22.26) en (22.17) se obtiene
Z t Z t " #
1 ′ 1 ′ cni
W ′ ′
b(1)
n (t; ω) = eiωni t Wcni t′ dt′ = eiωni t eiωt − e−iωt dt′
i~ 0 i~ 0 2i
" #t
cni Z t h
W ′ ′
i cni ei(ωni +ω)t′
W ei(ωni −ω)t′
= − ei(ωni +ω)t − ei(ωni −ω)t dt′ = − −
2~ 0 2~ i (ωni + ω) i (ωni − ω)
0
" #
c
Wni 1 − e i(ω ni +ω)t 1−e i(ω ni −ω)t
b(1)
n (t; ω) = −
2i~ (ωni + ω) (ωni − ω)
para una perturbación cosenoidal como la de la Ec. (22.25) se obtiene un resultado similar
2
|Wf i |2 1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t
P if (t; ω) = + (22.28)
4~2 (ωf i + ω) (ωf i − ω)
la perturbación cosenoidal (22.25) se vuelve constante cuando ω = 0. Por tanto, la probabilidad de transición para
perturbación constante se obtiene como caso especial de (22.28) cuando ω → 0
2 2
|Wf i |2 1 − eiωf i t 1 − eiωf i t |Wf i |2 1 − eiωf i t
P if (t; ω = 0) = + = 2
4~2 ωf i ωf i 4~2 ωf i
|Wf i |2
iωf i t 2 |Wf i |2 iωf i t
iωf i t ∗ |Wf i |2
= 2 2 1 − e = 2 2 1 − e 1 − e = 2 2 1 − eiωf i t 1 − e−iωf i t
~ ωf i ~ ωf i ~ ωf i
2 2
|Wf i | iωf i t −iωf i t
|Wf i | |Wf i |2 (1 − cos ωf i t)
= 2− e +e = 2 2 [2 − 2 cos ωf i t] = 2 2 4
~2 ωf2 i ~ ωf i ~ ωf i 2
|Wf i |2 2 ωf i t |Wf i |2 sin (ωf i t/2) 2
= 4 sin =
~2 ωf2 i 2 ~2 ωf i /2
quedando finalmente para perturbación constante
2
|Wf i |2 sin (ωf i t/2)
P if (t; ω = 0) = F (t, ωf i ) ; F (t, ωf i ) ≡ (22.29)
~2 ωf i /2
para interpretar las ecuaciones (22.27, 22.28, 22.29) vamos a considerar dos casos: (i) cuando |ϕi i y |ϕf i son
dos niveles discretos y (ii) cuando |ϕf i pertenece a un conjunto contı́nuo de estados. En el primer caso Pif (t; ω)
realmente representa una probabilidad de transición que se puede medir. En el segundo caso, Pif (t; ω) representa
una densidad de probabilidad y las cantidades que se pueden medir involucran una integración sobre cierto conjunto
de estados finales.
|Wf i |2 2 |Wf i |2
Pif (t; ω) = |A + − A− | ; P if (t; ω) = |A+ + A− |2 (22.30)
4~2 4~2
1 − ei(ωf i +ω)t 1 − ei(ωf i −ω)t
A+ ≡ ; A− ≡ (22.31)
(ωf i + ω) (ωf i − ω)
usando la identidad h i
1 − eix = eix/2 e−ix/2 − eix/2 = −2ieix/2 sin [x/2]
las cantidades A± dadas en (22.31), se pueden escribir en la forma
sin [(ωf i + ω) t/2]
A+ (ω) = −iei(ωf i +ω)t/2 (22.32)
(ωf i + ω) /2
sin [(ωf i − ω) t/2]
A− (ω) = −iei(ωf i −ω)t/2 (22.33)
(ωf i − ω) /2
22.3. PERTURBACIÓN SENOIDAL ENTRE DOS ESTADOS DISCRETOS: RESONANCIAS 529
de modo que en la aproximación (22.34), la probabilidad tiene el mismo comportamiento en el caso senoidal y
cosenoidal. La Fig. 22.1 muestra el comportamiento de Pif (t; ω) con ω para tiempo fijo. Esta figura muestra el
comportamiento resonante de la transición de probabilidad. La resonancia ocurre para ω = ωf i (i.e. en la frecuencia
angular de Bohr asociada a los estados final e inicial) en cuyo caso la probabilidad es5
|Wf i |2 2
Pifmax (t; ω) = Pif (t; ωf i ) = t (22.36)
4~2
a medida que nos alejamos de ωf i en cualquier dirección, la probabilidad decrece alcanzando el valor cero cuando
se cumple la condición
2π
|ω − ωf i | =
t
h i
cuando continuamos aumentando |ω − ωf i |, la probabilidad oscila entre |Wf i |2 / ~2 (ω − ωf i )2 y cero mostrando
un “patrón de difracción”.
Dado que hemos asumido que ωf i > 0, la relación (22.9) nos indica que Ef > Ei . Por tanto, en presencia de
la perturbación el sistema parte de un estado Ei de menor energı́a y termina en un estado Ef de mayor energı́a
en virtud de la absorción resonante de un cuanto de energı́a ~ω.
El caso ωf i < 0, se puede resolver análogamente y corresponde al caso en el cual la perturbación resonante
genera el paso del sistema desde un nivel Ei más alto a un nivel Ef más bajo, acompañado por la emisión inducida
de un cuanto de energı́a ~ω. En este caso la resonancia se obtiene en ω → −ωf i .
|Wf i |2 2
Pifmax (t; ω) = Pif (t; ωf i ) = t
4~2
es fácil ver que el primer máximo secundario se obtiene cuando
(ω − ωf i ) t 3π
=
2 2
y tiene el valor
|Wf i |2 2
Pifseg max
(t; ω) = t
9π 2 ~2
5
Nótese que la función F (t, ω − ωf i ) definida en (22.35) tiene una singularidad removible en ω = ωf i , de manera que la reemplazamos
por el lı́mite ω → ωf i , con lo cual obtenemos el comportamiento resonante (22.36).
530 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
Figura 22.1: Probabilidad de transición Pif (t; ω) a primer orden como función de ω para tiempo fijo. Aparece una
resonancia para ω ≃ ωf i proporcional a t2 . El ancho de la resonancia es inversamente proporcional a t.
esto justifica el hecho de considerar que casi toda la probabilidad está en el intervalo comprendido entre los dos
primeros ceros de Pif (t) alrededor de ωf i . A su vez, esto hace razonable considerar ∆ω como la distancia entre
dichos ceros, por tanto
4π
∆ω ≃ (22.37)
t
y vemos que el ancho disminuye al aumentar el tiempo de “encendido” de la perturbación. El resultado (22.37)
tiene cierta similaridad con la relación de incertidumbre entre tiempo y energı́a [ver sección 5.8.4, Ec. (5.77),
Pág. 230]. Supongamos que queremos medir la diferencia de energı́a Ef − Ei = ~ωf i aplicando una perturbación
senoidal cuya frecuencia angular ω podemos modular para encontrar la resonancia. De acuerdo con la Ec. (22.37),
si la perturbación actúa durante un tiempo t, la incertidumbre ∆E sobre la diferencia Ef − Ei será del orden de
4π~
∆E = ~ ∆ω ≃
t
de lo cual el producto de ∆E por el tiempo no puede ser menor que 4π~. Esta relación guarda cierta similitud con la
relación de incertidumbre energı́a-tiempo. No obstante, tal analogı́a debe tomarse con cuidado ya que en este caso,
el tiempo es una cantidad impuesta externamente por la perturbación y no corresponde a un tiempo caracterı́stico
de evolución del sistema libre [que es el caso de ∆t en la relación de incertidumbre (5.77)]. Adicionalmente, ∆E
es una incertidumbre asociada a una brecha de energı́a y no a un valor especı́fico de la energı́a.
Aproximación de resonancia
Hemos despreciado A+ con respecto a A− bajo la hipótesis de que ω ≃ ωf i . Para justificarlo debemos comparar
los módulos de A± . El factor |A− (ω)|2 está relacionado con Pif (t) de la Ec. (22.35) por un factor constante [ya
que en la Ec. (22.35) se despreció A+ ], por tanto la forma de la curva que describe a |A− (ω)|2 es la mostrada en
la Fig. 22.1. Ahora bien, las Ecs. (22.32, 22.33) nos muestran que
por lo tanto la curva de |A+ (ω)|2 es la “imagen especular” de la curva de |A− (ω)|2 con respecto al eje vertical
con ω = 0. Ambas curvas tienen el mismo ancho ∆ω. Para poder despreciar A+ en las vecindades de ω = ωf i ,
es claro que ambas curvas deben tener un traslapamiento despreciable. En otras palabras, la distancia entre los
centros ±ωf i de ambas curvas debe ser mucho mayor al ancho tı́pico ∆ω de éstas
2 |ωf i | ≫ ∆ω (22.39)
nótese que esta condición permite además despreciar el traslapamiento de modo que
por tanto el resultado (22.35) es válido siempre y cuando la perturbación sinusoidal actúe un tiempo t largo
comparado con el periodo τ de la perturbación. Esto significa que la perturbación debe realizar muchas oscilaciones
para que la aproximación de resonancia sea válida. Si por ejemplo tomamos el otro extremo en el cual t ≪ 1/ν,
la perturbación dura un tiempo mucho menor que una oscilación y su comportamiento es prácticamente lineal en
el tiempo en el caso senoidal y prácticamente constante en el caso cosenoidal.
Nótese que para una perturbación constante nunca se satisface la condición (22.40) puesto que ω (y por
tanto ν) se hace nulo. Esto es de esperarse ya que las ecuaciones (22.32, 22.33) muestran que en este lı́mite
A+ = A− de modo que nunca podemos despreciar el término anti-resonante. En realidad en la expresión (22.29)
para perturbación constante, ambos términos fueron incluı́dos en el cálculo.
Si para una perturbación constante Ec. (22.29), hacemos una gráfica de Pif (t) versus la frecuencia de Bohr ωf i
con tiempo fijo (Fig. 22.2), vemos que esta probabilidad es máxima (resonante) cuando ωf i = 0, es decir cuando
los niveles están degenerados, y el valor de la probabilidad nos da
|Wf i |2 t2 4π
P if (t; ωf i = 0) = ; ∆ω ≃
~2 t
podemos decir también que la resonancia ocurre para el caso de conservación de la energı́a. Nótese que el ancho
de la curva es el mismo que en el caso senoidal pero el valor de la probabilidad es cuatro veces mayor. Esto se
debe a que para perturbación constante (ω = 0) tenemos que A+ = A− de modo que
en tanto que en el caso senoidal solo consideramos la contribución de |A− |2 . Puede verse sin embargo que los
perfiles de las figuras 22.1, 22.2 son muy similares y presentan los mismos rasgos generales. Debemos tener en
cuenta sin embargo que en la Fig. 22.1 se grafica con respecto a una variable externa ω, en tanto que en la Fig.
22.2 se grafica con respecto a una variable del sistema ωf i .
532 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
Figura 22.2: Probabilidad de transición Pif (t) versus la frecuencia angular de Bohr ωf i para tiempo fijo a pri-
mer orden con perturbación constante. Aparece una resonancia para ωf i = 0 proporcional a t2 . El ancho de la
resonancia es el mismo que en la Fig. 22.1, pero con una intensidad cuatro veces mayor.
Finalmente, el cálculo a órdenes superiores a partir de (22.13), muestra que la condición (22.42) es necesaria
pero no suficiente. Por ejemplo, la Ec. (22.13) muestra que a órdenes superiores aparecen elementos matriciales
Wkn diferentes a Wf i , sobre los cuales también hay que imponer condiciones para que la corrección se mantenga
pequeña.
de lo cual podemos definir una densidad de estados finales ρ (E), asociados a la energı́a E, en la forma
√
d3 p = ρ (E) dE dΩ ; ρ (E) = m 2mE (22.49)
y la probabilidad (22.47) queda en la forma
Z √
δP (pf , t) = dΩ dE ρ (E) |hp |ψ (t)i|2 ; ρ (E) = m 2mE
Ω∈δΩf , E∈δEf
6
Este es un intervalo o volumen generalizado, ya que la variable a medir puede no ser una variable de posición. Lo importante es
que la variable se defina con uno o mas rótulos contı́nuos que generen un conjunto continuo de estados.
534 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
donde α puede simbolizar varios ı́ndices contı́nuos. Al grupo de estados finales lo caracterizamos por un dominio
Df de valores de los parámetros α centrados en αf , y asumimos que sus energı́as forman un contı́nuo. Aplicando
los postulados de la mecánica cuántica obtenemos
Z
δP (αf , t) = dα |hα |ψ (t)i|2
α∈Df
en lugar de los ı́ndices α, usaremos un conjunto de ı́ndices que contengan a la energı́a como parte de sus variables
|αi → |β, Ei
donde los otros parámetros β son necesarios si H0 no forma por sı́ solo un C.S.C.O. Expresaremos entonces dα en
términos de dE y dβ, por medio de una función densidad ρ (β, E)
dα = ρ (β, E) dβ dE
si denotamos por δβf y δEf al rango de valores de los parámetros β y E definidos por Df , obtenemos
Z
δP (αf , t) = dβ dE ρ (β, E) |hβ, E |ψ (t)i|2 (22.50)
β∈δβf , E∈δEf
donde E y Ei son las energı́as en los estados |β, Ei y |ϕi i respectivamente. Sustituyendo (22.51) en la probabilidad
(22.50) tenemos
Z
1 2 E − Ei
δP (ϕi , αf , t) = 2 dβ dE ρ (β, E) |hβ, E| W |ϕi i| F t, (22.52)
~ β∈δβf , E∈δEf ~
la notación δP (ϕi , αf , t) enfatiza el hecho de que esta probabilidad depende del estado inicial |ϕi i.
La figura 22.2, Pág. 532, muestra que la función F (t, ω) varı́a rápidamente alrededor de ωi = 0 i.e. alrededor de
E = Ei . Si t es suficientemente largo, esta función se puede aproximar dentro de factores constantes a δ (E − Ei ).
22.4. ACOPLAMIENTOS CON ESTADOS DEL ESPECTRO CONTÍNUO 535
Para verlo utilizamos el hecho de que una de las sucesiones que converge a la distribución delta de Dirac está dada
por
1 sin2 (nx)
lı́m = δ (x) (22.53)
n→∞ nπ x2
ası́ como la propiedad
1
δ (cx) = δ (x) (22.54)
|c|
aplicando las propiedades (22.53, 22.54) a la función F (t, ωi ) de la Ec. (22.51), obtenemos
ω
1 sin2 [t (ωi /2)] i E − Ei
lı́m F (t, ωi ) = πt = πt δ = πt δ
t→∞ tπ (ωi /2)2 2 2~
E − Ei
lı́m F t, = 2π~t δ (E − Ei ) (22.55)
t→∞ ~
por otro lado, la función ρ (β, E) |hβ, E| W |ϕi i|2 generalmente varı́a de una manera mucho más suave que
F (t, ωi ) con respecto a E. Asumiremos que t es suficientemente grande para que la variación de esta función sobre
un intervalo de energı́a de ancho 4π~/t centrado en E = Ei , sea despreciable (es decir, sobre un intervalo de ancho
∆E asociado a ∆ω en una gráfica similar a la Fig. 22.2). La variación con la energı́a de ρ (β, E) |hβ, E| W |ϕi i|2
debe ser suficientemente pequeña para que existan valores de t que cumplan la anterior condición, pero además
la función como tal debe ser suficientemente pequeña para que el tratamiento perturbativo sobre W sea válido.
Asumiremos además que
4π~
δEf ≫ = ~ ∆ω
t
y que δβf es lo suficientemente pequeño para despreciar la variación del integrando con este parámetro. Bajo estas
aproximaciones podemos escribir
Z "Z #
2π~t
δP (ϕi , αf , t) ≃ dβ dE ρ (β, E) |hβ, E| W |ϕi i|2 δ (E − Ei )
~2 β∈δβf E∈δEf
Z h i
2πt
≃ dβ ρ (β, Ef = Ei ) |hβ, Ef = Ei | W |ϕi i|2
~ β∈δβf
2πt h i
≃ ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i|2 δβf (22.56)
~
debemos tener en cuenta sin embargo, que la delta de Dirac nos dice que esta integral se anula si la energı́a del
estado inicial Ei no pertenece al dominio de estados finales. El resultado final es entonces
( h i
2
δβf 2π
~ t ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i| si Ei ∈ δEf
δP (ϕi , αf , t) ≃ (22.57)
0 si Ei ∈
/ δEf
Lo cual concuerda con la discusión en la sección 22.3.2, según la cual, para una perturbación constante el com-
portamiento resonante (en el caso discreto) se obtiene cuando los niveles están degenerados Ei = Ef . En el caso
en que los estados finales están en el contı́nuo, una perturbación constante puede inducir transiciones solo entre
estados de la misma energı́a (dentro de una intervalo 2π~/t). Por esta razón la probabilidad de transición es cero
si Ei está fuera del dominio δEf .
La probabilidad (22.57), se incrementa linealmente con el tiempo7 , por tanto la probabilidad de transición
por unidad de tiempo definida por
d 2π h i
δW (ϕi , αf ) = δP (ϕi , αf , t) ≃ δβf ρ (βf , Ef = Ei ) |hβf , Ef = Ei | W |ϕi i|2 (22.58)
dt ~
7
Naturalmente, esto no implica que la probabilidad pueda llegar a ser mayor que uno, ya que para estos rangos el cálculo perturbativo
ha perdido su validez.
536 CAPÍTULO 22. TEORÍA DE PERTURBACIONES DEPENDIENTE DEL TIEMPO
es independiente del tiempo. Introduciremos la densidad de probabilidad de transición por unidad de tiempo y
por unidad de “volumen” δβf , asociado a los parámetros remanentes
δW (ϕi , αf )
w (ϕi , αf ) = (22.59)
δβf
|ψ (t = 0)i = |pi i
2π
w (pi , pf ) = |hθf , ϕf ; |pf | = |pi || W |pi i|2 ρ (θf , ϕf ; |pf | = |pi |)
~
naturalmente el ket |θf , ϕf ; |pf |i es simplemente el ket |pf i, donde tendremos en cuenta la restricción |pi | = |pf |
2π
w (pi , pf ) = |hpf | W |pi i|2 ρ (Ef = Ei ) (22.62)
~
Primero calculamos el elemento matricial hpf | W |pi i
Z
utilizando la expresión (22.49) para ρ (E), ası́ como la Ec. (22.63), la expresión (22.62) queda en la forma
6 Z 2
2π 1 i
( ) p
w (pi , pf ) = d r W (r) e ~ i f m 2mEi
3 p −p ·r
(22.64)
~ 2π~
nótese que la integral al lado derecho de esta ecuación es la transformada de Fourier del potencial W (r), evaluada
en p ≡ pi − pf .
Podemos observar que aquı́ se ha estudiado un proceso de transición entre un estado (bien definido) del contı́nuo
hacia un conjunto de estados en el contı́nuo. La regla de oro de Fermi se desarrolló para transiciones entre un
estado discreto hacia un conjunto de estados del contı́nuo. No obstante, a pesar de que el estado inicial (impropio)
|pi i no es normalizable (y por tanto no representa estrictamente un estado fı́sico) la expresión a la derecha de
(22.64) posee un valor finito. Es entonces de suponer que se puede obtener un resultado fı́sico razonablemente
acertado de este cálculo. Teniendo en cuenta la definición de sección eficaz diferencial de dispersión Ec. (18.3) Pág.
438, podemos obtener tal cantidad si dividimos la densidad de probabilidad w (pi , pf ) por la corriente incidente
de probabilidad Ji [asociada a |pi i, i.e. a una onda plana Ec. (18.33), Pág. 448]
r
1 3 ~ki 1 3 |pi | 1 3 2Ei
Ji = = =
2π~ m 2π~ m 2π~ m
que es la expresión para dicha cantidad en la aproximación de Born, Ec. (18.68) Pág. 456.
Vemos entonces que la sección eficaz diferencial de dispersión se puede obtener de un formalismo dependiente
del tiempo como es la regla de oro de Fermi, a pesar de que el cálculo implica utilizar como estado inicial a un
estado impropio en lugar de un estado discreto.
Capı́tulo 23
Las interacciones más importantes en los átomos son las interacciones electrostáticas coulombianas. En el
capı́tulo 13, estudiamos al átomo de hidrógeno descrito por el Hamiltoniano
P2 q2 1 e2
H0 = + V (R) ; V (R) ≡ − =− (23.1)
2µ 4πε0 R R
donde el primer término representa la energı́a cinética del átomo en el sistema de referencia centro de masa siendo
µ la masa reducida del sistema. El potencial V (R) describe la energı́a de interacción electrostática entre el protón
y el electrón.
No obstante, en el Hamiltoniano (23.1) se han ignorado todos los efectos relativistas, esta aproximación está
bien justificada si tenemos en cuenta que en el modelo de Bohr la velocidad v asociada a la primera órbita n = 1
satisface la condición (2.18), Pág. 117
v e2 1
= ≡α= ≪1 (23.2)
c ~c 137
los efectos relativistas aparecen como acoples del espı́n del electrón y del protón con campos magnéticos y son
mucho menores que el efecto generado por la interacción electrostática. Sin embargo, dada la alta resolución
de los experimentos espectroscópicos estos efectos son observables. Por tanto, daremos cuenta de estos efectos
incluyéndolos en un término W en el Hamiltoniano
H = H0 + W
donde W es mucho más pequeño que H0 , razón por la cual podemos utilizar teorı́a estacionaria de perturbaciones
para el cálculo de estos efectos. Como resultado, surgirá la llamada “estructura fina” ası́ como la “estructura
hiperfina” de los niveles de energı́a. Estos desdoblamientos adicionales del átomo de Hidrógeno se han medido con
gran precisión. De hecho la estructura hiperfina del estado 1s del átomo de Hidrógeno es una de las cantidades
fı́sicas mejor medidas que existen. Los conceptos que se introducirán en este capı́tulo son fundamentales en Fı́sica
atómica.
538
23.1. EL HAMILTONIANO DE ESTRUCTURA FINA 539
En rigor, se debe plantear la ecuación de Dirac para un electrón sometido al potencial coulombiano V (r) creado
por el protón, considerando a este último como infinitamente pesado y por tanto fijo en un sistema coordenado
inercial. Después se analiza el lı́mite de bajas velocidades en el cual los efectos relativistas aparecen a primer orden
en v/c. Cuando se realiza este procedimiento, se encuentra que el estado electrónico se debe describir como un
espinor de dos componentes, con lo cual los operadores de espı́n S1 , S2 , S3 aparecen en forma natural.
En este contexto no estudiaremos la ecuación de Dirac, y nos limitaremos a escribir los primeros términos en
la serie de potencias en v/c de W junto con su interpretación
P2
H = me c2 + H0 + Wf ; Wf = Wmv + WSO + WD + . . . , H0 = + V (R) (23.3)
2me
P4 1 1 dV (R) ~2
Wmv = − ; WSO = L·S ; WD = ∇2 V (R) (23.4)
8m3e c2 2m2e c2 R dR 8m2e c2
los dos primeros términos corresponden a la autoenergı́a o energı́a en reposo del electrón me c2 y el Hamiltoniano
no-relativista H0 que se estudió en el capı́tulo 13. Los demás son términos relativistas que conducen a la estructura
fina del espectro.
Vale anotar que la ecuación de Dirac se puede resolver en forma exacta para un electrón inmerso en un
potencial coulombiano. Sin embargo, el uso de la teorı́a de perturbaciones (que es un método aproximado) permitirá
familiarizarnos con los procedimientos que se utilizan para átomos de muchos electrones, para los cuales no sabemos
como escribir la ecuación relativista asociada, ni tenemos soluciones exactas.
P2 q2 1 e2
H0 = + V (R) ; V (R) ≡ − =−
2µ 4πε0 R R
el orden de magnitud de la energı́a potencial se puede obtener reemplazando R por el radio de Bohr, y utilizando
la Ec. (13.2), Pág. 357
e2 me e4
|V (R)| ≃ = (23.6)
a0 ~2
comparando (23.5) con (23.6) vemos que en orden de magnitud la energı́a cinética y potencial tienen valores
similares. Como nuestro propósito es solo comparar órdenes de magnitud, es razonable suponer que H0 tiene el
mismo orden de magnitud que la energı́a cinética y la potencial, escribiremos entonces
2
P 4 2
|H0 | ≈ ≈ |V (R)| ≈ me c2 α2 = me e = e ≈ 10eV (23.7)
2me ~2 a0
vemos sin embargo de la Ec. (23.4), que el término WSO posee una corrección adicional con un factor de 1/2.
Este factor proviene del hecho de que el movimiento del electrón alrededor del protón no es rectilı́neo2 . El espı́n
del electrón rota con respecto a un sistema de referencia inercial, generando una precesión de Thomas. Tenemos
entonces el término de interacción espı́n-órbita dado por
1 1 dV (R) e2 1
WSO = 2 2
L · S = L·S (23.12)
2me c R dR 2me c R3
2 2
para estimar el orden de magnitud de este término, tenemos en cuenta que L y S son del orden de ~, y que R es
del orden del radio de Bohr a0 , de modo que
e2 ~2
WSO ≃ (23.13)
2m2e c2 a30
donde f (|ρ|) es una cantidad cuya integral es igual a la unidad, y que solo toma valores significativos dentro de
una esfera de radio λel ≃ ~/me c centrada en ρ = 0. Es decir, si integramos f (|ρ|) dentro de esta esfera el resultado
es casi la unidad3 .
Si asumimos que V (r) no posee una variación sensible en una distancia del orden de λel , podemos reemplazar
V (r + ρ) por V (r) dentro de la esfera en donde f (|ρ|) es significativa. Por tanto, podemos sacar el potencial
V (r) de la integral y la integral de f (|ρ|) es prácticamente la unidad. En este caso, la expresión (23.16) se reduce
a V (r).
2
La Ec. (23.9) es una transformación de la relatividad especial, de modo que solo es válida cuando el sistema de referencia S ′ se
mueve con velocidad constante con respecto a S.
3
El vector ρ es un vector posición definido tomando la posición r del electrón como el origen. Puede pensarse que dado el carácter
probabilı́stico de la mecánica cuántica, la interacción del protón no es con un electrón puntual sino con una nube electrónica centrada
en r, y con un radio caracterı́stico dentro del cual la probabilidad de encontrar al electrón es casi la unidad. En tal caso, es de esperarse
que la función de peso f (|ρ|) dada en la Ec. (23.16) corresponda a la densidad de probabilidad asociada a cada punto del espacio, y
esperamos que el máximo de esta función esté en ρ = 0.
542 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO
Sin embargo, podemos obtener más información de (23.16) si expandimos V (r + ρ) en su serie de Taylor
alrededor de ρ = 0.
1
V (r + ρ) = V (r) + ρi ∂i V (r) + ρi ρj ∂i ∂j V (r) + . . .
2
con lo cual la expresión (23.16) queda
Z Z Z
1
V = V (r) d3 ρ f (|ρ|) + ∂i V (r) d3 ρ ρi f (|ρ|) + [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) + . . .
2
Z
1
V = V (r) + [∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) + . . . (23.17)
2
donde hemos tenido en cuenta que ρi f (|ρ|) es una función impar que por tanto se anuları́a al integrar sobre una
esfera centrada en ρ = 0. Por tanto, el primer término no-local en la Ec. (23.17) es proporcional a las segundas
derivadas del potencial, y a la integral de f (|ρ|) por funciones cuadráticas en ρ integradas sobre el volumen. Como
la integración se hace desde |ρ| = 0 hasta |ρ| ≃ λel podemos asumir que el valor promedio de |ρ| es del orden de
λel /2, de modo que
Z Z
1 1 2 λel 2 1 2
[∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) ≃ ∇ V (r) d3 ρ f (|ρ|) ≃ ∇ V (r) λ2el
2 2 2 8
Z 2
1 ~
[∂i ∂j V (r)] d3 ρ ρi ρj f (|ρ|) ≃ ∇2 V (r) (23.18)
2 8m2e c2
donde se ha usado la Ec. (23.15). Hemos llegado a la Ec. (23.18) por argumentos semi-cuantitativos, esta expresión
coincide sin embargo con la Ec. (23.4) que define al término de Darwin WD . Aplicando este término a V (r) = −e2 /r
tenemos que
2 2
2 ~ 2 1 2 ~
WD = −e ∇ = 4πe δ (R)
8m2e c2 R 8m2e c2
πe2 ~2
WD = δ (R) (23.19)
2m2e c2
donde hemos usado (18.50), Pág. 452. Tomando el promedio de este término en un estado atómico ψ (r) se obtiene
Z Z
πe2 ~2 πe2 ~2
hWD iψ = hψ| WD |ψi = ∗ 3
ψ (r) δ (r) ψ (r) d r = |ψ (r)|2 δ (r) d3 r
2m2e c2 2m2e c2
πe2 ~2
hWD iψ = 2 2
|ψ (0)|2 (23.20)
2me c
en consecuencia el término de Darwin solo afecta a electrones en el estado s (l = 0) que son los únicos para los
cuales ψ (0) 6= 0 (ver sección 13.6.1, Pág. 369). El orden de magnitud de |ψ (0)|2 se obtiene teniendo en cuenta
que la integral sobre la esfera de radio a0 centrada en r = 0, de la función de onda es aproximadamente la unidad
Z Z
2 2
|ψ (r)| dV ≃ |ψ (0)| dV ∼ |ψ (0)|2 a30 ∼ 1
V V
2 1
|ψ (0)| ∼ (23.21)
a30
sustituyendo (23.21) en (23.20) y usando la Ec. (2.21) Pág. 117 tenemos que
πe2 ~2 2 πe2 ~2 1 πe2 ~2 m3e e6 π 2 e
8
hWD iψ = |ψ (0)| ≃ = = m e c
2m2e c2 2m2e c2 a30 2m2e c2 ~6 2 ~4 c4
e8
hWD iψ ≃ me c2 = me c2 α4 (23.22)
~4 c4
23.2. ESTRUCTURA HIPERFINA 543
donde hemos usado (23.2). De la Ec. (23.7) tenemos que H0 ≃ me c2 α2 y por tanto
2
WD 1
≃ α2 = (23.23)
H0 137
de las Ecs. (23.8, 23.14, 23.23) vemos que todos los términos de la estructura fina son unas 104 veces menores que
el Hamiltoniano no perturbado H0 que se trabajó en el capı́tulo 13.
gp µn qp ~
MI = I ; µn = , gp ≃ 5,585 (23.24)
~ 2Mp
debido a la presencia de la masa del protón en el denominador de (23.24), el magnetón nuclear de Bohr µn es
unas 2000 menor que el magnetón de Bohr electrónico µB . Aunque el momento angular del protón y el electrón
son iguales, el magnetismo nuclear es mucho menos importante que el electrónico debido a la gran diferencia de
masa. Por tanto, las interacciones magnéticas debidas al espı́n del protón I, son muy débiles y darán lugar a la
estructura hiperfina del átomo de Hidrógeno.
El electrón se mueve no solo en el campo electrostático del protón sino también en el campo magnético
generado por MI . Puesto que la estructura hiperfina es muy pequeña, podemos encontrarla usando la ecuación
(no-relativista) de Schrödinger. Cuando se introduce el potencial vectorial asociado al campo magnético generado
por MI , aparecen un conjunto adicional de términos dados por???
µ0 q 1 8π
Whf = − L · MI + 3 [3 (MS · n) (MI · n) − MS · MI ] + MS · MI δ (R) (23.25)
4π me R3 R 3
donde MS es el momento magnético de espı́n del electrón, y n el vector unitario que va desde el protón hacia
el electrón. Veremos que los términos Whf son mucho menores que los de Wf y de allı́ el término de estructura
hiperfina.
µ0 qL
Be =
4πme r 3
que actúa sobre el protón y que tiene como fuente a la carga electrónica en rotación.
El segundo término en (23.25) es la interacción dipolo-dipolo entre los momentos magnéticos nuclear y electróni-
co. Es decir, la interacción de MS con el campo magnético generado por MI , o vice versa.
El último término en (23.25) se conoce como término de contacto de Fermi, y surge de la singularidad
en r = 0 del campo creado por MI . En la realidad, el protón no es puntual y el campo magnético dentro del
protón no tiene la misma forma que el creado por MI (y que entra en la interacción dipolo-dipolo). El término
de contacto describe la interacción de MS con el campo magnético en el interior del protón. La función delta de
Dirac en este término revela que como su nombre lo indica, el término de contacto solo existe cuando las funciones
de onda del protón y del electrón se traslapan.
544 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO
Considerando que todos los momentos angulares son del orden de ~, y usando las Ecs. (23.10, 23.24), el orden
de magnitud de los dos primeros términos en (23.25) viene dado por
g µ
µ0 q
µ0 q µ0 q
p n
kWhf 1 k ≈
−
4π me R3 L · M
I
. kLk kM I k = ~
I
4π me a30 4πme a30 ~
µ0 q µ0 q µ0 q q~
kWhf 1 k . 3 gp kµn k kIk = 3 gp ~ kµn k = 3 gp ~
4πme a0 4πme a0 4πme a0 2Mp
gp q ~ 2 2 µ0
kWhf 1 k . (23.26)
2 me Mp a30 4π
similarmente
µ0 1
kWhf 2 k ≈ {k3 (MS · n) (MI · n) − MS · MI k}
4π a30
µ0
. {3 (kMS k knk) (kMI k knk) + kMS k kMI k}
4πa30
µ0 µ0 µ0
q
gp µn
≈ {3 kM k kM k + kM k kM k} = kM k kM k = S
I
πa30
me
S I S I S I
4πa30 πa30 ~
µ0 q 2
gp µn
µ0 q µ0 q q~ q 2 ~2 µ0
= ~
= ~g p kµ n k = ~g p = gp
πa30 me ~ πa30 me πa30 me 2Mp me Mp a30 2π
q 2 ~2 µ0
kWhf 2 k . 2gp (23.27)
me Mp a30 4π
5 q 2 ~2 µ0
kWhf 1 k + kWhf 2 k . gp
2 me Mp a30 4π
5 ~2 q2 5 ~2 ~2 αm c 3
2 1 5 e
kWhf 1 k + kWhf 2 k . gp 3 2
= gp 2
e 3 = gp 2
α~c
2 me Mp a0 4πε0 c 2 me Mp c a0 2 me Mp c ~
5 me
kWhf 1 k + kWhf 2 k . gp me c2 α4
2 Mp
al compararlo con (23.13) vemos que estos términos son unas 2000 veces más pequeños que WSO . Similarmente,
el término de contacto de Fermi es unas 2000 veces menor que el término de Darwin Ec. (23.19) [ambos contienen
un factor δ (R)].
EI 1
− = − µc2 α2 (23.29)
4 8
23.4. REPRESENTACIÓN MATRICIAL DE LA ESTRUCTURA FINA PARA EL NIVEL N = 2 545
cuando se ignora el espı́n, la subcapa 2s corresponde a un estado singlete (no degenerado), y la subcapa 2p
corresponde a un triplete asociado a los 3 valores propios diferentes de L3 , m = 1, 0, −1.
No obstante, la introducción del espı́n del electrón y del protón incrementa el grado de degeneración de los
niveles de energı́a. El nivel de degeneración de cada subcapa se multiplica por cuatro, puesto que S3 e I3 pueden
tomar cada uno dos valores diferentes mS = ±1/2, mI = ±1/2. En particular, una base posible para la subcapa
2s es
n = 2; l = 0; mL = 0; mS = ± 1 ; mI = ± 1
2 2
de modo que la subcapa 2s es de dimensión cuatro. Para la subcapa 2p, una base posible es
n = 2; l = 1; mL = 1, 0, −1; mS = ± 1 ; mI = ± 1
2 2
de modo que la subcapa 2p es de dimensión doce. En consecuencia la dimensión del subespacio generado por n = 2
(grado de degeneración de E2 ) es 16.
De acuerdo con la discusión dada en la sección 20.4, debemos diagonalizar la matriz 16 × 16 que representa la
restricción de W al subespacio E2 , con el fin de calcular el efecto de tal perturbación. Asumiremos que el átomo
está aislado de modo que no intervienen campos eléctricos o magnéticos externos. En cuyo caso el Hamiltoniano
completo vendrá dado por
H = H0 + W = H0 + Wf + Whf
y puesto que Whf es unas 2000 veces menor que Wf , comenzaremos evaluando las correcciones de estructura fina
asociadas a Wf . Veremos que Wf remueve parcialmente la degeneración de grado 16 que posee el nivel n = 2,
generando la estructura fina. El Hamiltoniano Whf producirá una remoción adicional de la degeneración que
conduce a la estructura hiperfina. En las siguientes secciones realizaremos el cálculo de la estructura fina para
n = 2 y en la sección 23.9 se realizará el cálculo de la estructura hiperfina para n = 1. El procedimiento para
calcular la estructura fina e hiperfina de otros niveles es análogo.
de hecho, puesto que Wf no depende de I, podemos omitir este número cuántico en todos los cálculos que involucran
a la estructura fina Wf , multiplicando por 2 todo grado de degeneración que se obtenga. De esta forma la matriz
16 × 16 se desacopla en dos matrices 8 × 8 en la forma
(Wf )8×8 08×8
(Wf )16×16 = = (Wf )8×8 ⊗ I2×2 (23.31)
08×8 (Wf )8×8
donde hemos tenido en cuenta que además las submatrices 8 × 8 sobre la “diagonal” de (Wf )16×16 son idénticas.
546 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO
Probaremos ahora que Wf conmuta con L2 . Para verlo, observemos que L2 conmuta con todas las componentes
de L, con R = |R| (ya que L2 solo actúa sobre variables angulares), con P2 4 , y con S (ya que L2 no depende de
variables de espı́n). En consecuencia, las Ecs. (23.3, 23.4) nos muestran que L2 conmuta con Wmv [el cual depende
2
de P2 ], con WSO (el cual depende de R, L y S) y con WD (que solo depende de R). De nuevo el teorema 1.68,
nos indica que elementos matriciales que involucran a valores propios diferentes de L2 se anulan5
′ ′
n; l ; mL ; m′S ; m′I Wf |n; l; mL ; mS ; mI i = 0 si l 6= l′ (23.32)
en particular estados asociados a las subcapas 2s y 2p corresponden a valores propios diferentes de L2 (0 y 2~2
respectivamente). Por tanto, los elementos matriciales de Wf que conectan a un estado 2s con un estado 2p
se anulan. En consecuencia, la matriz (Wf )8×8 representativa de Wf para el nivel n = 2, se desacopla en una
submatriz 2 × 2 asociada a la subcapa 2s y otra submatriz 6 × 6 asociada a la subcapa 2p.
Wf2s 02×6
(Wf )8×8 = 2×2 (23.33)
06×2 Wf2p
6×6
la matriz se ha diagonalizado en bloques de 2 × 2 y 6 × 6. La propiedad anterior también se puede ver del hecho de
que Wf es de paridad par. Para verlo, notemos que bajo paridad, ocurren los siguientes cambios en los observables
R → −R ; R → R, P → −P, P2 → P2 , L → L, S → S
y aplicando esta operación en las Ecs. (23.3, 23.4) vemos que Wf permanece invariante bajo paridad. Por tanto,
Wf no tiene elementos de matriz que conecten a un estado 2s con un estado 2p, puesto que estos estados tienen
paridades opuestas.
donde la constante de proporcionalidad de la identidad para cada término está dada por elementos matriciales
puramente orbitales. Para el caso especı́fico de V (R) = −e2 /R, la Ec. (23.19) nos dice que (23.35) se convierte en
2s
πe2 ~2
WD 2×2
= hn = 2; l = 0; mL = 0| δ (R) |n = 2; l = 0; mL = 0i · I2×2 (23.36)
2m2e c2
Similarmente, las submatrices de dimensión 6 × 6 asociadas a los términos cinético y de Darwin en (23.33)
vienen dadas por
2p
P4
Wmv 6×6
= hn = 2; l = 1; mL | − 3 2 |n = 2; l = 1; mL i · I6×6 (23.37)
8m c
2e
2p ~ 2
WD = hn = 2; l = 1; mL | ∇ V (R) |n = 2; l = 1; mL i · I6×6
6×6 8m2e c2
πe2 ~2
2p
WD = hn = 2; l = 1; mL | δ (R) |n = 2; l = 1; mL i · I6×6 (23.38)
6×6 2m2e c2
donde la identidad 6 × 6 se debe a que no hay acople entre los términos con mS 6= m′S o con mL 6= m′L . Las
Ecs. (23.34, 23.36) ası́ como las Ecs. (23.37, 23.38) nos indican que para calcular la contribución de los términos
cinético y de Darwin con V (R) = −e2 /R, bastará con calcular factores complejos de la forma
1
hWmv i = − hn, l, mL | P4 |n, l, mL i (23.39)
8m3e c2
πe2 ~2
hWD i = hn, l, mL | δ (R) |n, l, mL i (23.40)
2m2e c2
tomando el valor medio de P4 en un estado no perturbado |ϕn,l,m i del átomo de Hidrógeno se obtiene
4
e2 e2 e4
P = 4m2e hϕn,l,m | H02
+ H0 + H0 + 2 |ϕn,l,m i
R R R
2 2
e e e4
= 4m2e hϕn,l,m | En2 + En + En + 2 |ϕn,l,m i
R R R
" #
4 1 1
P = 4m2e En2 + 2En e2 + e4 (23.41)
R n,l,m R2 n,l,m
quedando finalmente Z ∞
hRq in,l,m = r q+2 |Rn,l (r)|2 dr (23.46)
0
válida para q positivo o negativo, siempre que la integral (23.46) sea convergente. Al sustituir (23.44, 23.45) en
(23.46) aparecen integrales de la forma
Z ∞
I (k, p) = r k e−pr/a0 dr (23.47)
0
donde p y k son enteros. Integrando por partes con u = r k y dv = e−pr/a0 dr, la integral (23.47) adquiere la forma
Z
a0 −pr/a0 k ∞ ka0 ∞ k−1 −pr/a0
I (k, p) = − e r + r e dr
p 0 p 0
ka0
I (k, p) = I (k − 1, p) (23.48)
p
por recurrencia se obtiene
2
ka0 (k − 1) a0 a0 (k − 2) a0
I (k, p) = I (k − 2, p) = k (k − 1) I (k − 3, p)
p p p p
3
a0
I (k, p) = k (k − 1) (k − 2) I (k − 3, p)
p
que para k entero positivo, claramente nos da
k
a0
I (k, p) = k! I (0, p) (23.49)
p
a partir de la definición (23.47), la integral I (0, p) nos da
Z ∞
−pr/a0 a0 −pr/a0 ∞
I (0, p) = e dr = − e
0 p 0
a0
I (0, p) = (23.50)
p
23.5. CÁLCULO DE LOS TÉRMINOS CINÉTICO Y DE DARWIN 549
y usando (23.52, 23.55) en la Ec. (23.60) se obtiene hWmv i para la subcapa 1s (la cual requerimos para el cálculo
de estructura fina asociado a n = 1, de la sección 23.8)
1 1 4 2 4 1 2 2 1 2 2 2 2
hWmv i1s = − α me c − 2 α me c (α~c) +α ~ c 2
2me c2 4 2 a0 a0
2
1 1 4 2 4 1 2 2 αm e c 2 2 2 αme c
= − α me c − 2 α me c (α~c) + 2α ~ c
2me c2 4 2 ~ ~
5
hWmv i1s = − α4 me c2 (23.61)
8
similarmente, para las subcapas 2s y 2p se obtiene
13 4
hWmv i2s = − α me c2 (23.62)
128
7 4
hWmv i2p = − α me c2 (23.63)
384
πe2 ~2 2 πe2 ~2 2
iEt/~
hWD in,l,m = hWD iψ = |ψ (0)| = ϕn,l,m (r = 0) e
2m2e c2 2m2e c2
~2
hWD in,l,m = 4πe2 |ϕn,l,m (r = 0)|2
8m2e c2
y recordando que la función de onda solo es no nula en el origen para l = 0 (ver sección 13.6.1, pág. 369), tenemos
que
~2
hWD in,l,m = 2 2
4πe2 |ϕn,0,0 (r = 0)|2 δl,0 (23.64)
8me c
con lo cual
hWD i2p = 0 (23.65)
√
para los niveles 1s y 2s, usando (23.43, 23.44, 23.59) y el hecho de que Y00 = 1/ 4π, la Ec. (23.64) nos da
~2 2 ~2 2 ~2 2
hWD i1s = 4πe2
|ϕn,0,0 (r = 0)| = 4πe2
|R1,0 (0) Y 00 | = e |R1,0 (0)|2
8m2e c2 8m2e c2 8m2e c2
~2 2 4 ~2 2 1 ~2 αm c 3 1
e
= 2 2
e 3 = 2 2
e 3 = 2 2
α~c = α4 me c2
8me c a0 2me c a0 2me c ~ 2
23.6. CÁLCULO DEL TÉRMINO DE ESPÍN-ÓRBITA WSO 551
~2 2 1
hWD i1s = 2 2
e |R1,0 (0)|2 = α4 me c2 (23.66)
8me c 2
~ 2 1
hWD i2s = e2 |R2,0 (0)|2 = α4 me c2 (23.67)
8m2e c2 16
Utilizando la base {|r, εi} de posición y espı́n, podemos separar la parte radial de la parte angular y espinorial.
Se obtiene entonces
hWSO i = n, l, s, m′L , m′S (ξ (R) L · S) |n, l, s, mL , mS i
= hn, l| ⊗ l, s, m′L , m′S (ξ (R) L · S) [|n, li ⊗ |s, mL , mS i]
= hn, l| ξ (R) |n, li l, s, m′L , m′S ( L · S) |s, mL , mS i
2 Z ∞
e 1 2 2
′
′
hWSO i = |R nl (r)| r dr l, s, m L , m S (L · S) |l, s, mL , mS i
2m2e c2 0 r 3
que se puede escribir en la forma
hWSO i = ξnl l, s, m′L , m′S (L · S) |l, s, mL , mS i (23.70)
Z ∞
e2 1
ξnl = 2 2
|Rnl (r)|2 dr (23.71)
2me c 0 r
Vemos entonces que el cálculo se separa en un término espı́n-angular y un término radial.
|l, s, J, mJ i (23.74)
Por otro lado, se puede transformar de una base a la otra, utilizando los coeficientes de Clebsch-Gordan discutidos
en la sección 16.8.
6
Ambos conjuntos de operadores junto con H, forman un C.S.C.O.
552 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO
Veremos que la base (23.74) es más apropiada para este problema debido a que el operador L · S es diagonal
en esta base. Por tanto, en lugar de los elementos matriciales (23.70) calcularemos elementos matriciales de la
forma
hWSO iJ = ξnl l, s, J ′ , m′J (L · S) |l, s, J, mJ i (23.75)
Para ver que L · S es diagonal en la base (23.74), elevamos al cuadrado la Ec. (23.73) teniendo en cuenta que
L y S conmutan
J2 = (L + S)2 = L2 + 2L · S + S2 ⇒
1 2
L·S = J − L2 − S2 (23.76)
2
combinando (23.76) con el hecho de que los vectores (23.74) son autoestados propios de J2 , L2 , S2 se tiene que
1 2
L · S |l, s, J, mJ i = J − L2 − S2 |l, s, J, mJ i
2
~2
L · S |l, s, J, mJ i = [J (J + 1) − l (l + 1) − s (s + 1)] |l, s, J, mJ i (23.77)
2
la ecuación (23.77) nos muestra que los autovalores de L · S (para l y s fijos) solo dependen de J pero no de mJ .
Usando (23.77) vemos que los términos matriciales en la base ortonormal (23.74) vienen dados por
~2
l, s, J ′ , m′J L · S |l, s, J, mJ i = [J (J + 1) − l (l + 1) − s (s + 1)] l, s, J ′ , m′J l, s, J, mJ i
2
~2
l, s, J ′ , m′J L · S |l, s, J, mJ i = [J (J + 1) − l (l + 1) − s (s + 1)] δJJ ′ δmJ ,m′J (23.78)
2
de modo que en la base acoplada este operador es diagonal. En el capı́tulo 16, sección 16.5.6, vimos las reglas de
adición del momento angular Ec. (16.56) Pág. 420, según la cual para dos momentos angulares caracterizados por
los números cuánticos l y s, el número cuántico J toma los posibles valores
J = l + s, l + s − 1, . . . , |l − s|
para l = 0, J solo toma el valor J = s. Por tanto, para l = 0, es claro que el término matricial (23.78) se anula7 .
En particular, para la subcapa 2s (en la cual l = 0) no hay contribución del término de espı́n-órbita
1 3
J= ,
2 2
Puesto que hemos cambiado de base para calcular los elementos matriciales de la subcapa 2p, a priori parece
necesario cambiar de nuevo a la base (23.72) ya que fué en esta última en donde se calcularon los términos Wmv
y WD . Sin embargo, hemos visto que los operadores Wmv y WD son proporcionales a la identidad dentro del
subespacio E (2p)6×6 . La representación de todo operador proporcional a la identidad es la misma en todas las
bases. Por tanto, resulta más conveniente cambiar la representación matricial de WD y Wmv a la base (23.74), ya
que los elementos matriciales no cambian en lo absoluto.
nlJ
por ejemplo del nivel n = 2 del átomo de hidrógeno, surgen los siguientes niveles asociados a su estructura fina
la idea ahora es calcular las posiciones de los niveles (23.83) con respecto al nivel no perturbado. Puesto que todo
lo hemos escrito en términos de la constante de estructura fina α, es conveniente escribir los niveles no perturbados
en términos de tal parámetro, usando la Ec. (23.29)
1
En=2 ≡ E20 = − µc2 α2
8
Tomando las Ecs. (23.62, 23.67, 23.79) vemos que para la subcapa 2s la contribución de Wf nos da
13 4 1
hWf i2s = hWmv i2s + hWD i2s + hWSO i2s = − α me c2 + α4 me c2 + 0
128 16
y tomando las Ecs. (23.63, 23.65, 23.82), la contribución de Wf a los niveles 2p1/2 y 2p3/2 resultan
7 4 1
hWf i2p = hWmv i2p1/2 + hWD i2p1/2 + hWSO i2p1/2 = − α me c2 + 0 − me c2 α4
1/2 384 48
7 4 1
hWf i2p = hWmv i2p3/2 + hWD i2p3/2 + hWSO i2p3/2 =− α me c2 + 0 + me c2 α4
3/2 384 96
nótese que solo WSO es responsable de la separación entre 2p1/2 y 2p3/2 , ya que los términos cinético Wmv y de
Darwin WD no son sensibles al número cuántico J. Las correcciones de la estructura fina quedan finalmente
5 1
hWf i2s = hWf i2p1/2 = − me c2 α4 ; hWf i2p3/2 = − me c2 α4 (23.84)
128 128
las Ecs. (23.84) nos dicen que los niveles 2s1/2 , 2p1/2 , 2p3/2 se bajan en las cantidades dadas por
5
E2s1/2 − E20 = − me c2 α4
128
5
E2p1/2 − E20 = − me c2 α4
128
1
E2p3/2 − E20 = − me c2 α4
128
23.7. SÍNTESIS DE RESULTADOS SOBRE LA ESTRUCTURA FINA 555
Figura 23.1: Ilustración de la modificación del nivel n = 2 debido a la estructura fina en el átomo de Hidrógeno.
Se crean los subniveles 2s1/2 , 2p1/2 y 2p3/2 . Los dos primeros poseen la misma energı́a dentro del presente cálculo.
Sin embargo, estos dos niveles poseen una ligera diferencia conocida como corrimiento Lamb, cuya explicación
requiere el empleo de la electrodinámica cuántica.
vemos entonces que todos los niveles se bajan con respecto al nivel n = 2 no perturbado. La brecha entre el nivel
no perturbado y el nivel 2p3/2 es 5 veces menor que la brecha asociada a los otros niveles. Nótese que los niveles
2s1/2 y 2p1/2 poseen la misma energı́a. En el marco de la presente teorı́a esta es una degeneración accidental, en
contraste con la degeneración 2J + 1 de cada nivel J, la cual se considera esencial. Esta situación se describe en
la Figura 23.1
Una evidencia experimental interesante de la existencia de la estructura fina es la observación de que la lı́nea
espectral α de Lyman que da cuenta de la transición 2p → 1s, realmente contiene dos lı́neas cuya brecha es muy
similar 2p1/2 → 1s1/2 y 2p3/2 → 1s1/2 , tales lı́neas están separadas por una brecha de energı́a dada por
4
∆E = E2p1/2 − E1s1/2 − E2p3/2 − E1s1/2 = E2p1/2 − E2p3/2 = me c2 α4
128
1
∆E = me c2 α4
32
por tanto se puede observar que se emiten fotones de dos energı́as diferentes (aunque muy cercanas) en la serie de
Lyman. Vale decir que la subcapa 1s solo admite el valor J = 1/2, y por tanto Wf no desdobla este nivel. Cuando
la transición se da entre niveles excitados hay que tener en cuenta el desdoblamiento tanto de la subcapa inicial
como de la subcapa final.
Ya hemos mencionado que la ecuación de Dirac para una partı́cula bajo potencial Coulombiano puede resolverse
en forma exacta. Dicha solución exacta nos da la energı́a de un nivel caracterizado por los números cuánticos
n, l, s, J, y se obtiene
s −2 − 21
2
1 1
En,J = me c2 1 + α2 n − J − + J+ − α2 (23.85)
2 2
esto nos muestra que para n dado, dos niveles con el mismo J tienen la misma energı́a, como lo vimos con los
niveles 2s1/2 y 2p1/2 . Vemos por tanto, que este resultado no solo serı́a válido a primer orden en Wf sino a todos
los órdenes. Además se observa que la energı́a depende de n, J pero no de l. Una expansión en potencias de α de
556 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO
donde el primer término es la autoenergı́a del electrón, el segundo término es el nivel “no perturbado” de un
electrón en el átomo de Hidrógeno, y el tercer término es la contribución de primer orden en Wf .
Puede demostrarse que incluso en ausencia de un campo externo o de fotones incidentes, debe considerarse
la existencia de un campo electromagnético fluctuante cuyo origen está en la naturaleza cuántica del campo9 . El
acople del átomo con estas fluctuaciones del campo electromagnético remueve la degeneración entre los niveles 2s1/2
y 2p1/2 , elevando ligeramente al primero con respecto al segundo, por una cantidad conocida como corrimiento
Lamb, que es del orden de 1060M Hz. El estudio de este fenómeno permitió el desarrollo de la electrodinámica
cuántica.
veremos que a diferencia de lo que ocurre para el nivel n = 2, el término Wf no remueve la degeneración del
nivel n = 1, i.e. de la subcapa 1s. Los términos Wmv y WD no actúan sobre las variables de espı́n. Por tanto, su
representación matricial es proporcional a la identidad 4 × 4. Por otro lado, aplicando los argumentos de la sección
23.6.1, vemos que la contribución del término espı́n-órbita es cero debido a que l = 0. Puede verificarse que
5 1
hWmv i1s = − me c2 α4 I4x4 ; hWD i1s = me c2 α4 I4x4 ; hWSO i1s = 04×4
8 2
en conclusión, la corrección Wf no desdobla al nivel n = 1, solo se corre el nivel como un todo en una cantidad
dada por
1
hWf i1s = hWmv i1s + hWD i1s + hWSO i1s = − me c2 α4
8
esto también se puede ver teniendo en cuenta que con n = 1, solo es posible que l = 0 y que J = 1/2. Por tanto
Wf solo genera un nivel de estructura fina 1s1/2 .
1
hLk in,l,mL = hn, l, mL | (L+ ± L− ) |n, l, mL i = 0 ; k = 1, 2
2
hL3 in,l,mL = mL hn, l, mL | n, l, mL i = mL = 0
que se anulan en virtud de que l = mL = 0. Puede demostrarse además, que los términos asociados a la interacción
dipolo-dipolo son cero en virtud de la simetrı́a esférica del estado 1s ???.
Por tanto, la única contribución no nula es la debida al término de contacto. Para dicho término se debe
calcular el elemento matricial
2µ0
hWhf i1s = − n = 1; l = 0; mL = 0; m′S ; m′I MS · MI δ (R) |n = 1; l = 0; mL = 0; mS ; mI i (23.87)
3
esta base expande un subespacio de 4 dimensiones asociado a la degeneración del nivel 1s, que denotaremos por
E1s , la identidad en dicho subespacio está dada por
1/2 1/2
X X
11s = |n = 1; l = 0; mL = 0; mS ; mI i hn = 1; l = 0; mL = 0; mS ; mI |
mS =−1/2 mI =−1/2
para calcular el elemento matricial (23.87), observamos que MS · MI solo actúa sobre los grados de libertad de
espı́n, en tanto que δ (R) solo actúa sobre grados de libertad orbitales. Adicionalmente, los kets en (23.87) pueden
escribirse como el producto tensorial de un ket orbital y un ket de espı́n. La Ec. (23.87) queda entonces
2µ0
hWhf i1s = − hn = 1; l = 0; mL = 0| ⊗ m′S ; m′I {MS · MI δ (R)} [|n = 1; l = 0; mL = 0i ⊗ |mS ; mI i]
3
2µ0
hWhf i1s = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I {MS · MI } |mS ; mI i
3
aplicando (23.10, 23.24) se obtiene
2µ0
q gp qp
hWhf i1s = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I S · I |mS ; mI i
3 me 2Mp
µ0 qqp gp
hWhf i1s = − hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i m′S ; m′I {S · I } |mS ; mI i
3me Mp
teniendo en cuenta que µ0 = 1/ ε0 c2 , y que qp = −q (el protón tiene la carga opuesta al electrón) nos queda
finalmente
q 2 gp
hWhf i1s = R m′S ; m′I S·I |mS ; mI i ; R ≡ hn = 1; l = 0; mL = 0| δ (R) |n = 1; l = 0; mL = 0i (23.88)
3ε0 c2 me Mp
558 CAPÍTULO 23. ESTRUCTURA FINA E HIPERFINA DEL ÁTOMO DE HIDRÓGENO
El cálculo es muy similar al que se realiza para la corrección espı́n órbita L · S, ya que también se trata del
acoplamiento de dos momentos angulares (aunque en este caso, ambos momentos angulares son intrı́nsecos). Por
tanto podemos emular el razonamiento hecho en la sección 23.6. Al igual que en dicha sección, será conveniente
hacer un cambio de base. Los elementos matriciales para el operador S · I los hemos escrito en la base10
s = 1 ; I = 1 ; mS ; mI (23.90)
2 2
F≡S+I (23.91)
F = 0, 1
se puede pasar de una base a otra usando los coeficientes de Clebsch-Gordan discutidos en la sección 16.8. Como
en el caso de la sección 23.6 para el operador L · S, la base (23.92) es mejor que la base (23.90) para el cálculo de
10
Cuando consideramos el espı́n del protón y del electrón, el espacio de Hilbert de los estados será el producto tensorial del espacio
orbital Er con los estados espinoriales ES del electrón y EI del protón, i.e. E ≡ E r ⊗ ES ⊗ EI . Una base en tal espacio serı́a de la forma
{|r, εS , εI i}. En la Ec. (23.90) ya hemos desacoplado la parte orbital de modo que nos describe una base del espacio espinorial ES ⊗ EI .
11
El momento angular total es L + S + I. Sin embargo, en el estado base tenemos que l = 0 y el momento angular total es S + I.
23.9. ESTRUCTURA HIPERFINA PARA N = 1 559
los elementos matriciales de S · I, ya que en la base (23.92) la representación matricial es diagonal. Elevando al
cuadrado la expresión (23.91) y despejando S · I se tiene
F2 = S2 + I2 + 2S · I
1 2
S·I = F − S2 − I2
2
al aplicar el operador S · I sobre un estado del tipo (23.92) tenemos
1 2 2 2
~2 3 3
S · I |F ; mF i = F − S − I |F ; mF i = F (F + 1) − − |F ; mF i
2 2 4 4
~2 3
S · I |F ; mF i = F (F + 1) − |F ; mF i
2 2
por tanto los estados |F ; mF i son vectores propios del operador S · I. Los valores propios de S · I solo dependen
de F y no de mF y están dados por
3
|F = 0; mF i → − ~2
4
~2
|F = 1; mF i →
4
los elementos matriciales son entonces
′ ′ ~2 3
F ; mF S · I |F ; mF i = δF ′ ,F δm′F ,mF F (F + 1) − ; F = 0, 1 (23.93)
2 2
por tanto, Whf remueve parcialmente la degeneración de orden 4 del estado 1s. Obteniéndose un nivel de degene-
ración de orden 3 para F = 1 y uno no degenerado para F = 0. La degeneración remanente de orden 2F + 1, es
de carácter esencial y está relacionada con la invarianza de Whf bajo una rotación del sistema total.
Ahora bien, el término R solo dependı́a de la parte orbital, de modo que su valor numérico no se altera por
el cambio de base (ya que este último solo involucra a la parte espinorial), y dado que las otras contribuciones
hiperfinas son nulas, no es necesario regresarnos a la base original.
Figura 23.2: (a) Ilustración de la modificación del nivel 1s debido a la estructura fina e hiperfina en el átomo de
Hidrógeno. La estructura fina solo produce un corrimiento del nivel como un todo en una cantidad −me c2 α4 /8.
La estructura hiperfina desdobla el nivel corregido por la estructura fina en dos subniveles, por medio del número
cuántico F . (b) Estructura hiperfina asociada a n = 2.
Capı́tulo 24
En el capı́tulo 23, estudiamos las correcciones al espectro del átomo de Hidrógeno debidas a los efectos relativis-
tas. Para este estudio el campo electrostático y los campos magnéticos considerados son internos. En este capı́tulo
estudiaremos el efecto de campos magnéticos y eléctricos externos sobre el espectro del átomo de Hidrógeno. El
efecto de un campo magnético uniforme externo sobre el espectro atómico se conoce como efecto Zeeman, en
tanto que el efecto debido a un campo eléctrico uniforme externo se conoce como efecto Stark.
estas interacciones se incluyen en el Hamiltoniano como la energı́a de interacción entre el átomo y el campo B0
q q qgp q q qgp
WZ = −B0 · (ML + MS + MI ) = −B0 u3 · L+ S− I = −B0 L3 + S3 − I3
2me me 2Mp 2me me 2Mp
q q
= − B0 (L3 + 2S3 ) + gp B0 I3
2me 2Mp
q q
WZ = ω0 (L3 + 2S3 ) + ωn I3 ; ω0 ≡ − B0 , ω n ≡ gp B0 (24.1)
2me 2Mp
561
562 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO
El efecto de un campo magnético externo sobre los niveles de energı́a atómicos se conoce como efecto Zeeman.
Dependiendo de la intensidad del campo magnético, el Hamiltoniano WZ puede ser del orden de magnitud de la
estructura hiperfina o incluso mayor. En general, WZ puede ser mucho menor, del orden de, o mucho mayor que
Whf , con lo cual el Hamiltoniano completo WZ + Whf debe ser diagonalizado dentro del nivel n = 1.
En la sección 23.9, Ec. (23.88) Pág. 557 vimos que Whf para n = 1 queda en la forma RS · I. Para el término
de Zeeman (24.1) debemos calcular elementos matriciales de la forma
hWZ i1s = n = 1; l = 0; mL = 0; m′S ; m′I [ω0 (L3 + 2S3 ) + ωn I3 ] |n = 1; l = 0; mL = 0; mS ; mI i
dado que l = mL = 0, la contribución ω0 L3 es nula. Adicionalmente, teniendo en cuenta que 2ω0 S3 + ωn I3 solo
actúa sobre variables de espı́n tenemos que
hWZ i1s = hn = 1; l = 0; mL = 0| ⊗ m′S ; m′I [2ω0 S3 + ωn I3 ] {|n = 1; l = 0; mL = 0i ⊗ |mS ; mI i}
= hn = 1; l = 0; mL = 0| n = 1; l = 0; mL = 0i m′S ; m′I [2ω0 S3 + ωn I3 ] |mS ; mI i
hWZ i1s = m′S ; m′I [2ω0 S3 + ωn I3 ] |mS ; mI i
hRI · S + 2ω0 S3 + ωn I3 i
los cuales solo actúan sobre grados de libertad de espı́n. Estos elementos matriciales deben calcularse en la
base {|mS , mI i} o en la base {|F, mF i}. Adicionalmente, la Ec. (24.2) nos dice que |ω0 | ≫ |ωn | de modo que
despreciaremos el término ωn I3 . En consecuencia, la perturbación sobre el nivel 1s será
variando de manera contı́nua la intensidad del campo, podemos modificar la magnitud del efecto Zeeman. De
acuerdo con la intensidad del campo determinaremos tres casos
Veremos que el operador completo se puede diagonalizar en forma exacta. Sin embargo, en los dos primeros
casos utilizaremos teorı́a de perturbaciones. En el primer caso, el término 2ω0 S3 se considerará una perturbación
con respecto a RI · S. En el segundo caso será al contrario. Además de permitirnos practicar la teorı́a degenerada
de perturbaciones, lo anterior también sirve para realizar análisis asintóticos.
R~2
{|F = 1; mF = −1, 0, 1i} triplete de energı́a
4
3R~2
{|F = 0; mF = 0i} singlete de energı́a − (24.4)
4
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 563
por tanto, debemos utilizar teorı́a de perturbaciones para un nivel degenerado. De acuerdo con la formulación en la
sección 20.4, Pág. 504 [particularmente, en las Ecs. (20.47, 20.48)] al considerar a 2ω0 S3 como una perturbación con
respecto a RI · S, (aproximación de campo débil) debemos diagonalizar separadamente las dos matrices asociadas
a 2ω0 S3 en los dos niveles F = 1 y F = 0, i.e. correspondientes a valores propios no perturbados diferentes de
RI · S.
De las Ecs. (16.32, 16.33), Pág. 412, obtenemos la acción de S3 sobre los estados {|F, mF i}, en donde dichos
estados se ordenarán en la forma1
{|F, mF i} → |1, 1i , |1, 0i , |1, −1i , |0, 0i (24.5)
a fin de obtener la representación matricial. Aplicando (16.32, 16.33) sobre los estados (24.5) se obtiene
~ ~
S3 |F = 1; mF = 1i = S3 |+, +i = |+, +i = |F = 1; mF = 1i
2 2
S3 1 ~ ~ ~ |+, −i − |−, +i
S3 |F = 1; mF = 0i = √ {|+, −i + |−, +i} = √ |+, −i − |−, +i = √
2 2 2 2 2 2
~
= |F = 0; mF = 0i
2
~ ~
S3 |F = 1; mF = −1i = S3 |−, −i = − |−, −i = − |F = 1; mF = −1i
2 2
(~ ~
)
|+, −i − |−, +i 2 |+, −i + 2 |−, +i ~ |+, −i + |−, +i
S3 |F = 0; mF = 0i = S3 √ = √ = √
2 2 2 2
~
= |F = 1; mF = 0i
2
en notación más abreviada escribimos
~ ~ ~ ~
S3 |1, 1i = |1, 1i , S3 |1, 0i = |0, 0i , S3 |1, −1i = − |1, −1i , S3 |0, 0i = |1, 0i (24.6)
2 2 2 2
la representación matricial de S3 para la base ordenada (24.5) queda entonces
1 0 0 0
~ 0 0 0 1
(S3 )F,mF =
(24.7)
2 0 0 −1 0
0 1 0 0
de acuerdo con la Ec. (20.47) Pág. 504, para realizar el cálculo perturbativo siendo 2ω0 S3 la perturbación, los
cálculos se realizan dentro de cada uno de los subespacios EF =1 y EF =0 asociados a valores propios no perturbados
distintos. Por tanto, para el cálculo perturbativo solo requerimos las submatrices 3 × 3 y 1 × 1 que se delinean en
la Ec. (24.7). Es decir no se requieren los elementos de matriz que conectan a un estado de F = 1 con un estado
de F = 0. Sin embargo, más adelante cuando diagonalicemos el operador completo (24.3) requeriremos la matriz
completa (24.7).
Es interesante comparar esta matriz con la matriz asociada a F3 = S3 + I3 en esta misma base. Tal matriz
viene dada por
1 0 0 0
0 0 0 0
(F3 )F,mF = ~
0 0 −1 0
(24.8)
0 0 0 0
1
En el capı́tulo 16, tenemos que J = J(1) + J(2) . Para nuestro contexto J → F, J(1) → S, J(2) → I. Los estados definidos en la Ec.
(16.17), Pág. 409, corresponden en este caso a
1 1 1 1
|±, ±i = mS = ± , mI = ± ; |±, ∓i = mS = ± , mI = ∓
2 2 2 2
564 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO
vemos que F3 es diagonal en tanto que S3 no lo es. Sin embargo, las submatrices demarcadas en las Ecs. (24.7,
24.8) son idénticas salvo por un factor multiplicativo constante. Esto implica que para el cálculo perturbativo
(en el cual trabajamos dentro de cada subespacio EF =1 y EF =0 ), ambas matrices son proporcionales. En otras
palabras, los operadores S3 y F3 definidos en el subespacio
EF = EF =1 ⊕ EF =0
Frecuencias de Bohr asociadas a hF i y hSi para efecto Zeeman con campo débil
En la sección 5.8.3, Página 228, vimos que el valor esperado de un observable dado B posee unas frecuencias
caracterı́sticas de evolución denominadas frecuencias de Bohr. Para dos estados de energı́as Ea y Eb la frecuencia
de Bohr asociada está dada por
Ea − Eb
νab =
h
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 565
Figura 24.1: Diagrama de Zeeman en la aproximación de campo débil para la estructura hiperfina del nivel 1s del
átomo de Hidrógeno.
además una frecuencia de Bohr νab contribuye al valor esperado del observable B, solo si el elemento de matriz
del tipo hEa | B |Eb i es no nulo. En nuestro contexto, los autoestados del Hamiltoniano de campo débil son estados
del tipo |F, mF i. Las matrices (24.7, 24.8) representan a S3 y F3 en esta base. Puesto que la matriz para F3 es
diagonal, no hay frecuencias de Bohr no nulas asociadas a hF3 i (t). Por tanto hF3 i es estático. Por otro lado, S3
tiene además de los elementos diagonales que se asocian a la componente estática de hS3 i, elementos no diagonales
entre los estados |F = 1; mF = 0i y |F = 0; mF = 0i, con diferencia de energı́a R~2 , como se vé en la figura 24.1
y en la Ec. (24.11). Por tanto en adición a la componente estática de hS3 i hay una componente modulada a una
frecuencia R~. Un análisis similar se puede hacer para cada componente de S, y el resultado final es una precesión
de S alrededor de F como se puede ver en la Fig. 24.2. Adicionalmente, en virtud de la ligadura F = I + S,
tendremos que I también precesa con la misma frecuencia como se ilustra en la Fig. 24.2. Puesto que todo este
análisis es para campo magnético cero, es claro que F = I + S es constante de movimiento, de modo que para
campo magnético cero el vector F de la Fig. 24.2 es constante.
Nótese que en la Fig. 24.2, F tiene en general componentes en todos los ejes. El plano de la base del cono
generado por S y por I, no es paralelo al plano XY , ya que el promedio de la componente S3 oscila con frecuencia
R~. Como todas las componentes (promedios) de S oscilan con la misma frecuencia, el resultado es un movimiento
circular con frecuencia R~.
Al introducir el campo magnético B0 el efecto es que F deja de ser constante de movimiento y comienza a
precesar alrededor del eje del campo (eje Z), con una frecuencia ω0 (frecuencia de Larmor), mucho menor que la
frecuencia de precesión de S e I (ya que en este régimen de campo débil ~ω0 ≪ R~2 ).
Debe aclararse sin embargo, que la teorı́a de perturbaciones aquı́ mostrada no predice ninguna de estas pre-
cesiones. La razón es que tales precesiones surgen de considerar elementos de matriz entre un estado con F = 1 y
otro con F = 0. Pero la teorı́a de perturbaciones precisamente se restringe a trabajar dentro de subespacios con
F constante. Efectivamente hemos obtenido que a orden cero nuestros autoestados incluso con B0 6= 0, siguen
siendo del tipo |F, mF i como se vé en las Ecs. (24.11). Por tanto, a orden cero en teorı́a de perturbaciones, F
sigue siendo constante de movimiento incluso con B0 6= 0.
566 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO
Figura 24.2: Precesión de S e I alrededor de F y precesión de F alrededor de la dirección del campo magnético,
en el lı́mite de campo débil.
H0 = 2ω0 S3 ; W = RI · S
Debemos empezar por diagonalizar el término de Zeeman, para lo cual emplearemos la base desacoplada {|mS , mI i},
ya que estos son autoestados del Hamiltoniano no perturbado (Hamiltoniano de Zeeman)2 .
puesto que mS = ±1/2, los valores propios de WZ son ±~ω0 . Cada uno de ellos es doblemente degenerado debido
a los dos valores posibles de mI . Utilizaremos la notación |mS , mI i → |εS , εI i con εS = ± y εI = ±. Tenemos
entonces que
2ω0 S3 |+, ±i = +~ω0 |+, ±i ; 2ω0 S3 |−, ±i = −~ω0 |−, ±i (24.12)
puesto que el Hamiltoniano hiperfino Whf es ahora la perturbación, consideraremos correcciones de primer orden en
R, diagonalizando la restricción del operador RI · S a los subespacios bidimensionales EmS =1/2,mI y EmS =−1/2,mI ,
asociados a los dos valores propios distintos de 2ω0 S3 .
Es fácil ver que los vectores de la forma |ε1 , ε2 i son también vectores propios de F3
Claramente los únicos vectores propios con el mismo valor propio de F3 son |+, −i y |−+i que están en subespacios
diferentes. Por otro lado, teniendo en cuenta que
R 2
RI · S = F − S2 − I2
2
conmuta con F3 , el teorema 1.68 Pág. 58, nos dice que no hay elementos matriciales de RI · S entre los estados
{|+, +i , |+, −i} ni entre los estados {|−, +i , |−, −i} ya que corresponden a valores propios diferentes de F3 . En
consecuencia, dentro de cada subespacio bidimensional, el operador RI · S es diagonal.
′
mS , m′I RI · S |mS , mI i = hmS , mI | RI · S |mS , mI i δmS ,m′S δmI ,m′I (24.13)
1
I · S = I3 S 3 + (I+ S− + I− S+ ) (24.14)
2
La ecuación (24.13), nos muestra que solo los elementos diagonales sobreviven para el operador I · S. A conti-
nuación demostraremos que los elementos diagonales del operador I+ S− +I− S+ son nulos. Para verlo, examinamos
primero la acción de dicho operador sobre un elemento arbitrario de la base desacoplada
p
[I+ S− + I− S+ ] |mS , mI i = I+ s (s + 1) − mS (mS − 1) |mS − 1, mI i
p
+I s (s + 1) − mS (mS + 1) |mS + 1, mI i
p− p
[I+ S− + I− S+ ] |mS , mI i = I (I + 1) − mI (mI + 1) s (s + 1) − mS (mS − 1) |mS − 1, mI + 1i
p p
+ I (I + 1) − mI (mI − 1) s (s + 1) − mS (mS + 1) |mS + 1, mI − 1i
estos valores solo pueden ser no nulos para los kets |mS = +1/2, mI = −1/2i y |mS = −1/2, mI = 1/2i. Puesto
que s = I = 1/2, y para estos casos ms = −mI , las contribuciones no nulas son
p p
[I+ S− + I− S+ ] |mS , −mS i = s (s + 1) + mS (−mS + 1) s (s + 1) − mS (mS − 1) |mS − 1, −mS + 1i
p p
+ s (s + 1) + mS (−mS − 1) s (s + 1) − mS (mS + 1) |mS + 1, −mS − 1i
[I+ S− + I− S+ ] |mS , −mS i = [s (s + 1) − mS (mS − 1)] |mS − 1, −mS + 1i
+ [s (s + 1) − mS (mS + 1)] |mS + 1, −mS − 1i
similarmente ocurre para el caso s = −mS = 1/2. Por tanto, se tiene que
combinando las ecuaciones (24.13), (24.14) y (24.15), un elemento de matriz del operador RI · S en la base
desacoplada queda
R m′S , m′I I · S |mS , mI i = R hmS , mI | I3 S3 |mS , mI i δmS ,m′S δmI ,m′I = R~2 mS mI δmS ,m′S δmI ,m′I (24.16)
568 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO
De otra parte, combinando las Ecs. (24.12, 24.16), obtenemos los autovectores a orden cero en R y los auto-
valores a primer orden en R
R~2
|+, +i ↔ ~ω0 + (24.17)
4
R~2
|+, −i ↔ ~ω0 − (24.18)
4
R~2
|−, +i ↔ −~ω0 − (24.19)
4
R~2
|−, −i ↔ −~ω0 + (24.20)
4
en la Fig. 24.3, las lı́neas sólidas (para ~ω0 ≫ R~2 ) representan los niveles para el régimen de campo fuerte. Las
lı́neas punteadas indican la prolongación de las lı́neas sólidas, pero están en un régimen que no corresponde a
campo fuerte. Se obtienen dos lı́neas paralelas de pendiente +1 separadas por una energı́a R~2 /2 y dos lı́neas
paralelas de pendiente −1 separadas en R~2 /2.
Figura 24.3: (a) Diagrama de Zeeman en la aproximación de campo fuerte, tomando la estructura hiperfina del
nivel 1s del átomo de Hidrógeno como perturbación.
El desdoblamiento de campo fuerte R~2 /2 entre los estados |+, +i y |+, −i o entre los estados |−, +i y |−, −i
se puede interpretar de la siguiente manera: Vimos que en la expresión (24.14) solo el término I3 S3 contribuı́a en
el cálculo de los elementos matriciales en la aproximación de campo fuerte. Por tanto el Hamiltoniano total en
24.1. EFECTO ZEEMAN DE LA ESTRUCTURA HIPERFINA DEL ESTADO BASE 1S 569
de modo que el espı́n electrónico se acopla a ω0 (i.e. al campo B0 ) pero adicionalmente se acopla a un “campo
efectivo” parametrizado por ωI que surge del acople hiperfino entre I y S tomando dos valores posibles ya que
mI = ±1/2, dependiendo de si el espı́n del núcleo está arriba o abajo. Puesto que este “campo interno efectivo”
se suma o resta a B0 dependiendo de mI , es este campo efectivo el que genera la brecha entre los estados |+, +i
y |+, −i o entre los estados |−, +i y |−, −i.
Figura 24.4: (a) Precesión de S alrededor de la dirección del campo magnético en la aproximación de campo fuerte.
En este caso S3 es estático. Adicionalmente, si despreciamos ωn , el vector I serı́a estático.
Nótese que S3 conmuta con F3 , de lo cual el término 2ω0 S3 solo tendrá elementos matriciales no nulos entre dos
estados con el mismo mF , lo cual explica los ceros de la matriz (24.23). Por esta misma razón se ordenó la base
en la forma (24.22) en lugar del orden seguido en la Ec. (24.5).
La matriz (24.23) es diagonal por bloques de modo que se puede escribir como suma directa de dos matrices
1 × 1 mas una matriz 2 × 2.
2 2 !
R~ R~ R~2
~ω 0
hWhf + WZ iF,mF = + ~ω0 11×1 ⊕ − ~ω0 11×1 ⊕ 4
2 (24.24)
4 4 ~ω0 − 3R~4
Figura 24.5: (a) Diagrama de Zeeman para valores arbitrarios del campo magnético. Las lı́neas punteadas repre-
sentan las ası́ntotas de las hipérbolas.
Los autovalores asociados a la submatriz 2 × 2 de la Ec. (24.23) nos dan la ecuación de valores propios
2
R~ 3R~2
−E − − E − ~2 ω02 = 0
4 4
cuyas raı́ces nos dan los otros niveles de energı́a
s 2
R~2 R~2
E3 = − + + ~2 ω02 (24.27)
4 2
s 2
R~2 R~2
E4 = − − + ~2 ω02 (24.28)
4 2
La Fig. 24.5 muestra que cuando ~ω0 varı́a, los niveles E3 y E4 trazan las dos ramas de una hipérbola. Las ası́ntotas
de esta hipérbola son las lı́neas rectas definidas por las ecuaciones
R~2
E=−± ~ω0 (24.29)
4
que son las lı́neas rectas punteadas asociadas a la Fig 24.5 y las ecuaciones (24.18, 24.19) correspondientes a los
estados |+, −i y |−, +i. Los dos puntos de retorno de la hipérbola corresponden a ω0 = 0 y energı́as −R~2 /4 ±
R~2 /2, es decir están sobre el eje Y con energı́as R~2 /4 y −3R~2 /4. Las tangentes a ambos puntos de retorno
son horizontales en concordancia con lo encontrado en (24.11) para los estados |F = 0, 1; mF = 0i.
Nótese que en un campo débil los estados de energı́a bien definida son los estados |F, mF i y en un campo
fuerte son los estados de la base |mS , mI i. Para campos intermedios, son los vectores propios asociados a la matriz
(24.23)5 , que son estados intermedios entre los estados |F, mF i y los estados |mS , mI i. Esto se puede entender
5
Nótese que dos de los vectores propios de la matriz (24.23) son los estados
|ψ1 i = |1, 1i = |+, +i ; |ψ2 i = |1, −1i = |−, −i
572 CAPÍTULO 24. CAMPOS EXTERNOS SOBRE EL ÁTOMO DE HIDRÓGENO
como si nos moviéramos contı́nuamente desde un acople fuerte entre I y S (base acoplada) para ω0 pequeño, hacia
un desacople total entre I y S (base desacoplada) para ω0 grande.
~
WS = −q E·R = −qEX3
aún para los campos más intensos que se producen en el laboratorio, WS ≪ H0 , siendo H0 el Hamiltoniano
(13.4) de la Pág. 357, que describe la energı́a cinética más la energı́a potencial interna electrostática del átomo
de Hidrógeno. Por tanto, se puede tratar perturbativamente con respecto a H0 . Por otro lado, WS puede ser
mucho menor, del orden de, o mucho mayor que alguno de los Hamiltonianos Wf y Whf . En esta sección nos
restringiremos a asumir que el campo eléctrico externo es suficientemente intenso para ser dominante con respecto
a Wf y Whf . De hecho en el actual contexto despreciaremos la estructura fina e hiperfina. Puesto que H0 y WS
no dependen de variables de espı́n, ignoraremos los números cuánticos mS y mI , cuyo único papel será multiplicar
cualquier degeneración encontrada por cuatro.
hn = 1, l = 0, mL = 0| WS |n = 1, l = 0, mL = 0i = −qE hn = 1, l = 0, mL = 0| X3 |n = 1, l = 0, mL = 0i
Z
hWS i1s = −qE dV ϕ∗1,0,0 (r) x3 ϕ1,0,0 (r)
puesto que x3 es impar y la función de onda del estado base es par, el integrando es impar y la integral se anula.
En consecuencia, no hay corrección lineal en E. Por tanto, debemos calcular el término (20.41), Pág. 502, asociado
al segundo orden en teorı́a de perturbaciones.
aquı́ aparecen integrales no nulas, ya que hay funciones de onda que tienen paridad opuesta a ϕ1,0,0 (r), de
manera que el integrando tendrı́a paridad par. Recordemos que la paridad de la función de onda está dictaminada
por el armónico esférico asociado cuya paridad es la asociada al número cuántico l [ver Ec. (11.34) Pág. 332].
Adicionalmente, puesto que E1 − En < 0, el estado base se baja.
De acuerdo con la expresión (20.39) Pág. 502, el estado base corregido a primer orden en E, nos da
XX hn, l, m| X3 |1, 0, 0i
|ψ0 i = |1, 0, 0i − qE |n, l, mi + ... (24.31)
E1 − En
n6=1 l,m
esto nos muestra que a primer orden en E, el valor medio del momento dipolar eléctrico qR, viene dado por
dado que estos dos estados coinciden en ambas bases. Sin embargo los otros dos vectores propios de la matriz (24.23) son combinaciones
lineales de |1, 0i y |0, 0i ó equivalentemente, combinaciones lineales de |+, −i y |−, +i. Tales estados se obtienen diagonalizando la
submatriz 2 × 2 de la matriz (24.23).
24.2. EFECTO STARK PARA EL ÁTOMO DE HIDRÓGENO 573
una vez más el término h1, 0, 0| R |1, 0, 0i se anula por argumentos de paridad. El valor esperado del momento
dipolar eléctrico a primer orden en E, vendrá dado entonces por
X X h1, 0, 0| R |n, l, mi hn, l, m| X3 |1, 0, 0i + h1, 0, 0| X3 |n, l, mi hn, l, m| R |1, 0, 0i
hψ0 | qR |ψ0 i = −q 2 E (24.32)
E1 − En
n6=1 l,m
Por tanto, el campo eléctrico E genera un momento dipolar inducido. Ahora bien, de las identidades
r
2π
x1 = r sin θ cos ϕ = r [Y1,−1 (θ, ϕ) − Y11 (θ, ϕ)]
3
r
2π
x2 = r sin θ sin ϕ = ir [Y1,−1 (θ, ϕ) + Y11 (θ, ϕ)]
3
y usando las relaciones de ortogonalidad de los armónicos esféricos puede verse que
sustituyendo (24.33) en (24.32), el valor esperado del momento dipolar eléctrico queda
X X 2u3 h1, 0, 0| X3 |n, l, mi hn, l, m| X3 |1, 0, 0i
hψ0 | qR |ψ0 i = u3 q hψ0 | X3 |ψ0 i = −q 2 E
E1 − En
n6=1 l,m
X X |h1, 0, 0| X3 |n, l, mi|2
hψ0 | qR |ψ0 i = −2u3 q 2 E (24.34)
E1 − En
n6=1 l,m
de modo que el momento dipolar inducido es paralelo al campo eléctrico aplicado E ~ = Eu3 (como ocurre también
en el escenario clásico). Esto se debe a la simetrı́a esférica del estado 1s (ya que Y00 no depende de los ángulos) y al
hecho de que esta simetrı́a esférica es rota por el campo eléctrico y reducida a una simetrı́a axial con respecto al eje
X3 . El coeficiente de proporcionalidad χ entre el momento dipolar inducido y el campo se denomina susceptibilidad
eléctrica lineal. De acuerdo con la Ec. (24.34), para el estado 1s esta susceptibilidad eléctrica viene dada por
X X |h1, 0, 0| X3 |n, l, mi|2
χ1s = −2q 2 (24.35)
E1 − En
n6=1 l,m
quedando finalmente
h1, 0, 0| X3 |n, l, mi = h1, 0, 0| X3 |n, 1, 0i δl,1 δm,0
con lo cual las Ecs. (24.30, 24.31 ,24.34, 24.35) quedan en la forma
∞
X |h1, 0, 0| X3 |n, 1, 0i|2
ε2 = q 2 E2
E1 − En
n=2
∞
X hn, 1, 0| X3 |1, 0, 0i
|ψ0 i = |1, 0, 0i − qE |n, 1, 0i + ...
n=2
E1 − En
∞
X |h1, 0, 0| X3 |n, 1, 0i|2
hψ0 | qR |ψ0 i = −2u3 q 2 E
E1 − En
n=2
∞
X
2 |h1, 0, 0| X3 |n, 1, 0i|2
χ1s = −2q
n=2
E1 − En
la función de onda ϕ2,0,0 (r) es par, y las funciones de onda ϕ2,1,m (r) son impares. Puesto que WS es impar, se
concluye que se anulan los siguientes 10 elementos matriciales
h2, 0, 0| WS |2, 0, 0i = 2, 1, m′ WS |2, 1, mi = 0
y dado que los estados |2, 0, 0i y |2, 1, mi son de paridad opuesta, los elementos matriciales h2, 1, m| WS |2, 0, 0i
pueden ser no nulos. De hecho veremos que solo h2, 1, 0| WS |2, 0, 0i es no nulo. Para verlo utilizamos la Ec. (24.36)
6
Estrictamente el espacio de estados es de dimensión 16 debido a las variables de espı́n del electrón y el protón. Pero dado que no
hay dependencia de las variables de espı́n, las matrices se podrán escribir como M4×4 ⊗I4×4 , siendo M4×4 una matriz orbital construı́da
con la base (24.37). Por supuesto, toda degeneración obtenida se multiplica por 4.
24.2. EFECTO STARK PARA EL ÁTOMO DE HIDRÓGENO 575
con lo cual
Z
h2, 1, m| WS |2, 0, 0i = −qE ϕ∗2,1,m (r) x3 ϕ2,0,0 (r) dV
r Z
4π ∗
= − qE R2,1 (r) Y1,m (θ, ϕ) rY10 (θ) R2,0 (r) Y0,0 (θ, ϕ) r 2 dr dΩ
3
r r Z Z
1 4π 3 ∗
= − qE R2,1 (r) R2,0 (r) r dr Y1,m (θ, ϕ) Y10 (θ) dΩ
4π 3
Z ∞
qE
= − √ δm,0 R2,1 (r) R2,0 (r) r 3 dr
3 0
Z ∞
q
h2, 1, m| WS |2, 0, 0i = γEδm,0 ; γ ≡ − √ R2,1 (r) R2,0 (r) r 3 dr
3 0
puesto que R2,1 (r) y R2,0 (r) son reales, la cantidad γ es real. Los elementos matriciales de WS en la base ordenada
nos dan
0 0 0 0
0 0 0 0
hWS i =
0
(24.38)
0 0 γE
0 0 γE 0
calculando los vectores y valores propios de la matriz (24.38), obtenemos la corrección a primer orden en E de la
energı́a y a orden cero de los autoestados.
|2, 1, 1i ↔ ε1 = 0
|2, 1, −1i ↔ ε1 = 0
1
√ (|2, 1, 0i + |2, 0, 0i) ↔ ε1 = γE
2
1
√ (|2, 1, 0i − |2, 0, 0i) ↔ ε1 = −γE
2
con lo cual la degeneración del nivel n = 2 se remueve parcialmente, y los corrimientos en la energı́a son lineales
y no cuadráticos en E, a diferencia de la corrección (24.30) para el nivel 1s. Este efecto Stark lineal se debe a
la existencia de dos niveles de paridad opuesta y con la misma energı́a no perturbada, i.e. los niveles 2s y 2p.
Los estados con n = 2 son inestables ya que tienden a caer en el estado base. Sin embargo, el estado 2s tiene
una vida media mucho mayor que el estado 2p. La transición entre los estados 2p y 1s se realiza por emisión
espontánea de un fotón de la serie de Lyman α, con una vida media de unos 10−9 seg. Por otro lado, la transición
del estado 2s al 1s se realiza por la emisión de dos fotones, con una vida media del orden de un segundo. Por lo
anterior, se dice que el estado 2p es inestable y el estado 2s se denomina metaestable.
Puesto que el Hamiltoniano de Stark WS tiene elementos de matriz no nulos que conectan al estado 2s con
el 2p, cualquier campo eléctrico externo (estático u oscilante) mezcla el estado metaestable 2s con el estado
inestable 2p, reduciendo fuertemente la vida media del estado 2s. Este fenómeno se conoce como extinción de
la metaestabilidad.
Capı́tulo 25
Moléculas diatómicas
Figura 25.1: Perfil tı́pico de la energı́a potencial de interacción entre los núcleos de una molécula diatómica como
función de la distancia r entre los núcleos. Los primeros estados vibracionales se representan por lı́neas horizontales
en el pozo de potencial.
La formación de una molécula diatómica requiere que la energı́a de interacción V (r) entre los átomos neutros
posea al menos un mı́nimo local que garantice la estabilidad del sistema, siendo r la distancia entre los átomos.
La forma tı́pica de este potencial se muestra en la Fig. 25.1. Para r muy grande, los átomos no interactúan, de
modo que V (r) debe tomar un valor constante que suele escogerse como el cero de la energı́a potencial. A medida
que r decrece V (r) varı́a aproximadamente como −1/r 6 , donde la interacción atractiva es del tipo de fuerza de
Van der Waals1 . Cuando r se vuelve suficientemente pequeño como para que las funciones de onda electrónicas
se traslapen, V (r) decrece aún más rápido y pasa por un mı́nimo local r = re , luego de lo cual decrece en valor
absoluto y se anula en algún punto rm . Para r < rm la fuerza se vuelve repulsiva y se incrementa en forma
indefinida a medida que decrece r (ya que en este caso domina la interaccción repulsiva entre los núcleos).
En una imagen clásica, r = re serı́a un punto de equilibrio estable. El valor V (re ) = −V0 nos da la energı́a de
disociación de la molécula. Esto es, V0 es la energı́a necesaria para que los dos átomos se separen indefinidamente.
A mayor V0 la molécula es más estable.
La descripción mecano-cuántica de la molécula es un problema muy complejo, ya que involucra encontrar
los estados estacionarios de un sistema de núcleos y electrones que interactúan todos entre sı́. De hecho, no se
puede resolver de manera exacta la ecuación de Schrödinger asociada. Una importante simplificación surge del
1
Es lógico que el potencial efectivo decaiga mucho más rápido que el potencial de Coulomb, ya que la interacción efectiva es el
resultado del apantallamiento de cargas en una molécula que es neutra.
576
577
hecho de que la masa del electrón es mucho menor que la del protón. Esto implica que en primera aproximación, el
movimiento de ambos se puede estudiar por separado (aproximación de Born-Oppenheimer). Para ello comenzamos
estudiando el movimiento de los electrones para un valor fijo de r entre los dos núcleos. De esta forma se obtiene
una serie de estados estacionarios para el sistema electrónico de energı́as E1 (r) , E2 (r) etc. Consideramos entonces
el estado base E1 (r) del sistema electrónico, cuando r varı́a debido al movimiento de los núcleos. Asumimos que
el sistema electrónico permanece siempre en el estado base para todo r. Esto implica que la función de onda del
sistema se adapta instantánemente a cualquier cambio en r. Se dice que los electrones (que son muy móviles)
siguen “adiabáticamente” el movimiento de los núcleos. En esta aproximación, la energı́a electrónica E1 (r) actúa
como una energı́a potencial de interacción entre los dos núcleos. Esta energı́a potencial de interacción depende
entonces de la distancia entre los núcleos r y debe añadirse a la repulsión electrostática. En consecuencia, bajo la
aproximación de Born-Oppenheimer la energı́a potencial de interacción total V (r) del sistema de los dos núcleos
que nos permite determinar su movimiento estará dada por
Z1 Z2 e2
V (r) = E1 (r) + (25.1)
r
siendo Z1 y Z2 los números atómicos de los dos núcleos. La energı́a potencial modelada en la Fig. 25.1, es la dada
por la Ec. (25.1).
Al tomar en cuenta todos los grados de libertad del problema aparecerán vibraciones de los dos núcleos
alrededor de su posición de equilibrio, y rotación del sistema con respecto al centro de masa.
Sean m1 y m2 las masas de los dos núcleos, puesto que el potencial V (r) es central, la sección 12.2 nos muestra
que también en el escenario cuántico es posible separar el problema en el movimiento del centro de masa (una
masa libre equivalente M = m1 + m2 , con el movimiento del centro de masa) y el movimiento de una partı́cula
equivalente de masa reducida
m1 m2
µ=
m1 + m2
sometida al potencial V (r) de la Ec. (25.1). El único movimiento no trivial es el de la masa reducida. A diferencia
del átomo de hidrógeno en el cual la masa reducida es aproximadamente la masa del electrón, la masa reducida
de un sistema de dos núcleos es en general muy diferente a la masa de cada núcleo, puesto que dichas masas
suelen ser del mismo orden de magnitud. En consecuencia, el movimiento real de cada núcleo es muy diferente al
movimiento de la partı́cula imaginaria con masa µ, las posiciones de los núcleos se obtienen a partir de la posición
del centro de masa y de la posición de la partı́cula imaginaria µ, usando las Ecs. (12.2) Pág. 344.
Retornando al problema equivalente de la partı́cula de masa reducida µ sometida al potencial V (r), los estados
estacionarios asociados vendrán dados por las Ecs. (12.33, 12.36) Pág. 351
1
ϕv,l,m (r, θ, ϕ) = uv,l (r) Yl,m (θ, ϕ) (25.2)
r
donde los niveles de energı́a y la función radial están dadas por la Ec. (12.37), Pág. 352
2 2
~ d l (l + 1) ~2
− + V (r) + uv,l (r) = Ev,l uv,l (r) (25.3)
2µ dr 2 2µr 2
asumiremos de aquı́ en adelante que la proyección del momento angular total orbital de los electrones sobre el eje
internuclear es nulo, al igual que su espı́n total. En consecuencia, el momento angular total de la molécula surge
solo de la rotación de los dos núcleos. Este es el caso en casi todas las moléculas diatómicas en su estado base.
En el caso más general surgen términos en la energı́a nuclear de interacción que no dependen exclusivamente de
la distancia r.
Podemos definir por supuesto un potencial efectivo como la suma del potencial real y el potencial centrı́fugo
en la forma
l (l + 1) ~2
Vef (r) = V (r) + Vcent (r) = V (r) + (25.4)
2µr 2
578 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS
de modo que la ecuación radial (25.3), tiene la forma de una ecuación de valores propios para un Hamiltoniano
unidimensional en el cual la partı́cula de masa µ se coloca en el potencial efectivo Vef (r).
Adicionalmente, expandiremos el potencial V (r) en la forma
los coeficientes f y g son positivos, puesto que el potencial posee un mı́nimo local en re , y se incrementa más
rápido para r < re que para r > re . Comenzaremos despreciando el término cúbico de tal manera que asumiremos
potencial puramente parabólico.
siendo Hv un polinomio de Hermite [ver Ecs. (8.50), Pág. 282]. En la Fig. 25.1, Pág. 576, hemos representado
los dos primeros niveles de energı́a con lı́neas horizontales, donde la longitud de las lı́neas nos da una idea de la
extensión caracterı́stica (∆r)v de la función de onda asociada a estos estados. De la Ec. (8.64), Pág. 284 tenemos
que s
1 ~
(∆r)v ≃ v+ (25.8)
2 µω
Para que el cálculo anterior sea válido, es necesario que el término g (r − re )3 sea despreciable con respecto a
f (r − re )2 , dentro de una vecindad de ancho ∆r alrededor de r = re , es decir
2 3
f (r − r )
e ≫ g (r − r )
e para |r − re | . (∆r)v (25.9)
f ≫ g (∆r)0 (25.11)
en la práctica la condición (25.11) se satisface casi siempre. Debemos sin embargo tener en cuenta que los números
cuánticos v deben ser suficientemente pequeños para que también se satisfaga la condición (25.10).
Nótese que la expansión (25.5) no es válida en r = 0 donde V (r) diverge. El argumento anterior asume
implı́citamente la condición
(∆r)v ≪ re (25.12)
en cuyo caso las funciones de onda (25.7) son prácticamente cero en el origen, y casi idénticas a las soluciones
exactas de la ecuación radial (25.3) que rigurosamente se deben anular en el origen [condición (12.44) página 353].
25.2. ESTADOS DE MOMENTO ANGULAR NO NULO (L 6= 0) 579
Por otro lado, si ∆r ≪ re es el ancho de la función de onda alrededor de re , tenemos que la variación del potencial
centrı́fugo alrededor de r = re , es del orden de
∆Vcent (r) dVcent (r) l (l + 1) ~2
≈ =
∆r dr µre3
r=re r=re
l (l + 1) ~2 ∆r
|∆Vcent (r)|r=re ≈ 3
∆r = 2Bhl (l + 1) (25.15)
µre re
en tanto que la variación del potencial real V (r) es del orden de la “energı́a potencial elástica” con “elongación”
∆r y “constante elástica” k ≡ µω 2
1 1 2µω 1 (∆r)2
∆V (r) = µω 2 (∆r)2 = ~ω (∆r)2 = ~ω (25.16)
2 4 ~ 4 (∆r)20
donde hemos usado (25.10). Y puesto que ∆r ≪ re , utilizando (25.14) en (25.15) y asumiendo valores no muy
grandes de l, tenemos que
∆r
|∆Vcent (r)| ≃ 2Bhl (l + 1) ≪ 2Bhl (l + 1) ≃ 2Bh ≪ ~ω (25.17)
re
por otro lado, puesto que ∆r es del orden de (∆r)0 , la Ec. (25.16) nos indica que
∆V (r) ≈ ~ω (25.18)
combinando las Ecs. (25.18, 25.17) vemos que en la región del espacio en la cual la función de onda tiene amplitudes
significativas (esto es en un ancho ∆r alrededor de re ) la variación (25.15) del potencial centrı́fugo es mucho menor
que la variación (25.16) de V (r). Por tal razón, podemos reemplazar en primera aproximación el valor del potencial
centrı́fugo por su valor en r = re , Ec. (25.13). Combinando entonces las Ecs. (25.4, 25.13) el potencial efectivo
queda en la forma
Vef (r) ≃ V (r) + Bhl (l + 1) (25.19)
utilizando (25.19) y la expansión (25.5) hasta segundo orden, la ecuación radial (25.3) queda en la forma
~2 d2 2
− − V0 + f (r − re ) + Bhl (l + 1) uv,l (r) = Ev,l uv,l (r)
2µ dr 2
2 2
~ d 1 2 2
− + µω (r − re ) uv,l (r) = [Ev,l + V0 − Bhl (l + 1)] uv,l (r) (25.20)
2µ dr 2 2
580 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS
esta ecuación es totalmente análoga a la ecuación de valores propios de un oscilador armónico unidimensional. Por
tanto el miembro derecho de la Ec. (25.20) que está en paréntesis, debe ser igual a (v + 1/2) ~ω. En consecuencia,
el espectro asociado a la Ec. (25.20) está dado por
1
Ev,l = v + ~ω − V0 + Bhl (l + 1) ; v = 0, 1, 2, 3, . . . ; l = 0, 1, 2, 3, . . . (25.21)
2
nótese que el operador diferencial a la izquierda de la Ec. (25.20) no depende de l, ya que toda la dependencia
con este número cuántico quedó al lado derecho de tal ecuación y por tanto fué absorbida por el valor propio. En
consecuencia, la función radial que se genera en (25.20) es independiente de l
Donde la función radial estarı́a dada por la Ec. (25.7). La expresión (25.2) para la función de onda completa
se puede escribir en esta aproximación de la forma
1
ϕv,l,m (r) = uv (r) Ylm (θ, ϕ) (25.23)
r
Obsérvese que la energı́a (25.21) consiste en la contribución de un modo vibracional de frecuencia ω y un
modo rotacional de momento angular l, el término constante −V0 puede removerse del espectro si se desea.
Adicionalmente, en la función de onda los modos vibracionales están asociados con la dependencia radial y los
rotacionales con la dependencia angular. Vemos entonces que la función de onda (25.23) es el producto de dos
funciones en donde solo uno de los factores se modifica con las vibraciones y solo uno de ellos se modifica con
las rotaciones. Nótese en particular que la independencia de la función radial con respecto al número cuántico l
expresada en la Ec. (25.22), es importante para que la función radial no dependa de las rotaciones.
Figura 25.2: Diagrama que ilustra los dos primeros niveles v = 0 y v = 1, con su estructura rotacional debida al
término Bhl (l + 1).
La figura 25.2 muestra los dos primeros modos vibracionales v = 0, 1 con su estructura rotacional debida al
factor Bhl (l + 1). En esta figura se muestra que solo transiciones con ∆l = 1 están permitidas, lo cual veremos a
continuación.
25.3. ESPECTRO DE MOLÉCULAS DIATÓMICAS HETEROPOLARES 581
donde hemos usado las Ecs. (8.9) Pág. 272 y las Ecs. (8.41) Pág. 280. Sustituyendo (25.26, 25.27) en (25.25)
tenemos que
" s #
′ ′ ′ ~ √ √
v , l , m D (r) cos θ |v, l, mi = d0 δv′ v + d1 v + 1 δv′ ,v+1 + v δv′ ,v−1
2µω
" r s #
l 2 − m2 (l + 1)2 − m2
× δl′ ,l−1 + δl′ ,l+1 δmm′ (25.28)
4l2 − 1 4 (l + 1)2 − 1
de la expresión (25.28) se obtienen reglas de selección asociadas al elemento de matriz de la proyección del
momento dipolar eléctrico a lo largo de u3 . Tal elemento de matriz es nulo a menos que se cumplan las condiciones
l′ − l = +1, −1 ; m = m′ (25.29)
′
v − v = 0, +1, −1 (25.30)
Nótese que la regla de selección (25.29) proviene de la dependencia angular (ortonormalidad de los armónicos
esféricos) y es por tanto independiente de las aproximaciones realizadas para resolver la ecuación radial (25.3)2 .
En contraste, la regla de selección (25.30) depende de realizar la aproximación armónica en la expansión (25.5)
del potencial V (r) y de conservar solo hasta el término lineal en la expansión (25.24) del dipolo D (r).
para calcular las transiciones se pueden eliminar los términos constantes de modo que para el espectro puramente
rotacional se tiene
El = Bhl (l + 1) ; l = 0, 1, 2, 3, . . . (25.31)
Los niveles adyacentes nos dan
de modo que la separación entre niveles adyacentes se incrementa linealmente con l, como se indica en la Fig.
25.3a. De otra parte, las reglas de selección (25.29) nos dicen que ∆l = ±1, de manera que las únicas frecuencias
de Bohr asociadas a la oscilación dipolar son las asociadas a niveles adyacentes ν̄l,l−1 (usamos la notación ν̄ para
distinguir estas frecuencias del número cuántico v)
El − El−1
ν̄l,l−1 = = 2Bl
h
formando una serie de frecuencias equidistantes separadas por un intervalo 2B como se muestra en la Fig. 25.3b.
La forma de las figuras 25.3 justifica el nombre de “constante rotacional” dado al parámetro B.
2
Sin embargo, tal regla de selección depende del carácter central de la interacción y por tanto de la validez de la aproximación de
Born-Oppenheimer.
25.3. ESPECTRO DE MOLÉCULAS DIATÓMICAS HETEROPOLARES 583
Figura 25.3: (a) Primeros niveles puramente rotacionales. La separación entre niveles adyacentes crece linealmente
con l. (b) Frecuencias de Bohr para el espectro puramente rotacional. Las frecuencias son equidistantes y separadas
por una distancia 2B.
Figura 25.4: Espectro vibracional-rotacional para una molécula heteropolar. Este espectro está divididos en dos
ramas: la rama P (izquierda) y la rama R (derecha).
El espectro vibracional-rotacional se ilustra en la figura 25.4, y contiene dos grupos de lı́neas equidistantes,
simétricas con respecto a la frecuencia vibracional ω/2π. Todas las lı́neas juntas constituyen una banda. Las
584 CAPÍTULO 25. MOLÉCULAS DIATÓMICAS
lı́neas constituı́das por las frecuencias (25.32) se denominan la rama R, en tanto que las lı́neas asociadas a
las frecuencias (25.33) se denominan rama P. En cada rama, la distancia entre dos lı́neas adyacentes es 2B.
El intervalo central que separa a las dos ramas está a una distancia 4B, ya que NO hay una lı́nea asociada a
la frecuencia puramente vibracional ω/2π. Por esta razón es frecuente decir que hay una “lı́nea faltante” en el
espectro. Como consecuencia, no hay un espectro puramente vibracional. Sin embargo, puesto que ω/2π ≫ 2B,
un espectrómetro de baja resolución podrı́a ignorar la estructura rotacional y observar el espectro de la figura
25.4, como si hubiera una sola lı́nea centrada en ω/2π.
La ausencia de un espectro puramente vibracional también se puede ver de las reglas de selección (25.29,
25.30) que nos muestran que las transiciones con ∆l = 0 y ∆v 6= 0 están prohibidas. En contraste, tales reglas
de selección muestran que transiciones con ∆l 6= 0 y ∆v = 0 sı́ están permitidas, y por tanto hay un espectro
puramente rotacional.
l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
Vcent (r) = = − (r − re ) + (r − re )2 + . . . (25.34)
2µr 2 2µre2 µre3 2µre4
De modo que combinamos las expansiones (25.5, 25.34) para formar la expansión del potencial efectivo
veremos que la variación del potencial centrı́fugo alrededor de r = re (para l 6= 0) genera los siguientes efectos
1. La posición ree del mı́nimo de Vef es ligeramente mayor que la posición re del mı́nimo del potencial real.
3. La curvatura de Vef (r) en r = ree no está dada únicamente por el coeficiente f . Nótese que esta curvatura
es la que nos determinaba la frecuencia del oscilador armónico equivalente como se aprecia en la Ec. (25.6).
Tomando la expansión (25.35) hasta orden cuadrático en (r − re ), el valor del mı́nimo local evaluado hasta
este orden nos da
dVef (e
re ) l (l + 1) ~2 3l (l + 1) ~2
re − re ) −
= 0 = 2f (e + re − re )
(e (25.36)
dr µre3 µre4
para valores tı́picos de f y para l ∼ 1, se puede tomar f ≫ l (l + 1) ~2 / µre4 . En cuyo caso la relación (25.36) se
puede aproximar en la forma
l (l + 1) ~2
re − re ) ≃
2f (e (25.37)
µre3
de esta forma se obtiene
l (l + 1) ~2 Bhl (l + 1)
ree − re ≃ 3
= (25.38)
2µf re f re
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL) 585
con lo cual ree > re como se predijo. Utilizando (25.6) y (25.10) en (25.38) resulta
donde hemos usado además las aproximaciones (25.12, 25.14). Podemos decir que la desviación de ree con respecto
a re es “pequeña”, ya que es mucho menor que el ancho del paquete en el estado base. Combinando las Ecs. (25.11,
25.12) con la condición (25.39) queda
re − re ) ≪ g (∆r)0 ≪ f
g (e
re − re )
3 (e re − re )
3 (e re − re ) l (l + 1) ~2
3 (e l (l + 1) ~2
≪ ≪1 ⇒ ≪
2 re 2 (∆r)0 2 re µre3 µre3
obtenemos entonces las desigualdades
3l (l + 1) ~2 l (l + 1) ~2
re − re ) ≪ f
g (e ; (e
re − re ) ≪ (25.40)
2µre4 µre3
re − re )2 − g (e
re ) = −V0 + f (e
Vef (e re − re )3 + . . .
l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
+ − (e
re − re ) + re − re )2 + . . .
(e
2µre2 µre3 2µre4
re ) = −V0 + [f − g (e
Vef (e re − re )2 + . . .
re − re )] (e
l (l + 1) ~2 3l (l + 1) ~2 l (l + 1) ~2
+ + re − re ) −
(e re − re ) + . . .
(e (25.41)
2µre2 2µre4 µre3
sustituyendo las aproximaciones (25.40, 25.37, 25.38) en la expansión (25.41) tenemos que
l (l + 1) ~2 l (l + 1) ~2
Vef (e re − re )2 +
re ) ≃ −V0 + f (e − re − re )
(e
2µre2 µre3
l (l + 1) ~2 l (l + 1) ~2
= −V0 + [f (ere − re )] (e
re − re ) − (ere − r e ) +
µre3 2µre2
l (l + 1) ~2 l (l + 1) ~2 l (l + 1) ~2
≃ −V0 + (e
r e − re ) − (e
re − r e ) +
2µre3 µre3 2µre2
2
l (l + 1) ~ ~
= −V0 − 3
(ere − re ) + hl (l + 1)
2µre 4πµre2
l (l + 1) ~2 Bhl (l + 1) ~
≃ −V0 − + hl (l + 1)
2µre3 f re 4πµre2
quedando finalmente
B~2
re ) ≃ −V0 −
Vef (e h [l (l + 1)]2 + Bhl (l + 1)
2µf re4
B~2 ~3
re ) ≃ −V0 + Bhl (l + 1) − Gh [l (l + 1)]2
Vef (e ; G≡ = (25.42)
2µf re4 8πµ2 re6 f
centrı́fugo como se puede ver al comparar las ecuaciones (25.19, 25.42), donde la variación del potencial centrı́fugo
se despreció en (25.19). En la vecindad de r = ree , el potencial efectivo se puede escribir en la forma
re ) + f (r − ree )2 − g (r − ree )3 + . . .
Vef (r) = Vef (e (25.43)
a partir de la expansión (25.43), es claro que el coeficiente f viene dado por
1 d2
f= Vef (r) (25.44)
2 dr 2 r=e
re
con lo cual dicho coeficiente está relacionado con la curvatura de Vef (r) en r = ree . Para evaluar la diferencia
entre f y f , tendremos en cuenta el término en (r − re )3 de V (r) en la expansión (25.35) y consecuentemente, el
término en (r − re )2 del potencial centrı́fugo
1 d2 1 d2 h
f = Vef (r) ≃ −V0 + f (r − re )2 − g (r − re )3 +
2 dr 2 r=e
re 2 dr 2
l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2 2
+ − (r − re ) + (r − re )
2µre2 µre3 2µre4 r=ere
1 3l (l + 1) ~2 l (l + 1) ~2 3l (l + 1) ~2
= 2f − 6g (ere − re ) + ≃ f − 3g +
2 µre4 2µf re3 2µre4
donde hemos usado la aproximación (25.38) en el último paso. Tenemos entonces que
3l (l + 1) ~2 3gl (l + 1) ~2
2f ≃ 2f + − (25.45)
µre4 µf re3
la frecuencia angular definida en (25.6) debe entonces reemplazarse por
s s s s
2f 2f 3l (l + 1) ~2 3gl (l + 1) ~2 2f 3l (l + 1) ~2 3gl (l + 1) ~2
ω = ≃ + − = 1 + −
µ µ µ2 re4 µ2 f re3 µ 2f µre4 2f 2 µre3
1 3l (l + 1) ~2 3gl (l + 1) ~2 3~2 ω 1 g
≃ ω 1+ 4
− 2 3
= ω + 3
− l (l + 1)
2 2f µre 2f µre 4µf re re f
3~2 ω g 1
ω ≃ ω − 2παe l (l + 1) ; αe ≡ − (25.46)
8πµf re3 f re
estas ecuaciones muestran que la curvatura evaluada en el mı́nimo del potencial efectivo cambia cuando se considera
la variación del potencial centrı́fugo, traduciéndose en un cambio en la frecuencia natural de vibración.
De una forma similar se puede determinar g. A partir de la expansión (25.43) es claro que este término viene
dado por
1 d3
g=− Vef (r) (25.47)
6 dr 3 r=e
re
sin embargo el término cúbico en (25.43) solo agrega una pequeña corrección a los resultados que se obtienen con
los dos primeros términos, por lo cual despreciaremos la variación de d3 Vef f /dr 3 cuando vamos desde re hasta ree .
Tomaremos entonces g ≃ g.
En resumen, una expansión del potencial efectivo alrededor del mı́nimo corregido queda en la forma
1
Vef (r) ≃ Vef (e re ) + µω 2 (r − ree )2 − g (r − ree )3 (25.48)
2
l (l + 1) ~2 Bhl (l + 1)
ree − re ≃ = (25.49)
2µf re3 f re
B~2 ~3
Vef (ere ) ≃ −V0 + Bhl (l + 1) − Gh [l (l + 1)]2 ; G ≡ = (25.50)
2µf re4 8πµ2 re6 f
3~2 ω g 1
ω ≃ ω − 2παe l (l + 1) ; αe ≡ − (25.51)
8πµf re3 f re
25.4. CORRECCIONES A LA ESTRUCTURA ESPECTRAL (OPCIONAL) 587
dado que hemos tenido en cuenta el término g (r − re )3 para calcular la nueva frecuencia angular ω, la consistencia
del cálculo nos exige estimar la corrección de este término a los autovalores y autovectores de la ecuación radial
(25.52). Esto implica evaluar la primer corrección anarmónica tal como se hizo en la sección 20.6.4, Pág. 511
utilizando teorı́a de perturbaciones. Aplicando los resultados de la sección 20.6.4 ????, los niveles perturbados
vendrán dados por
0 1 2 7 15 g2 ~
Ev,l = Ev,l + ξ~ω v + + ξ~ω ; ξ ≡ − (25.54)
2 60 4 µ3 ω 5
puesto que ξ ≪ 1, ω puede reeemplazarse por ω en la corrección perturbativa.
los dos primeros términos a la derecha de la expresión (25.55) son claramente energı́as vibracionales y rotacionales
respectivamente. El tercer término depende de los números cuánticos v y l, y representa el acople entre los grados
de libertad vibracionales y rotacionales.
La Ec. (25.55) se puede reescribir en la forma
1 1 1
v+ ~ω + Bhl (l + 1) = v + ~ω + Bv hl (l + 1) ; Bv ≡ B − αe v + (25.56)
2 2 2
es como si cada nivel vibracional tuviera una constante rotacional efectiva Bv que depende del número cuántico
vibracional v.
De nuevo podemos hacer un análogo clásico. La Ec. (25.13) nos dice que B es proporcional a 1/r 2 . Cuando la
molécula vibra, r varı́a y por tanto también B. Puesto que las frecuencias vibracionales son mucho mayores que
las rotacionales, podemos definir una constante efectiva rotacional de la molécula en un estado vibracional dado:
para ello podemos usar el promedio de B sobre un intervalo de tiempo mucho mayor a un periodo vibracional
(y mucho menor que un periodo rotacional para que B pueda considerarse constante en el proceso de rotación).
Debemos tomar entonces el promedio temporal de 1/r 2 en el estado vibracional bajo consideración.
Ahora bien, los dos términos de signos opuestos en la expresión (25.51) para αe pueden interpretarse de
la siguiente forma. El término proporcional a g obviamente surge del término anarmónico de V (r), el cual se
incrementa con la amplitud de las oscilaciones puesto que nos alejamos del régimen de pequeñas oscilaciones (por
tanto se incrementa con v). El término cúbico (primer término anarmónico), introduce una asimetrı́a en la forma
de V (r) de manera que la molécula “pasa mas tiempo” en la región r > re que en la región r < re . De aquı́ se
sigue que el valor promedio de 1/r 2 es menor que 1/re2 , de modo que la anarmonicidad disminuye la constante
efectiva rotacional Bv . Esto se puede ver al combinar las Ecs. (25.56, 25.51). Por otro lado, incluso si el movimiento
vibracional es simétrico con respecto a re (es decir si g = 0) el valor promedio de 1/r 2 no es igual a 1/re2 puesto
que
1 1 1
2
6= 2 = 2
r hri re
y este es el origen del segundo término en αe de la Ec. (25.51). Cuando se toma el promedio de 1/r 2 , se favorecen
los valores pequeños de r de modo que
1 1 1
2
> 2 = 2
r hri re
lo cual explica el signo del segundo término en αe de la Ec. (25.51). El signo de αe depende por supuesto de la
competencia entre estos dos efectos opuestos en signo. En general, el término anarmónico es el que domina de
modo que αe es positivo y Bv < B.
Nótese que el acople vibracional-rotacional existe incluso cuando v = 0, en este caso
1
B0 = B − αe
2
lo cual constituye otra manifestación de la extensión de la función de onda (∆r)0 asociada al estado v = 0.
Si αe es positivo, la estructura rotacional es ligeramente más compacta en el estado vibracional más alto v ′ que
en el estado vibracional v = v ′ − 1. Puede verse que las ramas R y P ilustradas en la Figura 25.4, se afectan de
modo diferente. Las lı́neas adyacentes ya no serán equidistantes y en promedio estarán más cercanas en la rama
R que en la rama P .
Reuniendo las ecuaciones (25.53, 25.54, 25.55) podemos escribir el espectro completo vibracional-rotacional
rotulado con los números cuánticos v, l
1 1 2 2 1 2 7
Ev,l = −V0 + v + ~ω + B − αe v + hl (l + 1) − Ghl (l + 1) + ξ v + ~ω + ξ~ω (25.57)
2 2 2 60
recordemos que V0 es la energı́a de disociación de la molécula (para momento angular nulo), ω/2π es la frecuencia
vibracional, B la constante rotacional [Ec. (25.13)], y las cantidades G,αe , ξ son constantes adimensionales dadas
por las ecuaciones (25.50, 25.51, 25.54).
25.5. ESPECTRO DE MOLÉCULAS DIATÓMICAS HOMOPOLARES: EFECTO RAMAN 589
Veremos que bajo los postulados de la mecánica cuántica que ya hemos establecido, se presentan ambigüedades
cuando tratamos sistemas de partı́culas idénticas, razón por la cual debemos introducir un nuevo postulado que
permita una descripción adecuada de un conjunto de partı́culas idénticas.
Diremos que dos partı́culas son idénticas si poseen las mismas propiedades intrı́nsecas tales como masa en
reposo, espı́n, carga etc. Es decir, tales propiedades intrı́nsecas no se pueden distinguir en un experimento1 . Por
ejemplo, todos los electrones en el universo son idénticos, todos los protones en el universo son idénticos, ası́ como
todos los átomos de hidrógeno (protios). Por otra parte el electrón y el positrón (su antipartı́cula) no son idénticos
ya que aunque tienen la misma masa y espı́n, difieren en el signo de su carga eléctrica.
Es claro que tanto en un contexto clásico como cuántico, un sistema fı́sico que contiene dos partı́culas idénticas
no cambia sus propiedades de evolución cuando se intercambian los roles de las dos partı́culas.
Es importante notar que la definición de partı́culas idénticas y todas las simetrı́as a las que conlleva son
independientes de las condiciones experimentales. A manera de ejemplo, incluso si no se miden las cargas en un
experimento dado, un electrón y un positrón no se pueden tratar como partı́culas idénticas.
ó
r1 (t0 ) = r′0 , v1 (t0 ) = v0′ ; r2 (t0 ) = r0 , v2 (t0 ) = v0 (26.2)
1
Propiedades como posición, momento, velocidad etc, son propiedades cinemáticas y dinámicas y no son intrı́nsecas, ya que dependen
de las condiciones iniciales.
590
26.2. PARTÍCULAS IDÉNTICAS EN MECÁNICA CUÁNTICA 591
ahora, si solucionamos la evolución del sistema usando las condiciones iniciales (26.1), tales soluciones tendrán la
forma
r1 (t) = r (t) , r2 (t) = r′ (t)
donde r (t) y r′ (t) son dos funciones vectoriales del tiempo. El hecho de que las partı́culas sean idénticas implica
que el sistema no cambia si intercambiamos los roles de las partı́culas. Por tanto, el Lagrangiano o Hamiltoniano
clásicos
L (r1 , v1 ; r2 , v2 ) ; H (r1 , v1 ; r2 , v2 )
son invariantes bajo el intercambio de ı́ndices 1 ↔ 2. De esto se sigue que la solución para la evolución del sistema
partiendo de las condiciones iniciales (26.2) estará dada por
las dos descripciones matemáticas del estado fı́sico bajo estudio son totalmente equivalentes ya que conducen a las
mismas predicciones fı́sicas. Lo intrı́nseco o esencial en esta descripción es: la partı́cula con posición y velocidad
{r0 , v0 } en t0 , evolucionará de acuerdo con la función vectorial r (t) y la partı́cula con posición y velocidad {r′0 , v0′ }
en t0 , evolucionará de acuerdo con la función vectorial r′ (t). Lo único que tenemos que hacer es escoger en el
tiempo inicial uno de los “estados matemáticos” e ignorar la existencia del otro. En tal sentido tratamos a las
partı́culas como si fueran de diferente naturaleza. Una vez hecha una escogencia, los rótulos (1) y (2) con los
que “marcamos” cada partı́cula en t0 , actúan como propiedades intrı́nsecas para distinguir a las dos partı́culas.
Puesto que podemos rastrear la trayectoria de cada partı́cula, podemos determinar las posiciones y velocidades de
la partı́cula rotulada como (1) en cualquier tiempo. Por supuesto lo mismo vale para la partı́cula con rótulo (2).
Figura 26.1: Colisión de dos partı́culas idénticas en su sistema de referencia del centro de masa. (a) En t0 los
paquetes de onda está bien separados. (b) A medida que se aproximan las dos partı́culas, sus paquetes de onda
comienzan a traslaparse. (c) Después de la colisión, la región de alta probabilidad de detección tiene la forma de
una capa esférica que se expande con el tiempo.
Figura 26.2: Representación de los dos “caminos” que un sistema de dos partı́culas idénticas puede seguir desde el
estado inicial hasta la medida (en el sistema de referencia del centro de masa). La indistinguibilidad no permite
determinar cuál de los dos caminos tomaron las partı́culas.
Se presenta entonces una dificultad fundamental para usar los postulados de la mecánica cuántica, ya que para
calcular una probabilidad asociada a alguna medida es necesario conocer perfectamente el estado final asociado a
dicha medición. En este caso hay dos estados diferentes (de hecho ortogonales) asociados a las figuras 26.2. Sin
embargo, ambos estados están asociados a un solo estado fı́sico ya que no podemos distinguir entre ellos a través
de alguna medida experimental. La pregunta natural es: bajo estas condiciones ¿el cálculo de probabilidad debe
emplear el camino de la Fig. 26.2a, el camino de la Fig. 26.2b, o los dos?. Si se deben tomar los dos, ¿debemos
sumar las probabilidades asociadas con cada camino, o debemos sumar sus amplitudes de probabilidad? (en el
último caso, ¿que signo debemos usar?). Cada una de estas alternativas nos llevará a diferentes predicciones. Antes
de responder a estas preguntas tomaremos otro ejemplo que nos ilustra el problema de la indistinguibilidad en
cuántica.
describir el estado fı́sico inicial. Esta dificultad asociada al estado inicial involucrará al concepto de degeneración
de intercambio.
|ε1 = +, ε2 = −i (26.3)
|ε1 = −, ε2 = +i (26.4)
cualquiera de estos dos estados ortogonales puede en principio describir el estado fı́sico del sistema. Ahora bien,
estos dos kets expanden un subespacio bidimensional de vectores normalizados de la forma
en virtud del principio de superposición, todos los kets matemáticos (26.5) pueden representar al estado fı́sico
asociado a (26.3) o a (26.4). En otras palabras, una superposición de la forma (26.5) representa un estado fı́sico
con una partı́cula con espı́n arriba y otra con espı́n abajo. Lo intrı́nseco es tener una partı́cula con espı́n arriba y
otra con espı́n abajo. Esto se denomina degeneración de intercambio.
La degeneración de intercambio crea dificultades fundamentales, puesto que la aplicación de los postulados a
los kets del tipo (26.5) pueden conducir a predicciones diferentes de acuerdo con el ket escogido. Determinemos
por ejemplo, la probabilidad de encontrar las primeras componentes de los dos espines iguales a +~/2. Con esta
medida, el resultado está asociado a un solo ket del espacio de estados (ya que el intercambio me deja el ket
intacto). Recordemos que los autoestados de S1 con respecto a los autoestados de S3 se escriben en la forma
1
|±i1 = √ [|+i ± |−i] (26.6)
2
el estado (único) que describe a dos partı́culas con primera componente de espı́n arriba, se construye como el
producto tensorial de dos estados del tipo |+i1
E E 1 1
|+, +i1 = (+)(1) ⊗ (+)(2) = √ [|ε1 = +i + |ε1 = −i] ⊗ √ [|ε2 = +i + |ε2 = −i]
1 1 2 2
1
|+, +i1 = [|+, +i + |−, +i + |+, −i + |−, −i]
2
de modo que la probabilidad que queremos calcular para el vector (26.5) está dada por
2
∗ 1
2 ∗
P = |hχ |+, +i1 | = {α h+ , −| + β h− , +|} [|+, +i + |−, +i + |+, −i + |−, −i]
2
2
1
P = (α + β)
2
594 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
√
a manera de ejemplo, utilizando (α, β) = (1, 0) se obtiene P = 1/4, y usando α = β = 1/ 2 se obtiene P = 1/2.
Es claro entonces que esta probabilidad depende de los coeficientes α y β. Por tanto, no es consistente describir
el estado fı́sico bajo estudio por el conjunto de kets (26.5) o por alguno de ellos escogido en forma arbitraria. La
degeneración de intercambio debe removerse, y determinar cual ket del tipo (26.5) debe emplearse en el cálculo.
En este ejemplo aparece degeneración de intercambio solo en el estado inicial, debido a que hemos escogido
el mismo valor para las componentes de los dos espines en el estado final. En el caso general puede aparecer
degeneración de intercambio tanto en el estado inicial como en el final. Esto ocurre por ejemplo, si el resultado de
la medida corresponde a dos diferentes autovalores de S1 .
los cuales son vectores propios comunes de las extensiones de B (1), B (2) y B (3) en E, con autovalores bi , bj , bk
respectivamente.
Ahora bien, puesto que las tres partı́culas son idénticas, no podemos medir B (1) , B (2) , B (3) puesto que la
numeración no tiene significado fı́sico. Lo que sı́ se puede, es medir el observable B para cada una de las tres
partı́culas. Supongamos que esta medida nos arrojó tres diferentes autovalores bn , bp , bq . En este caso aparece
degeneración de intercambio, ya que el estado del sistema después de esta medida puede apriori representarse por
cualquiera de los kets del subespacio de E expandido por los seis vectores base dados por
n E E E E E Eo
(1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3)
bn , bp , bq , b(1)
n , b(2) (3)
q , bp , bp , bn , bq , bq , bn , bp , bp , bq , bn , bq , bp , bn
es decir, por todas las permutaciones de los rótulos n, p, q. Por tanto, una medida completa sobre cada partı́cula
no permite determinar un único ket del espacio de estados del sistema. En nuestro caso vemos que si obtenemos
tres medidas diferentes, tendremos tantos estados linealmente independientes asociados con esta medida como
permutaciones de las tres diferentes medidas es decir 3! = 6.
Si algunas de las medidas de autovalores coinciden, disminuye la degeneración por intercambio. Por ejemplo,
la indeterminación debida a la degeneración de intercambio es menor si dos de los tres autovalores medidos en el
ejemplo anterior son iguales, en tal caso tenemos los siguientes kets asociados
n E E Eo
(1) (2) (3)
bn , bn , bq , b(1) (2) (3)
n , bq , bn , b(1) (2) (3)
q , bn , bn
26.4. OPERADORES DE PERMUTACIÓN 595
y dado que el orden de los vectores es irrelevante en el producto tensorial, tenemos que
E E
(2) (1) (1) (2)
uj , ui = ui , uj
la acción de este operador sobre un ket arbitrario de E, se obtiene expandiendo este ket en la base (26.7). Puede
verse que el operador P21 ası́ definido no depende de la base {|ui i} escogida. Pero sı́ es muy importante que la
base de E se construya con el producto tensorial entre dos bases idénticas.
Vamos a escoger en particular, la base |r, εi, de vectores de posición y de espı́n. Una base para el espacio
completo es E
(1) (1) ′(2) ′(2)
r , ε ; r , ε (26.8)
la acción del operador de permutación será
E E E
P21 r(1) , ε(1) ; r′(2) , ε′(2) = r(2) , ε(2) ; r′(1) , ε′(1) = r′(1) , ε′(1) ; r(2) , ε(2) (26.9)
cualquier ket |ψi ∈ E, es una combinación lineal de la base contı́nua (26.8) y se puede representar con un conjunto
de (2s + 1)2 funciones de seis variables
XZ E
|ψi = d3 r d3 r′ ψε,ε′ r, r′ r(1) , ε(1) ; r′(2) , ε′(2) ; ψε,ε′ r, r′ = hr(1) , ε(1) ; r′(2) , ε′(2) |ψi (26.10)
ε,ε′
3
El espacio orbital de estados de cualquier partı́cula elemental es simplemente el espacio L2 de las funciones cuadráticamente
integrables. Por tanto, la única diferencia puede provenir del espacio espinorial, que solo es diferente si las dos partı́culas poseen
diferente espı́n.
596 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
la acción del operador permutación P21 sobre |ψi se obtiene combinando las ecuaciones (26.9, 26.10)
′ XZ E
ψ = P21 |ψi = d3 r d3 r′ ψε,ε′ r, r′ r′(1) , ε′(1) ; r(2) , ε(2) (26.11)
ε,ε′
intercambiando los nombres de las variables mudas ε ↔ ε′ , r ↔ r′ , la Ec. (26.11) queda en la forma
′ XZ (1) (1) ′(2) ′(2) E
ψ = P21 |ψi = 3 3 ′
′
′
d r d r ψε ,ε r , r r , ε ; r , ε (26.12)
ε,ε′
′ ′
D (1) (1) ′(2) ′(2) ′ D (1) (1) ′(2) ′(2)
ψε,ε ′ r, r = r , ε ; r , ε ψ = r , ε ; r , ε P21 |ψi (26.13)
que representan a |ψ ′ i = P21 |ψi se pueden obtener a partir de los coeficientes en (26.10) que representan al ket
|ψi, invirtiendo (r, ε) y (r′ , ε′ )
′ ′
ψε,ε ′ r, r = ψε′ ,ε r′ , r (26.14)
A partir de la definición es fácil ver que
(P21 )2 = 1 (26.15)
n Eo
(1) (2)
de modo que P21 es su propia inversa. Los elementos matriciales de P21 en la base ui , uj están dados por
D E D E D E
(1) (1) (2) (1) (2) (2) (1) (1) (2) (1) (2)
uk , u(2)
m P21 ui , uj = uk , um ui , uj = uk , um uj , ui = δkj δmi (26.16)
†
y los elementos matriciales de P21 son por definición
D E D E D E∗
(1) † (1) (2) (1) (2) (1) (2) ∗ (1) (2) (1) (2)
uk , u(2)
m P21 ui , uj = ui , uj P21 uk , um = ui , uj um , uk = δim δjk (26.17)
a partir de las Ecs. (26.15, 26.18, 26.19) es fácil ver las siguientes propiedades
S † = S ; A† = A ; S 2 = S ; A2 = A (26.20)
SP21 = P21 S = S ; AP21 = P21 A = −A (26.21)
S + A = 1 ; AS = SA = 0 (26.22)
de tal manera que S y A son proyectores hermı́ticos. Las Ecs. (26.22) nos dicen además que estos proyectores son
suplementarios y ortogonales. Veamos algunas de estas propiedades por ejemplo
1 1 †
1
A† = (1 − P21 )† = 1 − P21 = (1 − P21 ) = A
2 2 2
1 1 1 1
S2 = (1 + P21 )2 = 1 + 2P21 + P212
= (2 + 2P21 ) = (1 + P21 ) = S
4 4 4 2
1 1 2
1
AP21 = (1 − P21 ) P21 = P21 − P21 = (P21 − 1) = −A
2 2 2
Por otro lado, de las Ecs. (26.21) podemos ver que dado un ket arbitrario |ψi tenemos que
es decir que dado un ket arbitrario no nulo |ψi , tenemos que S |ψi es vector propio de P21 con valor propio +1, en
tanto que A |ψi es vector propio de P21 con valor propio −1. Por esta razón S y A se conocen como simetrizador
y antisimetrizador, puesto que mapean a un vector arbitrario no nulo en su componente simétrica y antisimétrica
respectivamente.
como esto es válido para todos los elementos de la base, lo será para cualquier combinación lineal de ésta, y por
tanto para un ket arbitrario de E
†
P21 B (1) P21 = B (2)
con un argumento similar podemos ver que
†
P21 B (2) P21 = B (1)
por supuesto, B (1) y B (2) se refiere realmente a sus extensiones sobre E. Hay otros operadores extendidos definidos
en E tales como B (1) + C (2) ó B (1) C (2). Es fácil ver la acción de la transformación de similaridad hecha con
P21 sobre estos operadores
†
P21 [B (1) + C (2)] P21 = B (2) + C (1)
† † †
P21 B (1) C (2) P21 = P21 B (1) P21 P21 C (2) P21 = B (2) C (1)
podemos generalizar las anteriores expresiones para observables en E que se puedan escribir en términos de
observables del tipo B (1) y C (2), que denotaremos genéricamente por O (1, 2)
†
P21 [O (1, 2)] P21 = O (2, 1) (26.24)
598 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
donde O (2, 1) se obtiene del observable O (1, 2) intercambiando los ı́ndices 1 y 2 en toda la expresión del observable.
Decimos que un observable OS (1, 2) es simétrico si se cumple
al aplicar (26.25) y la condición de unitariedad de P21 Ec. (26.19), vemos que para un observable simétrico se
cumple
†
P21 [OS (1, 2)] P21 = OS (1, 2) ⇒ P21 [OS (1, 2)] = OS (1, 2) P21
[OS (1, 2) , P21 ] = 0
por tanto los observables simétricos conmutan con el operador permutación P21 .
donde por definición el operador Pnpq (siendo npq una permutación de los números 1,2,3) es un operador lineal
cuya acción sobre los vectores bases está dada por
E E
(1) (2) (3) (n) (p) (q)
Pnpq ui , uj , uk = ui , uj , uk
por ejemplo E E E
(1) (2) (3) (2) (3) (1) (1) (2) (3)
P231 ui , uj , uk = ui , uj , uk = uk , ui , uj
P123 es claramente el operador identidad. La acción de Pnpq sobre un ket arbitrario se puede obtener expandiendo
dicho ket en la base (26.26).
Es fácil ver que el conjunto de todas las N ! permutaciones asociadas a N elementos constituyen un grupo. Es
decir, cumplen con los siguientes axiomas
2. El producto de dos operadores de permutación es otro operador de permutación. Por ejemplo, tomemos la
acción de las siguientes permutaciones
E E E
(1) (2) (3) (3) (2) (1) (1) (2) (3)
P321 ui , uj , uk = ui , uj , uk = uk , uj , ui (26.28)
E E E E
(1) (2) (3) (1) (3) (2) (1) (2) (3) (3) (1) (2)
P312 P132 ui , uj , uk = P312 ui , uj , uk = P312 ui , uk , uj = ui , uk , uj
E E
(1) (2) (3) (1) (2) (3)
P312 P132 ui , uj , uk = uk , uj , ui (26.29)
3. Los operadores permutación son asociativos. Por ejemplo, el lector puede verificar que
(P312 P132 ) P231 = P312 (P132 P231 )
4. Cada operador permutación posee un operador inverso que también es de permutación. Con razonamientos
similares al anterior se puede probar que
−1 −1 −1
P123 = P123 ; P312 = P231 ; P231 = P312
−1 −1 −1
P132 = P132 ; P213 = P213 ; P321 = P321 (26.30)
En general los operadores permutación no conmutan. Por ejemplo
P312 P132 = P321 ; P132 P312 = P213 6= P321
alternativamente, puesto que Pα se compone de un producto de transposiciones, se puede definir un ket totalmente
simétrico como aquel que queda invariante bajo cualquier transposición, y un ket es completamente antisimétrico
si invierte su signo bajo cualquier transposición. El conjunto de los kets completamente simétricos constituye un
subespacio vectorial ES ⊂ E, y el de los kets completamente antisimétricos un subespacio EA ⊂ E. Consideremos
los operadores
N! N!
1 X 1 X
S= Pα ; A = εα Pα (26.32)
N ! α=1 N ! α=1
Veremos que S y A son los proyectores sobre los espacios ES y EA respectivamente. Por esta razón se denominan
el simetrizador y el antisimetrizador. Tomando el adjunto a ambos lados de (26.32) obtenemos
N! N! N!
† 1 X † 1 X −1 1 X
S = Pα = Pα = Pβ = S
N! N! N!
α=1 α=1 β=1
N!
X N!
X N!
† 1 1 1 X
A = εα Pα† = εα Pα−1 = εβ Pβ = A
N ! α=1 N ! α=1 N!
β=1
donde hemos usado el hecho de que al recorrer todos los inversos se recorren todos los operadores aunque en un
orden diferente. Además, el inverso tiene la misma paridad que la permutación directa.
Supongamos ahora que Pα0 es una permutación arbitraria, calcularemos Pα0 S y Pα0 A
N! N!
1 X 1 X
Pα0 S = Pα Pα = Pβ = S
N ! α=1 0 N!
β=1
N! N!
1 X 1 X
Pα0 A = εα Pα0 Pα = εα0 εβ Pβ = εα0 A
N! N!
α=1 β=1
donde hemos tenido en cuenta que al multiplicar la suma de todas las permutaciones por una permutación fija,
se vuelven a obtener todas las permutaciones aunque en un orden diferente. Además si Pα0 es par (impar) la
paridad de cada producto Pα0 Pα queda intacta (se invierte de signo). Para los productos SPα0 y APα0 se realiza
un procedimiento análogo y se obtiene
N!
! N! N!
1 X 1 X 1 X 1
S2 = Pα S= Pα S = S= N !S = S
N! N! N! N!
α=1 α=1 α=1
1 X!
N N
1 X 2
!
1 X!
N
A2 = εα Pα A = εα A = A=A
N! N! N!
α=1 α=1 α=1
XN! N!
X N!
X
1 1 S
AS = εα Pα S = εα S = εα = 0
N! N! N!
α=1 α=1 α=1
en la última ecuación se tuvo en cuenta que para N ≥ 2, la mitad de las permutaciones es par y la otra mitad es
impar. Tenemos entonces que
S 2 = S ; A2 = A ; SA = AS = 0 (26.34)
26.5. POSTULADO DE SIMETRIZACIÓN 601
S y A son entonces proyectores sobre los subespacios ES y EA respectivamente. La Ec. (26.33) nos dice que la
acción de estos operadores sobre un ket arbitrario |ψi nos da un ket completamente simétrico y completamente
antisimétrico respectivamente
para N ≥ 3, los subespacios ES y EA no son suplementarios (su suma directa no es E). Por ejemplo, para N = 3
tenemos
1
S + A = (P123 + P231 + P312 ) 6= 1
3
es decir, la unión de todos los kets completamente simétricos con todos los completamente antisimétricos, no forman
una base. Hay kets “mixtos” que no tienen ninguna de las dos simetrı́as y que son linealmente independientes de
los anteriores. Esto es consistente con el hecho de que para N > 2, los autoestados comunes a todos los operadores
permutación no pueden formar una base, ya que tales operadores no conmutan entre sı́.
Para encontrar la transformación de los observables por medio de una permutación arbitraria, podemos escribir
la permutación como producto de transposiciones ya que éstas poseen las mismas propiedades que la permutación
P21 que se estudió en la sección 26.4.1. Con los argumentos de la sección 26.4.1 se puede encontrar la forma en
que una permutación arbitraria transforma a un observable. A manera de ejemplo, tomemos la permutación P312
y la escribimos en términos de transposiciones como en la Ec. (26.31)
donde hemos usado la Ec. (26.24), teniendo en cuenta que P132 y P213 son transposiciones de los ı́ndices 2, 3 y 1, 2
respectivamente. En particular, si un observable OS (1, 2, . . . , N ) es completamente simétrico bajo el intercambio
de los ı́ndices 1, 2, . . . , N , conmutará con todas las transposiciones, y puesto que una permutación arbitraria es un
producto de transposiciones, se concluye que el observable OS (1, 2, . . . , N ) conmutará con cualquier permutación
Pα de los N ı́ndices anteriores
son simétricos se denominan Bosones, en tanto que aquellas asociadas a estados antisimétricos se denominan
Fermiones.
El postulado de simetrización limita entonces el espacio de estados para un sistema de partı́culas idénticas.
Para partı́culas de diferente naturaleza, el espacio de estados E, es el producto tensorial de los estados de cada
partı́cula del sistema. Cuando las partı́culas son idénticas, el espacio de estados es solo un subespacio de E, que
serı́a ES si las partı́culas son bosones ó EA si las partı́culas idénticas son fermiones.
De acuerdo con este postulado, las partı́culas que existen en la naturaleza se dividen en dos categorı́as. Todas
las partı́culas que conocemos hasta ahora obedecen a la siguiente regla empı́rica: Las partı́culas de espı́n semi-
entero (electrones, positrones, protones, neutrones, muones, tauones, etc.) son fermiones, y las partı́culas de espı́n
entero (fotones, mesones, bosones vectoriales, etc.), son bosones.
El nuevo postulado de simetrización restringe al conjunto de estados matemáticos que pueden describir un
estado fı́sico de partı́culas idénticas, ya que estos kets deben pertenecer al subespacio ES para bosones y EA
para fermiones. Para encontrar los estados matemáticos adecuados debemos entonces proyectar los estados del
subespacio Eu sobre los subespacios ES para bosones y EA para fermiones, para lo cual debemos usar los proyectores
S y A respectivamente, sobre los estados {Pα |ui}, con lo cual obtenemos
donde hemos usado la Ec. (26.33) Pág. 26.33. Estas ecuaciones nos muestran que todas las proyecciones de kets
de Eu sobre los subespacios ES para bosones y EA para fermiones, son colineales. Por tanto el postulado de
simetrización asigna un solo ket linealmente independiente de Eu , al estado fı́sico antes descrito. En consecuencia,
dicho postulado remueve la degeneración de intercambio, asignando el estado (único dentro de un factor constante)
S |ui a los bosones y el estado A |ui para los fermiones. De aquı́ en adelante estos se denominarán los kets fı́sicos.
En particular, es posible que todos los kets de Eu tengan proyección cero sobre ES o sobre EA , en cuyo caso
el postulado de simetrización está excluyendo al correspondiente estado fı́sico. Veremos un ejemplo en la sección
26.6.
Es claro ahora el algoritmo de construcción del único ket fı́sico asociado a un estado fı́sico dado de un sistema
de N partı́culas idénticas.
1. Comenzamos por numerar las partı́culas arbitrariamente, construyendo el ket |ui, que resulta de la nume-
ración particular elegida.
2. Se aplica el proyector S o el proyector A sobre |ui, dependiendo de si las partı́culas idénticas son bosones o
fermiones.
1. Numeremos con el (1) a la partı́cula asociada al estado |ϕi y con el número (2) a la partı́cula asociada al
estado |χi, el estado |ui queda en la forma
E
|ui = ϕ(1) , χ(2)
3. Los kets (26.39, 26.40) no están en general normalizados. Si asumimos que los estados |ϕi y |χi son ortogonales
y están normalizados, los estados fı́sicos normalizados serán
1 h (1) (2) E (2) (1) Ei 1 h (1) (2) E (1) (2) Ei
|bosonesi = √ ϕ , χ + ϕ , χ = √ ϕ , χ + χ , ϕ
2 2
1 h E Ei 1 h E Ei
|f ermionesi = √ ϕ(1) , χ(2) − ϕ(2) , χ(1) = √ ϕ(1) , χ(2) − χ(1) , ϕ(2)
2 2
Asumamos ahora que los estados individuales son idénticos, el estado |ui será
E
|ui = ϕ(1) , ϕ(2) (26.41)
este estado ya es totalmente simétrico. Por tanto, si las dos partı́culas son bosones, el estado (26.41) es el ket fı́sico
asociado a un estado en el cual los dos bosones están en el mismo estado individual |ϕi. De hecho, el simetrizador
S deja intacto a este estado. Por otro lado, si las partı́culas son fermiones tenemos que
1 h (1) (2) E (2) (1) Ei
A |ui = ϕ , ϕ − ϕ , ϕ =0
2
de modo que no existe un ket no-nulo en EA que pueda describir el estado fı́sico en el cual dos fermiones están
en el mismo estado individual |ϕi. El postulado de simetrización excluye este tipo de estados fı́sicos. Hemos
establecido para un caso particular el denominado “principio de exclusión de Pauli” que nos dice que dos
fermiones idénticos no pueden estar en el mismo estado individual. Este principio establece una gran diferencia
en el comportamiento estadı́stico de un sistema de fermiones idénticos con respecto al de un sistema de bosones
idénticos.
1 X
3! E 1 h E E E
(1) (2) (3) (1) (2) (3) (1) (3) (2)
S |ui = Pα ϕ , χ , ω = ϕ , χ , ω + ϕ , χ , ω + ϕ(2) , χ(1) , ω (3)
3! 6
α=1 E E Ei
+ ϕ(3) , χ(1) , ω (2) + ϕ(2) , χ(3) , ω (1) + ϕ(3) , χ(2) , ω (1)
1 h (1) (2) (3) E (1) (2) (3) E (1) (2) (3) E
S |ui = ϕ , χ , ω + ϕ , ω , χ + χ , ϕ , ω
6 E E Ei
+ χ(1) , ω (2) , ϕ(3) + ω (1) , ϕ(2) , χ(3) + ω (1) , χ(2) , ϕ(3) (26.42)
solo resta normalizar el vector (26.42). La constante de normalización depende de cuántos de estos estados son
distintos. Si todos los tres estados individuales son diferentes y ortogonales entre sı́, los seis kets que aparecen
en (26.42) también son ortogonales, y para normalizar el estado completo, basta reemplazar el factor 1/6 por el
26.7. POSTULADO DE SIMETRIZACIÓN PARA N ARBITRARIO 605
√
factor 1/ 6. Si en cambio, tenemos dos estados idénticos y uno diferente (ortogonal a√los estados idénticos), al
aplicar el simetrizador solo quedan tres kets diferentes y el factor normalizador serı́a 1/ 3
1 h E E Ei
|ϕ; ϕ; ωi = √ ϕ(1) , ϕ(2) , ω (3) + ϕ(1) , ω (2) , ϕ(3) + ω (1) , ϕ(2) , ϕ(3)
3
finalmente si los tres estados son idénticos, el estado |ui ya está automáticamente simetrizado y normalizado.
E
|ui = ϕ(1) , ϕ(2) , ϕ(3)
1 X
3! E
A |ui = εα Pα ϕ(1) , χ(2) , ω (3)
3!
α=1
Para N arbitrario, se pueden generalizar fácilmente los resultados anteriores. Para N bosones idénticos, siem-
pre se puede construir el estado totalmente simétrico S |ui a partir de los N estados de partı́cula individual
|ϕ1 i , . . . , |ϕN i. En el caso de N fermiones idénticos, el estado fı́sico A |ui se puede escribir en la forma de un de-
terminante de Slater N × N , este determinante excluye el caso en el cual dos o más estados individuales coinciden,
ya que el estado antisimetrizado se anula. El hecho de que los bosones no sigan este “principio de exclusión” en
tanto que los fermiones sı́, marca una gran diferencia entre el comportamiento de estos dos tipos de partı́culas.
Nótese finalmente que es el principio de exclusión de Pauli (previamente establecido fenomenológicamente) el
que obliga a incluı́r kets completamente antisimétricos en el postulado de simetrización.
donde n es la dimensión de cada subespacio de partı́cula individual (dimensión infinita numerable en el caso del
espacio de Hilbert L2 ). Es claro que S |ϕi = |ϕi ya que |ϕi ∈ ES . Si aplicamos S a ambos lados de (26.45), nos
queda X h Ei
(1) (2) (N )
|ϕi = ai1 ,i2 ,...,iN S ui1 , ui2 , . . . , uiN
i1 ,i2 ,...,iN
de modo que el estado arbitrario |ϕi ∈ ES , queda escrito en términos de kets de la forma
E
(1) (2) (N )
S ui1 , ui2 , . . . , uiN ∈ ES (26.46)
Sin embargo, en general no todos los kets de la forma (26.46) son linealmente independientes.
E Por ejemplo, podemos
(1) (2) (N )
permutar los roles de las varias partı́culas en uno de los kets del tipo ui1 , ui2 , . . . , uiN de la base inicial (antes
de la simetrización). Sobre este nuevo ket, la aplicación de S ó A conduce al mismo ket |ϕi (tal vez con signo
cambiado en el caso de A), de acuerdo con las Ecs. (26.37, 26.38).
La discusión anterior nos conduce a introducir el concepto de número de ocupación. En general no todos
los estados |ui1 i , |ui2 i , . . . , |uiN i son diferentes. Es conveniente reordenar los estados diferentes con un nuevo
ı́ndice. Si tenemos p estados diferentes de partı́cula individual, entonces escribimos
{|uk i} = |uk1 i , |uk2 i , . . . , ukp ; donde |ukm i =6 |ukn i si m 6= n
El estado inicial lo reorganizamos en la forma
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N −n +1) (N −n +2) (N )
uk1 , uk1 , . . . , uk1 1 ; uk21 , uk2 1 , . . . , uk2 1 2 ; . . . ; ukp p , ukp p , . . . , ukp
donde ni es el número de partı́culas en el estado |uki i con i = 1, 2, . . . , p. Es claro que se tiene que cumplir la
condición
X p
ni = N (26.47)
i=1
26.8. CONSTRUCCIÓN DE UNA BASE DE ESTADOS FÍSICOS DE PARTÍCULAS IDÉNTICAS 607
a los ni se les denomina número de ocupación, que es el número de partı́culas en el estado |uki i. Dos kets
diferentes del tipo (26.44) cuyos números de ocupación coincidan, se pueden obtener el uno a partir del otro con
una permutación. Por tanto, después de la aplicación del simetrizador o el antisimetrizador, se obtiene el mismo
ket fı́sico a partir de ambos kets de acuerdo con la Ec. (26.37, 26.38) (a lo más con un signo de diferencia).
Denotaremos a este único estado fı́sico simetrizado (o antisimetrizado) asociado a una configuración dada de
ocupación en la forma
|n1 , n2 , . . . , np i
para bosones, estos estados se obtienen de
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N −np +1) (N −np +2)
|n1 , n2 , . . . , np i = cS S u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N
p
)
(26.48)
y para fermiones de
E
(1) (2) (n ) (n +1) (n +2) (n +n ) (N −np +1) (N −np +2)
|n1 , n2 , . . . , np i = cA A u1 , u1 , . . . , u1 1 ; u2 1 , u2 1 , . . . , u2 1 2 ; . . . ; up , up , . . . , u(N
p
)
(26.49)
donde los coeficientes de normalización cS y cA vienen dados por
s
N! √
cS = ; cA = N !
n1 !n2 ! . . . np !
ahora bien, puesto que el número de estados accesibles diferentes puede ser infinito, escribiremos un estado de
ocupación de aquı́ en adelante en la forma
|n1 , n2 , . . . , nk , . . .i
Example 26.1 Tomemos los siguientes kets asociados a cinco partı́culas idénticas
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 ; u7 , u1 , u5 , u5 , u1 (26.50)
(i)
donde uki indica que la i−ésima partı́cula está en el estado excitado ki del oscilador armónico unidimensional.
Ambos estados en (26.50) describen a dos partı́culas en el estado base u1 , dos partı́culas en el quinto estado
excitado y una partı́cula en el séptimo estado excitado. Podemos ver claramente que ambos kets están conectados
por medio de una permutación de los rótulos de partı́culas
E E E
(1) (2) (3) (4) (5) (4) (1) (5) (2) (3) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 = u7 , u1 , u5 , u5 , u1 = P41523 u7 , u1 , u5 , u5 , u1
nótese que la permutación que conecta a ambos estados no es única. Por ejemplo también se puede escribir
E E E
(1) (2) (3) (4) (5) (4) (1) (2) (5) (3) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 = u7 , u1 , u5 , u5 , u1 = P41253 u7 , u1 , u5 , u5 , u1
ahora bien, el orden más natural para este estado fı́sico es colocar los estados en orden ascendente de energı́a, en
tal caso serı́a el ket E
(1) (3) (2) (5) (4)
u1 , u1 , u5 , u5 , u7
como ya se mencionó, al simetrizar o antisimetrizar cualquiera de estos kets se obtiene un único ket fı́sico (a lo
más se obtiene un signo de diferencia cuando se antisimetriza, dependiendo del ket elegido). Nótese que también se
podrı́an intercambiar los estados en lugar de las partı́culas. Sin embargo se debe tener presente que los subı́ndices
en los kets (26.50) indican la excitación del estado individual y no son los rótulos de los estados. Por ejemplo si
elegimos el primer ket en (26.50) podemos escribir
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
u1 , u5 , u1 , u7 , u5 ≡ uk1 , uk2 , uk3 , uk4 , uk5
608 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
de modo que
k1 = 1, k2 = 5, k3 = 1, k4 = 7, k5 = 5
y podemos aplicar el permutador sobre los ı́ndices de estados
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
P41253 u1 , u5 , u1 , u7 , u5 ≡ P41253 uk1 , uk2 , uk3 , uk4 , uk5
E E
(1) (2) (3) (4) (5) (1) (2) (3) (4) (5)
= uk4 , uk1 , uk2 , uk5 , uk3 = u7 , u1 , u5 , u5 , u1
mostrando una vez más que ambos estados en (26.50) están conectados por una permutación. Cuando cualquiera
de estos estados se simetriza (o antisimetriza) lo que se obtiene es un ket fı́sico con la información de que dos
partı́culas están en el estado base u1 , dos en el quinto estado excitado, y una en el séptimo estado excitado. En
la notación de número de ocupación cada casilla del ket denota un estado individual y en ella se coloca el número
de partı́culas que hay en cada estado. En este caso el ket fı́sico |ψi se escribe en la forma
|ψi = |2, 0, 0, 0, 2, 0, 1, 0, 0, 0, . . .i
donde solo hay números distintos de cero en la primera, quinta, y séptima casillas, ya que en los otros estados
no hay ninguna partı́cula. Los estados accesibles son infinitos ya que no hay cota para los estados excitados del
oscilador armónico, por eso se colocan puntos suspensivos indicando infinitas casillas. Por supuesto, ya no hay
rótulos de partı́culas en virtud de la indistinguibilidad. En ocasiones, es útil sintetizar la notación escribiendo solo
los números de los estados que están ocupados, escribiendo el estado como subı́ndice. Esto con el fin de evitar la
escritura de tantos ceros. Por ejemplo en nuestro caso se puede escribir
|ψi = 2(1) , 2(5) , 1(7)
El producto interno entre dos estados de ocupación |n1 , n2 , . . . , nk , . . .i y |n′1 , n′2 , . . . , n′k , . . .i está dado por
′ ′
n1 , n2 , . . . , n′k , . . . |n1 , n2 , . . . , nk , . . .i = δn1 ,n′1 δn2 ,n′2 . . . δnk ,n′k . . .
de manera que solo es diferente de cero si los números de ocupación son los mismos para todo k. Para verlo,
podemos usar (26.48) ó (26.49) y las definicionesn (26.32) de S y A,Eopara obtener la expansión de los dos
(1) (2) (N )
kets bajo consideración en la base ortonormal u1 , u2 , . . . , uN . Al hacer el producto interno entre
los kets resultantes se puede ver que si los números de ocupación no son iguales, estos dos kets no pueden
tener componentes no-nulas simultáneas sobre el mismo vector base. La normalización está garantizada por
la introducción de las constantes de normalización cS y cA .
Si las partı́culas bajo estudio son bosones, los kets de ocupación |n1 , n2 , . . . , nk , . . .i son arbitrarios, y por
tanto, una base ortogonal la constituye un conjunto que barre todas las configuraciones de ocupación posibles,
sometida a la ligadura (26.47). Observemos que si reemplazamos S por su definición (26.32), en la Ec. (26.48), E
(1) (N )
aparece al lado derecho de esta ecuación, una superposición de estados ortogonales u1 , . . . , uN con
coeficientes positivos, ya que no hay cambio de signo bajo intercambios y cS se definió como positivo. Esto
indica que los kets |n1 , n2 , . . . , nk , . . .i definidos en (26.48) son no-nulos. Los kets |n1 , n2 , . . . , nk , . . .i expanden
a ES , y por tanto forman una base de este subespacio puesto que son no-nulos.
Si las partı́culas bajo estudio son fermiones, una base del espacio EA de estados fı́sicos se obtiene escogiendo
el conjunto de kets
{|n1 , n2 , . . . , nk , . . .i ; ni = 0, 1} (26.51)
26.9. CONSISTENCIA DEL POSTULADO DE SIMETRIZACIÓN CON LOS OTROS POSTULADOS 609
en el cual cada número de ocupación es cero o uno. Una vez más sujeto a la ligadura (26.47). A diferencia
del simetrizador, el antisimetrizador introduce signos positivos para permutaciones pares y negativos para
permutaciones impares. Como vimos en la sección 26.7.2, dos fermiones idénticos no pueden ocupar el mismo
estado individual simultáneamente. Esto implica que números de ocupación con ni > 1, anulan el ket (26.49)
corrrespondiente. Ahora bien, cuando todos los números E de ocupación son E cero o uno, el ket (26.51) es no
(1) (N ) (1) (N )
nulo ya que en tal caso, los kets Pα u1 , . . . , uN y Pβ u1 , . . . , uN con Pα 6= Pβ son diferentes y
ortogonales. La relación (26.49) nos da entonces vectores no nulos cuando tomamos kets del tipo (26.51).
Estos expanden a EA y puesto que son no-nulos, constituyen una base para EA .
1
RG = (R1 + R2 + R3 ) ; P = P1 + P2 + P3 (26.52)
3
L = L1 + L2 + L3 ; S = S1 + S2 + S3 (26.53)
q2 1 1 1
W = + + (26.54)
4πε0 |R1 − R2 | |R2 − R3 | |R1 − R3 |
de estas expresiones, es claro que los observables asociados a cantidades fı́sicas que se miden sobre un sistema de
partı́culas idénticas, introducen los observables de partı́cula individual en forma simétrica. Este hecho proviene
directamente del carácter idéntico de las partı́culas. Por ejemplo, los coeficientes en la superposición (26.52)
asociada a RG son todos iguales, debido a que todas las partı́culas tienen la misma masa. Los coeficientes en la
superposición (26.54) son todos iguales debido a que todas las partı́culas poseen la misma carga. Vemos entonces
que ninguna propiedad fı́sica se modifica al permutar las N partı́culas. En consecuencia, para cualquier observable
fı́sico asociado a un sistema de partı́culas idénticas, las N partı́culas juegan un rol simétrico. Los anteriores
610 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
argumentos son válidos tanto para bosones como para fermiones. Matemáticamente, un observable fı́sico G asociado
a N partı́culas idénticas debe ser entonces invariante bajo cualquier permutación Pα de las N partı́culas. De acuerdo
con la discusión en la sección 26.4.4 [ver Ec. (26.36)], esto es equivalente a la condición de que G debe conmutar
con todas las permutaciones
[G, Pα ] = 0 para todo Pα (26.55)
Esto implica que algunos observables para un sistema de partı́culas distinguibles, no serán observables para
un sistema de partı́culas idénticas. Por ejemplo, si tenemos un sistema de dos partı́culas idénticas, el operador
R1 − R2 no será un observable, ya que no es invariante ante la permutación P21 puesto que cambia de signo bajo
esta operación, en realidad una medida de R1 − R2 asume que la partı́cula (1) se puede distinguir de la (2). Sin
embargo, este mismo operador sı́ serı́a un observable para un sistema de dos partı́culas no idénticas. Por otra
parte, la distancia entre las partı́culas |R1 − R2 | es claramente un observable válido para dos partı́culas idénticas
(la distancia es invariante ante un intercambio de las partı́culas).
La ecuación (26.55) implica que los subespacios ES y EA son ambos invariantes bajo la acción de un observable
fı́sico G de las partı́culas idénticas. Si |ψi ∈ EA tenemos que
Pα |ψi = εα |ψi
R1 + R2 + R3 ; R1 R2 + R2 R3 + R3 R1 ; R1 R2 R3
sin embargo, este método es más bien formal, ya que no es viable medir estos observables directamente en un
experimento. Es más sencillo restringirnos a usar los autoestados fı́sicos asociados a la medida como se describió
en esta sección.
los dos términos cinéticos son simétricos debido a que las masas son iguales. Los dos términos asociados a la
atracción del núcleo son iguales debido a que los dos electrones tienen cargas iguales. Es obvio que cada electrón
es afectado de la misma manera por tal atracción. Finalmente, el término de repulsión entre los dos electrones es
simétrico porque ninguno de los dos electrones está en una posición privilegiada.
Para un sistema de N partı́culas idénticas, el Hamiltoniano al igual que cualquier observable fı́sico asociado a
partı́culas idénticas, debe conmutar con todas las permutaciones de las N partı́culas
[H, Pα ] = 0 (26.56)
ahora bien, el ket inicial |ψ (t0 )i debe ser un ket fı́sico y por tanto debe pertenecer a ES ó EA . Es necesario que la
evolución temporal sea tal que |ψ (t)i sea un ket fı́sico para todo tiempo. Es decir, |ψ (t)i debe pertenecer a ES ó
EA para todo tiempo. Escribiremos la ecuación de Schrödinger en la forma
d |ψ (t + dt)i − |ψ (t)i 1
i~ |ψ (t)i = H (t) |ψ (t)i ⇒ = H (t) |ψ (t)i ⇒
dt dt i~
dt
|ψ (t + dt)i = 1 + H (t) |ψ (t)i
i~
Si |ψ (t)i ∈ EA entonces Pα |ψ (t)i = εα |ψ (t)i, esto junto con la ecuación (26.57) nos muestran que Pα |ψ (t + dt)i =
εα |ψ (t + dt)i. Por tanto, si |ψ (t)i ∈ EA (i.e. es completamente antisimétrico), entonces |ψ (t + dt)i ∈ EA . Simi-
larmente se puede demostrar que la evolución temporal conserva la simetrı́a total. Por tanto, si el ket inicial es
completamente simétrico (antisimétrico) la evolución temporal via ecuación de Schrödinger hace que el estado sea
completamente simétrico (antisimétrico) para todo tiempo. La ecuación de Schrödinger es entonces consistente
con el postulado de simetrización.
h (i) es función solo de los observables asociados a la partı́cula rotulada como (i). La simetrı́a total del Hamiltoniano
requiere que cada función h (i) sea la misma para los N términos. Para calcular los autovalores y los autovectores
612 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
del Hamiltoniano total, basta con calcular los vectores y valores propios de los operadores individuales h (j) en
el espacio E (j) asociado a una partı́cula. Por simplicidad asumiremos que el espectro de h (j) es discreto y no
degenerado E E E
(j) (j) (j)
h (j) ϕ(j)
n = en ϕn ; ϕn ∈ E (j)
nótese que el ı́ndice (j) es de partı́cula y no de degeneración. Los vectores propios construı́dos a priori son
los productos tensoriales de los vectores de cada partı́cula, y el valor propio es la suma de los valores propios
individuales asociados
E E E E
(1) (2) (N ) (1) (2) (N )
ϕ ,
n1 n2ϕ . . . , ϕnN = ϕ
n1 ⊗ ϕ
n2 ⊗ . . . ⊗ ϕ
nN (26.58)
En1 ,n2 ,...,nN = e(1) (2) (N )
n1 + en2 + . . . + enN (26.59)
si consideramos un sistema de bosones idénticos, los kets anteriores deben ser simetrizados
S N!
X E
Φn ,n ,...,n = c (1) (2) (N )
1 2 N
Pα ϕn 1
, ϕn 2
. . . , ϕn N
(26.60)
α=1
puede verificarse que el ket descrito por (26.60) es ket propio de H con el mismo valor propio (26.59) del ket sin
simetrizar (26.58). En consecuencia, las energı́as (26.59) corresponden a valores reales de la energı́a del sistema.
En particular si e1 es el valor propio más pequeño de h (j) (obviamente igual para cada partı́cula y por tanto,
independiente de j) y si |ϕ1 i es su vector propio asociado, el estado base del sistema se obtendrá cuando los N
bosones idénticos estén todos en el estado |ϕ1 i. La energı́a y el vector en el estado base serán
E
(1) (2) (N )
E1,1,...,1 = N e1 ; ϕ1 , ϕ1 . . . , ϕ1
Sin embargo, si el sistema de N partı́culas idénticas es de fermiones, no es posible que las N partı́culas estén
todas en el mismo estado base |ϕ1 i. Para obtener el estado base del sistema, debe tenerse en cuenta el principio
de exclusión de Pauli. Si las energı́as se ordenan en forma ascendente
e1 < e2 < . . . < eN
la energı́a del estado base de un sistema de N fermiones idénticos será
E1,2,...,N = e1 + e2 + . . . + eN
y estará descrito por el ket normalizado dado por
E E E
(1) (1) (1)
ϕ1 ϕ2 ··· ϕN
E E E
(2) (2) (2)
A 1 ϕ1 ϕ2 ··· ϕN
Φn ,n ,...,n = √
1 2 N
N ! .. .. ..
. E . E . E
(N ) (N ) (N )
ϕ1 ϕ2 ··· ϕN
la energı́a individual más alta eN que se encuentra en el estado base se denomina la energı́a de fermi del sistema.
Si existe degeneración gk en los niveles de energı́a individuales ek , hay gk estados ortogonales asociados a cada
valor propio. Por tanto, pueden haber hasta gk fermiones idénticos con energı́a ek (ya que cada uno estarı́a en un
estado diferente). En tal caso, la energı́a de fermi ep es en general menor que eN , y la energı́a del sistema en el
estado base será
E1,2,...,p = g1 e1 + g2 e2 + . . . + gp−1 ep−1 + kp ep
sujeto a la ligadura
p−1
X
kp + gi = N ; kp ≤ gp
i=1
nótese que el nivel de fermi podrı́a no estar “lleno”: si con kp partı́culas (con kp < gp ), ya hemos completado las
N partı́culas, no todos los estados asociados a ep estarán ocupados por un fermión.
26.11. PREDICCIONES FÍSICAS DEL POSTULADO DE SIMETRIZACIÓN 613
ahora queremos medir sobre cada partı́cula el mismo observable B, que los asociaremos a los observables B (1) y
B (2). Pensemos que el espectro de B es discreto y no degenerado
B |ui i = bi |ui i
queremos calcular la probabilidad de encontrar en el proceso de medida el valor bn para una de las partı́culas y
bm para la otra. Asumiremos primero que bn 6= bm , de manera que los estados propios asociados son ortogonales
entre sı́. Bajo estas condiciones, después de la medición de los observables, el sistema quedará preparado en el
estado fı́sico normalizado definido por
1 E
|un ; um i ≡ √ [1 + εP21 ] u(1)
n , u(2)
m
2
la amplitud de probabilidad para obtener las medidas bn y bm están dadas por
1 D (1) (2) †
(1) (2)
E
hun ; um |ϕ1 ; ϕ2 i = un , um 1 + εP21 (1 + εP21 ) ϕ1 , ϕ2 (26.61)
2
usando la hermiticidad y nilpotencia de P21 tenemos que
†
1 + εP21 (1 + εP21 ) = (1 + εP21 )2 = 1 + 2εP21 + ε2 P21
2
†
1 + εP21 (1 + εP21 ) = 2 + 2εP21 (26.62)
en el último paso se ha suprimido la numeración, ya que los espacios son isomorfos de modo que el valor del
número complejo que se obtiene no depende de la numeración. La amplitud de probabilidad es entonces una suma
(resta) para el caso de dos bosones (fermiones) idénticos. Los dos términos a la derecha de (26.63) pueden ser
asociados a los diagramas 26.3a y 26.3b.
El resultado (26.63) se puede interpretar en la siguiente forma: Los kets |ϕ1 i y |ϕ2 i asociados al estado inicial
se pueden conectar a los bras hun | y hum | asociados al estado final por dos “caminos” diferentes representados
614 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
Figura 26.3: Ilustración del término directo y el término de intercambio asociado a una medida sobre un sistema
de dos partı́culas idénticas.
esquemáticamente en las figuras 26.3a y 26.3b. A cada uno de estos “caminos” le podemos asociar una amplitud
de probabilidad hun | ϕ1 i hum | ϕ2 i y hum | ϕ1 i hun | ϕ2 i. Estas dos amplitudes interfieren con un signo positivo
(negativo) para bosones (fermiones). La probabilidad de encontrar el par de medidas bn y bm es el módulo al
cuadrado de esta amplitud
es usual llamar a uno de los términos de la derecha en la Ec. (26.63) [por ejemplo el término asociado a la figura
26.3a], el término directo, y al otro se le denomina término de intercambio. Es en realidad una cuestión de
convención a cual llamamos término directo y a cual término de intercambio.
Vamos a considerar ahora el caso en el cual queremos examinar la probabilidad de que se obtenga el mismo
valor propio bn , para ambas partı́culas. Como no hay degeneración, los dos estados finales serán idénticos. En el
caso de fermiones la probabilidad es cero puesto que estos procesos estarı́an prohibidos por el principio de exclusión
de Pauli. Para el caso de bosones, el estado simetrizado y normalizado será
E
|un ; un i = u(1)
n , u(2)
n
nótese que no hay término de interferencia en contraste con la ecuación (26.64). El factor de dos que aparece en
(26.65) está relacionado con el hecho de que el término directo coincide con el de intercambio en este caso.
Generalizando, para un sistema de N partı́culas, hay en general N !, términos de intercambio que se adicionan
o sustraen en la amplitud de probabilidad. En el caso de bosones, el número de intercambios es menor cuando
algunas partı́culas están en el mismo estado.
La figura 26.4, ilustra los términos de intercambio para tres partı́culas idénticas que están caracterizadas por
los estados individuales iniciales |ϕ1 i , |ϕ2 i , |ϕ3 i, y para las cuales asumimos que los valores propios individuales
bn1 , bn2 , bn3 que se obtienen en el proceso de medida son todos diferentes. Estos seis términos (N ! = 3!) ilustran
los posibles “caminos”, algunos de los cuales contribuyen con signo positivo (caminos que se obtienen a partir del
26.11. PREDICCIONES FÍSICAS DEL POSTULADO DE SIMETRIZACIÓN 615
Figura 26.4: Ilustración del término directo y los términos de intercambio asociados a una medida sobre un sistema
de tres partı́culas idénticas.
término directo con un número par de transposiciones de los estados iniciales o finales) otros contribuyen con signo
ε dependiendo de si son bosones o fermiones (cuando el número de transposiciones para obtener el intercambio
es impar). Si algunos de los estados finales coinciden, habrá algunos términos de intercambio iguales y tendremos
menos sumandos en la amplitud de probabilidad.
consideremos un instrumento de medida que no puede distinguir a las dos partı́culas. Por ejemplo, podrı́amos
tener un instrumento que solo mide carga eléctrica y el sistema consiste en un electrón y un muón (que poseen la
misma carga). Otro ejemplo, serı́a un instrumento que solo mide masa y el sistema fı́sico consiste de un electrón
y un positrón (que tiene la misma masa pero carga opuesta al electrón).
Al obtener los resultados
E bn y E
bm no sabemos si bn está asociado a la partı́cula (1) o a la partı́cula (2). Los
(1) (2) (1) (2)
dos estados un , um y um , un representan en este caso a diferentes estados fı́sicos, pero corresponden a los
mismos resultados de la medida antes descrita. Puesto que son ortogonales, debemos adicionar las probabilidades
asociadas, las cuales dan
D E2 D E
(2) (1) (2) (1) (2) (1) (2) 2
P ′ (bn ; bm ) = u(1)n , um ϕ , χ + um , un ϕ , χ
P ′ (bn ; bm ) = |hun |ϕi|2 |hum |χi|2 + |hum |ϕi|2 |hun |χi|2 (26.66)
comparando las probabilidades (26.66) y (26.64) podemos ver que hay una diferencia significativa en las predic-
ciones fı́sicas sobre partı́culas que son “idénticas para nuestro experimento” pero que no son “intrı́nsecamente
idénticas”, con respecto al caso de partı́culas que sı́ son intrı́nsecamente
E idénticas.E Nótese que esto tiene que ver
(1) (2) (1) (2)
con el hecho de que para partı́culas distinguibles los kets un , um y um , un representan diferentes estados
fı́sicos, en tanto que para partı́culas idénticas representan el mismo estado fı́sico. Por esta razón, las probabilidades
se suman en el caso de partı́culas distinguibles, en tanto que para partı́culas indistinguibles lo que se suman son
las amplitudes (razón por la cual surgen interferencias en el último caso). Ver discusión en la sección 5.11, pág.
240.
616 CAPÍTULO 26. SISTEMAS CUÁNTICOS DE PARTÍCULAS IDÉNTICAS
Veamos ahora el caso en el cual las dos partı́culas diferentes arrojan el mismo resultado de la medida bn , en
cuyo caso la amplitud de probabilidad y la probabilidad nos dan
D E
′ (1) (2) (1)
A (bn ; bn ) = un , un ϕ , χ(2) = hun |ϕi hun |χi
P ′ (bn ; bn ) = |hun |ϕi|2 |hun |χi|2 (26.67)
Comparando con la Ec. (26.65) asociada a partı́culas intrı́nsecamente idénticas, podemos notar la diferencia con
respecto a las predicciones para partı́culas aparentemente idénticas.
Figura 26.5: Colisión elástica entre dos partı́culas idénticas vista desde el sistema de referencia del centro de masa.
(a) Momentos de las dos partı́culas en el estado inicial. (b) Momentos de las dos partı́culas en el estado final (justo
después de la medición).
La Fig. 26.5a, muestra el estado inicial en el cual las dos partı́culas se acercan la una a la otra con momentos
opuestos ±pu3 , donde hemos definido la dirección X3 a lo largo de los momentos. El ket fı́sico inicial |ψi i estará
descrito entonces por la expresión
1 E
(1) (2)
|ψi i = √ (1 + εP21 ) pu3 , −pu3 (26.68)
2
|ψi i es el estado del sistema en el tiempo inicial t0 antes de la colisión. Describiremos la evolución temporal a través
del operador lineal U (t, t′ ) conocido como operador evolución temporal (ver sección 7.1, Página 260). Si definimos
t1 como el tiempo en el cual se ejecutará la medida, tendremos que para este tiempo el estado del sistema justo
antes de la medida será
|ψ (t1 )i = U (t1 , t0 ) |ψi i (26.69)
puesto que el Hamiltoniano conmuta con P21 y el operador U (t, t′ ) solo depende del Hamiltoniano y del tiempo,
se tiene que este operador también conmuta con P21
U t, t′ , P21 = 0 (26.70)
este fenómeno ya fué descrito en la sección 26.2, Pág. 591. Calcularemos la amplitud de probabilidad de detectar
una partı́cula en la dirección n (recordemos que por conservación de momento, la otra irı́a en dirección −n).
Puesto que la colisión es elástica, los módulos de los momentos no cambian y las partı́culas en el estado cuya
26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACIÓN617
probabilidad queremos evaluar tendrán momentos ±pn. El ket final fı́sico |ψf i (justo después de la medida) estará
entonces dado por E
1
|ψf i = √ (1 + εP21 ) pn(1) , −pn(2) (26.71)
2
la amplitud de probabilidad deseada se obtiene aplicando las Ecs. (26.68, 26.69, 26.71)
1 E
(1) (2)
hψf |ψ (t1 )i = hψf | U (t1 , t0 ) |ψi i = √ hψf | U (t1 , t0 ) (1 + εP21 ) pu3 , −pu3
2
1 D (1) E
† (1) (2)
hψf |ψ (t1 )i = pn , −pn(2) 1 + εP21 U (t1 , t0 ) (1 + εP21 ) pu3 , −pu3 (26.72)
2
utilizando las propiedades de P21 y la Ec. (26.70) resulta
†
1 + εP21 U (t1 , t0 ) (1 + εP21 ) = (1 + εP21 ) (1 + εP21 ) U (t1 , t0 )
2
= 1 + 2εP21 + P21 U (t1 , t0 ) = (1 + 2εP21 + 1) U (t1 , t0 )
† †
1 + εP21 U (t1 , t0 ) (1 + εP21 ) = 2 (1 + εP21 ) U (t1 , t0 ) = 2 1 + εP21 U (t1 , t0 ) (26.73)
En la Ec. (26.74) vemos de nuevo que hay un término directo y uno de intercambio en la amplitud. Diagramáti-
camente, estos corresponden a los procesos que se ilustraron en las figuras 26.2a y 26.2b, de la Página 592. De
nuevo, las amplitudes de probabilidad asociadas a estos dos términos se suman o restan dependiendo de si las
partı́culas son fermines o bosones. La presencia de los dos términos genera un término de interferencia cuando
realizamos el módulo al cuadrado de la expresión (26.74). Se puede notar que si cambiamos n por −n, la expresión
(26.74) se multiplica por ε, de modo que la probabilidad permanece invariante. Esto es de esperarse ya que la Fig.
26.5b nos muestra claramente que el cambio n → −n, serı́a indistinguible en el proceso.
distancias, ya que las funciones de onda usualmente no se anulan exactamente en ninguna región del espacio. Sin
embargo, cuando se cumple la condición antes mencionada se pueden trazar dos (o mas) regiones disyuntas en las
cuales esta casi toda la probabilidad de ubicar a cada partı́cula. En tal caso las partı́culas se pueden asumir como
localizadas6 en cada región ∆1 y ∆2 . Por simplicidad ignoraremos los efectos de espı́n. Consideremos entonces
dos partı́culas idénticas una de ellas en el estado individual |ϕ1 i y la otra en el estado individual |ϕ2 i. Vamos a
suponer el caso ideal en el cual la función de onda ϕ1 (r) es exactamente nula por fuera de la región ∆1 y la función
de onda ϕ2 (r) es exactamente nula por fuera de ∆2 . En tal sentido podemos “rastrear” a las partı́culas y decir
categóricamente que la partı́cula rotulada como (1) (por convención) está dentro de la región ∆1 , y la rotulada
como (2) está dentro de la región ∆2 . La ausencia de traslapamiento de las funciones de onda nos lleva a una
situación similar a la de la mecánica clásica y es de esperarse que el postulado de simetrización sea innecesario en
estas circunstancias.
Pensemos ahora en medir un observable relacionado con una de las partı́culas. Debemos colocar el aparato
de medida de manera que no pueda registrar lo que ocurre digamos en el dominio ∆2 . La medida solo estará
relacionada entonces con la partı́cula dentro de la región ∆1 [rotulada como (1) por convención].
Ahora imaginemos una medida asociada a las dos partı́culas simultáneamente, pero realizadas por dos instru-
mentos de medida diferentes, uno que no es sensible a los fenómenos que ocurren dentro de ∆1 y otro que no es
sensible a lo que ocurre dentro de ∆2 . Por simplicidad asumamos que los autoestados asociados a la medida son
discretos y no-degenerados. Sean b1 y b2 las cantidades fı́sicas que se obtienen para cada partı́cula, y sean |u1 i y
|u2 i los estados individuales (vectores propios asociados a b1 y b2 ) en que queda preparada cada partı́cula luego
de las medidas dentro de ∆1 y ∆2 respectivamente. Ahora bien, la disposición espacial de los instrumentos de
medida implica que
ui (r) = hr |ui i = 0 si r ∈ ∆j ; i, j = 1, 2 , i 6= j
de modo que las funciones justo después de la medida están localizadas en los mismos dominios ∆1 y ∆2 que las
funciones justo antes de la medida. Esto implica que las funciones de onda u1 y ϕ2 no se traslapan, lo mismo
ocurre con las funciones u2 y ϕ1 . En consecuencia
Z Z Z Z
∗ ∗ ∗
hu1 |ϕ2 i = u1 (r) ϕ2 (r) dV = u1 (r) ϕ2 (r) dV + u1 (r) ϕ2 (r) dV + u∗1 (r) ϕ2 (r) dV
∆1 ∆2 ∆
y recordando que el término de intercambio es el término que agrega el postulado de simetrización, vemos que
el resultado es el mismo que si hubiéramos ignorado dicho postulado. Por tanto, bajo ciertas circunstancias es
posible estudiar las partı́culas como si fuesen de diferente naturaleza. En particular, si tenemos un conjunto de
N partı́culas idénticas suficientemente alejadas de cualquier otra partı́cula idéntica adicional, podemos aplicar el
postulado de simetrización a este sistema restringido de N partı́culas idénticas, obteniendo resultados correctos.
6
Estamos asumiendo las partı́culas como localizadas en dos o más regiones disyuntas. Esto no implica que cada partı́cula esté en
un autoestado de posición |ri i (ni siquiera aproximadamente), ya que la localización es en regiones finitas (y no en puntos), cuya única
condición es que sean disyuntas.
26.12. SITUACIONES EN LAS CUALES SE PUEDE IGNORAR EL POSTULADO DE SIMETRIZACIÓN619
En el estado inicial hemos supuesto funciones de onda que no se traslapan, además hemos definido el estado
del sistema especificando dos estados de partı́cula individual. Podemos preguntarnos si después de que el sistema
evoluciona temporalmente aún es posible estudiar a una de las partı́culas e ignorar la otra. Para ello no solo
es necesario que las dos partı́culas permanezcan en regiones distintas del espacio, también se requiere que no
interactúen. Incluso para partı́culas de diferente naturaleza, la interacción introduce correlaciones y el vector de
estado del sistema completo ya no se puede escribir como el producto tensorial de dos estados asociados a cada
partı́cula individual (ver sección 6.1, Pág. 244).
Vale enfatizar que el hecho de que podamos ignorar el postulado de simetrización cuando apartamos suficien-
temente las partı́culas, es una condición esencial para poder definir un sistema aislado de partı́culas idénticas en
mecánica cuántica.
ya que U (t1 , t0 ) no cambia los estados de espı́n de modo que éstos continúan siendo ortogonales. La Ec. (26.78)
implica que el término de intercambio en la Ec. (26.74) se anula, quedando
D E
(1) (2)
hψf |ψ (t1 )i = pn(1) , (+)(1) ; −pn(2) , (−)(2) U (t1 , t0 ) pu3 , (+)(1) ; −pu3 , (−)(2) (26.79)
Se obtiene entonces el mismo resultado si tratamos a las dos partı́culas como diferentes, es decir si no antisimetri-
zamos los kets inicial y final, y si asociamos el ı́ndice (1) con el estado de espı́n |+i y el ı́ndice (2) con el estado
de espı́n |−i. Esta argumentación deja de ser válida si U (t1 , t0 ) [o equivalentemente el Hamiltoniano], dependen
de variables de espı́n.
Capı́tulo 27
El estudio del átomo de hidrógeno es relativamente simple debido a que es un átomo con un solo electrón. Por
un lado, esto permite reducir el problema a un problema de dos cuerpos desacoplados en donde solo la dinámica de
un cuerpo es no-trivial y éste último está sometido a una fuerza central. Adicionalmente, el principio de exclusión
de Pauli no es relevante. En este capı́tulo se estudiarán átomos de muchos electrones para los cuales el problema
es mucho más complejo debido a que incluso en el sistema de referencia del centro de masa, el problema continúa
siendo acoplado (no se puede reducir al problema de varias partı́culas imaginarias desacopladas), y el principio de
exclusión de Pauli juega un papel esencial ya que tenemos Z fermiones idénticos (electrones).
Consideremos un átomo de Z electrones. Puesto que el núcleo es mucho más masivo que los electrones, vamos
a despreciar la dinámica de los núcleos y asumiremos que la posición de éste coincide con la posición del centro
de masa del sistema. En lo que sigue no consideraremos los efectos relativistas y en particular no incluiremos los
términos de espı́n. El Hamiltoniano que describe el movimiento de los Z electrones vendrá dado por
Z
X Z
X Z−1 Z
P2i Ze2 X X e2 q2
H= − + ; e2 ≡ (27.1)
2me Ri |Ri − Rj | 4πε0
i=1 i=1 i=1 j=i+1
para este Hamiltoniano de partı́culas no interactuantes, pueden determinarse con facilidad sus kets y valores
propios. Como se discutió en el ejemplo
E 6.1, Pág. 246, en este caso el problema se desacopla. Calculando los
(i) (i)
valores propios Eni y kets propios ψni para el operador Hi asociado a cada valor de i
P2i Ze2
Hi = −
2me Ri
se puede construir un conjunto de kets y valores propios de H0 en la forma
Z
X E E E
(2) (Z)
En = En(i)i ; |ψn i = ψn(1)
1
⊗ ψn2 ⊗ ψnZ
i=1
620
27.1. APROXIMACIÓN DE CAMPO CENTRAL 621
y solo resta antisimetrizar el producto tensorial para cumplir con el postulado de simetrización. Sin embargo,
la introducción de la interacción hace que este desacople ya no sea posible. A priori podrı́a pensarse en tratar
al término de interacción como una perturbación. No obstante, es de esperarse que la distancia relativa entre
electrones esté en promedio en el mismo orden de magnitud que la distancia promedio entre cada electrón y el
núcleo. El cociente entre el término de interacción repulsiva y el de atracción hacia el núcleo tendrá el siguiente
orden de magnitud
Z
X Z
Ze2 1 X 2 Z 2 e2
kHnuc k = ≈ Ze ≈
Ri hRi hRi
i=1 i=1
Z−1
X Z
X Z−1
X X Z
e2 1 1 Z (Z − 1) e2
kHint k = ≈ e2 ≈
|Ri − Rj | h|Ri − Rj |i hRi 2
i=1 j=i+1 i=1 j=i+1
Hint
(Z − 1)
Hnuc
≈ 2Z
este cociente varı́a entre 1/4 para Z = 2, y 1/2 para Z ≫ 1. Por tanto, ambos Hamiltonianos son del mismo orden
de magnitud, de modo que una tratamiento perturbativo escasamente funciona en forma muy aproximada (y poco
confiable) para el átomo de Helio con Z = 2. Para átomos de muchos electrones la aproximación perturbativa
serı́a aún peor. Por esta razón debemos recurrir a métodos alternativos. Uno de los más utilizados es la llamada
aproximación de campo central, que describiremos a continuación.
Para desarrollar el método recurriremos a una imagen semi-clásica. Un electrón dado (i), se mueve bajo la
influencia repulsiva de los otros Z − 1 electrones que compensan parcialmente la interacción atractiva del núcleo.
En esta aproximación, se considera que el electrón (i) se mueve bajo la influencia de un potencial que solo
depende de su posición ri que tiene en cuenta a la fuerza atractiva nuclear y al efecto promedio de los electrones
restantes. Podemos adicionalmente hacer la suposición de que dicho potencial solo depende de la magnitud de
ri . Denotando este potencial como Vc (ri ), esta suposición adicional implica que la fuerza resultante es central, al
menos en promedio. Por esta razón hablamos de una aproximación de campo central. Esta aproximación está
ignorando efectos tales como el hecho de que el movimiento del electrón (i) influye sobre la distribución electrónica
restante, cambiando a su vez al potencial en el cual está inmerso el electrón (i), es decir hay una correlación entre
el electrón en cuestión y los electrones restantes. Por otro lado, la interacción no es exactamente central. Por
ejemplo, un electrón muy cercano tendrá una interacción dominante con respecto a los otros, y la repulsión no
es en general colineal con la fuerza de atracción del núcleo, en cuyo caso la suma vectorial no corresponde a una
fuerza central. Sin embargo, en esta imagen clásica (ya que implı́citamente hemos supuesto los electrones como
localizados), es razonable una aproximación de campo central si tomamos un promedio sobre un tiempo mucho
mayor al periodo de revolución de los electrones.
En un escenario cuántico, los electrones ya no están localizados y la imagen de una nube electrónica distribuı́da
por todo el espacio hace que la aproximación de campo central funcione mejor que en el escenario clásico. Ya no
es necesario tomar un promedio en el tiempo para que la aproximación central sea razonable. El promedio sobre
la distribución espacial puede dar cuenta de esta aproximación.
622 CAPÍTULO 27. ÁTOMOS DE MUCHOS ELECTRONES Y APROXIMACIÓN DE CAMPO CENTRAL
las Ecs. (27.2, 27.3) son válidas para cualquier valor de Vc (Ri ), de modo que no determinan a dicho potencial.
Sin embargo, una escogencia adecuada de Vc (Ri ), será una en la cual |W | ≪ |H0 |, de manera que W se pueda
tratar como una perturbación. H0 serı́a el Hamiltoniano no perturbado, que se resuelve con facilidad dado que
es un Hamiltoniano de partı́culas independientes. Bastará con resolver el problema de valores propios de un
Hamiltoniano de un electrón
P2
Hb ≡ + Vc (R) (27.4)
2me
La determinación de un potencial Vc (Ri ) óptimo es un problema muy complejo, debido a la correlación entre
el electrón para el cual se evalúa el potencial y la nube electrónica restante. La idea es llegar a una solución
autoconsistente, es decir que las funciones de onda que se determinan con Vc (Ri ) deben predecir una distribución
de carga que reconstituya al mismo potencial (al menos aproximadamente).
Si bien la determinación del potencial Vc (r) es muy compleja, un análisis cualitativo nos muestra como debe
ser el comportamiento asintótico de Vc (r). Para valores muy pequeños de r, el electrón (i) está dentro de la nube
electrónica creada por los otros electrones de modo que solo “siente” el potencial atractivo debido al núcleo1 . Por
otro lado para r muy grande, el electrón (i) está esencialmente por fuera de la nube electrónica formada por la
contribución de los Z − 1 electrones restantes. En este caso el electrón “siente” el equivalente a una carga puntual
situada en el origen igual a la suma algebraica de la carga del núcleo más la de la nube de (Z − 1) electrones.
Podemos entonces resumir el comportamiento asintótico de la siguiente manera
e2
Vc (r) ≃ − para r grande (27.5)
r
Ze2
Vc (r) ≃ − para r pequeño (27.6)
r
Para valores intermedios de r se requiere la determinación completa del potencial. La Fig. 27.1, muestra un
potencial tı́pico de Vc (r) descrito por la lı́nea contı́nua junto con las lı́neas asintóticas (lı́neas punteadas) definidas
por las Ecs. (27.5, 27.6). Esta figura muestra efectivamente que el potencial tiende a la función (27.5) para r
grande y a la función (27.6) para r pequeño.
Ası́ mismo podemos extraer información cualitativa del espectro. Puesto que Vc (r) es central, es válida toda la
discusión realizada en el capı́tulo 12. En particular, este problema posee las degeneraciones esenciales propias de la
naturaleza central de la interacción [ver sección 12.6.1, Pág. 354], de manera que los autovalores del Hamiltoniano
(27.4) dependen de los números cuánticos n y l, pero no del número cuántico m. Puesto que Vc (r) no es en general
coulombiano, no estarán presentes las degeneraciones accidentales propias de este potencial [ver sección 13.6, Pág.
368]. l caracteriza al valor propio de L2 y n es la suma del número cuántico l mas el número cuántico radial k que
se introdujo al resolver la ecuación radial para un l dado [ver Ecs. (12.37), Pág. 352]. Los números cuánticos n y
l son enteros (recordemos que no hemos introducido el espı́n), y satisfacen la condición
0≤l ≤n−1 (27.7)
1
En una imagen semi-clásica, si pensamos que el electrón (i) (asumido como puntual) está inmerso en una nube electrónica esféri-
camente simétrica, los “cascarones externos” al electrón (i) no contribuyen al campo. Solo contribuye la “carga neta” de la nube
electrónica interna, es decir la nube localizada entre 0 ≤ r < ri , siendo ri la posición del electrón en cuestión. Si ri es mucho menor
que el radio de Bohr, podemos despreciar la fracción de carga electrónica que está en tal intervalo radial, comparada con la carga del
núcleo.
27.1. APROXIMACIÓN DE CAMPO CENTRAL 623
Figura 27.1: Perfil tı́pico del potencial Vc (r) como función de r. La lı́nea contı́nua representa el perfil comple-
to de este potencial, y las lı́neas punteadas son las funciones definidas en las Ecs. (27.5, 27.6) que definen el
comportamiento asintótico de dicho potencial.
Por otro lado, para un valor fijo de n, la energı́a es más baja cuando el autoestado está asociado a una capa más
profunda. Es decir, cuando la densidad de probabilidad del electrón en la vecindad del núcleo es mayor, en este
caso el efecto de apantallamiento debido a la nube electrónica es muy pequeño como ya se discutió. Las energı́as
En,l asociadas con el mismo valor de n se pueden ordenar en el orden en el cual se aumenta el momento angular
Podemos entender la jerarquı́a (27.9) teniendo en cuenta que en un análogo clásico un valor menor de l (para
el mismo n) significa menor parámetro de impacto, de modo que el electrón estarı́a en una capa más profunda.
Ocurre que en general la jerarquı́a de los estados es aproximadamente la misma para todos los átomos. Si bien
los valores especı́ficos de las energı́as dependen de Z. La Fig. 27.2 muestra esta jerarquı́a e ilustra la degeneración
esencial de orden 2 (2l + 1), donde el factor de 2 se debe al espı́n. Los estados dentro del mismo corchete está muy
cercanos el uno al otro y de hecho para algunos átomos prácticamente coinciden, dentro de estos estados muy
cercanos las posiciones relativas pueden variar de un átomo a otro. Es importante mencionar que esta figura solo
muestra posiciones relativas de los estados pero no brinda ninguna información sobre los valores especı́ficos de las
energı́as.
Hay diferencias notables con respecto al espectro del átomo de Hidrógeno. Esto se deriva del hecho de que en
el presente contexto la energı́a depende de los números cuánticos n y l. Esto hace que el orden de los estados sea
diferente. Por ejemplo, la Fig. 27.2 muestra que la capa 4s tiene una energı́a ligeramente menor que la de la capa
3d (en el átomo de Hidrógeno es al contrario puesto que la energı́a solo depende de n), esto tiene que ver con que
la función de onda 4s es “más penetrante” (i.e. pertenece a una capa más profunda) debido a que pertenece a
un menor momento angular. Inversiones similares se ven entre otras capas. Esto nos muestra la importancia del
efecto repulsivo entre los electrones.
624 CAPÍTULO 27. ÁTOMOS DE MUCHOS ELECTRONES Y APROXIMACIÓN DE CAMPO CENTRAL
Figura 27.2: Representación de la posición relativa de los niveles de energı́a electrónicos en un potencial central
del tipo Vc (r). La degeneración de cada nivel se indica en paréntesis. Los niveles dentro de un corchete están muy
cercanos entre sı́. Al lado derecho se escriben los sı́mbolos de los átomos para los cuales la capa electrónica que
aparece en la misma lı́nea corresponde a la capa más externa ocupada en el estado base.
He : 1s2
la notación espectroscópica indica entonces que los dos electrones ocupan estados ortogonales de la capa 1s, con
la misma función espacial pero espinores ortogonales. Para el Litio con Z = 3, la configuración electrónica viene
27.2. CONFIGURACIONES ELECTRÓNICAS DE LOS ÁTOMOS 625
dada por
Li : 1s2 , 2s
ya que la capa 1s solo puede aceptar dos electrones y el tercer electrón debe ir al nivel inmediatamente superior,
que de acuerdo con la Fig. 27.2 es el nivel 2s. Para el caso del Berilio (Z = 4), la configuración electrónica es
Be : 1s2 , 2s2
ya que la capa 2s puede aceptar otro electrón. Para Z > 4, se procede al llenado de las capas superiores hasta
agotar los Z electrones, llenando las capas 2p, 3s, 3p etc. En la figura 27.2, se muestra en el lado derecho los
sı́mbolos de los elementos para los cuales la capa en cuestión es la más externa, cuando los átomos están en el
estado base. Esta es la clasificación de la tabla periódica de Mendeleev. Debe tenerse en cuenta sin embargo, que
los niveles que aparecen dentro de los corchetes en la Fig. 27.2 están muy cercanos entre sı́, y su llenado puede
ocurrir en forma irregular. Por ejemplo, aunque en la figura 27.2 el nivel 4s aparece debajo del nivel 3d, para el
cromo (Z = 24) hay 5 electrones en la capa 3d a pesar de que la capa 4s está incompleta
He∗ : 1s, 2s
2
Veremos esta caracterı́stica para el átomo de Helio en el estado base [ver Ec. (28.9) Pág. 628 y discusión posterior].
3
El momento angular del átomo debe adicionar al momento angular de la nube electrónica, el momento angular del núcleo.
Capı́tulo 28
El átomo de Helio
Estudiaremos el átomo de Helio en el marco de la aproximación de campo central. Teniendo en cuenta solo la
interacción electrostática, el Hamiltoniano del átomo de Helio se escribe como
H = H0 + W (28.2)
P21 P2
H0 ≡ + 2 + Vc (R1 ) + Vc (R2 ) (28.3)
2me 2me
2e2 2e2 e2
W = − − + − Vc (R1 ) − Vc (R2 ) (28.4)
R1 R2 |R1 − R2 |
donde el potencial central Vc (Ri ) se elige adecuadamente para que W se pueda considerar una pequeña corrección
(perturbación)1 con respecto a H0 . Como primer paso, se desprecia la contribución de W (aproximación de
campo central) lo cual nos lleva a estudiar las configuraciones electrónicas del átomo bajo esta aproximación.
Posteriormente, se estudia la corrección de W via teorı́a estacionaria de perturbaciones.
De acuerdo con la Fig. 27.2, la configuración del estado base consiste en los dos electrones en la capa 1s, denotándose
entonces como la configuración 1s2 . El primer estado excitado se obtiene cuando uno de los electrones está en
la capa 1s y el otro en la capa 2s, la configuración electrónica es entonces 1s, 2s. El segundo estado excitado
corresponde a la configuración 1s, 2p.
Las configuraciones excitadas del átomo de Helio tienen la forma 1s, n′ l′ . Sin embargo, también existen
configuraciones nl, n′ l′ “doblemente excitadas” en las cuales ambos electrones están en estados excitados. No
1
Por supuesto, la simetrı́a nos indica que Vc (R1 ) y Vc (R2 ) deben tener la misma forma funcional.
626
28.1. CONFIGURACIONES DEL ÁTOMO DE HELIO 627
obstante, en el caso del Helio la energı́a total de estas configuraciones es mayor que la energı́a de ionización del
átomo, es decir la energı́a necesaria para pasar del estado 1s2 al estado 1s, n′ l′ con n′ → ∞. En consecuencia, los
estados doblemente excitados son muy inestables, ya que tienden a disociarse rápidamente en un electrón y un ión,
razón por la cual suelen denominarse “estados de autoionización”. Sin embargo, existen configuraciones doblemente
excitadas que no son autoionizantes, pero que decaen emitiendo fotones. Algunas de las correspondientes lı́neas
espectrales han sido observadas experimentalmente.
−l ≤ m ≤ l ; −l′ ≤ m′ ≤ l′
adicionalmente, puesto que Vc no depende del espı́n, la energı́a tampoco depende de los números cuánticos ε y ε′
con ε = ±1/2 y ε′ = ±1/2. Por esta razón, la mayor parte de las configuraciones son degeneradas.
Para calcular la degeneración, tendremos en cuenta que un estado perteneciente a una configuración está
definida por 8 números cuánticos (cuatro para cada electrón) dados por (n, l, m, ε) y (n′ , l′ , m′ , ε′ ). Puesto que los
electrones son fermiones idénticos, debe tenerse en cuenta el postulado de simetrización y el consecuente principio
de exclusión de Pauli. El estado fı́sico (antisimetrizado) estarı́a dado por
E
n, l, m, ε; n′ , l′ , m′ , ε′ = √1 (1 − P21 ) n(1) , l(1) , m(1) , ε(1) ; n′(2) , l′(2) , m′(2) , ε′(2) (28.6)
2
el principio de exclusión de Pauli prohibe los estados con idénticos números cuánticos n = n′ , l = l′ , m = m′
y ε = ε′ . El conjunto de kets fı́sicos para n, l; n′ l′ fijos forma un subespacio E (n, l; n′ , l′ ) del espacio EA , donde
dicho subespacio está asociado con la configuración n, l; n′ l′ . Una base ortonormal del subespacio E (n, l; n′ , l′ ) nos
dará el grado de degeneración del correspondiente nivel de energı́a. Para evaluar el grado de degeneración de una
configuración nl; n′ l′ dada, debemos distinguir dos casos:
angular toma 2l + 1 valores, para un total de 2 (2l + 1) estados. Sustrayendo los estados que violan el principio de
exclusión de los anteriores tenemos
sin embargo, al recorrer los números cuánticos de manera independiente hacemos un doble conteo de cada estado,
ya que el estado de dos partı́culas (n, l, m, ε) (n, l, m′ , ε′ ) es igual al estado (n, l, m′ , ε′ ) (n, l, m, ε). El presente
conteo está tomando los dos en cuenta como si fueran diferentes, por tanto debemos dividir el anterior resultado
por dos2 , con lo cual obtenemos
gnl2 = (2l + 1) (4l + 1) (28.8)
Otra forma de verlo es la siguiente: dado el conjunto fijo de números cuánticos (n, l, m, ε), hay [2 (2l + 1) − 1]
estados del tipo (n, l, m′ , ε′ ) compatibles con el principio de exclusión, ya que el número de estados de la forma
(n, l, m′ , ε′ ) es 2 (2l + 1) pero uno de ellos (cuando m = m′ y ε = ε′ ) viola dicho principio. Por otro lado, hay
2 (2l + 1) estados del tipo (n, l, m, ε), con lo cual el número de estados en el conteo será
una vez más este conteo toma en cuenta dos veces al mismo estado y el resultado debe dividirse por dos, con lo
cual se reproduce de nuevo la Ec. (28.8).
Example 28.1 La configuración 1s2 (estado base) no es degenerada. En tal caso es útil realizar la expansión del
determinante de Slater correspondiente a la configuración. Si en la Ec. (28.6) hacemos
n = n′ = 1, l = l′ = m = m′ = 0, ε = (+) , ε′ = (−)
podemos escribir
1 E
1, 0, 0, ε; 1, 0, 0, ε′ =
√ (1 − P21 ) 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2)
2
1 h (1) (1) (1) E
= √ 1 , 0 , 0 , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2)
2
Ei
− 1(2) , 0(2) , 0(2) , (+)(2) ; 1(1) , 0(1) , 0(1) , (−)(1)
1 h E
= √ 1(1) , 0(1) , 0(1) , (+)(1) ; 1(2) , 0(2) , 0(2) , (−)(2)
2
Ei
− 1(1) , 0(1) , 0(1) , (−)(1) ; 1(2) , 0(2) , 0(2) , (+)(2)
Cuadro 28.1: Conteo de la degeneración asociada a dos electrones en el átomo de Helio que están en la misma
capa con n = n′ = 2 y l = l′ = 1. En este conteo aparecen 30 estados pero en virtud de la duplicación, solo 15 de
ellos son estados fı́scamente diferentes.
Example 28.2 Veamos el caso de dos electrones en la misma capa con n = n′ = 2 y l = l′ = 1. Para cada estado
con (2, 1, m, ε) fijo, hay 5 estados del tipo (2, 1, m′ , ε′ ) compatibles con el principio de exclusión de Pauli, además
hay 6 estados de la forma (2, 1, m, ε), con lo cual el conteo nos arroja 30 estados. El lector puede sin embargo
apreciar que cada estado aparece dos veces. Por ejemplo aparecen (2, 1, 1, +) (2, 1, 1, −) y (2, 1, 1, −) (2, 1, 1, +). Hay
entonces en total 15 estados fı́sicamente diferentes con la misma energı́a. El procedimiento de conteo se aprecia
en la tabla 28.1
En la sección 16.2.1, Pág. 404 vimos que un Hamiltoniano de la forma (28.10) no conmuta con L(1) ni con L(2)
pero sı́ conmuta con L(1) + L(2) . Las Ecs. (16.3, 16.8) nos dicen que para un Hamiltoniano de la forma (28.10)
tenemos que h i
Hi , L(k) = [H, L] = [W (|R2 − R1 |) , L] = 0 ; L ≡ L(1) + L(2) ; i, k = 1, 2 (28.11)
en particular
e2
[W, L] = ,L = 0 (28.12)
R12
630 CAPÍTULO 28. EL ÁTOMO DE HELIO
de modo que el momento angular total es una constante de movimiento, en tanto que el momento angular de cada
electrón no lo es. Esto está asociado al hecho de que una rotación que involucre a los dos electrones no cambia la
distancia relativa R12 entre ellos. En contraste, una rotación que involucre a un solo electrón cambiará en general
a la cantidad R12 .
Adicionalmente, puesto que ni H ni W dependen de variables de espı́n, conmutarán con cualquier operador
de espı́n. En particular, tenemos que
[W, S] = 0 ; S ≡ S(1) + S(2) (28.13)
Por tanto, los operadores
L2 , S2 , L3 , S3 , W
forman un conjunto de observables conmutantes. Mostraremos que de hecho L2 , S2 , L3 , S3 forman un C.S.C.O.
en el subespacio E (n, l; n′ , l′ ) de EA . La tarea será entonces encontrar una base común de vectores propios de los
observables L2 , S2 , L3 , S3 y construı́r con ellos la representación matricial de la restricción de W al subespacio
E (n, l; n′ , l′ ) de EA .
Para ello recordamos que el espacio de Hilbert total E es el producto tensorial E (1) ⊗ E (2) relativo a una
numeración arbitraria de los electrones. El subespacio E (n, l; n′ , l′ ) de EA se puede obtener antisimetrizando los
kets del subespacio En,l (1) ⊗ En′ ,l′ (2) de E. Por tanto elegimos una base del subespacio En,l (1) ⊗ En′ ,l′ (2) en la
forma n E E o
(1) (1) (1) (1) ′
n , l , m , ε ⊗ n′(2) , l (2) , m′(2) , ε′(2) ; con (n, l) , n′ , l′ fijos (28.14)
con los cuales obtenemos los kets fı́sicos (28.6) antisimetrizando. Nótese que en términos de momento angular
orbital y de espı́n, los vectores (28.14) forman una base desacoplada, en la cual los números cuánticos que están
bien definidos son momentos angulares parciales tanto en el sentido orbital y de espı́n, como en el sentido de que
están asociados a cada partı́cula.
Sin embargo, las reglas de adición del momento angular permiten definir otra base para el subespacio En,l (1) ⊗
En′ ,l′ (2) compuesta por vectores propios comunes a L2 , S2 , L3 , S3 definida completamente por la especificación de
los correspondientes valores propios3 . Esta base la denotaremos en la forma
n E o
(1) (1) ′(2) ′ (2)
n , l , n , l ; L, ML ⊗ |S, MS i (28.15)
se observa que L2 , S2 , L3 , S3 son operadores simétricos ya que todos ellos son invariantes bajo la permutación P21
de las dos partı́culas4 . Por tanto, tales operadores conmutan con P21 . Esto a su vez implica que L2 , S2 , L3 , S3
conmutan con el operador antisimetrizador total. Por tanto, los vectores que resultan de la antisimetrización de
(28.15) continúan siendo autovectores de L2 , S2 , L3 , S3 con los mismos valores propios, aunque algunos de ellos
podrı́an aniquilarse al ser proyectados sobre EA , en cuyo caso el estado fı́sico queda descartado por el principio
de exclusión de Pauli, y no formarı́a parte de la base del subespacio E (n, l; n′ , l′ ) que estamos construyendo. Los
vectores no nulos que se obtienen al antisimetrizar a los vectores (28.15) son ortogonales puesto que corresponden
3
Esta es una base acoplada en el sentido de las partı́culas. Pero en la que permanecen desacoplados los momentos angulares orbital
y de espı́n.
4
Recordemos que esta condición garantiza que estos operadores son observables adecuados para partı́culas idénticas. Ver sección
26.9.1, Pág. 609.
28.2. EFECTO DE LA REPULSIÓN ELECTROSTÁTICA 631
a autovalores diferentes de al menos uno de los cuatro observables involucrados. Puesto que tales vectores anti-
simétricos expanden a E (n, l; n′ , l′ ), ellos constituyen una base ortonormal de dicho subespacio, que denotamos en
la forma n E o
′
n, l, n′ , l ; L, ML ; S, MS ; con (n, l) , n′ , l′ fijos (28.17)
con E n E o
′ ′
n, l, n′ , l ; L, ML ; S, MS = c (1 − P21 ) n(1) , l(1) , n′(2) , l (2) ; L, ML ⊗ |S, MS i (28.18)
siendo c una constante de normalización. Por tanto, L2 , S2 , L3 , S3 forman un C.S.C.O. en el subespacio E (n, l; n′ , l′ )
de EA .
(S)
Introduciremos ahora el operador permutación P21 que actúa solo sobre el espacio de espı́n
E E
(S)
P21 ε(1) ; ε′(2) ≡ ε′(1) ; ε(2) (28.19)
Ahora bien, en la sección 16.4.3 vimos que la base acoplada de espı́n |S, MS i para s1 = s2 = 1/2 consta de un
singlete con S = M = 0
1
|0, 0i = √ [|+, −i − |−, +i] (28.20)
2
y un triplete con S = 1 y tres valores distintos de MS
1
|1, 1i = |+, +i ; |1, 0i = √ [|+, −i + |−, +i] ; |1, −1i = |−−i (28.21)
2
además en dicha sección vimos que el estado singlete es antisimétrico bajo el intercambio de ε y ε′ en tanto que los
estados del triplete son simétricos bajo tal intercambio, como se vé claramente de las Ecs. (28.20, 28.21). Podemos
sintetizar estos resultados con la ecuación
(S)
P21 |S, MS i = (−1)S+1 |S, MS i (28.22)
(0)
si ahora definimos la permutación P21 como el operador permutación en el espacio de estados de las variables
orbitales, tenemos que
(0) (S)
P21 = P21 ⊗ P21 (28.23)
A continuación escribiremos el vector puramente orbital n(1) , l(1) ; n′(2) , l′(2) ; L, ML [donde (n, l) y (n′ , l′ ) son
fijos], utilizando la completez dentro del espacio En,l ⊗ En′ ,l′ en la forma
" #
E X X ED
(1) (1) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2) (1) (1) (1) ′(2) ′(2) ′(2)
n , l ; n , l ; L, ML = n , l , m ; n , l , m n ,l ,m ;n ,l ,m ×
m
m ′
E
(1) (1) ′(2) ′(2)
n , l ; n , l ; L, ML
X X E
= n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2)
m
m ′
D E
n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2) n(1) , l(1) ; n′(2) , l′(2) ; L, ML
X X E
= n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2)
m m ′
D E
× l(1) , m(1) ; l′(2) , m′(2) l(1) ; l′(2) ; L, ML
E X X E
(1) (1) ′(2) ′(2)
n , l ; n , l ; L, ML = n(1) , l(1) , m(1) ; n′(2) , l′(2) , m′(2) l, l′ ; m, m′ l, l′ ; L, ML
m m′
donde hemos tenido en cuenta que para l = l′ = 0, solo es posible que m = m′ = 0. El coeficiente de Clebsch
Gordan es la unidad en este caso. Obtenemos entonces
E E
(1)
n = 1, l(1) = 0; n′(2) = 2, l′(2) = 0; L = ML = 0 = n(1) = 1, l(1) = m(1) = 0; n′(2) = 2, l′(2) = m′(2) = 0
(28.32)
este vector lo podemos escribir en notación simplificada como 1s(1) ; 2s(2) . Ya vimos que la configuración 1s, 2s
produce dos términos espectrales 1 S (no degenerado) y 3 S (triplemente degenerado). Los estados asociados a los
dos términos espectrales los denotaremos por
1
S, 0 , 3 S, MS ; MS = 1, 0, −1 (28.33)
debe tenerse cuidado de no confundir la letra S cuando denota espı́n total, i.e. el valor propio asociado al operador
2 2
S2 ≡ S(1) + S(2) , o cuando denota que el momento angular orbital total es cero. En notación espectroscópica
el estado 3 S se refiere a que el espı́n total es S = 1 (2S + 1 = 3), y el momento angular es L = 0 (que en notación
espectroscópica es la letra S).
Por ahora estos vectores tienen una asignación especı́fica a una partı́cula de modo que deben ser antisimetri-
zados. Para ello se utiliza la Ec. (28.24)
E n h i Eo
′ ′ S+1 (0) (1) (1) ′(2) ′ (2)
n, l, n , l ; L, ML ; S, MS = c 1 − (−1) P21 n , l , n , l ; L, ML ⊗ |S, MS i (28.34)
con n = 1, n′ = 2 y l = l′ = 0, el estado singlete en (28.33) con S = MS = 0 (término espectral 1 S), viene dado
por
1 E
S, 0 ≡ ′
n = 1, l = 0, n′ = 2, l = 0; L = ML = 0; S = MS = 0
1 n h i Eo
S, 0 = (0) ′
c 1 − (−1)1 P21 n(1) = 1, l(1) = 0, n′(2) = 2, l (2) = 0; L = ML = 0 ⊗ |S = 0, MS = 0i
Y utilizando el vector (28.32) en notación simplificada como 1s(1) ; 2s(2) , esta ecuación se puede reescribir como
1 nh i Eo
S, 0 = √1 (0)
1 + P21 1s(1) ; 2s(2) ⊗ |S = 0, MS = 0i
2
√
donde hemos usado c = 1/ 2 2 . Para el triplete en (28.33) con S = 1 y MS = 1, 0, −1, la Ec. (28.34) nos da
3 E
S, MS ≡ n = 1, l = 0, n′ = 2, l′ = 0; L = ML = 0; S = 1, MS
3 n h i Eo
S, MS = (0) ′
c 1 − (−1)2 P21 n(1) = 1, l(1) = 0, n′(2) = 2, l (2) = 0; L = ML = 0 ⊗ |S = 1, MS i
28.3. TÉRMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACIÓN 1S, 2S 635
al sustituir (28.40) en (28.31), se observa que K representa un corrimiento de la energı́a como un todo, y no
genera un desdoblamiento. En contraste, se observa que el término J sı́ introduce una diferencia de energı́a entre
los términos 1 S y 3 S. Nótese que con respecto a K, el término J es un término de intercambio. El cálculo numérico
muestra que K − J es positivo de modo que el nivel 3 S (perturbado) está por encima del nivel (no perturbado)
1s, 2s. Ası́ mismo J es positivo de modo que el nivel 1 S está por encima del nivel 3 S y el desdoblamiento está
dado por 2J ≈ 0,8eV. Estos hechos se ilustran en la Fig. 28.1
636 CAPÍTULO 28. EL ÁTOMO DE HELIO
Figura 28.1: Ilustración de la posición relativa de los términos espectrales que surgen de la configuración 1s, 2s del
átomo de helio. El término directo Krepresenta un corrimiento del nivel como un todo, en tanto que J genera un
desdoblamiento, y por tanto una remoción parcial de la degeneración.
D e2 E
(1) (2)
+ 2s(1) ; 1s(2) 1s ; 2s
|R − R |
D 1 ED 2 E D ED E
J = 2s(1) F (R1 ) 1s(1) 1s(2) 2s(2) + 1s(2) F (R2 ) 2s(2) 2s(1) 1s(1)
D e2 E
(1) (2)
+ 2s(1) ; 1s(2) 1s ; 2s
|R1 − R2 |
(2) (2)
(1) (1)
pero es claro que 1s 2s = 2s 1s = 0, ya que son productos internos de estados ortogonales (estados
con diferente valor de n). Por tanto, solo el término repulsivo contribuye a la integral de intercambio5
D e2 E
(1) (2)
J = 2s(1) ; 1s(2) 1s ; 2s (28.44)
|R1 − R2 |
Denotaremos por ϕn,l,m (r) a las funciones de onda asociadas al estado estacionario |n, l, mi de un electrón en
el potencial Vc 2
P
+ Vc (R) |n, l, mi = En,l |n, l, mi ; ϕn,l,m (r) ≡ hr |n, l, mi (28.45)
2m
5
Nótese que para la integral K contribuyen en general todos los términos, esto permite entender al menos cualitativamente porque
K es mayor que J.
28.3. TÉRMINOS ESPECTRALES QUE SURGEN DE LA CONFIGURACIÓN 1S, 2S 637
Z Z
3 e2
J= d r1 d3 r2 ϕ∗2,0,0 (r1 ) ϕ∗1,0,0 (r2 ) ϕ1,0,0 (r1 ) ϕ2,0,0 (r2 ) (28.46)
|r1 − r2 |
no realizaremos el cálculo explı́cito de esta integral6 . Sin embargo, es importante observar que el valor numérico
de esta integración es positivo y J ≈ 0,4 eV.
Las ecuaciones (28.35, 28.36) junto con las expresiones (28.37, 28.38) nos muestran el origen de la separación
de los niveles de energı́a entre los términos 3 S y 1 S. El origen de este desdoblamiento yace en las diferencias
entre las propiedades de simetrı́a de las partes orbitales de dichos términos. Puesto que el triplete espinorial (S =
1, MS = 1, 0, −1) es simétrico, el postulado de simetrización exige que la parte orbital asociada sea antisimétrica,
(0)
originando el signo (−) para P21 en las Ecs. (28.35, 28.37). Análogamente, el singlete espinorial (S = 0, MS = 0)
(0)
es antisimétrico y por tanto la parte orbital debe ser simétrica, originando el signo (+) para P21 en las Ecs. (28.36,
28.38).
Lo anterior permite explicar porqué la energı́a del término 1 S es mayor que la del término 3 S. Para el término
singlete, la función de onda orbital es simétrica con respecto al intercambio de los dos electrones, lo cual implica
una probabilidad diferente de cero de que ambos electrones estén en el mismo punto del espacio. Por esta razón,
la energı́a electrostática repulsiva e2 / |r1 − r2 | , que es grande para valores pequeños de la distancia relativa entre
los electrones, se vé significativamente incrementada para el estado singlete. De otra parte, para el estado triplete,
la función de onda orbital es antisimétrica con respecto al intercambio de los dos electrones, implicando una
probabilidad nula de que los electrones estén en el mismo punto del espacio. Por tanto, el valor medio de la
distancia relativa entre los electrones es mayor, y por tanto es menor el valor medio de la repulsión electrostática.
Es interesante observar de la anterior discusión que a pesar de que W no depende del espı́n, el desdoblamiento
que este operador produce tiene su origen en el valor total del espı́n, ya que dependiendo de dicho valor tendremos
una simetrı́a diferente para el término orbital, en virtud del postulado de simetrización.
A priori, podrı́a pensarse que el postulado de simetrización es el responsable del desdoblamiento entre los
niveles 1 S y 3 S. Veremos sin embargo que no es ası́. Encontraremos que este postulado simplemente fija el valor
del espı́n total de los términos que surgen de una configuración dada en virtud de la repulsión electrostática entre
los electrones.
Para verlo, supongamos que uno de los electrones es reemplazado por una partı́cula (imaginaria hasta donde
sabemos) que tenga la misma carga, masa y espı́n del electrón, pero que posea algún número cuántico intrı́nseco
adicional que lo diferencie de los electrones. Nótese que el Hamiltoniano (28.2) tendrá exactamente la misma
forma7 . Por otro lado, puesto que H no depende del espı́n, podemos ignorar el espı́n en los cálculos y simplemente
multiplicar por 4 las degeneraciones asociadas. El nivel de energı́a asociado a H0 en (28.3) correspondiente a
la configuración
(1)1s, 2s es
doblemente
(1) (2)degenerado
desde el punto de vista orbital, debido a que los dos estados
ortogonales 1s , 2s (2)
y 2s , 1s son dos estados fı́sicamente diferentes (cuando las partı́culas eran
idénticas se consideraban iguales) asociados a dicha configuración. Para estudiar el efecto de W perturbativamente,
diagonalizamos la restricción de W en el espacio dos dimensional expandido por estos dos kets. La matriz asociada
6
Es importante observar que aunque la integral de intercambio no depende explı́citamente de Vc (R), sı́ depende implı́citamente de
dicho potencial. Para verlo, basta con observar que las funciones de onda que aparecen en (28.46) son soluciones de la ecuación (28.45)
que depende de Vc (R).
7
Por supuesto que si una partı́cula ası́ existiera, tendrı́a que existir alguna contribución en el Hamiltoniano debida a la propiedad
intrı́nseca adicional, que estarı́amos despreciando.
638 CAPÍTULO 28. EL ÁTOMO DE HELIO
es entonces
(1) (2) (1) (2)
(1) (2) (1) (2)
1s ; 2s 2s ; 1s
W1s,2s =
1s(1) ; 2s(2) W (1) (2)
1s(1) ; 2s(2) W (1) (2)
2s ; 1s W 1s ; 2s 2s ; 1s W 2s ; 1s
(1) (2) (1) (2)
(1) (2) (1) (2)
1s ; 2s 1s ; 2s
W1s,2s =
1s(1) ; 2s(2) W (1) (2)
2s(1) ; 1s(2) W (1) (2)
2s ; 1s W 1s ; 2s 1s ; 2s W 1s ; 2s
donde la última igualdad es debida a que W es invariante bajo el intercambio de las dos partı́culas (incluso
cuando son distinguibles), de modo que las integrales J y K también son invariantes bajo dicho intercambio [ver
por ejemplo la Ec. (28.46)]. Por tanto, esta matriz se puede escribir exclusivamente en términos de J y K
K J
W1s,2s =
J K
sin embargo debemos tener en cuenta que el espı́n de los electrones es intrı́nseco, de modo que para todo ket de
estado que describa a este sistema de dos electrones y que incluya a los espinores, se tiene que s(1) = s(2) ≡ s = 1/2.
Por tanto
2 2 h i
(1) (2) 3
S + S |. . .i = ~2 s(1) s(1) + 1 + s(2) s(2) + 1 |. . .i = 2~2 [s (s + 1)] |. . .i = ~2 |. . .i
2
como esto es válido para todos los kets que describen nuestro sistema, tenemos que para nuestros propósitos se
puede escribir8
2 2 3
S(1) + S(2) ≡ ~2 1 (28.50)
2
sustituyendo (28.50) en (28.49) se tiene que
S2 3 2
S(1) · S(2) = − ~
2 4
f definido por (28.47) queda
por tanto el operador W
f 3β~2 β β 3β~2
W = α− + S2 ≡ κ + S2 ; κ ≡ α −
4 2 2 4
este operador claramente actúa de manera no trivial solo sobre los espinores. Puesto que (β/2) S2 es proporcional
a S2 , posee los mismos vectores propios |S, MS i de S2 con valores propios dados por (β/2) ~2 S (S + 1)
2 2 β 2 β 2
S |S, MS i = ~ S (S + 1) |S, MS i ⇔ S |S, MS i = ~ S (S + 1) |S, MS i
2 2
Adicionalmente, puesto que Wf solo difiere de (β/2) S2 por un operador proporcional a la identidad κ1, se tiene
que posee los mismos vectores propios con valores propios dados por
β 2 β 2 β 2 β 2
S |S, MS i = ~ S (S + 1) |S, MS i ⇔ κ + S |S, MS i = κ + ~ S (S + 1) |S, MS i
2 2 2 2
y teniendo en cuenta la definición de κ
3β~2 β 3β~2 β 2
α− + S2 |S, MS i = α − + ~ S (S + 1) |S, MS i
4 2 4 2
de manera que los vectores propios son el triplete |S = 1, MS i y el singlete |S = 1, MS = 0i con valores propios
3β~2 β~2
|S = 1, MS = 1, 0, −1i → α − + β~2 = α + (28.51)
4 4
3β~2
|S = 0, MS = 0i → α − (28.52)
4
finalmente si redefinimos
J 2J
α≡K−
; β≡− (28.53)
2 ~2
los valores propios asociados al triplete y singlete quedan
J 2J ~2
|1, MS i → K − − 2 =K −J
2 ~ 4
J 2J 3~2
|0, 0i → K − + 2 =K +J
2 ~ 4
8
Para una discusión similar asociada al espı́n de una sola partı́cula, ver Eq. (15.9), Pág. 391, y la discusión alrededor.
640 CAPÍTULO 28. EL ÁTOMO DE HELIO
por tanto, al diagonalizar W f obtenemos los mismos autoestados y autovalores que encontramos con el operador
W definido en (28.4), como se puede ver de la Ec. (28.40). En un sentido efectivo, el potencial W f (Hamiltoniano
efectivo) actúa de manera análoga al potencial real W . Ahora bien, el Hamiltoniano efectivo (28.47) tiene la forma
de la interacción magnética entre dos espines. Sin embargo, no es correcto decir que la energı́a de acople entre los
electrones que son responsables de la aparición de los dos términos K ± J, sea de origen magnético. Un análisis de
órdenes de magnitud muestra que dos momentos magnéticos iguales a los del electrón y colocados a una distancia
del orden de 1 Armstrong entre ellos, tendrı́an una energı́a de interacción mucho menor que J.
A pesar de lo anterior, la simplicidad de la estructura de W f , hace que este Hamiltoniano efectivo se utilice
con frecuencia en lugar de W . Debe tenerse presente sin embargo, que es un término efectivo que no nos describe
a priori el verdadero origen de la interacción. Por ejemplo, una construcción similar se hace para la descripción
de materiales ferromagnéticos, en los cuales los espines tienen la tendencia a alinearse paralelamente entre ellos.
Puesto que el estado de espı́n serı́a completamente simétrico (espines todos arriba o abajo), el principio de exclusión
de Pauli requiere que el estado orbital sea completamente antisimétrico. Por las mismas razones que en el átomo
de Helio, la energı́a de repulsión electrónica es entonces mı́nima. Para estudiar este fenómeno se suele utilizar
Hamiltonianos efectivos de la forma (28.47). Sin embargo, una vez más debe notarse que el origen de la interacción
es también electrostático y no magnético.
intercambio análoga a la obtenida en (28.46). Un estudio similar se puede realizar para las demás configuraciones
del tipo 1s, n′ l′ .
en tanto que la mı́nima distancia entre los niveles (no perturbados) 1s, 2s y 1s, 2p, está dada por
E (1s, 2p) 3
P − E (1s, 2s) 1
S ≃ 0,35eV
Es notable que a pesar de lo anterior, el tratamiento hecho anteriormente es adecuado. Esto se debe a que para
configuraciones del tipo 1s, n′ l′ tenemos que L = l′ (puesto que l = 0). En consecuencia, dado que W conmuta con
L, posee elementos matriciales nulos entre estados con diferentes valores de L. En particular, W tiene elementos
matriciales nulos entre estados de la configuración 1s, 2s y 1s, 2p.
Vemos por tanto que W acopla una configuración 1s, n′ l′ solo a una configuración del tipo 1s, n′′ l′ (dos capas
distintas que solo difieren en el valor de n), o del tipo nl, n′′ l′′ con n y n′′ diferentes de uno. Este último caso solo
ocurre cuando l y l′′ se adicionan para dar l′ , y corresponderı́a a estados doblemente excitados.
28.6. ESTRUCTURA FINA DEL ÁTOMO DE HELIO Y MULTIPLETES 641
donde Ri , Li y Si son los observables de posición, momento angular y de espı́n asociados a cada electrón. Si
calculamos el conmutador de este Hamiltoniano con los momentos angulares orbital y de espı́n tenemos
" #
XN N X
X N h i
(m) (m)
[HSF , Lk ] = HSF , Lk = ξ (Rn ) L(n)
p S (n)
p , L k
m=1 m=1 n=1
N
XXN h i
(m)
[HSF , Sk ] = ξ (Rn ) L(n) (n)
p Sp , Sk
m=1 n=1
donde el superı́ndice denota partı́culas y el subı́ndice denota componentes. Estos conmutadores quedan entonces
en la forma
N X
X N n h i h i o XN X
N h i
(m) (m) (m)
[HSF , Lk ] = ξ (Rn ) L(n)
p S (n)
p , L k + L (n)
p , L k S (n)
p = ξ (Rn ) L (n)
p , L k Sp(n)
m=1 n=1 m=1 n=1
XN X N N
X
= ξ (Rn ) δnm i~εpkr L(n) (n)
r Sp = i~ ξ (Rn ) εrpk L(n)
r Sp
(n)
X N
N X h i X N
N X h i
(m) (m)
[HSF , Sk ] = ξ (Rn ) L(n)
p S (n)
p , S k = ξ (Rn ) L (n)
p S (n)
p , S k
m=1 n=1 m=1 n=1
XN X N N
X
= i~ ξ (Rn ) L(n) (n)
p δnm εpkr Sr = −i~ ξ (Rn ) εprk L(n)
p Sr
(n)
la Ec. (28.55) implica que el Hamiltoniano de estructura fina no es invariante si rotamos solo las variables orbitales
o solo las variables de espı́n, pero sı́ es invariante bajo la rotación simultánea de todas las variables orbitales y de
espı́n. Por tanto, el momento angular total de los electrones es una constante de movimiento.
El espacio de estados asociado con un término es expandido por los estados del tipo |n, l; n′ , l′ ; L, ML ; S, MS i
escritos en la Ec. (28.24), donde L y S son fijos, y tal que
−L ≤ ML ≤ L ; −S ≤ MS ≤ S
se puede demostrar que en este espacio los observables J2 y J3 forman un C.S.C.O. que de acuerdo con la Ec. (28.55)
conmuta con HSF . En consecuencia los vectores propios |J, MJ i comunes a J2 [con valores propios J (J + 1) ~2 ] y
a J3 [con valor propio MJ ~] son necesariamente autovectores de HSF con autovalor que depende de J pero no de
MJ , debido a que HSF conmuta con J+ y J− . Las reglas de adición del momento angular nos dicen que
J = L + S, L + S − 1, L + S − 2, . . . , |L − S| (28.56)
De modo que HSF remueve parcialmente la degeneración. Para cada “término” aparecen tantos niveles distintos
como valores de J, de acuerdo con la Ec. (28.56). Cada uno de estos niveles tiene una degeneración 2J + 1 en
virtud de su independencia con MJ y se denomina un “multiplete”. Estos multipletes poseen también una notación
espectroscópica: es la notación espectroscópica del término, a la que le añadimos un subı́ndice a la derecha igual
al valor de J. Veamos algunos ejemplos:
Para la configuración 1s, 2s, cada uno de los dos términos 1 S y 3 S nos llevan a un solo multiplete: 1 S0 y 3 S1
respectivamente.
Para la configuración 1s, 2p, el término 1 P conduce a un solo multiplete 1 P1 , en tanto que el término 3 P
posee tres multipletes, 3 P2 ,3 P1 y 3 P0 . La posición relativa de estos multipletes se ilustra en la Fig. 28.2.
La medida experimental y el cálculo teórico de los multipletes que surgen de la configuración 1s, 2p son de
gran importancia, debido a que conducen a un conocimiento bastante preciso de la constante de estructura fina
α = e2 /~c.
A partir de la estructura (28.54) del Hamiltoniano de estructura fina y utilizando el teorema de Wigner-Eckart
se puede demostrar que la energı́a del multiplete J es proporcional a J (J + 1) − L (L + 1) − S (S + 1). Esto es
válido no solo para el átomo de helio sino para átomos de muchos electrones y se conoce como la “regla del intervalo
de Landé”. Para el helio los niveles 3 P1 y 3 P2 que surgen de la configuración 1s, 2p son mucho más cercanos de
lo que predice esta regla, debido a la importancia del acople magnético dipolo-dipolo de los espines de los dos
electrones, efecto que ha sido ignorado en el Hamiltoniano (28.54).
Por supuesto también surgen efectos debidos a la existencia del espı́n del núcleo. Sin embargo la estructura
hiperfina que emerge existe solo para el isótopo 3 He cuyo núcleo posee espı́n I = 1/2. El isótopo 4 He tiene espı́n
nuclear cero y por tanto no hay efectos hiperfinos.
Para el 3 He cada multiplete de momento angular total electrónico J se desdobla en dos niveles hiperfinos de
momento angular total F = J ± 1/2, que serı́a (2F + 1) veces degenerado, a menos que J = 0, en cuyo caso F solo
puede tomar el valor 1/2.
28.6. ESTRUCTURA FINA DEL ÁTOMO DE HELIO Y MULTIPLETES 643
Figura 28.2: Ilustración de la posición relativa de los términos espectrales y multipletes que surgen de la configura-
ción 1s, 2p del átomo de helio. La distancia entre los tres multipletes 3 P0 , 3 P1 y 3 P2 se ha reescalado con respecto
a la distancia entre los término 1 P y 3 P , para que se pueda apreciar el desdoblamiento del término 3 P .
Capı́tulo 29
Método de Hartree-Fock
La idea es estudiar la estructura electrónica para átomos de N electrones (de hecho, el método es fácilmente
extendible para el estudio de sistemas fı́sicos de N fermiones idénticos). Como ya se ha discutido, una posibilidad
es dividir el Hamiltoniano total (27.1)1
N
X XN X
N
P2i Ze2 e2 q2
H= − + ; e2 ≡ (29.1)
2me Ri |Ri − Rj | 4πε0
i=1 i=1 j>i
H = H0 + W (29.2)
N
X N
X X N
N X
P2i Ze2 e2
H0 ≡ + Vc (Ri ) , W ≡ − Vc (Ri ) + + (29.3)
2me Ri |Ri − Rj |
i=1 i=1 i=1 j>i
donde el potencial efectivo Vc (Ri ) se introduce con el fin de que W se pueda considerar una perturbación con
respecto a H0 . Podemos definir también
Ze2
Vc (Ri ) ≡ − + U (Ri ) (29.4)
Ri
donde U (Ri ) contendrı́a la información del potencial efectivo promedio debida únicamente a los otros electrones.
La idea es encontrar una solución aproximada al problema de valores propios
combinando un modelo de partı́cula independiente (descrito por el Hamiltoniano H0 ) con el método variacional.
Donde
T ≡ (T1 , T2 , . . . , TN ) ; Tk ≡ (rk , εk ) (29.6)
es una abreviación de las variables de posición rk y de espı́n εk de cada partı́cula. El método de Hartree-Fock
busca determinar la función ψHF (T) que nos proporcione la mejor aproximación variacional a la solución del
problema de valores propios (29.5) utilizando el modelo de partı́cula independiente.
El punto de partida será entonces una función de onda Φ (T) basada en un modelo de partı́cula independiente
para N electrones. Por tanto la función de prueba debe ser una combinación lineal de uno o más determinantes
1
Hay una ligera diferencia entre el Hamiltoniano (27.1) y el Hamiltoniano (29.1), ya que para el primero asumimos que el número
de electrones es Z (átomo neutro), en tanto que en el segundo asumimos un números N de electrones que puede ser distinto de Z.
644
645
de Slater
ψa1 (T1 ) ψa1 (T2 ) · · · ψa1 (TN )
1 ψa2 (T1 ) ψa2 (T2 ) · · · ψa2 (TN )
D (T1 , . . . , TN ) = √ .. .. .. ..
N ! . . . .
ψa (T1 ) ψa (T2 ) · · · ψaN (TN )
N N
√
D (T1 , . . . , TN ) = N ! AΦH (T1 , . . . , TN )
ΦH (T1 , . . . , TN ) = ψa1 (T1 ) ψa2 (T2 ) . . . ψaN (TN )
donde A es el antisimetrizador definido en (26.32) Pág. 600 y ΦH es un producto de orbitales que denominamos
función de Hartree. ak representa los cuatro números cuánticos que identifican completamente cada orbital.
La función de Hartree representa un sistema de N electrones independientes pero distinguibles. Ya sabemos que
la antisimetrización hace que se introduzcan correlaciones entre espines y que surja el principio de exclusión de
Pauli, haciendo que los electrones no sean del todo independientes. Los orbitales pueden escribirse a su vez como
el producto de un orbital espacial y uno espinorial
los espinores que describen un electrón con espı́n arriba y abajo los denotaremos como α y β respectivamente
1 1
χ + ≡α ; χ − ≡β (29.8)
2 2
la notación α (k) implica que el k−ésimo electrón tiene espı́n arriba. Puesto que nuestro Hamiltoniano no contiene
correcciones de espı́n, la ecuación de valores propios (29.5) se convierte en una ecuación puramente orbital
~2 2 Ze2
− ∇ − + U (rk ) ϕak (rk ) = εak ϕak (rk ) (29.9)
2m k rk
Ze2
Vc (rk ) = − + U (rk ) (29.10)
rk
por el momento los orbitales ψak (Tk ) son desconocidos. Sin embargo, podemos suponer su existencia para escribir
la energı́a de interacción efectiva U (rk ) que experimenta el k−ésimo electrón debido a los otros electrones. Puesto
que |ϕak (rk )|2 d3 rk es la probabilidad de encontrar el k−ésimo electrón dentro del elemento de volumen d3 rk
centrado en rk , se tiene entonces que la carga efectiva dQ dentro de dicho volumen viene dada por
y la energı́a de interacción entre las cargas dQ y −e ubicadas en las posiciones rk y rj viene dada por
e dQ e2
dU (|rk − rj |) = − = |ϕak (rk )|2 d3 rk
|rk − rj | |rk − rj |
de modo que la energı́a potencial U (rk ) se obtiene integrando sobre todo el volumen (para incluı́r toda la carga
efectiva Q) y sumando sobre todos los demás electrones (j 6= k)
X Z |ϕa (rk )|2
2
U (rk ) = e k
d3 rk (29.11)
|rk − rj |
j6=k
Si conociéramos los N orbitales ϕak (rk ) del problema de N electrones, podemos conocer el potencial efectivo
completo que experimenta cada uno de los electrones usando (29.11) junto con (29.10). Recı́procamente, si cono-
ciéramos el potencial efectivo Vc (rk ) podrı́amos determinar los orbitales usando las ecuaciones (29.9, 29.10) de
646 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK
valores propios. Sin embargo, en la práctica no conocemos ni los orbitales ni los potenciales efectivos. El objetivo
del método de Hartree-Fock es encontrar ambas cantidades de tal manera que resulten autoconsistentes. Es decir,
que dadas las soluciones de los orbitales podamos determinar los potenciales efectivos por medio de (29.11) y que
una vez determinados dichos potenciales podamos insertarlos en las Ecs. (29.9) de manera que las soluciones de
(29.9) reproduzcan los mismos orbitales, al menos en forma aproximada.
Estrictamente hablando, el método descrito hasta aquı́ no requiere asumir que el potencial efectivo Vc (rk )
sea central. Cuando asumimos que dicho potencial es de carácter central hablamos del método restringido
de Hartree-Fock. La aproximación de campo central es particularmente acertada en el caso de capas cerradas,
debido a que todos los momentos angulares son cero y esto le da simetrı́a esférica al problema. En el caso de capas
abiertas la aproximación de campo central es menos acertada pero suele producir aún muy buenos resultados al
considerar la aproximación de llenado que consiste en promediar V (rk ) [que no se considera central] sobre todos
los ángulos en la forma Z
1
Vc (rk ) ≡ V (rk ) dΩ
4π
cuando se considera que Vc (rk ) es central, exigimos que ψΓ (T) sea función propia de los operadores H, L2 , L3 , S2 , S3 ,
ya que todos ellos conmutan entre sı́. Tenemos entonces que
Sin embargo, es posible que estos operadores no formen un C.S.C.O por lo cual el conjunto de todos los números
cuánticos Γ podrı́a contener números cuánticos adicionales a los de estos operadores
Γ ≡ (γ, l, m, s, ε) (29.13)
donde γ se refiere a los números cuánticos necesarios para definir la energı́a, y tal vez otros números cuánticos
adicionales requeridos para determinar al estado ψΓ .
Cada determinante de Slater es función propia de L3 y de S3 . En consecuencia, las funciones ψΓ que satisfacen
las ecuaciones de valores propios (29.12) deben ser combinaciones lineales de determinantes de Slater asociados a
una misma configuración electrónica y con los mismos valores de m y ε
X
ψγLS (T) = Cλ Dγ(λ)LS (T) (29.14)
λ
Donde los coeficientes Cλ son parámetros variacionales que se escogen de manera que la función de onda (29.14)
sea también función propia de L2 y S2 . Si la capa es abierta tendremos en general varios coeficientes Cλ . En
contraste, si la capa es cerrada solo se requiere un determinante de Slater para describir la estructura electrónica
ya que en este caso L = S = J = 0.
en algunas ocasiones se describe el determinante de Slater escribiendo solo la diagonal principal entre barras o
corchetes
1
D (a |T ) ≡ √ |ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )|
N!
1
= √ |ψ (a1 |1 ) ψ (a2 |2 ) · · · ψ (aN |N )| (29.17)
N!
sea O un observable simétrico de manera que conmuta con todas las N ! permutaciones
[Pk , O] = 0 ; k = 1, 2, . . . , N !
para propósitos futuros, expresaremos los elementos matriciales del operador simétrico O en la base de un conjunto
de determinantes de Slater (normalizados a uno)
Z
hD (b)| O |D (a)i ≡ D ∗ (b |T ) O D (a |T ) dT (29.18)
por construcción cada determinante de Slater es antisimétrico con respecto al grupo de permutaciones de las N
partı́culas. Por tanto
Pk D ∗ (b |T ) = εk D ∗ (b |T ) (29.19)
siendo εk la paridad de la permutación Pk . Teniendo en cuenta (29.19) y el hecho de que Pk conmuta con O se
tiene " #
N! Z N
1 X ∗
Y
hD (b)| O |D (a)i = √ [Pk D (b |T )] Pk O ψai (Ti ) dT
N ! k=1 i=1
ahora bien, es claro que la aplicación del operador permutación sobre un producto de funciones ψA y ψB es
equivalente al producto de la aplicación del permutador sobre cada función2
finalmente, el permutador solo cambia los rótulos de los argumentos de las funciones. Puesto que las variables de
integración son mudas, el resultado no depende del rótulo asignado a cada variable. Por tanto, cada una de las
N ! permutaciones contribuye con el mismo valor al integrar. Con lo cual se obtiene finalmente
Z "N #
√ Y
hD (b)| O |D (a)i = N! D ∗ (b |T ) O ψai (Ti ) dT
i=1
2
La identidad (29.20) está relacionada con el hecho de que la permutación intercambia los ı́ndices Ti en la función ψA (T1 , . . . , TN )
ası́ como en la función ψB (T1 , . . . , TN ), pero no intercambia un argumento de ψA con un argumento de ψB .
648 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK
sustituyendo la Ec. (29.15) en esta expresión tenemos que el elemento matricial se puede escribir alternativamente
en la forma "
N! Z N N
#
X Y Y
hD (b)| O |D (a)i = εk dT Pk ψb∗j (Tj ) O ψai (Ti )
k=1 j=1 i=1
en sı́ntesis, la representación matricial de un operador simétrico O en la base de los determinantes de Slater D (a)
viene dada por
Z
hD (b)| O |D (a)i ≡ D ∗ (b |T ) O D (a |T ) dT (29.21)
√ Z ∗
= N ! D (b |T ) O [ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )] dT (29.22)
N!
X Z
∗
= εk dT Pk ψb1 (T1 ) · · · ψb∗N (TN ) {O [ψa1 (T1 ) · · · ψaN (TN )]} (29.23)
k=1
recordemos que el signo de integración significa integración sobre las variables espaciales de todos los electrones y
suma sobre las variables de espı́n, y que a ≡ {a1 , . . . , aN } es una abreviación que denota el conjunto de números
cuánticos que definen a los N orbitales con los cuales se construye el determinante de Slater. En particular, tomando
O = 1, se puede verificar la ortonormalidad de los determinantes de Slater con base en la ortonormalidad de los
orbitales.
Podemos escribir estos elementos matriciales de una forma más condensada definiendo la función de Hartree
y la función auxiliar3
φk (T) ≡ Pk [ψa1 (T1 ) ψa2 (T2 ) · · · ψaN (TN )] = Pk ΦH (T) (29.25)
N!
X Z
hD (b)| O |D (a)i = εk dT {φ∗k (T)} {OΦH }
k=1
XN!
hD (b)| O |D (a)i = εk hφk (T)| O |ΦH (T)i (29.26)
k=1
1
D (T1 , T2 , T3 ) = √ {ψa1 (T1 ) [ψa2 (T2 ) ψa3 (T3 ) − ψa2 (T3 ) ψa3 (T2 )]
3!
+ψa1 (T2 ) [ψa2 (T3 ) ψa3 (T1 ) − ψa2 (T1 ) ψa3 (T3 )]
+ψa1 (T3 ) [ψa2 (T1 ) ψa3 (T2 ) − ψa2 (T2 ) ψa3 (T1 )]}
ψa1 (T1 ) ψa1 (T2 ) ψa1 (T3 )
1
D (T1 , T2 , T3 ) = √ ψa2 (T1 ) ψa2 (T2 ) ψa2 (T3 )
3! ψ (T ) ψ (T ) ψ (T )
a3 1 a3 2 a3 3
E0 ≤ hΦ| H |Φi
Puesto que la capa es cerrada, suponemos que la función de prueba es un determinante de Slater
Φ = D (T1 , T2 , . . . , TN )
Que es una descomposición diferente a la realizada en las Ecs. (29.2, 29.3). Esto se debe a que utilizaremos un
método variacional y no teorı́a de perturbaciones, por lo cual no es esencial que H (1) sea mucho menor que H (0) .
El valor esperado con respecto a la función de prueba (determinante de Slater) estará dado por
E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di (29.29)
puesto que el Hamiltoniano es un observable asociado a partı́culas idénticas, debe ser un operador simétrico como
efectivamente se observa de (29.28). Ası́ mismo, cada operador H (0) y H (1) es simétrico. Por tanto podremos
aplicar las relaciones de la sección 29.1.
de una forma similar se puede demostrar que para cada electrón (i = 1, 2, 3) solo contribuye la función auxiliar
φ1 = ΦH . Tenemos entonces que
hφk | h (i) |ΦH i = δk,1 hφk | h (i) |ΦH i = δk,1 hΦH | h (i) |ΦH i (29.32)
29.2. VALOR ESPERADO DE LA ENERGÍA 651
usando (29.27), la contribución debida a la función auxiliar φ4 (T) está dada por
hφ4 (T)| W (1, 2) |ΦH (T)i = hP4 ΦH (T)| W (1, 2) |ΦH (T)i = hP213 ΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T2 ) ψa2 (T1 ) ψa3 (T3 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa3 (T3 )| ψa3 (T3 )i
= hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i ≡ K (a1 , a2 )
es decir se obtiene por una permutación de los electrones 1 y 2 con respecto a la contribución de φ1 . Ahora
consideramos la contribución de φ2 (T)
hφ2 (T)| W (1, 2) |ΦH (T)i = hP2 ΦH (T)| W (1, 2) |ΦH (T)i = hP231 ΦH (T)| W (1, 2) |ΦH (T)i
= hψa1 (T2 ) ψa2 (T3 ) ψa3 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 ) ψa3 (T3 )i
= hψa1 (T2 ) ψa3 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i hψa2 (T3 )| ψa3 (T3 )i
= 0
dado que los orbitales son ortogonales. Similarmente la contribución de φk es nula para k = 2, 3, 5, 6. Por tanto,
para (i, j) = (1, 2) y para N = 3, solo dos de los seis términos en (29.36) son no nulos
X 3!
e2
hD| |Di ≡ hD| W (1, 2) |Di = εk hφk (T)| W (1, 2) |ΦH (T)i
r12
k=1
= ε1 hφ1 (T)| W (1, 2) |ΦH (T)i + ε4 hφ4 (T)| W (1, 2) |ΦH (T)i
e2
hD| |Di = J (a1 , a2 ) − K (a1 , a2 ) (29.37)
r12
J (a1 , a2 ) ≡ hψa1 (T1 ) ψa2 (T2 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i
K (a1 , a2 ) ≡ hψa1 (T2 ) ψa2 (T1 )| W (1, 2) |ψa1 (T1 ) ψa2 (T2 )i (29.38)
realizando el mismo procedimiento para los otros pares de electrones (i, j) resulta
e2
hD| |Di ≡ hD| W (1, 3) |Di = J (a1 , a3 ) − K (a1 , a3 ) (29.39)
r13
e2
hD| |Di ≡ hD| W (2, 3) |Di = J (a2 , a3 ) − K (a2 , a3 ) (29.40)
r23
2 X
X 3
(1) e2 e2 e2 e2
hD| H |Di = hD| |Di = hD| |Di + hD| |Di + hD| |Di
rij r12 r13 r23
i=1 j=i+1
(1)
hD| H |Di = [J (a1 , a2 ) − K (a1 , a2 )] + [J (a1 , a3 ) − K (a1 , a3 )] + [J (a2 , a3 ) − K (a2 , a3 )] (29.41)
a los productos internos J (ak , ap ) y K (ak , ap ) se les denomina término directo y término de intercambio, por las
mismas razones descritas en la sección 28.3. Teniendo en cuenta que estos términos tienen la propiedad4
4
La propiedad (29.42) se debe a que las integrales definidas en (29.38) son invariantes ante el intercambio de T1 y T2 .
29.2. VALOR ESPERADO DE LA ENERGÍA 653
J (ai , aj ) − K (ai , aj )
sin la restricción j > i. Podemos escribir la generalización de la expresión anterior para N arbitrario en la forma
N
X −1 N
X N N
e2 1 XX
hD| H (1) |Di = hD|
|Di = [J (ak , ap ) − K (ak , ap )] (29.43)
rij 2
i=1 j=i+1 k=1 p=1
J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )
la doble suma corre sobre todos los pares de orbitales de manera independiente, con lo cual la expresión (29.43)
recupera una total simetrı́a entre dichos pares.
E [D] = hD| H |Di = hD| H (0) |Di + hD| H (1) |Di (29.44)
N
X N X
X N
1
E [D] = I (ak ) + [J (ak , ap ) − K (ak , ap )] (29.45)
2
k=1 k=1 p=1
Z
~2 2 Ze2
I (ak ) ≡ hψak (Tk )| h (k) |ψak (Tk )i = (rk ) − ψa∗k∇ − ψak (rk ) d3 rk (29.46)
2m k rk
J (ak , ap ) ≡ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) (29.47)
K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp ) (29.48)
La notación E [D] indica que la energı́a es un funcional del determinante de Slater, por lo cual la expresión (29.45)
es adecuada para un tratamiento variacional.
de la expresión integral vemos que este término corresponde al valor promedio de 1/rkp entre un par de electrones
(k, p) relativo al estado ϕak (rk ) ϕap (rp ) del par en cuestión. En este estado el electrón k se encuentra en el
orbital ϕak y el electrón p se encuentra en el orbital ϕap . Nótese que en las integrales no aparece la suma sobre
las variables de espı́n ya que se escribió cada orbital como el producto de una función espacial y un espinor [ver
Ec. (29.7)], y se utilizó la normalización de los espinores.
A este término se le suele llamar energı́a de Coulomb debido a que tiene un análogo en la electrostática clásica.
Para un orbital dado ak podemos definir una densidad de carga
ρak (rk ) ≡ −e |ϕak (rk )|2
que al ser integrada sobre todo el espacio nos da la carga total −e del electrón dado que el orbital está normalizado.
El potencial electrostático generado por esta densidad de carga viene dado por
Z
ρak (rn ) 3
Φak (rk ) = d rn (29.49)
rkn
con lo cual la energı́a de Coulomb se escribe como
Z
J (ak , ap ) = ρak (rp ) Φap (rp ) d3 rp
que en el análogo electrostático representa la energı́a potencial de interacción entre las distribuciones de carga
asociadas con los orbitales ak y ap .
Ahora examinemos el término de intercambio (29.48)
K (ak , ap ) ≡ ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )
Z Z
e2
= δ (χk , χp ) ϕ∗ak (rp ) ϕ∗ap (rk ) ϕa (rk ) ϕap (rp ) d3 rk d3 rp
rkp k
que corresponde al elemento de matriz de la interacción coulombiana entre el par de electrones (k, p) relativo a
los estados ϕak (rp ) ϕap (rk ) y ϕak (rk ) ϕap (rp ). Estos estados difieren entre sı́ por el intercambio del par (k, p)
de electrones. La delta de Kronecker proviene de la ortonormalidad de la parte espinorial.
Ya habı́amos visto que para el término directo el electrón k se encontraba en el orbital ϕak y el electrón p
en el orbital ϕap . Si solo contribuyera el término directo, esto implicarı́a que las partı́culas son distinguibles. De
hecho la presencia del término de intercambio surge del carácter antisimétrico de la función de onda y por tanto
del postulado de simetrización. En consecuencia, dicho término no posee un análogo clásico.
N X
X N
F {ψa1 , ψa2 , . . . , ψaN } , ψa∗1 , ψa∗2 , . . . , ψa∗N ≡ E [D] − λkp S (ak , ap )
k=1 p=1
N
X N N N N
1 XX XX
F [ψ, ψ ∗ ] = I (ak ) + [J (ak , ap ) − K (ak , ap )] − λkp S (ak , ap ) (29.51)
2
k=1 k=1 p=1 k=1 p=1
ψ ≡ {ψa1 , ψa2 , . . . , ψaN }
de modo que este es un funcional con 2N variables independientes puesto que cada orbital es complejo y por tanto
posee dos grados de libertad: su parte real y su parte imaginaria. Es más conveniente sin embargo tomar a ψak y
a ψa∗k como las variables independientes, en lugar de la parte real e imaginaria de ψak . Ahora debemos escribir el
funcional F [ψ, ψ ∗ ] de manera que queden explı́citas las 2N variables (orbitales) de las cuales depende. Para ello
se sustituyen (29.46, 29.47, 29.48) y (29.50) en (29.51) y se obtiene
N
X
F [ψ, ψ ∗ ] ≡ hψak (Tk )| h (k) |ψak (Tk )i
k=1
N N
1 X X
+ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
2
k=1 p=1
− ψak (Tp ) ψap (Tk ) W (k, p) ψak (Tk ) ψap (Tp )
N X
X N
− λkp hψak (Tk )| ψap (Tp ) (29.52)
k=1 p=1
aplicando el principio variacional, buscamos el conjunto de 2N orbitales ψ,ψ ∗ que dejen a F [ψ, ψ ∗ ] estacionario
con respecto a variaciones arbitrarias de las variables independientes
δF {ψa1 , ψa2 , . . . , ψaN } , ψa∗1 , ψa∗2 , . . . , ψa∗N = 0
N
X
δF = δk F ; δk F ≡ F ψa∗k + δψa∗k − F ψa∗k
k=1
δk F es la variación del funcional F cuando se modifica la variable independiente ψa∗k dejando fijas las demás
variables independientes (variación parcial)5 . Vale añadir que la variación de un orbital se realiza solo en su parte
espacial dejando inmodificadas las variables de espı́n, ya que las variables de espı́n no permiten una variación
contı́nua.
5
Incluso se deja fijo el orbital ψak
656 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK
dado que solo se realizará una variación sobre los orbitales conjugados ψa∗n , esto implica que solo se hará variación
sobre el bra (sin variación sobre el ket). Tendremos por tanto
δJ (ak , ap ) = δ ψak (Tk ) ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
= {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
+ ψak (Tk ) δ ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
de modo que
N N
1 XX
δJ ≡ {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
2
k=1 p=1
N N
1 XX
+ ψak (Tk ) δ ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
2
k=1 p=1
puesto que las variables Tk , y Tp de integración son mudas podemos asignar Tk → Ti , y Tp → Tj , para escribir
N N
1 XX
δJ ≡ {δψak (Ti )} ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj )
2
k=1 p=1
N N
1 XX
+ ψak (Ti ) δ ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj )
2
k=1 p=1
adicionalmente, las variables de suma también son mudas de modo que podemos intercambiar los ı́ndices k ↔ p
en la segunda sumatoria para obtener
N N
1 XX
δJ ≡ {δψak (Ti )} ψap (Tj ) W (i, j) ψak (Ti ) ψap (Tj )
2
k=1 p=1
N N
1 XX
+ ψap (Ti ) δ {ψak (Tj )} W (i, j) ψap (Ti ) ψak (Tj )
2
k=1 p=1
puesto que el operador de repulsión W (i, j) es simétrico y las variables de integración i, j son mudas, podemos
intercambiar los ı́ndices (i, j) en el segundo término, con lo cual vemos que las dos sumas son iguales. Retornando
a las antiguas variables de integración se tiene
N X
X N
δJ = {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp ) (29.53)
k=1 p=1
la variación de este término se puede obtener intercambiando Tk ↔ Tp en el ket (también se debe invertir en
W (k, p) pero este es simétrico) en la expresión (29.53) para obtener
N X
X N
δK = {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
k=1 p=1
la variación del término asociado a H (0) y de la ligadura son mucho más simples. La variación del funcional (29.52)
estará dada por
N
X
δF = hδψak (Tk )| h (k) |ψak (Tk )i
k=1
XN X
N
+ {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
k=1 p=1
N X
X N
− {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tp ) ψap (Tk )
k=1 p=1
N X
X N
− λkp hδψak (Tk )| ψap (Tp ) (29.54)
k=1 p=1
puesto que los bras y kets de pares de partı́culas son productos tensoriales de bras y kets de partı́cula individual,
los sumandos en el segundo y tercer término en esta variación se escriben como
δJ (ak , ap ) = {δψak (Tk )} ψap (Tp ) W (k, p) ψak (Tk ) ψap (Tp )
= hδψak (Tk )| ⊗ ψap (Tp ) W (k, p) |ψak (Tk )i ⊗ ψap (Tp )
= hδψak (Tk )| ⊗ ψap (Tp ) W (k, p) |ψak (Tk )i ⊗ ψap (Tp )
ahora bien, el principio variacional exige que δF = 0 para una variación arbitraria del bra (o del orbital conjugado)
hδψak |. Dado que las variaciones de cada ψa∗k son independientes, esto se cumple si y solo si δk F = 0 para cada
orbital. Por tanto, la Ec. (29.54) nos da
N
X
h (k) |ψak (Tk )i + ψap (Tp ) W (k, p) ψap (Tp ) |ψak (Tk )i
p=1
N
X N
X
− ψap (Tp ) W (k, p) |ψak (Tp )i ψap (Tk ) − λkp ψap (Tp )
p=1 p=1
= 0 (29.55)
este es un conjunto de N ecuaciones acopladas cuya solución nos lleva a determinar los orbitales óptimos ψak (Ti )
requeridos por el principio variacional.
Los multiplicadores de Lagrange λkp forman un arreglo matricial N × N que se puede diagonalizar gracias a
que los orbitales se escriben como el producto de un orbital espacial y otro espinorial Ec. (29.7). En notación de
Dirac escribimos
1
|ψak (Tp )i = |ϕak (rp )i ⊗ sp = , (ms )p ≡ |ϕak (rp )i ⊗ |εk (p)i
2
donde se omite la información sobre sp ya que el espı́n solo puede tomar el valor 1/2. Puesto que los espinores son
ortonormales
hεm (p) |εk (p)i = δ (εm , εk ) (29.56)
658 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK
podemos diagonalizar la matriz de los multiplicadores de Lagrange multiplicando la ecuación (29.55) por el bra
espinorial hεk (p)|, teniendo en cuenta la descomposición (29.7) para cada orbital en (29.55), ası́ como las relaciones
de ortonormalidad (29.56) y el hecho de que los operadores involucrados en (29.55) son independientes del espı́n.
Con todas estas consideraciones se obtiene
N
X
h (k) |ϕak (rk )i + ϕap (rp ) W (k, p) ϕap (rp ) |ϕak (rk )i
p=1
N
X
− δ (εp , εk ) ϕap (rp ) W (k, p) |ϕak (rp )i ϕap (rk ) − λak |ϕak (rk )i
p=1
= 0 (29.57)
λak ≡ λkp δpk (29.58)
finalmente, puesto que las variables rk y rp son variables mudas de integración pueden sustituı́rse por r y r′ .
recordemos que de acuerdo con la Ec. (29.58) λak son los multiplicadores “diagonales”de Lagrange λkk . La Ec.
(29.59) nos dice que los λak son valores propios del operador de Hartree-Fock F, de manera que podemos
escribir
λak = hϕak (r)| F |ϕak (r)i ; k = 1, 2, . . . , N
A los términos J (r) y K (r) se les denomina términos directo y de intercambio, ya que son similares a los términos
directo y de intercambio definidos en la sección 29.2.4, donde Φap (r) es el potencial (29.49) generado por el orbital
ap de acuerdo con la discusión en la sección 29.2.4. Nótese que la suma sobre p en estas expresiones, se recorre
sobre los orbitales que definen a la función de Hartree.
29.5. INTERPRETACIÓN DE LA ECUACIÓN DE HARTREE-FOCK 659
Por otro lado, el operador K (r) (operador de intercambio) se define como un operador integral de acuerdo
con la expresión (29.64). El delta de Kronecker indica que solo sobreviven los pares de orbitales que tienen el
mismo número cuántico magnético de espı́n, es decir cuando ambos tienen espı́n arriba o ambos espı́n abajo. La
ecuación (29.59) de valores propios que surge de los multiplicadores de Lagrange diagonalizados, con las definiciones
(29.60-29.64) se conoce como Ecuación de Hartree-Fock.
los orbitales 1s, 2s, 2p son los orbitales ocupados (para el Neón en el estado base). Para estos orbitales un cálculo
de Hartree-Fock conduce aproximadamente a los siguientes valores [11]
por supuesto hay infinitos orbitales desocupados o virtuales tales como 3s, 3p, 3d, 4s, . . . y que pueden ser ocupados
si se introduce alguna perturbación que excite al átomo.
que se postulan con base en algún argumento fı́sico (por ejemplo orbitales hidrogenoides). Con estos orbitales de
prueba se calculan los términos directo y de intercambio por medio de las Ecs. (29.62, 29.64). Posteriormente, se
660 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK
n o n o n o
ψ (1)
a → F (1)
→ ψ (2)
a → F (2)
→ · · · → ψ (M )
a → F(M )
| {z } | {z } | {z }
hasta lograr la autoconsistencia, es decir cuando la siguiente iteración no produzca un cambio significativo ni en
los orbitales ni en el operador F. Es decir, logramos la autoconsistencia si
n o n o n o
ψ (M
a
)
≃ ψ (M +1)
a ≃ ψ (N )
a y F(M ) ≃ F(M +1) ≃ F(N ) ; N >M
El potencial V de Hartree-Fock que se calcula de esta forma se denomina potencial de campo autoconsistente.
La ecuación de Hartree-Fock es una ecuación efectiva que no nos da en forma directa el valor Fı́sico de las
energı́as. Sin embargo, las energı́as efectivas de partı́cula individual λak se pueden conectar con la energı́a fı́sica
si escribimos el Hamiltoniano fı́sico H en términos del operador F. Para ello tenemos en cuenta las expresiones
(29.1, 29.28) y (29.60) para H y F
H = H (0) + H (1)
XN XZ X Z
(0) ~2 2 Ze2 (1) e2
H ≡ − ∇i − ; H ≡
2m ri |ri − rj |
i=1 i=1 j>i
~2 2 Ze2
F (ri ) ≡ − ∇ − + J (ri ) − K (ri )
2m i ri
con lo cual
N
X
(0)
H ≡ [F (ri ) − J (ri ) + K (ri )] (29.65)
i=1
29.7. DETERMINACIÓN DEL VALOR FÍSICO DE LA ENERGÍA 661
con el método antes descrito podemos calcular el determinante de Slater D, con el cual podemos calcular el valor
esperado de la energı́a. Combinando las Ecs. (29.33, 29.34) y (29.65) podemos determinar el valor esperado de H (0)
N Z
X
(0) ~2 2 Ze2
hD| H |Di = ψa∗k (rk ) − ∇ − ψak (rk ) d3 rk
2m k rk
k=1
XN Z
= ψa∗k (rk ) [F (rk ) − J (rk ) + K (rk )] ψak (rk ) d3 rk
k=1
N Z
X
hD| H (0) |Di = ψa∗k (rk ) [λak − J (rk ) + K (rk )] ψak (rk ) d3 rk
k=1
XN Z N Z
X
= λak ψa∗k (rk ) ψak (rk ) d3 rk − ψa∗k (rk ) J (rk ) ψak (rk ) d3 rk
k=1 k=1
XN Z
+ ψa∗k (rk ) K (rk ) ψak (rk ) d3 rk
k=1
N
X N
X N
X
(0)
hD| H |Di = λak − hψak (r)| J (r) |ψak (r)i + hψak (r)| K (r) |ψak (r)i
k=1 k=1 k=1
donde hemos usado la ortonormalidad de los orbitales y el hecho de que tales orbitales son funciones propias de
F. Y teniendo en cuenta las relaciones
Z N
X
hψak (r)| J (r) |ψak (r)i ≡ ψa∗k (rk ) J (rk ) ψak (rk ) d3 rk = J (ak , ap )
p=1
Z N
X
hψak (r)| K (r) |ψak (r)i ≡ ψa∗k (rk ) K (rk ) ψak (rk ) d3 rk = K (ak , ap )
p=1
por otro lado, el valor esperado de H (1) viene dado por (29.43)
N N
1 XX
hD| H (1) |Di = [J (ak , ap ) − K (ak , ap )]
2
k=1 p=1
esta energı́a posee entonces tres contribuciones, la energı́a efectiva asociada a los electrones independientes donde
cada energı́a está asociada a uno de los orbitales ocupados, la energı́a de Coulomb (originada en la interaccción
de Coulomb clásica), y la energı́a de intercambio que tiene su origen en la combinación entre la interacción de
Coulomb entre los electrones y la naturaleza indistinguible de éstos.
662 CAPÍTULO 29. MÉTODO DE HARTREE-FOCK
Nótese que a pesar de que el determinante de Slater surge de un modelo de partı́culas independientes, el
Hamiltoniano F equivalente de partı́cula independiente depende de la interacción repulsiva entre electrones por
medio de los términos J (r) y K (r). Adicionalmente, las dos últimas contribuciones en la Ec. (29.66) también
surgen de la repulsión electrostática entre pares de electrones del sistema. En consecuencia, tanto el determinante
de Slater como el valor esperado E [D] contienen la información sobre la interacción, a pesar de provenir de un
modelo de partı́cual independiente. La Ec. (29.66) es equivalente a (29.45), pero la Ec. (29.66) tiene la ventaja de
estar escrita en términos de las soluciones λak de la ecuación de Hartree-Fock.
—————————————————
—————————————————–
Bibliografı́a
[1] Robert M. Eisberg. Fundamentals of Modern Physics. John-Wiley & Sons, Inc.
[2] Arthur Beiser. Perspectives of Modern Physics. McGraw-Hill International Editions, Physics Series (1969).
[3] Frank J. Blatt. Modern Physics. McGraw-Hill International Editions, Physics Series (1992).
[4] Claude Cohen-Tannoudji, Bernard Diu, Franck Lalöe. Quantum Mechanics Vols. I, II English version pu-
blished by Hermann and by John Wiley & Sons. Inc. Second Ed. (1977).
[5] Diógenes Campos Romero. Fundamentos de Fı́sica Atómica y Molecular. Editorial Universidad Nacional.
Bogotá, Colombia (1997).
[6] Jerry B. Marion, Stephen Thornton. Classical Dynamics of Particles and Systems. 5th Ed., Thomson
Brooks/Cole (2004).
[7] Leonard I. Schiff. Quantum Mechanics. 3rd Ed., McGraw-Hill International Editions, Physics Series (1968).
[8] John S. Townsend. A modern Approach to Quantum Mechanics. McGraw-Hill International Editions, Physics
Series (1992).
[9] David J. Griffiths. Introduction to Quantum Mechanics. 2nd Ed., Pearson Prentice Hall (2005).
[10] Fujia Yang, Joseph H. Hamilton. Modern Atomic and Nuclear Physics. McGraw-Hill International Editions,
Physics & Astronomy Series (1996).
[11] E. Kryachko, E. V. Ludeña. Energy Density Functional Theory of Many-Electron systems, Dordrecht, Kluwer
Academic Publishers, (1990).
[12] G. Esposito, G. Marmo and G. Sudarshan. From Classical to Quantum Mechanics, Cambridge University
Press, (2004).
663