You are on page 1of 13

Versión preliminar del libro Fı́sica Cuántica

J.P.Paz, F. Cerisola, A.J. Roncaglia, C.T. Schmiegelow

2
28 de marzo de 2023

Formalismo para dimensión finita

En este Capı́tulo presentaremos la descripción de los elementos matemáticos


que nos permitirán representar los estados y observables cuánticos. Como dijimos,
los estados estarán representados por vectores que viven en espacios vectoriales
complejos cuya dimensión es igual al número máximo de resultados diferentes en
una medición exhaustiva. En el siguiente capı́tulo veremos que la dimensión del
espacio vectorial que describe a un estado cuántico también puede ser infinita (no
numerable), como lo es para los casos en donde intervienen grados de libertad
continuos como el de traslación.

2.1. Espacios vectoriales.


Un espacio vectorial lineal es un conjunto de elementos, denominados “vecto-
res”, que es cerrado frente a una operación que llamamos “suma” y frente al pro-
ducto con elementos de otro conjunto (que debe ser un “cuerpo”) a los que lla-
mamos “escalares”. Un espacio vectorial consta de cuatro ingredientes {V , +, K, ⇥},
donde V es un conjunto de vectores, K es un cuerpo (que tı́picamente puede ser
el de los números reales o los números complejos), y las operaciones + y ⇥ son la
suma de vectores y el producto por un escalar.
Denotaremos a los vectores de V de la siguiente manera: |v1 i, |v2 i, ...|vn i. En-
tonces, si |v1 i y |v2 i son elementos de V , y 1 y 2 son elementos de K, tenemos
que |wi = 1 ⇥ |v1 i + 2 ⇥ |v2 i es también un elemento de V . En general omitiremos
el sı́mbolo ⇥ para indicar el producto de un vector por un escalar y escribiremos
simplemente |wi = 1 |v1 i + 2 |v2 i.
Diremos que un conjunto de vectores {|vn i} es linealmente independiente si la
única combinaci
P ón lineal entre ellos que resulta cero es la trivial. Es decir se cum-
ple que n cn |vn i = 0 sólo si cn = 0 para todo n.

2-1
La dimensión del espacio vectorial dim(V ) es el número máximo de vectores li-
nealmente independientes que es posible encontrar en V .

2.1.1. Producto interno hermitiano


Trabajaremos con espacios vectoriales sobre los que es posible definir un pro-
ducto interno. Dados dos vectores |vi y |wi el producto interno entre ambos se
denominará (|vi, |wi) y es tal que
(|vi, |wi) 2 C, donde C es el conjunto de los números complejos.
(|vi, |wi) = (|wi, |vi)⇤ donde el superı́ndice ⇤ se usará para denotar el complejo
conjugado.
(|wi, 1 |v1 i + 2 |v2 i) = 1 (|wi, |v1 i) + 2 (|wi, |v2 i). Y por otro lado ( 1 |v1 i +
⇤ ⇤
2 |v2 i, |wi) = 1 (|v1 i, |wi) + 2 (|v2 i, |wi). El producto interno es lineal en la
segunda entrada y antilineal en la primera.
(|vi, |vi) 0 y (|vi, |vi) = 0 si y sólo si |vi = 0 (donde 0 denota aquı́ el vector
que es el elemento neutro de la operación suma de vectores).
El producto escalar nos permite definir también una noción de ortogonalidad
entre vectores. Diremos que |ui es ortogonal a |vi si y solo si (|ui, |vi) = 0.

2.1.2. Norma
Con un producto escalar hermitiano podemos definir la norma de un vector
ası́ como también una noción de distancia entre vectores.
p
La norma de un vector se define como || |vi || = (|vi, |vi).
La distancia entre dos vectores se define como la norma del vector diferencia
entre ambos: dist(|ui, |vi) = || |ui |vi||.

2.1.3. Desigualdad de Schwarz y Triangular.


Todo producto interno con las propiedades mencionadas más arriba satisface
la desigualdad de Schwarz que establece que:

|(|vi, |ui)|  || |vi|| || |ui|| (2.1)

Esta propiedad es fácil de probar: Consideremos dos vectores |ui y |vi. Defina-
mos un tercer vector |zi como la parte de |ui que es ortogonal a |vi. O sea: |zi =
(|vi,|ui)
|ui (|vi,|vi) |vi (se puede verificar que (|vi, |zi) = 0). De aquı́ vemos que el vector |ui
puede escribirse como suma de dos vectores ortogonales simplemente invirtiendo
(|vi,|ui)
la expresión anterior: |ui = |zi + (|vi,|vi) |vi. Calculando ahora la norma de |ui obte-
nemos || |ui||2 = || |zi||2 + || |vi||2 ⇥ |(|vi, |ui)|2 /|| |vi||4 |(|vi, |ui)|2 /|| |vi||2 . Multiplicando
ambos lados de la igualdad por || |vi||2 obtenemos la desigualdad de Schwarz.

2-2
Por otro lado, como en todo espacio vectorial normado también se satisface la
conocida desigualdad triangular que establece:

|| |ui + |vi||  || |ui|| + || |vi||. (2.2)

Esta desigualdad es sencilla de demostrar expandiendo el producto interno de la


suma de vectores y luego utilizando la desigualdad de Schwarz.

2.1.4. Bases ortonormales


Un conjunto de D vectores B = {|vi i, i = 1, ..., D} en un espacio vectorial de di-
mensión D es una base ortonormal si y solo si:

1. Los D vectores son linealmente independientes.

2. Los vectores satisfacen que (|vi i, |vj i) = i,j .

De esta forma, todo vector |wi perteneciente a dicho espacio vectorial puede
escribirse como
P combinación lineal de los elementos de la base ortonormal. En
efecto, |wi = k wk |vk i1 donde los coeficientes wk pueden calcularse tomando el
producto interno con los estados |vk i y resultan ser wk = (|vP
k i, |wi). O sea que la
descomposición de cualquier vector |wi en la base B es |wi = k (|vk i, |wi) |vk i.

2.1.5. Funcionales lineales y notación de Dirac


Diremos que f es un funcional lineal si f es una aplicación f : V ! C (a todo
vector le asigna un número complejo) tal que satisface linealidad

f( 1 |u1 i + 2 |u2 i) = 1f (|u1 i) + 2f (|u2 i). (2.3)

Podemos notar que una vez definido el producto escalar (|ui, |wi) queda de-
finida una asociación entre vectores y funcionales. Esto es, para todo vector |wi
podemos definir un funcional, que denotaremos F|wi , de modo tal que su acción
sobre cualquier otro vector |ui sea F|wi (|ui) = (|wi, |ui). Es decir, el funcional asocia-
da al vector |wi le asigna un número complejo a todo otro vector |ui. Mas aún, es
posible mostrar (teorema de Riesz) que existe una correspondencia uno a uno en-
tre vectores y funcionales. Los funcionales lineales también conforman un espacio
vectorial, llamado espacio dual de V .
De esta manera, a partir de ahora usaremos la llamada Notación de Dirac para
los funcionales. Al funcional F|wi lo denotaremos como hw| (o sea: F|wi = hw|) y al
producto interno entre dos vectores lo denotaremos como

(|wi, |ui) ⌘ hw|ui. (2.4)


1 Notación: cuando no se incluye explı́citamente los lı́mites de la suma se entiende que esta se
P P
realiza sobre todos los elementos. En este caso k ⌘ D k=1 .

2-3
P
Por lo tanto, para un dado vector |wi = k wk |vk i representado en una base B =
{|vi i, i = 1, ..., D}, los coeficientes wk estarán dados por

wk = hvk |wi. (2.5)

A los vectores |wi se los suele llamar kets y a los funcionales hw| que viven
en el espacio dual a V , bras. De esta manera, dada una base, los kets pueden ser
representados
P como vectoresPcolumna y los bra como vectores fila. Por ejemplo,
para |wi = k wk |vk i y |ui = k uk |vk i:
0 1
BB w1 CC
BB CC
BB w2 CC
|wi = BBB .. CC
CC y hu| = (u1⇤ , u2⇤ . . . , uD

), (2.6)
BB . CC
B@ A
wD

entonces el producto interno entre ambos resulta ser el producto de los vectores
fila y columna:
0 1
BB w1 CC
BB CC
⇤ ⇤ ⇤
BB w2 CC
hu | wi = (u1 , u2 . . . , uD ) · BBB .. CC = u ⇤ w1 + u ⇤ w2 + . . . u ⇤ wD . (2.7)
BB CC 1 2 D
B@ . CC
A
wD

2.2. Operadores lineales


Un operador lineal  es una aplicación  : V ! V tal que:

Â( 1 |u1 i + 2 |u2 i) = 1 Â(|u1 i) + 2 Â(|u2 i) = |u3 i, (2.8)

donde los vectores |uk i pertenecen todos a V .


Para caracterizar un operador, es suficiente con indicar su acción en una base
dada, ya que cualquier vector puede obtenerse como combinación lineal de los
elementos de la base. Sobre cada base B = {|vj i, j = 1, ..., D} un operador lineal tiene
asociada una matriz con elementos Ajk . En efecto, supongamos que aplicamos el
P
operador
P Â al vector |wi = k wk |vk i. Por linealidad tenemos que Â|wi = |w0 i =
0
k wkPÂ|vk i. Pero el vector |w i también puede desarrollarse en la misma base:
|w0 i = k wk0 |vk i. De manera que:
X X
0 0
|w i = wk |vk i = wk Â|vk i. (2.9)
k k

De aquı́ tomando el producto interno con |vj i podemos despejar los coeficientes
P
wj0 = hvj |w0 i como wj0 = k wk Ajk , donde los elementos de matriz del operador Â
en la base B son
Ajk = hvj |Â|vk i. (2.10)

2-4
La matriz del operador  en la base B nos permite obtener al vector transformado
por  como combinación lineal de los elementos de la base B.
Naturalmente, los elementos de matriz del operador dependen de la base. Para
relacionar la matriz del operador en dos bases diferentes B = {|vj i, j = 1, ..., D} y
B0 = {|vj0 i, j = 1, ..., D} podemos proceder de la siguiente forma: si vinculamos las
P
dos bases escribiendo |vk0 i = m hvm |vk0 i|vm i y reemplazamos esta expresión en la
fórmula para A0jk = hvj0 |Â|vk0 i obtenemos:
X
A0jk = hvj0 |Â|vk0 i = hvj0 |vl ihvl |Â|vm ihvm |vk0 i,
lm
X
A0jk = ⇤
Ujl Alm Ukm . (2.11)
lm

Donde definimos la matriz de cambio de base Ujl = hvj0 |vl i.

2.2.1. Proyectores y algunas virtudes de la notación de Dirac.


A partir de dos vectores |ui y |vi de norma 1 podemos construir dos operadores
lineales distintos a partir del producto externo entre vectores:

P̂uv = |uihv|, P̂vu = |vihu|. (2.12)

Veamos cómo actúa P̂uv sobre un vector arbitrario |wi para entender su significado:

P̂uv |wi = |uihv|wi. (2.13)

De donde interpretamos que P̂uv aplicado a cualquier vector |wi genera otro vector
que apunta en la dirección de |ui y tiene un módulo proporcional al correspon-
diente a la proyección de |wi sobre |vi.
Asimismo, podemos construir un operador lineal al que denominaremos pro-
yector sobre el ket |vi de norma 1 como:

P̂|vi = |vihv|. (2.14)

Análogamente al caso anterior vemos que P̂|vi |wi = |vihv|wi. Es decir, la aplicación
del operador P̂|vi a un ket arbitrario |wi nos da la proyección de ese ket sobre |vi.
El proyector definido por P̂|vi cumple la propiedad fundamental que caracteriza a
los proyectores:
2
P̂|vi = P̂|vi . (2.15)
Es decir, aplicarlo dos veces es igual que aplicarlo sólo una. Como el proyector P̂|vi
proyecta sobre un único vector se dice que es un proyector de rango 1 (se puede
representar con una matriz que tiene un único autovalor no nulo e igual a 1). Po-
demos definir proyectores de mayor rango simplemente sumando los proyectores
sobre dos vectores ortogonales |v1 i y |v2 i entre sı́. En efecto, el operador

P̂1,2 = P̂|v1 i + P̂|v2 i (2.16)

2-5
también es un proyector pero su rango es 2. Esto puede generalizarse a proyectores
de rango más alto, eligiendo un conjunto más grande de vectores ortonormales. Un
ejemplo de ello veremos a continuación.
Consideremos una base ortonormal B = {|vj i, j = 1,P..., D} y los proyectores P̂j =
|vj ihvj |. Podemos verificar que para todo vector |wi = k wk |vk i, la acción del ope-
rador definido por la suma de todos los proyectores P̂j resulta ser:
0 1
BBX CC X X
BB CC
BB P̂j CC |wi = |vj ihvj |wi = wj |vj i = |wi, (2.17)
@ A
j j j

donde hemos usado que los coeficientes wk satisfacen la Ec. (2.5). Es decir, dicho
operador deja invariante a todos los vectores del espacio. En efecto, resulta ser el
operador identidad que denotamos como 1:
X X
1= |vj ihvj | = P̂j . (2.18)
j j

Esta propiedad es válida para cualquier base ortonormal. Es decir, la identidad se


puede escribir como la suma de todos los proyectores asociados a una base base
ortonormal. Resulta inmediato convencerse que si P̂ es un proyector entonces
P̂ 0 = 1 P̂, (2.19)
también es un proyector.
Esta descomposición de la identidad es muy útil ya que nos permite obtener
fácilmente muchos resultados. Por ejemplo, a partir de ella podemos obtener de
manera inmediata la relación que existe entre los elementos de matriz de un ope-
rador en dos bases diferentes. En efecto:
A0jk = hvj0 |Â|vk0 i = hvj0 |1Â1|vk0 i
0 1 0 1
BBX CC BBX CC
= hvj0 | BBB@ |vl ihvl |CCCA Â BB@ |vm ihvm |CCA |vk0 i
m
X l
= hvj |vl ihvl |Â|vm ihvm |vk0 i
0

lm
X

= Ujl Alm Ukm . (2.20)
lm

También
P es evidente
P que la matrizP U satisface que U ⇥U T ⇤ = 1 ya que (U ⇥U T ⇤ )jk =
⇤ 0 0 0 0 0 0
l Ujl Ukl = l hvj |vl ihvl |vk i = hvj |( l |vl ihvl |)|vj i = hvj |1|vk i = jk .
Por otro lado, la notación de Dirac nos permite representar a los operadores en
términos de sus elementos de matriz en una dada base. En efecto, podemos partir
de la siguiente igualdad trivial
 = 1Â1, (2.21)
X
= |vj ihvj |Â |vk ihvk | (2.22)
jk

2-6
donde escribimos la identidad en términos de los proyectores asociados a la base.
Finalmente, entonces X
 = Ajk |vj ihvk |, (2.23)
jk

donde Ajk son los elementos de matriz del operador en dicha base. Podemos notar
que si el operador es diagonal en esa base, es fácil notar que podremos representar
al operador como una combinación lineal de proyectores. Por ejemplo, esto es lo
que que sucede con la identidad. Veremos más adelante, que esta forma de repre-
sentar a los operadores será de gran utilidad.

2.2.2. Operador Adjunto. Operadores hermı́ticos y unitarios.


Dado un operador  definimos el operador adjunto hermitiano, † , como aquel
operador que verifica la siguiente relación para todo par de vectores |ui y |wi

(|ui, Â|wi) = († |ui, |wi). (2.24)

Es fácil encontrar una relación simple entre los elementos de matriz de  y de † .
En efecto:

†jk = (|vj i, † |vk i)


= († |vk i, |vj i)⇤ = (|vk i, Â|vj i)⇤
= Â⇤kj . (2.25)

O sea, dada una base, la matriz asociada a † es la transpuesta y conjugada de la


matriz de Â.
Asimismo, existen otras propiedades importantes de los operadores adjuntos.
(a) (ÂB̂)† = B̂† † .

Esta identidad se demuestra trivialmente usando P que la matriz


P adjunta es
la transpuesta y conjugada: ((ÂB̂)† )jk = (ÂB̂)⇤kj = l A⇤kl B⇤lj = l (B̂† )jl († )lk =
(B̂† † )jk .

(b) (A + B)† = A† + B† .
(c) (c A)† = c⇤ A† , donde c es un número complejo.

A continuación, definimos los siguientes tipos de operadores:


Hermı́ticos. Â es un operador hermı́tico si y solo si satisface que

 = † . (2.26)

Es evidente que para estos operadores todos los elementos diagonales deben
ser reales.

2-7
Proyectores. Como ya definimos más arriba, los proyectores son operadores
que cumplen que P̂ = P̂ † y
P̂ 2 = P̂. (2.27)

Unitarios. Û es un operador unitario si y solo si satisface que

Û † Û = Û Û † = 1. (2.28)

Es decir, que para estos operadores la matriz adjunta es la inversa, Û † = Û 1 .


Notablemente, las transformaciones unitarias preservan el producto interno
entre vectores. Un ejemplo importante de este tipo de operadores es el ope-
rador de cambio de base, que transforma vectores ortogonales en vectores
ortogonales. Dadas dos bases B = {|vj i, j = 1, ..., D} y B0 = {|vj0 i, j = 1, ..., D} la
matriz definida por los productos escalares entre los elementos de ambas ba-
ses es unitaria. Si definimos (Û)jk = hvj0 |vk i, se cumple que Û Û † = Û † Û = 1.
Esto puede demostrarse apelando a la versatilidad de la notación de Dirac de
manera muy sencilla:
X
(Û † Û)jk = hvj |Û † |vl ihvl |Û|vk i
l
X
= hvl |Û|vj i⇤ hvl |Û|vk i
l
X X
= hvl0 |vj i⇤ hvl0 |vk i = hvj |vl0 ihvl0 |vk i
l l
= hvj |vk i = jk .

Dejamos la demostración simétrica de que Û Û † = 1 como ejercicio.

Normales. Un operador N̂ es normal si y solo si se cumple que

N̂ † N̂ = N̂ N̂ † , (2.29)

o sea, si N̂ “conmuta” con su adjunto. Evidentemente, los operadores hermı́ti-


cos y los unitarios son normales.

2.2.3. Traza de un operador


Dado un operador  se define la traza de  como el funcional lineal que cumple
X
Tr(Â) = hvj |Â|vj i. (2.30)
j

O sea, la traza es la suma de todos los elementos diagonales de  en una base. Es


simple ver que la traza es la misma cualquiera sea la base en la que la calculemos.

2-8
En efecto, si usamos la base B0 en lugar de la base B para escribir la traza, podemos
ver que
X X
Tr(Â) = hvj |Â|vj i = hvj |1Â1|vj i
j j
X
= hvj |vk0 ihvk0 |Â|vm
0 0
ihvm |vj i
jkm
XX
0
= ( hvm |vj ihvj |vk0 i)hvk0 |Â|vm
0
i
km j
X
0
= hvm |vk0 ihvk0 |Â|vm
0
i
km
X
0 0
= hvm |Â|vm i. (2.31)
m

A partir de esto último es sencillo mostrar también que, dado un | i de norma uno
(h | i = 1) y cualquier operador  entonces:

Tr(ÂP̂| i ) = h |Â| i (2.32)

donde P̂| i = | ih | es el proyector sobre | i. Eso es simple de verificar usando


que dado que la traza es independiente de la base en la que se calcule, siempre
podemos elegir una base ortonormal con | i como uno de sus elementos.
Una propiedad muy importante de la traza, que se deduce de las expresiones
anteriores, es que
Tr(ÂB̂) = Tr(B̂Â). (2.33)
De hecho, puede demostrarse que la única funcional lineal con esta propiedad es
la traza, definida más arriba.

2.2.4. Operadores diagonalizables


A lo largo del libro prestaremos especial atención los operadores hermı́ticos
(asociados a los observables) y unitarios (asociados a las evoluciones tempora-
les). Estos operadores son normales por definición y por lo tanto se puede mos-
trar además que son diagonalizables. Esto implica que, dado un operador normal
 que actúa en un espacio vectorial finito, existe una base ortonormal en el que
la matriz que representa al operador P  es diagonal. Si  es diagonal en la base
B = {|vj i, j = 1, ..., D}, es decir  = j aj |vj ihvj |, entonces se cumple que

Â|vj i = aj |vj i. (2.34)

Cuando esto sucede, se dice que los vectores |vj i son los autovectores de  y aj son
los correspondientes autovalores. Es decir, en la base B el operador  se represen-
ta por una matriz diagonal cuyos elementos son los autovalores aj . Asimismo, es
sencillo notar que las matrices hermı́ticas poseen autovalores reales, las unitarias

2-9
autovalores complejos de la forma ei y los autovalores de los proyectores pueden
ser sólo 0 o 1.
Usualmente, nos encontramos con estos operadores expresados en bases donde
no son diagonales. En ese caso, la transformación que diagonaliza la matriz, es una
transformación unitaria de cambio de base. En efecto, si el operador hermı́tico Â
se encuentraP expresado en la base Be = {|ej i, j = 1, ..., D}, y es diagonal en la base B
donde |vj i = k hek |vj i|ek i, podemos definir la matriz cambio de base
0 1
X BB he1 |v1 i . . . he1 |vD i CC
BB .. .. .. CC
Û = |vj ihej | = BBB . . . CC ,
CC (2.35)
B@ A
j heD |v1 i . . . heD |vD i
que toma al |ej i y lo transforma en |vj i. Esta matriz nos permite obtener las com-
ponentes de un dado ket en la base {|vj i}, en términos de las componentes del
mismo ketPen la base {|ek i}. Es decir, si un dado ket tiene la siguiente representa-
ción | i = k hek | i |ek i en la base {|ek i}, entonces las componentes en la base {|vj i}
P P †
se pueden obtener como hvj | i = hvj |1| i = k hvj |ek ihek | i ⌘ k Ujk hek | i (donde

Ujk = (Ukj )⇤ = hvj |ek i).
De esta manera, si  se encuentra expresada en la base Be ,
0 1
BB a1 0 . . . 0 CC
BB .. CCCC
BB 0 a . CC
B 2
Û † ÂÛ = D̂ = BBB . ... CC , (2.36)
BB .. 0 CC
BB@ CCA
0 . . . 0 aD
por lo que también se verifica que  = Û D̂ Û † .
En general, es importante saber cuándo un operador  es diagonalizable. Para
esto previamente definimos el polinomio caracterı́stico de Â, y lo denotamos como
p(x) = det(A x1), donde det() es el funcional “determinante”. Dado el polinomio
caracterı́stico p(x) podemos encontrar sus raı́ces. Si el grado del polinomio Q es D a
lo sumo hay D raı́ces distintas que llamamos x1 , x2 , ..., xD . O sea p(x) = j (x xj )
(a menos de un factor multiplicativo). Si  es diagonalizable entonces las raı́ces de
p(x) son los autovalores de Â. Por último, se define el polinomio “minimal” de Â,
denotado m(x), como el polinomio de menor grado tal que m(Â) = 0. Es posible
demostrar, que m(x) divide a p(x) y además m(x) tiene las mismas raı́ces que p(x).
Dados estos elementos podemos formular la condición necesaria y suficiente para
que  sea diagonalizable:  es diagonalizable si y solo si el polinomio minimal m(x)
no tiene raı́ces múltiples.
El método de diagonalización de operadores es bien conocido: una vez deter-
minado el polinomio caracterı́stico y sus raı́ces, para cada una de ellas es necesario
resolver un sistema de ecuaciones para encontrar los autovectores asociados a cada
autovalor. Este sistema es de la forma Â|vj i = xj |vj i.
Para finalizar," como# ejemplo de matriz no diagonalizable podemos mencionar
0 1
a la matriz = cuyo polinomio caracterı́stico es p(x) = x2 y cuyo polinomio
0 0

2-10
minimal es m(x) = p(x). La matriz (que es nilpotente) no es diagonalizable ya que
m(x) tiene una raı́z doble.

2.2.5. Descomposición espectral de un operador.


Supongamos que  es diagonalizable en la base B = {|vj i, j = 1, ..., D} y que los
autovalores asociados a cada autovector son aj . Al conjunto de autovalores {aj } lo
llamamos el espectro de Â. Entonces el operador puede escribirse como
D
X
 = aj |vj ihvj |. (2.37)
j=1

En un caso más general, puede haber muchos autovectores que tengan el mismo
autovalor. La degeneración del autovalor aj será igual al número máximo de auto-
vectores ortogonales que tienen autovalor aj . La denotaremos como gj y no es otra
cosa que la dimensión del subespacio asociado al autovalor aj . En ese caso, la base
ortonormal de autovectores de  puede escribirse como B = {|vj,µj i, j = 1, ..., K, µj =
1, ..., gj } donde K es el número de autovalores diferentes (en este caso, la dimensión
P
del espacio de estados es D = K j=1 gj ). Entonces, la descomposición espectral del
operador es
K gj
X X
 = aj |vj,µj ihvj,µj |. (2.38)
j=1 µj =1
P P gj
En cualquier caso, esta descomposición es del tipo  = j aj P̂j donde P̂j = µj =1 |vj,µj ihvj,µj |
es el proyector sobre el subespacio asociado al autovalor aj (cuya dimensión es gj ).

2.2.6. Operadores compatibles. Teorema: compatibles si y solo si


conmutan.
Sean dos operadores diagonalizables  y B̂. Se dice que estos operadores son
compatibles cuando son diagonalizables en la misma base (o sea, tienen una base
común de autovectores). Podemos demostrar que dos operadores  y B̂ son com-
patibles si y sólo si conmutan. O sea, si y sólo si
[Â, B̂] ⌘ ÂB̂ B̂Â = 0. (2.39)
Este teorema es muy sencillo de probar en una dirección. En efecto, si los ope-
radores son compatibles entonces es evidente que conmutan ya que dos matrices
que son diagonales en la misma base conmutan (su producto, en cualquier orden,
es diagonal en la misma base). En la otra dirección, el teorema es menos trivial.
En efecto, supongamos que  y B̂ conmutan y que  es diagonal en la base de au-
tovectores B = {|vj,µj i, j = 1, ..., K, µj = 1, ..., gj } (o sea, estamos suponiendo que el
operador  puede ser degenerado y que la degeneración del autovalor aj es, co-
mo antes, igual a gj ). Como estos vectores son autovectores de  se cumple que

2-11
Â|vj,µj i = aj |vj,µj i. Veamos ahora qué propiedad tienen los vectores B̂|vj,µj i. Se pue-
de probar que estos vectores siguen siendo autovectores de  con el mismo auto-
valor aj . Esto se ve usando la conmutatividad de los dos operadores

Â(B̂|vj,µj i) = B̂Â|vj,µj i = aj (B̂|vj,µj i). (2.40)

Como dijimos, los vectores B̂|vj,µj i son autovectores (posiblemente no normali-


zados) de Â. En consecuencia, el operador B̂ deja invariantes a los subespacios
de dimensión gj que están asociados a los distintos autovalores aj , por lo tanto
hvk,µk |B̂|vj,µj i = 0 para j , k. En esta base, las matrices de los operadores  y B̂ son
2 3
66a1 1g1 ⇥g1 0 0 ... 0 77
66 77
66 0 a2 1g2 ⇥g2 0 ... 0 77
66 77
66 0 0 a3 1g3 ⇥g3 ... 0 77
 = 66 6 77 ,
66 .. .. .. .. .. 77
66 77
66 .. .. .. .. .. 77
64 77
5
0 0 0 .. aK 1gK ⇥gK
2 (1) 3
66Bg ⇥g
66 1 1 0 0 ... 0 77
77
66 (2) 7
66 0 Bg2 ⇥g2 0 ... 0 777
66 (3)
77
66 0 0 B ... 0 77
B̂ = 666 g3 ⇥g3 77 .
77 (2.41)
66 .. .. .. .. .. 77
66 7
66 .. .. .. .. .. 7777
66
64 (K) 7 5
0 0 0 .. BgK ⇥gK

Donde 1gj ⇥gj indica la presencia de bloques de gj ⇥gj proporcionales a la identidad.


O sea, en esta base, la matriz de B̂ es “diagonal por bloques”. Si hacemos cualquier
cambio de base en esos subespacios no modificaremos la matriz de  (ya que es
proporcional a la identidad). De esta manera, como B̂ es diagonalizable, cada una
(j)
de las submatrices Bgj ⇥gj es diagonalizable, por lo tanto podemos encontrar una
(j)
base de ese subespacio en la cual Bgj ⇥gj es diagonal. Haciendo eso en cada uno
de los subespacios asociados a los autovalores aj encontramos una base en la cual
B̂ será diagonal y en la cual  es también diagonal (y tiene la misma forma que
antes). Por lo tanto, existe una base en la que ambos operadores son diagonales.

2.2.7. Función de un operador


Veremos dos formas de definir la función de un operador. Por un lado, dado un
operador  diagonalizable que posee una base completa de autovectores {|vj i, j =
1, ..., D} con autovalores aj y una función f (x) : C ! C, definimos:
X
f (Â) = f (aj )|vj ihvj |. (2.42)
j

2-12
Por otro lado, sea
P una función f (x) : C ! C que admite un desarrollo de Taylor
de la forma f (x) = n 0 f (n) (x)|x=0 xn /n!. Entonces, dado un operador  cualquiera,
podemos definir al operador lineal f (Â) como
X Ân
f (Â) = f (n) (x)|x=0 . (2.43)
n!
n 0
P
Por ejemplo, el operador exp(Â) = n 0 Ân /n!. Resulta inmediato comprobar que
ambas definiciones coinciden para operadores que poseen una base ortonormal
completa de autovectores. Sin embargo, para operadores que no posean una base
ortonormal completa de autovectores sólo tendrá sentido la última definición.

2.2.8. Descomposición en valores singulares de una matriz


El siguiente es un resultado de gran utilidad que vale la pena mencionarlo aquı́.
Sea  una matriz de N ⇥ M entonces existen matrices unitarias Û (de N ⇥ N ) y V̂
(de M ⇥ M), y una matriz positiva semidiagonal D̂ (de N ⇥ M) tal que

 = Û D̂ V̂ . (2.44)

La matriz D̂, si N  M (lo cual se puede suponer sin pérdida de generalidad) es tal
que 0 1
BBd1 0 . . . . . 0 CC
BB C
BB 0 d2 0 . . . . 0 CCC
BB C
D̂ = BBB . . . . . . . . CCCC . (2.45)
BB . . . . . . . . CC C
C
BB
@ A
0 . . . . dN . 0 N ⇥M
Esto puede demostrarse de la siguiente forma: Dada la matriz Â, podemos cons-
truir dos operadores hermı́ticos de la siguiente manera Ê = †  (de M ⇥ M) y
F̂ = † (de N ⇥ N ). El caracter hermı́tico de ambos operadores surge inmediata-
mente de su definición, y además ambos operadores son semidefinidos positivos
(para todo | i se cumple que h |F̂| i 0 y lo mismo para Ê). De esta manera, al ser
ambos operadores hermı́ticos, entonces son diagonalizables. En particular, pode-
mos escribir F̂ = Û K̂ Û † , donde K̂ es una matriz de diagonal de N ⇥N con elementos
no-negativos en la diagonal. Ahora bien, cualquier matriz K̂ de ese tipo puede es-
cribirse como K̂ = D̂ D̂ † , donde las matrices semidiagonales D̂ son las definidas más
arriba en la ecuación (2.45). En efecto, siempre podemos escribir K̂ = D̂ D̂ † donde
los elementos no nulos de D̂ son las raı́ces cuadradas de los elementos diagonales
de K̂. De este modo, F̂ = Û(D̂ D̂ † )Û † . En esta expresión podemos introducir la ma-
triz unitaria V̂ (de M ⇥ M) y su adjunta, de modo tal que F̂ = Û D̂ V̂ V̂ † D̂ † Û † . En
consecuencia, podemos identificar  = Û D̂ V̂ donde Û es la matriz que diagonaliza
F̂ = † . Razonando en forma análoga para el operador Ê = † Â, podemos ver que
V̂ † es la matriz que diagonaliza Ê, esto es Ê = V̂ † K̂ V̂ = V̂ † (D̂ † D̂)V̂ .

2-13

You might also like