Professional Documents
Culture Documents
Capitulo 2
Capitulo 2
2
28 de marzo de 2023
2-1
La dimensión del espacio vectorial dim(V ) es el número máximo de vectores li-
nealmente independientes que es posible encontrar en V .
2.1.2. Norma
Con un producto escalar hermitiano podemos definir la norma de un vector
ası́ como también una noción de distancia entre vectores.
p
La norma de un vector se define como || |vi || = (|vi, |vi).
La distancia entre dos vectores se define como la norma del vector diferencia
entre ambos: dist(|ui, |vi) = || |ui |vi||.
Esta propiedad es fácil de probar: Consideremos dos vectores |ui y |vi. Defina-
mos un tercer vector |zi como la parte de |ui que es ortogonal a |vi. O sea: |zi =
(|vi,|ui)
|ui (|vi,|vi) |vi (se puede verificar que (|vi, |zi) = 0). De aquı́ vemos que el vector |ui
puede escribirse como suma de dos vectores ortogonales simplemente invirtiendo
(|vi,|ui)
la expresión anterior: |ui = |zi + (|vi,|vi) |vi. Calculando ahora la norma de |ui obte-
nemos || |ui||2 = || |zi||2 + || |vi||2 ⇥ |(|vi, |ui)|2 /|| |vi||4 |(|vi, |ui)|2 /|| |vi||2 . Multiplicando
ambos lados de la igualdad por || |vi||2 obtenemos la desigualdad de Schwarz.
2-2
Por otro lado, como en todo espacio vectorial normado también se satisface la
conocida desigualdad triangular que establece:
De esta forma, todo vector |wi perteneciente a dicho espacio vectorial puede
escribirse como
P combinación lineal de los elementos de la base ortonormal. En
efecto, |wi = k wk |vk i1 donde los coeficientes wk pueden calcularse tomando el
producto interno con los estados |vk i y resultan ser wk = (|vP
k i, |wi). O sea que la
descomposición de cualquier vector |wi en la base B es |wi = k (|vk i, |wi) |vk i.
Podemos notar que una vez definido el producto escalar (|ui, |wi) queda de-
finida una asociación entre vectores y funcionales. Esto es, para todo vector |wi
podemos definir un funcional, que denotaremos F|wi , de modo tal que su acción
sobre cualquier otro vector |ui sea F|wi (|ui) = (|wi, |ui). Es decir, el funcional asocia-
da al vector |wi le asigna un número complejo a todo otro vector |ui. Mas aún, es
posible mostrar (teorema de Riesz) que existe una correspondencia uno a uno en-
tre vectores y funcionales. Los funcionales lineales también conforman un espacio
vectorial, llamado espacio dual de V .
De esta manera, a partir de ahora usaremos la llamada Notación de Dirac para
los funcionales. Al funcional F|wi lo denotaremos como hw| (o sea: F|wi = hw|) y al
producto interno entre dos vectores lo denotaremos como
2-3
P
Por lo tanto, para un dado vector |wi = k wk |vk i representado en una base B =
{|vi i, i = 1, ..., D}, los coeficientes wk estarán dados por
A los vectores |wi se los suele llamar kets y a los funcionales hw| que viven
en el espacio dual a V , bras. De esta manera, dada una base, los kets pueden ser
representados
P como vectoresPcolumna y los bra como vectores fila. Por ejemplo,
para |wi = k wk |vk i y |ui = k uk |vk i:
0 1
BB w1 CC
BB CC
BB w2 CC
|wi = BBB .. CC
CC y hu| = (u1⇤ , u2⇤ . . . , uD
⇤
), (2.6)
BB . CC
B@ A
wD
entonces el producto interno entre ambos resulta ser el producto de los vectores
fila y columna:
0 1
BB w1 CC
BB CC
⇤ ⇤ ⇤
BB w2 CC
hu | wi = (u1 , u2 . . . , uD ) · BBB .. CC = u ⇤ w1 + u ⇤ w2 + . . . u ⇤ wD . (2.7)
BB CC 1 2 D
B@ . CC
A
wD
De aquı́ tomando el producto interno con |vj i podemos despejar los coeficientes
P
wj0 = hvj |w0 i como wj0 = k wk Ajk , donde los elementos de matriz del operador Â
en la base B son
Ajk = hvj |Â|vk i. (2.10)
2-4
La matriz del operador  en la base B nos permite obtener al vector transformado
por  como combinación lineal de los elementos de la base B.
Naturalmente, los elementos de matriz del operador dependen de la base. Para
relacionar la matriz del operador en dos bases diferentes B = {|vj i, j = 1, ..., D} y
B0 = {|vj0 i, j = 1, ..., D} podemos proceder de la siguiente forma: si vinculamos las
P
dos bases escribiendo |vk0 i = m hvm |vk0 i|vm i y reemplazamos esta expresión en la
fórmula para A0jk = hvj0 |Â|vk0 i obtenemos:
X
A0jk = hvj0 |Â|vk0 i = hvj0 |vl ihvl |Â|vm ihvm |vk0 i,
lm
X
A0jk = ⇤
Ujl Alm Ukm . (2.11)
lm
Veamos cómo actúa P̂uv sobre un vector arbitrario |wi para entender su significado:
De donde interpretamos que P̂uv aplicado a cualquier vector |wi genera otro vector
que apunta en la dirección de |ui y tiene un módulo proporcional al correspon-
diente a la proyección de |wi sobre |vi.
Asimismo, podemos construir un operador lineal al que denominaremos pro-
yector sobre el ket |vi de norma 1 como:
Análogamente al caso anterior vemos que P̂|vi |wi = |vihv|wi. Es decir, la aplicación
del operador P̂|vi a un ket arbitrario |wi nos da la proyección de ese ket sobre |vi.
El proyector definido por P̂|vi cumple la propiedad fundamental que caracteriza a
los proyectores:
2
P̂|vi = P̂|vi . (2.15)
Es decir, aplicarlo dos veces es igual que aplicarlo sólo una. Como el proyector P̂|vi
proyecta sobre un único vector se dice que es un proyector de rango 1 (se puede
representar con una matriz que tiene un único autovalor no nulo e igual a 1). Po-
demos definir proyectores de mayor rango simplemente sumando los proyectores
sobre dos vectores ortogonales |v1 i y |v2 i entre sı́. En efecto, el operador
2-5
también es un proyector pero su rango es 2. Esto puede generalizarse a proyectores
de rango más alto, eligiendo un conjunto más grande de vectores ortonormales. Un
ejemplo de ello veremos a continuación.
Consideremos una base ortonormal B = {|vj i, j = 1,P..., D} y los proyectores P̂j =
|vj ihvj |. Podemos verificar que para todo vector |wi = k wk |vk i, la acción del ope-
rador definido por la suma de todos los proyectores P̂j resulta ser:
0 1
BBX CC X X
BB CC
BB P̂j CC |wi = |vj ihvj |wi = wj |vj i = |wi, (2.17)
@ A
j j j
donde hemos usado que los coeficientes wk satisfacen la Ec. (2.5). Es decir, dicho
operador deja invariante a todos los vectores del espacio. En efecto, resulta ser el
operador identidad que denotamos como 1:
X X
1= |vj ihvj | = P̂j . (2.18)
j j
lm
X
⇤
= Ujl Alm Ukm . (2.20)
lm
También
P es evidente
P que la matrizP U satisface que U ⇥U T ⇤ = 1 ya que (U ⇥U T ⇤ )jk =
⇤ 0 0 0 0 0 0
l Ujl Ukl = l hvj |vl ihvl |vk i = hvj |( l |vl ihvl |)|vj i = hvj |1|vk i = jk .
Por otro lado, la notación de Dirac nos permite representar a los operadores en
términos de sus elementos de matriz en una dada base. En efecto, podemos partir
de la siguiente igualdad trivial
 = 1Â1, (2.21)
X
= |vj ihvj |Â |vk ihvk | (2.22)
jk
2-6
donde escribimos la identidad en términos de los proyectores asociados a la base.
Finalmente, entonces X
 = Ajk |vj ihvk |, (2.23)
jk
donde Ajk son los elementos de matriz del operador en dicha base. Podemos notar
que si el operador es diagonal en esa base, es fácil notar que podremos representar
al operador como una combinación lineal de proyectores. Por ejemplo, esto es lo
que que sucede con la identidad. Veremos más adelante, que esta forma de repre-
sentar a los operadores será de gran utilidad.
Es fácil encontrar una relación simple entre los elementos de matriz de  y de † .
En efecto:
(b) (A + B)† = A† + B† .
(c) (c A)† = c⇤ A† , donde c es un número complejo.
 = † . (2.26)
Es evidente que para estos operadores todos los elementos diagonales deben
ser reales.
2-7
Proyectores. Como ya definimos más arriba, los proyectores son operadores
que cumplen que P̂ = P̂ † y
P̂ 2 = P̂. (2.27)
Û † Û = Û Û † = 1. (2.28)
N̂ † N̂ = N̂ N̂ † , (2.29)
2-8
En efecto, si usamos la base B0 en lugar de la base B para escribir la traza, podemos
ver que
X X
Tr(Â) = hvj |Â|vj i = hvj |1Â1|vj i
j j
X
= hvj |vk0 ihvk0 |Â|vm
0 0
ihvm |vj i
jkm
XX
0
= ( hvm |vj ihvj |vk0 i)hvk0 |Â|vm
0
i
km j
X
0
= hvm |vk0 ihvk0 |Â|vm
0
i
km
X
0 0
= hvm |Â|vm i. (2.31)
m
A partir de esto último es sencillo mostrar también que, dado un | i de norma uno
(h | i = 1) y cualquier operador  entonces:
Cuando esto sucede, se dice que los vectores |vj i son los autovectores de  y aj son
los correspondientes autovalores. Es decir, en la base B el operador  se represen-
ta por una matriz diagonal cuyos elementos son los autovalores aj . Asimismo, es
sencillo notar que las matrices hermı́ticas poseen autovalores reales, las unitarias
2-9
autovalores complejos de la forma ei y los autovalores de los proyectores pueden
ser sólo 0 o 1.
Usualmente, nos encontramos con estos operadores expresados en bases donde
no son diagonales. En ese caso, la transformación que diagonaliza la matriz, es una
transformación unitaria de cambio de base. En efecto, si el operador hermı́tico Â
se encuentraP expresado en la base Be = {|ej i, j = 1, ..., D}, y es diagonal en la base B
donde |vj i = k hek |vj i|ek i, podemos definir la matriz cambio de base
0 1
X BB he1 |v1 i . . . he1 |vD i CC
BB .. .. .. CC
Û = |vj ihej | = BBB . . . CC ,
CC (2.35)
B@ A
j heD |v1 i . . . heD |vD i
que toma al |ej i y lo transforma en |vj i. Esta matriz nos permite obtener las com-
ponentes de un dado ket en la base {|vj i}, en términos de las componentes del
mismo ketPen la base {|ek i}. Es decir, si un dado ket tiene la siguiente representa-
ción | i = k hek | i |ek i en la base {|ek i}, entonces las componentes en la base {|vj i}
P P †
se pueden obtener como hvj | i = hvj |1| i = k hvj |ek ihek | i ⌘ k Ujk hek | i (donde
†
Ujk = (Ukj )⇤ = hvj |ek i).
De esta manera, si  se encuentra expresada en la base Be ,
0 1
BB a1 0 . . . 0 CC
BB .. CCCC
BB 0 a . CC
B 2
Û † ÂÛ = D̂ = BBB . ... CC , (2.36)
BB .. 0 CC
BB@ CCA
0 . . . 0 aD
por lo que también se verifica que  = Û D̂ Û † .
En general, es importante saber cuándo un operador  es diagonalizable. Para
esto previamente definimos el polinomio caracterı́stico de Â, y lo denotamos como
p(x) = det(A x1), donde det() es el funcional “determinante”. Dado el polinomio
caracterı́stico p(x) podemos encontrar sus raı́ces. Si el grado del polinomio Q es D a
lo sumo hay D raı́ces distintas que llamamos x1 , x2 , ..., xD . O sea p(x) = j (x xj )
(a menos de un factor multiplicativo). Si  es diagonalizable entonces las raı́ces de
p(x) son los autovalores de Â. Por último, se define el polinomio “minimal” de Â,
denotado m(x), como el polinomio de menor grado tal que m(Â) = 0. Es posible
demostrar, que m(x) divide a p(x) y además m(x) tiene las mismas raı́ces que p(x).
Dados estos elementos podemos formular la condición necesaria y suficiente para
que  sea diagonalizable:  es diagonalizable si y solo si el polinomio minimal m(x)
no tiene raı́ces múltiples.
El método de diagonalización de operadores es bien conocido: una vez deter-
minado el polinomio caracterı́stico y sus raı́ces, para cada una de ellas es necesario
resolver un sistema de ecuaciones para encontrar los autovectores asociados a cada
autovalor. Este sistema es de la forma Â|vj i = xj |vj i.
Para finalizar," como# ejemplo de matriz no diagonalizable podemos mencionar
0 1
a la matriz = cuyo polinomio caracterı́stico es p(x) = x2 y cuyo polinomio
0 0
2-10
minimal es m(x) = p(x). La matriz (que es nilpotente) no es diagonalizable ya que
m(x) tiene una raı́z doble.
En un caso más general, puede haber muchos autovectores que tengan el mismo
autovalor. La degeneración del autovalor aj será igual al número máximo de auto-
vectores ortogonales que tienen autovalor aj . La denotaremos como gj y no es otra
cosa que la dimensión del subespacio asociado al autovalor aj . En ese caso, la base
ortonormal de autovectores de  puede escribirse como B = {|vj,µj i, j = 1, ..., K, µj =
1, ..., gj } donde K es el número de autovalores diferentes (en este caso, la dimensión
P
del espacio de estados es D = K j=1 gj ). Entonces, la descomposición espectral del
operador es
K gj
X X
 = aj |vj,µj ihvj,µj |. (2.38)
j=1 µj =1
P P gj
En cualquier caso, esta descomposición es del tipo  = j aj P̂j donde P̂j = µj =1 |vj,µj ihvj,µj |
es el proyector sobre el subespacio asociado al autovalor aj (cuya dimensión es gj ).
2-11
Â|vj,µj i = aj |vj,µj i. Veamos ahora qué propiedad tienen los vectores B̂|vj,µj i. Se pue-
de probar que estos vectores siguen siendo autovectores de  con el mismo auto-
valor aj . Esto se ve usando la conmutatividad de los dos operadores
2-12
Por otro lado, sea
P una función f (x) : C ! C que admite un desarrollo de Taylor
de la forma f (x) = n 0 f (n) (x)|x=0 xn /n!. Entonces, dado un operador  cualquiera,
podemos definir al operador lineal f (Â) como
X Ân
f (Â) = f (n) (x)|x=0 . (2.43)
n!
n 0
P
Por ejemplo, el operador exp(Â) = n 0 Ân /n!. Resulta inmediato comprobar que
ambas definiciones coinciden para operadores que poseen una base ortonormal
completa de autovectores. Sin embargo, para operadores que no posean una base
ortonormal completa de autovectores sólo tendrá sentido la última definición.
 = Û D̂ V̂ . (2.44)
La matriz D̂, si N M (lo cual se puede suponer sin pérdida de generalidad) es tal
que 0 1
BBd1 0 . . . . . 0 CC
BB C
BB 0 d2 0 . . . . 0 CCC
BB C
D̂ = BBB . . . . . . . . CCCC . (2.45)
BB . . . . . . . . CC C
C
BB
@ A
0 . . . . dN . 0 N ⇥M
Esto puede demostrarse de la siguiente forma: Dada la matriz Â, podemos cons-
truir dos operadores hermı́ticos de la siguiente manera Ê = †  (de M ⇥ M) y
F̂ = † (de N ⇥ N ). El caracter hermı́tico de ambos operadores surge inmediata-
mente de su definición, y además ambos operadores son semidefinidos positivos
(para todo | i se cumple que h |F̂| i 0 y lo mismo para Ê). De esta manera, al ser
ambos operadores hermı́ticos, entonces son diagonalizables. En particular, pode-
mos escribir F̂ = Û K̂ Û † , donde K̂ es una matriz de diagonal de N ⇥N con elementos
no-negativos en la diagonal. Ahora bien, cualquier matriz K̂ de ese tipo puede es-
cribirse como K̂ = D̂ D̂ † , donde las matrices semidiagonales D̂ son las definidas más
arriba en la ecuación (2.45). En efecto, siempre podemos escribir K̂ = D̂ D̂ † donde
los elementos no nulos de D̂ son las raı́ces cuadradas de los elementos diagonales
de K̂. De este modo, F̂ = Û(D̂ D̂ † )Û † . En esta expresión podemos introducir la ma-
triz unitaria V̂ (de M ⇥ M) y su adjunta, de modo tal que F̂ = Û D̂ V̂ V̂ † D̂ † Û † . En
consecuencia, podemos identificar  = Û D̂ V̂ donde Û es la matriz que diagonaliza
F̂ = † . Razonando en forma análoga para el operador Ê = † Â, podemos ver que
V̂ † es la matriz que diagonaliza Ê, esto es Ê = V̂ † K̂ V̂ = V̂ † (D̂ † D̂)V̂ .
2-13